Enable javascript in your browser for better experience. Need to know to enable it? Go here.

领域特定的大语言模型

发布于 : Apr 26, 2023
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。 了解更多
Apr 2023
评估 ?

在之前的技术雷达中,我们已经提到过 BERTERNIE 之类的大型语言模型 (LLMs);但是 领域特定的大型语言模型 是一个新兴的趋势。使用领域特定数据对通用大型语言模型进行微调能将它们用于各种各样的任务,包括信息查询,增强用户支持和内容创作。这种实践已经在法律和金融领域展现出现它的潜力,例如使用 OpenNyAI 进行法律文书分析。随着越来越多的组织开始对大型语言模型进行试验和越来越多像 GPT-4 这样的新模型的发布,我们预期大型语言模型在不久的将来会有更多领域特定的用例。 但是使用大型语言模型仍面临许多挑战和缺陷。首先,大型语言模型能”很自信地犯错”,所以需要构建一些机制来保证结果的准确性。其次,第三方大型语言模型可能保留或二次分享你的数据,这会对保密信息和数据的所有权带来风险。组织应当仔细审阅使用条款和供应商的可信度,或考虑在自己控制的基础设施上训练和运行大型语言模型。就像其他的新技术一样,在业务上使用大语言模型前需要保持谨慎,并理解采用大型语言模型带来的后果和风险。

下载 PDF

 

English | Español | Português | 中文

订阅技术雷达简报

 

立即订阅

查看存档并阅读往期内容