Enable javascript in your browser for better experience. Need to know to enable it? Go here.

急于冲向大语言模型微调(fine-tune LLMs)

发布于 : Apr 03, 2024
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。 了解更多
Apr 2024
暂缓 ?

许多组织都在试图将大语言模型(LLMs)应用于他们的产品、领域或组织知识,我们看到了太多 急于冲向大语言模型微调(fine-tune LLMs) 的情况。虽然这种操作的确可以强大到对特定任务的用例进行优化,但在许多情况下对大语言模型进行微调并不是必需的。最常见误用是为了让 LLM 应用程序了解特定的知识、事实或组织的代码库进行微调。在绝大多数场景下,使用检索增强生成(RAG)可以提供更好的解决方案和更优的投入产出比。微调需要大量的计算资源和专家能力,并且比 RAG 面临更多敏感和专有数据挑战。此外当你没有足够的数据进行微调时,还有欠拟合(underfitting)的风险。又或者,当你拥有太多数据时(这倒不太常见),出现过拟合(overfitting)风险。总之达到你所需要任务专业性的正确平衡是比较困难的。在你急于为应用场景进行大语言模型微调前,需要仔细考虑这些权衡和替代方案。

下载 PDF

 

English | Español | Português | 中文

订阅技术雷达简报

 

立即订阅

查看存档并阅读往期内容