给大模型注入领域知识

随着大家对大型语言模型(LLM)的兴趣激增,许多开发者也在构建基于LLM的应用。当直接使用Prompt驱动的LLM表现不如预期时,问题就出现了:如何提高LLM应用的可用性。

模型微调(Finetuning)

Finetuning也就是微调,这是将预训练的LLM进一步训练到较小、特定数据集上的过程,以使其适应特定任务或提高性能。通过微调,我们根据特有的数据集调整模型的权重,使其更适合我们应用程序的独特需求。

检索增强生成(RAG)

这种方法将检索(或搜索)的能力整合到LLM文本生成中。它结合了一个检索系统,从大型语料库中获取相关的文档片段,LLM利用这些片段中的信息生成答案。实质上,RAG帮助模型“查找”外部信息,以改善其回应。