声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权Soraor转载发布。

【新智元导读】来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流水线,用微调的方法交给同一个LLM完成,结果同时实现了模型在RAG任务上的性能提升。

在需要大量事实知识的文本生成任务中,RAG成为了常用的LLM部署技巧。

但佐治亚理工学院和英伟达最近发表的一篇论文提出——RAG可以不止停留在用于推理的pipeline中,类似的思路完全可以移植到微调阶段,于是有了这个名为RankRAG的框架。

image

论文地址:https://arxiv.org/abs/2407.02485

他们的思路可以概括为:用微调拓展模型的能力,把原来RAG需要额外模型的检索、排名任务全丢回给LLM自己。

结果发现,不仅数据效率提高了,模型性能也有显著增强,相比今年5月刚提出的ChatQA-1.5系列有显著优势。

在9个通用基准和5个生物医学的知识密集型基准上,RankRAG用Llama38B/70B微调出的模型分别超过了同样基座上ChatQA-1.5的两个微调模型,Llama3-ChatQA-1.5-8B和Llama3-ChatQA-1.5-70B。

image

ChatQA-1.5项目地址:https://chatqa-project.github.io/

image

检索增强生成技术,简称为RAG(Retrieval-Augmented Generation),被广泛适用于LLM的定制化,尤其是知识密集型的NLP任务。可以帮助模型在不改变权重的情况下掌握「长尾知识」和最新信息,并适应到特定的领域。

通常情况下,RAG的工作流程大致是:对于给定问题,由一个基于文本编码的稠密模型从外部数据库中检索到top-k个文本段,然后输入给LLM进行读取,以此为基础进行生成。

image

来源:AWS

这个pipeline看起来非常符合直觉,也已经被广泛使用,但作者在论文开篇指出了其中的固有局限,首先就是k值的选择。

如果k值较大(比如top-100),即使是支持长上下文的窗口的LLM也很难快速读取这么多文本块。随着k值的增大,性能会很快饱和。

除了效率原因,之前还有研究表明,k值在5或10这个量级时,生成结果的准确性更高。因为过多上下文会引入不相关内容,妨碍LLM生成准确答案,

image

《Retrieval meets Long Context Large Language Models》https://arxiv.org/abs/2310.03025

那把k值就定在这个区间不行吗?

如果给定一个较小的k,我们需要一种机制来保证检索结果的高召回率(recall)。

鉴于检索器的表达能力有限(通常是稀疏检索模型如BM25,或中等大小的编码模型如BERT-based),通常无法捕获所有相关信息,因此实际的应用过程还会加上一个交叉编码(cross-encoding)的排名模型。

排名模型从数据库中检索到top-N个候选 (N ≫ k),再经过一次排名得到最终top-k结果。

这种方案的缺陷在于,与通用的LLM本身相比,专家排名模型的零样本泛化能力相对有限,上游检索结果的质量很可能造成下游LLM生成任务的瓶颈。这在许多实证研究中都得到了验证。

基于上述考虑,作者认为可以只使用LLM同时完成上下文检索和内容生成任务,通过设计RAG的指令调优来实现,这种新颖的框架被命名为RankRAG。

OpenAI的GPT-4报告中就发现,检索、排名过程中发展出的「确定文本块与问题是否相关」的能力对答案的生成同样有用,这两者可以被视为「双重能力」。

RankRAG在训练过程中引入了一项带指令的问答任务,让模型能够识别出与问题相关的上下文或段落,便于在推理时对检索结果进行排名。

如果将一部分排名数据集成到指令微调中,还能大大增强LLM在RAG排名任务中的性能,甚至超过了单独用LLM和10×排名数据进行微调的结果。

RankRAG微调框架

在推理阶段,RankRAG的pipeline与上述的的「检索-排名-生成」流程几乎相同,首先检索出带有相关性分数的top-N结果,然后进行重新排名并保留top-k段落,将其与问题连接到一起进行生成。

主要的不同点在于模型训练过程,使用了两个阶段的指令微调(图2)直接增强LLM的相关能力,而不是在模型外部添加额外操作。

image

第一阶段首先进行监督微调(SFT),128k个样例来自多个数据集的混合,包括对话数据集SODA、Dolly、OpenAssistant,长格式QA数据集ELI5(需要详细答案),LLM合成的指令,以及CoT数据集FLAN。

这个阶段的SFT主要是为了提高LLM的指令跟随能力,虽然与RAG关系不大,但可以为接下来的指令微调过程做好铺垫。

为了提升LLM的检索、排名性能,第二阶段的微调数据集由以下几个部分混合组成(表1):

第一阶段的SFT数据:用于维持指令跟随能力

上下文丰富的QA数据:涵盖了DROP、NarrativeQA、Quoref、ROPES、NewsQA、TAT-QA等数据集,每条数据包含问题、黄金上下文(golden context)和答案

会话QA数据集:如Synthetic Conversation和HumanAnnotatedConvQA,同时包括对话内容以及一份背景文档

检索增强的QA数据:不仅包括SQuAD和WebQuestions中的问题和答案,还用BM25将黄金上下文和检索到的top结果组合起来,确保每条数据都有5个上下文,其中有些上下文可能不包括问题答案,甚至是hard-negative,这是为了重点提高LLM对不相关上下文的鲁棒性

上下文排名数据:使用流行的MS Marco语义相关性数据集,将其中的黄金样本视为相关的查询-段落对 (𝑞,𝑐+),BM25挖掘的hard negtive (𝑞,𝑐−)则被视为不相关,让LLM对这些样本的相关性进行二元分类(True或False)

检索增强的排名数据:同样使用QA数据集SQuAD和WebQuestions,以及BM25检索到的上下文,训练LLM的对相关性进行排名的能力

image

实验

表2展示了RankRAG与基线模型的对比结果:

image

  • 优于现有的RAG方法

可以看到,在8B的参数规模上,RankRAG始终优于当前的开源SOTA——ChatQA-1.58B。

与更大的模型相比,RankRAG8B依然显著优于InstructRetro(5倍参数量)、RA-DIT65B(8倍参数量),甚至在NQ和TriviaQA任务中超越了参数多达8倍的Llama3-instruct70B。

在增加模型参数后,RankRAG70B的表现不仅优于强大的ChatQA-1.570B模型,并且还显著优于之前以InstructGPT为底层大语言模型的RAG基线。

  • 在更具挑战性的数据集上表现出更大的改进

相对于基线模型的性能提升,RankRAG在更具挑战性的QA数据集上更加明显。例如,在长尾QA(PopQA)和多跳QA(2WikimQA)任务中,RankRAG比ChatQA-1.5提高了10%以上。

这些发现表明,在具有挑战性的OpenQA数据集中,检索器中的顶级文档与答案的相关性较低,而上下文排名能有效提高性能。

  • 设计组件的效果

表3展示了以Llama38B为骨干的RankRAG,在九个通用领域数据集上的消融结果。总体来看,所有的新组件都对最终性能有所贡献。

image

  • 不同大语言模型的性能表现

表4展示了RankRAG和最新基线ChatQA,在使用不同参数量的Llama2作为骨干时的性能表现。

可以看到,RankRAG在各种类型和规模下,性能都有提升——分别在7B/13B/70B变体上提高了7.8%/6.4%/6.3%。

image

  • 不同检索器的性能表现

图3展示了RankRAG和ChatQA-1.5在三项代表性任务中,使用不同密集检索器(DPR和Contriever-MS MARCO)的性能。

尽管初始检索结果并不理想,但RankRAG在平均性能上仍然比ChatQA-1.5高出10%以上。

总的来说,RankRAG在选择检索器方面表现出很强的鲁棒性。

image

为了证明RankRAG在专业领域的适应性,作者在最新的生物医学RAG基准Mirage上进行了实验。

其中,MedCPT作为检索器ℛ,MedCorp2作为语料库𝒟。

从表5中可以看出,即使没有进行过微调,RankRAG依然可以在医学问答任务上有着出色的表现——

不仅在8B的规模下部分超越了医学领域的开源SOTA Meditron70B,而且在70B的规模下达到了GPT-4超过98%的性能。

image

  • RankRAG具有高数据效率

如表6所示,相比于在10倍数据上训练的专用排名模型,RankRAG在大部分情况下都取得了更好的召回率。

甚至,RankRAG还能在大多数任务中超越BGE-ranker,要知道后者曾在超过100万对排名数据上进行了广泛的训练,其中还包括一些与评估任务重叠的排名对。

值得注意的是,直接使用ChatQA-1.5对段落进行排名会降低性能,这表明在指令微调中加入排名数据的很有必要的。

image

如图4所示,仅使用5k排名数据(约占MS MARCO数据集的1%),RankRAG即可获得极佳的结果,而将排名数据增加到50k更是带来了显著的增益。

这一发现证实了RankRAG的数据效率——只需少量排名数据就能实现有效性能,并能在各种任务中保持适应性。

image

  • RankRAG的性能与时间效率

随着模型规模的扩大,不仅延迟开销会增加,逐样本排名的时间开销也会增大。

为了研究时间效率与性能之间的关系,作者改变了重新排名中使用的N,并在图5中绘制了N与最终准确率的关系。

可以看到,即使N=20,RankRAG仍然比不进行重新排名的基准模型有所改进。

此外,当N从20逐渐增加100时,重新排名将精确匹配分数提高了5.9%到9.1%,并且只额外增加了0.9到6倍的时间——远低于预期的20到100倍的预期增长。

image

表7展示了NQ数据集上的一个案例。

可以看到,由于存在干扰因素,而且一些上下文(例如,ChatQA-1.5的段落4和段落5)对回答问题没有帮助,因此只用检索器的话会导致上下文中出现错误信息。

相比之下,重新排名技术则发现了另外两个相关的段落,从而帮助模型给出了正确的答案。

image

作者介绍

论文的两位共同一作分别是佐治亚理工学院的Yue Yu和英伟达的Wei Ping。

Yue Yu目前是GaTech CSE学院的五年级博士生,由Chao Zhang教授指导,研究兴趣是LLM和以数据为中心的AI的交叉领域,博士期间曾在Meta、英伟达、谷歌研究院、微软研究院等机构实习。

在进入GaTech前,他在2019年从清华大学电子工程系获得学士学位,曾在Yong Li教授指导下进行时空数据挖掘和推荐系统方向的研究。

另一位共同一作Wei Ping是英伟达应用深度学习研究团队的首席科学家,他的研究重点关注LLM和GenAI,致力于为文本、音频等多模态数据构建生成模型。

他2016年从加州大学欧文分校获得机器学习专业的博士学位,本科和硕士分别毕业于哈尔滨工业大学和清华大学。博士毕业后曾在吴恩达创立的百度硅谷AI Lab领导文字转语音团队,之后加入英伟达。

值得一提的是,本篇论文对标的基准方法ChatQA也是Wei Ping之前的研究。

image

参考资料:

https://arxiv.org/abs/2407.02485