|
| 1 | +# 03-RAG的核心 -结果召回和重排序 |
| 2 | + |
| 3 | +## 1 完整RAG应用的检索流程 |
| 4 | + |
| 5 | + |
| 6 | + |
| 7 | +## 2 Query预处理 |
| 8 | + |
| 9 | +### 2.1 意图识别 |
| 10 | + |
| 11 | +判断query问的是什么类型的问题,从而决定是否走RAG链路。 |
| 12 | + |
| 13 | +示例1: |
| 14 | + |
| 15 | +- 深圳有什么好玩的 闲聊问题 |
| 16 | +- VDB支持哪些检索算法 产品常见问题 |
| 17 | + |
| 18 | +示例2: |
| 19 | + |
| 20 | +- 为什么某个MongoDB实例内存占用过高 检查类问题 |
| 21 | +- 云Redis如何扩容 产品常见问题 |
| 22 | + |
| 23 | +#### 流程图 |
| 24 | + |
| 25 | + |
| 26 | + |
| 27 | +### 2.2 生成同义query |
| 28 | + |
| 29 | +针对query生成同义句,不同问法提高召回,检索结果做合并。 |
| 30 | + |
| 31 | +示例1:**VDB支持哪些检索算法** |
| 32 | + |
| 33 | +- 列举一下VDB所支持的检索算法 |
| 34 | +- VDB有哪些可用的检索算法 |
| 35 | + |
| 36 | +示例2: **腾讯云向量数据库的优势是什么** |
| 37 | + |
| 38 | +- 腾讯云向量数据库有哪些主要优点 |
| 39 | +- 腾讯云向量数据库的核心竞争力是什么 |
| 40 | + |
| 41 | +#### 流程图 |
| 42 | + |
| 43 | + |
| 44 | + |
| 45 | +### 2.3 query标准化 |
| 46 | + |
| 47 | +针对query中的专有名词、简写、英文做标准化处理。 |
| 48 | + |
| 49 | +示例1:VDB支持哪些检索算法 |
| 50 | + |
| 51 | +腾讯云向量数据库支持哪些检索算法 |
| 52 | + |
| 53 | +示例2:COS如何上传对象 |
| 54 | + |
| 55 | +腾讯云对象存储如何上传对象 |
| 56 | + |
| 57 | +#### 流程图 |
| 58 | + |
| 59 | + |
| 60 | + |
| 61 | +## 3 检索召回 |
| 62 | + |
| 63 | + |
| 64 | + |
| 65 | + |
| 66 | + |
| 67 | +每次召回时,如何提升结果的排序效果,使与Query更相关的结果更靠前? |
| 68 | + |
| 69 | +1. **使用更有效的索引技术**:使用更高级的索引技术如倒排索引、压缩倒排索引等可以加速检索过程并提高结果的相关性。这些技术可以使得相似的文档在索引中更靠近,从而使得相关的结果更容易被召回。 |
| 70 | +2. **优化检索模型**:使用适合任务的检索模型如BM25、BERT等,这些模型可以更好地捕捉文档之间的语义和相关性,从而提升召回结果的质量。 |
| 71 | +3. **利用用户反馈**:收集用户的点击、浏览、收藏等行为反馈信息,通过机器学习算法不断优化排序模型,使得更符合用户兴趣的结果更容易被召回并排在前面。 |
| 72 | +4. **引入上下文信息**:考虑查询的上下文信息,比如用户的地理位置、设备信息、搜索历史等,可以更好地理解用户意图,提升召回结果的相关性。 |
| 73 | +5. **使用深度学习技术**:利用深度学习技术如卷积神经网络、循环神经网络等,可以更好地学习文档之间的语义关系,从而提高结果的排序效果。 |
| 74 | +6. **结合多种特征**:结合文本特征、结构特征、用户特征等多种特征进行综合排序,可以更全面地考虑到文档与查询之间的相关性。 |
| 75 | + |
| 76 | +综合运用以上方法,可以在召回阶段有效提升结果排序效果,使得与Query更相关的结果更靠前。 |
| 77 | + |
| 78 | +Query预处理中,做了生成同义Query,最终应该如何合并检索结果? |
| 79 | + |
| 80 | +1. **加权融合**:给每个查询生成的同义Query分配一个权重,并根据权重对检索结果进行加权融合。权重可以根据同义Query的相似性、生成方法的可靠性等因素来确定。 |
| 81 | +2. **组合排序**:将原始查询和同义查询的检索结果分别进行排序,然后将两个排序结果进行组合排序。可以根据不同的排序方法(如TF-IDF、BM25等)来进行组合排序,也可以采用机器学习模型进行组合排序。 |
| 82 | +3. **基于规则的合并**:制定一些规则来合并检索结果,例如保留两个查询中都包含的结果、去除重复的结果等。这种方法比较简单直接,但需要根据具体场景制定合适的规则。 |
| 83 | +4. **交叉验证**:将生成的同义Query和原始Query分别用于检索,并根据评估指标(如准确率、召回率等)来选择最优的检索结果。可以通过交叉验证或者在线评估来验证合并结果的效果。 |
| 84 | +5. **利用用户反馈**:收集用户对不同查询结果的反馈信息,根据反馈信息调整查询结果的排序和合并策略,使得更符合用户需求的结果更容易被展示在前面。 |
| 85 | + |
| 86 | +无论采用哪种方法,都需要结合具体的业务需求和数据特点来选择合适的合并检索结果的策略,以确保最终展示给用户的结果具有更高的相关性和质量。 |
| 87 | + |
| 88 | +如何在召回阶段,将召回的结果效果做得更优质,减少干扰信息对LLM的影响? |
| 89 | + |
| 90 | +1. **使用更精准的召回模型**:使用更高效和精准的召回模型,如基于BERT、RoBERTa等预训练语言模型的语义匹配模型,能够更好地捕捉文本之间的语义关系,减少不相关文档的召回。 |
| 91 | +2. **利用领域知识和规则过滤**:结合领域知识和规则,对召回结果进行过滤和筛选,去除明显不相关或低质量的文档。例如,可以使用领域词典、实体识别等技术进行过滤。 |
| 92 | +3. **考虑上下文信息**:在召回阶段考虑用户的上下文信息,如搜索历史、用户兴趣等,通过个性化的方式调整召回结果,提高相关性。 |
| 93 | +4. **引入负采样**:在训练召回模型时引入负采样技术,增加负样本的多样性和难度,使得模型更好地区分干扰信息和相关信息。 |
| 94 | +5. **加入用户反馈机制**:收集用户对召回结果的反馈信息,如点击、滑动、停留时间等,根据反馈信息调整召回模型和排序策略,提高用户满意度和相关性。 |
| 95 | +6. **优化评估指标**:在评估召回结果时,不仅要关注传统的准确率、召回率等指标,还要考虑到与LLM输入的匹配度、语义相似度等指标,以更全面地评估召回结果的质量。 |
| 96 | + |
| 97 | +通过综合利用以上方法,在召回阶段可以更有效地优化召回结果,减少干扰信息对LLM的影响,提高模型的性能和效果。 |
| 98 | + |
| 99 | +## 4 排序 |
| 100 | + |
| 101 | +### 4.1 为啥要排序(Rerank) |
| 102 | + |
| 103 | +Rerank:RAG中百尺竿头更进一步 |
| 104 | + |
| 105 | + |
| 106 | + |
| 107 | +**Embedding模型存在一定的局限性**:实际召回结果中,embedding没办法完全反应出语义的相似性,至少这K个文件的排名并不是我们认为的从高分到低分排序的。 |
| 108 | + |
| 109 | + |
| 110 | + |
| 111 | +排序模型的目的在于对召回内容有一个更合理的排序结果,减少提供给模型的上下文长度,长度越长,对模型来说压力越大。 |
| 112 | + |
| 113 | + |
| 114 | + |
| 115 | +基于Learning2Rank的思路提升文本语义排序效果: |
| 116 | + |
| 117 | + |
| 118 | + |
| 119 | +### Listwise的优化 |
| 120 | + |
| 121 | + |
| 122 | + |
| 123 | + |
| 124 | + |
| 125 | +指示函数做近似: |
| 126 | + |
| 127 | + |
| 128 | + |
| 129 | +最终loss function: |
| 130 | + |
| 131 | + |
| 132 | + |
| 133 | + |
| 134 | + |
| 135 | + |
0 commit comments