分类目录归档:学习

高级 RAG 技术

前置知识:检索增强 RAG

相比于朴素 RAG,高级 RAG 在预检索过程(Pre-Retrieval Process) 和 后检索过程(Post-Retrieval Process) 两个阶段引入了一些改进措施,提高检索质量

  • 预检索过程的重点是索引优化与查询优化;前者目的是提高被索引内容的质量,包括检索粒度、索引结构优化、元数据附加、对齐优化和混合检索等操作;后者目的是优化用户的原始问题表述,比如查询重写、查询转换和查询扩展等技术
  • 后检索过程的重点是相关上下文的有效整合;比如重排序,将最相关的信息排在考前的位置;或者上下文压缩,

Read more

检索增强 RAG

上下文学习 ICL 是大模型 RAG 的前提基础

朴素 RAG

RAG(retrieval-augmented-generation):基于信息检索的提示词增强技术

RAG 的一般流程:

  1. 先对文档切分,再借助 Embedding 模型实现知识的向量化存储
  2. 通过余弦相似度等度量标准,检索与查询向量最相似的文档(召回)
  3. 重新排序检索到的文档,并只保留最相关的文档(提高 RAG 的质量)

推荐参考 MTEB 排行榜,结合个人需求选择合理的 Embedding 模型

RAG 的优点:

  • 通过事实类知识

Read more

Dyna 算法框架

前置知识:强化学习入门Q-Learning

Dyna 框架

Dyna 是一种经典的强化学习算法

  • Dyna 会尝试从环境中学习两个独立模型(1)状态转移模型 $P$,根据当前状态 $s$ 和动作 $a$,预测下一个的状态 $s'$(2)奖励预测模型 $R$,根据当前状态 $s$ 和动作 $a$,预测环境的反馈奖励 $r$
  • Dyna 作为一类算法的总称,可以将基于模型的强化学习与无模型的强化学习进行组合,从而使得策略/价值函数既可以从环境模型中学习,也可以在与真实环境交互中学习,结合二者的优势
  • Dyna 的环境模型一般为查表法或监督学习的预测

Read more

Actor-Critic 算法

前置知识:强化学习入门Deep Q-Learning策略梯度算法

Actor-Critic

Actor-Critic (简称 AC)是一种经典的强化学习框架

  • 结合了策略(Policy Based)和价值(Value Based)
  • Actor 表示策略函数,负责动作生成与环境交互
  • Critic 表示价值函数,负责 Actor 的表现评估和指导

AC 算法的 Actor 策略函数近似 $$ \pi_{\theta}(s,a) = P(a|s,\theta)\approx \pi(a|s) $$

Read more

策略梯度算法

前置知识:强化学习入门Deep Q-Learning

策略梯度算法

策略梯度(Policy Gradient)

  • 一种基于策略(Policy Based)的基础强化学习方法
  • 区分与 TDDQN 等基于价值(Value Based)的方法
  • 策略梯度是一种在线算法,其依赖当前策略采样到的经验数据

基于价值(Value Based)方法的局限性:

  1. 离散动作空间,难以处理连续或高维的动作空间
  2. 受限状态下的问题,可能不存在基于价值的最优解
  3. 基于最大价值的策略为确定性策略,不适合随机策略问题

基于策略的

Read more

Deep Q-Learning

前置知识:强化学习入门时序差分算法 TD

Deep Q-Learning

Deep Q-Learning,简称 DQN

  • DQN 在 Q-Learning 的基础上,添加神经网络 Q 来计算价值函数
  • 网络 Q 的输入为状态向量 $\phi(S)$,输出是所有动作在该状态下的动作价值
  • DQN 通过引入网络 Q 来代替原始 Q-Learning 的 Q 表;解决了Q-Learning 只能适用于离散状态空间的局限性;因此 DQN 可用来解决连续状态下离散动作的问题

DQN 算法步骤

  1. 随机初

Read more

列线图 Nomogram

列线图(Alignment Diagram),又称诺莫图(Nomogram 图)

  • 建立在多因素回归分析的基础上,将多个预测指标进行整合,然后采用带有刻度的线段,按照一定的比例绘制在同一平面上,从而用以表达预测模型中各个变量之间的相互关系
  • 常用于多指标联合诊断或预测疾病发病或进展,也可以用于构建评分指标

示例说明(以泰坦尼克邮轮数据集中,乘客的死亡二分类预测为例):

  • 主要考虑特征为乘客的年龄(age),客舱等级(pclass)和性别(sex)
  • Points 是每一个特征的评分参照,Total Points 是所有特征的汇总评分参照
  • Linear Predictor 是汇总评分的线性映

Read more

TOPSIS 综合评价

TOPSIS (Technique for Order Preference by Similarity to an Ideal Solution) ,也称优劣解距离法,是一种常用的组内综合评价方法,能充分利用原始数据的信息,其结果能精确地反映各评价方案之间的差距

针对多标准/多目标决策问题(MCDM/MCDA),决策者需要面对多种决策标准和可行决策方案,TOPSIS 的作用就是帮助决策者综合考虑多个决策标准,在多个可行决策方案之间找到最优解

TOPSIS 示例:评估 5 所研究生院的教育质量

5 所研究生院的评估数据及其权重如下:

院校 人均专著 $x_1$ (本/人)

Read more

时序差分算法 TD

前置知识:强化学习入门蒙特卡洛法马尔可夫决策过程 MDP

时序差分算法

时序差分(temporal difference,TD)

  • 一种用来估计一个策略的价值函数的方法,结合了蒙特卡洛和动态规划算法的思想
  • 时序差分 vs 蒙特卡洛:都可以从样本数据中学习,不需要事先知道环境;但蒙特卡洛法需要完成整个序列后才能计算得到回报 $G_{t}$,而时序差分法只需要当前步结束即可进行计算
  • 时序差分 vs 动态规划:都可以根据贝尔曼方程来更新当前状态的价值估计

回顾 MDP 中状态价值函数的贝尔曼方程: $$ v_{

Read more

马尔可夫模型

马尔可夫过程

马尔可夫过程(Markov process)是一类具有马尔可夫性质的随机过程

  • 由俄国数学家A.A.马尔可夫于 1907 年提出。该过程具有如下特性:在已知目前状态(现在)的条件下,它未来的演变(将来)不依赖于它以往的演变 (过去 )
  • 例如森林中动物头数的变化构成——马尔可夫过程。在现实世界中,有很多过程都是马尔可夫过程,如液体中微粒所作的布朗运动、传染病受感染的人数、车站的候车人数等

马尔可夫性质(Markov property,MP):如果某一个过程未来某个时刻的状态与过去的状态无关,只由现在的状态决定,那么其具

Read more