目标导向的强化学习

对于一个使用场景:策略 $\pi$ 操控机械臂抓取桌上的物体,每次任务中物体的位置可能不一样,即需要完成一系列相似但不相同的任务。在使用传统的强化学习算法时,采用单一策略只能抓取同一个位置的物体,对于不同的目标位置,需要训练多个策略,即同一个策略无法完成不同的目标。

目标导向的强化学习的数学基础是目标条件化的 MDP,其元组定义为 $(S,A,G,P,R,\gamma)$ ,相比于 MDP 多了一项目标集合 $G$ ,通常为状态空间的子集。

HER

HER 算法即事后经验回放策略。目标导向的强化学习的奖励往往是比较稀疏的,由于智能体在训练初期难以完成目标而只能得到 -1 的奖励,从而使整个算法的训练速度较慢。HER 算法能有效地利用这些失败地经验。

假设现在使用策略 $\pi$ 在环境中以 $g$ 为目标进行探索,得到轨迹 $s_1,\cdots,s_T$ ,并且 $g\not=s_1,\cdots,s_T$ ,这就意味着整条路径上得到的奖励都是 -1,这对训练起到的帮助很小。所以在 HER 中设定一个新的目标 $g^\prime$ 来重新审视这条轨迹,也就是虽然没有达到目标 $g$ ,但是在探索过程中,完成了 $s_1,\cdots,s_T$ 等这些目标。HER 算法流程如下

  • 初始化策略算法,初始化经验回放池
  • 每轮循环
    • 采样初始状态,设定目标 $g$
    • 用行为策略交互得到完整轨迹,将其以 $(s,a,r,s^\prime,g)$ 的形式存入经验回放池中
    • 从经验回放池中采样 $N$ 个 $(s,a,r,s^\prime,g)$ 元组,对这些元组,选择一个状态 $s^{\prime\prime}$ ,将其映射为新的目标 $g^\prime=\phi(s^{\prime\prime})$ 并计算新的奖励值 $r^\prime$ ,之后用新的数据 $(s,a,r^\prime,s^\prime,g^\prime)$ 替换原先的元组
    • 使用这些新的元组对策略 $\pi$ 进行训练

GCSL

GCSL 即目标条件监督学习,专为稀疏奖励下的目标导向任务设计,核心时用迭代的监督学习替代传统的 RL 的值函数估计。目标到达任务是强化学习的经典场景,核心痛点为奖励极度稀疏,只有最终到达目标时才有正奖励,而传统的 RL 算法在这种场景下就很容易陷入局部最优,样本效率低下。

GCSL 的核心思想就是:对于任意一条轨迹,无论是否完成目标,都是到达该轨迹最终访问状态的成功示范。对于任意一条交互的轨迹 $\tau=(s_0,a_0,\cdots,s_T,a_T)$ ,取其中任意两个时刻 $t_1<t_2$ :

  • 智能体在状态 $s_{t_1}$ 执行动作 $a_{t_1}$ 之后,经过 $h=t_2-t_1$ 步之后,最终到达了状态 $s_{t_2}$
  • 因此可以事后重标记,将状态 $s_{t_2}$ 设定为目标 $g$ ,将 $(s_{t_1},a_{t_1},h=t_2-t_1)$ 视作从 $s_{t_1}$ 出发,经历 $h$ 步之后到达 $g$ 的最优样本
  • 一条长度为 $T$ 的轨迹,可以生成很多有效训练的样本,极大提升了数据利用率

在 GCSL 中设定的原始目标时最大化策略 $\pi$ 在目标分布 $p(g)$ (即任务中需要到达的目标的概率分布)下的到达成功率

在 GCSL 中不直接优化该目标,而是优化其可导的下界:最大化重采样标记样本下动作的对数似然,即行为克隆的最大似然估计目标

在实际中,会对轨迹中所有的 $t_1<t_2$ 的组合都进行重标记,此时目标可以扩展为

实际使用中最小化上述目标的负数

  • 对离散动作空间:采用交叉熵损失 $L(\theta)=-E_{(s,a,g,h)\sim D}[\log\pi_\theta(a\vert s,g,h)]$
  • 对连续动作空间:通常采用高斯分布的负对数似然,策略网络输出高斯分布的均值和方差 $L(\theta)=-E_{(s,a,g,h)\sim D}[\log\mathcal{N}(a\vert\mu_\theta(s,g,h),\sigma_\theta^2(s,g,h))]$

GCSL 的核心理论保证是:优化 GCSL 目标等价于优化原始目标到达任务的下界

GCSL 的完整流程如下

  • 初始化策略网络 $\pi_\theta(a\vert s,g,h)$
  • 初始化经验回放池 $D$ ,其中存入完整轨迹
  • 用随机策略采样 $N$ 条初始轨迹,存入 $D$ 中,作为初始化的经验回放池
  • 循环迭代 $K$ 轮
    • 采样目标 $g\sim p(g)$ ,用当前策略 $\pi_k$ 在环境中执行 $T$ 步,采样轨迹 $\tau=(s_0,a_0,\cdots,s_T,a_T)$
    • 将轨迹存放入经验回放池 $D$ 中
    • 循环执行 $M$ 次梯度更新
      • 从 $D$ 中随机采样一条轨迹
      • 随机采样两个时刻 $t_1<t_2$ ,计算剩余步长 $h=t_2-t_1$
      • 构造训练样本 $s=s_{t_1},a=a_{t_1},g=s_{t_2},h=h$
      • 最小化负对数似然损失,更新策略网络的参数 $\theta$

C-Learning

C-Learning(Recursive Classification-based Reinforcement Learning)是目标导向强化学习领域的经典算法,其核心创新是将目标达成的价值估计问题转化为状态-目标对的二分类问题,通过递归分类的方式解决长程稀疏奖励任务。

C-Learning 的核心就是智能体是否能在有限步数内从当前状态 $s$ 到达目标状态 $g$ ,本质是一个二分类的问题,不再直接学习目标条件的 $Q(s,a,g)$ ,而是学习一个可达性分类器 $C(s,g,k)$ ,表示从状态 $s$ 出发,在 $k$ 步内到达目标 $g$ 的概率

C-Learning 通过递归方式定义多步可达性,这是它能处理长程任务的关键

  • 基础情况 $k=1$ 时:若当前转到已经是目标 $g$ 时或一步可达时,则 $C(s,g,1)=1$
  • 递归情况 $k>1$ 时:从 $s$ 出发执行任意动作到达 $s^\prime$ ,若存在某个 $s^\prime$ 能在 $k-1$ 步内到达 $g$ ,则 $s$ 能在 $k$ 步内到达 $g$ 。对应的公式表达为 $C(s,g,k)=\underset{a}{\max}E_{s^\prime\sim P(s^\prime\vert s,a)}[C(s^\prime,g,k-1)]$

C-Learning 的网络结构是一个端到端的分类器

  • 输入当前状态 $s$ +目标状态 $g$ +步数预算 $k$
  • 输出可达性概率 $C(s,g,k)$

通常使用 CNN 处理图像或使用 MLP 提取特征,然后拼接状态、目标和步数的嵌入,最后通过 Sigmoid 层输出概率。网络的训练流程如下

  • 样本构造
    • 正样本(可达,标签为 1)
      • 取一条成功到达目标的轨迹 $(s_0,s_1,\cdots,s_T=g)$
      • 对轨迹中的每一个状态 $s_t$ 构造样本 $(s_t,g,T-t)$ ,标签为 1
    • 负样本(不可达,标签为 0)
      • 取一条未到达目标的失败轨迹,或随机采样无关的状态目标对
      • 构造样本 $(s,g,k)$ ,标签为 0
    • 自举样本
      • 对任意状态 $s$ ,采样动作 $a$ 得到 $s^\prime$ ,构造样本 $(s,g,k)$ ,其标签为 $\underset{a}{\max}C(s^\prime,g,k-1)$ ,即用当前分类器的输出作为标签
  • 分类器更新
    • 使用标准的二分类交叉熵损失训练分类器 $L=-[y\log C(s,g,k)+(1-y)\log(1-C(s,g,k))]$

CRL

CRL 即 Contrastive Reinforcement Learning,是原生融合对比表示学习与目标条件强化学习(GCRL)的端到端算法,针对轨迹数据的对比学习目标,其最优解等价于 GCRL 的目标条件 Q 函数

定义 CGRL 的基础要素:状态空间 $S$ ,动作 $a_t$ ,初始状态分布 $p_0(s)$ ,环境动力学 $p(s_{t+1}\vert s_t,a_t)$ ,目标分布 $p_g(g)$ ,每个目标对应的奖励函数定义如下

即当前状态动作对下,下一步到达目标 $s_g$ 的概率,乘以折扣因子。而初始状态的奖励需要额外包含初始状态

策略优化的核心目标是最大化累积折扣奖励

定义目标条件的 Q 函数为

Q 函数在衡量当前状态 $s$ ,执行动作 $a$ ,目标为 $g$ 时,遵循策略 $\pi$ 能获得的累积折扣奖励的期望,这个值量化了从 $(s,a)$ 出发,利用策略 $\pi$ 最终到达目标 $g$ 的长期收益。

定义折扣状态占用度量

其中的 $p_t^\pi(s)$ 表示策略 $\pi$ 在 $t$ 步访问状态 $s$ 的概率,该度量对所有时间步的访问概率做折扣加权,后通过 $(1-\gamma)$ 归一化。其中的 $s_{t+}$ 表示从该折扣占用度量中采样的未来状态,是全文对比学习正例对的核心来源。对比学习的核心逻辑在于,让正例对的表示相似度更高,负例对的表示相似度更低。相似度函数定义如下

其中 $\phi$ 和 $\psi$ 是编码器,输出的表示做内积,作为两个输入的相似度打分,这个内积是 Q 函数的单调变换。据此定义 NCE 优化目标

这是一个二分类交叉熵优化目标,目标是让模型区分正例对和负例对:正例对的相似度打分尽可能接近 1,负例对的打分尽可能接近 0。是 CRL 算法 Critic 损失的核心原型。其中 $u$ 为锚点样本,从回放池轨迹中采样的状态动作对 $(s,a)$ ,正例 $v^+$ 是从 $(s,a)$ 对应的折扣状态占用度量 $p^\pi(s_{t+}\vert s,a)$ 中采样的未来状态 $s_f^+$ ,负例 $v^-$ 是从全局折扣状态边缘分布 $p(s_{t+})$ 的随机未来状态 $s_f^-$ ,是与当前 $(s,a)$ 无关的随机状态

以 $g$ 为目标的 Q 函数,完全等价于在当前状态 $s$ 执行动作 $a$ 后,折扣未来状态中出现目标 $g$ 的条件概率

目标条件 Q 函数,完全等价于在当前状态动作对 $(s,a)$ 下,折扣状态占用度量中目标状态 $g$ 出现的条件概率。在 RL 场景下的对比学习目标

将通用对比目标替换为 RL 中的 $(s,a)$ 与未来状态的正负例对,目标是让模型区分当前 $(s,a)$ 能到达的未来状态和随机无关状态。优化上述公式可以得到贝叶斯最优 Critic 函数,如下

结合上述的目标 Q 函数的等价性,可以直接推导得到

其中的 $\frac{1}{p(s_f)}$ 是与动作 $a$ 完全无关的常数。则最优动作满足

所以只需要最大化 Critic 的相似度打分 $f(s,a,g)$ ,就能得到最优动作,完全不需要估计难以计算的配分函数 $p(g)$ 。基于这些公式,策略优化的目标可以简化,得到 CRL 的 Actor 优化目标

CRL 中采样双编码器内积的参数化形式 $f(s,a,g)=\phi(s,a)^T\psi(g)$ ,计算效率高。最小化负的相似度打分即为 Actor 的损失

定义 Critic 损失函数

CRL 的流程如下

  • 初始化
    • 状态动作编码器 $\phi$
    • 目标状态编码器 $\psi$
    • 目标条件策略网络 $Q$
    • 初始化经验回放池
  • 利用随机策略越环境交互,收集 $N$ 条轨迹,存入经验回放池中
  • 循环执行 $T$ 步
    • 用当前策略 $\pi$ ,以 $g\sim p(g)$ 为目标,与环境交互,收集一整条轨迹,存入经验回放池中
    • 进行 $K$ 次梯度更新
      • 从经验回放池中采样 $B$ 条轨迹片段,每个片段包含 $(s,a)$ 序列的轨迹
      • 从几何分布 $t_{offset}\sim GEOM(1-\gamma)$ 采样时间偏移,取轨迹 $\tau_{t:}$ 中的第 $t_{offset}$ 步的状态作为 $s_f$
      • 计算 Critic 损失 $L_{critic}$ ,梯度下降更新编码器
      • 从经验回放池采样 $B$ 个状态和 $B$ 个随机目标
      • 计算 actor 损失 $L_{actor}$ ,梯度下降更新策略网络

ECRL

ECRL 即 Equivariant Contrastive Reinforcement Learning(等变对比强化学习),是 CRL 的几何等变扩展版本。传统 CRL 完全忽略任务中的固有旋转对称性,需要从海量交互数据中学习对称规律,导致样本效率极低。针对传统 CRL 在机器人操作任务中样本效率低、空间泛化能力弱的核心痛点,通过引入环境天然的几何对称性先验,大幅提升了目标导向策略的学习效率与泛化性能

对称群与群表示

用连续群 $SO(2)$ 和其离散子群 $C_n$ 刻画对称性。$SO(2)$ 群是所有二维平面旋转构成的特殊正交群,定义为

其中 $Rot_\theta$ 表示绕原点旋转 $\theta$ 角度的变换。$C_n$ 循环群:为 $SO(2)$ 的离散子群,包含 $n$ 个等分平面的旋转,旋转角度为 $\frac{w\pi i}{n}$ ,定义为

群表示 $\rho:G\rightarrow GL(d)$ 是将每个群元素映射为一个 $d$ 维可逆矩阵,刻画信号在群变换下的变换规律,在论文中有三种基础表示

  • 平凡表示 $\rho_0$ :作用于实数域 $R$ ,对任意群元素 $g\in C_n$ 和标量 $x\in R$ 满足 $\rho_0(g)x=x$
    • 物理意义就是无论怎么旋转,输出值完全不变,也就是旋转不变量
  • 标准表示 $\rho_1$ :作用于二维平面 $R^2$ ,对任意群元素 $g\in C_n$ 和二维向量 $v\in R^2$ ,满足 $\rho_1(g)v=\begin{bmatrix}\cos\theta&-\sin\theta\\\sin\theta&\cos\theta\end{bmatrix}v$
    • 输入坐标旋转 $\theta$ ,输出向量也同步旋转 $\theta$
  • 正则表示 $\rho_{reg}$ :用于 $N$ 维向量 $R^N$ ,对旋转 $Rot_{\frac{2\pi i}{n}}$ 满足 $P_{reg}(Rot_{\frac{2\pi i}{n}})(x_0,\cdots,x_{N-1})=(x_{N-i},\cdots,x_{N-1},x_0,\cdots,x_{N-i-1})$
    • 输入旋转对应角度,输出向量做出对齐的循环置换
    • 正则表示的变换矩阵为正交矩阵,正交变换不改变向量内积和 $L_2$ 范数,这就是实现旋转不变 Critic 的核心原理

群的等变性与不变性

  • 不变性:函数 $f$ 对群 $G$ 不变,即当对任意的 $g\in G$ 满足 $f(gx)=f(x)$
  • 等变性:函数 $f$ 对群 $G$ 等变,即当对任意的 $g\in G$ 满足 $f(gx)=gf(x)$

群不变 MDP

ECRL 中,将目标条件 MDP 与群不变 MDP 统一,定义了 GCGI-MDP,元组为

其中 $p(s_0)$ 是初始状态的概率分布, $p(g)$ 是目标状态 $g$ 的概率分布, $p(s_{t+1}\vert s_t,a_t)$ 是转移动态, $G$ 为对称群,表示任务的对称性。对于标准的 MDP 即 $M=(S,A,R,T,\gamma)$ ,若其为 $G$ 不变 MDP,则需要满足下面的核心条件

  • 转移动力学不变 $\forall g\in G,p(s_{t+1}\vert s_t,a)=p(gs_{t+1}\vert gs_t,ga)$ ,状态动作同步做群变换,下一个状态的分布也做相同变换,转移概率不变
  • 奖励函数不变 $\forall g\in G,r(s_t,a)=r(gs_t,ga)$ ,状态动作同步做群变换,即时奖励不变

在 G 不变 MDP 中,最优 Q 函数 $Q^\star$ 是群不变的,最优策略 $\pi^\star$ 是群等变的,即

Critic 负责参数化 Q 函数 $Q(s,a,g)=f(s,a,g)$ ,ECRL 通过等变编码器设计来保证其旋转不变性:状态动作编码器 $\phi$ 和目标编码器 $\psi$ 均采用 $C_n$ 等变网络,输出为 $k$ 个堆叠的 $C_n$ 正则表示向量。当输入的 $(s,a)$ 和 $g$ 同步旋转时,两个编码器的输出会发生完全对齐的循环置换。Critic 的优化目标,通过二元 NCE 对比损失优化

Actor 负责参数化策略 $\pi(a\vert s,g)$ ,ECRL 通过混合表示输入保证其旋转等变性:将状态 $s$ 和目标 $g$ 拆分为两类分量,即不变分量用平凡表示 $\rho_0$ ,旋转后数值不变,等变分量用标准表示 $\rho_1$ ,旋转后同步做坐标变换。Actor 优化目标,在在线 RL 场景中沿用 SAC 框架,最大化 Q 值同时加入熵正则项

其中 $\alpha$ 为温度系数,其中的熵函数定义为 $\mathcal{H}(x)=E_{x\sim p}[-\log p(x)]$

在离线 RL 场景中,针对静态数据集,加入目标条件行为克隆损失,避免分布偏移

其中 $\lambda$ 为权重系数, $a_{org}$ 是离线数据集中的原始动作。

MQE

MQE 算法即 Multistep Quasimetric Estimation,核心解决了在长时域 GCRL 的痛点:单步时序差分方法的误差累积与时域泛化失效,蒙特卡洛方法的理论最优性缺失。将多步回报与拟度量学习有效融合,实现了端到端的长时域推理与组合泛化

MQE 基于到达目标的折扣似然定义目标条件 Q 函数和值函数,对应公式为

Q 函数表示从状态 $s$ 出发,执行动作 $a$ 之后遵循策略 $\pi$ ,在未来所有时刻到达目标 $g$ 的折扣率之和;V 函数是 Q 函数关于动作的期望,表示从状态 $s$ 出发遵循策略 $\pi$ 到达目标的折扣概率之和。该定义无需人工设计奖励函数,适配目标到达任务,值函数的大小直接对应智能体到达目标的能力。最优 Q 函数定义为,即所有可能策略中能达到的最大 Q 值,对应最优策略

MC 类 GCRL 方法的核心是利用轨迹中的未来状态作为训练目标,MQE 中采用几何分布来采样未来目标,对应公式为

其中 $Geom(1-\gamma)$ 表示首次成功前的失败次数,无记忆性,采样得到的步数的期望为 $\frac{\gamma}{1-\gamma}$ ,与折扣因子相关。步数越远的未来状态对值函数的贡献越小。

MQE 的整个框架都建立在目标条件价值函数与拟度量距离的映射关系上,拟度量是满足下面三个性质的距离函数 $d$ ,是 MQE 的核心建模工具

  • 非负性 $d(x,y)\geq0$
  • 同一性 $d(x,x)=0$
  • 三角不等式 $d(x,z)\leq d(x,y)+d(y,z)$

MQE 使用度量残差网络 MRN 实现拟度量,该架构是通用的拟度量近似器,保证输出的距离严格满足拟度量的三大性质

将上述公式拆解为两个部分

  • 非对称项 $\underset{m=1,\cdots,M}{\max}\max(0,x_{kM+m}-y_{kM+m})$ ,捕捉距离的非对称性,仅当 $x$ 的维度值大于 $y$ 时才会产生非零值,保证了 $d(x,y)\not=d(y,x)$ ,适配时序距离的单向性
  • 对称项 $\Vert x_{kM+m}-y_{kM+m}\Vert_2$ ,提供基础的欧式距离度量,保证距离的平滑性与非负性

MQE 的核心点是建立目标条件价值函数与拟度量距离的指数映射关系,将价值最大化问题完全转化为距离最小化问题,即

其中 $V_g(g)$ 是目标状态 $g$ 对应的价值,是一个正常数,而且拟度量距离越小,对应的 Q/V 值越大,智能体到达目标的概率越高。在此基础上定义了可学习的距离函数

其中 $\psi(s)$ 是可学习的状态编码器,输出状态的表征, $\phi(s)$ 是可学习的状态动作对编码器,输出状态动作对的表征。

在 MQE 中,将传统的单步 TD 更新扩展为多步路点更新,解决长时域误差累积问题。传统的 RL 中,单步的 Bellman 更新为 $Q(s,a)=\gamma E[V(s^\prime)]$ ,带入上述的公式,可以得到单步更新的距离形式

它仅依赖于单步后的状态 $s^\prime$ ,在长时域任务中会出现 bootstrapping 误差的逐层累积,最终价值估计会严重偏离最优解。将上述单步更新的不变性扩展到当前状态与目标之间的任意路点,将单步优化转为多步优化,MQE 设计了伯努利+几何分布的路点采样策略,兼顾局部一致性与全局价值传播,公式为

其中 $s_t^\omega$ 为采样得到的路点状态,即当前状态 $s_t$ 之后第 $k^\prime$ 步的状态, $p$ 为采样点步路点 $(k^\prime=1)$ 的概率,对应传统单步 TD 的更新, $1-p$ 用几何分布采样多步路点的概率, $\lambda$ 为几何分布的参数,控制路点的平均距离, $K$ 为轨迹的最大长度,对几何分布采样的步数做截断,防止超出轨迹范围。

上述公式以概率 $p$ 采样单步路点,保证了局部 Bellman 一致性,保留 TD 方法的最优性的保证,以概率 $1-p$ 采样多步路点,实现长距离的价值快速传播,避免单步 TD 的误差累积,适配长时域任务。

将上述的单步更新扩展为多步更新

公式中的单步后的状态 $s^\prime$ 替换为了路点 $s_t^\omega$ ,单步折扣替换为 $k^\prime$ 步对应的折扣。它实现了任意补偿的价值传播。

为避免距离收敛时梯度消失的问题,采用基于 LINEX 损失的 Bregman 散度作为损失的核心,公式为

基于该损失,可以明确定义出 $L_{\tau_\beta}$ 和 $L_\tau$ 这两个用于更新 $\tau$ 和 $\tau_\beta$ 的参数

双重求和用于计算批次中每个样本与所有目标的成对距离,大幅提升离线数据的样本效率。其中的 $-k_i^\prime\log\gamma$ 时数学上的等价变换,将 $\gamma^{k^\prime}$ 融入到损失函数中,即 $e^{-d^\prime}\gamma^{k^\prime}=e^{-d^\prime+k^\prime\log\gamma}=e^{-(d^\prime-k^\prime\log\gamma)}$ 。最小化该损失,让路点到目标的距离满足多步 Bellman 一致性,实现价值快速传播

在 Bellman 最优方程中,最优值函数是最优 Q 函数关于动作的最大值,即

将上述公式带入目标条件价值函数与拟度量距离的指数映射关系中,可以得到

它的意义就是:最优动作对应的状态动作对到目标的距离,等于状态本身到目标的距离,可以推导出对最优表征必须满足动作不变性,即状态表征 $\psi(s)$ 与状态动作对表征 $\phi(s,a)$ 之间的拟度量距离为 0

MQE 设计了平滑的动作不变性损失函数,如下

MQE 采用行为正则化的深度确定性策略提取最终的目标条件策略,解决离线 RL 的分布偏移问题

损失函数分为策略优化项和行为克隆正则项。MQE 算法的流程如下

  • 初始化离线数据集 $D$ ,采样批次大小 $B$ ,路点采样概率 $p$ ,训练迭代次数 $T$ ,初始化拟度量网络参数,初始化目标条件策略 $\pi_\mu$
  • 循环迭代 $T$ 次
    • 从数据集中采样批次样本 $\{s_i,a_i,s_i^\prime,sw_i,g_i,k_i^\prime\}_{i=1}^B$ ,路点按照上述的采样方法采样
    • 计算多步备份损失 $L_{\tau_\beta}$ ,更新拟度量网络参数 $\phi$ 和 $\psi$
    • 计算动作不变性损失 $L_{I}$ ,更新拟度量网络参数 $\phi$ 和 $\psi$
    • 计算策略提取损失 $L_\mu$ ,更新目标条件策略 $\pi_mu$

多智能体强化学习

多智能体强化学习 MARL 是研究多个智能体在共享环境中通过交互学习最优策略,以实现合作、竞争或混合目标的强化学习方法。多智能体强化学习要比单智能体更加困难。

由于多个智能体都在不断学习并且更新自身策略,所以在每个智能体的视角下,环境是非稳态的,即对每一个智能体而言即使在相同状态下采取相同的动作,得到的状态转移和奖励信号的分布也可能在不断改变。而多个智能体的训练可能是多目标的,不同智能体需要最大化自己的利益。训练评估的复杂度会增加,可能需要大规模分布式训练来提高效率。

单智能体 RL 的数学基础是 MDP,而 MARL 的核心理论框架是随机博弈,又称为马尔可夫博弈,是 MDP 在多智能体场景下的泛化,将一个多智能体环境用 $(N,S,A,R,P)$ 表示,其中 $N$ 为智能体集合集合, $S$ 为全局状态空间, $A$ 为每个智能体的动作空间的联合动作空间, $P$ 为状态转移函数, $R$ 为所有智能体奖励函数的集合。

MARL 按照训练与执行的架构分类

  • 集中式训练集中式执行 CTCE:将所有智能体视为一个集成智能体,中心节点同一训练,统一输出联合动作。实现简单,但是联合动作空间随着智能体数量指数爆炸,扩展性差,仅使用极小规模场景
  • 分散式训练分散式执行 DTDE:每个智能体完全独立训练,独立决策,仅基于自身局部观测和回报。完全分布式、扩展性拉满,但是无法解决环境非平稳性问题,训练容易震荡不收敛
  • 集中式训练分散式执行 CTDE:是当前 MARL 的主流形式,训练时利用全局信息优化策略,保证训练收敛性;执行时每个智能体仅用自身局部观测做决策,满足分布式落地需求。平衡收敛性、扩展性和实用性

IDQN

对于包含 $N$ 个智能体的场景,IDQN 算法为每个智能体维护一套完全独立的训练体系。

每个智能体的 Q 网络为 $Q_i(o_i,a_i)$ ,输入仅为自身的局部观测 $o_i$ ,输出为自身所有可选动作的 Q 值,完全不接收其他智能体的任何消息。TD 目标值仅基于自身的即时回报 $r_i$ 和局部观测转移计算,完全忽略其他智能体的动作与回报,与 DQN 中的目标值计算方法一致。每个智能体独立计算自身的 MSE 损失,独立执行梯度下降法更新参数。另外每个智能体拥有独立的经验回放池 $D$ ,独立的主网络与目标网络,训练全程无需与其他智能体共享数据和参数。

  • 初始化 $N$ 个智能体,每个智能体中包含一个 Q 网络和目标 Q 网络。为每个智能体初始化经验回放池 $D_i$
  • 对于每个时间步 $t$
    • 每个智能体采用 $\epsilon$ 贪婪策略选择动作
    • 执行所有智能体的联合动作 $(a_1^t,\cdots,a_N^t)$ ,环境返回每个智能体的即时回报 $r_i^t$ ,下一时刻的局部观测 $o_i^{t+1}$
    • 将每个智能体的四元组 $(o_i^t,a_i^t,r_i^t,o_i^{t+1})$ 存入经验回放池中
    • 每个智能体都从经验回放池中采样,基于样本计算损失函数,最小化损失函数更新主网络参数
    • 每运行 $T$ 个时间步,每个智能体更新目标 Q 网络

IPPO

IPPO(Independent Proximal Policy Optimization)是一种用于协作多智能体强化学习的分布式策略梯度方法,每个智能体独立运行 PPO 算法,实现去中心化执行。

IPPO 的核心是用 PPO 为每个智能体学习去中心化策略,每个智能体独立完成策略裁剪更新,仅基于自身局部观测学习局部价值函数。在训练阶段,智能体可访问全局环境状态、共享彼此的策略与经验,利用中心化信息简化学习问题;在执行阶段,每个智能体仅能使用自身局部观测-动作历史做决策,保证策略的去中心化落地能力。

在 IPPO 中,所有智能体共享同一套 Actor 和 Critic 参数,训练过程中,所有的智能体的轨迹数据都用于更新这一套共享参数;在执行时,所有智能体都用这一套共享网络基于自身局部观测做决策。IPPO 的训练流程如下

  • 初始化共享的 Actor 和 Critic 网络,初始化所有的智能体
  • 对于每轮训练中
    • 所有智能体在环境交互中,分别获得各自的一条轨迹数据
    • 对每个智能体,都基于当前的价值函数使用 GAE 计算优势函数的估计
    • 每个智能体通过最大化其 PPO-截断 的目标来更新共享的 Actor 网络
    • 每个智能体通过均方误差损失函数优化共享的 Critic 网络

VDN

VDN 即价值分解网络,它的核心思想是将多个智能体的联合 Q 值函数分解为每个智能体的局部 Q 值之和,在这种结构之下,每个智能体都学习局部的 Q 值函数,通过简单求和操作得到全局的联合 Q 值,这种分解形式使得每个智能体可以独立执行决策,同时在集中训练阶段依然能够学到全局最优策略。

VDN 的核心设计在于价值分解网络。在传统的 RL 中,每个智能体都由独立的 Q 网络,输入局部历史,输出局部 Q 值,用各自的全局奖励更新,无信息交互。而在 VDN 中,每个智能体都有独立的局部价值网络,输入局部历史,输出局部 $\tilde{Q}$ 值,所有局部的 $\tilde{Q}$ 值求和得到全局联合 Q 函数,用全局奖励计算 TD 误差,之后通过求和层反向传播梯度,更新每个局部网络的参数。在 VDN 中提出全局联合 Q 函数的加法分解假设,公式如下

公式左侧即 $Q(\bar{h},\bar{a})$ 为全局联合动作价值函数,输入为所有智能体的联合历史和联合动作,输出团队的全局 Q 值。右侧 $\sum_{i=1}^d\tilde{Q}_i(h^i,a^i)$ 为所有智能体局部价值函数的总和,而每个局部价值函数都依赖于该智能体自己的局部历史 $h^i$ 和局部动作 $a^i$ ,无任何全局信息或其他智能体的信息输入。

VDN 的参数更新完全遵循 Q 函数的 TD 更新规则,仅需要做极小的修改,如下

  • 用所有局部 $\tilde{Q}_i$ 求和得到全局 $Q_t=\sum_{i=1}^d\tilde{Q}_i(h^i,d^i)$
  • 用全局联合奖励 $r_t$ 计算 TD 目标 $y_t=r_t+\gamma\underset{\tilde{a}^\prime}{\max}Q_t(\tilde{h}^\prime,\tilde{a}^\prime)$
  • 计算 TD 损失 $L(\theta)=E[(y_t-Q_t)^2]$
  • 反向传播更新参数

QMIX

QMIX 即 Monotonic Value Function Factorisation for Deep Multi-Agent Reinforcement Learning(面向深度多智能体强化学习的单调价值函数分解方法),QMIX 的核心就是在保证集中训练的全局最优策略与分散执行的个体贪心策略完全一致的前提下,极大提升价值函数的表达能力,同时充分利用集中训练的全局状态信息。

上述的 VDN 算法中,将 $Q_t$ 分解为各个智能体的 $Q_i$ 的线性加和,实现了 CTDE,但是仅能表示线性加和的价值函数,表达能力受限,无法建模智能体间复杂的非线性协作;另外完全无法利用集中训练时的全局状态信息,浪费训练中的关键先验。QMIX 的核心是放宽 VDN 的加性分解约束,仅保留单调性约束,在保留 argmax 一致性的前提之下,极大提升价值函数的表达能力。在 VDN 中的加性分解时单调性约束的特例 $\frac{\partial Q_t}{\partial Q_i}=1$ ,而 QMIX 允许任意非线性的单调组合,只需要满足 $\frac{\partial Q_t}{\partial Q_a}\geq0$ (单调性约束),即可满足

对全局联合动作空间求 $Q_t$ 的最大值,得到最优联合动作,与每个智能体分别对自身 $Q_i$ 求最大值得到的动作组合完全等价。只有满足这个等式,分散执行时,每个智能体仅基于本地观测做贪心动作选择,就能得到全局最优的协作效果,这就是 CTDE 范式的核心目标,彻底解决了集中式方法的可扩展性问题。

为了满足单调性约束,同时充分利用全局状态信息,QMIX 设计了端到端的三模块网络架构

  • Agent Network:是每个智能体的本地拟合模块。输入当前时刻的局部观测 $o_t^i$ 和上一时刻执行的动作 $u_{t-1}^i$ 与智能体 ID 的 one-hot 码,输出所有可选动作对应的个体价值 $Q_i(\tau^i,u^i)$
  • Mixing Network:混合网络是实现单调性约束的核心。将所有智能体输出的个体 $Q_i$ 进行非线性组合,输出全局联合价值 $Q_t$ ,从结构上保证单调性约束
  • Hyper Network:是 QMIX 利用全局状态信息的核心设计,解决了引入全局状态不破坏单调性约束的问题。以集中训练时可获取的全局状态 $s$ 作为输入,生成混合网络每一层的权重和偏置,让 $Q_t$ 充分利用全局状态信息,同时不破坏单调性约束

QMIX 采用端到端的训练来最小化损失函数,损失函数与 DQN 一脉相承,仅将智能体 $Q$ 替换为 $Q_t$ ,公式如下

其中 TD 目标值的定义与 DQN 完全一致

QMIX 继承了 DQN 的训练框架,采用端到端的更新方式。

MADDPG

MADDPG 即多智能体的 DDPG,在 MADDPG 中,每个智能体都有一个 Actor 网络且完全独立,而所有智能体共享一个中心化的 Critic 网络,该 Critic 在训练的过程中同时对每个智能体的 Actor 做出指导。

在 CTDE 算法的应用场景可以被建模为部分可观测马尔可夫博弈,部分观测马尔可夫博弈是单智能体 MDP 在多智能体场景下的标准扩展,对于包含 $N$ 个智能体的马尔可夫博弈,核心要素包含

  • 全局状态集合 $S$ :所有智能体所有可能的状态空间,是全局信息
  • 每个智能体 $i$ 的动作集合 $A_i$
  • 局部观测集合 $O_i$
  • 每个智能体的策略 $\pi_{\theta_i}:O_i\times A_i\rightarrow[0,1]$ ,表示智能体在每个观测下采取动作的概率
  • 环境的状态转移函数 $P:S\times A_1\times\cdots\times A_N\rightarrow \omega(s)$ ,输入全局状态与所有智能体的联合动作,输出下一时刻全局状态
  • 每个智能体的奖励函数 $r_i:S\times A_i\rightarrow R$ ,每个智能体的即时奖励
  • 每个智能体从全局状态得到部分的观测信息 $o_i:S\rightarrow O_i$
  • 初始状态分布 $\rho:S\rightarrow[0,1]$
  • 每个智能体的目标都是最大化其期望累积奖励 $R_i=\sum_{t=0}^T\gamma^tr_i^t$

MADDPG 算法基于中心化训练+去中心化执行,每个智能体使用 AC 的方法训练,不同于传统的单智能体的情况,MADDPG 中每个智能体的 Critic 部分都能获得其他智能体的策略信息。对于 $N$ 个智能体,策略参数集合 $\theta=\{\theta_1,\cdots,\theta_N\}$ ,策略集合 $\pi=\{\pi_1,\cdots,\pi_N\}$ ,智能体 $i$ 的期望回报目标为 $J(\theta_i)=E[R_i]$ ,其策略梯度公式为

其中 $Q_i^\pi(x,a_1,\cdots,a_N)$ 是一个中心化的动作价值函数,其中的输入 $x=(o_1,\cdots,o_N)$ 为全局信息,包含所有智能体的联合动作。其中的 $\pi_i(a_i,o_i)$ 是一个去中心化的 Actor 函数,策略网络仅输入智能体自身的局部观测,输出智能体的动作分布。,在训练时,由中心化的 Critic 提供梯度指导,解决传统 PG 的方差爆炸问题。当 Critic 输入所有智能体的联合动作之后,环境的转移概率满足

无论智能体的策略如何更新,给定全局状态和所有智能体的联合动作,环境的转移概率都是固定的,环境从单智能体视角变为平稳,彻底解决了非平稳性问题,同时让经验回放池可以正常使用。对于 $N$ 个连续动作空间的确定性策略 $\mu_{\theta_i}$ ,智能体 $i$ 的目标函数梯度可以写作

其中 $D$ 为经验回收池,存储元组 $(x,a_1,\cdots,a_N,r_1,\cdots,r_N,x^\prime)$ 。在 MADDPG 中,中心化 Critic 网络通过最小化 TD 误差的均方损失更新,损失函数如下

其中 $\mu^\prime=\{\mu_{\theta_1^\prime},\cdots,\mu_{\theta_N^\prime}\}$ 是所有智能体的 Actor 网络,采用软更新的方式更新参数,保证训练稳定性。其中的 $a_j^\prime=\mu_j^\prime(o_j)$ 是下一时刻的动作,由每个智能体 $j$ 的目标 Actor 网络,根据下一时刻的局部观测 $o_j$ 输出。

对每个智能体 $i$ ,为其他每个智能体 $j$ 维护一个近似策略 $\hat{\mu}_{\phi_i^j}$ ,其中 $\phi_i^j$ 为近似策略的参数。近似策略通过最大化智能体 $j$ 动作的对数概率,加上熵正则化项学习,损失函数公式为

其中的 $H(\hat{\mu}_i^j)$ 为近似策略的熵正则项,防止策略过度确定性,提升探索能力, $\lambda$ 为熵正则系数。损失函数就是带最大熵正则的最大似然估计,让近似策略既能精准拟合智能体 $j$ 的真实动作,又保持一定的探索性

MADDPG 的流程如下

  • 初始化每个智能体的 Actor 网络,初始化每个智能体的 Critic 网络
  • 对于每次迭代
    • 初始化一个环境,获取所有智能体的初始观测 $s$
    • 对于每个时间步
      • 所有智能体都使用自己的 Actor 网络策略选择一个动作 $a_i$
      • 执行动作 $a=(a_1,\cdots,a_N)$ ,获得奖励 $r$ 和新的观测 $s^\prime$
      • 将 $(s,a,r,s^\prime)$ 存放到经验回收池 $D$ 中
      • 从 D 中随机采样一批数据
      • 对于每个智能体,中心化训练 Critic 网络,训练自身的 Actor 网络
      • 每过一定时间步,更新每个智能体的目标 Actor 网络和目标 Critic 网络

MAPPO

MAPPO 即 Multi-Agent PPO,是在多智能体协作环境中对 PPO 的集中式价值函数扩展版本。MAPPO 完全继承了 PPO 的核心结构,对 CTDE 范式做了适配,学习两个独立的神经网络

  • 策略网络:只输入该智能体的局部观测,输出动作分布。每个智能体在执行时,仅使用其对应的策略网络来计算,保证去中心化操作
  • 价值网络:仅在训练时使用,输入全局信息,实现集中式训练

MAPPO 的损失函数是 PPO 的损失函数针对多智能体场景做了适配

其中

  • $B$ 为批次大小,即收集的轨迹样本数
  • $n$ 为智能体数量
  • 重要性采样比率 $r_{\theta,i}^{(k)}=\frac{\pi_\theta(a_i^{(k)}\vert o_i^{(k)})}{\pi_{\theta_{old}}(a_i^{(k)}\vert o_i^{(k)}}$ ,即新策略 $\pi_\theta$ 在观测 $o_i^{(k)}$ 下采取动作 $a_i^{(k)}$ 的概率与旧策略 $\pi_{\theta_{old}}$ 对应的概率的比值,PPO 通过限制该比值的范围,避免策略更新步长过大,保证训练稳定
  • 优势函数 $A_i^{(k)}$ 使用 GAE 计算,基于全局价值函数 $V_\phi$ 求解,用于衡量动作的相对优劣,用于策略更新
  • 熵正则项 $S(\pi)=-\sum_a\pi(a\vert o)\log\pi(a\vert o)$ ,估计策略探索,防止策略过早收敛到确定性策略,陷入局部最优

MAPPO 采用带裁剪的价值损失,适配多智能体场景之后的公式为

其中

  • $V_\phi(s_i^{(k)})$ 是当前价值网络对全局状态的价值预测
  • $V_{\phi_{old}}(s_i^{(k)})$ 更新前旧价值网络的预测值
  • $\hat{R}_i$ 折扣回报,是价值网络拟合的目标
  • $\epsilon$ 裁剪超参数,与策略损失中的 $\epsilon$ 共用,限制价值网络的更新幅度

MAPPO 算法的训练流程如下

  • 初始化每个智能体的 Actor 网络,初始化每个智能体的 Critic 网络
  • 对于每次迭代
    • 初始化一个环境,获取所有智能体的初始观测 $s$
    • 对于每个时间步
      • 所有智能体都使用自己的 Actor 网络策略选择一个动作 $a_i$
      • 执行动作 $a=(a_1,\cdots,a_N)$ ,获得奖励 $r$ 和新的观测 $s^\prime$
      • 将 $(s,a,r,s^\prime)$ 存放到经验回收池 $D$ 中
      • 从 D 中随机采样一批数据
      • 对于每个智能体,计算 Actor 网络损失和 Critic 网络损失,最小化损失函数更新对应网络的参数
      • 每过一定时间步,更新每个智能体的目标 Actor 网络和目标 Critic 网络

COMA

COMA 即反事实多智能体策略梯度法COMA(Counterfactual Multi-Agent Policy Gradient),旨在通过减少策略梯度的方差来提升去中心化智能体的学习效果。在多智能体强化学习场景中,每个智能体在某一时刻只掌握局部的信息,无法全局观测环境状态。为了促进合作,各个智能体的动作对全局奖励有不同的贡献,因此需要一种有效的方法来分配奖励

COMA 的核心是引入一个反事实基线,该基线模拟在固定其他智能体动作的前提下,某个智能体选择不同动作时对全局奖励的影响,从而更精确地衡量当前动作的贡献,减少策略梯度更新中的方差。基于反事实基线设计反事实优势函数

其中 $A^i(s,u)$ 是智能体 $i$ 的反事实优势函数,衡量智能体 $i$ 执行当前动作 $u_i$ 时,相比固定其他所有智能体的动作 $u_{-i}$ ,智能体 $i$ 遵循自身策略随机动作的相对优势。其中的 $Q(s,u)$ 是中心化 Critic 估计的全局状态 $s$ 与联合动作 $u$ 下的动作价值,即智能体 $i$ 执行当前动作 $u_i$ ,其他智能体执行 $u_{-i}$ 的期望回报。其中的 $\sum_{u_i^\prime}\pi_i(u_i^\prime\vert o^i)Q(s,(u_{-i},u^\prime_i))$ 为反事实基线,即固定其他智能体的动作 $u_{-i}$ 不变,让智能体 $i$ 遵循自身策略 $\pi_i$ 遍历所有可能的动作 $u_i^\prime$ ,计算对应的 Q 值期望。

基于反事实优势函数,COMA 的最终策略梯度公式如下

Critic 的优化目标是最小化 TD 的均方误差

定义 $n$ 步回报

定义 TD 目标值

Critic 的损失函数

COMA 算法的流程如下

  • 初始化 Actor 网络参数 $\theta_\pi$ ,初始化 Critic 网络参数 $\theta_c$ ,初始化目标 Critic 网络参数 $\theta_c^\prime=\theta_c$ ,初始化经验回放池
  • 所有智能体基于当前策略与环境交互,采样完整轨迹,以元组 $(s,o_i,u,r,s^\prime)$ 存入经验回放池
  • 从经验回放池中采样小批量数据
  • 计算 TD 目标值 $y^{(\lambda)}$ ,计算损失函数,最小化损失函数更新 Critic 网络参数
  • 对每个智能体 $i$ ,通过 Critic 进行一次前向传播,得到其所有动作的 Q 值
  • 计算反事实基线,计算反事实优势函数,后续计算 COMA 策略梯度 $g$ ,通过梯度上升更新 Actor 参数

DGN

DGN 即 Deep Graph Convolutional Network(深度图卷积网络),核心提出了图卷积强化学习框架,专门解决动态多智能体环境下的合作学习难题。在 DGN 中,每个智能体被抽象为一个节点 $i$ ,其邻居集合为 $B_i$ ,可以根据距离或其他指标来确定邻居集且邻居集是根据环境状态变化的,每个节点可与其邻居节点进行通信。

DGN 由三大核心模块组成,所有智能体共享权重

  • 观测编码器:低维输入使用 MLP,视觉输入使用 CNN,将局部观测 $o_i^t$ 编码为特征向量 $h_i^t$
  • 卷积层:整合智能体 $i$ 与其邻居 $B_i$ 的特征向量,生成隐特征 $h_i^H$ ,堆叠卷积层可以逐步扩大智能体的感受野,自然扩展合作范围,且执行截断仅需和邻居通信,适配真实场景的有限通信约束
  • Q 网络:将所有前序卷积层的特征拼接后输入,输出不同动作的 Q 值,实现不同感受野不同合作范围的特征复用

在 DGN 中提出的图卷积,解决动态图的卷积适配与训练目标定义两个问题。由于智能体的数量、位置、邻居关系随时间快速变化,DGN 通过矩阵映射解决动态邻居的特征匹配问题

  • 特征矩阵构建:将 $t$ 时刻所有智能体的特征向量合并为特征矩阵 $F_t$ ,尺寸为 $N\times L$ ,其中的 $N$ 为智能体的数量, $L$ 为特征向量的长度
  • 邻接矩阵构建:为每个智能体 $i$ 构建邻接矩阵 $C_t^i$ ,尺寸为 $(\vert B_i\vert+1)\times N$
    • 其中第一行为智能体 $i$ 自身索引的 one-hot 码
    • 第 $j$ 行是第 $j-1$ 个邻居索引的 one-hot 码
  • 局部特征提取:通过矩阵乘法 $C_t^i\times F_t$ 精准提取智能体 $i$ 的局部区域的特征向量,解决动态邻居索引匹配的问题

DGN 的核心训练损失函数基于 DQN 的实现,采用 TD 损失的架构,另外还采用经验回放机制训练。经验回放池中存放元组 $(O,A,O^\prime,R,C)$ ,其中 $O=\{o_1,\cdots,o_N\}$ 为智能体的局部观测集合, $A=\{a_1,\cdots,a_N\}$ 为智能体的动作集合, $O^\prime$ 为下一时刻的观测, $R$ 为奖励集合, $C$ 为所有智能体的邻接矩阵集合。从回放池中采样大小为 $B$ 的小批量数据,最小化 TD 损失,如下

其中的 $O_{i,C}$ 是由邻接矩阵 $C$ 决定的、智能体 $i$ 感受野内的所有智能体观测集合。另外为了避免训练震荡,DGN 采用目标网络软更新机制,即

DGN 还对卷积核进行了创新,解决了传统卷积核输入顺序敏感、无法抽象智能体间关系的问题,采用多头点积注意力作为卷积核。DGN 基于多头注意力设计关系核,对智能体 $i$ ,定义 $B_{+i}$ 表示邻居集合 $B_i$ 加上智能体 $i$ 自身

对第 $m$ 个注意力头,智能体 $i$ 与 $j\in B_{+i}$ 之间的关系权重计算公式为

其中 $\alpha_{ij}^m$ 为第 $m$ 个注意力头下,智能体 $i$ 对邻居 $j$ 的注意力权重,权重越大表示 $j$ 对 $i$ 的合作决策越重要;其中 $\tau$ 是缩放因子,避免点积过大导致 softmax 梯度消失,保证训练稳定性; $W_Q^m$ 为第 $m$ 个注意力头的 Query 投影矩阵,可学习参数,将智能体 $i$ 的特征投影到查询子空间; $W_K^m$ 为第 $m$ 个注意力头的 Key 投影矩阵,可学习参数,将邻居 $j$ 的特征投影到键子空间; $h_i$ 表示智能体 $i$ 的输入特征向量。对每个注意力头先按关系权重对值特征加权求和,再将所有注意力头的结果拼接,送入非线性层得到卷积层的最终输出

得到卷积层对智能体 $i$ 输出的最终隐特征向量。其中的 $\sigma()$ 为非线性激活函数;其中 $W_V^m$ 是第 $m$ 个注意力头的 Value 投影矩阵,可学习参数,将输入特征投影到值子空间; $\sum_{j\in B_{+i}}\alpha_{ij}^mW_V^mh_j$ 是第 m 个注意力头的特征聚合结果,用关系权重对邻居的值特征加权求和;其中 $\mathrm{concatenate}()$ 函数将 M 个注意力头的聚合结果在特征维度拼接,融合多子空间的关系表征

由于合作是长期持续的过程,即使周围智能体的状态特征发生变化,智能体的合作对象与合作方式在短期内也应保持稳定,关系核输出的、对邻居的注意力权重分布,在连续时间步也应具备一致性。所以在 DGN 中提出了时序关系正则化。定义符号 $G_m^\kappa(O_{i,C};\theta)$ 表示参数为 $\theta$ 的网络,对智能体 $i$ ,在第 $\kappa$ 层卷积层,第 $m$ 个注意力头输出的关系表征,加入时序关系正则化之后的总损失函数为

$D_{KL}$ 是 KL 散度,用于衡量两个分布的差异。则 DGN 算法的流程如下

  • 初始化每个智能体的 Q 网络,同步初始化结构完全一致的目标 Q 网络
  • 明确邻居判定规则,邻居集合随着智能体移动动态变化,仅邻居节点之间可进行信息交互
  • 初始化经验回放池
  • 在每个时间步中
    • 环境向每个智能体 $i$ 返回当前时间步 $t$ 的局部观测 $o_i^t$ ,仅包含智能体自身感知范围内的环境信息,无全局状态
    • 将每个智能体的局部观测 $o_i^t$ ,输入共享的编码器,输出固定维度的节点特征向量 $h_i^t$
    • 按照预设的邻居规则,确定每个智能体当前步的邻居集合 $B_i$ ,生成动态的图拓扑
    • 把所有智能体的节点特征按索引拼接,生成全局特征矩阵 $F_t$ ,为每个智能体 $i$ 构建专属邻接矩阵 $C_t^i$ ,通过矩阵乘法 $C_t^i\times F_t$ 精准提取智能体 $i$ 的局部区域的特征向量,解决动态邻居索引匹配的问题
    • 逐层利用多头注意力关系核计算图卷积
    • 借鉴 DenseNet 的设计,把编码器输出、所有卷积层的输出特征,在特征维度进行拼接,得到智能体 $i$ 的最终聚合特征,实现不同感受野、不同合作范围的特征复用
    • 拼接之后的聚合特征输入共享的 Q 网络,输出智能体 $i$ 所有可选动作对应的 Q 值,利用 $\epsilon$ 贪婪策略选择动作
    • 所有智能体同时执行选中的动作,环境返回每个智能体的即时奖励 $r^i_t$ 、下一时刻的局部观测 $o_{t+1}^i$,以及回合是否终止的标志
    • 把当前步的完整元组 $(O_t,A_t,O_{t+1},C_t)$ 存入经验回放池
    • 从经验回放池中,随机采集批次大小为 $B$ 的样本
    • 计算 TD 目标值,计算对应的 TD 均方误差损失,计算时序关系正则化损失,得到总的损失。反向传播梯度下降法更新参数
    • 定时软更新目标网络参数 $\theta^\prime=\beta\theta+(1-\beta)\theta^\prime$

分层强化学习

分层强化学习通过引入多层次结构来处理复杂的任务,核心思想就是将复杂的任务分解为若干子任务,每层策略专注于不同时间尺度的决策。

  • 高层策略:负责全局规划,设定子目标或子任务
  • 低层策略:负责执行具体动作,与环境交互以实现高层目标

Option Framework

Option Framework 是强化学习中的一种分层抽象方法,将动作抽象为 Option,其中的 Option 定义为闭环的、持续一段时间的动作策略,既可以是低层原始动作,也能是高层时序抽象动作。

定义 Option $\omega\in\Omega$ 是一个三元组 $\omega=(I_\omega,\pi_\omega,\beta_\omega)$

  • 启动集 $I_\omega\subseteq S$ ,即是状态集合 $S$ 的子集,只有当智能体处于 $s\in I_\omega$ 时才能选择该 Option
  • 内部策略 $\pi_\omega:S\times A\rightarrow[0,1]$ ,是条件概率分布,表示执行 Option $\omega$ 时,状态 $s$ 下选择原始动作 $a$ 的概率
  • 终止函数 $\beta_\omega:S\rightarrow[0,1]$ ,表示进入状态 $s$ 之后,Option $\omega$ 终止的概率。

在底层 MDP 上定义一组 Option,构成一个 SMDP,SMDP 方法将 Option 视作不可部分割的黑盒单元,只关注 Option 的启动状态和终止状态,忽略选项执行的中间过程,仅在选项完整执行到终止后进行值更新。

定义 SMDP Q-Learning 更新规则如下

其中的 $\Omega_{s^\prime}$ 是在状态 $s^\prime$ 可执行的 Options 集合,其中的 $k$ 是 Option $\omega$ 从状态 $s$ 启动到状态 $s^\prime$ 终止所经过的原始时间步数量。这个更新仅在每个 Option 完整执行到终止后会触发一次更新。在与传统 Q-Learning 一致的收敛条件下,该更新规则下的 Q 值会收敛到最优的 Q 值,收敛后可以通过贪心策略 $\pi(s)=\underset{\omega\in\Omega_s}{\argmax}Q(s,\omega)$ 得到最优策略

选项中断

由于 SMDP 方法只能将 Option 视作不可分割的黑盒,要求选项必须执行到终止时才能进行决策与更新,无法应对环境变化、状态信息更新带来的策略调整需求。所以结合底层 MDP 和上层 SMDP 的双重视角,修改 Option 的内部结构,实现选项的动态中断,从而获得比 SMDP 规划更优的性能。

当正在执行 Option $\omega$ 时,当前处于历史 $h$ 时,面临两个互斥的选择

  • 继续执行当前 Option:获得的期望价值为 $Q^\mu(h,\omega)$
  • 立刻中断当前 Option:终止 $\omega$ ,回到策略 $\mu$ 重新选择最优 Option,获得期望价值为 $V^\mu(s)=\sum_{\omega\in\Omega_s}\mu(s,\omega)Q^\mu(s,\omega)$

中断的判断很简单,当 $V^\mu(s)>Q^\mu(s)$ 时就立即中断当前 Option。中断是修改 Option 的终止函数,给选 Option 加一个价值不足就终止的规则,同时不改变 Option 的启动集 $I$ 和内部策略 $\pi$ 。对原始 Option 集 $\Omega$ 中的每一个选项 $\omega=(I,\pi,\beta)$ ,定义一个一一对应的新选项 $\omega^\prime=(I,\pi,\beta^\prime)$ 。其中 $\beta^\prime$ 是终止函数,与原始的 $\beta$ 几乎完全一致,但是在 $\beta^\prime$ 中,对于任何历史 $h$ ,如果满足 $Q^\mu(h,\omega)<V^\mu(s)$ 则可以将 $\beta^\prime(h)$ 设置为 1。将所有被修改了终止条件的历史 $h$ 称之为中断历史,记作集合 $\Gamma=\{h\in\Omega\vert\beta(h)\not=\beta^\prime(h)\}$ 。

定义中断策略 $\mu^\prime$ ,与原始策略 $\mu$ 的选择 Option 的逻辑完全一致,只是选择的是带中断的新选项 $\omega^\prime$ ,而非原始选项。即对所有状态 $s\in S$ 和所有新选项 $\omega^\prime\in\Omega^\prime$ ,有 $\mu^\prime(s,\omega^\prime)=\mu(s,\omega)$ 。实际上就是选择的每个选项多了一个中途价值不够就立即停止的终止规则。

选项内模型学习

Option Framework 提出基于单步时序差分的选项内模型学习方法,实现离策略、高样本效率的选项模型估计。选项的 SMDP 模型包含两个核心部分

  • $r_s^\omega$ 表示在状态 $s$ 下发起 Option $\omega$ ,执行到终止的期望累积折扣奖励
  • $p_{s\rightarrow s^\prime}^\omega$ 表示在状态 $s$ 下发起 Option $\omega$ ,执行到终止时落到状态 $s^\prime$ 的折扣转移概率

与 SMDP 值函数学习一致,仅在选项完整执行到终止后,才对模型进行更新,忽略中间执行过程,更新公式如下

其中 $\hat{r}_s^\omega$ 和 $\hat{p}_{s\rightarrow x}^\omega$ 为 ${r}_s^\omega$ 和 ${p}_{s\rightarrow x}^\omega$ 的估计值,其中的 $x$ 为目标状态;其中 $\delta_{s^\prime x}$ 是克罗内克函数,当且仅当 $s^\prime=x$ 时取值为 1。到那时它必须等到 Option 执行完毕才能更新,样本利用率极低,对于长时长 Option,学习效率会下降,且无法利用非完整执行的轨迹数据,不支持离策略学习。

利用 Option 的马尔可夫性,可将 Option 的整体模型分解为单步递归形式,得到模型的 Bellman 一致性方程

奖励模型的 Bellman 方程

在状态 $s$ 下发起 Option $\omega$ ,执行到终止的期望累积折扣奖励分解为即时奖励和下一步不终止的后续奖励。执行动作 $a$ 后到达状态 $s^\prime$ ,有 $\beta(s^\prime)$ 的概率选项终止,无后续奖励;有 $1-\beta(s^\prime)$ 的概率选项继续,后续期望奖励为 $r_{s^\prime}^\omega$ 。实现了长周期选项模型的单步分解

状态转移模型的 Bellman 方程

在状态 $s$ 下发起 Option $\omega$ ,执行到终止时落到状态 $s^\prime$ 的折扣转移概率,先按内部策略 $\pi$ 对动作求和,再按 MDP 原始动作的转移概率 $p_{s\rightarrow s^\prime}^\omega$ 对下一个状态 $s^\prime$ 求和,到达状态 $s^\prime$ 时,有 $\beta(s^\prime)$ 的概率选项终止,但是仅当 $s^\prime=x$ 时才对其有贡献;有 $1-\beta(s^\prime)$ 的概率选项继续,此时转移到 $x$ 的概率为 $p_{s^\prime\rightarrow x}^\omega$

基于上述 Bellman 方程,推导出单步时序差分更新规则:只要状态 $s_t$ 下执行的动作 $a_t$ 符合 Option $\omega$ 的内部策略 $\pi$ 即可在每一步执行后更新模型,无需等待选项终止。核心更新公式如下

每执行一个单步动作后即可触发更新,无需等待 Option 运行到终止。更新的核心是 Bellman 方程对应的单步 TD 误差,目标值与 Bellman 方程的期望完全一致,保证更新的无偏性。

选项内值学习

Option Framework 将选项内学习的思想扩展到值函数估计,突破 SMDP 值学习的样本效率瓶颈,提出选项内 Q-Learning 算法。SMDP 值学习执行一个 $k$ 步的选项,只能得到一个 Q 值更新样本,而根据马尔可夫 Option,可利用其马尔可夫性,在每一步执行中都更新 Q 值,同时支持离策略学习,大幅提升样本效率。首先定义 U 函数,统一描述选项在状态 $s$ 下终止或继续两种情况下的价值,是选项内值学习的核心基础

其中的 $U_\Omega^\star(s,\omega)$ 是最优 U 函数,代表到达状态 $s$ 时,Option $\omega$ 正在执行的状态-选项对的期望价值。价值分解为两种互斥的情况

  • $1-\beta(s)$ 的概率 Option 在 $s$ 状态时不终止,继续执行,此时价值等于在 $s$ 发起 Option $\omega$ 的价值 $Q_\Omega^\star(s,\omega)$
  • $\beta(s)$ 的概率 Option 在 $s$ 状态时终止,智能体选择全局最优 Option 的价值 $\max_{\omega^\prime\in\Omega}Q_\Omega^\star(s,\omega^\prime)$

基于上述的 U 函数,推导出马尔可夫选项的最优值函数 Bellman 方程,实现 Option 整体价值的单步分解

基于上述 Bellman 方程,推导出离策略的单步 TD 更新规则,只要在状态 $s_t$ 下执行的动作 $a_t$ 符合 Option $\omega$ 的内部策略,即可在每一步更新 $Q(s_t,\omega)$ ,得到 U 函数的估计形式和 Q 值的更新规则

每次执行一个单步动作后触发。TD 误差目标值为 $r_{t+1}+\gamma U(s_{t+1},\omega)$ ,是单步即时奖励加上下一步状态的 U 函数估计值

学习选项的子目标

Option Framework 中提出了基于子目标的 Option 学习方法,将每一个 Option 与一个明确的子目标绑定,通过离策略强化学习方法,独立学习每个 Option 的内部策略,让该策略最优地实现对应的子目标。给定子目标状态集合 $G$ ,将选项的终止函数设计为到达 $G$ 时 $\beta=1$ ,否则 $\beta=0$ ,将奖励函数设计为到达 $G$ 时获得正奖励,否则为 0。策略学习使用离策略 Q-Learning 等方法,学习该子目标对应的最优策略,作为选项的内部策略 $\pi$ 。Option 的发起集 $I$ 即为所有能通过该策略到达子目标 $G$ 的状态集合。

Option Framework 训练流程

  • 选项集的构建与预训练:用于解决选项的来源问题,输出一套可用的选项集合 $\Omega$ ,每个选项的三元组 $(I,\pi,\beta)$ 完全确定
    • 方法 1:人工先验定义 Option
      • 定义子目标:根据任务先验,确定高层子目标
      • 设计发起集 $I$ :定义该选 Option 可启动的状态范围
      • 设计内部策略 $\pi$ :人工设计实现子目标的闭环策略
      • 设计终止函数 $\beta$ :定义 Option 的终止条件
      • 输出固定的 Option 集 $\Omega$ ,无需额外训练
    • 方法 2:自动学习子目标驱动的 Option,通过强化学习自动学习选项的内部策略与发起集
      • 定义子目标集合 $G$ 与子目标奖励函数:给子目标状态分配终止价值 $g(s)$
      • 约束选项终止规则:选项仅在到达子目标集合 $G$ 时终止
      • 训练选项的内部策略 $\pi$ :通过 Q-Learning 等方法,学习实现该子目标的最优策略
      • 确定发起集 $I$ :所有能通过该策略能到达子目标 $G$ 的状态,构成选项的发起集
      • 输出自动学习到的 Option 集 $\Omega$
  • 在线执行与推理:基于训练好的 Option 集 $\Omega$ 和高层策略 $\mu$ ,在环境中实际执行,完成任务
    • 标准的 SMDP 执行模式:遵循 SMDP 的黑盒假设
      • 重置环境到初始状态,清除正在执行的 Option
      • 在状态 $s_t$ 下,若无当前正在执行的 Option,则用高层策略 $\mu$ 选择一个可以发起的 Option $\omega$
      • 用 Option $\omega$ 的内部策略 $\pi$ ,在状态 $s_t$ 下选择原始动作 $a_t=\pi(s_t)$ ,执行后得到即时奖励,环境转移到新状态
      • 在新状态下,采样终止函数,若终止则结束当前 Option 的执行
      • 循环上述步骤,直到到达终止环境
    • 带中断的优化执行模式:基于中断定理,在标准执行流程中加入动态中断判断以提升执行性能
      • 重置环境到初始状态,清除正在执行的 Option
      • 在状态 $s_t$ 下,若无当前正在执行的 Option,则用高层策略 $\mu$ 选择一个可以发起的 Option $\omega$
      • 用 Option $\omega$ 的内部策略 $\pi$ ,在状态 $s_t$ 下选择原始动作 $a_t=\pi(s_t)$ ,执行后得到即时奖励,环境转移到新状态
      • 增加中断判断:计算继续执行当前选项的价值 $Q(s_{t+1},\omega)$ ,计算中断后重新选选项的价值 $V(s_{t+1})=\max_{\omega^\prime\in\Omega_{s_{t+1}}}Q(s_{t+1},\omega^\prime)$ ,若 $V(s_{t+1})>Q(s_{t+1})$ 则中断当前选项,重选选项
      • 若未中断,则在新状态下,采样终止函数,若终止则结束当前 Option 的执行
      • 循环上述步骤,直到到达终止环境
    • 轮询执行模式:每一步都强制中断当前选项,重新选择当前状态下价值最高的选项
      • 重置环境到初始状态,清除正在执行的 Option
      • 在状态 $s_t$ 下,若无当前正在执行的 Option,则用高层策略 $\mu$ 选择一个可以发起的 Option $\omega$
      • 用 Option $\omega$ 的内部策略 $\pi$ ,在状态 $s_t$ 下选择原始动作 $a_t=\pi(s_t)$ ,执行后得到即时奖励,环境转移到新状态
      • 强制终止当前选项,重新选选项
      • 循环上述步骤,直到到达终止环境

Option-Critic

Option-Critic 是分层强化学习中的里程碑式的算法架构,旨在通过自主发现和优化子策略来解决复杂任务。Option-Critic 是基于 Option 架构的学习。

Option 框架

Option 框架是强化学习时序抽象核心理论框架,是分层强化学习的奠基性工作。核心目标是将时间上扩展的动作序列形式化为一个可被智能体自主选择和执行的高阶动作,从而解决原始马尔可夫决策过程因为动作粒度太细而导致长程任务学习效率低下、探索困难等问题。

一个 Option $\omega\in\Omega$ 是一个三元组 $\omega=(I_\omega,\pi_\omega,\beta_\omega)$ 。其中启动集 $I_\omega\subseteq S$ ,即是状态集合 $S$ 的子集,只有当智能体处于 $s\in I_\omega$ 时才能选择该 Option;其中内部策略 $\pi_\omega:S\times A\rightarrow[0,1]$ ,是条件概率分布,表示执行 Option $\omega$ 时,状态 $s$ 下选择原始动作 $a$ 的概率;终止函数 $\beta_\omega:S\rightarrow[0,1]$ ,表示进入状态 $s$ 之后,Option $\omega$ 终止的概率。

Option 的调用-返回执行模型如下

  • 智能体首先选择一个 Option $\omega\in\Omega$
  • 遵循 Option $\omega$ 的内部策略 $\pi_\omega$ 执行原始动作,直到选项根据 $\beta_\omega$ 触发被终止
  • 选项终止之后,重复上述选项

引入 Option 之后,原始的 MDP 转化为半马尔可夫决策过程,对应定义 Option 层面的价值函数,如下

其中 $V_\Omega(s)$ 为状态价值函数,定义为从状态 $s$ 触发,遵循上述 Option 执行模型的策略,获得的期望折扣回报;其中 $Q_\Omega(s,\omega)$ 为动作价值函数,定义为从状态 $s$ 出发,先选择并执行 Option $\omega$ ,之后遵循既定策略,获得的期望折扣回报。

Option 框架的价值函数满足扩展 Bellman 方程,是 Option 框架的学习和规划的核心公式

其中 $Q_U(s,\omega,a)$ 为动作价值函数,定义为在状态 $s$ 下执行 Option $\omega$ 时,选择原始动作 $a$ 能获得的期望折扣回报;其中 $\pi_{\omega,\theta}(a\vert s)$ 是选项内策略;其中的 $U(\omega,s^\prime)$ 时到达状态 $s^\prime$ 时 Option $\omega$ 的持续价值;其中 $\beta_{\omega,\thetasym}(s^\prime)$ 是选项 $\omega$ 在 $s^\prime$ 终止的概率;其中 $P(s_{t+1},\omega_{t+1}\vert s_t,\omega_t)$ 为增广状态空间的一步转移概率;其中的 $1_{\omega_t=\omega_{t+1}}$ 是指示函数,仅当 $\omega_t=\omega_{t+1}$ 时取 1,否则取 0。另外 $P(s_{t+1},\omega_{t+1}\vert s_t,\omega_t)$ 的第一项表示选项在 $s_{t+1}$ 时不终止,因此下一时刻的选项仍为当前的 $\omega_t$ ,第二项表示选项在 $s_{t+1}$ 终止,因此下一时刻的选项由选项上的策略 $\pi_\Omega$ 重新选择

Option-Critic

Option-Critic 中定义全局优化目标为最大化初始状态 $s_0$ 和初始选项 $\omega_0$ 下的期望折扣回报

其中 $\theta$ 为内部策略参数, $\thetasym$ 为终止函数参数, $\pi_\Omega$ 选项上的策略。上述的期望折扣回报 $\rho(\Omega,\theta,\thetasym,s_0,\omega_0)$ 实际上就对应着 $Q_\Omega(s,\omega)$ 。后续需要求解该回报对 $\theta$ 和 $\thetasym$ 的梯度,实现端到端的优化。

先求解对 $\theta$ 的梯度,如下

结果分为两部分:第一项是对 $\pi_{\omega,\theta}$ 求导,对应于内部策略变化对当前步价值的直接影响;第二项是对 $U$ 求导,对应内部策略变化对未来状态价值的间接影响,需要递归展开。结合上述的 $U(\omega,s^\prime)$ 的公式,给定一组马尔可夫选项,其随机内部策略关于参数 $\theta$ 可微,则期望折扣回报关于 $\theta$ ,初始条件为 $(s_0,\omega_0)$ 的梯度为

其中的 $\mu_\Omega(s,\omega\vert s_0,\omega_0)=\sum_{t=0}^\infty\gamma^tP(s_t=s,\omega_t=\omega\vert s_0,\omega_0)$ ,表示是从初始状态选项对出发,轨迹中所有状态选项对的折扣加权分布

求解对 $\thetasym$ 的梯度

其中的核心是对 $U$ 求偏导,带入上述的公式可以得到

这里引入了选项优势函数

当 $A_\Omega>0$ ,即继续执行当前选项的价值高于终止后重选选项的期望价值,应该降低终止概率,继续执行;当 $A_\Omega<0$ ,即继续执行当前选项的价值低于终止后重选的期望价值,应该提升终止概率,停止执行。对于给定一组马尔可夫选项,其随机终止函数关于参数ϑ可微,那么期望折扣回报目标关于 $\thetasym$ ,初始条件为 $(s_0,\omega_0)$ 的梯度为

其中 $\mu_\Omega(s^\prime,\omega\vert s_1,\omega_0)=\sum_{t=0}^\infty\gamma^tP(s_{t+1}=s^\prime,\omega_t=\omega\vert s_1,\omega_0)$ 表示从初始条件 $(s_1,\omega_0)$ 出发,轨迹中所有到达状态 $s^\prime$ 且正在执行 $\omega$ 的折扣加权分布

Option-Crtic 架构于 AC 算法架构对应,分为 Actor 和 Critic 两部分

  • Actor 部分:包含 2 个可学习的组件,是策略的执行主体
    • 所有选项的内部策略 $\pi_{\omega,\theta}$ :选项执行时,负责选择原始动作
    • 所有选项的终止函数 $\beta_{\omega,\thetasym}$ :进入新状态时,决定是否终止当前选项
  • Critic 部分:负责估计价值函数,为 Actor 的梯度更新提供评价信号,核心是估计 $Q_U$ 和 $A_\Omega$ ,也可以直接估计 $Q_\Omega$ 和 $V_\Omega$ ,再推导 $Q_U$ 和 $A_\Omega$

Critic 部分的损失函数为 TD 误差的均方误差

Actor 的目标是最大化全局期望回报,内部策略 $\pi_{\omega,\theta}$ 控制 Option 执行时的原始动作选择,优化目标是提升高价值动作的概率,内部策略 $\pi_{\omega,\theta}$ 的损失函数如下

无需直接学习 $Q_U$ 网络,直接用当前步的 TD 目标 $g_i$ 作为 $Q_U(s,\omega,a)$ 的无偏估计来减少参数量。另外还可以用优势函数 $Q_U(s,\omega,a)-V_\Omega(s)$ 替换 $Q_U$ ,即

为避免深度网络下内部策略快速退化为确定性策略,加入策略的信息熵正则化

则得到最终的内部策略损失

终止函数的优化目标为学习何时终止当前 Option 能最大化全局回报,为了避免 Option 过度收缩,给优势函数加入偏移 $\xi$

定义终止函数的损失

在深度网络端到端的训练中,通常将三个损失加权求和

其中的 $\lambda_{intra}$ 和 $\lambda_{term}$ 为内部策略损失函数和终止函数损失的权重系数

针对离散状态的简单环境中,无需使用深度网络,直接使用梯度上升法更新表格

其中的 $\alpha$ 为学习率, $g$ 为 TD 目标

MAXQ

MAXQ 算法主要思想就是将一个复杂的 MDP 分解为一系列嵌套的子 MDP,以便更容易解决问题。MAXQ 算法将任务 MDP 任务 $M$ 分解为一系列子任务 $(M_0,\cdots,M_n)$ ,另外 MAXQ 引入了一种分层的结构,将这一系列子任务构建为一个任务树,通过各个子任务的求解来解决整个任务,其中的 $M_0$ 就是这个任务树的 root,即解决 $M_0$ 就能解决整个原始 MDP 任务

MAXQ 中定义无参数子任务的三元组 $M_i=(T_i,A_i,\tilde{R}_i)$ 。其中的 $T_i$ 为终止谓词,将状态空间 $S$ 划分为活跃状态集 $S_i$ (子任务可执行的状态)和终止状态集 $T_i$ (子任务执行完成的状态),子任务的策略仅在 $s\in S_i$ 中执行;动作集 $A_i$ 是子任务 $M_i$ 可执行的动作集合,既可以是原始 MDP 的原子动作,也可以是其他的子任务;伪奖励函数 $\tilde{R}_i$ 仅在子任务从活跃状态 $s\in S_i$ 转移到终止状态 $s^\prime\in T_i$ 时生效,定义了子任务不同终止状态的优劣,通常给目标终止状态赋值 0,而非目标终止状态奖励赋值。另外对于原始 MDP 中的每个原子动作都是一个原子子任务,始终可执行、执行后立即终止,伪奖励函数为 0

在 MAXQ 中定义了分层策略 $\pi=\{\pi_0,\cdots,\pi_n\}$ ,为每个子任务 $M_i$ 定义一个子策略 $\pi_i$ 。子策略 $\pi_i$ 输入当前状态,输出要执行的原子动作或子任务。采用栈结构的子程序调用返回机制,子任务被调用后持续执行到自身的终止状态后返回父任务

MAXQ 定义分层值函数 $V^\pi(s,K)$ ,表示在状态 $s$ ,调用栈内容为 $K$ 时,遵循分层策略 $\pi$ 的期望累积奖励。定义投影值函数 $V^\pi(s)$ ,表示从根任务出发,调用栈为空时,在状态 $s$ 遵循分层策略 $\pi$ 的期望累积奖励,即 $V^\pi(s)=V^\pi(s,NULL)$

给定子任务图和分层策略 $\pi$ 之后,每个子任务定义一个 SMDP,其状态空间为 $S_i$ ,动作空间为 $A_i$ ,转移概率为 $P_i^\pi(s^\prime,N\vert s,a)$ ,期望奖励函数为 $\bar{R}(s,a)=V^\pi(a,s)$ ,即子任务 $M_i$ 在状态 $s$ 的投影值函数,若 $a$ 为原子动作,则 $V^\pi(a,s)$ 时执行动作 $a$ 的期望即时奖励。

子任务 $M_i$ 的投影值函数 $V^\pi(i,s)$ ,是从状态 $s$ 执行 $M_i$ 直到终止的期望累积奖励,即

若 $\pi_i(s)$ 选择的第一个动作是子任务 $a$ ,执行 $N$ 步之后终止于 $s^\prime$ ,则上述式子可以写作

其中第一部分就是执行子任务 $a$ 本身的折扣累积奖励,即 $V^\pi(a,s)$ ;第二部分为子任务终止之后,完成父任务 $M_i$ 的折扣累积奖励,即 $\gamma^NV^\pi(i,s^\prime)$ 的期望。由此可以得到子任务 SMDP 的 Bellman 方程

为了将分解扩展到动作值函数,首先定义子任务的动作值函数 $Q^\pi(i,s,a)$ ,即在子任务 $M_i$ 的活跃状态 $s$ ,执行动作 $a$ ,之后遵循分层策略 $\pi$ 直到 $M_i$ 终止的期望累积奖励。其 Bellman 方程为

将上式的右侧第二项定义为完成函数,是 MAXQ 的核心创新

完成函数指的就是在状态 $s$ 为子任务 $M_i$ 调用子任务 $M_a$ ,当 $M_a$ 执行完成之后,继续完成 $M_i$ 的期望折扣累积奖励,也就是完成子任务之后,后续还能得到多少奖励。则上述的动作值函数可以写作

即动作值函数是由执行动作 $a$ 本身能获得的奖励执行完动作 $a$ 之后完成父任务剩余部分的奖励。同时子任务的状态值函数定义为

复合子任务的值函数等于其策略选择的动作 Q 值;原子动作的值函数等于执行该动作的期望即时奖励。

对于任意状态 $s$ ,根任务的值函数可以展开为从根节点到叶子原子动作的路径上,所有原子动作的 V 值于各层完成函数 C 值的加和

其中的 $a_0=0,a_1,\cdots,a_m$ 是分层策略从根节点到原子叶子节点的路径。

对于给定 MAXQ 图和任意分层策略 $\pi$ ,一定存在对应的完成函数 $C^\pi(i,s,a)$ 和状态值函数 $V^\pi(i,s)$ ,使得通过分解方程计算出的根任务值函数 $V^\pi(0,s)$ ,等于遵循该分层策略从状态 $s$ 出发的期望折扣累积奖励。

在 MAXQ 的论文中还提出了 MAXQ 的可视化表示,包含两类节点

  • MAX 节点:对应每个子任务或原子动作,复合 Max 节点计算子任务的 V 值。MAX 节点的值等于其所有子 Q 节点中的最大值
  • Q 节点:对应父任务可调用的每个自动做,存储该动作在父任务中的完成函数 $C^\pi(i,s,a)$ 。Q 节点的值等于其所有子 MAX 节点的 V 值+自身存储的 C 值

MAXQ 采用递归最优策略,即对于 MAXQ 分解的每个子任务 $M_i$ ,其策略 $\pi_i$ 在该子任务对应的 SMDP 中是最优的,每个子任务的策略是层部最优、上下文无关的,仅优化自身子任务的奖励,不考虑父任务的上下文。论文中定义了两种算法 MAXQ-0 和 MAXQ-Q 的流程

GLIE 探索策略

GLIE 探索策略即 Greedy in the Limit with Infinite Exploration,指的是一类满足收敛性条件的探索策略的通用准则。一个 GLIE 探索策略是满足以下两个条件的任意策略

  • 无限探索条件:在每一个被无限次访问的状态中,每一个可执行的动作都被无限次执行
  • 极限下贪心条件:当时间步趋于无穷时,策略收敛到对当前价值函数贪心的策略

经典的 GLIE 策略实现方式

  • 衰减 $\epsilon$ 贪婪策略:探索率随着时间步 $t$ 衰减,当 $t\rightarrow\infty$ 时 $\epsilon\rightarrow0$
    • $\epsilon(t)=\frac{1}{\sqrt{t}}$
    • $\epsilon(t)=\frac{c}{c+t}$
    • $\epsilon(t)=\frac{1}{\log(t+1)}$
  • 衰减温度的玻尔兹曼探索:根据动作的 Q 值计算选择概率,估值越高的动作被选中的概率越大
    • $P(a\vert s)=\frac{\exp(Q(s,a)/\tau(t))}{\sum_b\exp(Q(s,b)/\tau(t))}$
    • 其中的 $\tau(t)$ 为温度系数,温度越高,探索越强;温度越低,动作越集中于高估值动作
    • 温度系数 $\tau(t)$ 随时间步 $t$ 衰减,且满足 $t\rightarrow\infty$ 时 $\tau(t)\rightarrow0$
    • 温度系数常用形式 $\tau(t)=\frac{1}{\log(t+1)}$

对于有序 GLIE 探索策略,相比于 GLIE 探索策略,添加了一项规则:对所有子任务中的所有动作,定义一个固定的全局序列,该序列在学习过程中保持不变,在贪婪探索时不再随机选择动作,而是按照预先定义的固定全序,在平局集合中选择排名最靠前的动作

MAXQ-0

MAXQ-0 是简化版的 MAXQ 学习算法,仅适用于伪奖励函数恒为 0 的场景。MAX-0 是递归执行的函数,核心流程如下

  • 若当前为原子动作节点:执行动作,获得奖励,更新原子动作的 V 值,返回执行步数 1
  • 若当前为复合子任务节点:循环直到子任务终止,按探索策略选择子动作,递归调用 MAXQ-0 执行子动作,获得执行步数 N 和终止状态 $s^\prime$ ,更新当前节点对应动作的完成函数 C 值,累积步数并且更新当前状态

核心更新公式如下

  • 原子动作 V 值更新 $V_{t+1}(i,s)=(1-\alpha_t(i))V_t(i,s)+\alpha_t(i)r_t$ ,本质是对原子动作的期望即时奖励做随机逼近
  • 完成 C 值函数更新 $C_{t+1}(i,s,a)=(1-\alpha_t(i))C_t(i,s,a)+\alpha_t(i)\gamma^NV_t(i,s^\prime)$ ,其中的 $N$ 为子动作 $a$ 的执行步数, $V_t(i,s^\prime)$ 是子动作终止之后,父任务 $M_i$ 在状态 $s^\prime$ 的贪心值

MAXQ-0 的收敛性:对于回合制 proper MDP 或无限时域折扣 MDP,若满足以下条件

  • 所有子任务的伪奖励函数恒为 0
  • 每个节点的学习率 $\alpha_t(i)$ 满足随机逼近收敛条件
  • 每个节点采用有序 GLIE 探索策略
  • 所有的 V 值和 C 值始终有界

则 MAXQ-0 算法收敛到唯一的递归最优策略 $\pi^\star_r$

MAXQ-Q

MAXQ-Q 时 MAXQ-0 的通用版本,支持任意伪奖励函数。在训练时,若直接将伪奖励加入 C 值更新,会污染父任务需要的真实完成值,导致无法学习到原始 MDP 的递归最优策略。所以在 MAXQ-Q 中学习两个独立的完成函数

  • $\tilde{C}(i,s,a)$ 内部优化完成函数,包含原始奖励和子任务的伪奖励,用于子任务内部学习局部最优策略
  • ${C}(i,s,a)$ 真实完成函数,仅包含原始 MDP 的奖励,不包含伪奖励,用于父任务计算子任务的真实 V 值

MAXQ-Q 的核心是两个完成函数的并行更新,如下

其中的 $a^\star=\argmax_{a^\prime}\big[\tilde{C}_t(i,s^\prime,a^\prime)+V_t(a^\prime,s^\prime)\big]$ 是子动作终止状态 $s^\prime$ 下的贪心动作,其中 $\tilde{R}_i(s^\prime)$ 是子任务的伪奖励

保证学习的是子任务实际执行的策略的真实值函数

FuN

FuN 算法即 FeUdel Networks,旨在通过分层结构来解决复杂的强化学习任务,通过将任务分解为高层目标和低层执行细节,提高了在复杂环境中的学习效率。

该算法将学习过程分为两个层次

  • Manager:负责设定高层次目标,通常在更高的抽象层次进行决策。Manager 在高维状态空间中学习如何为低层策略设定子目标
    • Manager 每个固定的时间步长生成一个新的子目标。这个子目标表示 Worker 接下来一段时间内需要到达的状态或方向
  • Worker:负责在具体的动作空间中实现 Manager 设定的子目标,执行实际的动作序列以完成高层指定的目标
    • Worker 从 Manager 接收到目标,直接与环境进行交互,通过动作空间中的操作逐步朝 Manager 设定的目标前进

整体前向传播流程

  • 共享感知映射 $z_t=f^{percept}(x_t)$ 。为 Manager 和 Worker 提供统一的环境感知特征,避免重复的特征学习
    • $x_t$ 为 $t$ 时刻环境的原始观测输入
    • $f^{percept}$ 是共享感知模块,将原始观测映射为特征向量
    • $z_t$ 是 $t$ 时刻共享的中间特征表征
  • Manager 隐状态映射 $s_t=f^{Mspace}(z_t)$ 。构建 Manager 进行状态建模与目标设置的专属隐空间,所有目标都在此定义
    • $f^{Mspace}$ 是将共享特征映射到 Manager 专属的隐状态空间
    • $s_t$ 是 Manager 的隐状态向量,是 Manager 设置目标的基础空间
  • Manager 目标生成 $h_t^M,\hat{g}_t=f^{Mrnn}(s_t,h_{t-1}^M),g_t=\frac{\hat{g}_t}{\Vert\hat{g}_t\Vert}$ ,是 FuN 的核心公式之一,让目标成为纯方向,而非绝对位置。Worker 只需让隐状态向该方向移动,无需到达特定点,大幅提升了目标的泛化性
    • 循环网络 $f^{Mrnn}$ 输出原始目标: $f^{Mrnn}$ 是 Manager 的循环网络,输出当前循环状态与原始目标向量
    • 归一化为方向向量:将原始目标向量归一化
  • 目标嵌入与时间池化 $w_t=\phi(\sum_{i=t-c}^tg_i)$ ,让 Manager 的目标对 Worker 的影响平滑变化,从结构上保证 Manager 的目标永远会影响 Worker 的最终策略,将高维目标降维,降低后续与动作交互的计算复杂度
    • $\sum_{i=t-c}^tg_i$ 是对过去 $c$ 步的目标向量求和,其中 $c$ 是 Manager 的时间跨度
    • $\phi$ 是无偏置的线性变化,将求和后的高维目标映射到低维嵌入空间
    • $w_t$ 为目标嵌入向量
  • Worker 动作嵌入生成 $h^W,U_t=f^{Wrnn}(z_t,h_{t-1}^W)$ ,Worker 为每个原始动作学习嵌入表示
    • $f^{Wrnn}$ 是 Worker 的循环网络
    • $U_t$ 是动作嵌入矩阵,每一行对应一个原始动作的 $k$ 维嵌入向量
  • 最终动作策略生成 $\pi_t=softmax(U_tw_t)$ ,通过内积实现 Manager 目标对 Worker 动作的动态调制,即与目标越契合的动作,被选中的概率越高
    • $U_tw_t$ 是动作嵌入向量与目标嵌入向量做内积
    • $\pi_t$ 为最终策略,它输出选择每个动作的概率

FuN 中确定了 Manager 和 Worker 的解耦训练规则,核心是两者之间无梯度传播,分别通过独立的目标函数优化

Manager 的转移策略梯度更新,定义 Manager 网络参数 $\theta$ 的梯度

其中的 $A_t^M=R_t-V_t^M(x_t,\theta)$ 是 Manager 的优势函数,其中 $V_t^M$ 是 Manager 内部 Critic 估计的状态价值函数,优势函数衡量了当前目标设置相对于平均水平的优劣;其中的 $R_t=\sum_{k=0}^\infty\gamma^kr_{t+k+1}$ 是最大化折扣回报,为优化目标;其中 $d_{cos}(\alpha,\beta)=\frac{\alpha^T\beta}{\vert\alpha\vert\vert\beta\vert}$ ,是余弦相似度,衡量两个向量的方向一致性;其中 $s_{t+c}-s_t$ 是 $t$ 时刻到 $t+c$ 时刻,Manager 隐状态的位移向量,代表 $c$ 步内 agent 在隐状态空间的实际移动方向。

Worker 使用标准 A3C 算法更新。定义 Worker 的内在奖励

其中 $r_t^I$ 是 $t$ 时刻 Worker 获得的内在奖励;其中 $s_t-s_{t-i}$ 是从 $t-i$ 时刻到 $t$ 时刻,隐状态的实际位移向量;其中 $g_{t-i}$ 是 $t-i$ 时刻 Manager 设置的目标方向。

Woker 的总优化目标为环境外部回报+加权内在回报 $R_t+\alpha R_t^I$ ,其中的 $\alpha$ 为超参数。Worker 的策略梯度更新,定义 Woker 策略网络参数的梯度

其中的 $A_t^D=R_t+\alpha R_t^I-V_t^D(x_t;\theta)$ 是 Worker 的优势函数;其中的 $V_t^D$ 是 Worker 内部 Critic 估计的价值函数,同时建模了外部奖励与内在奖励的总价值;其中的 $\log\pi(a_t\vert x_t;\theta)$ 是在 $t$ 时刻选中动作 $a_t$ 的对数概率

扩张 LSTM

FuN 中的 Manger 需要在地时间分辨率上运行,同时处理所有输入数据,还要保留长期记忆,避免长序列反向传播的梯度消失。为了解决这一问题,提出了扩张 LSTM。核心是将循环状态分为 $r$ 组独立的子状态,每一步仅更新其中一组

对于扩张半径 $r$ ,网络完整状态由 $r$ 组子状态组成 $h=\{\hat{h}^i\}^r_{i=1}$ ,则 $t$ 时刻的更新方程为

其中的 $t\%r$ 是取模运算, $t$ 时刻仅更新对应索引的子状态组, $\theta^{LSTM}$ 是 LSTM 参数,所有 $r$ 组子状态共享同一套参数

HDQN

HDQN 即 Hierarchical Deep Q-Network,旨在通过将复杂任务分解为层次化的子任务来学习,结合了 DQN 和 HRL 的思想,能够有效解决长时间跨度和奖励稀疏的问题。HDQN 的核心思想是将任务分解为高层次任务和低层次任务,分别学习不同的策略。

  • meta-controller:负责获取当前状态 $s_t$ ,然后从可能的子任务里选择一个子任务 $g_t\in G$ ,交代给下一层级的控制器执行
  • controller:负责接收上一个层级的子任务 $g_t$ ,以及当前的状态 $s_t$ ,然后选择一个可能的行动 $a_t$ 执行。

HDQN 是基于 DQN 框架,为控制器和元控制器分别设计了带条件的 Q 函数,对应 Bellman 最优方程。定义 controller 的最优动作价值函数 $Q_1^\star$

$Q_1^\star$ 是以目标 $g$ 为条件的最优动作价值函数,表示在状态 $s$ 下且当前目标为 $g$ 时,执行动作 $a$ 且遵循最优策略 $\pi(a\vert s,g)$ 能获得的期望累积折扣内在奖励的最大值。其中的 $\pi(a\vert s,g)$ 是控制器的动作策略,是基于状态 $s$ 和目标 $g$ 的动作条件概率分布。

定义 meta-controller 的最优目标价值函数 $Q_2^\star$

$Q_2^\star$ 表示在状态 $s$ 下选择目标 $g$ ,并遵循最优策略 $\pi(g\vert s)$ ,获得的期望累积折扣外在奖励的最大值

在 HDQN 中还采用了经验回放池,为 controller 和 meta-controller 分别定义了回放池,两个回放池互相独立,避免训练的非平稳性

  • controller 回放池 $D_1$ ,存储单步转移样本 $(s_t,a_t,r_t,s_{t+1})$ ,每个时间步都收集
  • meta-controller 回放池 $D_2$ ,存储周期转移样本 $(s_t,a_t,F_t,s_{t+N})$ ,仅当 controller 终止时收集

定义 controller 的损失函数 $L_1(\theta_{1,i})$

其中的 TD 目标为

其中的 $\theta_{1,i}$ 表示在第 $i$ 轮迭代中,controller 网络的当前参数;其中的 $y_{1,i}$ 表示在第 $i$ 轮迭代中的 TD 目标,由即时内在奖励 $r$ 和下一状态的最大 Q 值的折扣值组成,用固定的目标网络计算,避免自举导致的训练发散。之后计算其损失函数的梯度

定义 meta-controller 的损失函数 $L_2(\theta_{2,i})$

其中的 TD 目标为

其中的 $F$ 为当前目标执行周期内的累积外在奖励, $s^\prime=s_{t+N}$ 为 controller 终止后的状态, $\theta_{2,i}$ 表示在第 $i$ 轮训练中 meta-controller 的参数。

HDQN 的训练流程如下

  • 初始化经验回放池 $D_1,D_2$ ,初始化网络参数 $\theta_1,\theta_2$
  • 对于每个循环中
    • 利用 $\epsilon$ 贪婪策略,基于 $s,G,Q_2$ 选择初始目标 $g$
    • 初始化累积外在奖励 $F=0$ ,保存初始状态 $s_0$
    • 若当前状态非终止且目标未达成时,循环执行
      • 用 $\epsilon$ 贪婪策略,基于 $\{s,g\},A,Q_1$ 选择动作 $a$
      • 执行动作,获取下一状态 $s^\prime$ 和外在奖励 $f$
      • 内部 Critic 给出内在奖励 $r(s,a,s^\prime)$
      • 存储样本到 $D_1$ ,并且计算损失函数,利用梯度下降法更新 $\theta_1$
      • 累积 $F=F+f$ ,更新 $s=s^\prime$
    • controller 循环结束之后,存储样本到 $D_2$ ,计算损失,梯度下降更新 $\theta_2$
  • 循环执行到收敛

HAC

HAC 即 Hierarchical Actor-Critic,旨在通过高层-低层策略分解来高效解决长时间跨度、复杂的序列决策任务。采用两层 AC 架构,将任务拆分为不同时间尺度的子任务,从而降低学习难度并提升收敛速度

  • 高层策略:在抽象状态空间中设定子目标,时间跨度较长
  • 低层策略:在原始动作空间中执行高层设定的子目标,每步更新,利用内在奖励机制优化接近目标的能力

另外 HAC 中的每一层的训练都假设下层策略已经最优,从而减少层间的不稳定性

UMDP

HAC 的整个框架都建立在 UMDP 的基础上,UMDP 是带目标集合的马尔可夫决策过程,专门用于描述目标条件化的强化学习任务。定义一个 UMDP 的元组为 $U=(S,G,A,T,R,\gamma)$ 。其中的 $G$ 为目标集合;其中的 $T$ 为转移概率函数, $T(s,a,s^\prime)$ 表示在状态 $s$ 执行动作 $a$ 之后到达状态 $s^\prime$ 的概率。

UMDP 在运行时,在每个 episode 开始时,会从目标集合 $G$ 中采样一个目标 $g\in G$ ,该目标在整个 episode 中保持不变。UMDP 的优化目标是学习一个目标条件化的策略 $\pi:S\times G\rightarrow A$ ,该策略能最大化值函数

其中 $v_\pi(s,g)$ 表示在策略 $\pi$ 下,初始状态为 $s$ ,任务目标为 $g$ 时,智能体能获得的期望累积折扣奖励

UVFA 通用值函数近似器

UVFA 用于估计目标条件化策略的动作价值函数 Q 函数,时 HAC 中 Critic 网络的核心基础。Q 函数的公式定义如下

其中的 $q_\pi(s,g,a)$ 是在策略 $\pi$ 下,在状态 $s$ 、目标 $g$ 、执行动作 $a$ 后,智能体能获得的期望累积折扣奖励。相比于 $v_\pi(s,g)$ ,Q 函数增加了动作 $a$ 的条件约束,是对具体动作价值的量化。

HAC

HAC 的目标是高效学习一个 $k$ 层的策略层级 $\Pi_{k-1}$ ,包含 $k$ 个独立的目标条件化策略 $\pi_0,\cdots,\pi_{k-1}$ ,将原始任务的 UMDP 转化为 $k$ 个 UMDP 的集合 $\{u_0,\cdots,u_{k-1}\}$ ,每个 UMDP 对应层级中的一层,第 $i$ 层的 UMDP 定义为 $U_i=(S_i,G_i,A_i,T_i,R_i,\gamma_i)$

在 HAC 中,层级的每一层都学习一个确定性的目标条件化策略 $\pi_i:S_i\times G_i\rightarrow A_i$ ,其中的三个空间 $S,G,A$ 是 HAC 架构的核心,如下

  • 状态空间 $S_i$ :所有层级的状态空间与原始任务的状态空间完全一致,即 $S_i=S$
  • 目标空间 $G_i$ :所有层级的目标空间也与原始状态空间完全一致,即 $G_i=S$ ,由于每一层都需要学习以任意状态为目标的最短路径的问题,所有状态都可能成为子目标
  • 动作空间 $A_i$
    • 对于最底层 $A_0$ :动作空间与原始动作空间一致 $A_0=A$
    • 对于底层以上的所有层 $A_i(i>0)$ :动作空间等于下一层的目标空间,即 $A_i=S$ ,这些层输出的是子目标状态

HAC 的层级通过策略嵌套实现时间抽象,嵌套的本质是将第 $i-1$ 层的策略 $\pi_{i-1}$ 嵌入到第 $i$ 层的转移函数 $T_i$ 中,让高层的一个动作对应低层的 $H$ 个原始动作,实现决策时间尺度的压缩。其中第 $i$ 层转移函数的执行流程如下

  • 第 $i$ 层策略输出子目标动作 $a_i$ ,该动作被赋值为 $i-1$ 层的目标,即 $g_{i-1}=a_i$
  • 第 $i-1$ 层的策略 $\pi_{i-1}$ 最多有 $H$ 次尝试来达到目标 $g_{i-1}$
  • 当用完了 $H$ 次尝试次数或者达成了任意 $n\geq i-1$ 层的目标 $g_n$ 时执行终止
  • 执行终止之后,返回智能体当前的状态,作为第 $i$ 转移后的下一状态

对于最底层的转移函数由环境本身提供 $T_0=T$

在 HAC 中,层级转移函数会出现非平稳性,主要来源于两个方面

  • 下层策略的更新:只要第 $i$ 层的策略 $\pi_i$ 发生更新,所有在 $i$ 以上的层转移函数 $T_{j\vert\pi_{j-1}^\star}(j>i)$ 都会发生变化
  • 下层策略的探索:所有层的策略都是确定性的,必须通过行为策略 $\pi_{i_b}=\pi_i+\mathcal{N}(0,\sigma^2))$ 进行探索,而行为策略是随时间变化的,进一步加剧了转移函数的非平稳

RL 算法有效收敛的前提是动作导致的状态分布是平稳的,而非平稳性会导致高层策略无法学习到稳定的动作价值,因此无法直接并行学习多层策略。所以在 HAC 算法中,如果在训练每一层的策略时都假设下层策略已经是最优的策略 $\pi_i^\star$ ,那么对应的转移函数 $T_{i\vert\pi_{i-1}^\star}$ 就是完全平稳的,从而可以和下层策略并行学习

为了实现上述并行学习,提出了后见之明动作转移。在训练时,假设高层策略 $\pi_i$ 在状态 $s_{i-1}$ 输出子目标 $g_{i-1}$ ,低层 $\pi_{i-1}$ 用行为策略执行了 $H$ 个原始动作,未达到 $g_{i-1}$ ,最终停在状态 $s_i$ 。传统的转移样本为 $(s=s_{i-1},a=g_{i-1},r=r,s^\prime=s_i,g=g_{final})$ ,动作为原本的子目标 $g_{i-1}$ ,但是实际上到达的是 $s_i$ ,动作和下一状态不匹配,所以低层的策略不是最优的。

后见之明动作转移通过两个核心规则来模拟最优下层策略的转移效果

  • 动作替换:用事实实际到达的动作 $s_i$ 替代原本输出的子目标 $g_{i-1}$ 作为转移样本中的动作项
  • 奖励函数设计:子目标层的奖励函数必须满足两个要求
    • 激励最短路径到目标
    • 与低层的执行路径无关,只和最终到达的状态与目标有关

在 HAC 算法中,设置所有子目标层的奖励函数如下

匹配的折扣因子如下

经过后见之明动作转移之后,高层最终得到的动作转移样本为 $(s=s_0,a=s_1,r=-1,s^\prime=s_1,g=g_{final})$ ,样本中,高层原本就输出子目标 $s_1$ ,并且用最优下层策略一步达成了 $s_1$ ,得到的转移样本完全一致。所以此时得到了对应最优下层策略的平稳转移样本,彻底解决了非平稳性问题

但是在后见之明动作转移之后,每一层依旧面临稀疏奖励的困境:只有随机达成了目标才能获得 0 的奖励,其他的时候都是 -1,策略很难学习到有效的动作价值。因此提出后见之明目标转移,它的核心是为每一层的转移样本做 HER 数据增强,用 episode 中实际到达的状态替换原始目标,保证每一轮执行后,至少有一个样本包含稀疏奖励,实现流程如下

  • 对于低层 $i=0$ 的处理
    • 每执行一个原始动作 $a_0$ ,获得环境返回的下一状态 $s_0^\prime$ ,并且同步生成两个转移样本
      • 原始样本按照低层奖励和折扣因子公式计算对应的奖励和折扣因子,即 $(s=s_0,a=a_0,r=r_0,s^\prime=s_0^\prime,g=g_0,\gamma=\gamma_0)$ ,加入低层回放缓冲区
      • 带填充的 HER 样本复制标准样本的 $s,a,s^\prime$ ,其他的留空 TBD,即 $(s=s_0,a=a_0,r=TBD,s^\prime=s_0^\prime,g=TBD,\gamma=TBD)$ ,加入低层 HER 存储区
    • 执行完最多 $H$ 个动作之后,对所有的 HER 样本进行填充
      • 采用随机采样策略,从所有到达的状态中随机选择一个,作为新的目标 $g_{hindsight}$ ,也可以直接选择本次执行最终到达的状态 $s^\prime_{final}$ 作为新目标 $g_{hindsight}$
      • 对 HER 存储区的每一个候选样本,填充 $g=g_{hindsight}$ ,根据上述后见之明动作转移的公式,重新计算奖励和折扣因子并填充
    • 所有填充完成的后见之明目标样本,全部加入底层的回放缓冲区,和标准样本一起用于训练底层的策略和 Q 网络
  • 对于高层 $i>0$ 的处理
    • 高层输出原始子目标 $a_i$ ,下层执行完最多 $H$ 步后返回最终状态 $s_i^\prime$ ,首先执行后见之明动作替换,即 $a_i\leftarrow s_{i}^\prime$ ,然后生成两个样本
      • 标准样本按照高层的公式计算奖励和折扣因子 $(s=s_i,a=a_i,r=r_i,s^\prime=s_i^\prime,g=g_i,\gamma=\gamma_i)$ ,加入高层回放缓冲区
      • HER 候选样本 $(s=s_i,a=a_i,r=TBD,s^\prime=s_i^\prime,g=TBD,\gamma=TBD)$ ,加入高层 HER 存储区
    • 填充规则与低层一致,替换 HER 样本的目标字段,重新计算 HER 候选样本的奖励和折扣因子
    • 所有填充完成的后见之明目标样本,全部加入高层的回放缓冲区,和标准样本一起用于训练高层的策略和 Q 网络

仅用上述的两种后见之明转移会带来两个核心缺陷

  • 仅用后见之明动作和目标转移,会导致每一层只能学习到从当前状态出发, $H$ 步内可达的子目标的 Q 值,完全忽略了 $H$ 步内不可达的远距离子目标。但子目标层的动作空间是完整的状态空间,Q 网络会给这些远距离子目标分配不合理的高 Q 值,导致策略输出无法达成的子目标,智能体行为完全异常
  • 后见之明转移让子目标完全忽略下层策略的当前能力,只学习理论最优路径,可能会输出当前下层无法达成的子目标,导致策略实际表现次优

所以 HAC 提出子目标测试转移,为了解决仅用前两种后见之明转移带来的两个核心缺陷。它与后见之明动作转移的作用完全相反:让高层学习当前下层策略能否达成这个子目标,从而乘法无法达成的远距离子目标,同时让高层偏好当前下层能实现的子目标。实现流程如下

  • 第 $i$ 层输出子目标 $a_i$ 之后,以 $\lambda$ 的概率触发子目标测试
  • 触发测试时,下层必须严格使用当前的目标策略 $\pi_{i-1}$ 执行,尝试达成子目标 $a_i$ ,最多进行 $H$ 次尝试
  • 如果最终未能达成子目标 $a_i$ ,则给第 $i$ 层施加惩罚,设置为 $-H$ ,同时设置折扣因子为 0

则得到对应的惩罚转移样本为 $(s=s_i,a=a_i,r=-H,s^\prime=s_i^\prime,g=g^i,\gamma=0)$ ,如果达成了子目标,则不施加惩罚,按正常的后见之明转移处理。在 HAC 中使用 $\vert s-a\vert$ 来表示在最优下层策略 $\pi_{i-1}^\star$ 下,从状态 $s$ 到子目标 $a$ 所需要的动作步数,分为下面三种情况分析子目标测试对 Q 值的影响

  • $\vert s-a\vert>H$ ,即在最优策略下也无法在 $H$ 步内达成子目标,则 Q 网络学习这类子目标的 Q 值为 $-H$
  • $\vert s-a\vert\leq H$ 且当前下层策略 $\pi_{i-1}$ 可以达成,此时子目标测试对 Q 值几乎无影响,Q 值由后见之明转移的目标值主导
  • $\vert s-a\vert>H$ 但当前下层策略 $\pi_{i-1}$ 无法达成,Q 值是后见之明转移的目标值和惩罚值 $−H$ 的加权平均,但由于后见之明样本的数量远多于测试样本,Q 值会更接近后见之明的目标值

定义在 HAC 中每个层级的训练流程为核心递归函数 $\mathrm{TrainLevel}(i,s,g)$ ,输入层级、当前状态和目标,输出执行之后的最终状态,如下

  • 初始化当前层级状态 $s_i=s$ 和目标 $g_i=g$
  • 循环执行,最多 $H$ 次尝试,或达成任意 $n\geq i$ 层目标
    • 采样动作
      • 在非测试时, $a_i=\pi_i(s_i,g_i)+\mathcal{N}(0,\sigma^2)$
      • 在测试时, $a_i=\pi_i(s_i,g_i)$
    • 分支判断
      • 若 $i>0$ 时,以概率 $\lambda$ 决定是否测试子目标,递归调用 $\mathrm{TrainLevel}(i-1,s_i,a_i)$ ,得到执行之后的状态
      • 若 $i=0$ 时,执行原始动作 $a_0$ ,观察环境返回的下一状态 $s^\prime_0$
    • 生成回放转移样本
      • 若 $i>0$ 子目标未达成,且触发了测试时,向回放缓冲区中加入惩罚样本 $(s=s_i,a=a_i,r=-H,s^\prime=s_i^\prime,g=g^i,\gamma=0)$
      • 利用后见之明替换动作 $a_i\leftarrow s_i^\prime$
      • 向回放缓冲区加入后见之明动作转移样本 $(s=s_i,a=a_i,r=\{-1,0\},s^\prime=s_i^\prime,g=g^i,\gamma=\{\gamma,0\})$
      • 向 HER 存储区加入待填充的 HER 样本 $(s=s_i,a=a_i,r=TBD,s^\prime=s_i^\prime,g=TBD,\gamma=TBD)$
    • 更新当前状态 $s_i=s_i^\prime$
  • 循环结束之后,用 HER 存储区的样本执行 HER,生成后见之明目标转移样本,加入回放缓冲区中
  • 返回最终状态 $s_i$

综合上述的内容,得到 HAC 算法的流程

  • 设定层级数量 $k$ ,设定子目标最大步数 $H$ ,设定子目标测试频率 $\lambda$
  • 执行 M 次迭代训练
    • 采样初始状态 $s=S_{init}$ ,采样任务目标 $g=G_{k-1}$
    • 递归调用 $\mathrm{TrainLevel}(k-1,s,g)$
    • 用回放缓冲区的样本更新所有 Critic 和 Actor 网络
  • 结束循环

HRL-LS

HRL-LS 即隐空间分层强化学习(Hierarchical Reinforcement Learning with Latent Space),旨在通过在隐空间中进行策略优化来处理高维复杂任务中的长期依赖问题。HRL-LS 将复杂任务分解为多个较小的子任务,从而提高学习效率,同时通过隐空间进一步减少学习的难度。HRL-LS 的分层结构包含以下两层

  • 高层策略:在低维隐空间中,选择目标并生成子目标,子目标被传递给低层策略
    • 隐空间表示:高层策略通过编码器将原始的高维状态 $s$ 投影到低维隐空间 $z$ 中
    • 目标选择:在隐空间中,高层策略选择一个隐向量 $z_t$ 作为当前时间步的子目标
  • 低层策略:在原始的状态空间中执行具体的动作,根据高层策略生成的目标优化动作序列
    • 低层策略根据高层策略生成的因向量 $z_t$ ,在原始状态空间中选择具体的动作 $a_t$
    • 低层策略通过动作序列来逐步实现高层策略设定的子目标

标准 RL 强化学习的核心是最大化轨迹的期望累积奖励,仅关注奖励最大化。HRL-LS 在此基础上加入了策略的期望熵项,得到最大熵优化目标

其中的 $\mathcal{H}(\pi(\cdot\vert s_t))$ 是策略在状态 $s_t$ 下的熵,连续分布的熵定义为

熵越大,则策略的随机性越强,行为覆盖范围越广。

HRL-LS 中通过将最优控制问题转化为推理问题来推导出最大熵目标,引入最优性二元随机变量 $O_t$ ,将求解最优策略转化为在所有时刻都最优的条件下,推理动作的后验分布。定义状态转移因子 $p(s_{t+1}\vert s_t,a_t)$ ;定义动作先验 $p(a_t)$ 通常设计为均匀分布或高斯分布;最优性变量 $O_t$ 为二元随机变量, $O_t=true$ 表示在 $t$ 时刻的步是最优的

目标是求解在当前状态 $s_t$ ,且当前到外来所有时刻都最优 $O_{t:T}=true$ 的条件下,动作的后验分布即最优策略

为了将奖励函数融入图模型中,将奖励编码到最优性变量的条件概率中

这里假设 $r(s_t,a_t)<0$ ,保证概率值落在 $[0,1]$ 的合法区间内。基于上述定义,所有时刻都最优的条件下,轨迹的后验分布如下

最优轨迹的概率,与初始状态分布、动作先验、环境动态、累积奖励的指数项成正比,基于这个分布,可以执行概率推理,求解最优动作的后验 $p(a_t\vert s_t,O_{t:T}=true)$

但是该分布假设环境的随机状态转移可以被修改来偏好最优行为,但实际中智能体无法控制环境动态,另外在连续域中,该后验分布没有解析解,必须用参数化的近似分布来拟合,所以上述推导出的最优动作分布无法直接作为策略。所以在 HRL-LS 中才哟昂结构化变分推理,用变分分布 $q(\tau)$ 近似真实后验 $p(\tau\vert O_{0:T}=true)$ ,另外对变分分布做两个关键约束,保证其复合 RL 的设定

  • 动态约束:变分分布中的状态转移与真实环境动态完全一致
  • 策略约束:动作由参数化策略 $\pi(a_t\vert s_t)$ 生成

最终变分分布定义为

其中的 $p(s_0)$ 是真实的初始状态分布, $p(s_{t+1}\vert s_t,a_t)$ 是动态转移函数,其中的 $\pi(a_t\vert s_t)$ 是希望学习的参数化策略。该分布完全由初始状态、待学习的策略、真实环境动态决定,没有对环境做任何修改。变分推理的核心就是最大化对数边际似然的证据下界,即

此时公式右侧是对数边际似然的下界,最大化改下界就等于最小化 $q$ 和 $p$ 的 KL 散度,让变分分布尽可能拟合真实的最优后验。由于 $p$ 和 $q$ 中的初始状态分布和环境动态完全匹配,则 KL 散度可以化简得到最终的优化目标

该公式就是通过变分推理得到的在ELBO,也就是需要最大化的目标。当动作先验 $p(\cdot)$ 选择均匀分布时, $-D_{KL}(\pi\Vert p)=\mathcal{H}(\pi)+C$

分层结构的基础是带潜变量的随机基策略,由两个核心因子组成

  • 条件动作分布 $\pi(a_t\vert s_t,h_t)$ ,其中的 $h_t$ 是潜随机变量,是高层策略的输出动作
  • 潜变量先验 $p(h_t)$

从该策略采样动作的流程为:先从潜变量先验 $p(h_t)$ 中采样潜变量 $h_t$ ,再基于 $h_t$ 和当前状态 $s_t$ ,从 $\pi(a_t\vert s_t,h_t)$ 中采样最终的物理动作 $a_t$

将基策略整合到 MDP 中,得到一个新的 MDP。对原始动作 $a_t$ 进行边缘化,得到新的 MDP 的状态转移模型如下

再新的 MDP 中, $h_t$ 成了高层动作, $p(h_t)$ 是新的动作先验。基策略塑造了系统的底层动态,理想情况下让高层策略的控制问题变得简单,可以重复这个过程,逐层堆叠策略,构建任意深度的分层结构,其中每一层都将下一层的潜变量作为自己的动作空间。为了保证分层结构的有效性,子策略需要同时满足三个特性

  • 能高效计算动作的对数似然,对潜变量的边缘化计算简单
  • 不限制高层到低层的信息流,能表示任意复杂的策略分布
  • 高层将低层视作环境的一部分,映射的确定性可以避免额外噪声影响高层的学习

HRL-LS 基于双射变换实现潜变量到动作的映射,同时满足上述的特性。定义双射变换 $a_t=f(h_t;s_t)$ ,该变换是可逆的,一一映射的,给定 $h_t$ 和 $s_t$ 能唯一确定动作 $a_t$ ,反之,给定 $a_t$ 和 $s_t$ 也能反推出唯一的 $h_t$ 。通过变量替换公式,可以用潜变量的先验密度和变换的雅可比行列式,直接计算动作的边缘策略密度

$\pi(a_t\vert s_t)$ 是策略在状态 $s_t$ 下对动作 $a_t$ 的条件密度; $p(h_t)$ 是潜变量 $h_t$ 的先验密度; $\frac{df(h_t;s_t)}{dh_t}$ 是双射变换 $f$ 对潜变量 $h_t$ 的雅可比矩阵; $\vert\det()\vert$ 是雅可比矩阵的行列式的绝对值;由于变换是双射的,所以可通过 $a_t$ 反推 $h_t$ ,实现高密度计算。

在 HRL-LS 中使用了 Real NVP 变换作为双射变换,核心优势是它的雅可比矩阵为三角矩阵,行列式的计算简化为对角元素的乘积,能大幅降低计算复杂度。同时 HRL-LS 中做了关键的扩展:仅要求潜变量 $h_t$ 到动作 $a_t$ 的路径是可逆的,变换对状态 $s_t$ 的依赖可以是任意复杂的非可逆的方式。在 HRL-LS 中通过两层全连接网络对观测做嵌入,再与潜变量输入拼接,既保证了可逆性,又不损失策略对状态的表达能力。另外双射变换支持链式组合,多层变换的复合仍然是双射的,所以多层策略既可以端到端训练为单个高表达性策略,也可以自底向上逐层训练为分层策略,无需重新设计网络拓扑

HRL-LS 针对不同的任务场景,为策略层级的奖励函数提出了两种设计的方法

  • 同奖励逐层训练:依次训练每一层,冻结权重之后再训练上一层,所有层使用完全相同的任务奖励和最大熵目标。在每一层中都尝试解决任务,为上一层简化问题
  • 分层塑形奖励设计:给低层设计启发式的塑形奖励,学习通用的基础技能;而高层使用原始任务的真实稀疏奖励,学习长程决策。

算法的训练流程如下

  • 真实环境动态 $p(s_{t+1}\vert s_t,h_t^{(0)})$ ,其中最底层的 $h_t^{(0)}=a_t$ ,对应原始动作
  • 奖励函数集合 $\{R_0,\cdots,R_{K-1}\}$ ,共 $K$ 个奖励函数,对应着 $K$ 层策略,最后一个 $R_{K-1}$ 是真实任务的奖励
  • 逐层训练循环
    • 初始化第 $i$ 层双射变换 $f_i$ 的网络权重
    • 学习 $f_i$ 的权重,使得 $h_t^{(i)}=f_i(h_t^{(i+1)};s_t)$ ,其中的 $h_t^{(i+1)}\sim p(h_t^{(i+1)}$ ,在环境 $p(s_{t+1}\vert s_t,h_t^{(i)})$ 上优化奖励 $R_i$
    • 将学习好的 $f_i$ 嵌入到环境中,得到新的环境,供上一层训练使用 $p(s_{t+1}\vert s_t,h_t^{(i+1)})\leftarrow p(s_{t+1}\vert s_t,f_i(h_t^{(i+1)};s_t))$
  • 最后得到所有层双射变换的复合函数 $f=f_0f_1\cdots f_{K-1}$ ,即所有层双射变换的复合函数,实现从最高层潜变量到最终物理动作的端到端映射

HIRO

HIRO 即 Hierarchical Reinforcement Learning with Off-Policy Correction,旨在解决长时间跨度和稀疏奖励问题,核心解决了传统 HRL 方法通用性差、样本效率极低的痛点

HIRO 中实现了极简的两层策略架构,通过高层实现时间抽象,低层实现环境交互,如下

  • 低层策略 $\mu^{l}$ :直接与环境交互,接收当前状态和高层给出的目标,输出底层原子动作,是策略的执行端
  • 高层策略 $\mu^h$ :在更大的时间尺度上做决策,不直接与环境交互,输出目标状态作为高层动作,直到低层策略的行为,是策略的规划端

在高层策略中,并非每一步都要做出决策,而是每 $C$ 个时间步输出一次目标,实现时间维度的抽象

  • 当 $t\mod C=0$ 时,高层根据当前状态采样输出目标 $g_t=\mu^h(s_t)$ ,其中 $g_t$ 的维度与状态维度完全一致
  • 中间的时间步,通过固定的目标转移函数 $h$ 更新当前目标,即 $g_t=h(s_{t-1},g_{t-1},s_t)$ ,无需高层重新决策

高层输出的目标 $g_t$ 是期望的状态相对变化量,即高层希望低层在 $C$ 个时间步之后,让环境状态满足 $s_{t+c}\approx s_t+g_t$ 。另外为了保证目标的绝对位置不随环境的实时状态变化而偏移,定义了固定的目标转移函数

低层的优化目标是匹配高层给出的目标状态,因此内部奖励定义为当前状态与目标状态的负 L2 距离

低层每一步的状态越接近 $s_t+g_t$ ,则奖励越高,反之奖励越低。只需要将目标 $g_t$ 作为额外输入,接入 TD3 或 DDPG 的策略网络和 Q 网络,即可按照离线 RL 的方式训练。

  • 低层 Q 网络的优化目标:最小化 Bellman 误差 $L=\Big(Q_\theta^l(s_t,g_t,a_t)-r(s_t,g_t,a_t,s_{t+1})-\gamma Q_\theta^l\big(s_{t+1},g_{t+1},\mu_\phi^l(s_{t+1},g_{t+1})\big)\Big)^2$
  • 低层策略网络的优化目标:最大化 Q 值 $\underset{\phi}{\max}Q_\theta^l\big(s_t,g_t,\mu_\phi^l(s_t,g_t)\big)$

HIRO 直接使用原始状态作为目标,让低层从训练第一步就能得到有效的奖励信号,大幅提升训练效率和最终性能

此前的 HRL 方法几乎都采用 on-policy 训练,主要是因为低层策略在持续更新,对于高层策略来说,同一个目标 $g_t$ ,在过去的低层策略下产生的状态转移,和当前低层策略下的结果完全不同,这就导致高层回放池中的旧经验失效。所以需要将高层的 $C$ 步长序列经验,转换为标准 off-policy RL 可用的元组 $(s_t,g_t,\sum R_{t:t+c-1},s_{t+c})$ ,但旧的目标 $g_t$ 显然与当前低层的策略不匹配,所以对旧经验中的原始目标 $g_t$ 进行重标记,找到一个新的目标 $\tilde{g}_t$ ,让过去 $C$ 步内低层实际执行的动作序列 $a_{t:t+c-1}$ 在当前低层策略下出现的概率最大。

大多数强化学习算法中,行为策略是随机的,动作序列的对数概率可以写作

其中,中间步的目标 $\tilde{g}_{t+1:t+c-1}$ 可以通过固定的目标转移函数 $h$ ,由初始目标 $\tilde{g}_t$ 计算得到。优化的目标就是找到 $\tilde{g}_t$ 以最大化上述对数概率,也就是最小化动作序列与当前低层策略输出动作的平方误差和。为了高效求解上述的最大化问题,HIRO 中采用了候选集采样的方式,首先是生成 10 个候选目标,选择其中对数概率最大的作为重标记后的目标,其中的候选目标如下

  • 候选 1:经验中原始的目标 $g_t$
  • 候选 2:实际的状态变化量 $s_{t+c}-s_t$
  • 候选 3-10:8 个随机采样的候选目标,从以 $s_{t+c}-s_t$ 为均值,以 $0.5\times\frac{1}{2}$ 高层动作范围为标准差,并将其裁剪到高层动作的合法范围内

HIRO 的训练流程如下

  • 与环境交互,收集状态、目标、动作、奖励等完整经验序列
  • 用单步转移元组训练低层策略,优化目标是匹配高层给出的目标状态
  • 对高层的 $C$ 步长经验,执行 off-policy 修正,用重标记后的目标 $\tilde{g}_t$ 替换原始目标,生成标准的 off-policy 训练元组,训练高层策略
  • 重复迭代,实现高低层策略的端到端联合训练

DHRL

DHRL 即动态分层强化学习(Dynamic Hierarchical Reinforcement Learning),它是一种自适应分层强化学习算法,其目标是根据任务和环境的复杂性动态地构建、修改和使用分层策略。DHRL 允许代理在学习过程中根据需要动态生成和调整分层策略,从而实现更好的任务分解和高效学习。

在 DHRL 中指出,高低层策略的时间视界耦合才是传统 HRL 在大环境中扩展性差的根源。在传统 HRL 中,高低层的时间视界严格绑定,满足

其中高层策略时间视界 $h^h=\frac{H}{c_h}$ 表示高层在一个回合内需要做决策的步数,其中的 $c_h$ 是高层动作的执行间隔;低层策略时间视界 $h^l$ 表示低层完成一个高层子目标需要的最大步数,传统的 HRL中 $h^l=c_h$ ;整个任务回合的总时间步长 $H$ 时由环境决定的值。由于上述公式的绑定关系,导致传统的 HRL 算法无法同时降低高层和低层的训练负担。

在 DHRL 中,为了打破 HRL 的耦合时间视界,引入图结构作为中间层:

  • 高层策略可以自由拉伸 $h^l$ ,实现更长的时间抽象
  • 图结构将高层输出的单个子目标,分解为一系列连续的路径点
  • 低层策略仅需要负责完成单个路径点,从而时间视界 $h^l\ll c_h$ 始终保持在可训练的范围内

DHRL 中采用了高层-图中间层-低层的三层结构,打破传统 HRL 的两层耦合结构,定义如下

  • 高层策略 $\pi^h(sg\vert s,g)$ ,根据当前环境状态 $s_t$ ,任务全局目标 $g_t$ ,输出长程子目标 $sg_t$ 。策略每 $c_h$ 步执行一次决策,而 $c_h$ 可拉伸,不受低层约束
  • 图中间层为非参数化规划模块,接收高层策略输出的长程子目标,将其分解为低层可执行的路径点序列 $(s_t,wp_{t,1},wp_{t,2},\cdots,sg_t)$ 。路径点之间的总步数之和等于高层动作间隔 $c_h$ ,即 $\sum_{i=1}^Nc_{l,i}=c_h$ ,其中 $c_{l,i}$ 是低层完成第 $i$ 个路径点的最大步数
  • 低层策略 $\pi^l(a\vert s,wp)$ 输入当前状态与当前的目标路径点,输出环境低层执行动作,仅需在 $c_{l,i}$ 步内完成单个路径点,与高层 $c_h$ 无绑定关系

在 DHRL 中,高层的一个子目标被图分解为 $N$ 个路径点,低层仅需在 $c_{l,i}$ 步内完成单个路径点,消除了 $h^h$ 和 $h^l$ 的乘积约束,使得两者均可工作在各自最优的时间尺度。图的实现逻辑如下

  • 图 $G$ 由节点集 $V$ 和边集 $E$ 组成,每个节点 $v\in V$ 对应环境中的一个有效状态,边 $e\in E$ 对应两个状态的可达性,边的成本为低层策略在两个状态间转移的真实时间步数
  • 在训练过程中,智能体探索到的有效状态会被作为节点加入图中,仅当两个节点的时间距离 $\leq c_l$ 时才会构建边,保证低层的可达性
  • 路径搜索采用 Dijkstra 算法搜索最短路径,确保路径点序列的总步数匹配高层的 $c_h$ ,且单段路径的步数不超过低层的最大视界 $c_l$

低层策略采用图与 Critic 分离的 Q 网络,目标是让低层无高估地恢复状态间地时间距离,为图结构提供可靠的底层支持

  • 在传统的 HRL 中,低层的单个 Q 网络同时承担状态距离估计和策略优化两个任务,容易出现 Q 值过高估计,导致图的边成本估计错误,路径点不可达
  • SQGC 设计:分离两个独立的 Q 网络,各司其职
    • Graph Q 网络:用于估计两个状态之间的时间距离,为图的边成本提供无偏的数值度量,保证路径搜索的准确性
    • Critic Q 网络:专门用于低层策略的优化,基于 TD3 算法更新,保证策略能稳定在 $c_l$ 步内到达目标路径
  • 低层策略的优化目标时最小化到达路径点的轨迹误差,Graph Q 网络的优化目标是最小化时间距离的估计误差

DHRL 的图结构和低层策略在训练中是动态更新的,收集经验数据时的图 $G_\beta$ 和低层策略 $\pi_\beta^l$ 与训练时的当前图 $G$ 和最优低层策略 $\pi^l_\star$ 存在差异,会导致离线策略学习的误差,影响高层策略的收敛性。DHRL 借鉴事后经验重放的思路,提出事后转换方法,并且证明了该方法的误差上界,如下

设 $G$ 为任意的 $\epsilon$ 分辨率图,满足 $\epsilon<\frac{c_l}{2}$ ,同时设 $\pi_\beta^l$ 和 $G_\beta$ 为收集数据时的低层策略和图, $\pi^l_\star$ 和 $G$ 为当前训练时的最优低层策略和图。离线策略误差率 $\rho(G)$ 是根据 $\pi_\beta^l$ 和 $G_\beta$ 到 $\pi_\star^l$ 和 $G$ 的变化,相对于总遍历距离的归一化距离误差。若存在从 $s$ 到 $g$ 的路径,则通过在 $G$ 上进行图搜索得到的路径,其离线策略误差率 $\rho(G)$ 的上界为 $\frac{2\epsilon}{c_l}$ 。其中 $\epsilon$ 是图的覆盖精度,任意真实环境状态,到图中最近节点的时间距离都小于 $\epsilon$ 。证明如下:

对于初始状态 $s$ ,第一个路径点 $wp_1$ ,存在中间点 $p_1$ 满足 $\mathrm{dist}(s\rightarrow p_1)=c_l-\epsilon$ ,根据 $\epsilon$ 分辨率图的定义,则必然存在节点 $wp_1$ 满足 $\mathrm{dist}(p_1\rightarrow wp_1)<\epsilon$ ,因此则有

则单路径点的时间距离小于低层最大视界 $c_l$ ,保证低层可完成该路径点。同时对于 $wp_1$ 到最终目标 $g$ 的剩余距离,有

则证明完成第一个路径点之后,到目标的剩余距离上界缩小了 $c_l-2\epsilon$ ,轨迹误差的累积是线性可控的。重复上述步骤,对于第 $i$ 个路径点 $wp_i$ ,取中间点 $p_{i+1}$ 满足 $\mathrm{dist}(wp_i\rightarrow p_{i+1})=c_l-\epsilon$ ,必然存在节点 $wp_{i+1}$ 使得

由此可以得到两个递推不等式

  • 相邻路径点的距离 $\mathrm{dist}(wp_i\rightarrow wp_{i+1})<c_l$
  • 剩余目标距离 $\mathrm{dist}(wp_{i+1}\rightarrow g)<T-(i+1)c_l+2(i+1)\epsilon$

当智能体执行完 $T$ 步(从初始状态 $s$ 到最终目标 $g$ 的总时间步数)之后,会到达第 $[{T}/{c_l}]$ 个路径点,此时到目标的剩余距离小于 $T-[T/c_l]c_l+2[T/c_l]\epsilon$ ,即总步数 $T$ 减去已完成路径点的总步数上限,加上累积的 $\epsilon$ 分辨率误差。离线策略误差率 $\rho(G)$ 为总误差除以总遍历距离 $T$ ,则

其中利用 $[T/c_l]\geq T/c_l-1$ ,将其缩放化简

另外在 DHRL 中还提出两个优化技术,可进一步提升长程任务的数据效率

  • 渐进惩罚:随着高层动作空间随 $c_h$ 的拉伸而扩大,精细化地对高层策略施加惩罚,鼓励高层输出低层可实际到达的子目标,避免子目标不可达导致的训练失效。对于高层的经验样本 $(s_t,g_t,sg_t,r_t,s_{t+c_h})$ ,按照子目标的可达性分为 3 类
    • L1 类:子目标靠近图,且低层实际完成了子目标,基于正奖励,不施加惩罚
    • L2 类:子目标高进图,但低层未能完成子目标,施加中等惩罚
    • L3 类:子目标原理图,完全超出低层能力范围,施加高强度惩罚
  • 基于前沿的目标偏移:加速复杂环境的探索,解决训练中目标落在已探索区域时,智能体无法有效探索新区域的问题
    • 目标区域判断:若最终目标 $g$ 到图中所有节点的最小距离 $\min_{v\in V}\mathrm{dist}(v\rightarrow g)$ 小于截断阈值,说明目标在已探索区域
    • 前沿目标生成:从图节点中按 $-Q\big(s_0,\pi(s_0,v)\vert v\big)$ 加权采样,叠加随机噪声,生成位于图探索前沿的新目标,替换原目标