【动手学强化学习】第三章 马尔可夫决策过程 知识点总结[通俗易懂]

【动手学强化学习】第三章 马尔可夫决策过程 知识点总结[通俗易懂]【动手学强化学习】第三章马尔可夫决策过程知识点总结本章知识点:马尔可夫性质马尔可夫过程(也称为马尔可夫链)马尔可夫奖励过程马尔可夫决策过程策略马尔可夫决策过程的状态价值函数马尔可夫决策过程的动作

本章知识点:

马尔可夫性质

  • 随机过程:随时间连续变化的随机现象(随机现象是状态的变化过程)
  • 在某时刻 t t t的状态 S t S_t St通常取决于时刻之前的状态,我们将已知历史信息 ( S 1 , … , S t ) (S_1, \ldots,S_t) (S1,,St)时,下一个时刻状态为 S t + 1 S_{t+1} St+1的概率表示成 P ( S t + 1 ∣ S 1 , S 2 , … , S t ) P(S_{t+1}|S_1,S_2,\ldots,St) P(St+1S1,S2,,St)
  • 马尔科夫性质:当且仅当某时刻的状态只取决于上一时刻的状态时,一个随机过程被称为具有马尔可夫性质(Markov property) P ( S t + 1 ∣ S 1 , S 2 , … , S t ) = P ( S t + 1 ∣ S 1 , S 2 , … , S t ) P(S_{t+1}|S_1,S_2,\ldots,St) = P(S_{t+1}|S_1,S_2,\ldots,St) P(St+1S1,S2,,St)=P(St+1S1,S2,,St)
  • 当前状态是未来的充分统计量,即下一个状态只取决于当前状态,而不会受到过去状态的影响
  • 具有马尔可夫性质并不代表这个随机过程就和历史完全没有关系。因为虽然 t + 1 t+1 t+1时刻的状态只与t时刻的状态有关,但是 t t t时刻的状态其实包含了之前时刻的状态的信息,通过这种链式的关系,历史的信息被传递到了现在。马尔可夫性可以大大简化运算,因为只要当前状态可知,所有的历史信息都不再需要了,利用当前状态信息就可以决定未来。

马尔可夫过程(也称为马尔可夫链)

  • 马尔可夫过程(Markov process)指具有马尔可夫性质的随机过程,也被称为马尔可夫链(Markov chain)
  • 用元组 < S , P > <S,P> <S,P>描述一个马尔可夫过程,其中是 S S S有限数量的状态集合, P P P是状态转移矩阵(state transition matrix)
    在这里插入图片描述
  • 举个栗子🌰
    在这里插入图片描述
    在这里插入图片描述
  • 采样的定义:给定一个马尔可夫过程,从某个状态出发,根据状态转移矩阵生成一个状态序列(episode),这个步骤也被叫做采样(sampling)
  • “episode”(回合)是指智能体从一个特定的初始状态开始,到达到某个终止状态或满足特定条件结束的一系列连续的时间步(timesteps),episode强调从开始状态到终止状态的整个过程。

马尔可夫奖励过程

  • 在马尔可夫过程的基础上加入奖励函数 r r r和折扣因子 γ \gamma γ –》得到马尔科夫奖励过程 < S , P , r , γ > <S,P,r,\gamma> <S,P,r,γ>
    在这里插入图片描述

  • 回报:在一个马尔可夫奖励过程中,从第 t t t时刻状态 S t S_t St开始,直到终止状态时,所有奖励的衰减之和称为回报(Return)

  • 回报计算公式: G t = R t + γ R t + 1 + γ 2 R t + 2 + … = ∑ k = 0 ∞ γ k R t + k G_t = R_t + \gamma R_{t+1} + \gamma^2R_{t+2} + \ldots =\sum_{k=0}^\infty \gamma^kR_{t+k} Gt=Rt+γRt+1+γ2Rt+2+=k=0γkRt+k
    G t = R t + γ R t + 1 + γ 2 R t + 2 + … = R t + γ ( R t + 1 + γ R t + 2 + … ) = R t + γ G t + 1 \begin{aligned} G_t &= R_t + \gamma R_{t+1} + \gamma^2R_{t+2} + \ldots \\ &=R_t + \gamma (R_{t+1} + \gamma R_{t+2} + \ldots) \\ &= R_t +\gamma G_{t+1} \end{aligned} Gt=Rt+γRt+1+γ2Rt+2+=Rt+γ(Rt+1+γRt+2+)=Rt+γGt+1
    在这里插入图片描述

  • 价值value:一个状态的期望回报(即从这个状态出发的未来累积奖励的期望)被称为这个状态的价值

  • 所有状态的价值就组成了状态价值函数(value function),输入为某个状态,输出为这个状态的价值
    V ( s ) = E [ G t ∣ ] S t = s ] = E [ R t + γ R t + 1 + γ 2 R t + 2 + … ∣ S t = s ] = E [ R t + γ ( R t + 1 + γ R t + 2 + … ) ∣ S t = s ] = E [ R t + γ G t + 1 ∣ S t = s ] ] = E [ R t + γ V ( S t + 1 ) ∣ S t = s ] ] \begin{aligned} V(s) &= E[G_t|]S_t = s] \\ &= E[R_t + \gamma R_{t+1} + \gamma^2R_{t+2} + \ldots |S_t = s] \\ &= E[R_t + \gamma (R_{t+1}+\gamma R_{t+2} + \ldots )|S_t = s] \\ &= E[R_t +\gamma G_{t+1}|S_t = s]] \\ &= E[R_t +\gamma V({S_{t+1}})|S_t = s]] \end{aligned} V(s)=E[Gt]St=s]=E[Rt+γRt+1+γ2Rt+2+St=s]=E[Rt+γ(Rt+1+γRt+2+)St=s]=E[Rt+γGt+1St=s]]=E[Rt+γV(St+1)St=s]]

  • 在上式的最后一个等号中,一方面,即时奖励的期望正是奖励函数的输出, 即 E [ R t ∣ S t = s ] = r ( s ) E[R_t |S_t = s]=r(s) E[RtSt=s]=r(s);一方面,等式中剩余部分 E [ γ V ( S t + 1 ) ∣ S t = s ] ] E[\gamma V({S_{t+1}})|S_t = s]] E[γV(St+1)St=s]]可以根据从状态 s s s出发的转移概率得到

  • 马尔可夫奖励过程的贝尔曼方程 V ( s ) = r ( s ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s ) V ( s ′ ) V(s) = r(s) +\gamma \sum_{s’ \in S } P(s’|s)V(s’) V(s)=r(s)+γsSP(ss)V(s)

  • 请注意这是在马尔可夫奖励过程下,只涉及状态,状态转移矩阵和奖励函数 < S , P , r , γ > <S,P,r,\gamma> <S,P,r,γ>,还没有引入动作 A A A和策略 π \pi π

  • 通过矩阵运算求解析解,用于求解马尔可夫奖励过程的价值函数(仅适用于小规模)
    在这里插入图片描述

  • 除了使用动态规划算法,马尔可夫奖励过程中的价值函数也可以通过蒙特卡洛方法估计得到,将在本篇博文的最后介绍该方法

马尔可夫决策过程

  • 前两章所说的强化学习中的环境一般就是一个马尔可夫决策过程

  • 与多臂老虎机问题不同,马尔可夫决策过程包含状态信息以及状态之间的转移机制

  • 如果要用强化学习去解决一个实际问题,第一步要做的事情就是把这个实际问题抽象为一个马尔可夫决策过程,也就是明确马尔可夫决策过程的各个组成要素

  • 马尔可夫过程和马尔可夫奖励过程都是自发改变的随机过程;而如果有一个外界的“刺激”来共同改变这个随机过程,就有了马尔可夫决策过程(Markov decision process,MDP),将这个来自外界的刺激称为智能体(agent)的动作

  • 马尔科夫决策过程:在马尔可夫奖励过程(MRP)的基础上加入动作,就得到了马尔可夫决策过程(MDP),由五元组组成 < S , A , P , r , γ > <S,A,P,r,\gamma> <S,A,P,r,γ>
    在这里插入图片描述

  • MDP 的定义中,我们不再使用类似 MRP 定义中的状态转移矩阵方式,而是直接表示成了状态转移函数。这样做一是因为此时状态转移与动作也有关,变成了一个三维数组,而不再是一个矩阵(二维数组);二是因为状态转移函数更具有一般意义,例如,如果状态集合不是有限的,就无法用数组表示,但仍然可以用状态转移函数表示
    在这里插入图片描述

  • 智能体根据当前状态 S t S_t St选择动作 A t A_t At;对于状态 S t S_t St和动作 A t A_t At,MDP 根据奖励函数和状态转移函数得到 S S t + 1 S_{S_{t+1}} SSt+1 R t R_t Rt并反馈给智能体。

  • 智能体的目标是最大化得到的累计奖励。智能体根据当前状态从动作的集合中选择一个动作的函数,被称为策略。

策略

  • 智能体根据当前状态从动作的集合A中选择一个动作的函数,被称为策略 通常使用 π \pi π表示
  • 策略是一个函数 π ( a ∣ s ) = P ( A t = a ∣ S t = s ) \pi (a|s) = P(A_t=a | S_t = s) π(as)=P(At=aSt=s)表示在输入状态 s s s 情况下采取动作 a a a的概率
  • 当一个策略是确定性策略(deterministic policy)时,它在每个状态时只输出一个确定性的动作,即只有该动作的概率为 1,其他动作的概率为 0;
  • 当一个策略是随机性策略(stochastic policy)时,它在每个状态时输出的是关于动作的概率分布,然后根据该分布进行采样就可以得到一个动作
  • 在 MDP 中,由于马尔可夫性质的存在,策略只需要与当前状态有关,不需要考虑历史状态

马尔可夫决策过程的状态价值函数

  • V π ( s ) V^\pi(s) Vπ(s)表示在 MDP 中基于策略的状态价值函数(state-value function),定义为从状态出发遵循策略能获得的期望回报
    V π ( s ) = E π [ G t ∣ S t = s ] \begin{aligned} V^\pi (s) = E_\pi[G_t|S_t = s] \end{aligned} Vπ(s)=Eπ[GtSt=s]
  • 用于评估当前局势的好坏,靠期望回报衡量 能够体现当前局势好不好,好-期望大,不好-期望小
  • 价值函数与策略有关

马尔可夫决策过程的动作价值函数

  • 不同于 MRP,在 MDP 中,由于动作的存在,我们额外定义一个动作价值函数(action-value function),

  • Q π ( s , a ) Q^\pi(s,a) Qπ(s,a)表示在 MDP 遵循策略 π \pi π时,对当前状态 s s s执行动作 a a a得到的期望回报
    Q π ( s , a ) = E π [ G t ∣ S t = s , A t = a ] \begin{aligned} Q^\pi(s,a)= E_\pi[G_t|S_t=s, A_t =a] \end{aligned} Qπ(s,a)=Eπ[GtSt=s,At=a]

  • 用于评估在状态 s s s下执行动作 a a a的好坏

状态价值函数与动作价值函数的关系

  • 在使用策略 π \pi π中,状态 s s s的价值等于在该状态下基于策略 π \pi π采取所有动作的概率与相应的价值相乘再求和的结果(期望的定义):
    V π ( s ) = ∑ a ∈ A π ( a ∣ s ) Q π ( s , a ) \begin{aligned} V^\pi (s) = \sum_{a \in A} \pi(a|s) Q^\pi(s,a) \end{aligned} Vπ(s)=aAπ(as)Qπ(s,a)

  • 推导过程
    V π ( s ) = E π [ G t ∣ S t = s ] = ∑ a ∈ A π ( a ∣ s ) E π [ G t ∣ S t = s , A t = a ] = ∑ a ∈ A π ( a ∣ s ) Q π ( s , a ) \begin{aligned} V^\pi (s) &= E_\pi[G_t|S_t = s] \\ &= \sum_{a \in A} \pi(a|s) E_\pi[G_t|S_t = s, A_t =a] \\ &= \sum_{a \in A} \pi(a|s) Q^\pi(s,a) \\ \end{aligned} Vπ(s)=Eπ[GtSt=s]=aAπ(as)Eπ[GtSt=s,At=a]=aAπ(as)Qπ(s,a)

  • 使用策略 π \pi π时,状态 s s s下采取动作 a a a的价值等于即时奖励加上经过衰减后的所有可能的下一个状态的状态转移概率与相应的价值的乘积
    Q π ( s , a ) = r ( s , a ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s , a ) V π ( s ′ ) \begin{aligned} Q^\pi (s,a) =r(s,a) + \gamma \sum_{s’ \in S} P(s’|s,a)V^\pi(s’) \end{aligned} Qπ(s,a)=r(s,a)+γsSP(ss,a)Vπ(s)

  • 二者关系的理解建议结合下面的图理解,白色代表动作,黑色代表动作

  • s → a s \rightarrow a sa,由 π ( a ∣ s ) \pi(a|s) π(as)决定

  • s , a → s ′ s,a \rightarrow s’ s,as,由 P ( s ′ ∣ s , a ) P(s’|s,a) P(ss,a)决定

在这里插入图片描述

贝尔曼期望方程

  • 贝尔曼期望方程:对动作价值函数和状态价值函数分别进行推导当前时刻 t t t与下一时刻 t + 1 {t+1} t+1的关系,类似推导回报 G t G_t Gt G t + 1 G_{t+1} Gt+1的关系
  • 贝尔曼方程(Bellman Equation),也称为贝尔曼期望方程
  • V π ( s ) V^\pi(s) Vπ(s)推导过程
    V π ( s ) = E π [ G t ∣ ] S t = s ] = E π [ R t + γ R t + 1 + γ 2 R t + 2 + … ∣ S t = s ] = E π [ R t + γ ( R t + 1 + γ R t + 2 + … ) ∣ S t = s ] = E π [ R t + γ G t + 1 ∣ S t = s ] = E π [ R t + γ V π ( S t + 1 ) ∣ S t = s ] ] = ∑ a t ∈ A π ( a t ∣ s t ) [ R ( s t , a t ) + γ ∑ s t + 1 ∈ S P ( s t + 1 ∣ s t , a t ) V π ( s t + 1 ) ] \begin{aligned} V^\pi(s) &= E_\pi[G_t|]S_t = s] \\ &= E_\pi[R_t + \gamma R_{t+1} + \gamma^2R_{t+2} + \ldots |S_t = s] \\ &= E_\pi[R_t + \gamma (R_{t+1}+\gamma R_{t+2} + \ldots )|S_t = s] \\ &= E_\pi[R_t +\gamma G_{t+1}|S_t = s] \\ &= E_\pi[R_t +\gamma V_\pi({S_{t+1}})|S_t = s]] \\ &= \sum_{a_t \in A}\pi(a_t|s_t)[R(s_t,a_t) +\gamma \sum_{s_{t+1} \in S} P(s_{t+1}|s_t,a_t)V_\pi(s_{t+1}) ] \end{aligned} Vπ(s)=Eπ[Gt]St=s]=Eπ[Rt+γRt+1+γ2Rt+2+St=s]=Eπ[Rt+γ(Rt+1+γRt+2+)St=s]=Eπ[Rt+γGt+1St=s]=Eπ[Rt+γVπ(St+1)St=s]]=atAπ(atst)[R(st,at)+γst+1SP(st+1st,at)Vπ(st+1)]
  • Q π ( s , a ) Q^\pi(s,a) Qπ(s,a)推导过程
    Q π ( s , a ) = E π [ G t ∣ S t = s , A t = a ] = E π [ R t + γ R t + 1 + γ 2 R t + 2 + … ∣ S t = s , A t = a ] = E π [ R t + γ ( R t + 1 + γ R t + 2 + … ) ∣ S t = s , A t = a ] = E π [ R t + γ G t + 1 ∣ S t = s , A t = a ] ] = R ( s , a ) + γ E π [ G t + 1 ∣ S t = s , A t = a ] = R ( s , a ) + γ E π [ ∑ s t + 1 ∈ S P ( s t + 1 ∣ s , a ) G t + 1 ∣ S t = s , A t = a ] 这里考虑状态转移函数 = R ( s , a ) + γ ∑ s t + 1 ∈ S P ( s t + 1 ∣ s , a ) E π [ G t + 1 ∣ S t = s , A t = a ] = R ( s , a ) + γ ∑ s t + 1 ∈ S P ( s t + 1 ∣ s , a ) ∑ a t + 1 ∈ A π ( a t + 1 ∣ s t + 1 ) Q π ( s t + 1 , a t + 1 ) 这里考虑策略 \begin{aligned} Q^\pi (s,a) &=E_\pi[G_t|S_t=s,A_t=a] \\ &=E_\pi[R_t + \gamma R_{t+1} + \gamma^2R_{t+2} + \ldots|S_t=s,A_t=a] \\ &= E_\pi[R_t + \gamma (R_{t+1}+\gamma R_{t+2} + \ldots )|S_t=s,A_t=a] \\ &= E_\pi[R_t +\gamma G_{t+1}|S_t=s,A_t=a]] \\ &= R(s,a)+ \gamma E_\pi[G_{t+1}|S_t=s,A_t=a] \\ &= R(s,a)+ \gamma E_\pi[ \sum_{s_{t+1} \in S}P(s_{t+1}|s,a) G_{t+1}|S_t=s,A_t=a] 这里考虑状态转移函数\\ &= R(s,a)+ \gamma \sum_{s_{t+1} \in S}P(s_{t+1}|s,a) E_\pi[ G_{t+1}|S_t=s,A_t=a] \\ &= R(s,a)+ \gamma \sum_{s_{t+1} \in S}P(s_{t+1}|s,a) \sum_{a_{t+1}\in A} \pi(a_{t+1}|s_{t+1}) Q^\pi(s_{t+1},a_{t+1})这里考虑策略 \end{aligned} Qπ(s,a)=Eπ[GtSt=s,At=a]=Eπ[Rt+γRt+1+γ2Rt+2+St=s,At=a]=Eπ[Rt+γ(Rt+1+γRt+2+)St=s,At=a]=Eπ[Rt+γGt+1St=s,At=a]]=R(s,a)+γEπ[Gt+1St=s,At=a]=R(s,a)+γEπ[st+1SP(st+1s,a)Gt+1St=s,At=a]这里考虑状态转移函数=R(s,a)+γst+1SP(st+1s,a)Eπ[Gt+1St=s,At=a]=R(s,a)+γst+1SP(st+1s,a)at+1Aπ(at+1st+1)Qπ(st+1,at+1)这里考虑策略
  • 上述推导比较复杂,另一种理解方式:根据状态价值函数和动作价值函数的关系,互相带入,具体如下图所示
    在这里插入图片描述

MDP马尔可夫决策过程转换为MRP马尔可夫奖励过程

  • 给定一个 MDP 和一个策略,可以将策略的动作选择进行边缘化(marginalization),就可以得到没有动作的 MRP

  • 对于某一个状态,我们根据策略所有动作的概率进行加权,得到的奖励和就可以认为是一个 MRP 在该状态下的奖励,以加权的奖励和作为MRP的奖励
    r ′ ( s ) = ∑ a ∈ A π ( a ∣ s ) r ( s , a ) \begin{aligned} r'(s) = \sum_{a \in A} \pi(a|s)r(s,a) \end{aligned} r(s)=aAπ(as)r(s,a)

  • 同理,计算采取动作的概率与使 s s s转移到 s ′ s’ s的概率的乘积,再将这些乘积相加,其和就是一个 MRP 的状态 s s s从转移至 s ′ s’ s的概率
    P ′ ( s ′ ∣ s ) = ∑ a ∈ A π ( a ∣ s ) P ( s ′ ∣ s , a ) \begin{aligned} P'(s’|s) = \sum_{a \in A} \pi(a|s)P(s’|s,a) \end{aligned} P(ss)=aAπ(as)P(ss,a)

  • 根据上面的式子,将MDP转化为了MRP < S , P ′ , r ′ , γ > <S,P’,r’,\gamma> <S,P,r,γ>

蒙特卡洛方法

  • 用蒙特卡洛方法的好处在于我们不需要知道 MDP 的状态转移函数和奖励函数,它可以得到一个近似值,并且采样数越多越准确

  • 蒙特卡洛方法(Monte-Carlo methods)也被称为统计模拟方法,是一种基于概率统计的数值计算方法

  • 运用蒙特卡洛方法时,我们通常使用重复随机抽样,然后运用概率统计方法来从抽样结果中归纳出我们想求的目标的数值估计

  • 使用蒙特卡洛估计圆面积的例子:
    在这里插入图片描述

  • 使用蒙特卡洛方法来估计一个策略在一个马尔可夫决策过程中的状态价值函数:

  • 一个状态的价值是它的期望回报,那么一个很直观的想法就是用策略在 MDP 上采样很多条序列,计算从这个状态出发的回报再求其期望就可以了
    V π ( s ) = E π [ G t ∣ S t = s ] ≈ 1 N ∑ i = 1 N G t ( i ) \begin{aligned} V^\pi(s)=E_\pi[G_t|S_t=s]\approx \frac{1}{N}\sum_{i=1}^{N}G_t^{(i)} \end{aligned} Vπ(s)=Eπ[GtSt=s]N1i=1NGt(i)

  • 个人补充内容:首次访问蒙特卡洛FVMC方法 和 每次访问蒙特卡EVMC方法
    在这里插入图片描述

  • 首次访问蒙特卡洛FVMC方法主要包含两个步骤,①产生一个回合的完整轨迹,②遍历轨迹计算每个状态的回报。只在第一次遍历到某个状态时会记录并计算对应的回报,而每次访问蒙特卡EVMC方法中不会忽略同一状态的多个回报

  • 在这里插入图片描述
    在这里插入图片描述

在这里插入图片描述

  • 蒙特卡洛方法有一定的局限性,即只适用于有终止状态的马尔可夫决策过程

  • 假设我们现在用策略 π \pi π从状态 s s s开始采样序列,据此来计算状态价值。我们为每一个状态维护一个计数器和总回报,计算状态价值的具体过程如下所示
    在这里插入图片描述

  • 使用增量式更新 估计状态价值的推导过程, V ( s ) V(s) V(s)为状态 s s s的价值, M ( s ) M(s) M(s)为状态 s s s的总回报, N ( s ) N(s) N(s)为采样到状态 s s s的总计数,根据上述可得, V ( s ) = M ( s ) N ( s ) V(s)= \frac{M(s)}{N(s)} V(s)=N(s)M(s)
    V ( s ) = M ( s ) N ( s ) = 1 N ( s ) M ( s ) = 1 N ( s ) [ G + M ( s ) ] 这里的 M ( s ) 是减去最新一次遇到状态 s 的总回报 = 1 N ( s ) [ G + ( N ( s ) − 1 ) V ( s ) ] 右边的 V ( s ) 也是去掉最新一次状态 s 价值的估计 = V ( s ) + 1 N ( s ) ( G − V ( s ) ) \begin{aligned} V(s) &= \frac{M(s)}{N(s)} \\ &= \frac{1}{N(s)}M(s) \\ &= \frac{1}{N(s)}[G+M(s)] 这里的M(s)是减去最新一次遇到状态s的总回报\\ &= \frac{1}{N(s)}[G+(N(s)-1)V(s)] 右边的V(s)也是去掉最新一次状态s价值的估计\\ &= V(s) + \frac{1}{N(s)}(G- V(s)) \end{aligned} V(s)=N(s)M(s)=N(s)1M(s)=N(s)1[G+M(s)]这里的M(s)是减去最新一次遇到状态s的总回报=N(s)1[G+(N(s)1)V(s)]右边的V(s)也是去掉最新一次状态s价值的估计=V(s)+N(s)1(GV(s))

占用度量

  • 占用度量(occupancy measure):是关于数据分布的概念,归一化的的占用度量用于衡量一个智能体决策与一个动态环境的交互过程中,采样到一个具体的状态动作对state-action pair的概率分布
    在这里插入图片描述
  • 对上面的式子我也不太理解,注意上面的 v π ( s ) v^\pi(s) vπ(s)是状态访问分布
  • P t π ( s ) P_t^\pi(s) Ptπ(s)表示采取策略 π \pi π使得智能体在 t t t时刻状态为 s s s的概率
  • 占用度量有一个很重要的性质:给定两个策略及其与一个动态环境交互得到的两个占用度量,那么当且仅当这两个占用度量相同时,这两个策略相同。也就是说,如果一个智能体的策略有所改变,那么它和环境交互得到的占用度量也会相应改变
  • 占用度量的定义: ρ π ( s , a ) = ( 1 − γ ) ∑ t = 0 ∞ γ t P t π ( s ) π ( a ∣ s ) \rho^\pi(s,a) = (1- \gamma) \sum_{t=0}^{\infty}\gamma^tP_t^\pi(s)\pi(a|s) ρπ(s,a)=(1γ)t=0γtPtπ(s)π(as)
  • 占用度量 ρ π ( s , a ) \rho^\pi(s,a) ρπ(s,a)是在策略 π \pi π下,智能体在状态 s s s下采取动作 a a a的概率。它是状态和动作对 ( s , a ) (s,a) (s,a)的访问频率的度量
  • 占用度量 ρ π ( s , a ) \rho^\pi(s,a) ρπ(s,a)与状态访问分布 v π ( s ) v^\pi(s) vπ(s)的关系:
    ρ π ( s , a ) = v π ( s ) π ( a ∣ s ) \begin{aligned} \rho^\pi(s,a) = v^\pi(s) \pi(a|s) \end{aligned} ρπ(s,a)=vπ(s)π(as)
    在这里插入图片描述
  • “合法”占用度量是指存在一个策略使智能体与 MDP 交互产生的状态动作对被访问到的概率

最优策略

  • 定义策略之间的偏序关系:当且仅当对于任意的状态 s s s都有 V π ( s ) ≥ V π ′ ( s ) V^\pi(s) \geq V^{\pi’}(s) Vπ(s)Vπ(s) ,记 π ≥ π ′ \pi \geq \pi’ ππ

  • 于是在有限状态和动作集合的 MDP 中,至少存在一个策略比其他所有策略都好或者至少存在一个策略不差于其他所有策略,这个策略就是最优策略(optimal policy)

  • 最优策略可能有很多个,我们都将其表示为 π ∗ ( s ) \pi^*(s) π(s)

  • 最优策略都有相同的状态价值函数,我们称之为最优状态价值函数
    V ∗ ( s ) = max ⁡ π V π ( s ) , ∀ s ∈ S \begin{aligned} V^*(s) &= \max_\pi V^\pi(s) ,\hspace{0.5cm} \forall s \in S \end{aligned} V(s)=πmaxVπ(s)sS

  • 最优动作价值函数
    Q ∗ ( s , a ) = max ⁡ π Q π ( s , a ) , ∀ s ∈ S , a ∈ A \begin{aligned} Q^*(s,a) &= \max_\pi Q^\pi(s,a) ,\hspace{0.5cm} \forall s \in S,a \in A \end{aligned} Q(s,a)=πmaxQπ(s,a)sS,aA

  • 对比状态价值函数与动作价值函数的关系

在这里插入图片描述

  • 最优状态价值函数与最优动作价值函数的关系
  • 最优状态价值是选择此时使最优动作价值最大的那一个动作时的状态价值
    V ∗ ( s ) = max ⁡ π Q ∗ ( s , a ) Q ∗ ( s , a ) = r ( s , a ) + γ ∑ s ′ ∈ S P ( s ’ ∣ s , a ) V ∗ ( s ′ ) \begin{aligned} V^*(s) &= \max_\pi Q^*(s,a) \\ Q^*(s,a) &= r(s,a) +\gamma \sum_{s’ \in S} P(s’|s,a) V^*(s’) \end{aligned} V(s)Q(s,a)=πmaxQ(s,a)=r(s,a)+γsSP(s’∣s,a)V(s)

贝尔曼最优方程(Bellman optimality equation)

  • 对照贝尔曼期望方程理解
    在这里插入图片描述

  • 贝尔曼最优方程
    V ∗ ( s ) = max ⁡ a ∈ A { r ( s , a ) + γ ∑ s t + 1 ∈ S P ( s t + 1 ∣ s t , a t ) V ∗ ( s t + 1 ) } Q ∗ ( s , a ) = r ( s , a ) + γ ∑ s t + 1 ∈ S P ( s t + 1 ∣ s , a ) max ⁡ a t + 1 ∈ A Q ∗ ( s t + 1 , a t + 1 ) \begin{aligned} V^*(s) &= \max_{a \in A} \{r(s,a)+ \gamma \sum_{s_{t+1} \in S}P(s_{t+1}|s_t,a_t)V^*(s_{t+1})\} \\ Q^*(s,a) &= r(s,a) +\gamma \sum_{s_{t+1} \in S} P(s_{t+1}|s,a) \max_{a_{t+1} \in A} Q^*(s_{t+1},a_{t+1}) \end{aligned} V(s)Q(s,a)=aAmax{
    r(s,a)+γst+1SP(st+1st,at)V(st+1)}
    =r(s,a)+γst+1SP(st+1s,a)at+1AmaxQ(st+1,at+1)

  • 强化学习中的环境就是一个马尔可夫决策过程,接下来将要介绍的强化学习算法通常都是在求解马尔可夫决策过程中的最优策略

今天的文章【动手学强化学习】第三章 马尔可夫决策过程 知识点总结[通俗易懂]分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/89383.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注