Lecture2: Bellman Equation

State value

考虑grid-world的单步过程:
S t → A tR t+1 , S t+1 S_t \xrightarrow[]{A_t} R_{t + 1}, S_{t + 1} StAt Rt+1,St+1

  • tt t, t+1t + 1 t+1:时间戳
  • S tS_t St:时间tt t时所处的state
  • A tA_t At:在state S tS_t St时采取的action
  • R t+1 R_{t + 1} Rt+1:在采取 action A tA_t At 之后获得的reward
  • S t+1 S_{t + 1} St+1:在采取 action A tA_t At 之后,state S tS_t St转移后的state

通过概率分布对以上变量的动作进行描述:

  • S t→ A tS_t \rightarrow A_t StAtπ( A t=a∣ S t=s)\pi (A_t = a | S_t = s) π(At=aSt=s)
  • S t, A t→ R t+1 S_t, A_t \rightarrow R_{t + 1} St,AtRt+1p( R t+1 =r∣ S t=s, A t=a)p(R_{t + 1} =r | S_t = s, A_t = a) p(Rt+1=rSt=s,At=a)
  • S t, A t→ S t+1 S_t, A_t \rightarrow S_{t + 1} St,AtSt+1p( S t+1 = s ′∣ S t=s, A t=a)p(S_{t + 1} = s’ | S_t = s, A_t = a) p(St+1=sSt=s,At=a)

考虑grid-world的多步(multi-step)trajectory:
S t → A tR t+1 , S t+1→ A t+1 R t+2 , S t+2→ A t+2 R t+3 …S_t \xrightarrow[]{A_t} R_{t + 1}, S_{t + 1} \xrightarrow[]{A_{t + 1}} R_{t + 2}, S_{t + 2} \xrightarrow[]{A_{t + 2}} R_{t + 3}… StAt Rt+1,St+1At+1 Rt+2,St+2At+2 Rt+3
其discounted return为:
G t= R t+1 +γ R t+2 + γ 2 R t+3 +…G_t = R_{t + 1} + \gamma R_{t + 2} + \gamma^2 R_{t + 3} + … Gt=Rt+1+γRt+2+γ2Rt+3+

  • γ∈[0,1)\gamma \in [0, 1) γ[0,1)是折扣率(discount rate)
  • R t+1 , R t+2 ,…R_{t + 1}, R_{t + 2}, … Rt+1,Rt+2,是随机变量时, G tG_t Gt也是随机变量

Gt G_tGt的期望(expectation; expected value; mean)被定义为state-value function或state value。
v π(s)=E[ G t∣ S t=s]v_{\pi}(s) = \mathbb{E}[G_t | S_t = s] vπ(s)=E[GtSt=s]

  • v π(s)v_{\pi}(s) vπ(s)是state ss s的函数,是state从 ss s 起始的条件期望。
  • v π(s)v_{\pi}(s) vπ(s)基于policy π\pi π,对于不同的policy,state value可能会不同
  • 其代表了一个state的“价值”。 如果state value越大,代表policy就越好,因为可以获得更大的累积奖励(cumulative rewards)。

注意区分state value和return: state value是从某个state开始可以获得的所有可能return的平均值。如果每一个 π ( a ∣ s ) , p ( r ∣ s , a ) , p ( s′∣ s , a )\pi(a | s), p(r | s, a), p(s’ | s, a)π(as),p(rs,a),p(ss,a)是确定的,那么state value和return是相等的。

例:

计算三个样例的state value:
v π1 ( s 1)=0+γ1+ γ 21+⋯=γ(1+γ+ γ 2+⋯   )= γ 1−γ v_{\pi_1}(s_1) = 0 + \gamma 1 + \gamma^21 + \cdots = \gamma(1 + \gamma + \gamma^2 + \cdots) = \frac{\gamma}{1 – \gamma} vπ1(s1)=0+γ1+γ21+=γ(1+γ+γ2+)=1γγ

v π2 ( s 1)=−1+γ1+ γ 21+⋯=−1+γ(1+γ+ γ 2+⋯   )=−1+ γ 1−γ v_{\pi_2}(s_1) = -1 + \gamma1 + \gamma^21 + \cdots = -1 + \gamma(1 + \gamma + \gamma^2 + \cdots) = -1 + \frac{\gamma}{1 – \gamma} vπ2(s1)=1+γ1+γ21+=1+γ(1+γ+γ2+)=1+1γγ

v π3 ( s 1)=0.5(−1+ γ 1−γ )+0.5( γ 1−γ )=−0.5+ γ 1−γ v_{\pi_3}(s_1) = 0.5(-1 + \frac{\gamma}{1 – \gamma}) + 0.5(\frac{\gamma}{1 – \gamma}) = -0.5 + \frac{\gamma}{1 – \gamma} vπ3(s1)=0.5(1+1γγ)+0.5(1γγ)=0.5+1γγ

Bellman equation: Derivation

贝尔曼方程描述了所有state值之间的关系。

考虑一个随机的trajectory:
S t → A tR t+1 , S t+1→ A t+1 R t+2 , S t+2→ A t+2 R t+3 ,…S_t \xrightarrow[]{A_t} R_{t + 1}, S_{t + 1} \xrightarrow[]{A_{t+1}} R_{t + 2}, S_{t + 2} \xrightarrow[]{A_{t+2}} R_{t + 3}, \dots StAt Rt+1,St+1At+1 Rt+2,St+2At+2 Rt+3,
其return Gt G_tGt可以被计算为:
Gt = R t+1 +γ R t+2 + γ 2 R t+3 +… = R t+1 +γ( R t+2 +γ R t+3 +…   ) = R t+1 +γ G t+1 \begin{align*} G_t &= R_{t + 1} + \gamma R_{t + 2} + \gamma^2 R_{t + 3} + \dots\\ &= R_{t + 1} + \gamma(R_{t + 2} + \gamma R_{t + 3} + \dots)\\ &= R_{t + 1} + \gamma G_{t+1} \end{align*} Gt=Rt+1+γRt+2+γ2Rt+3+=Rt+1+γ(Rt+2+γRt+3+)=Rt+1+γGt+1
其state value可以计算为:
v π(s) =E[ G t∣ S t=s] =E[ R t+1 +γ G t+1 ∣ S t=s] =E[ R t+1 ∣ S t=s]+γE[ G t+1 ∣ S t=s]\begin{align*} v_{\pi}(s) &= \mathbb{E}[G_t | S_t = s] \\ & = \mathbb{E}[R_{t + 1} + \gamma G_{t + 1} | S_t = s]\\ &= \mathbb{E}[R_{t + 1} | S_t = s] + \gamma \mathbb{E}[G_{t + 1} | S_t = s] \end{align*} vπ(s)=E[GtSt=s]=E[Rt+1+γGt+1St=s]=E[Rt+1St=s]+γE[Gt+1St=s]
对于第一项:
E[ R t+1 ∣ S t=s] = ∑ aπ(a∣s)E[ R t+1 ∣ S t=s, A t=a] = ∑ aπ(a∣s) ∑ rp(r∣s,a)r\begin{align*} \mathbb{E}[R_{t + 1} | S_t = s] &= \sum_a \pi(a | s) \mathbb{E}[R_{t + 1} | S_t = s, A_t = a] \\ & = \sum_a \pi(a | s)\sum_rp(r | s, a)r \end{align*} E[Rt+1St=s]=aπ(as)E[Rt+1St=s,At=a]=aπ(as)rp(rs,a)r
这是瞬时reward的期望。

对于第二项:
E[ G t+1 ∣ S t=s] = ∑ s′ E[ G t+1 ∣ S t=s, S t+1 = s ′]p( s ′∣s) = ∑ s′ E[ G t+1 ∣ S t+1 = s ′]p( s ′∣s) = ∑ s′v π( s ′)p( s ′∣s) = ∑ s′v π( s ′) ∑ ap( s ′∣s,a)π(a∣s)\begin{align*} \mathbb{E}[G_{t + 1} | S_t = s] &= \sum_{s’} \mathbb{E}[G_{t + 1} | S_t = s, S_{t + 1} = s’]p(s’ | s)\\ &= \sum_{s’}\mathbb{E}[G_{t + 1} | S_{t + 1} = s’]p(s’ | s)\\ &= \sum_{s’} v_{\pi}(s’)p(s’ |s )\\ &= \sum_{s’} v_{\pi}(s’) \sum_a p(s’ | s, a)\pi(a | s) \end{align*} E[Gt+1St=s]=sE[Gt+1St=s,St+1=s]p(ss)=sE[Gt+1St+1=s]p(ss)=svπ(s)p(ss)=svπ(s)ap(ss,a)π(as)
这是未来reward的期望

因此,可以得到:
v π(s) =E[ R t+1 ∣ S t=s]+γE[ G t+1 ∣ S t=s] = ∑ aπ(a∣s) ∑ rp(r∣s,a)r+γ ∑ s′v π( s ′) ∑ ap( s ′∣s,a)π(a∣s) = ∑ aπ(a∣s) [ ∑rp ( r ∣ s , a ) r + γ ∑ s ′p ( s′∣ s , a ) vπ( s′) ],        ∀s∈S\begin{align*} v_{\pi}(s) &= \mathbb{E}[R_{t + 1} | S_t = s] + \gamma \mathbb{E}[G_{t + 1} | S_t = s]\\ &= \sum_a \pi(a | s)\sum_rp(r | s, a)r + \gamma \sum_{s’} v_{\pi}(s’) \sum_a p(s’ | s, a)\pi(a | s) \\ &= \sum_a \pi(a | s) \left[ \sum_r p(r | s, a)r + \gamma \sum_{s’}p(s’ | s, a) v_{\pi}(s’) \right], \;\;\; \forall s \in S \end{align*} vπ(s)=E[Rt+1St=s]+γE[Gt+1St=s]=aπ(as)rp(rs,a)r+γsvπ(s)ap(ss,a)π(as)=aπ(as)[rp(rs,a)r+γsp(ss,a)vπ(s)],sS

  • v π(s)v_{\pi}(s) vπ(s)π( s ′)\pi(s’) π(s)是需要被计算的state value,可以采用bootstrapping。
  • π(a∣s)\pi(a | s) π(as)是给定的policy,可以通过策略评估(policy evaluation)进行求解。
  • p(r∣s,a)p(r | s, a) p(rs,a)p( s ′∣s,a)p(s’ | s, a) p(ss,a)代表动态模型,分为known和unknown。
  • 上式叫做贝尔曼等式(Bellman equation),其描述了不同state之间state-value function的关系。
  • Bellman equation包含两个部分,瞬时奖励(immediate reward)和未来奖励(future reward)。

例:

对于action:

若policy为:

首先写Bellman equation:
v π(s)= ∑ aπ(a∣s) [ ∑rp ( r ∣ s , a ) r + γ ∑ s ′p ( s′∣ s , a ) vπ( s′) ]v_{\pi}(s) = \sum_a \pi(a | s) \left[ \sum_r p(r | s, a)r + \gamma \sum_{s’}p(s’ | s, a) v_{\pi}(s’) \right] vπ(s)=aπ(as)[rp(rs,a)r+γsp(ss,a)vπ(s)]
计算上式各项:

  • π(a= a 3∣ s 1)=1\pi(a = a_3 | s_1) = 1 π(a=a3s1)=1, π(a≠ a 3∣ s 1)=0\pi(a \ne a_3 | s_1) = 0 π(a=a3s1)=0
  • p( s ′= s 3∣ s 1, a 3)=1p(s’ = s_3 | s_1, a_3) = 1 p(s=s3s1,a3)=1, p( s ′≠ s 3∣ s 1, a 3)=0p(s’ \ne s_3 | s_1, a_3) = 0 p(s=s3s1,a3)=0
  • p(r=0∣ s 1, a 3=1)p(r = 0 | s_1, a_3 = 1) p(r=0∣s1,a3=1), p(r≠0∣ s 1, a 3)=0p(r \ne 0 | s_1, a_3) = 0 p(r=0∣s1,a3)=0

替换进Bellman equation得:
v π( s 1)=0+γ v π( s 3)v_{\pi}(s_1) = 0 + \gamma v_{\pi}(s_3) vπ(s1)=0+γvπ(s3)
同样的,可以计算:
v π( s 1)=0+γ v π( s 3)v π( s 2)=1+γ v π( s 4)v π( s 3)=1+γ v π( s 4)v π( s 4)=1+γ v π( s 4) v_{\pi}(s_1) = 0 + \gamma v_{\pi}(s_3)\\ v_{\pi}(s_2) = 1 + \gamma v_{\pi}(s_4)\\ v_{\pi}(s_3) = 1 + \gamma v_{\pi}(s_4)\\ v_{\pi}(s_4) = 1 + \gamma v_{\pi}(s_4)\\ vπ(s1)=0+γvπ(s3)vπ(s2)=1+γvπ(s4)vπ(s3)=1+γvπ(s4)vπ(s4)=1+γvπ(s4)
对于上式,可以从后往前计算:
v π( s 4)= 1 1−γ v π( s 3)= 1 1−γ v π( s 2)= 1 1−γ v π( s 1)= γ 1−γv_{\pi}(s_4) = \frac{1}{1 – \gamma}\\ v_{\pi}(s_3) = \frac{1}{1 – \gamma}\\ v_{\pi}(s_2) = \frac{1}{1 – \gamma}\\ v_{\pi}(s_1) = \frac{\gamma}{1 – \gamma}\\ vπ(s4)=1γ1vπ(s3)=1γ1vπ(s2)=1γ1vπ(s1)=1γγ
若policy为:

则:
v π( s 1)=0.5[0+γ v π( s 3)]+0.5[−1+γ v π( s 2)]v π( s 2)=1+γ v π( s 4)v π( s 3)=1+γ v π( s 4)v π( s 4)=1+γ v π( s 4) v_{\pi}(s_1) = 0.5[0 + \gamma v_{\pi}(s_3)] + 0.5[-1 + \gamma v_{\pi}(s_2)] \\ v_{\pi}(s_2) = 1 + \gamma v_{\pi}(s_4)\\ v_{\pi}(s_3) = 1 + \gamma v_{\pi}(s_4)\\ v_{\pi}(s_4) = 1 + \gamma v_{\pi}(s_4)\\ vπ(s1)=0.5[0+γvπ(s3)]+0.5[1+γvπ(s2)]vπ(s2)=1+γvπ(s4)vπ(s3)=1+γvπ(s4)vπ(s4)=1+γvπ(s4)
从后往前算:
v π( s 4)= 1 1−γ v π( s 3)= 1 1−γ v π( s 2)= 1 1−γ vπ( s1) = 0.5 [ 0 + γ vπ( s3) ] + 0.5 [ − 1 + γ vπ( s2) ]= − 0.5 + γ 1 − γ v_{\pi}(s_4) = \frac{1}{1 – \gamma} \\ v_{\pi}(s_3) = \frac{1}{1 – \gamma} \\ v_{\pi}(s_2) = \frac{1}{1 – \gamma} \\ \begin{align*} v_{\pi}(s_1) &= 0.5[0 + \gamma v_{\pi}(s_3)] + 0.5[-1 + \gamma v_{\pi}(s_2)] \\ & = -0.5 + \frac{\gamma}{1 – \gamma} \end{align*} vπ(s4)=1γ1vπ(s3)=1γ1vπ(s2)=1γ1vπ(s1)=0.5[0+γvπ(s3)]+0.5[1+γvπ(s2)]=0.5+1γγ

Bellman equation: Matrix-vector form

对于Bellman equation:
v π(s)= ∑ aπ(a∣s) [ ∑rp ( r ∣ s , a ) r + γ ∑ s ′p ( s′∣ s , a ) vπ( s′) ]v_{\pi}(s) = \sum_a \pi(a | s) \left[ \sum_r p(r | s, a)r + \gamma \sum_{s’}p(s’ | s, a) v_{\pi}(s’) \right] vπ(s)=aπ(as)[rp(rs,a)r+γsp(ss,a)vπ(s)]
通常是未知的 vπ( s )v_{\pi}(s)vπ(s)伴随着未知的 vπ( s′)v_{\pi}(s’)vπ(s),这对于每一个 s ∈ Ss \in \mathcal{S}sS都成立。因此,意味着共有 ∣ S ∣|\mathcal{S}|S个这样的等式。如果将所有的等式,放到一起进行计算,这就构成了Bellman equation的矩阵形式。

将上式展开,写为:
v π(s)= r π(s)+γ ∑ s′p π( s ′∣s) v π( s ′)            (1)v_{\pi}(s) = r_{\pi}(s) + \gamma \sum_{s’} p_{\pi}(s’ | s)v_{\pi}(s’) \;\;\;\;\; (1) vπ(s)=rπ(s)+γspπ(ss)vπ(s)(1)
其中:
r π(s):= ∑ aπ(a∣s) ∑ rp(r∣s,a)rp π( s ′∣s):= ∑ aπ(a∣s)p( s ′∣s,a)r_{\pi}(s) := \sum_a \pi(a | s) \sum_r p(r | s, a)r \\ p_{\pi}(s’ | s) := \sum_a \pi(a | s) p(s’ | s, a) rπ(s):=aπ(as)rp(rs,a)rpπ(ss):=aπ(as)p(ss,a)
为state sss添加索引 si, i = 1 , . . . , ns_i, i = 1, …, nsi,i=1,,n

对于 si s_isi,其Bellman equation为:
v π( s i)= r π( s i)+γ ∑ sjp π( s j∣ s i) v π( s j)v_{\pi}(s_i) = r_{\pi}(s_i) + \gamma \sum_{s_j} p_{\pi}(s_j | s_i)v_{\pi}(s_j) vπ(si)=rπ(si)+γsjpπ(sjsi)vπ(sj)
将所有的state写为矩阵形式:
v π= r π+γ P π v π\mathbf{v}_{\pi} = \mathbf{r}_{\pi} + \gamma \mathbf{P}_{\pi} \mathbf{v}_{\pi} vπ=rπ+γPπvπ
其中:

  • v π=[ v π( s 1), v π( s 2),…, v π( s n) ] T∈ R n\mathbf{v}_{\pi} = [v_{\pi}(s_1), v_{\pi}(s_2), …, v_{\pi}(s_n)]^T \in \mathbb{R}^n vπ=[vπ(s1),vπ(s2),,vπ(sn)]TRn
  • r π=[ r π( s 1), r π( s 2),…, r π( s n) ] T∈ R n\mathbf{r}_{\pi} = [r_{\pi}(s_1), r_{\pi}(s_2), …, r_{\pi}(s_n)]^T \in \mathbb{R}^n rπ=[rπ(s1),rπ(s2),,rπ(sn)]TRn
  • P π∈ R n×n \mathbf{P}_{\pi} \in \mathbb{R}^{n \times n} PπRn×n,其中,[ P π]= p π( s j∣ s i)[P_{\pi}] = p_{\pi}(s_j | s_i) [Pπ]=pπ(sjsi)是state转移矩阵。

假设有四个state,则上式矩阵形式可以写为:
[v π( s 1) v π( s 2) v π( s 3) v π( s 4)]= [r π( s 1) r π( s 2) r π( s 3) r π( s 4)]+γ [p π( s 1∣ s 1) p π( s 2∣ s 1) p π( s 3∣ s 1) p π( s 4∣ s 1) p π( s 1∣ s 2) p π( s 2∣ s 2) p π( s 3∣ s 2) p π( s 4∣ s 2) p π( s 1∣ s 3) p π( s 2∣ s 3) p π( s 3∣ s 3) p π( s 4∣ s 3) p π( s 1∣ s 4) p π( s 2∣ s 4) p π( s 3∣ s 4) p π( s 4∣ s 4)] [v π( s 1) v π( s 2) v π( s 3) v π( s 4)]\begin{bmatrix} v_{\pi}(s_1) \\ v_{\pi}(s_2)\\ v_{\pi}(s_3)\\ v_{\pi}(s_4) \end{bmatrix} = \begin{bmatrix} r_{\pi}(s_1) \\ r_{\pi}(s_2)\\ r_{\pi}(s_3)\\ r_{\pi}(s_4) \end{bmatrix} + \gamma \begin{bmatrix} p_{\pi}(s_1 | s_1) &p_{\pi}(s_2 | s_1) &p_{\pi}(s_3 | s_1) &p_{\pi}(s_4 | s_1)\\ p_{\pi}(s_1 | s_2) &p_{\pi}(s_2 | s_2) &p_{\pi}(s_3 | s_2) &p_{\pi}(s_4 | s_2)\\ p_{\pi}(s_1 | s_3) &p_{\pi}(s_2 | s_3) &p_{\pi}(s_3 | s_3) &p_{\pi}(s_4 | s_3)\\ p_{\pi}(s_1 | s_4) &p_{\pi}(s_2 | s_4) &p_{\pi}(s_3 | s_4) &p_{\pi}(s_4 | s_4) \end{bmatrix} \begin{bmatrix} v_{\pi}(s_1) \\ v_{\pi}(s_2)\\ v_{\pi}(s_3)\\ v_{\pi}(s_4) \end{bmatrix} vπ(s1)vπ(s2)vπ(s3)vπ(s4) = rπ(s1)rπ(s2)rπ(s3)rπ(s4) +γ pπ(s1s1)pπ(s1s2)pπ(s1s3)pπ(s1s4)pπ(s2s1)pπ(s2s2)pπ(s2s3)pπ(s2s4)pπ(s3s1)pπ(s3s2)pπ(s3s3)pπ(s3s4)pπ(s4s1)pπ(s4s2)pπ(s4s3)pπ(s4s4) vπ(s1)vπ(s2)vπ(s3)vπ(s4)
例,对policy1:

对其求解,得:
[v π( s 1) v π( s 2) v π( s 3) v π( s 4)]= [ 0 1 1 1 ]+γ [ 0 0 1 0 0 0 0 1 0 0 0 1 0 0 0 1 ] [v π( s 1) v π( s 2) v π( s 3) v π( s 4)]\begin{bmatrix} v_{\pi}(s_1) \\ v_{\pi}(s_2)\\ v_{\pi}(s_3)\\ v_{\pi}(s_4) \end{bmatrix} = \begin{bmatrix} 0 \\ 1\\ 1\\ 1 \end{bmatrix} + \gamma \begin{bmatrix} 0 &0 &1 &0\\ 0 &0 &0 &1\\ 0 &0 &0 &1\\ 0 &0 &0 &1 \end{bmatrix}\begin{bmatrix} v_{\pi}(s_1) \\ v_{\pi}(s_2)\\ v_{\pi}(s_3)\\ v_{\pi}(s_4) \end{bmatrix} vπ(s1)vπ(s2)vπ(s3)vπ(s4) = 0111 +γ 0000000010000111 vπ(s1)vπ(s2)vπ(s3)vπ(s4)
对policy2:

对其求解,得:
[v π( s 1) v π( s 2) v π( s 3) v π( s 4)]= [ 0.5(0)+0.5(−1)1 1 1 ]+γ [ 0 0.5 0.5 0 0 0 0 1 0 0 0 1 0 0 0 1 ] [v π( s 1) v π( s 2) v π( s 3) v π( s 4)]\begin{bmatrix} v_{\pi}(s_1) \\ v_{\pi}(s_2)\\ v_{\pi}(s_3)\\ v_{\pi}(s_4) \end{bmatrix} = \begin{bmatrix} 0.5(0) + 0.5(-1) \\ 1\\ 1\\ 1 \end{bmatrix} + \gamma \begin{bmatrix} 0 &0.5 &0.5 &0\\ 0 &0 &0 &1\\ 0 &0 &0 &1\\ 0 &0 &0 &1 \end{bmatrix}\begin{bmatrix} v_{\pi}(s_1) \\ v_{\pi}(s_2)\\ v_{\pi}(s_3)\\ v_{\pi}(s_4) \end{bmatrix} vπ(s1)vπ(s2)vπ(s3)vπ(s4) = 0.5(0)+0.5(1)111 +γ 00000.50000.50000111 vπ(s1)vπ(s2)vπ(s3)vπ(s4)

Bellman equation: Solve the state values

对于矩阵形式的Bellman equation:
v π= r π+γ P π v π\mathbf{v}_{\pi} = \mathbf{r}_{\pi} + \gamma \mathbf{P}_{\pi} \mathbf{v}_{\pi} vπ=rπ+γPπvπ
其closed-form的解为:
v π=(I−γ P π ) −1r π\mathbf{v}_{\pi} = (\mathbf{I} – \gamma \mathbf{P}_{\pi})^{-1} \mathbf{r}_{\pi} vπ=(IγPπ)1rπ
为了避免求矩阵的逆,可以采用迭代法:
v k+1 =r+γ P π v kv k→ v π=(I−γ P π ) −1r π,        k→∞\mathbf{v}_{k + 1} = \mathbf{r} + \gamma \mathbf{P}_{\pi} \mathbf{v}_k \\ \mathbf{v}_k \rightarrow \mathbf{v}_{\pi} = (\mathbf{I} – \gamma \mathbf{P}_{\pi})^{-1} \mathbf{r}_{\pi}, \;\;\; k \rightarrow \infty vk+1=r+γPπvkvkvπ=(IγPπ)1rπ,k
以下是对于一个grid-world,在给定policy下,各个state的state value。


可以看到,不同的policy其产生的state value可能是相同的。

可以看到,大多数情况下,不同的policy对state value的影响是比较大的,因此,state value是有效评估policy的一个指标。

Action value

state value: agent从某个state开始可以获得的平均return

action value: agent从某个state开始并采取action可以获得的平均return。

通过action value可以知道当前state下,哪个action是更好的。

定义:
q π(s,a)=E[ G t∣ S t=s, A t=a]q_{\pi}(s, a) = \mathbb{E}[G_t | S_t = s, A_t = a] qπ(s,a)=E[GtSt=s,At=a]

  • q π(s,a)q_{\pi}(s, a) qπ(s,a)是state、action对的函数
  • q π(s,a)q_{\pi}(s, a) qπ(s,a)依赖于π\pi π

根据条件期望公式:
E[ G t∣ S t=s]= ∑ aE[ G t∣ S t=s, A t=a]π(a∣s)\mathbb{E}[G_t | S_t = s] = \sum_a \mathbb{E}[G_t | S_t = s, A_t = a] \pi (a | s) E[GtSt=s]=aE[GtSt=s,At=a]π(as)
因此,
v π(s)= ∑ aπ(a∣s) q π(s,a)            (2)v_{\pi}(s) = \sum_{a} \pi(a | s) q_{\pi}(s, a) \;\;\;\;\; (2) vπ(s)=aπ(as)qπ(s,a)(2)
对于state value:
vπ( s ) = ∑aπ ( a ∣ s ) [ ∑ rp(r∣s,a)r+γ ∑ s′ p( s ′∣s,a) v π( s ′)] = ∑aπ ( a ∣ s ) ⋅ qπ( s , a )            (3)\begin{align*} v_{\pi}(s) &= \sum_a \pi(a | s) \left[ \sum_r p(r | s, a)r + \gamma \sum_{s’}p(s’ | s, a) v_{\pi}(s’) \right]\\ &=\sum_a \pi(a | s) \cdot q_{\pi}(s, a) \end{align*} \;\;\;\;\; (3) vπ(s)=aπ(as)[rp(rs,a)r+γsp(ss,a)vπ(s)]=aπ(as)qπ(s,a)(3)
比较公式(2)与公式(3),可以得到action-value function:
q π(s,a)= ∑ rp(r∣s,a)r+γ ∑ s′ p( s ′∣s,a) v π( s ′)            (4)q_{\pi}(s, a) = \sum_r p(r | s, a)r + \gamma \sum_{s’} p(s’ | s, a) v_{\pi}(s’) \;\;\;\;\; (4) qπ(s,a)=rp(rs,a)r+γsp(ss,a)vπ(s)(4)
通过公式(2)和公式(4)可以发现state value和action value可以相互转化。

例:

求解,得:
q π( s 1, a 1)=−1+γ v π( s 1)q π( s 1, a 2)=−1+γ v π( s 2)q π( s 1, a 3)=0+γ v π( s 3)q π( s 1, a 4)=−1+γ v π( s 1)q π( s 1, a 5)=0+γ v π( s 1)\begin{align*} &q_{\pi}(s_1, a_1) = -1 + \gamma v_{\pi}(s_1)\\ &q_{\pi}(s_1, a_2) = -1 + \gamma v_{\pi}(s_2)\\ &q_{\pi}(s_1, a_3) = 0 + \gamma v_{\pi}(s_3) \\ &q_{\pi}(s_1, a_4) = -1 + \gamma v_{\pi}(s_1) \\ &q_{\pi}(s_1, a_5) = 0 + \gamma v_{\pi}(s_1) \end{align*} qπ(s1,a1)=1+γvπ(s1)qπ(s1,a2)=1+γvπ(s2)qπ(s1,a3)=0+γvπ(s3)qπ(s1,a4)=1+γvπ(s1)qπ(s1,a5)=0+γvπ(s1)

Summary

  • state value: vπ( s ) = E [ Gt∣ St= s ]v_{\pi}(s) = \mathbb{E}[G_t | S_t = s]vπ(s)=E[GtSt=s]

  • action value: qπ( s , a ) = E [ Gt∣ St= s , At= a ]q_{\pi}(s, a) = \mathbb{E}[G_t | S_t = s, A_t = a]qπ(s,a)=E[GtSt=s,At=a]

  • Bellman equation:

    elementwise form
    v π(s) = ∑ aπ(a∣s) [ ∑rp ( r ∣ s , a ) r + γ ∑ s ′p ( s′∣ s , a ) vπ( s′) ] = ∑ aπ(a∣s)⋅ q π(s,a)\begin{align*} v_{\pi}(s) &= \sum_a \pi(a | s) \left[ \sum_r p(r | s, a)r + \gamma \sum_{s’}p(s’ | s, a) v_{\pi}(s’) \right]\\ &=\sum_a \pi(a | s) \cdot q_{\pi}(s, a) \end{align*} vπ(s)=aπ(as)[rp(rs,a)r+γsp(ss,a)vπ(s)]=aπ(as)qπ(s,a)
    matrix-vector form
    v π= r π+γP v π\mathbf{v}_{\pi} = \mathbf{r}_{\pi} + \gamma \mathbf{P} \mathbf{v}_{\pi} vπ=rπ+γPvπ

  • 可以通过闭合形式解和迭代法求Bellman equation

以上内容为B站西湖大学智能无人系统 强化学习的数学原理 公开课笔记。