女人被狂躁到高潮呻吟小说,蜜桃成人网,女人与公豬交交30分钟视频,久久无码精品一区二区三区,浓毛老太交欧美老妇热爱乱

人工智能之TD Learning算法

人工智能機器學習有關算法內容,請參見公眾號“科技優(yōu)化生活”之前相關文章。人工智能之機器學習主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下TD Learning算法。 ^_^

TD Learning時序差分學習結合了動態(tài)規(guī)劃DP蒙特卡洛MC(請參見人工智能(31))方法,且兼具兩種算法的優(yōu)點,是強化學習的核心思想。

雖然蒙特卡羅MC方法僅在最終結果已知時才調整其估計值,但TD Learning時序差分學習調整預測以匹配后,更準確地預測最終結果之前的未來預測。

TD Learning算法概念:

TD Learning(Temporal-Difference Learning) 時序差分學習指的是一類無模型的強化學習方法,它是從當前價值函數估計的自舉過程中學習的。這些方法從環(huán)境中取樣,如蒙特卡洛方法,并基于當前估計執(zhí)行更新,如動態(tài)規(guī)劃方法。

TD Learning算法本質

TD Learning(Temporal-DifferenceLearning)時序差分學習結合了動態(tài)規(guī)劃和蒙特卡洛方法,是強化學習的核心思想。

時序差分不好理解。改為當時差分學習比較形象一些,表示通過當前的差分數據來學習。

蒙特卡洛MC方法是模擬(或者經歷)一段序列或情節(jié),在序列或情節(jié)結束后,根據序列或情節(jié)上各個狀態(tài)的價值,來估計狀態(tài)價值。TD Learning時序差分學習是模擬(或者經歷)一段序列或情節(jié),每行動一步(或者幾步),根據新狀態(tài)的價值,然后估計執(zhí)行前的狀態(tài)價值??梢哉J為蒙特卡洛MC方法是最大步數的TD Learning時序差分學習。

TD Learning算法描述:

如果可以計算出策略價值(π狀態(tài)價值vπ(s),或者行動價值qπ(s,a)),就可以優(yōu)化策略。

在蒙特卡洛方法中,計算策略的價值,需要完成一個情節(jié),通過情節(jié)的目標價值Gt來計算狀態(tài)的價值。其公式:

MC公式:

V(St)←V(St)+αδt

δt=[Gt?V(St)]

這里:

δt – MC誤差

α – MC學習步長

TD Learning公式:

V(St)←V(St)+αδt

δt=[Rt+1+γV(St+1)?V(St)]

這里:

δt – TD Learning誤差

α – TD Learning步長

γ – TD Learning報酬貼現率

TD Learning時間差分方法的目標為Rt+1+γ V(St+1),若V(St+1) 采用真實值,則TD Learning時間差分方法估計也是無偏估計,然而在試驗中V(St+1) 用的也是估計值,因此TD Learning時間差分方法屬于有偏估計。然而,跟蒙特卡羅MC方法相比,TD Learning時間差分方法只用到了一步隨機狀態(tài)和動作,因此TD Learning時間差分方法目標的隨機性比蒙特卡羅MC方法中的Gt 要小,因此其方差也比蒙特卡羅MC方法的方差小。

TD Learning分類:

1)策略狀態(tài)價值vπ的時序差分學習方法(單步多步)

2)策略行動價值qπ的on-policy時序差分學習方法: Sarsa(單步多步)

3)策略行動價值qπ的off-policy時序差分學習方法: Q-learning(單步),Double Q-learning(單步)

4)策略行動價值qπ的off-policy時序差分學習方法(帶importance sampling): Sarsa(多步)

5)策略行動價值qπ的off-policy時序差分學習方法(不帶importance sampling): Tree Backup Algorithm(多步)

6)策略行動價值qπ的off-policy時序差分學習方法: Q(σ)(多步)

TD Learning算法流程:

1)單步TD Learning時序差分學習方法:

InitializeV(s) arbitrarily ?s∈S+

Repeat(for each episode):

?Initialize S

?Repeat (for each step of episode):

?? A←actiongiven by π for S

??Take action A, observe R,S′

??V(S)←V(S)+α[R+γV(S′)?V(S)]

?? S←S′

?Until S is terminal

2)多步TD Learning時序差分學習方法:

Input:the policy π to be evaluated

InitializeV(s) arbitrarily ?s∈S

Parameters:step size α∈(0,1], a positive integer n

Allstore and access operations (for St and Rt) can take their index mod n

Repeat(for each episode):

?Initialize and store S0≠terminal

? T←∞

? Fort=0,1,2,?:

?? Ift<Tt<T, then:

???Take an action according to π( ˙|St)

???Observe and store the next reward as Rt+1 and the next state as St+1

???If St+1 is terminal, then T←t+1

?? τ←t?n+1(τ is the time whose state's estimate is being updated)

?? Ifτ≥0τ≥0:

??? G←∑min(τ+n,T)i=τ+1γi?τ?1Ri

???if τ+n≤Tτ+n≤T then: G←G+γnV(Sτ+n)(G(n)τ)

???V(Sτ)←V(Sτ)+α[G?V(Sτ)]

?Until τ=T?1

注意:V(S0)是由V(S0),V(S1),…,V(Sn)計算所得;V(S1)是由V(S1),V(S1),…,V(Sn+1)計算所得。

TD Learning理論基礎:

TD Learning理論基礎如下:

1)蒙特卡羅方法

2)動態(tài)規(guī)劃

3)信號系統(tǒng)

TD Learning算法優(yōu)點:

1)不需要環(huán)境的模型;

2)可以采用在線的、完全增量式的實現方式;

3)不需等到最終的真實結果;

4)不局限于episode task;

5)可以用于連續(xù)任務;

6)可以保證收斂到 vπ,收斂速度較快。

TD Learning算法缺點:

1) 對初始值比較敏感;

2) 并非總是用函數逼近。

TD Learning算法應用:

從應用角度看,TD Learning應用領域與應用前景都是非常廣闊的,目前主要應用于動態(tài)系統(tǒng)、機器人控制及其他需要進行系統(tǒng)控制的領域。

結語:

TD Learning結合了動態(tài)規(guī)劃DP蒙特卡洛MC方法,并兼具兩種算法的優(yōu)點,是強化學習的中心TD Learning不需要環(huán)境的動態(tài)模型,直接從經驗經歷中學習;也不需要等到最終的結果才更新模型,它可以基于其他估計值來更新估計值。輸入數據可以刺激模型并且使模型做出反應。反饋不僅從監(jiān)督學習的學習過程中得到,還從環(huán)境中的獎勵或懲罰中得到。TD Learning算法已經被廣泛應用于動態(tài)系統(tǒng)、機器人控制及其他需要進行系統(tǒng)控制的領域。

------以往文章推薦------

機器學習

深度學習

人工神經網絡

決策樹

隨機森林

強化學習

遷移學習

遺傳算法

樸素貝葉斯

支持向量機

蒙特卡羅方法

馬爾科夫模型

Hopfield神經網絡

回歸模型

K鄰近算法

卷積神經網絡

受限玻爾茲曼機

循環(huán)神經網絡

長短時記憶神經網絡

Adaboost算法

ID3算法

CART算法

K-Means算法

Apriori算法

PCA算法

ICA算法

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2018-06-18
人工智能之TD Learning算法
人工智能機器學習有關算法內容,請參見公眾號“科技優(yōu)化生活”之前相關文章。人工智能之機器學習主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下TD Learning算法。

長按掃碼 閱讀全文