成人免费无码不卡毛片,亚洲AⅤ无码精品一区二区三区,国产尤物精品视频,久久精品日本亚洲,欧美成人一区三区无码乱码A片,中文字日产幕码一区二区色哟哟,亞洲日韓中文字幕網AV

  • 正文
    • 策略學(xué)習(xí)
    • 多智能體A2C
    • 三種架構(gòu)
  • 推薦器件
  • 相關(guān)推薦
申請入駐 產(chǎn)業(yè)圖譜

一文了解【完全合作關(guān)系】下的【多智能體強(qiáng)化學(xué)習(xí)】

2024/05/16
1878
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

處于完全合作關(guān)系的多智能體的利益一致,獲得的獎勵相同,有共同的目標(biāo)。比如多個工業(yè)機(jī)器人協(xié)同裝配汽車,他們的目標(biāo)是相同的,都希望把汽車裝好。

在多智能體系統(tǒng)中,一個智能體未必能觀測到全局狀態(tài) S。設(shè)第 i 號智能體有一個局部觀測,記作 Oi,它是 S 的一部分。不妨假設(shè)所有的局部觀測的總和構(gòu)成全局狀態(tài):

在這里插入圖片描述

完全合作關(guān)系下的MARL:

在這里插入圖片描述

策略學(xué)習(xí)

下面由policy-based的MARL方法入手。(value-based MARL也有很多工作)

MARL 中的完全合作關(guān)系 (Fully-Cooperative) 意思是所有智能體的利益是一致的,它們有相同的獎勵R,回報(bào)U,動作價(jià)值函數(shù)Q,狀態(tài)價(jià)值函數(shù)V。Q和V依賴于所有agent的策略π。

在這里插入圖片描述

通常來說,團(tuán)隊(duì)成員有分工合作,所以每個成員的策略是不同的,即 θi ≠ θj。

如果做策略學(xué)習(xí)(即學(xué)習(xí)策略網(wǎng)絡(luò)參數(shù) θ1, · · · , θm),那么所有智能體都有一個共同目標(biāo)函數(shù)

在這里插入圖片描述

所有智能體的目的是一致的,即改進(jìn)自己的策略網(wǎng)絡(luò)參數(shù) θi,使得目標(biāo)函數(shù) J 增大。那么策略學(xué)習(xí)可以寫作這樣的優(yōu)化問題:

在這里插入圖片描述

(注意,只有“完全合作關(guān)系”這種設(shè)定下,所有智能體才會有共同的目標(biāo)函數(shù),其原因在于 R1 = · · · = Rm。對于其它設(shè)定,“競爭關(guān)系”、“混合關(guān)系”、“利己主義”,智能體的目標(biāo)函數(shù)是各不相同的。)

在這里插入圖片描述

可能有人好奇R,U,Q,V都一樣了,為什么訓(xùn)練出來π不一樣?主要是每個agent的動作空間有區(qū)別,各司其職,所以agent的策略會有區(qū)別。

由于無法計(jì)算策略梯度?θiJ,我們需要對其做近似。下面用 價(jià)值網(wǎng)絡(luò) 近似 策略梯度 ,從而推導(dǎo)出一種實(shí)際可行的策略梯度方法。

多智能體A2C

下面介紹“完全合作關(guān)系”設(shè)定下的多智能體 A2C 方法 (Multi-Agent Cooperative A2C),縮寫 MAC-A2C。簡單點(diǎn)入手,本文只考慮離散控制問題。

策略網(wǎng)絡(luò)和價(jià)值網(wǎng)絡(luò)

MAC-A2C 使用兩類神經(jīng)網(wǎng)絡(luò)價(jià)值網(wǎng)絡(luò) v策略網(wǎng)絡(luò) π。

在這里插入圖片描述

在這里插入圖片描述

所有智能體共用一個價(jià)值網(wǎng)絡(luò)。

每個智能體有自己的策略網(wǎng)絡(luò)。

在這里插入圖片描述

在這里插入圖片描述

在這里插入圖片描述

訓(xùn)練和決策

在這里插入圖片描述

在這里插入圖片描述

實(shí)現(xiàn)中的難點(diǎn)

最大的問題,在 MARL 的常見設(shè)定下,第 i 號智能體只知道 oi,而觀測不到全局狀態(tài)。

在這里插入圖片描述

下面介紹中心化 (Centralized) 與去中心化 (Decentralized) 的實(shí)現(xiàn)方法。

  • 中心化讓智能體共享信息;優(yōu)點(diǎn)是訓(xùn)練和決策的效果好,缺點(diǎn)是需要通信,造成延時,影響速度。
  • 去中心化需要做近似,避免通信;其優(yōu)點(diǎn)在于速度快,而缺點(diǎn)則是影響訓(xùn)練和決策的質(zhì)量。

三種架構(gòu)

下面介紹MAC-A2C的三種實(shí)現(xiàn)方法。

在這里插入圖片描述

完全中心化

中心化訓(xùn)練 + 中心化決策,這是MAC-A2C最忠實(shí)的實(shí)現(xiàn)方法,作出的決策最好,但是速度最慢,在很多問題中不適用

訓(xùn)練和決策全部由中央控制器完成。智能體只負(fù)責(zé)與環(huán)境交互,然后把各種數(shù)據(jù)傳給中央。智能體只需要執(zhí)行中央下達(dá)的決策,而不需要自己“思考”,純純工具人。

在這里插入圖片描述

在這里插入圖片描述

完全去中心化

想要避免通信代價(jià),就不得不對策略網(wǎng)絡(luò)和價(jià)值網(wǎng)絡(luò)做近似,變?yōu)椤叭ブ行幕?xùn)練 + 去中心化決策”。

在這里插入圖片描述

在這里插入圖片描述

MAC-A2C 變成了標(biāo)準(zhǔn)的 A2C,每個智能體獨(dú)立學(xué)習(xí)自己的參數(shù) θi 與 wi。

去中心化訓(xùn)練的本質(zhì)就是單智能體強(qiáng)化學(xué)習(xí) (SARL),而非多智能體強(qiáng)化學(xué)習(xí) (MARL)。在 MARL 中,智能體之間會相互影響,而本節(jié)中的“去中心化訓(xùn)練”把智能體視為獨(dú)立個體,忽視它們之間的關(guān)聯(lián),直接用 SARL 方法獨(dú)立訓(xùn)練每個智能體。用上述 SARL 的方法解決 MARL 問題,在實(shí)踐中效果往往不佳。

中心化訓(xùn)練 + 去中心化決策

當(dāng)前更流行的MARL 架構(gòu)是“中心化訓(xùn)練 + 去中心化決策”,相對于上面兩種方法,有效結(jié)合了它們的優(yōu)點(diǎn)又緩解了它們的缺點(diǎn),近年來很流行。

訓(xùn)練的時候使用中央控制器,輔助智能體做訓(xùn)練;

訓(xùn)練結(jié)束之后,不再需要中央控制器,每個智能體獨(dú)立根據(jù)本地觀測 oi 做決策。

訓(xùn)練:
在這里插入圖片描述

決策:

在這里插入圖片描述

智能體只需要用其本地部署的策略網(wǎng)絡(luò)π做決策,決策過程無需通信。

中心化執(zhí)行的速度很快,可以做到實(shí)時決策。

本文內(nèi)容為看完王樹森和張志華老師的《深度強(qiáng)化學(xué)習(xí)》一書的學(xué)習(xí)筆記,十分推薦大家去看原書!

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊 ECAD模型 風(fēng)險(xiǎn)等級 參考價(jià)格 更多信息
LTC6994IS6-2#TRMPBF 1 Analog Devices Inc LTC6994IS6-2#TRMPBF

ECAD模型

下載ECAD模型
$4.15 查看
CM315D32768EZFT 1 Citizen Finedevice Co Ltd Parallel - Fundamental Quartz Crystal, 0.032768MHz Nom, SMD, 2 PIN

ECAD模型

下載ECAD模型
暫無數(shù)據(jù) 查看
VOM3052-X001T 1 Vishay Intertechnologies SOP-4 P.TRIAC NZC,10MA,1.5K DV/DT VD - Tape and Reel
$11.64 查看

相關(guān)推薦

台江县| 苍山县| 四平市| 垫江县| 谢通门县| 乃东县| 天等县| 双江| 长宁区| 股票| 泸州市| 汉沽区| 佛冈县| 栖霞市| 且末县| 万年县| 台北县| 兰州市| 马公市| 宁陵县| 嘉峪关市| 涿鹿县| 阿城市| 花莲县| 化德县| 霍城县| 黄冈市| 涡阳县| 曲阳县| 宾阳县| 江源县| 南雄市| 江西省| 金堂县| 英吉沙县| 浦东新区| 汕头市| 邢台市| 梁河县| 磐安县| 门头沟区|