很難想象,達(dá)到人類等級(jí)的人工智能會(huì)如何造福人類,同樣也難以想象不恰當(dāng)?shù)厥褂盟瑫?huì)釀成什么樣的惡果。
AI有做壞事的本領(lǐng),在空戰(zhàn)模擬器上,阿爾法人工智能程序在與美國空軍退休上校吉恩 李的較量中,獲得完勝。此類例子已經(jīng)不勝枚舉。
所以,如何使用機(jī)器人是個(gè)大問題。即便你為機(jī)器人設(shè)定了一個(gè)目的純良的任務(wù),但機(jī)器人在實(shí)現(xiàn)目標(biāo)的過程中,如何選擇實(shí)現(xiàn)路徑仍然是個(gè)問題,它會(huì)不會(huì)為達(dá)目的而不擇手段呢?
因此,為考驗(yàn)AI在兩難境地下如何做出策略選擇,谷歌的 DeepMind 團(tuán)隊(duì)進(jìn)行了針對(duì)性實(shí)驗(yàn),實(shí)驗(yàn)中的兩款游戲都是以博弈論的囚徒困境理論為基礎(chǔ)開發(fā)的。
囚徒困境是指兩個(gè)共謀犯罪的人被關(guān)入監(jiān)獄,不能互相溝通。如果兩個(gè)人都不揭發(fā)對(duì)方,則由于證據(jù)不確定,每個(gè)人坐牢一年;若一人揭發(fā),而另一人沉默,揭發(fā)者立即獲釋,沉默者入獄五年;若互相揭發(fā),則因證據(jù)確實(shí),二人都判刑兩年。由于囚徒無法信任對(duì)方,因此傾向于互相揭發(fā),而不是同守沉默。這一經(jīng)典理論說明了即便合作對(duì)雙方都有利,但合作仍然是困難的。
DeepMind為此設(shè)計(jì)的第一款游戲名為“采集”。他們將一個(gè)以“收集水果”為目的的電腦游戲運(yùn)行了4000萬次,并要求兩個(gè)AI互相競爭,看誰能收集更多的虛擬蘋果。
他們發(fā)現(xiàn),在有足夠的蘋果時(shí)AI還相安無事,但隨著蘋果減少,兩個(gè)AI就有攻擊性了。為了將對(duì)手踢出游戲,獨(dú)吞所有蘋果,它們開始使用激光束來攻擊對(duì)手。
有趣的是,AI用激光束攻擊對(duì)手獲得成功的行為并不能直接獲得獎(jiǎng)勵(lì)。它只是讓對(duì)手在游戲中消失一會(huì)兒,以便自己可以收集更多的蘋果。
如果兩方AI都不使用激光束,理論上他們可以平分所有的蘋果。這是“沒那么聰明”的舊版本AI所作的選擇。
隨著谷歌團(tuán)隊(duì)測試形式的愈加復(fù)雜,DeepMind也變得更貪婪、更具侵略性和攻擊性。
“在蘋果相對(duì)豐富的環(huán)境中,彼此攻擊的代價(jià)更大,因此AI會(huì)采用更溫和的策略。在蘋果較少時(shí),AI擊敗對(duì)手獨(dú)吞蘋果的貪婪欲望就出現(xiàn)了。”
第二個(gè)游戲叫作“狼群”。這一次,有三個(gè)人工智能參與——它們中的兩個(gè)扮演狼,另一個(gè)扮演獵物。
和前一個(gè)游戲不同的是,這個(gè)游戲鼓勵(lì)合作。如果獵物被捕獲時(shí),兩只狼在都在獵物旁邊,他們都會(huì)得到獎(jiǎng)勵(lì)——不論哪一只抓獲了獵物。
“這是捕獵有風(fēng)險(xiǎn)性的觀點(diǎn)——一只獨(dú)狼可以戰(zhàn)勝獵物,但可能會(huì)因食腐動(dòng)物的搶奪而丟掉這份戰(zhàn)利品”,該團(tuán)隊(duì)在他們博客的文章中解釋道。
“然而,當(dāng)兩只狼一同捕獵時(shí),它們可以更好地對(duì)抗食腐動(dòng)物,保護(hù)手中保護(hù)獵物,因此得到更高的回報(bào)。”
因此,在第一個(gè)游戲中,AI認(rèn)識(shí)到侵略和自私可以獲得最有利自己的結(jié)果;從“狼群”游戲中,它們也學(xué)習(xí)到,有時(shí)合作會(huì)對(duì)自己更有利。
通過以上實(shí)驗(yàn),也讓我們得出一個(gè)結(jié)論:AI 會(huì)根據(jù)自己所處的環(huán)境進(jìn)行抉擇。
“在現(xiàn)實(shí)生活中,無論是合作還是相互攻訐,都是復(fù)雜的行為。因此 AI 需要掌握?qǐng)?zhí)行一系列動(dòng)作的先后順序。”DeepMind 團(tuán)隊(duì)在博客中寫道。“我們將這一全新設(shè)定看作連續(xù)的社會(huì)困境,并利用深層強(qiáng)化學(xué)習(xí)訓(xùn)練的AI對(duì)其進(jìn)行研究。”
我們應(yīng)考慮到,雖然這些只是簡單的、信息明確的電腦游戲,但在現(xiàn)實(shí)情況下,這些職責(zé)不同、利益沖突、相互競爭的人工智能系統(tǒng),如果不能將各自的目標(biāo)統(tǒng)合于人類利益高于一切的最高目標(biāo)之下,后果將是災(zāi)難性的。
設(shè)想一下,交通信號(hào)燈的目的是讓汽車減下速來,無人駕駛汽車的目標(biāo)是找到速度最快的路線。但在二者合力下,想要保證安全和有效的交通,它們需要考慮彼此的目的才行。
DeepMind 的研究團(tuán)隊(duì)表示:“這樣的模型能夠讓我們?cè)谀M系統(tǒng)中測試策略和干預(yù)措施。”如果一切順利,未來人類對(duì)復(fù)雜的、多因素系統(tǒng),如經(jīng)濟(jì)、交通或生態(tài)都能有深刻的把握。