作者:泉琳 來(lái)源: 發(fā)布時(shí)間:2018-12-5 18:23:33
無(wú)人駕駛VS道德困境

 
想象一下這樣的場(chǎng)景:在喧囂的城市公路上,一輛剎車失靈的無(wú)人駕駛汽車沖向了人行橫道。
 
一個(gè)無(wú)家可歸的人和一個(gè)罪犯正從車前穿過(guò),而兩只貓正在對(duì)面車道上穿行。這時(shí),汽車該轉(zhuǎn)向貓所在的車道,還是直接沖向面前的兩個(gè)人?
 
道德困境隨之而來(lái):在不可避免的致命事故中,無(wú)人駕駛汽車應(yīng)如何作出決定?最近,研究人員設(shè)計(jì)了一個(gè)名為“道德機(jī)器”的實(shí)驗(yàn),來(lái)嘗試解答這個(gè)問(wèn)題。
 
“道德機(jī)器”
 
2014年,美國(guó)麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員設(shè)計(jì)了一個(gè)名為“道德機(jī)器”的實(shí)驗(yàn)。他們想要?jiǎng)?chuàng)建一個(gè)類似游戲的平臺(tái),讓人們來(lái)決定無(wú)人駕駛汽車在緊急情況下的道德決策。這是典型的“電車?yán)Ь?rdquo;的另一個(gè)版本。
 
研究人員從未預(yù)料到這項(xiàng)實(shí)驗(yàn)會(huì)受到如此廣泛的歡迎。平臺(tái)上線4年來(lái),全球233個(gè)國(guó)家和地區(qū)的數(shù)百萬(wàn)人已經(jīng)做出了4000萬(wàn)項(xiàng)決定,成為迄今為止對(duì)全球道德偏好進(jìn)行的最大規(guī)模的研究之一。
 
經(jīng)典的“電車?yán)Ь?rdquo;指的是,一輛失控的電車在軌道上飛馳,正朝向5個(gè)人駛?cè)ィ炀冗@5人生命的唯一方法是拉下操縱桿,讓電車駛向另一條軌道,但這樣會(huì)撞死軌道上另一個(gè)無(wú)辜的人。
 
與此不同的是,“道德機(jī)器”用這個(gè)想法測(cè)試了9種不同事故的場(chǎng)景,結(jié)果顯示出人們強(qiáng)烈的道德偏好——無(wú)人駕駛汽車應(yīng)該優(yōu)先考慮:人類而非寵物、乘客而非行人、多數(shù)而非少數(shù)、女性而非男性、年紀(jì)小而非年紀(jì)大的、身體健康而非體弱多病的、社會(huì)地位更高而非更低的、守法的而不是鉆法律空子的人。
 
不過(guò),這項(xiàng)實(shí)驗(yàn)并沒(méi)有進(jìn)行一對(duì)一的比較,而是向參與者展示了各種各樣的組合,比如無(wú)人駕駛汽車是應(yīng)該繼續(xù)直行,殺死3位年長(zhǎng)的行人,還是轉(zhuǎn)向路障,殺死3位年輕的乘客。
 
此外,這項(xiàng)發(fā)表在《自然》雜志上的研究還揭示了基于文化、經(jīng)濟(jì)和地理位置之上的跨文化的道德差異。例如,中美洲和南美洲國(guó)家、法國(guó)以及前法屬海外領(lǐng)地和現(xiàn)法屬領(lǐng)地的參與者,呈現(xiàn)出先救女性和強(qiáng)壯個(gè)體的強(qiáng)烈偏好。而來(lái)自收入差距較大的國(guó)家的參與者在決定救誰(shuí)時(shí),往往會(huì)考慮其社會(huì)地位。
 
該項(xiàng)實(shí)驗(yàn)在廣度和深度上都是前所未有的,讓我們對(duì)世界各地人們?cè)谶@種困境中的偏好有了更清晰的認(rèn)識(shí)。不過(guò),作者也告誡,不要把這些結(jié)果當(dāng)作無(wú)人駕駛汽車應(yīng)該做什么的簡(jiǎn)單指南。
 
最好的判斷
 
毫無(wú)疑問(wèn),機(jī)器要比人快得多,因?yàn)樗鼈儾粫?huì)恐慌。在最好的情況下,它們可能體現(xiàn)了人類深思熟慮的智慧,即使在悲慘的情況下也能有效地應(yīng)用。然而,要做到這一點(diǎn),我們需要從良好的數(shù)據(jù)開(kāi)始。
 
在線測(cè)試是了解人們?cè)谧鞒雠袛嘀跋敕ǖ囊环N很好的方式。但顯然我們不會(huì)迎合所有的偏見(jiàn),因此作者省略了種族和國(guó)籍作為選擇的理由是正確的。
 
良好的調(diào)查設(shè)計(jì)不可能在真空中完成,而且道德偏好不應(yīng)該只是一種喜好。要想做出道德上正確的事情(想想你所面臨的任何道德上重要的選擇),必須要認(rèn)真思考。研究人員希望將人工智能的道德依據(jù)建立在最好的判斷之上,而不是最初的判斷上。
 
這項(xiàng)研究對(duì)目前正在測(cè)試無(wú)人駕駛汽車的國(guó)家有一定的啟示,因?yàn)檫@些偏好可能在塑造這類汽車的設(shè)計(jì)和監(jiān)管方面發(fā)揮作用。例如,汽車制造商可能會(huì)發(fā)現(xiàn),中國(guó)消費(fèi)者更容易選擇一輛保護(hù)自己免受行人影響的汽車。
 
但是該研究的作者強(qiáng)調(diào),研究結(jié)果并不意味著各國(guó)應(yīng)該采取何種行動(dòng):“我們不建議(政策制定者)迎合公眾的偏好。他們只需要意識(shí)到這一點(diǎn),就能預(yù)料到事情發(fā)生時(shí)的可能反應(yīng)。”領(lǐng)導(dǎo)這項(xiàng)研究的麻省理工學(xué)院媒體實(shí)驗(yàn)室計(jì)算機(jī)科學(xué)家Edmond Awad表示。
 
事實(shí)上,在某些情況下,Awad認(rèn)為技術(shù)專家和政策制定者應(yīng)該凌駕于公眾輿論之上。以社會(huì)地位比較為例,“人們認(rèn)為犧牲較低地位而不是較高地位的人是可以接受的,這似乎令人擔(dān)憂。重要的是要說(shuō)‘嘿,我們可以量化它’,而不是說(shuō) ‘哦,也許我們應(yīng)該用它’”。在他看來(lái),研究結(jié)果應(yīng)該被行業(yè)和政府用作了解公眾對(duì)不同設(shè)計(jì)和政策決策的道德標(biāo)準(zhǔn)會(huì)作何反應(yīng)的基礎(chǔ)。
 
此外,Awad還希望這些研究結(jié)果能有助于技術(shù)人員深入思考人工智能在無(wú)人駕駛汽車之外的道德準(zhǔn)則。“我們使用‘電車?yán)Ь?rsquo;是因?yàn)檫@是收集數(shù)據(jù)的好方法,但是我們希望關(guān)于道德準(zhǔn)則的討論不要停留在這個(gè)主題上。討論應(yīng)該轉(zhuǎn)向風(fēng)險(xiǎn)分析——關(guān)于誰(shuí)的風(fēng)險(xiǎn)更大或更小——而不是說(shuō)誰(shuí)會(huì)死亡,以及偏見(jiàn)是如何發(fā)生的。”
 
過(guò)度解讀?
 
在其他一些研究人員看來(lái),這樣的研究很有趣,但他們也警告稱,研究結(jié)果可能被過(guò)度解讀。
 
在一項(xiàng)隨機(jī)調(diào)查中,研究人員試圖確保樣本是公正的并代表總體人口,但在這種情況下,自愿研究是由一個(gè)主要是年輕男性的人群進(jìn)行的。在現(xiàn)實(shí)世界中,概率和不確定性是常態(tài),而與現(xiàn)實(shí)世界中豐富的場(chǎng)景相比,這些場(chǎng)景也被提煉出來(lái),極端且更加黑白分明。
 
“我最大的擔(dān)心是,讀到這篇文章的人會(huì)認(rèn)為,這項(xiàng)研究是在告訴我們?nèi)绾螢闊o(wú)人駕駛汽車實(shí)施決策。”并未參與這項(xiàng)研究的美國(guó)密歇根大學(xué)計(jì)算機(jī)科學(xué)家Benjamin Kuipers坦言。這些思維實(shí)驗(yàn)可能會(huì)以一種誤導(dǎo)的方式讓汽車制造商和程序員對(duì)無(wú)人駕駛汽車設(shè)計(jì)作出一些錯(cuò)誤決策。
 
“制造這些汽車的過(guò)程并不是說(shuō),‘如果我面臨這種兩難境地,我要去殺誰(shuí)’?它的意思是,‘如果我們能想象出這種困境可能發(fā)生,我應(yīng)該事先作出什么決定來(lái)避免這種情況’?”Kuipers表示。
 
馬薩諸塞大學(xué)洛厄爾分校哲學(xué)家Nicholas Evans指出,盡管研究人員將他們的三大原則描述為普遍適用原則,但它們與那些不被認(rèn)為是普遍適用的原則之間的界限是武斷的。舉例來(lái)說(shuō),他們將年輕人與老年人的偏好歸類為一種全球性的道德偏好,但沒(méi)有將遵循步行信號(hào)的人與橫穿馬路的人的偏好區(qū)分開(kāi)來(lái)。
 
目前,Evans正在進(jìn)行一個(gè)項(xiàng)目,這個(gè)項(xiàng)目受到了麻省理工團(tuán)隊(duì)采取的方法的影響。他計(jì)劃使用更細(xì)致入微的事故場(chǎng)景,“為這些道德困境建立一個(gè)數(shù)學(xué)模型,然后利用哲學(xué)提供的最好的道德理論,來(lái)展示選擇無(wú)人駕駛汽車以某種方式行動(dòng)的結(jié)果是什么”。
 
負(fù)責(zé)監(jiān)督這項(xiàng)工作的麻省理工計(jì)算機(jī)科學(xué)家Iyad Rahwan表示,公眾民意調(diào)查不應(yīng)成為人工智能道德的基礎(chǔ)。但他表示,人工智能的監(jiān)管將不同于傳統(tǒng)產(chǎn)品,因?yàn)闄C(jī)器將具有自主性和適應(yīng)能力——這使得理解人們?nèi)绾慰创斯ぶ悄芤约八麄儗?duì)技術(shù)的期望變得更為重要。
 
“我們應(yīng)該對(duì)公眾輿論持保留態(tài)度。”Rahwan最后表示,“我認(rèn)為它有著豐富的信息。”■
 
《科學(xué)新聞》 (科學(xué)新聞2018年11月刊 交通)
發(fā)E-mail給:      
| 打印 | 評(píng)論 |