作者:泉琳 來源: 發(fā)布時間:2018-12-5 18:23:33
無人駕駛VS道德困境

 
想象一下這樣的場景:在喧囂的城市公路上,一輛剎車失靈的無人駕駛汽車沖向了人行橫道。
 
一個無家可歸的人和一個罪犯正從車前穿過,而兩只貓正在對面車道上穿行。這時,汽車該轉(zhuǎn)向貓所在的車道,還是直接沖向面前的兩個人?
 
道德困境隨之而來:在不可避免的致命事故中,無人駕駛汽車應(yīng)如何作出決定?最近,研究人員設(shè)計了一個名為“道德機(jī)器”的實(shí)驗(yàn),來嘗試解答這個問題。
 
“道德機(jī)器”
 
2014年,美國麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員設(shè)計了一個名為“道德機(jī)器”的實(shí)驗(yàn)。他們想要創(chuàng)建一個類似游戲的平臺,讓人們來決定無人駕駛汽車在緊急情況下的道德決策。這是典型的“電車?yán)Ь?rdquo;的另一個版本。
 
研究人員從未預(yù)料到這項(xiàng)實(shí)驗(yàn)會受到如此廣泛的歡迎。平臺上線4年來,全球233個國家和地區(qū)的數(shù)百萬人已經(jīng)做出了4000萬項(xiàng)決定,成為迄今為止對全球道德偏好進(jìn)行的最大規(guī)模的研究之一。
 
經(jīng)典的“電車?yán)Ь?rdquo;指的是,一輛失控的電車在軌道上飛馳,正朝向5個人駛?cè),要挽救這5人生命的唯一方法是拉下操縱桿,讓電車駛向另一條軌道,但這樣會撞死軌道上另一個無辜的人。
 
與此不同的是,“道德機(jī)器”用這個想法測試了9種不同事故的場景,結(jié)果顯示出人們強(qiáng)烈的道德偏好——無人駕駛汽車應(yīng)該優(yōu)先考慮:人類而非寵物、乘客而非行人、多數(shù)而非少數(shù)、女性而非男性、年紀(jì)小而非年紀(jì)大的、身體健康而非體弱多病的、社會地位更高而非更低的、守法的而不是鉆法律空子的人。
 
不過,這項(xiàng)實(shí)驗(yàn)并沒有進(jìn)行一對一的比較,而是向參與者展示了各種各樣的組合,比如無人駕駛汽車是應(yīng)該繼續(xù)直行,殺死3位年長的行人,還是轉(zhuǎn)向路障,殺死3位年輕的乘客。
 
此外,這項(xiàng)發(fā)表在《自然》雜志上的研究還揭示了基于文化、經(jīng)濟(jì)和地理位置之上的跨文化的道德差異。例如,中美洲和南美洲國家、法國以及前法屬海外領(lǐng)地和現(xiàn)法屬領(lǐng)地的參與者,呈現(xiàn)出先救女性和強(qiáng)壯個體的強(qiáng)烈偏好。而來自收入差距較大的國家的參與者在決定救誰時,往往會考慮其社會地位。
 
該項(xiàng)實(shí)驗(yàn)在廣度和深度上都是前所未有的,讓我們對世界各地人們在這種困境中的偏好有了更清晰的認(rèn)識。不過,作者也告誡,不要把這些結(jié)果當(dāng)作無人駕駛汽車應(yīng)該做什么的簡單指南。
 
最好的判斷
 
毫無疑問,機(jī)器要比人快得多,因?yàn)樗鼈儾粫只拧T谧詈玫那闆r下,它們可能體現(xiàn)了人類深思熟慮的智慧,即使在悲慘的情況下也能有效地應(yīng)用。然而,要做到這一點(diǎn),我們需要從良好的數(shù)據(jù)開始。
 
在線測試是了解人們在作出判斷之前想法的一種很好的方式。但顯然我們不會迎合所有的偏見,因此作者省略了種族和國籍作為選擇的理由是正確的。
 
良好的調(diào)查設(shè)計不可能在真空中完成,而且道德偏好不應(yīng)該只是一種喜好。要想做出道德上正確的事情(想想你所面臨的任何道德上重要的選擇),必須要認(rèn)真思考。研究人員希望將人工智能的道德依據(jù)建立在最好的判斷之上,而不是最初的判斷上。
 
這項(xiàng)研究對目前正在測試無人駕駛汽車的國家有一定的啟示,因?yàn)檫@些偏好可能在塑造這類汽車的設(shè)計和監(jiān)管方面發(fā)揮作用。例如,汽車制造商可能會發(fā)現(xiàn),中國消費(fèi)者更容易選擇一輛保護(hù)自己免受行人影響的汽車。
 
但是該研究的作者強(qiáng)調(diào),研究結(jié)果并不意味著各國應(yīng)該采取何種行動:“我們不建議(政策制定者)迎合公眾的偏好。他們只需要意識到這一點(diǎn),就能預(yù)料到事情發(fā)生時的可能反應(yīng)。”領(lǐng)導(dǎo)這項(xiàng)研究的麻省理工學(xué)院媒體實(shí)驗(yàn)室計算機(jī)科學(xué)家Edmond Awad表示。
 
事實(shí)上,在某些情況下,Awad認(rèn)為技術(shù)專家和政策制定者應(yīng)該凌駕于公眾輿論之上。以社會地位比較為例,“人們認(rèn)為犧牲較低地位而不是較高地位的人是可以接受的,這似乎令人擔(dān)憂。重要的是要說‘嘿,我們可以量化它’,而不是說 ‘哦,也許我們應(yīng)該用它’”。在他看來,研究結(jié)果應(yīng)該被行業(yè)和政府用作了解公眾對不同設(shè)計和政策決策的道德標(biāo)準(zhǔn)會作何反應(yīng)的基礎(chǔ)。
 
此外,Awad還希望這些研究結(jié)果能有助于技術(shù)人員深入思考人工智能在無人駕駛汽車之外的道德準(zhǔn)則。“我們使用‘電車?yán)Ь?rsquo;是因?yàn)檫@是收集數(shù)據(jù)的好方法,但是我們希望關(guān)于道德準(zhǔn)則的討論不要停留在這個主題上。討論應(yīng)該轉(zhuǎn)向風(fēng)險分析——關(guān)于誰的風(fēng)險更大或更小——而不是說誰會死亡,以及偏見是如何發(fā)生的。”
 
過度解讀?
 
在其他一些研究人員看來,這樣的研究很有趣,但他們也警告稱,研究結(jié)果可能被過度解讀。
 
在一項(xiàng)隨機(jī)調(diào)查中,研究人員試圖確保樣本是公正的并代表總體人口,但在這種情況下,自愿研究是由一個主要是年輕男性的人群進(jìn)行的。在現(xiàn)實(shí)世界中,概率和不確定性是常態(tài),而與現(xiàn)實(shí)世界中豐富的場景相比,這些場景也被提煉出來,極端且更加黑白分明。
 
“我最大的擔(dān)心是,讀到這篇文章的人會認(rèn)為,這項(xiàng)研究是在告訴我們?nèi)绾螢闊o人駕駛汽車實(shí)施決策。”并未參與這項(xiàng)研究的美國密歇根大學(xué)計算機(jī)科學(xué)家Benjamin Kuipers坦言。這些思維實(shí)驗(yàn)可能會以一種誤導(dǎo)的方式讓汽車制造商和程序員對無人駕駛汽車設(shè)計作出一些錯誤決策。
 
“制造這些汽車的過程并不是說,‘如果我面臨這種兩難境地,我要去殺誰’?它的意思是,‘如果我們能想象出這種困境可能發(fā)生,我應(yīng)該事先作出什么決定來避免這種情況’?”Kuipers表示。
 
馬薩諸塞大學(xué)洛厄爾分校哲學(xué)家Nicholas Evans指出,盡管研究人員將他們的三大原則描述為普遍適用原則,但它們與那些不被認(rèn)為是普遍適用的原則之間的界限是武斷的。舉例來說,他們將年輕人與老年人的偏好歸類為一種全球性的道德偏好,但沒有將遵循步行信號的人與橫穿馬路的人的偏好區(qū)分開來。
 
目前,Evans正在進(jìn)行一個項(xiàng)目,這個項(xiàng)目受到了麻省理工團(tuán)隊采取的方法的影響。他計劃使用更細(xì)致入微的事故場景,“為這些道德困境建立一個數(shù)學(xué)模型,然后利用哲學(xué)提供的最好的道德理論,來展示選擇無人駕駛汽車以某種方式行動的結(jié)果是什么”。
 
負(fù)責(zé)監(jiān)督這項(xiàng)工作的麻省理工計算機(jī)科學(xué)家Iyad Rahwan表示,公眾民意調(diào)查不應(yīng)成為人工智能道德的基礎(chǔ)。但他表示,人工智能的監(jiān)管將不同于傳統(tǒng)產(chǎn)品,因?yàn)闄C(jī)器將具有自主性和適應(yīng)能力——這使得理解人們?nèi)绾慰创斯ぶ悄芤约八麄儗夹g(shù)的期望變得更為重要。
 
“我們應(yīng)該對公眾輿論持保留態(tài)度。”Rahwan最后表示,“我認(rèn)為它有著豐富的信息。”■
 
《科學(xué)新聞》 (科學(xué)新聞2018年11月刊 交通)
發(fā)E-mail給:      
| 打印 | 評論 |