作者:記者 倪偉波綜合報道 來源: 發(fā)布時間:2018-3-8 14:0:17
人工智能的信任危機

 
隨著深度學習技術(shù)的不斷發(fā)展與成熟,人工智能(AI)正逐步從尖端技術(shù)變得普及。自語音識別、視覺識別、機器學習等相關(guān)技術(shù)相繼走出實驗室,人工智能在金融、零售、醫(yī)療、汽車等多個領(lǐng)域落地應(yīng)用。
 
當然,人工智能的本領(lǐng)并不限于此,它還能夠預測未來。比方說,警方正在利用它來預判犯罪可能的發(fā)生的時間和地點;醫(yī)生則可以用它來預測病人什么時候最有可能發(fā)作心臟病或者中風;研究人員甚至試圖賦予人工智能想象的能力,期待其能規(guī)劃出人類意想不到的結(jié)果。
 
其實,我們生活中的許多決定都需要事先預測才能做出,而隨著技術(shù)的發(fā)展,人工智能的預測能力幾乎總是比人類優(yōu)秀。然而,盡管在技術(shù)上前進了一大步,但是人們似乎仍然對人工智能的預測缺乏信心。最近有研究表明,人們不喜歡依賴人工智能,而更傾向于相信人類專家,即使這些專家的預測是錯誤的。
 
如果想讓人工智能真正造福人類,那就必須找到一種方法讓人們相信它。為此,我們首先要弄懂為什么人們不愿意相信人工智能。
 
AI醫(yī)生
 
毫無疑問,IBM公司的超級計算機Watson是人工智能界的明星,并被認為潛力無限。
 
2013年,Watson與世界頂級癌癥研究機構(gòu)MD安德森癌癥中心合作,打算通過“使用IBM Watson認知計算系統(tǒng)消滅癌癥”項目讓Watson變身成為“癌癥醫(yī)生”。然而事與愿違,這次合作最終以失敗收場。
 
Watson承諾將提供治療12種癌癥(包括乳腺癌、直腸癌、結(jié)腸癌、胃癌、宮頸癌等)的高質(zhì)量咨詢服務(wù),這些癌癥占世界病例總數(shù)的80%。截至目前,全世界已有超過1.4萬名患者接受了基于其計算結(jié)果提供的治療意見。
 
“我們現(xiàn)在可以看到很多真實的案例,患者們告訴我們‘聽了Watson的建議我現(xiàn)在感覺舒服多了’。他們的這番話讓我感覺從事這項事業(yè)是非常值得的,因為它正在給患者和醫(yī)生帶去更好的體驗。”IBM全球Watson健康總經(jīng)理Deborah DiSanzo表示。
 
聽了這樣的描述,你或許對Watson充滿期待。然而根據(jù)美國醫(yī)學媒體STAT對Watson在世界各地醫(yī)院提供的服務(wù)的調(diào)查顯示,超級計算機并沒有達到IBM對它的期望,它仍在努力學習不同形式的癌癥治療的基本步驟。
 
兩難境地
 
不僅如此,當醫(yī)生們第一次與Watson互動時,他們發(fā)現(xiàn)自己陷入了一個兩難之境。
 
一方面,如果Watson提供了與他們一致的治療指導意見,那么醫(yī)生們便無法看出Watson的建議有多大的價值。因為超級計算機只是簡單地重復醫(yī)生已經(jīng)知道的東西,這些建議并沒有改變實際的治療方案。但換一個角度思考,這也許讓醫(yī)生對自己的判斷更有信心。
 
另一方面,如果Watson提出的建議與專家的意見相矛盾,那么醫(yī)生們通常會得出結(jié)論:Watson無法勝任。當然,機器無法解釋為什么它的治療方案是合理的,因為它的機器學習算法太過復雜,無法被人類完全理解。這樣的結(jié)果導致了更多的不信任和懷疑,也使許多醫(yī)生選擇忽視人工智能提出的建議,堅持自己的判斷。
 
如今,MD安德森癌癥中心已宣布暫停與IBM Watson針對腫瘤治療推出的“Watson for Oncology”項目。當然,中止與人工智能合作的并非這一家。從一份來自丹麥的未發(fā)表調(diào)查中可以看到,人機診斷的一致度只有大約33%——所以醫(yī)院決定不購買這套系統(tǒng)。
 
實際上,Watson的問題在于醫(yī)生根本不相信它。人類的信任通常是建立在對他人如何思考及其可靠性的理解之上,這有助于營造一種安全的心理感受。另一方面,人工智能對大多數(shù)人來說仍然是相當新穎且陌生的,它使用復雜的分析系統(tǒng)進行決策,以識別潛在的隱藏模式和來自大量數(shù)據(jù)的“微弱信號”。
 
即使可以從技術(shù)上進行解釋(事實并非總是如此),對于大多數(shù)人而言,人工智能的決策過程通常是難以理解的。而人們與其不理解的事物進行互動,往往會產(chǎn)生焦慮,并讓人有失控的感覺。當然,很多人也不太熟悉人工智能實際工作的諸多案例,畢竟它經(jīng)常在后臺運作。
 
相反,人們對人工智能的出錯卻很“敏感”。比如,堪稱人工智能和機器學習領(lǐng)域的領(lǐng)導廠商——谷歌發(fā)布的“Photos”應(yīng)用曾犯下只看顏色不看臉的錯誤,誤將兩位黑人用戶照片標記為“大猩猩”;微軟推出的名為“Tay”的人工智能機器人在上線不到一天的時間里就成為了“種族主義者”;而一輛特斯拉汽車在自動駕駛模式下與一輛卡車相撞,導致了一場致命的意外事故發(fā)生……
 
這些不幸的案例受到了媒體的大量關(guān)注,進一步突出了“我們不能依賴科技”這樣一種訊息。機器學習并不是萬無一失的,畢竟設(shè)計它的人也會犯錯。
 
人工智能鴻溝
 
科研人員曾經(jīng)做過這樣的一個測試:讓來自不同背景的人觀看關(guān)于人工智能的各種科幻電影,然后詢問他們關(guān)于日常生活中自動化的問題。
 
結(jié)果研究人員發(fā)現(xiàn),不管他們觀看的電影描繪人工智能的方式是積極的還是消極的,只要看到的是對技術(shù)未來的展望,就會讓受試者產(chǎn)生兩極分化的態(tài)度:樂觀主義者對人工智能的熱情會變得更加極端,而懷疑者則變得更加謹慎。
 
這表明人們是以一種帶有偏見的方式使用有關(guān)人工智能的相關(guān)證據(jù)來支持他們現(xiàn)有的態(tài)度的。事實上,這是一種根深蒂固的傾向,又被稱為“驗證性偏見”。
 
隨著有關(guān)人工智能的報道越來越多,它可能會引發(fā)嚴重的社會分化——即在那些受益于人工智能和拒絕人工智能的人之間產(chǎn)生分歧。更有針對性的是,拒絕接受人工智能帶來的好處,可能會讓一大群人處于嚴重的不利地位。
 
幸運的是,關(guān)于如何提高人們對人工智能的信任度,研究人員已經(jīng)有了一些想法。正如在研究中發(fā)現(xiàn)的那樣,簡單地使用人工智能就能顯著改善人們對這項技術(shù)的態(tài)度。這就正如互聯(lián)網(wǎng)甫一出現(xiàn)時,人們同樣秉持懷疑與謹慎的態(tài)度,然而隨著互聯(lián)網(wǎng)的日益普及,人們便逐漸毫無戒心地使用并信任它們。
 
另一種解決方案可能是打開機器學習算法的“黑匣子”,更加透明地展示人工智能是如何工作的。目前,谷歌、推特等公司已經(jīng)發(fā)布了政府要求提供的數(shù)據(jù)請求和監(jiān)控信息透明度報告,類似做法可以幫助人們更好地理解人工智能基于算法所作出的各種決策。
 
研究表明,讓人們更多地參與人工智能的決策過程也可以提高人們的信任度,并能讓人工智能學習人類的經(jīng)驗。例如,一項研究表明,人們可以自由地稍微修改一種算法,這樣做可以使他們對自己的決定更為滿意,更有可能相信它更優(yōu)越,并且更有可能在未來使用它!
 
《科學新聞》 (科學新聞2018年2月刊 AI)
發(fā)E-mail給:      
| 打印 | 評論 |