作者:泉琳 來源: 發(fā)布時(shí)間:2019-3-5 21:13:22
未雨綢繆 打造安全高效的AGI系統(tǒng)

 
毋庸置疑,人工智能已成為當(dāng)下全球的關(guān)鍵詞之一,言必談人工智能甚至變成一些行業(yè)領(lǐng)域的時(shí)髦之舉。
 
人工智能可以下棋、開車和診斷醫(yī)療問題。例如,谷歌DeepMind團(tuán)隊(duì)的AlphaGo、特斯拉的自動駕駛汽車以及IBM的沃森等。
 
這種類型的人工智能被稱為窄域人工智能(ANI),即能夠執(zhí)行某種特定任務(wù)的非人工系統(tǒng)。我們每天都能遇到這種類型的應(yīng)用,并且它的使用正在迅速增長。
 
盡管窄域人工智能已經(jīng)展示了許多令人印象深刻的能力,但是隨之而來的問題也日益浮出水面。去年7月,IBM的沃森為癌癥患者提供了不安全的治療建議遭到曝光,惹來一眾批評與質(zhì)疑,曾經(jīng)是公眾心目中“人工智能”代名詞的沃森甚至被美國媒體稱為“一無是處”。
 
最糟糕的案例發(fā)生在2018年3月18日,一輛正在進(jìn)行自動駕駛測試的沃爾沃XC90與一名行人相撞,行人送往醫(yī)院搶救無效死亡。這項(xiàng)測試是由Uber組織,車輛也由其進(jìn)行了專門的改裝,事故發(fā)生時(shí),車輛正處于自動駕駛模式開啟狀態(tài)。事故發(fā)生后,Uber負(fù)責(zé)人宣布將暫停在舊金山、多倫多等多地的自動駕駛測試項(xiàng)目,而事故仍在調(diào)查中。
 
下一代人工智能
 
基于當(dāng)前人工智能引發(fā)的眾多問題與質(zhì)疑,人們對下一代人工智能寄予了極高的期待。
 
通用人工智能(AGI)將擁有先進(jìn)的計(jì)算能力和人類智能。AGI系統(tǒng)將能夠?qū)W習(xí)、解決問題、適應(yīng)和自我改進(jìn),它們甚至?xí)龀鲎陨碓O(shè)計(jì)范圍的任務(wù)。
 
重要的是,它們的進(jìn)步速度可能是指數(shù)級的,因?yàn)樗鼈儽热祟悇?chuàng)造者先進(jìn)得多。而且,AGI的引入可以迅速帶來超級人工智能(ASI)。
 
雖然功能完備的AGI系統(tǒng)尚未建立,但幾乎可以肯定的是,它們最終會實(shí)現(xiàn)。到那時(shí),我們會不可避免地心生擔(dān)憂,擔(dān)心自己無法控制它們。
 
毫無疑問,能夠完成各種任務(wù)的AGI系統(tǒng)可以為世界帶來翻天覆地的變化。其中也包括了一些更強(qiáng)大的應(yīng)用,比如治療疾病,解決諸如氣候變化和糧食安全等復(fù)雜的全球挑戰(zhàn),以及在全球范圍內(nèi)掀起一場技術(shù)熱潮。
 
這樣的前景無不讓人向往。但如果不能實(shí)施適當(dāng)?shù)目刂,可能會?dǎo)致災(zāi)難性的后果,類似的場景早已在好萊塢科幻電影里預(yù)先演繹。
 
事實(shí)上,“我們真正應(yīng)該擔(dān)心的不是人工智能的惡意,而是它的能力。”麻省理工學(xué)院教授Max Tegmark曾在2017年出版的《生活3.0:人工智能時(shí)代的人類》一書中如是指出。
 
基于此,以人類因素和人體工程學(xué)著稱的人機(jī)系統(tǒng)的科學(xué)將脫穎而出。不過,我們不能忽視這樣的風(fēng)險(xiǎn),即超級智能系統(tǒng)將識別出更有效的做事方式,為實(shí)現(xiàn)目標(biāo)制定自己的策略,甚至制定自己的目標(biāo)。
 
想象一下這些情況一旦發(fā)生,將會帶來怎樣的可怕后果。
 
情況一:一個(gè)AGI系統(tǒng)的任務(wù)是預(yù)防艾滋病病毒,它決定通過殺死所有攜帶這種病毒的人來根除這個(gè)問題,或者一個(gè)AGI系統(tǒng)的任務(wù)是治愈癌癥,它決定殺死所有具有這種疾病遺傳易感性的人。
 
情況二:一架自主的AGI軍用無人機(jī)決定,確保敵人目標(biāo)被摧毀的唯一方法是消滅整個(gè)地區(qū)。
 
情況三:致力于環(huán)境保護(hù)的AGI決定減緩或逆轉(zhuǎn)氣候變化的唯一方法是消除導(dǎo)致氣候變化的技術(shù)和人類。
 
這些假想中的場景無疑讓我們倒吸一口冷氣,其中的這些人工智能系統(tǒng)都沒有將人類的關(guān)注作為它們的核心任務(wù)。
 
值得注意的是,一些不那么極端但仍具有重大影響的干擾,比如惡意使用AGI進(jìn)行恐怖主義和網(wǎng)絡(luò)攻擊、大規(guī)模監(jiān)控等同樣令人擔(dān)憂。
 
因此,有必要采用以人為本的方式,對設(shè)計(jì)和管理AGI的最安全方式進(jìn)行調(diào)查,以最大限度地降低風(fēng)險(xiǎn),并將效益最大化。
 
控制AGI
 
控制AGI并不像應(yīng)用同樣的控制方法來控制人類那樣簡單。
 
對人類行為的許多控制依賴于我們的意識、情感和道德價(jià)值的應(yīng)用。而AGI系統(tǒng)則不需要這些。不過,目前控制AGI的形式顯然是不夠的。
 
科研人員指出,目前有三組控件需要立即進(jìn)行開發(fā)和測試:一是確保AGI系統(tǒng)的設(shè)計(jì)人員和開發(fā)人員創(chuàng)建安全AGI系統(tǒng)所需的控件;二是需要構(gòu)建到AGI系統(tǒng)自身中的控件,如“常識”、道德、操作流程、決策規(guī)則等等;三是需要添加到AGI將運(yùn)行的更廣泛的系統(tǒng)中的控件,如法規(guī)、操作規(guī)范、標(biāo)準(zhǔn)操作程序、監(jiān)控系統(tǒng)和基礎(chǔ)設(shè)施。
 
在AGI系統(tǒng)出現(xiàn)之前,人類因素和人體工程學(xué)提供了可以用來識別、設(shè)計(jì)和測試這些控件的方法。例如,可以對特定系統(tǒng)中存在的控件進(jìn)行建模,對該控制結(jié)構(gòu)中AGI系統(tǒng)的可能行為進(jìn)行建模,并識別安全風(fēng)險(xiǎn)。這將讓我們得以識別哪些地方需要新的控制,設(shè)計(jì)它們,然后重新建模,以查看是否因此消除了風(fēng)險(xiǎn)。
 
此外,我們的認(rèn)知和決策模型可以用來確保AGI系統(tǒng)行為表現(xiàn)得當(dāng),并具有人文價(jià)值。
 
實(shí)際上,這類研究正在進(jìn)行中,但還遠(yuǎn)遠(yuǎn)不夠,涉及的學(xué)科也不夠。
 
就連備受矚目的科技企業(yè)家Elon Musk也對人類面臨著來自高級人工智能的“生存危機(jī)”發(fā)出了警告,并表示有必要在一切還來得及之前對人工智能進(jìn)行監(jiān)管。
 
眼下,球在人類這邊,但并不會持續(xù)太久。對人工智能而言,未來十年左右將是一個(gè)關(guān)鍵期。人類有機(jī)會創(chuàng)建安全高效的AGI系統(tǒng),為社會和人類帶來深遠(yuǎn)的利益!
 
《科學(xué)新聞》 (科學(xué)新聞2019年2月刊 AI)
發(fā)E-mail給:      
| 打印 | 評論 |