作者:記者 高雅麗   見習記者 江慶齡 來源: 發(fā)布時間:2025-3-1 10:0:28
中國科學院院士梅宏:
面對AI熱潮,科技倫理治理要跟上

  “智能是人類區(qū)別于其他動物的專有特征,特別是認知能力。我們可以接受機器在感知能力方面超越人類,但對機器認知智能的研發(fā),需要高度審慎。從科技倫理的視角來看,我們?yōu)槭裁匆斐鲆粋替代我們認知的東西?”

  2024年11月22日,在以“跨越邊界的科技倫理”為主題的第二屆中國科技倫理高峰論壇上,中國科學院院士、北京大學教授梅宏直指當前數(shù)字技術(shù)面臨的倫理挑戰(zhàn)。

  從智能制造到智慧城市,從醫(yī)療健康到金融服務(wù),當前大語言模型火爆,人工智能(AI)風頭正盛。梅宏認為,AI熱潮中泡沫太大,仍處于技術(shù)成熟度曲線的高峰階段,喧囂埋沒理性,需要一個冷靜期。

  他強調(diào),雖然基于當前的技術(shù)路徑,大模型尚不能“無中生有”、做出超越人類預(yù)期的事情,但一味信奉“蠻力”、追求規(guī)模,也極易發(fā)展出在覆蓋面和復(fù)雜度上令人們難以掌控的“巨獸”。

 

“拿著手機讀不到有價值的內(nèi)容”

 

  在經(jīng)歷了兩個“春天”和兩個“冬天”后,AI迎來了第三個“春天”,深度學習技術(shù)帶來的一次次突破不斷刷新著人們對AI的認知。

  但是,從臉書(Facebook)數(shù)據(jù)泄露到大模型生成內(nèi)容引發(fā)侵權(quán)糾紛和虛假信息傳播,數(shù)字技術(shù)在為人類社會經(jīng)濟發(fā)展帶來益處的同時,也帶來了數(shù)據(jù)隱私保護、算法偏見、責任認定等一系列倫理問題。

  例如,就當前大語言模型的技術(shù)路線而言,“黑盒”導(dǎo)致的不可解釋性是其最大“罩門”,如果不加任何規(guī)制而大量應(yīng)用,可能導(dǎo)致人類知識體系面臨嚴峻挑戰(zhàn)。訓練語料的質(zhì)量缺陷、概率統(tǒng)計的內(nèi)生誤差等因素會導(dǎo)致大模型產(chǎn)生幻覺,生成錯誤內(nèi)容;再加上人為干預(yù)誘導(dǎo),極易生成虛假內(nèi)容。

  “通過算法,平臺可以個性化推送內(nèi)容,但也可能形成用戶的信息繭房。我最近最大的困擾是拿著手機卻讀不到想讀的有價值的內(nèi)容。”梅宏表示,目前幾乎大部分網(wǎng)絡(luò)平臺都在AI算法和大數(shù)據(jù)驅(qū)動下運營,這就帶來對算法和數(shù)據(jù)應(yīng)用的有效監(jiān)管問題,這些亟待通過建立完善的治理體系加以解決。當涉及平臺跨境時,還需要有相應(yīng)的國際治理體系。

 

現(xiàn)實情況不盡如人意

 

  當前,社會對“AI+”或“AI for everything”(一切皆人工智能)抱有很高的期望。然而,現(xiàn)實情況卻不盡如人意。

  “雷聲隆隆,雨點并不大。”梅宏坦言,“從當前的熱潮中,我看到了太多‘炒作’和‘非理性’導(dǎo)致的 AI‘過熱’現(xiàn)象,也對當前AI發(fā)展技術(shù)路徑多樣性的欠缺產(chǎn)生了一些擔憂。”

  “大語言模型的成功依賴于人類長時間積累的龐大語料庫,文生視頻的成功也依賴于互聯(lián)網(wǎng)上存在的海量視頻。然而,其他行業(yè)的數(shù)據(jù)積累尚未達到這個量級。獲取全數(shù)據(jù),關(guān)鍵是跨越足夠的時間尺度。”梅宏表示,AI的應(yīng)用還需要經(jīng)歷一段時期的探索、磨合和積累,才可能迎來繁榮。

  “在我看來,AI當前的問題有3個:泡沫太大,仍處于技術(shù)成熟度曲線的高峰階段,喧囂埋沒理性,需要一個冷靜期;以偏概全,對成功個案不顧前提地放大、泛化,過度承諾;期望過高,用戶神化AI的預(yù)期效果,提出難以實現(xiàn)的需求。”梅宏說。

  面對AI技術(shù)發(fā)展及其應(yīng)用現(xiàn)狀,梅宏建議,在尚搞不清如何應(yīng)用、用到何處時,不妨先積累數(shù)據(jù),“可采盡采、能存盡存”。

 

沒有跳出概率統(tǒng)計框架

 

  那么,大語言模型能走向通用人工智能嗎?梅宏認為,從基本原理來看,目前的大語言模型沒有跳出概率統(tǒng)計這個框架。

  梅宏并不認為現(xiàn)在的AI有所謂“意識”或者知識涌現(xiàn)能力。以大語言模型為例,模型本身無法產(chǎn)生新的東西,其生成的內(nèi)容取決于對大量文本內(nèi)容的統(tǒng)計,如果某些內(nèi)容反復(fù)出現(xiàn),它們大概率就會將之視為“合理存在”的內(nèi)容。

  “就這個意義而言,大模型可被視為由已有語料壓縮而成的知識庫,生成結(jié)果的語義正確性高度依賴于數(shù)據(jù)的空間廣度、時間深度以及分布密度,更高度依賴于數(shù)據(jù)的質(zhì)量。”梅宏提到,學術(shù)界的研究更應(yīng)關(guān)心大模型構(gòu)建過程的可重復(fù)性和可追溯性,盡可能保證結(jié)果的可解釋和可信任。

  “大膽預(yù)測,作為壓縮了人類已有可公開訪問的絕大多數(shù)知識的基礎(chǔ)模型,大語言模型將像互聯(lián)網(wǎng)一樣走向開源。全世界共同維護一個開放共享的基礎(chǔ)模型,盡力保證其與人類知識同步。”梅宏說,“這至少也是表達自己的一種期望。”

 

適時調(diào)整倫理審查的復(fù)核清單

 

  “發(fā)明技術(shù)的最終目的是為了讓人類的生活變得更好,毫無疑問應(yīng)該充分考慮技術(shù)可能帶來的倫理問題。”梅宏表示,在AI快速發(fā)展的熱潮下,需要對可能的風險進行研判,并提醒科技工作者時刻牢記科技向善、以人為本。

  隨著數(shù)字技術(shù)的發(fā)展,科技倫理治理也應(yīng)當跟上。梅宏強調(diào),目前應(yīng)當完善科技倫理治理體制機制,明確數(shù)字技術(shù)領(lǐng)域的治理重點和安全護欄,對數(shù)字技術(shù)進行分級分類治理,同時建立健全生成式人工智能(AIGC)的主動披露標注制度并開展相關(guān)技術(shù)研究。

  那么,數(shù)字技術(shù)領(lǐng)域是否應(yīng)該存在研究禁區(qū)?梅宏認為,在基礎(chǔ)研究階段一般不做限制,涉及對人的認知能力調(diào)控、違背人的自由意志的研究應(yīng)列為禁區(qū)。在技術(shù)和產(chǎn)品應(yīng)用階段,要根據(jù)具體場景及影響來確定。

  “例如大規(guī)模遠程監(jiān)控、自主決策的社會評價體系、操縱個人意識和行為并造成個體或他人身體或心理傷害的技術(shù),以及以超越或替代人的認知能力為目標的AI技術(shù)研發(fā),應(yīng)當受到限制。”梅宏說。

  同時他表示,數(shù)字技術(shù)領(lǐng)域的研究禁區(qū)應(yīng)該建立動態(tài)調(diào)整機制,適時調(diào)整倫理審查的復(fù)核清單。

  此外,梅宏呼吁建立AI生成內(nèi)容的披露標準機制,建立涵蓋大模型開發(fā)者、創(chuàng)作者、使用者的標注責任機制;鼓勵多條技術(shù)路線推進大模型生成內(nèi)容標注技術(shù)研發(fā);完善大模型內(nèi)容審核制度規(guī)范和檢測技術(shù)開發(fā);推進相關(guān)標準和規(guī)范制定并將之國際化!

 
《科學新聞》 (科學新聞2024年12月刊 封面)
發(fā)E-mail給:      
| 打印 | 評論 |