作者:李正風(fēng) 來(lái)源: 發(fā)布時(shí)間:2025-3-1 10:0:28
AI for Science:強(qiáng)化科研倫理規(guī)范 防止AI技術(shù)濫用

  AI for Science是指人工智能(AI)賦能科學(xué)研究,目的是依托AI技術(shù)的進(jìn)步提升科研能力,促進(jìn)科學(xué)發(fā)展。AI對(duì)人類認(rèn)知行為的技術(shù)性替代不斷加強(qiáng),從肢體感官上升到大腦,進(jìn)而滲透到人類認(rèn)知行為的不同環(huán)節(jié)。換言之,在認(rèn)知和決策方面,人類把一部分功能或是一部分“權(quán)力”讓渡給了AI系統(tǒng)。

  AI for Science有可能創(chuàng)造性地融合以往多種科研范式。如今人類已置身于一個(gè)數(shù)字化、網(wǎng)絡(luò)化的科學(xué)世界,傳統(tǒng)的經(jīng)驗(yàn)研究、理論研究或計(jì)算模擬,都因此受到多方面沖擊。在走向智能化的過(guò)程中,除了機(jī)器學(xué)習(xí)和大語(yǔ)言模型的運(yùn)用,還需要結(jié)合特定領(lǐng)域的科學(xué)理論設(shè)計(jì)和新的模型、算法的開發(fā),憑借足夠的算力支持,AI技術(shù)能夠跨越時(shí)空,整合不同學(xué)科領(lǐng)域積累的豐富經(jīng)驗(yàn)和數(shù)據(jù),進(jìn)行高效模擬與計(jì)算。

  AI for Science與以往科研過(guò)程中對(duì)人類認(rèn)知行為的技術(shù)性替代的一個(gè)很大的區(qū)別在于,它是開放且不斷進(jìn)化的社會(huì)技術(shù)系統(tǒng)。AI技術(shù)的譜系很長(zhǎng),并且在不斷進(jìn)化,同時(shí)還需要一系列數(shù)字技術(shù)和基礎(chǔ)設(shè)施作為支撐。因此,如今AI for Science中“唱主角”的不單是大學(xué)或科研機(jī)構(gòu),還包括一些AI研發(fā)企業(yè)。這使得AI for Science成為一種變革更徹底、影響更深遠(yuǎn)的技術(shù)性替代。這種技術(shù)性替代意味著更高的技術(shù)壁壘,會(huì)在科學(xué)知識(shí)生產(chǎn)能力上形成更大、更難以超越的代際差異。所以各國(guó)都高度重視利用AI技術(shù)重構(gòu)科研系統(tǒng),如美國(guó)、英國(guó)政府先后發(fā)布AI for Science的戰(zhàn)略研究報(bào)告和相應(yīng)的行動(dòng)策略。

  如今在科研中被廣泛應(yīng)用的生成式AI就是一個(gè)典型案例。生成式AI帶來(lái)的機(jī)遇和挑戰(zhàn)并存,不能簡(jiǎn)單地否定其為科研帶來(lái)的福祉和新機(jī)遇。如果錯(cuò)失了這個(gè)歷史性機(jī)遇,代際差異將會(huì)被拉大。同時(shí)也應(yīng)該看到生成式AI給科學(xué)知識(shí)生產(chǎn)帶來(lái)的顛覆性影響,主動(dòng)迎接挑戰(zhàn)。

 

生成式AI帶來(lái)倫理挑戰(zhàn)

 

  2023年7月7日,《自然》新聞欄目曾做了一項(xiàng)實(shí)驗(yàn),兩位科學(xué)家借助ChatGPT在一個(gè)小時(shí)內(nèi)撰寫出一篇相對(duì)完整的研究論文。同年10月,另一項(xiàng)《自然》的調(diào)查結(jié)果顯示,全球超過(guò)31%的博士后研究人員經(jīng)常使用ChatGPT。早在2022年底,《斯坦福日?qǐng)?bào)》進(jìn)行了一項(xiàng)調(diào)查,結(jié)果顯示17%的學(xué)生曾使用ChatGPT完成秋季學(xué)期的作業(yè)和考試,這也是后來(lái)一段時(shí)間美國(guó)大學(xué)教授反對(duì)在大學(xué)中使用ChatGPT的原因。

  截至目前,如何對(duì)待生成式AI應(yīng)用于科研尚未有定論,人們的態(tài)度在不斷變化,從最開始堅(jiān)決反對(duì),到逐漸允許嘗試,再到鼓勵(lì)合規(guī)使用。如今,已經(jīng)沒(méi)有高校或期刊會(huì)繼續(xù)頑固地堅(jiān)持一定不能使用ChatGPT等生成式AI,但由此帶來(lái)的科研倫理問(wèn)題不可忽視。

  首先是生成式AI與學(xué)術(shù)不端的聯(lián)系。2023 年,《自然》對(duì) 1600 名研究人員進(jìn)行了一項(xiàng)調(diào)查,68% 的受訪者表示,AI將使剽竊更容易,也更難被發(fā)現(xiàn)。生成式AI在統(tǒng)計(jì)分析時(shí),對(duì)于結(jié)果一致性和應(yīng)用更高級(jí)的統(tǒng)計(jì)方法表現(xiàn)出局限性,不具備高級(jí)學(xué)科必要的專業(yè)知識(shí),并不能在前沿問(wèn)題上給出準(zhǔn)確答案。最令人擔(dān)心的是,一旦虛假的學(xué)術(shù)論文進(jìn)入公開的學(xué)術(shù)數(shù)據(jù)庫(kù)、被引入學(xué)術(shù)交流的生產(chǎn)鏈之后,再想對(duì)其進(jìn)行清理會(huì)非常困難。由此可見,這類型的學(xué)術(shù)不端不僅影響知識(shí)生產(chǎn),還會(huì)影響所有在這些知識(shí)成果上進(jìn)行的決策。

  其次,生成式AI會(huì)對(duì)科學(xué)家的職業(yè)倫理造成影響。以往,科研人員是知識(shí)產(chǎn)品的直接負(fù)責(zé)人,對(duì)所生產(chǎn)的知識(shí)負(fù)有直接且唯一的責(zé)任,也承擔(dān)知識(shí)或技術(shù)產(chǎn)品帶來(lái)的風(fēng)險(xiǎn)。但AI技術(shù)和人類知識(shí)生產(chǎn)者形成了一種前所未有的新型人—機(jī)關(guān)系,未來(lái)可能難以嚴(yán)格區(qū)分使用者與其所依賴的AI工具。另外,當(dāng)高級(jí)研究者與教育者面對(duì)學(xué)生更加熟練、更有技巧地使用生成式AI時(shí),師生關(guān)系也可能發(fā)生顛覆。

  更為重要的是,生成式AI生成知識(shí)產(chǎn)品的過(guò)程所蘊(yùn)含的技術(shù)特征與科學(xué)家的職業(yè)倫理要求產(chǎn)生沖突。比如,來(lái)自數(shù)字健康領(lǐng)域的學(xué)者對(duì)生成式AI能否捕捉到護(hù)理學(xué)科的道德價(jià)值觀和核心原則表示擔(dān)憂,因?yàn)樽o(hù)理學(xué)強(qiáng)調(diào)對(duì)患者的同情、同理心、關(guān)懷、尊重,但生成式AI作為一種技術(shù)工具,對(duì)這種倫理關(guān)懷是無(wú)知的。

  除此之外,生成式AI對(duì)于人類學(xué)術(shù)創(chuàng)造力的影響也值得高度關(guān)注。一些學(xué)者認(rèn)為,ChatGPT等生成式AI的使用會(huì)導(dǎo)致學(xué)術(shù)創(chuàng)造力的喪失,致使學(xué)術(shù)獨(dú)創(chuàng)性原則受到挑戰(zhàn)。在這種情況下,更需要對(duì)科研應(yīng)當(dāng)秉持的獨(dú)創(chuàng)性原則進(jìn)行反思。如今的生成式AI的高級(jí)認(rèn)知能力還較低,如果對(duì)其產(chǎn)生技術(shù)依賴,可能帶來(lái)降低科研人員獨(dú)立探索、自主思考和獨(dú)立解決問(wèn)題的積極性等風(fēng)險(xiǎn)。因此,堅(jiān)持科研獨(dú)創(chuàng)性,使得科學(xué)知識(shí)生產(chǎn)作為社會(huì)職業(yè)所具有的獨(dú)特特征和價(jià)值得到維護(hù),是科研人員共同的使命。

  時(shí),AI可能會(huì)導(dǎo)致科研中產(chǎn)生新的不平等。在AI for Science的時(shí)代,新的不平等表現(xiàn)在不同領(lǐng)域、國(guó)別、年齡、職業(yè)、學(xué)歷等因素上。傳統(tǒng)領(lǐng)域中卓有成就的學(xué)者的地位可能因此受到影響甚至顛覆。獲得和使用AI技術(shù)的差異,也會(huì)帶來(lái)教育和科研領(lǐng)域新的分化和分層。在如今大學(xué)鼓勵(lì)使用深層次AI輔助教育和研究的背景下,這是一個(gè)亟待解決的問(wèn)題。

 

長(zhǎng)時(shí)段、包容性的“社會(huì)實(shí)驗(yàn)”

 

  對(duì)于如何在科研中合規(guī)地使用AI,是一項(xiàng)多樣性、長(zhǎng)時(shí)段的“社會(huì)實(shí)驗(yàn)”。比如,哈佛大學(xué)認(rèn)為,隨著技術(shù)迭代和發(fā)展,其社會(huì)影響將會(huì)在較長(zhǎng)時(shí)間內(nèi)呈現(xiàn)出比較復(fù)雜的局面,需要人們?cè)谶@場(chǎng)“實(shí)驗(yàn)”中探索怎樣更好地實(shí)踐這個(gè)過(guò)程。哈佛大學(xué)將AI的使用權(quán)利交給全體師生,并且保留學(xué)校根據(jù)技術(shù)的迭代和教學(xué)實(shí)驗(yàn)的發(fā)展進(jìn)行政策調(diào)整的權(quán)利。

  事實(shí)上,沒(méi)有任何一種倫理原則能夠解決當(dāng)下人類遇到的所有問(wèn)題,多種倫理立場(chǎng)并存和利益相關(guān)者的磋商至關(guān)重要,新的實(shí)踐智慧將在這一過(guò)程中凝練而生。要在使用AI新技術(shù)的多元、包容的“社會(huì)實(shí)驗(yàn)”中發(fā)現(xiàn)好的實(shí)踐模式,識(shí)別可能出現(xiàn)的社會(huì)倫理問(wèn)題。要防止極端認(rèn)識(shí)的產(chǎn)生,如過(guò)度將AI放在崇高的位置、過(guò)度輕視AI以壓制多元探索的可能,尤其警惕用過(guò)去經(jīng)驗(yàn)在未來(lái)挑戰(zhàn)中做簡(jiǎn)單裁決。通過(guò)這樣的“社會(huì)實(shí)驗(yàn)”,人們會(huì)找到更好地與AI相互協(xié)調(diào)的方式。

  對(duì)于AI帶來(lái)的學(xué)術(shù)不端,需要進(jìn)行有效的識(shí)別和深層治理,充分利用技術(shù)本身來(lái)應(yīng)對(duì)技術(shù)帶來(lái)的風(fēng)險(xiǎn)或許是一個(gè)不錯(cuò)的思路。應(yīng)該加快開發(fā)生成式AI的檢測(cè)技術(shù),防止科研中的技術(shù)濫用。要堅(jiān)持精準(zhǔn)治理,完善對(duì)于利用生成式AI代寫論文、數(shù)據(jù)造假等科研不端行為的監(jiān)管體系。

 

防止AI技術(shù)濫用

 

  對(duì)于科研人員而言,在具備AI勝任力的同時(shí),還必須具備AI時(shí)代普遍的倫理素養(yǎng)。可以說(shuō),同時(shí)具有技術(shù)素養(yǎng)和倫理素養(yǎng)已經(jīng)成為科研智能化時(shí)代防止AI技術(shù)濫用的內(nèi)在要求。如歐洲一些大學(xué)已提出詳細(xì)的AI使用原則,包括大學(xué)支持學(xué)生和教職員工建立良好的AI素養(yǎng),教職人員應(yīng)該具備能力支持學(xué)生在學(xué)習(xí)過(guò)程中有效且適當(dāng)?shù)厥褂蒙墒紸I,調(diào)整教學(xué)評(píng)估并納入生成式AI的道德使用,支持平等的獲取,確保學(xué)術(shù)嚴(yán)謹(jǐn)性和誠(chéng)信得到維護(hù)等。

  AI的發(fā)展也為人們反思人類認(rèn)知過(guò)程提供了良好的契機(jī),使科學(xué)家認(rèn)識(shí)到以往的研究工作中可以通過(guò)技術(shù)手段來(lái)提高效率和質(zhì)量的部分以及真正不可替代的部分,即人類創(chuàng)造力真正之所系。

  在這個(gè)過(guò)程中,探索科研場(chǎng)景下AI技術(shù)的價(jià)值對(duì)齊是不可忽視的工作。科研規(guī)范已經(jīng)相當(dāng)明確且得到廣泛認(rèn)同。然而,要使技術(shù)真正符合這些規(guī)范,仍有許多問(wèn)題需要解決,也需要更多前瞻性研究!

(作者系清華大學(xué)教授,見習(xí)記者蒲雅杰整理)

 
《科學(xué)新聞》 (科學(xué)新聞2024年12月刊 封面)
發(fā)E-mail給:      
| 打印 | 評(píng)論 |