作者:周彧綜合報道 來源: 發(fā)布時間:2018-7-3 11:42:43
虛假新聞的幕后捕手

 
隨著互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,社交媒體顛覆了傳統(tǒng)紙媒在新聞傳播中無可取代的地位,成為當(dāng)下新聞分享的主要平臺。
 
據(jù)美國皮尤研究中心的報告統(tǒng)計,約有62%的美國人從社交媒體上獲取新聞。盡管新聞與消息的來源獲得了無限的放大,但是當(dāng)讀者在閱讀、分享這些新聞信息時,很難辨識這些內(nèi)容的真假。
 
在2016年美國大選中,不同利益集團(tuán)相互指責(zé)和控訴對方制造和傳播虛假信息的事件至今仍讓人記憶猶新。梳理美國大選背后的假新聞甚至可以發(fā)現(xiàn),制造、傳播虛假新聞已成為一條“灰色”產(chǎn)業(yè)鏈。
 
皮尤研究中心曾做過調(diào)查,約24%的受訪者承認(rèn)曾轉(zhuǎn)發(fā)過社交媒體上的假新聞,約82%的人認(rèn)為自己經(jīng)常在網(wǎng)絡(luò)上看到虛假消息,約64%的人覺得虛假新聞已擾亂了社會的基本秩序。
 
確實(shí),網(wǎng)絡(luò)虛假新聞比真實(shí)新聞傳播得更快、更廣。比如,與擁有準(zhǔn)確醫(yī)療內(nèi)容的帖子相比,那些關(guān)于虛假醫(yī)療信息的網(wǎng)絡(luò)帖子常常能獲得更多的閱讀量和評論。在一個觀眾關(guān)注度有限、內(nèi)容選擇飽和的網(wǎng)絡(luò)世界里,虛假信息似乎對觀眾更有吸引力或更吸引人。
 
而且這一問題正變得越來越嚴(yán)重:到2022年,發(fā)達(dá)經(jīng)濟(jì)體的人們可能會遇到比真實(shí)信息更多的虛假新聞。這可能會導(dǎo)致一種被研究者稱之為“現(xiàn)實(shí)眩暈”的現(xiàn)象——在這種現(xiàn)象中,電腦可以產(chǎn)生如此令人信服的內(nèi)容,以至于普通人可能很難弄清楚什么才是真實(shí)的。
 
怎樣才能讓人類逃脫虛假新聞的陷阱呢?如今,借助人工智能新技術(shù),或許能幫助人類走出黑暗。
 
檢測謊言
 
機(jī)器學(xué)習(xí)算法是人工智能的一種類型。其涉及概率論、統(tǒng)計學(xué)、算法復(fù)雜度理論等多門學(xué)科。幾十年來,通過分析信息的文本并確定某條特定信息是來自真實(shí)的個人交流,或者是大規(guī)模分發(fā)的藥品招標(biāo),抑或是遺失已久的財產(chǎn)索賠的可能性,機(jī)器學(xué)習(xí)算法已經(jīng)取得了成功。
 
在過濾垃圾郵件中,基于文本分析,人工智能系統(tǒng)可以評估一個帖子的文本或標(biāo)題與某人在網(wǎng)上共享文章的實(shí)際內(nèi)容的對比情況。同時,借助人工智能系統(tǒng),可以檢查類似的文章,看看其他新聞媒體是否有不同的事實(shí)。類似的人工智能系統(tǒng)還可以識別出散布虛假新聞的特定賬戶和源網(wǎng)站。
 
不過,這些方法的使用基于這樣的假設(shè),即傳播假新聞的人不會改變他們的方式。然而事實(shí)是,他們經(jīng)常改變策略,操縱虛假帖子的內(nèi)容,以使其看起來更真實(shí),更可信。
 
當(dāng)然,信息的上下文也很關(guān)鍵。詞語的含義會隨著時間的變化而改變。而且同樣的詞在自由網(wǎng)站和保守網(wǎng)站上也可能具有不同的含義。例如,在一個更自由的網(wǎng)站上,一個帶有“維基解密(WikiLeaks)”和“民主黨全國委員會(DNC)”字樣的帖子更有可能是新聞,而在一個保守的網(wǎng)站上,這樣的帖子則可能另有它意?梢,利用人工智能檢測虛假新聞仍面臨很多挑戰(zhàn)。
 
盡管如此,目前已有不少網(wǎng)絡(luò)公司加入到新聞打假行動中。社交網(wǎng)站Facebook正在調(diào)整其算法,以消除其新聞傳播中的虛假新聞。谷歌與事實(shí)檢查網(wǎng)站開展合作,到目前為止,取得的結(jié)果還參差不齊。2016年,由AI團(tuán)體的志愿者舉辦的“虛假新聞挑戰(zhàn)賽”,旨在鼓勵開發(fā)有助于打擊惡意報道的工具。
 
利用人工智能造假
 
然而,利用人工智能檢測虛假新聞的最大挑戰(zhàn)在于,人工智能打假遇上人工智能造假。
 
2017年12月,一段出自國外Reddit論壇的視頻迅速躥紅網(wǎng)絡(luò)。視頻中的藝人的臉其實(shí)是人工智能技術(shù)輔助合成的,但是看起來幾乎毫無破綻。在該視頻中,一種稱之為“deepfakes”的技術(shù)的運(yùn)用充分證明了機(jī)器學(xué)習(xí)系統(tǒng)令人驚嘆的創(chuàng)造能力。所謂deepfakes,簡單來說就是一種人臉交換技術(shù),即在圖像或視頻中把一張臉替換成另一張臉。
 
通過人工智能新技術(shù),不僅人臉可以實(shí)現(xiàn)“移花接木”,口型也可以實(shí)現(xiàn)輕松對應(yīng)。
 
2017年7月,華盛頓大學(xué)的研究人員利用人工智能技術(shù),制作了一段時長1分55秒的美國前總統(tǒng)奧巴馬演講的假視頻,其圖像和聲音都達(dá)到以假亂真的水平。研究團(tuán)隊(duì)設(shè)計了一個人工智能程序,讓其分析互聯(lián)網(wǎng)上奧巴馬的各種音頻和視頻,經(jīng)過17個小時的“自主學(xué)習(xí)”后,人工智能就能通過奧巴馬的聲音,判斷出對應(yīng)的面部細(xì)節(jié),從而模擬出匹配的數(shù)字圖像。
 
新技術(shù)的突破讓眾人驚嘆的同時,引起了人們對該技術(shù)的恐懼和擔(dān)憂。比方說,“換臉術(shù)”“對口型”會給很多無辜清白的公眾人物造成困擾;“假視頻”會加劇虛假新聞的散播,從而大大降低視頻作為證據(jù)的可信度。
 
一旦這些技術(shù)被濫用,由其引發(fā)的道德、倫理、版權(quán)等諸多問題,都將對個人、社會造成難以想象的影響,而且隨著直播、短視頻等平臺生產(chǎn)出大量內(nèi)容,手機(jī)的面部識別功能也開始日益普及,如果這些數(shù)據(jù)被人惡意利用,其后果將無法估量。
 
如今,研究人員已經(jīng)在準(zhǔn)備使用人工智能來識別這些由人工智能制造出來的“假貨”。例如,視頻放大技術(shù)可以檢測人類脈搏的變化,從而確定視頻中的人是真實(shí)的還是由計算機(jī)生成的。
 
但是,隨著技術(shù)的發(fā)展,造假者和打假者都會變得更先進(jìn)。有些“假貨”可能會變得非常復(fù)雜,以至于很難被揭穿——不像前幾代“假貨”,它們使用簡單的語言,并且很容易被反駁。
 
人類的智慧才是關(guān)鍵
 
事實(shí)上,打擊虛假新聞傳播的最好辦法可能還得依靠人類。
 
虛假新聞帶來的社會后果——政治兩極分化加劇,黨派紛爭加劇,以及侵蝕主流媒體和政府的信任度——是非常嚴(yán)重的。如果有越來越多的人知道虛假新聞的風(fēng)險如此之高,他們可能會對這些信息更加謹(jǐn)慎小心,特別是如果這些信息是基于情感的尤為值得警惕,因?yàn)檫@是吸引人們注意力的有效方式。
 
當(dāng)有人看到一個令人憤怒的帖子,那么這個人最好調(diào)查一下這些信息內(nèi)容,而不是馬上分享。分享的行為也為一個帖子增加了可信度:當(dāng)其他人看到這個帖子時,他們覺得這個帖子是由其認(rèn)識的人分享的,而且他們對這個人至少還有點(diǎn)信任,所以不太可能會注意到最初的消息來源是否有問題。
 
現(xiàn)在,像YouTube和Facebook這樣的社交媒體網(wǎng)站,可以自主決定給其網(wǎng)站的內(nèi)容貼上標(biāo)簽,清楚地顯示出新聞欄目是否是由有信譽(yù)的消息來源進(jìn)行證實(shí)的。不僅如此,F(xiàn)acebook創(chuàng)始人馬克·扎克伯格希望動員Facebook用戶的“社區(qū)”來指導(dǎo)其公司的算法,并且Facebook可能會向眾源驗(yàn)證的方向努力。維基百科也提供了一個模型,由專門跟蹤和驗(yàn)證信息的志愿者組成。
 
扎克伯格認(rèn)為,F(xiàn)acebook可以利用與新聞機(jī)構(gòu)和志愿者的合作來訓(xùn)練人工智能,不斷調(diào)整系統(tǒng),以應(yīng)對宣傳者在主題和策略上的變化。盡管如此,人工智能并不能抓住網(wǎng)上發(fā)布的每一條新聞,但是它會讓很多人更容易從虛假信息中獲知事實(shí)。
 
魔高一尺,道高一丈。無論怎樣,這場真假之戰(zhàn)仍將繼續(xù)!
 
《科學(xué)新聞》 (科學(xué)新聞2018年6月刊 AI)
發(fā)E-mail給:      
| 打印 | 評論 |