您找過以下的關鍵字

尚無搜尋紀錄

科學人雜誌, 十一月

科學人雜誌, 十一月

出版社 : 遠流出版事業股份有限公司

可訂購

定價 : NT 280

售價9折, NT252

內容簡介


封面故事:我們在看假新聞?
新聞、謊言、假影片
人工智慧讓每一個人都能輕易篡改影音,
最大的威脅將是我們不再相信任何事。

撰文/波瑞爾(Brooke Borel)
翻譯/鍾樹人

2018年4月,網路上出現一段美國前任總統歐巴馬的新影片,背景裡有美國的國旗與總統旗,看起來就像他以前的諸多談話影片。穿著平整的白襯衫與深色西裝,歐巴馬面對攝影機,伸出雙手來強調自己說的話:「川普總統是不折不扣的笨蛋。」

沒有露出一絲笑容,他繼續說:「嘿,你們知道,我從來不說這些話,至少不會是公開演說,但其他人會。」這時畫面分割成兩半,演員皮爾(Jordan Peele)出現了,歐巴馬沒有說任何話--這段影片是融合皮爾的模仿與歐巴馬的實際演說而成。兩人並列的畫面繼續傳遞著訊息,這時皮爾就像數位時代的腹語師,把更多話假借歐巴馬的嘴說出。

在假新聞肆虐的這個年代,這段影片是BuzzFeed新聞所製作的公共服務宣導,展示了應用人工智慧(artificial intelligence, AI)新技術的應用程式,它修改影音的方式就像Photoshop處理數位影像一樣:可讓人們篡改事實。

影片還相當粗略。仔細觀看並聆聽,會發現歐巴馬的聲音帶有鼻音,他的嘴(融合了皮爾的嘴)在幾個短暫片刻會偏離中心晃動。但是這項技術(為了好萊塢電影剪輯師和電玩廠商所設計)快速進展,已讓一些國家安全專家和媒體專家想到科技黑暗面。這些工具或許有一天能憑空創造出令人信服的假影片--並非像歐巴馬的談話那般修改自既有的影片,而是精心安排且從未發生過的情節。

假影片對大眾認知與公共論述可能造成深遠的影響。例如美國今年11月舉行的期中選舉,假如勢均力敵的選戰中有一部假影片抹黑了某位政治人物,試想所造成的衝擊;或者某企業公開發行股票的前一晚,執行長遇襲;或是一群人假裝發動恐怖攻擊,欺騙新聞媒體報導,進而引發人們本能般的報復。儘管某部瘋傳的影片後來證實是假的,大眾會不會依舊相信影片內容為真?或許最令人困擾的是:如果造假成為常態,讓我們不再相信多數看到或聽到的事物,包括真相,那該怎麼辦?

很多科技專家體認到AI生成影片技術可能大量濫用。美國史丹佛大學法律教授波西利(Nate Persily)表示,科技專家把焦點放在「偵測假影音的解決方案時,反倒很少花時間釐清這些方案是否讓人們不再相信假影片。」波西利研究的一項主題是網路如何影響民主,他和一群研究人員主張,單靠技術方面的解決方案,無法成功遏止瘋傳的假資訊(disinformation)。遏止假資訊需要心理學家、社會科學家和媒體專家共同出力,協助思索這項AI技術如何在真實世界中落實。

波西利說:「我們現在就必須做到這一點,因為科技專家此時(必然會)主導AI生成影片可能導致後果的討論。」我們對於政府和新聞業這類民主機制的信任已經減弱。既然社群媒體是假資訊的主要傳播管道,今天發佈假新聞的人更可輕易利用我們了。沒有適當的解決方案來因應漸趨成熟的技術,我們脆弱的集體信任將面臨更大的危機。

電腦虛構場景
假影片的發展可追溯到1960年代,人們第一次想到可以利用電腦製作影像。1980年代,這些特效成為主流,影迷看著這項技術與時俱進,從科幻電影到1994年「阿甘正傳」(Forrest Gump)主角阿甘跟美國總統甘迺迪握了手,2016年「星際大戰外傳:俠盜一號」(Rogue One)則是讓已過世的演員庫興(Peter Cushing)和費雪(Carrie Fisher)身影重現。南加州大學的資訊科學助理教授黎顥(Hao Li)是擴增實境(AR)新創公司Pinscreen執行長,他表示,這項技術的目標一直是「創造可以上演任何故事的數位世界。我們如何能創造看似真實的東西,但實際上都是虛擬的?」

早期,這些圖像大多出自藝術家,他們使用電腦建立3D模型,然後手工繪製紋路與其他細節;這個過程冗長,無法擴大規模。大約20年前,一些電腦視覺研究人員開始以不同方式思考圖像:與其花時間在個別模型上,何不教電腦根據資料建立模型?1997年,美國區間研發公司(Interval Research Corporation)的科學家開發出「影片重寫」(Video Rewrite)軟體,能把既有影片分割成片段,然後重新編排。研究人員製作了一小段影片,內容是甘迺迪說:「我從未跟阿甘見過面。」不久之後,德國馬克士普朗克生物模控研究所的科學家教導電腦從200張人臉的3D掃描資料集裡抓取特徵,然後製作新的臉孔影像。

近來隨著一種名為深度學習(deep learning)的AI進展,電腦視覺、資料與自動化之間最大的突破應該是在2012年。1990年代晚期的研究是使用靜態資料,而且並未改善;深度學習則不同,不但可調整功能,而且會漸入佳境。德國馬克士普朗克科學史研究所的博士後研究員李曉昌(Xiaochang Li,音譯)表示,這項技術把臉孔影像這類物件簡化成位元資料,「這時工程師會說,我們不再依據某物建立模型。我們對某物一無所知,只是運算資料來了解模式、建立模型。」

深度學習使用一道道簡單的數學方程式,其數學模型稱為類神經網路(neural network),深度學習隨著時間精通任務。例如資訊科學家可以教深度學習工具辨識人臉,方法是輸入成千上萬張影像,而且逐次說明「這是一張臉」或「這不是一張臉」。之後,當這種工具接收到新的人臉影像,就能辨識出構成人臉特徵的模式,然後(從統計上)回應「這也是一張臉」。

接續推出的新技術能夠虛構出看起來像真人臉孔的影像,其深度學習工具就是所謂的生成網路(generative network)。運用的是相同邏輯:資訊科學家以成千上萬張影像來訓練生成網路,但生成網路是根據從範例中蒐集的模式來製作新臉孔影像。現在有些公司使用相同的策略來處理音檔。今年稍早,Google發表Duplex,它是基於WaveNet軟體的AI助理;Duplex能撥打電話,聽起來像真人說話,還會加上語氣停頓,例如「呃」、「嗯」。將來,製作政客的假影片或許就不需要皮爾這類演員。去年4月時,加拿大新創公司Lyrebird發表了音檔範例,聽起來就像歐巴馬、川普、希拉蕊在說話,令人不寒而慄。

但生成網路需要巨量資料集進行訓練,這可能耗費大量人力。改善虛構內容的下一步是教AI訓練自己。2014年,加拿大蒙特婁大學的研究人員以生成對抗網路(generative adversarial network, GAN)做到這一點,方法是讓兩個類神經網路進行對抗。其一是生成網路,負責製作假影像,另一是鑑別網路,學習辨別影像的真偽。在幾乎沒人監督的情況下,GAN透過對抗方式訓練彼此;鑑別網路辨別生成網路所製作越來越逼真的假影像,而生成網路不斷想騙過鑑別網路。GAN可以製作任何數位內容。加州大學柏克萊分校的科學家發展出一種GAN,可以把馬的影像變成斑馬影像,或是把莫內這類印象派藝術家的畫作變成如相片般真實的景色。

編者的話:台灣的氣候政策在哪裡?
「請容我問最後一個問題。漢森博士,您對氣候變遷、再生能源及核能有如此深入及堅定的看法,此次來台灣,對我們的政府有何建言?」這是我的提問,9月底「泛科學」總編輯鄭國威主持的「毀滅」座談會中,主角是2018年唐獎永續發展獎兩位桂冠之一的漢森(James E. Hansen)。唐獎委員會對這位地球科學家的禮讚是:表彰其對氣候變遷發出警訊,闡明氣候變遷作用力與回饋機制的物理特性,並將全球暖化的威脅以量化數據呈現,更不遺餘力的倡導有意義的行動與解決方法。

漢森要趕赴機場,留下了這簡答:「我確實有備而來,帶了大量資料和想法。但遺憾又尷尬的是,沒有任何官員理會或詢問我任何問題。」唐獎是全球學術界獎金最豐厚的榮耀,2014年首屆生技醫藥獎的兩位得主艾利森(James P. Allison)與本庶佑(Tasuku Honjo)同獲今年諾貝爾生醫獎,足證唐獎遴選委員之嚴謹及遠見。漢森以圖表簡要說明,現今大氣中二氧化碳濃度與全球增溫趨勢尚未完全同步,原因是海洋扮演了緩衝角色。但當海水吸收的二氧化碳到達飽和時,災難將瞬間來臨,那是人類無以承受的巨變。他極力主張核能是現今最佳的選項,但不幸的是,少數人綁架了民意,以反科學的方式挑起大眾對核能的恐懼。他認為目前再生能源遠不足以滿足人類的需求,節能的效果又有限,各國都該理性面對這嚴肅議題。

聯合國跨政府氣候變遷研究小組(IPCC)的最新報告在10月初出爐,40個國家91位作者參考6000篇文獻,提出了絕對警示:人類必須把全球增溫控制在1.5℃以內,這是2015年巴黎協定在無深入研究前訂下的目標,現今已知情況之嚴重遠超預期;全球必須採取主動、積極的措施方能免難,溫室氣體的排放量得在2030年降至2010年的55%,也就是今年排放量的40%,努力得持續到2050年,屆時的排放量要歸零。IPCC警告世人不該再期待增溫2℃時還能平和生活,況且目前的發展趨勢是可能增溫3℃以上!

IPCC的新報告特別提及極端降雨,指出人們將很難想像增溫1.5℃時的水患會如何嚴重,更別談2℃了。以全球觀點,今年8月南台灣泡水多日絕非特例,西班牙、哥倫比亞、突尼西亞、卡達等地皆見創紀錄的爆漲洪災,〈水淹家園,請撤離〉是美國紐澤西州的演練案例,台灣的應對之道呢?
看更多 隱藏