熱門搜尋

【世界24/7】聲音是真的,人卻是假的?──當 Deepfake 操弄你的「親眼所見,親耳所聞」

2020-04-12
深度偽造(Deepfake)技術已經不是什麼新鮮事,創作者透過 AI 竄改影片,將人們的面容、表情通通換掉,如同一把雙面刃,既能為生活帶來方便、製造樂趣,也可能使我們的日常陷入危機。當深偽技術進步到能讓一切變得愈來愈「真」時,將可能變成人類世界災難的開始。當眼見不能為憑、耳聽不能為實,人類到底還能相信什麼呢?

一通電話響起。


當你接起電話,從話筒另一端傳來熟悉的聲音,對方告訴你自己是誰、在哪裡,然後遭遇什麼困難,需要向你借助急救金。


而你和大部分臺灣人一樣,待對方下一句話尚未說出口,便立即掛斷電話。或許是學校教育、警政單位宣導的成功,養成你對可疑行為保持警覺,免於讓自己成為下一位詐騙受害者。


緊接著,我們來看這一則案例:


2019 年,英國一家能源公司高層主管與德國總部執行長電話交談,不消一小時,這名主管直接轉帳 22 萬歐元(約合新臺幣 730 萬元)到指定戶頭。事後該名主管表示,他認為自己熟悉執行長的說話方式,包括他輕微的德國口音以及說話節奏,且在通話過程中,找不出一絲破綻,因此不疑有他便直接匯款,直到被要求再次轉帳時,主管才警覺異常。


當你看完後,肯定在想:這到底是怎麼回事?


那些我們被複製的聲音

據報導,這可能是全歐洲第一起深度偽造聲音的詐騙案件。


所謂「深度偽造」(Deepfake),是由深度學習(Deep learning)和偽造(Fake)二詞結合而成。它原指藉由人工智慧達到的人像合成技術,然而隨著科技發展,深度偽造如今不只能夠應用在影像,還出現聲音與文本等各種形式。


大多數人對「影像合成」並不陌生,我們聽過或曾使用過的變老濾鏡 FaceApp、明星換臉 Zao 等應用程式,就屬這類例子;而「聲音合成」的應用案例乍聽之下有點陌生,但其實早已在我們生活之中──

我們相信「人文知識」是重要的
我們相信「認識歷史」該是全民運動
我們相信「脈絡與思辨」才能好好理解世界


——每日 5 元,今天就成為「人文知識」的守護者!——

49TWD/一篇
我只想讀這篇,支持好內容
訂閱故事,可以得到什麼?
文章資訊
作者 吳柏樺
刊登日期 2020-04-12

文章分類 副刊