AI 影像工具=厭女武器?專家:95% 的深偽影片受害者皆是女性! | | 開根好 SquareGood
  • 搜尋
  • 關於

AI 影像工具=厭女武器?專家:95% 的深偽影片受害者皆是女性!

AI 影像工具=厭女武器?專家:95% 的深偽影片受害者皆是女性!

圖片來源:canva圖庫
AI 工具真的完美無缺嗎?本書作者穆吉亞探索 AI 的實際影響,驚覺 AI 已悄然滲透進日常生活,而它最深層的面貌,並沒有那麼亮麗。

「深度偽造」(簡稱「深偽」)這個詞彙相對比較新,是在 2017 年由一位紅迪論壇用戶所提出,指一種新研發的 AI 技術,可以創造出超真實的偽造照片和影片,就像新時代的修圖軟體一樣。

他宣稱,利用這套軟體,任何人都可以天衣無縫的把色情片演員的身體和名人的臉孔融合在一起。

生成的結果就是完全造假的「色情作品」,作品裡的女性對於這些影像的產生與散布完全不知情,也沒有控制權。

深度偽造技術的研發者是一位不願透露姓名的軟體程式設計師,他對人工智慧有興趣,正在進行他所謂的「研究計畫」。

他告訴《 Vice 新聞》的記者,他不認為這項技術有任何道德問題。就算他沒有展示這套軟體,其他人也會。而且這也沒有任何法律問題,畢竟在當時,製作深偽影像在世上多數地方並不犯法,張貼和散布亦然,所以沒有人會去監督這套軟體的應用方式。

深偽影像是用「深度學習」技術生成。深度學習是人工智慧的一個子集,演算法先在幾百萬個訓練樣本中學習模式,然後用來執行影像生成等任務。

這些模型會分階段學習生成臉孔的方式:一開始先對應個別影像的所有像素,然後辨識更高階的結構,像是特定臉部或圖形的形狀。

運用演算法,澈底掩飾偽造痕跡

生成式對抗網路(generative adversarial network, GAN)是其中一種能產生深偽影像的演算法,它以成對的方式運作:一個演算法就你想要複製的臉部影像進行訓練,然後生成自己的版本,另一個演算法則要判斷那個影像是真實的或是合成的。

這兩個演算法會來回傳遞影像,偽造的影像在過程中會不斷獲得微調而變得更容易讓人信服,直到偵測用的演算法再也看不出偽造痕跡。

這項技術可以把臉部或整個身體處理成逼真的照片和影片,就像 2020 年抖音上瘋傳的湯姆克魯斯影片,那個深偽影片逼真得令人毛骨悚然。

比起專業的視覺特效工作室,生成式對抗網路能用更快的速度和更便宜的價格,生成高品質的影像和影片,因此成為娛樂產業一個很有吸引力的替代方案。

迪士尼的光影魔幻工業(Industrial Light and Magic)等影像工作室,以及法蘭史多爾(Framestore)等視覺特效公司,已經在探索深偽演算法的應用方式,為廣告和電影創造超真實的電腦合成影像內容,以及名人的各種合成版本,無論他們已故或在世。

製作深偽影像的工具並非只有生成式對抗網路,隨著新的 AI 技術逐漸成熟,過去兩年出現「變換器」(Transformer)這種新技術,推動了生成式 AI 的進展。

生成式 AI 軟體可以根據人們輸入的簡單英語描述,產生全新的影像、文本和影片,以這些系統為基礎的 AI 藝術工具有 MidjourneyDall-EChatGPT,現在已經成為我們的日常語彙。它們讓你在靈光一閃時,只要用幾個精選的字句,就可以透過簡單的應用程式和網站,以直覺的方式產生精細的圖像作品。

▌ 立意良善的 AI 影像工具,卻成為厭女武器

AI 影像工具也被當作厭女的武器。Sensity AI 是少數幾家追蹤深度偽造的研究公司之一,根據他們的調查,在 2019 年,網路上的深偽影片大約有 95% 都是未經同意的色情影片,而且主角幾乎都是女性。

這份研究的作者阿傑德(Henry Ajder)告訴我,在他做那份研究之後的這幾年,深度偽造變得太猖獗,現在要撰寫這樣的報告幾乎是不可能的任務了。

然而他表示,最近的研究持續顯示,大多數深度偽造的目標仍然是女性,她們因為這項技術而被極度性慾化(hypersexualized)。

今天,在深度偽造這個詞問世好幾年之後,受害者還是沒有辦法訴諸法律。

在全世界大部分地區,製作和散布 AI 生成的私密影像依然不違法。

少數國家最近把未經同意散布私密影像(包括深偽影像)定義為犯罪,例如英國在 2024 年宣布相關法律,還有新加坡、南韓、澳洲,以及美國加州、紐約州和維吉尼亞州等也立法禁止,但創作 AI 生成的影像依然落在多數國際法的管轄範圍之外。

受害者僅存的辦法是藉由主張版權,要求平臺刪除內容。社群媒體平臺在服務條款裡承諾,會移除深度偽造和未經同意的影像,甚至有一些色情網站也這麼承諾,但他們實際上通常不會處理。

他們不會主動偵測這類內容,就算注意到了也不會優先考慮移除。歐盟新的立法在 2023 年生效,強制這些社群平臺必須說明,民眾如何要求他們刪除非法內容,也強制社群平臺執行這些要求,但如果相關內容(例如深度偽造)原本就沒有違法,則這項法律鞭長莫及。

在網路上,AI 並不是第一個被用來騷擾和凌虐邊緣化群體的數位技術。從隱藏式網路攝影機、修圖軟體到社群媒體,深偽技術就像先前許多比較簡單的影像技術一樣,也被一群變態和懦夫用來入侵我們最私密的空間,也就是身體。

AI 影像竄改技術之所以變得這麼威力驚人,是因為這些工具可以輕易的廣泛傳播,而且價格低廉,業餘人士都能使用。

相較於前幾代的技術,AI 影像竄改技術產生的深偽成品非常逼真,而且透過監管不足的社群媒體管道,深偽成品就可以像被擴音器放大那樣,快速的傳播。

當然,AI 影像竄改技術也會被用來對付不知情(更別說同意)的受害者。這項技術讓有心人可以更大規模的生產騷擾和虐待的材料。

▌ 由科技催生的「女性身體市場」

我打開谷歌搜尋,很快就發現幾十個提供深偽色情作品的網站,我相信那些影片都是偽造的。幾百部影片濫用真實女性的肖像,讓她們在逼真的性行為表演中出現。

這些影片的主角可能是好萊塢、寶萊塢和韓國流行音樂的主流明星,甚至是非公眾人物,例如莫特。在莫特出現的那個網站上,她驚訝的發現有一整區都是非公眾人物的內容──這是一個由科技催生的女性身體市場。

深度偽造並不是意外出現的 AI 技術。它們是工具,卻被一些想要造成傷害的人刻意扭曲,又因為這項技術容易使用,加上機構的漠視,使它們的影響獲得放大與鞏固。

機構漠視是指國家未善加管理,以及大型線上平臺不願對深偽內容的傳播負責。

無論莫特或我採訪過的其他女性,她們的故事都表示出:我們集體漠視了她們的痛苦。


本文摘自 天下文化《 AI 底層真相》 穆吉亞.著

.

►延伸閱讀:不想被 AI 取代?會取代你的不是 AI,而是會使用 AI 的人!
►延伸閱讀:《我們沒有祕密》擁有不能說的祕密,本身就是懲罰