2020年12月,中共中央印發了《法治社會建設實施綱要(2020-2025年)》,提出將制定完善對網絡直播、自媒體、知識社區問答等新媒體業態和算法推薦、深度偽造等新技術應用的規范管理辦法。加強對大數據、云計算和人工智能等技術應用的規范引導,制定個人信息保護法。
新技術在推動社會經濟發展的同時,也為網絡空間治理帶來新的挑戰。規范新技術管理、完善網絡法律制度成為建設法治社會的要義之一。對于新技術應用帶來的安全風險問題,艾利艾智庫將形成專題調研與分析。
圖片來源:中國政府網
深度偽造技術源自英文詞匯deepfake,是計算機“深度學習”(deep learning)和“偽造”(fake)的組合,指通過深度學習偽造數字內容的人工智能技術,實質上是一種聲音、圖像與視頻的智能處理技術,能夠模仿特定人物或者讓特定人物看起來在做特定的事件。其效果可以達到以假亂真的程度,被稱為“音視頻領域的PS技術”。
據英國《鏡報》報道,英國電視臺“第四頻道”(Channel4)曾播出過一段通過深度偽造技術合成的搞笑版女王的圣誕講話,電視臺方面表示,制作這個短片的目的是警示觀眾注意辨別深度偽造信息。隨著深度偽造技術應用范圍的不斷擴大,偽造信息充斥網絡,潛藏的風險不容小覷。艾利艾智庫分析盤點了深度偽造技術在色情、欺詐、合成語音等五大典型場景的應用及其風險。
應用場景一:專門用于色情領域。一是出現了DeepNude等能用AI技術“去除”衣服,制作大量“裸體”女性照片供用戶換臉的色情軟件。二是形成制作銷售色情換臉內容的黑色產業。根據媒體曝光,在淘寶、閑魚、貼吧等平臺上,100元打包即可打包購買200部換臉情色片,囊括國內一二線女明星;只需買家提供5張照片就可以定制任意色情換臉視頻;300-400元就能夠購買換臉軟件及教程。
風險:侵犯被偽造公民個人肖像權、名譽權、隱私權等個人權利。如利用AI換臉技術制作虛假色情視頻污蔑、羞辱或報復他人;制作、散播關于商業競爭對手的深度偽造信息,損害其商譽;借用合成的虛假內容對他人施加精神壓力等。
2020年,北京互聯網法院發布的調研報告顯示,P圖、AI換臉等技術手段偽造他人肖像的新型侵權方式不斷出現;根據英國Wired雜志報道,2020年7月份以來,至少有10萬名女性被深度偽造應用DeepNude創建了裸照,其中一些人不到18歲。這說明普通人受到深度偽造技術侵害的風險正在加大。
應用場景二:專門用于偽造視頻。目前已經出現了專門的視頻偽造軟件,如Fakeapp、Openfaceswap、DeepFaceLab、MarioNETte等,使得深度偽造門檻更低、更易操作。普通人只需要一兩個目標人物高清視頻,就可快速制作一部自動換臉視頻。
風險:一是存在利用“深度偽造”技術進行極端煽動,危害社會公共安全風險。當深度偽造信息涉及到貧富差距、勞資糾紛、民族關系等敏感議題時,或會進一步激化社會矛盾,加劇社會分化。如2018年,有人利用“深度偽造”技術在“WhatsApp”應用上傳播假信息,導致印度有20多人被誤以為涉嫌綁架小孩等罪案而被暴力打死。二是存在偽造國家領導人視頻引發國內社會動蕩風險。目前國外社交媒體已流傳大量關于特朗普、普京等他國領導人的深度偽造視頻,并且已經出現了利用深度偽造視頻影響現實世界政治的案例。如2018年5月假特朗普批評比利時環保政策的視頻,引起比利時民眾激烈回應;非洲國家加蓬的反政府組織偽造視頻甚至引起該國政治動蕩。
應用場景三:被用于音頻合成。目前,許多硅谷巨頭和人工智能初創企業都在利用深度偽造技術開發語音合成軟件,用以模仿人的聲音。如2018年,三名蒙特利爾大學的博士聯合創辦了一家名為“琴鳥”(Lyrebird)的公司。該公司開發出一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,經過技術處理后可以用目標人物的聲音,生成任何想說的話。
風險:被用于詐騙或敲詐勒索犯罪。國外反欺詐語音軟件公司Pindrop2018年對美英德法四國共500家企業展開網上調查,結果顯示,每638個欺詐電話中就有1個是人工合成聲音。此外,由于許多語音錄音都是低質量的電話通話或嘈雜場所的錄音,將增加音頻詐騙甄別難度,深度偽造技術用于進行詐騙或敲詐勒索的風險急劇升高。且目前已有相關公開案例,如2019年,有網絡犯罪分子利用一款基于AI的軟件模仿一家德國母公司首席執行官的聲音,欺騙了該公司旗下一家英國能源公司的經理向詐騙者控制的銀行賬戶轉款24.3萬美元。
圖片來源:Lyrebird 官網截圖
應用場景四:用于偽造虛假網絡身份,即通過給偽造圖片附加身份信息,將其偽裝成媒體或者社交平臺上的用戶。深度造假檢測平臺Sensity的首席執行官喬治·帕特里尼表示,他們曾發現一家軟件公司使用深度偽造技術生成的假面孔,偽造身份,假扮用戶;還發現一家營銷公司使用深度偽造技術生成假的“團隊”照片。
風險:被其他國家情報人員用來進行國家滲透工作。“深度偽造”技術或被用來創建虛假個人資料照片,成為間諜隱藏偽造身份的新手段。美聯社曾報道,一名間諜使用AI生成圖片,偽造自己是美國國際戰略研究中心研究員,在領英上欺騙政治專家和政府內部人士。
圖片來源:FINANCIAL TIMES《After deepfakes, a new frontier of AI trickery: fake faces》
應用場景五:AI換臉功能的影音娛樂產品。如大家熟知抖音APP的“換臉”特效,也出現了專門的換臉APP,如“去演”;已被下架的人工智能換臉App“ZAO”等。
風險:利用深度偽造技術給影視劇角色換臉存在盜版侵權風險。按照我國知識產權的相關規定,視頻作品的作者享有作品的完整權,不受任意修改的權利。對影視劇中演員進行、惡搞等篡改原影視劇作品的行為,涉嫌侵犯著作權人享有的保護作品完整權的權利。此外,如果未經許可擅自將換臉后的影視片段提供給公眾,還存在侵害著作權人信息網絡傳播權的風險。
從深度偽造技術已曝光的案例來看,新技術被非法利用,不僅存在科技倫理問題,還可能滋生灰黑產,危害社會公共安全。艾利艾智庫研判認為,當前,人工智能等技術的科技倫理研究和政策制定,是各國戰略重點之一。新技術應用不當可能引發平臺的合規風險與輿論風險,在運用新技術升級產品、拓展業務時,互聯網公司需要系統性考慮科技安全與倫理問題;我國相關立法也應緊密跟蹤科技發展前沿與國外監管趨勢,盡快對深度偽造等人工智能應用制定規則。