AI換臉技術(央廣網發 圖片來源:CFP)
央廣網北京3月19日消息(記者馮爍)據中央廣播電視總臺中國之聲《新聞縱橫》報道,近日,國家互聯網信息辦公室、公安部指導各地網信部門、公安機關加強對語音社交軟件和涉“深度偽造”技術的互聯網新技術新應用安全評估工作,并依法約談映客、小米等11家企業!吧疃葌卧旒夹g”究竟是什么意思?如何讓技術不跨越危險的邊界?
一年前,一條“愛因斯坦生前預告新冠肺炎”的視頻流傳于網絡,這段視頻里的愛因斯坦看上去如假包換,如果他說的不是新冠肺炎病毒,確實會讓人信以為真。
而這個視頻里運用的技術就是“深度合成技術”。所謂深度偽造(Deep Fake)是深度合成技術的一個具體應用,指借助深度合成技術偽造以人為主體(不光是人臉,還有頭部、肢體和聲音)的視聽覺內容,以達到欺騙的目的。
當我們為這樣的技術催生了一些娛樂視頻而哈哈大笑時,卻不知在大洋彼岸,這樣的技術也能成為攻擊他人的利器。
就在本月,美國賓夕法尼亞州東部的一名女子在一場騷擾和欺凌活動中制作了一系列深度偽造視頻,意在恐嚇跟她女兒競爭的十幾歲女孩并將她們踢出當地的拉拉隊。受迫害的女孩們在被偽造的視頻中看起來像是裸體,吸電子煙或喝酒。
從技術溯源的角度講,深度合成技術本身沒有善惡之分,問題的出現是在于有人濫用技術,跨越了倫理和法理的邊界。中國科學院自動化研究所模式識別國家重點實驗室研究員赫然告訴記者,深度合成技術是人工智能技術的前沿方向,但它和人工智能技術一樣都存在兩面性。赫然說:“深度合成技術實際上是廣泛存在于我們現實生活中的,比如說語音導航、智能語音客服,我們平常見到的虛擬主播、銀行的虛擬客服,平常使用的美顏相機里面的換臉或者換發型,都屬于深度合成,所以整個技術還是有正面意義的,它也代表人工智能在生活方面的前沿應用。但是深度合成如果被不法分子所使用的時候,就會產生比較大的影響或者產生惡劣的影響!
深度偽造技術的可怕之處在于——普通人難辨真假。除了AI換臉有可能帶來的色情泛濫以外,人們更加擔心“深度偽造”技術在侵犯隱私、操縱政治選舉等方面帶來的挑戰。美國加利福尼亞大學伯克利分校教授哈尼·法里德表示,如果相關的偽造信息在互聯網中肆意蔓延,將會進一步沖毀互聯網世界的真實性邊界。哈尼·法里德說:“我們應該擔心‘深度偽造視頻’的出現,如果我們不能相信看到的來自世界各地的視頻、聽到的音頻,那就是很危險的,事關國家安全!
這也是為什么此次國家網信辦及公安部加強對涉“深度偽造”技術的互聯網新技術新應用進行安全評估工作。目前為止,從國家監管層再到業界、學界也都在不斷探索,如何去為合成技術鑄造一道墻,避免人們對它的惡意運用?拼笥嶏wAI研究院視頻分析技術專家吳子揚說:“比如說我們結合著一些語音假音檢測、口型的口唇識別,包括一些音視頻的同步性檢測,人臉的一些活體的檢測,其實都對深度偽造有一定的抵抗力!
不過有觀點認為,技術發展和監管之間始終在上演“道高一尺魔高一丈”的博弈。在赫然看來,要想讓技術能在合理的范圍內被人們善用,關鍵在于不斷研發鑒偽技術,并配合管控政策一起打一套“組合拳”。
赫然說:“現在學術界有很多具體的算法去鑒別合成的視頻是否是真實的,但是由于深度合成技術它發展比較快,所以鑒別難度還是比較大的,它相當于一個矛盾的對抗體,它們都是快速發展的。但是專業的機構,比如說大的企業,還有國家層面的機構,它們有一定的計算能力去區分合成的結果。”
目前從我國的相關法律法規來看,如果未經本人許可,換臉行為是被法律所禁止的。同時,民法典第一千零一十九條第一款規定,不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人肖像權。此次兩部門的加強管理其實也釋放出一個明顯的信號:那就是要進一步遏制由深度偽造技術引發的亂象。北京岳成律師事務所高級合伙人岳屾山說:“在我們國家就很明確的把不管是丑化還是進行深度偽造,至少現在在民法層面有一個非常明確的禁止性規定了!