位置:
首頁
熱點
眼見不一定為實!人工智能造假行騙:能治嗎?

眼見不一定為實!人工智能造假行騙:能治嗎?

來源:央視新聞客戶端 發(fā)布時間: 2024-10-14 瀏覽:2183 次

眼見不一定為實,有圖未必有真相。隨著AI技術不斷發(fā)展,AI合成,已經(jīng)不僅限于換臉,或生成音頻這么簡單,而是可以將人臉、聲音、手勢動作等多種元素深度合成,甚至可以實現(xiàn)使用合成的人物進行實時視頻通話。

而與此同時,AI合成的技術門檻也越來越低,使得普通人也可以輕松學會。如何去防范利用AI深度偽造技術的新型詐騙?又該如何通過治理讓AI技術能更好向善?《新聞1+1》關注:人工智能造假行騙:能治嗎?


人工智能造假行騙,責任如何劃分?

對外經(jīng)貿(mào)大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任 許可:在深度偽造技術發(fā)展、使用過程中,有非常多的主體發(fā)揮作用。有技術的研發(fā)者、分發(fā)者、使用者。利用技術實施詐騙的人,當然是第一責任人,但在整個生態(tài)中,技術的研發(fā)者、軟件的分發(fā)平臺以及傳播相關信息的人也可能發(fā)揮著一定的作用,如何形成一種治理的合力?這里面可能要區(qū)分兩種不同的責任:

一種責任是行為人的責任,比如說利用人工智能去詐騙的人。

另一種責任是平臺責任,平臺一端連著用戶,一端連著提供人工智能技術的人,這要求平臺發(fā)揮管理兩邊的責任。一旦發(fā)現(xiàn)違法違規(guī)行為,平臺就應該采取積極措施,去制止無論是信息內(nèi)容的發(fā)布者還是軟件的提供者,從而實現(xiàn)整個平臺治理的安全穩(wěn)定。

法律如何應對人工智能造假行騙?

對外經(jīng)貿(mào)大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任 許可:人工智能的發(fā)展其實剛剛開始,用在違法違規(guī)、刑事犯罪方面也不久,我國的法律也及時進行了應對。法律出臺之后,需要做的是進一步實施和落地。這些新制度的出臺,目前還仍在建規(guī)立制的階段,通過各方的合力,既要依托于監(jiān)管部門,不斷將法規(guī)的細則落實到每一個主體身上,也要通過社會的綜合治理,實現(xiàn)個人要知道、主張自己的權益,企業(yè)要知道、踐行自己的責任和義務。還需要一個循序漸進、逐漸完善的過程。

AI生成合成內(nèi)容將有“專屬水印”

9月,國家網(wǎng)信辦起草了《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》,這能遏制“換臉”詐騙嗎?

對外經(jīng)貿(mào)大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任 許可:在大量AI深度偽造技術的詐騙中,最大的問題是被騙的人以為視頻是真的?!度斯ぶ悄苌珊铣蓛?nèi)容標識辦法(征求意見稿)》要求,通過人工智能生成的視頻、音頻、圖片都必須加以明確的標識。這樣,看到的人能夠知道這是AI生成的內(nèi)容。這種通過信息披露實現(xiàn)的治理,在我們現(xiàn)在來看是非常有效的措施。

老年人如何防范“AI換臉”詐騙?

對外經(jīng)貿(mào)大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任 許可:這是一個素質素養(yǎng)提升的工作,因為信息鴻溝、技術鴻溝,很多老年人根本就不知道世界上還有這么一種技術,能把假的變成真的。

讓老年人提升認識,需要包括媒體、教育機構、科研院所共同普及這方面的知識,告訴他們信息的真假是需要認真甄別的。另一方面,老年人獲取信息的來源除了社會,很多是來自于家人。孩子們應該多和自己的父母、長輩溝通,告訴他們這些詐騙案例,讓他們產(chǎn)生警惕。通過社會和家庭的共同作用,讓老年人提升認識。