人工智能技術濫用與虛假信息治理成兩會熱議焦點,代表委員建言——
綜合治理AI虛假信息
來源: 法治日報 | 日期: 2025年03月07日 | 制作: 熊瑋 | 新聞熱線: 0791-86847870
甘肅洪某利用ChatGPT編造虛假新聞牟利,四川“山體滑坡致8人遇難”等AI造謠案例引發社會恐慌,西藏地震后AI合成的災害場景視頻被抖音平臺處理超2萬條……
今年全國兩會上,人工智能技術的濫用與虛假信息治理成為熱議焦點。多位代表委員指出,隨著生成式AI技術的迅猛發展,虛假視頻、音頻、圖文等內容“李逵”“李鬼”難辨,不僅誤導消費者、侵犯公民權益,更擾亂社會秩序,亟須通過完善立法、強化技術監管、壓實平臺責任等手段構建綜合治理體系。

AI虛假信息泛濫成風險隱患
“AI技術降低了視頻合成和制作的門檻,使得虛假內容的生成變得容易。”全國人大代表、美的集團副總裁兼首席財務官鐘錚在調研中發現,網絡上有大量AI生成的視頻模仿明星或專家的形象、聲音,虛構人設、推銷商品,誤導消費者購買不必要的商品,造成財產損失,甚至產生信任危機。還有些視頻通過流量變現的形式去獲利,加劇亂象。
全國人大代表、小米集團創始人雷軍注意到“AI換臉擬聲”帶來的問題。雷軍在建議中指出,“AI換臉擬聲”不當濫用造成了違法侵權行為的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規模形象和聲譽損害,帶來社會治理等風險。
責任歸屬與處罰標準須明確
多位代表委員指出,當前AI治理的法律體系仍存空白。
鐘錚認為,現在生成式人工智能在法律法規體系上存在不完善之處,特別是在界定AI生成內容的版權歸屬,以及侵權責任認定、隱私保護標準方面存在空白。此外,目前生成式人工智能視頻的審核技術還不夠健全,雖然已有一些AI技術用于視頻審核,但仍存在一定的差錯率。
全國政協委員、安徽省律師協會監事長周世虹介紹,我國于2023年8月15日起施行《生成式人工智能服務管理暫行辦法》,從而形成以該暫行辦法為核心,輔以數據安全法、個人信息保護法等單行法的人工智能規范,但缺乏高位階的專門立法,覆蓋范圍有限,難以應對技術發展可能引發的各種社會問題。
全國人大代表,TCL創始人、董事長李東生帶來的《關于加強AI深度偽造欺詐管理的建議》提到,隨著生成式人工智能技術的發展,深度偽造技術也快速發展。要規范對于這一新興技術的不當利用,有必要要求深度合成服務提供商對人工智能生成的內容進行強制標識,減少惡意濫用,并有助于厘清責任、對違法犯罪行為追責。
審核機制與處罰力度雙升級
如何加強AI虛假信息治理?代表委員一致認為,須通過完善立法、強化技術監管、壓實平臺責任等舉措構建綜合治理體系。
周世虹建議,將生成式人工智能納入專項立法,明確開發者、運營者、用戶三方責任;完善監管協同機制,建立網信、工信、公安等多部門聯動的動態監管體系;設立AI生成內容標識制度,強制標識AI生成內容,防范虛假信息傳播。
雷軍的建議是,加快單行法立法進程,安全與發展并重。“建議針對‘AI換臉擬聲’等某一代表性問題,探索推出人工智能單行法,提高立法位階及其效力,在分級分類的基礎上進行務實治理,明確‘AI換臉擬聲’應用邊界紅線,完善侵權證據規則,加大對利用人工智能技術實施犯罪行為的刑事處罰力度。與時俱進探索新議題的細化監管措施,凝聚人工智能倫理規范共識。”雷軍提出。
代表委員普遍認為,AI治理需兼顧技術創新與風險防控,平臺責任是治理焦點。
鐘錚認為,平臺應加強對AI生成視頻的審核和監督,確保內容的真實性。對于AI生成的視頻,應強制標注警示性提示,提醒消費者注意辨別。
在李東生看來,除了加快人工智能深度合成內容標識管理規章制度的出臺外,還需明確對人工智能深度合成服務商未履行標識義務的懲罰制度,完善對深度合成內容服務提供商未按要求進行標識的行為界定、分類細則,以及相應的處罰標準。◎據《法治日報》
編輯:熊瑋
校對:王小明
復審:廖世杰