近日,國家互聯(lián)網(wǎng)信息辦公室等四部門聯(lián)合發(fā)布《人工智能生成合成內(nèi)容標識辦法》(以下簡稱《標識辦法》),自2025年9月1日起施行。旨在通過顯式和隱式標識規(guī)范人工智能生成內(nèi)容的管理!稑俗R辦法》明確了服務提供者、傳播平臺及用戶的責任,要求對文本、圖片、音頻等生成內(nèi)容進行全過程標識管理,以維護公共利益和公民權(quán)益。
在AI技術(shù)狂飆突進的今天,我們正面臨一個令人細思恐極的隱患——AI生成的內(nèi)容可能通過“自我引用”完成造假閉環(huán),讓虛構(gòu)變成事實。這一過程中,平臺審核漏洞、技術(shù)濫用與數(shù)據(jù)污染的疊加效應,正在為虛假信息的“永動循環(huán)”提供溫床。
不加標注的發(fā)表AI生成內(nèi)容,會導致AI內(nèi)容從無中生有搖身一變,成為權(quán)威引用。AI生成內(nèi)容的本質(zhì)是基于概率模型的文本重組,而非對真實世界的客觀反映。例如,某些AI工具可根據(jù)指令批量生成虛構(gòu)的“科學研究結(jié)論”或“社會事件描述”,這些內(nèi)容往往缺乏真實數(shù)據(jù)支撐,卻因邏輯通順而極具迷惑性。例如,某用戶要求AI生成“某城市限制外賣配送政策”的文案,AI快速輸出包含虛構(gòu)政策細節(jié)的內(nèi)容,隨后該內(nèi)容被自媒體平臺發(fā)布,未標注AI來源,成為“新聞”。當未標注AI來源的虛假內(nèi)容不加任何標注的通過平臺審核后,其傳播過程即被賦予“社會存在感”。更危險的是,其他AI系統(tǒng)在抓取網(wǎng)絡數(shù)據(jù)訓練時,可能將這些虛假內(nèi)容視為“真實信息”納入語料庫,形成數(shù)據(jù)污染。該“某城市限制外賣配送政策”文案被某網(wǎng)站發(fā)布后,其他AI在回答相關(guān)問題時直接引用該文章,形成“自證循環(huán)”。
AI造假閉環(huán)的形成原因主要有以下兩個方面:一是因為技術(shù)缺陷,在《標識辦法》正式施行之前,AI生成的內(nèi)容沒有添加顯式或隱式標識,導致其混入語料庫,產(chǎn)生持續(xù)污染。部分作者為追求流量,故意隱瞞AI創(chuàng)作事實進行傳播,加劇造假閉環(huán)風險;二是由于平臺責任缺失,審核機制流于形式。依賴簡單的關(guān)鍵詞過濾,無法識別深度偽造的邏輯矛盾。對于AI生成文章中的數(shù)據(jù),不加以核實和探究,致使虛假數(shù)據(jù)出現(xiàn)在權(quán)威平臺。
如何防止AI造假的擴張呢?給AI生成合成內(nèi)容添加標識,是從源頭上治理AI造假的有效手段。如果把AI生成合成內(nèi)容比作一種特殊產(chǎn)品,制作內(nèi)容的AI服務商就是廠家,傳播內(nèi)容的網(wǎng)絡平臺就是商店!稑俗R辦法》規(guī)定,廠家在產(chǎn)品出廠時要貼上標識引起商店關(guān)注,商店也要在銷售時通過貼標識等方式提醒消費者注意。其作用就是從內(nèi)容生產(chǎn)和傳播的源頭入手,給“AI生產(chǎn)”打上識別碼,使其更容易被網(wǎng)絡平臺檢得出、被社會公眾看得見。公眾知道眼前信息源自AI,也就不會輕易上當受騙。
與此同時,我們還要積極主動地構(gòu)建制度——平臺——公眾三道防線。相關(guān)部門要嚴格落實《標識辦法》,加大AI監(jiān)管,對縱容AI造假的平臺實施相應處罰;平臺要落實全鏈路審核,對未標識內(nèi)容實施“默認攔截”,并對AI內(nèi)容進行專項數(shù)據(jù)交叉驗證;向公眾普及“AI內(nèi)容鑒別知識”,主動對AI提供的數(shù)據(jù)鑒別真?zhèn)。此外,AI開發(fā)團隊還應建立官方認證的AI訓練數(shù)據(jù)池,對公共領(lǐng)域信息進行真實性核驗與標注,阻斷污染數(shù)據(jù)流入訓練環(huán)節(jié)。
AI造假不僅是技術(shù)上的問題,更是對人類社會信任的挑戰(zhàn)。若放任閉環(huán)形成,我們將陷入“所有信息皆可疑”的認知荒漠。唯有通過制度約束、平臺監(jiān)管與公眾覺醒的協(xié)同,才能讓AI真正成為“輔人”而非“毀人”的工具。正如《標識辦法》所強調(diào)的:“AI可以擬人、助人,但不能騙人、坑人”。在這場與技術(shù)的賽跑中,人類的清醒與警惕,仍是最重要的防線。(高瑞闊)
投稿郵箱:chuanbeiol@163.com 詳情請訪問川北在線:http://www.dstuf.com/