半月談記者 孫文豪
國家互聯網信息辦公室等四部門近期聯合發布《人工智能生成合成內容標識辦法》(下稱《辦法》),并同步出臺配套強制性國家標準。小小標識,為何得到國家多部門重視,又將如何改變人們所處的網絡內容環境?
標識小,作用大
接到“領導”視頻電話要求緊急轉賬20萬;社會名人被AI配音后刷屏社交平臺;“頂流明星在澳門輸了10億”的假新聞實則為AI捏造……在AI技術為內容合成帶來便利的同時,其“雙刃劍”效應也逐漸凸顯:金融詐騙、身份冒充、虛假新聞等問題時有發生,眼見不一定為實,有圖、有視頻也不一定有真相。
“借助AI手段炮制虛假信息正催發公眾的‘信任危機’,并對正規的內容創作生態造成沖擊。”中國社會科學院大學互聯網法治研究中心主任劉曉春對半月談記者說,相關不法行為往往只需要極低的制作成本和違規成本。除虛假信息外,由AI導致的數據安全、隱私保護等與用戶直接相關的問題,也需要強有力的監管措施介入。
2022年以來,我國已陸續出臺多部法律法規對AI生成內容作出約束。但業內人士認為,此前出臺的相關法律法規在內容識別上的要求較為寬泛,而《辦法》將推動AI內容的標識從“原則性規定”走向“操作性規范”。
讓人工智能技術“可信賴”
“《辦法》重點解決‘哪些是生成的’‘誰生成的’‘從哪里生成的’等問題。”國家網信辦有關負責人表示,要通過標識提醒用戶辨別虛假信息,明確相關服務主體的標識責任義務,讓人工智能技術“可信賴”。
劉曉春等受訪專家認為,《辦法》聚焦人工智能“生成合成內容標識”關鍵點,提出具體操作規范:
——構建信任機制。《辦法》要求AI生成內容添加顯式標識(文字、聲音提示)和隱式標識(元數據嵌入)。前者是在AI生成內容中,通過添加顯式標識,讓用戶一眼可知“哪些是生成的”;后者則為厘清內容是“誰生成的”“從哪里生成的”。
——厘清責任主體。《辦法》針對不同主體,著力構建全鏈條責任機制:用戶發布生成內容需主動聲明;社交平臺等互聯網應用需審核AI服務標識材料;服務提供者應當確保生成合成內容含有滿足要求的顯式標識,并在文件元數據中添加隱式標識等。
業內人士認為,《辦法》主要從立法層面提出管理要求,與之配套的強制性國家標準主要提出具體實施方式和操作方法。例如規定元數據字段格式、標識顯眼度閾值等,避免相關主體“憑感覺合規”。
拒絕“野蠻生產”,迎來“規范競爭”
“推動強制標識制度,與我國人工智能生成內容技術發展和應用階段相匹配,是具有廣泛社會共識和現階段在技術上較為可行的方案。”劉曉春認為,提升人工智能生成內容的透明度和可追溯性,有助于增強公眾信任感,推動行業從“野蠻生長”轉向“規范競爭”。
國家網信辦有關負責人表示,“統籌發展和安全”是《辦法》的總體思路之一,這一治理理念體現在諸多實施細則上。例如一些大型企業和主要的AI服務提供商履行“標識義務”已有一段時間,但一些中小企業、傳統企業等或將需要技術調整的過程,面臨標識技術投入壓力。為此,《辦法》創新提出文本符號標識等低成本標識方法。
據了解,《辦法》將從9月1日開始實施。劉曉春認為,其間幾個月的施行過渡期,既是為企業理解規范、針對性地開展功能研發預留時間,也為提升用戶認知和公眾AI素養提供窗口期。“‘人的因素’應融入人工智能標識管理的全過程。”公安部第三研究所副所長金波認為,要著重提升公眾對信息內容真實性、來源可追溯性的評估能力。