中文
人工智能健康有序發展迎來新機遇
2025-03-18 來源:社科院專刊 總第750期 作者:孫美娟
分享到:

  人工智能健康有序發展迎來新機遇

  ——訪我院信息情報研究院第八編研室副主任李延楓

 

  近日,國家互聯網信息辦公室、工業(ye) 和信息化部、公安部、國家廣播電視總局聯合發布《人工智能生成合成內(nei) 容標識辦法》(以下簡稱《標識辦法》),自2025年9月1日起施行。為(wei) 深入了解《標識辦法》對人工智能治理體(ti) 係的影響,記者采訪了raybet官网入口信息情報研究院第八編研室副主任(主持工作)李延楓。

  解碼人工智能治理標識管理

  《中國社會(hui) 科學報》:《標識辦法》的重點內(nei) 容有哪些?

  李延楓:《標識辦法》作為(wei) 規範性文件,主要是就《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》規定的網絡信息服務提供者應履行的人工智能生成合成內(nei) 容標識義(yi) 務,進行了精細化的製度設計。首先,針對人工智能生成合成內(nei) 容建立了顯隱雙重識別機製。結合《互聯網信息服務深度合成管理規定》的有關(guan) 規定,要求深度合成服務提供者在提供可能導致公眾(zhong) 混淆或者誤認的四類深度合成服務和其他具有生成或者顯著改變信息內(nei) 容功能的服務時,必須添加符合《標識辦法》要求的顯式標識。對於(yu) 一般性的人工智能生成合成物,出於(yu) 保護用戶隱私的考慮,要求在生成合成內(nei) 容的文件元數據中添加隱式標識。其次,通過分級分類的監管框架,明確生成服務提供者、傳(chuan) 播平台、應用分發平台等主體(ti) 的差異化義(yi) 務。生成端要求根據內(nei) 容類型(文本/音視頻/虛擬場景)在特定位置嵌入標識;傳(chuan) 播端建立三級核驗機製,對含隱式標識、用戶聲明內(nei) 容、疑似生成內(nei) 容分別實施分類提示;應用分發端則需在審核環節前置標識合規審查。最後,將《標識辦法》有關(guan) 規定嵌入人工智能算法備案、安全評估等已有人工智能監管工具,一方麵豐(feng) 富監管工具箱,推動形成監管合力,另一方麵減輕科技企業(ye) 合規成本,激勵人工智能技術創新和產(chan) 業(ye) 發展。同時,明確《標識辦法》的行政執法主體(ti) ,確保法律追責機製得以有效落實。

  《中國社會(hui) 科學報》:您認為(wei) 《標識辦法》最大的亮點是什麽(me) ?

  李延楓:《標識辦法》最大的亮點是配套出台《標識標準》和實踐指南,二者同步實施,極大縮短了《標識辦法》轉化為(wei) 可落地實施的技術和產(chan) 業(ye) 標準的時間差。一方麵,將取得較大技術共識的人工智能生成合成物標識產(chan) 業(ye) 實踐經驗上升為(wei) 有約束力的法律規範,另一方麵,將有關(guan) 法律義(yi) 務規定轉化為(wei) 可量化度量與(yu) 評價(jia) 的技術規範和標準,極大改善了人工智能立法與(yu) 實施兩(liang) 張皮的治理困境,適應了人工智能高技術壁壘性和快速迭代的技術特性,推動產(chan) 業(ye) 合規產(chan) 生內(nei) 生動力,實現人工智能高質量發展和高水平安全的良性互動。

  為(wei) 人工智能發展帶來變革

  《中國社會(hui) 科學報》:《標識辦法》對於(yu) 人工智能法治建設、倫(lun) 理審查和監管製度建設有何重要意義(yi) 和影響?

  李延楓:作為(wei) 我國人工智能治理體(ti) 係的重要組成部分,《標識辦法》在法治建設、倫(lun) 理審查和監管製度建設三方麵都具有裏程碑意義(yi) 。在法治建設方麵,《標識辦法》在法律層麵將“生成合成內(nei) 容標識”納入強製性義(yi) 務,有助於(yu) 對人工智能生成合成內(nei) 容進行生成溯源和真假辨別,並據此為(wei) AI侵犯知識產(chan) 權、虛假信息傳(chuan) 播等案件中的責任認定提供可操作的證據鏈支撐。《標識辦法》還對人工智能產(chan) 業(ye) 鏈中的各主體(ti) ,包括生成合成內(nei) 容服務提供者、內(nei) 容傳(chuan) 播服務提供者、互聯網應用分發平台和用戶,根據其在人工智能生態係統中的功能定位和技術能力確定相應法律義(yi) 務,落實權利與(yu) 義(yi) 務相匹配的法律責任分配原則。

  在人工智能倫(lun) 理審查方麵,《標識辦法》的出台,有助於(yu) 以技術“規則+標準”的雙輪驅動治理機製深化推動“算法透明性”這一全球AI倫(lun) 理核心原則的落地實踐。《標識辦法》通過“顯隱結合”標識體(ti) 係構建了雙重保護機製:顯式標識保障用戶即時知情權,隱式標識通過元數據記錄生成時間、服務商編碼等信息,為(wei) 隱私權、肖像權等受侵害時的溯源追責提供技術抓手,有效緩解了“深度偽(wei) 造”等技術引發的信任危機,為(wei) 公眾(zhong) 行使知情權、選擇權提供了基礎保障。

  在監管製度建設方麵,《標識辦法》無論是整體(ti) 製度設計還是具體(ti) 條文安排,都貫穿了“包容審慎”的監管理念,表明我國人工智能監管在越來越趨向全鏈條、精細化和科學化的同時,注重將嚴(yan) 格監管與(yu) 柔性治理有機結合起來,努力在人工智能安全與(yu) 發展之間尋求動態平衡。考慮到數字水印技術尚不成熟,《標識辦法》並未將其設置為(wei) 強製性義(yi) 務,而是采用鼓勵性規定的形式,既兼容現有技術生態,又引導企業(ye) 探索標識技術的升級發展。

  最後,《標識辦法》及配套製度的出台,有助於(yu) 打破西方技術壟斷,推動打造我國自主可控的人工智能生成合成物的標識標準體(ti) 係,對全球人工智能治理具有廣泛的示範效應,也為(wei) 發展中國家參與(yu) 人工智能國際規則製定提供了範本。

  《中國社會(hui) 科學報》:《標識辦法》的出台,對於(yu) 治理當前人工智能生成領域中的亂(luan) 象發揮了哪些作用?

  李延楓:當前存在AI技術被濫用的情況,出現深度偽(wei) 造和虛假信息泛濫、利用AI竊取生物信息進行詐騙現象頻發、公民隱私權和知識產(chan) 權屢被侵犯、社會(hui) 輿論遭操控、幹擾等AI治理亂(luan) 象。造成這些亂(luan) 象的根本原因,在於(yu) AI借助其技術架構對人類認知模式和物理規律進行雙重突破,精準複現人類思維特征,實現了物理級真實感模擬,使得生成的內(nei) 容越來越逼真,增加了偽(wei) 造內(nei) 容的可信度,導致真假難辨。

  《標識辦法》通過法律規則與(yu) 技術標準的耦合機製,為(wei) 破解生成式人工智能技術引發的真實性危機提供了製度性解決(jue) 方案。一是建立顯式標識與(yu) 隱式元數據標識的技術標準,既明確生成物的著作權歸屬,防止侵犯原創作品的知識產(chan) 權,又通過從(cong) 內(nei) 容生成端到傳(chuan) 播端全鏈條嵌入可識別標記的強製性法律義(yi) 務,形成“生成即標識”的剛性約束,從(cong) 源頭阻斷未經標注的虛假信息流通路徑。二是通過多模態標識體(ti) 係(文本符號、音頻節奏、元數據字段)實現跨媒介溯源,使普通用戶可通過直觀標識識別AI合成內(nei) 容,監管部門則能通過隱式元數據追溯內(nei) 容來源與(yu) 傳(chuan) 播路徑,以此“順藤摸瓜”對侵權者進行追責。三是建立完整責任鏈條,明確生成合成服務提供者、內(nei) 容傳(chuan) 播服務提供者、應用分發平台等主體(ti) 的標識義(yi) 務,生成端需確保標識完整性與(yu) 防篡改性,傳(chuan) 播端建立未標識內(nei) 容過濾機製,使用端承擔標識完整性維護義(yi) 務,形成“生成—傳(chuan) 播—使用”閉環監管,避免責任模糊導致的監管漏洞。

  不斷完善人工智能治理體(ti) 係

  《中國社會(hui) 科學報》:您和raybet官网入口法學研究所網絡與(yu) 信息法研究室副主任周輝共同主持的raybet官网入口國情調研重大項目《我國人工智能倫(lun) 理審查和監管製度建設狀況調研》即將發布《人工智能示範法3.0》。3.0版本的《人工智能示範法》與(yu) 《標識辦法》有哪些關(guan) 聯?

  李延楓:“以技治技”一直是《人工智能示範法》秉持的立法原則。從(cong) 1.0版本開始,示範法就在規定人工智能研發者、提供者的一般性義(yi) 務時,明確要求提供深度合成服務的人工智能提供者對合成內(nei) 容進行合理標注,向公眾(zhong) 提示深度合成情況,在國內(nei) 學界中較早提出了運用標注製度促進人工智能公開透明原則落地。示範法2.0版本規定任何組織、個(ge) 人不得采用技術措施刪除、篡改、隱匿人工智能標注,其對人工智能標注的法律保護規定也與(yu) 《標識辦法》有異曲同工之處。同時,在人工智能產(chan) 品和服務侵犯知識產(chan) 權的責任追究規定中,示範法2.0版本對《民法典》第1197條規定的平台避風港規定進行創新性運用,其中規定人工智能提供者有證據證明對人工智能生成內(nei) 容進行了必要標識的,可不與(yu) 使用者承擔知識產(chan) 權侵權連帶責任。這一具有前瞻性的規定也與(yu) 《標識辦法》運用標識製度厘清人工智能產(chan) 業(ye) 鏈各主體(ti) 責任配置,確保權責一致的立法理念相一致。

  《中國社會(hui) 科學報》:依據《標識辦法》,《人工智能示範法3.0》可以從(cong) 哪些方麵進行深化,以完善人工智能治理體(ti) 係?

  李延楓:《人工智能示範法3.0》首先將對標《標識辦法》完善相應條款。例如,對應《標識辦法》第10條不得惡意破壞人工智能生成合成內(nei) 容標識的法定義(yi) 務,增加“不得惡意偽(wei) 造人工智能生成合成內(nei) 容標識”和“不得為(wei) 他人實施上述惡意行為(wei) 提供工具或者服務,不得通過不正當標識手段損害他人合法權益”的相關(guan) 規定,增強示範法3.0版本的立法周延性。其次,示範法3.0將進一步細化、完善《標識辦法》未盡立法事宜。例如,《標識辦法》雖然創設了用戶承擔顯式標識和不破壞標識的法定義(yi) 務,但卻未規定相應的法律責任,有可能使這一規定無法發揮應有的法律拘束力。最後,示範法3.0還將結合《標識辦法》,進一步將標識義(yi) 務及責任嵌入人工智能民事侵權責任的避風港原則,規定提供者在采取保護他人知識產(chan) 權的措施後,可以不承擔賠償(chang) 責任,實現平台的注意義(yi) 務與(yu) 其信息管理能力的動態平衡,落實兼顧權利保護和產(chan) 業(ye) 發展的立法目的。

  《中國社會(hui) 科學報》:圍繞四部門聯合發布的《標識辦法》,我們(men) 還需要開展哪些方麵的研究持續推進人工智能的發展和運用?

  李延楓:《標識辦法》頒布並實施後,生成式人工智能合成內(nei) 容標識合規管理將成為(wei) 監管部門開展AI治理的重要抓手。在這一標識製度推進過程中,尚有一些核心命題需要係統破解。一是如何實現多元價(jia) 值的精細化平衡。例如,在發展與(yu) 安全之間,如何確保標識製度既能優(you) 化監管資源,充分發揮對AI技術濫用行為(wei) 的全麵有效治理效能,又不會(hui) 違反比例原則,防止監管過度加重生成式人工智能服務各企業(ye) 主體(ti) ,尤其是中小企業(ye) 的合規成本與(yu) 義(yi) 務負擔。二是麵臨(lin) 多部門跨域協同治理難題。《標識辦法》確立了網信、電信、公安、廣播電視等多部門協同監管機製,但目前央地監管標準差異、區域數字基建水平不均等問題突出。為(wei) 防止出現“九龍治水”的監管困境,需打通多部門數據壁壘、統一跨區域執法尺度、填補跨境內(nei) 容治理空白等現實梗阻,構建層級銜接、部門協作、跨域聯動的綜合治理體(ti) 係。三是如何持續迭代升級標識技術,防止技術監管被突破。麵對AI生成內(nei) 容的隱蔽性、動態性和跨模態傳(chuan) 播特性,深度偽(wei) 造技術升級可能導致內(nei) 容檢測模型存在“道高一尺魔高一丈”的識別滯後性。這些問題都需要通過不斷優(you) 化和改進標識技術,為(wei) 保持監管技術的先進性和有效性提供技術解決(jue) 方案。

責任編輯:班曉悅(報紙) 張賽(網絡)