隨著ChatGPT等生成式人工智能(“生成式AI”)應用的迅速走紅,人工智能的治理議題由此被提升至前所未有的關注高度。在學習、實踐、折返、進階的往復中,與既往一樣,我們始終在探索最為簡單質樸的合規最優解,并愿意將此過程與各位共享。讓我們隨著生成式AI的發展一起迭代。
(一)深度合成技術包含生成式AI技術
最后,從監管內容角度來看,深度合成與生成式AI技術都存在輸出不當內容、技術濫用等問題,導致監管手段具有一定的相似性,生成式AI的監管可以建立在深度合成監管的基礎之上。
(二)深度合成與生成式AI監管各有使命
我們理解,以ChatGPT為代表的生成式AI雖可以適用《深度合成管理規定》,但其規制重點與以Deepfake為代表的深度合成技術存在較大差異。
《深度合成管理規定》假定的監管對象為Deepfake(“深度偽造”)
2017年,美國社交網站Reddit出現一個名為“deepfakes”的用戶,其利用技術將色情女演員的面部替換為知名女明星,并發布了相關圖像視頻。自此,深度偽造技術逐漸步入大眾視野。2019年,我國大眾文娛領域先后出現多起“明星換臉”事件,涉嫌肖像權侵權。隨后將關注度推向高潮的為“ZAO”事件。2019年8月,換臉軟件“ZAO”上線并迅速走紅,在該款應用中,用戶可以上傳照片并將影視片段中明星的人臉替換為照片中的人臉。“ZAO”的用戶協議作出了如下規定:“確保肖像權利人同意授予‘ZAO’及其關聯公司全球范圍內完全免費、不可撤銷、永久、可轉授權和可再許可的權利,包括但不限于:人臉照片、圖片、視頻資料等肖像資料中所含的您或肖像權利人的肖像權,以及利用技術對您或肖像權利人的肖像進行形式改動”,引發了大眾對于個人信息保護的擔憂,后被網信辦約談整改。
深度偽造的一系列濫用事件引起了中國官方的高度重視。2020年12月,中共中央印發《法治社會建設實施綱要(2020-2025年)》,明確提出要完善網絡法律制度,制定完善對算法推薦、深度偽造等新技術應用的規范管理辦法。[3]2022年1月,國家網信辦就《深度合成管理規定(征求意見稿)》公開征求意見,并就規則制定的必要性進行了說明,明確提及要貫徹《法治社會建設實施綱要(2020-2025年)》中的決策部署,以及應對不法分子利用技術制作、復制、發布、傳播違法信息,詆毀、貶損他人名譽、榮譽,仿冒他人身份實施詐騙等違法行為。[4]由此可以看出,《深度合成管理規定》的重點規制對象在于深度偽造技術。
立法并未采用深度偽造的概念,原因或有其二:一是深度偽造的概念較為負面,立法旨在規制該項技術的濫用,并不意欲阻礙技術的發展或正當利用,而采用深度偽造的概念容易給人造成先入為主的負面印象;二是將深度偽造定義為監管對象,會導致監管范圍過窄。面對技術的迅猛發展,未來很可能會出現其他類似技術(例如當前的生成式AI),為了克服立法的滯后性問題,避免監管機構在執法時無法可依,《深度合成管理規定》有意規定了更寬的監管范圍。
《生成式人工智能服務辦法》假定的監管對象為ChatGPT代表的大模型應用
2022年11月,美國人工智能研究公司OpenAI開發的ChatGPT聊天機器人上線,在上線不到2個月的時間內,其月活用戶突破1億,成為史上用戶增長最快的消費者應用。在其爆火的同時,其隱含的信息濫用、虛假信息、用戶依賴、系統失控、歧視問題、網絡安全等風險引發了學界和業界的擔憂。2023年3月22日,圖靈獎得主Yoshua Bengio、特斯拉CEO(Open AI聯合創始人)Elon Musk、蘋果聯合創始人Steve Wozniak等上千名專家聯名簽署公開信,強調人工智能系統可能給人類社會帶來的巨大風險,呼吁暫停開發比GPT-4更強大的人工智能系統。[5]2023年4月10日,中國支付清算協會發布公告,倡導支付行業從業人員謹慎使用ChatGPT等工具。[6]然而,大模型的浪潮已然掀起,百度、阿里巴巴、字節跳動、華為等國內互聯網巨頭紛紛推出大模型產品,在這樣的背景之下,國家網信辦就《生成式人工智能服務辦法》公開征求意見,意為急用先行,監管以ChatGPT為代表的大模型應用。
(三)引導對人類的良性影響是生成式AI監管的底層邏輯
在明確《深度合成管理規定》與《生成式人工智能服務辦法》立法背景與重點監管對象的不同之后,分別以Deepfake和ChatGPT為例對比其典型應用場景,更有助于理解兩部規范側重點之不同。
(1)系統的自主性
在Deepfake的應用場景下,用戶通常需要向系統輸入事先準備好的素材,經由系統的加工,最終形成內容輸出。在這個過程中,用戶本身對于輸出結果具有一定的預期,系統實際上是在用戶的控制之下完成工作,自主性較低。因此,從監管的角度來看,規制的本質在于穿透技術,約束用戶濫用技術的行為。縱觀《深度合成管理規定》第二章,第六條率先從正面明確了任何組織和個人不得濫用深度合成服務的義務,其余條款則主要是對深度合成服務提供者施以管理義務,核心即在于阻止用戶的濫用行為:

相較而言,在ChatGPT的應用場景下,用戶通常無需輸入事先準備的素材,只需輸入相應指令,系統就能夠自行分析并生成輸出。在這個過程中,用戶對于輸出結果并不存在具體的預期,對系統的控制力也較弱。正如歐盟《人工智能法案》草案對生成式AI的定義一般,“生成式AI是使用基礎模型,專門用于以不同程度的自主性生成復雜的文本、圖像、音頻或視頻等內容的人工智能系統”,系統的自主性是生成式AI的重要特征,這也會導致用戶更容易依賴系統或受到系統的影響。根據OpenAI的報告,GPT-4具有產生“幻覺“的傾向,即“產生與特定來源有關的無意義或不真實的內容”,隨著模型變得愈加有說服力和可信度,這種傾向的危害會被放大,導致用戶過度依賴的問題。因此,從監管的角度來看,其需解決的重點問題在于保護用戶免受系統的不良影響。《生成式人工智能服務辦法》對提供者施加的防依賴沉迷及指導用戶正當使用義務即可印證這一觀點。
(2)系統的輸出對象

[1] https://mp.weixin.qq.com/s/wN3Jg4NPBzb7ev-ZaIAZBw
[2] https://mp.weixin.qq.com/s/0Hmwknq6bNFDFyAwRJbJHg?search_click_id=13503168500786901975-1684977031338-1595689541
[3] http://www.gov.cn/zhengce/2020-12/07/content_5567791.htm
[4] http://www.cac.gov.cn/2022-01/28/c_1644970458520968.htm
[5] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[6] http://www.pcac.org.cn/eportal/ui?pageId=598261&articleKey=617041&columnId=595085
[7] §1041 (a) (2) the term ‘deep fake’ means an audiovisual record created or altered in a manner that the record would falsely appear to a reasonable observer to be an authentic record of the actual speech or conduct of an individual;
[8] Article 3 (44d)‘deep fake’ means manipulated or synthetic audio, image or video content that would falsely appear to be authentic or truthful, and which features depictions of persons appearing to say or do things they did not say or do, produced using AI techniques, including machine learning and deep learning;
*感謝趙雅澤對本文的突出貢獻
京ICP備05019364號-1
京公網安備110105011258
近日,北京市海問律師事務所(“本所”)發現,網絡上存在將一家名為“廣州海問睿律咨詢顧問有限公司”的主體與本所進行不當關聯的大量不實信息,導致社會公眾產生混淆與誤解,也對本所的聲譽及正常執業活動造成不良影響。
本所特此澄清,本所與“廣州海問睿律咨詢顧問有限公司”(成立于2025年11月)不存在任何隸屬、投資、關聯、合作、授權或品牌許可關系,亦從未授權任何主體以“海問”的名義提供法律咨詢服務,該公司的任何行為與本所無關。更多詳情,請點擊左下方按鈕查看。