本文擬基于海問自行總結的監管架構(見下圖),就《辦法》相較于征求意見稿的主要迭代亮點作出解讀,幫助讀者快速掌握生成式AI立法的最終基調。

一、適用范圍:明確排除未向境內公眾提供服務場景、客觀開展外資監管
(一)內容和技術服務提供者均將受到監管
不同于《互聯網信息服務深度合成管理規定》明確區分了“深度合成服務提供者”和“深度合成服務技術支持者”兩類義務主體,《辦法》僅規定了“生成式人工智能服務提供者”。鑒于《辦法》明確將“通過提供可編程接口等方式”提供服務納入監管范圍,亦對模型訓練作出了相應監管要求,因而我們理解,除了直接提供服務的內容服務提供者,技術服務提供者也被涵蓋在“生成式人工智能服務提供者”的范圍項下。
至于《辦法》未區分技術服務提供者和內容服務提供者的原因,或在于當前尚無法就最終生成內容實現明確的責任分割。當前實踐中的業態較為復雜,最終違法內容的生成可能來源于多方因素,區分義務主體的同時即需要在規范層面對違法內容生成責任作出統一劃分,但在業務實踐快速發展的情況下預設規則難免與實踐情況存在沖突之處。因此《辦法》對“生成式人工智能服務提供者”作出寬泛定義,實踐中的具體責任分配有待個案判定。
(二)未向境內公眾提供服務的研發、自用明確不適用《辦法》
相較于征求意見稿,《辦法》新增第2條第三款,明確將企業、教育和科研機構、公共文化機構等研發、應用生成式AI技術,未向境內公眾提供生成式AI服務的場景排除在適用范圍之外。除了對技術創新具有關鍵作用的科研領域,生成式AI在企業內部的應用可以大幅提高企業生產效率,對我國數字經濟發展具有重要意義。結合我們的項目經驗,能夠節省成本且提高專業化程度的行業大模型業已成為新的關注熱點。
備受關注的一個問題是:to B服務是否可以豁免適用?解題核心在于如何理解“公眾”。中國法語境下,“公眾”是一個泛指,涵蓋了個人和集體(例如組織、團體等),故解讀法條難以直接得出to B服務可以豁免適用的結論。但就具體的場景該如何判斷,則值得多推敲,例如:平臺只給其上商戶提供服務,商戶也不會基于此再面向C提供服務,相當于只是平臺內嵌的服務工具。此種情況和內部使用較為類似,而與一般的to B服務有所區別。
(三)將境外服務、外商投資客觀納入監管范疇
相較于征求意見稿,《辦法》新增了外商投資條款,要求其符合外商投資相關法律、行政法規的規定,但目前針對生成式AI的外商投資規定尚不明確。同時,明確規定若境外向境內提供的生成式AI服務違反中國法律、法規、《辦法》,國家網信部門應通知有關機構采取技術措施和其他必要措施予以處置,此條既為對監管部門的授權性規定,亦為對提供者的警示性規定。對于“封裝”類的境內服務提供者,其境外技術支持存在因合規問題而中斷的可能。《辦法》明確將對境外服務及外商投資進行監管但視角較為客觀,一方面注重針對境內公眾、公共利益的全面保護,另一方面也有利于促進國內生成式AI市場的競爭。
二、模型訓練:提出多層次規范體系、數據質量要求更加務實
如上文所言,內容和技術服務提供者均為《辦法》項下的義務主體,但在模型訓練階段,相關義務責任則僅落于技術服務提供者,該等義務分配與現實情況相符。《辦法》第7條明確針對“訓練數據處理活動”提出要求,意味著負責模型訓練的技術服務提供者應當遵守相應義務并承擔責任,而既不參與模型訓練、亦不從事訓練數據處理活動的內容服務提供者則被排除在外。
(一)僅就自身訓練數據獲取這一次流轉的合法性負責
征求意見稿要求“提供者對訓練數據來源的合法性負責”,而《辦法》第7條將其修改為“使用具有合法來源的數據和基礎模型”。對此我們理解,《辦法》一方面對“基礎模型來源合法”增設要求,另一方面也明確了提供者對“訓練數據來源合法”的合規義務邊界。
所謂“數據來源合法”,是指通過合法手段、而非竊取等非法方式獲取數據。在征求意見稿中,數據來源合法要求指向訓練數據本身,而該訓練數據可能歷經多次流轉,如果其中某次流轉存在非法獲取的情況(即存在原罪),不排除提供者需為此承擔責任的可能。而在《辦法》中,數據來源合法要求明確指向本次訓練數據使用行為,關注重點聚焦于提供者為使用而獲取訓練數據這一次流轉經歷,提供者的責任范圍由此得到了限縮。
除此之外,《辦法》提出推動公共訓練數據資源平臺建設,亦將為“數據來源合法”提供基礎保障。《辦法》第6條第二款規定,要推動公共數據分類分級有序開放,擴展高質量的公共訓練數據資源。與之相對,2023年5月23日出臺的《北京市促進通用人工智能創新發展的若干措施》中亦提及將從“歸集高質量基礎訓練數據集”、“謀劃建設數據訓練基地”、“搭建數據集精細化標注眾包服務平臺”三方面入手,提升高質量數據要素供給能力。隨著數據壟斷效應的加劇,企業若想合法獲取高質量的訓練數據集并非易事,而日后公共訓練數據集的建立和開放或將有效緩解這一矛盾,降低企業獲取具有合法來源的數據的成本。
不過,深入探究“數據來源合法”的含義,會發現其中亦存在模糊之處。例如,在服務提供者從第三方購買訓練數據集的情況下,在數據交易所進行交易是否就必然可被認定為數據來源合法?如果是場外交易,僅靠要求數據提供方作出合規承諾,是否即滿足要求?服務提供者事先是否需要進行盡職調查,是否需要數據提供方出示相關憑證以作證明?此類實操問題仍有待實踐中進一步明確。
(二)不再要求對訓練數據質量作出保證
相較于征求意見稿,《辦法》對訓練數據的質量要求從“保證數據的真實性、準確性、客觀性、多樣性”軟化為了“采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性”。訓練數據的質量對于最終生成內容的質量具有重要影響,如果訓練數據中即存在大量虛假、有害信息,那最終生成結果也難以言及真實準確,因而有必要對訓練數據作出要求。但是,由于模型訓練需要海量數據,要求服務提供者對數據質量作出保證不僅會帶來高昂的合規成本,亦缺乏可行性。不過還需注意的是,《辦法》對數據質量提升措施提出了“有效性”要求,因此仍不可大意相關合規措施的具體落實。
除此之外,相較于征求意見稿提出的人工標注規則和抽樣核驗要求,《辦法》不僅關注到數據標注不僅限于人工標注的實踐情況(實際上多數標注均非人工完成),擴張了數據標注要求的適用范圍,還新增設了數據標注質量評估要求。我們理解,日后此項亦將成為安全評估和算法備案的審查要點,建議企業事先作出合規部署。
三、內容運營管理:內容真實向善為目標、措施要求可落地性增強
(一)放寬生成內容的真實準確要求
《辦法》刪除了征求意見稿中爭議較大的“生成內容應當真實準確”要求,將其修改為了“提高生成內容的準確性和可靠性”。目前而言,“幻覺”源于大模型的固有技術缺陷,實踐中尚且無法避免,在此背景下要求生成內容完全真實準確并不現實,因而《辦法》對征求意見稿進行了修改,將結果性要求放寬為過程性要求。與之相對,企業應采取內容審核等合規措施證明其盡到了相應義務。
例如,OpenAI采用了兩種技術方法以降低模型幻覺出現的頻率。對于開放域的幻覺,OpenAI收集了ChatGPT被用戶標為不真實的現實世界數據,以及用于訓練獎勵模型的對比標注數據;對于封閉域的幻覺,OpenAI設計了一系列步驟以使用GPT-4自行生成對比數據,并最終將生成結果準確性提升了30%左右。[1]
(二)刪除模型優化訓練的效果要求和時間限定
《辦法》要求服務提供者在發現違法內容后采取模型優化訓練等措施進行整改,刪除了征求意見稿中“3個月內通過模型優化訓練等方式防止再次生成”的要求。我們理解,無論是“3個月內”的時間限定,還是“防止再次生成”的效果目標,都對服務提供者提出了較為嚴苛的技術要求,實踐中可能難以落地,所以《辦法》對該條款作出了修改。不過另需注意的是,《辦法》新增了向主管部門報告的義務要求,對此需要提供者建立相應機制以作回應。
四、通用運營管理:用戶保護更加精細、用戶管理契合實踐
(一)“防依賴沉迷義務”明確指向未成年人用戶群體
征求意見稿第10條規定,提供者應“采取適當措施防范用戶過分依賴或沉迷生成內容”,《辦法》第10條將該表述修改為提供者應“采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務”。
具體而言,《辦法》從保護對象和措施效果兩方面入手,對上述防依賴沉迷義務進行了修訂:
從保護對象來看,《辦法》將保護對象具體界定為未成年人用戶。正如我們在之前的文章《生成式AI(二):體系化構建合規指南》中所分析,結合《互聯網信息服務算法推薦管理規定》的未成年人保護條款進行體系解釋,加之未成年人用戶心智發育尚不成熟,更容易受到生成式AI影響,建立未成年人保護機制是生成式AI服務防依賴沉迷義務的應然之義。《辦法》的規定明確印證了我們的觀點。
從措施效果來看,一方面,《辦法》將“適當措施”修改為“有效措施”,提高了合規措施的效果標準;另一方面,《辦法》將“依賴或沉迷生成內容”修改為“依賴或沉迷生成式人工智能服務”,表述更加精準且合理。因為相較于具體的生成內容,未成年人更可能過度依賴或沉迷于服務功能本身,導致無法充分鍛煉獨立思考能力,阻礙未成年人的健康成長,當前世界范圍內多所學校禁用ChatGPT亦為此理。
(二)新增服務協議簽訂義務
相較于征求意見稿,《辦法》第9條要求服務提供者與使用者簽訂服務協議,明確雙方權利義務。目前而言,簽訂服務協議已成為提供生成式AI服務的實踐慣例,該項規定繼而將此舉從實踐慣例上升到了法定義務層面。我們理解,服務協議不僅對劃定雙方權利義務具有重要意義,亦會落入安全評估、算法備案中用戶權益保障情況的審查范疇。對此,我們將結合自身實務經驗,在后續推送中專就生成式AI服務法律文本的合規要點作出解讀,敬請期待。
(三)違法行為處置不再限于“暫停或終止服務”
五、監管工具:基于風險的分類分級治理
《生成式人工智能服務管理暫行辦法》
與征求意見稿對比匯總








[1] OpenAI: GPT-4 Technical Report, https://arxiv.org/pdf/2303.08774.pdf
京ICP備05019364號-1
京公網安備110105011258
近日,北京市海問律師事務所(“本所”)發現,網絡上存在將一家名為“廣州海問睿律咨詢顧問有限公司”的主體與本所進行不當關聯的大量不實信息,導致社會公眾產生混淆與誤解,也對本所的聲譽及正常執業活動造成不良影響。
本所特此澄清,本所與“廣州海問睿律咨詢顧問有限公司”(成立于2025年11月)不存在任何隸屬、投資、關聯、合作、授權或品牌許可關系,亦從未授權任何主體以“海問”的名義提供法律咨詢服務,該公司的任何行為與本所無關。更多詳情,請點擊左下方按鈕查看。