
本文內(nèi)容由神州信息新動力數(shù)字金融研究院提供
作者:楊垚立
AIGC的發(fā)展,一方面因其強大的知識和內(nèi)容生成能力,讓行業(yè)看到其廣泛的應用場景。另一方面,也由于AIGC存在不透明、不可解釋性,使得其在知識產(chǎn)權(quán)、安全、倫理和環(huán)境四個方面的面臨巨大挑戰(zhàn)。
為規(guī)范我國AIGC發(fā)展,保障合規(guī),合法,合情,合理、安全,由互聯(lián)網(wǎng)信息辦公室牽頭,經(jīng)發(fā)改委、教育部、科技部、工信部、公安部、廣電總局同意發(fā)布《生成式人工智能服務管理暫行辦法》(以下稱“辦法”)。相較于之前的征求意見稿,辦法仍保持發(fā)展與安全并重、包容審慎和分類分級監(jiān)管的基本態(tài)度,在具體表述上有所變化,在可操作性上也更加清楚
1.明確我國對AIGC的態(tài)度
首先該辦法明確管理范圍為向國內(nèi)提供服務,在國內(nèi)進行技術(shù)研發(fā)向境外提供服務的不在本辦法管理范圍內(nèi)。
該辦法闡明我國對AIGC的態(tài)度為積極支持、引導AIGC發(fā)展,并使得AIGC可以發(fā)揮更大的社會和商業(yè)價值。強化國家對生成式人工技術(shù)層面的鼓勵,明確服務層面的“包容審慎”。但相較于征求意見稿中較為籠統(tǒng)的表述為支持自主創(chuàng)新、鼓勵安全可信,在辦法中則明確對服務的態(tài)度為“包容審慎”,在算法、框架、芯片、配套軟件平臺等基礎(chǔ)技術(shù)方面則為鼓勵,并且提出“推動基礎(chǔ)設(shè)施和公共訓練資源平臺建設(shè)”。
2.在道德倫理層面提出要求
該辦法要求AIGC服務及生成內(nèi)容“符合社會主義的價值觀”、防止出現(xiàn)民族、信仰等歧視、尊重商業(yè)道德、尊重他人合法權(quán)益、“防止生成虛假信息”等。
同時,在保障內(nèi)容真實準確的方面的可行性有明顯提升。征求意見稿中要求“生成的內(nèi)容應當真實準確,采取措施防止生成虛假信息”可操作性難度大,與生成式人工智能不可控的特征相沖突,辦法中改為提升透明度,提高準確性、可靠性,可行性明顯提升。
3.明確服務提供者為最主要責任人
確認AIGC服務提供者為最主要的責任人,也就是說即使服務提供者是內(nèi)容的“搬運工”也要承擔主要責任。管理辦法將“提供者”定義為“利用生成式人工智能技術(shù)提供生成式人工智能服務(包括通過提供可編程接口等方式提供生成式人工智能服務)的組織、個人”。提供者需承擔責任包括:
● 個人信息保護
● 訓練數(shù)據(jù)來源的合法性
● 制定標注規(guī)則、培訓標注人員、保障標注正確性
● AIGC服務具有防沉迷能力
● 生成內(nèi)容不包含歧視性
● 對不合規(guī)內(nèi)容及時進行修正
● 保障用戶正常使用,同時需提供指引防止用戶不當使用
● 生成內(nèi)容按照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》進行標識
● 提供可以影響用戶信任和選擇的必要信息
相較于征求意稿,正式版中刪除要求用戶提供真實身份信息的表述。相當于對生成式人工智能服務不再要求實名制。同時正式稿中還放了松算法備案和安全評估要求,按征求意見稿中表述“利用生成式人工智能產(chǎn)品向公眾提供服務前”均需進行評估和按要求備案,辦法中放松為“具有輿論屬性或者社會動員能力的生成式人工智能服務”需進行安全評估和算法備案。這兩處表述的放松更表現(xiàn)了國家對AIGC發(fā)展“包容審慎”的態(tài)度。
4.監(jiān)管責任更加明確
辦法中對監(jiān)督檢查和法律責任的主體定義為“網(wǎng)信、發(fā)展改革、教育、科技、工業(yè)和信息化、公安、廣播電視、新聞出版等部門,依據(jù)各自職責依法加強對生成式人工智能服務的管理。”較征求意見稿中以網(wǎng)信責任為主的表述更加具體。
同時,增加對于國家監(jiān)督檢查人員的要求。“參與生成式人工智能服務安全評估和監(jiān)督檢查的相關(guān)機構(gòu)和人員對在履行職責中知悉的國家秘密、商業(yè)秘密、個人隱私和個人信息應當依法予以保密,不得泄露或者非法向他人提供”,更符合生成式人工智能的技術(shù)和行業(yè)特征。