【內容摘要】生成式人工智能的技術躍進架空了個人信息處理的告知同意規製和最小必要原則,引發了虛假信息生成和個人信息泄漏的廣泛風險迭代問題。傳統個人信息的權利保護路徑麵臨認知和結構困境,無法應對生成式人工智能給個人信息保護帶來極大挑戰。以風險控製為導向的個人信息保護機製不強調信息主體對個人信息的絕對控製,旨在通過識別、評估、分配和管理將風險控製在最小範圍內,可以靈活和實用地平衡生成式人工智能應用中的信息利用和風險控製,提供有效的解決方案。在風險控製理念下,對告知同意規則和最小必要原則進行風險化解釋與調試,並建立從預防到識別再到控製的虛假信息生成風險的全過程應對機製,以及基於風險的個人信息保護合規管理體係,是當前的最優選擇。
【關鍵詞】生成式人工智能 chatgpt 個人信息保護 風險控製
文章來源:《政法論叢》2023年第4期
因篇幅所限,省略原文注釋及參考文獻。
在2023年初,chatgpt憑借其卓越的自然語言處理能力成為人工智能領域的重要裏程碑,引起了社會生產生活和未來科技發展的顛覆性變革。然而,以海量語料庫數據為基礎的生成式人工智能在為社會帶來積極變革和影響的同時,也引發了諸多個人信息保護層麵的問題。2023年3月20日,chatgpt發生了一起嚴重的信息安全事故,部分用戶的聊天記錄片段、用戶信用卡信息(包括最後四位數字、到期日期)、姓名、電子郵件地址和付款地址等敏感信息遭到泄露。3月31日,意大利數據保護當局gpdp宣布,由於openai未經同意收集、使用和披露個人信息,即刻對chatgpt施加暫時限製,成為全球範圍內第一道針對chatgpt的政府禁令。而當前諸多跡象預示生成式人工智能應用即將迎來大規模普及。這意味著,生成式人工智能給個人信息保護帶來的潛在風險可能伴隨人工智能技術的發展而持續發酵。為促進生成式人工智能的健康發展與規範應用,國家網信辦聯合國家發展改革委、教育部、科技部等七大部門於2023年7月13日公布《生成式人工智能服務管理暫行辦法》,並自2023年8月15日起施行。人類社會在迎接新興人工智能科技發展同時,須直麵與冷靜審視生成式人工智能技術的正當性,須前瞻性思考、設計與配置與之匹配兼容的個人信息保護係統製度。
一、生成式人工智能開發凸顯個人信息保護風險
以chatgpt為代表的生成式人工智能產品首先於2022年底在美國推出,目前已被廣泛用於智能辦公、智慧科研等許多領域,或將成為推動第四次工業革命的關鍵因素。從生成機製來看,生成式人工智能本質上是一種“生成型預訓練語言轉換器”。生成式人工智能技術服務提供者通過各種方式收集海量數據來形成語料庫,再通過連接大量的語料庫來訓練模型,以使其能夠學習和理解人類語言,並進行交流對話和內容生成。這一過程中伴隨著循環式的數據收集與分析,涉及大量的個人信息處理活動,無疑將給個人信息保護帶來相應風險及多重挑戰。
(一)告知同意規則被架空的風險
告知同意是我國個人信息處理的核心準則,這一規則要求信息處理者在處理個人信息時須履行告知義務,並征得信息主體明確同意,方可進行處理,其目的在於確保信息主體對其個人信息的處理過程具有充分的控製權和知情權。《網絡安全法》一度將告知同意作為個人信息處理的唯一合法性基礎,後來頒布的《個人信息保護法》盡管規定了更加多元化的合法性基礎,但仍保留了告知同意基礎性的地位。然而,在生成式人工智能的開發和應用過程中,尤其是語料庫構建與更新的過程中,告知同意規則往往無法得到有效的貫徹。
生成式人工智能語料庫的構建與更新可以分為被動和主動兩種類型。被動的語料庫構建與更新指大量用戶通過對話框自行輸入信息,係統自動將該類信息保存並納入語料庫。生成式人工智能技術的高度自動化和複雜性特點使得其難以在自動收錄用戶個人信息時向信息主體提供充分、全麵的告知,讓信息主體完全了解個人信息的處理過程和結果,從而造成對告知同意規則的違背。以chatgpt為例,openai的服務條款規定openai可以廣泛使用用戶輸入和輸出的內容,將其納入語料庫並用於改進chatgpt。chatgpt用戶在首次注冊賬號時將收到來自係統的個人信息收集提示,用戶點擊彈窗下方“下一步”即視為對其個人信息收集的同意許可。然而,從彈窗提示和openai隱私政策具體內容來看,均隻涉及到基本的信息收集事項,不涉及具體的個人信息處理方式和算法規則,而這恰恰是生成式人工智能個人信息處理中最為關鍵的內容。尤其是在語料庫模型訓練方麵缺乏透明度和公開性,這導致用戶無法全麵了解其個人信息的處理流程、用途、保存期限等關鍵信息,從而無法判斷自己的信息是否被合理使用和保護。可見,openai在收集用戶個人信息時未完全履行告知義務。同時,由於用戶隻能選擇接受隱私政策並同意信息處理,否則將無法享受由chatgpt提供的服務,用戶的同意實際上並不是真正的自主選擇,往往隻是一個形式上的程序。
主動的語料庫構建與更新則包括數據爬蟲、圖書數字化、收集學術文獻數據等方式,其中以數據爬蟲為主。openai官方網站的“我們的方法”頁麵表明,為支持其人工智能係統的訓練和發展,openai使用數據爬蟲技術來獲取大量的文本數據。這些數據來源包括博客、bing搜索引擎、維基百科等公共網站和在線資源,以及專業非營利性組織如mon crawl通過其他渠道獲得的數據。數據爬蟲技術可以通過程序自動地收集互聯網上的大量數據,這種收集方式的優點在於其能夠快速、高效地獲取大量的數據,使得模型的訓練和表現更加準確和可靠。然而,這些數據中可能存在個人信息,其來源難以追溯和驗證。生成式人工智能通過“灌入”這些數據,未經告知和征得信息主體同意,直接架空個人信息處理的告知同意規則。可見,在生成式人工智能語料庫構建與更新的過程中,無論是被動的個人信息“輸入-收錄”還是主動的數據爬取,告知同意規則均在一定程度上處於缺位狀態。
(二)最小必要原則被虛置的風險
最小必要原則要求信息處理者在處理個人信息時,必須有明確、合理的處理目的,並且該目的必須與個人信息的處理直接相關,同時采用對個人權益影響最小的方式進行處理。該原則包括三方麵的內容,即最小化、相關性和合比例性。最小必要原則源自傳統的比例原則,是國內外法律實踐中被普遍接受的個人信息處理原則,我國個人信息保護法草案曆次審議稿中均包含關於最小必要原則的規定。然而,在生成式人工智能應用實踐中,存在著信息收集超出必要範疇、信息處理期限不明、信息用途不清晰等問題,這些問題導致最小必要原則難以得到有效的貫徹。
首先,最小必要原則中的信息處理最小化要求個人信息處理應限製在為實現特定目的所必不可少的範圍內,即離開某項個人信息的處理,就無法合理地通過其他手段實現目的。信息處理最小化可進一步細化為最少數量、最少類型、最短存儲時間、最小共享範圍、最低處理頻率等具體內容。生成式人工智能作為一個超大型語言模型,通常需要逾億萬單詞的人類語言數據支持。海量訓練數據的收集是其獲取語言生成能力、上下文理解能力和世界知識能力的關鍵前提,但也可能因此在信息處理數量、頻率、類型等方麵違背信息處理最小化要求。例如,在生成式人工智能應用實踐中,由於其數據處理方式的複雜性和不確定性,往往難以確定個人信息的處理期限。當生成式人工智能的應用場景發生變化或數據集需更新時,信息處理者可能需要重新處理之前收集的個人信息。這種情況可能會導致信息主體隻同意了一次處理,卻麵臨自己的個人信息被無期限處理的情形,這與個人信息處理的最小必要原則不相符。其次,根據《個人信息保護法》第6條第1款,最小必要原則中的相關性要求必須是直接相關,即實現處理目的與個人信息處理之間具有必然的、緊密的聯係。在語料庫構建過程中,生成式人工智能有時會收集與處理目的無關的個人信息,例如用戶的搜索記錄、設備信息、通信信息,用戶的時區、地點、國家、日期和具體接觸時間等。這些信息的收集與最終的文本生成服務之間缺乏必要聯係,違背最小必要原則中的相關性要求。最後,最小必要原則中信息處理合比例性要求個人信息處理所帶來的風險與特定目的實現所帶來的利益相比須符合一定比例。然而,生成式人工智能語料庫數據中包含大量敏感的用戶個人身份信息,如姓名、電子郵件地址、電話號碼等,而這些信息並非實現優化模型目的必不可少,一旦這些敏感個人信息泄露或被不當利用,容易導致自然人的人格尊嚴受到侵害或者人身、財產安全受到危害。因此,處理敏感個人信息所帶來的風險與實現特定目的所帶來的利益(優化語言模型)相比顯著不合比例,不符合最小必要原則中最小化、合比例性兩個子原則的要求。
(三)虛假信息生成與累積的風險
生成式人工智能強大的泛化和生成能力也為個人信息保護帶來一係列負麵影響,尤其是大量虛假信息生成與累積。根據《個人信息保護法》第8條,處理個人信息應當保證個人信息的質量,避免因個人信息不準確、不完整對個人權益造成不利影響。然而,據美國新聞可信度評估與研究機構newsguard測試,chatgpt模型能夠在極短時間內改變信息,生成大量令人信服但缺乏信源的內容。究其原因,生成式人工智能生成的內容是基於對語料庫的學習和預測,是一種經驗的再現,並非從語義和邏輯角度進行推理和判斷的產物,對於生成內容本身的真實性和準確性,生成式人工智能無法進行判斷。這一特點可能導致生成式人工智能產生大量虛假信息,從而侵害個人信息權益,甚至造成對公共利益和國家利益的危害。
事實上,虛假信息生成與累積、乃至泛濫已開始對社會和個人產生嚴重影響。近期,一起由信息來源不實引發的chatgpt編造法學教授性騷擾醜聞事件,再次凸顯生成式人工智能所帶來的信息可信度和可靠性方麵的潛在風險。這種看似中立可信的技術能力實則對判斷能力不足的用戶產生極大了誤導性,同時也對相關信息主體的個人信息權益、名譽權、隱私權以及其他人格權造成損害。可以設想,如果虛假信息被誤用於學術研究,將會嚴重影響科學研究的嚴謹性,並導致相關政策製定缺乏合理性。更為嚴重的是,惡意用戶行為者或團體可能會利用該技術故意製造和傳播虛假的新聞和信息,甚至生成不端或仇視性的信息,以操縱輿論。這將嚴重影響政治穩定,破壞公眾對政治體係和社會價值觀的信任。
在當今全球各種思潮、文化和價值觀念相互碰撞的背景下,人工智能技術麵臨著被政治操縱、用作意識形態宣傳的風險,我國在生成式人工智能開發與應用中應當重點關注防範。西方發達國家掌握大數據和人工智能核心技術,按照其自身價值觀製定全球政治秩序和規則,裁剪符合自身意識形態標準的數據庫,加劇全球信息體係和政治秩序中的不平等和壟斷現象。在這種背景下,生成式人工智能技術服務提供者可以通過操縱算法或裁剪數據庫的方式,在模型中植入某些價值觀。如果開發者持有曆史錯解、文化偏見或種族歧視的價值觀,這些觀念可能會最終呈現為不實或仇視性的文本信息,並通過模型與用戶的互動產生潛在的不利意識形態影響。在當今高度互聯的社會中,生成式人工智能大麵積生成虛假信息已經不再是單純的個人信息權益問題,而是關係到國家安全和穩定的核心議題。2016年微軟的聊天機器人tay被黑客攻擊,並被惡意操作,在網上傳播種族主義和仇恨言論便是先例。meta開發的聊天機器人meta ai也有類似的經曆。
(四)個人信息泄露頻發的風險
個人信息泄露頻發風險是生成式人工智能將給個人信息保護帶來的又一大痛點。當前,生成式人工智能應用中的個人信息安全麵臨來自人工智能係統內在隱患與外部風險的雙重考驗。chatgpt開發者openai的首席技術官米拉·穆拉蒂率先表示,必須謹慎使用chatgpt,切勿在其上上傳敏感信息或核心數據,以免信息泄露,導致損失。為此,許多互聯網公司紛紛向員工發出相關警報。微軟基於預防商業機密泄露的考慮,已宣布禁止公司員工向chatgpt分享公司敏感數據。同樣,亞馬遜公司律師也警告員工“不要與chatgpt分享任何亞馬遜的機密信息,因為他們有可能將其用於訓練未來的模型。”事實證明,這種擔心並非多餘。近日,就在gpt-4最新發布之際,chatgpt出現嚴重技術漏洞,用戶在社交媒體上表示看到其他人的曆史搜索記錄標題。openai隨即立刻關閉chatgpt,當用戶再次打開該係統時,曆史聊天記錄側邊欄已被替換為“曆史記錄暫不可用,我們正在努力盡快恢複這一功能”。該事件正是由內部開源數據庫錯誤所致,隨後openai首席執行官sam altman在社交媒體發文,宣布修複程序已驗證完成,並對此“感覺十分糟糕”。可見,與其他人工智能技術一樣,生成式人工智能模型本身存在著漏洞和安全隱患。諸如模型設計不當、存儲係統錯誤、算法漏洞等都可能導致用戶個人信息泄露頻發。此外,黑客入侵人工智能係統的技術已催生出一個龐大黑色產業鏈,犯罪分子通過植入病毒性插件侵入數據庫,也將對用戶個人信息安全造成嚴重威脅。
其次,從運行角度來看,生成式人工智能還存在著一種高頻、漸進的個人信息間接泄漏風險。生成式人工智能需要從大量數據中學習和生成模型,並不斷改進模型,以提高生成文本的準確性。這就意味著,上一版本中收集的個人數據可能被用於模型訓練並在未來版本中進行輸出,從而間接導致個人信息泄露。例如,在chatgpt中輸入的文本可能包含具有隱私敏感性的信息,如醫療記錄、司法文書、個人通訊記錄等,而模型可能會學習到這些信息並在模型輸出的結果中泄露這些信息。這種個人信息泄露乃至頻發的風險,與生成式人工智能內在運行機理緊密關聯,為生成式人工智能所特有,並且一定程度廣泛存在於海量用戶“人機對話”的過程中。隻不過囿於生成式人工智能的高度複雜性和黑盒特性,其內部機製和應用過程往往難以被完全理解和掌控,從而使這種間接泄露及頻發境況很難被發現和察覺。
生成式人工智能語料庫中的個人信息泄露及其頻發境況無疑會給用戶帶來隱私威脅、精神焦慮,甚至是財產、聲譽和信任上的損失。如被不法分子濫用,進行信息關聯和深度信息挖掘,嚴重時還可能威脅到國家數據安全和總體國家安全。伴隨人類社會邁入數字文明時代,數字、信息堪稱數字文明時代的“新石油”,數字、信息安全問題更是不容置若罔聞。
二、生成式人工智能的個人信息保護二元路徑
基於上述,生成式人工智能無疑將對個人信息保護帶來諸多挑戰,亟需尋求切實的治理路徑進行應對。綜合而言,在實現個人信息保護與利用的平衡、信息安全風險合理分配及實踐效果上,風險控製路徑更具有優勢。同時,將其嵌入生成式人工智能,以保護個人信息、防範規製風險具有其正當性和可行性。
(一)個人信息保護的二元路徑
綜合而言,目前個人信息保護存在二元路徑:權利保護路徑和風險控製路徑。其中,“權利保護路徑”起源於20世紀60年代的“公平信息實踐”,其核心思想是保障信息主體對其個人信息的掌控和自主決定權。該路徑遵循“權利確認-權利行使-權利救濟”這一基本邏輯,屬於以個人為中心的法律範式。隨著個人信息保護領域的不斷深入和發展,權利保護路徑已經被廣泛接受和認可。歐盟法律更進一步確認個人信息保護權為一項基本權利,從而進一步鞏固權利保護模式的地位。然而,隨著大數據時代的到來,權利保護路徑也麵臨著越來越多的批評和挑戰。一方麵,雖然權利保護路徑彰顯信息主體的法律地位,但其相關權利保障機製卻將主要保護責任轉移給了信息主體,這種“賦權即責任”的模式導致了信息安全風險的不合理分配。另一方麵,囿於信息主體存在有限理性以及大數據技術給告知同意原則帶來結構性變革,以信息主體為中心的權利保護路徑在應用中實則存在難以克服的負擔和實踐問題。
在這一背景下,風險控製作為一種新的概念被提出,並逐漸應用於個人信息保護,最終成為國際趨勢。“風險控製路徑”旨在通過不同的機製、模式和手段對個人信息保護相關的風險進行識別、評估、分配和管理,以保障公民權利、社會利益和國家安全等法益的不受侵犯。在風險控製路徑下,個人信息權利不再具有絕對性,更多的體現為一種風險規製的工具。風險控製路徑在個人信息保護領域的發展曆程可以追溯到20世紀90年代。1995年,歐盟通過《數據保護指令》,並引入風險管理的理念,要求數據控製者采取適當的技術和組織措施,以保護個人數據不受損害。此後,歐洲各國陸續出台針對個人信息保護的法律法規,並將風險控製路徑作為一種重要的保護手段。盡管我國《個人信息保護法》未明確指出采用風險控製路徑,但從“敏感個人信息”和“一般個人信息”分類保護等具體內容規定來看,仍然對風險控製路徑進行迴應。作為一種新興的保護理念,風險控製路徑在未來生成式人工智能個人信息保護中毋容置疑將發揮重要作用。此外,在最新發布的《生成式人工智能服務管理暫行辦法》的第二章第五條中,明確提及加強各機構在生成式人工智能的風險防範領域的通力合作,亦印證了個人信息保護的風險控製路徑的重要性與必要性。
(二)生成式人工智能的個人信息保護:嵌入“風險控製路徑”的正當性
相較於以權利保護為主的路徑,風險控製路徑在個人信息保護方麵具有截然不同的特征,基於以下考量,無疑在推進生成式人工智能的個人信息保護過程中,將風險控製路徑嵌入其中,具有其自身正當性。
其一,風險控製路徑更有利於實現生成式人工智能技術利用與個人信息保護的衡平。在當代社會,我們需要在維護個人權益和推動社會經濟發展之間找到平衡點,過度追求個人信息的絕對保護可能會忽略經濟和社會發展的利益。在數字化浪潮中,數據和個人信息成為經濟和社會發展的重要基石和創新驅動力。數據創新融合了人工智能、物聯網、區塊鏈等前沿技術,正在重構人類社會和產業形態。我國的《網絡安全法》和《數據安全法》均明確規定數據開放和利用的政策支持,特別強調匿名化數據的自由利用,為企業拓展數字化業務和推動技術創新提供重要機遇。生成式人工智能以數據信息為燃料,為人類提供了前所未有的創造力和生產力,在未來,生成式人工智能將會在內容創作、圖像生成、語音合成、自然語言處理、醫療診斷等多個領域發揮重要作用。因此,在生成式人工智能開發與應用的過程中,我們需要辯證看待其中的個人信息保護與發展問題。因此,在製定個人信息保護策略時,應兼顧生成式人工智能的經濟和社會價值。如果采用權利保護路徑則過度強調個人信息的控製,不僅會導致高昂的實施成本,可能還會製約數據的流通和利用,從而對生成式人工智能的開發與應用形成阻礙。相比之下,風險控製路徑不強調個人信息的絕對控製,旨在通過風險管理和風險規製的方式將生成式人工智能應用中的個人信息處理風險降低到可接受的範圍內。這種方式在保障個人信息安全和隱私的同時,能夠有效利用數據這一寶貴資源推動社會和經濟的可持續發展,避免個人權益保護對技術創新和公共利益造成抑製。
其二,風險控製路徑更有利於實現生成式人工智能信息安全風險的合理分配。在當前風險社會中,生成式人工智能的社會價值不斷凸顯,其用戶群體持續擴大,隨之而來的個人信息保護風險也逐漸演變為一個重要的社會問題。因為一旦生成式人工智能發生信息安全事件,可能會危及上億個用戶群體,對整體社會秩序和公共利益乃至國家利益造成不利影響。正如前文所述,生成式人工智能應用中的個人信息安全風險在整體上已經上升到國家層麵的意識形態安全、國家信息安全以及網絡空間安全。此時,傳統的權利保護路徑已經不再適用,因為它通過某些機製將技術帶來的風險不合理地轉嫁給每一個獨立的信息主體,從而導致生成式人工智能信息安全風險的分配失衡。相較之下,基於風險開啟理論和獲利報償理論的風險控製路徑,強調由生成式人工智能技術服務提供者和監督機構承擔風險控製的主體責任,對信息處理活動進行價值判斷,從而將生成式人工智能應用中的個人信息保護納入到全社會風險控製的範疇中。在這種保護方式下,生成式人工智能帶來的個人信息安全保護責任不再是信息主體的單一責任,而是一個需要多方參與和共同承擔的社會責任,是一種更符合信息安全風險分配原則並且可實現期待性更高的保護路徑。
其三,風險控製路徑更有利於實現生成式人工智能應用中個人信息的高效保護。根據社會學家烏爾裏希·貝克的觀點,現代化進程中科技和經濟全球化的發展所帶來的各種風險難以預測和計算。這些風險不受時間、空間和社會界限的限製,無法完全消除,其絕對性不可避免。此外,現代社會的複雜性決定了風險之間必將相互滲透和影響,這是現代社會不可避免的趨勢。一旦人們對此形成了正確認識,“相對安全”便取代“絕對安全”,成為生成式人工智能個人信息安全風險治理的理性目標。生成式人工智能正在不斷迭代升級,其帶來的個人信息非法收集、泄露、濫用、虛假信息生成等問題已經顯露,其他潛在風險和問題或許正在醞釀之中。傳統權利保護模式以一種定型化的剛性方式,為個人信息保護劃定最低的限度,無法有效應對複雜的信息生態環境和生成式人工智能可能帶來的新型信息安全威脅。而風險控製路徑更注重個人信息保護的動態性,以量體裁衣的靈活模式,根據生成式人工智能應用的具體情況進行風險把控。這種方式考慮技術、市場、法律、管理等多個維度,能夠對生成式人工智能帶來的信息安全風險進行全方位、動態化迴應,能夠更好地適應信息化、數字化時代的發展,應對生成式人工智能帶來的新型信息安全威脅,保障個人信息的安全和隱私。
三、風險控製路徑的四層次體係展開
針對生成式人工智能應用中個人信息保護的複雜性,風險控製路徑應基於下述四層次體係展開:
(一)促使告知同意規則的“個人控製中心向風險控製中心”轉變
告知同意規則包含“告知”與“同意”兩個層麵,前者要求信息處理者必須向個人信息主體明示信息處理的範疇、方式、目的等影響個人信息主體作出同意決定的內容,後者則要求信息處理者的處理行為必須征得個人信息主體的明確甚至是單獨同意。對於生成式人工智能中的個人信息收集而言,原則上同樣需要遵守告知同意規則。《生成式人工智能服務管理辦法》也明確將授權同意作為生成式人工智能開發與運行的基本準則之一。但正如前文所述,生成式人工智能語料庫數據收集的強製性和無形性使得告知同意規則基本處於虛置狀態。若遵循嚴格的告知同意原則,生成式人工智能技術服務提供者必須對所有信息主體進行一一告知並征得明示同意,對於收集敏感個人信息的情況還需征得信息主體的單獨同意。顯然,采用強告知同意規則可能會導致生成式人工智能無法正常運行,並且個人也將因此承擔冗長的隱私協議解讀負擔。因此,為保障個人信息權益得到切實有效保護,同時促進生成式人工智能技術的持續健康發展,需要對告知同意規則進行風險化解釋和調試,推動告知同意規則由“個人控製”為中心向“風險控製”為中心轉變。
告知同意規則的風險化解釋和調試指將可能引發的風險作為個人信息處理合理性的判斷標準。具體而言,如果信息主體對生成式人工智能技術服務提供者的信息收集行為未做出明確同意或明確拒絕的意思表示,但通過個人信息保護影響評估能夠確認信息處理行為不會帶來超出合理範圍外的風險,那麽可以推定其默示同意。這一做法與美國所采用的“擇出式知情同意機製”相類似,即企業在采集用戶個人信息時並沒有征求同意的義務,隻需要在采集行為發生前或發生時向用戶進行信息披露。從美國聯邦立法到州立法,擇出式知情同意機製始終占據主導地位,這一機製更有助於提升用戶行為信息的商業化利用效率。需要注意的是,所謂“擇出同意” 即使信息主體被認定為默示同意,其在信息處理過程中仍享有選擇退出的權利,可通過新的意思表示推翻之前的默示同意。在生成式人工智能應用中同樣如此,在後續語料庫數據存儲、語言模型訓練等環節用戶仍有權撤迴(默示)同意。為此,應當要求生成式人工智能技術服務提供者提供便捷的撤迴同意的方式,以輔助用戶行使這項權利。
相反,如果評估確認風險等級較高,除了征得信息主體的明確同意之外,生成式人工智能技術服務提供者還應當啟動增強性告知程序,充分發揮告知規則在個人信息保護中的風險交流作用。具體來看,除個人信息處理的範疇、類型、目的和必要性等基本內容之外,還應就以下內容進行補充告知:首先,算法邏輯。這要求生成式人工智能技術服務提供者就個人信息與模型訓練的相關性進行說明,包括“人機對話即信息收集”這一事實以及個人信息的準確性將影響生成內容質量這些重要事項,以為用戶進行風險判斷提供指引。其次,次級處理者的名稱、處理目的、期限、方式等相關內容。以openai為代表的生成式人工智能技術服務提供方將其全部或部分處理活動委托給次級處理者,而用戶並沒有與這些第三方訂立任何信息處理協議,這可能會給個人信息保護帶來超出預期的風險。因此,在評估確認風險等級較高的情況下,生成式人工智能技術服務提供者應當向信息主體詳細披露次級處理者的信息處理情況,使信息主體能夠全麵了解風險和後果,從而做出決策。
(二)推進最小必要原則的風險化解釋
與告知同意規則著力於事前保護不同,最小必要原則主要強調信息主體合法權益的事中和事後保護,其通過相關性、最小化、合比例性三方麵的要求來規製信息處理行為,在個人信息保護體係中發揮了不可或缺的重要作用。然而,最小必要原則的要求與生成式人工智能實現其主要處理目的之間存在巨大張力:生成式人工智能的運行機製決定了其需要大量數據驅動的模型訓練,而這一過程容易導致超出必要範疇收集個人信息、信息處理期限不明、信息用途不清晰等問題,與最小必要原則要求產生衝突,使最小必要原則的應用在實踐中受到限製。為化解這一困境,可以采用風險化轉型的方式重新解釋最小必要原則,即以場景分析下的風險控製為基準,推動最小必要原則向“合理必要”的轉變。通過這種方式,可以在保留和承認最小必要原則的前提下,避免其僵化應用對生成式人工智能技術的發展造成限製。
此時,最小必要原則將被視為一種風險預防和預警機製,要求生成式人工智能技術服務提供者在處理個人信息時,必須將潛在風險控製在合理水平內。這將促使最小必要原則的靈活使用,使其得以更好地適應生成式人工智能的實際應用場景。與我國形成鮮明對比,歐盟法律體係下相關原則更加靈活。例如,歐盟gdpr規定了平衡測試的機製,要求數據處理者在權衡個人信息保護和處理的必要性和合法性時,需要考慮利益平衡和風險評估等因素,以確保個人信息合理利用和保護的動態平衡。實際上,最小必要原則在我國實踐中的僵化適用已受到眾多學者質疑。有學者認為,應將“禁止過度損害”作為最小必要原則適用的一個重要考慮因素。也有學者提出,在特定情形下應當以“有限性原則”替代最小化原則,這些主張實際上都蘊含著風險控製的思維。可見,在生成式人工智能應用中,有必要將最小必要原則的風險化解釋視為一項應時而生的必要措施。
與此同時,還需要明確一些具體情形作為限製以平衡最小必要原則被風險化解釋帶來的不確定性。具體來看,包括以下方麵:首先,個人信息的收集仍需以實現生成式人工智能運行目的為限,非實現該目的所必須的個人信息不應收集。例如,搜索記錄、設備信息和通信信息等個人信息與實現生成式人工智能運行目的無關,收集此類信息無法構成“合理必要”,反而增加安全風險。其次,個人信息處理的時限亦須符合最小必要原則。根據《個人信息保護法》第47條,當生成式人工智能所存儲的信息過期或不再與其訓練和應用有關時,存儲機構有義務在合理時間內刪除或進行去標識化處理。刪除機製是最小必要原則和目的限製原則的具體體現,在生成式人工智能信息儲存時間難以確定的情形下,這一機製應當得到切實落實,以降低信息累積帶來的風險。最後,應嚴格控製敏感個人信息的收集和處理。敏感個人信息使得“基本權利麵臨高風險損害”,全球個人信息保護體係均特別關注敏感個人信息的收集和處理,尤其是歐盟gdpr直接確立了敏感個人信息處理的“一般禁止、例外允許”的原則性規定。因此,生成式人工智能技術服務提供者必須嚴格控製敏感個人信息的收集和處理。即使在特定情況下難以避免收集敏感個人信息,也應盡可能避免將其用於模型訓練,以降低敏感個人信息泄露的風險。
(三)建立虛假信息生成風險的全過程應對機製
在《生成式人工智能服務管理暫行辦法》總則第四條第一款中,明確闡述了生成式人工智能的生成內容限製,尤其是不得生成煽動顛覆國家政權、推翻社會主義製度,危害國家安全和利益、等虛假有害信息。因此,為了有效防控生成式人工智能帶來的虛假信息生成風險,首先需明確風險來源,並清晰界定規製的對象範圍。生成式人工智能核心技術基於算法模型和龐大的數據集,這是導致虛假信息生成的主要風險源頭,應著重對這兩方麵規範,並堅持從預防到識別再到控製這一風險控製思路,建立虛假信息生成風險的全過程應對機製。具體說,該應對機製應包括以下方麵:
其一,建立可信的數據來源和算法模型。數據來源和算法模型分別是生成式人工智能的基礎和核心技術,直接影響了生成式模型的質量和可信度,建立可信的數據來源和算法模型可以減少誤差和漏洞的產生,從源頭防範生成式人工智能生成虛假信息。根據《互聯網信息服務深度合成管理規定》等相關規定,可以從以下方麵來建立可信的數據來源和算法模型。一方麵,應當確保所使用的數據來源的合法性和合規性,符合數據保護法、隱私保護法和知識產權法等相關法律和規定。並且應當通過數據清洗、數據歸一化和數據轉換等措施,以減少數據中的誤差,確保數據來源的質量和準確性。當前,以chatgpt未代表的生成式人工智能既未公開其數據獲取方式,也未標明語料庫數據獲取來源,致使語料庫中數據和信息來源的合法性和真實性無從判別。為確保生成內容的真實、可信,應當根據上述規定強化這方麵的合規要求。另一方麵,應當使用正則化和交叉驗證等技術減少算法模型過擬合,以確保模型在麵對各種攻擊和惡意操作時也能保持其準確性和可靠性。同時生成式人工智能技術服務提供者應當定期對其產品進行合規審查,識別和解決潛在的技術安全隱患,以保障生成文本的真實性和避免潛在的風險。
其二,建立透明、可解釋的算法模型。為保證生成式人工智能生成內容客觀、真實、可信,建立透明、可解釋的算法模型尤為重要。與其他語言模型一樣,生成式人工智能並非完全客觀、中立的工具。其對世界的“認識”取決於算法和設計者所做的決定,如使用哪類數據進行文本訓練或使用何種生成方式進行內容迴複。生成式人工智能算法的難以理解和非直覺性特點為其價值判斷和意識形態安全風險帶來了挑戰。為此,算法透明原則應運而生,旨在揭開算法生成內容的真實麵貌,從而增強其可解釋性和可問責性。遵循該原則,通過公開和披露算法設計原理、數據輸入輸出等要素,可保障算法公正性和可信性,確保生成內容的真實性和客觀性。在此基礎上,為用戶賦予獲取算法解釋的權利,將用戶協議轉化為實質上的平等,進而形成用戶對虛假信息生成風險的主動防禦。為了更好地實現算法透明和可解釋的原則,一些國家和組織也發布了相應的指導方針。例如,英國信息專員辦公室在2020年發布了《人工智能決策說明指南》,其中涵蓋了ai決策說明的六種類型,為生成式人工智能技術服務提供者提供參考和指導。我國可以此為參照構建完善生成式人工智能算法解釋相關規則。
其三,進行深度合成標識。深度合成標識是控製生成式人工智能虛假信息傳播的重要手段之一,可以幫助監管部門有效追蹤虛假信息的來源,提高虛假信息的識別率,促進生成式人工智能的透明化。《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理辦法》等相關規定反複提到對深度合成內容進行標識。生成式人工智能技術服務提供者應當對生成內容中可能導致公眾混淆或者誤認的,在生成內容合理位置、區域進行顯著標識,向公眾提示深度合成情況。尤其是在涉及醫療、金融、教育等問答的時候,應進行更加顯著的風險提示。然而,現有規定隻是概括性的,並未對深度合成標識的技術標準和規範進行明確規定。未來還應建立成式人工智能技術行業深度合成標識的技術標準和規範,明確該行業深度合成標識的要求和實現方法,提高深度合成標識的可行性和普適性,以促進深度合成標識規定在生成式人工智能應用中的切實落實。
其四,建立虛假信息鑒別與處置機製。在部分虛假信息已經生成的既定事實下,為了及時發現和處置生成式人工智能產生的虛假信息,減少其對社會、經濟和個人造成的負麵影響,還應當構建虛假信息鑒別與處置機製。通過建立用於識別違法和不良信息的特征庫、建立健全虛假信息質疑和辟謠機製、對接信息發布平台實施暫停服務等措施及時識別和控製虛假信息,並防止其進一步擴散。此外,還應建立嚴格的責任製度。生成式人工智能研發人員、所有者、運營者和發布平台根據其過錯在各自責任範圍內承擔虛假信息生成的法律責任。在責任分配時應遵循支配原則,即風險屬於誰的管轄範圍,誰便需要對風險及由此產生的結果來負責。
(四)健全基於風險的個人信息保護合規製度體係
隨著《個人信息保護法》的正式實施,越來越多的企業開始建立個人信息保護合規管理體係,以規範企業內部的個人信息處理行為,預防個人信息泄漏等安全事件的發生。尤其對於大型個人信息處理者來說,建立個人信息保護合規管理體係是實現個人信息安全保障的必要之舉。《個人信息保護法》第58條明確規定對“超大互聯網平台”課以“建立健全個人信息保護合規製度體係”的義務。因此,生成式人工智能服務提供者作為大型個人信息處理者,同樣應承擔起健全個人信息保護合規製度體係的義務。今後應努力在生成式人工智能信息安全保障體係中嵌入個人信息保護合規內容,並著重從以下兩方麵入手:
其一,建立生成式人工智能個人信息保護影響評估製度。風險評估是所有領域中風險控製的核心組成部分,它迫使信息處理者“識別、評估並最終管理個人信息處理給權利和自由帶來的高風險”,有助於從源頭上減少個人信息泄漏風險的發生。在生成式人工智能應用中,涉及敏感個人信息處理、利用個人信息進行自動化決策、委托處理個人信息等多項信息處理高風險情形,更容易造成個人信息泄露,應當將個人信息保護影響評估作為信息保護合規的一項核心任務。英國信息專員辦公室(ico)在2022年發布的《如何恰當且合法地使用ai及個人信息》中明確指出,數據控製者在使用ai係統之前應進行個人信息保護影響評估,並根據實際情況采取與其風險相適應的措施降低可能的損害。我國國家互聯網信息辦公室等部門於2023年7月13日公布的《生成式人工智能服務管理辦法》暫未涉及生成式人工智能個人信息保護影響評估,相關內容尚需參照《個人信息保護法》第55條和第56條的規定。
但總體看,我國《個人信息保護法》中的個人信息保護影響評估製度仍較粗疏,在生成式人工智能應用方麵需進一步完善。其中最關鍵的是缺乏向公眾強製披露的機製,公共監督缺位將導致難以確保個人信息保護影響評估風險預防工具朝著公共利益的方向發展。對於該問題,《信息安全技術個人信息安全影響評估指南》已明確規定一係列措施。在生成式人工智能的個人信息保護影響評估中,可以該指南為參照,公開個人信息保護影響評估報告或組建公眾代表委員會,確保評估過程接受外部監督。
其二,設置生成式人工智能個人信息保護獨立監督機構。根據《個人信息保護法》第58條的規定,大型互聯網平台企業需承擔設立獨立監督機構的特別義務,以確保其個人信息處理符合合規要求。此項義務的適用標準包括三個方麵:提供重要互聯網平台服務、用戶數量眾多、業務類型複雜的個人信息處理者。基於此標準,《互聯網平台分類分級指南(征求意見稿)》和《互聯網平台落實主體責任指南(征求意見稿)》對其進行了進一步詳細闡述。以chatgpt為代表的生成式人工智能作為一種新型的人工智能技術,僅用兩個月時間便獲得了一億的用戶量。其個人信息處理量與大型互聯網平台企業相似,並且廣泛應用於推動經濟發展、保障民生、維護國家安全等重要領域,屬於“提供重要互聯網平台服務”的信息處理者。因此,生成式人工智能應設立獨立監督機構以監督個人信息保護情況,充分履行社會責任。
鑒於生成式人工智能應用中的個人信息處理往往伴隨高度複雜的算法和技術,獨立監督機構人員應當包括具備相應專業知識和技術能力的專業人員。在職責範圍上,獨立監督機構應當從製度合規、技術合規和組織合規三方麵著手,對生成式人工智能應用中的個人信息安全事前防範、事中規製和事後處置的合規情況進行監督。包括個人信息保護負責人的設立、個人信息跨境安全評估、個人信息安全事件應急預案、合規審計、發布個人信息保護社會責任報告等。總體來看,對生成式人工智能技術服務提供者施加個人信息保護特別義務,是風險控製的重要措施。
結語
生成式人工智能既有為人類生產生活與社會變革帶來諸多便利的一麵,也存在對人格尊嚴侵害的一麵。近來chatgpt用戶個人信息泄漏及虛構法學教授性騷擾事件接連發生,深刻揭示了生成式人工智能的威脅範圍和對社會穩定的潛在危害,也讓個人信息保護及其風險防範機製的脆弱性暴露無遺。
盡管個人信息保護製度存在被技術侵蝕的風險,但我們不能放棄這些製度,而應該在風險控製的基礎上進一步轉型,以更好地保護個人信息權益和尊嚴。未來,我們需要加強對人工智能倫理和隱私保護問題的研究,推動更加完善的個人信息保護製度的建立,以保障人類尊嚴與科技進步的平衡發展。
【關鍵詞】生成式人工智能 chatgpt 個人信息保護 風險控製
文章來源:《政法論叢》2023年第4期
因篇幅所限,省略原文注釋及參考文獻。
在2023年初,chatgpt憑借其卓越的自然語言處理能力成為人工智能領域的重要裏程碑,引起了社會生產生活和未來科技發展的顛覆性變革。然而,以海量語料庫數據為基礎的生成式人工智能在為社會帶來積極變革和影響的同時,也引發了諸多個人信息保護層麵的問題。2023年3月20日,chatgpt發生了一起嚴重的信息安全事故,部分用戶的聊天記錄片段、用戶信用卡信息(包括最後四位數字、到期日期)、姓名、電子郵件地址和付款地址等敏感信息遭到泄露。3月31日,意大利數據保護當局gpdp宣布,由於openai未經同意收集、使用和披露個人信息,即刻對chatgpt施加暫時限製,成為全球範圍內第一道針對chatgpt的政府禁令。而當前諸多跡象預示生成式人工智能應用即將迎來大規模普及。這意味著,生成式人工智能給個人信息保護帶來的潛在風險可能伴隨人工智能技術的發展而持續發酵。為促進生成式人工智能的健康發展與規範應用,國家網信辦聯合國家發展改革委、教育部、科技部等七大部門於2023年7月13日公布《生成式人工智能服務管理暫行辦法》,並自2023年8月15日起施行。人類社會在迎接新興人工智能科技發展同時,須直麵與冷靜審視生成式人工智能技術的正當性,須前瞻性思考、設計與配置與之匹配兼容的個人信息保護係統製度。
一、生成式人工智能開發凸顯個人信息保護風險
以chatgpt為代表的生成式人工智能產品首先於2022年底在美國推出,目前已被廣泛用於智能辦公、智慧科研等許多領域,或將成為推動第四次工業革命的關鍵因素。從生成機製來看,生成式人工智能本質上是一種“生成型預訓練語言轉換器”。生成式人工智能技術服務提供者通過各種方式收集海量數據來形成語料庫,再通過連接大量的語料庫來訓練模型,以使其能夠學習和理解人類語言,並進行交流對話和內容生成。這一過程中伴隨著循環式的數據收集與分析,涉及大量的個人信息處理活動,無疑將給個人信息保護帶來相應風險及多重挑戰。
(一)告知同意規則被架空的風險
告知同意是我國個人信息處理的核心準則,這一規則要求信息處理者在處理個人信息時須履行告知義務,並征得信息主體明確同意,方可進行處理,其目的在於確保信息主體對其個人信息的處理過程具有充分的控製權和知情權。《網絡安全法》一度將告知同意作為個人信息處理的唯一合法性基礎,後來頒布的《個人信息保護法》盡管規定了更加多元化的合法性基礎,但仍保留了告知同意基礎性的地位。然而,在生成式人工智能的開發和應用過程中,尤其是語料庫構建與更新的過程中,告知同意規則往往無法得到有效的貫徹。
生成式人工智能語料庫的構建與更新可以分為被動和主動兩種類型。被動的語料庫構建與更新指大量用戶通過對話框自行輸入信息,係統自動將該類信息保存並納入語料庫。生成式人工智能技術的高度自動化和複雜性特點使得其難以在自動收錄用戶個人信息時向信息主體提供充分、全麵的告知,讓信息主體完全了解個人信息的處理過程和結果,從而造成對告知同意規則的違背。以chatgpt為例,openai的服務條款規定openai可以廣泛使用用戶輸入和輸出的內容,將其納入語料庫並用於改進chatgpt。chatgpt用戶在首次注冊賬號時將收到來自係統的個人信息收集提示,用戶點擊彈窗下方“下一步”即視為對其個人信息收集的同意許可。然而,從彈窗提示和openai隱私政策具體內容來看,均隻涉及到基本的信息收集事項,不涉及具體的個人信息處理方式和算法規則,而這恰恰是生成式人工智能個人信息處理中最為關鍵的內容。尤其是在語料庫模型訓練方麵缺乏透明度和公開性,這導致用戶無法全麵了解其個人信息的處理流程、用途、保存期限等關鍵信息,從而無法判斷自己的信息是否被合理使用和保護。可見,openai在收集用戶個人信息時未完全履行告知義務。同時,由於用戶隻能選擇接受隱私政策並同意信息處理,否則將無法享受由chatgpt提供的服務,用戶的同意實際上並不是真正的自主選擇,往往隻是一個形式上的程序。
主動的語料庫構建與更新則包括數據爬蟲、圖書數字化、收集學術文獻數據等方式,其中以數據爬蟲為主。openai官方網站的“我們的方法”頁麵表明,為支持其人工智能係統的訓練和發展,openai使用數據爬蟲技術來獲取大量的文本數據。這些數據來源包括博客、bing搜索引擎、維基百科等公共網站和在線資源,以及專業非營利性組織如mon crawl通過其他渠道獲得的數據。數據爬蟲技術可以通過程序自動地收集互聯網上的大量數據,這種收集方式的優點在於其能夠快速、高效地獲取大量的數據,使得模型的訓練和表現更加準確和可靠。然而,這些數據中可能存在個人信息,其來源難以追溯和驗證。生成式人工智能通過“灌入”這些數據,未經告知和征得信息主體同意,直接架空個人信息處理的告知同意規則。可見,在生成式人工智能語料庫構建與更新的過程中,無論是被動的個人信息“輸入-收錄”還是主動的數據爬取,告知同意規則均在一定程度上處於缺位狀態。
(二)最小必要原則被虛置的風險
最小必要原則要求信息處理者在處理個人信息時,必須有明確、合理的處理目的,並且該目的必須與個人信息的處理直接相關,同時采用對個人權益影響最小的方式進行處理。該原則包括三方麵的內容,即最小化、相關性和合比例性。最小必要原則源自傳統的比例原則,是國內外法律實踐中被普遍接受的個人信息處理原則,我國個人信息保護法草案曆次審議稿中均包含關於最小必要原則的規定。然而,在生成式人工智能應用實踐中,存在著信息收集超出必要範疇、信息處理期限不明、信息用途不清晰等問題,這些問題導致最小必要原則難以得到有效的貫徹。
首先,最小必要原則中的信息處理最小化要求個人信息處理應限製在為實現特定目的所必不可少的範圍內,即離開某項個人信息的處理,就無法合理地通過其他手段實現目的。信息處理最小化可進一步細化為最少數量、最少類型、最短存儲時間、最小共享範圍、最低處理頻率等具體內容。生成式人工智能作為一個超大型語言模型,通常需要逾億萬單詞的人類語言數據支持。海量訓練數據的收集是其獲取語言生成能力、上下文理解能力和世界知識能力的關鍵前提,但也可能因此在信息處理數量、頻率、類型等方麵違背信息處理最小化要求。例如,在生成式人工智能應用實踐中,由於其數據處理方式的複雜性和不確定性,往往難以確定個人信息的處理期限。當生成式人工智能的應用場景發生變化或數據集需更新時,信息處理者可能需要重新處理之前收集的個人信息。這種情況可能會導致信息主體隻同意了一次處理,卻麵臨自己的個人信息被無期限處理的情形,這與個人信息處理的最小必要原則不相符。其次,根據《個人信息保護法》第6條第1款,最小必要原則中的相關性要求必須是直接相關,即實現處理目的與個人信息處理之間具有必然的、緊密的聯係。在語料庫構建過程中,生成式人工智能有時會收集與處理目的無關的個人信息,例如用戶的搜索記錄、設備信息、通信信息,用戶的時區、地點、國家、日期和具體接觸時間等。這些信息的收集與最終的文本生成服務之間缺乏必要聯係,違背最小必要原則中的相關性要求。最後,最小必要原則中信息處理合比例性要求個人信息處理所帶來的風險與特定目的實現所帶來的利益相比須符合一定比例。然而,生成式人工智能語料庫數據中包含大量敏感的用戶個人身份信息,如姓名、電子郵件地址、電話號碼等,而這些信息並非實現優化模型目的必不可少,一旦這些敏感個人信息泄露或被不當利用,容易導致自然人的人格尊嚴受到侵害或者人身、財產安全受到危害。因此,處理敏感個人信息所帶來的風險與實現特定目的所帶來的利益(優化語言模型)相比顯著不合比例,不符合最小必要原則中最小化、合比例性兩個子原則的要求。
(三)虛假信息生成與累積的風險
生成式人工智能強大的泛化和生成能力也為個人信息保護帶來一係列負麵影響,尤其是大量虛假信息生成與累積。根據《個人信息保護法》第8條,處理個人信息應當保證個人信息的質量,避免因個人信息不準確、不完整對個人權益造成不利影響。然而,據美國新聞可信度評估與研究機構newsguard測試,chatgpt模型能夠在極短時間內改變信息,生成大量令人信服但缺乏信源的內容。究其原因,生成式人工智能生成的內容是基於對語料庫的學習和預測,是一種經驗的再現,並非從語義和邏輯角度進行推理和判斷的產物,對於生成內容本身的真實性和準確性,生成式人工智能無法進行判斷。這一特點可能導致生成式人工智能產生大量虛假信息,從而侵害個人信息權益,甚至造成對公共利益和國家利益的危害。
事實上,虛假信息生成與累積、乃至泛濫已開始對社會和個人產生嚴重影響。近期,一起由信息來源不實引發的chatgpt編造法學教授性騷擾醜聞事件,再次凸顯生成式人工智能所帶來的信息可信度和可靠性方麵的潛在風險。這種看似中立可信的技術能力實則對判斷能力不足的用戶產生極大了誤導性,同時也對相關信息主體的個人信息權益、名譽權、隱私權以及其他人格權造成損害。可以設想,如果虛假信息被誤用於學術研究,將會嚴重影響科學研究的嚴謹性,並導致相關政策製定缺乏合理性。更為嚴重的是,惡意用戶行為者或團體可能會利用該技術故意製造和傳播虛假的新聞和信息,甚至生成不端或仇視性的信息,以操縱輿論。這將嚴重影響政治穩定,破壞公眾對政治體係和社會價值觀的信任。
在當今全球各種思潮、文化和價值觀念相互碰撞的背景下,人工智能技術麵臨著被政治操縱、用作意識形態宣傳的風險,我國在生成式人工智能開發與應用中應當重點關注防範。西方發達國家掌握大數據和人工智能核心技術,按照其自身價值觀製定全球政治秩序和規則,裁剪符合自身意識形態標準的數據庫,加劇全球信息體係和政治秩序中的不平等和壟斷現象。在這種背景下,生成式人工智能技術服務提供者可以通過操縱算法或裁剪數據庫的方式,在模型中植入某些價值觀。如果開發者持有曆史錯解、文化偏見或種族歧視的價值觀,這些觀念可能會最終呈現為不實或仇視性的文本信息,並通過模型與用戶的互動產生潛在的不利意識形態影響。在當今高度互聯的社會中,生成式人工智能大麵積生成虛假信息已經不再是單純的個人信息權益問題,而是關係到國家安全和穩定的核心議題。2016年微軟的聊天機器人tay被黑客攻擊,並被惡意操作,在網上傳播種族主義和仇恨言論便是先例。meta開發的聊天機器人meta ai也有類似的經曆。
(四)個人信息泄露頻發的風險
個人信息泄露頻發風險是生成式人工智能將給個人信息保護帶來的又一大痛點。當前,生成式人工智能應用中的個人信息安全麵臨來自人工智能係統內在隱患與外部風險的雙重考驗。chatgpt開發者openai的首席技術官米拉·穆拉蒂率先表示,必須謹慎使用chatgpt,切勿在其上上傳敏感信息或核心數據,以免信息泄露,導致損失。為此,許多互聯網公司紛紛向員工發出相關警報。微軟基於預防商業機密泄露的考慮,已宣布禁止公司員工向chatgpt分享公司敏感數據。同樣,亞馬遜公司律師也警告員工“不要與chatgpt分享任何亞馬遜的機密信息,因為他們有可能將其用於訓練未來的模型。”事實證明,這種擔心並非多餘。近日,就在gpt-4最新發布之際,chatgpt出現嚴重技術漏洞,用戶在社交媒體上表示看到其他人的曆史搜索記錄標題。openai隨即立刻關閉chatgpt,當用戶再次打開該係統時,曆史聊天記錄側邊欄已被替換為“曆史記錄暫不可用,我們正在努力盡快恢複這一功能”。該事件正是由內部開源數據庫錯誤所致,隨後openai首席執行官sam altman在社交媒體發文,宣布修複程序已驗證完成,並對此“感覺十分糟糕”。可見,與其他人工智能技術一樣,生成式人工智能模型本身存在著漏洞和安全隱患。諸如模型設計不當、存儲係統錯誤、算法漏洞等都可能導致用戶個人信息泄露頻發。此外,黑客入侵人工智能係統的技術已催生出一個龐大黑色產業鏈,犯罪分子通過植入病毒性插件侵入數據庫,也將對用戶個人信息安全造成嚴重威脅。
其次,從運行角度來看,生成式人工智能還存在著一種高頻、漸進的個人信息間接泄漏風險。生成式人工智能需要從大量數據中學習和生成模型,並不斷改進模型,以提高生成文本的準確性。這就意味著,上一版本中收集的個人數據可能被用於模型訓練並在未來版本中進行輸出,從而間接導致個人信息泄露。例如,在chatgpt中輸入的文本可能包含具有隱私敏感性的信息,如醫療記錄、司法文書、個人通訊記錄等,而模型可能會學習到這些信息並在模型輸出的結果中泄露這些信息。這種個人信息泄露乃至頻發的風險,與生成式人工智能內在運行機理緊密關聯,為生成式人工智能所特有,並且一定程度廣泛存在於海量用戶“人機對話”的過程中。隻不過囿於生成式人工智能的高度複雜性和黑盒特性,其內部機製和應用過程往往難以被完全理解和掌控,從而使這種間接泄露及頻發境況很難被發現和察覺。
生成式人工智能語料庫中的個人信息泄露及其頻發境況無疑會給用戶帶來隱私威脅、精神焦慮,甚至是財產、聲譽和信任上的損失。如被不法分子濫用,進行信息關聯和深度信息挖掘,嚴重時還可能威脅到國家數據安全和總體國家安全。伴隨人類社會邁入數字文明時代,數字、信息堪稱數字文明時代的“新石油”,數字、信息安全問題更是不容置若罔聞。
二、生成式人工智能的個人信息保護二元路徑
基於上述,生成式人工智能無疑將對個人信息保護帶來諸多挑戰,亟需尋求切實的治理路徑進行應對。綜合而言,在實現個人信息保護與利用的平衡、信息安全風險合理分配及實踐效果上,風險控製路徑更具有優勢。同時,將其嵌入生成式人工智能,以保護個人信息、防範規製風險具有其正當性和可行性。
(一)個人信息保護的二元路徑
綜合而言,目前個人信息保護存在二元路徑:權利保護路徑和風險控製路徑。其中,“權利保護路徑”起源於20世紀60年代的“公平信息實踐”,其核心思想是保障信息主體對其個人信息的掌控和自主決定權。該路徑遵循“權利確認-權利行使-權利救濟”這一基本邏輯,屬於以個人為中心的法律範式。隨著個人信息保護領域的不斷深入和發展,權利保護路徑已經被廣泛接受和認可。歐盟法律更進一步確認個人信息保護權為一項基本權利,從而進一步鞏固權利保護模式的地位。然而,隨著大數據時代的到來,權利保護路徑也麵臨著越來越多的批評和挑戰。一方麵,雖然權利保護路徑彰顯信息主體的法律地位,但其相關權利保障機製卻將主要保護責任轉移給了信息主體,這種“賦權即責任”的模式導致了信息安全風險的不合理分配。另一方麵,囿於信息主體存在有限理性以及大數據技術給告知同意原則帶來結構性變革,以信息主體為中心的權利保護路徑在應用中實則存在難以克服的負擔和實踐問題。
在這一背景下,風險控製作為一種新的概念被提出,並逐漸應用於個人信息保護,最終成為國際趨勢。“風險控製路徑”旨在通過不同的機製、模式和手段對個人信息保護相關的風險進行識別、評估、分配和管理,以保障公民權利、社會利益和國家安全等法益的不受侵犯。在風險控製路徑下,個人信息權利不再具有絕對性,更多的體現為一種風險規製的工具。風險控製路徑在個人信息保護領域的發展曆程可以追溯到20世紀90年代。1995年,歐盟通過《數據保護指令》,並引入風險管理的理念,要求數據控製者采取適當的技術和組織措施,以保護個人數據不受損害。此後,歐洲各國陸續出台針對個人信息保護的法律法規,並將風險控製路徑作為一種重要的保護手段。盡管我國《個人信息保護法》未明確指出采用風險控製路徑,但從“敏感個人信息”和“一般個人信息”分類保護等具體內容規定來看,仍然對風險控製路徑進行迴應。作為一種新興的保護理念,風險控製路徑在未來生成式人工智能個人信息保護中毋容置疑將發揮重要作用。此外,在最新發布的《生成式人工智能服務管理暫行辦法》的第二章第五條中,明確提及加強各機構在生成式人工智能的風險防範領域的通力合作,亦印證了個人信息保護的風險控製路徑的重要性與必要性。
(二)生成式人工智能的個人信息保護:嵌入“風險控製路徑”的正當性
相較於以權利保護為主的路徑,風險控製路徑在個人信息保護方麵具有截然不同的特征,基於以下考量,無疑在推進生成式人工智能的個人信息保護過程中,將風險控製路徑嵌入其中,具有其自身正當性。
其一,風險控製路徑更有利於實現生成式人工智能技術利用與個人信息保護的衡平。在當代社會,我們需要在維護個人權益和推動社會經濟發展之間找到平衡點,過度追求個人信息的絕對保護可能會忽略經濟和社會發展的利益。在數字化浪潮中,數據和個人信息成為經濟和社會發展的重要基石和創新驅動力。數據創新融合了人工智能、物聯網、區塊鏈等前沿技術,正在重構人類社會和產業形態。我國的《網絡安全法》和《數據安全法》均明確規定數據開放和利用的政策支持,特別強調匿名化數據的自由利用,為企業拓展數字化業務和推動技術創新提供重要機遇。生成式人工智能以數據信息為燃料,為人類提供了前所未有的創造力和生產力,在未來,生成式人工智能將會在內容創作、圖像生成、語音合成、自然語言處理、醫療診斷等多個領域發揮重要作用。因此,在生成式人工智能開發與應用的過程中,我們需要辯證看待其中的個人信息保護與發展問題。因此,在製定個人信息保護策略時,應兼顧生成式人工智能的經濟和社會價值。如果采用權利保護路徑則過度強調個人信息的控製,不僅會導致高昂的實施成本,可能還會製約數據的流通和利用,從而對生成式人工智能的開發與應用形成阻礙。相比之下,風險控製路徑不強調個人信息的絕對控製,旨在通過風險管理和風險規製的方式將生成式人工智能應用中的個人信息處理風險降低到可接受的範圍內。這種方式在保障個人信息安全和隱私的同時,能夠有效利用數據這一寶貴資源推動社會和經濟的可持續發展,避免個人權益保護對技術創新和公共利益造成抑製。
其二,風險控製路徑更有利於實現生成式人工智能信息安全風險的合理分配。在當前風險社會中,生成式人工智能的社會價值不斷凸顯,其用戶群體持續擴大,隨之而來的個人信息保護風險也逐漸演變為一個重要的社會問題。因為一旦生成式人工智能發生信息安全事件,可能會危及上億個用戶群體,對整體社會秩序和公共利益乃至國家利益造成不利影響。正如前文所述,生成式人工智能應用中的個人信息安全風險在整體上已經上升到國家層麵的意識形態安全、國家信息安全以及網絡空間安全。此時,傳統的權利保護路徑已經不再適用,因為它通過某些機製將技術帶來的風險不合理地轉嫁給每一個獨立的信息主體,從而導致生成式人工智能信息安全風險的分配失衡。相較之下,基於風險開啟理論和獲利報償理論的風險控製路徑,強調由生成式人工智能技術服務提供者和監督機構承擔風險控製的主體責任,對信息處理活動進行價值判斷,從而將生成式人工智能應用中的個人信息保護納入到全社會風險控製的範疇中。在這種保護方式下,生成式人工智能帶來的個人信息安全保護責任不再是信息主體的單一責任,而是一個需要多方參與和共同承擔的社會責任,是一種更符合信息安全風險分配原則並且可實現期待性更高的保護路徑。
其三,風險控製路徑更有利於實現生成式人工智能應用中個人信息的高效保護。根據社會學家烏爾裏希·貝克的觀點,現代化進程中科技和經濟全球化的發展所帶來的各種風險難以預測和計算。這些風險不受時間、空間和社會界限的限製,無法完全消除,其絕對性不可避免。此外,現代社會的複雜性決定了風險之間必將相互滲透和影響,這是現代社會不可避免的趨勢。一旦人們對此形成了正確認識,“相對安全”便取代“絕對安全”,成為生成式人工智能個人信息安全風險治理的理性目標。生成式人工智能正在不斷迭代升級,其帶來的個人信息非法收集、泄露、濫用、虛假信息生成等問題已經顯露,其他潛在風險和問題或許正在醞釀之中。傳統權利保護模式以一種定型化的剛性方式,為個人信息保護劃定最低的限度,無法有效應對複雜的信息生態環境和生成式人工智能可能帶來的新型信息安全威脅。而風險控製路徑更注重個人信息保護的動態性,以量體裁衣的靈活模式,根據生成式人工智能應用的具體情況進行風險把控。這種方式考慮技術、市場、法律、管理等多個維度,能夠對生成式人工智能帶來的信息安全風險進行全方位、動態化迴應,能夠更好地適應信息化、數字化時代的發展,應對生成式人工智能帶來的新型信息安全威脅,保障個人信息的安全和隱私。
三、風險控製路徑的四層次體係展開
針對生成式人工智能應用中個人信息保護的複雜性,風險控製路徑應基於下述四層次體係展開:
(一)促使告知同意規則的“個人控製中心向風險控製中心”轉變
告知同意規則包含“告知”與“同意”兩個層麵,前者要求信息處理者必須向個人信息主體明示信息處理的範疇、方式、目的等影響個人信息主體作出同意決定的內容,後者則要求信息處理者的處理行為必須征得個人信息主體的明確甚至是單獨同意。對於生成式人工智能中的個人信息收集而言,原則上同樣需要遵守告知同意規則。《生成式人工智能服務管理辦法》也明確將授權同意作為生成式人工智能開發與運行的基本準則之一。但正如前文所述,生成式人工智能語料庫數據收集的強製性和無形性使得告知同意規則基本處於虛置狀態。若遵循嚴格的告知同意原則,生成式人工智能技術服務提供者必須對所有信息主體進行一一告知並征得明示同意,對於收集敏感個人信息的情況還需征得信息主體的單獨同意。顯然,采用強告知同意規則可能會導致生成式人工智能無法正常運行,並且個人也將因此承擔冗長的隱私協議解讀負擔。因此,為保障個人信息權益得到切實有效保護,同時促進生成式人工智能技術的持續健康發展,需要對告知同意規則進行風險化解釋和調試,推動告知同意規則由“個人控製”為中心向“風險控製”為中心轉變。
告知同意規則的風險化解釋和調試指將可能引發的風險作為個人信息處理合理性的判斷標準。具體而言,如果信息主體對生成式人工智能技術服務提供者的信息收集行為未做出明確同意或明確拒絕的意思表示,但通過個人信息保護影響評估能夠確認信息處理行為不會帶來超出合理範圍外的風險,那麽可以推定其默示同意。這一做法與美國所采用的“擇出式知情同意機製”相類似,即企業在采集用戶個人信息時並沒有征求同意的義務,隻需要在采集行為發生前或發生時向用戶進行信息披露。從美國聯邦立法到州立法,擇出式知情同意機製始終占據主導地位,這一機製更有助於提升用戶行為信息的商業化利用效率。需要注意的是,所謂“擇出同意” 即使信息主體被認定為默示同意,其在信息處理過程中仍享有選擇退出的權利,可通過新的意思表示推翻之前的默示同意。在生成式人工智能應用中同樣如此,在後續語料庫數據存儲、語言模型訓練等環節用戶仍有權撤迴(默示)同意。為此,應當要求生成式人工智能技術服務提供者提供便捷的撤迴同意的方式,以輔助用戶行使這項權利。
相反,如果評估確認風險等級較高,除了征得信息主體的明確同意之外,生成式人工智能技術服務提供者還應當啟動增強性告知程序,充分發揮告知規則在個人信息保護中的風險交流作用。具體來看,除個人信息處理的範疇、類型、目的和必要性等基本內容之外,還應就以下內容進行補充告知:首先,算法邏輯。這要求生成式人工智能技術服務提供者就個人信息與模型訓練的相關性進行說明,包括“人機對話即信息收集”這一事實以及個人信息的準確性將影響生成內容質量這些重要事項,以為用戶進行風險判斷提供指引。其次,次級處理者的名稱、處理目的、期限、方式等相關內容。以openai為代表的生成式人工智能技術服務提供方將其全部或部分處理活動委托給次級處理者,而用戶並沒有與這些第三方訂立任何信息處理協議,這可能會給個人信息保護帶來超出預期的風險。因此,在評估確認風險等級較高的情況下,生成式人工智能技術服務提供者應當向信息主體詳細披露次級處理者的信息處理情況,使信息主體能夠全麵了解風險和後果,從而做出決策。
(二)推進最小必要原則的風險化解釋
與告知同意規則著力於事前保護不同,最小必要原則主要強調信息主體合法權益的事中和事後保護,其通過相關性、最小化、合比例性三方麵的要求來規製信息處理行為,在個人信息保護體係中發揮了不可或缺的重要作用。然而,最小必要原則的要求與生成式人工智能實現其主要處理目的之間存在巨大張力:生成式人工智能的運行機製決定了其需要大量數據驅動的模型訓練,而這一過程容易導致超出必要範疇收集個人信息、信息處理期限不明、信息用途不清晰等問題,與最小必要原則要求產生衝突,使最小必要原則的應用在實踐中受到限製。為化解這一困境,可以采用風險化轉型的方式重新解釋最小必要原則,即以場景分析下的風險控製為基準,推動最小必要原則向“合理必要”的轉變。通過這種方式,可以在保留和承認最小必要原則的前提下,避免其僵化應用對生成式人工智能技術的發展造成限製。
此時,最小必要原則將被視為一種風險預防和預警機製,要求生成式人工智能技術服務提供者在處理個人信息時,必須將潛在風險控製在合理水平內。這將促使最小必要原則的靈活使用,使其得以更好地適應生成式人工智能的實際應用場景。與我國形成鮮明對比,歐盟法律體係下相關原則更加靈活。例如,歐盟gdpr規定了平衡測試的機製,要求數據處理者在權衡個人信息保護和處理的必要性和合法性時,需要考慮利益平衡和風險評估等因素,以確保個人信息合理利用和保護的動態平衡。實際上,最小必要原則在我國實踐中的僵化適用已受到眾多學者質疑。有學者認為,應將“禁止過度損害”作為最小必要原則適用的一個重要考慮因素。也有學者提出,在特定情形下應當以“有限性原則”替代最小化原則,這些主張實際上都蘊含著風險控製的思維。可見,在生成式人工智能應用中,有必要將最小必要原則的風險化解釋視為一項應時而生的必要措施。
與此同時,還需要明確一些具體情形作為限製以平衡最小必要原則被風險化解釋帶來的不確定性。具體來看,包括以下方麵:首先,個人信息的收集仍需以實現生成式人工智能運行目的為限,非實現該目的所必須的個人信息不應收集。例如,搜索記錄、設備信息和通信信息等個人信息與實現生成式人工智能運行目的無關,收集此類信息無法構成“合理必要”,反而增加安全風險。其次,個人信息處理的時限亦須符合最小必要原則。根據《個人信息保護法》第47條,當生成式人工智能所存儲的信息過期或不再與其訓練和應用有關時,存儲機構有義務在合理時間內刪除或進行去標識化處理。刪除機製是最小必要原則和目的限製原則的具體體現,在生成式人工智能信息儲存時間難以確定的情形下,這一機製應當得到切實落實,以降低信息累積帶來的風險。最後,應嚴格控製敏感個人信息的收集和處理。敏感個人信息使得“基本權利麵臨高風險損害”,全球個人信息保護體係均特別關注敏感個人信息的收集和處理,尤其是歐盟gdpr直接確立了敏感個人信息處理的“一般禁止、例外允許”的原則性規定。因此,生成式人工智能技術服務提供者必須嚴格控製敏感個人信息的收集和處理。即使在特定情況下難以避免收集敏感個人信息,也應盡可能避免將其用於模型訓練,以降低敏感個人信息泄露的風險。
(三)建立虛假信息生成風險的全過程應對機製
在《生成式人工智能服務管理暫行辦法》總則第四條第一款中,明確闡述了生成式人工智能的生成內容限製,尤其是不得生成煽動顛覆國家政權、推翻社會主義製度,危害國家安全和利益、等虛假有害信息。因此,為了有效防控生成式人工智能帶來的虛假信息生成風險,首先需明確風險來源,並清晰界定規製的對象範圍。生成式人工智能核心技術基於算法模型和龐大的數據集,這是導致虛假信息生成的主要風險源頭,應著重對這兩方麵規範,並堅持從預防到識別再到控製這一風險控製思路,建立虛假信息生成風險的全過程應對機製。具體說,該應對機製應包括以下方麵:
其一,建立可信的數據來源和算法模型。數據來源和算法模型分別是生成式人工智能的基礎和核心技術,直接影響了生成式模型的質量和可信度,建立可信的數據來源和算法模型可以減少誤差和漏洞的產生,從源頭防範生成式人工智能生成虛假信息。根據《互聯網信息服務深度合成管理規定》等相關規定,可以從以下方麵來建立可信的數據來源和算法模型。一方麵,應當確保所使用的數據來源的合法性和合規性,符合數據保護法、隱私保護法和知識產權法等相關法律和規定。並且應當通過數據清洗、數據歸一化和數據轉換等措施,以減少數據中的誤差,確保數據來源的質量和準確性。當前,以chatgpt未代表的生成式人工智能既未公開其數據獲取方式,也未標明語料庫數據獲取來源,致使語料庫中數據和信息來源的合法性和真實性無從判別。為確保生成內容的真實、可信,應當根據上述規定強化這方麵的合規要求。另一方麵,應當使用正則化和交叉驗證等技術減少算法模型過擬合,以確保模型在麵對各種攻擊和惡意操作時也能保持其準確性和可靠性。同時生成式人工智能技術服務提供者應當定期對其產品進行合規審查,識別和解決潛在的技術安全隱患,以保障生成文本的真實性和避免潛在的風險。
其二,建立透明、可解釋的算法模型。為保證生成式人工智能生成內容客觀、真實、可信,建立透明、可解釋的算法模型尤為重要。與其他語言模型一樣,生成式人工智能並非完全客觀、中立的工具。其對世界的“認識”取決於算法和設計者所做的決定,如使用哪類數據進行文本訓練或使用何種生成方式進行內容迴複。生成式人工智能算法的難以理解和非直覺性特點為其價值判斷和意識形態安全風險帶來了挑戰。為此,算法透明原則應運而生,旨在揭開算法生成內容的真實麵貌,從而增強其可解釋性和可問責性。遵循該原則,通過公開和披露算法設計原理、數據輸入輸出等要素,可保障算法公正性和可信性,確保生成內容的真實性和客觀性。在此基礎上,為用戶賦予獲取算法解釋的權利,將用戶協議轉化為實質上的平等,進而形成用戶對虛假信息生成風險的主動防禦。為了更好地實現算法透明和可解釋的原則,一些國家和組織也發布了相應的指導方針。例如,英國信息專員辦公室在2020年發布了《人工智能決策說明指南》,其中涵蓋了ai決策說明的六種類型,為生成式人工智能技術服務提供者提供參考和指導。我國可以此為參照構建完善生成式人工智能算法解釋相關規則。
其三,進行深度合成標識。深度合成標識是控製生成式人工智能虛假信息傳播的重要手段之一,可以幫助監管部門有效追蹤虛假信息的來源,提高虛假信息的識別率,促進生成式人工智能的透明化。《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理辦法》等相關規定反複提到對深度合成內容進行標識。生成式人工智能技術服務提供者應當對生成內容中可能導致公眾混淆或者誤認的,在生成內容合理位置、區域進行顯著標識,向公眾提示深度合成情況。尤其是在涉及醫療、金融、教育等問答的時候,應進行更加顯著的風險提示。然而,現有規定隻是概括性的,並未對深度合成標識的技術標準和規範進行明確規定。未來還應建立成式人工智能技術行業深度合成標識的技術標準和規範,明確該行業深度合成標識的要求和實現方法,提高深度合成標識的可行性和普適性,以促進深度合成標識規定在生成式人工智能應用中的切實落實。
其四,建立虛假信息鑒別與處置機製。在部分虛假信息已經生成的既定事實下,為了及時發現和處置生成式人工智能產生的虛假信息,減少其對社會、經濟和個人造成的負麵影響,還應當構建虛假信息鑒別與處置機製。通過建立用於識別違法和不良信息的特征庫、建立健全虛假信息質疑和辟謠機製、對接信息發布平台實施暫停服務等措施及時識別和控製虛假信息,並防止其進一步擴散。此外,還應建立嚴格的責任製度。生成式人工智能研發人員、所有者、運營者和發布平台根據其過錯在各自責任範圍內承擔虛假信息生成的法律責任。在責任分配時應遵循支配原則,即風險屬於誰的管轄範圍,誰便需要對風險及由此產生的結果來負責。
(四)健全基於風險的個人信息保護合規製度體係
隨著《個人信息保護法》的正式實施,越來越多的企業開始建立個人信息保護合規管理體係,以規範企業內部的個人信息處理行為,預防個人信息泄漏等安全事件的發生。尤其對於大型個人信息處理者來說,建立個人信息保護合規管理體係是實現個人信息安全保障的必要之舉。《個人信息保護法》第58條明確規定對“超大互聯網平台”課以“建立健全個人信息保護合規製度體係”的義務。因此,生成式人工智能服務提供者作為大型個人信息處理者,同樣應承擔起健全個人信息保護合規製度體係的義務。今後應努力在生成式人工智能信息安全保障體係中嵌入個人信息保護合規內容,並著重從以下兩方麵入手:
其一,建立生成式人工智能個人信息保護影響評估製度。風險評估是所有領域中風險控製的核心組成部分,它迫使信息處理者“識別、評估並最終管理個人信息處理給權利和自由帶來的高風險”,有助於從源頭上減少個人信息泄漏風險的發生。在生成式人工智能應用中,涉及敏感個人信息處理、利用個人信息進行自動化決策、委托處理個人信息等多項信息處理高風險情形,更容易造成個人信息泄露,應當將個人信息保護影響評估作為信息保護合規的一項核心任務。英國信息專員辦公室(ico)在2022年發布的《如何恰當且合法地使用ai及個人信息》中明確指出,數據控製者在使用ai係統之前應進行個人信息保護影響評估,並根據實際情況采取與其風險相適應的措施降低可能的損害。我國國家互聯網信息辦公室等部門於2023年7月13日公布的《生成式人工智能服務管理辦法》暫未涉及生成式人工智能個人信息保護影響評估,相關內容尚需參照《個人信息保護法》第55條和第56條的規定。
但總體看,我國《個人信息保護法》中的個人信息保護影響評估製度仍較粗疏,在生成式人工智能應用方麵需進一步完善。其中最關鍵的是缺乏向公眾強製披露的機製,公共監督缺位將導致難以確保個人信息保護影響評估風險預防工具朝著公共利益的方向發展。對於該問題,《信息安全技術個人信息安全影響評估指南》已明確規定一係列措施。在生成式人工智能的個人信息保護影響評估中,可以該指南為參照,公開個人信息保護影響評估報告或組建公眾代表委員會,確保評估過程接受外部監督。
其二,設置生成式人工智能個人信息保護獨立監督機構。根據《個人信息保護法》第58條的規定,大型互聯網平台企業需承擔設立獨立監督機構的特別義務,以確保其個人信息處理符合合規要求。此項義務的適用標準包括三個方麵:提供重要互聯網平台服務、用戶數量眾多、業務類型複雜的個人信息處理者。基於此標準,《互聯網平台分類分級指南(征求意見稿)》和《互聯網平台落實主體責任指南(征求意見稿)》對其進行了進一步詳細闡述。以chatgpt為代表的生成式人工智能作為一種新型的人工智能技術,僅用兩個月時間便獲得了一億的用戶量。其個人信息處理量與大型互聯網平台企業相似,並且廣泛應用於推動經濟發展、保障民生、維護國家安全等重要領域,屬於“提供重要互聯網平台服務”的信息處理者。因此,生成式人工智能應設立獨立監督機構以監督個人信息保護情況,充分履行社會責任。
鑒於生成式人工智能應用中的個人信息處理往往伴隨高度複雜的算法和技術,獨立監督機構人員應當包括具備相應專業知識和技術能力的專業人員。在職責範圍上,獨立監督機構應當從製度合規、技術合規和組織合規三方麵著手,對生成式人工智能應用中的個人信息安全事前防範、事中規製和事後處置的合規情況進行監督。包括個人信息保護負責人的設立、個人信息跨境安全評估、個人信息安全事件應急預案、合規審計、發布個人信息保護社會責任報告等。總體來看,對生成式人工智能技術服務提供者施加個人信息保護特別義務,是風險控製的重要措施。
結語
生成式人工智能既有為人類生產生活與社會變革帶來諸多便利的一麵,也存在對人格尊嚴侵害的一麵。近來chatgpt用戶個人信息泄漏及虛構法學教授性騷擾事件接連發生,深刻揭示了生成式人工智能的威脅範圍和對社會穩定的潛在危害,也讓個人信息保護及其風險防範機製的脆弱性暴露無遺。
盡管個人信息保護製度存在被技術侵蝕的風險,但我們不能放棄這些製度,而應該在風險控製的基礎上進一步轉型,以更好地保護個人信息權益和尊嚴。未來,我們需要加強對人工智能倫理和隱私保護問題的研究,推動更加完善的個人信息保護製度的建立,以保障人類尊嚴與科技進步的平衡發展。