《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 生成式人工智能對個人信息保護的挑戰(zhàn)與治理路徑
生成式人工智能對個人信息保護的挑戰(zhàn)與治理路徑
網絡安全與數據治理
萬美秀
南昌大學法學院
摘要: 以ChatGPT為代表的生成式人工智能技術給各行各業(yè)帶來顛覆性變革,但也引發(fā)個人信息泄露、算法偏見、虛假信息傳播等個人信息侵權危機。傳統“基于權利保護”的路徑過于強調個人信息保護而阻礙人工智能產業(yè)的發(fā)展,“基于風險防范”的路徑則更加凸顯個人信息的合理利用價值,價值選擇上更優(yōu)。但以權利保護和風險保護共同治理,才能實現利益平衡并建立個人信息的長效保護機制。在個人信息處理規(guī)則上,以“弱同意”規(guī)則取代僵化嚴苛的知情同意規(guī)則;在目的限制原則上,以“風險限定”取代“目的限定”;在個人信息最小化原則上,以“風險最小化”取代“目的最小化”。在此基礎上,進一步加強生成式人工智能數據來源合規(guī)監(jiān)管,提升算法透明性和可解釋性,強化科技倫理規(guī)范和侵權責任追究。
中圖分類號:D913;TP399文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2024.04.009
引用格式:萬美秀.生成式人工智能對個人信息保護的挑戰(zhàn)與治理路徑[J].網絡安全與數據治理,2024,43(4):53-60.
The challenge and governance path of generative artificial intelligence to personal information protection
Wan Meixiu
Law School, Nanchang University
Abstract: Generative artificial intelligence technology represented by ChatGPT has brought disruptive changes to all walks of life, but also triggered personal information infringement crises such as personal information disclosure, algorithmic bias, and false information dissemination. The traditional "right protection-based" path overly emphasizes personal information protection and hinders the development of the artificial intelligence industry. The "risk prevention-based" path highlights the rational use value of personal information and is better in value selection. However,only by governing together with right protection and risk protection can we achieve a balance of interests and establish a long-term protection mechanism for personal information. In terms of personal information processing rules, the rigid and strict informed consent rules should be replaced by the "weak consent" rule; in terms of purpose limitation principles, the "purpose limitation" principle should be replaced by the "risk limitation"; in terms of personal information minimization principles, the "purpose minimization" principle should be replaced by the "risk minimization". On this basis, we should further strengthen the compliance supervision of generative artificial intelligence data sources, improve the transparency and interpretability of algorithms, and strengthen the standardization of scientific and technological ethics and the investigation of tort liability.
Key words : generative AI;ChatGPT;personal information protection;governance path

引言

ChatGPT為代表的生成式人工智能掀起了全球第四次科技革命浪潮,成為帶動全球經濟增長的新引擎[1]。然而,作為新一代人工智能技術,生成式人工智能在不斷迭代更新與變革生產關系的同時,也帶來了諸多個人信息保護的法律風險。生成式人工智能的運行以海量用戶的個人信息為基礎,在輸入端、模擬訓練端、模擬優(yōu)化端、輸出端等各環(huán)節(jié)都離不開個人信息的使用。在大規(guī)模的數據處理和不透明的算法黑箱背景下,生成式人工智能便產生了違法收集個人信息、制造虛假有害信息、算法偏見與歧視等問題。對此,各國監(jiān)管部門廣泛關注,美國、法國、意大利、西班牙、加拿大等多國政府已宣布對ChatGPT進行調查監(jiān)管,并出臺了相應監(jiān)管規(guī)范。2023年7月10日,我國網信辦等七部門也聯合發(fā)布了《生成式人工智能服務管理暫行辦法》(以下簡稱“《暫行辦法》”),明確了促進生成式人工智能技術發(fā)展的具體措施,對支持和規(guī)范生成式人工智能發(fā)展作出了積極有力的回應。但需要注意的是,《暫行辦法》對個人信息保護的規(guī)定僅在第4、7、9、11、19條中援引《個人信息保護法》的相關規(guī)定,對使用生成式人工智能技術侵犯個人信息權益呈現出的新問題缺乏專門規(guī)定,而繼續(xù)延用《個人信息保護法》面臨諸多適用困境。


本文詳細內容請下載:

http://www.jysgc.com/resource/share/2000005969


作者信息:

萬美秀

(南昌大學法學院,江西南昌330031)


Magazine.Subscription.jpg

此內容為AET網站原創(chuàng),未經授權禁止轉載。
主站蜘蛛池模板: 在线无码午夜福利高潮视频 | heyzo加勒比高清国产精品| 日本色图在线观看| 亚洲免费在线看| 欧美黄三级在线观看| 免费看一级做a爰片久久| 羞羞网站在线观看| 国产亚洲美女精品久久久2020| 免费福利在线观看| 国产精品亲子乱子伦xxxx裸 | 12至16末成年毛片高清| 在线精品91青草国产在线观看| 一个人免费视频观看在线www| 把胡萝卜立着自己坐上去| 久久只有这才是精品99| 曰批免费视频播放30分钟直播| 亚洲乱码无码永久不卡在线 | 777亚洲精品乱码久久久久久| 夜来香高清在线观看| jizz免费观看视频| 婷婷四房综合激情五月在线| 两根硕大的挤进了小雪| 放荡的女老板bd| 久久久久久久99精品免费观看| 日韩午夜小视频| 久久精品无码午夜福利理论片| 最近免费中文字幕大全免费版视频| 亚洲另类欧美综合久久图片区| 欧美日韩亚洲国产无线码| 亚洲欧美一区二区三区| 污视频免费网站| 亚洲综合成人网| 浪货夹得好紧太爽了bl| 亚洲综合男人的天堂色婷婷| 火车上荫蒂添的好舒服视频| 国产午夜精品一二区理论影院| 黑人操日本美女| 国产特级毛片AAAAAA| 亚洲www在线| 大香伊蕉国产av| a一级毛片免费高清在线|