人机对话中个人信息的“设计保护”——以ChatGPT模型为切入点
2023-05-23分类号:TP18;G252
【部门】南开大学法学院
【摘要】作为新一代的通用人工智能技术,ChatGPT为业界发展带来了巨大机遇,但对个人信息安全造成的威胁同样值得关注。ChatGPT引发的个人信息安全风险主要包括违规收集、过度挖掘、信息外泄和算法偏见。传统公平实践原则在应对ChatGPT的挑战时显得捉襟见肘,“设计保护”通过伦理、法律与技术的融合治理,可为解决困境提供思路。ChatGPT运行中个人信息的“设计保护”需坚持以人为本的基本导向,满足安全、公正、可控、负责的算法伦理要求;依靠应用场景调查、个人信息分类、权益影响分析和安全风险评估确定具体保护需求;通过要素确定、措施选择、环节设计、方案评估,形成点线面结合的技术保护体系。
【关键词】人工智能 人机对话 ChatGPT 个人信息保护 设计保护
【基金】司法部国家法治与法学理论研究项目“个人基因信息的法律保护研究”(项目编号:19SFB2045)研究成果
【所属期刊栏目】图书馆论坛
文献传递