ChatGPT在欧盟遭到另一项隐私投诉,涉及“幻觉”问题

OpenAI在欧洲联盟面临另一项隐私投诉。这次投诉由隐私权非营利组织noyb代表个人投诉人提出,主要针对其人工智能聊天机器人ChatGPT生成关于个人的错误信息后无法进行更正。

GenAI工具产生错误信息的倾向已经被充分记录。但同时,这也将这项技术推向与欧盟《通用数据保护条例》(GDPR)相冲突的道路——该条例规定了区域用户个人数据的处理方式。

GDPR合规失败的处罚可达到全球年度营业额的4%。对于像OpenAI这样资源丰富的巨头来说更为重要的是,数据保护监管机构可以下令改变信息处理方式,因此GDPR的执行可能重塑生成式人工智能工具在欧盟的操作方式。

OpenAI在意大利数据保护部门的早期干预后已经被迫做出了一些变化,该部门曾在2023年曾短暂迫使ChatGPT当地关闭。

现在noyb正在代表一位未透露姓名的投诉人(被描述为“公众人物”)向奥地利数据保护部门针对ChatGPT提出最新的GDPR投诉,投诉内容是发现该人工智能聊天机器人为其产生了错误的出生日期。

根据GDPR,在欧盟的人们有一系列关于其信息的权利,包括有权要求更正错误数据。noyb认为OpenAI未能遵守ChatGPT生成的信息的这项义务。该组织表示,公司拒绝了投诉人要求更正错误出生日期的请求,回应称技术上无法进行更正。

相反,它提出可以在某些提示上进行过滤或阻止数据,例如投诉人的姓名。

OpenAI的隐私政策规定,发现人工智能聊天机器人生成了关于用户的“事实不准确的信息”可以通过privacy.openai.com提交“更正请求”或发送电子邮件至dsar@openai.com。但是,该公司警告称,鉴于我们的模型工作的技术复杂性,我们可能无法在每种情况下更正不准确性。

在这种情况下,OpenAI建议用户请求将其个人信息从ChatGPT的输出中完全删除——填写一个网页表单。

对于AI巨头而言,GDPR的权利并不是按需选择的。欧洲人有权要求更正。他们也有权要求删除他们的数据。但正如noyb指出的那样,OpenAI不能选择哪些权利是可用的。

投诉的其他要素关注GDPR透明度的问题,noyb认为OpenAI无法说明生成的个人数据来自何处,也不清楚聊天机器人存储了关于人们的哪些数据。

这很重要,因为再次,该条例使个人通过发起特定主体访问请求(SAR)有权要求此类信息。据noyb称,OpenAI未充分回应投诉人的SAR,未披露任何有关处理的信息、来源或接收方。

在一份声明中评论此投诉时,noyb的数据保护律师Maartje de Graaf表示:“编造虚假信息本身就是相当问题。但当涉及对个人的虚假信息时,可能会产生严重后果。显然,公司目前无法让类似ChatGPT的聊天机器人遵守处理个人数据的欧盟法律。如果一个系统无法生成准确和透明的结果,那么就不能用它来生成有关个人的数据。技术必须遵守法律要求,而不是反过来。”

该公司表示,正在要求奥地利数据保护管理机构调查有关OpenAI数据处理的投诉,并敦促其处以罚款以确保未来的合规。但公司补充说,该案件“可能”将通过欧盟合作处理。

OpenAI面临着波兰一项非常相似的投诉。去年九月,当地数据保护管理机构在一名隐私和安全研究人员的投诉后对ChatGPT展开调查,后者发现自己无法让OpenAI更正关于自己的不正确信息。该投诉也指责这家人工智能巨头未能遵守该条例的透明要求。

与此同时,意大利数据保护管理机构仍在对ChatGPT进行调查。在一份2021年1月的草案决定中,该机构表示它认为OpenAI在多方面违反了GDPR,包括与聊天机器人产生关于人们的错误信息倾向相关的问题。调查结果还涉及其他关键问题,比如处理的合法性。

意大利当局给予OpenAI一个月时间回应其调查结果。最终决定尚待待定。

现在,随着对其聊天机器人的另一项GDPR投诉的出现,OpenAI面临在不同成员国连续面对GDPR执法的风险加大。

去年秋天,该公司在都柏林开设了一个地区办事处,这一举措似乎旨在通过让监管风险被更多地由爱尔兰数据保护委员会处理来缩小其监管风险,这是由GDPR中的一个机制产生的,该机制旨在通过将跨境投诉流向公司的“主要办事处”的单一成员国机构来简化跨境投诉的监管。

ChatGPT正在违反欧洲的隐私法律,意大利数据保护管理机构告诉OpenAI

波兰在GDPR投诉后展开对ChatGPT的隐私调查