纽约
美国有线电视新闻网
—
随着科技行业竞相开发和部署一系列功能强大的新型人工智能聊天机器人,它们的广泛采用引发了一些公司、监管机构和行业观察人士对数据隐私的新担忧。
一些公司,包括摩根大通
(摩根大通), 有 限制员工使用 由于与员工使用第三方软件相关的合规性问题,ChatGPT 是病毒式 AI 聊天机器人,它首先启动了 Big Tech 的 AI 军备竞赛。
当 ChatGPT 背后的公司 OpenAI 披露它不得不在 3 月 20 日暂时下线该工具以修复一个允许某些用户看到其他用户聊天记录的主题行的错误时,它只会增加隐私担忧。
同样的错误,现在已经修复,也使得“一些用户可以看到另一个活跃用户的名字和姓氏、电子邮件地址、支付地址、信用卡号码的最后四位(仅)和信用卡到期日期, ” OpenAI 在一篇文章中说 博文.
就在上周,监管机构 意大利发布临时禁令 在该国的 ChatGPT 上,在 OpenAI 披露漏洞后引用了隐私问题。
Fox Rothschild LLP 律师事务所隐私和数据安全实践联席主席马克·麦克雷里 (Mark McCreary) 告诉美国有线电视新闻网:“对 ChatGPT 之类的隐私考虑怎么强调都不为过。” “它就像一个黑匣子。”
借助于 11 月下旬向公众推出的 ChatGPT,用户只需输入提示即可生成文章、故事和歌词。
谷歌和微软此后也推出了人工智能工具,它们以相同的方式工作,并由基于大量在线数据训练的大型语言模型提供支持。
当用户将信息输入这些工具时,McCreary 说,“你不知道它会被如何使用。” 这引起了企业的高度关注。 随着越来越多的员工随意使用这些工具来帮助处理工作电子邮件或会议记录,McCreary 说,“我认为公司商业机密被植入这些不同的 AI 中的机会只会增加。”
波士顿咨询集团首席人工智能道德官史蒂夫米尔斯同样告诉 CNN,大多数公司对这些工具的最大隐私担忧是“无意中泄露敏感信息”。
“所有这些员工都在做看似无害的事情,比如,’哦,我可以用它来总结会议记录,’”米尔斯说。 “但在将会议记录粘贴到提示中时,你可能会突然泄露一大堆敏感信息。”
如果人们输入的数据被用来进一步训练这些人工智能工具,正如许多工具背后的公司所说,那么你就“失去了对这些数据的控制,而其他人拥有了它,”米尔斯补充道。
ChatGPT 背后的微软支持公司 OpenAI 在其 隐私政策 它从使用其服务的人那里收集各种个人信息。 它表示,它可能会使用这些信息来改进或分析其服务、进行研究、与用户交流以及开发新程序和服务等。
隐私政策规定,除非法律要求,否则它可能会在不另行通知用户的情况下向第三方提供个人信息。 如果超过 2,000 字的隐私政策看起来有点不透明,那可能是因为这几乎已成为互联网时代的行业规范。 OpenAI 也有一个单独的 使用条款 文件,这让用户在使用其工具时有责任采取适当的措施。
OpenAI 周三还发布了一篇新的博客文章,概述了其 AI 安全方法。 “我们不使用数据来销售我们的服务、做广告或建立人们的档案——我们使用数据来使我们的模型对人们更有帮助,” 博文状态. “例如,ChatGPT 通过对人们与之进行的对话进行进一步培训而得到改进。”
谷歌的 隐私政策,包括它的吟游诗人工具,同样是冗长的,它有 附加服务条款 为其生成人工智能用户。 该公司表示,为了在保护用户隐私的同时帮助改进 Bard,“我们选择了一部分对话并使用自动化工具来帮助删除个人身份信息。”
“这些示例对话由训练有素的审阅者进行审阅,并保存长达 3 年,与您的 Google 帐户分开,”该公司在一份声明中表示 单独的常见问题解答 对于巴德。 该公司还警告说:“不要在与巴德的对话中包含可用于识别您或其他人身份的信息。” 常见问题解答还指出,巴德对话不会用于广告目的,“我们将在未来明确传达对这种方法的任何更改。”
谷歌还告诉 CNN,用户可以“轻松选择使用 Bard,而无需将他们的对话保存到他们的谷歌账户中。” Bard 用户还可以通过以下方式查看他们的提示或删除 Bard 对话 这个链接. 谷歌表示:“我们还设置了护栏,旨在防止 Bard 在其回复中包含个人身份信息。”
“我们仍在某种程度上了解这一切是如何运作的,”米尔斯告诉美国有线电视新闻网。 “你只是不完全知道你输入的信息是如何输入的,它是否用于重新训练这些模型,它在某个时候如何表现为输出,或者它是否确实如此。”
米尔斯补充说,有时用户和开发人员甚至没有意识到新技术潜伏的隐私风险,直到为时已晚。 他举的一个例子是早期的自动完成功能,其中一些功能最终会产生一些意想不到的后果,比如完成用户开始输入的社会安全号码——通常会让用户感到震惊和惊讶。
最后,米尔斯说,“我现在的看法是,你不应该将任何你不想假设会与他人共享的东西放入这些工具中。”