Slack由于隐秘的AI培训政策而遭受攻击

在围绕大科技公司如何利用个人和企业数据来培训人工智能服务的持续问题之后,一场风暴正在激起Slack用户的不满,原因是这家Salesforce旗下的聊天平台正在积极推进其人工智能愿景。

类似于许多其他公司,该公司正在利用自己的用户数据来培训一些新的人工智能服务。但事实证明,如果您不希望Slack使用您的数据,您必须给该公司发送电子邮件进行选择退出。

而且,这种参与的条款被藏在看起来已经过时的、令人困惑的隐私政策中,没有人在意。直到有一个激怒的人在一个广受开发者欢迎的社区网站上发布了关于他们的帖子,然后这个帖子迅速传播...这就是在这里发生的情况。

一切都始于昨晚,当Hacker News上的一个帖子提出了Slack如何通过一个指向其隐私原则的直接链接来培训其人工智能服务的问题,没有额外的评论是需要的。这个帖子引发了一场更长的对话,对当前Slack用户似乎是新闻,即Slack默认将用户纳入其人工智能培训中,而您需要给一个特定地址发送电子邮件才能选择退出。

该Hacker News帖子引发了其他平台上的多次讨论和提问:有一个名为“Slack AI”的新产品,让用户可以搜索答案并总结对话线程,等等,但为什么隐私原则页面上从未以任何方式提到过它的名称,甚至没有明确表明隐私政策是否适用于它?为什么Slack同时提到‘全局模型’和‘AI模型’?

人们对Slack在哪里应用其AI隐私原则感到困惑,而且大多数人对需要通过电子邮件进行选择退出的想法感到惊讶和恼火,尤其是在一个大肆宣扬“您掌控您的数据”的公司。Slack给人的印象并不好。

震惊可能是新的,但条款并不是。根据互联网档案馆的页面,至少从2023年9月这些条款就已经适用了。(我们已经要求公司确认。)

根据隐私政策,Slack专门使用客户数据来训练“全局模型”,这些模型用于为频道和表情符号推荐以及搜索结果提供动力。Slack告诉我们,其对数据的使用有特定的限制。

“Slack对频道和表情符号推荐以及搜索结果等事情都有平台级的机器学习模型。我们并没有以一种能够学习、记忆或者能够复制客户数据的方式构建或训练这些模型,”该公司的发言人告诉TechCrunch。然而,该政策似乎没有涉及公司的更广泛培训人工智能模型的整体范围。

在其条款中,Slack表示,如果客户选择退出数据训练,他们仍将受益于公司的“全球训练的AI/ML模型”。但在这种情况下,尚不清楚为什么公司一开始要使用客户数据来推动诸如表情符号推荐等功能。

该公司还表示,它不使用客户数据来训练Slack AI。

“Slack AI是一个单独购买的附加组件,使用了大型语言模型(LLM),但并不训练这些LLM以客户数据。Slack AI使用托管在Slack AWS基础设施内的LLM,这样客户数据便留在内部,不会与任何LLM提供者共享。这确保了客户数据保留在组织控制内,并且专门供组织使用,”一位发言人说。

一些混淆很可能很快就会得到解决。在对工程师和作家Gergely Orosz在Threads上的一篇批评性意见的答复中,Slack工程师Aaron Maurer承认公司需要更新页面以反映“这些隐私原则如何与Slack AI相结合”。Maurer补充说,这些条款是在公司没有Slack AI时编写的,这些规则反映了公司在搜索和推荐方面的工作。考虑到当前Slack正在做什么带来的困惑,未来更新关于这些条款的审查将是值得的。

Slack的问题鲜明提醒我们,在快速发展的人工智能开发领域,用户隐私不应成为事后想法,公司的服务条款应清楚说明数据何时、如何使用或不使用。