|
  • 外贸商圈
注册

AI最大支持者之一的谷歌,让自己的员工警惕聊天机器人

包括 Bard 和 ChatGPT,"将机密事项输入聊天机器人就像'放任一群博士生看你所有的私人记录'”。

  2023-06-16

Alphabet Inc 正在警告员工如何使用聊天机器人,包括其自己的 Bard,同时在全球推广该程序,四位知情人士告诉路透社。知情人士称,谷歌母公司已建议员工不要将其机密材料输入人工智能聊天机器人,公司也证实了这种说法。

 

这些聊天机器人,包括 Bard 和 ChatGPT,听起来像人类的程序,它们使用所谓的生成人工智能与用户进行对话并回答无数提示。人类审阅者可能会阅读聊天记录,研究人员发现类似的 AI 可以重现它在训练期间吸收的数据,从而造成泄漏风险。

 

一些知情人士说,Alphabet 还提醒其工程师避免直接使用聊天机器人生成的计算机代码。

 

在征求意见时,该公司表示 Bard 可以提出不受欢迎的代码建议,但它仍然可以帮助程序员。谷歌还表示,它的目标是对其技术的局限性保持透明。

 

这些担忧表明,谷歌希望避免其推出的与 ChatGPT 竞争的软件对商业造成损害。谷歌与 ChatGPT 的支持者 OpenAI 和微软公司的竞争关系到数十亿美元的投资,以及来自新 AI 项目的数不清的广告和云收入。

 

谷歌的谨慎也反映了一些正在成为企业安全标准的东西,即警告员工不要使用公开可用的聊天程序。

 

这些公司告诉路透社,全球越来越多的企业已经在人工智能聊天机器人上设置了防护栏,其中包括三星、亚马逊和德意志银行。Apple 没有回复评论请求,但据报道也有。

 

根据网络网站 Fishbowl 对包括美国顶级公司在内的近 12,000 名受访者进行的调查,截至 1 月份,约 43% 的专业人士在使用 ChatGPT 或其他人工智能工具,而且通常没有告诉他们的老板。

 

据Insider 报道,到 2 月,谷歌告诉测试 Bard 的工作人员在发布前不要向其提供内部信息。现在谷歌将 Bard 推广到 180 多个国家和 40 种语言,作为创造力的跳板,它的警告扩展到它的代码建议。

 

谷歌告诉路透社,它已与爱尔兰数据保护委员会进行了详细对话,并正在解决监管机构的问题,此前 Politico 周二报道称该公司将推迟 Bard 本周在欧盟的发布,等待有关聊天机器人对隐私影响的更多信息。

 

对敏感信息的担忧

 

这种技术可以起草电子邮件、文档,甚至是软件本身,有望大大加快任务执行速度。但是,此内容中可能包含错误信息、敏感数据,甚至是“哈利波特”小说中受版权保护的段落。

 

6 月 1 日更新的谷歌隐私声明还指出:“不要在与Bard的谈话中包含机密或敏感信息。”

 

一些公司开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供其他云服务的 Cloudflare 正在营销一种让企业标记和限制某些数据从外部流动的能力。

 

谷歌和微软还向商业客户提供对话工具,这些工具价格更高,但不会将数据吸收到公共人工智能模型中。Bard 和 ChatGPT 中的默认设置是保存用户的对话历史记录,用户可以选择删除。

 

微软消费者首席营销官 Yusuf Mehdi 表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。

 

“公司采取了适当的保守立场,”迈赫迪说,他解释了微软的免费 Bing 聊天机器人与其企业软件的比较。“在那里,我们的政策要严格得多。”

 

微软拒绝评论它是否全面禁止员工将机密信息输入公共人工智能程序,包括它自己的程序,尽管另一位高管告诉路透社,他个人限制使用。

 

Cloudflare 首席执行官马修·普林斯 (Matthew Prince) 表示,将机密事项输入聊天机器人就像“放任一群博士生在你所有的私人记录中自由发散”。

 

 

分享

*【中国B2B外贸金融第一平台】,数据源自艾媒咨询于2023年7月发布的《2023年中国中小微外贸企业金融服务需求研究报告》