谷歌建议员工不要将机密信息输入ChatGPT 或Bard等聊天机器人,避免信息泄露

来源:站长之家 2023-06-16 10:48:44


(相关资料图)

站长之家(ChinaZ.com)6月16日 消息:随着谷歌继续完善自己的名为 Bard 的 AI 聊天机器人,其母公司 Alphabet Inc. 对其员工发出了明确的指示:要小心聊天机器人,即使是 Bard。

据路透社报道,四位知情人士透露,这家大型科技巨头已建议员工不要将机密信息输入 OpenAI 的 ChatGPT 或谷歌自己的 Bard 等聊天机器人,以免泄露。Alphabet 担心员工将敏感信息输入这些聊天机器人,因为人工审阅者可能会审阅聊天条目。这些聊天机器人还可能使用之前的条目来训练自己,从而构成另一个泄密风险。这种风险是有道理的,因为三星上个月证实,在员工使用 ChatGPT 后,其内部数据已经泄露。

1月份,一位亚马逊律师敦促公司员工不要与 ChatGPT 共享代码。根据 Insider 查看的 Slack 消息截图,律师特别要求员工不要与 ChatGPT 共享“任何亚马逊机密信息”。

上个月,苹果公司向其员工发出了类似的禁令。《华尔街日报》获得的内部文件显示,苹果禁止员工使用 ChatGPT 和微软旗下的人工智能代码编写器 GitHub Copilot。消息人士还告诉《华尔街日报》,苹果和科技领域的每一家大公司一样,有兴趣建立自己的大型语言模型,苹果在2020年分别以2亿美元和5000万美元的价格收购了两家AI初创公司。

谷歌在3月份发布了其 ChatGPT 竞争对手 Bard。在Bard 发布前一个多月,一份泄露的备忘录显示,谷歌首席执行官桑达尔皮查伊要求全公司的谷歌员工在一天中对Bard 进行两到四个小时的测试。本周,在爱尔兰监管机构提到隐私问题后,谷歌推迟了 Bard 在欧盟的发布。爱尔兰数据保护委员会声称谷歌和 Bard 不遵守个人数据保护法。

(举报)

关键词:

为你推荐

Copyright   2015-2023 港澳家具网 版权所有  备案号:京ICP备2023022245号-31   联系邮箱:435 226 40 @qq.com