Alphabet传提醒员工慎用AI聊天机器人

《路透社》引述消息人士指出,Alphabet对内发布AI使用规范,提醒员工不要将机密文件内容输入聊天机器人,以免造成公司资讯外泄

AI聊天机器人可提高生产力,但也引发资料外泄疑虑,《路透社》报导,就连开发Bard的Google母公司Alphabet也提醒员工在公司要小心使用。

报导引述消息人士指出,Alphabet近日对内发布AI使用规范,提醒员工不要将机密文件内容输入聊天机器人,以免造成公司资讯外泄。此外,即使Google不久前为其Bard加入程式码检查、抓臭虫的功能,消息人士指出,Alphabet新规范也警告其工程师,不得直接使用AI聊天机器人产生的程式码。

Alphabet官方指出,虽然Bard有时建议的不是开发人员想要的程式码,但却也提高了他们的工作效率。该公司也清楚表达,他们不会隐瞒其聊天机器人的技术限制,也会明确告知使用者可能的风险。

Alphabet的新政策并不令人意外。输入AI聊天机器人的公司资料都会成为开发厂商训练底层AI模型的资料集,可能造成资料外泄。不少知名企业已发布企业内AI聊天机器人使用指引,包括三星、Amazon、德意志银行等,其中三星曾发生员工将公司开发专案的程式码输入ChatGPT的事件。

此外,不正确的结果输出,更是AI一大隐忧。生成性AI聊天机器人包括Google Bard、ChatGPT及微软Bing Chat都被报导过AI幻觉(hallucination)问题,但使用者往往无法判断或察觉,例如曾有律师不慎将ChatGPT捏造的判例用於法庭文件。安全厂商甚至发现,AI幻觉产出不存在的程式码、套件库或下载网页,反而给了攻击者制造恶意网站或程式加以顶替,由聊天机器人建议给使用者。

红海加速器好用吗

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
最旧
最新 最多投票
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x