AI聊天机器人可提高生产力,但也引发资料外泄疑虑,《路透社》报导,就连开发Bard的Google母公司Alphabet也提醒员工在公司要小心使用。
报导引述消息人士指出,Alphabet近日对内发布AI使用规范,提醒员工不要将机密文件内容输入聊天机器人,以免造成公司资讯外泄。此外,即使Google不久前为其Bard加入程式码检查、抓臭虫的功能,消息人士指出,Alphabet新规范也警告其工程师,不得直接使用AI聊天机器人产生的程式码。
Alphabet官方指出,虽然Bard有时建议的不是开发人员想要的程式码,但却也提高了他们的工作效率。该公司也清楚表达,他们不会隐瞒其聊天机器人的技术限制,也会明确告知使用者可能的风险。
Alphabet的新政策并不令人意外。输入AI聊天机器人的公司资料都会成为开发厂商训练底层AI模型的资料集,可能造成资料外泄。不少知名企业已发布企业内AI聊天机器人使用指引,包括三星、Amazon、德意志银行等,其中三星曾发生员工将公司开发专案的程式码输入ChatGPT的事件。
此外,不正确的结果输出,更是AI一大隐忧。生成性AI聊天机器人包括Google Bard、ChatGPT及微软Bing Chat都被报导过AI幻觉(hallucination)问题,但使用者往往无法判断或察觉,例如曾有律师不慎将ChatGPT捏造的判例用於法庭文件。安全厂商甚至发现,AI幻觉产出不存在的程式码、套件库或下载网页,反而给了攻击者制造恶意网站或程式加以顶替,由聊天机器人建议给使用者。