编译/夏洛特
虽然 ChatGPT 的功能令人印象深刻,但基於隐私、安全、员工成长问题,已经有数家重量级公司对员工使用 ChatGPT 下达禁令。2023年5月,三星禁止员工使用ChatGPT和其他生成式AI工具。 随後,2023 年 6 月,澳洲联邦银行、亚马逊、苹果和摩根大通等公司也纷纷效仿。一些医院、律师事务所和政府机构也禁止员工使用 ChatGPT。
以下是公司禁止员工使用ChatGPT的五个主要原因:
- 数据外泄
ChatGPT 需要大量数据才能有效训练和运行。根据 OpenAI ,每一则透过ChatGPT输入的数据,都有可能落在OpenAI员工的视线中,并用来改进他们的系统。因此,为避免数据泄露,许多公司都会选择限制员工使用 ChatGPT 。
- 网路安全风险
目前尚不清楚 ChatGPT 或聊天机器人是否真的容易遭受网路安全风险,但其在组织内的部署可能会让攻击者拥有更多可以利用的潜在漏洞。
- 创建个人化聊天机器人
虽然 ChatGPT很强大,但它也仍然有产生假的、误导性资讯的可能性。 因此,许多公司都推出自己公司专用的AI聊天机器人,并禁止员工使用ChatGPT。
- 缺乏监管
目前ChatGPT 仍然缺乏监管,并将使使用的公司和个人暴露在风险之下。如果没有精确的监管条件管理 ChatGPT 的使用,公司在使用AI聊天机器人时就可能会面临严重的法律後果。此外,缺乏监管也会削弱公司的责任感和透明度。大多数公司都难以对向客户解释AI语言模型的决策流程和安全措施。因此,由於担心可能违反隐私法和行业特定法规,公司也会禁止员工使用 ChatGPT。
- 员工的过度依赖
虽然AI很方便,但其也可能阻碍人们进行批判性思考的能力,并让人懒惰及抑制创造力。因此,很多公司不赞成员工使用ChatGPT。
参考资料:makeuseof
※更多ChatGPT相关讯息,请参考【生成式AI创新学院】。