隐私?安全?员工成长?企业禁用 ChatGPT 为哪桩? – TechNice科技岛-掌握科技与行销最新动态

编译/夏洛特

编译/夏洛特

虽然 ChatGPT 的功能令人印象深刻,但基於隐私、安全、员工成长问题,已经有数家重量级公司对员工使用 ChatGPT 下达禁令。(示意图/123RF)

虽然 ChatGPT 的功能令人印象深刻,但基於隐私、安全、员工成长问题,已经有数家重量级公司对员工使用 ChatGPT 下达禁令。2023年5月,三星禁止员工使用ChatGPT和其他生成式AI工具。 随後,2023 年 6 月,澳洲联邦银行、亚马逊、苹果和摩根大通等公司也纷纷效仿。一些医院、律师事务所和政府机构也禁止员工使用 ChatGPT。

以下是公司禁止员工使用ChatGPT的五个主要原因:

  • 数据外泄

ChatGPT 需要大量数据才能有效训练和运行。根据 OpenAI ,每一则透过ChatGPT输入的数据,都有可能落在OpenAI员工的视线中,并用来改进他们的系统。因此,为避免数据泄露,许多公司都会选择限制员工使用 ChatGPT 。

  • 网路安全风险

目前尚不清楚 ChatGPT 或聊天机器人是否真的容易遭受网路安全风险,但其在组织内的部署可能会让攻击者拥有更多可以利用的潜在漏洞。

  • 创建个人化聊天机器人

虽然 ChatGPT很强大,但它也仍然有产生假的、误导性资讯的可能性。 因此,许多公司都推出自己公司专用的AI聊天机器人,并禁止员工使用ChatGPT。

  • 缺乏监管

目前ChatGPT 仍然缺乏监管,并将使使用的公司和个人暴露在风险之下。如果没有精确的监管条件管理 ChatGPT 的使用,公司在使用AI聊天机器人时就可能会面临严重的法律後果。此外,缺乏监管也会削弱公司的责任感和透明度。大多数公司都难以对向客户解释AI语言模型的决策流程和安全措施。因此,由於担心可能违反隐私法和行业特定法规,公司也会禁止员工使用 ChatGPT。

  • 员工的过度依赖

虽然AI很方便,但其也可能阻碍人们进行批判性思考的能力,并让人懒惰及抑制创造力。因此,很多公司不赞成员工使用ChatGPT。

参考资料:makeuseof

※更多ChatGPT相关讯息,请参考【生成式AI创新学院】。