编译/夏洛特
为了为人工智慧(AI)监管和风险评估,提供全面的参考依据,麻省理工学院(MIT)研究人员,开发了一个名为「AI风险资料库」的项目,收录了700多项AI风险,并按照因果因素、领域和子领域进行分类,为政策制定者、行业从业者和学术界提供了宝贵的研究资源。
现有风险框架存在重大遗漏
据报导,MIT研究员Peter Slattery表示,开发这一资料库的初衷,是为了理解AI安全研究中的重叠和差异,并指出,现有的风险框架,往往只涵盖了资料库中识别出的风险的一小部分,可能对AI的发展、使用和政策制定产生重大影响,尽管人们可能认为,大家对AI风险已达成共识,但MIT的研究结果却表明并非如此。
更多新闻:2024 年必知的10 大 ChatGPT 替代方案
现有框架对AI风险的关注度不均
MIT研究团队发现,现有的风险评估框架,对不同类型的风险关注度不同,平均AI危险框架,只提到了其确定的 23 个风险子域中的 34%,近四分之一的框架覆盖率,甚至还不到 20%,且没有任何文件或概述,提及所有 23 个风险子领域,即使是最全面的,也仅涵盖了 70%,其中更是只有44% 涵盖了假讯息问题,同时,虽然有超过50% 讨论了AI可能导致的歧视和失实陈述,但仅有12%提到了「资讯生态系统污染」问题,显示出现有了解的不足。
AI风险资料库助力提高监管效率
Slattery强调,这个资料库可以为研究人员和政策制定者,提供一个基础,帮助他们在进行具体工作时节省时间、提高监管效率,MIT实验室负责人Neil Thompson表示,研究团队计画在下一阶段研究中,使用这个资料库来评估不同AI风险的应对情况,识别组织反应中的不足之处。
风险资料库可能无法完全解决监管挑战
然而,专家也指出,仅仅达成对AI风险的共识可能不足以推动有效的监管,许多AI系统的安全评估仍存在显着局限性,单靠风险资料库可能无法完全解决这一问题,尽管如此,MIT研究团队的努力,无疑为全球AI监管提供了重要参考,这个全面的AI风险资料库的出现,有望为相关讨论和决策提供更加科学和系统的依据。
参考资料:Tech Crunch
※探索职场,透视薪资行情,请参考【科技类-职缺百科】帮助你找到最适合的舞台!