Google发表AI系统的安全性概念框架

Google安全AI框架(SAIF)提出6项核心元素,以协助AI产业设立各种安全标准

geralt on pixabay

Google在周四(6/8)发表了安全AI框架(Secure AI Framework,SAIF),其6个核心元素包括扩大AI生态体系的安全基础,将资安事件的侦测及回应能力延伸至AI,打造AI的自动化防御能力,协调平台等级的控制能力以确保整个组织的安全性,以控制器来调整缓解并形成更快的AI回应,以及建立AI系统周遭商业环境的风险脉络等。Google期许SAIF得以协助AI产业设立各种安全标准。

Google表示,SAIF发想自软体开发流程的安全最佳作法,像是供应链的审核、测试与控制,再结合对AI系统特有的安全趋势及风险的理解,一个横跨公、私领域的安全框架可确保负责任的业者扞卫支援AI进步的技术,以便於导入预设即是安全的AI模型。

在Google所提出的6个元素中,有些很好理解,像是把现有的安全基础设施、专业安全知识、侦测与回应等技术,延伸至AI生态体系;而在不管是攻击方或防御方都开始利用AI之际,更应利用自动化防御来抵御既有与新威胁。

此外,确保各个控制框架的一致性将可缓解AI风险,并将保护能力扩大到不同的平台与工具,对Google而言,此举包括将安全预设的保护延伸到诸如Vertex AI及Security AI Workbench等AI平台,并於软体开发周期中嵌入应有的控制及保护。

亦应藉由持续学习与测试来因应不断变动的威胁环境,例如基於事件及使用者意见的强化学习,更新训练资料,调整模型对攻击的回应策略,或是允许那些用来建构模型的软体嵌入更多安全机制,也能定期展开红队演练来提高AI产品的安全性。

最後,Google认为组织也因针对AI的部署展开端至端的风险评估,包含端至端商业风险的评估,例如针对特定类型应用程式的资料沿袭、验证及操作行为的监控,以及建构可验证AI效能的自动化检查能力。

除了SAIF之外,Google也将与其它组织合作,以共同开发美国国家标准暨技术研究院(NIST)的AI风险管理框架,以及业界首个AI认证标准 ISO/IEC 42001 AI Management System Standard ,并协助客户及政府机关评估与缓解AI的安全风险,也会持续对外分享各种有关AI安全性的研究与心得。

红海加速器好用吗

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
最旧
最新 最多投票
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x