geralt on pixabay
Google在周四(6/8)发表了安全AI框架(Secure AI Framework,SAIF),其6个核心元素包括扩大AI生态体系的安全基础,将资安事件的侦测及回应能力延伸至AI,打造AI的自动化防御能力,协调平台等级的控制能力以确保整个组织的安全性,以控制器来调整缓解并形成更快的AI回应,以及建立AI系统周遭商业环境的风险脉络等。Google期许SAIF得以协助AI产业设立各种安全标准。
Google表示,SAIF发想自软体开发流程的安全最佳作法,像是供应链的审核、测试与控制,再结合对AI系统特有的安全趋势及风险的理解,一个横跨公、私领域的安全框架可确保负责任的业者扞卫支援AI进步的技术,以便於导入预设即是安全的AI模型。
在Google所提出的6个元素中,有些很好理解,像是把现有的安全基础设施、专业安全知识、侦测与回应等技术,延伸至AI生态体系;而在不管是攻击方或防御方都开始利用AI之际,更应利用自动化防御来抵御既有与新威胁。
此外,确保各个控制框架的一致性将可缓解AI风险,并将保护能力扩大到不同的平台与工具,对Google而言,此举包括将安全预设的保护延伸到诸如Vertex AI及Security AI Workbench等AI平台,并於软体开发周期中嵌入应有的控制及保护。
亦应藉由持续学习与测试来因应不断变动的威胁环境,例如基於事件及使用者意见的强化学习,更新训练资料,调整模型对攻击的回应策略,或是允许那些用来建构模型的软体嵌入更多安全机制,也能定期展开红队演练来提高AI产品的安全性。
最後,Google认为组织也因针对AI的部署展开端至端的风险评估,包含端至端商业风险的评估,例如针对特定类型应用程式的资料沿袭、验证及操作行为的监控,以及建构可验证AI效能的自动化检查能力。
除了SAIF之外,Google也将与其它组织合作,以共同开发美国国家标准暨技术研究院(NIST)的AI风险管理框架,以及业界首个AI认证标准 ISO/IEC 42001 AI Management System Standard ,并协助客户及政府机关评估与缓解AI的安全风险,也会持续对外分享各种有关AI安全性的研究与心得。