如何使用Dioptra工具进行AI模型的加固

网友投稿 373 2022-11-09

如何使用Dioptra工具进行AI模型的加固

RSAC2022人工智能安全议题

以智能对抗智能

是数字化时代下的安全趋势

对抗性机器学习威胁矩阵ATLAS

AI图像预测中的逃逸案例

最后,分享者介绍了如何使用Dioptra工具进行AI模型的加固,包括使用数据增强、进行模型推理前的预处理等。

“以智能对抗智能”,用于红队和蓝队的ART工具

该工具支持的AI模型对抗攻击类型:

Deep Fool

FastGradient Method

JacobianSaliency Map

UniversalPerturbation

VirtualAdversarial Method

C&WAttack

NewtonFool

对应的防御类型有:

Featuresqueezing

Spatialsmoothing

Labelsmoothing

Adversarialtraining

Virtualadversarial training

微软的AI风险管理评估框架

以智能对抗智能是当前对抗AI类攻击的主要手段,包括智能威胁分析、狩猎和自动化的响应处置,大会上来自Onee Security 和Acronis的研究人员分别分享了如何通过DS4N6AI工具集(集成了大量的异常检测算法)增强威胁狩猎,基于机器学习和堆栈分析应对无文件勒索高级威胁,在云安全环境下如何使能安全团队进行自动化调查和响应违规行为。

AI的双刃剑:

AI隐私合规问题亟需解决

当然,伴随着人工智能技术的应用,它在为人们带来便利的同时,也暴露出一些问题,例如算法歧视、不公平、缺乏隐私和安全性等。因此,如何以负责的、符合伦理要求的方式使用AI,成为业界关注的焦点之一。

可信AI 8原则:可复现、健壮、公平、隐私、可解释、可问责、透明、安全

解决AI隐私合规问题的“四方法”,首先最重要的是强化规则制定与立法,让组织机构必须清楚了解目前适用于AI领域的隐私要求,才能为AI和机器学习应用建立一个合规的数据保护计划。在本次RSA大会上,重点探讨了欧盟和美国的法律和政策应对人工智能合规问题。

解决AI隐私合规问题的“四方法”

IBM的ai-privacy-toolkit实现数据匿名化效果

针对AI模型是否存在偏见,大会上来自SailPoint的在《It’s Not Fair! Detecting Algorithmic Bias with Open Source Tools》话题中提到的aequitas工具能够帮助你评估AI模型的偏见问题,感兴趣的读者可以亲自尝试一下。

aequitas工具评估AI模型偏见问题

更多的优秀工具,笔者都一一汇总在下表中。优秀的开源AI隐私合规类工具

RSA大会上的其他AI议题,还包括了AI在零信任的应用。由于受到新冠疫情影响,远程办公对传统安全体系结构带来的挑战。大会上分享了PKI、加密、机器身份在IAM中的快速增长,以及如何通过Workload Segmentation降低攻击风险等。

从本次会议看,人工智能安全可谓在对抗中前进:人工智能除了要解决用户关注的隐私合规问题外,还需要解决AI对抗类攻击。以智能对抗智能是当前对抗AI类攻击的主要手段,而如何在对抗中“获得先手”,获取防御主动地位,是AI安全要解决的核心问题,也是安全攻防的痛点。

原文标题:RSAC2022解读丨人工智能安全洞察—在对抗中前进

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Swagger中@API tags中含有中文异常问题的解决
下一篇:IP地址分为A\B\C类他们的范围
相关文章

 发表评论

暂时没有评论,来抢沙发吧~