《电子技术应用》
您所在的位置:首页 > 人工智能 > 业界动态 > 人工智能面临十大安全威胁

人工智能面临十大安全威胁

2021-04-28
来源:互联网安全内参
关键词: 人工智能 安全威胁

  随着自动驾驶技术、智能助理、人脸识别、智能工厂、智慧城市等AI人工智能技术的快速普及和相关安全事件的快速增长,消费者和业界对人工智能网络安全问题和威胁的关注度正不断提高。

  近日,应欧盟和美国政府的要求,可信AI研究和咨询专业公司Adversa发表了业界首个全面的人工智能安全性和可信度研究报告,该报告还结合了Gartner的相关预测以及最近对AI的对抗性攻击事件。

  Adversa顾问委员会前Gartner分析师Oliver Rochford指出:建立对机器学习安全性的信任至关重要。我们要求人们去相信AI的黑匣子(这很困难),为了使AI革命成功,我们必须建立信任……AI面临的安全风险太大,同时收益也很大。

  Adversa的CTO Eugene Neelou表示:“为了提高可信AI领域的安全意识,一年多前我们启动了一个项目,以分析学术、行业和政府过去十年的发展情况。结果令人目瞪口呆,受测AI系统普遍存在安全性和偏差问题,以及缺乏适当的防御措施,但人们对AI安全的兴趣呈指数增长。企业应紧密跟踪最新AI威胁,实施AI安全意识计划,并保护其AI开发生命周期,最重要的是从现在开始做起。”

  报告显示:AI领域的安全现状异常糟糕;过去两年AI安全研究论文呈现爆炸式增长;美国、中国、欧洲在可信AI研究领域竞争激烈,中国正在加速反超;AI人工智能领域面临十大安全威胁

  以下为报告中的部分亮点数据,安全牛整理如下:

  现实中的AI安全事件正在快速增长:

  在汽车、生物识别、机器人技术和互联网行业中,现实世界中的AI安全事件正在快速增长。作为AI的早期采用者,最受关注的行业是互联网(23%)、网络安全(17%)、生物识别技术(16%)和自治(13%)。

  AI安全研究论文爆炸式增长:

 微信图片_20210428140532.jpg

  过去两年中,政府、学术界和工业界发布的AI安全性方面的研究论文多达3500篇,超过过去二十年的总和。美国、中国、欧盟之间的激烈竞争预计将在可信AI竞赛中继续下去:美国发表了47%的研究论文,但中国势头强劲。

  AI还没有为黑客攻击做好准备:

  人工智能行业对于现实世界的黑客攻击还没有做好充分的准备,60种最常用的机器学习(ML)模型平均至少有一个安全漏洞。

  最多被攻击者针对的AI技术领域是计算机视觉:

  微信图片_20210428140544.jpg

  最多被针对的AI领域是计算机视觉(65%),其次是分析、语言和自治系统。

  图像、文本和记录是最容易遭受攻击的AI数据集:

  微信图片_20210428140608.jpg

  图像分类和人脸识别最常被攻击的AI应用:

  微信图片_20210428140626.jpg

  互联网、网络安全、生物识别和汽车行业是AI网络安全问题的重灾区:

  微信图片_20210428140642.jpg

  AI面临十大安全威胁:

  1.绕过攻击(通过对抗性样本操纵AI决策和结果)81%

  2.毒化攻击(注入恶意数据降低AI系统可靠性和精确度)6.8%

  3.推断攻击(推断特定数据样本是否被用于AI训练)3.5%

  4.后门攻击2.3%

  5.模型抽取攻击(通过恶意查询命令暴露AI算法细节)1.9%

  6.归属推断攻击1.3%

  7.木马攻击1.2%

  8.模型逆转攻击(通过恶意查询获取的公共输出数据推断输入数据)1.2%

  9.反水印攻击(绕过AI系统对版权和真实性的检测)0.6%

  10.重编程攻击(改变AI模型用于非法用途)0.2%


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。