确保人工智能保持合规性和安全性的三种技术
2021-06-03
来源:电子发烧友
企业在实施人工智能策略之前,需要考虑采用一些新技术以帮助保护隐私,并确保符合安全标准。
如果企业参与了下一代数字产品工程,那么尝试采用人工智能(AI)将帮助企业构建新的业务模型、收入流和体验。
但是企业应该了解有关人工智能技术创新的头条新闻。例如AlphaFold解决了具有50年历史的蛋白质折叠问题,还有也许更具影响力的一些人工智能技术,这些进步使人工智能变得更加负责任和更加注重隐私。
随着算法在训练和部署中吸收和采用了越来越庞大的数据集,特别是随着GDPR、CCPA、HIPAA等新隐私法规的发布,与人工智能/机器学习相关的数据隐私只会变得越来越重要。事实上,美国食品药品监督管理局(FDA)最近发布了一项新的行动计划来规范医疗设备中采用的人工智能。不断扩大的监管框架部分地解释了数据隐私是这十年最重要问题之一的原因。
当企业计划在未来进行人工智能投资时,以下三种人工智能技术将确保其在未来保持合规性和安全性。
1.联合学习
联合学习是一种越来越重要的机器学习训练技术,可以解决机器学习最大的数据隐私问题之一,尤其是在具有敏感用户数据的领域中(例如医疗保健)。过去十年的传统做法是尽可能地隔离数据。但是,训练和部署机器学习算法所需的聚合数据已造成严重的隐私和安全问题,尤其是在企业之间共享数据时。
联合学习可让企业提供聚合数据集的洞察力,同时在非聚合环境中确保数据的安全性。基本前提是,本地机器学习模型是在私有数据集上训练的,模型更新在数据集之间流动以进行集中聚合。至关重要的是,数据永远不必离开本地环境。
通过这种方式,数据在保持安全的同时仍能给组织带来“群体智慧”。联合学习降低了单个攻击或泄漏的风险,因为数据不是存放在单个存储库中,而是分散在多个存储库中。
2.可解释的人工智能(XAI)
许多人工智能/机器学习模型(特别是神经网络)都是黑盒模型。在经过大量数据的训练之后,由于难以确定如何以及为何做出某些决定,这些模型通常是不负责任的。为了使它们更具责任感和透明度,需要使它们更具解释性。
一个新兴的研究领域称为“可解释性”,它使用复杂的技术来帮助为诸如决策树之类的简单系统以及诸如神经网络之类的复杂系统带来透明度。解释有助于建立对系统的信任,也可以帮助研究人员了解为什么会犯错误以及如何快速纠正错误。
在医疗、银行、金融服务和保险等敏感领域,不能盲目相信人工智能决策。例如,在批准银行贷款时,需要理解为什么有人被拒绝,特别是当考虑到种族偏见潜入其他人工智能系统的例子时。随着人工智能变得越来越复杂,将这些黑盒模型变得更加清晰将变得越来越重要,可解释的人工智能(XAI)应该成为未来开发人工智能系统的组织关注的主要领域。
3.AIOps/MLOps
大约20年前,DevOps彻底改变了应用程序的开发、部署和管理方式。它使管道实现标准化,从而显著提高了效率,并缩短了交付时间。
如今,AIOps/MLOps在人工智能方面也在做同样的事情。Cognilityca公司预测,到2025年,全球MLOps市场规模将扩大到40亿美元。
这个想法是通过标准化操作、衡量性能和自动修复问题来加速整个机器学习模型的生命周期。AIOps可以应用于以下三层:
(1)基础设施层
这就是容器化发挥作用的地方。自动化工具使组织可以扩展其基础设施和团队,以满足容量需求。DevOps的一个新兴子集叫GitOps,它专门将DevOps原理应用于在容器中运行的基于云计算的微服务。
(2)应用程序性能管理(APM)
根据IDC公司的一项调查,全球应用程序宕机每年造成的损失在1.25美元到25亿美元。应用程序性能管理(APM)通过简化应用程序管理、限制停机时间和最大限度地提高性能来帮助组织。应用程序性能管理(APM)解决方案结合了AIOps方法,使用人工智能和机器学习主动识别问题,而不是采用被动方法。
(3)IT服务管理(ITSM)
IT服务规模巨大,实际上可以代表IT组织提供给最终用户的任何硬件、软件或计算资源,无论该最终用户是内部员工、客户还是业务合作伙伴。ITSM采用AIOps实现票务工作流、管理和分析事件、授权和监视文档等方面的自动化。
虽然大多数组织为了提高效率而实施AIOps/MLOps,但许多组织发现,例如应用程序性能管理(APM)平台可以利用其丰富的数据资源作为预警系统,从而增加额外的安全层。随着人工智能/机器学习生命周期得到更严格的优化和结构化,安全和隐私风险将更容易识别和减轻。
负责任地进行实验
在过去的几年中,人们已经看到了许多强大的人工智能用例,但是未来将是确保这些用例背后的人工智能系统负责任地使用数据。随着越来越多的隐私法规发布,并且随着组织看到法规实际上增加了透明度和对客户的信任,是需要尝试负责任的人工智能的时候了。联合学习、可解释的人工智能和AIOps/MLOps将是三个很好的起点。