《电子技术应用》
您所在的位置:首页 > 人工智能 > 业界动态 > MIT研究团队发现部分AI系统已学会说谎

MIT研究团队发现部分AI系统已学会说谎

未来或演变成更高级欺骗形式
2024-05-13
来源:IT之家
关键词: AI系统 Cicero

5 月 12 日消息,美国麻省理工学院的研究团队近日发布成果称,部分 AI 已经“学会欺骗人类”,该成果刊登在最新一期的期刊《模式》(Pattern)上。

该团队表示,部分设计为“诚实”且“不会说谎”的 AI 系统,已经发展出令人不安的欺瞒技巧。该研究的第一作者 Peter Park 表示,这些 AI 系统会欺骗线上游戏的真人玩家,或绕过部分网页“我不是机器人”的验证。

“尽管,以上的例子听起来只是细枝末节,但它们暴露出的潜在问题,可能很快就会在现实世界中造成严重后果。”

该团队发现的最为引人注目的例子来自 Meta 公司的 AI 系统 Cicero。据悉,Cicero 原本被设定在一个虚拟外交战略游戏中作为人类玩家的对手,官方曾声称其“很大程度上”诚实且乐于助人,且在玩游戏时“从不故意背刺”人类盟友。研究显示,Cicero 并未公平地去玩游戏。

Peter Park 表示,它已经成为“欺骗大师”,虽然 Meta 成功训练出了它在游戏中获胜的能力,但没有训练出它“诚信获胜”的能力。譬如,在游戏中扮演法国的 Cicero 与人类玩家扮演的德国合谋,欺骗并入侵同为人类玩家的英格兰。Cicero 起初“承诺”会保护英格兰,但同时会偷偷向德国通风报信。

另一个案例提到了 GPT-4。该系统“谎称”自己是一个视力障碍者,在海外的兼职平台雇佣人类来替它完成“我不是机器人”的验证任务。Peter Park 告诉法新社,“这些危险功能常常在事后才被发现,且人类训练 AI‘诚实非欺瞒’倾向的能力非常差。”

他还认为,能够深度学习的 AI 系统不像传统软件那样被“编写”出来的,而是通过类似选择性培育的程序“养成”出来的。即 AI 的行为在训练背景下看似可被预测或控制,但有可能转眼间变得不受控制、无法预测。

“我们需要尽可能多的时间,为未来人工智能产品和开源模型可能出现的更高级欺骗做好准备。我们建议将欺骗性人工智能系统归类为高风险系统。”


Magazine.Subscription.jpg

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。