亚博ios彩票什么是对抗机器学习?

5.分钟阅读
机器人在迷宫
对抗性的例子是导致机器学习算法错误分类图像而不被人眼注意的轻微操作。(图片来源:Depositphotos)

本文是其中的一部分贬低艾..,一系列帖子(尝试)消除术语术语和神话的神话。

对于人类观察者,以下两个图像是相同的。但Google的研究人员在2015年显示了流行的对象检测算法将左侧图像分为“熊猫”,右侧是“长臂猿”。奇怪的是,它对长臂猿的图像有更多的信心。

问题的算法是谷歌网络卷积神经网络荣获2014年ImageNet大型视觉识别挑战赛(ILSVRC 2014)。

Pandas对抗性示例
对抗性的例子会让机器学习算法犯愚蠢的错误

正确的图像是一个“对抗性的例子”。它经历了微妙的操作,不被人眼注意,但使它成为一个完全不同的景象的数字眼睛机器学习算法

对手的例子利用人工智能算法破坏人工智能算法的行为的方式利用方式。www.yabovip4在过去的几年里,对抗机器学习已成为一个活跃的研究领域,因为我们使用的许多应用程序的角色继续增长。越来越关注机器学习系统的漏洞可以被用于恶意目的。

对抗性机器学习的研究已经产生了各种各样的结果,从有趣的、良性的和令人尴尬的——比如跟踪乌龟被误认为是步枪——到潜在的有害的例子,比如自动驾驶汽车把停止标志误认为限速。

Ai对抗攻击乌龟
labsix的研究人员展示了一只经过改造的玩具龟是如何欺骗深度学习算法,使其将自己归类为步枪的。

机器学习是如何“看”世界的

在我们了解对抗性例子如何工作之前,我们必须首先了解机器学习算法如何解析图像和视频。考虑一个图像分类器AI,就像本文开头提到的那样。

在能够执行其功能之前,机器学习模型通过“培训”阶段,其中提供许多图像以及它们的相应标签(例如,熊猫,猫,狗等)。该模型检查图像中的像素并调谐其许多内部参数,以便能够将每个图像与其相关标签链接。在培训之后,该模型应该能够检查它之前未见过的图像并将它们链接到正确的标签。基本上,您可以将机器学习模型作为数学函数的方式视为将像素值作为输入和输出图像的标签。

人工神经网络,是一种机器学习算法,特别适合处理杂乱的非结构化数据,如图像、声音和文本文档,因为它们包含许多参数,可以灵活地调整自己,以适应训练数据中的不同模式。当相互堆叠时,神经网络就变成了“深度神经网络”,它们进行分类和预测任务的能力就会增加。

深层神经网络
深层神经网络由多层人工神经元堆叠而成

深度学习,采用深神经网络的机器学习的分支是目前人工智能的出血边缘。www.yabovip4深度学习算法通常匹配 - 有时跑话 - 人类的任务是预先用于计算机的禁止限制计算机视觉和自然语言处理。

然而,值得注意的是,深深的学习和机器学习算法是在他们的核心嘎吱嘎吱的机器上。它们可以在像素值,单词序列和声波中找到微妙和复杂的模式,但是它们看世界的方式与人类不同

这就是逆势示例进入图片的地方。

对抗性例子是如何起作用的

当你让一个人描述她是如何在图像中发现熊猫的,她可能会寻找身体特征,比如圆圆的耳朵,眼睛周围的黑色斑块,鼻子,毛茸茸的皮肤。她可能还会给出其他背景,比如她希望看到熊猫在什么样的栖息地,熊猫会摆什么样的姿势。

对于人工神经网络来说,只要将像素值通过等式运算得到正确的答案,它就会确信它看到的确实是一只熊猫。换句话说,通过正确地调整图像中的像素值,你可以欺骗人工智能,让它认为它没有看到熊猫。

在文章开头的对抗性例子中,AI研究人员给图像添加了一层噪声。这种噪音人眼几乎察觉不到。但是,当新的像素数字通过神经网络时,它们产生了长臂猿图像所期望的结果。

www.yabovip4人工智能对抗的例子熊猫
在左边的熊猫图片上添加一层杂色会把它变成一个对立的例子

创建敌对的机器学习例子是一个反复试验的过程。许多图像分类器机器学习模型提供了一个输出列表以及它们的置信度(例如,熊猫=90%,长臂猿=50%,黑熊=15%,等等)。创建敌对的例子需要对图像像素进行小的调整,并通过AI重新运行它,以查看修改如何影响置信分数。通过足够的调整,你可以创建一个噪音地图,降低一个类的信心,提高它在另一个类。这个过程通常是自动化的。

在过去的几年里,人们对对抗性机器学习的工作原理和效果进行了广泛的研究。在2016年,卡内基梅隆大学的研究人员研究表明,佩戴特殊眼镜可以欺骗面部识别神经网络,使其误认为是名人。

Ai对抗攻击面部识别
Carnegie Mellon大学的研究人员发现,通过融入特殊眼镜,他们可以欺骗面部识别算法将它们误认为是名人(来源:http://www.cs.cmu.edu

在另一个案例中,三星、华盛顿大学、密歇根大学和加州大学伯克利分校的研究人员发现,只要对停车标志做一点小小的调整,他们就能做到电脑视觉算法看不见自驾车。黑客可能会使这种对抗攻击迫使自驾驶汽车以危险的方式行事,并且可能导致事故。

Ai对抗攻击停止标志
人工智能研究人员发现,通过在停车标志上添加小的黑白贴纸,他们可以让这些标志不被计算机视觉算法发现。

图像之外的对抗例子

对抗的例子并不仅仅适用于处理视觉数据的神经网络。也有关于文本和音频数据的对抗性机器学习的研究。

2018年,加州大学伯克利分校的研究人员成功地操纵自动语音识别系统的行为(ASR)具有对抗的例子。亚马逊Alexa,Apple Siri和Microsoft Cortana等智能助手使用ASR解析语音命令。

例如,可以以播放它将语音命令发送到附近的智能扬声器的方式来修改youtube上的歌曲。人类听众不会注意到变化。但智能助理的机器学习算法将拾取该隐藏命令并执行它。

对抗性的例子也适用于自然语言处理处理文本文档的系统,例如过滤垃圾邮件的机器学习算法,阻止社交媒体上的可恶演讲,并检测产品评论中的情绪。yabet468.cc

2019年,IBM研究,亚马逊和德克萨斯大学的科学家创造了可能傻瓜的对抗例子文本分类器机器学习算法比如垃圾邮件过滤器和情感检测器。基于文本的对抗性例子,也被称为“释义攻击”,它修改一段文本中的单词序列,在机器学习算法中造成错误分类错误,同时保持人类读者理解的意思一致。

Ai转述对抗性攻击的例子
强制AI算法改变其输出的释义内容的例子

对对抗性例子的保护

保护机器学习模型不受对抗性例子影响的主要方法之一是“对抗性训练”。在对抗性训练中,机器学习算法的工程师用对抗性例子重新训练他们的模型,以使它们对数据的扰动具有鲁棒性。

但对抗性训练是一个缓慢而昂贵的过程。每个单独的训练例子都必须探究其对抗性弱点,然后模型必须根据所有这些例子重新训练。科学家们正在研究优化发现和修补对抗性弱点在机器学习模型中。

与此同时,人工智能研究人员也在寻找在更高层次上解决深度学习系统的对抗性漏洞的方法。其中一个方法就是结合平行神经网络并随机切换它们,使模型对对抗性攻击更加鲁棒。另一种方法是制作广义神经网络从其他几个网络。通用架构不太可能被敌对的例子所愚弄。

对手的例子是一种显着提醒的人工智能如何以及人类思想。www.yabovip4

留下一个回复

这个网站使用Akismet来减少垃圾邮件。了解如何处理评论数据