亚博ios彩票什么是解释的人工智能?www.yabovip4

6分钟阅读
解释为 - 检查自动决策背后的数据
来源:Depositphotos

本文是的一部分神秘的人工智能(试图)消除围绕人工智能的术语和神话的歧义。

如果您的银行拒绝您的贷款申请,作出决定的人必须能够提供解释的过程和导致拒绝的信息。但我们越来越多地把自己的决定托付给人工智能算法,而且在很多情况下,我们并不知道这些算法是如何运作的。www.yabovip4

解释基于人工智能的决策的难度已成为一个令人担忧的问题,特别是随着人工智能在医疗、执法、银行和交通等关键领域发挥突出作用。对人工智能算法的工作方式缺乏可见性带来了挑战,特别是在错误决策可能造成无法弥补的伤害的领域,或者在法律规定允许个人挑战自动决策并要求决策者对自己的行为作出解释的领域。

被称为“AI黑盒子“问题已经刺激了几个科学家,初创公司,公司,寻找创造可解释的人工智能的方法,解释其决定或开放调查。www.yabovip4

为什么很难解释人工智能的决策?

神经元
资料来源:Flickr (宾夕法尼亚州立大学

首先,www.yabovip4人工智能是一个负载期限它包含了很多不同的技术,并不是所有的子集都存在黑盒问题。我们特别关心的是深度学习和神经网络,在过去几年中变得非常受欢迎的AI分支。

神经网络是以人脑功能命名的软件结构 - 尽管我们知道他们是从根本上不同从人类思想的方式。与传统软件不同,人类程序员精心编写应用程序的所有规则,神经网络和深度学习算法都是给予相关的数据集,并留下以创建自己的规则。培训神经网络的最基本方式是用一组标记的例子喂它,一个名为“监督学习”的过程。然后,它在这些示例之间找到了常见的模式和相关性,并使用该信息来分类未标记的示例。

例如,当你给一个神经网络一百万张不同种类猫的标签图片时,它会将这些图片层层地通过人工神经元运行,并“学习”出猫图片的共同特征。之后,它将能够在从未见过的新照片中发现猫。这是一种非常有效的方法,对于难以用经典规则定义的任务,如图像分类和语音识别。

但是,由于神经网络有效地创建自己的规则,我们无法确定其内部工作的细节。例如,人类和神经网络都可能会说出以下图片中的动物是猫,但不出于同样的原因。

1280年px-cat_poster_1

人类会告诉你猫有尖尖的耳朵,三角鼻子,晶须,毛茸茸的尾巴......神经网络没有了解猫的不同身体部位。它只能以高度的信心识别出这些照片包含猫,因为它们的像素的结构和颜色类似于它之前看到的数百万只猫图片。

这就是神经网络不透明的基本原因。它们是接收输入和产生输出的黑盒子,而不给出解释。这一切都很好,而一切工作完美。但是当错误发生时,事情就会变得棘手发生。

为什么可解释的AI很重要?

人的头脑是不完美的,这是每个人都同意的事实。我们一直在犯错,但我们可以解释这些错误背后的逻辑。例如,一个人可能会把一个人误认为是另一个人,并说从那个特定的角度来看,面部特征和身材使他们做出了错误的区分。

和人类一样,神经网络也会犯错。但由于它们潜在的差异,它们的错误与人类的错误截然不同,我们无法知道它们是如何失败的。例如,他们可能会把乌龟错当成了步枪,吃鳄梨酱的猫或者一个长臂猿的熊猫.重要的是,没有人会犯同样的错误,因为正如前面提到的,我们的视觉系统从根本上是不同的。这意味着,如果不能解释AI算法的工作方式,我们就无法预测AI黑盒将如何失败。

乌龟步枪
一个神经网络认为这是步枪的图片。人类视力系统永远不会犯这个错误(来源:Labsix.

意外的错误可以从烦人(图像搜索的不良结果)到尴尬(标签深色皮肤的人作为大猩猩有害的一辆自动驾驶汽车撞上一辆牵引拖车因为ai失败)。

此外,我们的人工智能算法可能会发展隐藏的偏见以及明显的性别歧视或种族主义行为,并对其用户造成情感、经济或法律上的伤害。在更关键的层面上,黑客可以利用神经网络的盲点进行“对抗性攻击”,或迫使它们以恶意方式工作,如欺骗一个自动驾驶汽车越过停止标志或者是面部锁定,将某个随机的人误认为设备的真正所有者,从而让他们访问设备的数据。

只要我们没有解释和调查人工智能所作的决定,所有这些意外和故意错误都将留在神秘的裹尸布下。www.yabovip4

可解释AI的法律要求

关闭- -法院法院- 534204

除了这些失误之外,不可解释的AI的使用也给那些明确要求所有决策都具有可追溯性的领域带来了挑战。一个例子是法律,被告应该能够对法院的决定提出质疑。如果法官使用基于神经网络的自动化软件来进行判断——即使他们使用软件作为建议的指南——他们也应该能够解释他们做出决定背后的动机和事实。

其他地区包括医学,医生应该能够调查和交叉检查任何治疗和治疗建议,即深入学习算法可能表达。在贷款申请和银行业务(在文章的开始时),请求被拒绝的申请人有权了解导致其申请被拒绝的进程的细节。

此外,越来越多的法规限制了公司和组织使用自动决策的方式,尤其是在科技公司的数据收集和挖掘活动成为一系列广泛丑闻的核心之际。

一个非常重要的例子就是欧盟一般数据保护规则(GDPR).GDPR说明:“数据主体应有权不受基于决策的权利只涉及自动化加工这里的关键是“单独”这个词,这意味着如果一个组织想要使用自动决策(比如处理贷款申请或员工薪酬调整),在实施人工智能算法得出的结论之前,必须由人类检查和确认。但是,只有当他们能够追溯导致自动决策的步骤时,这个人才能审查自动决策。

另一个例子是纽约市议会算法的责任法案,这将需要自动化决策的有效性和公平可验证。我们很可能会看到更多这样的法规作为深度学习和其他AI技术发现他们进入日常生活的不同方面。

创建可解释的不同方法

深神经网络

可解释人工智能仍是一个不断发展的领域,科学家们正在努力寻找不同的方法,在不影响神经网络性能的情况下,使其可解释。我们还没有看到标准的出现,但是有一些有趣的举措旨在创造可解释的人工智能,并跟踪自动决策的定义属性来自哪里。

其中最突出的是国防高级研究计划局的可解释人工智能项目www.yabovip4(新品)。美国国防部高级研究计划局(DARPA)是美国国防部的研究机构,该机构正在探索可解读人工智能,以提高自动化工具在军事各个领域的使用。

还有一个初创公司的Slate,以及正在研究该主题的大型科技公司。正如我们在这些页面中讨论的那样,打开黑匣子的盖子将是一个关键组成部分让人工智能能够迈出下一个大飞跃

虽然可解释的具体方法是技术上有点涉及在这里讨论它们,从高级角度来看,基本上有两种方法来解释AI决定。

第一种方法更简单,也更容易实现,是在人工智能决策发生后进行调查。例如,这意味着如果一个神经网络错误地将沙丘图像归类为裸照,应用程序的操作人员应该能够调查错误。已经有一些方法允许这种决策后调查。在图像分类示例中,当您给神经网络一个输入时,它通常返回一个类列表,每个类都有一个置信值。科学家可以研究图像的不同部分是如何影响神经网络的决策的,方法是对输入进行微小的改变,然后观察这些改变是如何影响输出类的权重的。

可以帮助自动执行此过程的方法之一生成对抗网络,它彼此抵抗两个神经网络以最大化一种结果。例如,GaN可以以非常高的速度开始摆弄图像,并生成图像的区域的地图影响哪个输出类。

尽管有效,但第一种方法仍然没有着眼于人工智能黑箱内部,仍然是在从外部解决问题。此外,在某些情况下,我们想要知道AI在做出决定之前是如何工作的,而不是在做出决定之后。

可解释的第二种方法是更具挑战性的,是创造了可以在神经网络的内部工作中阐明的机制。在您想要调查神经网络的潜在漏洞(在自动驾驶汽车中使用的计算机视觉技术)之前,这在部署在现实世界之前至关重要。

问题是,当留下自己的复杂连接时,神经网络最好优化。一旦您尝试打破复杂性以帮助人类分析师探索其机制,您就会危及损害其速度和效率。

这是一个有趣的研究领域,很多人都在努力让人工智能算法能够自我解释自己的决策过程。我们还没有在这个领域看到一些显著的结果,我们可能还需要几年(或几十年)才能看到人工智能算法能够解释它们自己的内部机制。

在此之前,我们必须弄清楚如何创建能够为在我们生命的各个方面越来越重要的行业带来更具透明度,可意识性和问责的技术。

发表评论

本网站使用AkisMet减少垃圾邮件。了解如何处理评论数据