Ai黑色盒子是害怕的东西吗?

3.分钟阅读

ai黑箱 我们可能已经对人工智能在日常生活中为我们做普通决定感到舒适了。www.yabovip4从Netflix和亚马逊(Amazon)上的产品和电影推荐,到Facebook上的好友推荐,谷歌搜索结果页面上的定制广告,以及我们使用的几乎所有应用程序中的自动修正,人工智能已经像电或自来水一样无处不在。www.yabovip4

但是,在司法系统中的深刻和更改的决定呢?一个人被判刑基于算法,​​他甚至允许看到。

几个月前,当最高法院的首席大法官约翰·g·罗伯茨jr .)访问纽约伦斯勒理工学院,雪莉·安·杰克逊总统的大学,问他“当智能机器,与人工智能驱动,将协助法庭调查,或甚至更有争议的是,司法决策?”www.yabovip4

首席大法官的答案真的很令人惊讶。“这是在这里的一天,”他说,“,”这对司法机构如何做事来说是一个重要的压力。“

在公明的案件中Loomis诉威斯康辛州,判决部分基于秘密算法,被告在没有成功的情况下争辩说,裁决是违宪的,因为他和法官都没有被允许检查计算机计划的内部工作。

北极洲公司之后的公司,被视为鲁世斯先生的评估软件在平均危险因素上方尚未准备披露其算法,去年早些时候表示,我们产品的关键是算法,and they’re proprietary.”

“我们创造了它们,我们不发布它们,因为这肯定是我们的核心业务,”该公司的一名高管补充说。

计算风险评估在美国的法庭上越来越普遍,并在程序的每个阶段交给司法决策者。这些所谓的风险因素可以帮助法官决定保释金的数额,判决的严厉程度,甚至被告是否可以被释放。在亚利桑那州、科罗拉多州、特拉华州、肯塔基州、路易斯安那州、俄克拉何马州、弗吉尼亚州、华盛顿州和威斯康星州,这种评估的结果会在刑事判决期间交给法官。

但为了讨论起见,让我们假设,执法部门或法院等政府机构使用的每一款软件和算法都经过了适当的同行审查,并在全面的法规下进行审查。这里的问题不只是公司和政府在算法和方法上要透明,还包括如何解释和理解对人类来说是黑盒子的东西。

最现代的人工智能系统基于衍生物机器学习.在简单的条件下,机器学习是关于培训具有已标记数据的人工神经网络,以帮助它理解特殊情况的一般概念。这都是关于统计数据。通过向网络馈送数千个准备的数据,使系统能够逐渐微调特定层中各个神经元的重量。最终结果是对称重的所有神经元的复杂读数,以便对最终结果进行说法。

与我们大脑的工作方式很相似,经过训练的模型的内部工作方式不像传统的基于规则的算法,在传统算法中,每个输入都有一个预定义的输出。我们唯一能做的就是试着创建最好的模型,然后用我们能得到的尽可能多的无偏见数据来训练它。其余的对科学家来说是一个谜。

说到区分猫和狗,目前的人工智能技术做得很好。www.yabovip4如果它错误地把猫叫做狗,那也没什么大不了的。但生死攸关的决定另一个问题

例如,采取自动驾驶汽车。已经有项目在其中没有由开车的工程师编写的单行代码。2016年,NVIDIA的深入学习算法,例如,跑了一辆自治车,已经学会了如何通过观看人类的司机驾驶。当你考虑后果时,它变得有点令人不安。

考虑一下汽车的经典情况,当汽车面向一个小女孩跑过街道,然后是她爸爸。这辆车必须决定与孩子,父亲或遇到附近的人群之间。统计上,因为这就是机器学习基本上的工作原理,有20%的机会致命地击中女孩,60%的机会达到父亲的几率,10%的机会致命地击中两个旁观者的机会。还有汽车乘客的安全计算。击中女孩的几率是严重伤害它们的几率,而在击中父亲时只有10%的机会。汽车应该如何决定?你会怎么做?回想起来,甚至可以扣除和澄清汽车的决策过程。你明白了。

这也和我们给机器输入的数据有关。2016年,Propublica,显示一个案例当机器偏见被视为黑人女性比白人更高的风险,而他们以前的所有记录都表现出。

无论是好是坏,在一天结束的时候,这是不可否认的AI将征服我们生活的每个行业和方面.从军队到我们的学校和购物中心,人工智能将变得无处不在,我们甚至感觉不到它。历史一再向我们表明,关键不在于技术,而在于我们如何使用技术。

正如Melvin Kranzberg的技术第一定律所说:“技术没有好坏之分;也不是中性的。“这是关于人类的物种,使其良好使用。

1评论

留下一个回复

这个网站使用Akismet来减少垃圾邮件。了解如何处理评论数据