当前位置:九卅娱乐手机版官网首页 > 人文博文 >

AI侦探敲碎深度学习黑箱—新闻—科学网

发布时间:2017-12-03 阅读:

  AI侦探暗恋深度学习黑匣子 - 新闻 - 科学网

  研究人员创建了一个填充照片空白的神经网络来识别人工智能缺陷。图片来源:ANH NGUYEN

  Jason Yosinski坐在美国加利福尼亚州旧金山的一个小玻璃办公室,沉思着人工智能。 Uber的研究科学家Yosinski正在笔记本电脑上运行人工智能(AI)的脑部手术。

  许多人工智能将改变人类的现代生活,如UF DRV,Yosinski的程序是一个深度神经网络,其结构或多或少受到大脑的启发,就像人脑一样,这个程序很难从外界理解: “一个黑盒子。

  这种特殊的人工智能可以训练大量的注释图像,以识别诸如斑马线,消防车,安全带等物体。但是在摄像机前面确定了Yosinski和记者吗? Yosinski放大了AI的独立计算节点(神经元)之一,以查看触发其响应的是什么。

  两个幽灵般的白色椭圆形物体漂浮在屏幕上。这个神经元似乎已经学会了如何检测脸部轮廓。他说:它会回应你和我的脸,并会回应不同大小和颜色的面孔。

  但是,没有人培养这样的网络来识别人脸。在训练图像中,人类没有被标记,但是网络确实学会识别面孔,也许是面部出现的物体,比如领带和牛仔帽。网络非常复杂,人们无法理解他们做出的决定。

  虽然尤金斯基的探索指出了一些道路,但总体情况仍不明朗,他说,我们有惊人的模型,但实际上他们并不了解,情况正在逐年恶化。

  深度学习似乎每隔一个月就会延伸到另一个学科领域。他们预测了合成有机分子,检测与自闭症有关的基因,甚至改变科学进展的最佳方式。人工智能一点都不坏,但却让理论科学家感到焦虑:为什么模型如此呢?

  澄清这个难题激励着学术界和工业界的新一代研究人员。一些工具可以检测到AI而不会深入;一些是可选择的算法,与神经网络相比具有更高的透明度;其他人继续使用更深入的学习来窥探黑匣子。他们一起成为Yosinski所谓的人工智能神经科学的新学科。

  西雅图华盛顿大学毕业生马克·里贝罗(Marco Ribeiro)试图通过一种名为“反事实因素”的神经科学工具来打开黑匣子。这个想法是聪明地改变AI输入,看看有什么变化以及如何影响输出。

  例如,里贝罗(Ribeiro)的“LIME”计划将一个批评者标记为肯定的,并略微修改文本以创建新的变体,然后将这些变体输入到黑盒中,看看他们是否仍然被标记为正面。或部分图像,分子结构或任何类型的数据在AI的初步判断中至关重要。

  但是,像LIME这样的新的反事实方法似乎每个月都可以使用。但Google计算机科学家Mukund Sundararajan发明了另一种不需要数千次网络测试的探索方法。如果你想了解很多决定,这绝对是一个好处。

  Sundararajan团队不是随意输入,而是引入了一个纯黑色图像或归零文本阵列的空白引用,并将其逐步转换为测试实例。通过运行网络中的每一步,他们观察他们确定的跳跃,并从预测的轨迹重要特征中推导出来。

  Sundararajan比较了这一过程,以确定区分他所居住的玻璃墙的主要特征:杯子,桌子,椅子和计算机的标准组合。我可以给出无数的理由。但是,当你慢慢昏暗的灯光。当灯光变得非常暗淡时,只有最突出的原因才是它的亮点。这些转换使Sundararajan能够获取比Ribeiro变种更多的网络决策。

  但更深入的,尚未解答的问题仍然存在,Sundararajan说。

  这个问题不仅来自科学。根据欧盟指令,部署继续影响公众的算法的公司必须在来年解释其模型的基本机制。美国国防部高级研究计划局也投资7000万美元在一个新的计划中解释人工智能,试图解释无人机和情报采矿作业的学习深度。谷歌机器学习研究员玛雅古普塔也表示,黑匣子也来自硅谷。

  她于2012年加入Google,当时向AI工程师询问问题,发现精确度并不是他们唯一关心的问题。工程师告诉Gupta:我们不确定网络在做什么,我们不相信它。

  今天的神经网络比以前复杂得多,但其本质是一样的,一个是数百万的杂乱数据(如狗的照片)。数据被输入到十几层或更多层的网络中,其中神经连接响应数据中的特征。每一层都会抽象化内容,最后一层来解释最后的判断,比如从狗身上辨认出腊肠狗。

  起初,这个系统可能会很尴尬。然而,每一个结果都会与一个显着的狗的形象进行比较,在一个被称为反向传播的过程中,结果会通过网络向前发送,这个过程将被重复数百万次,直到整个网络学会识别不同品种的狗,用现代技术和大胆的实验,可以让他们真正的工作,微软雷德蒙德研究所的计算机科学家Rich Caruana说,但是这个神秘灵活的力量也使得互联网变黑框。

  古普塔有一个不同的策略来处理黑盒问题:她试图解决这些问题。几年前,Gupta开始了一个名为GlassBox的项目。她的目标是将工程可预测性解释为神经网络。她的指导原则是单调的,即变量之间的相关性。

  Gupta将这些单调关系嵌入到一个名为插值查找表的蔓延数据库中。实质上,这个查找表就像高中三角查找表。但是插值查找表在一个维度中不是十几个条目,并且在多个维度上具有数百万条目。她将这些表格写入神经网络,从而有效地增加了额外的预测层面的计算知识,因此神经网络也将变得更加可控。

  然而,有时候人们不得不忍受黑箱的困惑,结果理论家们开始追求深度学习的第三条路径,而不是去寻求理解神经网络或者避开它,他们说学习深度学习可以简单的做得更深。

  像许多AI开发者一样,亚特兰大乔治亚理工学院娱乐情报实验室负责人马克·里德尔(Mark Riedl)从20世纪80年代开始使用电子游戏进行测试。青蛙过河是他最喜欢的游戏之一:玩家让青蛙穿过汽车,到达另一边的池塘。训练专家级青蛙河游戏网络其实很简单,但很难解释人工智能正在做什么。

  Riedl不是探索神经网络,而是让人类主体玩游戏,并通过给予人们实时的声音来描述他们的策略。 Riedl在游戏代码中记录了这些玩家的评论:哦,有一辆车向我走来,我需要向前跳,Riedl训练了第二个神经网络来翻译语言,并将代码翻译成英文。

  然后,他将翻译网络连接到最初的游戏网络,并产生一个综合的,富有表现力的AI,当停在胡同里时,会说我在移动之前等着打开一个洞。当被困在边缘时,AI会感到沮丧,被诅咒和抱怨的屏幕。

  Riedl称这种合理化的方法,他设计的这种方法可以帮助用户了解家庭机器人,自主车辆和其他机器。如果我们不能质疑他们为什么这样做,给他们一个合理的答案,人们就只能把人工智能放在一边。 Riedl说。但是这些解释导致另一个问题。他补充说:在人类失去信任之前,何种程度的合理化是错误的。

  像Riedl一样,Yosinski也使用了第二个AI系统来帮助他理解第一个系统。

  首先,Yosinsk更新分类器来生成图像,而不是注释图像。然后他和他的同事给它一个静态着色,并通过它发送一个信号给请求者,比如更多的火山。最后,他们假设网络会在火山的框图中包含噪声,而且AI和人类看到的是不同的东西。

  接下来,团队使用“生成对抗网络”(GAN)来获取图片。这样,在图像的训练数据集中,生成器学习生成图像的规则并可以创建合成图像。第二个敌对网络试图检测图像结果是真还是假,提示发生器再次尝试。这个迭代过程最终产生一幅包含人眼可识别特征的粗糙图像。

  GAN现在可以绑定到解决图像问题的任何网络。 Yosinski用它来识别网络中的问题,并写下任意图像的描述。但是Yosinski说,这只是一个开始,还有很大的差距需要弥补。 (唐一compiled编)

  \\ u0026

关键词: 人文博文