首页【香格里拉平台】首页

 新闻中心     |      2020-11-21 10:46

  首页【香格里拉平台】首页HackerNoon CEO大卫斯穆克(David Smooke)将人工智能定义为科技领域,并预计其未来将会有巨大发展。他指出,发展人工智能似乎可以用来研究如何进一步减轻一些基础任务的负担,如会议的安排与协调等。那么,人工智能的现状究竟如何呢?人工智能的性能取决于其训练集。最好的人工智能可能有最多的数据点来进行对比和计算。斯基纳(Skinner)和帕夫洛夫(Pavlov)的行为主义对人类学习的本质做出了相似的假设。

  也就是说,人类是基于数据集进行训练的,而大脑内部的运作机制则略有不同。人可以简单地给予奖励和惩罚作为输出(或行为)的条件,并通过这种方式最终实现目标行为。问题是,虽然心理学在很大程度上已经对人类学习进行了深刻研究,但机器学习却没有。这个问题可能在人机交互的模拟中越愈发凸显,也经常出现在人工智能工程师们在试图模拟人类思想的过程中。

  他既不会说也听不懂中文。但是在这个房间里有一本很大的手册,里面有一系列的假设陈述。通过门上的一个插槽,他可以接收汉字,查找手册中的字符串,并找到要通过插槽送出的字符串。显然,塞尔可能会让房间外的人相信他真的懂中文,但事实上他并不懂,他只是在匹配符号。因此,他表现出的能力受限于中文手册的内容。

  一些人工智能的创建者可能会声称,创建人工智能的意义实际上只是人类庞大的记忆内存和快速匹配能力的虚幻副产品。这和行为主义者的说法是一样的大脑是一个黑匣子,学习可以自动进行,而不需要机器中的某些神秘力量。并不是认为必须以神秘的方式探索思维,而是指出这种还原论对行为主义者存在误导,因此它很可能成为人工智能发展的一个绊脚石。

  这是自然语言处理的难点之一。在自然语言处理中,词的语境共同构成彼此的含义。计算机并不自带这种能力。因此,程序员必须手动为机器编写代码,然后“自动”学习这些关系。人类的理性是不同的。人类的理性不是二元的。因此,事物不是无语境的独立的单位,而是超越自身,存在于与其他事物的关系网中。例如,“好”的意思也可以指“不坏”。

  对于人类来说,这种对立性赋予了他们区分不同类型字符的先天能力,例如“好的坏”和“好的鞋”。然而对于计算机来说,这些对立关系必须进行有目的地学习了才行,因此在概念上,“坏”与“好”间的联系并不比“好”与“鞋”的联系更紧密。乍一看,这似乎不那么重要,但想象一下,如果一个人认为好与坏和好与鞋的意思相近?,那就说明他既不知道“好”是什么意思,也不知道“鞋”是什么意思。

  机器本质上并不理解“让我说好”和“让我不说好”之间有一种特殊的对立关系,而人类则不然。这种情况带来很大影响,一些合作程度较差的参与者甚至公然采取藐视态度,因为他们的对立性使他们的道德权威比实验者的权威更大。不禁让人想起了iRobot的桑尼,这个机器人比其他机器人“聪明”多了,因为他像人类一样能够理解对立性。

  有证据表明人类的记忆与机器的记忆大不相同。除硬件故障外,机器会存储无语境的信息。然而,人类的记忆取决于是否能够将其置于有意义的环境中。例如,克雷克(Craik)和托尔文(Tulving)发现,当人们被问到“____是一种鱼吗?”时,他们更容易记住该填空是“鲨鱼”,而不是“天堂”。

  同样,人们记住按相似度分类的事物比记住没有这类分类的事物更容易。然而,对于计算机来说,事物是独立的,不需要语境。机器制造记忆和检索记忆与概念语境或现实语境无关,但对人类来说并非如此。

  如果听到“西雅图在地图上与洛杉矶不相邻”这一说法,听者可能会思考这句话的真实性。说这个话的人可能会用一种奇怪的方式折叠地图,让西雅图和洛杉矶紧挨着,然后沉浸在狡猾、骄傲的微笑中。意义创造是语境与对立性的结合;意义创造是人类理性的重要组成部分,机器则不具备这一点,至少现在还没有具备。

  这并不是说人工智能注定要失败,也不能忽视已经取得的不可思议的飞跃。笔者不否认机器学习能够很好地模仿任何一项人类的任务,任何有限自动机都能做到这一点。

  但要使人工智能令人信服,需要大量的极端案例、修改、再训练、大量计算。正如我们目前所知,人工智能不是很灵活,除非计算机从盲目地匹配对象转向创造意义,否则它就不可能有灵活性。 由此可得出结论,在可预见的未来,人工智能最适合于概念灵活性很小、不受环境影响、不涉及对人类偏好的任务(例如,辅助耕作和驾驶飞机等任务)。人工智能工程师应该在其他任务中发展机器学习,比如提出好的建议(推荐食物/电影/朋友)或者做出道德判断(比如自动驾驶汽车的安全协议)等。