人工智能不会产生“意识”的原因有哪些?
发布日期:2017-09-11 14:39

近年来,关于人工智能的话题和发展越来越受关注,与此被关注的还有一个问题:人工智能到底能不能产生“意识”?业界更多的人认为机器对人类智能并不知悉。因此,也有很多人通过实验去验证人工智能为何不能产生“意识”。


据悉,该实验为反驳图灵测试所认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文房间悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。

如何区分通用人工智能强人工智能


这里有两个容易混淆的概念:通用人工智能与强人工智能。所谓通用人工智能(Artificial General IntelligenceAGI),是指在不特别编码知识与应用区域的情况下,应对多种甚至泛化问题的人工智能技术。这个技术虽然冷门并遥远,但其实也有不少学术机构与企业在做,一般被认为是人工智能技术的未来发展方向。


而强人工智能(Strong Artificial Intelligence)则是约翰·希尔勒在提出“中文房间实验”时设定的人工智能级别。这个等级的人工智能,不仅要具备人类的某些能力,还要有知觉、有自我意识,可以独立思考并解决问题。


虽然两个概念似乎都对应着人工智能解决问题的能力,但我们可以把前者想象为无所不能的计算机,后者则类似穿着钢铁侠战甲的人类。


“中文房间悖论”表达的思想,是人类研究的方向根本无法逼近强人工智能。即使能够满足人类各种需求的通用人工智能,也与自我意识觉醒的强人工智能之间不存在递进关系。


现实中的技术发展好像也确实是这样的。


在通用人工智能领域,人类已经提出了一些设想与架构模型。其中最著名的应该是澳大利亚国立大学学者马库斯赫特(Marcus Hutter)2000年提出的AIXI。这个计算模型据说可以涵盖各种算法与技术,逼近通用人工智能的本质……当然,这个算法的复杂程度奇高,根本无法执行,所以仅仅是个设想。


OpenAIDeepMind这样的企业在近两年则都开始了具体层面的AGI研究,其中DeepMind被认为是继承AIXI的先锋军。


DeepMind进行的通用人工智能性质的研发与实验中,我们可以看到其“通用性”主要集中在四个层面:智能体应对复杂环境、陌生环境处理、时间变量应对、多个信息源同时处理任务。


而这些技术都指向同一个方向,就是智能体与外界的交互——也许可以理解为AI与这个世界的翻译程序吧?


换言之,人类所做的仅仅是给“那个人”更好的翻译程序,而非教他中文(当然也没法教)。所以通用智能这种已经很玄的东西,依旧与强人工智能保持着清晰的界限。


AI能力和意识或许越走越远

让我们把“中文房间实验”极限化一点,把整个房间放在一个人的大脑里。


假如一个人记住了所有翻译程序,看到任何中文他都能调用回忆,能写出相应的回答,那么他是不是就懂中文了呢?对于人类来说,可能他自然而然就已经理解中文了。但对机器来说,即使这个过程速度再快、反应再灵敏,它也依旧没有理解任何一个汉字。


确切地说,这个人(智能体)获得的是使用中文的能力,但他()对中文没有意识。


能力与意识的区别,是我们在想象未来超级智能时最容易混淆的问题。但从现实的逻辑推理,就会发现这二者差别很大,而且近乎没有关联。


知识表示、机器学习、NLP等等人工智能技术,只是在不断强化人工智能模仿人类能力(这句话有点绕),但让人工智能模仿人类意识,直到现在依旧是一片空白。


没有因,自然无果。“中文房间理论”讲述的,就是按照人类遵循的技术轨迹,智能体崛起意识这个命题将永远缺乏基础条件。


如果这个结论成立,那么对于强人工智能来说可谓是非常绝望的。它们只能继续在时空的长河里沉睡。在人类的幻想中,一如远古的神祇,一如都市传说里的鬼怪。


关键词:仪器仪表 测试测量 人工智能
浏览量:744
编辑:黄倾城
声明:凡本网注明"  来源:仪商网"的所有作品,版权均属于仪商网,未经本网授权不得转载、摘编使用。
经本网授权使用,并注明"来源:仪商网"。违反上述声明者,本网将追究其相关法律责任。
本网转载并注明自其它来源的作品,归原版权所有人所有。目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。如有作品的内容、版权以及其它问题的,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
本网转载自其它媒体或授权刊载,如有作品内容、版权以及其它问题的,请联系我们。相关合作、投稿、转载授权等事宜,请联系本网。
QQ:2268148259、3050252122。
展开全文