打印

未来的机器人会有意识吗?

[复制链接]
1253|6
手机看帖
扫描二维码
随时随地手机跟帖
跳转到指定楼层
楼主
鹰视社|  楼主 | 2016-3-3 17:38 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
导读: 人在地毯上溜冰、奶牛变得透明,连六岁小孩都知道荒谬的事情,电脑能做出正确判断吗?尽管处理数据速度极快,但计算机对外界的感知与人类的意识一样吗?如何判断一台机器是否具备了这种难以言传的意识知觉?

人在地毯上溜冰、奶牛变得透明,连六岁小孩都知道荒谬的事情,电脑能做出正确判断吗?尽管处理数据速度极快,但计算机对外界的感知与人类的意识一样吗?如何判断一台机器是否具备了这种难以言传的意识知觉?

在前不久的世界机器人大会上,各种能跑会跳、能说会道、能与人沟通互动的智能机器人纷纷亮相,它们的聪明劲儿让媒体惊呼“机器人时代离我们有多远”。

计算机技术正节节逼近拥有高级智慧的人类。几年前,IBM的机器人沃森在美国智力竞赛节目“危险边缘”中力挫该节目史上最出色的两位选手而夺冠便是明证。然而,绝大多数人至今仍怀疑电脑是否真的“看清”了摄像头前形形色色的真实世界,或者通过麦克风“听懂”了一个问题,尽管计算机处理数据的速度极快,但计算机对外界的感知与人类的意识一样吗?



那么,如何判断一台机器是否具备了这种难以言传的意识知觉的禀性?弄清有意识的机器具备哪些特性,能让我们了解自己的大脑是如何运作的。另外,它甚至还可能帮助我们回答哲学家已经纠结数百年的终极问题:什么是意识?


真人还是假人?


长期以来,哲学家一直在思考,人造模拟装置有没有感觉?

1950年,英国数学家阿兰·图灵发表了一篇论文,宣告人工智能正式登上历史舞台。该文建议用“能否打造出一类机器,当你和它用电传打字机交流时,你无法区分它是不是人类”这个更为实际的问题,来代替“机器能否思考”这个笼统的问题。

如今的图灵测试是让测试者用“自然语言”(即我们平时交流所用的语言)通过电脑屏幕与某人或某款软件互动,互动内容可涉及任何话题。一定时间后,如果测试者无法确定对方是不是人类,那么该对象就算通过了图灵测试,它的智力水平至少可以说与人不相上下。这些年来,聊天机器人——即用来模拟智能闲聊的对话式程序——一开始偶尔也会骗过测试者,但要不了多久就会被识破。

神经生物学家对自愿者的大脑或神经障碍者的大脑进行了扫描,通过脑电图记录他们的脑电波,逐步锁定了所谓的意识神经相关因子,即一种最基本的大脑功能结构。它们共同作用是足以引起任何特定的有意识感觉,例如欣赏绚丽的夕阳美景。然而目前这个研究领域仍然缺少一种普适性理论,要靠这种理论从原则上来评估大脑受损患者、胎儿、老鼠乃至芯片等能否体验到有意识的感觉。


测测电脑芯片“整合度”


“意识的整合信息理论”提供了应对上述挑战的途径。该理论认为,意识信息是一个整体。当你意识到朋友的脸庞时,你不可能遗漏了她正在呼喊并且戴着眼镜这两个细节。无论是什么样的场景,只要被意识到,它就始终是一个整体,不能被分解成若干可以单独被感受到的互相独立的成分。



意识的这种整体性源自于大脑各部分之间的多种互动关系。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。

因此,具备意识的,必须是一个单一的、经过整合的实体,有大量可区分的状态——这正是信息的定义。一个系统的整体信息容量,也就是意识容量,可以用该系统的信息量与它各组成部分拥有的信息总量相比超出多少来衡量。

要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。对于大脑的某些部位,例如大脑皮层,它的神经元之间存在大量连接,这个数值则相当高。

这个衡量系统整合度的指标也可以用来评估电脑芯片。对电脑来说,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。


用信息集成“考考”机器人



除了根据机器的连接状况测量意识容量以外(这非常困难),我们怎么知道一台机器是不是有意识呢?什么测量方法可行?

一种测试机器的信息集成度的方法是,让机器来做一个6岁小孩也能完成的题目:“这幅画里有什么地方不对劲儿?”要解决这个简单的问题,就得拥有海量背景知识,比现今高档电脑在执行识别人脸、追查信用*欺诈之类任务时所依靠的那点知识,不知多了多少倍。

计算机在分析图像中的信息是否合理时,必须依靠强悍的处理能力,这种能力远远超过了对数据库进行简单语言查询的级别。说起玩高级游戏,电脑可以让人甘拜下风,但如果问电脑一张照片有些什么问题,它就无计可施了。虽然最新电脑中的硬盘容量远远超出了我们毕生所能**的东西,但硬盘上的信息依然是未整合的,系统中的每一单元同其他元素基本没有关联。



同样的整合过程甚至能让六岁小孩知道许多不协调的画面是荒谬的,比如人在地毯上溜冰,奶牛变得透明等等。而确定一台电脑是否有意识的关键也正在此处。这些明显跟日常生**验背道而驰的现象,证明了人类拥有精深的知识,知道哪些事件和物体可以同时出现,而其他绝大多数则不行。

我们依赖于这样一种认识:只有具备意识的机器才能主观描述普通照片里的场景是“对”还是“错”。这种综合判断照片内容的能力是构成意识思维的一种基本属性,比如看见大象蹲在埃菲尔铁塔顶端,就能够知道这不合情理。但现在机器尚不具备这种能力:即使是让满满一房间的IBM超级电脑联手上阵,也无法判断画面中哪些内容合乎情理。

如何测试电脑“读图”


测试电脑如何解读图像,并非必须采用向机器输入测试问题这样的传统的图灵测试法。其实你只须在网上随便找几幅图,沿垂直方向将每幅图的中间涂黑,并用剪刀剪开,然后随机将左、右两部分拼合起来。这些合成图像一般都左右不匹配,只有个别图片的左右两部分都来自同一张图。电脑面临的挑战,就是要把左右匹配的图片找出来。

把图像中央涂黑,是为了防止电脑使用如今那些低级的图像分析技巧,比如说考察被拆散的各部分图像之间的纹理或色彩是否相配。这种基于拆分图像的测试方法要求电脑具备先进的图像解读技术,并能够推断图像各部分的搭配是否和谐。

另外一种测试则是将若干物体放进几幅图像中,使得所有图像看起来都还正常,只有一幅图像有问题。接受测试的电脑必须找出这个异类。比如计算机前面放着键盘也理所当然,但如果是盆栽植物,那就不合适了。

许多计算机算法是通过收集颜色、边缘或纹理之类图像特征,并采用低层次统计数据进行匹配。这些方法或许还能应对单一测试,但在多种不同图像测试面前,就无能为力了。这些测试方法离真正实用还有一段距离,但是,在应用这些方法后,我们发现,人类的意识感知功能涉及海量的整合知识,而相比之下,机器视觉系统的知识实在是太过狭窄和专业化。


想拥有意识要“学学”大脑结构


了解这些后,我们近期可以期待些什么呢?如果某项任务可以独立出来,不与其他任务有牵连,那么它可以由机器来承担。高速算法能够飞快的在庞大的数据库中进行搜索,并在国际象棋比赛和“危险边缘”节目中战胜人类选手。复杂的机器学习算法经过训练后,可以完成面部识别或者侦测行人等工作,效率比人类更高。

我们可以轻松地想出许多场合,让机器人去完成日益专业化的任务。先进的计算机视觉系统日臻成熟,不出十年,一种可靠的、基本上自主的驾驶模式将成为可能。但我们估计,这类机器视觉系统还无法回答与汽车前方景象相关的简单问题,仍然不会有意识地感受到出现在它前面的场景。

但我们也可以设想另一类机器,它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中。如果问这类机器“这幅图有什么地方不对劲儿?”,它会自动给出答案,因为图中任何与现实不符的地方都不可能满足系统中的内在约束条件。

这类机器或许可以从容应对那些不能轻而易举分解为若干独立任务的事情。由于具备整合信息的能力,它应该会有意识地感知某一场景。在我们看来,为了实现高度的信息整合,它们不妨借鉴哺乳动物的大脑结构。这类机器在接受上述各种测试时将轻易过关,从而能与我们共享意识这个大自然赐予人类的最神秘礼物。

更多精彩内容请微信关注:yingshishe

相关帖子

沙发
asbf7856| | 2016-3-4 15:01 | 只看该作者
应该会有的吧
只希望将来人类真的不要被机器人所控制

使用特权

评论回复
板凳
lfc315| | 2016-3-4 16:12 | 只看该作者
意识是什么

使用特权

评论回复
地板
mmuuss586| | 2016-3-5 08:13 | 只看该作者
以后机器人可以自学习,有学习能力;

使用特权

评论回复
5
皈依| | 2016-3-5 22:34 | 只看该作者
物联网成为天网不是没可能的

使用特权

评论回复
6
ixc1227| | 2016-4-26 15:34 | 只看该作者
肯定会有这么一天的。说不定到时候,机器人还可以自己生个小机器人出来呢。。(在机器人的内部装个微型生产线。)。。

使用特权

评论回复
7
marteb| | 2016-11-7 16:35 | 只看该作者
可以看看这篇,博主认为现代电脑不可能有,未来可能有,但需要彻底改造硬件,纯粹想通过编程实现是天方夜谭:
-----------------
大家可能注意到,传统科学家但凡回答意识相关问题,总是模棱两可,让人感觉这样的回答要么等于没回答,要么我早知你会如此作答,很无趣。

     作者也厌烦了这种状况,因此本文将以非常确定的方式回答以下几个问题:(1)现在的电脑是否有意识或基于目前计算机框架下的人工智能能否产生意识?(2)未来的机器人能否产生意识?(3)如何制造意识机器人?(4)制造意识机器人会有哪些可能的危害?

     回答问题(1)​:不可能,现在电脑不可能有主观意识,未来基于现在计算机框架下的人工智能也不可能产生意识,或者想纯粹通过编写程序在现有电脑上产生意识是天方夜谭。

     理由如下(若看不懂,请仔细读后面给出的参考文献):简单说来,根据Chalmers[1]对困难问题的论述,要产生意识体验关键是要直接利用物质(或硬件)的内在属性,纯粹捣腾结构化的东西(程序实现的都是结构化的)是永远不可能产生非结构化的意识体验的。

      当然后来的泛灵论的重新流行和Tononi的整合信息论IIT[2]提出,让Chalmers自己都有点相信现在的电脑或许已经具有意识,泛灵论认为任何物质都有意识体验,只是普通物质的意识体验太过碎片化,等效于没有意识体验。而他们认为只要这些物质的物理属性(结构化的)整体上具有高度的整合性(在IIT中相当PHI值很大),那么这些物质的内在属性(碎片化的体验)就会自动组合成类似像人类这样的意识体验。但很多人认为物理属性的整合不代表内在属性也会自动整合,这其实就是所谓的组合问题,Chalmers自己也认为存在组合问题[3] 。事实上,19世纪James[4]甚至认为内在属性不能组合,我个人同意James的观点。

        即便James观点不对,我认为电脑硬件的内在属性能编程可自动组合的概率几乎为0。 因此,现在电脑不可能有主观意识。

       回答问题(2):能,未来电脑或机器人能够产生意识,但需要改造现有的计算机硬件组成。原因,因为我们人类就是一个例证。只要学会直接去捣腾物质内在属性,那么就有可能让机器人具有意识。具体如何做,见下个问题的回答。

       回答问题(3):如何制造意识机器人的具体答案见我即将发表的一篇论文[5],但草稿可以参考JF Li 2016。James认为物质的内在属性不可组合,因此唯一的解决方案是:产生我们意识的物质不可分,比如为某种基本粒子,但必须足够复杂,因此其内在自由度巨大无比,另外由全同粒子原理,会使得世界上所有同种粒子产生的意识体验都是同一体验,比如如果A和B两人的意识都由电子产生的话,即便用的不是同一电子,但他们本质上是同一个意识。

       基于这些,制造意识机器人关键是构造一个物理系统捕获和稳定这样一个内在自由度巨大的基本粒子,并使它的种类尽量不与现有的意识所利用的基本粒子的种类雷同,然后利用它的内在属性来产生体验。更具体的方案属于商业机密。我已经透露得够多的了。

      回答问题(4):虽然最近 Jim Davies在《自然》杂志发表**称我们不必担心未来人工智能有意识,有意识并不意味着灾难。这话有点对。但他忽略了其他严重的问题。

     首先伦理道德问题是个巨大的问题,因为一旦机器具有意识体验,人类可不能再像以前一样对待他们了,因为他们本身就是活生生的一个意识主体了。

    或许一开始你还会认为它不过是台机器,但是人类很快就会利用这种技术来将自己的爷爷等长辈的意识转移到某台机器上,这样的话这台爷爷机器人本质上和人自己造出来的机器人是没有任何差别的,在这种情况下就会存在比较严重的伦理道德问题。比如,我们还有权利决定机器人的什么死去吗?另一个更严重的问题是,这种技术是不是意味着人可以长生不老呢?长生不老会引发什么问题?自然繁衍逐渐消失?人类的真正灭亡?再过一千年,地球上所有的人,本质上都是活了七百年的不死机器人?只是这些机器人出生时是真正的人类。

     一旦有意识,再加上无比强大的智能,机器人的威胁也还是有点。当然,你可以说人类也可以装上无比强大的智能,但强强对话不代表就不是灾难啊。

       总之,我是很担忧。

参考文献:

[1] Chalmers  DJ.  Facing  up  to  the  problem  of  consciousness.  J Conscious Stud 1995;2:200-218; Chalmers DJ. Consciousness and its Place in Nature. Philpapers, 2003.  

[2]Tononi  G,  Sporns  O  and  Edelman  GM.  A  measure  for  brain complexity: relating functional segregation and integration in the nervous system. PNAS 1994; 91: 5033.

[3] Chalmers DJ. The Combination Problem for Panpsychism. Forth Coming in: Bruntrup G, Jaskolla L, eds. Panpsychism. Oxford University Press. 2013

[4] James W. The Principles of Psychology. Henry Holt. 1895.

[5] J.F. Li. Directly Facing up to the Hard Problem of Consciousness with a Fundamental Theory of

Consciousness. NeuroQuantology 14,708 (December 2016)

使用特权

评论回复
发新帖 我要提问
您需要登录后才可以回帖 登录 | 注册

本版积分规则

3

主题

3

帖子

0

粉丝