授权转移来自:思想和现实
译者:王佩
原文发表于2017年11月1日的《奇点中心》
译者前言:
意识和算法是等价的这个观点我不太认同,但这篇文章让我想读读迪翁的这本新书,了解一下认知和神经科学在研究意识方面的最新进展。
我们不能实现我们不能实现的。“-朱利安·杰恩斯
“两院制精神崩溃中的意识起源”
与导演试图说服你的不同,安德鲁·加兰(Andrew Garland)2015年的电影巨作《机械姬》(Mechanical Ji)的主角不是凯勒(Caleb),他是一名年轻的程序员,任务是评估机器的意识。相反,迦勒要评价的机器阿瓦才是主角。这是一个人工智能,看起来像一个人,有着孩子般的童心和不可思议的头脑。
像大多数与大脑有关的电影一样,《机械姬》给观众留下了一个开放式的结局:艾瓦真的有意识吗?这种结束方式巧妙地避开了棘手的问题:什么是意识,机器可以有意识吗?这个问题是大部分以AI为题材的电影不得不面对的挑战。
好莱坞制片人不是唯一被这些问题难倒的人。随着机器智能的快速发展,不仅在DOTA、Go等方面超越人类的表现,而且不需要人类专家的介入也能做到这一点,这些问题再次进入主流科学视野。
机器到了意识的边缘了吗?
最近,法国科学院的stanislas Dion、加州大学洛杉矶分校的Hakwan Lau、巴黎文理大学的Sid Kouider等认知科学家在《科学》杂志上发表了一篇文章。他们对这个问题的回答是:还没有,但是有明确的前进方向。
原因是什么?这些作者写道,意识是“绝对的算法”。他们是从各种信息处理方式中得出这个结论的,这使得把大脑做成硬件成为可能。
意识没有什么神秘的,也没有什么额外的惊喜——其实连大家都很清楚的经验问题都没必要问:有意识是一种怎样的体验?
如果意识纯粹来自三磅大脑中的算法,那么让机器意识到就是把生物问题变成算法问题。
今天强大的机器学习技术借鉴了神经生物学。同样,作者写道,我们也许可以通过研究我们大脑的结构来实现人工意识,大脑可以产生意识,这种意识是像计算机算法一样产生的。
从大脑到机器
毫无疑问,人工智能可以从我们的大脑中学到太多,无论是大脑的结构还是功能。
比如阿尔法狗横扫人类背后的深层神经网络就是一种算法结构,它是基于多层次的生物神经网络,就像我们的脑细胞自组织形成的神经网络一样,只是基础没那么扎实。
强化学习是一种“训练”的类型,可以教会AI从上百个国外案例中学习。它是建立在几百年历史的技术之上的,养过狗的人对它都不陌生:如果狗做出了正确的反应(或者得到了人们想要的结果),它就会得到奖励;或者让它一次又一次的尝试。
从这个意义上说,把人类意识的结构转移到机器上似乎很容易,但问题还是很大的。
“在人工智能领域,没有人在努力构建有意识的机器,因为我们没有理论基础,也不知道该做什么,”斯图尔特·拉塞尔博士在接受《科学》采访时说。他是2015年出版的《人工智能:一种现代方法》的作者。
多层次意识
很久以前,我们在思考如何让机器有意识。但问题是,我们首先需要知道意识是什么。
对迪翁和他的同事来说,意识是一个由两个“维度”组成的多层次结构:C1是大脑中存在的信息,C2是获取和监控关于自己的信息的能力。对于意识来说,两个维度都很重要,相辅相成。
比如你在开车的时候,油表的灯突然亮了,车子需要加油。在这里,我感觉油表上的灯是C1——一个我们可以与之互动的精神表征:我们可以注意到它,根据它采取行动(给车加满油),回忆并谈论未来那个时候的场景(“我开车去郊区的时候没油了!”)。
迪翁在接受《科学》采访时说:“我们想从意识中区分的第一个维度是全球适用性的概念。”。当你意识到一个词时,你的整个大脑都会意识到它,他补充道。从某种意义上说,你可以在大脑的所有模块(区域)中使用这些信息。
但C1不仅仅是一个“精神画板”,它还代表了整个大脑结构,使大脑能够从我们对相关事件的感知或记忆中提取各种信息模块。
与潜意识过程不同,这个过程通常依赖于大脑中特定的“模块”(区域)来处理特定的任务。C1是一个全球性的作品空,它使大脑能够整合信息并决定采取行动,直到行动结束。
正如《饥饿游戏》所描述的,我们所谓的“意识”就是在某个时间点上的表象,赢得了进入脑力劳动空的机会。获胜的表征分散在不同的大脑计算回路中,一直处于决策的聚光灯下,指导着人们的行为。
作者解释说,由于这些特征,以C1为代表的意识是高度稳定和全球性的——所有相关的脑回路都会受到刺激。
对于像智能汽车这样复杂的机器,C1是及时解决问题的第一步,例如,看到油灯亮起。在这种情况下,油灯本身就是一个潜意识信号:当它亮起时,汽车的其他部分还没有得到这个信息,汽车——即使装有人工视觉处理系统——也会毫不犹豫地错过加油站。
有了C1,油箱将向汽车电脑发出警报(让油灯进入汽车的“意识大脑”),这反过来将让汽车的内置GPS找到附近的加油站。
迪翁说:“我们相信,在一台机器上,C1可以被改造成一个系统,它可以从任何一种处理模块中获取信息,并使这些信息适用于任何其他处理模块,这样他们都可以使用这些信息。”。“这是意识的第一层含义。”
元认知
从某种意义上说,C1反映了大脑识别外部信息的能力,而C2反映了内部反射。
作者将意识的第二个方面C2定义为“元认知”,它反映了你是否知道或感知到了什么,或者你是否只是犯了一个错误(“我想我可能在最后一个加油站加满了油,但是我忘记要收据了,现在我不确定我是否加满了油”)。这个维度反映了意识和自我意识的关系。
C2是一种意识水平,它能让你对自己的决定感到更自信或更不自信。用算法术语来说,它是一种算法,可以计算出一个决策(或计算)的正确概率,尽管它通常被体验为一种“直觉”。
C2也有记忆力和好奇心。这些自我监控算法让我们能够知道自己知道什么或者不知道什么——所谓的“元记忆”,负责记住你舌头上的美食。迪翁说,监控我们知道的(或不知道的)对孩子来说尤其重要。
“孩子们绝对需要监控他们所知道的,以便进行进一步的探索,变得更加好奇和学习更多,”他解释说。
意识的这两个方面可以给我们带来协同作用:C1把相关信息拉入脑力劳动空(同时扔掉其他“可能”的想法或方案),而C2通过长期的反思帮助我们知道有意识的想法是否会带来有益的对策。
回到油灯的例子。C1可以让汽车解决当前的问题——这些算法可以让汽车的每一个部分都响应这个信息,从而让汽车意识到这个问题。
但是要解决这个问题,汽车还需要有自己的“认知能力目录”——它可以实现自己可以使用什么资源,比如可以用GPS找加油站。
迪翁说:“拥有这种自知之明的汽车就是我们所说的C2。”。因为信息的全球可用性,也因为信息可以通过机器自检的方式监控,汽车会关注油灯,采取像人一样的行动——减少汽油消耗,寻找最近的加油站。
“目前,最好的学习系统避免任何自我监控,”作者指出。
他们的理论似乎朝着正确的方向发展。实现自我监控系统的几个案例——无论是通过算法的结构还是作为一个独立的网络——都导致了人工智能产生“内部元认知模型,使人类能够为其发展(有限的、模糊的、实用的)自我认知。”
意识机器
拥有C1和C2的机器会像有意识的人一样行动吗?很有可能智能车会“知道”自己在看一个物体,对自己有信心,把这种信心传递给别人,为自己遇到的问题找到最好的解决方案。如果它的自我监控机制出了问题,可能会产生“错觉”,甚至体验到类似人类的视觉错觉。
有了C1,机器可以灵活地使用它所拥有的信息。迪翁说,对于C2,它知道自己的认知局限。“我认为(机器)会有意识”,而且不仅仅是类似人类的那种意识。
如果你认为意识远不止是信息的全球共享和自我监控,那么我可以告诉你,很多人都是这样认为的。
“纯粹根据功能来定义意识可能不会让一些读者满意,”作者承认。
“但我们确实试图采取激进的立场,也许这可以简化意识问题。意识是一种功能属性,当我们继续给机器添加这些功能的时候,到了某个临界点,这些属性就会变成我们所说的意识,”迪翁总结道。
关于作者
谢莉·范是旧金山加州大学的神经科学家。她研究如何使老化的大脑变得更年轻。此外,她还是一名活跃的科普作家,对生物技术、AI以及一切关于神经的东西都很着迷。在业余时间,她会划独木舟,骑自行车去露营,并致力于自然。
1.《意识是人脑的机能 制造有意识的机器是可能的吗?神经科学家说,yes!》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《意识是人脑的机能 制造有意识的机器是可能的吗?神经科学家说,yes!》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/jiaoyu/1567346.html