意识机器——产生的机制模型

意识机器——产生的机制模型

上一篇我们说到意识现象,以及为什么主观层面的意识是非常难以解释清楚的,这种主观感受不单单是什么光谱、什么波长刺激你的视觉神经然后传入大脑 这种第三人称的科学描述就能完全描述清楚的。更何况人类的很多体验,自己都说不清道不明的。。anyway正因如此吧,即便我们解释清楚意识产生的科学机制,包括脑电波放电、信息传递、神经网络、脑皮层的功能模块等等这些通过第三人称的科学描述能够说得清楚的过程 科学家也没有办法解释客观是如何转向主观的——也就是组成我们身体和大脑的各种分子、原子以及它们的各种排列方式 这种第三人称能够描述的、客观的物理过程,怎么就产生了主观的体验了?

理论上我们也可以制造出与真人一样聪明、出色完成各种任务,在行为表现上和人真假难辨的机器,通过Turing test的智能机器,但用查尔莫斯的话就是 这台超级聪明 超级像人的机器,完全有可能只是一个Philosophical zombie 

哲学僵尸是一个思维实验中的概念。他们的外表和行为和普通人一样,甚至他们的脑袋也一样复杂。但他们与普通人最大的不同在于,他们没有内心的感受和体验。就好比他们看到一朵花,会知道它是红色的、有多大、有什么气味,但是却没有任何感觉。他们就像是生活在自己世界的观察者,而不是真正的体验者。这个概念让人们思考,到底什么是意识,以及它与身体和行为之间的关系。

(插一句聊聊图灵机,其实在图灵机的发展阶段,就有了自指意识机器。自指的理论,是建造在”图灵机“上的。图灵机是一种理论上的计算机模型,其上有一条长长的纸带,可以认为是它的工作空间/记忆空间,也可以认为是它运作过程的工作/记忆存储装置。图灵机会根据自己的程序来一步步在纸带上工作,同时,所有给图灵的程序都是写死的。图灵机可以做计算:在初始时刻,纸带有一串信息,t步之后,纸带读出的信息就是计算的结果。这样就有了一个 Y=f(x )的映射 f就是一个可计算函数。所有能用数学做建模的系统,都可以用图灵机做模拟——这也就是图灵完备性)

Image
Image

这种问题只是一些哲学家才会想出来的问题,以图灵为代表的一些学者认为 如果问题在人身上也存在,那么人工智能也就不用管它了。如果你依然怀疑一台机器是否具有意识的话,并且如果这种怀疑同样适用于怀疑一个人是不是哲学僵尸 那么这份多余的怀疑就可以搁置了。人类每天在Matrix当中接受着各种信号和训练,组装着各种从小到大习得的知识训练着自己的经验,这又何尝不是一种AI,或者为什么人类可以定义什么是artificial呢

OK所以秉持着唯物主义,虽然目前科学界没有达成共识,但是对意识的产生机制的讨论一直在发展,并指导着人们在制造出智能机器。总结一下当下最受认可的几种理论模型分别是高阶表征理论,全局工作空间理论,预测加工理论,整合信息理论,以及量子意识理论。

高阶表征理论

高阶表征理论由美国哲学家罗森塞尔提出,它试图解释意识的主观感受是如何产生的,即我们对自己的感知和体验是如何形成的。简单来说,高阶表征理论认为,意识不仅仅是感知环境中的事物,而且是我们意识到自己对这些事物的感知。

Image
Image

在高阶表征理论中,所谓的“表征”就是我们大脑对外界信息的处理方式。一阶表征就像是我们接收到了外界的信息,比如看到一朵红花,我们的大脑处理了花的颜色、形状、气味等信息。但这并不意味着我们意识到了这朵花的存在,就像在家里看见了阳台上的红花,但没怎么在意一样。

意识的关键在于高阶表征,也就是我们对一阶表征的再次加工和认知。比如,当我们意识到自己看到了这朵花,这才算是真正意识到了花的存在。高阶表征理论认为,这种对信息处理的“再次意识”,才是真正的意识。所以,要产生意识,就得有一种嵌套结构,即一阶表征要被我们觉知才算数。这种理论解释了很多心理学现象,比如刚刚提到的注意盲视,就是我们虽然看到了某些东西,但却没有意识到它们的存在。

Image
Image

一个经典的注意力案例“看不见的大猩猩”实验中,被试被要求专注于计算球传递的次数,而在此过程中,一个穿着大猩猩服装的人会穿行其中,但很多被试并没有注意到这个意外的事件。

如果用高阶表征理论来解释,这就说明即使大猩猩进入了被试的一阶表征(即视觉输入),但这并不意味着被试就会意识到大猩猩的存在。只有当被试对这个一阶表征进行再次表征(即注意到自己的视觉输入中有大猩猩出现),才会产生意识。这个实验很好地展示了高阶表征理论对于注意力和意识的解释。

我们知道了人的意识产生于一种高阶表征,那么我们据此在AI工程方面,怎么制造出人工意识?目前已经有一些科学家和工程师在方向努力了 关键问题就在于,需要给机器模拟出自我意识,也就是让机器能够模拟对自身状态的认知,这就需要给机器建构出多层嵌套的表征结构。一阶感知是指对外部世界的直接感知,高阶是对机器人内部世界的感知。

巴勒莫大学机器人实验室的Chella教授等人开发了一个基于高阶感知回路的机器人感知信息处理系统,并创造了一个博物馆导游机器人叫Cicerobot。这个机器人具备高阶反思能力,通过内部的三个部分实现:亚概念感知、语言处理和高阶概念。

Cicerobot通过这些部分相互作用,可以对外部事物进行心理表征,并在内部模拟外部环境。这种高阶感知回路的结构使得Cicerobot能够具备一定的自我反思能力。它可以执行一些复杂任务,比如在迷宫中导航等,同时展现出对自身状态的感知和对环境的适应性行为。这个创新的机器人展示了在人工智能领域中实现自我意识的一种潜力和可能性。

OK现在来critique一下 就是这个理论的缺点主要体现在,它难免会面临算法上的递归或者无穷倒退的难题。而且,在解释意识方面,高阶表征理论比起下面要介绍的其他理论,更多有的是计算机科学方面的支持,但缺乏脑神经科学方面的支持。

全局工作空间

Image
Image

全局工作空间理论被认为是目前影响力最大的一个对意识解释的理论模型之一。这个理论由心理学家伯纳德·巴尔斯提出,他将大脑比作由神经元组成的计算机,但与传统计算机不同的是,大脑没有一个负责发号命令的中央处理器,而是由各种功能各异的分布式的进程模块组成的。

这些功能模块各自负责着不同的任务,比如语言、记忆、视觉、听觉等等,它们一直在后台运行着,是无意识的。当我们进行日常活动时,这些模块默默地处理着各种信息,但我们并不一定意识到它们的存在。举个例子,当你看到家里阳台上的一朵红色的花,虽然接收到了视觉和嗅觉的信息,但如果没有引起你的注意,就不会产生意识。同样,进行人脸识别或者执行熟练的动作,如钢琴演奏,手指的运动也是无意识的。

然而,当这些无意识的功能模块的信息被传送到一个特定的区域,即全局工作空间时,意识就会产生。全局工作空间可以理解为一个集中的信息处理区域,当某个模块的信息被传送到这个区域时,它就变得可被意识到,从而产生了主观的体验和感知。

那什么情况下才会产生意识?答案是,当这些无意识的功能模块进入了全局工作空间的时候,就产生意识了。

全局工作空间理论提供了一个新颖而深刻的视角,用以解释意识产生的机制。在这个理论中,心理学家伯纳德·巴尔斯提出了一个概念——全局工作空间,来描述大脑中涌现出意识的特殊区域。为了更好地理解这一概念,巴尔斯使用了一个富有启发性的比喻——剧场。

想象一下,你置身于一个剧场之中。在这个剧场中,舞台上有各种不同的表演正在上演,而观众席上坐满了各种不同的人。舞台上的表演可以比喻为大脑中的各种功能模块,比如语言、记忆、视觉、听觉等等。而观众席上的人们则代表着这些功能模块所产生的信息。

在剧场中,虽然舞台上的表演各自独立,但只有当它们被投射到观众席上,被观众共同关注和感知时,才真正展现出了生动的画面和意义。这里的观众席就是全局工作空间,它是一个集中的信息处理区域,负责整合和传播来自各个功能模块的信息。

类似地,大脑中的各种功能模块也在各自处理着各种信息,但只有当某个模块的信息被传送到全局工作空间时,它们才能成为我们的意识内容。这就像剧场中的观众共同关注和感知舞台上的表演一样,只有当信息被传送到全局工作空间,被整合和共享时,我们才真正意识到了它们的存在,产生了主观的体验和感知。

全局工作空间理论不只是一个文学比喻,它在心理学和神经科学中是有科学基础的。在幕后的这些认知系统,也就是导演、编剧、道具师等幕后工作人员,对应于心理学所讲的“语境”,舞台下的观众席对应于无意识的内容,舞台上被照亮的部分对应于意识的内容,舞台上未被照亮的其余部分对应于认知科学讲的即时working memory

再比如 大脑,就像一个多党派轮流执政的政体。在这个政体中,没有一个大皇帝或者总统,也就是没有中央处理器,而是由各个党派组成的议会。每个党派都有自己擅长的领域,比如经济、民生、教育、外交等等。它们平日里都在私底下默默地做着各自的工作。

这个议会里有一个主席台,也就是全局工作空间。各个党派之间会轮流或竞争着担任主席,一旦轮到某个党派上台,它的工作就会被整个议会知晓。这个主席台就像是一个信息整合和传播的中心,负责将各个党派的工作汇总和展示出来。

举个例子,如果擅长民生的党派上台了,那么整个议会就会知道,现在重点是民生工作。而这个党派上台后,还能影响其他党派,形成临时政府,比如拉上一些擅长教育的人上台,让他们在搞教育的同时,顺便给贫困子弟减免学费之类的。

这里各个党派代表的不同领域,就相当于大脑中负责不同认知功能的模块。而当某个模块上了主席台,也就是进入了全局工作空间,那它的工作就变成了有意识的。相反,如果没有上主席台,那么它的运作就是无意识的。

这个比喻生动地解释了全局工作空间理论:意识是由各个认知功能模块在全局工作空间中的交互和整合所产生的。当信息在全局工作空间中被共享和整合时,意识就会涌现出来。

当我们有意识地进行认知和行动时,我们会感觉到一种全局性的体验,这意味着我们能够调动各个认知和行动的功能模块,团结一致地采取连贯的行动。以你在公园散步看到猫的例子来说,你的视觉系统可能会注意到猫的形状,听觉系统会接收到猫的叫声,而运动系统可能会准备伸手去摸它。在这个过程中,各个感知和运动的信息并不是孤立存在的。相反,它们会被送到全局工作空间,并在那里被整合和广播出来。这样,我们就能够形成一个完整的、连贯的体验,比如你在公园里发现了一只正在喵喵叫的猫,并且你准备伸手去摸它。这种整合和广播的过程使得我们能够对外界环境作出更为综合和一致的响应,而不是只关注于零散的、局部的信息。

当法国脑科学家斯坦尼斯拉斯·迪昂对全局工作空间理论进行神经建模并提出全局神经工作空间理论Global workspace theory 他为我们提供了一个更加具体和可验证的理论框架。这个理论强调了大脑中特定的神经回路在意识产生中的关键作用。

在全局神经工作空间理论中,各个认知模块被具体化为专门化的神经回路,这些神经回路负责处理特定类型的信息,比如视觉、听觉、运动等。而全局神经工作空间则被理解为一个集中的、整合信息的区域,负责整合来自各个神经回路的信息,并将其传播到整个大脑。

这个理论的重要性在于,它提供了一种理解意识产生的生物学基础。通过脑成像技术和神经生理学实验,我们可以观测和验证这些神经回路的活动,进而理解它们在意识产生中的作用。这使得全局神经工作空间理论成为一个可测量、可证伪的科学理论。

Image
Image

根据全局工作空间理论对意识的解释,我们据此在AI工程方面,怎么制造出人工意识?关键就在于 多模块分布式处理 并且在多模块之间建立一个全局工作空间。巴尔斯的全局工作空间理论很快就引起了斯坦·富兰克林等多位人工智能科学家的关注,并将其发展出“分布式智能自主体” IDA(Intelligent Distributed Agent)以及后来的升级版LIDA这样的意识神经计算模型。这种神经计算模型由并行处理的多主体来实现,各主体通过系统提供的全局工作空间进行相互通信,系统在面对各种情况下能够瞬间做出行为决策。这种依据全局工作空间意识理论的建构的计算系统目前仍在进化迭代之中,目标就是模拟出和人类等效的意识。

对于这个理由来说它的缺点主要 在哲学上没有很好地直面应对查尔莫斯提出的意识的难的问题 也就是意识的主观性怎么解释,全局工作空间没有很好地应对。当然它也可以硬说在唯物主义立场上,认为意识的主观性就是个假问题,我们只需要关注所谓的意识的“简单问题”就够了,反正就是物质决定意识 物质结构对了 意识的主观性自然就产生了。

信息整合理论

信息整合理论是最近这几年比较火的理论就 是上一篇提到过的朱利奥·托诺尼提出的,托诺尼提出的这套信息整合理论是一个非常数学化的理论 很多数学公式和数学推演,但是意思简单说就是 意识的本质就是信息 意识产生于认知系统对大量信息的整合 信息整合程度高的系统就能产生意识。

Image
Image

信息整合理论有个两个关键点,一是分化,二是整合。

分化就是说,认知系统是有多个不同的部分构成的,比如我们的大脑里不同的神经回路模块做不同的事情,起到不同的功能,所以是分化的。分化就说明了系统的信息量是高的,如果所有的模块都干同一件事情的话,这样的信息量就不高。

然而单单是信息量高并不能产生意识 比如说当我们的大脑被麻醉的时候,各个不同的脑区都很活跃,信息量很高,但是互相之间信息整合的程度很低,属于是一盘散沙的状态,因而麻醉状态中的大脑也就没有意识觉知状态,因此要产生意识还需要一个关键——这些分化的不同模块之间又是高度整合的,不同的模块之间的信息交流是非常密切的 这些不同的部分之间组成了一个整体的系统 整体的系统又是单一的、整体性的、不可分割的。、比如说你麻醉药效过去以后,回到清醒状态,那这时候你的各个不同脑区开始互相传递信息了,前额叶皮层与各个脑区之间都存在着远距离的连接,这时候你就产生意识了。

所以,什么是意识,意识就是既高度分化,因而具有高度的信息量,又被整合成了一个单一的、整体的认知系统,这就会产生意识。

意识就是一种各个部分整合在一起形成了一个整体的系统,从而实现了一种整体大于部分之和的效果。也就是说,意识是各个部分整合在一起所产生的一种涌现现象。

托诺尼用了一个量化的数值,也就是希腊字母Φ,用来计算一个系统的信息整合程度。Φ值简单说就是一个系统作为一个整体的信息量。Φ值是大于系统的各个部分的信息量的简单相加的,这就是刚刚说的整体大于部分之和的一种涌现现象。

Φ既然是一个数值,它就不是非此即彼的关系,而是可大可小的,意识水平是一个渐变的光谱。所以,一个认知系统的Φ值除非是0,那它的Φ值越高,说明认知系统的意识越强。

根据信息整合理论,意识产生于各个部分的信息整合,这其实也就解释了,我们人的脑子里面各个区域虽然各干各的功能,但在我们清醒的时候,我们的意识不会有割裂感,我是有一个统一的“我”以及统一的世界的体验,比如说,我们左眼和右眼看到的东西是不一样的,你自己依次轮流闭上一只眼就会发现左眼和右眼看到的画面是不一样的,但是我们两只眼睛都睁开的时候,我们看到的画面不会觉得不和谐,感觉看到的就是同一个和谐的世界,那是因为大脑最终会将左右眼分别看到的画面整合为一副完整的意识画面,这就是大脑信息整合的功能。

Image
Image

Split-Brain实验也映证了信息整合理论 大脑分左半脑和右半脑,你左眼看到的东西会报告给右脑,右眼看到的东西会报告给左脑,左脑是负责语言和逻辑思维功能的,而右脑是负责空间和形象感知功能的,两个半脑之间通过胼胝体进行神经连接并且互相传递信号的。研究人员发现,那些胼胝体被切除的人,他的意识是割裂的,甚至是混乱的。

比如研究人员把他的右眼蒙上,给他的左眼,也就是右脑看到一个东西,比如说,看到一个杯子,但是他说不出来这是什么东西,他的语言功能没有丧失,还是能说话的,只不过他说不出来此时只有右脑看到的东西,因为左脑是负责语言功能的,此时右脑无法把信息传递给左脑,这时候他会乱说,或者顾左右而言它。这就说明,如果两个半脑的信息没有整合起来,人的意识就是割裂的、混乱的。

Image
Image

信息整合理论还能解释动物意识,动物有没有意识,就看它各个脑区的分化和整合程度强不强,也就是看Φ值,我们对动物的大脑进行扫描,发现动物的脑神经系统分化状态比我们人类要少,也就是信息量不高,所以动物的意识水平要低于人类。

那么关于信息整理理论对意识的解释,怎么样应用到制造人工意识的AI工程上,一个关键的要点就是,提高信息整合度,其实也就是想办法提升系统的Φ值,一台机器如果它的Φ值接近了人类,那我们就可以说它具有了类似于人类的意识。当然,这目前在技术上实现起来还有一段路要走,因为我们人类的Φ值是非常非常高的,当然,现在对于人脑的Φ值具体怎么算还在争议之中,但肯定是非常高的,我们人脑的神经元数量就有将近1000亿个,彼此之间还是互相连接的,那Φ值可想而知就是个天文数字了。

为什么GPT这种LLM这么聪明?关键词就是——大 它的特点就是规模庞大,一个模型能包含数十亿的参数 大就是不一样 大就会涌现出新东西。

也许有人会说信息整合理论和之前介绍的全局工作空间理论有点像,都是强调了信息在整体或者全局的传播,但是它俩之间还是很不一样的,第一,信息整合理论强调的是信息的整合程度,意识是各个部分组成一个整体之后的涌现,而全局工作空间强调的是某一个或几个模块的信息在全局的共享和广播。

其次 更重要的,全局工作空间理论可以说是一个比较唯物主义的理论,讲求物质决定意识 但信息整合理论就有点泛心论 大概有点万物有灵的意思,不过不是那种原始宗教式的相信一草一木皆有一种人格化的灵魂 不仅我们人类有意识,动物也有意识 一张桌子,一块石头也是有意识的。这倒也不是说一块石头也有和我们人类一样的意识,但是至少也可以说,石头也有着意识的微弱迹象的,意识就是对信息的整合,那石头系统也是一种对信息的整合,只不过石头系统的Φ值比较低。。所以,我们当然可以说,一部智能手机比一块石头更有意识~

当然,这种泛心论的倾向也是信息整合理论遭人批评最多的地方,石头也有意识,智能手机也有意识,这不符合直觉。当然,对于这一点,提出意识难问题的查尔莫斯倒是蛮喜欢信息整合理论的这种泛心论的倾向的 任何与强硬唯物主义有出入的意识学说 查尔莫斯都喜欢。查尔莫斯自己也提出过一个说法:物质和意识都不是最底层的,最底层的东西是信息。信息就是比特,也就是一种计算过程,就是1001000111,就是代码,就是算法

查尔莫斯提出的这种信息本体论我们在之前一期反驳虚拟世界论证的大问题节目里面介绍过的,放在今天的语境中说,我们会发现,查尔莫斯的这种“信息本体论”和托诺尼的信息整合理论有相通的地方——一切都是信息,信息决定了物质,信息也决定了意识。

预测加工理论

预测加工理论(Predictive Processing Theory)又称预测编码理论(Predictive Coding Theory),是一种相对较新的关于意识的理论。其代表人物包括认知科学家阿尼尔·赛斯和认知哲学家安迪·克拉克等人。与之前介绍的一些理论不同,预测加工理论认为意识并非实实在在的存在,而是一种幻觉。在预测加工理论中,意识被认为是一种虚幻的感觉,而我们所感知到的自我意识其实是一种错觉。这一理论主张,大脑并非 passively 接收外界信息,而是根据已有的模型和预期来主动构建对世界的理解。换句话说,大脑在预测未来事件的基础上对接收到的信息进行解释,而意识则是这种解释的产物。

预测加工理论认为,大脑通过持续地生成和更新模型,来不断地预测外界环境的变化。如果预测与实际情况相符,那么我们就会感觉到一种顺畅和熟悉的体验;但如果预测与实际情况不符,大脑就会更新模型以更好地适应环境,这时可能会出现一种意识上的“打破”,即我们会意识到自己的预测出现了错误。

Image
Image

英国认知科学家阿尼尔·赛斯把这种意识错觉叫做“受控的幻觉”Controlled Hallucination——我们的大脑并不是被动地接收外部世界的信息,而是主动地构建我们所感知的现实。比如说,我们看到一块红色的画作,我们心中产生了一种不能言明的关于红色的主观感受,这种感受并不是来自于这幅红色的画这个对象本身,对象本身只是散发出了一系列诸如分子,原子,光子,波长这些信息,这些信息跟红色没有任何关系,而这种关于红色的感受意识,只是我们自己建构出来的一种错觉,这种错觉为的是编织出一个标签,或者一个故事,准确说是一个模型,来预测或者猜测我们接受到的信息是个这么个东西。而这种猜测或者预测本身只是一种幻觉。

赛斯在他的新书《意识机器》里面也举了那个著名的例子 上一篇我们已经讨论过就是那个蓝黑/白金裙。我们建构出意识这种幻觉,并不是我们心灵中的认知模型先接收到到了外部的信息输入,然后我们认知模型去接受它,而是反过来,我们先有一套预测模型,然后拿外部的信息故意往模型里面去套。意识并非是由外向内的信号流,而是Inside-Out的信号流。世界是我们脑补出来的。

康德应该是第一个这样提出来的 我们对世界的认识,并不是我们的认知系统去符合外在的认知对象,而是反过来,外在的认知对象来符合我们的认知形式,这才能够产生认识。这就是著名的认识论上的“哥白尼式的倒转”。同样的道理 按照预测加工理论,并不是我们的心灵对外部的客观现实的如实登记,而是反过来,是我们的认知模型,主动地去建构和预测所谓的“外部现实”。比如说,你在公园散步,这时候,你看到前方有一团白色的毛茸茸的东西,你立马就预测,这是一只猫。实际情况并不是:你观察半天,仔细观测,还绕到它背面一看,它有猫的眼睛,也有猫的四只脚,然后你才判断这是一只猫。而是你从一开始先有猫的预测模型、猫的标签,然后,把接收到的视觉听觉信息,立刻打上标签了:“我意识到了一只猫”。

至于猫认知对象本身是什么样的,这不重要,从外界传输给我们的信号都是一团混沌,都是波长,原子,分子,光子,根本没有什么「猫」、「白色」、「红色」这样的标签,这些标签是我们自己脑补出来的预测模型,至于脱离了我们的脑补,世界本身是什么样的,这是我们永远无法认知的,用康德的话说,世界本身就是物自体(Ding an sich),物自体是不可认知的,我们能认识到的都是幻觉。

Image
Image

也许有人会担忧,如果我们的意识只是一种幻觉 我们是不是活在楚门的世界?matrix之中了?预测加工理论说 虽然是幻觉,但它是有用的幻觉,它有利于我们的生存与繁衍。

意识这种幻觉在进化论意义上是有适应性的,这种幻觉有利于我们对外界环境做出主动的预测,并做出合适的行为,从而有利于我们寻找食物,躲避天敌,寻觅配偶。比如我虽然不知道一块烧红了的铁本身是什么,但我能预测它很烫,于是我就别摸它;我看到狮子,我预测它会咬人,于是我们躲开;看到美丽的异性,我们预测跟他在一起会很快乐,于是我们展开追求。进化并不要求我们关心世界本身是什么样的,进化只要求我们能够繁衍后代。

进化讲求够用就行 自然选择并不是要把我们一个个都打造成科学家或者哲学家,让我们对世界的现象和本质都进化出深刻的认识,自然选择并没有要求 人脑的能耗是非常高的,人脑的质量占全身总质量的2%,而能耗却占了全身总能耗的20% 现在我们的脑子已经能耗这么高了,再高就不划算 做数学题、做逻辑推理是很费脑子的,自然进化并不会让我们喜欢做数学题,为的就是节省脑力吧

那如果都是这种不过脑子,直接拿预测模型这种套路去硬套,那套不上怎么办?凭直觉下判断如果错了?那我们的预测模型这种快捷方式不就不利于我们的生存繁衍了?

emmm 虽说预测模型是套路,但套路是可以调整迭代的 它迭代的过程就是一种Bayesian Inference的过程啊 简单说就是根据收集到的新信息,不断修改调整我们已有的信念。这里的信念指的就是我们已有的预测模型,收集到的新信息尤其是指错误信息,也就是和我们已有的预测模型不符的地方,比如说,我们一开始的预测模型是默认羊的左半边和右半边的颜色大概率都是一样的,所以我们就像那个文学家或者科学家一样,看到羊的半边是黑色,就自动脑补它全身都是黑色的,但是如果有一天,羊基因突变了,出现了好多只一面黑一面白的羊,由于碰壁碰多了,到时候我们的预测模型就会迭代。

核心精神就是,你先有一个先验的预测模型,然后根据收集到的新信息调整迭代你的预测模型,最终使得你的预测模型这种认知套路和外界输入的信息能够完全套得上。用术语说,贝叶斯过程追求的目标Free Energy Principle 也就是减小大脑里面的系统不确定性,最小化我们预测模型的预测误差 要把自己的套路训练得能和外界信息完全套上。

这也就像现在的神经网络机器学习,我们一开始都是给神经网络随机设置一些权重参数,然后再慢慢训练,调整修改权重参数,然后你随便输入一张猫的图片,机器立马就能识别出来。我们人的预测模型也是在经验生活中不断地修正、调整的。

那有人就要问了,机器学习的参数一开始是随机设置的,那我们人一开始在出厂的时候,有没有出厂就自带的、不是随机设置的认知模型?有的,人是自带出场设置的,当然,这是进化来的,然后通过遗传,我们不用后天学习就已经具备的先天知识。科学家对刚出生不久的小婴儿的研究,发现小婴儿已经具有的另一些不是后天学习来的先天知识,比如说怕高,比如说怕蛇,以及一些所谓的朴素物理学的知识,比如一个东西会占据一定的空间,并且每次只会占据同一个空间,而不会同时出现在两个地方,也不会突然消失等,这些先天知识都是通过遗传而预装在我们心灵中的知识。

那预测加工理论怎么解释人的意识里面那种自我感,也就是那种第一人称的、主观的自我意识?按照预测加工理论,自我意识的产生就是我们时时刻刻都在自动脑补、预测环境信息和我们的行动,并且我们也时时刻刻都在接受外界信息给我们的反馈,于是,这就形成了一种时时刻刻都在持续进行的预测-反馈的循环,这种循环一直在转着,我们就产生了一种对自己的持续的掌控感,这种掌控感也就是自我意识的来源。

另外,在人际和社会层面也是同样的道理,“我是谁”也取决于我自己主观的预测模型,storytelling 比如说 我给自己一个人设 我相信这一套自我叙事,以后我跟人打交道的时候,我就拿着这套自我叙事去和别人打交道 但是,这一套预测模型也是要进行贝叶斯式的反馈调整的,如果多次得到与预期相悖的反馈 人会去修改对自己的预测模型

这就是预测加工理论对自我意识产生给的解释。就是这套预测和反馈的机制,这套编码、这套叙事、这套幻觉,一直持续下去,循环往复,这就形成了你的意识。

其实,预测加工理论,会给我们的生活带来一些启示,第一,人是能学习的,我们虽然会有各自不同的出厂设置,比如每个人天生的智商可能是高低不同的,或者童年的不幸经历会影响一个人的性格 但我们是可以学习的,我已有的预测模型并不是不可改变的,我们是能够通过学习改变我们已有的预测模型的。然后就是 既然我们对世界的认识是一种受控的幻觉,是我们主观的建构 我们在某种意义上就可以通过改变自己的预测模型来改变我们的生活。古罗马的哲学流派斯多葛主义教导我们,我们不一定能够改变世界本身,但是我们能够改变我们对世界的看法。so。。我们在生活中要看开点 有时候你被一些负面情绪所绑架,不是世界本身对你犯的错 而是你自己跟自己过不去。

根据预测加工理论,在机器意识的工程应用方面,我们怎么制造出人工意识?其实,就是把预测-反馈-预测-反馈的不断迭代调整的算法加入到机器学习之中,最终使得预测模型的预测误差不断减小。比如说,罗切斯特理工学院的Alexander Ororbia和宾大的Daniel Kifer,在2022年的论文中,基于预测编码理论,提出了一套更接近于人脑学习机制的机器学习算法,叫做神经生成编码(NGC)

Image
Image

传统的神经网络深度学习算法是基于“误差反向传播”算法来进行训练,来调整各个神经元之间的连接的权重的 但这种误差反向传播的算法,其实并不是我们人脑的运作模式 依靠误差反向传播进行权重调整要依赖于全局的误差信号传递,它不会进行局部的调整 而在NGC中,神经元通过局部误差信号进行学习和调整,局部的神经元预测另一个局部的神经元状态,并根据预测与观察信号差异来调整其局部模型的参数。实验结果说明了NGC架构比传统的神经网络深度学习更加灵活高效

对这个理论的批判,其中主要的一点就是对之前提到的自由能最小化原则的批判,也就是所谓Dark Room Problem 之前说的自由能最小化原则就是追求消除预测误差,追求我们的认知套路和外界信息能够完全套得上 那么问题就来了,消除预测误差是目标,那么我们最终会演化到一个没有任何意外的状态,这就类似于处在一个完全黑暗的房间里面,我们就不会遭遇到任何新的信息,没有输入就没有误差了 躺平是永远不会出错的。然而这种状况并不符合我们的实际行为 因为我们通常会给自己制造出一些不确定性 我们会寻求新的经验,而且环境的改变也必然会造成新经验,而不是停留在一个完全可预测的环境中。

代码

https://github.com/ago109/ngc-l

量子意识理论

物质决定意识,意识是物质派生出来的,这种唯物主义也可以叫做物理主义,也就是意识现象归根结底是一种物理现象 量子意识理论也算是物理主义的 但是量子意识理论认为前面的物理主义都是错的,因为前面的物理主义都是建立在经典物理学的基础之上的,而经典物理学并不能解释意识的产生,意识产生的机制是一种量子力学机制。

量子意识理论是一个名气很大但在学界内有很多争议的理论,因为量子力学本身就是一个比较玄的学问,正所谓,遇事不决,量子力学 跟我熟悉的朋友应该都知道我是量子意识的拥趸 虽然对量子力学的解释就很难解释清楚。。现在主流的对量子力学的解释就是以物理学家玻尔、海森堡等为代表的哥本哈根学派主张的Copenhagen Interpretation 所谓的哥本哈根解释,也就是哥本哈根不解释。。shut up and calculate 也就是别扯什么量子力学的物理学内涵、哲学内涵,量子力学并不反应世界的本质,你就冰冷无情地算算术,解薛定谔方程就好了,除此以外 量子力学没什么内涵。就连量子力学本身说明了什么意思 这都说不出有什么意思,你拿量子力学本身就挺玄的东西,来解释意识这么一个更玄的东西,这更是玄学配玄学= =

用量子力学来解释意识的一个代表人物就是2020年诺贝尔物理学奖得主罗杰·彭罗斯,他认为意识的产生机制就是一种量子力学机制。对意识的解释,怎么就能扯上量子力学?

Image
Image

按照经典力学理论,一个物理粒子,无论是光子还是电子,它就像一个小球一样的,和宏观物体一样都符合机械力学原理,都占据一定空间,在空间里面碰来碰去,这就造成了物质的运动 but量子力学告诉我们 在微观世界不是这样的 在微观世界,物理粒子具有一种所谓的波粒二象性,也就是在微观层面,本来应当像小球一样的粒子却具有了波动性,会呈现出一种像波动的云一样的状态,这也就是所谓的量子的叠加态。

说说双缝实验,有左右两条缝可以让一个粒子穿过,按照宏观世界的道理,粒子是要么走左边这条路,要么走右边这条路,表现为小球一样的粒子态,但是实验发现,粒子是既走了左边这条路又走了右边那条路,它自己和自己发生了干涉。也就是说,两条路,一个粒子同时都走了,这就很奇怪了。

也许 在微观层面,粒子具有波动性,那波就是可以既走这条路又走那条路的。玄的地方在于 你不观测粒子的时候,它确实是既左又右的,处于一种叠加态;你一旦观测,波顿时就坍缩了,它就从一种既左又右的叠加态 顿时坍缩成了要么走左 要么走右的确定态了。到底坍缩成左还是右是完全随机的,这就是量子力学里面的真随机现象。从叠加态坍缩成确定态,在薛定谔方程里面的表现就是波函数的坍缩,问题就在于,波函数怎么就坍缩了?一个处于叠加态的既左又右的波,怎么就由于人的观测,莫名其妙地坍缩成了一个确定的粒子了?

Image
Image

别问,遇事不决,量子力学。。在薛定谔方程里面,波函数的坍缩是不确定的,它会解出一个概率值。Oh~概率,这让很多物理学家感受到奇耻大辱 包括爱因斯坦 按照爱因斯坦等物理学家的看法,物理学一直是确定性的学问的,我们算算术必然会算出一个确定的数学解,如果只解出了一个概率,那物理学还是物理学吗?

所以,面对哥本哈根不解释,也有很多物理学家试图对波函数坍缩进行解释。其中,最著名的一个思想实验就是Schrödinger's Cat 薛定谔就试图来解释叠加态的坍缩究竟是怎样一种情况 他设想把一只猫和一个量子装置放在一个箱子里面,这个量子装置就是一个放射性原子和一瓶毒药 放射性的原子是否发生衰变就是一个量子随机事件。如果箱子里的原子衰变了,就会触发一个机关,毒药瓶就会被打碎,毒药就会把猫给毒死,如果原子没衰变,就不会触发机关,猫就还活着。

Image
Image

放射性原子是否衰变是一个量子随机事件,因此放射性原子就处于一种量子叠加态,就是既衰变又没衰变,那么关联到这只猫,这只猫也就处于一种叠加态之中,在我们打开箱子观测这只猫之前,这只猫处于一种既死又活的叠加态。注意,是既死又活,不是要么死要么活。那问题就来了,一只猫怎么可能处于既死又活的状态呢?

当然,薛定谔当初提出思想实验是为了反驳哥本哈根解释的 因为哥本哈根不解释认为 在波函数坍缩之前,粒子就是处于一种既这又那的叠加态,叠加态就是叠加态,不要问为什么,反正就是叠加态。薛定谔做思想实验就是为了嘲讽哥本哈根解释,什么叫既这又那的叠加态?这很荒唐,就像这只箱子里面既死又活的猫一样荒唐。

后来又有一个物理学家 尤金·维格纳在“薛定谔的猫”的基础上又做了一个思想实验 这次他不单单是为了嘲讽哥本哈根不解释了,而是借由思想实验来正面解释叠加态的坍缩了。这个思想实验就是Wigner's Friend 箱子里的猫处于一种既死又活的叠加态 维格纳设想的场景是,把放了毒药的箱子里,再加入一个维格纳的物理学同行朋友,当然不是像那只猫那样同行会被毒死,而是魏格纳的同行朋友戴着一个防毒面具在箱子里面观察这只猫,那观察会造成什么效果?

在双缝实验中,在实验人员没有观测之前,粒子处于既左又右的叠加态,而一旦实验人员用仪器观测了,粒子就顿时坍缩成要么左要么右的确定态了。问题就在于,为什么人的观测会让一个处于叠加态的粒子坍缩成确定态?人的观测在量子力学里面起到什么作用?

让我们回到箱子里面的朋友,他由于在箱子里面能观测到猫的生死状况,所以观测就会使得猫从既死又活坍缩成确定的要么死要么活,当然,到底坍缩成死还是活是随机的。此时,我们再设想,在箱子之外站着维格纳本人,由于维格纳观测不了箱子里面的状况,哪怕他箱子里面的朋友已经观测到猫坍缩成要么是死要么是活的确定状态,但箱子外面的维格纳并不知道他朋友观测出了什么结果,对于维格纳而言,这只猫连同箱子内的朋友一起都处于一种量子叠加态。

ok那如果是这样场景 箱子内的朋友观测到,猫随机坍缩成死亡了 但是箱子外面的维格纳没有观测到 因而完全存在一种可能——维格纳打开箱子,观测箱子内部以后,发现这只猫坍缩成了活的,因为整个箱子对维格纳而言都处在量子叠加态,它坍缩成什么样,完全是随机的。。它完全有可能是猫坍缩成了活的 所以,思想实验就造成了一个悖论,而解决悖论的钥匙是,对于同一个物理事件,朋友观测到的结果和维格纳观测到的结果完全可以是不同的。

这个思想实验在哲学上进一步揭示了,并不存在所谓的“客观现实”,不同的人对于同一个物理现象,完全可以观测出不一样的结果 ok事已至此后世的物理学家通过实验证实了维格纳的这一思想,客观现实并不存在,观察的结果取决于观察者的主观视角。波函数的坍缩很可能是一个主观的东西(我现在急需胡塞尔。。

Image
Image

维格纳的这一思想让我们知道,量子力学的机制中有一些“主观”的东西在里面,之前说了,由于人的观测,叠加态的波函数会随机坍缩成一种确定态,而为什么人的观测会让波函数坍缩?很可能就是因为人的意识。其实,不单单是维格纳认为量子力学里面有人的意识参与其中 冯·诺依曼也认为是人的意识让波函数坍缩了。物质决定意识,物质可以改变我们的意识,但同时我们的意识也可以反过来改变物质。箱子里的猫是死是活是由我们观测者主观的意识决定的。

量子力学的波函数坍缩具有主观性 那世界上还有什么东西也是主观的?那就是人的意识了。人的意识的重要的一个层面就是现象意识,就是意识给我们带来的一种无法用第三人称的语言或者科学描述说得清楚的主观感受,这种主观感受怎么解释?刚刚说了半天量子力学也具有这种主观性,那么会不会人意识产生的机制,就是一种量子力学机制?

说回彭罗斯,他就认为我们的脑神经细胞的细胞质里面就有这么一种特别微小的结构 叫做“微管”(量子资料主要的处理区域) 由于足够小,它里面就允许存在微观世界里面的量子叠加态。这也就是说,我们大脑里面的神经信号的传递过程是基于一种更为底层的量子过程。。所以我们大脑里面的一些想法的变化就是由于微观的叠加态坍缩了 随机坍缩成了一种确定的状态,从而进一步造成了脑神经信号的传递。这就是意识产生的底层机制。

basiclly彭罗斯就是说死亡时这些资料与你的意识会一起离开身体。我们的意识会存在因为这些微管引发的量子引力效应(quantum gravity effects),这理论叫做和譛客观还原(objectivereduction或Orch-OR)。

意识是一种性质跟时空一样根据新生物中心论(neo-biocentrism)我们的灵魂可以跑到别的宇宙去 他推论意识或原意识(proto-consciousness)是宇宙的基本性质之一,大爆炸的一开始就存在。我们的大脑只是意识的接收器与放大器。

彭罗斯挠头。。感兴趣可以去看一下这段采访 

Image
Image

如果我们的意识的产生机制是基于量子力学的波函数坍缩机制的话,这不仅仅解释了意识的难题,这也解释了自由意志哲学。。如果量子意识理论是对的话,那么人就是有自由意志的,人的想法、意愿、选择就不是被经典力学里的机械决定论所决定的 而是真随机的 我既可以向左,也可以向右,既可以点肯德基,又可以点麦当劳,在微管里面的波函数坍缩之前 我的选择就是不确定的。这就为人的自由意志保留了空间。

我们怎么把量子意识理论应用到机器意识的工程学上面?答案是量子计算机。彭罗斯就认为,人脑并不是一台传统架构的计算机,因为波函数坍缩是真随机,这玩意是传统计算机算不出来的 传统计算机实现不了的波函数坍缩的真随机性,量子计算机就能实现 要模拟人脑的意识就得用量子计算机。量子计算机的原理就是利用量子力学的波函数坍缩的真随机性,来取代传统计算机的要么是0要么是1的这种确定性计算。

总之,量子意识理论告诉我们,人的意识的产生机制是一种量子力学机制,人的现象意识的主观性是怎么来的?就是量子力学带来的,因为量子力学的波函数坍缩,在维格纳和冯·诺依曼等人看来,也是具有主观性的。

 “Theory of Self-Reproducing Automata” 对于复杂性和生命的重要问题曾有过许多讨论。冯·诺依曼提出,所有已知的复杂系统,存在一个明确的分水岭,分水岭的左边,大部分是人造系统,比如当时的计算机、汽车、厂房等等;分水岭的右边,大部分是诸如人的大脑、细胞、生命、生态系统等大自然形成的系统。在分水岭左边的系统,随着时间的变化会不断降级,比如我们需要经常保养汽车,否则就会出各种问题;与此相反,在分水岭右边的系统,不仅不会随着时间的变化而降级,反倒能够不断进化,特别站在生态系统角度看,其中的物种能生生不息,并且似乎变得越来越高级。

Image
Image

当然,量子意识理论的缺点,就是我们这一小节一开始说的,就是有点玄,量子力学玄学加上意识问题玄学,玄而又玄。话说回来,比起之前几个意识理论,之前的理论都是在宏观层面搭建模型来解释意识,而量子意识理论就企图从最硬核、最底层的方面,试图一举攻克意识难关,虽然理论有很多地方还说不清楚。

Overall。。很可惜的是,即使有答案也无法证真或是证伪,关于意识的推测无法检验和复现,这就是为什么杰弗里·辛顿博士说,“即使人工智能在不产生知觉、自主意识的情况下,人工智能技术也有可能给人类带来危险。我们并不能从根本上真正地理解它们(AI)是如何工作的”。

Image
Image