新闻及活动

新闻及活动

刘晓力做客新人文讲座 解析人类意识与机器意识的哲学争论


(学生通讯员 曹翰林)2018年3月22日下午在六教,全国科学哲学专业委员会理事长、中国人民大学哲学院杰出学者特聘教授刘晓力应邀做客新人文讲座,以“人类意识与机器意识的哲学争论”为题,为200余名到场师生分享最新人工智能技术前沿与其中的哲学与伦理反思。刘晓力首先回顾了人工智能发展史与意识哲学的二元论和物理主义争论,以翔实的资料、严密的论证,生动的案例深入浅出地讲解了人工智能视野下关于人类意识与机器意识的哲学争论,并高瞻远瞩地对人工智能的未来走向给出了独到的见解。

刘晓力.png

刘晓力教授做客新人文讲座

讲座伊始,刘晓力引出一个社会热点问题:为什么2016年成为了“人工智能恐慌年”?人工智能恐慌年究竟恐慌的是什么?经历了60余年的发展,今日人工智能在高阶推理、数值计算、图像识别、语音识别,以及工业和军用机器人等领域取得了重大成就,为什么此前并未引起公众如此大的恐慌?增而直到2015年,库兹韦尔提出“AI技术奇点预言”,比尔盖茨和史蒂芬霍金也相继提出警示危言,声称不久的将来,人工智能可能超过人类智能,甚至统治人类。特别是2016年AlphaGo强势来袭和《机器姬》等一系列科幻电影的问世,公众及某些知识界人士对于具有意识和自我意识的人工智能恐慌情绪日渐增加。但是,刘晓力认为,面对这种情绪,需要理性地思考如何说人工智能具有意识的问题。由于“莫拉维克悖论”的影响,今天的人工智能甚至还没有像1-2岁的婴儿那么好的感知能力,而且,最重要的是,它们还是“无心的机器”。“心”(mind)是哲学意义上的概念,指知觉、认知、行动控制、意识、自我意识等内容。她认为,机器的“无心”主要体现在:不能理解符号的意义、没有意识和意识经验、缺少与外部世界互动的自主性,而且没有自我觉知。科学家和人工智能领域专家十几年前开始关注机器意识的相关研究,国际上也召开了多场关于生物意识与人工智能意识的学术讨论会,那么机器意识研究的工作假说有哪些?人类意识与机器意识究竟有何异同?真的像人工智能的先驱者马文明斯基80年代所说,“人类不过是一台情感机器”吗?在今天人机交互的新智能时代,反思这些哲学争论显得尤为重要。

吴彤.png 

吴彤教授主持讲座并点评

正是在这样的背景下,刘晓力带领听众从四个维度展开了人类意识与机器意识争论的丰富而深刻的哲学思考。

首先,她从心灵哲学与认知科学两方面入手,分析关于人类意识的哲学争论。人类意识研究的哲学争论最核心的问题就是“心-身”(Mind - Body)二元论问题,目前,一门称作“认知科学”的交叉学科群,正在通过哲学、心理学、语言学、大脑神经科学、人工智能、人类学和教育学的跨学科研究,以科学的方法共同探讨人类心灵的本质和人类认知的机制。心灵或意识是否是物理世界的存在?我们的物质大脑和身体如何会产生非物质的意识与自我意识?心灵-语言-物理世界的关系究竟是怎样的?通常,人们会借助三条原则解释和回答这些哲学问题:一是常识心理学原则;二是心理-物理因果作用原则;三是物理世界“因果闭合原则”。同时坚持这三条原则,就会引发出各种争论,依照物理主义的当今版本,世界上的一切事物,或者都是物理的,或者都是随附于物理的,没有超自然的现象存在。那么,意识和意识经验是物理的吗?对于意识现象的说明能够还原为对物理事物的说明吗?例如,意识和自我意识能够还原为对大脑神经元及其活动的说明吗?一批哲学家声称,即使物理主义在本体论上是正确的,它在认知上仍然存在着一种“解释鸿沟”。解释鸿沟的另一种表述即主观-客观之间、第一人称和第三人称本体论和认识论之间进行还原解释时具有不可跨越之处。正因为有这样的以二元论为基础的鸿沟的存在,就不能以物理学的客观角度去真正认识意识这种主观体验的真正奥秘。

其次,刘晓力从认知科学研究纲领变迁的角度,通过分析两代认知科学研究核心的变化探讨人的意识研究中争论焦点之所在。第一代认知科学研究纲领主要围绕着以“计算-表征”为核心的计算主义,而第二代则走向了涉身认知和延展认知的观念,即把探索人类心智本质和认知机制的目光聚焦在人的身体对于认知如何具有重要地位,以及认知主体与周围各种环境的互动如何构成延展认知系统上。特别是第二代认知科学纲领下的生成认知进路的倡导者认为“意识难题”和“解释鸿沟”的问题之所以纠结,是由于建立在经典的身心分离的二元论基础之上,遵循着认知计算主义的理论假设。而计算主义的最大困境在于,抽象的符号计算如何来表征外部世界,计算机如何具有意向性并学会理解意义,计算主义纲领将心智分割成主观心理状态与计算操作两个完全割裂的领域,进而引发一系列的意识难题。为了消除“解释鸿沟”,生成认知进路在对计算主义评判反思的基础上,从生命之心(mind in life)的视角出发,认为生命是自主演化的、具有意识的涌现机制的自组织动力系统,生命的最根本特征是其具有自创生性与自治性,而主动建立与世界关联的意向性是包含主观体验的、活生生的有机体具有的基本的内在特征,因此,这种理解就将“心-身”二元转换为物质的身体和主动积极与环境互动的活生生的有机体的“身-身”二元,就可以消除所谓解释的鸿沟。

进而,刘晓力阐述了人类意识与自我意识的进化。她首先提出自然界为什么会进化出像人类这种具有意识的动物,却没有进化出机器?为什么大多数动物无法像人类这样拥有意识和自我意识?她重点介绍了国外学者的研究成果后,提出人的自我意识演化分为五个方面:涉身的自我,即在生物物理环境中演化出的自我;跨时间具有同一性的自我,即在经验中建构出的独特自我;社会的自我,即人在社会环境中通过高阶意识和同情共感理解他人建构出的自我;能动的自我,即有自主性有自我觉知和自由意志的自我;统一的自我,人的自我意识是一种具有整全性、统一性的意识现象。

最后,刘晓力分析了当前的机器意识与机器自我研究的工作假说。为什么在机器人可以满足人类多重要求的当下,我们仍然说其没有意识。原因在于:机器并不能能动地与真实世界产生意义关联、机器没有主观的意识和意识体验、机器没有自主性与自我觉知的能力、机器并不能理解符号背后的意义,而只能重复地做大量的搜素、识别和过滤等简单工作,而且机器没有同情共感的能力能够理解他人,等等。而以上这几点,都是人之所以成人的价值所在。不过当下,仍有一些科学家和人工智能专家尝试建立机器意识系统必须满足的条件是什么、机器意识的含义、机器实现自我意识的维度,以及如何从工程上建造有意识的机器人等进行研究,并提出了以人的大脑认知结构为模型,受大脑工作机制的启发探索人工智能的类脑智能道路,期望逐渐让机器人理解意义、理解世界、最终产生自我意识,并对机器意识系统进行更加完善的界定。在这样的科学和技术发展状态下,刘晓力提出一个有趣的问题:人的意识和自我意识与机器意识和自我意识是不是本就遵循独立的演化道路?而预设机器思考的方式和行为要与人类一样,这样的研究方法本身是否有问题?如果机器意识沿着另外一条道路演化,人类未来的前景又将如何?


 学生提问.png


到场学生与刘晓力教授交流互动

正式演讲之后的互动环节,刘晓力回答了学生提出的人类的意识与机器的意识的区别是否只存在于算法的难度上、对机器意识与科技伦理的问题应如何思考等问题。

本场讲座系清华大学新人文讲座系列之(十八)“文化的创造性转化与创新性发展”的第三讲,由清华大学社科学院吴彤教授主持并点评。

 

 

 

人物链接:刘晓力,北京大学哲学博士,哈佛大学哲学系访问学者。现为中国人民大学哲学院杰出学者特聘教授、分别在科学技术哲学和逻辑学专业担任博士生导师。曾获北京大学优秀博士论文奖、宝钢优秀教师奖、教育部人文社科成果二等奖、北京市教学一等奖等。研究方向为逻辑学、科学哲学、心灵哲学与认知科学。曾在重要期刊Synthese及《中国社会科学》《哲学研究》发表论文,主持国家社科基金重大项目“认知科学对当代哲学的挑战——心灵哲学与认知科学哲学重大理论问题研究”。现任全国科学哲学专业委员会理事长、外国哲学分析哲学专业委员会委员、Frontiers of Philosophy in China、《自然辩证法通讯》《自然辩证法研究》和《科学技术哲学》杂志编委。

                                (供稿:国家大学生文化素质教育基地)