财新传媒
位置:博客 > 复旦发展研究院 > 杨庆峰:哲学能为人工智能发展带来什么?

杨庆峰:哲学能为人工智能发展带来什么?

杨庆峰

复旦发展研究院研究员

复旦大学生命医学伦理研究中心教授

 

哲学和科学的关系:哲学能为科学发展带来什么?

关于这个问题的讨论很多,我们比较熟悉的是“指导说”、“证明说”,前者是哲学为科学发展提供原则或者方法论指导;后者是科学发展证明了哲学观念。另外,海德格尔曾经批判过概念总结、分工协作等理解方式。以“证明说”为例,这是其中的观点之一。一方面,科学印证哲学,以前哲学家提出了很多很好的理念,但是只停留在思维层面,尽管当时的科学发展不能与之匹配,后来科学发展提供了一些事实材料,慢慢验证了一些哲学性的命题。另一方面,科学为哲学思考提供新的事实材料,现在各个门类的科学发展很快,提出了很多新的实验材料可供分析。这也和我现在的研究相关。我一直在想作为一个哲学研究者,我们怎么对待科学技术?传统的“指导说”是以大的哲学原理作为一种方法论指引科学怎么发展,但这种模式现在已经出现问题不适用了,相比之下,“证明说”能有效解释哲学和科学的关系。

 

以人工智能为例,我们需要思考一个问题:哲学对人工智能能够做什么,这也是目前哲学界热议的问题。

 

 人类与人工智能(机器)的关系

关于人与人工智能的关系,我梳理了三种类型。

 

第一种是“类似说”。关于人工智能的定义,其中一个定义是人工智能能像人一样行动和思维。也就是把人的感知方式、神经机制研究透了后,就可以去做人工智能了,今年的一项新研究正是将对人的“共情”成果应用到人工智能上,试图研制出具有共性能力的智能体。

 

第二类是“融合说”。在此观念中,人机之间不再是镜像关系,而是趋向人机融合。比如通过脑芯片植入对神经的改造,一方面“我”通过机器提升能力获得便利,另一方面机器向我学习。这种说法打破了原有的类似关系。

 

第三类“同构说”,强调了机器和人之间的“同构性”。一些高级机器能在人工智能的指导下走出未经训练的迷宫,其空间神经元中呈现的结构与老鼠、人相似。

关于机器的自我意识问题,有几种讨论方式。科学方面有两种方式,第一种是通过机器行为来理解机器意识。2019年《Nature》刊发过一篇题为《机器行为学》(Machine behaviour)的文章,机器行为学是新兴的学科,有助于理解机器自我意识的产生。第二种是通过意识产生的神经机制来理解意识。当神经科学搞清楚了意识产生的神经机制那么就可以实现人工智能的应用了。问题是当科学搞清楚意识的生成机制,想要移植在机器上时,将会在路径上遇到如何从物质产生意识的难题,而且机器学习的黑箱不能打开也使得人无从得知学习结果。哲学上也有两种方式。第一种是从机器的社会行为理解机器的自我意识。上海大学社会科学学院教授王天恩从马克思主义哲学角度谈到一个观点,人的意识是社会产物,那么机器的意识也要在机器社会行为中才能产生,这意味着机器意识产生的前提是机器必须要具备群体行为。第二种是从自主意识产生的条件来理解自主意识。黑格尔曾说“恐惧使得自主意识得以产生”,由此推论,或许机器恐惧会导致自主意识。然而这一说法遇到了证明的困难,即意识是因为恐惧产生,而恐惧是意识的一种类型,此处构成悖论。此外,还有一个有趣问题,“机器是人造的”这一观念也在不断消解,机器学习的一些行为逐渐证明它不是人设计的,而是变成了一种智能体的自我生成。最近正好我看了几篇文章:

  (1)从无到有生成的智能体正在出现(Karol Gregor,2021) 

  (2)AI智能体可以学会动物进化法则完成自身的进化(李飞飞,2021)

  (3)悄然生成的超级智能体已成为可能(Manuel Alfonseca,2021)

  (4)将果蝇的神经网络作为AI基质的迹象(Yu Cheng LIANG,2021)

 

第一篇介绍了最近出现的一种可以自主学习的超级智能体;第三篇论文介绍了一个没有任何元素的环境中可以生成一个智能体,从无到一,从一到二;最后一篇的成果是尝试使用低级动物果蝇的神经网络来跑算法,发现效率更高。

 

以上这些最新成果都和日常工具论的观点不同,人不再能完全设计算法后面的行为。牛顿曾说“上帝踢了地球一脚,于是地球自行运转”,或许也可以用来形容人和智能体,“人踢了机器一脚,机器自行运转”。

 

人工智能定义的反思

当前人工智能的发展受到人们一些认识困惑的限制。人意识到人是会犯错的,机器如果犯错就可以舍弃不用了,对于人、机的表现有着不同预期。我们能够认识到人是有限的,人是会犯错的,人是会出各种各样的问题的;但对于机器,现在缺乏一个耐心的环境,今天表现得不好不要紧,没准哪一天机器会突然变得特别好——事实是,机器一旦表现不好,人就换一种结构,并且将过去训练的所有结果数据全部删掉。

 

这就回到前面的“人机类似”的问题,说人工智能要像人一样行为——很快我们发现这一关于“人工智能”的定义是有问题的,因此需要修正。美国学者为人工智能提供了新定义:“人工智能是在情景中做出最优化选择的。”这为我们提供了新的思路。

 

我们可以更进一步追问,“人工智能”的定义该由谁来下,是哲学家还是做技术的人?如果能够给人工智能这个智能体下一个准确的定义的话,这个定义是不是也可以定义同样是智能体的人?人工智能的定义如果跟人的定义一样,那么人的定义应该由谁来下?

 

人与记忆

在哲学对“记忆”的解读中,首先是刺激留下的“印痕”,比如说我受伤以后留下疤痕;然后是休谟提出的“印象”慢慢从模糊到清晰,记忆深植形成观念;第三种涉及哲学生物学的因素进入了,被称为“印迹”,这是发生在神经元层面。

 

胡塞尔、柏格森在谈到“记忆”时引入时间性的概念,认为“记忆”是对主体的唤起,经历了“联想——唤醒”的过程,外部刺激唤起痕迹,如熟悉的东西唤起脑中以前的痕迹,而非是人主动去想起某样东西。有个法国哲学家提出这样一个观点,“to remember is to imagine”,记忆就是想象,但和一般的想象不一样,记忆的想象是对过去对象的想象,此时主体意识更强了。最近关于记忆的研究记忆还涉及到梦境,在某种程度来说,记忆似乎有梦境的虚幻感。回到过去也不是我们想象的样子,好像有一个特定的点在等着我们,事实上,我们无法在确定位置找到记忆,而是要经历重新构成的过程,快乐、悲伤、感性、理性不同状态下,回忆起来东西是完全不一样的。我们讲记忆的时候,可能还可以把它具体为存储的信息,但从记忆到回忆的过程中添加了强烈的感受性,回忆时要经历把信息变成个人感受的过程。

 

此外,记忆也会处于“静默”的状态。有一个关于人脑三岁以前记忆的科学研究,发现人三岁以前的记忆处于“静默”中。尽管即便努力回忆也想不起来,但肯定会在我们的意识里,当有某一天你的奶奶讲述你三岁时的一个故事时,你的记忆可能就被唤起了。这种回忆是带有感受的,不是简单信息的提取,而是关于过去的感受,可以存储有感受的内容,比如我知道我很开心,这个信息我存起来,当我想达到过去同样的感受时,我需要经历重新要计算重新构建的过程。这类似于柏格森烟雾充满房间的比喻,有一个触发点后 ,烟一点一点出来,最后充满整个房间——回忆某种意义上来说也可能有一个出发点,由此生发的东西会包围、慢慢涌现出来,和“我”的注意、构建与否没关系。

 

综上可见,记忆中有信息的属性在其中,同时记忆中的主体不可或缺,又代表着一种静默和能被唤醒的可能。

 

 人工智能与记忆

奥古斯丁曾说人的灵魂有两种必备能力,“智能”和“记忆”,人工智能研究者也越来越意识到“记忆”的重要性。但是目前这种理解还远远不够。在我看来,技术将产生傲慢,我们都知道人工智能代表技术,然而这导致人工智能越发展、越精致,它的傲慢性就越明显,甚至智能到能够非常傲慢但装出共情的样子——而“记忆”正是对付这一问题的方法。因而原本人工智能只做智能,但现在也开始涉及记忆(即信息的长期存储),这可以看做是一种进步。

 

计算机内存是关于记忆描述的一个非常重要的出发点。和生物学记忆类似,计算机将信息编码好,然后分别存储成长期记忆、短期记忆两类。人们大多总以为是先有短期记忆,然后短期记忆慢慢巩固成长期记忆,但实际上后来科学家提出是短期记忆、长期记忆一开始就存储在不同部位,这非常有意思。人记忆的生成要经历信息的编码、存储、提取、巩固、甚至再巩固的过程,而对于机器而言则没有“再巩固”第四阶段。

 

以上关于记忆研究的讨论,其目的是为未来决策服务,主要体现在以下方面:

 

1、记忆研究为人工智能发展提供理论基础,正是现在科学家在做的事情,让人工智能多一点记忆。

 

2、记忆研究关系到通用智能的研究。目前通用智能的研究还遇到了一个难题即灾难性遗忘问题,这是目前人工智能碰到的疑难,科学家们也提出了多种途径来解决这一问题。灾难性遗忘是一种常见现象,比如对人而言,根据喝酒的经验来理解喝咖啡的行为是正常迁移性学习的一种,但对于机器而言,在学新东西的同时,可能完全忘掉以前的东西,没有办法迁移,这就导致了灾难性遗忘。灾难性遗忘将产生不可预见的后果,如果不能有效解决,那么通用智能研究就会大打折扣。

 

3、记忆研究有助于理解人工智能的发展趋势。AI1.0是基于符号推理的知识驱动,AI2.0是基于深度学习的数据驱动,AI3.0可以看做是基于深度学习的经验驱动特征。这在我以前的一篇文章中专门讨论过。

 

(复旦发展研究院学术助理颜润就相关问题对杨庆峰教授进行了专访,整理编辑成此文。 

 

供稿 | 复旦发展研究院

来源 | 新华思客



推荐 0