21世纪的人工智能?
2005-1-21 2:22:09  人工智能 

也许是长期思考的释放,我写下了这篇文章,首先是回顾并展望了人工智能的发展,其次对一些相关的哲学问题进行了探讨。 我们先来看看人工智能几十年来的发展历程。

首先,是符号学派大出风头,人们非常自信的相信假如把足够的知识输入给电脑,它就可以进行通用问题的求解。早期 的这类AI方法明显属于一种自上而下的思维方式。人们直接对头脑的搜索、求解行为进行模拟,并认为理性就是全部。然而这种Ai不如说是 AS(Artificial stupid),他们用数学模型的精确性换来的却是机器人的死板性。

20多年以后,另外两个学派开始占上风了。一类学派是连接学派,也就是现在已经热过头的ANN(人工神经网络),另一个是行为学派。这两种学派的思路其实 都是一种自下而上的建造人工智能的方法。ANN更强调对大脑结构的真实模拟,行为学派则干脆极端的否定智能需要知识的表达及其求解。这两种学派都认为,只 要给我足够的硬件资源,建造足够大的网络,让机器足够充分的进化,人类的智能特性就会一个接一个的从模型中“蹦”(涌现)出来。

之后,90~2000年代,人们开始考虑新的综合,也就是把早期的符号学派和后期的连接与行为学派相结合。并且,人们越来越发现,要让一个系统足够聪明, 我们需要赋予该系统足够充分的功能。ANN仅仅模拟学习功能,符号学派仅仅关心推理功能,然而单个儿的系统并不能解决所有问题,所以人们越来越关心构造一 个完整的模型,这就是Agent的概念。虽然目前,Agent仍旧五花八门,但其最主要的目标就是把一个较完整的独立思考、决策的过程做到计算机模型中, 所以Agent需要推理、学习、反应等等。

沿着这种思路,人们发现了情感的重要性。因为人们发现智能重要的学习功能来源于一种评价机制,早期的评价机制是一种外在的仲裁者,然而真正的智能体需要内 建这种评价机制。于是这就是情感的作用,Agent需要自己的好恶才能体现真正的智能!

有了这些零零碎碎的知识,人们开始整合一个大的系统。这就是很多Agent框架的提出。目前越来越多的人开始思考一种有机的整合方式能够把推理、反应、学 习、情感统统包容起来。最好是设计一套底层的规则,让所有的那些属性全部自发的在宏观涌现。于是很多西方科学家在思考人工脑工程(Artificial mind),也就是寻找一种类似细胞自动机这样的底层规则,涌现出一类类似智能的系统。

 

上述为对我所认识到的AI发展的局部总结。沿着这个思路想下来,我们不难看到,人们目前主要的目标就是要搭建一个框架能够整合所有我们已经掌握的功能。我 换一种说法来表达我的意思也许能引起更多人的重视: 目前,人们的最主要目标就是建立一个最小(最简)的脑模型,这个脑模型的底层规则要足够简单,但是在整体要能体现以下几种功能:1、适应性的反应行 为;2、以情感为中心的内建评价机制;3、涌现出的适应的逻辑搜索、问题求解等功能。 总之,新的人工脑模型首先要是一个自下而上的涌现、进化的适应系统。

其次,这个模型要能在一定程度上体现出早期符号学派的功能,包括推理和问题求解等等。 目前的深度学习理论和技术已基本能够达到这个目标,只不过在高层次的逻辑、问题求解方面还是稍显不足,但目前Deep Mind公司正在致力于这方面的努力。

 

这样一套人工智能模型最终将会达到什么样的程度呢?我认为随着模型的日渐完善,它将会最终逼近一个哺乳动物脑的智能,或者说可能是一个儿童的智能水平。

我相信这样的一个模型框架应该不算非常遥远了。然而这一切就能解决人工智能的全部问题么?我们还有哪些问题没有解决呢?

1、自我觉知的能力

人类的一个伟大地方就是自我觉知的能力。也就是说自己知道自己在做什么。这种知道不仅仅是学习,也不仅仅是从环境的反馈中获得的对自我的认识,而是能够在 头脑内部自建一个自己的模型。自我觉知的能力来源于对自己的直接观察,或者说直接把系统的输出不经外界输入给自己。这种觉知其实就是一个非常简单的自观察 系统,我相信它不难实现,但是却没有被AI主流重视。我个人认为这种自观察、自我觉知的能力是让机器聪明起来的关键之一。

2、高层次的学习能力

目前,低层次的学习能力机器已经基本具备,然而人类高层次的学习能力则还在艰难的探索中。其中包括类比、联想、创造等等,目前已经有一批科学家正在研究类 比与创造。

3、理解

什么是理解?我们用理性的头脑来理解,然而我们的头脑是否能够理解“理解”本身呢?当我们说理解了某一类事物的时候究竟意味着什么?显然,理解不同于简单 的学习和推理。似乎,理解就是一个从规则上升到元规则的过程。那么,现在我们要创造人工智能,这种AI自己可以“理解”么?世界上的所有事物都是可理解的 么?我们探索人工智能的过程始终伴随着用人类智能来理解智能的过程。

到目前发展的每一步,都是我们先理解了其工作的过程才能把它赋予人工智能。比如,情感 的机制,心理学家先理解了情感的工作原理,才能总结出123的规则,然后计算机专家把它编成计算机算法。我的一个猜想是:似乎可理解的事物都能够编写 成算法。

回想人类的科学史,只要我们能够用纯粹理性的手段把某一事物描述清楚了,就能够把它抽象成123的算法规则。这是人类理解的本质。所以我认为 理解本身就是一个算法的抽象形成过程。人工智能能否解决理解问题?可以肯定,直接对理解进行编程不太可能完成,然而借助涌现是否可以完成呢?似乎可能,涌 现和理解有着非常奇妙的关系。因为不能用算法做的东西可以用涌现来逼近,但是目前所有的涌现模型都没有直接针对理解来进行,也许这也是未来的一个重点。

4、意识

目前世界的一大群一流科学家已经开始思考人类智能的最后堡垒:意识。意识是什么?请注意,我们正在用我们的意识来思考这个问题。假如我们创造了真正的人工 智能,它们也会具有意识,那么它们也会思考同样的问题。阿西莫夫很早就聪明的给智能生命下了这样一个定义:所谓的智能生命就是那种能够创造出比它们的造物 主更聪明的东西。这意味着一个无穷增长的链条,1类智能生命创造了2类智能生命,2类智能生命创造3类……。

如果人工智能可以实现,那么它们必然会创造属 于它们自己的人工智能。也许只有这样,我们才能获得对智能的绝妙定义。 有些人可能会争论,既然大自然创造了人类智能,人类智能是从无机物进化来的,那么我们为什么不能创造大自然的这种条件,再造智能呢?我觉得这个思路真的很 难驳倒,但是有一点是肯定的,这种纯粹的涌现思路是不可理解的。也就是说我们让一群人工神经元相互作用期望它们涌现出智能从理论上说是可能的,然而该过程 却不是我们能理解的。这就好像我们说人脑是亿万个分子构成的一样,我们并没有对该问题具有深刻的理解。因此,这种不可理解的涌现性正是坚信涌现创造智能的 一个误区。

究竟人们会不会完成人工智能呢?我认为从涌现技术上也许可能,但是从理论上理解不会,然而人们又必须完成。回顾人类整个的科学发展史,不难发现,整个人类 的脑区:科学界已经逐渐形成一个自指的怪圈,而且这个怪圈正在以前所未有的速度收缩,没有任何一个人能够停止它。它似乎是一种宿命,就好像人天生就是为了 了解自身为终极任务一样,人类的最终目的就是要形成对人类意识、智能的自我意识。 智能这个问题具有很多奇妙的性质,我只是看到了一两个能勾引我自己兴趣的神奇特征说了出来。当然,这仅是我个人的观点,至于它的对错,是否有价值,希望各 位点评。

2005-2-1 0:32:15
   (回复)我以为只要五年的时间就足够了!但愿老天再给我五年的时间! >jake(sage):也许是长期思考的释放,我写下了这篇文章,首先是回顾并展望了人工智能的发展,其次对一些相关的哲学问题进行了探讨。 >jake(sage): >jake(sage):我们先来看看人工智能几十年来的发展历程。首先,是符号学派大出风头,人们非常自信的相...
2005-2-7 13:50:01
   >jake(sage):也许是长期思考的释放,我写下了这篇文章,首先是回顾并展望了人工智能的发展,其次对一些相关的哲学问题进行了探讨。 >jake(sage): >jake(sage):我们先来看看人工智能几十年来的发展历程。首先,是符号学派大出风头,人们非常自信的相... 我认为21世纪的人工智能应该是各取所长按需计算的创新。人工智能是机器智能,就是具有人工智能的机器人,我们也没有必要让它既可在深海中游泳,又可在天空中象飞碟一样飞行。智能是解决实际问题表现出来的聪明,我们没有必要把人工智能定义为象人一样有感情,有意识,能讲多国语言的超能。而在现有人工智能的缺陷上进行创新,可能更适合中国的国情。
2005-2-10 20:02:01
   (回复)人类不揭开智能的秘密,总归是人类科学的一块心病,因此这不是一个有没有必要或国情如何的问题,而是一个我不研究也会有别人研究的问题。如果我们把头像鸵鸟一样埋在沙子里,只讲什么必要、国情,就会被其他国家拉得更远! >yuchuang121():我认为21世纪的人工智能应该是各取所长按需计算的创新。人工智能是机器智能,就是具有人工智能的机器人,我们也没有必要让它既可在深海中游泳,又可在天空中象飞碟一样飞行。智能是解决实际问题表现出来的聪明,我们没有必要把人工智能定义为象人一样有感情,有意识,能讲多国语言的超能。而在现有人工智能的缺陷上进行创新,可能更适合中国的国情。
2005-2-18 9:23:27
   以技术为驱动的方法肯定没错,也很实际。但问题是,国外的一些经验已经表明了仅仅在现有的技术理论里面修修补补很难真正克服技术难题。看看早期的通用求解系统,日本的第五代计算机等等就知道了,人们需要思想上的革新。 你现在要是跟一个外行谈人工智能,他一般恨不屑一顾,因为这个领域的突破相对其它领域真的是太小了。是技术跟不上么?恐怕是思想观念上落伍吧。 情感的研究是欧美自90年代起开始的,他们已经证明了情感在智能中的重要地位,不是科学家吃饱了没事儿要赋予机器情感,而是一种理论和技术为驱动的,看一看有关人工情感的文献就知道这种趋势了。 人家已经做到这步了,我们还要在一些老掉牙的技术中不停的修修补补么? >yuchuang121(): >yuchuang121(): >yuchuang121(): >yuchuang121():>jake(sage):也许是长期思考的释放,我写下了这篇文章,首先是回顾并展望了人工智能的发展,其次对一些相关的哲学问题进行了探讨。 >jake(sage): >jake(sage)...
2005-2-22 11:50:13
   (回复)离开情感的人工智能就不是强人工智能。这并不需要西方科学家来证明。情感的模拟并不复杂,搞复杂了反而远离人类实际。 在强人工智能中,其最关键的机制是系统的发动机制。有了发动机制,系统就不需要人类为它指定工作,而自己开展工作,成为一个真正自主自为的系统。我把这个关键的机制叫做需要机制。 情感活动无非是需要的满足于不满足的表达。也就是说只有系统产生了需要,才会进而产生情感活动。一些情感活动对应着需要的不满足态,另一些情感对应着需要的满足态。不同的情感反应的需要强度不同。比如:...给你一个想象的空间吧! 需要是一个开放性概念,也就是说它是一个随智能提高不断发展变化的事物。具体而言:与原始生存状态有关的需要(我们叫它位欲望)处于无智能层次,在系统产生思维和意识以后,原始的欲望就会发展为高级需要。例如,对艺术的需要就是一种高级需要。它是原始的对美的需求和人类对各种艺术美的认识的结合。 情感也是一个开放性事物,它随着需要的发展而发展。例如对艺术创造的狂热,对好的艺术作品的强烈情感反应,就是对艺术需要的表达。它也是原始情感与对情感的认识的结合。 有了这样一个简单的非数学情感模型,在计算机上模拟情感也是比较容易的事情。在这些研究方面,我以为国人并没有落在外国人后面。那些在老掉牙的东西上修修补补的人是有的,他们是那些跟在外国人后面拾屁的所谓专家。像你我这样的敢于创新的人是不干那种傻事的! >jake(sage):情感的研究是欧美自90年代起开始的,他们已经证明了情感在智能中的重要地位,不是科学家吃饱了没事儿要赋予机器情感,而是一种理论和技术为驱动的,看一看有关人工情感的文献就知道这种趋势了。 人家已经做到这步了,我们还要在一些老掉牙的技术中不停的修修补补么?
2005-2-24 18:47:17
   很好,我赞同你从需要(Desire)出发讨论情感及其智能。 下面我就想针对这个问题与你讨论一下: 1、关于需要 我感觉我们理解的需要应该是相同的,我脑子中的需要仍然是一种广义的概念,也就是我认为欲望、需求、目的甚至主动性都是这种需要的不同体现,正如你说,需要是一种发动机制,我同意。正是这一种最基本的发动机制结合外界的约束才导致了智能的各种不同的表现。达成这个共识之后,我有两个问题想请教你的看法: i. 需要或者说最原始的动力如何产生? 刺激-反应系统是人工智能讨论很多的东西了,然而这种系统并不是系统自发产生的需要,它完全是一个对外界进行机械反应的装置。但是,很多文献讨论了这种基本的刺激-反应也能产生看起来的目的、需要。这种“看起来”的需要、目的如何就变成了我们能够摸得着的需要了? 其实这个问题是我前些日子考虑的生命本质在于主动性的一个变种,我考虑这个问题:一块北风吹着运动的小石块在复杂地形上的滚动可能让我们错以为它是活的,然而,我们都知道它和一只活的小虫非常不同。小虫是根据自己的需要而动的,而石头不是。这两者本质的区别是什么? ii.需要如何用程序来实现? 我认为如果要用程序实现真正的需要(是智能体自己的需要,而不是我们强加给它的),就不能显式的给程序定义需要。比如我模拟一个小虫子,如果我编程给它让它去吃食物就是一种显式的定义。这不是真正的需要。 真正的需要应该是一个复杂系统自发涌现出来的结果。好了,就用你的神经反应系统来说,怎样才能涌现出这种需要呢?实际上如果我们编程实现的每一个部分都是反应-刺激的变种,那么一大堆这样的刺激-反应集合如何就能涌现出需要了呢? iii. 我认为自发产生的需要是一种因果倒置的表现 对于刺激-反应系统来说,A->B,是A发生了才导致了B发生,而需要的产生刚好把这个规则反过来了,也就是说B->A,B是智能体想要的目标,正是这个目标才导致了它选择了A这个行动所以B应该先于A发生。我们用程序能够实现的就是一大堆A->B这样的动态的网络,它们相互作用就应该能够涌现出B->A这样的模式。这是我思考的真正用程序实现需要的方法。 2、关于情感 我所说的情感与你提到的情感还不太一样。我说的情感其实不应该算我们常说的情感,它更象是一种非常非常简单、非常非常基本的评价机制。你说需要才导致了情感的出现我并不否认,但是你这里的情感已经不是我说的低级情感了。可能你会认为,一个神经反射系统根本不需要低级情感的功效,那我就会和你有不同意见了。我认为,对于一个最小的智能系统来说,最低级的评价机制是必需的。要不然一个智能体怎么能够学习呢? 在情景A,智能体有2个动作可以选择1和2,假设第一次选择了1,它从外界得到了一个回报10,第二次选择了2,它从外界得到了回报20,显然再次选择它应该选2,然而是什么样的机制保证了它下次必然会选2?我知道有hebb学习率,也有强化学习理论,最简单的反射试验也证明了动物都会完成这种学习,然而我想知道这种学习机制的更深层次原理。比如反向传播算法就说按照误差反向的传递修正权值就可以了,然而误差是什么?智能体怎么感受到的误差?假如智能体在开始没有任何需要的时候如何定义误差? 3、评价和需要谁在先? 评价和需要到底谁在先?我估计你的观点是需要在先。那好,考虑你已经设计好了一个神经网络系统,它的需要是什么?(按照前面的讨论,你不能人为地给它定义需要,它应该自己生成)。如果没有预先定义任何需要,它会学习么?它能够完成评价么? 但我们都知道,生命体都会感觉到快乐和痛苦,人一生下来就能有快乐和痛苦,这根本不需要学习。快乐痛苦是什么?我认为是一种评价,也就是我说的最简单的情感系统,正是因为有了这个最小的系统,系统才会产生需要,也就是要让自己快乐而避免痛苦的需要,之后,需要又反作用智能体,让它产生各种动作和高级的情感。 这后一段是我的一个设想,那么在你的神经反射模拟系统中如何体现这样最基本的快乐和痛苦?或者我的思路跟你得毫不一样,那么你是怎么想的? 我前些日子收到了你写的情感和需要的邮件,但我认为那根本没有真正讨论情感和需要的问题,只是说它们是重要的,今天我把我关心的问题提出来,希望和你认真的讨论,在达成一些基本共识之后在讨论,效率会很高。 >ruiaijun():(回复)离开情感的人工智能就不是强人工智能。这并不需要西方科学家来证明。情感的模拟并不复杂,搞复杂了反而远离人类实际。 >ruiaijun(): 在强人工智能中,其最关键的机制是系统的发动机制。有了发动机制,系统就不...
2005-2-26 0:44:59
   (回复)需要确实是一个广义的概念。它从最原始的形式一直延伸到一个人的精神需要,进而延伸到一个集团的需要、一个社会的需要、一个国家的需要、甚至整个地球的需要。这些需要都是作为系统的活动动力出现的。 刺激-反应仅仅是巴甫洛夫条件反射确定的东西,它仅仅是神经系统反射现象的一小部分,不足挂齿。如果一些人工智能研究者把它夸大,那只能说是他们见识短浅。 反射泛指各种神经间的联系。神经的功能显然并不只有刺激和反应,因此也不仅只有刺激-反应一种形式。我曾经发过的主题“如何用计算机模拟反射?”中的反射可不是指得条件反射,它是指得神经间各种联系方式。 神经间的联系可以分两大类,一种是系统先天具有的,我们称之为先天性反射(例如巴甫洛夫实验中的非条件反射)。另一种是后天经过学习形成的反射,我们称之为后天性反射(例如巴甫洛夫实验中的条件反射)。 原始的需要(欲望)就是一些先天性反射构成的神经功能。它是生物为了生存靠遗传保留下的基本功能。欲望都是与生存紧密联系的。例如:食欲、避险欲、休息欲、性欲等。 几乎任何一种生物都会有原始的需要(欲望),一个单细胞的原生虫,也会在欲望的驱动下去摄取食物,在欲望的驱动下分裂繁殖。需要甚至产生于神经形成以前! 以巴甫洛夫的条件反射试验为例,其中狗见到食物就会分泌唾液,就是由需要(食欲)引起的先天性反射(他称为非条件反射)。所以在他的实验中需要也是看得见的。 需要还可以在学习中发展。例如小孩自身并不需要在学校的学习,他是出于好奇的需要,去上学的。有的孩子是出于让大人夸奖的需要。但是在学校的学习中,他们渐渐发展出对学习的需要(尽管动机是多种多样的)。对艺术欣赏的需要也是人类在学习中发展出的需要。 需要在程序中的模拟实际非常简单,就是在系统进行任何活动以前设置一个需要机制,由它的不满足发动活动,由它的满足终止活动。截止到现在,我们都是让计算机为我们做些什么,它的活动由我们的需要发动,因此在编程时我们根本不考虑为计算机编写需要。其实编写起来很简单,我们为一种需要设置一个两值的需要变量,它的零值表示需要的不满足,它的一值表示需要的满足。活动的发动前要先检测需要变量,然后由零值的需要发动相应的活动。至于更复杂的情况就不能在此细说了。这种预先编写在程序中的需要机制,是作为系统的先天性反射存在的。 系统由了自己的需要就会不那么听话了。我设计了一个学习的小程序,它的学习要由自己的需要发动,程序中要求你必须输入三十个字符以上,并且有学习意义四个字,就可以满足需要。这个程序运行后除去要求你输入字符,就没有任何其它反应,要等你满足它的条件,它才会继续以后的学习。如果你不知道我为程序摄制的条件。就想解密码一样,你输入半天,它也不会进入下面的学习程序。这虽然表现出程序的自主性,但是也使程序难于控制得多了。 上述内容,在我传给你的“如何用计算机模拟反射?”中都有,你有机会再看看就知道了。 >jake(sage):1、关于需要 我感觉我们理解的需要应该是相同的,我脑子中的需要仍然是一种广义的概念,也就是我认为欲望、需求、目的甚至主动性都是这种需要的不同体现,正如你说,需要是一种发动机制,我同意。正是这一种最基本的发动机制结合外界的约束才导致了智能的各种不同的表现。达成这个共识之后,我有两个问题想请教你的看法: i. 需要或者说最原始的动力如何产生? 刺激-反应系统是人工智能讨论很多的东西了,然而这种系统并不是系统自发产生的需要,它完全是一个对外界进行机械反应的装置。但是,很多文献讨论了这种基本的刺激-反应也能产生看起来的目的、需要。这种“看起来”的需要、目的如何就变成了我们能够摸得着的需要了? 其实这个问题是我前些日子考虑的生命本质在于主动性的一个变种,我考虑这个问题:一块北风吹着运动的小石块在复杂地形上的滚动可能让我们错以为它是活的,然而,我们都知道它和一只活的小虫非常不同。小虫是根据自己的需要而动的,而石头不是。这两者本质的区别是什么? ii.需要如何用程序来实现? 我认为如果要用程序实现真正的需要(是智能体自己的需要,而不是我们强加给它的),就不能显式的给程序定义需要。比如我模拟一个小虫子,如果我编程给它让它去吃食物就是一种显式的定义。这不是真正的需要。 真正的需要应该是一个复杂系统自发涌现出来的结果。好了,就用你的神经反应系统来说,怎样才能涌现出这种需要呢?实际上如果我们编程实现的每一个部分都是反应-刺激的变种,那么一大堆这样的刺激-反应集合如何就能涌现出需要了呢?
2005-2-26 1:16:39
   (回复)你在关于情感的第一段,实际上是假设了我们的一些分歧。其实没有那种分歧。首先,在情感与需要是有联系的这一点上是一致的。其次在很原始的层次就有感情上,我们也没有分歧。第三,在我的模拟反射系统中就已经模拟了情感活动(再传给你的模拟反射材料中就有)。 你的第二段言论,是受了奖惩理论的影响,它源自行为学派的桑代克,其理论已经被托尔曼用实验推翻。实际上,选择并不总是与奖励有关。现在有些行为学派的人工智能研究者继续坚持被托尔曼试验推翻的奖惩理论,是一种可悲的学阀割据现象造成的,但其理论影响是相当大的。 关于上面的详细情况,我在本网的一篇关于学习的讨论中详细介绍过了。你可以去看看。 你的需要与评价问题,在你看了我上一个关于需要机制的先天性和与需要生存相关性的回答中应该知道如何解决了。就不再多说了。 需要本身是具有选择力的,当很多需要同时产生的时候,当一个活动的结果可以同时满足多种需要的时候,需要都会作出优先调用一些活动的选择。但是在智能产生前,系统对各种结果都是不评价的(或者说系统是不懂得评价的)。系统的选择依据不是评价,而是:一、经验形成的时间远近(一般选择近的)。二、活动的熟练程度(选择熟练程度高的)。三、经验形成时对系统的震动(暂用此词)程度(选择震动程度高的)。四、随机选择。 >jake(sage):2、关于情感 我所说的情感与你提到的情感还不太一样。我说的情感其实不应该算我们常说的情感,它更象是一种非常非常简单、非常非常基本的评价机制。你说需要才导致了情感的出现我并不否认,但是你这里的情感已经不是我说的低级情感了。可能你会认为,一个神经反射系统根本不需要低级情感的功效,那我就会和你有不同意见了。我认为,对于一个最小的智能系统来说,最低级的评价机制是必需的。要不然一个智能体怎么能够学习呢? 在情景A,智能体有2个动作可以选择1和2,假设第一次选择了1,它从外界得到了一个回报10,第二次选择了2,它从外界得到了回报20,显然再次选择它应该选2,然而是什么样的机制保证了它下次必然会选2?我知道有hebb学习率,也有强化学习理论,最简单的反射试验也证明了动物都会完成这种学习,然而我想知道这种学习机制的更深层次原理。比如反向传播算法就说按照误差反向的传递修正权值就可以了,然而误差是什么?智能体怎么感受到的误差?假如智能体在开始没有任何需要的时候如何定义误差? 3、评价和需要谁在先? 评价和需要到底谁在先?我估计你的观点是需要在先。那好,考虑你已经设计好了一个神经网络系统,它的需要是什么?(按照前面的讨论,你不能人为地给它定义需要,它应该自己生成)。如果没有预先定义任何需要,它会学习么?它能够完成评价么? 但我们都知道,生命体都会感觉到快乐和痛苦,人一生下来就能有快乐和痛苦,这根本不需要学习。快乐痛苦是什么?我认为是一种评价,也就是我说的最简单的情感系统,正是因为有了这个最小的系统,系统才会产生需要,也就是要让自己快乐而避免痛苦的需要,之后,需要又反作用智能体,让它产生各种动作和高级的情感。 这后一段是我的一个设想,那么在你的神经反射模拟系统中如何体现这样最基本的快乐和痛苦?或者我的思路跟你得毫不一样,那么你是怎么想的?
2005-2-26 1:38:46
   (回复)我把看来不相关的两段放到了一起,它们分别来自两个帖子,但我以为体现一个思想。就是只看到智能与目前涌现理论的相似之处,没有看到它们有一个根本的区别。它们虽然都是由一些元素组成一个大系统,都是靠系统元素组织起来涌现出一些新的东西,但是,一般涌现理论中的各级元素(各个子系统),对系统没有统治作用,它们永远在比较平等的水平上影响着系统功能。 而智能系统的特殊就在于,它在涌现过程中,一些子系统在大系统中中占据了统治地位,最初是需要,而后是思维,然后是意识,这个占据统治地位的子系统,就使系统的涌现结果呈现一种定向发展的趋势,当然,这种定向也还是涌现中的定向,不是严格逻辑关系的定向。 我不知道现在涌现理论给于这种子系统占统治地位的定向涌现以多少贡献。不过目前提及这点的人很少。这种特殊现象的涌现,会更加接近智能系统的产生现状。 >jake(sage): 有些人可能会争论,既然大自然创造了人类智能,人类智能是从无机物进化来的,那么我们为什么不能创造大自然的这种条件,再造智能呢?我觉得这个思路真的很难驳倒,但是有一点是肯定的,这种纯粹的涌现思路是不可理解的。也就是说我们让一群人工神经元相互作用期望它们涌现出智能从理论上说是可能的,然而该过程却不是我们能理解的。这就好像我们说人脑是亿万个分子构成的一样,我们并没有对该问题具有深刻的理解。因此,这种不可理解的涌现性正是坚信涌现创造智能的一个误区。 iii. 我认为自发产生的需要是一种因果倒置的表现 对于刺激-反应系统来说,A->B,是A发生了才导致了B发生,而需要的产生刚好把这个规则反过来了,也就是说B->A,B是智能体想要的目标,正是这个目标才导致了它选择了A这个行动所以B应该先于A发生。我们用程序能够实现的就是一大堆A->B这样的动态的网络,它们相互作用就应该能够涌现出B->A这样的模式。这是我思考的真正用程序实现需要的方法。
2005-3-10 10:07:10
   最近很忙,没来得及回复,见谅。 我认真看了你写的模拟反射的全文,的确很不错。而且我感觉实现起来应该都没有问题,但是我在看的时候,觉得有几点也许是实现的难题。第一、如何把各种反射综合起来做成一个大的系统?我想你可能还没有完成各个基本反射的部分,所以可能这个问题还不好解答,当然我相信你肯定会认为自己的这个系统没问题,我也不否认。但我感觉系统多了以后,如何协调它们就成为了一个关键问题,也就是说在某种条件下,应该采用何种反射? 第二、模拟反射系统对程序的随机组编这段,我觉得有很多不太恰当的地方,也许我仅仅看了一遍你的文章,没理解你的意思吧。不知道你是否知道“遗传编程”?我知道你一直特别痛恨西方现代的科学家,觉得他们都蠢得很,其实完全没必要,他们和我们一样其实都在探索,而且不见得没有反传统的观点诞生,比如我们想的问题肯定已经有不少人在思考了。至少你说的这段随机让小的程序组编成大的程序就是遗传编程的思想。然而现在的遗传编程有一个很重要的问题就是如何不断地让小的程序块构造大的程序块,关键是不断的升级、构建。就像人类编程的过程,这在很多实际程序中都是不太容易实现的。 而且我怀疑的是,你想用这种遗传编程的思想调控你整个系统,它似乎太复杂了,很有可能协调的结果并不理想。所以,给我的感觉就是,你在每一个分系统反射的论述都很棒,但在把这些系统合起来的部分有点像传统人工智能的思想,是一种自上而下的,硬性规定的,这样的东西可能就很难实现柔性了。当然,我承认我这些看法过于武断,你可以当作一个反面意见来看,但我并不想和你争论这些,因为我并没有深入了解,看法很主观,有不到之处还请见谅 我想和你争论的有下面三个问题: 1、对于需要发动机制的理解 绕了很多圈子,我发现你思考的需要发动机制很类似我所思考的最小情感机制,我说的最小情感就是你说的原始需要动力。这种机制很关键,它实际上是体现原始的奖赏与惩罚的根本。其实,我是用了外界奖励与惩罚这个词,但我压根就否认外界的奖励与惩罚能够直接作用于智能体,外界只有刺激,没有奖励和惩罚,而某一类刺激转换为内在的情感(你说的需要)才变成了奖励与惩罚。我不知道这种理解是否是你们争论的学习机制的关键?我所说的最主要的一种选择机制就是对行动、想法的选择,而选择是内在的,也就是智能体自己的选择。当然存在明显的外界和内部相关的情况下,智能体的选择应该符合外界的奖励与惩罚,比如老鼠的内在选择机制应该能刚好选择那些能够吃到食物的动作,这是你说的先天反射,它是自然进化的结果。 然而,情感与需要肯定还有很多不同,一个明显的不同就是似乎在你考虑的需要方面仅仅能够体现正的评价、导向作用,而忽视了负的作用,而情感一上来就分为快乐和痛苦两种。不过其实这个问题很好解决,你只要设置某个二值变量,当它满足了,就尽量减少导致它的行动就是负的导向了。但给人的感觉是需要是一种引力,我要做什么,而不是一种斥力,我不要做什么,所以我觉得应该把这两种基本需要分离开。 我相信,按照这种思路设计的系统肯定能够实现一些初级的智能,甚至是高级智能的一部分,但我想,在你实现之前,往更高级的智能上的推理仍然要小心谨慎,尤其是到了意识、理解等等这些部分,如果你把这些高级属性归结为简单的反射就给人一种把生命还原到原子的感觉。 2、关于“真正的需要” 我们讨论的所有问题其实都不能算作智能体“真正的需要”,对不起,这里我有点较真,我说了真正的需要应该是智能体自己产生的,而不是我们人为设计的。无论情感还是需要,都是我们设计好的,就不能算作它真正的需要。但别忙,我相信的一点:我们考虑的整个系统在运行的过程中会因为复杂的组合产生一些看似具有它自己需要的行动!我觉得这种需要才是“真正的需要”。我不得不再次搬出涌现这个词,我认为涌现出的需要才是真正的需要。 这里需要解释一下,为什么非要强调涌现出的需要呢?因为需要应该是一个复杂系统的某种涌现属性,而不一定是非要内建到系统内部的具有明显表示的东西。举个例子,一个国家的需要是什么?虽然我们的领导人甚至人民代表可以说,我们需要....,但其实我们很难界定他所说的是不是真正整个国家的需要,所以领导也会犯错误。我认为国家的需要其实根本就不是每个人能够明显表示出来的,它是一种涌现属性。进一步的,我认为需要是所有复杂系统的共有属性,因此,我相信一个复杂的相互作用的计算机网络或者程序网络在某种条件下就会涌现出它自己的需要,但是很明显,太多的复杂系统不具有它自己的需要,比如传统的人工智能系统,它就是死的,我看不出来他有自己的需要。而你提出的反射模拟,还有我思考的最小智能体虽然不一定比传统的专家系统复杂,但是它能体现出自己的需要。所以,我最最关心的就是这样一个最小的、根本的能让复杂系统具备“需要”的条件是什么。其实,我认为你所说的反射系统中的需要无非是先天性反射,我特别同意,因为我们要设计的是智能体,所以把这种先天的反射叫做需要,但其实我们完全可以把这种“需要”的名字撤出,它就是一个很自然的、“无意义”的反射,或者按照你的说法就是一种广义的联系,再进一步的,它就是一串二进制编码,这样抽取出来这种明显定义的“需要”以后,系统整体的表现还能体现出它有它自己的需要,我才认为这个系统具有了真正的需要。不知道我说明白了没有,你已经看出了,其实这就是强人工智能的观点,也就是坚持认为智能是可以多重实现的。只不过,我现在没讨论智能,我在讨论需要,我认为需要也是可以多重实现的,现在的关键问题就是,什么样的系统属性会导致需要的出现? 3、关于涌现 我特别赞同你对涌现的批判:现在的涌现系统并不能体现某种中央集权的控制中心,它是一个过于松散的系统。然而,我不得不重申,我所说的涌现,包括我所有的文章都不仅仅局限在传统的涌现系统中,虽然我常常用生命游戏、人工生命等等系统作为例子,但我所说的涌现就是指一个相互作用的系统,它所体现出来的神奇属性。抛开这些障碍之后,我觉得我们走上了同一条路,还记得我们以前的一次争论么?我批评你的反射系统,因为我认为那就是一个复杂适应系统,而现在的所有计算机中的复杂适应系统都不能产生更多的层次。其实,我所说的层次和你说的中央控制有某种联系。 仍然用生命为例子吧,一堆相互作用的分子构成了生命个体,注意它之所以被称为一个个体是因为从整体角度看,这个生命个体会自主的决策、按照自己的需要运动。然而,假设我们就是一个分子,我们能看到整体生命个体的存在么?恐怕不能!所以我说生命是分子上一个层次的个体。进一步,细胞生命个体会构造更大的人体,这就产生了更高的层次。每当一个新的层次个体产生了,这个个体就会体现出很多很多性质,什么自我修复、自我繁殖等等吧,然而一个关键的问题是自我控制,也就是整体按照自己的需要控制自己的行为,也就是你说的中央控制子系统的出现。然而,这个中央控制子系统当被还原到分子层次的时候,它仍然是一堆分子的无规则运动。所以,涌现的一个关键问题就是,这样的中央控制的子系统是如何在底层无目的的运动涌现出来的? 看看现在所有的人工生命实例,它们都是涌现系统不假,它们都是可以涌现出高层次的个体也不假,但是他们没有涌现出最最原始的智能:需要,为什么?我认为这里面最最原始的需要和这些涌现系统还有着某种本质的区别,而这是所有的涌现系统没有找到的! 我们要解决这个问题不能反过来走上还原论,比如我们设计一个人工生命系统,通过编程把需要付给它,那我认为它就是一个死的系统,编进去的需要无非就是一个if then规则而已,它跟传统的刺激-响应系统没有区别。 但话要说清楚,我并不否认给智能系统设计基本需要,正如你的做法,但我要说的是,这种设计的需要必须要足够的简洁,使得他就变成了一个你所说的先天的联系,这样整体网络所体现出的需要仍然是涌现属性。这正是你目前的做法。 再说一个我不太成熟的观点,为什么我说现在的涌现系统不能体现更高的层次性这个问题和你说的中心控制的自发涌现不能实现问题是一个?因为,我的一个看法是这种中心控制、需要等等可能就是一个更高层次的生命个体的出现。也就是说我把生物的身体和它的精神分开看了,精神是在软件层次上存在的新的个体。这个观点很不成熟,但我有一些奇妙的想法,如果你有兴趣,我们可以改天讨论。 >ruiaijun(): >ruiaijun():(回复)我把看来不相关的两段放到了一起,它们分别来自两个帖子,但我以为体现一个思想。就是只看到智能与目前涌现理论的相似之处,没有看到它们有一个根本的区别。它们虽然都是由一些元素组成一个大系统,都是...
登录后才可以评论,马上登录