首页 >> mg冰球突破手机版下载

mg冰球突破手机版下载:马斯克称已将大脑上传到云端【系统或已开源】

  mg冰球突破手机版下载:马斯克称已将大脑上传到云端【系统或已开源】神经网络的云集成模式还不是很成熟,应该有发展潜力,但神经网络有自己的硬伤,不知道能够达到怎样的效果,所以决策支持系统中并不是很热门,但是神经网络无视过程的优点也是无可替代的,云网络如果能够对神经网络提供一个互补的辅助决策以控制误差的话,也许就能使神经网络成熟起来 。

  自古以来,关于人类智能本源的奥秘,一直吸引着无数哲学家和自然科学家的研究热情。生物学家、神经学家经过长期不懈的努力,通过对人脑的观察和认识,认为人脑的智能活动离不开脑的物质基础,包括它的实体结构和其中所发生的各种生物、化学、电学作用,并因此建立了神经元网络理论和神经系统结构理论,而神经元理论又是此后神经传导理论和大脑功能学说的基础。在这些理论基础之上,科学家们认为,可以从仿制人脑神经系统的结构和功能出发,研究人类智能活动和认识现象。另一方面,19世纪之前,无论是以欧氏几何和微积分为代表的经典数学,还是以牛顿力学为代表的经典物理学,从总体上说,这些经典科学都是线性科学。然而,客观世界是如此的纷繁复杂,非线性情况随处可见,人脑神经系统更是如此。复杂性和非线性是连接在一起的,因此,对非线性科学的研究也是我们认识复杂系统的关键。为了更好地认识客观世界,我们必须对非线性科学进行研究。人工神经网络作为一种非线性的、与大脑智能相似的网络模型,就这样应运而生了。所以,人工神经网络的创立不是偶然的,而是20世纪初科学技术充分发展的产物。

  人工神经网络的研究始于40年代初。半个世纪以来,经历了兴起、高潮与萧条、高潮及稳步发展的远为曲折的道路。

  1943年,心理学家W.S.Mcculloch和数理逻辑学家W.Pitts 提出了M—P模型,这是**个用数理语言描述脑的信息处理过程的模型, 虽然神经元的功能比较弱,但它为以后的研究工作提供了依据。1949年,心理学家D.O.Hebb提出突触联系可变的假设,根据这一假设提出的学习规律为神经网络的学习算法奠定了基础。 1957 年, 计算机科学家Rosenblatt提出了著名的感知机模型,它的模型包含了现代计算机的一些原理,是**个完整的人工神经网络,**次把神经网络研究付诸工程实现。由于可应用于模式识别,联想记忆等方面,当时有上百家实验室投入此项研究,美国军方甚至认为神经网络工程应当比“工程”更重要而给予巨额资助,并在声纳信号识别等领域取得一定成绩。1960年,B.Windrow和E.Hoff提出了自适应线性单元, 它可用于自适应滤波、预测和模式识别。至此,人工神经网络的研究工作进入了**个高潮。

  1969年,美国著名人工智能学者M.Minsky和S.Papert编写了影响很大的Perceptron一书,从理论上证明单层感知机的能力有限,诸如不能解决异或问题,而且他们推测多层网络的感知机能力也不过如此,他们的分析恰似一瓢冷水,很多学者感到前途渺茫而纷纷改行,原先参与研究的实验室纷纷退出,在这之后近10年,神经网络研究进入了一个缓慢发展的萧条期。这期间,芬兰学者T.Kohonen 提出了自组织映射理论,反映了大脑神经细胞的自组织特性、记忆方式以及神经细胞兴奋刺激的规律;美国学者S.A.Grossberg的自适应共振理论(ART );日本学者K.Fukushima提出了认知机模型;ShunIchimari则致力于神经网络有关数学理论的研究等,这些研究成果对以后的神经网络的发展产生了重要影响。

  美国生物物理学家J.J.Hopfield于1982年、1984年在美国科学院院刊发表的两篇文章,有力地推动了神经网络的研究,引起了研究神经网络的又一次热潮。 1982 年, 他提出了一个新的神经网络模型——hopfield网络模型。他在这种网络模型的研究中,首次引入了网络能量函数的概念,并给出了网络稳定性的判定依据。1984年,他又提出了网络模型实现的电子电路,为神经网络的工程实现指明了方向,他的研究成果开拓了神经网络用于联想记忆的优化计算的新途径,并为神经计算机研究奠定了基础。1984年Hinton等人将模拟退火算法引入到神经网络中,提出了Boltzmann机网络模型,BM 网络算法为神经网络优化计算提供了一个有效的方法。1986年,D.E.Rumelhart和J.LMcclelland提出了误差反向传播算法,成为至今为止影响很大的一种网络学习方法。1987年美国神经计算机专家R.Hecht—Nielsen提出了对向传播神经网络,该网络具有分类灵活,算法简练的优点,可用于模式分类、函数逼近、统计分析和数据压缩等领域。1988年L.Ochua 等人提出了细胞神经网络模型,它在视觉初级加工上得到了广泛应用。

  为适应人工神经网络的发展,1987年成立了国际神经网络学会,并决定定期召开国际神经网络学术会议。1988年1月Neural Network 创刊。1990年3月IEEE Transaction on Neural Network问世。 我国于1990年12月在北京召开了首届神经网络学术大会,并决定以后每年召开一次。1991 年在南京成立了中国神经网络学会。 IEEE 与INNS 联合召开的IJCNN92已在北京召开。 这些为神经网络的研究和发展起了推波助澜的作用,人工神经网络步入了稳步发展的时期。

  90年代初,诺贝尔奖获得者Edelman提出了Darwinism模型,建立了神经网络系统理论。同年,Aihara等在前人推导和实验的基础上,给出了一个混沌神经元模型,该模型已成为一种经典的混沌神经网络模型,该模型可用于联想记忆。 Wunsch 在90OSA 年会上提出了一种AnnualMeeting,用光电执行ART,学习过程有自适应滤波和推理功能,具有快速和稳定的学习特点。1991年,Hertz探讨了神经计算理论, 对神经网络的计算复杂性分析具有重要意义;Inoue 等提出用耦合的混沌振荡子作为某个神经元,构造混沌神经网络模型,为它的广泛应用前景指明了道路。1992年,Holland用模拟生物进化的方式提出了遗传算法, 用来求解复杂优化问题。1993年方建安等采用遗传算法学习,研究神经网络控制器获得了一些结果。1994年Angeline等在前人进化策略理论的基础上,提出一种进化算法来建立反馈神经网络,成功地应用到模式识别,自动控制等方面;廖晓昕对细胞神经网络建立了新的数学理论和方法,得到了一系列结果。HayashlY根据动物大脑中出现的振荡现象,提出了振荡神经网络。1995年Mitra把人工神经网络与模糊逻辑理论、 生物细胞学说以及概率论相结合提出了模糊神经网络,使得神经网络的研究取得了突破性进展。Jenkins等人研究光学神经网络, 建立了光学二维并行互连与电子学混合的光学神经网络,它能避免网络陷入局部*小值,并*后可达到或接近*理想的解;SoleRV等提出流体神经网络,用来研究昆虫社会,机器人集体免疫系统,启发人们用混沌理论分析社会大系统。1996年,ShuaiJW’等模拟人脑的自发展行为, 在讨论混沌神经网络的基础上提出了自发展神经网络。1997、1998年董聪等创立和完善了广义遗传算法,解决了多层前向网络的*简拓朴构造问题和全局*优逼近问题。

  随着理论工作的发展,神经网络的应用研究也取得了突破性进展,涉及面非常广泛,就应用的技术领域而言有计算机视觉,语言的识别、理解与合成,优化计算,智能控制及复杂系统分析,模式识别,神经计算机研制,知识推理专家系统与人工智能。涉及的学科有神经生理学、认识科学、数理科学、心理学、信息科学、计算机科学、微电子学、光学、动力学、生物电子学等。美国、日本等国在神经网络计算机软硬件实现的开发方面也取得了显著的成绩,并逐步形成产品。在美国,神经计算机产业已获得军方的强有力支持,国防部高级研究计划局认为“神经网络是解决机器智能的唯一希望”,仅一项8 年神经计算机计划就投资4亿美元。在欧洲共同体的ESPRIT计划中, 就有一项特别项目:“神经网络在欧洲工业中的应用”,单是生产神经网络专用芯片这一项就投资2200万美元。据美国资料声称,日本在神经网络研究上的投资大约是美国的4倍。我国也不甘落后,自从1990 年批准了南开大学的光学神经计算机等3项课题以来, 国家自然科学基金与国防预研基金也都为神经网络的研究提供资助。另外,许多国际著名公司也纷纷卷入对神经网络的研究,如Intel、IBM、Siemens、HNC。神经计算机产品开始走向商用阶段,被国防、企业和科研部门选用。在举世瞩目的海湾战争中,美国空军采用了神经网络来进行决策与控制。在这种刺激和需求下,人工神经网络定会取得新的突破,迎来又一个高潮。自1958年**个神经网络诞生以来,其理论与应用成果不胜枚举。人工神经网络是一个快速发展着的一门新兴学科,新的模型、新的理论、新的应用成果正在层出不穷地涌现出来。

  针对神经网络存在的问题和社会需求,今后发展的主要方向可分为理论研究和应用研究两个方面。

  (1)利用神经生理与认识科学研究大脑思维及智能的机理、 计算理论,带着问题研究理论。

  人工神经网络提供了一种揭示智能和了解人脑工作方式的合理途径,但是由于人类起初对神经系统了解非常有限,对于自身脑结构及其活动机理的认识还十分肤浅,并且带有某种“先验”。例如, Boltzmann机引入随机扰动来避免局部极小,有其卓越之处,然而缺乏必要的脑生理学基础,毫无疑问,人工神经网络的完善与发展要结合神经科学的研究。而且,神经科学,心理学和认识科学等方面提出的一些重大问题,是向神经网络理论研究提出的新挑战,这些问题的解决有助于完善和发展神经网络理论。因此利用神经生理和认识科学研究大脑思维及智能的机理,如有新的突破,将会改变智能和机器关系的认识。

  利用神经科学基础理论的研究成果,用数理方法探索智能水平更高的人工神经网络模型,深入研究网络的算法和性能,如神经计算、进化计算、稳定性、收敛性、计算复杂性、容错性、鲁棒性等,开发新的网络数理理论。由于神经网络的非线性,因此非线性问题的研究是神经网络理论发展的一个*大动力。特别是人们发现,脑中存在着混沌现象以来,用混沌动力学启发神经网络的研究或用神经网络产生混沌成为摆在人们面前的一个新课题,因为从生理本质角度出发是研究神经网络的根本手段。

  (2)神经网络软件模拟, 硬件实现的研究以及神经网络在各个科学技术领域应用的研究。

  由于人工神经网络可以用传统计算机模拟,也可以用集成电路芯片组成神经计算机,甚至还可以用光学的、生物芯片的方式实现,因此研制纯软件模拟,虚拟模拟和全硬件实现的电子神经网络计算机潜力巨大。如何使神经网络计算机与传统的计算机和人工智能技术相结合也是前沿课题;如何使神经网络计算机的功能向智能化发展,研制与人脑功能相似的智能计算机,如光学神经计算机,分子神经计算机,将具有十分诱人的前景。

  认识与脑的问题,长期以来一直受到人们的关注,因为它不仅是有关人的心理、意识的心理学问题,也是有关人的思维活动机制的脑科学与思维科学问题,而且直接关系到对物质与意识的哲学基本问题的回答。人工神经网络的发展使我们能够更进一步地既唯物又辩证地理解认识与脑的关系,打开认识论的新领域。人脑是一个复杂的并行系统,它具有“认知、意识、情感”等高级脑功能,用人工进行模拟,有利于加深对思维及智能的认识,已对认知和智力的本质的研究产生了极大的推动作用。在研究大脑的整体功能和复杂性方面,人工神经网络给人们带来了新的启迪。由于人脑中存在混沌现象,混沌可用来理解脑中某些不规则的活动,从而混沌动力学模型能用作人对外部世界建模的工具,可用来描述人脑的信息处理过程。混沌和智能是有关的,神经网络中引入混沌学思想有助于提示人类形象思维等方面的奥秘。人工神经网络之所以再度兴起,关键在于它反映了事物的非线性,抓住了客观世界的本质,而且它在一定程度上正面回答了智能系统如何从环境中自主学习这一*关键的问题,从认知的角度讲,所谓学习,就是对未知现象或规律的发现和归纳。由于神经网络具有高度的并行性,高度的非线性全局作用,良好的容错性与联想记忆功能以及十分强的自适应、自学习功能,而使得它成为揭示智能和了解人脑工作方式的合理途径。但是,由于认知问题的复杂性,目前,我们对于脑神经网的运行和神经细胞的内部处理机制,如信息在人脑是如何传输、存贮、加工的?记忆、联想、判断是如何形成的?大脑是否存在一个操作系统?还没有太多的认识,因此要制造人工神经网络来模仿人脑各方面的功能,还有待于人们对大脑信息处理机理认识的深化。

  随着人们社会实践范围的不断扩大,社会实践层次的不断深入,人们所接触到的自然现象也越来越丰富多彩、纷繁复杂,这就促使人们用不同的原因加以解释不同种类的自然现象,当不同种类的自然现象可以用同样的原因加以解释,这样就出现了不同学科的相互交叉、综合,人工神经网络就这样产生了。在开始阶段,由于这些理论化的网络模型比较简单,还存在许多问题,而且这些模型几乎没有得到实践的检验,因而神经网络的发展比较缓慢。随着理论研究的深入,问题逐渐地解决特别是工程上得到实现以后,如声纳识别成功,才迎来了神经网络的**个发展高潮。可Minisky认为感知器不能解决异或问题, 多层感知器也不过如此,神经网络的研究进入了低谷,这主要是因为非线性问题没得到解决。随着理论的不断丰富,实践的不断深入, 现在已证明Minisky的悲观论调是错误的。今天,高度发达的科学技术逐渐揭示了非线性问题是客观世界的本质。问题、理论、实践的相互作用又迎来了人工神经网络的第二次高潮。目前人工神经网络的问题是智能水平不高,还有其它理论和实现方面的问题,这就迫使人们不断地进行理论研究,不断实践,促使神经网络不断向前发展。总之,先前的原因遇到了解释不同的新现象,促使人们提出更加普遍和精确的原因来解释。理论是基础,实践是动力,但单纯的理论和实践的作用还不能推动人工神经网络的发展,还必须有问题提出,才能吸引科学家进入研究的特定范围,引导科学家从事相关研究,从而逼近科学发现,而后实践又提出新问题,新问题又引发新的思考,促使科学家不断思考,不断完善理论。人工神经网络的发展无不体现着问题、理论和实践的辩证统一关系。

  (3 )人工神经网络发展的另一推动力来源于相关学科的贡献及不同学科专家的竞争与协同。

  人工神经网络本身就是一门边缘学科,它的发展有更广阔的科学背景,亦即是众多科研成果的综合产物,控制论创始人Wiener在其巨著《控制论》中就进行了人脑神经元的研究;计算机科学家Turing就提出过B网络的设想;Prigogine提出非平衡系统的自组织理论,获得诺贝尔奖;Haken研究大量元件联合行动而产生宏观效果, 非线性系统“混沌”态的提出及其研究等,都是研究如何通过元件间的相互作用建立复杂系统,类似于生物系统的自组织行为。脑科学与神经科学的进展迅速反映到人工神经网络的研究中,例如生物神经网络理论,视觉中发现的侧抑制原理,感受野概念等,为神经网络的发展起了重要的推动作用。从已提出的上百种人工神经网络模型中,涉及学科之多,令人目不暇接,其应用领域之广,令人叹为观止。不同学科专家为了在这一领域取得领先水平,存在着不同程度的竞争,所有这些有力地推动了人工神经网络的发展。人脑是一个功能十分强大、结构异常复杂的信息系统,随着信息论、控制论、生命科学,计算机科学的发展,人们越来越惊异于大脑的奇妙,至少到目前为止,人类大脑信号处理机制对人类自身来说,仍是一个黑盒子,要揭示人脑的奥秘需要神经学家、心理学家、计算机科学家、微电子学家、数学家等专家的共同努力,对人类智能行为不断深入研究,为人工神经网络发展提供丰富的理论源泉。另外,还要有哲学家的参与,通过哲学思想和自然科学多种学科的深层结合,逐步孕育出探索人类思维本质和规律的新方法,使思维科学从朦胧走向理性。而且,不同领域专家的竞争与协调同有利于问题清晰化和寻求*好的解决途径。纵观神经网络的发展历史,没有相关学科的贡献,不同学科专家的竞争与协同,神经网络就不会有今天。当然,人工神经网络在各个学科领域应用的研究反过来又推动其它学科的发展,推动自身的完善和发展。

  人工神经网络(Artificial Neural Network,ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。该模型以并行分布的处理能力、高容错性、智能化和自学习等能力为特征,将信息的加工和存储结合在一起,以其独特的知识表示方式和智能化的自适应学习能力,引起各学科领域的关注。它实际上是一个有大量简单元件相互连接而成的复杂网络,具有高度的非线性,能够进行复杂的逻辑操作和非线性关系实现的系统。

  神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激活函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),神经网络就是通过这种方式来模拟人类的记忆。网络的输出则取决于网络的结构、网络的连接方式、权重和激活函数。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。神经网络的构筑理念是受到生物的神经网络运作启发而产生的。人工神经网络则是把对生物神经网络的认识与数学统计模型相结合,借助数学统计工具来实现。另一方面在人工智能学的人工感知领域,我们通过数学统计学的方法,使神经网络能够具备类似于人的决定能力和简单的判断能力,这种方法是对传统逻辑学演算的进一步延伸。

  人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。神经元间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中。人工神经网络是一种非程序化、适应性、大脑风格的信息处理,其本质是通过网络的变换和动力学行为得到一种并行分布式的信息处理功能,并在不同程度和层次上模仿人脑神经系统的信息处理功能。

  神经网络,是一种应用类似于大脑神经突触连接结构进行信息处理的数学模型,它是在人类对自身大脑组织结合和思维机制的认识理解基础之上模拟出来的,它是根植于神经科学、数学、思维科学、人工智能、统计学、物理学、计算机科学以及工程科学的一门技术。

  (1)、M-P神经网络模型:20世纪40年代,人们就开始了对神经网络的研究。1943 年,美国心理学家麦克洛奇(Mcculloch)和数学家皮兹(Pitts)提出了M-P模型,此模型比较简单,但是意义重大。在模型中,通过把神经元看作个功能逻辑器件来实现算法,从此开创了神经网络模型的理论研究。

  (2)、Hebb规则:1949 年,心理学家赫布(Hebb)出版了《The Organization of Behavior》(行为组织学),他在书中提出了突触连接强度可变的假设。这个假设认为学习过程*终发生在神经元之间的突触部位,突触的连接强度随之突触前后神经元的活动而变化。这一假设发展成为后来神经网络中非常著名的Hebb规则。这一法则告诉人们,神经元之间突触的联系强度是可变的,这种可变性是学习和记忆的基础。Hebb法则为构造有学习功能的神经网络模型奠定了基础。

  (3)、感知器模型:1957 年,罗森勃拉特(Rosenblatt)以M-P 模型为基础,提出了感知器(Perceptron)模型。感知器模型具有现代神经网络的基本原则,并且它的结构非常符合神经生理学。这是一个具有连续可调权值矢量的MP神经网络模型,经过训练可以达到对一定的输入矢量模式进行分类和识别的目的,它虽然比较简单,却是**个真正意义上的神经网络。Rosenblatt 证明了两层感知器能够对输入进行分类,他还提出了带隐层处理元件的三层感知器这一重要的研究方向。Rosenblatt 的神经网络模型包含了一些现代神经计算机的基本原理,从而形成神经网络方法和技术的重大突破。

  (4)、ADALINE网络模型: 1959年,美国著名工程师威德罗(B.Widrow)和霍夫(M.Hoff)等人提出了自适应线性元件(Adaptive linear element,简称Adaline)和Widrow-Hoff学习规则(又称*小均方差算法或称δ规则)的神经网络训练方法,并将其应用于实际工程,成为**个用于解决实际问题的人工神经网络,促进了神经网络的研究应用和发展。ADALINE网络模型是一种连续取值的自适应线性神经元网络模型,可以用于自适应系统。

  人工智能的创始人之一Minsky和Papert对以感知器为代表的网络系统的功能及局限性从数学上做了深入研究,于1969年发表了轰动一时《Perceptrons》一书,指出简单的线性感知器的功能是有限的,它无法解决线性不可分的两类样本的分类问题,如简单的线性感知器不可能实现“异或”的逻辑关系等。这一论断给当时人工神经元网络的研究带来沉重的打击。开始了神经网络发展史上长达10年的低潮期。

  (1)、自组织神经网络SOM模型:1972年,芬兰的KohonenT.教授,提出了自组织神经网络SOM(Self-Organizing feature map)。后来的神经网络主要是根据KohonenT.的工作来实现的。SOM网络是一类无导师学习网络,主要用于模式识别﹑语音识别及分类问题。它采用一种“胜者为王”的竞争学习算法,与先前提出的感知器有很大的不同,同时它的学习训练方式是无指导训练,是一种自组织网络。这种学习训练方式往往是在不知道有哪些分类类型存在时,用作提取分类信息的一种训练。

  (1)、Hopfield模型:1982年,美国物理学家霍普菲尔德(Hopfield)提出了一种离散神经网络,即离散Hopfield网络,从而有力地推动了神经网络的研究。在网络中,它首次将李雅普诺夫(Lyapunov)函数引入其中,后来的研究学者也将Lyapunov函数称为能量函数。证明了网络的稳定性。1984年,Hopfield 又提出了一种连续神经网络,将网络中神经元的激活函数由离散型改为连续型。1985 年,Hopfield和Tank利用Hopfield神经网络解决了著名的旅行推销商问题(Travelling Salesman Problem)。Hopfield神经网络是一组非线性微分方程。Hopfield的模型不仅对人工神经网络信息存储和提取功能进行了非线性数学概括,提出了动力方程和学习方程,还对网络算法提供了重要公式和参数,使人工神经网络的构造和学习有了理论指导,在Hopfield模型的影响下,大量学者又激发起研究神经网络的热情,积极投身于这一学术领域中。因为Hopfield 神经网络在众多方面具有巨大潜力,所以人们对神经网络的研究十分地重视,更多的人开始了研究神经网络,极大地推动了神经网络的发展。

  (2)、Boltzmann机模型:1983年,Kirkpatrick等人认识到模拟退火算法可用于NP完全组合优化问题的求解,这种模拟高温物体退火过程来找寻全局*优解的方法*早由Metropli等人1953年提出的。1984年,Hinton与年轻学者Sejnowski等合作提出了大规模并行网络学习机,并明确提出隐单元的概念,这种学习机后来被称为Boltzmann机。

  Hinton和Sejnowsky利用统计物理学的感念和方法,首次提出的多层网络的学习算法,称为Boltzmann 机模型。

  (3)、BP神经网络模型:1986年,儒默哈特(D.E.Ru melhart)等人在多层神经网络模型的基础上,提出了多层神经网络权值修正的反向传播学习算法----BP算法(Error Back-Propagation),解决了多层前向神经网络的学习问题,证明了多层神经网络具有很强的学习能力,它可以完成许多学习任务,解决许多实际问题。

  (4)、并行分布处理理论:1986年,由Rumelhart和McCkekkand主编的《Parallel Distributed Processing:Exploration in the Microstructures of Cognition》,该书中,他们建立了并行分布处理理论,主要致力于认知的微观研究,同时对具有非线性连续转移函数的多层前馈网络的误差反向传播算法即BP算法进行了详尽的分析,解决了长期以来没有权值调整有效算法的难题。可以求解感知机所不能解决的问题,回答了《Perceptrons》一书中关于神经网络局限性的问题,从实践上证实了人工神经网络有很强的运算能力。

  (5)、细胞神经网络模型:1988年,Chua和Yang提出了细胞神经网络(CNN)模型,它是一个细胞自动机特性的大规模非线性计算机仿真系统。Kosko建立了双向联想存储模型(BAM),它具有非监督学习能力。

  (6)、Darwinism模型:Edelman提出的Darwinism模型在90年代初产生了很大的影响,他建立了一种神经网络系统理论。

  (7)、1988年,Linsker对感知机网络提出了新的自组织理论,并在Shanon信息论的基础上形成了*大互信息理论,从而点燃了基于NN的信息应用理论的光芒。

  (9)、1991年,Haken把协同引入神经网络,在他的理论框架中,他认为,认知过程是自发的,并断言模式识别过程即是模式形成过程。

  (10)、1994年,廖晓昕关于细胞神经网络的数学理论与基础的提出,带来了这个领域新的进展。通过拓广神经网络的激活函数类,给出了更一般的时滞细胞神经网络(DCNN)、Hopfield神经网络(HNN)、双向联想记忆网络(BAM)模型。

  20世纪50年代以后,西蒙的研究方向发生了重大转移,逐渐转向了认知心理学和人工智能领域。西蒙认为,社会科学缺乏像自然科学一样的科学性,社会科学需要借鉴自然科学严格和精确的研究方法,才能成为真正意义上的科学。同时,在西蒙看来,经济学、管理学、心理学等学科所研究的课题,实际上都是“人的决策过程和问题求解过程”。要想真正理解组织内的决策过程,就必须对人及其思维过程有更深刻的了解。因此,借助于计算机技术的发展,西蒙与同事纽厄尔等人一起开始尝试用计算机来模拟人的行为,从而创建了认知心理学和人工智能研究新领域。西蒙认为,人的思维过程和计算机运行过程存在着一致性,都是对符号的系列加工,因此,可以用计算机来模拟人脑的工作。他甚至大胆地预言,人脑能做的事,计算机同样也可以完成。“初级知觉和记忆程序(EPAM)”和“通用问题求解系统(GPS)”等人工智能软件的问世,部分证实了西蒙的预言。

  当时人工智能的主要学派有下列三家:①符号主义(Symbolicism),又称为逻辑主义(Logicism)、心理学派(Psychlogism)或计算机学派(Computerism),其原理主要为物理符号系统假设和有限理性原理。这一学派认为人工智能源于数理逻辑。在人工智能的其他学派出现之后,符号主义仍然是人工智能的主流学派。这个学派的代表有纽厄尔、肖、西蒙和尼尔逊(Nilsson)等。②联结主义(Connectionism),又称为仿生学派(Bionicsism)或生理学派(Physiologism),其原理主要为神经网络及神经网络间的连接机制与学习算法。这一学派认为人工智能源于仿生学,特别是人脑模型的研究。从模型到算法,从理论分析到工程实现,为神经网络计算机走向市场打下了坚实的基础。③行为主义(Actionism),又称进化主义(Evolutionism)或控制论学派(Cyberneticsism),其原理为控制论及感知-动作型控制系统。他们对人工智能发展历史具有不同的看法,这一学派认为人工智能源于控制论。

  西蒙在人工智能中做出的*基本贡献,是他提出了“物理符号系统假说”PSSH(Physical Symbol System Hypothesis)。在这一意义上,他是符号主义学派的创始人和代表人物之一。他的基本观点是:知识的基本元素是符号,智能的基础依赖于知识,研究方法则是用计算机软件和心理学方法进行宏观上的人脑功能的模拟。符号主义的主要依据是两个基本原理:①物理符号系统假设原理。②由西蒙提出的有限合理性原理。这一学说鼓励着人们对人工智能进行全面的探索。西蒙认为,任何一个物理符号系统如果是有智能的,则肯定能执行对符号的输入、输出、存储、复制、条件转移和建立符号结构这样六种操作。反之,能执行这六种操作的任何系统,也就一定能够表现出智能。根据这个假设,我们可以推出以下结论:人是具有智能的,因此人是一个物理符号系统;计算机是一个物理符号系统,因此它必具有智能;计算机能模拟人,或者说能模拟人的大脑功能。

  1956年,西蒙、纽厄尔和另一位著名学者约翰·肖(John Cliff Shaw)一起,成功开发了世界上*早的启发式程序“逻辑理论家”LT(1ogic Theorist) ,从而使机器迈出了逻辑推理的**步。在卡内基-梅隆大学的计算机实验室,西蒙和纽厄尔从分析人类解答数学题的技巧入手,让一些人对各种数学题作周密的思考,要求他们不仅写出求解的答案,而且要说出自己推理的方法和步骤。通过对实例的大量观察,西蒙和纽厄尔广泛收集了人类求解一般性问题的各种方案。他们发现,人们求解数学题时,通常采用试凑的办法。试凑时并不一定列出所有的可能性,而是用逻辑推理来迅速缩小搜索的范围。人类证明数学定理也有类似的思维规律,通过把一个复杂问题分解成几个简单的子问题,以及利用已知常量代入未知变量等方法,用已知的公理、定理或解题规则进行试探性推理,直到所有的子问题*终都变成已知的,然后根据记忆中的公理和已被证明的定理,运用代入法、替换法来解决子问题,*终解决整个问题。人类求证数学定理同样也是一种启发式搜索,与电脑下棋的原理有异曲同工之妙。在这一基础上,他们利用“逻辑理论家”程序向数学定理发起挑战,建立了机器证明数学定理的启发式搜索法,并用计算机证明了罗素、怀特海的数学名著《数学原理》一书第二章52个定理中的38个定理(1963年,经过改进的“逻辑理论家”程序在一部更大的电脑上,*终完成了第二章全部52条数学定理的证明)。

  基于这一成功,西蒙和纽厄尔把“逻辑理论家”程序扩充到了人类求解一般问题的过程,设想用机器模拟具有普遍意义的人类思维活动。“逻辑理论家”受到了人们的高度评价,认为它是用计算机探讨人类智力活动的**个真正意义上的成果,也是图灵关于机器可以具有智能这一论断的**个实际的证明。在开发“逻辑理论家”程序的过程中,西蒙首次提出并成功应用了“链表”(list)作为基本的数据结构,并设计与实现了表处理语言IPL (Information Processing Language)。在人工智能的历史上,IPL是所有表处理语言的始祖,也是*早使用递归子程序的语言。其基本元素是符号,并首次引进表处理方法。IPL*基本的数据结构是表结构,可用以代替存储地址或有规则的数组,这有助于将程序员从繁琐的细节中释放出来而在更高的水平上思考问题。IPL的另一特点是引进了生成器,每次产生一个值,然后挂起,等待被调用,在调用时从被挂起的地方开始。早期的很多人工智能程序都是用表处理语言编制而成的。表处理语言本身也因此经历了一个发展与完善的过程,其*后一个版本IPLⅤ可以处理树形结构的表。

  1956年夏天,数十名来自数学、心理学、神经学、计算机科学与电气工程等各领域的学者聚集在位于美国新罕布什尔州汉诺威市的达特茅斯学院,讨论如何用计算机模拟人的行为,并根据麦卡锡(J.McCarthy,1971年图灵奖获得者)的建议,正式把这一学科领域命名为“人工智能”(Artificial Intelligence)。会议的召开标志着人工智能这一学科正式诞生。赫伯特·西蒙指出,人工智能的研究是学会怎样编制计算机程序来完成人类机智的行为。西蒙带到会议上去的“逻辑理论家”是当时惟一可以工作的人工智能软件,引起了与会代表的极大兴趣与关注。因此,西蒙、纽厄尔,以及达特茅斯会议的发起人麦卡锡和明斯基(M.L.Minsky,1969年图灵奖获得者),被公认为是人工智能的奠基人。他们四人于1960年组成了**个人工智能研究小组,有力地推动了人工智能的发展。

  1960年,西蒙夫妇做了一个有趣的心理学实验,这个实验表明人类解决问题的过程是一个搜索的过程,其效率取决于启发式函数(heuristic function)。在这个实验的基础上,西蒙、纽厄尔和肖又一次成功地合作开发了能解答11种类型不同问题的“通用问题求解系统”GPS(General Problem Solver)。这一求解系统的基本原理,是找出目标要求与当前态势之间的差异,选择有利于消除差异的操作,以逐步缩小差异并*终达到目标。西蒙曾多次强调指出,科学发现只是一种特殊类型的问题求解,因此也可以用计算机程序来实现。1976~1983年间,西蒙和兰利(Pat W.Langley)、布拉茨霍夫(Gary L.Bradshaw)合作,设计了有六个版本的BACON系统发现程序,重新发现了一系列著名的物理、化学定律,证明了西蒙的上述论点。从而开拓出人工智能中“问题求解”的一大领域。

  西蒙转向计算机技术后,就一直研究计算机下棋问题。1966年,西蒙、纽厄尔和贝洛尔(Baylor)合作,开发了*早的下棋程序MATER。1997年,IBM的“深蓝”(Deep Blue)计算机打败了白俄罗斯的国际特级大师卡斯帕罗夫以后,81岁的西蒙还和俄亥俄州立大学的人工智能专家T.Munakata一起,在《ACM通信》杂志的8月号上发表了《人工智能给我们的教训》(AI Lessons)一文,对此事进行了评论,指出一个运行于计算机上的国际象棋程序拥有2600分等级分,相当于白俄罗斯国际象棋世界冠军卡斯帕罗夫的级别水平。

  西蒙在人工智能方面的另一大贡献,是发展与完善了语义网络的概念和方法,把它作为知识表示(knowledge representation)的一种通用手段,并取得了很大成功。在知识表示方法中,语义网络(semantic network)是—种重要而有效的方法。这种表示法是奎林(M.R.Quillian)在20世纪60年代后期提出来的,作为人类联想记忆的一个显示心理学模型。奎林在开发TLC系统(Teachable Language Comprehender)中用它来描述英语的词义,模拟人类的联想记忆。但用语义网络作为一般的知识表示方法,则是西蒙在1970年研究自然语言理解的过程中把它的各种概念基本明确下来的。20世纪70年代中期,西蒙和CAD专家依斯特曼(C.M.Eastman) 合作,研究住宅的自动空间综合,不仅开了“智能大厦”(intelligent building)的先河,还成为智能CAD即ICAD研究的开端。

  起源于20世纪60年代末70年代初,当前受到极大重视的决策支持系统DSS(Decision Support System),其概念的核心是关于决策模式的理论,而这个理论也是由西蒙奠定基础的。在不确定条件下的决策模型除了贝叶斯模型外,另一个比较重要的理论模型是采用Von Neumann-Morgenstern效用函数的期望值*大模型。西蒙在《人的模型》一书中形成了电子计算机能模拟人的思维的思想,开始了人工智能的系列研究。针对效用函数的期望值*大模型,西蒙提出了有限合理性模型。有限合理性模型的基本思想是:首先,所有的决策者涉及到的是一个有限的范围;其次,我们不能对将来给出一个概率值,但*好有一个关于将来事件的大致概念;第三,如果后者不以前者为转移的话,我们在一个领域中的愿望可能与在另一个领域中的愿望完全不同;*后,我们更注重搜集信息而不是分析需求,在收集信息后,*通常的抉择是基于直觉。基于西蒙关于决策模式的理论,凯恩(P. G. Keen)提出了一种设计方法,称为“自适应法”(self-adaptive method),把决策支持系统当成一种自适应系统,由DSS应用系统、DSS生成系统和DSS工具三个技术层次组成,由决策者运行,且能适应时间的变化。西蒙曾称赞这样的系统“能适应三个时间范围内的各种变化,即在短期运行中,系统能在一个相对狭窄的范围内寻求答案;在中期运行中,系统能通过修改其功能和活动而学会适应;在长期运行中,系统能发展到适应差别极大的行为风格和功能”。这些研究,使计算机技术与管理决策紧密连接起来。

  阿兰·麦席森·图灵(Alan Mathison Turing,1912.6.23—1954.6.7),英国数学家、逻辑学家,被称为人工智能之父。 1931年图灵进入剑桥大学国王学院,毕业后到美国普林斯顿大学攻读博士学位,二战爆发后回到剑桥,后曾协助军方破解德国的著名密码系统Enigma,帮助盟军取得了二战的胜利。

  阿兰·麦席森·图灵,1912年生于英国伦敦,1954年死于英国的曼彻斯特,他是计算机逻辑的奠基者,许多人工智能的重要方法也源自于这位伟大的科学家。他对计算机的重要贡献在于他提出的有限状态自动机也就是图灵机的概念,对于人工智能,它提出了重要的衡量标准“图灵测试”,如果有机器能够通过图灵测试,那他就是一个完全意义上的智能机,和人没有区别了。他杰出的贡献使他成为计算机界的**人,现在人们为了纪念这位伟大的科学家将计算机界的*高奖定名为“图灵奖”。上中学时,他在科学方面的才能就已经显示出来,这种才能仅仅限于非文科的学科上,他的导师希望这位聪明的孩子也能够在历史和文学上有所成就,但是都没有太大的建树。少年图灵感兴趣的是数学等学科。在加拿大他开始了他的职业数学生涯,在大学期间这位学生似乎对前人现成的理论并不感兴趣,什么东西都要自己来一次。大学毕业后,他前往美国普林斯顿大学也正是在那里,他制造出了以后称之为图灵机的东西。图灵机被公认为现代计算机的原型,这台机器可以读入一系列的零和一,这些数字代表了解决某一问题所需要的步骤,按这个步骤走下去,就可以解决某一特定的问题。这种观念在当时是具有革命性意义的,因为即使在50年代的时候,大部分的计算机还只能解决某一特定问题,不是通用的,而图灵机从理论上却是通用机。在图灵看来,这台机器只用保留一些*简单的指令,一个复杂的工作只用把它分解为这几个*简单的操作就可以实现了,在当时他能够具有这样的思想确实是很了不起的。他相信有一个算法可以解决大部分问题,而困难的部分则是如何确定*简单的指令集,怎么样的指令集才是*少的,而且又能顶用,还有一个难点是如何将复杂问题分解为这些指令的问题。

  1936年,图灵向伦敦权威的数学杂志投了一篇论文,题为“论数字计算在决断难题中的应用”。在这篇开创性的论文中,图灵给“可计算性”下了一个严格的数学定义,并提出著名的“图灵机”(Turing Machine)的设想。“图灵机”不是一种具体的机器,而是一种思想模型,可制造一种十分简单但运算能力极强的计算装置,用来计算所有能想象得到的可计算函数。“图灵机”与“冯·诺伊曼机”齐名,被永远载入计算机的发展史中。1950年10月,图灵又发表了另一篇题为“机器能思考吗”的论文,成为划时代之作。也正是这篇文章,为图灵赢得了“人工智能之父”的桂冠。

  英国现代计算机的起步是从德国的密码电报机——Enigma(谜)开始的,而解开这个谜的不是别人,正是阿兰·图灵,一个在计算机界响当当的人物,可与美国的冯·诺依曼相媲美的电脑天才。在他短暂的生涯中,图灵在量子力学、数理逻辑、生物学、化学方面都有深入的研究,在晚年还开创了一门新学科—— 非线性力学。

  图灵英年早逝。在他42年的人生历程中,他的创造力是丰富多彩的,他是天才的数学家和计算机理论专家。24岁提出图灵机理论,31岁参与COLOSSUS的研制,33岁设想仿线岁提出自动程序设计概念,38岁设计“图灵测验”。这一朵朵灵感浪花无不闪耀着他在计算机发展史上的预见性。特别是在60年代后当然,图灵*高的成就还是在电脑和人工智能方面,他是这一领域开天辟地的大师。为表彰他的贡献,专门设有一个一年一度的“图灵奖”,颁发给*优秀的电脑科学家。这枚奖章就像“诺贝尔奖”一样,为计算机界的获奖者带来至高无上的荣誉。而阿兰·图灵本人,更被人们推崇为人工智能之父,在计算机业十倍速变化的历史画卷中永远占有一席之地。他的惊世才华和盛年夭折,也给他的个人生活涂上了谜一样的传奇色彩。

  图灵1912年6月23日出生于英国伦敦。其祖父曾获得剑桥大学数学荣誉学位,但他父亲的数学才能平平。因此,图灵的家庭教育,对他以后在数学及计算机方面的成就并没有多少帮助。小时候的图灵生性活泼好动,很早就表现出对科学的探索精神。据他母亲回忆,3岁时,小图灵就进行了他的首次实验,尝试把一个玩具木头人的小胳膊、小腿掰下来栽到花园里,等待长出更多的木头人。到了8岁,他更开始尝试写一部科学著作,题目为《关于一种显微镜》。在这部很短的书中,天才儿童图灵拼错了很多单词,句法也有些问题,但写得还能让人看懂,很像那么一回事儿。在书的开头和结尾,他都用同一句话“首先你必须知道光是直的”作前后呼应, 但中间的内容却很短,短得破了科学著作的记录。图灵曾说 :“我似乎总想从*普通的东西中弄出些名堂。”就连和小朋友们玩足球,他也能放弃当前锋进球这样出风头的事,只喜欢在场外巡边,因为这样能有机会去计算球飞出边界的角度。他的老师认为 :“图灵的头脑思维可以像袋鼠一样进行跳跃。”图灵是个天才。他16岁就开始研究爱因斯坦的相对论。1931年,图灵考入剑桥大学国王学院,开始他的数学生涯,研究量子力学、概率论和逻辑学。在校期间,图灵还是现代语言哲学大师维特根斯坦班上*出色的学生。他对由剑桥大学的罗素和怀特海创立的数理逻辑很感兴趣。数理逻辑的创建,主要源于古希腊克里特岛上有个叫爱皮梅尼特的“智者”,他说 :“所有的克里特岛人都说谎”。我们可以把它简化为:“我说的这句话是假话”。这就出现一种两面都无法自圆的怪圈:如果他没有说谎,那他这句话是错的,他是在说谎;如果他真的在说谎,那他说自己在说谎是对的,所以他又没有说谎。罗素和怀特海把它从逻辑、集合论以及数论中驱逐出去,*后又想尽办法归入《数学原理》之中。

  图灵一上大学,就迷上了《数学原理》。在1931年,著名的“哥德尔定理”出现后(该定理认为没有一种公理系统可以导出数论中所有的真实命题,除非这种系统本身就有悖论),天才的图灵在数理逻辑大本营的剑桥大学提出一个设想:能否有这样一台机器,通过某种一般的机械步骤,能在原则上一个接一个地解决所有的数学问题。大学毕业后,图灵去美国普林斯顿大学攻读博士学位,还顺手发明过一个解码器。在那里,他遇见了冯·诺依曼,后者对他的论文击节赞赏,并随后由此提出了“存储程序”概念。图灵学成后又回到他的母校任教。在短短的时间里,图灵就发表了几篇很有份量的数学论文,为他赢得了很大的声誉。

  在剑桥,图灵可称得上是一个怪才,一举一动常常出人意料。他是个单身汉和长跑运动员。在他的同事和学生中间,这位衣着随便、不打领带的著名教授,不善言辞,有些木讷、害羞,常咬指甲,但他更多地以自己杰出的才智赢得了人们的敬意。图灵每天骑自行车上班,因为患过敏性鼻炎,一遇到花粉,就会鼻涕不止,大打喷嚏。于是,他就常常在上班途中戴防毒面具,招摇过市,这早已成为剑桥的一大奇观。图灵的自行车经常半路掉链子,但他就是不肯去车铺修理。每次骑车时,他总是嘴里念念有词,在心里细细计算,这链条也怪,总是转到一定的圈数就滑落了,而图灵竟然能够做到在链条下滑前一刹那停车,让旁观者佩服不已,以为图灵在玩杂技。后来图灵又居然在脚踏车旁装了一个小巧的机械记数器,到圈数时就停,歇口气换换脑子,再重新运动起来。

  1936年,图灵向伦敦权威的数学杂志投了一篇论文,题为《论数字计算在决断难题中的应用》。在这篇开创性的论文中,图灵给“可计算性”下了一个严格的数学定义,并提出著名的“图灵机”(Turing Machine)的设想。“图灵机”不是一种具体的机器,而是一种思想模型,可制造一种十分简单但运算能力极强的计算机装置,用来计算所有能想像得到的可计算函数。装置由一个控制器和一根假设两端无界的工作带(起存储器的作用)组成。工作带被划分为大小相同的方格,每一格上可书写一个给定字母表上的符号。控制器可以在带上左右移动,它带有一个读写出一个你期待的结果。外行人看了会坠入云里雾里,而内行人则称它是“阐明现代电脑原理的开山之作”,并冠以“理想计算机”的名称。这篇论文在纸上谈了一把兵,创造出一个“图灵机”来。但现代通用电脑确实是用相应的程序来完成任何设定好的任务。这一理论奠定了整个现代计算机的理论基础。“图灵机”更在电脑史上与“冯·诺依曼机”齐名,被永远载入计算机的发展史中。

  图灵机理论不仅解决了纯数学基础理论问题,一个巨大的“意外”收获则是,理论上证明了研制通用数字计算机的可行性。虽然早在100年前的1834年,巴贝奇(Chark Babbage,1792~1871)就设计制造了“分析机”以说明具体的数字计算,但他的失败之处是没能证明“必然可行”。图灵机理论不仅证明了研制“通用机”的可行性,而且比世界上**台由德国人朱斯(K·Zuze)于1941年制造的通用程序控制计算机Z-3整整早5年。这不得不使人惊叹这一理论的深刻意义。

  正当图灵的理论研究工作进一步深入时,战争爆发了。他被派往布雷契莱庄园承担“超级机密”研究。当时的布雷契莱庄园是一所“政府密码学校”,即战时的英国情报破译中心。在这座幽静的维多利亚式建筑里,表面上鸟语花香、人迹罕见,其实每天都有12000多名志愿者在这里夜以继日地工作,截获、整理、破译德国的军事情报,有些结果甚至直达丘吉尔首相本人手中。在这里,图灵被人们称为“教授”,没有人知道他的真名。当时德国有一个名为“Enigma”(谜)的通信密码机,破译高手们绞尽脑汁也难以破解。这个难题交到了图灵手中,他率领着大约200多名精干人员进行密码分析,其中甚至还包括象棋冠军亚历山大。分析和计算工作非常复杂,26个字母在“Enigma”机中能替代8万亿个谜文字母。如果改动接线千万亿亿。*后多亏波兰同行们提供了一台真正的“Enigma”,图灵才凭借着他的天才设想设计出一种破译机。这台机器主要由继电器构成,还用了80个电子管,由光电阅读器直接读入密码,每秒可读字符2000个,运行起来咔嚓咔嚓直响。它被图灵戏称为“罗宾逊”,至今没人能搞懂图灵究竟如何指挥它工作。但罗宾逊的确神通广大,在它的密报下,德国飞机一再落入圈套,死无葬身之地。

  1945年,图灵带着大英帝国授予的荣誉勋章,来到英国国家物理研究所担任高级研究员。两年后,图灵写了一份内部报告,提出了自动程序的概念,但由于英国政府严密、死板的保密法令,这份报告一直不见天日。1969年,美国的瓦丁格(Woldingger)发表了同样成果,英国才连忙亮出压在箱底的宝贝,终于在1970年给图灵的报告“解密”。图灵的这份报告后来收入爱丁堡大学编的《机器智能》论文集中。由于有了布雷契莱的经验,图灵提交了一份“自动计算机”的设计方案,领导一批优秀的电子工程师,着手制造一种名叫ACE的新型电脑。它大约用了800 个电子管,成本约为4万英镑。1950年,ACE电脑就横空出世,开始公开露面,为感兴趣的人们玩一些“小把戏”,赢得阵阵喝彩。图灵在介绍ACE的内存装置时说:“它可以很容易把一本书的10页内容记住。”显然,ACE是当时世界上*快、*强劲的电子计算机之一。

  1946年,在纽曼博士的动议下,皇家学会成立电脑实验室。纽曼博士是皇家学会会员,又是当年破译小组的成员,正是他对“赫斯·鲁宾逊”的制造起了关键作用。皇家学会的这一新实验室不在伦敦,而是设在曼彻斯特大学,由纽曼博士牵头负责。1946年7月,研制基金到位,纽曼博士开始招募人选。阿兰·图灵也在次年9月加盟电脑实验室。一时间,曼彻斯特大学群英会萃。实验室设在一幢维多利亚时代的老房子里,条件十分简陋,但因图灵他们的到来,也算是蓬荜生辉了。在1948年6月,这里造出了一台小的模型机,大家都爱叫它“婴儿”(Baby)。这台模型机用阴极射线管来解决存储问题,能存储32个字,每一字有32位字长。这是**台能完全执行存储程序的电子计算机的模型。

  到了1949年10月,各项改进工作都已展开,夹在两层存储器之间的自动控制系统已正常运转,并能在程序的控制下,实现磁鼓和阴极射线管存储单元间信息交互。图灵设计出一些协同电路来做输入和输出的外设。有关电动打字设备也是图灵通过老关系从他战时供职的外交部通信部门弄过来的,其中甚至包括一个战后从德国人那里收缴来的穿孔纸带键盘。这样,整个模型机已大功告成。在整个试验阶段,大家忙上忙下。1949年底,模型机交付给曼彻斯特当地的一家叫弗兰尼蒂(Ferranti)的电子公司,开始正式建造。1951年2月完工,通称“迈可1型”。它有4000个电子管,72000个电阻器,2500个电容器,能在0.1秒内开平方根、求对数和三角函数的运算。比起先前的模型机,“迈可1型”功能更为齐全,静电存储器的内存容量已翻倍,能存256个40位字长字,分别存在8个阴极射线管中,而磁鼓的容量能扩容到16384个字,真是一项了不起的工程。

  与冯·诺依曼同时代的富兰克尔(Frankel,冯氏同事)在回忆中说:冯·诺依曼没有说过存储程序型计算机的概念是他的发明,却不止一次地说过,图灵是现代计算机设计思想的创始人。当有人将电子计算机之父的头衔戴在冯·诺依曼头上时,他谦逊地说,真正的计算机之父应该是图灵。当然,冯·诺依曼问之无愧,而图灵也有“人工智能之父”的桂冠。他俩是计算机历史浩瀚星空中相互映照的两颗巨星。

  早在1945年,图灵就提出“仿真系统”的思想,并有一份详细的报告,想建造一台没有固定指令系统的电脑。它能够模拟其他不同指令系统的电脑的功能, 但这份报告直到1972年才公布。这说明图灵在二战结束后就开始了后来被称 为“人工智能”领域的探索,他开始关注人的神经网络和电脑计算之间的关联。

  1950年,图灵又来到曼彻斯特大学任教,同时还担任该大学自动计算机项目的负责人。就在这一年的十月,他又发表了另一篇题为《机器能思考吗?》的论文,成为划时代之作。也正是这篇文章,为图灵赢得了一顶桂冠——“人工智能之父”。在这篇论文里,图灵**次提出“机器思维”的概念。他逐条反驳了机器不能思维的论调,做出了肯定的回答。他还对智能问题从行为主义的角度给出了定义,由此提出一假想:即一个人在不接触对方的情况下,通过一种特殊的方式,和对方进行一系列的问答,如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机具有同人相当的智力,即这台计算机是能思维的。这就是著名的“图灵测试”(Turing Testing)。当时全世界只有几台电脑,根本无法通过这一测试。但图灵预言,在本世纪末,一定会有电脑通过“图灵测试”。终于他的预言在IBM的“深蓝”身上得到彻底实现。当然,卡斯帕罗夫和“深蓝”之间不是猜谜式的泛泛而谈,而是你输我赢的彼此较量。

  1951年,图灵以他杰出的贡献被当选为英国皇家学会会员。就在他事业步入辉煌之际,灾难降临了。1952年,图灵遭到警方拘捕,原因是他是一个同性恋者。与其他一些智慧超群的人物一样,图灵在个人生活方式上也“与众不同”。当时,人们对同性恋还没有像现在这样宽容,而是把这种行为当作一桩伤风败俗的罪孽。事情的败露是这样的,当时有一位叫琼·克拉克(Joan Clarke)的姑娘爱上了图灵,图灵也对对方很有好感,并向对方求婚,琼欣然接受。但不久,图灵自己退缩了,告诉琼,他是同性恋者。在1948年,图灵就由于同性恋倾向,离开了当时属于高度保密的英国国家物理实验室(NPL)。但也有人说,图灵是被英国军事情报部门“开除”出去的,对于这位天才的离去,许多人怅惜不已。

  1952年3月31日,图灵更因为和曼彻斯特当地一位青年有染,被警方逮捕。在法庭上,图灵既不否认,也不为自己辨解。在庄严的法庭上,他郑重其事地告诉人们:他的行为没有错,结果被判有罪。在入狱和治疗两者中间,图灵选择了注射激素,来治疗所谓的“性欲倒错”。此后图灵开始研究生物学、化学,还和一位心理医生有很深的交往。那时,他的脾气已变得躁怒不安,性格更为阴沉怪僻。1953年3月,他因为接待过一位被英国警方注意的挪威客人,成为警方的目标,甚至去希腊度假时也被跟踪。

  1954年6月8日,图灵42岁,正逢进入他生命中*辉煌的创造顶峰。一天早晨,女管家走进他的卧室,发现台灯还亮着,床头上还有个苹果,只咬了一小半,图灵沉睡在床上,一切都和往常一样。但这一次,图灵是永远地睡着了,不会再醒来……经过解剖,法医断定是剧毒氰化物致死,那个苹果是在氰化物溶液中浸泡过的。图灵的母亲则说他是在做化学实验时,不小心沾上的,她的艾伦从小就有咬指甲的习惯。但外界的说法是服毒自杀,一代天才就这样走完了人生。

  今天,苹果电脑公司以那个咬了一口的苹果作为其商标图案,就是为纪念这位伟大的人工智能领域的先驱者——图灵。

  1936年-1938年,主要在美国普林斯顿大学做博士研究,涉及逻辑学、代数和数论等领域。

  1938-1939年,返回剑桥从事研究工作,并应邀加入英国政府破译二战德军密码的工作。

  1940年-1942年,作为主要参与者和贡献者之一,在破译纳粹德国通讯密码的工作上成就杰出,并成功破译了德军U-潜艇密码,为扭转二战盟军的大西洋战场战局立下汗马功劳。

  1946年,这个时候,图灵在计算机和程序设计原始理论上的构思和成果,已经确定了他的理论开创者的地位。由于图灵的杰出贡献,年轻的他被英国皇室授予OBE爵士勋衔。

  1947年-1948年,主要从事计算机程序理论的研究,并同时在神经网络和人工智能领域做出开创性的理论研究。

  1948年,应邀加入英国曼彻斯特大学从事研究工作,担任曼彻斯特大学计算实验室副主任。

  1950年,发表论文“计算机器与智能”,为后来的人工智能科学提供了开创性的构思。提出著名的“图灵测试”理论。

  1952年,在当年保守愚昧和冷战的时代,当警察得知图灵与同性朋友密切交往的消息之后,同性恋倾向的图灵被逮捕入狱。在法庭审判过程中,图灵明确告知人们,他认为自己没有做错什么事。在那个观念落后的年代,为了避免被判刑入狱,图灵被迫选择了为期一年的雌性激素注射的所谓“治疗”,才得以重新返回研究工作。

  1953年-1954年,继续在生物和物理学等方面的研究。被迫承受的对同性恋倾向的“治疗”,致使原本热爱体育运动的图灵在身心上受到极大的伤害。

  1954年6月7日,图灵被发现死于家中的床上。死因是氰化物中毒,警方调查结论是自杀。一代英灵,就此过早离去,成为人类科学史上的一大遗憾。

  **届国际认知神经动力学学术会议07年11月在上海举行。认知神经动力学将认知科学与非线性动力学融为一体,属于当前的前沿科学。

  来自全球近30个国家和地区的200余名代表出席了会议,其中包括国际神经动力学创始人之一弗里曼教授、“同步震荡”理论的提出者冯·德·马尔斯伯格教授、国际神经网络联合会主席王德亮教授和中国科学院院士郭爱克等国际**专家,共递交学术论文217篇。在为期4天的专场报告中,与会专家热烈讨论了精神病模型、认知机器、神经信息学、感觉和运动动力学等理论与实践相结合的话题。

  速度传播,但是由于不满足守恒定律,上述概念就为动作电位是信息单元的思想所取代,也就。

  是说,动作电位是二进制数字。这一推论并不正确,因为动作电位序列是某种通过脉冲频率调。

  制进行能量传播的方式。虽然这种新的想法在脑科学中是不对的,却导致产生了神经网络和数。

  字计算机。这些装置已经为信息时代的国际社会提供了技术基础,这说明一种理论要有成果并。

  不一定非要正确不可。目前和细胞神经生物学同样的一股浪潮正在涌人分子神经生物学,分子。

  神经生物学认为DNA分予是由四种核苷酸编码而成的一串信息单位。现在神经物理学家和。

  神经遗传学家正致力于解释触发动作电位的量子机制,以及微观神经元通过释放量子分额的。

  神经递质化合物影响网络中神经元之间通讯的方式。某些大胆的科学家甚至提议把意识解释。

  司夏已经很接近了,来源于曾经的笔名司夏言。而这个笔名是根据真名演化而来,其他的不能说了。总之喊她司夏就足够了。

  理解视频中的动态行为是AI未来的关键发展方向。这对于AI用其软件理解世界至关重要,也有助于AI在医疗、娱乐和教育等领域的广泛应用。

  解释视频的AI系统,包括自动驾驶汽车中的系统,常常依赖于识别静态框架中的对象,而非对行为进行解释。谷歌*近发布了一种能识别视频中对象的工具,并纳为云平台的一部分,该平台包含用于处理图像、音频和文本的AI工具。

  但对AI来说,能理解猫为何会骑着Roomba扫地机器人在厨房与鸭子追逐嬉戏,才是彰显其能力之处。马斯克称已将大脑上传到云端【系统或已开源】

  因此,科学家面临的下一个挑战可能是教会机器不仅理解视频包含了什么内容,还要理解镜头中发生了什么。这可能带来一些实际的好处,比如带来强大的搜索、注释和挖掘视频片段的新方法,也可以让机器人或自动驾驶汽车更好地理解周围的世界如何运转。

  目前,科学家使用一些视频数据集来训练机器,以使其更好地理解真实世界中的行为,麻省理工学院(MIT)和IBM目前正携手进行相关研究。

  去年9月,IBM与MIT宣布组建“IBM—MIT脑启发多媒体机器理解实验室”,双方将合作开发具有高级视听能力的AI。

  前不久,MIT和IBM发布了一个庞大的视频剪辑数据集,这个名为“时间数据集时刻”的视频数据集囊括了从钓鱼到霹雳舞在内的许多动作的3秒钟片段。该项目负责人、MIT首席研究科学家奥德·奥利瓦说,世界上许多事情瞬息万变。如果你想明白为什么有些事情会发生,运动会给你提供很多信息。

  之所以把视频长度定成3秒,是因为大部分时候,人类需要3秒时间,去观察并理解一个动作意图,比如,风吹树动,或者一个物体从桌上掉落下来等。

  无独有偶,谷歌去年也发布了一套由800万个做了标记的YouTube视频组成的视频集YouTube-8M;脸谱正在开发名为“场景“操作”和“对象”集的注释数据集。

  普林斯顿大学助理教授奥尔加·鲁萨克维斯基专门从事计算机视觉工作。他表示,此前科学家认为,很难开发出有用的视频数据集,因为它们需要比静止图像更多的存储和计算能力。他说:“我很高兴能使用这些新的数据集,3秒的时长很棒——它提供了时间上下文,同时对存储和计算的要求也比较低。”

  还有其他机构在研究更具创造性的方法。位于多伦多和柏林的创业公司“二十亿神经元(Twenty Billion Neurons)”创造了一个定制数据集。该公司联合创始人罗兰梅·尼塞维奇称,他们还使用了专门处理时间视觉信息的神经网络,“用其他数据集训练的AI可以告诉你,视频中显示的是足球比赛还是派对;用我们的定制数据集训练的神经网络可以告诉你,是否有人刚刚进入房间。

  按照IBM的解释,人类能够观看一段简短的视频并轻松地描绘出视频内容,甚至能预测后续事件的发生,而这样的能力对机器来说依然是可望而不可及的。因此,IBM和MIT要做的就是,解决机器在认知和预测上的技术难题,在这一基础上开发出一套认知系统。

  IBM的丹尼·古特弗罗因德说,有效识别行为要求机器学习某个行动,并将获得的知识应用于正在进行同样行动的情境中,这一领域的进步,即转移学习,对于AI的未来非常重要;而且,这项技术在实际中大有用途,“你可以用它来帮助改善对老年人和残疾人的护理,比如告诉护理人员是否有老人跌倒,或者他们是否已经吃过药等等。”

  MIT和IBM也表示,一旦机器能够看懂视频,具备视觉能力的高级计算机认知系统将能用于各种行业,不仅仅是医疗,还有教育、娱乐等领域,包括对复杂的机器进行保养和维修等。

  phaGo之父杰米斯·哈萨比斯(Demis Hassabis)近日在母校英国剑桥大学做了一场题为“超越人类认知的极限”的演讲,解答了世人对于人工智能,对于阿尔法狗的诸多疑问——过去3000年里人类低估了棋局哪个区域的重要性?阿尔法狗去年赢了韩国职业九段李世石靠哪几个绝招?今年年初拿下数位国际大师的神秘棋手Master究竟是不是阿尔法狗?为什么围棋是人工智能难解之谜?

  杰米斯·哈萨比斯,Deep Mind创始人,AlphaGo(阿尔法狗)之父, 4岁开始下象棋,8岁时在棋盘上的成功促使他开始思考两个至今令他困扰的问题:**,人脑是如何学会完成复杂任务的?第二,电脑能否做到这一点?17岁时,哈萨比斯就负责了经典模拟游戏《主题公园》的开发,并在1994年发布。

  他随后读完了剑桥大学计算机科学学位,2005年进入伦敦大学学院,攻读神经科学博士学位,希望了解真正的大脑究竟是如何工作的,以此促进人工智能的发展。2014年他创办公司Deep Mind, 公司产品阿尔法狗在2016年大战围棋冠军李世石事件上一举成名。

  非常感谢大家今天能够到场,今天,我将谈谈人工智能,以及DeepMind近期在做些什么,我把这场报告命名为“超越人类认知的极限”,我希望到了报告结束的时候,大家都清晰了解我想传达的思想。

  对于不知道DeepMind公司的朋友,我做个简单介绍,我们是在2010年于伦敦成立了这家公司,在2014年我们被谷歌收购,希望借此加快我们人工智能技术的脚步。我们的使命是什么呢?我们的首要使命便是解决人工智能问题;一旦这个问题解决了,理论上任何问题都可以被解决。这就是我们的两大使命了,听起来可能有点狡猾,但是我们真的相信,如果人工智能*基本的问题都解决了的话,没有什么问题是困难的。

  那么我们准备怎样实现这个目标呢?DeepMind现在在努力制造世界上**台通用学习机,大体上学习可以分为两类:一种就是直接从输入和经验中学习,没有既定的程序或者规则可循,系统需要从原始数据自己进行学习;第二种学习系统就是通用学习系统,指的是一种算法可以用于不同的任务和领域,甚至是一些从未见过的全新领域。大家肯定会问,系统是怎么做到这一点的?

  其实,人脑就是一个非常明显的例子,这是可能的,关键在于如何通过大量的数据资源,寻找到*合适的解决方式和算法。我们把这种系统叫做通用人工智能,来区别于如今我们当前大部分人在用的仅在某一领域发挥特长的狭义人工智能,这种狭义人工智能在过去的40-50年非常流行。

  IBM 发明的深蓝系统(Deep Blue)就是一个很好的狭义人工智能的例子,他在上世纪90年代末期曾打败了国际象棋冠军加里·卡斯帕罗夫(Gary Kasporov) 。如今,我们到了人工智能的新的转折点,我们有着更加先进、更加匹配的技术。

  大家可能想问机器是如何听从人类的命令的,其实并不是机器或者算法本身,而是一群聪明的编程者智慧的结晶。他们与每一位国际象棋大师对话,汲取他们的经验,把其转化成代码和规则,组建了人类*强的象棋大师团队。但是这样的系统仅限于象棋,不能用于其他游戏。对于新的游戏,你需要重新开始编程。在某种程度上,这些技术仍然不够完美,并不是传统意义上的完全人工智能,其中所缺失的就是普适性和学习性。我们想通过“增强学习”来解决这一难题。在这里我解释一下增强学习,我相信很多人都了解这个算法。

  首先,想像一下有一个主体,在AI领域我们称我们的人工智能系统为主体,它需要了解自己所处的环境,并尽力找出自己要达到的目的。这里的环境可以指真实事件,可以是机器人,也可以是虚拟世界,比如游戏环境;主体通过两种方式与周围环境接触;它先通过观察熟悉环境,我们起初通过视觉,也可以通过听觉、触觉等,我们也在发展多感觉的系统;

  第二个任务,就是在此基础上,建模并找出*佳选择。这可能涉及到对未来的预期,想像,以及假设检验。这个主体经常处在真实环境中,当时间节点到了的时候,系统需要输出当前找到的*佳方案。这个方案可能或多或少会改变所处环境,从而进一步驱动观察的结果,并反馈给主体。

  简单来说,这就是增强学习的原则,示意图虽然简单,但是其中却涉及了极其复杂的算法和原理。如果我们能够解决大部分问题,我们就能够搭建普适人工智能。这是因为两个主要原因:首先,从数学角度来讲,我的合伙人,一名博士,他搭建了一个系统叫‘AI-XI’,用这个模型,他证明了在计算机硬件条件和时间无限的情况下,搭建一个普适人工智能,需要的信息。另外,从生物角度来讲,动物和人类等,人类的大脑是多巴胺控制的,它在执行增强学习的行为。因此,不论是从数学的角度,还是生物的角度,增强学习是一个有效的解决人工智能问题的工具。

  接下来,我要主要讲讲我们*近的技术,那就是去年诞生的阿尔法狗;希望在座的大家了解这个游戏,并尝试玩玩,这是个非常棒的游戏。围棋使用方形格状棋盘及黑白二色圆形棋子进行对弈,棋盘上有纵横各19条直线个交叉点,棋子走在交叉点上,双方交替行棋,以围地多者为胜。围棋规则没有多复杂,我可以在五分钟之内教给大家。这张图展示的就是一局已结束,整个棋盘基本布满棋子,然后数一下你的棋子圈出的空间以及对方棋子圈出的空间,谁的空间大,谁就获胜。在图示的这场势均力敌的比赛中,白棋一格之差险胜。

  其实,了解这个游戏的*终目的非常难,因为它并不像象棋那样,有着直接明确的目标,在围棋里,完全是凭直觉的,甚至连如何决定游戏结束对于初学者来说,都很难。围棋是个历史悠久的游戏,有着3000多年的历史,起源于中国,在亚洲,围棋有着很深的文化意义。孔子还曾指出,围棋是每一个真正的学者都应该掌握的四大技能之一(琴棋书画),所以在亚洲围棋是种艺术,专家们都会玩。

  如今,这个游戏更加流行,有4000万人在玩围棋,超过2000多个顶级棋手,如果你在4-5岁的时候就展示了围棋的天赋,这些小孩将会被选中,并进入特殊的专业围棋学校,在那里,学生从6岁起,每天花12个小时学习围棋,一周七天,天天如此。直到你成为这个领域的专家,才可以离开学校毕业。这些专家基本是投入人生全部的精力,去揣摩学习掌握这门技巧,我认为围棋也许是*优雅的一种游戏了。

  像我说的那样,这个游戏只有两个非常简单的规则,而其复杂性却是难以想象的,一共有10170 (10的170次方) 种可能性,这个数字比整个宇宙中的原子数1080(10的80次方)都多的去了,是没有办法穷举出围棋所有的可能结果的。我们需要一种更加聪明的方法。你也许会问为什么计算机进行围棋的游戏会如此困难,1997年,IBM的人工智能DeepBlue(深蓝)打败了当时的象棋世界冠军GarryKasparov,围棋一直是人工智能领域的难解之谜。我们能否做出一个算法来与世界围棋冠军竞争呢?要做到这一点,有两个大的挑战:

  一、搜索空间庞大(分支因数就有200),一个很好的例子,就是在围棋中,平均每一个棋子有两百个可能的位置,而象棋仅仅是20. 围棋的分支因数远大于象棋。

  二、比这个更难的是,几乎没有一个合适的评价函数来定义谁是赢家,赢了多少;这个评价函数对于该系统是至关重要的。而对于象棋来说,写一个评价函数是非常简单的,因为象棋不仅是个相对简单的游戏,而且是实体的,只用数一下双方的棋子,就能轻而易举得出结论了。你也可以通过其他指标来评价象棋,比如棋子移动性等。

  所有的这些在围棋里都是不可能的,并不是所有的部分都一样,甚至一个小小部分的变动,会完全变化格局,所以每一个小的棋子都对棋局有着至关重要的影响。*难的部分是,我称象棋为毁灭性的游戏,游戏开始的时候,所有的棋子都在棋盘上了,随着游戏的进行,棋子被对方吃掉,棋子数目不断减少,游戏也变得越来越简单。相反,围棋是个建设性的游戏,开始的时候,棋盘是空的,慢慢的下棋双方把棋盘填满。

  因此,如果你准备在中场判断一下当前形势,在象棋里,你只需看现在的棋盘,就能告诉你大致情况;在围棋里,你必须评估未来可能会发生什么,才能评估当前局势,所以相比较而言,围棋难得多。也有很多人试着将DeepBlue的技术应用在围棋上,但是结果并不理想,这些技术连一个专业的围棋手都打不赢,更别说世界冠军了。

  所以大家就要问了,连电脑操作起来都这么难,人类是怎样解决这个问题的?其实,人类是靠直觉的,而围棋一开始就是一个靠直觉而非计算的游戏。所以,如果你问一个象棋选手,为什么这步这样走,他会告诉你,这样走完之后,下一步和下下一步会怎样走,就可以达到什么样的目的。这样的计划,有时候也许不尽如人意,但是起码选手是有原因的。

  然而围棋就不同了,如果你去问世界级的大师,为什么走这一步,他们经常回答你直觉告诉他这么走,这是真的,他们是没法描述其中的原因的。我们通过用加强学习的方式来提高人工神经网络算法,希望能够解决这一问题。我们试图通过深度神经网络模仿人类的这种直觉行为,在这里,需要训练两个神经网络,一种是决策网络,我们从网上下载了成百万的业余围棋游戏,通过监督学习,我们让阿尔法狗模拟人类下围棋的行为;我们从棋盘上任意选择一个落子点,训练系统去预测下一步人类将作出的决定;系统的输入是在那个特殊位置*有可能发生的前五或者前十的位置移动;这样,你只需看那5-10种可能性,而不用分析所有的200种可能性了。

  一旦我们有了这个,我们对系统进行几百万次的训练,通过误差加强学习,对于赢了的情况,让系统意识到,下次出现类似的情形时,更有可能做相似的决定。相反,如果系统输了,那么下次再出现类似的情况,就不会选择这种走法。我们建立了自己的游戏数据库,通过百万次的游戏,对系统进行训练,得到第二种神经网络。选择不同的落子点,经过置信区间进行学习,选出能够赢的情况,这个几率介于0-1之间,0是根本不可能赢,1是百分之百赢。

  通过把这两个神经网络结合起来(决策网络和数值网络),我们可以大致预估出当前的情况。这两个神经网络树,通过蒙特卡洛算法,把这种本来不能解决的问题,变得可以解决。我们网罗了大部分的围棋下法,然后和欧洲的围棋冠军比赛,结果是阿尔法狗赢了,那是我们的**次突破,而且相关算法还被发表在《自然》科学杂志。

  接下来,我们在韩国设立了100万美元的奖金,并在2016年3月,与世界围棋冠军李世石进行了对决。李世石先生是围棋界的传。

×

扫一扫关注 集团官方微信