HI,欢迎来到学术之家,期刊咨询:400-888-7501  订阅咨询:400-888-7502  股权代码  102064
0
首页 精品范文 神经网络

神经网络

时间:2023-05-30 10:16:39

开篇:写作不仅是一种记录,更是一种创造,它让我们能够捕捉那些稍纵即逝的灵感,将它们永久地定格在纸上。下面是小编精心整理的12篇神经网络,希望这些内容能成为您创作过程中的良师益友,陪伴您不断探索和进步。

神经网络

第1篇

人工神经网络是由大量的简单基本元件-神经元相互联接而成的自适应非线性动态系统。每个神经元的结构和功能比较简单,但大量神经元组合产生的系统行为却非常复杂。人工神经网络的基本结构模仿人脑,反映了人脑功能的若干基本特性,能够自身适应环境、总结规律、完成某种运算、识别或过程控制。人工神经网络具有并行处理特征,可以大大提高工作速度。

人工神经网络的特点和优越性,主要表现在三个方面:

第一,具有自学习功能。

第二,具有联想存储功能。

第三,具有高速寻找优化解的能力。

1 神经网络的学习方法

神经网络的学习也称为训练,指的是神经网络在外界环境的刺激作用下调整网络自由参数,并以新的方式来响应外部环境的过程。能够从环境中学习并在学习中提高自身性能是神经网络最有意义的性质。理想情况下,神经网络在每一次重复学习后,对它的环境有了更多的了解。

(1) 监督学习(有教师学习)

在学习时需要由教师提供期望输出,通常神经网络对于周围的环境未知而教师具有周围环境的知识,输入学习样本,教师可以根据自身的知识为训练样本提供最佳逼近结果,神经网络的自由参数在误差信号的影响下进行调整,其最终目的是让神经网络模拟教师。

(2) 非监督学习(无教师学习)

它也称为自组织学习,系统在学习过程中,没有外部教师信号,而是提供给一个关于网络学习性质的度量,它独立于学习任务,以此尺度来逐步优化网络,一旦网络与输入数据的统计规律达成一致,那么它将发展形成用于输入数据编码特征的内部表示能力,从而自动创造新的类别。

(3)强化学习(激励学习)

在强化学习系统中,对输入输出映射的学习是通过与外部环境的不断交互作用来完成学习,目的是网络标量函数值最小,即外部环境对系统输出结果只给出评价信息(奖或罚)而不是给出正确答案,学习通过强化那些受奖的动作来改善自身性能。

神经网络针对学习问题修改网络自由参数的过程称为学习规则(学习算法),设计学习规则的目的是训练网络来完成某些任务,没有一个独特的学习规则可以完成所有的学习任务。神经网络有5个基本的学习规则:误差--修正学习,基于记忆的学习,Hebb学习,竞争学习,随机学习。

2 神经网络的研究趋势

(1) 利用神经生理与认知科学研究大脑思维模式及智能机理过程

深入研究神经网络理论神经网络在一定程度上揭示人类智能和了解人脑的工作方式,由于人类对神经系统的了解非常有限,而且对其自身脑结构及其活动机理的认识不完善,故而神经网络只能是模仿人脑的局部功能,而对人脑作为一个整体的功能解释,神经网络起不到任何作用。神经科学,心理学和认识科学等方面提出的一些重大问题,是向神经网络理论研究提出的新挑战,这些问题的解决有助于完善和发展神经网络理论,因此利用神经生理和认知科学研究大脑思维及智能机理,如有新的突破将会改变智能和机器关系的认识。

(2) 神经网络领域的数学研究趋于重要

随着神经科学基础理论研究的深入,用数理方程探索智能水平更高网络模型将是研究的趋势所在,神经元以电为主的生物过程在认识上一般采用非线性动力学模型,其动力演变过程往往是非常复杂的,神经网络这种强的生物学特征和数学性质,要求有更好的数学手段,而对于神经网络这样非线性模型,需要用数学方法研究网络新的算法和网络性能,如稳定性、收敛、容错性、鲁棒性等,开发新的网络数理理论,如神经动力学、非线性神经场等。研究人员断言一种更简洁、更完善和更有效的非线性系统表达与分析的数学方法是这一领域主要目标之一。

(3) 神经网络软件模拟、硬件实现的研究以及神经网络在各个科学技术领域应用的研究

目前,数字计算机在计算方面的能力已远远超出入的大脑,但在自然语言理解、图像辨识、信息处理等方面都显得笨拙,原因是基于冯・偌依曼思想的计算机结构及其运算方式与人的大脑有本质的区别,而神经计算机(第六代计算机)以神经网络为理论基础,用于模拟神经网络,具有自学习、自组织和自适应能力,能更有效地处理复杂问题,其实现过程用光学、生物芯片的方式,现在光学神经计算机和分子计算机的研究是神经网络的前沿课题。

(4) 神经网络和其它算法结合的研究

神经网络和其它算法的结合和交叉,研究新型神经网络模型也是发展方向之一。如神经网络和模糊逻辑结合,建立模糊神经网络;将混沌理论和神经网络结合建立混沌神经网络;将遗传算法和神经网络结合;利用遗传算法优化神经网络的结构或权值;将小波分析和神经网络结合建立小波神经网络;专家系统,贝叶斯学习以及粗糙集理论和神经网络结合等,这些都是神经网络研究的热点。

3 结束语

神经网络虽已在许多领域应用中取得了广泛的成功,但其发展还不十分成熟,还有一些问题需进一步研究。比如:神经计算的基础理论框架以及生理层面的研究仍需深入;新的模型和结构的研究;神经网络的可理解性问题;神经网络技术与其他技术更好的结合等。

第2篇

关键词:神经网络 车辆跟驰 智能系统

中图分类号:U491 文献标识码:A 文章编号:1007-9416(2016)12-0081-01

引言

微观模型越来越多的被应用于评估新的智能运输系统。车辆跟驰模型就是其中之一[3]。车辆跟驰模型基于这样的假设:后车司机受到一系列变量的影响,车辆的行驶受到人的影响最大,所以建立模型实际上就是将人的驾驶技巧转化成智能系统。为了得到高保真度的微型仿真,人们主要是研究战术层面的行为。

1 神经网络的应用

人工神经网络(Artificial Neural Networks, ANN),一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型[1]。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”。

2 车辆跟驰行为分析

人的驾驶行为可以分为三个层次:分别是:战略、战术和具体操作。战略的驾驶行为主要是路线的规划,战术的驾驶行为就是实现短期的目标,比如:超车,换道等,操作层面的驾驶行为就是具体的动作如:方向盘旋转,刹车行为等。车辆跟驰行为具有很强的非线性特性[2]。

ANN(artificial neural networks)可以用来解决复杂和不明确的问题。

基于数据的学习可以提取出数据中输出与输入之间的关系,它们之间的关系是复杂的、非线性的、难以精确获得的。而神经网络可以通过学习提取出数据之间蕴藏的规律,以较高的精度来预测将来的数据。

对车辆跟驰行为更加精确的模拟应该考虑到人反应的非线性和人感知的局限性。也就是说,驾驶员不能精确地感知相对速度和距离,做出决定的过程是非线性的。人工神经网络可以找到驾驶员感知到的变量和驾驶员控制动作变量之间的映射关系。这使得神经网络系统可以模拟和预测驾驶员的行为。

3 数值仿真

训练时,实验选取了27组输入变量(每组输入变量有三个元素),每组输入变量会有一个理想输出。也就是说,一共有27个输出值构成了一个行向量。用来检测的输入向量输入到训练好的神经网络中,同样输出27个元素的行向量。在MATLAB中画出这两个向量,进行比较,得出训练效果。图1表示训练值与理想值的偏差,误差绝对值可控制在30个单位之龋图2表示预测值与实际值的位置坐标。

4 结语

本文针对传统车辆跟驰模型存在的预测不准确,计算繁杂,实用性不高等缺点,提出了基于神经网络的车辆跟驰模型,首先分析了神经网络的应用原理和领域,其次分析了神经网络在车辆跟驰模型上应用的可行性,最后通过MATLAB数值仿真验证理论的正确性,证明了神经网络的方法可以提高模型预测的准确性。

参考文献

[1]韩立群.人工神经网络教程[M].北京:北京邮电大学出版社,2006:20-25,87.

第3篇

关键词:石蜡氧化;神经网络;学习速率;模拟误差

中图分类号:TQ031 文献标识码:A 文章编号:1009-2374(2011)31-0074-02

人工神经网络是由大量的很简单的处理单元广泛联接构成的复杂网络系统。它可分为有监督模式和无监督模式两大类。有监督模式的典型代表是误差反向传播BP神经网络,该网络通过对网络的训练达到函数逼近、模式识别、分类、数据压缩的目的。另外,它在处理非线性问题上也有明显的优越性。具有自学习能力,能从有限的样本学习知识然后预测未知信息,因此有着广泛的应用领域。在石蜡氧化工艺参数的确定过程中,存在着多因数配合试验的问题。若采用正交试验的方法对反应条件进行分析,无论从精度上还是推广能力上都存在一定的弊端。本文利用BP神经网络将氧化蜡的酸值和酯值与石蜡氧化条件(反应温度、空气流量和反应时间)进行关联,建立了石蜡氧化的神经网络模型,并用该模型对其氧化行为进行了预测。

一、BP神经网络模型的建立

本文采用三层前馈型BP神经网络,分别是输入层、输出层和隐含层。

(一)隐含层神经元个数的选择

在石蜡氧化神经网络的设计过程中,隐含层神经元个数,网络学习速率和网络收敛精度是三个最重要的参数。隐含层神经元个数决定BP网络的结构,是神经网络设计的核心。以下的12组试验数据显示了隐含层神经元对网络精度的影响。

从图中可以看出神经元在7、8、10处都有较好的精度,最终选择的是8个神经元。原因在于结合皂化值试验误差必定大于酸值误差这一事实。由此最终筛选出只有8个神经元结构唯一符合要求。

(二)学习速率的选择

网络学习速率一方面决定了网络的训练速度,另一方面决定了训练的质量。对于平滑度和指数关系较好的规律识别可以采用相对较小的学习速率以获得较高质量的网络。对于石蜡氧化BP神经网络的设计采取了中等学习速率的神经网络,是考虑到了试验误差作用和网络收敛速度的可行性。

精度 网络学习

由下图可知,网络学习速率一般在范围0.001~0.01之间为宜。若学习速率设置太大,则网络误差明显上升。

二、网络模型的训练

根据石蜡在不同反应条件下进行氧化所得到的实验数据,作为训练样本对神经网络进行训练。

1.初始化。设置网络的初始值,精度要求,样本个数等。

2.网络训练。根据训练样本的值,采用BP算法训练修正网络的权值,直到满足精度要求为止。

三、网络模型的预测

以上数据可以看出所用的神经网络性能还是比较好的。因此,可以肯定以上分析的可靠性。

四、结论

1.本文所建立的石蜡氧化的神经网络模型具有很好的数据拟合能力。

2.利用本文所建立的石蜡氧化的神经网络模型预测石蜡氧化反应规律,符合石蜡的氧化反应机理和反应规律,表明该模型具有满意的预测能力。

参考文献

[1] 张晓彤,等.BPNN在改性石蜡滴熔点预测中的应用[J].辽宁石油化工大学学报,2004,(1).

[2] 董长虹.Matlab神经网络与应用[M].国防工业出版社,2005.

第4篇

关键词:相似性;可塑性;阻变机理

DOI:10.16640/ki.37-1222/t.2016.03.102

0 引言

人工神经网络是一种旨在模仿人脑结构及其功能的信息处理系统。神经元之间突触的联系强度是可变,这是学习和记忆的基础。人工神经网络可以通过“训练”而具有自学习和自适应的能力。神经网络技术的关键是权重设计,权重的硬件实现需要一个长期保持记忆且不耗能的纳米级元件。传统的人工神经网络技术都是在传统计算机基础上进行的,其主要缺点是运算量巨大且运算不是并行处理。如果在硬件上实现人工神经网络的并行分布式处理、非线性处理,自我学习功能和自适应性等功能,就能够解决了人工神经网络在传统计算机上运算量巨大的缺点。而单个忆阻器便可实现神经突触功能的模拟,而且忆阻器能够很容易与纳米交叉连接技术相结合,具有大规模并行处理、分布式信息存储、巨大存储量等优势。所以利用忆阻系统是人工神经网络实现神经突触功能的模拟的最好的方式之一,因而成为近年来研究的热点。

1 忆阻与神经突触的相似性

神经元是大脑处理信息的基本单元。人脑大约含有1011-1012个神经元,神经元互相连接成神经网络。突触是神经元间信息传递的关键部位,决定了前后神经元之间的联系强度。图1.神经突触的结构示意图。神经递质通过突触前膜释放到突触间隙,作用于突触后膜上的受体,使突触后膜发生电位变化,使下一个神经元产生兴奋或抑制。生物系统记忆和学习功能是以精确控制通过神经元及突触的离子流为基础建立的。突触能够随外界的电位刺激变化,粒子流产生动态连续的变化,联系强度增强或者减弱,即突触的可塑性。在忆阻器件出现之前,人工神经网络突触的的硬件实现需要集成电路甚至超大规模的集成电路,而且人工神经网络的密度也很难达到生物神经网络的密度,因而电路复杂体积庞大,制约了人工神经网络对于复杂的人脑功能模拟的实现。忆阻器的出现解决了这个问题,世界各地多个研究小组已实现了具有不同忆阻模型和忆阻特性的忆阻器件。由于忆阻器的电阻可变和电阻记忆特性,与突触的功能上有很强的相似性,因此忆阻在人工神经网络电路中可以模拟突触在生物神经网络中的作用。

2 神经突触的可塑性特性

神经突触一个重要的特征是突触的可塑性,电信号刺激能够加强或者弱化突触,突触连接强度可连续调节。利用忆阻器模拟生物突触最基本的依据是由于它具有电阻缓变的特性,当施加电压下器件的阻值可实现从高(低)阻值到低(高)阻值的缓变过程,器件的导电性(或阻值)相当于突触权重,导电性增大和减小的过程分别对应突触的增强和抑制过程。记忆是通过大脑中大量突触之间的相互连接所表现出来,因此,突触可塑性被认为是学习和记忆重要的神经化学基础。实现突触学习功能时,一个典型特性是电脉冲时间依赖可塑性(STDP)。人类大脑中记忆或者突触可塑性按保留时间可以分为短程记忆和长程记忆。短时程可塑性与神经元的信息传递和处理有着密切的关系。神经系统每时每刻都接受数以千计来自外界的刺激,短时可塑性对如何在大量的输入信息中提取有用信息扮演重要角色。长时程可塑性促使突触在数小时到数天之内发生持续性的变化,人们认为其在学习和记忆存储的突触机制中发挥重要作用。

3 忆阻器件的阻变机理

早在1971年,美国校华裔科学家蔡少棠就通过理论计算预言,在电阻、电容和电感之外必定存还在第四种无源电子元件,即忆阻器。如图3所示,电路的3个基本元件电阻、电感和电容,可以分别有由4个电路变量变量电压(v)、电流 (i)、电荷量(q)和磁通量(φ)中的两个来定义,分别为:由电压和电流定义的电阻R、由电荷和电压定义的电容 C 以及由磁通量和电流定义的电感L。出于逻辑完备性,蔡绍棠认为应该还存在由电荷量和磁通量定义的第4类基本电路元器件即忆阻器。然而学界却一直没有找到这个在理论上成立的无源元器件,直到37年后(2008年),美国惠普公司宣布在Pt/TiO2Cx/Pt两端器件实现了具有忆阻功能的器件结构(图4),从而找到这个一直缺失的电路元件,至此忆阻器开始引起更多学者的研究兴趣,并迅速成为电路、材料、生物等领域的研究热点。

随着人们对忆阻器研究的深入,多种忆阻器件和模型在各研究领域相继提出和实现。目前,阻变机理主要有边界迁移模型、丝电导模型、电子自旋阻塞效应、氧化还原反应等。中科院诸葛飞课题组在锥形纳米孔洞结构的非晶碳薄膜材料中,实现了纳米导电丝机制的忆阻器件。非晶碳膜阻变器件的电致电阻效应决定于通孔中的纳米导电细丝的通断(如图4)。

4 结论与展望

本文对神经网络的概念、忆阻器与神经突触的相似性、神经突触的可塑性、忆阻器的阻变机理进行了综述,指出了目前很多忆阻器是利用人工神经网络实现人工智能及超级计算机的硬件基础。目前忆阻器材料研究存在的两个主要问题是阻 变机理不够清楚和阻变性能不够稳定。忆阻器材料非常之多,甚至把任意绝缘材料做到纳米级,就很有可能具有阻变特性。找出隐藏在众多阻变现象之后的机理有无共同的规律,研究阻变特性是由材的化学成分决定还是由材料的微 观结构决定,这将是以后研究中需要回答的问题。

第5篇

关键字神经网络,BP模型,预测

1引言

在系统建模、辨识和预测中,对于线性系统,在频域,传递函数矩阵可以很好地表达系统的黑箱式输入输出模型;在时域,Box-Jenkins方法、回归分析方法、ARMA模型等,通过各种参数估计方法也可以给出描述。对于非线性时间序列预测系统,双线性模型、门限自回归模型、ARCH模型都需要在对数据的内在规律知道不多的情况下对序列间关系进行假定。可以说传统的非线性系统预测,在理论研究和实际应用方面,都存在极大的困难。相比之下,神经网络可以在不了解输入或输出变量间关系的前提下完成非线性建模[4,6]。神经元、神经网络都有非线性、非局域性、非定常性、非凸性和混沌等特性,与各种预测方法有机结合具有很好的发展前景,也给预测系统带来了新的方向与突破。建模算法和预测系统的稳定性、动态性等研究成为当今热点问题。目前在系统建模与预测中,应用最多的是静态的多层前向神经网络,这主要是因为这种网络具有通过学习逼近任意非线性映射的能力。利用静态的多层前向神经网络建立系统的输入/输出模型,本质上就是基于网络逼近能力,通过学习获知系统差分方程中的非线性函数。但在实际应用中,需要建模和预测的多为非线性动态系统,利用静态的多层前向神经网络必须事先给定模型的阶次,即预先确定系统的模型,这一点非常难做到。近来,有关基于动态网络的建模和预测的研究,代表了神经网络建模和预测新的发展方向。

2BP神经网络模型

BP网络是采用Widrow-Hoff学习算法和非线性可微转移函数的多层网络。典型的BP算法采用梯度下降法,也就是Widrow-Hoff算法。现在有许多基本的优化算法,例如变尺度算法和牛顿算法。如图1所示,BP神经网络包括以下单元:①处理单元(神经元)(图中用圆圈表示),即神经网络的基本组成部分。输入层的处理单元只是将输入值转入相邻的联接权重,隐层和输出层的处理单元将它们的输入值求和并根据转移函数计算输出值。②联接权重(图中如V,W)。它将神经网络中的处理单元联系起来,其值随各处理单元的联接程度而变化。③层。神经网络一般具有输入层x、隐层y和输出层o。④阈值。其值可为恒值或可变值,它可使网络能更自由地获取所要描述的函数关系。⑤转移函数F。它是将输入的数据转化为输出的处理单元,通常为非线性函数。

2.1基本算法

BP算法主要包含4步,分为向前传播和向后传播两个阶段:

1)向前传播阶段

(1)从样本集中取一个样本(Xp,Yp),将Xp输入网络;

(2)计算相应的实际输出Op

在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常运行时的执行过程。

2)向后传播阶段

(1)计算实际输出Op与相应的理想输出Yp的差;

(2)按极小化误差的方式调整权矩阵。

这两个阶段的工作受到精度要求的控制,在这里取作为网络关于第p个样本的误差测度,而将网络关于整个样本集的误差测度定义为。图2是基本BP算法的流程图。

2.2动态BP神经网络预测算法

在经典的BP算法以及其他的训练算法中都有很多变量,这些训练算法可以确定一个ANN结构,它们只训练固定结构的ANN权值(包括联接权值和结点转换函数)。在自动设计ANN结构方面,也已有较多的尝试,比如构造性算法和剪枝算法。前一种是先随机化网络,然后在训练过程中有必要地增加新的层和结点;而剪枝法则正好相反。文献[2]中提出了演化神经网络的理念,并把EP算法与BP进行了组合演化;也有很多学者把遗传算法和BP进行结合,但这些算法都以时间复杂度以及空间复杂度的增加为代价。根据Kolmogorov定理,对于任意给定的L2型连续函数f:[0,1]nRm,f可以精确地用一个三层前向神经网络来实现,因而可以只考虑演化网络的权值和结点数而不影响演化结果。基于此,在BP原有算法的基础上,增加结点数演化因子,然后记录每层因子各异时演化出的结构,最后选取最优的因子及其网络结构,这样就可以避免由于增加或剪枝得到的局部最优。根据实验得知,不同的预测精度也影响网络层神经元的结点数,所以可根据要求动态地建立预测系统。具体步骤如下:

(1)将输入向量和目标向量进行归一化处理。

(2)读取输入向量、目标向量,记录输入维数m、输出层结点数n。

(3)当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。Gorman指出隐层结点数s与模式数N的关系是:s=log2N;Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);而根据文献[7]:s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51[7]。

(4)设置结点数演化因子a。为了快速建立网络,可以对其向量初始化,并从小到大排序[4,7]。

(5)建立BP神经网络。隐含层传递函数用tansig,输出层用logsig,训练函数采用动态自适应BP算法,并制订停止准则:目标误差精度以及训练代数。

(6)初始化网络。

(7)训练网络直到满足停止判断准则。

(8)用测试向量对网络进行预测,并记录误差和逼近曲线,评估其网络的适应性。其适应度函数采取规则化均方误差函数。

(9)转到(5),选取下一个演化因子,动态增加隐含层结点数,直到最后得到最佳预测网络。

3基于神经网络的预测原理[4]

3.1正向建模

正向建模是指训练一个神经网络表达系统正向动态的过程,这一过程建立的神经网络模型称为正向模型,其结构如图3所示。其中,神经网络与待辨识的系统并联,两者的输出误差用做网络的训练信号。显然,这是一个典型的有导师学习问题,实际系统作为教师,向神经网络提供算法所需要的期望输出。当系统是被控对象或传统控制器时,神经网络多采用多层前向网络的形式,可直接选用BP网络或它的各种变形。而当系统为性能评价器时,则可选择再励学习算法,这时网络既可以采用具有全局逼近能力的网络(如多层感知器),也可选用具有局部逼近能力的网络(如小脑模型控制器等)。3.2逆向建模

建立动态系统的逆模型,在神经网络中起着关键作用,并且得到了广泛的应用。其中,比较简单的是直接逆建模法,也称为广义逆学习。其结构如图4所示,拟预报的系统输出作为网络的输入,网络输出与系统输入比较,相应的输入误差用于训练,因而网络将通过学习建立系统的逆模型。但是,如果所辨识的非线性系统是不可逆的,利用上述方法将得到一个不正确的逆模型。因此,在建立系统时,可逆性应该先有所保证。

4应用实例分析

以我国西南某地震常发地区的地震资料作为样本来源,实现基于动态神经网络的地震预报。根据资料,提取出7个预报因子和实际发生的震级M作为输入和目标向量。预报因子为半年内M>=3的地震累计频度、半年内能量释放积累值、b值、异常地震群个数、地震条带个数、是否处于活动期内以及相关地震区地震级。在训练前,对数据进行归一化处理。由于输入样本为7维的输入向量,一般情况下输入层设7个神经元。根据实际情况,输出层神经元个数为1。隐含层神经元的传递函数为S型正切函数,输出层也可以动态选择传递函数。实例数据来自文献[4],将数据集分为训练集、测试集和确定集。表1中的7×7数组表示归一化后的训练向量,第一个7表示预报因子数,第二个7表示样本数。

表1归一化后的训练向量

在不同神经元数情况下,对网络进行训练和仿真,得到如图5所示的一组预测误差曲线。其中,曲线A表示隐层结点数为6时的预测误差曲线,曲线B表示隐含层结点数为3时的预测误差曲线,曲线C表示隐含层结点数为5时的预测误差曲线,曲线D表示隐含层结点数为4时的预测误差曲线。将五种情况下的误差进行对比,曲线C表示的网络预测性能最好,其隐含层神经元数为5,图中曲线E表示的是隐含层结点数为15时的预测误差曲线(文献[4]中的最好结果)。同时也证明,在设计BP网络时,不能无限制地增加层神经元的个数。若过多,不仅会大大增加网络结构的复杂性,网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度、预测速度变得很慢。

5结论

本文针对基本的BP神经网络,提出了可动态改变神经元数(与精度相关)的BP神经网络预测方法,可以根据实际情况建立预测系统。用此种方法可以建立最好的神经网络,不会有多余的神经元,也不会让网络在学习过程中过早陷于局部极小点。

参考文献

[1]YaoX,LiuY.FastEvolutionaryProgramming.inEvolutionaryProgrammingⅤ:Proc.5thAnnu.Conf.EvolutionaryProgram,L.Fogel,P.AngelineandT.Bäck,Eds.Cambridge,MA:MITPress,1996,451-460

[2]XinYao,YongLiu,ANewEvolutionarySystemforEvolvingArtificialNeuralNetworksIEEETRANSACTIONSONNEURALNETWORKS,VOL8,NO.31997,694-714

[3]潘正君,康立山,陈毓屏.演化计算[M].北京:清华大学出版社,1998

[4]飞思科技产品研发中心.神经网络理论与实现.北京:电子工业出版社,2005

[5]蔡晓芬,方建斌.演化神经网络算法.江汉大学学报,第33卷第3期,2005.9

第6篇

关键词:神经网络 机械故障诊断 BP算法

引 言

随着传感器、信号处理和计算机等技术的发展,机械设备故障诊断技术正日趋完善,各国研究开发了一系列故障诊断理论和方法,并成功地应用于机械设备的状态监测与故障诊断中。不过,工程实际中的问题往往较为复杂,尤其对于大型机械设备和复杂系统而言。由于设备结构庞大,影响性能的因素多,若还是用传统方法很难得以解决,神经网络技术的兴起和发展恰为解决这类问题开辟了新的途径。

神经网络(Neural network, NN)或称人工神经网络,是近几年发展起来的一门多领域的交叉学科,它是一种以物理上可以实现的器件,系统或现有的计算机来模拟人脑的结构和功能的人工系统。由于神经网络具有自学习、自组织、联想记忆及容错等特点,可以较好处理不确定的、矛盾的、甚至错误的信息,因此在机械故障诊断领域受到广泛关注。

BP网络,即多层前馈神经网络,因其采用误差反向传播算法(Error Back-Propagation,即BP算法) 而得名。BP算法结构简单、易于实现。在人工神经网络的实际应用中,80%~90% 的神经网络模型是采用BP网络或它的变化形式, 目前主要用于模式识别与分类、函数逼近、数据压缩及预测等领域。

1、BP算法神经网络模型

图1所示为典型的带有一个隐层的多层前馈模型(FNN),本文采用的是三层BP神经网络模型,它由输入层、隐层和输出层组成。网络的前馈意义在于每一层节点的输入仅来自前面一层节点的输出。对于输入信号,先前向传播到隐层节点,经过作用后,再把隐节点的输出信息传播到输出节点,最后得到输出结果。

(1)输入层节点i(i=1,2,3…,n),其输

出 等于输入 ,将控制变量值传到第二层。

(2)隐层节点j(j=1,2,3…,p),其输入 ,输出 分别为:

式中, 为隐层节点j与输入层节点i 之间的连接权; 为隐层节点j的偏置(或阀值);f为Sigmoid函数: 。

(3)输出层节点k(k=1,2,3…,m),其输入 ,输出 分别为:

式中, 为输出层节点k与隐层节点j之间的连接权; 为输出层节点k的偏置(或阀值)。

对于给定的训练样本集( , …, ),p为样本数(p=1,2, …,P),网络运算结果与训练样本目标输出之间的均方误差可表示为:

式中, ;

p为样本数; 为第p个样本的第l个输

出单元的目标输出结果; 为第p个样本的第l个输出单元的网络运算结果。

网络学习训练的过程包括网络内部的前向传播和误差的反向传播,其目的就是通过调节网络内部权使网络误差最小化。对于多层前馈网络中输入层与隐层之间、隐层与输出层之间的连接权通过反向误差传播BP学习算法来调节。

2、轴承故障与振动之间的关系

在石油机械设备中由滚动轴承受损引起的故障占有很大的比例。其表现为长时间运转形成表面材料疲劳而出现点蚀、剥落或裂纹元件表面损伤故障。出现故障后,轴承部件振动加剧,在受载运行过程中,损伤点同与之相互作用的元件表面接触时会产生一系列的冲击脉冲力,其频率称为轴承元件的故障特征频率。由于制造装配误差以及其他许多因素都会引起轴承振动,传感器拾取的振动信号中除了损伤引起的冲击性振动信号外,还包含了大量的其他振动信号。当损伤点比较微小时(如点蚀初期、微小裂纹等),这些周期性的冲击信号往往淹没在大量的背景噪声中,如果直接进行频谱分析,难以诊断出故障。为了把损伤引起的冲击信号从原始信号中提取出来,本文采用以下提取算法,将故障特征频率及参数提取出来,再通过神经网络进行故障分类识别。

3、BP网络在故障诊断中的应用

利用神经网络进行轴承故障诊断,其程序流程见图2

(1)特征参数的提取

轴承诊断中所用的状态信号为振动信号,一般根据经验抽取出一些反映轴承状态的特征参数,以便进行状态识别。本文选取均方根值、峭度指数、峰值指数、波形指数、脉冲指数和裕度指数作为轴承状态特征向量。均方根值能反映振动总量,对 轴承的整体劣化有效,稳定性较好,但对早期故障信号不敏感;峰值

指标能较好地反映表面损伤类的故障,特别是对初期阶段的表面剥落,非常容易检测出来,波形指标主要反映频率成分的增加。峭度指标、裕度指标和脉冲指标对于冲击类故障比较敏感,特别是当故障早期发生时,它们有明显增加;但上升到一定程度后,随故障的逐渐发展,反而会下降,表明它们对早期故障有较高的敏感性,但稳定性不好。所以,为了取得较好的效果,常将它们同时应用,以兼顾敏感性和稳定性。

(2)网络结构与状态编码

采用三层网络结构形式,输入层神经元个数为6,对应特征向量的6个元素,隐层神经元取作10个。为简化起见,采用双值输出网络,输出层神经元设为2个,对应的状态编码为:正常(0,0),故障(0,1)

(3)网络训练

神经网络的工作过程分为学习过程和应用过程两部分,学习过程将训练样本输入网络,对其进行训练,调配网络权值,通过权值的不断变化逐渐逼近期望输出;应用过程则用已经调配好权值的网络对实测试数据进行分类。在训练之前应先对特征参数进行归一化处理,归一化处理的公式为:

其中,max为某一参数各组样本的最大值;min为最小值。

经过归一化处理后的数据利用BP网络进行训练,将该数据用作训练样本,作为输入向量,经过网络的输入层、中间层以及输出层,输出的结果与目标目标进行比较,若所得误差值在最大误差允许的范围内,则说明训练达到了预期效果,结束训练,若误差不在最大误差允许的范围内,则通过BP网络的反馈将数据重新转入到输入层,开始新一轮的循环。直至满足要求,经过此神经网络的训练可以得到一组权向量值。将该组权向量值存入指定的文件中,以备下面的模式识别之用。

(4)模式识别

用同样的方式将一组待识别的轴承的特征参数进行处理后作为网络的输入向量,用上一步训练得到的权向量值进行网络计算,此时在输出层得到的向量值与期望值即目标向量相比较,在一定的误差范围内与哪一个接近,就认定该待识别轴承的状态属于那一种。从而判别出轴承的故障状况。

4、诊断实例

从石油钻机传动箱上提取轴承振动数据。先测量完好轴承的数据,然后将轴承的内圈弹道上切割大小不等的沟槽,作为表面剥蚀和裂纹等故障。从采集到的原始振动数据集中提取10组用于训练网络,其中包括5组有故障的轴承和5组没有故障的轴承的数据。提取的特征参数归一化后的数据列于表1。由这10组数据训练网络得到一组权向量值。

从采集的原始数据集中随机抽取8组数据,其中有轴承在完好状态下采集到的,也有故障状态下采集到的。在知道其状态前提下利用BP网络对其进行验证,看是否可以做出正确判断,判断的依据初步定为,当期望值是1时,实际输出应在(0.9,1)范围内,当期望值为0时,实际值应在(0,0.1)范围内,超出这个范围则不能判断其是否故障状态,即BP网络诊断失败,网络训练不成功,需要重新进行学习训练。此处采取的网络训练误差值取的是0.01,由此网络训练得到的权值进行模式识别,验证得到的结果见表2,五组是正常的,3组是有故障的。可以看出其与期望值相差非常小,完全可以在接受的范围内。从而以验证网络的状态分类能力。

表1 用作网络学习的10组特征参数(已归一化)(数据附后)

5、结论

通过BP神经网络对轴承故障进行快速诊断,从而可以做到实时监测,发现问题可以及早进行处理,尽最大可能避免损失,这是其它监测方法所无法达到的效果,不足之处在于BP神经网络自身还存在一些需要改进的地方,如中间层神经元数的确定问题缺乏理论根据,现在仍处于凭经验来确定其个数的阶段;另外,该法需要大量的与实际情况一致的训练数据,用不同设备和不同状态 下的数据训练的网络缺乏通用性。这一方法有待于进一步的成熟。

参考文献

[1] 钟秉林,黄 仁. 机械故障诊断学,北京:机械工业出版社,2002.

[2] 高隽. 人工神经网络原理及仿真实例,北京-机械工业出版社,2003.

第7篇

【关键词】倒立摆; BP神经网络; 稳定控制; 仿真

【Abstract】Neural network has outstanding adaptability and robustness. In the light of the inverted pendulum system is a complex, using BP neural network instead of traditional control method, control inverted pendulum device. Simulation experimental results show that, as long as the data and neural network hidden layer neurons number of appropriate amount of information, to better control effect. This paper describes the implementation process and method, and it can achieve control of the inverted pendulum device more smoothly.

【Key words】Inverted pendulum; BP neural network; Stability control; simulation

0 引言

倒立摆是一种高阶次、不稳定性以及非线性的特点的控制装置,是一种典型的强耦合系统,因此应该利用更有效的控制手段才能使倒立摆装置达到稳定平稳状态。该装置可以通过小车的速率、摆杆角度和摆杆平稳时间长短等一些控制参数检测及控制。倒立摆装置是探究新型控制方式是否有效的实验平台。

近年来,人们不断尝试用倒立摆装置作为典型的控制模型,来测试新的智能控制方式是否能解决系统中多变量、不稳定和非线性控制的问题,从而在其中寻求最佳智能控制方法。

倒立摆装置的运动状态类似于人的走路姿态。所以,倒立摆装置在探究机器人的站立行走、飞船垂直发射进程的状态调节和飞机的滑行控制具有明显的作用。倒立摆装置的探究,不仅有很强的理论作用,而且还具备更远的现实意义。

1 倒立摆系统

一级倒立摆装置如图1所示。装在小车上的倒立摆在水平力的作用下,通过控制小车的运动速度使偏转角为0,即可使倒立摆直立起来。

图1系统的符号的物理意义:M――小车质量;m――摆杆质量;g――重力加速度;θ――摆角大小;x――小车位移;F――水平推力。

BP神经网络

BP神经网络是一种按误差反向传播训练的多层前馈网络,其算法称为BP算法,其基本思想是使用梯度下降法调整网络神经网络参数,使网络的实际输出值和期望输出值的误差均方差为最小[1]。

BP神经网络的计算过程由正向计算过程和反向计算组成。正向传播计算,输入模式从输入层经隐曾单元层逐层处理,并传到输出层,每层神经元的输出只影响下一层神经元。如果在输出层未达到期望的输出,则转入反向传播,将误差信号沿原来的连接通路返回,通过修改各神经元的权值,使得误差信号最小。

针对倒立摆的位移和偏转控制系统,一个三层BP神经网络如图2所示。

2 基于MATLAB环境的倒立摆控制系统

图3是基于MATLAB软件的一种倒立摆控制系统,是一个传统PI+不完全微分控制,同时有从输出端反馈的LQR控制器[2],即利用线性二次型性能指标设计的控制器,该系统实际是三种控制方法的综合应用。如图3所示。

该系统经仿真得到如图4所示动画。

在实验时如果去掉不完全微分控制,或者去掉LQR控制器的任何一种均很难实现稳定控制,表明系统很不稳定。但当加入两种控制方法系统变得相当稳定。现对该系统实现BP神经网络控制,即采用BP神经网络取代输入端控制器:即取代PI+不完全微分控制部分,采集该控制器的输入/输出信号,构成样本数据库。建立图5数据采集模型。

采集输入、反馈信号及控制器输出信号组成三维数据:data=[re fe uc]共采集100000组数据,训练BP神经网络。网络结构为2-15-1,设置神经网络参数为EPOCHS=5000; GOAL=0.000003; 训练3步达到误差精度要求。误差训练曲线如图6所示。

提取BP网络模型如图7所示.

将此模型代替PI+不完全微分控制器,替换后得到仿真模型如图8所示。

运行该系统稳定性与原系统效果是一样的。表明BP网络完全能替代原控制器,实现稳定控制。但是如果实验时采集的数据较少,则倒立摆系统极其不稳定,表明数据总量不够,而且对网络训练应当有足够的经验,没有学习好各种经验就不能很好地控制。为了保证经验数据具有一定的完备性,在输入信号中加入了一定的随机信号。图8 在BP网络输入信号首先要进行归一化处理,本文采用normr命令,反归一化采用norm命令,该方法的优点是可避免0,1出现,从而使网络训练容易,快速收敛。图9为位移曲线,图10 为角度变化曲线。

实验表明,基于神经网络控制的倒立摆系统,动态稳定性好,与常规控制相当,但是其鲁棒和自适应能力更好。

3 结论

基于神经网络控制的倒立摆装置的控制总体优于PID传统控制方法。本文通过数据采集、训练BP网络学习方法实现倒立摆的稳定控制,仿真实验证明了本文方法的有效性。

【参考文献】

第8篇

1.1样品来源12批穿心莲药材样品由广东省中药研究所提供,经广州华南植物研究所陈炳辉研究员鉴定为穿心莲Andrographispaniculata(Burm.f.)Nees,其中4批产自江西,5批来自广东,福建3批。

1.2试剂乙腈(色谱纯),甲酸(分析纯),二次蒸馏水(自制)。

1.3仪器Agilent四元泵高效液相色谱仪、SPD210A紫外检测器,LC210ATVP输液泵、UV24802型紫外可见分光光度计,AR2140电子分析天平。

2方法

2.1色谱分析条件PhenomsilODS柱(250mm×4.6mm,5μm),0.1%甲酸乙腈(A)与0.2%甲酸(B)梯度洗脱:0~20min(20%A-80%B),20~40min(30%A-70%B),40~55min(40%A-60%B),55~60min(85%A-15%B)。流速1.0ml/min,柱温25。C,检测波长254nm,进样量10μl,所有组分均在60min内被洗脱。

2.2对照品溶液的制备精密称取穿心莲内酯、脱水穿心莲内酯、新穿心莲内酯和脱氧穿心莲内酯对照品适量,用50%甲醇配制成1.0mg/ml的对照品溶液。

2.3供试品溶液的制备取各批干燥的穿心莲药材2.0g,粉碎,过40目,用20ml85%的乙醇回流提取两次,2h/次,过滤,合并滤液,回收乙醇,滤液浓缩至干,再加50%甲醇使其充分溶解,置10ml量瓶中稀释至刻度,作为供试品溶液。

2.4方法学考察

2.4.1精密度实验取供试品溶液(样品1),连续进样6次,各主要色谱峰的相对保留时间和相对峰面积比值的RSD均小于3.0%,表明仪器精密度良好。

2.4.2稳定性实验取供试品溶液(样品1)分别在0,1,2,4,12,24h进样测定,各主要色谱峰的相对保留时间和相对峰面积比值的RSD均小于3.0%,表明样品在24h内稳定。

2.4.3重复性实验取穿心莲药材(样品1),按“2.3”项下的方法分别制备供试品溶液6份,进样检测,结果各主要色谱峰的相对保留时间和相对峰面积比值的RSD均小于3.0%,表明方法的重复性良好。

2.5模式识别方法

2.5.1模式识别和BP神经网络模式识别作为一个研究领域,迅速发展于20世纪60年代,它是一门以应用数学为理论基础,利用计算机应用技术,解决实际分类及识别问题的学问[2]。

神经网络是一种模拟人脑功能的成熟的模式识别方法,它借鉴了人脑神经系统处理信息的过程,以数学网络拓扑结构为理论基础,其中BP神经网络是迄今为止应用最为广泛的神经网络[3]。

BP神经网络是一种有监督的学习算法,它的特点是同一层内的神经元不连接,在整个信号传递过程中不存在任何信号反馈;输入层用于信号分配和传递,不具备运算功能;隐含层和输出层的神经元具有运算功能,可输出最终运算结果。BP神经网络的学习过程有正向与反向两个过程,在正向传播过程中,输入信息从输入层经过隐含层传向输出层,若不能得到预期输出,则转为反向传播,将信号沿原来的连接通道返回并修改各层节点间的权值,经过反复调试,使得误差信号小于某个阈值或等于0,此时训练结束。经过训练的网络则可将系统规则、预测能力等隐含在网络中,只需将测试样本输入则可给出处理结果。

2.5.2Levenberg-Marquardt算法改进的BP算法BP神经网络的常规算法在实际应用还存在一些需要改进的问题,例如网络学习收敛速度慢,容易陷入局部极小等。而L-M算法是专门用于误差平方和最小化的方法,它在网络训练速度和识别精度上的具有明显的优势[4],因此本研究采用L-M算法对标准的BP算法进行改进。

设BP神经网络的误差指标函数为:

E(x)=12¶Ni=1Yi-Y^i2=12¶Ni=1e2i(x)

其中,Yi为实际输出向量,Y^i为预期的输出向量,ei(x)为误差。

设xk表示第k次迭代的权值和阈值组成的向量,新的权值和阈值组成的向量xk+1表示为:

xk+1=xk+x,x=[JT(x)J(x)=μI]-1J(x)e(x)

其中,J(x)为网络训练误差e(x)的Jacobian矩阵,I为单位矩阵,μ>0。

L-M算法的流程:①给出训练误差允许值ε,常数β和μ0,初始化权值和阈值向量k=0,μ=μ0。②计算网络输出及误差指标函数E(xk)。③计算Jacobian矩阵J(x)。④计算x。⑤如果E(xk)<¶,则转到⑥,否则以xk+1=xk+x为权值和阈值向量计算误差指标函数E(xk+1),若E(xk+1)<E(xk),则令k=k+1,μ=μ/β,转到②;否则令μ=μβ,转到④。⑥结束。

当μ=0时,L-M算法即高斯-牛顿法,当μ取值很大时,则越接近梯度下降法。在实践中,它具有二阶收敛速度,所需要的迭代次数很少,既具备牛顿法的局部收敛特性,又有梯度下降算法的全局特性。因此,L-M算法提供了一种快速有效的训练手段,其算法计算复杂度为O(n3/6)。

2.6指纹图谱的建立和分析

2.6.1穿心莲的指纹图谱按照上述方法,分别对12批穿心莲药材进行分析,制作了穿心莲药材的HPLC指纹图谱,并计算出其穿心莲内酯、脱水穿心莲内酯、新穿心莲内酯和脱氧穿心莲内酯的含量。

2.6.2资料预处理为消除由于数据变换的幅度和范围以及数据分布的非正态性对结果的影响,先将原始数据进行标准化变换。

2.6.3LM-BP神经网络结构及训练测试结果本实验所采用的3层LM-BP网络中,输入节点数为4,即原始数据经特征提取后的4个主成分,隐含层节点数为4,输出层有1个节点。由于目前仍无系统的关于中间隐层节点数的选取理论,经多次实验比较,最终选取隐层节点数为4时效果比较显著。

动量因子和学习速率是影响BP神经网络训练速率和收敛度的两个重要因素。如果学习效率和动量因子过大则网络收敛很快,但最后网络发生振荡,失去功能;如果学习效率和动量因子太小则学习速度太慢,网络性能也会受到影响。因此经实验比较选择,本网络的最佳学习率为0.05,动量因子为0.6。

第9篇

关键词:神经网络 图像处理 机器人 草莓

中图分类号:TP301.6 文献标识码:A 文章编号:1007-9416(2012)07-0091-02

国内外对图像处理技术和神经网络理论在果蔬商品化应用中的部分成果已进入了实用阶段。随着计算机科学的飞速发展和在许多领域中的成功应用,果蔬采收分级的实时自动化已经变得完全可能。但是,生物特征的多变性和随机性与工业产品有着很大区别。在草莓采收、分级这一过程中,为了提高检测的精度、速度和准确性,需要解决多种技术问题,如:光源的选择和设置;图像的采集方式和图像的质量;硬件处理速度;模式识别算法;要求有更多分级算法的训练样本等。从长远看,应该对拣选对象的形状、表面、光学、热学、化学、生物学等各方面的特征和生理机能进行更加深入的研究,这样才有利于检测技术改进,促使新的信息采集技术和传感技术的产生。

草莓是一种营养丰富的高级水果,随着人们生活水平的提高,草莓按其颜色、形状及大小进行拣选分类、包装将成为趋势。因此,草莓形状的判别的研究和草莓拣选设备的开发具有很重要的现实意义。

1、草莓形状的判别

收割后的草莓按其颜色、大小、形状均可分为不同的等级。因此,草莓形状的判断是拣选者根据对标准草莓规格的理解和经验来判断出结果。本设计中草莓形状的识别部分采用了神经网络的识别技术,神经网络具有学习功能和很强的模式识别能力,即使当局部网络受损时,仍然能够恢复原来信息。神经网络的信息分布式存储于联结权值系数中,使网络具有很高的容错性,而图像识别中往往存在噪声干扰或输入图像的部分损失,因此,神经网络可以很好地解决图像识别问题。另外,神经网络的自组织和自学习功能,使其对图像问题的识别和处理较传统图象识别方法显示出极大的优越性。因此,草莓拣选设备只要通过对标准形状草莓的学习就可得到非常接近人的判别效果。

为此,本论文提出了一种新的算法来解决草莓拣选的问题,该算法是基于图像处理技术、神经网络算法而生成的一种草莓形状判别算法。并利用该算法开发了草莓拣选设备。

2、草莓拣选设备的构成

草莓拣选设备硬件系统组成如图1所示。CCD摄像机将所要识别、解释的对象以图像的形式记录下来;插入计算机内部的图像采集卡可以将摄像机采集的电信号转变为数字信号,即图像数字化,以便计算机对其进行各种必要的处理;照明装置为图像采集提供合适的光源,以便对图像进行处理和分析。

3、草莓形状图像分割及特征提取

人工拣选草莓时很容易根据草莓果实部分的形状特征来判别其等级,但对草莓拣选设备来说,草莓是任意放置在传送带上的,计算机采集到的草莓图像其方位是不确定的。因此,本设计采用了彩色图像处理技术。图2中,(a)图是图像卡采集到的草莓图像信号以RGB彩色模型显示在监视器上。它的R辉度图像如图(b)所示。想要得到草莓的形状特征图像,就要对采集到的草莓彩色图像做以下处理:

第一步:把彩色图像转换成黑白的二值图像,经过滤波、填充、提取边缘信号等处理后,最终得到整体轮廓线图像(c);

第二步:彩色图像减去R辉度图像产生目标图像(d);

第三步:目标图像经二值和边缘提取处理后,得到了果实轮廓线图像,如(e)所示;

第四步:最后把整体图像轮廓线图像和果实轮廓线图像这两种图像进行逻辑运算,然后得到曲线型草莓形状特征图像,如(f)所示。

4、基于神经网络的判别

得到的草莓形状特征可以用一组八参数来表示,要划分A、B、C等级就需要控制两个空气驱动器。我们建立的人工神经网络是基于BP算法的前向三层神经网络,如图3所示。选用了两个结构简单的BP网络,输入为8,正好每个参数对应一个输入端单元;输出为2,每个输出单元控制一个空气驱动器。在进行前向多层神经网络的学习时,不断调整隐层节点数,经过试验,采用8-4-2结构。

5、软件程序的功能

判别草莓形状的系统软件程序是实现草莓的拣选功能的关键。系统软件在功能上划分为训练部分和判断部分。训练部分包括图像处理、特征提取和网络训练;判断部分包括图像处理、特征的提取和判断以及草莓的移动控制。系统程序用MicrosoftC语言编写,程序流程图如图4所示。

6、结语

本文通过计算机图形处理技术、模式识别等理论的研究,结合神经网络算法进行了草莓形状判别的设计,在草莓形状的有效特征提取和分类识别方面进行了理论上的研究,提出了基于前向三层神经网络和计算机图像处理的一种能对草莓形状进行自动判别的新方法,为草莓的拣选机器人的开发提供了理论基础。草莓拣选设备乃至其他水果拣选设备的开发对将要进入老龄化社会的我国来说是很有意义的。

参考文献

[1]王耀南,李树涛,毛建旭.计算机图像处理与识别技术[M].北京:高等教育出版社,2001.237~260

[2]曹其新,吕恬生,永田雅辉等.草莓拣选机器人的开发[J].上海交通大学学报,1999,33(7):880~884.

[3]王年,任彬,黄勇等.基于神经网络的汽车车型图象自动识别[J].中国图象图形学报1999,4(8):669~672.

[4]福利(Foley,J.D.)等著.计算机图形学原理及实践C语言描述[M].北京:机械工业出版社,2002.6~36.

[5]徐丽娜.神经网络控制[M].哈尔滨:哈尔滨工业出版社,1999.4~34.

[6]田村秀行编著,金喜子,乔双译.计算机图像处理[M].北京科学出版社,2004.86~115.

第10篇

1、BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)。

2、BP神经网络算法是在BP神经网络现有算法的基础上提出的,是通过任意选定一组权值,将给定的目标输出直接作为线性方程的代数和来建立线性方程组,解得待求权,不存在传统方法的局部极小及收敛速度慢的问题,且更易理解。

(来源:文章屋网 )

第11篇

[关键词]反射认知创造神经网络人工智能

一、生物神经网络系统

生物神经系统是以神经元为基本单位,神经元的外部形态各异,但基本功能相同,在处于静息状态时(无刺激传导),神经细胞膜处于极化状态,膜内的电压低于膜外电压,当膜的某处受到的刺激足够强时,刺激处会在极短的时间内出现去极化、反极化(膜内的电压高于膜外电压)、复极化的过程,当刺激部位处于反极化状态时,邻近未受刺激的部位仍处于极化状态,两着之间就会形成局部电流,这个局部电流又会刺激没有去极化的细胞膜使之去极化等等,这样不断的重复这一过程,将动作电位传播开去,一直到神经末梢。

神经元与神经元之间的信息传递是通过突触相联系的,前一个神经元的轴突末梢作用于下一个神经元的胞体、树突或轴突等处组成突触。不同神经元的轴突末梢可以释放不同的化学递质,这些递质在与后膜受体结合时,有的能引起后膜去极化,当去极化足够大时就形成了动作电位;也有的能引起后膜极化增强,即超极化,阻碍动作电位的形成,能释放这种递质的神经元被称为抑制神经元。此外,有的神经元之间可以直接通过突触间隙直接进行电位传递,称为电突触。还有的因树突膜上电压门控式钠通道很少,树突上的兴奋或抑制活动是以电紧张性形式扩布的,这种扩布是具有衰减性的。

图1

一个神经元可以通过轴突作用于成千上万的神经元,也可以通过树突从成千上万的神经元接受信息,当多个突触作用在神经元上面时,有的能引起去极化,有的能引起超极化,神经元的冲动,即能否产生动作电位,取决于全部突触的去极化与超级化作用之后,膜的电位的总和以及自身的阈值。

神经纤维的电传导速度因神经元的种类、形态、髓鞘有无等因素的不同而存在很大差异,大致从0.3m/s到100m/s不等。在神经元与神经元之间的信息交换速度也因突触种类或神经递质的不同而存在着不同的突触延搁,突触传递信息的功能有快有慢,快突触传递以毫秒为单位计算,主要控制一些即时的反应;慢突触传递可长达以秒为单位来进行,甚至以小时,日为单位计算,它主要和人的学习,记忆以及精神病的产生有关系。2000年诺贝尔生理学或医学奖授予了瑞典哥德堡大学77岁的阿维·卡尔松、美国洛克菲勒大学74岁的保罗·格林加德以及出生于奥地利的美国哥伦比亚大学70岁的埃里克·坎德尔,以表彰他们发现了慢突触传递这样一种“神经细胞间的信号转导形式”。本次获奖者的主要贡献在于揭示“慢突触传递”,在此之前,“快突触传递”已经得过诺贝尔奖。此外,使用频繁的突触联系会变得更紧密,即突触的特点之一是用进废退,高频刺激突触前神经元后,在突触后神经元上纪录到的电位会增大,而且会维持相当长的时间。所以可以得出一条由若干不定种类的神经元排列构成的信息传导链对信息的传导速度会存在很大的弹性空间,这一点对神经系统认知事件有着非常重要的意义。

神经系统按功能可大致分为传入神经(感觉神经)、中间神经(脑:延脑、脑桥、小脑、中脑、间脑、大脑脊髓)与传出神经(运动神经)三类。

生物要适应外界环境的变化,就必须能够感受到这种变化,才能做出反应。生物的感受器多种多样,有的是单单感觉神经元的神经末梢;有的是感受器细胞;还有的感受器除了感受细胞外还增加了附属装置,且附属装置还很复杂,形成特殊的感觉器官。无论感受器的复杂程度如何,它在整个神经系统中都起着信息采集的作用,它将外界物理的或化学的动态信号反应在感觉神经细胞膜的电位变化上,膜上的电位变化可形成动作电位向远端传导。

中间神经在系统中起着计算及信息传导的作用,通常感觉神经传来的动作电位经过若干个中间神经元的计算响应后在传递到传出神经形成反射弧,但也有的反射弧仅由传入神经元与传出神经元直接组成,如敲击股四头肌引起的膝反射。传出神经可分为躯体神经与内脏神经两类,它们都最终连接着效应器,只是内脏神经需要通过一个神经节来连接效应器,最后由效应器调空肌体器官做出相应的反应。

二、生物神经网络的建立

1994年,一种被称为Netrin-1、将轴突吸引到分泌它的神经细胞的可扩散蛋白被发现,此后人们发现,同一轴突引导分子既可吸引、也可排斥前来的轴突。其中,环状AMP(也称cAMP)、环状GMP(也称cGMP)和钙离子,都可能是从参与将发育中的神经元引导到其目标上的受体中转导信号的第二种信使。新的实验表明,正是cAMP/cGMP的比例决定着Netrin-1是起一种吸引信号的作用还是起一种排斥信号的作用,这些环状核苷通过控制轴突生长锥中的L-型钙通道来起作用。

目前已经发现大量对神经轴突生长具有导向作用的分子,这些分子可以分为两大类:一类分子固着在细胞膜表面或细胞外基质中,影响局部的神经纤维生长,这类因子包括ephrin,MAG(myelin-associatedglycoprotein),Nogo等;另一类是分泌性分子,能扩散一定的距离并形成浓度梯度起作用,如netrin,slit,semaphorin家族的大多数成员,及各种神经营养因子等。神经轴突的前端有生长锥(growthcone)的结构起到对环境信号的探测作用。神经生长锥表面存在各种导向因子的受体,它们特异地识别环境中各种因子,并向细胞内传递吸引(attractive)或是排斥(repulsive)的信号,从而通过调节生长锥内的细胞骨架的重组来引导神经纤维沿特定路线生长(我国科学家袁小兵等研究人员发现,在脊髓神经元上,神经细胞内RHOA酶和CDC酶直接传递外界方向信号,引导神经生长方向,同时这两种酶相互作用,对生长方向进行细致的调节)。未成熟神经细胞柔弱的轴突在这些信号的引导下,试探地穿行于正处于发育阶段、仍是一片纷乱的大脑之中,最终抵达适当的目的地。一旦轴突的末端找到了其正确的栖息地,它就开始与周围神经元建立尽可能广泛的突触联系,以便传导信息。

脊椎动物出生后早期发育中的一个特征是,神经键(或神经连接)的消除。最初,一个神经肌肉连接被多个轴突支配,然后所有轴突都退出,只剩下一个,对相互竞争的神经元来说,决定胜负的是它们的相对活性。为了能准确的连接到目的地,单个或多个神经元会沿导向分子所确定的大致方向上生长出若干条神经纤维,其中总会有能正确连接到目的地的神经纤维,所建立的若干神经链路在刺激信号的作用下,正确的信息传递会使链接会变的更加稳固,反之则慢慢萎缩分离。打个比方讲:两个城市间原本没有路,如果要修的话会先派人去探索出若干条路,最后去修筑被优选出来的路,而其他的则会被遗弃。

三、神经网络的基本工作原理

1、反射

自然界中,事物的发展、能量的转化、信息的传递等等各种的自然现象都包含着因果关系,只要时间没有停滞,这种关系将广泛存在,从“因”到“果”,贯穿着事物的发展过程,当过程长且复杂时我们称之为“事件”,反之则称之为“触发”。

生物个体在与外界环境或是个体自身进行物质或信息交换时,也存在着这种现象,在这里我们称之为“反射”。

反射是最基本的神经活动,现行的说法是将反射分为两种,无条件反射和条件反射,其中,无条件反射是动物和人生下来就具有的,即遗传下来的对外部生活条件特有的稳定的反应方式,在心理发展的早期阶段,这种反应方式提供最基本的生存技能,也就是本能,如:食物反射、防御反射、定向反射,还有一些可能是在人类进化过程中,曾经有一定生物适应意义的无条件反射,如:巴宾斯基反射、抓握反射、惊跳反射(又叫摩罗反射)、游泳反射、行走反射等,此外,还有其他一些无条件反射,如眨眼反射、瞳孔反射、吞咽反射、打嗝、喷嚏等等。

条件反射是后天训练出来的,著名科学家巴甫洛夫就曾对条件反射的形成、消退、自然恢复、泛化、分化以及各种抑制现象进行过相当细致、系统的实验研究,。

无论是条件反射还是无条件反射,从主观上都可以看作是一种因果作用关系,即都存在着触发条件,都会导致某一结果的产生,所以无条件反射其实也属于条件反射范畴。只有在成因上,无条件反射是根据遗传信息形成的神经网络结构,而条件反射是后天在先前的网络基础上,依据外界环境继续发展完善的神经网络结构。两者之间是继承和发展的关系,但从这两个阶段所形成的神经网络功能来看,对外界的刺激都具备输入、传递、输出这一处理过程即反射过程,所以从某种意义上讲,也可以把无条件反射归类到条件反射范畴中去,或者说条件反射等同于反射。

神经系统中的条件反射具有三个要素:输入、传递、输出。其中的每一个要素既可以用单个神经元表示,也可以用一个神经群落来表示。当用少数几个神经元表示时,对应的是生物个体对局部刺激的反应,当扩展到神经群落时,对应的就可能就是对某一激发事件的处理方法了。

反射中的输入,最能使我们联想到传入神经元(感觉神经元),但在这里,它可以指单个的感觉神经元,也可以指一种感官(眼睛中的视神经群落、耳中的听觉神经中枢、皮肤中与各类感受器连接的神经群落等等),甚至可以是大脑中某一区域内形成某一表象或是概念的神经群落。反射中的输出同样可以指传出神经元(即脊髓前角或脑干的运动神经元),也可以指大脑中某一区域内形成某一概念或是表象的神经群落。反射中的中间传递过程是信息的加工处理的过程,可以由单个神经元、神经链路或是神经网络来承担,甚至可以直接由输入与输出的对应载体来分担。这样生物神经系统中的反射弧只是它的一个子项罢了,条件反射在主观上也对应着我们常说的“产生、经过与结果”即因果关系。

2、认知

有一个低等生物海兔的记忆试验:海兔本身具有被触摸(水管部分)后的鳃缩反射,但连续十几次的刺激后,鳃缩反应就逐渐减慢.经过研究发现,海兔的习惯化是由于神经递质发生变化所致.进一步的研究发现这种变化是突触中的感觉神经元的Ca离子门关闭,导致递质的释放量减少所致.上述试验说明简单的记忆与神经递质和突触有关.又如大鼠的大脑皮质切除试验:用迷宫训练大鼠,如果大鼠学会并记住顺利走出迷宫的道路后,切除它的大脑皮质,记忆就会消退.不论切除的是大脑皮质的哪一部分,总是切除的多,记忆消退的多;切除的少,记忆消退的就少。

首先,认知通常强调的是结果,是神经网络定型后的结果。神经网络的定型过程就是认知的建立过程,也就是生物个体的学习过程,它同时表现了出生物的记忆过程。定型好的神经网络对触发信息的处理过程即反射过程,就是记忆的提取过程,也正是通过这一过程反映出了认知的存在。

生物个体对客观事物的认知可以解释为:客观事物在主观意识中形成了表象,并且该表象与一系列的活动(生理的或心理的)相联系。换句话说,某一客观事物的信息如果经过大脑处理能够引发出一系列的动作(这是一种反射现象,符合前面对反射的定义),我们就可以说对这一事物已经认知了。

行为主义与符号主义中对认知建立过程中所显现出的记忆现象都有很详细的类别划分,其中每一种记忆类别都仅与一种认知的建立模式相对应。所以,与其用记忆类别来划分还不如用认知类别来划分更为合理,在这里由于篇幅所限,我仅将认知简单概括为以下三种类别:物体认知、事件认知以及两种认知的衍生产物抽象事物认知。

a、物体认知

感受外界客观环境最简单的办法是通过感官直接去“接触”物质对象,并通过大脑处理,并最终导致一个或一系列的结果,这种因果过程就是对客观物体的认知。如:看到一个苹果,我们产生了拿的动作,同时也可以产生许多其他的动作如激活色彩感觉中枢、激活味觉中枢等等,当可以有这些动作产生时,就完成了对苹果的认知。

下面我们将详细讲解神经网络对物体认知的描述。

一个输入集合I(触觉、视觉等的感应细胞构成的集合或是处于某一层次上的神经元集合)对之内两个不同区域(A、B)的刺激做出相应Y与X两种不同反应的神经处理过程,如图2。

图2的a、b、c为三种AB可能存在的输入情况。图2a中A、B分别对应Y、X,神经链路没有重叠,刺激A时得到Y的输出,刺激B时得到X的输出,结果不会出现问题,请注意:带有方向的黑线只是代表逻辑上的链路,在实际中,链路与链路之间有质的区别,这里只做简单的等价说明,用数量表示质量。图2b中A、B间有了交叉,在处理过程中,当A受到刺激会产生Y的输出,同时会有三条逻辑链路去刺激X,但做为X的全部决定因素,这三条相比从B到X余下的空闲联络,只占很小的一部分,它们还不足以激活X,所以分别刺激A、B仍然会得到正确的输出。对于X这种在某一层次上的输出神经元来说,是否能被激活,主要取决于所有处于不同状态的输入链路的能量对比,在这里能量被量化为逻辑链路的数量,这样每个神经元对值的判断则等价为判断处于激活状态的逻辑链路数是否过半。此类神经链路就是兴奋类传导神经网络,单纯采用此类神经链路的系统只需要根据相应刺激感受区域是否有刺激发生,就可以得出正确的输出结果,但是在图2c中,刺激区域A包含着B的情况下,如果刺激B区会有正确输出X,然而如果刺激A区则会出错,Y与X会同时有效,这时我们就需要一种链路来阻止这种错误的发生,这就是抑制类神经链路,如图2c中的虚线箭头所示,抑制类逻辑链路只起到冲减、抵消兴奋类逻辑链路数量的作用,使得X在冲减后的兴奋链路合计数小于阀值,从而达到唯一正确输出Y得目的。

在图2中列举的神经网络认知模式中,虽然只涉及到了输入与输出,但在两者之间已经包含了计算的成分,或是说承担了传递计算的功能,此外不难发现:能够对某一物体认知,必须要首先区分开其他物体,尤其是符合图2c中的情况,物体间的差异正好可以满足这一需求。这样,即使是从同一个感官传来的信息,也能做到很好的区分。

当认知的对象较为复杂时(如苹果),对象包含有各种各样的属性,其中的每一种属性的响应过程,在局部都遵循着反射的定义。当在某一时刻,与苹果相关的各种属性的神经子网络被大部分激活时,苹果的表象就成了焦点。更确切的讲是,感官捕捉的信息在传递的过程中,经过了代表各种属性的神经子网络,一些属性因条件不满足而停止传递,最后由可以通过的(即被确认的属性)神经子网络继续向后传递,最后再引发一系列的动作,其中反射可以指局部的传递(单个属性的确认),也可以指整个传递过程(看到苹果后,可以去拿可以去想等等)。

苹果在人脑中形成的表象,其实就是指感官根据苹果实物产生的电信号所能经过的神经链路,神经链路与神经网络的关系相当于行走路径与公路网的关系。此外其他的神经区域输出的电信号如果在传递过程中也能引发出与前面提到的“苹果神经链路”相同或相似动作或是功能的话,也可以说是形成了苹果的表象,这种现象可以使我们认知客观世界不存在的事物或个体自身从未接触过的事物。

b、事件认知

任何事物在一段时间内发生了变动,在这里都可以被称之为事件。因果关系同样也具备事件的属性,如果能深入分析一下各种事件的过程,基本上都能找到因果关系的影子。在前面对物体的认知中,我们知道了神经网络认知物体是以因果关系的方式建立的网络链路,为了不引起混淆,下面以因果关系为认知对象的,我们用事件来代替,对事件的认知过程,近似于对物体的认知过程,相当于把事件等同于物体,由于事件具有时间性,所以神经网络就必须能够处理时间问题。

神经元的形状各异,轴突有长有短,且对信息的加工时间与传递速度也各不相同,这样对同一起点不同的传递路径,信息的传递速度可能不同。还以图2为例,现在假设每一个箭头除了代表一个神经元连接外,还代表一个单位传递时间,当首先刺激A区后并在第二个单位时间内刺激B区,将两次触发过程当作一个事件,导致一个输出Y;同法当先刺激B区,然后在刺激A区时会有另一个输出X,如图3

根据这种通过神经链路上神经元个数进行延时的方法,任何处于时间片段上的信息都可以被处理。我们再举个更加复杂的例子,单输入神经元网络对摩尔斯电码的识别与重现。

假设输入神经元为A,按严格的尔斯电码规则来刺激该神经元,最后由神经网络得出字符序列,如图4

当A收到刺激信号时,将信号广播给不同的识别群体,图4中只给出了其中的一个网络群体,给出的这个群体只能认识字符“b”即电码“—…”。为了简化说明,图4中舍弃了每个神经元的其他输入输出链路以及相关的抑制链路,所以图中的每一个指向神经元的箭头均存在着“与”的逻辑运算关系,在这里它们不表示逻辑数量。

由图4可以看出,先收到的信号经过较多的传递神经元进行延时,再连同后面收到的信号一起同时传递到结果输出上,这样处于时间片段上的信息就可以被当作是一个整体来进行处理。粗虚线上半部分为输入识别部分,下半部分为信息重现部分,仔细观察就会发现,两部分的神经链路并不是互成镜像,输入为前端延时,依次为:1、3、5、7、8、9,输出为后端延时,依次为:9、7、5、3、2、1,所以认识事物与应用事物是由两套不同的神经网络来控制完成的。图4中的两条倾斜细虚线是一个虚拟的标示线,从某种意义上讲这里是事物的表象层,中间本应该是更加复杂的表象处理网络,在这里只简单的假设性的给出了表象输出与输入。

c、抽象概括与抽象描述

对事物(事件、物体)的认知,使我们得以在大脑中建立出与客观世界相对应的表象,作为记录事物表象的神经链路网上的每一个分支与合并都可能是事物在不同层次上的一种“特征的概括与描述”(参见图3左图)。

神经网络在认知新的事物时,输入信息总是尽可能的使用已存在的网络链路进行传递处理,当处理不足以产生正确的结果时才在信息的中断处搭建新的网络连接。在局部,如果已存在的网络链路可以被使用,那么这部分网络结构通常是一种共性的表达,当这种表达随着同类认知的增加而逐渐完善时,就可以作为一种属性的表象,这在主观上是一种抽象概括的过程。

例如,对苹果的认知,“苹果”本身是一个概括出来的词汇,它不具体指哪一个苹果,但在认知若干个具体苹果的过程中,与各个苹果相对应的神经链路的共用部分被逐渐加强,这部分神经网络就可以说是“苹果”这一概念的表象区域。此外,神经网络结构不光能实现对有形的抽象概括,也可以对无形的加以抽象概括,例如“水果”的表象,这一表象的形成可以说是用若干不同种类的水果培养出来的,也可以说是由“苹果”、“梨”等等表象的神经链路的共用部分完善而成的,后一种方式可以理解为抽象概括可以建立在另一种抽象概念之上,即对无形的事物也可以做抽象概括。换个角度讲,这些抽象出来的表象本身就是一种有形的物质,它是由若干神经元搭建起来的网络系统,是客观存在的东西,这样的话就与第一种方式相一致了。

语言是生物间交流的工具,是生物为了更好的适应周围的环境而进化产生的,在这里它包含有声音、文字、动作、行为以及低等生物的化学接触等等内容。就拿我们人类来说,每一个发音、每一个文字符号都可以说是对应着一种表象,这个表象可以是抽象出来的也可以是具体事物产生的。语言是通过触发来进行工作,当然也可以说是一种反射或是因果现象。无论是说还是听,也不论是写还是看,对于说或者是写这种输出性质的处理,可以解释为某个表象被激活时,它又被作为输入信号沿着该表象至发音或是运动器官间的语言神经链路传递电信号,直至发音或是运动器官做出相应的动作。听与看也是如此,感官接收到信息后传递直至激活某一个表象区域(请参见图4)。语言与表象之间广泛存在着对等映射关系,它可以使我们能够直接去运用语言来进行思维,即便是表象与输入输出没有语言神经链路对应关系的,如果需要我们也会临时的建立起语言神经链路,如本文中说的图几图几、这个那个等等,或者用相关的有语言链路的表象通过塑造、阐述、刻画、定位等等方式来体现或是建立该表象,这种建立神经链路的过程往往体现出不同种类的记忆模式。

生物的记忆过程与机械的存储过程原理基本相同,都是通过改变载体的性状来表达的,只是生物是通过神经网络的响应过程来表达或再现记忆的内容,就是说该神经网络的连接结构就反映着记忆的内容,所以生物的记忆过程就是建立特定连接方式的神经网络的过程,而提取过程就是激活这部分神经网络的过程。一旦载有相关记忆内容的神经网络结构被确定时,能量只能体现在信息的提取与再现上,当然维持这种结构也需要一点能量,不然神经元就饿死了:)注意:这里强调的是“过程”。

生物的认知过程对外表现为学习过程,对内表现为神经网络的建立及使用过程,在学习过程中往往会同时伴随着反馈过程(内反馈或外反馈),生物从外界获得信息,传递处理后再作用给外界,并同时获取作用后新的信息,周而复始的运做,这就是外反馈过程。外反馈过程是依靠外界因素帮助或是引导或是促使生物个体建立起能与环境相协调运做的神经网络系统,主观上我们称之为“教育”。内反馈主要体现在我们的思维活动上,通常外界事物在大脑中存在着对应的表象,被外反馈完善了的事物表象之间同样可以建立起互动联系,比如讲一个事物的表象被激活(输入),引发其他的表象也被激活(输出),这些被激活的表象同样也可以作为输入去激活先前的或是其他的表象,然后周而复始的运做,使得信息得以在脑内进行反复的处理。内反馈过程实际上就是一种“自学”的过程,但它的激发源头必定是与外界有关,并且最终要作用于外界,所以说内外反馈往往是兼而有之的。

在认知过程中随着内反馈的素材(表象)不断增多,生物个体渐渐能够认知自身与外界间的互动关系,自我意识也就随之产生,同时我们用以进行思维的素材及其运作方式,如概念,词汇以及由这些材料所带来的情感因素及组织方式等等,绝大部分都来源于前人或者是借用他人的经验,生物个体对这些经验素材的获取,或是由于接触的几率的不同,或是由于认同的程度的高低,个体间总会存在着差异,这样就产生了我们不同的个性特征。

3、创造

生物在与周围环境发生相互作用时,不可避免的会对周围的环境造成一定的影响,无论是主动的还是被动的,这些对环境的影响最终都是为了促使生物以更好的适应周围的环境。遵循优胜劣汰的法则,好的影响将会被保留继承下去,如搭窝、建巢、获取食物等等,而坏的影响会增加生物生存的风险。

神经网络在认知事物后,事物的表象往往不是特定对应着某一个具体事物,而是对应着在一个模糊的范围内所含阔的一类事物。例如,我们认知的苹果,泛指各种各样的苹果,甚至还包括那些嫁接出来的长的象其他水果的苹果等等。在我们依据苹果的表象勾勒出一个具体的苹果时,这个苹果将肯定不会与客观世界中的任何一个苹果相同,因为没有两样东西是绝对相同的。产生一个客观世界不存在的事物,就是创造,其过程就是创造的过程。

生物神经网络中事物的表象往往穿插交错在一起,它们以链路最省的方式构成。任何神经链路上的合并都可以说是事物的某一特征在某一层次上的概括,所以表象可以以不同的内涵层次来拆分成各种各样的属性单元(元素),而任何神经链路上的分支都可以说是事物的某一特征在某一层次上的副本,使得这些属性单元也能够隶属于别的表象或是说用于构建(表达)别的表象,当若干种属性单元在某一时刻都处于激活状态时,就等同于一种表象被激活,无论这个表象是否对应着客观世界中的事物,如果没有对应关系那就是一个较高形式的创造过程。

创造的几种主要的表达形式:联想、推理、顿悟

a、联想

当一个事物的表象被激活时,也就是说该表象所包含的若干属性单元(元素)同时有效时,我们的注意力焦点就集中在这个表象上,如果对该表象的处理(内或外反馈)使的表象被否决时,也就是说由于一些属性单元的失效(或被抑制,或处于高阻),导致该表象无法成立的时候,剩余的属性单元或许可以构成另一种事物的表象,或许还需要结合那些被激活了的新的属性(或是由外界事物具有的新的属性所激活,或是因降低了对一些属性的抑制所导致的激活)。

b、推理

联想是一种去激活与事物表象相关联的其他表象的过程,主观上是一种横向扩展的过程,那么纵向过程就是由于一个或若干个事物表象被激活,从而导致另一个表象也被激活的过程,即推理过程,其中的任何一个表象的确立(激活)都会通过反馈过程加以验证。推理与联想在神经网络结构上十分的相似,功能上也基本相同,只是在主观认识上,联想更强调相关性或是相似性,而推理则强调的是次序性或层次性。

c、顿悟

当我们思考一件事情时,或设计一件东西的时候,常常会遇到百思不得其解的情况发生,但有时,在某个偶然的事件影响下,我们会突然明白或能够解决这些问题,这就是顿悟现象。

事物的表象是由若干个神经网络属性单元所构成的,我们说的“问题”在大脑中也是一种表象,是一种经反馈过程没有验证通过的特殊的表象,这个表象的属性单元可能包括具体的事物表象、抽象的事物表象、逻辑关系、公理、定律等等内容,但这些属性同时有效时,问题的表象并不能通过内外反馈的验证。作为一个急切需要解决的“问题”,“问题”的表象被反复的激活(深思熟虑反复思考),在一个偶然机会,一个别的事件表象被激活,或是因为此事件的某个属性单元弥补了“问题”表象的一个重要的空缺;或是因为此事件“问题”表象中的某个关键的属性单元被抑制失效,“问题”表象得以完善并能够通过反馈验证,这就是顿悟。

四、神经网络的相关问题

人在成长过程中,他的学习过程就是构建相应神经网络结构的过程,随着认知程度的增加,网络结构也日趋复杂,对刺激的反应过程也随之复杂化,当复杂到无法预测时,主观上就会认为反应过程是自发产生的,这是人的一种错觉。

幼年,人脑神经网络的建立过程需要大量的空闲神经元,基本雏形确定后,剩余的空闲神经元会损失大半,这样才能够给网络的发展腾出空间。余留下来的空闲神经元或是成为新建神经链路中的一部分而被确定下来;或是被用于临时搭建的某些链路;或是作为备用存在于网络的空隙当中。

青少年,神经网络属于高速建立阶段,这个阶段的神经网络可塑性极强,主要是因为针对事物的认知,即是以机械性记忆为主,对事物认知的量及内容是抽象逻辑思维建立的基础及倾向,随着量的增加抽象概括的能力会逐渐增强。

中青年,事物的认知量及逻辑思维能力的配比达到了最佳程度,不光有一套较好的能与外界交互的神经网络系统,而且神经网络还保留有发展的余地,即还保留有一定的可塑性。

中年,无论是抽象事物还是具体事物,认知量已基本确定,网络的结构已日趋复杂化,在一些局部,需要修改的或是新建的神经链路对空闲神经元的需求也已日趋紧张,使得我们的认知速度逐渐减慢。

老年,在许多的神经网络区域,空闲的神经元已开始满足不了认知的需求,另外因为无法认知新的事物,对外界的反应能力也开始下降,连带的相关神经区域得不到激活,神经链路的健壮性开始下降,以至于一些神经链路解体,伴随的就是认知量的下降,即健忘等等现象,并且成为一种恶性循环发展下去……。

五、后记

为了能清楚的阐述它的运行机制,同时也是为了验证这套理论,根据前面所提到的神经元的结构功能及组网方式,我通过计算机软件设计了虚拟的神经网络系统,2000年软件完成了调试,并得到了很好实验结果。

参考文献

1《现代科学育儿答疑》(0-3岁)人民教育出版社1999年第1版

2陈守良等,《人类生物学》,北京大学出版社,2001年12月

3陈阅增等(1997).《普通生物学》.北京:高等教育出版社

4苏珊·格林菲尔德,《人脑之谜》杨雄里等译

5陈宜张《分子神经生物学》人民军医出版社1997年2月

6伊·普里戈金、伊·斯唐热著、曾庆宏、沈小峰译《从混沌到有序》,上海译文出版社1987年版。

第12篇

摘要:坡面产流是土壤本身特性与外界影响因素相互作用的结果,它们之间具有明显的非线性输入输出关系。在分析坡面产流和神经网络模型具有某些相似的基础上,利用径流站观测资料,建立了小流域坡面产流量的三层前向网络模型(BP算法),并显示了具有较好的模拟预测效果。

关键词:人工神经网络 坡面产流 BP算法

1 引言

一般而言,整个流域的不同区域,其地形、地貌、植被、土壤、人类活动等条件不尽相同。模拟流域的产流、汇流、土壤侵蚀、产沙及其泥沙输移特性,首先需将流域概化成若干流域特性近似的计算单元-称为小流域单元。Simons et al[1]将流域分成若干计算单元,每个单元有它自己的流域边界,称为子流域。国内不少研究者也采用这种按自然水系划分子流域的方法[2]。

将流域概化为若干子流域的方法,对考虑流域降雨及下垫面条件的空间变化,建立整个流域的产流、汇流、土壤侵蚀、产沙和泥沙输移模型提供了很大的方便。为此,以这种自然水系划分方法为基础,把小流域划分为如下形式,见图1所示,其中图1(a)为小流域自然水系图;图1(b)为小流域按水系汇流结构划分模式;图1(c)为每一个小单元产流模式,即径流输出关系图,包括降水、区间来水、本单元上时刻的径流量和上一单元(或多个单元)的输出到本单元的输入径流量等输入变量,以及本单元调节作用后的输出径流量。

图1 小流域产流结构示意图

Sketch of runoff structure in the small watershed