起点作文网

神经网络方法(收集3篇)

时间: 2025-11-26 栏目:实用范文

神经网络方法范文篇1

关键词:物流行业;预算;神经网络方法;应用

1物流预测

物流行业在我国是一个新兴产业,最初的发展尤为重要。因此做好物流预测对整个物流行业的发展前景起到至关重要的作用。物流预测可以将不确定事件发生时的被动情况变为主动,当工作人员已经因为预测出到不确定事件发生,那么他们会制定相应的应急方案,那么在不确定事件发生时,工作人员只需要按方案采取行动即可。物流预测也对减小物流企业损失有很大的帮助,同时也是一股促进物流行业发展的巨大推动力。

在物流行业中的预测,也是需要以现实市场传递过来的消息以及环境、距离等具体因素为基础,在通过相关的神经网络技术进行物流预测。但是对于现实中的环境、距离以及收集到的信息都不可能是一成不变的,同时也可能会受到调研人的主观因素影响,进而使得物流预测的基础都存在一定的偏差,最终导致预测结果出现与现实不符的情况也是在所难免的。

在物流行业中,神经网络技术是进行物流预测的主要方法,大部门的物流企业都应用该种技术。这都源于它具有预测精准、操作相对简单等特点。神经网络技术也可以被细分为以下两个方面:第一,对物流方面的信息进行定性分析,根据分析结果进行预测。这种分析方法又可以采取很多其他的技术模式来对物流进行建模,不同的建模方法产生不同的预测效果,各有利弊。对于具体选取哪种建模方式,只能根据具体的物流信息来选择适合的建模方法。虽然这种方法对技术水平以及现实信息的精准度要求较高,但对物流信息进行定性分析的技术方法有利于精准的进行物流建模,进而更准确的进行物流预测,因此在物流行业中定性分析方法的应用较广。第二种方法就是相对应的定量分析,这种方法相较于定性分析法也具有其独特的优势。

随着科学技术的飞速发展,神经网络技术也得到不断的完善,更加能够满足物流预测的各种需求,也更善于解决影响物流预测准确度的各种问题。同时随着物流行业在我国的快速发展,也有越来越多的研究人员在相关领域进行研究和分析,这也成为推动神经网络技术在物流行业内的发展。

2人工神经网络BP算法

神经网络技术的发展历史悠久,并不是为了满足物流预测需求才产生的,相关研究人员从上世纪初就开始对这方面技术进行研究和分析。对于神经网络技术的发展经过可以根据其发展状态分为以下几个时期:首先,可以将它定义为开始阶段,在这一段时期内神经网络技术还没有完全成型,只是一些学者的理论研究,并没有多少科学依据;其次可以称为神经网络技术发展的低谷。在这段时间内基本很少有人涉猎这一领域,因此它的发展速度缓慢,没有取得任何实质性的突破。再次可以称为是神经网络技术的复兴阶段。在这一个时间段内,很多学者均进行了相关的研究,并在一定程度上取得了突破。最后的阶段是神经网络技术的一个蓬勃发展的阶段,在这段时间里,神经网络技术得到更多的研究人员的重视,同时也获得了相当大的进步和成就。直至目前,神经网络技术依然持续着它强劲的发展势头,在未来必将获得更大的突破。

基于上述情况,作者希望能够更加直观的介绍神经网络技术在物流预测中的应用。因此,在本文中,首先先对BP网络技术进行介绍。这种技术方法就是将神经网络技术应用到物流行业中去。下面通过分析这种技术的算法来进一步的了解它。设p为输入:w为权值;b为域值:a为输出。多层网络中的某一层的输出成为下一层的输入。描述此操作的等式为:

最后一层神经元的输出是网络的输出:a=aM

t是对应的目标输出。算法将调整网络的参数以使均方差最小化:

用来近似计算均方误差:

3神经网络预测模型建立

物流行业中进行预测一般先会制定预测方案,再从中选择出较为合适的方案。应用神经网络技术预测物流状况一般有以下几种常用的方案:第一种方案是以过去一段时间内的信息作为预测基础,再进行物流预测。当然这些历史信息必须是在规定时间范围内,并且近期内具体环境没有发生较大变化。第二种情况是以物流预测的相关数据为基础进行的预测。这种方案的优势在于更多地考虑了相关变量的细节分析。但是由于目前科学技术的发展环境下,尚对相关变量的研究有限,为了获得更为精确的预测结果,通常情况下会选择第一种方案进行物流预测。

在我国,物流行业得到快速的发展,这是以先进的神经网络技术为依托的良好效果。在本文中,作者通过对湖北省公路货运状况的举例分析来证明了神经网络技术在物流预测方面的重要性,这也间接表明神经网络技术有利于物流行业的整体运转和发展,促进了我国经济建设速度的提高。当然神经网络技术自身仍存在一定的问题,需要在不断地实际运作中进行完善和改进。相信随着科学技术手段的不断提升,神经网络技术的发展前景将会无限的美好,同时也会在物流预测方面取得更好更快的发展。

[参考文献]

神经网络方法范文篇2

【关键词】图像识别技术神经网络识别

模式识别研究的目的是用机器来模拟人的各种识别能力―比如说模拟人的视觉与听觉能力,因此图像识别的目的是对文字、图像、图片、景物等模式信息加以处理和识别,以解决计算机与外部环境直接通信这一问题。可以说,图像识别的研究目标是为机器配置视觉“器官”,让机器具有视觉能力,以便直接接受外界的各种视觉信息。

一、图像识别系统

一个图像识别系统可分为四个主要部分:被识图像、图像信息获取、图像预处理、图像特征提取、分类判决。

二、图像识别方法

图像识别的方法很多,可概括为统计(或决策理论)模式识别方法、句法(或结构)模式识别方法、模糊模式识别方法以及神经网络识别方法。重点介绍神经网络识别方法。

2.1神经网络识别方法

2.1.1人工神经网络的组成

人工神经网络(简称ANN)是由大量处理单元经广泛互连而组成的人工网络,用来模拟脑神经系统的结构和功能。而这些处理单元我们把它称作人工神经元。

2.1.2人工神经网络的输出

2.1.3人工神经网络的结构

人工神经网络中,各神经元的不同连接方式就构成了网络的不同连接模型。常见的连接模型有:前向网络、从输入层到输出层有反馈的网络、层内有互联的网络及互联网络。

2.1.4学习算法

1)感知器模型及其算法

算法思想:首先把连接权和阈值初始化为较小的非零随机数,然后把有n个连接权值的输入送入网络中,经加权运算处理后,得到一个输出,如果输出与所期望的有较大的差别,就对连接权值参数按照某种算法进行自动调整,经过多次反复,直到所得到的输出与所期望的输出间的差别满足要求为止。

2)反向传播模型及其算法

反向传播模型也称B-P模型,是一种用于前向多层的反向传播学习算法。

算法思想是:B-P算法的学习目的是对网络的连接权值进行调整,使得调整后的网络对任一输入都能得到所期望的输出。学习过程包括正向传播和反向传播。正向传播用于对前向网络进行计算,即对某一输入信息,经过网络计算后求出它的输出结果;反向传播用于逐层传递误差,修改神经元之间的连接权值,使网络最终得到的输出能够达到期望的误差要求。

B-P算法的学习过程如下:

第一步:选择一组训练样例,每一个样例由输入信息和期望的输出结果两部分组成;第二步:从训练样例集中取出一样例,把输入信息输入到网络中;第三步:分别计算经神经元处理后的各层节点的输出;第四步:计算网络的实际输出和期望输出的误差;第五步:从输出层反向计算到第一个隐层,并按照某种原则(能使误差向减小方向发展),调整网络中各神经元的权值;第六步:对训练样例集中的每一个样例重复一到五的步骤,直到误差达到要求时为止。

3)Hopfield模型及其学习算法

它是一种反馈型的神经网络,在反馈网络中,网络的输出要反复地作为输入再送入网络中,使得网络具有了动态性,因此网络的状态在不断的改变之中。

算法思想是:

(a)设置互连权值

其中xis是s类样例的第i个分量,它可以为1或0,样例类别数为m,节点数为n。

(b)未知类别样本初始化。Yi(0)=Xi0≤i≤n-1

其中Yi(t)为节点I在t时刻的输出,当t=0时,Yi(0)就是节点I的初始值,Xi为输入样本的第I个分量。

(c)迭代直到收敛

神经网络方法范文篇3

关键词:数据挖掘;神经网络;极速学习机

中图分类号:TP18文献标识码:A文章编号:1009-3044(2011)10-2368-04

SurveyofExtremeLearningofNeuralNetworks

YANGFeng-zhi1,PIHui1,SUJia-wei2

(1.SchoolofInformation,YunnanNormalUniversity,Kunming650031,China;2.SchoolofPhysicsandElectronicInformation,YunnanNormalUniversity,Kunming650031,China)

Abstract:NeuralNetworkhavebeenwidelyappliedinmanyfieldsincludingpatternrecognition,automaticcontrol,dataminingetc.However,thetraditionallearningmethodscannotmeettheactualneeds.Thetraditionalmethodismainlybasedongradientdescentanditneedsmultipleiterations;allofthenetworkparametersneedtobedeterminedbyiteration.Therefore,thecomputationalcomplexityandsearchingspacewillincreasedramatically.ELMisone-timelearningidea,thismethodisfasteralgorithmandvoidsanumberofiterationsandthelocalminimum,ithasbettergeneralization,robustnessandcontrollability.Butfordifferentdatasetsanddifferentapplications,itisusedforbothdataclassificationorregression.ELMalgorithmhassomeproblems.Sothispaperfollowacomprehensivecomparisonandanalysisofexistingmethods,futureresearchdirectionsarehighlighted.

Keywords:datamining;neuralnetworks;extremelearningmachine

随着计算机硬件设备技术的稳定进步为人类提供了大量的数据收集设备和存储介质;数据库技术的成熟和普及已使人类积累的数据量正以指数方式增长;Internet技术的出现和发展已将整个世界连接成一个地球村,人们可以穿越时空在网上交换信息和协同工作。在这个信息爆炸的时代,面对着浩瀚无垠的信息,人类正被信息淹没,却饥渴于知识。人类怎样从数据中获取知识,就是在这个背景下,数据挖掘应运而生。

但面对海量的不同类型的数据集,参考文献[1]中提出了数据挖掘遇到了的三个困难:首先,巨量数据集的性质往往非常复杂,非线性、时序性与噪音普遍存在;其次,数据分析的目标具有多样性,而复杂目标无论在表述上还是处理上均与领域知识有关;第三,在复杂目标下,对巨量数据集的分析,目前还没有现成的满足可计算条件的一般性理论与方法。由于真实世界的数据关系是很复杂的,非线性程度相当高,而且普遍存在着噪音。如果把神经计算技术用于数据挖掘中,借助神经网络的非线性处理能力和容噪能力,能够较好的解决数据挖掘中存在的问题。但将神经计算技术用于数据挖掘主要存在两大障碍:第一是神经网络学到的知识难于理解;第二是学习时间太长,不适合于大型数据集。把这两个问题解决基于神经网络的数据挖掘将具有广泛的应用前景。针对上述存在的问题,基于神经网络的数据挖掘主要有两方面的研究内容,即增强神经网络的可理解性以及提高网络学习速度。对于前者,主要是从神经网络中抽取易于理解的规则,后者的解决方法是设计快速学习算法。本文针对基于神经网络的数据挖掘存在的第二个问题,即设计快速学习算法,对目前所有的神经网络极速学习算法进行综述。

神经网络极速学习方法主要是用于分类和回归。分类在数据挖掘中是一项非常重要的任务,分类的目的是学会一个分类函数或分类模型(分类器),该模型能把数据集中的数据项映射到给定类别中的某一个类别,分类也可以用来预测。分类器的构造方法有统计方法、机器学习方法、神经网络方法等等。另外许多技术也可以用于分类器的构造,如粗糙集、模糊数学等。主要代表的算法有:决策分类方法代表算法有ID3算法和C4.5算法;贝叶斯分类方法代表算法有朴素贝叶斯分类方法和EM算法;规则归纳方法代表算法有AQ算法和FOIL算法;神经网络方法主要是BP算法。以上这些算法都是比较经典且有代表性的算法。不同于传统的学习方法,Huang为单隐层前馈神经网络(Single-hiddenLayerFeedforwardNeuralNetwork,SLFN)提出了一种称为极速学习机(ExtremeLearningMachine,ELM)的学习方法,该方法整个过程一次完成,无需迭代,与BP相比速度显著提高(通常10倍以上)。

1单隐层前馈神经网络(SLFN)模型

神经网络逐步的应用于各个领域,尤其是单隐层前馈神经网络的学习能力强,且不同的激励函数可以用于不同的应用领域。对于N个不同的样本(xi,ti),其中一个隐藏层节点数目为N'激励函数g(x)的SLFN的统一模型为

其中αi=[αi1,αi2,…,αin]T是连接第i个隐藏层结点的输入权值,bi是i个隐藏层结点的偏差(bias);βi=[βi1,βi2,…,βim]T是连接第i个隐藏层结点的输出权值;αi.xj表示αi与xj的内积。激励函数g(x)可以是”Sigmoid”、”Sine”或”RBF”等。

上述N个方程的矩阵形式可写成为:Hβ=T其中

E(W)表示期望值与实际值之间的误差平方和,问题求解就是寻找最优的权值W=(a,b,β)使得E(W)最小,其数学模型可表示为

其中εj=[εj1,εj2,…,εjm]是第j个样本的误差。

SFLN自身具有很多优点[9-13],所以在数据挖掘、自动控制及模式识别等领域取得了广泛的应用,它具有如下的优点:具有很强的学习能力,能够逼近复杂非线性函数;能够解决传统参数方法无法解决的问题。但是由于缺乏快速学习方法,传统的反向误差传播方法主要是基于梯度下降的思想,需要多次迭代,网络的所有参数都需要在训练过程中迭代确定。因此算法的计算量和搜索空间很大。

2BP(BackPropagation)

由Rumelhart和McCelland提出的BP神经网络模型是目前应用最广泛的模型之一[2],BP训练方法是通过反向误差传播原理不断调整网络权值使得实际输出与期望输出之间的误差平方和达到最小或小于某个阈值。当H未知时,通常采用梯度下降法迭代调整W:

其中η代表学习速率。

基于梯度下降法BP存在以下缺点:

1)训练速度慢。因为需要多次的迭代,所以时间消耗很长;

2)参数选择很敏感,必须选取合适的η与w初值,才能取得理想的结果。若η太小,算法收敛很慢,而η太大,算法不太稳定甚至不再收敛;

3)局部最小值。由于E(w)非凸,因此在下降过程中可能会陷入局部最小点,无法达到全局最小[3];

4)过渡拟合。在有限样本上训练时,仅以训练误差最小为目标的训练可能导致过渡拟合。

3极速学习机(ELM)

一个具有N个隐藏结点的SFLN,即使输入权值是随机取值,它也能够准确拟合N个不同的实例,更明确的讲,SFLN的学习能力只与隐藏层结点的数目有关,而和输入层的权值无关。基于这一思想,为了改进SFLN的学习效率,Huang基于SFLN模型提出了一种称为极速学习方法[5],其基本思想是:设置合适的隐藏层结点数,为输入权值和隐藏层偏差进行随机赋值,然后输出层权值通过最小二乘法计算得到。整个过程一次计算完成,不需要迭代计算,与BP相比速度提升10倍以上。

ELM算法思想及具体步骤如下:

给定一个训练集激励函数g(x)以及隐藏层结点数N’。

1)随机指定输入权值和偏差(ai,bi)i=1,2,…,N。

2)计算隐藏层输出矩阵:

3)计算输出权值。

虽然使用ELM训练样本与其它算法相比是更快且有较好的泛化性能[14-15]。但有两个问题仍然没有得到解决:一是在隐藏层中,ELM的隐藏结点数目需要被确定,在前面的研究中,隐藏结点的数目是通过实验和误差方法得到,但这不是最优的,对于不同的应用怎样选择合适的网络结构仍然是未知的;二是ELM有时需要很大的网络结构(隐藏结点的数目很多),由于初始阶段是一个随机过程,网络的复杂性会影响到算法的泛化性能。

4启发式方法

基于以上研究,参考文献[8]中提出了两种启发式的方法对ELM算法进行改进:剪枝方法和增长方法,就是移除隐藏结点和增加隐藏结点。

4.1剪枝方法

为了解决以上存在的两个问题,Rong在参考文献[6]中提出了一种剪枝算法P-ELM(PrunedELM)应用于模式分类中,其基本思想是:首先随机生成一个大的网络,然后使用?字2和信息增益方法来移除隐藏结点来降低类间的相关性。

同样基于以上的两个问题,在解决分类和回归两大类问题时,还有另外一种剪枝算法OP-ELM(Optimallyprunedextremelearningmachine)在参考文献[7]中被提出。此算法的基本思想是:首先基于原始的ELM算法构建MLP(MultilayerPerceptron);使用MRSR(Multiresponsesparseregression)算法对隐藏结点进行排序[15];使用LOO(Leave-One-Out)选择隐藏结点。

虽然提出了P-ELM和OP-ELM两种剪枝方法,但在参考文献[8]中作者提出剪枝方法面临着这样的两个困难:在开始移除隐藏结点之前,要确定网络最终的规模是很难的;在很多时候,剪枝方法要处理网络规模(应该移除隐藏节点的选择),这样会增加计算复杂性和需要更多的训练时间。这样虽然降低了网络的复杂性,但是以计算时间为代价。

4.2增长方法

虽然剪枝方法很容易被理解,它花费了大量时间来处理移除的隐藏结点,如果训练样本很大,此算法的效率会变得更差。研究者们又提出了新的启发式方法,增加隐藏节点到隐藏层。

4.2.1I-ELM(Incrementalextremelearningmachine)

在参考文献[16-17]中提出了I-ELM(Incrementalextremelearningmachine)。I-ELM学习方法的基本思想:在学习训练的过程中,一个一个的随机生成隐藏结点增加到隐藏层,当新的隐藏结点增加到网络中时,输出权值不会被重计算,既输出权值不会被更新,添加隐藏结点以后重新调整网络结构。此种方法被证明是满足实际需求的方法。但是这种方法得不到最佳的网络结构,它增加隐藏结点的停止标准是隐藏节点达到最大值或是训练率小于期望值,最大隐藏节点的数目和训练率是由用户规定的。用户没有标准判断最大隐藏结点的数目和训练精度应该是多大,所以这种方法得到的网络结构不是最优的。

为了改进I-ELM的性能,Huang和Chen在参考文献[16]中提出了EI-ELM(Enhancedrandomsearchbasedincrementalextremelearningmachine)方法,此算法比I-ELM有更好的泛化性能。

4.2.2EM-ELM(Errorminimizedextremelearningmachine)

其思想不同于I-ELM的思想,Huang和Feng在参考文献[18]中提出了EM-ELM(Errorminimizedextremelearningmachine)方法其基本思想是:随机生成多个隐藏结点并将它们及时添加于隐藏层,输出权值同时被更新,更新后重新调整网络结构,直到达到训练精确度或最大隐藏结点数目。训练精确度和最大隐藏结点数目是由用户自己规定的。

I-ELM和EM-ELM这两种增长方法,它们的思想都是添加隐藏结点到隐藏层,然后重新调整网络结构。但是他们停止增加隐藏结点的条件都是达到最大隐藏结点的数目或达到训练精确度,而这两个参数是由用户规定的,对于不同的应用,用户应该如何设置这样的参数也没有标准。所以通过这两种方法得到的神经网络结构也不是最优的。

4.2.3CS-ELM(AConstructivehiddennodesselectionmethodforELM)

在I-ELM和EM-ELM算法中,用户如何确定隐藏结点最大数目和训练精确度,还是一个未知的问题,这样会导致所产生的网络结构不是最佳的。所以在参考文献[19]中提出一种新的方法即CS-ELM(AConstructivehiddennodesselectionmethodforELM),此方法的基本思想是:随机生成一个隐藏结点作为候选库,从候选库中选择最重要的结点来调整网络结构,在训练的过程中,主要是要选择最佳隐藏结点的数目。当隐藏结点的选择标准是:当无偏风险估计标准CP达到最小时,隐藏结点的数目达到最佳。此方法主要有3个步骤:初始化阶段,将训练数据集分成不相交的两部分;选择阶段,选择最佳的隐藏结点数P*;训练和测试阶段,根据选择的P*重新构建网络结构,对数据集进行训练和测试。

CS-ELM算法的基本思想及步骤如下:

给定一个训练数据集{(xi,ti)}2ni=1、激励函数g(x)以及隐藏结点的最大数目Lmax。

第一阶段:把训练数据集分成不相交的两个子集,使用ELM模型随机生成隐藏结点{(ai,bi)}Lmaxi=1,经训练得到矩阵t=Hβ+e,H=[h1,h2,…,hL](注:矩阵e是残差矩阵)。

第二阶段:当k=0设置L0=0,y(0)=0,β(0)=0,p=?准和Hp=0。将矩阵H和t零均值化。

不断迭代计算残差,使无偏风险估计标准CP达到最小时,隐藏结点的数目达到最佳。

第三阶段:第二阶段得到最佳的隐藏结点数目以后重构网络,对分组的数据进行训练和测试。

CS-ELM与I-ELM和EM-ELM相比,能够重构最佳的网络结构,但是CS-ELM算法是一种贪心方法,当隐藏结点数P*被确定时,可能会影响后面隐藏结点的选择,当一个新的隐藏结点增加于隐藏层时,之前确定的P*就变得不重要。

4.2.4TS-ELM(Two-stageextremelearningmachineforregression)

除了上面这些方法外,在参考文献[20-23]中提出的OLS(Orthogonalleastsquares)也是一种比较流行的算法。但OLS算法也不是一种很好的算法,它也只是一种贪心的算法,只能达到局部最优。基于OLS算法的思想,Li在参考文献[24]中提出FCA(fastconstructionalgorithm),此算法先基于SFLN模型随机生成隐藏结点,选择重要的隐藏结点一个一个的添加于隐藏层中,整个过程依赖于矩阵分解,选择隐藏结点的停止标准是隐藏结点的数目达到默认值。添加隐藏结点以后重新调整网络结构,对数据集进行训练和测试。FCA算法与ELM和OLS相比是更快的和更好的。

基于FCA和CS-ELM算法思想,Yuan等人在参考文献[8]中提出了TS-ELM(Two-stageextremelearningmachineforregression),此算法分成两个步骤:第一阶段,随机生成隐藏结点于网络模型中,作为隐藏结点候选库,使用前向回归算法选择隐藏结点添加于网络中,直到无偏风险估计标准CP达到最小值,通过隐藏结点的网络贡献度来衡量隐藏结点的重要性。第二阶段,选择的隐藏结点被修正,一些不重要的隐藏结点被移除,降低网络的复杂性。该算法通过计算隐藏结点的网络贡献度,作为衡量隐藏结点重要程度的度量标准,选择重要的隐藏结点添加网络并重构网络,移除不重要的结点来降低网络复杂性,此算法的泛化性能和学习能力得到均衡,重构的网络也是最佳的。

5极速学习方法(ELM)的应用

神经网络的应用十分广泛,尤其是单隐层前馈神经网络的学习能力强,不同的激励函数可以用于不同的应用领域。为了提高单隐层前馈神经网络的学习能力和泛化性能,提出了极速学习方法,该方法整个过程一次完成,无需迭代,与BP相比速度显著提高(通常10倍以上)。比较常见的应用领域有:传感器信息处理、信号处理、自动控制、知识处理、市场分析、运输及通信、电子学、神经科学等几个方面,除了以上这些,神经网络在下面这些领域也有着广泛的应用前景:娱乐、零售分析、信用分析、航空与航天和医疗诊断系统等[25]。极速学习方法是基于BP的改进学习方法,在以上这些领域,它也将有着广泛的应用前景。

6总结

学习性能和泛化性能是神经网络研究中的最重要的两个问题,当神经网络的学习能力较强时,会导致过度拟合问题,使得神经网络模型训练结果很好,但用来预测未知数据时表现很差,即泛化性能差,所以神经网络的学习性能和泛化性能是一对矛盾。为了使两者均衡,选择合适的网络结构(如隐藏神经元的数目)、选择合适的样本尺寸和选择合适的模型以及样本特征集的选择等这几方面是很重要。在目前的研究中,为了使神经网络的泛化性能和学习能力得到均衡,研究者们主要是隐藏结点的选择对网络结构进行调整,以提升学习能力和泛化性能。而在网络模型中的输入权值和偏差并没有单独考虑,只是配合隐藏结点的选择而选择,但网络的学习性能和泛化性能也必和这两个参数有关系,所以这两个参数应该被考虑。对于不同的数据集,不同的应用领域,应该如何调整网络结构也是一个未知的问题,如果要将神经网络极速学习方法真正用于不同的领域,这些都是必需要考虑的。在未来的研究中,将在线学习与遗传算法、ELM及SVM结合起来将是一个值得研究的问题。在应用方面,可以用于任何分类问题和回归问题中,如何将神经网络极速学习方法用于具体的应用领域是一个值得研究的课题。

参考文献:

[1]陈兆乾,周志华,陈世福.神经计算研究现状及发展趋势[J].计算机应用研究,2000(2):34-37.

[2]RumelhartDE,McClellandJL.ParallerDistributedProcessing[J].Cambridge:MITPress,1986,1(2):125-187.

[3]CristianiniN,Shawe-TaylorJ.AnIntroductiontoSupportVectorMachimes[J].Cambridge:CambridgeUniversityPress,2000.

[4]HuangG-B.Learningcapabilityandstoragecapacityoftwohidden-layerfeedforwardnetworks[J].IEEETransactionsonNeuralNetworks.2003.14(2):274-281

[5]HuangG-B,ZhuQ-Y,SiewC-K.Extremelearningmachine:theoryandapplication[J].Neurocomputing,2006,70(1-3):489-501.

[6]H-JRong,Y-S.Ong,A-H.Tan,Z.Afastpruned-extremelearningmachineforclassicationproblem[J],Neurocomputing72(2008)359-366.

[7]MicheY,SorjamaA,LendasseA,OP-ELM:theory,experimentsandatoolbox,in:V,Kurkov,R.Neruda,J.Koutnk(Eds.)ICANN.(1).ofLectureNotesinComputerScience,vol.5163,2008:145-154.

[8]YuanLan,YengChaiSoh,HuangG-B.Two-stageextremelearningmachineforregression[J].Neurocomputing73(2010)3028-3038.

[9]ParkJ,SandbergIW,Universalapproximationusingradialbasisfunctionnetworks[J].Neuralcomputation3(1991)246¨C257.

[10]HuangGB,BabriHA,Upperboundsonthenumberofhiddenneuronsinfeedforwardnetworkswitharbitraryboundednonlinearactivationfunctions[J],IEEETransactionsonNeuralNetworks9(1)(1998)224¨C229.

[11]HuangGB,ChenYQ,BabriHA.Classicationabilityofsinglehiddenlayerfeedforwardneuralnetworks[J].IEEETransactionsonNeuralNetworks11(3)(2000)799¨C801.

[12]MaoKZ,G.-B.Huang,NeuronselectionforRBFneuralnetworkclassierBasedondatastructurepreservingcriterion[J].IEEETransactionsonNeuralNetworks16(6)(2005)1531¨C1540.

[13]FerrariS,StengelRF,Smoothfunctionapproximationusingneuralnetworks[J].IEEETransactionsonNeuralNetworks16(1)(2005)24¨C38.

[14]HuangGB,ZhuQY,SiewCK,Extremelearningmachine:anewlearningschemeoffeedforwardneuralnetworks[J].in:ProceedingsoInternationalJointConferenceonNeuralNetworks,vol.2,Budapest,Hungary,25¨C29July2004pp.985¨C990.

[15]SimilaT,TikkaJ.Multiresponsesparseregressionwithapplicationtomultidimensionalscaling[J].in:Proceedingsoftthe15thInternationalConferenceonArticialNeuralNetworks,ICANN2005,vol.3697,pp.97¨C1022005.

[16]HuangGB,ChenL.EnhancedrandomsearchbasedincrementalextremeLearningmachine[J].Neurocomputing71(2008)3060¨C3068

[17]HuangGB,ChenL.Convexincrementalextremelearningmachine[J],Neurocomputing70(2007)3056¨C3062

[18]FengG,HuangGB,Q.Lin,R.Gay,ErrorminimizedextremelearningMachinewithgrowthofhiddennodesandincrementallearning[J].IEEETransactionsonNeuralNetworks20(8)(2009)1352¨C1357.

[19]LanY,SohYC,HuangGB.ConstructivehiddennodesselectionofextremeLearningmachineforregression[J].Neurocomputing(2010).doi:10.1016/j.neucom.2010.05.022.

[20]ChenS,BillingsSA,LuoW.OrthogonalleastsquaresmethodsandtheirApplicationtonon-linearsystemmidentication[J].InternationalJournalofControl50(5)(1989)1873¨C1896.

[21]ChenS,CowanCFN,GrantPM.OrthogonalleastsquareslearningAlgorithmforradialbasisfunctionnetworks[J].IEEETransactionsonNeuralNetworks2(2)(1991)302¨C309.

[22]ChenS,WiggerJ.FastorthogonalleastsquaresalgorithmforefficientsubsetModelselection[J],IEEETransactionsonSignalProcessing43(7)(1995)1713¨C1715.

[23]ZhuQM,BillingsSA.FastorthogonalidenticationofnonlinearstochasticModelsandradialbasisfunctionneuralnetworks[J],InternationalJournalofControl64(5)(1996)871¨C886.

    【实用范文】栏目
  • 上一篇:神经网络的鲁棒性(收集3篇)
  • 下一篇:大学生兼职市场调研方案(收集3篇)
  • 相关文章

    推荐文章

    相关栏目