首页| JavaScript| HTML/CSS| Matlab| PHP| Python| Java| C/C++/VC++| C#| ASP| 其他|
购买积分 购买会员 激活码充值

您现在的位置是:虫虫源码 > Matlab > RBF网络的回归--非线性函数回归的实现

RBF网络的回归--非线性函数回归的实现

资 源 简 介

1985年,Powell提出了多变量插值的径向基函数(RadicalBasis Function)方法。1988年Moody和Darken提出了一种神经网络结构,即RBF神经网络,属于前向神经网络类型,它能够以任意精度逼近任意函数。RBF网络的结构与多层前向网络类似,是一种三层前向网络。输入层有信号源结点组成;第二层为隐藏层,隐单元数视所描述问题的需要而定,隐单元的变换函数RBF()是对中心点径向基对称且衰减的非负非线性函数;第三层为输出层,它对输入模式的作用作出响应。从输入空间到隐藏层空间的变换是非线性的,而从隐藏层空间的输出层空间变换则是线性的。RBF网络的基本思想是:用RBF作为隐单元的“基”构成隐含层空间,这样就可以将输入矢量直接(即不需要通过权连接)映射到隐空间。当RBF的中心点确定以后,这种映射的关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和。此处的权即为网络可调参数。由此可见,从总体上看,网络由输入到输出的映射也是非线性的,而网络输出对可调参数而言又是线性的。这样的网络的权就可以由线性方程直接解出,从而大大加快学习速度并避免局部极小问题。RBF神经网络学习算法需要求解的参数有3个:基函数的中心,方差以及隐含层到输出层的权值。根据径向基函数中心选取方法的不同,RBF网络有多种学习方法,如随机选取中心法,自组织选取法,有监督选取中心法和正交最小二乘法等。

文 件 列 表

chapter7
html
chapter7_1.m
chapter7_2.m
运行提示.txt

相 关 资 源

您 可 能 感 兴 趣 的

同 类 别 推 荐

VIP VIP