BP神经网络matlab实例(简单而经典)

p=p1';t=t1';

[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始数据归一化

net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx'); %设置网络,建立相应的BP网络

net.trainParam.show=2000; % 训练网络 net.trainParam.lr=0.01;

net.trainParam.epochs=100000; net.trainParam.goal=1e-5;

[net,tr]=train(net ,pn,tn); %调用TRAINGDM算法训练BP网络

pnew=pnew1'; pnewn=tramnmx(pnew,minp,maxp);

anewn=sim(net,pnewn); %对BP网络进行仿真 anew=postmnmx(anewn,mint,maxt); %还原数据 y=anew';

1、BP网络构建 (1)生成BP网络

net ? newff(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF)

PR:由R维的输入样本最小最大值构成的R?2维矩阵。

[S1 S2...SNl]:各层的神经元个数。

{TF1 TF2...TFNl}:各层的神经元传递函数。

BTF:训练用函数的名称。

(2)网络训练

[net,tr,Y,E,Pf,Af] ? train(net,P,T,Pi,Ai,VV,TV)

(3)网络仿真

[Y,Pf,Af,E,perf] ? sim(net,P,Pi,Ai,T)

{'tansig','purelin'},'trainrp'

BP网络的训练函数 训练方法 梯度下降法 有动量的梯度下降法 自适应lr梯度下降法 自适应lr动量梯度下降法 弹性梯度下降法 Fletcher-Reeves共轭梯度法

训练函数 traingd traingdm traingda traingdx trainrp traincgf

Ploak-Ribiere共轭梯度法 Powell-Beale共轭梯度法 量化共轭梯度法 拟牛顿算法 一步正割算法 Levenberg-Marquardt

BP网络训练参数

traincgp traincgb trainscg trainbfg trainoss trainlm 训练参数 net.trainParam.epochs 参数介绍 训练函数 、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、最大训练次数(缺省为10) traingd、traingdmtraingda、traingdxtrainrp、traincgftraincgp、traincgbtrainscg、trainbfgtrainoss、trainlm 训练要求精度(缺省为0) traingd、traingdmtraingda、traingdxtrainrp、traincgftraincgp、traincgbtrainscg、trainbfgtrainoss、trainlm traingd、traingdmtraingda、traingdxtrainrp、traincgftraincgp、traincgbtrainscg、trainbfgtrainoss、trainlm traingd、traingdmtraingda、traingdxtrainrp、traincgftraincgp、traincgbtrainscg、trainbfgtrainoss、trainlm traingd、traingdmtraingda、traingdxtrainrp、traincgftraincgp、traincgbtrainscg、trainbfgtrainoss、trainlm traingd、traingda、trainrp、traincgp、trainscg、traingdmtraingdxtraincgftraincgbtrainbfgnet.trainParam.goal net.trainParam.lr 学习率(缺省为0.01) net.trainParam.max_fail 最大失败次数(缺省为5) net.trainParam.min_grad 最小梯度要求(缺省为1e-10) net.trainParam.show 显示训练迭代过程(NaN表示不显示,缺省为25)

trainoss、trainlm

net.trainParam.time 最大训练时间(缺省为inf) traingd、traingdmtraingda、traingdxtrainrp、traincgftraincgp、traincgbtrainscg、trainbfgtrainoss、trainlm 动量因子(缺省0.9) 学习率lr增长比(缺省为1.05) 学习率lr下降比(缺省为0.7) 表现函数增加最大比(缺省为1.04) 权值变化增加量(缺省为1.2) 权值变化减小量(缺省为0.5) 权值变化最大值(缺省为50.0) 一维线性搜索方法(缺省为srchcha) traingdm、traingdx traingda、traingdx traingda、traingdx traingda、traingdx trainrp trainrp 、、、、、net.trainParam.mc net.trainParam.lr_inc net.trainParam.lr_dec net.trainParam.max_perf_inc net.trainParam.delt_inc net.trainParam.delt_dec net.trainParam.delt0 net.trainParam.deltamax net.trainParam.searchFcn 初始权值变化(缺省为0.07) trainrp trainrp traincgf、traincgp、traincgb、trainbfg、trainoss net.trainParam.sigma net.trainParam.lambda net.trainParam.men_reduc 因为二次求导对权值调整的trainscg 影响参数(缺省值5.0e-5) Hessian矩阵不确定性调节参数(缺省为5.0e-7) trainscg net.trainParam.mu net.trainParam.mu_dec net.trainParam.mu_inc net.trainParam.mu_max 控制计算机内存/速度的参trainlm 量,内存较大设为1,否则设为2(缺省为1) trainlm ?的初始值(缺省为0.001)?的减小率(缺省为0.1) trainlm ?的增长率(缺省为10) trainlm ?的最大值(缺省为1e10) trainlm 2、BP网络举例 举例1、

%traingd clear; clc;

P=[-1 -1 2 2 4;0 5 0 5 7];

T=[-1 -1 1 1 -1];

%利用minmax函数求输入样本范围

net = newff(minmax(P),[5,1],{'tansig','purelin'},'trainrp');

net.trainParam.show=50;% net.trainParam.lr=0.05; net.trainParam.epochs=300; net.trainParam.goal=1e-5; [net,tr]=train(net,P,T);

net.iw{1,1}%隐层权值 net.b{1}%隐层阈值

net.lw{2,1}%输出层权值 net.b{2}%输出层阈值

sim(net,P)

举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。 样本数据: 输入X -1.0000 -0.9000 -0.8000 -0.7000 -0.6000 -0.5000 -0.4000 解:

看到期望输出的范围是??1,1?,所以利用双极性Sigmoid函数作为转移函数。 程序如下:

clear; clc; X=-1:0.1:1;

D=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609... 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988... 0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201]; figure;

plot(X,D,'*'); %绘制原始数据分布图(附录:1-1) net = newff([-1 1],[5 1],{'tansig','tansig'}); net.trainParam.epochs = 100; %训练的最大次数 net.trainParam.goal = 0.005; %全局最小误差

输出D -0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 输入X -0.3000 -0.2000 -0.1000 0 0.1000 0.2000 0.3000 输出D 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -0.0988 输入X 0.4000 0.5000 0.6000 0.7000 0.8000 0.9000 1.0000 输出D 0.3072 0.3960 0.3449 0.1816 -0.3120 -0.2189 -0.3201

联系客服:779662525#qq.com(#替换为@) 苏ICP备20003344号-4