留言 | 关于 | 联系
基础数学 语言相关算法实现 其它知识
返回首页
当前位置: 首页 > 程序设计 > 算法实现 > C++的BP算法源程序

C++的BP算法源程序

时间:2010-04-06 20:00来源:网络 作者:秩名 点击:
本文给出了一个C++下面BP神经网络算法的源程序。

BP神经网络算法C++源程序:

  1. #include "iostream.h" 
  2. #include "iomanip.h" 
  3. #define N 20 //学习样本个数 
  4. #define IN 1 //输入层神经元数目 
  5. #define HN 8 //隐层神经元数目 
  6. #define ON 1 //输出层神经元数目 
  7. double P[IN]; //单个样本输入数据 
  8. double T[ON]; //单个样本教师数据 
  9. double W[HN][IN]; //输入层至隐层权值 
  10. double V[ON][HN]; //隐层至输出层权值 
  11. double X[HN]; //隐层的输入 
  12. double Y[ON]; //输出层的输入 
  13. double H[HN]; //隐层的输出 
  14. double O[ON]; //输出层的输出 
  15. double sita[HN]; //隐层的阈值 
  16. double gama[ON]; //输出层的阈值 
  17. double err_m[N]; //第m个样本的总误差 
  18. double alpha; //输出层至隐层的学习效率 
  19. double beta; //隐层至输入层学习效率 
  20. //定义一个放学习样本的结构 
  21. struct { 
  22.     double input[IN]; 
  23.     double teach[ON]; 
  24. }Study_Data[N][IN]; 
  25.  
  26. /////////////////////////// 
  27. //初始化权、阈值子程序///// 
  28. /////////////////////////// 
  29. initial() 
  30.     float sgn; 
  31.     float rnd; 
  32.     int i,j; 
  33.     //隐层权、阈值初始化// 
  34.     { 
  35.         //sgn=pow((-1),random(100)); 
  36.         sgn=rand(); 
  37.         rnd=sgn*(rand()%100); 
  38.         W[j][i]= rnd/100;//隐层权值初始化。 
  39.     } 
  40.     //randomize(); 
  41.     { 
  42.         //sgn=pow((-1),random(1000)); 
  43.         sgn=rand(); 
  44.         rnd=sgn*(rand()%1000); 
  45.         sita[j]= rnd/1000;//中间层阈值初始化 
  46.         cout<<"sita"<<sita[j]<<endl; 
  47.     } 
  48.     //输出层权、阈值初始化// 
  49.     //randomize(); 
  50.     for (int k=0;k<ON;k++) 
  51.         for (int j=0;j<HN;j++)  
  52.         { 
  53.             //sgn=pow((-1),random(1000)); 
  54.             sgn=rand(); 
  55.             rnd=sgn*(rand()%1000); 
  56.             V[k][j]=rnd/1000;//第m个样本输出层权值初始化 
  57.         } 
  58.         //randomize(); 
  59.         { 
  60.             //sgn=pow((-1),random(10)); 
  61.             sgn=rand(); 
  62.             rnd=sgn*(rand()%10); 
  63.             gama[k]=rnd/10;//输出层阈值初始化 
  64.             cout<<"gama[k]"<<endl; 
  65.         } 
  66.         return 1; 
  67.          
  68. }//子程序initial()结束 
  69.  
  70.  
  71. //////////////////////////////// 
  72. ////第m个学习样本输入子程序/// 
  73. /////////////////////////////// 
  74. input_P(int m) 
  75.     for (int i=0;i<IN;i++) 
  76.         P[i]=Study_Data[m]->input[i]; 
  77.     //获得第m个样本的数据 
  78.     //cout<<"第"< //fprintf(fp,"第%d个样本的学习输入: 
  79.     //P[%d]=%f\n",m,P[i]); 
  80.     return 1; 
  81. }//子程序input_P(m)结束 
  82.  
  83. ///////////////////////////// 
  84. ////第m个样本教师信号子程序// 
  85. ///////////////////////////// 
  86. input_T(int m) 
  87.     for (int k=0;k<m;k++) 
  88.         T[k]=Study_Data[m]->teach[k]; 
  89.     //cout<<"第"< //fprintf(fp,"第%d个样本的教师信号:T[%d]=%f\n",m,T[k]); 
  90.     return 1; 
  91. }//子程序input_T(m)结束 
  92.  
  93. ///////////////////////////////// 
  94. //隐层各单元输入、输出值子程序/// 
  95. ///////////////////////////////// 
  96. H_I_O(){ 
  97.     double sigma; 
  98.     int i,j; 
  99.     for (j=0;j<HN;j++) 
  100.         sigma=0.0; 
  101.     for (i=0;i<IN;i++) 
  102.         sigma+=W[j][i]*P[i];//求隐层内积 
  103. X[j]=sigma - sita[i];//求隐层净输入 
  104. H[j]=1.0/(1.0+exp(-X[j]));//求隐层输出 
  105. return 1; 
  106. }//子程序H_I_O()结束 
  107.  
  108. /////////////////////////////////// 
  109. //输出层各单元输入、输出值子程序/// 
  110. /////////////////////////////////// 
  111. O_I_O() 
  112.     double sigma; 
  113.     for (int k=0;k<ON;k++) 
  114.         sigma=0.0; 
  115.     for (int j=0;j<HN;j++) 
  116.         sigma+=V[k][j]*H[k];//求输出层内积 
  117. Y[k]=sigma-gama[k]; //求输出层净输入 
  118. O[k]=1.0/(1.0+exp(-Y[k]));//求输出层输出 
  119. return 1; 
  120. }//子程序O_I_O()结束 
  121.  
  122. //////////////////////////////////// 
  123. //输出层至隐层的一般化误差子程序//// 
  124. //////////////////////////////////// 
  125. double d_err[ON]; 
  126. Err_O_H(int m) 
  127.     double abs_err[ON];//每个样本的绝对误差都是从0开始的 
  128.     double sqr_err=0;//每个样本的平方误差计算都是从0开始的 
  129.     //for (int output=0;output<ON;output++)  //output??? 
  130.     for (int k=0;k<ON;k++) 
  131.         abs_err[k]=T[k]-O[k]; 
  132.     //求第m个样本下的第k个神经元的绝对误差 
  133.     sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差 
  134.      
  135.     d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差 
  136. err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差 
  137. return 1; 
  138. }//子程序Err_O_H(m)结束 
  139.  
  140. //////////////////////////////////// 
  141. //隐层至输入层的一般化误差子程序//// 
  142. //////////////////////////////////// 
  143. double e_err[HN]; 
  144. Err_H_I(){ 
  145.     double sigma; 
  146.     //for (int hidden=0;hidden 
  147.     for (int j=0;j<HN;j++)  
  148.         sigma=0.0; 
  149.     for (int k=0;k<ON;k++)  
  150.         sigma=d_err[k]*V[k][j]; 
  151. e_err[j]=sigma*H[j]*(1-H[j]);//隐层各神经元的一般化误差 
  152. return 1; 
  153. }//子程序Err_H_I()结束 
  154.  
  155. //////////////////////////////////////////////////////// 
  156. //输出层至隐层的权值调整、输出层阈值调整计算子程序////// 
  157. //////////////////////////////////////////////////////// 
  158. Delta_O_H(int m,FILE* fp) 
  159.     for (int k=0;k<ON;k++) 
  160.         for (int j=0;j<HN;j++) 
  161.             //cout<<"第"< fprintf(fp,"第%d个样本时的输出层至隐层的权值为:%f\n",m,W[k][j]); 
  162.             V[k][j]+=alpha*d_err[k]*H[j];//输出层至隐层的权值调整 
  163. gama[k]+=alpha*d_err[k];//输出层至隐层的阈值调整 
  164. return 1; 
  165. }//子程序Delta_O_H()结束 
  166.  
  167. ///////////////////////////////////////////////////// 
  168. //隐层至输入层的权值调整、隐层阈值调整计算子程序///// 
  169. ///////////////////////////////////////////////////// 
  170. Delta_H_I(int m,FILE* fp) 
  171.     for (int j=0;j<HN;j++) 
  172.         for (int i=0;i<IN;i++)  
  173.             //cout<<"第"< fprintf(fp,"第%d个样本时的输出层至隐层的权值为:%f\n",m,V[j][i]); 
  174.             W[j][i]+=beta*e_err[j]*P[i];//隐层至输入层的权值调整 
  175. sita[j]+=beta*e_err[j]; 
  176. return 1; 
  177. }//子程序Delta_H_I()结束 
  178.  
  179. ///////////////////////////////// 
  180. //N个样本的全局误差计算子程序//// 
  181. ///////////////////////////////// 
  182. double Err_Sum() 
  183.     double total_err=0; 
  184.     for (int m=0;m<N;m++)  
  185.         total_err+=err_m[m];//每个样本的均方误差加起来就成了全局误差 
  186. return 1; 
  187. }//子程序Err_sum()结束 
  188.  
  189. /**********************/ 
  190. /**程序入口,即主程序**/ 
  191. /**********************/ 
  192. main() 
  193.     FILE *fp; 
  194.     double sum_err; 
  195.     int study;//训练次数 
  196.      
  197.     if ((fp=fopen("bp.txt","a+"))==NULL) 
  198.     { 
  199.         printf("不能创建bp.txt文件!\n"); 
  200.         exit(1); 
  201.     } 
  202.     cout<<"请输入输出层到隐含层学习效率: alpha=\n"
  203.     cin>>alpha; 
  204.      
  205.     cout<<"请输入隐含层到输入层学习效率: beta=\n"
  206.     cin>>beta; 
  207.      
  208.     int study=0; //学习次数 
  209.     double Pre_error ; //预定误差 
  210.     cout<<"请输入预定误差: Pre_error= \n"
  211.     cin>>Pre_error; 
  212.      
  213.     int Pre_times; 
  214.     cout<<"请输入预定最大学习次数:Pre_times=\n"
  215.     cin>>Pre_times; 
  216.      
  217.     cout<<"请输入学习样本数据\n"
  218.     { 
  219.         for (int m=0;m<N;m++) 
  220.             cout<<"请输入第"<<m+1<<"组学习样本"<<endl;  
  221.         for (int i=0;i<IN;i++) 
  222.             cin>>Study_Data[m]->input[i]; 
  223.     } 
  224.     {   
  225.         for (int m=0;m<N;m++) 
  226.             cout<<"请输入第"<<m+1<<"组教师样本"<<endl;  
  227.         for (int k=0;k<ON;k++) 
  228.             cin>>Study_Data[m]->teach[k]; 
  229.     } 
  230.      
  231.     initial(); //隐层、输出层权、阈值初始化 (1)  
  232.     do 
  233.     { 
  234.         ++study; ///??? 
  235.         for (int m=0;m<N;m++)  
  236.         { 
  237.             input_P(m); //输入第m个学习样本 (2) 
  238.             input_T(m);//输入第m个样本的教师信号 (3) 
  239.             H_I_O(); //第m个学习样本隐层各单元输入、输出值 (4) 
  240.             O_I_O(); //第m个学习样本输出层各单元输入、输出值 (5) 
  241.             Err_O_H(m); //第m个学习样本输出层至隐层一般化误差 (6)  
  242.             Err_H_I(); //第m个学习样本隐层至输入层一般化误差 (7) 
  243.             Delta_O_H(m,fp); //第m个学习样本输出层至隐层权阈值调整、修改 (8) 
  244.             Delta_H_I(m,fp); //第m个学习样本隐层至输入层权阈值调整、修改 (9) 
  245.         } //全部样本训练完毕 
  246.          
  247.         sum_err=Err_Sum(); //全部样本全局误差计算 (10) 
  248.         { 
  249.             cout<<"第"<<study<<"次学习的均方误差为"<<sum_err<<endl; 
  250.             fprintf(fp,"第%d次学习的均方误差为:%f\n",study,sum_err); 
  251.         } 
  252.          
  253.         while (sum_err > Pre_error)    //or(study 
  254.         { //N个样本全局误差小于预定误差否? 小于则退出 (11) 
  255.             cout<<"网络已经学习了"<<study<<"次,学习的均方误差为"<<sum_err<<endl; 
  256.             fprintf(fp,"网络已经学习了%d次,现在的全局误差为:%f\n",study,total_err); 
  257.             fclose(fp); 
  258.         } 
  259.         char s; 
  260.         cout<<"请随便输入一个字符,按回车退出程序!\n"
  261.         cin>>s; 
  262.         return 1; 
  263.     } 

顶一下
(36)
90%
踩一下
(4)
10%
发表评论
评价:
验证码:点击我更换图片
推荐内容