BP神经网络加法运算_bp网络训练集样本求和-程序员宅基地

技术标签: 机器学习  深度学习  神经网络  

GitHub

1. 详细理论过程见下: 
        - https://www.cnblogs.com/jzhlin/archive/2012/07/28/bp.html
        - https://www.cnblogs.com/jzhlin/archive/2012/07/30/bp_c.html
        - https://www.cnblogs.com/jzhlin/archive/2012/08/01/bp_c2.html

2. 个人推导如下:

 

3. 代码如下[个人添加了详细的解释]: 

 

// neuron.cpp : 定义控制台应用程序的入口点。
//

//#include "stdafx.h"
#include <stdio.h>
#include <time.h>
#include <math.h>
#include <stdlib.h>

#define Data  1000  	// 训练样本的数量
#define In 2			// 对于每个样本有多少个输入变量 
#define Out 1			// 对于每个样本有多少个输出变量
#define Neuron 5		// 神经元的数量 
#define TrainC 20000 	// 表示训练的次数 
#define A  0.2			
#define B  0.4
#define a  0.2
#define b  0.3

// d_in[Data][In] 存储 Data 个样本,每个样本的 In 个输入
// d_out[Data][Out] 存储 Data 个样本,每个样本的 Out 个输出
double d_in[Data][In],d_out[Data][Out]; 
	
// w[Neuron][In]  表示某个输入对某个神经元的权重 
// v[Out][Neuron] 来表示某个神经元对某个输出的权重 
// 数组 o[Neuron] 记录的是神经元通过激活函数对外的输出 
// 与之对应的保存它们两个修正量的数组 dw[Neuron][In] 和 dv[Out][Neuron] 
double w[Neuron][In],v[Out][Neuron],o[Neuron];
double dv[Out][Neuron],dw[Neuron][In];

// Data个数据中 加数、被加数、和 的最大,最小值 
double Maxin[In],Minin[In],Maxout[Out],Minout[Out];

// OutputData[Out]  存储BP神经网络的输出 
double OutputData[Out];

// e用来监控误差 
double e;

//生成实验数据并存入相应文件中
void writeTest(){      
	FILE *fp1,*fp2;
	double r1,r2;
	int i;

	if((fp1=fopen("E:\\neuron\\in.txt","w"))==NULL){
		printf("can not open the in file\n");
		exit(0);
	}
	if((fp2=fopen("E:\\neuron\\out.txt","w"))==NULL){
		printf("can not open the out file\n");
		exit(0);
	}

	for(i=0;i<Data;i++){
		// 生成0~10的随机小数 
		r1=rand()%1000/100.0;
		r2=rand()%1000/100.0; 
		// 写入文件 
		fprintf(fp1,"%lf  %lf\n",r1,r2);
		fprintf(fp2,"%lf \n",r1+r2);
	}
	fclose(fp1);
	fclose(fp2);
}

// 读入训练数据 
void readData(){

	FILE *fp1,*fp2;
	int i,j;
	if((fp1=fopen("E:\\neuron\\in.txt","r"))==NULL){
		printf("can not open the in file\n");
		exit(0);
	}
	// 读入数据到 d_in[Data][In] 
	for(i=0;i<Data;i++)
		for(j=0; j<In; j++)
			fscanf(fp1,"%lf",&d_in[i][j]);
	fclose(fp1);
	
	if((fp2=fopen("E:\\neuron\\out.txt","r"))==NULL){
		printf("can not open the out file\n");
		exit(0);
	}
	// 读入数据到 d_in[Data][Out] 
	for(i=0;i<Data;i++)
		for(j=0; j<Out; j++)
			fscanf(fp1,"%lf",&d_out[i][j]);
	fclose(fp2);
}

/*
一方面是对读取的训练样本数据进行归一化处理,
归一化处理就是指的就是将数据转换成0~1之间; 
在BP神经网络理论里面,并没有对这个进行要求,
不过实际实践过程中,归一化处理是不可或缺的。
因为理论模型没考虑到,BP神经网络收敛的速率问题,
一般来说神经元的输出对于0~1之间的数据非常敏感,归一化能够显著提高训练效率。
可以用以下公式来对其进行归一化,
其中 加个常数A 是为了防止出现 0 的情况(0不能为分母)。
另一方面,就是对神经元的权重进行初始化了,
数据归一到了(0~1)之间,
那么权重初始化为(-1~1)之间的数据,
另外对修正量赋值为0 
*/ 
void initBPNework(){

	int i,j;

	for(i=0; i<In; i++){   //求Data个数据中 加数和被加数的最大、最小值。
		Minin[i]=Maxin[i]=d_in[0][i];
		for(j=0; j<Data; j++)
		{
			Maxin[i]=Maxin[i]>d_in[j][i]?Maxin[i]:d_in[j][i];
			Minin[i]=Minin[i]<d_in[j][i]?Minin[i]:d_in[j][i];
		}
	}

	for(i=0; i<Out; i++){     //求Data个数据中和的最大、最小值。
		Minout[i]=Maxout[i]=d_out[0][i];
		for(j=0; j<Data; j++)
		{
			Maxout[i]=Maxout[i]>d_out[j][i]?Maxout[i]:d_out[j][i];
			Minout[i]=Minout[i]<d_out[j][i]?Minout[i]:d_out[j][i];
		}
	}
	
	//输入数据归一化
	for (i = 0; i < In; i++)
		for(j = 0; j < Data; j++)
			d_in[j][i]=(d_in[j][i]-Minin[i]+1)/(Maxin[i]-Minin[i]+1);
			
	//输出数据归一化
	for (i = 0; i < Out; i++)    
		for(j = 0; j < Data; j++)
			d_out[j][i]=(d_out[j][i]-Minout[i]+1)/(Maxout[i]-Minout[i]+1);
	
	//初始化神经元
	for (i = 0; i < Neuron; ++i)	
		for (j = 0; j < In; ++j){	
			// rand()不需要参数,它会返回一个从0到最大随机数的任意整数 
			// rand()/RAND_MAX 为 (0, 1) 
			w[i][j]=rand()*2.0/RAND_MAX-1; // 权值初始化 
			dw[i][j]=0;
		}

		for (i = 0; i < Neuron; ++i)	
			for (j = 0; j < Out; ++j){
				v[j][i]=rand()*2.0/RAND_MAX-1; // 权值初始化 
				dv[j][i]=0;
			}
}

void computO(int var){   //第var组数据在隐藏层和输出层的输出结果o[]和outputdata[]。

	int i,j;
	double sum,y;
	// 神经元输出 
	for (i = 0; i < Neuron; ++i){
		sum=0;
		for (j = 0; j < In; ++j)
			sum+=w[i][j]*d_in[var][j];
		//Sigmoid 函数---激活函数 
		o[i]=1/(1+exp(-1*sum));
	}

	/*  隐藏层到输出层输出 */
	for (i = 0; i < Out; ++i){
		sum=0;
		for (j = 0; j < Neuron; ++j)
			sum+=v[i][j]*o[j];
		OutputData[i]=sum;
	}	
}

//从后向前更新权值;
void backUpdate(int var)
{
	int i,j;
	double t;
	for (i = 0; i < Neuron; ++i)
	{
		t=0;
		for (j = 0; j < Out; ++j){
			t+=(OutputData[j]-d_out[var][j])*v[j][i];
			
			/*
			 在具体实现对误差修改中,我们再加上学习率,
			 并且对先前学习到的修正误差量进行继承,
			 直白的说就是都乘上一个0到1之间的数
			*/ 
			dv[j][i]=A*dv[j][i]+B*(OutputData[j]-d_out[var][j])*o[i];
			v[j][i]-=dv[j][i];
		}

		for (j = 0; j < In; ++j){
			dw[i][j]=a*dw[i][j]+b*t*o[i]*(1-o[i])*d_in[var][j];
			w[i][j]-=dw[i][j];
		}
	}
}

double result(double var1,double var2)
{
	int i,j;
	double sum,y;

	var1=(var1-Minin[0]+1)/(Maxin[0]-Minin[0]+1);
	var2=(var2-Minin[1]+1)/(Maxin[1]-Minin[1]+1);

	for (i = 0; i < Neuron; ++i){
		sum=0;
		sum=w[i][0]*var1+w[i][1]*var2;
		o[i]=1/(1+exp(-1*sum));
	}
	sum=0;
	for (j = 0; j < Neuron; ++j)
		sum+=v[0][j]*o[j];

	return sum*(Maxout[0]-Minout[0]+1)+Minout[0]-1;  //返归一化
}

void writeNeuron()
{
	FILE *fp1;
	int i,j;
	if((fp1=fopen("E:\\neuron\\neuron.txt","w"))==NULL)
	{
		printf("can not open the neuron file\n");
		exit(0);
	}
	for (i = 0; i < Neuron; ++i)	
		for (j = 0; j < In; ++j){
			fprintf(fp1,"%lf ",w[i][j]);
		}
	fprintf(fp1,"\n\n\n\n");

	for (i = 0; i < Neuron; ++i)	
		for (j = 0; j < Out; ++j){
			fprintf(fp1,"%lf ",v[j][i]);
		}

	fclose(fp1);
}


/*两个输入a、b(10以内的数),一个输出 c,c=a+b。
换句话说就是教BP神经网络加法运算 */
void  trainNetwork(){

	int i,c=0,j;
	do{
		e=0;
		for (i = 0; i < Data; ++i){
			computO(i);//计算隐藏层和输出层所有神经元的输出。
			
			for (j = 0; j < Out; ++j)
				e+=fabs((OutputData[j]-d_out[i][j])/d_out[i][j]);//fabs()对float,double求绝对值 
				
			backUpdate(i);//反向修改权值
		}
		printf("%d  %lf\n",c,e/Data);
		c++;
	}while(c<TrainC && e/Data>0.01);//一直训练到规定次数或平均误差小于0.01时结束。
}

//int _tmain(int argc, _TCHAR* argv[])
int main(int argc, char* argv[])
{
	writeTest();//随机生成Data个数据,每个数据包括两个个位数以及这两个数之和。
	readData();//准备输入,输出训练数据。
	initBPNework();//输入、输出数据归一化,以及网络权值初始化。
	trainNetwork();//训练网络。
	printf("%lf \n",result(6,8) );
	printf("%lf \n",result(2.1,7) );
	printf("%lf \n",result(4.3,8) );
	writeNeuron();//保存权值。
	getchar();
	return 0;

}

4. 运行结果:

0  0.173932
1  0.035688
2  0.032719
3  0.030155
4  0.028081
5  0.026383
6  0.024991
7  0.023832
8  0.022865
9  0.022047
10  0.021344
11  0.020732
12  0.020197
13  0.019727
14  0.019310
15  0.018938
16  0.018602
17  0.018296
18  0.018017
19  0.017761
20  0.017524
21  0.017303
22  0.017097
23  0.016904
24  0.016723
25  0.016553
26  0.016392
27  0.016240
28  0.016095
29  0.015957
30  0.015826
31  0.015700
32  0.015580
33  0.015464
34  0.015353
35  0.015245
36  0.015142
37  0.015041
38  0.014944
39  0.014850
40  0.014758
41  0.014669
42  0.014583
43  0.014499
44  0.014417
45  0.014337
46  0.014259
47  0.014182
48  0.014108
49  0.014035
50  0.013963
51  0.013893
52  0.013825
53  0.013757
54  0.013691
55  0.013627
56  0.013563
57  0.013501
58  0.013439
59  0.013379
60  0.013320
61  0.013261
62  0.013204
63  0.013148
64  0.013092
65  0.013037
66  0.012984
67  0.012931
68  0.012878
69  0.012827
70  0.012776
71  0.012726
72  0.012677
73  0.012628
74  0.012580
75  0.012533
76  0.012486
77  0.012440
78  0.012394
79  0.012350
80  0.012305
81  0.012261
82  0.012218
83  0.012176
84  0.012133
85  0.012092
86  0.012051
87  0.012010
88  0.011970
89  0.011930
90  0.011891
91  0.011852
92  0.011814
93  0.011776
94  0.011739
95  0.011702
96  0.011665
97  0.011629
98  0.011593
99  0.011558
100  0.011522
101  0.011488
102  0.011453
103  0.011419
104  0.011386
105  0.011353
106  0.011320
107  0.011287
108  0.011255
109  0.011223
110  0.011191
111  0.011160
112  0.011129
113  0.011098
114  0.011067
115  0.011037
116  0.011007
117  0.010978
118  0.010949
119  0.010920
120  0.010891
121  0.010862
122  0.010834
123  0.010806
124  0.010778
125  0.010751
126  0.010724
127  0.010697
128  0.010670
129  0.010644
130  0.010617
131  0.010591
132  0.010566
133  0.010540
134  0.010515
135  0.010489
136  0.010464
137  0.010440
138  0.010415
139  0.010391
140  0.010367
141  0.010343
142  0.010319
143  0.010296
144  0.010273
145  0.010249
146  0.010227
147  0.010204
148  0.010181
149  0.010159
150  0.010137
151  0.010115
152  0.010093
153  0.010071
154  0.010049
155  0.010028
156  0.010007
157  0.009986
14.033821
9.143061
12.349715
 

 

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/jungle8884/article/details/104981584

智能推荐

什么是内部类?成员内部类、静态内部类、局部内部类和匿名内部类的区别及作用?_成员内部类和局部内部类的区别-程序员宅基地

文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别

分布式系统_分布式系统运维工具-程序员宅基地

文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具

用Exce分析l数据极简入门_exce l趋势分析数据量-程序员宅基地

文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量

宁盾堡垒机双因素认证方案_horizon宁盾双因素配置-程序员宅基地

文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置

谷歌浏览器安装(Win、Linux、离线安装)_chrome linux debian离线安装依赖-程序员宅基地

文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖

烤仔TVの尚书房 | 逃离北上广?不如押宝越南“北上广”-程序员宅基地

文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...

随便推点

java spark的使用和配置_使用java调用spark注册进去的程序-程序员宅基地

文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序

汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用_uds协议栈 源代码-程序员宅基地

文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码

AUTOSAR基础篇之OS(下)_autosar 定义了 5 种多核支持类型-程序员宅基地

文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型

VS报错无法打开自己写的头文件_vs2013打不开自己定义的头文件-程序员宅基地

文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件

【Redis】Redis基础命令集详解_redis命令-程序员宅基地

文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令

URP渲染管线简介-程序员宅基地

文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线

推荐文章

热门文章

相关标签