首页 > 学习笔记 > Python > 神经网络中数据流详解
2018
04-14

神经网络中数据流详解

一、背景

神经网络的输入神经元个数与样本的个数没有关系,输入神经元的个数是样本的影响因子的个数。

现有n条样本,每个样本有m个影响因子。

现设计一个全连接神经网络,有最基本的三层,其输入层的个数为n_input,隐藏层的个数为n_hidden,输出层的个数为n_output,现批量进行训练,每批次训练100个样本。

二、数据流详解

输入矩阵:X=[100,n_input] 注:输入矩阵的每行为一个样本,列数为样本的影响因子数,也是输入神经元的个数

权重矩阵:w1=[n_input,n_hidden] 注:由公式[n_input]*[n_input,n_hidden],得到一个样本的hidden层,多个样本训练,得到多个样本的hidden层

权重矩阵:w2=[n_hidden,n_output] 注:由公式[n_hidden]*[n_hidden,output],得到一个样本的output层,多个样本训练,得到多个样本的output层

在这里,基础不扎实的会被矩阵的形式弄蒙,将多次训练和一次训练混淆,从而对训练时候的数据流动及其shape的变化认识不够清楚。

其他的类似,这里面需要注意,有的神经网络不是全连接神经网络,那么权重矩阵的设计就和上面不同。但是思想都是一样的。

 

最后编辑:
作者:admin
这个作者貌似有点懒,什么都没有留下。

留下一个回复

你的email不会被公开。