关于缺少激活层的问题,您是对的。本教程中的模型缺少激活层。这似乎是对教程的疏忽。对于真正的LeNet-5模型,卷积层之后应该有激活函数。对于MNIST,该模型在没有额外激活层的情况下仍能很好地工作。
作为参考,在Le Cun的2001年论文中,它指出:
与经典神经网络一样,层数高达F6的单位计算其输入向量与其权重向量之间的点积,并向其添加偏差。这个加权和,表示 A_I ,对于单位 一世 然后,通过sigmoid压扁函数来产生单位状态 一世 ...
F6是两个完全连接的层之间的“斑点”。因此,第一个完全连接的层应该应用激活功能(本教程使用ReLU激活函数而不是sigmoid)。
MNIST是神经网络的hello world示例。今天的标准非常简单。单个完全连接的层可以解决该问题,精度约为92%。 Lenet-5比这个例子有了很大的改进。
Caffe使用批处理。该 max_iter 是10,000因为 batch_size 是64岁。 No of epochs = (batch_size x max_iter)/No of train samples 。所以数量 epochs 是近10个。准确度是按照计算的 test data 。是的,由于数据集不是很复杂,模型的准确度确实> 99%。
max_iter
batch_size
No of epochs = (batch_size x max_iter)/No of train samples
epochs
test data