注册
登录
机器学习
训练神经网络时的纪元与迭代
返回
训练神经网络时的纪元与迭代
作者:
狗头军师
发布时间:
2024-06-27 10:59:27 (26天前)
训练多层感知器时,时代和迭代之间有什么区别?
收藏
举报
2 条回复
1#
回复此人
v-star*위위
|
2020-08-24 14-49
在神经网络术语中: 一个历元 =一个直传和一个向后通所有的训练样本 批处理大小 =一次向前/向后传递中的训练示例数。批处理大小越大,您将需要更多的内存空间。 的数目迭代 =进程数,每遍使用[批量大小]数目的实例。明确地说,一次通过=一次向前通过+一次向后通过(我们不将向前和向后计算为两个不同的通过)。 示例:如果您有1000个培训示例,并且批次大小为500,那么将需要2次迭代才能完成1个纪元。 仅供参考:权衡批次大小与迭代次数以训练神经网络 “批处理”一词含糊不清:有些人用它来指定整个训练集,有些人用它来指代一次向前/向后通过中的训练示例数(就像我在此答案中所做的那样)。为了避免这种歧义并清楚地表明批次与一次向前/向后传递中的训练示例数量相对应,可以使用术语mini-batch。
编辑
登录
后才能参与评论