我正在研究一个使用扩张(atrous)卷积网络进行语义分割的项目。我正在使用caffe框架。我的输入数据和标签大小是:
数据(1 3 1158 1544)标签(1 1 1158 ……
在卷积步骤之后,反卷积确实是回到原始输入大小的常用方法:这是语义分割神经网络的基本架构:完全卷积网络(FCN)。
如果您需要有关如何使用它的示例,请查看此处 知识库 :它包含许多Caffe中FCN的例子,他们使用 Deconvolution Caffe层。另外,你可以阅读相关内容 纸 有关反卷积的更深入解释。
Deconvolution
注意 Deconvolution 并不总是双线性插值。它通常通过插值初始化,但随后在训练期间(向后传播)学习。