深蓝学院-图卷积神经网络课程怎么样 值得学吗?

版权声明:本文为博主原创文章,遵循 版权协议,转载请附上原文出处链接和本声明。

  • 卷积神经网络的成功主要受两方面的限制:
  • 卷积神经网络的典型应用是分类,输出一个分类标签:
    分类:一张图片得到一个类别标签。并不适用于其他任务。
    如分割:图片中每个像素都要得到一个类别标签。

  • Ciresan提出的分割网络,采用围绕每个像素点的patch进行训练,patch的类别作为该像素点的类别。
    优点:局部化;训练样本变多(图像块)

  • 采用卷积层最后一层输出作为图像表征,不够充分:
    表现: 大的图像块需要更多的降采样层,从而降低Larger patches(局部精度),而小的图像块能看到很少的context(上下文信息)。

    在传统的分类 CNNs 中,池化操作用来扩大视野,同时减少特征图的分辨率。这对于分类任务来说非常有用,因为分类的最终目标是找到某个特定类的存在,而对象的空间位置无关紧要。因此,在每个卷积块之后引入池化操作,以使后续块能够从已池化的特征中提取更多抽象、突出类的特征。
    另一方面,池化和带步长的卷积对语义分割是不利的,因为这些操作造成了空间信息的丢失。因此,论文中 FCN-8s 融合了不同粗糙度(conv3、conv4和fc7)的特征,利用编码器不同阶段不同分辨率的空间信息来细化分割结果。

论文首次提出了一种end-to-end(端到端)用于语义分割的“全卷积”网络,全卷积网络在 PASCAL VOC(在 2012 年相对以前有 20% 的提升,达到了62.2% 的平均 IU),NYUDv2 和 SIFT Flow 上实现了最优的分割结果。

  • 不含全连接层(fc)的全卷积(fully conv)网络,即将全连接层改为全卷积层。可适应任意尺寸输入。
  • 在 decode 上采样步骤中使用增大数据尺寸的反卷积(deconv)层(初始化参数为双线性插值滤波器)。能够输出精细的结果。
  • 结合不同深度层结果的跳级(skip)结构,同时确保鲁棒性和精确性。但同时引入了更大的参数量。将深的、粗糙的网络层语义信息和浅的、精细的网络层的表层信息结合起来,来生成精确的分割。(FCN 最重要的点)


  • 可以接受更小的训练样本

我要回帖

更多关于 卷积神经网络入门 的文章

 

随机推荐