#Convolution

2018年发表论文阅读:Convolutional Simplex Projection Network for Weakly Supervised Semantic Segmentation

记笔记目的:刻意地、有意地整理其思路,综合对比,以求借鉴。他山之石,可以攻玉。《ConvolutionalSimplexProjectionNetwork forWeaklySupervisedSemantic Segmentation》-20180724,一篇来自德国波恩大学与锡根大学的paper...

论文笔记(7):Constrained Convolutional Neural Networks for Weakly Supervised Segmentation

UCBerkeley的DeepakPathak使用了一个具有图像级别标记的训练数据来做弱监督学习。训练数据中只给出图像中包含某种物体,但是没有其位置信息和所包含的像素信息。该文章的方法将imagetags转化为对CNN输出的label分布的限制条件,因此称为Constrainedconvolutionalneuraln...

论文笔记(6):Weakly-and Semi-Supervised Learning of a Deep Convolutional Network for Semantic Image Segmentation

这篇文章的主要贡献点在于:1.实验证明仅仅利用图像整体的弱标签很难训练出很好的分割模型;2.可以利用boundingbox来进行训练,并且得到了较好的结果,这样可以代替用pixel-level训练中的groundtruth;3.当我们用少量的pixel-levelannotations和大量的图像整体的弱标签来进行半监...

论文笔记(5):Fully Convolutional Multi-Class Multiple Instance Learning

这篇论文主要介绍了如何使用图片级标注对像素级分割任务进行训练。想法很简单却达到了比较好的效果。文中所提到的loss比较有启发性。大体思路:首先同FCN一样,这个网络只有8层(5层VGG,3层全卷积)。不同的是由于图片只有image-level的标注,所以输出图像的清晰度无法保证,所以没有反卷积。图片的分辨率很低很低,但...

论文笔记(4):Fully Convolutional Networks for Semantic Segmentation

首先回顾CNN测试图片类别的过程,如下图:主要由卷积,pool与全连接构成,这里把卷积与pool都看作图中绿色的convolution,全连接为图中蓝色的fullyconnected。卷积主要是获取高维特征,pool使图片缩小一半,全连接与传统神经网络相似作为权值训练,最后通过softmax输出概率最高的类别。上图中n...

论文笔记(1):From Image-level to Pixel-level Labeling with Convolutional Networks

 文章采用了多实例学习(MIL)机制构建图像标签同像素语义的关联。该方法的训练样本包含了70万张来自ImageNet的图片,但其语义分割的性能很大程度上依赖于复杂的后处理过程,主要包括图像级语义的预测信息、超像素平滑策略、物体候选框平滑策略和MCG分割区域平滑策略。下图是论文所用方法的一般性说明:(1)使用来...

论文学习:Fully Convolutional Networks for Semantic Segmentation

发表于2015年这篇《FullyConvolutionalNetworksforSemanticSegmentation》在图像语义分割领域举足轻重。通常CNN网络在卷积层之后会接上若干个全连接层,将卷积层产生的特征图(featuremap)映射成一个固定长度的特征向量。以AlexNet为代表的经典CNN结构适合于图像...

深度学习面试题27:非对称卷积(Asymmetric Convolutions)

 产生背景之前在深度学习面试题16:小卷积核级联卷积VS大卷积核卷积中介绍过小卷积核的三个优势:①整合了三个非线性激活层,代替单一非线性激活层,增加了判别能力。②减少了网络参数。③减少了计算量在《RethinkingtheInceptionArchitectureforComputerVision》中作者还想...

Language Modeling with Gated Convolutional Networks(句子建模之门控CNN)--模型简介篇

最近忙着实验室的项目,一直没有时间做仿真,所以就先写一下之前看的一篇文章,总结一下吧。这次要说的是GatedCNN,这也是第一次将门限控制引入到CNN中的文章,感觉十分有新意,效果也很棒。下面我们来看一下,文章的主要贡献包括:提出一种新的门控机制缓解梯度传播,降低梯度弥散等现象相比LSTM,模型更加简单,收敛速度更快模...

Stereo Matching by Training a Convolutional Neural Network to Compare Image Patches 译文

我们提出了一种从已纠正的一对图片来提取深度信息的方法。我们的方法聚焦于很多立体构建算法的第一阶段:匹配损失(matchcost)计算。我们通过卷积神经网络通过对小的图像块的相似度的学习,来解决这个问题。通过构建一个二分类的数据集(相似,不相似的样本)进行有监督的训练。我们提出连个网络去实现这个任务,一个调整速度、一个调...

pooling、relu、convolution的反向传播

1.pooling的反向传播: https://blog.csdn.net/qq_21190081/article/details/72871704 pooling反向传播的原则:pooling的值和上一层对应的区域的loss(或者梯度)之和保持不变 meanpooling:把梯度平均分给4个值.如果4个位置都是这个值...

R-FCN:Object Detection via Region-based Fully Convolutional Networks

fast、faster这些网络都可以被roi-pooling层分成两个子网络:1.ashared,'fullyconvolutional'subnetwork                           2.anroi-wisesubnetwork(就是doesnotsharecomputation的子网络)其...

ImageNet Classification with Deep Convolutional Nerual Networks(AlexNet)

Architecture:  整个网络8层,5个卷积层,3个全连接层  ReluNonlinearity:    非饱和的relu比饱和的sigmoid或者tanh训练速度快很多,并有效解决梯度消失  OverlappingPooling:    论文中整个网络都使用重叠网络,分别降低top-1、top-5的错误率0....

Very Deep Convolutional Networks for Large-scale Image Recognition(vggnet)

vggNet是从AlexNet而来,主要探索卷积神经网络的深度与性能之间的关系,通过反复堆叠3x3的卷积核(c中有1x1的卷积核,也只有c中有,c是16层)和2x2的最大池化层,vggNet构筑了16-19层深的卷积神经网络。3x3卷积核:thesmallestsizetocapturethenotionofleft/...

Going deeper with convolutions(GoogLeNet、Inception)

从LeNet-5开始,cnn就有了标准的结构:stackedconvolutionallayersarefollowedbyoneormorefully-connectedlayers。对于Imagenet这种大的数据集,趋势是增加层数和层的大小,用dropout解决过拟合。1×1卷积核在Inception中大量使用,...
首页上一页12下一页尾页