煮酒论英雄 深度学习CV领域最瞩目的结果top46

如果06年Hinton的深度置信网络是深度学习时代的开启,12年的Alexnet在ImageNet上的独孤求败是深度学习时代的爆发,那么至今也有近15年的发展历程。
 
本文盘点深度学习CV领域杰出的工作,由于本人方向相关,故从基础研究、分类骨架、语义分割、实例分割、目标检测、生成对抗、loss相关、部署加速、其他方面等筛选出最瞩目的成果。
 
注意,本次盘点具有一定的时效性,是聚焦当下的。有些被后来者居上的工作成为了巨人的肩膀,本文不会涉及。
 
本文会给出核心创新点解读和论文链接。如果你是大牛的话,可以自查一下。如果你是小白的话,这是一份入门指引。每个工作本文都会有网络结构或核心思想的插图,并会进行导读式解读。水平有限,欢迎讨论!
 
入围标准
 
承上启下,继往开来。或开启一个时代,或打开一个领域,或引领一个潮流,或造就一段历史。在学术界或工业界备受追捧,落地成果遍地开花。共同构建成深度学习的大厦,并源源不断地给后人输送灵感和启迪。
 
入围成果
 
基础研究:Relu,Dropout,Adam,BN,AtrousConv,DCN系列
 
分类骨架:VGG,ResNet(系列),SeNet,NIN,Inception系列,MobileNet系列,ShuffleNet系列
 
语义分割:FCN,U-Net,PSPNet,Deeplab系列
 
实例分割:Mask R-CNN,PanNet
 
目标检测:Faster R-CNN,Yolo系列,FPN,SSD,CenterNet,CornerNet,FCOS,Cascade R-CNN,DETR
 
生成对抗:GAN,CGAN,DCGAN,pix2pix,CycleGAN,W-GAN
 
loss 相关:Focalloss,IOUloss系列,diceloss, CTCloss
 
部署加速:tf int8,network-slimming,KD
 
其他方面:CAM,Grad-CAM,Soft-NMS,CRNN,DBNet
 
Relu
 
论文标题:Deep Sparse Rectifier Neural Networks
 
核心解读:Relu相比Sigmoid,训练速度更快,且不存在Sigmoid的梯度消失的问题,让CNN走向更深度成为的可能。因为它大于0区间就是一个线性函数,不会存在饱和的问题。对于Relu也有一些改进,例如pRelu、leaky-Relu、Relu6等激活函数。单纯的Relu在0点是不可导的,因此底层需要特殊实现,放心,框架早已做好了。

dawei

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注