TensorFlow学习笔记11:ResNet
ResNet
ResNet是由Kaiming He等4名华人提出,通过使用Residual Unit成功训练了152层的深度神经网络,在ILSVRC 2015比赛中获得冠军,取得了3.57%的top-5错误率,同时参数却比VGGNet少。ResNet的结构可以极快的加速超深神经网络的训练,模型的准确率也有较大的提升。之后很多方法都建立在ResNet的基础上完成的,例如检测,分割,识别等领域都纷纷使用ResNet。在ResNet推出不久,Google就借鉴了ResNet的精髓,提出了Inception V4和Inception-ResNet-V2,并通过融合这两个模型,在ILSVRC数据集上取得了惊人的3.08%的错误率。所以可见ResNet确实很好用。
论文阅读笔记10:FCOS:Fully Convolutional One-Stage Object Detection
论文地址:https://arxiv.org/pdf/1904.01355.pdf
代码地址:https://github.com/tianzhi0549/FCOS
Abstract
我们提出了一种全卷积的 one-stage 目标检测器(FCOS, Fully Convolutional One Stage), 它以对每个像素进行预测的方式来解决目标检测问题,类似于语义分割。几乎所有的 SOTA 物体检测器,如 RetinaNet,SSD,YOLOv3 和 Faster R-CNN 都依赖于预定义的 anchor box。相比之下,我们提出的 FCOS 不需要 anchor box,同时也不需要 proposals (即 One-Stage)。通过消除对预定义 anchor 的依赖,FCOS 完全避免了与 anchor box 相关的复杂计算,例如在训练期间计算 overlapping 并显着减少 training memory footprint。更重要的是,我们还避免了与 anchor 相关的所有超参数,这些参数通常对最终检测性能非常敏感。凭借唯一的后处理操作非最大抑制(NMS),我们的 FCOS 优于之前的 anchor-based one-stage detectors,并且结构更简单。我们首次展示了一种更加简单灵活的检测框架,可以提高检测精度。我们希望 FCOS 框架可以作为许多其他实例级任务简单而强大的替代方案。