基于深度学习的「目标检测」算法综述
目标检测一直是计算机视觉的基础问题,在 2010 年左右就开始停滞不前了。自 2013 年一篇论文的发表,目标检测从原始的传统手工提取特征方法变成了基于卷积神经网络的特征提取,从此一发不可收拾。
本文将跟着历史的潮流,简要地探讨「目标检测」算法的两种思想和这些思想引申出的算法,主要涉及那些主流算法,no bells and whistles.
目标检测一直是计算机视觉的基础问题,在 2010 年左右就开始停滞不前了。自 2013 年一篇论文的发表,目标检测从原始的传统手工提取特征方法变成了基于卷积神经网络的特征提取,从此一发不可收拾。
本文将跟着历史的潮流,简要地探讨「目标检测」算法的两种思想和这些思想引申出的算法,主要涉及那些主流算法,no bells and whistles.
Inception
是神经网络结构的一大神作,其提出的「多尺寸卷积」和「多个小卷积核替代大卷积核」等概念是现如今许多优秀网络架构的基石。也正是如此,基于此的 Xception
横空出世,作者称其为 Extreme Inception
,提出的 Depthwise Separable Conv
也是让人眼前一亮。
「卷积」这个概念是「卷积神经网络」最为关键的概念之一,理解了卷积就相当于完成了八成的工作,再结合起神经网络就算吃透了「卷积神经网络」。但是网上很多人对「卷积」的解释过于佶屈聱牙,甚至很多人对「卷积神经网络」中的「卷积」一知半解就写了个回答,于是在此重新理解、总结「卷积神经网络」中的「卷积」。
在学习「卷积神经网络」(Convolution Neural Network)的过程中,不可避免的会遇到各种各样的「卷积核」。不理解「卷积核」就没办法很好的理解整个网络,不求甚解等于一无所知,特此总结分析各种卷积核由来和用途。
注:在此不探讨用于反卷积的卷积核。
最近在回顾整理之前似懂非懂的知识点,其中就有集成方法(Ensemble Method)。
本文将简要阐述 Bagging 和 Boosting 两种集成方法,并且抛砖引玉地探讨基于这两者的算法及其优劣。
最近在整理知识要点,正好看到有许多关于面试知识点的文章,集百家之所长、取其精华去其糟粕,本文将汇总一些收集的资料并给予出处。
本文将分 机器学习
、 深度学习
和 基本素养
三大板块进行阐述。
注:本文属于入门级知识要点,掌握对应的知识点就相当于对该领域入门