主页

SPP-Net

0. 参考https://zhuanlan.zhihu.com/p/34053764 1. 论文概况1. Motivation 当前的CNNs,fc需要固定大小的输入,因此需要输入图像尺寸固定,于是crop/warp,但这样可能会产生物体截断或拉伸,会导致输入CNN的图像信息丢失,降低了识别的精度。 提速:只做一次CNN特征提取,然后将每个region proposal的卷积层特征输入到全连

R-CNN

0. 参考1. 论文概况1. Motivation CNN的应用。 2. 解决什么问题? 传统目标检测中,基于滑窗的区域选择策略没有针对性,时间复杂度高,窗口冗余; 传统目标检测中,手工设计的特征对于多样性的变化并没有很好的鲁棒性。 3. 提出了什么方法? region proposal; CNN; 4. 效果如何? R-CNN在PASCAL VOC2007上的检测结果从DPM HS

Mobilenet

参考: MobileNet V2 论文初读: https://zhuanlan.zhihu.com/p/33075914 CNN模型之MobileNet(知乎:我是小将): https://zhuanlan.zhihu.com/p/31551004 (nice):https://www.cnblogs.com/ansang/p/9076253.html https://yinguobing.co

python-数据处理1

读取csv数据文件numpy读取csv12from numpy import genfromtxtdata = genfromtxt('my_data.csv') ​ pandas读取csv1data = pd.read_csv('my_data.csv') csv模块读取12345678import csvcsvreader = csv.reader(

感受野(receptive filed)大小的计算

感受野的概念 定义:卷积神经网络每一层输出的feature map上的像素点在输入图上映射的区域大小。分为理论感受野theoretical receptive field (TRF)与有效感受野effective receptive field (ERF),通常说的是理论感受野 有效感受野 详见论文:Understanding the Effective Receptive Field in D

L1与L2正则化

更小的权值,从某种意义上讲,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫作奥卡姆剃刀)简单理解就是,权重变小了,表示模型对每个参数样本的依赖性就不那么大了,就减小了过拟合; 另,可参考:https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-09-l1l2regularization/ L1倾向于把一些参

先验分布、后延分布、极大似然估计

参考:https://www.zhihu.com/question/24261751 先验概率:实际中经验所得的概率; 后验概率:知果求因,即条件概率P(A|B) 极大似然估计:已知某事件发生,其概率应最大 用“瓜熟蒂落”这个因果例子,从概率(probability)的角度说一下,先验概率,就是常识、经验所透露出的“因”的概率,即瓜熟的概率。应该很清楚。后验概率,就是在知道“果”之后,去推测“