归档: 2018
基于GRNN和GBDT的姿态误差补偿
技术路线 数据采集->模型建立与调优->模型预测与误差补偿实验 相关论文发表 Qiang Lu, et al. “Comparison of pose error compensation for focal plane pose test platform using GRNN and CART.” Proc. of SPIE Vol. 10706.
验证码识别
概述这是2017上学期计算机视觉课程的project,识别带有字符倾斜和噪点的4字符验证码,已有训练集为6字符的验证码图片。 最终成果 思路1:传统方法可见,骨架细化后虽然速度差不多,但是精度下降很多。 传统方法结果分析与改进 思路2:CNNCNN结果与传统方法结果对比如下: 总结 此处SVM泛化能力更好,单个字符识别率96.7% CNN模型复杂反而起反作用,尝试Conv层间添加1×1降维和s
实验室门牌号识别
概述这是2017年4月份走在实验室楼道间萌生的一个想法,就想着能否做个识别每个实验室门牌号的检测器。 数据采集训练数据是自己在各个实验室门口拍的100多张图片,拍摄的时候会有不同的拍摄角度、光线亮暗的变化等; 如下图所示: 我的思路需要特别指出的是:在筛选字符的矩形时,采用了矩形框的统计特征,即选择矩形高的残差最小的3个。 详细的流程图如下所示: 中间结果门牌号数字区域分割结果图: 字符分
大符目标检测-2016大疆Robomasters比赛
概述这是2016年大疆RoboMaster机器人竞赛的一个题目,当时在系里面的RoboMaster竞赛队伍中接触到的。 任务要求: 实时检测出视频中的所有九个区域,用矩形框将格子区域框出; 实时检测出视频中大符的目标区域和非目标区域,目标区域即为姿态形状一直发生变化的小人儿所在的格子区域,小人儿所在的格子每隔1.5秒换一次,所以检测速度尽量要快; 我的思路当然,可以用运动检测、运动跟踪的论文方
笔尖检测-实验模型关键代码
主要是在这三个文件中修改 anchor_generators/multiple_grid_anchor_generator.py中修改:313行开始,修改anchor尺寸及比例 models/feature_map_generators.py中修改:130行开始,修改用于预测的feature map的生成方式 models/ssd_mobilenet_v2_feature_extract
笔尖检测阶段3-特征融合
修改mobilenet_v2的导入指令,原指定导入的代码位于目录<module ‘nets.mobilenet.mobilenet_v2’ from ‘/home/lq/anaconda3/lib/python3.6/site-packages/slim-0.1-py3.6.egg/nets/mobilenet/mobilenet_v2.py’>下 1234'from_lay
目标检测-总结(不断更新)
低层(bottom-up feature):低级特征,框的位置预测准确,但分类可能会出错,细粒度特征 高层(top-down feature):高级特征,语义信息很强, 分类误差大->高层语义信息运用 location误差大->低层信息运用 SSD缺点 仅使用顶层进行检测,对小物体检测效果不好;对类似类别的分类错误较多,one-stage检测器的 为何SSD和Faster R
模型评估-TensorFlow目标检测API
coco中pycocotools组件的安装运行评估指令时,出现了如下错误: ImportError: No module named ‘pycocotools’ 解决办法: 安装pycocotools,pycocotools是coco数据集中的对目标检测的评测工具。 1git clone https://github.com/pdollar/coco.
源码修改-TensorFlow目标检测API
源码阅读方法 先看检测模型配置文件,即config文件 再根据config文件中的具体配置选项的总名称,然后到builders文件夹中找到相关的命名的文件,如config文件中的参数loss配置对应builders文件夹下的losses_builder.py 在对应的builder文件中,就可以看到具体参数配置的含义了,但具体的内部实现应该根据builder文件中的import部分中查看(mode