标签:: 机器学习

mAP评估指标

参考: https://www.zhihu.com/question/53405779/answer/419532990 概念及公式11点插值法计算 实例:计算mAPhttps://github.com/rafaelpadilla/Object-Detection-Metrics coco目标检测评估标准https://blog.csdn.net/u014734886/article/de

L1与L2正则化

更小的权值,从某种意义上讲,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫作奥卡姆剃刀)简单理解就是,权重变小了,表示模型对每个参数样本的依赖性就不那么大了,就减小了过拟合; 另,可参考:https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-09-l1l2regularization/ L1倾向于把一些参

先验分布、后延分布、极大似然估计

参考:https://www.zhihu.com/question/24261751 先验概率:实际中经验所得的概率; 后验概率:知果求因,即条件概率P(A|B) 极大似然估计:已知某事件发生,其概率应最大 用“瓜熟蒂落”这个因果例子,从概率(probability)的角度说一下,先验概率,就是常识、经验所透露出的“因”的概率,即瓜熟的概率。应该很清楚。后验概率,就是在知道“果”之后,去推测“

softmax与交叉熵

熵是不确定性的一种度量。 简单易懂的解释:比如你去跟朋友商量,扔一个硬币,如果正面就去你喜欢的店吃饭,如果反面就去他喜欢的店吃饭。这时候你特别想去你喜欢的店,于是悄悄在硬币上做了手脚,让每次扔都是正面朝上。是不是去哪里吃饭这件事就是确定的,不随机的。这时候,熵是最小的。 Softmax是logistic regression的的多分类推广(有兴趣可参考:https://blog.csdn.net/

loss函数

参考:http://kubicode.me/2016/04/11/Machine%20Learning/Say-About-Loss-Function/