深度学习中的一些基本度量公式

Sunday, December 3, 2023
本文共1471字
3分钟阅读时长
pwn

⚠️本文是作者P3troL1er原创,首发于https://peterliuzhi.top/principle/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E4%B8%AD%E7%9A%84%E4%B8%80%E4%BA%9B%E5%9F%BA%E6%9C%AC%E5%BA%A6%E9%87%8F%E5%85%AC%E5%BC%8F/。商业转载请联系作者获得授权,非商业转载请注明出处!

Life is a progress, and not a station. — Ralph Waldo Emerson

基本度量公式


参考:


TP、FP、TN、FN

  • TP:True Positive,真阳性,分类器预测结果为正样本,实际也为正样本,即正样本被正确识别的数量。
  • FP:False Positive,假阳性,分类器预测结果为正样本,实际为负样本,即误报的负样本数量。
  • TN:True Negative,真阴性,分类器预测结果为负样本,实际为负样本,即负样本被正确识别的数量。
  • FN:False Negative,假阴性,分类器预测结果为负样本,实际为正样本,即漏报的正样本数量。

从而:

  • TP+FN:真实正样本的总和,正确分类的正样本数量+漏报的正样本数量。
  • FP+TN:真实负样本的总和,负样本被误识别为正样本数量+正确分类的负样本数量。
  • TP+TN:正确分类的样本总和,正确分类的正样本数量+正确分类的负样本数量。

图 1-48a38d1763109ae30248dfb019a661ca9e9a2bd324863a7fac04ccb48eda0d80

Accuracy准确率、Precision精确度、Recall召回(查全)率

$$ Accuracy = \frac{TP+TN}{样本总数} $$

$$ Pression = \frac{TP}{TP+FP} $$

$$ Recall = \frac{TP}{TP+FN} $$

图 0-68723f14cc31e5b764b94f9d8c14c37b186e6d5e3a3fec33121a77f5c7b005b9

思考:对于Precision值,其代表的是你所预测出来准确结果占所有预测结果的准确性,对于Recall值,其代表的是你所预测出来准确结果占总体正样本的准确性。这样说有点难理解,举个例子吧。现在你手上有10个鸡蛋,里面有6个是好的,另外4个是坏的,你训练出一个模型,检测出8个鸡蛋是好的,但实际上只有5个是好的,另外3个是坏的。那么模型的Precision值为5/8=0.625,即表示你所预测出来的8个鸡蛋中只有5个是好的,其值只在你预测结果中计算得到,Recall值为5/6=0.833,即表示总共有6个正样本,你预测出来5个,表示的是你预测出来的正样本占总正样本的比例。(正样本理解为你要检测的目标)

图 2-100d91c704ea756135799e42478c4b3ec60bdf4bee798ff577f323c56ca76823

图 3-362bb781caaf4a9312fc63fc8f8f06dc7f58ab2d4ab46657bea8efae560c8345

Precision与Recall曲线

把每次预测结果的Precision和Recall计算出来,并按照关系画出曲线,就是P-R曲线

图 0-ad49b9f3c4d00e8d45cbaf432c79d4e09fcc05b1457fca7ffe5afdba0e607002

F1 Score

F1 Score是Precision与Recall的调和平均(harmonic mean),是综合Precision与Recall的评估指标,避免Precision或Recall的单一极大值,用于综合反映整体的指标

$$ F1 = 2 \cdot \frac{Precision \cdot Recall}{Precision + Recall} $$

Confidence Score置信度分数 和 IoU交并比

Confidence Score 置信度分数是一个分类器(Classifier)预测一个锚框(Anchor Box)中包含某个对象的概率(Probability),当置信度分数大于Confidence Threshold置信度阈值的时候,我们认为在锚框内真包含一个对象

IoU (Intersection over union)交并比,预测框(Prediction)与原标记框(Ground truth)之间的重叠度(Overlap)

$$ IoU=\frac{A\cap B}{A\cup B} $$

AP

在计算AP前,为了平滑P-R曲线,减少曲线抖动的影响,首先对P-R曲线进行插值(interpolation)

给定某个recall值$r$,用于插值的$P_{interp}$为下一个recall值$r’$与当前$r$值之间的最大的Precision值

$$ P_{interp}(r) = max_{r’ \ge r}P(r’) $$

图 1-c574e64f32c70cf75e675b37f38ee6c53f3ca3680380cb58f7acd7aaadb13d64

AP计算可以定义为经过插值的precision-recall曲线与X轴包络的面积

$$ AP=\sum_{i=1}^{n-1}(r_{i+1}-r_{i})p_{interp}(r_{i+1}) $$

mAP

AP是针对一个类别的,mAP就是将所有类别的AP加起来然后求平均

$$ mAP=\frac{\sum_{i=1}^{K}AP_{i}}{K} $$