分类问题评价指标

分类问题的评价指标

Accuracy

准确率是预测正确的样本占总样本的百分比。

$$ Accuracy = \frac{TP + TN}{TP + TN + FP + FN} $$
其中TP、TN、FP、FN分别代表真正例、真负例、假正例、假负例。

准确率的缺点:在类别不均衡的情况下,准确率这个指标无法客观的评价算法的优劣。
比如有100个样本,99个是正样本,1个是反样本,这时候算法只要全部输出为正,准确率就能达到99%,此时的数值虽然很高,但是又有什么意义呢

Precision

精确率又称查准率,它是针对预测结果而言的,它的含义是在所有被预测为正的样本中实际为正的样本的概率,意思就是在预测为正样本的结果中,我们有多少把握可以预测正确。精准率和准确率看上去有些类似,但是完全不同的两个概念。精准率代表对正样本结果中的预测准确程度,而准确率则代表整体的预测准确程度,既包括正样本,也包括负样本。

$$ Precision = \frac{TP}{TP + FP} $$
表示预测为正例的样本中,真正例的比例。

Recall

召回率(Recall)又叫查全率,它是针对原样本而言的,它的含义是在实际为正的样本中被预测为正样本的概率,其公式如下:

$$ Recall = \frac{TP}{TP + FN} $$
表示实际为正例的样本中,真正例的比例。

F1 Score

Precision和Recall指标有时是此消彼长的,即精准率高了,召回率就下降,在一些场景下要兼顾精准率和召回率,最常见的方法就是F1 Score
$$ F1 Score = 2 \cdot \frac{Precision \cdot Recall}{Precision + Recall} $$
F1 Score是Precision和Recall的调和平均数,用于平衡Precision和Recall。

ROC曲线和AUC值

ROC曲线(Receiver Operating Characteristic Curve)和AUC值(Area Under Curve)是评估分类模型性能的重要指标,特别是在二分类问题中。

ROC曲线绘制的是不同阈值下的真正例率(True Positive Rate, TPR)和假正例率(False Positive Rate, FPR)之间的关系。AUC值则是ROC曲线下面积的大小。

ROC曲线的横轴是FPR,纵轴是TPR。当阈值越大时,TPR越大,FPR越小。AUC值越大,表示模型的分类性能越好。

ROC曲线和AUC值可以用于比较不同模型的性能,也可以用于选择最优的阈值。

混淆矩阵

混淆矩阵(Confusion Matrix)是评估分类模型性能的一种常用方法,特别是在二分类问题中。

其他评价指标

参考文献

https://www.cnblogs.com/guoyaohua/p/classification-metrics.html


分类问题评价指标
http://jiqingjiang.github.io/p/93b65aed/
作者
Jiqing
发布于
2024年7月20日
许可协议