当前位置:首页 > 学习资源 > 讲师博文 > 你必须了解的AI常用评估指标

你必须了解的AI常用评估指标 时间:2024-02-20      来源:华清远见

你必须了解的AI常用评估指标

一个AI模型性能的好坏,需要通过评估指标来间接地反映,因此如何选择合适的评估指标对于一个AI模型来说显得尤为重要,本文主要介绍了在不同AI任务当中常见的几个评价指标。

 

一、分类任务

1.混淆矩阵

混淆矩阵(Confusion Matrix)是在分类问题中用于评估模型性能的表格,它展示了模型在测试数据集上的预测结果与实际标签之间的关系。混淆矩阵是一个二维的表格,其中包含以下四个重要的指标:

(1)真正例(True Positive,TP):模型正确地将正类别样本预测为正类别。

(2)真负例(True Negative,TN):模型正确地将负类别样本预测为负类别。

(3)假正例(False Positive,FP):模型将负类别样本错误地预测为正类别。

(4)假负例(False Negative,FN):模型将正类别样本错误地预测为负类别。

2. 准确度(Accuracy):

模型正确预测的样本占总样本数的比例,计算方法为 :

3. 精确度(Precision):

正类别的预测正确率,计算方法为:

4. 召回率(Recall):

正类别样本被正确预测的比例,计算方法为:

5. F1 分数(F1-Score):

精确度和召回率的调和平均值,计算方法为 :

6.ROC曲线:

ROC 曲线描述了在不同分类阈值下真正例率(True Positive Rate,又称为召回率)和假正例率(False Positive Rate)之间的权衡关系。

7.AUC:

AUC 表示 ROC 曲线下的面积,取值范围在 0 到 1 之间。AUC 值越高,说明模型在不同分类阈值下的性能越好。完美分类器的 AUC 为 1,随机分类器的 AUC 约为 0.5。AUC 可以理解为在随机选择一个正例和一个负例的情况下,模型正确预测正例的概率高于正确预测负例的概率的程度。因此,AUC 提供了对模型整体性能的综合评估。

8.PR曲线:

PR 曲线(Precision-Recall Curve)是用于评估二分类问题性能的一种图形工具。与 ROC 曲线关注真正例率(True Positive Rate)和假正例率(False Positive Rate)不同,PR 曲线关注的是精确率(Precision)和召回率(Recall)之间的权衡关系。

PR 曲线可以帮助评估模型在不同分类阈值下的性能。曲线越靠近右上角,说明模型在保持高精确率的同时能够获得较高的召回率,即在正例样本中尽可能多地识别为正例。

二、回归任务

在回归问题中,常见的模型评估指标包括以下几个:

1. 均方误差(Mean Squared Error,MSE):

计算预测值与实际值之间的平方差的平均值,MSE 越小越好,其计算公式为:

2. 均方根误差(Root Mean Squared Error,RMSE):

是均方误差的平方根,用于提供与实际值相同的度量单位,RMSE 越小越好,其计算公式为:

3. 平均绝对误差(Mean Absolute Error,MAE):

计算预测值与实际值之间的绝对差的平均值,MAE 越小越好,其计算公式为:

4. R 2分数(R-squared):

R2分数用于表示模型解释方差的比例,取值范围是[-1,1],R2的值越接近1,说明模型的拟合能力越好,其详细的计算公式如下:

 

式中,表示实际的均值。

 

上一篇:探索HTML5:10个鲜为人知却实用至极的特性

下一篇:深度学习目标检测系列:一文弄懂YOLO算法

戳我查看2020年嵌入式每月就业风云榜

点我了解华清远见高校学霸学习秘籍

猜你关心企业是如何评价华清学员的

干货分享
相关新闻
前台专线:010-82525158 企业培训洽谈专线:010-82525379 院校合作洽谈专线:010-82525379 Copyright © 2004-2024 北京华清远见科技发展有限公司 版权所有 ,京ICP备16055225号-5京公海网安备11010802025203号

回到顶部