机器学习:性能度量篇-Python利用鸢尾花数据绘制ROC和AUC曲线
发布日期:2021-06-30 15:41:12 浏览次数:3 分类:技术文章

本文共 2426 字,大约阅读时间需要 8 分钟。

 

 

文章目录

  • ROC与AUC
    • 1.ROC
    • 2.AUC
  • 代码实现

 


前言

内容接上一篇

上篇文章提到的这篇文章不做过多叙述。


提示:以下是本篇文章正文内容,下面案例可供参考

一、ROC与AUC

很多学习器是为了测试样本产生的一个实值或概率预测,然后将这个预测值与一个分类阈值(threshold)进行比较,若大于阈值则分为正类,否则为反类。主要看需要建立的模型侧重于想用在测试数据的泛华性能的好坏。排序本身的质量好坏体系了综合考虑学习去在不同任务下的“期望泛化性能”的好坏。ROC曲线则是从这个角度出发来研究学习器泛化性能。

1.ROC

ROC的全称是“受试者工作特征”曲线,与P-R曲线相似。与P-R曲线使用查准率、查全率为纵、横坐标不同,ROC曲线的纵轴是“真正例率”{简称TPR),横轴是“假正例率”(简称FPR)二者分别定义为:

TPR=\frac{TP}{TP+FN}      FPR=\frac{FP}{TN+FP}

ROC曲线图以真正例率为Y轴,假正例率为X轴。

2.AUC

进行检验判定ROC曲线性能的合理判据是比较ROC曲线下的面积,即AUC。从定义知AUC可通过对ROC曲线下各部分的面积求和而得,AUC可估算为:

AUC=\frac{1}{2} \sum_{i=1}^{m-1}(x_{i+1}-x_{i})*(y_{i}+y_{i+1})

从形式化看,AUC考虑的是样本预测的排序质量,因此它与排序误差有紧密联系。因此存在排序损失。

 

二、代码实现

形式基本和P-R曲线差不多,只是几个数值要改一下。

代码如下(示例):

from sklearn import svm, datasetsfrom sklearn.model_selection import train_test_splitfrom sklearn.metrics import roc_curve, aucfrom itertools import cyclefrom sklearn.preprocessing import label_binarize #标签二值化LabelBinarizer,可以把yes和no转化为0和1,或是把incident和normal转化为0和1。import numpy as npfrom sklearn.multiclass import OneVsRestClassifieriris = datasets.load_iris()# 鸢尾花数据导入X = iris.data#每一列代表了萼片或花瓣的长宽,一共4列,每一列代表某个被测量的鸢尾植物,iris.shape=(150,4)y = iris.target#target是一个数组,存储了data中每条记录属于哪一类鸢尾植物,所以数组的长度是150,所有不同值只有三个random_state = np.random.RandomState(0)#给定状态为0的随机数组y = label_binarize(y, classes=[0, 1, 2])n_classes = y.shape[1]n_samples, n_features = X.shapeX  = np.c_[X, random_state.randn(n_samples, 200 * n_features)]#添加合并生成特征测试数据集X_train, X_test, y_train, y_test = train_test_split(X, y,                                                    test_size=0.25,                                                    random_state=0)#根据此模型训练简单数据分类器classifier = OneVsRestClassifier(svm.SVC(kernel='linear', probability=True,                                 random_state=random_state))#线性分类支持向量机y_score = classifier.fit(X_train, y_train).decision_function(X_test)#用一个分类器对应一个类别, 每个分类器都把其他全部的类别作为相反类别看待。fpr = dict()tpr = dict()roc_auc = dict()for i in range(n_classes):    fpr[i], tpr[i], _ = roc_curve(y_test[:, i], y_score[:, i])    #计算ROC曲线面积    roc_auc[i] = auc(fpr[i], tpr[i])fpr["micro"], tpr["micro"], _ = roc_curve(y_test.ravel(), y_score.ravel())roc_auc["micro"] = auc(fpr["micro"], tpr["micro"])import matplotlib.pyplot as pltplt.figure()lw = 2plt.plot(fpr[2], tpr[2], color='darkorange',         lw=lw, label='ROC curve (area = %0.2f)' % roc_auc[2])plt.plot([0, 1], [0, 1], color='navy', lw=lw, linestyle='--')plt.xlabel('FPR')plt.ylabel('TPR')plt.ylim([0.0, 1.0])plt.xlim([0.0, 1.0])plt.legend(loc="lower right")plt.title("Precision-Recall")plt.show()

 

效果


总结

下篇为KNN近邻算法

 

参阅博客:

转载地址:https://jxnuxwt.blog.csdn.net/article/details/108793878 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:Nosql数据库原理学习:CAP原理、BASE和最终一致性
下一篇:Bootstrap项目实践:Grid布局应用

发表评论

最新留言

做的很好,不错不错
[***.243.131.199]2024年04月07日 08时39分53秒