用来训练模型,确定模型的权值、偏置等
验证集用于模型的选择,验证集只是为了选择超参数,比如网络层数、网络节点数、迭代次数、学习率这些都叫超参数
仅仅使用于模型的评价
模型在训练集上的误差(即真实结果与预测结果间的差异)称为训练误差或经验误差
模型在验证集与测试集上的误差称为泛化误差
而单个模型在训练集上训练希望训练误差最小,并在验证集上测试模型表现以确定单个模型的最优参数;当有多个候选模型时,需要在测试集上对比不同模型的测试表现,以选出最优的模型,一般将这个过程称为嵌套交叉验证
内层交叉验证用于模型参数优化;外层交叉验证用于模型选择即寻找最优模型
正负样本选择,没有明确规定,根据业务进行选择。
在机器学习中,往往将少数样本定义为正样本,表示希望模型在训练时更加关注少数样本。
在评分卡中以少数样本为正样本,即以坏样本(违约样本)为正样本
结合评分卡说说以少数、多数样本为正阳本的优点
即以违约样本为正样本,控制模型更加关注对坏样本的预测能力更符合业务场景,也便于应对样本不平衡的问题
业务关注对坏样本的预测能力
即以没有违约的为正样本,直观上好理解
评分卡的业务场景更关注坏账率和通过率
通过率:模型判断为好样本的数量占总样本数的比例
坏账率:模型判断为好样本中真正的坏样本所占的比例,即模型给予申请通过后实际发生逾期与整个通过样本的比例
只要看到模型的评估指标,首先要确定正负样本的定义是什么
该统计参数是预测数据和原始数据对应点误差的平方和的均值(线性回归的损失函数)
越小越好
真实值与预测值偏差平方和的平均数
RMSE虽然广为使用,但是其存在一些缺点,因为它是使用平均误差,而平均值对异常点(outliers)较敏感,如果回归器对某个点的回归值很不理性,那么它的误差则较大,从而会对RMSE的值有较大影响,即平均值是非鲁棒的。
R2越大,模型的拟合效果越好
其中,I(f(x)≠y)为指示函数,如条件成立时,输出为 1,条件不成立时,结果为 0。因此,错误率就是被错分的样本数占总体样本数的比例
召回率衡量了在所有正例中模型正确预测的概率,召回率与漏报率相对,即召回率越高,漏报率越小.(预测为正 / 真实正例)
召回率:一共50条鱼,30草鱼,20鲤鱼,关注的是草鱼,一网打了30个,20草鱼10个鲤鱼,那么召回率就是2/5
> 宁可错杀不错过一个
漏报就是3/5,召回率越高漏报率越小
误报:预测为正例了,但其实不是,预测错了,
医疗场景诊断
精度也称为正确率,1-错误率即为精度
在申请评分中更关心模型对坏样本的准确预测能力,坏样本对业务影响比较重要
在反欺诈应用中,更关心模型预测的欺诈用户中有多少是真实欺诈的用户
精准率衡量了所有模型预测为正例的样本中真实为正例的概率,精准率与误报率相对,即精准率越高,误报率越少 (真实正例 / 预测为正)
坏样本为正样本
from sklearn.neural_network import MLPClassifier
from sklearn.metrics import confusion_matrix, classification_report
print(confusion_matrix(test_Y, clf.predict(test_X))) # 混淆矩阵
print(classification_report(test_Y, clf.predict(test_X))) # 分类报告
召回率和精确率是相互制约、此消彼长的
为了综合考虑召回率与精准率(P-R曲线和f1指标)
P-R:以召回率为横坐标、精准率为纵坐标,绘制 P-R 曲线来比较模型的优劣
同时也可以采用平衡点来衡量,令每个分类模型的召回率与精准率相等即为该模型的 BEP,BEP 越大,则模型的性能越好
绘制PR曲线
# P-R
# plt.subplot(122)
train_precision, train_recall, _ = metrics.precision_recall_curve(y_train,
model.predict_proba(x_train)[:, 1]) # 预测为1的概率
test_precision, test_recall, _ = metrics.precision_recall_curve(y_test, ypreba1)
plt.plot(train_recall, train_precision, color='r', linestyle='-', label='训练集P-R曲线')
plt.plot(test_recall, test_precision, color='b', linestyle=':', label='测试集P-R曲线')
plt.xlabel('Recall')
plt.ylabel('Precision')
plt.legend()
plt.ylim([0.0, 1.05])
plt.xlim([0.0, 1.0])
plt.show()
BEP方法是P-R曲线的一种量化方法,更好的量化方法是F1指标
F1 指标综合考虑了召回率与精准率两种情况,如果希望考虑更多的召回率或精准率,则有如下的变异形式
当β=1 时,Fβ 指标蜕化为 F1 指标,此时召回率与精准率的重要程度相同;
当 β>1 时召回率的影响大于精准率;
相反,当β<1 时,精准率的影响大于召回率
标准评估指标的本质是从模型预测结果出发来度量模型性能优劣的,如分类模型从混淆矩阵中得到各种不同的性能指标,回归模型直接从预测结果与真实结果的偏差角度进行分析
推荐系统更看重 精准率,宁可少推也不推错
抓捕犯罪更看重 召回率
基于概率密度的评估指标其本质就是度量两个概率密度函数相互独立的可能性有多大
如图第一个分类器的性能优于第二个分类器的性能
熵表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望
代表着不纯度,越小事情越确定
信息量的一个加权平均
K-L 散度是两个随机分布之间距离的度量,就是似然比的对数期望,这正是要找的衡量两个概率密度函数独立性的指标
用于衡量对于同一个随机变量x的两个分布 真实 和 预测 之间的差异
p(x)常用于描述样本的真实分布,而q(x)则常常用于表示预测的分布
KL散度的值越小表示两个分布越接近(越小越好)。
然而,K-L 散度没有对称性,即 D(p||q)≠D(q||p)。
既然 K- L 散度没有对称性,两个随机分布之间的 K-L 散度求和,这个求和后的距离越大,证明两个随机分布的距离越大,即独立性越好,模型的预测效果越好
因此,得到了一个具有对称性的距离,即为 K-L 距离
对称化后的 K-L 散度即 K-L 距离就是 IV 值
对于 IV 值越大,表示该变量对目标变量的预测能力就越好
因为 IV 值其本质就是 K-L 距离,在每个区间的 IV 值越大,表示在这个区间内正负
样本的概率密度函数 f(p|B)与 f(p|G)的距离就越大,在该区间内变量对好坏样本的区分度就越高,而整个变量的 IV 值就是每个区间的 IV 值加和。因此,IV 值越大,该变量对好坏样本的区分度就
越强,也就是变量对目标变量的预测能力越好
因此,在变量选择阶段,IV 值可以用来选择预测能力强的变量,在模型评估中可以用来衡量不同模型的预测性能
交叉熵是kl散度的一个变形
前面真实的分布是固定的,所以只看后半部行了
纵坐标为真正率(TPR),横坐标为假正率(FPR)
绘制方法
ROC曲线反映了排序质量的好坏,也就是预测结果的好坏(正例在前,反例在后)
ROC曲线的量化指标:AUC,就是曲线下面积,AUC值越大越好,即面积曲线下面积越大越好
AUC的取值在0.5-1之间,我们更习惯于一个取值在0-1之间的指标,这时候就有了归一化后的AUC,就是基尼系数或基尼统计量(这里的基尼系数和决策树的不同)
基尼系数(基尼统计量)是AUC的一种归一化形式
ROC反映的是整体的性能
绘制ROC曲线
# ROC
# plt.subplot(121)
fpr, tpr, threshold = metrics.roc_curve(y_test, ypreba1) # 预测为1的概率
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('FPR')
plt.ylabel('TPR')
plt.title('ROC')
plt.plot(fpr, tpr, color='darkorange', label='AUC: %0.2f' % roc_auc_score(y_test, ypreba1))
plt.plot([0, 1], [0, 1], color='navy', lw=2, linestyle='--') # x1 x2 [0, 1] y1 y2 [0, 1]
plt.legend(loc="lower right")
plt.show()
提升图比较的是采用模型与不采用模型带来的改善,即采用模型后对坏样本识别能力的提升程度
大体计算过程
概率降序排序,将概率等分为10组,分别计算每组的实际违约数,占总违约数的占比和累计占比
直方图如下
为什么呈单调递减?
根据概率降序排序了,坏样本占比随着概率的降低而减少(概率越高占比越大)
即模型的预测结果与真实结果的违约情况有很好的单调关系
为了直观地比较有模型判断与随机判断在识别坏样本的提升程度上的差别,可以将采用模型判断得到的每组坏样本占比与随机判断每组的坏样本占比做比值,如图
将采用模型判断得到的每组累计坏样本占比与随机判断每组的累计坏样本占比进行绘图
用洛伦兹比较两个模型的性能时,也是偏左上角好(和ROC相同)
ROC的纵坐标是TPR,横坐标是FPR
这里的TPR和洛伦兹基本一致,每个组别(概率区间)的实际违约占比就是该组内的TPR
ROC的横坐标是FPR,表示对不逾期样本的误判率,洛伦兹的横坐标是分组数
所以洛伦兹曲线和ROC本质是相同的,只是横坐标表示的信息有所不同
洛伦兹的横坐标还可以表示通过率
可以用洛伦兹曲线与随机判断对角线围城的面积A来量化模型的性能
将可提升的面积与提升的极限做比值定义为基尼系数
这里的基尼系数和AR是等价的,也是2*AUC-1
洛伦兹曲线在给定通过率后,只能得到对坏样本的识别能力
在洛伦兹的基础上再加一条识别好样本的曲线就是KS曲线
K-S曲线本质就是坏样本的洛伦兹曲线和好样本的洛伦兹曲线构成的
KS值反映了模型对好坏样本的区分能力,KS值越大表示对好坏样本的区分能力越强,最大的KS值对应的概率就是预测模型的最优阈值点
KS值越大说明模型对好坏样本的区分能力越好,模型的性能越优
文章浏览阅读645次。这个肯定是末尾的IDAT了,因为IDAT必须要满了才会开始一下个IDAT,这个明显就是末尾的IDAT了。,对应下面的create_head()代码。,对应下面的create_tail()代码。不要考虑爆破,我已经试了一下,太多情况了。题目来源:UNCTF。_攻防世界困难模式攻略图文
文章浏览阅读2.9k次,点赞3次,收藏10次。偶尔会用到,记录、分享。1. 数据库导出1.1 切换到dmdba用户su - dmdba1.2 进入达梦数据库安装路径的bin目录,执行导库操作 导出语句:./dexp cwy_init/[email protected]:5236 file=cwy_init.dmp log=cwy_init_exp.log 注释: cwy_init/init_123..._达梦数据库导入导出
文章浏览阅读1.9k次。1. 在官网上下载KindEditor文件,可以删掉不需要要到的jsp,asp,asp.net和php文件夹。接着把文件夹放到项目文件目录下。2. 修改html文件,在页面引入js文件:<script type="text/javascript" src="./kindeditor/kindeditor-all.js"></script><script type="text/javascript" src="./kindeditor/lang/zh-CN.js"_kindeditor.js
文章浏览阅读2.3k次,点赞6次,收藏14次。SPI的详情简介不必赘述。假设我们通过SPI发送0xAA,我们的数据线就会变为10101010,通过修改不同的内容,即可修改SPI中0和1的持续时间。比如0xF0即为前半周期为高电平,后半周期为低电平的状态。在SPI的通信模式中,CPHA配置会影响该实验,下图展示了不同采样位置的SPI时序图[1]。CPOL = 0,CPHA = 1:CLK空闲状态 = 低电平,数据在下降沿采样,并在上升沿移出CPOL = 0,CPHA = 0:CLK空闲状态 = 低电平,数据在上升沿采样,并在下降沿移出。_stm32g431cbu6
文章浏览阅读1.2k次,点赞2次,收藏8次。数据链路层习题自测问题1.数据链路(即逻辑链路)与链路(即物理链路)有何区别?“电路接通了”与”数据链路接通了”的区别何在?2.数据链路层中的链路控制包括哪些功能?试讨论数据链路层做成可靠的链路层有哪些优点和缺点。3.网络适配器的作用是什么?网络适配器工作在哪一层?4.数据链路层的三个基本问题(帧定界、透明传输和差错检测)为什么都必须加以解决?5.如果在数据链路层不进行帧定界,会发生什么问题?6.PPP协议的主要特点是什么?为什么PPP不使用帧的编号?PPP适用于什么情况?为什么PPP协议不_接收方收到链路层数据后,使用crc检验后,余数为0,说明链路层的传输时可靠传输
文章浏览阅读587次。软件测试工程师移民加拿大 无证移民,未受过软件工程师的教育(第1部分) (Undocumented Immigrant With No Education to Software Engineer(Part 1))Before I start, I want you to please bear with me on the way I write, I have very little gen...
文章浏览阅读304次。Thinkpad X250笔记本电脑,装的是FreeBSD,进入BIOS修改虚拟化配置(其后可能是误设置了安全开机),保存退出后系统无法启动,显示:secure boot failed ,把自己惊出一身冷汗,因为这台笔记本刚好还没开始做备份.....根据错误提示,到bios里面去找相关配置,在Security里面找到了Secure Boot选项,发现果然被设置为Enabled,将其修改为Disabled ,再开机,终于正常启动了。_安装完系统提示secureboot failure
文章浏览阅读10w+次,点赞93次,收藏352次。1、用strtok函数进行字符串分割原型: char *strtok(char *str, const char *delim);功能:分解字符串为一组字符串。参数说明:str为要分解的字符串,delim为分隔符字符串。返回值:从str开头开始的一个个被分割的串。当没有被分割的串时则返回NULL。其它:strtok函数线程不安全,可以使用strtok_r替代。示例://借助strtok实现split#include <string.h>#include <stdio.h&_c++ 字符串分割
文章浏览阅读2.3k次。1 .高斯日记 大数学家高斯有个好习惯:无论如何都要记日记。他的日记有个与众不同的地方,他从不注明年月日,而是用一个整数代替,比如:4210后来人们知道,那个整数就是日期,它表示那一天是高斯出生后的第几天。这或许也是个好习惯,它时时刻刻提醒着主人:日子又过去一天,还有多少时光可以用于浪费呢?高斯出生于:1777年4月30日。在高斯发现的一个重要定理的日记_2013年第四届c a组蓝桥杯省赛真题解答
文章浏览阅读851次,点赞17次,收藏22次。摘要:本文利用供需算法对核极限学习机(KELM)进行优化,并用于分类。
文章浏览阅读1.1k次。一、系统弱密码登录1、在kali上执行命令行telnet 192.168.26.1292、Login和password都输入msfadmin3、登录成功,进入系统4、测试如下:二、MySQL弱密码登录:1、在kali上执行mysql –h 192.168.26.129 –u root2、登录成功,进入MySQL系统3、测试效果:三、PostgreSQL弱密码登录1、在Kali上执行psql -h 192.168.26.129 –U post..._metasploitable2怎么进入
文章浏览阅读257次。本文将为初学者提供Python学习的详细指南,从Python的历史、基础语法和数据类型到面向对象编程、模块和库的使用。通过本文,您将能够掌握Python编程的核心概念,为今后的编程学习和实践打下坚实基础。_python人工智能开发从入门到精通pdf