岭回归
发布日期:2021-07-03 20:40:23 浏览次数:1 分类:技术文章

本文共 723 字,大约阅读时间需要 2 分钟。

岭回归

文章目录

一.什么是岭回归

之前,大体看了并了解了线性回归的东西,并在之后的学习中,大体直到了过拟合以及正则化的一些概念。需要指出的是:线性回归:Linearregression是很容易出现过拟合的。为了处理过拟合,岭回归就是一个很不错的选择。

所谓岭回归,本质上就是一个带有正则化的线性回归(其实用的是L2正则化)。是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法。

关于岭回归底层的一些内容,参考这个文章:第三部分

二.岭回归的使用

在sklearn中,为我们提供了相关的API

sklearn.linear_model.Ridgesklearn.linear_model.Ridge(alpha=1.0) #具有l2正则化的线性最小二乘法"""alpha:正则化力度coef_:回归系数"""

拿之前的波士顿房价的案例为例:我们在myLiner()函数的结尾加上:

# 岭回归去进行房价预测    rd = Ridge(alpha=1.0)    rd.fit(x_train, y_train)    #print(rd.coef_)    y_rd_predict = std_y.inverse_transform(rd.predict(x_test))    print("岭回归预测房价",y_rd_predict)    print("岭回归军方误差",mean_squared_error(std_y.inverse_transform((y_test)),y_rd_predict))

转载地址:https://blog.csdn.net/johnny_love_1968/article/details/116138547 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:逻辑回归简介
下一篇:过拟合、欠拟合

发表评论

最新留言

第一次来,支持一个
[***.219.124.196]2024年04月27日 09时08分12秒