SVM和LR的适用情况,SVM中核函数的作用。
发布日期:2021-06-29 11:41:50 浏览次数:3 分类:技术文章

本文共 390 字,大约阅读时间需要 1 分钟。

在Andrew Ng的机器学习视频中提到SVM和logistic回归的适用情形:

m是样本数,n是特征的数目
1、如果n相对于m来说很大,则使用logistic回归或者不带核函数的SVM(线性分类)
2、如果n很小,m的数量适中(n=1-1000,m=10-10000),使用带核函数的SVM算法
3、如果n很小,m很大(n=1-1000,m=50000+),增加更多的特征,然后使用logistic回归或者不带核函数的SVM。

SVM中的核函数思想:

通过一个非线性变换将输入空间映射到一个特征空间;使得在输入空间中的超曲面模型对应于特征空间中的超平面模型;这样,分类问题的学习任务通过在特征空间中求解先行支持向量机就可以完成。

常用核函数:

线性核  

多项式核

高斯核

sigmoid核

拉普卡斯核

此外还可以组合核函数得到:核函数的线性组合也是核函数,核函数的直积也是核函数。

 

转载地址:https://blog.csdn.net/zz2230633069/article/details/101565040 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:以下机器学习中,在数据预处理时,不需要考虑归一化处理的是
下一篇:判别式模型和生成式模型

发表评论

最新留言

感谢大佬
[***.8.128.20]2024年04月06日 01时22分11秒