LR
LR推导
https://www.cnblogs.com/bonelee/p/7253508.html
LR损失函数是什么?优缺点,适用场景
损失函数:极小化对数似然的相反数:
优势:
- 模型简单
- 可解释性强
缺点:
- 处理不好特征间的关系
- 特征空间很大时,性能不好
- 容易欠拟合,精度不高
适用情况:
样本线性可分且样本空间不是很大的情况
LR的逻辑函数为什么使用sigmod函数,这个函数有什么优点和缺点?
首先LR本身就是线性回归针对Sigmod的应用,之所以要应用Sigmod在线性回归之上是因为线性回归是一种回归模型,而Sigmod具有一个很良好的性质可以将任何数值转化成一个0~1之间的数,因此可采用sigmod函数来将回归问题转化为分类问题。
Sigmod函数
优点:1.实现简单,可无限求导 2.可以将任意数值转化成0~1的值
缺点:1.容易出现梯度消失 2.只能处理二分类问题
逻辑回归与线性回归有什么异同点?
相同点:
- 都使用极大似然估计来对训练样本进行建模
- 都使用梯度下降算法来求解超参数
不同点:
- 本质区别:逻辑回归处理分类问题,线性回归处理回归问题
LR和SVM的区别
LR是基于概率推导的,SVM是基于最大化几何间隔
SVM的决策面只由少数支持向量决定,LR的决策面则是由全部训练集样本决定的
SVM对于异常点不敏感,LR对于异常点敏感
SVM依赖于距离度量,因此必须要在进入模型前先将数据进行normalization,LR则可以不做
在SVM常常引入核函数,LR能不能使用?为什么?
在原理上LR是可以使用核函数的,但是之所以很听到使用核函数的SVM是因为LR是每个样本都要参与决策,因此,每个样本的值都需要进行核变化,计算量非常大,因此很少使用。而SVM只有处于最大间隔超平面上的样本点才参与决策,因此计算量较少,因此使用核函数较多。