avatar

机器学习(一)Logistic回归

1、模型介绍

   Logistic Regression 虽然被称为回归,但其实际上是分类模型,并常用于二分类。Logistic Regression 因其简单、可并行化、可解释强深受工业界喜爱。

   Logistic 回归的本质是:假设数据服从这个分布,然后使用极大似然估计做参数的估计。

1.1 模型

   对于模型输入$ x$ ,模型参数$ w$ ,模型输出$ h(x) $ ,预测结果$ y\in{0,1}$

   其中$ g(x)$ 是Sigmoid函数,其函数形式如下:

   其中$ C$ 是一个常数,是分类阈值,通常取0.5

1.2 模型训练过程

  • 将模型输入$ x$ 输入线性单元,得到输出$ z = w^Tx$ 。将$ z$ 输入Sigmoid函数,将线性值映射到[0,1]区间内
  • 根据$ h(x)$ 与$ label$ ,利用极大似然估计得到Loss,根据Loss得到参数更新的梯度
  • 利用梯度下降方法更新参数

1.3 交叉熵损失函数

   在Logistic回归中,我们常用的损失函数为交叉熵损失函数,该损失函数也正是利用极大似然估计而生成的Loss函数

   将上面的函数进行整合,我们可以得到如下形式

2、模型分析

2.1 决策边界

   Logistic回归,是一个线性的决策边界,如图:

1

2.2 逻辑回归与线性回归

   逻辑回归(Logistic Regression)与线性回归(Linear Regression)都是一种广义线性模型(generalized linear model)。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。 因此与线性回归有很多相同之处,去除Sigmoid映射函数的话,逻辑回归算法就是一个线性回归。可以说,逻辑回归是以线性回归为理论支持的,但是逻辑回归通过Sigmoid函数引入了非线性因素,因此可以轻松处理0/1分类问题。

2.3 模型优缺点

优点

  • 直接对分类可能性进行建模,无需实现假设数据分布,这样就避免了假设分布不准确所带来的问题。
  • 形式简单,模型的可解释性非常好,特征的权重可以看到不同的特征对最后结果的影响。
  • 除了类别,还能得到近似概率预测,这对许多需利用概率辅助决策的任务很有用。

缺点

  • 准确率不是很高,因为形式非常的简单,很难去拟合数据的真实分布。
  • 本身无法筛选特征

2.4 模型应用

  • Logistic回归可以应用于二分类任务
  • 多个Logistic回归,可以进行多分类任务的求解

2.5 Tips

  • 在对模型进行训练前,要对数据进行充分的处理,可以将数据离散化等,数据离散化可以加快训练速度,提高对异常值的鲁棒性
文章作者: 白丁
文章链接: http://baidinghub.github.io/2020/04/03/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%EF%BC%88%E4%B8%80%EF%BC%89Logistic%E5%9B%9E%E5%BD%92/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 BaiDing's blog
打赏
  • 微信
    微信
  • 支付寶
    支付寶

评论