线性回归(Linear Regression)

线性回归是一种监督学习算法,用于建立连续型变量(因变量)与一个或多个自变量之间的线性关系模型。
核心思想:通过拟合最佳直线(或超平面)最小化预测值与真实值的误差。

数学模型

其中斜率系数代表权重参数。

损失函数

损失是一个数值指标,用于描述模型的预测有多大偏差。损失函数用于衡量模型预测与实际标签之间的距离。训练模型的目标是尽可能降低损失,将其降至最低值。

损失类型

使用不同损失函数训练出的模型,与离群值距离不同。

MSE:模型更接近离群值,但与大多数其他数据点的距离更远。

MAE:模型离离群值较远,但离大多数其他数据点较近。

梯度下降法

梯度下降法是一种数学技术,能够以迭代方式找出权重和偏差,从而生成损失最低的模型。梯度下降法会针对用户指定的多次迭代重复以下过程,以找到最佳权重和偏差。

数学上来说主要是求f(x)函数的导数(含多阶导数)找到最佳权重与偏差,导数>0,则导数曲线为凹函数,存在最小值。

逻辑回归(Logistic Regression)

逻辑回归(Logistic Regression)是一种用于解决二分类问题的统计模型,通过S型函数将线性组合映射为0-1之间的概率值。虽名称含”回归”,实为分类算法。数学形态为sigmoid函数。

数学模型

损失函数

对数损失函数

线性回归与逻辑回归异同点

核心关系

  1. 均属广义线性模型,通过线性组合建模特征与目标变量的关系。y=b+W1X1+ …+WnXn
  2. 逻辑回归在结构上可视为 “线性回归 + sigmoid激活函数”,将连续值映射为概率,相当于比线性回归多了一道工序。

本质区别