macOS-QQ-WeChat-API WeChatPlugin-MacOS
Alfred
GPTs
Assistant API
在统计学中,线性回归(英语:linear regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析
线性回归的目标是:
[ y = w_1x_1 + w_2x_2 + … + w_nx_n + b ]
它要做的事情是:
给定输入 (x),学习出一组参数 (w, b),让预测值 ( \hat{y} ) 尽量接近真实值 ( y )。
这其实就是 所有机器学习模型的本质目标:
找到一个函数 ( f(x) \approx y )。
线性回归只是这个函数最简单的形式(线性的),但思想完全相同。
复杂模型(神经网络、决策树、Transformer)不过是在换一种更复杂的函数表示。
✅ 理解线性回归 = 理解 AI 的优化思想雏形。
最简单的神经元(Perceptron)计算的是:
[ y = \sigma(w^Tx + b) ]
如果去掉激活函数 ( \sigma ),它就变成线性回归。
也就是说:
线性回归 = 无激活的单层神经网络
所有神经网络都在它的基础上发展出来,只是加了:
因此,线性回归不仅是理论基础,更是历史上的“第一个 AI 模型雏形”。
| 层面 | 线性回归的意义 |
|---|---|
| 数学 | 最简单的函数拟合形式 |
| 算法 | 启发了损失函数与优化思想 |
| 模型 | 是神经网络的线性原型 |
| 历史 | 是最早的“人工智能模型” |
分类 规则系统 特征
rand forest
误差降到最少
熵 information gain