一、线性回归(Linear Regression)
1.1 核心公式
线性回归用于建立自变量(特征)和因变量(目标)之间的线性关系。其核心公式如下:
[ y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \cdots + \beta_n x_n ]
其中:
- ( y ) 是预测值;
- ( \beta_0 ) 是截距;
- ( \beta_1, \beta_2, \ldots, \beta_n ) 是斜率;
- ( x_1, x_2, \ldots, x_n ) 是自变量。
1.2 代码案例
from sklearn.linear_model import LinearRegression
import numpy as np
# 创建一些随机数据
X = np.array([[1], [2], [3], [4]])
y = np.array([2, 4, 6, 8])
# 拟合模型
model = LinearRegression().fit(X, y)
# 预测
ypred = model.predict(X)
print("预测值:", ypred)
二、逻辑回归(Logistic Regression)
2.1 核心公式
逻辑回归用于处理分类问题,通过一个 S 形的函数将输入映射到 0 到 1 之间的概率。其核心公式如下:
[ P(Y=1|X) = \frac{1}{1 + e^{-(\beta_0 + \beta_1 x_1 + \beta_2 x_2 + \cdots + \beta_n x_n)}} ]
其中:
- ( P(Y=1|X) ) 是给定输入 ( X ) 下,目标事件 ( Y ) 发生的概率;
- ( \beta_0 ) 是截距;
- ( \beta_1, \beta_2, \ldots, \beta_n ) 是权重;
- ( x_1, x_2, \ldots, x_n ) 是自变量。
2.2 代码案例
from sklearn.linear_model import LogisticRegression
import numpy as np
# 创建一些随机数据
X = np.array([[1], [2], [3], [4]])
y = np.array([0, 0, 1, 1])
# 拟合模型
model = LogisticRegression().fit(X, y)
# 预测
ypred = model.predict(X)
print("预测值:", ypred)
三、决策树(Decision Tree)
3.1 核心公式
决策树通过一系列决策来学习数据的分类规则或数值预测规则。其核心在于树的构建和节点分裂的规则,没有明确的数学公式。
3.2 代码案例
from sklearn.tree import DecisionTreeClassifier
import numpy as np
# 创建一些随机数据
X = np.array([[1], [2], [3], [4]])
y = np.array([0, 0, 1, 1])
# 拟合模型
model = DecisionTreeClassifier().fit(X, y)
# 预测
ypred = model.predict(X)
print("预测值:", ypred)
四、支持向量机(Support Vector Machine,SVM)
4.1 核心公式
支持向量机用于分类和回归分析,其核心在于构造超平面或超平面集合,实现对数据的有效分类。其核心公式如下:
[ \mathbf{w} \cdot \mathbf{x} + b = 0 ]
其中:
- ( \mathbf{w} ) 是权重向量;
- ( \mathbf{x} ) 是特征向量;
- ( b ) 是偏置项。
4.2 代码案例
from sklearn.svm import SVC
import numpy as np
# 创建一些随机数据
X = np.array([[1], [2], [3], [4]])
y = np.array([0, 0, 1, 1])
# 拟合模型
model = SVC().fit(X, y)
# 预测
ypred = model.predict(X)
print("预测值:", ypred)
通过以上四大模型函数的公式全解析和代码案例,希望读者能够更好地掌握核心算法技巧。