当前位置:网站首页 > 职业技能提升 > 正文

梯度提升树模型(梯度提升树模型的优点)



大家好,今天咱们来聊聊XGBoost ~

XGBoost(Extreme Gradient Boosting)是一种集成学习算法,是梯度提升树的一种改进。它通过结合多个弱学习器(通常是决策树)来构建一个强大的集成模型。

XGBoost 的核心原理涉及到损失函数的优化和树模型的构建。

1. 损失函数(Loss Function)

假设我们有一个由 个样本组成的训练数据集, ,其中 是特征向量, 是对应的标签。

XGBoost 使用泰勒展开式对损失函数进行近似。对于一般的损失函数 ,泰勒展开式可以写作:

p data-tool="mdnice编辑器" style="padding-top: 8px;padding-bottom: 8px;margin-bottom: 16px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;font-size: 15px;line-height: 1.75em;">其中,

是当前模型的预测值,

分别是损失函数关于预测值的一阶导数(梯度)和二阶导数(海森矩阵)。这里的

表示第

个样本。

p data-tool="mdnice编辑器" style="padding-top: 8px;padding-bottom: 8px;margin-bottom: 16px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;font-size: 15px;line-height: 1.75em;">

2. 正则化项(Regularization Term)

p data-tool="mdnice编辑器" style="padding-top: 8px;padding-bottom: 8px;margin-bottom: 16px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;font-size: 15px;line-height: 1.75em;">为了防止过拟合,XGBoost 引入了正则化项。正则化项包含了树模型的复杂度,可以写作:

span data-tool="mdnice编辑器" style="cursor: pointer;">

p data-tool="mdnice编辑器" style="padding-top: 8px;padding-bottom: 8px;margin-bottom: 16px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;font-size: 15px;line-height: 1.75em;">其中,

是叶子节点的数量,

是叶子节点的分数,

是正则化参数。

p data-tool="mdnice编辑器" style="padding-top: 8px;padding-bottom: 8px;margin-bottom: 16px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;font-size: 15px;line-height: 1.75em;">

3. 目标函数(Objective Function)

p data-tool="mdnice编辑器" style="padding-top: 8px;padding-bottom: 8px;margin-bottom: 16px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;font-size: 15px;line-height: 1.75em;">XGBoost 的目标函数是损失函数和正则化项的加权和。假设我们有

个树模型,每个树模型表示为

,目标函数可以写作:

span data-tool="mdnice编辑器" style="cursor: pointer;">

/embed>

span role="presentation" data-formula="j" data-formula-type="inline-equation" style="">

span role="presentation" data-formula="w_j" data-formula-type="inline-equation" style="">

svg style="-webkit-overflow-scrolling: touch;vertical-align: -2.218ex;width: 14.902ex;height: 5.519ex;max-width: 300% !important;" xmlns="http://www.w3.org/2000/svg" role="img" focusable="false" viewbox="0 -1459.2 6586.7 2439.5" aria-hidden="true">

/svg>

span role="presentation" data-formula="G_j" data-formula-type="inline-equation" style="">

span role="presentation" data-formula="j" data-formula-type="inline-equation" style="">

span role="presentation" data-formula="H_j" data-formula-type="inline-equation" style="">

span role="presentation" data-formula="j" data-formula-type="inline-equation" style="">

svg style="-webkit-overflow-scrolling: touch;vertical-align: -2.819ex;width: 14.102ex;height: 6.73ex;max-width: 300% !important;" xmlns="http://www.w3.org/2000/svg" role="img" focusable="false" viewbox="0 -1728.7 6233 2974.6" aria-hidden="true">

/svg>

span role="presentation" data-formula="f_t(x_i)" data-formula-type="inline-equation" style="">

span role="presentation" data-formula="t" data-formula-type="inline-equation" style="">

span role="presentation" data-formula="x_i" data-formula-type="inline-equation" style="">

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">XGBoost 能够有效地利用多核处理器进行并行计算,加速模型训练过程。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">它采用了一种分布式计算框架,使得在大规模数据集上的训练也能够快速完成。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">XGBoost 使用了泰勒展开式对损失函数进行近似,这样做能够更好地理解数据,从而更快地收敛到最优解。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">通过一阶和二阶导数信息,XGBoost 能够更加精确地估计每个样本的损失。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">XGBoost 通过正则化项来控制模型的复杂度,防止过拟合。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">它采用了剪枝技术来减小树的规模,降低模型的复杂度,提高泛化能力。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">XGBoost 可以与多种编程语言和数据处理框架(如Python、R、Spark)无缝集成。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">它支持自定义损失函数和评估指标,可以适应各种不同的任务和需求。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">XGBoost 提供了一种直观的方法来评估特征的重要性,可以帮助用户进行特征选择和模型解释。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">XGBoost 能够自动处理缺失值,不需要对缺失值进行额外的处理或填充。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">XGBoost 支持分类、回归、排序等多种类型的任务,可以灵活应对不同的问题。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">

分类问题

:XGBoost 在处理分类问题时表现优异,能够有效地处理高维度特征和大规模数据集。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">

回归问题

:对于回归问题,XGBoost 能够提供精确的预测和较小的泛化误差。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">

排序问题

:在搜索引擎、推荐系统等需要排序的场景中,XGBoost 能够学习到有效的排序模型。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">

异常检测

:XGBoost 可以通过学习异常模式来进行异常检测,适用于金融欺诈检测、工业生产中的异常监测等场景。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">

特征工程

:XGBoost 能够自动处理缺失值和异常值,减少了特征工程的工作量。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">

模型解释

:XGBoost 提供了直观的特征重要性评估,可以帮助解释模型的预测结果。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">数据加载与预处理。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">特征工程与数据分割。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">使用XGBoost进行模型训练。

/section>

section style="margin-top: 5px;margin-bottom: 5px;line-height: 26px;color: rgb(1, 1, 1);font-size: 15px;font-family: "Helvetica Neue", Helvetica, "Segoe UI", Arial, freesans, sans-serif;">模型评估与可视化。

/section>

numpy

np

br />

pandas

pd

br />

xgboost

xgb

br />

sklearn.datasets

load_iris

br />

sklearn.model_selection

train_test_split

br />

sklearn.metrics

accuracy_score, confusion_matrix

br />

matplotlib.pyplot

plt

br />

seaborn

sns

br />

mpl_toolkits.mplot3d

Axes3D

br />

br />

br />iris = load_iris()

br />X = iris.data

br />y = iris.target

br />

br />

br />X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=

, random_state=

)

br />

br />

br />param = {

:

,

:

,

:

,

:

}

br />num_round =

br />

br />

br />dtrain = xgb.DMatrix(X_train, label=y_train)

br />dtest = xgb.DMatrix(X_test, label=y_test)

br />bst = xgb.train(param, dtrain, num_round)

br />

br />

br />y_pred = bst.predict(dtest)

br />

br />

br />accuracy = accuracy_score(y_test, y_pred)

br />print(

, accuracy)

br />

br />

br />labels = [

,

,

]

br />cm = confusion_matrix(y_test, y_pred)

br />plt.figure(figsize=(

,

))

br />sns.heatmap(cm, annot=

, fmt=

, cmap=

, xticklabels=labels, yticklabels=labels)

br />plt.xlabel(

)

br />plt.ylabel(

)

br />plt.title(

)

br />plt.show()

br />

br />

br />fig = plt.figure(figsize=(

,

))

br />ax = fig.add_subplot(

, projection=

)

br />

br />colors = [

,

,

]

br />

i

range(

):

br />    ax.scatter(X_test[y_test == i,

], X_test[y_test == i,

], X_test[y_test == i,

], c=colors[i], label=labels[i])

br />

br />ax.set_xlabel(

)

br />ax.set_ylabel(

)

br />ax.set_zlabel(

)

br />ax.set_title(

)

br />

br />plt.legend()

br />plt.show()

br />

在实际应用中,可以调整XGBoost的参数以获得更好的性能,例如使用交叉验证来选择最佳的参数组合。

绘制混淆矩阵

可视化

XGBoost是一种集成学习算法,基于决策树构建强大的预测模型。它通过迭代训练多个决策树模型,利用梯度提升技术不断优化模型性能。XGBoost在各种数据集上都表现出色,并且被广泛应用于分类和回归问题。

每天一个简单通透的小案例,如果你对类似于这样的文章感兴趣。

欢迎关注、点赞、转发~


到此这篇梯度提升树模型(梯度提升树模型的优点)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • 梯度提升树(梯度提升树和随机森林哪个好)2025-04-03 22:09:09
  • 梯度提升树模型(梯度提升数)2025-04-03 22:09:09
  • 梯度提升决策树原理(梯度提升树算法)2025-04-03 22:09:09
  • 梯度提升树模型(梯度提升树原理)2025-04-03 22:09:09
  • 梯度提升树(梯度提升树回归)2025-04-03 22:09:09
  • 梯度提升树回归(梯度提升树回归算法)2025-04-03 22:09:09
  • 梯度提升树名词解释(梯度算法名词解释)2025-04-03 22:09:09
  • 梯度提升树原理(梯度提升算法原理)2025-04-03 22:09:09
  • 梯度提升树优缺点(梯度提升决策树简介)2025-04-03 22:09:09
  • 梯度提升树(梯度提升树回归模型)2025-04-03 22:09:09
  • 全屏图片