梯度提升机简介 | AI生成和翻译

Home 2025.11

概述

Jerome H. Friedman 于 2001 年发表的论文《贪婪函数逼近:梯度提升机》提出了梯度提升机(GBM)——一种强大的集成学习方法,适用于回归和分类等监督学习任务。该框架将提升方法视为函数空间中的梯度下降过程,通过顺序添加简单的“弱”学习者(通常是决策树)来构建加性模型,以最小化指定的损失函数。这种方法推广了早期的提升算法(如 AdaBoost),并强调函数空间中的贪婪优化,从而产生高精度、鲁棒性强且可解释的模型。

摘要(意译)

GBM 通过以顺序加性的方式组合弱学习器,逼近可微损失函数的最小值,从而构建灵活的预测模型。使用回归树作为基学习器,可为回归和分类任务提供具有竞争力且鲁棒的方法。实证测试表明,该方法在多个数据集上的错误率较低,性能优于多元自适应回归样条(MARS)等替代方法。

核心方法

核心思想是迭代地将新学习器拟合到损失函数相对于当前模型预测的负梯度(伪残差),模拟函数空间中的梯度下降。

支持的损失函数包括:

诸如 LogitBoost 的变体针对特定损失函数(例如二项偏差)进行了适配。

贡献

主要发现

这篇论文为现代实现(如 XGBoost 和 LightGBM)奠定了基础。

参考文献


Back

x-ai/grok-4-fast

Donate