在集成学习的GBDT算法中,每次训练新的决策树的目的是( )?
A. 预测原始数据的标签
B. 预测上一个模型的残差
C. 降低模型的偏差
D. 降低模型的方差 参考答案: B 解析:GBDT的核心思想是每次训练新的决策树来学习之前树的残差,从而不断逼近真实值。
CDA人工智能社区
工作时间:9:00-19:00
陈老师:13077998983
邮箱: edu_cda_cn@foxmail.com