Skip to content

Commit

Permalink
fix typos
Browse files Browse the repository at this point in the history
  • Loading branch information
leovan committed May 16, 2020
1 parent 0002fc4 commit a148b3e
Show file tree
Hide file tree
Showing 2 changed files with 3 additions and 3 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -270,7 +270,7 @@ $H\left(Y | X\right)$表示在已知
$X$的条件下
$Y$的不确定性,定义如下:

$$H\left(Y | X\right) = \sum_{i=i}^{n} p_i H \left(Y | X = x_i\right)$$
$$H\left(Y | X\right) = \sum_{i=1}^{n} p_i H \left(Y | X = x_i\right)$$

信息增益(information gain)表示在已知特征
$X$对于类
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -376,7 +376,7 @@ class:

# GBM

在GBM中也应用到了Shrinkage的思想,其基本思想可以理解为在每一轮利用残差学习得到的回归树仅学习到了一部分知识,即无法完全信任一棵树的结果。因此,Shrinkage思想认为在新的一轮学习中,不利用全部残差训练模型,而值利用其中一部分,即:
在GBM中也应用到了Shrinkage的思想,其基本思想可以理解为在每一轮利用残差学习得到的回归树仅学习到了一部分知识,即无法完全信任一棵树的结果。因此,Shrinkage思想认为在新的一轮学习中,不利用全部残差训练模型,而只利用其中一部分,即:

$$r_m = y - s F_m \left(x\right), 0 \leq s \leq 1$$

Expand All @@ -397,7 +397,7 @@ Stacking<sup>[1, 2]</sup>方法又称为Stacked Generalization,是一种基于
1. 利用初级学习算法对原始数据集进行学习,同时生成一个新的数据集。
2. 根据从初级学习算法生成的新数据集,利用次级学习算法学习并得到最终输出。

对于初级学习器,可以是相同类型也可以是不同类型的,同时在生成新的数据集的过程中,其相应变量仍未原始数据集中的相应变量。Stacking算法的流程如图所示:
对于初级学习器,可以是相同类型也可以是不同类型的,同时在生成新的数据集的过程中,其相应变量仍为原始数据集中的相应变量。Stacking算法的流程如图所示:

.center[
![](images/stacking-workflow.svg)
Expand Down

0 comments on commit a148b3e

Please sign in to comment.