From a148b3e841a24c36bdafe968f3c47f51c0819f9d Mon Sep 17 00:00:00 2001 From: Leo Date: Sat, 16 May 2020 11:28:08 +0800 Subject: [PATCH] fix typos --- .../Slides/classification-algorithms-part-1.Rmd | 2 +- .../Slides/classification-algorithms-part-2.Rmd | 4 ++-- 2 files changed, 3 insertions(+), 3 deletions(-) diff --git a/classification-algorithms-part-1/Slides/classification-algorithms-part-1.Rmd b/classification-algorithms-part-1/Slides/classification-algorithms-part-1.Rmd index 472c87d..16ae965 100644 --- a/classification-algorithms-part-1/Slides/classification-algorithms-part-1.Rmd +++ b/classification-algorithms-part-1/Slides/classification-algorithms-part-1.Rmd @@ -270,7 +270,7 @@ $H\left(Y | X\right)$表示在已知 $X$的条件下 $Y$的不确定性,定义如下: -$$H\left(Y | X\right) = \sum_{i=i}^{n} p_i H \left(Y | X = x_i\right)$$ +$$H\left(Y | X\right) = \sum_{i=1}^{n} p_i H \left(Y | X = x_i\right)$$ 信息增益(information gain)表示在已知特征 $X$对于类 diff --git a/classification-algorithms-part-2/Slides/classification-algorithms-part-2.Rmd b/classification-algorithms-part-2/Slides/classification-algorithms-part-2.Rmd index 2140ca7..59a49fc 100644 --- a/classification-algorithms-part-2/Slides/classification-algorithms-part-2.Rmd +++ b/classification-algorithms-part-2/Slides/classification-algorithms-part-2.Rmd @@ -376,7 +376,7 @@ class: # GBM -在GBM中也应用到了Shrinkage的思想,其基本思想可以理解为在每一轮利用残差学习得到的回归树仅学习到了一部分知识,即无法完全信任一棵树的结果。因此,Shrinkage思想认为在新的一轮学习中,不利用全部残差训练模型,而值利用其中一部分,即: +在GBM中也应用到了Shrinkage的思想,其基本思想可以理解为在每一轮利用残差学习得到的回归树仅学习到了一部分知识,即无法完全信任一棵树的结果。因此,Shrinkage思想认为在新的一轮学习中,不利用全部残差训练模型,而只利用其中一部分,即: $$r_m = y - s F_m \left(x\right), 0 \leq s \leq 1$$ @@ -397,7 +397,7 @@ Stacking[1, 2]方法又称为Stacked Generalization,是一种基于 1. 利用初级学习算法对原始数据集进行学习,同时生成一个新的数据集。 2. 根据从初级学习算法生成的新数据集,利用次级学习算法学习并得到最终输出。 -对于初级学习器,可以是相同类型也可以是不同类型的,同时在生成新的数据集的过程中,其相应变量仍未原始数据集中的相应变量。Stacking算法的流程如图所示: +对于初级学习器,可以是相同类型也可以是不同类型的,同时在生成新的数据集的过程中,其相应变量仍为原始数据集中的相应变量。Stacking算法的流程如图所示: .center[ ![](images/stacking-workflow.svg)