From 93625d4ad6d7ced586de244b0dcaa954521fbd76 Mon Sep 17 00:00:00 2001 From: urjv Date: Fri, 5 Jul 2019 19:03:04 +1000 Subject: [PATCH] =?UTF-8?q?Update=20=E7=AC=AC=E5=8D=81=E5=9B=9B=E7=AB=A0?= =?UTF-8?q?=5F=E8=B6=85=E5=8F=82=E6=95=B0=E8=B0=83=E6=95=B4.md?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit 修改typo错误,增加神经网搜索部分内容 --- ...05\345\217\202\346\225\260\350\260\203\346\225\264.md" | 8 ++++++-- 1 file changed, 6 insertions(+), 2 deletions(-) diff --git "a/ch14_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264/\347\254\254\345\215\201\345\233\233\347\253\240_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264.md" "b/ch14_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264/\347\254\254\345\215\201\345\233\233\347\253\240_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264.md" index be8d1ed3..c7340fc1 100644 --- "a/ch14_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264/\347\254\254\345\215\201\345\233\233\347\253\240_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264.md" +++ "b/ch14_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264/\347\254\254\345\215\201\345\233\233\347\253\240_\350\266\205\345\217\202\346\225\260\350\260\203\346\225\264.md" @@ -32,7 +32,7 @@ ​ 优化参数:一般指学习率(learning rate)、批样本数量(batch size)、不同优化器的参数以及部分损失函数的可调参数。 -​ 正则化:权重衰减系数,丢弃法比率(dropout) +​ 正则化:权重衰减系数,丢弃比率(dropout) ### 14.2.3 为什么要进行超参数调优? @@ -301,6 +301,8 @@ GAN常用训练技巧 ​ 这几方面都对最终的结果有着举足轻重的影响,这也是目前的数据工程师和学者们的主要工作。但由于这每一方面都十分繁琐,尤其是在构建模型和训练模型上。而大部分情况下,这些工作有无须过深专业知识就能使用起来。所以AutoML主要的作用就是来帮助实现高效的模型构建和超参数调整。例如深度学习网络的架构搜索、超参数的重要性分析等等。当然AutoML并不简单的进行暴力或者随机的搜索,其仍然需要机器学习方面的知识,例如贝叶斯优化、强化学习、元学习以及迁移学习等等。目前也有些不错的AutoML工具包,例如Alex Honchar的Hyperopt、微软的NNI、Autokeras等。 +目前AutoML已经成为最新的研究热点,有兴趣的可以参考[AutoML literature](https://www.automl.org/automl/literature-on-neural-architecture-search/)。 + ### 14.6.2 自动化超参数搜索方法有哪些? ​ 目前自动化搜索主要包含网格搜索,随机搜索,基于模型的超参优化 @@ -327,7 +329,7 @@ GAN常用训练技巧 - 搜索空间,即在哪搜索,定义了优化问题所需变量。不同规模的搜索空间的变量其对于的难度也是不一样的。早期由于网络结构以及层数相对比较简单,参数量较少,因此会更多的使用遗传算法等进化算法对网络的超参数和权重进行优化。深度学习发展到目前,模型网络结构越来越复杂,参数量级越来越庞大,这些进化算法已经无法继续使用。但若我们先验给定一些网络结构和超参数,模型的性能已经被限制在给定的空间,此时搜索的空间已变得有限,所以只需对复杂模型的架构参数和对应的超参数进行优化即可。 -- 搜索策略, 即如何搜索,定义了如何快速、准确找到最优的网络结构参数配置的策略。常见的搜索方法包括:随机搜索、贝叶斯优化以及基于模型的搜索算法。其中主要代表为2017 年谷歌大脑的使用强化学习的搜索方法。 +- 搜索策略, 即如何搜索,定义了如何快速、准确找到最优的网络结构参数配置的策略。常见的搜索方法包括:随机搜索、贝叶斯优化、强化学习、进化算法以及基于模型的搜索算法。其中主要代表为2017年谷歌大脑的使用强化学习的搜索方法。 - 评价预估,定义了如何高效对搜索的评估策略。深度学习中,数据规模往往是庞大的,模型要在如此庞大的数据规模上进行搜索,这无疑是非常耗时的,对优化也会造成非常大的困难,所以需要一些高效的策略做近似的评估。 这里一般会有如下三种思路: @@ -394,6 +396,8 @@ NASNet大体沿用了上述生成网络结构的机器,并在此基础上做 ​ 因此一个设计优秀的权重共享方式,在降低计算量的同时,通常会较独享网络有更好的效果。 +权重共享不仅在人工设计(human-invented)的网络结构中有简化参数,降低模型复杂度的作用,在神经网络搜索(NAS)的网络结构中可以使得child model的计算效率提升,使得搜索过程可以在单卡GPU上复现,见Efficient NAS([ENAS](https://arxiv.org/abs/1802.03268))。 +