We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Batchnormのスケーリング因子にL_1ロスを課して学習する,チャンネルレベルの自動剪定手法.
https://openaccess.thecvf.com/content_ICCV_2017/papers/Liu_Learning_Efficient_Convolutional_ICCV_2017_paper.pdf
Zhuang Liu, Jianguo Li, Zhiqiang Shen, Gao Huang, Shoumeng Yan, Changshui Zhang, (Tsinghua University, Intel Labs China, Fudan University, Cornell University)
2017/08/22
チャンネルレベルの自動剪定手法. Batchnormのスケーリング因子γにL_1ロスを課して学習し,γが小さいチャネルを削除したのちFineTune. VGGNetでは,モデルサイズを20倍,計算量を5倍削減.
損失関数(g(・)はL_1正則化項)
Batch normalization(γ:scale,β:shift)
The text was updated successfully, but these errors were encountered:
ryoherisson
No branches or pull requests
一言でいうと
Batchnormのスケーリング因子にL_1ロスを課して学習する,チャンネルレベルの自動剪定手法.
論文リンク
https://openaccess.thecvf.com/content_ICCV_2017/papers/Liu_Learning_Efficient_Convolutional_ICCV_2017_paper.pdf
著者/所属機関
Zhuang Liu, Jianguo Li, Zhiqiang Shen, Gao Huang, Shoumeng Yan, Changshui Zhang,
(Tsinghua University, Intel Labs China, Fudan University, Cornell University)
投稿日付(yyyy/MM/dd)
2017/08/22
概要
チャンネルレベルの自動剪定手法.
Batchnormのスケーリング因子γにL_1ロスを課して学習し,γが小さいチャネルを削除したのちFineTune.
VGGNetでは,モデルサイズを20倍,計算量を5倍削減.
新規性・差分
手法
(L_1正則化を使う理由は,スケーリング因子の多くを強制的にゼロにするため.)
損失関数(g(・)はL_1正則化項)

Batch normalization(γ:scale,β:shift)

結果
コメント
The text was updated successfully, but these errors were encountered: