You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
ryoherisson
changed the title
To prune, or not to prune: exploring the efficacy ofpruning for model compression
To prune, or not to prune: exploring the efficacy of pruning for model compression
Jan 27, 2021
一言でいうと
大規模なスパースネットワークモデルの方が,小規模で密なモデルよりも精度が高いことを示したもの.
論文リンク
https://openreview.net/pdf?id=Sy1iIDkPM
著者/所属機関
Michael H. Zhu, Suyog Gupta
(Stanford University, Google)
投稿日付(yyyy/MM/dd)
2017/11/13
概要
モデルのサイズと精度のトレードオフを考える上で,大規模で剪定されたネットワークと,小規模で密なモデルを比較.
その結果,大規模なスパースネットワークモデルの方が,小規模で密なモデルよりも精度が高かった.大規模なスパースネットワークモデルは,精度の損失を最小限に抑えながら非ゼロパラメータ数を最大10倍まで削減.
また,最小限のチューニングで様々なモデル/データセットに適用でき,学習プロセスにシームレスに組み込むことができる,シンプルかつ段階的な剪定手法を提案.
新規性・差分
手法
自動段階的剪定アルゴリズム
結果
コメント
The text was updated successfully, but these errors were encountered: