You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
nocotan
changed the title
[WIP] 99% of Worker-Master Communication in Distributed Optimization Is Not Needed
99% of Worker-Master Communication in Distributed Optimization Is Not Needed
May 19, 2021
一言でいうと
分散学習において99%の通信が無駄になっていることを指摘.
論文リンク
著者/所属機関
Konstantin Mishchenko, Filip Hanzely, Peter Richtarik
KAUST
投稿日付(yyyy/MM/dd)
UAI2020
概要
ナイーブなgradient sparcificationでは,各ワーカーごとにτ-fractionだけ勾配を通信するが,この定数がワーカーごとに独立であるために,収束速度が1/τになってしまうことが知られている.
一方,これ以外のボトルネックとして,Server-Workers間の通信の非対称性がある:
この部分のボトルネックに注目して,分散学習における通信の無駄を明らかにした.
新規性・差分
手法
定理:n個のワーカーで分散学習をするとき,すべてのワーカーは1/nだけsparcificationしても収束レートを維持できる.
収束レートの導出のために,以下のような仮定を置く:
IBCDとさまざまなアルゴリズムへの適用
結果
コメント
The text was updated successfully, but these errors were encountered: