以下の改良を行いました。
- 非同期並列自己対戦の実装 (#114)
本改良により、下記環境・設定下で1日80万局の強化学習ができることを確認しています。
- CPU : Intel Core i9-10850K
- GPU : NVIDIA Geforce RTX 3090
- 自己対戦時の探索回数 : 1手16回
- ニューラルネットワークのフィルタ数 : 64
- ニューラルネットワークのブロック数 : 6
モデルファイルはv0.8.0リリースから取得できます。
Support a following feature.
- Asynchronous parallel self-play for reinforcement learning (#114)
As a result of this improvement, I have confirmed that self-play for reinforcement learning can achieve 800,000 games per day under the following environment and settings:
- CPU : Intel Core i9-10850K
- GPU : NVIDIA Geforce RTX 3090
- The number of visits for self-play : 16
- The number of filters for a neural network : 64
- The number of blocks for a neural network : 6
Please download neural network model files from v0.8.0 release.