コンピュータ将棋や囲碁の掲示板 過去ログ2016年版


DCNNの学習を始めてみました 山下 2016年 1月 8日(金)18時57分6秒
DCNN filter数 256 HiraBot 2016年 1月 9日(土)02時41分32秒
Re: DCNN filter数 256 山下 2016年 1月 9日(土)03時54分53秒
Re: DCNN filter数 256 HiraBot 2016年 1月 9日(土)06時36分2秒
ミニバッチの大きさで予測にかかる時間 山下 2016年 1月16日(土)18時03分9秒
HiraBot 5d HiraBot 2016年 1月24日(日)04時01分53秒
Re: HiraBot 5d 山下 2016年 1月24日(日)22時50分36秒
Re: HiraBot 5d HiraBot 2016年 1月24日(日)23時42分23秒
Googleがプロ2段に互先で5-0で勝ち、3月に... 山下 2016年 1月28日(木)03時18分11秒
Re: Googleがプロ2段に互先で5-0で勝ち、... 山下 2016年 1月28日(木)03時32分0秒
『AlphaGo』について 宮本 2016年 1月30日(土)16時10分38秒
Re: 『AlphaGo』について 山下 2016年 1月31日(日)07時36分45秒
Re: 『AlphaGo』について 宮本 2016年 1月31日(日)07時48分56秒
AlphaGoの棋力をCGOSに変換 山下 2016年 2月 1日(月)08時26分4秒
AlphaGo のポジション masatsune 2016年 2月 1日(月)09時37分29秒
Re: AlphaGoのポジション 荒木(ark) 2016年 2月 1日(月)09時44分1秒
Re: AlphaGoのポジション masatsune 2016年 2月 2日(火)13時32分4秒
AlphaGo tss 2016年 2月 5日(金)21時33分33秒
チェスのGMがハンデ戦をチェスソフト相手... 山下 2016年 2月 6日(土)19時47分15秒
伊田十段がZenに4子で敗れる 山下 2016年 2月 6日(土)20時53分58秒
Re: AlphaGoの棋力をCGOSに変換 gg 2016年 2月 8日(月)19時22分32秒
イ・セドルvsAlphaGo、対決方式発表 masatsune 2016年 2月26日(金)02時13分3秒
Re:イ・セドルvsAlphaGo、対決方式発表 荒木(ark) 2016年 2月26日(金)09時12分6秒
Re:イ・セドルvsAlphaGo、対決方式発表 masatsune 2016年 2月26日(金)20時16分37秒
イ・セドル vs AlphaGo masatsune 2016年 2月27日(土)15時53分22秒
囲碁に関する記者発表会 masatsune 2016年 2月29日(月)23時52分46秒
囲碁に関する記者発表会 masatsune 2016年 3月 2日(水)20時01分53秒
DeepZenGo プロジェクト gg 2016年 3月 2日(水)20時17分24秒
Re: DeepZenGo プロジェクト masatsune 2016年 3月 2日(水)22時56分41秒
No210-allnode-4c gg 2016年 3月 2日(水)23時04分21秒
Re:イ・セドル vs AlphaGo shallow 2016年 3月 3日(木)00時18分14秒
Re: No210-allnode-4c HiraBot 2016年 3月 3日(木)08時54分29秒
直前手入り DCNN HiraBot 2016年 3月 4日(金)10時40分4秒
Re: 直前手入り DCNN 山下 2016年 3月 5日(土)03時14分20秒
Google DeepMind Challenge Match masatsune 2016年 3月 8日(火)17時44分1秒
Re:Google DeepMind Challenge Match masatsune 2016年 3月 9日(水)16時47分16秒
Re:Google DeepMind Challenge Match 山下 2016年 3月 9日(水)23時45分19秒
Google DeepMind Challenge Match 2 masatsune 2016年 3月10日(木)17時49分11秒
Re:Google DeepMind Challenge Match masatsune 2016年 3月10日(木)17時57分53秒
第2局、三村九段のコメント masatsune 2016年 3月11日(金)01時42分26秒
(無題) それな! 2016年 3月11日(金)16時08分31秒
第3局が始まります 山下 2016年 3月12日(土)12時57分36秒
Re: 第3局が始まります 山下 2016年 3月12日(土)16時02分50秒
AlphaGo  tss  2016年 2月 5日(金)21時33分33秒
予感的中(^^A tss 2016年 3月12日(土)19時02分49秒
Re: 第3局が始まります gg 2016年 3月13日(日)09時27分27秒
第4局 山下 2016年 3月13日(日)13時51分40秒
Re: 第4局 山下 2016年 3月13日(日)15時58分12秒
Re: 第4局 masatsune 2016年 3月13日(日)20時38分46秒
Re: 第4局 gg 2016年 3月14日(月)09時30分47秒
第5局 masatsune 2016年 3月16日(水)11時47分22秒
画像棋譜取り込みツール masatsune 2016年 3月16日(水)12時43分39秒
Re: 画像棋譜取り込みツール 山下 2016年 3月16日(水)16時05分46秒
Re: 画像棋譜取り込みツール masatsune 2016年 3月17日(木)12時46分12秒
アルファ犬 masatsune 2016年 3月17日(木)13時13分42秒
UEC杯のニュース二つ gg 2016年 3月22日(火)10時31分7秒
ponderの可否 masatsune 2016年 3月28日(月)12時37分59秒
Re: ponderの可否 うさぴょんの育ての親 2016年 3月28日(月)13時10分41秒
Re: ponderの可否 masatsune 2016年 3月28日(月)22時54分40秒
Re: ponderの可否 山下 2016年 3月30日(水)23時50分11秒
Re: ponderの可否 うさぴょんの育ての親 2016年 3月30日(水)23時59分53秒
6d おめでとうございます HiraBot 2016年 4月 6日(水)12時55分0秒
Re: 6d おめでとうございます 山下 2016年 4月 7日(木)17時07分28秒
Re:6dおめでとうございます yoshi 2016年 4月17日(日)12時50分37秒
GoBeta (KGS 6d) gg 2016年 4月20日(水)15時27分33秒
ponanza二連覇優勝!! tss 2016年 5月11日(水)00時22分5秒
定跡 miya 2016年 5月14日(土)11時33分45秒
勝手にベンチマーク osera 2016年 5月14日(土)21時11分59秒
囲碁市販ソフトが九段に osera 2016年 5月15日(日)10時15分31秒
Re:囲碁市販ソフトが九段に masatsune 2016年 5月18日(水)19時01分3秒
Re:囲碁市販ソフトが九段に tss 2016年 5月19日(木)21時14分45秒
Re:囲碁市販ソフトが九段に masatsune 2016年 5月20日(金)01時14分40秒
(無題) チョ・マテヨ 2016年 5月20日(金)02時37分16秒
nozomi公開 osera 2016年 5月29日(日)13時48分12秒
Re:nozomi公開 masatsune 2016年 5月30日(月)13時10分20秒
技巧公開 osera 2016年 6月 1日(水)22時22分52秒
Re: 囲碁市販ソフトが九段に gg 2016年 6月 2日(木)19時56分12秒
天頂の囲碁6 masatsune 2016年 6月 2日(木)22時11分9秒
Zenの開発 tss 2016年 6月 3日(金)11時38分24秒
Re:Re: 囲碁市販ソフトが九段に masatsune 2016年 6月 4日(土)12時14分35秒
Re: 囲碁市販ソフトが九段に gg 2016年 6月 4日(土)21時20分5秒
Re: 囲碁市販ソフトが九段に masatsune 2016年 6月 5日(日)16時24分44秒
13路盤用のCGOS k3 2016年 6月 6日(月)19時43分50秒
Re: 12threadsにしたことにより 山下 2016年 6月 7日(火)20時32分56秒
Re: 13路盤用のCGOS 山下 2016年 6月 7日(火)20時38分29秒
Re: 13路盤用のCGOS k3 2016年 6月 8日(水)08時38分32秒
第1回13路盤プロアマトーナメント戦 masatsune 2016年 6月 8日(水)22時31分19秒
darkforestGo公開 osera 2016年 6月11日(土)15時58分8秒
第1回13路盤プロアマトーナメント戦(2) masatsune 2016年 6月12日(日)01時33分48秒
囲碁市販ソフトが九段には osera 2016年 6月14日(火)01時10分0秒
AlphaGoについて.pdf  masatsune 2016年 6月18日(土)22時03分31秒
Re:AlphaGoについて.pdf 荒木(ark) 2016年 6月19日(日)19時38分37秒
Re:AlphaGoについて.pdf masatsune 2016年 6月20日(月)18時42分27秒
KGS で4子以下の置き碁に限定する方法 HiraBot 2016年 6月23日(木)17時03分13秒
Re: KGS で4子以下の置き碁に限定する方法 山下 2016年 6月23日(木)21時24分7秒
Re: KGS で4子以下の置き碁に限定する方法 HiraBot 2016年 6月23日(木)23時01分1秒
Re: KGS で4子以下の置き碁に限定する方法 山下 2016年 6月23日(木)23時25分37秒
Re: KGS で4子以下の置き碁に限定する方法 HiraBot 2016年 6月24日(金)01時34分19秒
真似碁対策のテストをお願いします HiraBot 2016年 6月24日(金)03時08分49秒
置き石とコミの関係 HiraBot 2016年 6月25日(土)18時05分49秒
Re: 真似碁対策のテストをお願いします HiraBot 2016年 6月26日(日)06時40分37秒
Re: 置き石とコミの関係 山下 2016年 6月26日(日)22時18分55秒
自由置き碁 gg 2016年 7月 2日(土)14時03分25秒
Re: 自由置き碁 山下 2016年 7月 4日(月)16時01分55秒
Re: 真似碁対策のテストをお願いします HiraBot 2016年 7月12日(火)13時46分43秒
raspberry pi HiraBot 2016年 7月13日(水)17時10分5秒
HiraBot3 の rating HiraBot 2016年 7月31日(日)10時07分47秒
Re: HiraBot3 の rating gg 2016年 7月31日(日)19時54分46秒
Re: HiraBot3 の rating HiraBot 2016年 7月31日(日)22時36分56秒
Re: HiraBot3 の rating gg 2016年 8月 1日(月)00時38分52秒
Re: HiraBot3 の rating 山下 2016年 8月 2日(火)17時55分23秒
Crazy Stoneの最新版 sashisusoy 2016年 8月11日(木)23時05分12秒
US Go CongressでのAlphaGoの話 山下 2016年 8月12日(金)10時09分18秒
Value net nn 2016年 8月13日(土)04時53分27秒
Re: Value net 山下 2016年 8月13日(土)10時31分47秒
CGFオープン参加者募集 荒木(ark) 2016年 8月14日(日)02時38分20秒
Re: Value net gg 2016年 8月15日(月)11時37分45秒
AyaZBotの不可解な手 黒猫9 2016年 8月17日(水)21時06分6秒
Re: AyaZBotの不可解な手 gg 2016年 8月18日(木)01時55分33秒
Re: AyaZBotの不可解な手 山下 2016年 8月19日(金)11時00分34秒
AyaZBotについて 山下 2016年 8月19日(金)11時47分17秒
Re: AyaZBotについて 山下 2016年 8月19日(金)12時03分5秒
(無題) 黒猫9 2016年 8月19日(金)12時17分6秒
(無題) 黒猫9 2016年 8月19日(金)12時47分26秒
Re: AyaZBotについて (idle.sh) 内巻 2016年 8月19日(金)17時08分41秒
Re: AyaZBotについて (idle.sh) 山下 2016年 8月19日(金)22時35分26秒
CUDA 7.5 と cuDNN 5.0 山下 2016年 8月20日(土)15時14分12秒
cudnn スピードテスト HiraBot 2016年 8月23日(火)04時47分3秒
Winograd アルゴリズム gg 2016年 8月24日(水)02時10分22秒
Zen19K 9d? gg 2016年 8月27日(土)23時01分34秒
value network HiraBot 2016年 8月28日(日)23時48分54秒
Re: value network 山下 2016年 8月29日(月)00時59分58秒
Re: value network gg 2016年 9月 2日(金)00時07分49秒
Re: value network 山下 2016年 9月 2日(金)04時21分48秒
value network 2 HiraBot 2016年 9月 2日(金)11時02分50秒
Re: value network HiraBot 2016年 9月 2日(金)11時19分27秒
value network 3 HiraBot 2016年 9月 3日(土)06時17分27秒
Re: value network 3 山下 2016年 9月 3日(土)08時19分17秒
Re: value network 3 HiraBot 2016年 9月 3日(土)10時20分47秒
Re: value network 3 山下 2016年 9月 3日(土)23時48分11秒
Re: value network 3 HiraBot 2016年 9月 4日(日)06時32分35秒
null_move枝刈りと、futility cut のやり方 木口小平、改めMZ-SOFT 2016年 9月 4日(日)10時30分35秒
Re: null_move枝刈りと、futility cut の... うさぴょんの育ての親 2016年 9月 4日(日)15時39分23秒
ありがとうございます! 木口小平、改めMZ-SOFT 2016年 9月 4日(日)17時06分59秒
value network 4 HiraBot 2016年 9月10日(土)16時32分38秒
Re: value network 4 山下 2016年 9月10日(土)17時52分3秒
Re: value network 4 HiraBot 2016年 9月10日(土)18時56分46秒
Re: value network 4 gg 2016年 9月11日(日)00時44分22秒
Re: value network 4 HiraBot 2016年 9月11日(日)08時00分16秒
Re: value network 4 gg 2016年 9月11日(日)09時11分33秒
AlphaGoの自己対戦の棋譜解説 山下 2016年 9月12日(月)23時26分30秒
goguiへのコマンド入力 nlp 2016年 9月14日(水)05時48分57秒
Re: value network 4 HiraBot 2016年 9月14日(水)13時15分30秒
Re: goguiへのコマンド入力 荒木(ark) 2016年 9月14日(水)17時02分34秒
Re: goguiへのコマンド入力 山下 2016年 9月14日(水)17時39分28秒
Re: value network 4 山下 2016年 9月14日(水)17時58分29秒
Re: value network 4 HiraBot 2016年 9月14日(水)18時27分21秒
Re: goguiへのコマンド入力 nlp 2016年 9月14日(水)23時15分56秒
Re: value network 4 gg 2016年 9月15日(木)02時44分25秒
Re: value network 4 HiraBot 2016年 9月15日(木)06時39分9秒
Re: value network 4 山下 2016年 9月15日(木)07時59分46秒
Re: value network 4 山下 2016年 9月15日(木)08時08分41秒
Re: value network 4 gg 2016年 9月15日(木)11時33分39秒
Re: value network 4 gg 2016年 9月15日(木)16時48分42秒
Re: value network 4 nn 2016年 9月15日(木)18時50分39秒
Re: value network 4 gg 2016年 9月15日(木)22時34分47秒
Re: value network 4 HiraBot 2016年 9月17日(土)12時06分39秒
Re: value network 4 gg 2016年 9月17日(土)19時46分34秒
Re: value network 4 HiraBot 2016年 9月17日(土)23時14分41秒
Re: value network 4 山下 2016年 9月18日(日)05時44分12秒
Re: value network 4 HiraBot 2016年 9月18日(日)08時26分9秒
Re: value network 4 HiraBot 2016年 9月18日(日)15時24分41秒
Re: value network 4 gg 2016年 9月18日(日)15時56分19秒
Re: value network 4 HiraBot 2016年 9月19日(月)01時02分39秒
Re: value network 4 gg 2016年 9月19日(月)09時50分52秒
Re: value network 4 zakki 2016年 9月20日(火)22時22分33秒
Re: value network 4 HiraBot 2016年 9月21日(水)06時05分34秒
Re: value network 4 山下 2016年 9月21日(水)11時21分22秒
Re: value network 4 zakki 2016年 9月21日(水)21時06分28秒
Re: value network 4 HiraBot 2016年 9月22日(木)02時37分12秒
Re: value network 4 山下 2016年 9月22日(木)07時16分18秒
Re: value network 4 HiraBot 2016年 9月22日(木)09時39分29秒
openmp の関数呼び出しの動作 masatsune 2016年 9月22日(木)22時59分30秒
Re:openmp の関数呼び出しの動作 都万 2016年 9月23日(金)09時39分1秒
Re: openmp の関数呼び出しの動作 gg 2016年 9月23日(金)10時59分33秒
Re: openmp の関数呼び出しの動作 masatsune 2016年 9月23日(金)13時15分22秒
Re: openmp の関数呼び出しの動作 gg 2016年 9月23日(金)14時58分17秒
Re: openmp の関数呼び出しの動作 masatsune 2016年 9月23日(金)16時39分57秒
Re: openmp の関数呼び出しの動作 gg 2016年 9月24日(土)09時20分21秒
Re: openmp の関数呼び出しの動作 masatsune 2016年 9月24日(土)10時19分21秒
Re: openmp の関数呼び出しの動作 gg 2016年 9月24日(土)16時22分21秒
来週の土日にCGFオープン 山下 2016年 9月24日(土)21時10分20秒
Re: value network 4 HiraBot 2016年 9月25日(日)22時22分19秒
Re:来週の土日にCGFオープン 荒木(ark) 2016年 9月26日(月)00時07分50秒
Re: value network 4 山下 2016年 9月27日(火)05時42分3秒
Re: value network 4 HiraBot 2016年 9月27日(火)07時12分23秒
CGFオープン9路結果 荒木(ark) 2016年10月 1日(土)17時16分17秒
CGFオープン19路結果 荒木(ark) 2016年10月 2日(日)18時51分30秒
Re: value network 4 gg 2016年10月 3日(月)07時09分26秒
回転、対称を学習 山下 2016年10月 3日(月)08時40分30秒
Re: 回転、対称を学習 gg 2016年10月 3日(月)19時17分20秒
Rn.0-4c on CGOS 19x19 gg 2016年10月 3日(月)19時28分26秒
value network 5 HiraBot 2016年10月 3日(月)19時37分11秒
Re: 回転、対称を学習 山下 2016年10月 3日(月)20時54分36秒
Re: Rn.0-4c on CGOS 19x19 zakki 2016年10月 3日(月)22時10分19秒
Re: Rn.0-4c on CGOS 19x19 gg 2016年10月 3日(月)22時48分21秒
KGSの月例のディビジョン gg 2016年10月 3日(月)22時55分2秒
Re: 回転、対称を学習 gg 2016年10月 3日(月)22時58分22秒
ディープラーニングで囲碁 山下 2016年10月 4日(火)01時16分26秒
Re: value network 5 HiraBot 2016年10月 4日(火)06時57分56秒
Re: ディープラーニングで囲碁 gg 2016年10月 4日(火)07時10分37秒
Re: ディープラーニングで囲碁 gg 2016年10月 4日(火)07時16分44秒
Re: Rn.0-4c on CGOS 19x19 gg 2016年10月 4日(火)07時25分19秒
Re: ディープラーニングで囲碁 masatsune 2016年10月 4日(火)12時00分53秒
Re: ディープラーニングで囲碁 gg 2016年10月 4日(火)12時55分48秒
Re: ディープラーニングで囲碁 masatsune 2016年10月 4日(火)15時35分41秒
Re: ディープラーニングで囲碁 囲碁ソフト使い 2016年10月 4日(火)21時22分0秒
Re: Rn.0-4c on CGOS 19x19 zakki 2016年10月 4日(火)21時54分41秒
Re: Rn.0-4c on CGOS 19x19 gg 2016年10月 4日(火)22時31分51秒
Re: ディープラーニングで囲碁 山下 2016年10月 5日(水)06時33分1秒
層が深いネット 山下 2016年10月 5日(水)08時23分55秒
Darkforest が policy net の学習部を公開 gg 2016年10月 5日(水)09時10分40秒
Re: 層が深いネット gg 2016年10月 5日(水)22時19分47秒
Amazon EC2 P2 Instances 山下 2016年10月 7日(金)14時18分11秒
Re: Amazon EC2 P2 Instances gg 2016年10月 9日(日)14時52分37秒
AyaもKGS Top100入り 山下 2016年10月12日(水)10時48分43秒
簡易ValueNetwork zakki 2016年10月15日(土)23時24分10秒
Re: 簡易ValueNetwork 山下 2016年10月16日(日)02時02分58秒
ショートカットのテスト HiraBot 2016年10月16日(日)06時27分2秒
Re: 簡易ValueNetwork zakki 2016年10月16日(日)09時26分41秒
NHK杯で高尾さんがAlphaGoのツケを参考に... 山下 2016年10月16日(日)14時23分38秒
Re: ショートカットのテスト 山下 2016年10月16日(日)17時36分22秒
Re: 簡易ValueNetwork zakki 2016年10月25日(火)22時32分34秒
ショートカットネット HiraBot 2016年10月28日(金)08時57分48秒
勝率振動 HiraBot 2016年10月30日(日)18時39分23秒
cudnn-v5.1 の速度測定 HiraBot 2016年11月 4日(金)08時37分20秒
開発環境更新 HiraBot 2016年11月 5日(土)05時47分33秒
Re: cudnn-v5.1 の速度測定 山下 2016年11月 6日(日)18時55分39秒
コンピュータAI用の麻雀サーバ 山下 2016年11月 7日(月)20時27分33秒
ネット No335 テストデータ HiraBot 2016年11月 9日(水)09時46分4秒
第2回囲碁電王戦で趙治勲さんとDeepZenが... 山下 2016年11月 9日(水)15時13分26秒
Re: ネット No335 テストデータ gg 2016年11月 9日(水)23時24分18秒
Re: ネット No335 テストデータ HiraBot 2016年11月10日(木)01時00分34秒
ネット No335 レーティング HiraBot 2016年11月11日(金)04時34分8秒
deltaGoのOpenMP並列化 delta 2016年11月11日(金)15時22分16秒
Re: deltaGoのOpenMP並列化 山下 2016年11月11日(金)19時27分39秒
麻雀サーバーのツモ切りサンプルを改良 山下 2016年11月12日(土)17時10分28秒
2017年3月のUEC杯 山下 2016年11月14日(月)19時13分47秒
KGSのボットトーナメント gg 2016年11月14日(月)19時55分4秒
Re: KGSのボットトーナメント 山下 2016年11月14日(月)20時13分2秒
Re: KGSのボットトーナメント gg 2016年11月14日(月)23時57分8秒
DeepZenGoの強さの推測 山下 2016年11月16日(水)05時32分17秒
tの舌打ち(^^; tss 2016年11月16日(水)09時15分48秒
情報処理学会論文誌でゲームプログラミン... 山下 2016年11月16日(水)20時29分24秒
囲碁電王戦特番 gg 2016年11月17日(木)11時34分14秒
「囲碁電王戦」第1局 tss 2016年11月19日(土)18時20分42秒
「囲碁電王戦」第2局 tss 2016年11月20日(日)16時44分20秒
第3局は趙治勲名誉名人の勝ち 山下 2016年11月23日(水)16時25分37秒
Re: 第3局は趙治勲名誉名人の勝ち gg 2016年11月24日(木)13時44分26秒
Zen19L gg 2016年11月24日(木)15時53分43秒
Re: 第3局は趙治勲名誉名人の勝ち 山下 2016年11月24日(木)21時49分51秒
Re: 第3局は趙治勲名誉名人の勝ち gg 2016年11月24日(木)22時10分8秒
Re: 第3局は趙治勲名誉名人の勝ち tss 2016年11月25日(金)12時43分4秒
Zen19Lの棋力グラフ 山下 2016年11月27日(日)09時12分5秒
Re: Zen19L gg 2016年11月28日(月)02時44分1秒
KGS の月例 gg 2016年11月29日(火)11時31分35秒
データ数とネットワークの規模 gg 2016年11月30日(水)06時26分43秒
HiraBot の BayesElo HiraBot 2016年12月 3日(土)01時29分0秒
Re: HiraBot の BayesElo 山下 2016年12月 3日(土)08時41分54秒
Re: KGS の月例 gg 2016年12月 4日(日)10時17分57秒
Re: HiraBot の BayesElo HiraBot 2016年12月 5日(月)02時14分38秒
Re: HiraBot の BayesElo 山下 2016年12月 5日(月)18時05分48秒
Re: HiraBot の BayesElo HiraBot 2016年12月 5日(月)18時52分52秒
CGOS レーティングと段 HiraBot 2016年12月 7日(水)05時14分26秒
ニューラルネットワークへの入力 zakki 2016年12月 7日(水)21時12分1秒
Re: ニューラルネットワークへの入力 山下 2016年12月 8日(木)19時02分18秒
Re: ニューラルネットワークへの入力 zakki 2016年12月 9日(金)00時23分58秒
GTX 1080を買ってみました 山下 2016年12月12日(月)18時27分22秒
Amazon EC2 p2.xlarge は2.7倍ほど遅いです 山下 2016年12月13日(火)03時41分44秒
Re: GTX 1080を買ってみました gg 2016年12月13日(火)05時21分49秒
cuDNN を 5.1 から 5.0 したら速くなりま... 山下 2016年12月14日(水)05時05分12秒
Re: cuDNN を 5.1 から 5.0 したら速くな... HiraBot 2016年12月14日(水)08時22分20秒
Re: cuDNN を 5.1 から 5.0 したら速くな... 山下 2016年12月14日(水)21時36分22秒
Re: cuDNN を 5.1 から 5.0 したら速くな... gg 2016年12月15日(木)08時42分34秒
Re: cuDNN を 5.1 から 5.0 したら速くな... zakki 2016年12月15日(木)12時18分7秒
Re: cuDNN を 5.1 から 5.0 にしたら速く... gg 2016年12月15日(木)14時12分45秒
Value Netの作り方 山下 2016年12月16日(金)22時57分13秒
Re: Value Netの作り方 gg 2016年12月19日(月)16時50分32秒
棋力と VN gg 2016年12月21日(水)16時50分42秒
UEC杯の申し込み締め切りが延期 山下 2016年12月21日(水)23時54分51秒
value net HiraBot 2016年12月24日(土)09時36分21秒
God Moves osera 2016年12月24日(土)20時43分25秒
(無題) osera 2016年12月24日(土)20時44分41秒
GodMovesの話 山下 2016年12月27日(火)03時00分5秒
Re: GodMovesの話 tss 2016年12月29日(木)18時47分15秒
Re: GodMovesの話 山下 2016年12月30日(金)14時15分16秒
Re: GodMovesの話 tss 2016年12月30日(金)15時52分50秒




DCNNの学習を始めてみました  投稿者:山下 投稿日:2016年 1月 8日(金)18時57分6秒
DCNNの学習を始めてみました。
下のグラフはChristopher Clarkの8層ネットに近いもの(oakfoamに付属 lenet.prototxt)で
試した一致率です。石の配置のみを与えて、36%かそれ以上になりそうです。論文では41%です。
棋譜データはGoGoDから79000棋譜、1560万局面をtrainigで使ってます。
1800年以降のみを利用し、2014年の2507棋譜はtestに使っています。
minibatch=256、なので 1560万 / 256 = 60972回 のiterationで学習棋譜を1回終わります
(1回で2.7時間、GTX 980)。

面白いのは60000回ごとに一致率が下がっていることです。
1800年代の棋譜から学習し始め、最後の59000回あたりは現代の棋譜です。
つまり、1800年の棋譜で学習したデータは現代(2014年)の予測には向いてない、ということだと思います。

江戸時代の棋譜と2014年の近代の棋譜の違いを分かっているのでしょう。
DCNNがこれくらい微妙な違いも認識できるのに驚きました。
棋譜を集めて、この対局者は誰か、を当てることもできそうな気がします。

caffeでは学習データをLevelDBという形式に変換するあたりが難しかったのですが
oakfoamに付属の変換スクリプト generate_sample_data_leveldb.py が参考になりました。
http://computer-go.org/pipermail/computer-go/2015-December/008324.html

棋譜の局面はAja論文のように8対称のうちから一つをランダムに選び、さらに
年代が近い80棋譜ごとに、全局面をランダムに並び替えています。
ただ、グラフを見てると全学習棋譜を完全にランダムに並べないとまずそうです。



DCNN filter数 256  投稿者:HiraBot 投稿日:2016年 1月 9日(土)02時41分32秒
filter数 256 の DCNN を学習させました、構成は 3x3-256 11層 + 3x3-1 1層 です
入力データは 局面2+盤外1 の3面です
filter数 128 では accuracy が 44% でしたから 1.6%程度の向上です
この DCNN を HiraBot に取り込みさらにプログラム改善も行って KGS 4d になりました
アカウントは HiraMC1 と HiraMC2 です
グラフは学習 epoch 数対 accuracy です、3 epoch の学習に 3週間かかりました



Re: DCNN filter数 256  投稿者:山下 投稿日:2016年 1月 9日(土)03時54分53秒
とうとう追い抜かれた感じです。
直前手やダメの数を入れていないのは、その方がMCTSに組み込んだときに
効果的だから、でしょうか?

128から256の2倍で+1.6%は少し小さい気もするのですが、強さでは
はっきり差があるのでしょうか?
Facebookの論文だと次の手だけでなく、3手先まで予測することで
一致率は大差なくても強くなったそうで、DCNNの強さは単純に
一致率だけでは計れないのかもしれません。
MM法の39%とDCNNの39%では対GNU Goの強さでは勝率6%と86%、と大差がありますし。

しかし1epochに一週間近くかかるのは調整が相当大変そうですね・・・。



Re: DCNN filter数 256  投稿者:HiraBot 投稿日:2016年 1月 9日(土)06時36分2秒
> 直前手やダメの数を入れていないのは、その方がMCTSに組み込んだときに
> 効果的だから、でしょうか?

私のテストでは直前手を入れると accuracy が 10% 程度向上します
しかし MCTS に組み込んだときの性能が良くありませんでした

> 128から256の2倍で+1.6%は少し小さい気もするのですが、強さでは
> はっきり差があるのでしょうか?

正確なデータではありませんが、MCTS に組み込んだ状態で
128から256 で 70elo 程度の向上
プログラム改善(DCNN との関連)で 140elo 程度の向上です



ミニバッチの大きさで予測にかかる時間  投稿者:山下 投稿日:2016年 1月16日(土)18時03分9秒
ミニバッチの大きさで予測にかかる時間を計ってみました。
ミニバッチが5までは1回にかかる時間もほとんど変わらないのですが、
それ以上だと遅くなり、32以上だと1局面あたりの速度もほぼ同じになってます。
2048では out of memory で動作しませんでした。

256で学習させてたのですが、64か128でも全体の時間は変わらないかもしれません。
学習時も同じようになるかは分かりませんが。
学習モデルの大きさや、GPUの性能で変わるとは思います。

全てConvolution層の12層で、内訳は、5x5 128 1層, 3x3 128 11層
入力は石の配置のみ、2面。1560万局面で学習で一致率41.5%,
batch_size=256, 700000 iteration(11.5 epoch), 106時間
*.caffemodel のサイズは5.6MBです。GTX 980 は 4GBを搭載。

mini_bacth   1回にかかる時間  1局面あたりの速度   Memory required for data(Caffeの表示)
    1         0.002330 sec           2.33ms          4435968 (4.2MB)
    2         0.002440 sec           1.22ms
    4         0.002608 sec           0.65ms
    5         0.002717 sec           0.54ms         22179840 (21.2MB)
    6         0.003915 sec           0.65ms         26615808
    7         0.004107 sec           0.58ms         31051776
    8         0.004141 sec           0.51ms         35487744
   16         0.007400 sec           0.46ms         70975488
   32         0.012268 sec           0.38ms        141950976
   64         0.023358 sec           0.36ms        283901952
  128         0.044951 sec           0.35ms        567803904
  256         0.088478 sec           0.34ms       1135607808
  512         0.175728 sec           0.34ms       2271215616
 1024         0.352346 sec           0.34ms       4542431232
 2048         Err, out of memory                  9084862464 (8.5GB)



HiraBot 5d  投稿者:HiraBot 投稿日:2016年 1月24日(日)04時01分53秒
HiraBot が KGS 5d になりました
HiraMC1/2 (4d) が root node のみ DCNN を使用しているのに対して
GPU を使用して全てのノード作成で DCNN を使用しました

自己対戦では 100elo 足らずの改善でした
HiraMC1/2 が 4d の中間ですから、5d は難しいと思っていましたが
実際に打たせてみるともう数日間 5d を維持しています
うれしい誤算でした。



Re: HiraBot 5d  投稿者:山下 投稿日:2016年 1月24日(日)22時50分36秒
5dですか。トップレベルの仲間入りですね。
CGOSの No160d-allnode-4c がこれにあたるのでしょうか。
以前はDCNNが遅くて全ノードは厳しい、とのことでしたが
playout数はかなり下がっているのでしょうか。

私はfacebookの3手読みを真似してやってみているのですが
48%の一致率ぐらいでなかなか50%すら超えてくれません(12層128filter)
next-1というのが次の手、next-2というのが2手後の相手の手の予測率です。



Re: HiraBot 5d  投稿者:HiraBot 投稿日:2016年 1月24日(日)23時42分23秒
> CGOSの No160d-allnode-4c がこれにあたるのでしょうか。

No160d-allnode-4c の改良版になります(改良の効果がはっきりしませんが)

> playout数はかなり下がっているのでしょうか。

playout数は 1/1.5 程度(10秒 80000回)、ノード展開数は 1/4 程度です(10秒 2300ノード)



Googleがプロ2段に互先で5-0で勝ち、3月にセドルと対戦  投稿者:山下 投稿日:2016年 1月28日(木)03時18分11秒
GoogleのDeepMindが開発したAlphaGoという
プログラムがFan Hui 2段に5-0で勝ち、3月には
韓国のイ・セドルと対戦するそうです。

AlphaGo: Mastering the ancient game of Go with Machine Learning
http://googleresearch.blogspot.jp/2016/01/alphago-mastering-ancient-game-of-go.html
グーグルが最新人工知能使い囲碁ソフト開発 プロに勝利
http://www3.nhk.or.jp/news/html/20160128/k10010388481000.html
論文
Mastering the Game of Go with Deep Neural Networks and Tree Search
https://storage.googleapis.com/deepmind-data/assets/papers/deepmind-mastering-go.pdf
棋譜はこのページに下の方から落とせます。
http://deepmind.com/alpha-go.html



Re: Googleがプロ2段に互先で5-0で勝ち、3月にセドルと対戦  投稿者:山下 投稿日:2016年 1月28日(木)03時32分0秒
Remiのレーティングサイトによると、
セドルは今回5連敗したFan Hui 2段より600点強いです。

順位
  1 Ke Jie            3620 柯潔 (現在世界最強と思われる中国の18歳の棋士)
  2 Park Jungwhan     3561 朴廷桓(韓国のトップ)
  3 Iyama Yuta        3554 井山裕太(日本のトップ)
  5 Lee Sedol         3515 イ・セドル
...
166 Cho Chikun        3223 趙治勲    ... 第3回電聖戦
187 Yoda Norimoto     3208 依田紀基  ... 第2回電聖戦
283 Takemiya Masaki   3138 武宮正樹  ... 第0回電聖戦
373 Kobayashi Koichi  3077 小林光一  ... 第4回電聖戦 今年対戦
428 Ishida Yoshio     3043 石田芳夫  ... 第1回電聖戦
...
634 Fan Hui           2916 樊麾(Fan Hui)二段 ... 今回の5連敗した棋士
http://www.goratings.org/



『AlphaGo』について  投稿者:宮本 投稿日:2016年 1月30日(土)16時10分38秒
皆様ごぶさたいたしております。

『AlphaGo』について、自力で調べてもわからない素朴な疑問がありまして、お教えいただきましたら幸いです。
@先日、プロに勝った『AlphaGo』は、どのようなハードの上で動いていたのでしょうか?
A『AlphaGo』がWindows版などのソフトとして市販される可能性はありますか?



Re: 『AlphaGo』について  投稿者:山下 投稿日:2016年 1月31日(日)07時36分45秒
1台のマシンにコア数が48個(CPUだと12コアが4つ?)にGPUを8個載せたマシンを
22台ぐらいつないだもので、プロと対戦しています。
合計のコア数は1202、GPUの数は176です。

規模を小さくしたものは普通のPCでも動くと思うのですが
市販化されるかどうかは分かりません。



Re: 『AlphaGo』について  投稿者:宮本 投稿日:2016年 1月31日(日)07時48分56秒
山下様
大変有益な情報をありがとうございます。



AlphaGoの棋力をCGOSに変換  投稿者:山下 投稿日:2016年 2月 1日(月)08時26分4秒
AlphaGoの論文から棋力をCGOSのレーティングに直してみました。
?が付いてるのは推測です。
最近、ZenのDCNN版(24コア、1台)がKGSで 7d になったので、これを見てると
Zenの 7d は AlphaGo 1台といい勝負ができるようにも思えます。

                    CGOS    論文のElo(Remiのサイトと一致)
柯潔                4545?   3620
井山裕太            4479?   3554
セドル              4440?   3515
AlphaGo クラスタ    4065?   3140  22台以上?
Fan Hui 2段         3841?   2916
AlphaGo 1台         3815?   2890  48CPUs, 8GPUs
Zen-10.8-2c         3501
Aya_i49_nar_10k     3128          KGS 4d AyaのDCNN利用版
Aya 40k             2900?         KGS 3d
Aya786l_10k         2720          KGS 2d
AlphaGo RL          2683?         AlphaGo SLを強化学習
AlphaGo SL          2442?   1517  DCNNで先読みなし(13層192Filter)
pachi10 100k        2388?
DCNN_Aya_i49_a49    2313          DCNNで先読みなし(12層128Filter)
Aya786m_1k          2198          KGS 1k
pachi11_Pat_10k     2103
pachi10_Pat_10k     2069
Gnugo-3.7.10-a1     1800          KGS 6k

レートはCGOSのBayesEloを基準にしてます。
http://www.yss-aya.com/cgos/19x19/bayes.html

※ pachi10 100k の強さを基準に推定してるのですが、CGOSでの実際のレートは
   もっと高い(+150ぐらい)かもしれません。
※ 人間とコンピュータのレーティングの接点はAlphaGoがFan Hui 2段に8-2で勝った
   (+241点)というところから算出されてると思われます。
   対局数が少ないので、AlphaGoの実際のレーティングはもっと上にずれることも
   ありえます(もっと下も)。



AlphaGo のポジション  投稿者:masatsune 投稿日:2016年 2月 1日(月)09時37分29秒
Puella α 開発者の伊藤氏の考察が以下にあります。

http://aleag.cocolog-nifty.com/blog/2016/01/alphago-21ae.html

Googleの言うほど、(強さという面では)画期的な進歩ではないのでは、という意見のようです。



Re: AlphaGoのポジション  投稿者:荒木(ark) 投稿日:2016年 2月 1日(月)09時44分1秒
masatsune様

このブログは私も読んで、コメントしておきました。返信はまだありませんが、
私の見解は伊藤さんとだいぶ異なります。
詳しくは直接読んで頂ければ。



Re: AlphaGoのポジション  投稿者:masatsune 投稿日:2016年 2月 2日(火)13時32分4秒
荒木様

リンク先のブログのコメント拝見いたしました。
強さという面でも、大きな進歩であると理解いたしました。

ただ、大規模クラスタ(?)での向上分も大きく、将棋の電王戦のような共通ハード:ハイエンドPC1台(1CPU+1GPU)のような大会でないと、個人での参戦は難しい様に思えます。
(ハードをそろえるためには、スポンサーが必要ですね。)

開発を促進するために、PC1台分のパーツを買ってきたのですが、すでに1週間そのままです。

#モチベーションが上がるのを待っていてはいけない。始める、続ける強い意志を持つ事が重要
http://labaq.com/archives/51835932.html



AlphaGo  投稿者:tss 投稿日:2016年 2月 5日(金)21時33分33秒
コンピュータ囲碁がすごいことになっているようですね。
中盤入口から一挙に終盤にきた感があります。(^^



チェスのGMがハンデ戦をチェスソフト相手に4局行って1.5-2.5で敗れる  投稿者:山下 投稿日:2016年 2月 6日(土)19時47分15秒
チェスのGMのHikaru NakamuraがチェスソフトKomodoを
相手にハンデ戦を4局戦って惜しくも敗れています。

面白いのは4局ともハンデが全部バラバラなことです。
1局目:ポーン(F列)を1つ落としてもらう。かつ人間が先手
2局目:ポーン(F列)を1つ落としてもらう。人間は後手。
3局目:ルークを落としてもらう。ただし人間もナイトを落とす。先手はソフト。
4局目:通常の配置から開始。ただし人間(白)が先に4手指せる。別の駒のみ?

3局目まで全部ドローで、4局目だけ人間が負けました。
https://www.chess.com/news/komodo-beats-nakamura-in-final-battle-1331



伊田十段がZenに4子で敗れる  投稿者:山下 投稿日:2016年 2月 6日(土)20時53分58秒
伊田十段とZenが4子で対戦し、Zenが勝ったとのことです。
http://www.nihonkiin.or.jp/event/area/other/post_704.html



Re: AlphaGoの棋力をCGOSに変換  投稿者:gg 投稿日:2016年 2月 8日(月)19時22分32秒
>Zenの 7d は AlphaGo 1台といい勝負ができるようにも思えます。
最新の情報から Fan Hui 2p の棋力は KGS 8d 程度と推測されるので
Zen が 30秒/一手で 1d 下がるとして KGS 6d,まだ二子差があります
ついでに,分散版は単体版に 76%(約 200Elo)
自己対戦なので割り引いて150 Eloと計算して
さらに一子弱差があります



イ・セドルvsAlphaGo、対決方式発表  投稿者:masatsune 投稿日:2016年 2月26日(金)02時13分3秒
こんにちは。

上記タイトルの記事で、
>6)制限時間はそれぞれ2時間であり秒読みは1分3回だ。

とありましたが、123分切れ負けという事になるのでしょうか?
それとも、最後の1分になると、60秒以内で打ちつづけられるのでしょうか。



Re:イ・セドルvsAlphaGo、対決方式発表  投稿者:荒木(ark) 投稿日:2016年 2月26日(金)09時12分6秒
通常1分3回というのは、NHK杯のように、
「60秒以内で打ち続ける内は残り時間が減らないが、60秒を超えると1回減る。それが3回まで許されており、そのあと60秒を超えてしまうと時間切れ負け」
だと思います。



Re:イ・セドルvsAlphaGo、対決方式発表  投稿者:masatsune 投稿日:2016年 2月26日(金)20時16分37秒
荒木様

ご説明有難うございます。切れ負けだと興ざめなので良かったです。

持ち時間が2時間と短いですね。
Fan Hui 2段は、非公式の持ち時間の短い対戦では2勝3敗であったとの記事もでていました。(記憶で書いています。)
松原仁氏が、読売Onlineで、AlphaGoは、今回はイ・セドルには勝てないという記事を書かれています(2月26日付)。

個人的には、今回は、イ・セドル9段に勝って欲しいと思っています。



イ・セドル vs AlphaGo  投稿者:masatsune 投稿日:2016年 2月27日(土)15時53分22秒
キム・ジノ教授(ソウル科学総合大学院ビッグデータMBA主任教授)のコメントがありました。

>AlphaGoがイ・セドルに完勝してグーグル人工知能誇示ショーになるだろう

http://nitro15.ldblog.jp/archives/46925730.html



囲碁に関する記者発表会  投稿者:masatsune 投稿日:2016年 2月29日(月)23時52分46秒
が、明日(3月1日)、13:00からあるようです。

場所:日本棋院

登壇者
川上量生(株式会社ドワンゴ 会長)
和田紀夫(日本棋院理事長)
加藤英樹(Zen 開発チーム代表)
松尾豊(東京大学大学院工学系研究科 技術経営戦略学専攻 特任准教授)

ニコニコ生放送で中継されます。

http://live.nicovideo.jp/watch/lv253087682



囲碁に関する記者発表会  投稿者:masatsune 投稿日:2016年 3月 2日(水)20時01分53秒
DeepZenGoプロジェクトの発表がありました。

Zen側から申し込んだとの事です。

記憶に間違いが無ければ、加藤英樹氏が、DeepLeaning により序盤の精度が向上すると言っていた様に思います。
終盤への寄与はそれほどでも無い、という事でしょうか。



DeepZenGo プロジェクト  投稿者:gg 投稿日:2016年 3月 2日(水)20時17分24秒
正確には尾島さんからですね.
DCNN を使った囲碁ソフトは,HiraBot を CGOS で見ていた人なら
分かると思いますが,序盤が非常に上手く,Zen も時々やられてました.
今の Zen は DCNN を使っているので,これまで凄く下手だった序盤が
かなり上手く(大橋先生のお墨付きあり)なってます.
ヨセに関してはまだ良く分かりませんが,それほど変わってないと思います.



Re: DeepZenGo プロジェクト  投稿者:masatsune 投稿日:2016年 3月 2日(水)22時56分41秒
gg 様、ご指摘有難うございます。

尾島様、加藤様、大変失礼をいたしまして申し訳ありません。

Deep Learningは特に序盤で有効との事ですので、盤が広いほど効果がありそうですね。
自分はまだ9路盤でちまちまやっているので、代わりに定石を搭載しようと思います。

Deep Learning はやってみたいですが、よくわかりません。
Deep Learning for Igo みたいなセミナーが開催されるなら参加したいと思っています。



No210-allnode-4c  投稿者:gg 投稿日:2016年 3月 2日(水)23時04分21秒
No210-allnode-4c の CGOS での対局ですが,作者が CGOS では死石を
全部打ち上げるルールになっているのをご存じないのか,打ち上げずに PASS
して負けてる対局が少なくとも三局あります.実にもったいない.



Re:イ・セドル vs AlphaGo  投稿者:shallow 投稿日:2016年 3月 3日(木)00時18分14秒
AlphaGo には、驚かされましたね。
地元商店街に、大型ショッピングモールが殴りこみをかけてきた形でしょうか(笑)。
計算コストの高い強化学習に注目した点も斬新ですが、
評価関数を使用した点が、ポイントのように思えました。
元文献を見ますと、
評価は、value networkと従来法(?)との重み付け和になっており、
value networkの入力も凝っていて、試行錯誤されたあとが伺えます。

画像分類分野では、先日Googleが、MSが開発した ResNet を取り入れた Inception-ResNet で、昨年末より一段と性能を上げてきて、進化スピードが未だ衰えません。
ResNetが発表されたのが昨年12月頃でしたので、その開発スピードにも驚かされます。

イ・セドル vs AlphaGo について、
AlphaGoが前回プロを破ったのが昨年10月頃で、その間の開発期間と、Inceptionなどの別分野からのノウハウ転用などを考えると、かなりいい勝負になるような気がします。
ただ、今年後半以降になると、NVIDIAのGPU性能が強化されていくこと、
進化中の別分野からのノウハウ転用が継続的に進むことを考えると、人間が勝つことは難しくなっていくことと思います。



Re: No210-allnode-4c  投稿者:HiraBot 投稿日:2016年 3月 3日(木)08時54分29秒
ご指摘ありがとうございます
久しぶりに CGOS を行ったため、打ち上げ処理を入れるのを忘れていました



直前手入り DCNN  投稿者:HiraBot 投稿日:2016年 3月 4日(金)10時40分4秒
随分以前に直前手を入れたネットのテストをした時は結果は良くなかったが
再度テストを行った結果良い結果が出たので報告します
ネットの構成は直前手有も無しも同じで 12層(3x3-128-11層 + 3x3-1-1層)
学習させた結果は直前手無しが accuracy 44.0% 直前手有が 51.0% でした
MCTS に組み込んでの自己対戦で 87勝 32敗 勝率 73% +170elo
大幅に良くなりました (5d の HiraBot との対戦)
以前のテストで結果が良くなかったのはテストが不十分だったと思います
直前手有の入力データは 局面3面、盤外、直前手、2手前の手、逃げ、取り、コウ です



Re: 直前手入り DCNN  投稿者:山下 投稿日:2016年 3月 5日(土)03時14分20秒
私も直前手ありで使っています。
また以前はMM法とMixしていましたが、それもやめました。
Raveの勝率の高い手を候補に追加するのもやめました。
ここまで一致率が上がってくると、余計なことは全部裏目に出てくる感じです。



Google DeepMind Challenge Match  投稿者:masatsune 投稿日:2016年 3月 8日(火)17時44分1秒
いよいよ明日となりました。

Match 1 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo

https://www.youtube.com/watch?v=vFr3K2DORc8



Re:Google DeepMind Challenge Match  投稿者:masatsune 投稿日:2016年 3月 9日(水)16時47分16秒
第1局目、AlphaGoの中押し勝ちとなりました。

2時間経過した辺りでは、Lee Sedol が有利かと思っていたのですが。。。

第2局は、明日13:00 からです。



Re:Google DeepMind Challenge Match  投稿者:山下 投稿日:2016年 3月 9日(水)23時45分19秒
まさかセドルが負けるとは思っていませんでした。
ShotestのJeffから聞いたのですが、
DeepMindの創設者のDemis Hassabisさんは、チェスのチャンピオンになったことが
あるボードゲーム全般の強豪ですが、将棋でも国の代表として国際将棋フォーラムに参加したことがあるそうです。



Google DeepMind Challenge Match 2  投稿者:masatsune 投稿日:2016年 3月10日(木)17時49分11秒
第2局目、先番 AlphaGoの中押し勝ちとなりました。

李九段の対局後のコメント:
「今日は言うことがないほどの完敗だった。一局ぐらいは勝てるように頑張りたい」
との事です。

第3局は、土曜日 13:00 からです。
囲碁将棋チャンネルでも無料生中継されます。



Re:Google DeepMind Challenge Match  投稿者:masatsune 投稿日:2016年 3月10日(木)17時57分53秒
三村九段の解説記事を見つけました。

127手目が敗着ではないかとの事です。

http://mimura15.jp/2999.html



第2局、三村九段のコメント  投稿者:masatsune 投稿日:2016年 3月11日(金)01時42分26秒
三村九段のブログでのコメントが衝撃的でした。

以下三村九段のブログから抜粋

「第1局よりもこの敗戦のインパクトは大きい。AlphaGoが既に人間の棋力を凌駕している可能性を私は感じた。

1手ごとに見れば理解不能、良さが感じられないが結果が優れている。これはつまりそういう事では無いか。」

http://mimura15.jp/3007.html より。



(無題)  投稿者:それな! 投稿日:2016年 3月11日(金)16時08分31秒
将棋の話です。
ボナンザメソッドも不要なパラメータがあると弱くなるので
ディープラーニングで必要なパラメータだけにすれば
今より強くなるのではないか?
と思うのですがどうなんでしょうか?



第3局が始まります  投稿者:山下 投稿日:2016年 3月12日(土)12時57分36秒
囲碁の人間対機械の勝敗を決定するかもしれない、第3局が今から始まります。
https://deepmind.com/alpha-go.html
セドルさんには勝って欲しい、本当に勝って欲しいです。

AlphaGoが既存のMCTSのソフトが持っている弱点を持っているとするならば
眼あり眼なしで内ダメが多い6手対7手の攻め合いや、大中小中、
それらが盤端ではなく、出現率が低い中央で出現する形を作れば間違える可能性は高いかもしれません。

囲碁プレミアムでは高尾さんの日本語の解説が聞けます。
囲碁プレミアム Google DeepMind Challenge Match: Lee Sedol vs AlphaGo
https://www.youtube.com/watch?v=aZtZdAaInEM



Re: 第3局が始まります  投稿者:山下 投稿日:2016年 3月12日(土)16時02分50秒
ここでAyaの形勢判断を載せてます
https://twitter.com/nhk_igo_15bai



AlphaGo  投稿者:tss  投稿日:2016年 2月 5日(金)21時33分33秒
コンピュータ囲碁がすごいことになっているようですね。
中盤入口から一挙に終盤にきた感があります。(^^

Zenでも勝てませんか?



予感的中(^^A  投稿者:tss 投稿日:2016年 3月12日(土)19時02分49秒

Re: 第3局が始まります  投稿者:gg 投稿日:2016年 3月13日(日)09時27分27秒
>囲碁の人間対機械の勝敗を決定するかもしれない
セドルさんは「これはイ・セドルの敗北であって,人類の敗北ではない」
とコメントしてます.

それは兎も角,AlphaGo 相手に練習すれば日本のプロが世界一になるかも
知れないと思うとワクワクしませんか?
#囲碁界のトレンドも戦い重視から大局観重視に変わるか?



第4局  投稿者:山下 投稿日:2016年 3月13日(日)13時51分40秒
NHK杯終了後に昨日に続いてAyaの形勢判断を載せるつもりです。
圧倒的棋力差があるとはいえ、Ayaは同じソフトなのでAlphaGo有利と判断する傾向が高いです。
https://twitter.com/nhk_igo_15bai



Re: 第4局  投稿者:山下 投稿日:2016年 3月13日(日)15時58分12秒
なんだか手になったみたいです。
セドルさんすごい。



Re: 第4局  投稿者:masatsune 投稿日:2016年 3月13日(日)20時38分46秒
所用で 途中までしか見れなかったのですが、セドルさん勝ったようですね。
新聞社配信の写真の笑顔がいいです。

右辺、アルファ碁が 伸びてもだめな場所を伸びた手を見て、自分のプログラムのようだと思ってしまいました。

大きな石の攻め合いのような局面で、課題が残っているのでしょうか。



Re: 第4局  投稿者:gg 投稿日:2016年 3月14日(月)09時30分47秒
あの割り込みを見つけられる囲碁ソフトを作れる時が来る気が
しません.世界中で数人しか見つけられない手.これこそが
現実の知能の困った時に「解」を「発見」する能力で,既存の
探索アルゴリズムとは異なる手法が必要なように思われます.
#目的意識 etc.



第5局  投稿者:masatsune 投稿日:2016年 3月16日(水)11時47分22秒
全5局の中で、最もスリリングな対局だったように思えました。

AlphaGo の判断はわかりませんが 右辺で白が取られた部分、Aya の評価では、ずっと”未確定”の様になっていました。ただ その分を補正しても 白やや有利の判断でした。

これが AlphaGo が暴走気味の手を打たなかった理由かなと思いました。

MCTSで、呼吸点が多い石の生き死にの判断は難しいですね。



画像棋譜取り込みツール  投稿者:masatsune 投稿日:2016年 3月16日(水)12時43分39秒
囲碁の画像棋譜(黒1白2から始まって黒・白丸の中に数字がある物)をテキストに変換するツールですが、公開されている物はありますでしょうか?

情報をお持ちの方が居られましたら、お教え願いたく、よろしくお願いします。



Re: 画像棋譜取り込みツール  投稿者:山下 投稿日:2016年 3月16日(水)16時05分46秒
銀星囲碁に「棋譜OCR」という名前で付属していたものが使えます。
ちょっと昔の廉価版でも付属しているかもしれません。



Re: 画像棋譜取り込みツール  投稿者:masatsune 投稿日:2016年 3月17日(木)12時46分12秒
山下様

ご紹介有難うございます。
頭の中に碁盤がないので、簡便に変換できればと思いました。

すこし探してみます。



アルファ犬  投稿者:masatsune 投稿日:2016年 3月17日(木)13時13分42秒
AlphaGo の中国語表記を見つけました。

"阿爾法狗" と書くそうです。

"阿爾法" は、アルファ で音訳。Go は、"碁" の文字が現代中国では殆ど使われない事と発音が"Go"ではないため音が似ている "狗"の文字を当てた様です。

意訳すると、アルファ犬 ですね。



UEC杯のニュース二つ  投稿者:gg 投稿日:2016年 3月22日(火)10時31分7秒
http://www3.nhk.or.jp/news/html/20160320/k10010450341000.html
「コンピューター囲碁ソフト 強さ競う世界大会」 2分41秒
NHK の日曜夜 7時のニュース
DeepZenGo の記者会見も混ぜて上手くまとめてます
#大橋先生も映ってたり.伊藤先生のインタビューが締め

こちらは韓国のSBS(ソウル放送局)によるニュース
http://youtu.be/09DydFX_5OQ
UEC 杯の会場風景はこちらの方が良く分かります



ponderの可否  投稿者:masatsune 投稿日:2016年 3月28日(月)12時37分59秒
こんにちは。

http://nitro15.ldblog.jp/archives/47170937.html

上記電聖戦の記事の中に

>ルールは日本ルール、手合割は第1局、2局共に三子局。
>持ち時間は30分、切れたら1手30秒未満
>(但しコンピュータのオペレート時間は含まない)。

とありましたが、入力が手入力の場合でもコンピュータは
相手の思考時間中に”思考”(所謂 ponder機能)する事は
認められているのでしょうか。

UECの対局ルールを参照しましたが、特に言及されていないように思います。

他の大会ではどうでしょう?



Re: ponderの可否  投稿者:うさぴょんの育ての親 投稿日:2016年 3月28日(月)13時10分41秒
ponderは特に禁止されてはいませんが、囲碁で次の相手の手を予測するのは困難なので、将棋程効果は上がらないかと思います。

実際、私の囲碁プログラムは(現在では)ponderしていませんが、以前、ponderしても全然相手の手を当てられなくてほとんど効果がありませんでした。

この辺、効果的な探索を上位プログラムはしているかも知れませんが、一応参考程度に。



Re: ponderの可否  投稿者:masatsune 投稿日:2016年 3月28日(月)22時54分40秒
うさぴょんの育ての親 様

コメント有難うございます。
ponder に関しては、開発の優先度を上げる必要はなさそうですね。

それよりも、playout関数を鍛える方が 重要課題ですね。
最近良いアイデアが出ず、行き詰っています。。。

masatsune



Re: ponderの可否  投稿者:山下 投稿日:2016年 3月30日(水)23時50分11秒
今の囲碁ソフトは最善手を50%ぐらいで当てるので、かなり効果がありますよ。
将棋と同じくらい、思考時間が1.5倍になった程度の効果はあります。



Re: ponderの可否  投稿者:うさぴょんの育ての親 投稿日:2016年 3月30日(水)23時59分53秒
山下さん

おぉ、50%当てるなら効果ありますね!

19路盤でも50%位当てるのですよね?

前に私が実装した時には19路盤では10%位しか当たりませんでした…。



6d おめでとうございます  投稿者:HiraBot 投稿日:2016年 4月 6日(水)12時55分0秒
AyaMC が 6d になりましたね、おめでとうございます
HiraBot が 5d になった時は aya に追いついたと思ったのですが
また離されてしまいました、HiraBot も 6d 目指して頑張ります



Re: 6d おめでとうございます  投稿者:山下 投稿日:2016年 4月 7日(木)17時07分28秒
ありがとうございます。
ただHiraBotも6dに上がりそうな勝率ですが。
playoutの質は2d程度とまったく同じで、3手と4手の眼あり眼なしの攻め合いも分からない、
という弱点があるにもかかかわらず6dぐらいまでは上がる、というのに
少し驚いています。
6dで走っているAyaMCはCGOSの Aya788d_p1v0_6c12t とまったく同じものです。
256Filter,12Layer,GoGoDの一致率は50.2%で、そのPolicyNetを1つだけ使って
ValueNetはなしで12threadで走らせています。GoGoDの棋譜からの局面は
1500万で、8対称の1億2千万にはしていません。
UEC杯でCGIチームから聞いた話ではGoGoDの8対称の1億2千万を使って192Fileterで52%、384Filterで53%くらいまで行ったらしく、
1500万局面でもやや少ないのかもしれません。
Caffeの使い方で難しかったのは別スレッドでforward()を読んだ際に、
デフォルトのCPUを使う設定になるので、毎回
Caffe::set_mode(Caffe::GPU);
Caffe::SetDevice(gpu_id);
を実行しないといけない、ということでした。
全スレッドからGPUを呼ぶようにしてGPUの稼働率は95%くらいまで上がっています。

AlphaGoの手法が公開されている現在、5d,6d,7dのプログラムを作るのは
GPUの数といったハードの性能の問題だけになるような気もしています。



Re:6dおめでとうございます  投稿者:yoshi 投稿日:2016年 4月17日(日)12時50分37秒
いつも、読んでいるだけでしたが、はじめて、質問させていただきたいと思います。

12Layer, 256FilterのDCNNのcaffeによる1局面の予測にかかる時間は、
i7-3770K+GTX 980(メモリ4GB)で2.33msだと以前、お聞きしました
(2016年 1月16日)。--間違っていたら、ご指摘ください。
6dのayaについて、もう少し、説明していただけないでしょうか。
あるいは、次の2つの質問に答えていただけないでしょうか。
(ピントが外れていたら、ごめんなさい。)

質問1:12threadsにしたことにより、1局面の予測が0.2msとなったということですか?
質問2:playoutのpolicyは、ayaのままで、ノード展開時の確率分布にDCNNの予測を用いている
ということですか。



GoBeta (KGS 6d)  投稿者:gg 投稿日:2016年 4月20日(水)15時27分33秒
KGS で 6d の GoBeta ですが,起動時のメッセージから
中国の異構神機の記者会見に登場した Novumind のものと思われます
>GoBeta [6d]: GTP Engine for GoBeta (white):
>BetaGo Ver.0413 (valley style) version V0.2:
>If the program did something unreasonable,
>please let us know by sending an email to
>NovuGoxnovumind. Thank you and enjoy.



ponanza二連覇優勝!!  投稿者:tss 投稿日:2016年 5月11日(水)00時22分5秒
ponanza二連覇優勝おめでとうございます。
技巧との決勝戦にponanzaの優勝への執念が感じられました。
三連覇向けてがんばってください。

YSSの決勝進出記録が途絶えたのは残念です。
今回は予選からハードな戦いだったのではないでしょうか?

来年は激指とともに復活の烽火を挙げて暴れてください。
期待しています。



定跡  投稿者:miya 投稿日:2016年 5月14日(土)11時33分45秒
AI将棋は新しい定跡入れて遊べないのでイマイチ



勝手にベンチマーク  投稿者:osera 投稿日:2016年 5月14日(土)21時11分59秒
標準の負荷をそろそろ重くしていただけるとうれしいです。m(_ _)m



囲碁市販ソフトが九段に  投稿者:osera 投稿日:2016年 5月15日(日)10時15分31秒
将棋市販ソフトの九段は
マーダ?o(*^∇^*)oワクワク
http://www.unbalance.co.jp/igo/sigoDL/



Re:囲碁市販ソフトが九段に  投稿者:masatsune 投稿日:2016年 5月18日(水)19時01分3秒
情報をお持ちの方がおられましたらお教えください。

このソフトは、GPU に対応しているのでしょうか?
(DeepLeaningの部分をGPUに担当させる。)

また、対局時の一手の時間指定とか 次の一手をユーザーが指定した時間考えさせる事が可能なのでしょうか?
例えば、一手1時間とか考えさえる事を想定しています。

リンク先の内容からは、判断できませんでした。



Re:囲碁市販ソフトが九段に  投稿者:tss 投稿日:2016年 5月19日(木)21時14分45秒
私は名人への道を所有しておりますので
それから勝手な推測をしてみます。
またディープラーニングを購入予定なのでご希望であれば
その時に改めて回答します。

動作環境にGPU推奨または対応と記載がないので
>(DeepLeaningの部分をGPUに担当させる。)
ことは無理だろうと思います。
GUIは名人への道と同一のようなので
>一手1時間とか考えさえる事
は不可でしょう。
名人への道は一手最長60秒ですが
ハイスペックのパソコンでは60秒思考せず打ったと思います。

気になって仕方ないのであれば電話で問い合わせてみる手もあります。
購入を検討と言えば気さくに返答してくれるでしょう。
「株式会社アンバランス」
電話番号 03-5283-3620(代表)

なお私はアンバランスの回し者ではありませんので…(^^;(なんのこっちゃー)



Re:囲碁市販ソフトが九段に  投稿者:masatsune 投稿日:2016年 5月20日(金)01時14分40秒
tss 様

ご回答有難うございます。

GPU対応の件はともかく、検討時間の上限制限は無くして欲しいです。
大昔に買った囲碁ソフトが、”最強”でも2〜3秒しか考えてく
れなくて気になりました。

まあ、一手60秒以上考えても棋力的には飽和している言うことなのでしょう。

発売されて、他の人の評判を聞いてみてから購入するか決めようと思います。

tss様が購入されるのでしたら、レビューを投稿していただけると有りがたいです。
よろしくお願いします。

では、では。



(無題)  投稿者:チョ・マテヨ 投稿日:2016年 5月20日(金)02時37分16秒
ディープラーニングのアルファ碁が9段になったと言う意味では!?
大会ではZENが優勝だから強さで言えばZENじゃないかな!

https://ja.wikipedia.org/wiki/UEC%E6%9D%AF%E3%82%B3%E3%83%B3%E3%83%94%E3%83%A5%E3%83%BC%E3%82%BF%E5%9B%B2%E7%A2%81%E5%A4%A7%E4%BC%9A#.E7.AC.AC9.E5.9B.9E.E5.A4.A7.E4.BC.9A.EF.BC.882016.E5.B9.B4.EF.BC.89



nozomi公開  投稿者:osera 投稿日:2016年 5月29日(日)13時48分12秒
GitHubでnozomi公開\(^o^)/
考えてみれば市販でなくても十分、九段以上(^_^;)?



Re:nozomi公開  投稿者:masatsune 投稿日:2016年 5月30日(月)13時10分20秒
今回の物は、new_fv.bin が添付されているので、思考エンジンとして使えますね。

以前の5/25(?)付けのソースコードでは、new_fv.bin が無かったのですか、
自分でコンパイルして、上記の new_fv.bin を同じディレクトリにコピーすると
思考エンジンとして動作しました。(-O3 や ーOfast でコンパイル・動作しました。)

ただ、読み筋を比較すると微妙に違う場合があるようです。



技巧公開  投稿者:osera 投稿日:2016年 6月 1日(水)22時22分52秒
公開ラッシュ\(^o^)/



Re: 囲碁市販ソフトが九段に  投稿者:gg 投稿日:2016年 6月 2日(木)19時56分12秒
KGS で 7d なので(これまで通り +2 して)九段と言っているだけ
でしょう.先日の Hajin Lee 2p との互先局は,調整が上手くいか
なかったとかで,正直期待外れでした.
https://www.youtube.com/watch?v=ZdrV2H5zIOM



天頂の囲碁6  投稿者:masatsune 投稿日:2016年 6月 2日(木)22時11分9秒
"6/3発売される「天頂の囲碁6」" の三村九段による”対戦レビュー”がありました。
白番で対戦されていて、打ち手(棋譜)にコメントが着いています。

http://mimura15.jp/3144.html

”布石から中盤まで非常にキレイな打ち筋である。
筋の良い手でゆったり打ち、遅れていない。
武宮先生や高川先生の碁の様な感じで「教育上良い」棋風と思う。”

との事です。



Zenの開発  投稿者:tss 投稿日:2016年 6月 3日(金)11時38分24秒
>現在は囲碁プログラムZenの開発にも関わる。
http://next.rikunabi.com/journal/entry/20160531

Ponanzaの開発者の山本氏が囲碁プログラムZenの開発にも関わるとあり衝撃を受けたのは私だけでしょうか?



Re:Re: 囲碁市販ソフトが九段に  投稿者:masatsune 投稿日:2016年 6月 4日(土)12時14分35秒
リンク先の動画をみました。

英語の解説ですが、テヌキ、ジョウセキ、ハネ、アタリ、等の
日本語の単語がそのまま採用されていますね。

以前のアルファ碁のレイモンド9段の解説では、彼が日本語に
堪能なためかと思っていましたが、これらの単語は囲碁の世界では
正式に英語表現として採用されているようですね。

自分には、テヌキ、が 時々 タヌキ(狸)に聞こえたのはナイショです。



Re: 囲碁市販ソフトが九段に  投稿者:gg 投稿日:2016年 6月 4日(土)21時20分5秒
Atari というゲーム会社の名前がアタリから取られたと
というのはもう古い話だからあまり知られてないのかな?



Re: 囲碁市販ソフトが九段に  投稿者:masatsune 投稿日:2016年 6月 5日(日)16時24分44秒
Wikipedia-アタリ(企業) から抜粋

囲碁の日本棋院初段を持つ(社長の)ブッシュネルが囲碁用語「アタリ」から社名を取った。
ブッシュネルが好きな囲碁用語「センテ」「ハネ」「アタリ」の中から「アタリ」を選んだ。

との記事がありました。1972年創業とあります。

囲碁の国際化が如何に早かったかが伺われます。



13路盤用のCGOS  投稿者:k3 投稿日:2016年 6月 6日(月)19時43分50秒
初めての投稿になります。よろしくお願いいたします。

本家CGOS(boardspace.net)がすべて停止状態となっており、山下様が運用
してくださっている(ありがとうごさいます) CGOSに13路がありませんが、
どなたかがどこかで運用されている13路のサブサイトがあるのでしょうか。
それとも需要がないので不要ということなのでしょうか。



Re: 12threadsにしたことにより  投稿者:山下 投稿日:2016年 6月 7日(火)20時32分56秒
yoshikiさん、お返事が大変遅くなってすみません。

> 質問1:12threadsにしたことにより、1局面の予測が0.2msとなった

XeonW3680 3.3GHz, GTX 980で 12Layer, 256Filter、入力49面で 5.3ms、128Filterで3.0msかかります。
スレッド数を変えても予測の時間自体は同じです。
今までは12スレッドで動作させた場合でもGPUの処理をするのは特定の
1スレッドだけ、としていたのですが、それだとGPUが働いていない時間が結構あり、
すべてのスレッドからGPUが遊んでいればすかさず処理をすることで、理論値の
1/5.3ms=188局面/秒に近い、170局面/秒ぐらいの速度が出るようになりました。

> 質問2:playoutのpolicyは、ayaのままで、ノード展開時の確率分布にDCNNの予測
はい。playoutはそのままでノード展開時のみの利用です。



Re: 13路盤用のCGOS  投稿者:山下 投稿日:2016年 6月 7日(火)20時38分29秒
他にCGOSの13路が動作しているのは知りません。
本家でも2ヶ月前まで動いていたのですが、ほぼ新規参加がない状態で
あまり必要性を感じませんでした。

試しに、走らせてみます。ただ、1,2ヶ月経ってもほとんど参加がないようなら
13路は止めてしまおうと思っています。

http://www.yss-aya.com/cgos/13x13/standings.html
server yss-aya.com
port 6813



Re: 13路盤用のCGOS  投稿者:k3 投稿日:2016年 6月 8日(水)08時38分32秒
山下様、早速のご回答ありがとうございました。
何か催促したようになってしまってすみません (^^;)。
わざわざ建てていただけるとは思っていませんでした。

運用は手間と費用がかかる話ですから、需要がなければ停止もやむを得ませんね。



第1回13路盤プロアマトーナメント戦  投稿者:masatsune 投稿日:2016年 6月 8日(水)22時31分19秒
今週末、「第1回13路盤プロアマトーナメント戦」の「代表決定トーナメント」が開催されます。
以下、リンク先からの抜粋です。

代表決定トーナメント
    6月11日(土) 10時・11時半・13時半・15時・16時半
    ※予選と代表決定トーナメントの対局は大会サーバーでの13路盤対局となります。

主催    公益財団法人日本棋院
賞金  優勝60万円、準優勝30万円
参加者  日本棋院所属棋士、アマチュア(注2)、コンピュータソフト(注3)
本戦  16名(シード2名(前回優勝・準優勝者(注4))、棋士予選枠6名、女流棋士予選枠2名、棋士ファン投票枠4名、アマチュア・コンピュータ枠2名(注5)

http://www.nihonkiin.or.jp/news/release/113.html



darkforestGo公開  投稿者:osera 投稿日:2016年 6月11日(土)15時58分8秒
公開ラッシュ\(^o^)/



第1回13路盤プロアマトーナメント戦(2)  投稿者:masatsune 投稿日:2016年 6月12日(日)01時33分48秒
「アマチュア・コンピュータ枠2名」 ですが、参加した Zen,CGI,Aya,Ray とも本戦出場はならなかったようです。



囲碁市販ソフトが九段には  投稿者:osera 投稿日:2016年 6月14日(火)01時10分0秒
ならなかった。゜(゜´Д`゜)゜。
http://www.unbalance.co.jp/info_sigoDL.html



AlphaGoについて.pdf   投稿者:masatsune 投稿日:2016年 6月18日(土)22時03分31秒
荒木様が、

AlphaGoについて.pdf

いう資料をブログで公開されています。

アルファ碁について 分かりやすく説明されています。
アルファ碁に興味のある方、英語の論文を読まれていない方には 非常に参考になると思います。

https://docs.google.com/viewer?a=v&pid=sites&srcid=ZGVmYXVsdGRvbWFpbnxhcmtnb2xnb3xneDoyMjkwZjY1ZDQ3ZGEyZWE1



Re:AlphaGoについて.pdf  投稿者:荒木(ark) 投稿日:2016年 6月19日(日)19時38分37秒
masatsune様
荒木です。資料を紹介して下さってありがとうございます。
東大囲碁部OB会で講演した時のものなので、身内ネタもありますし、
分かりやすくするためにやや語弊のある表現も混じっているかと思いますが、
皆さんの参考になれば幸いです。



Re:AlphaGoについて.pdf  投稿者:masatsune 投稿日:2016年 6月20日(月)18時42分27秒
荒木様

事前に荒木様の了解をとるべきかとも思ったのですが、自由に閲覧できる状態で公開されておりましたので、紹介させていただきました。

自分は Googleの文献を読んでいないので大変参考になり、アルファ碁に対する理解を深める事ができました。

有難うございました。



KGS で4子以下の置き碁に限定する方法  投稿者:HiraBot 投稿日:2016年 6月23日(木)17時03分13秒
Zen19A は KGS で 8d になっていますが、KGS の対局は 4子以下に限定しているようです。
4子以下に限定する方法をご存知の方がいらっしゃいましたら
お手数ですが教えていただけないでしょうかよろしくお願いします。



Re: KGS で4子以下の置き碁に限定する方法  投稿者:山下 投稿日:2016年 6月23日(木)21時24分7秒
見てた感じですと、5子、6子の置き碁の時は
すぐに投了するようになっていたようです。
KGSでは10手以内?の投了はレートの計算にカウントされないのを逆用したのかと。



Re: KGS で4子以下の置き碁に限定する方法  投稿者:HiraBot 投稿日:2016年 6月23日(木)23時01分1秒
山下さん 有難うございました
その手を応用すれば、mirror 碁対策にも使えそうですね。



Re: KGS で4子以下の置き碁に限定する方法  投稿者:山下 投稿日:2016年 6月23日(木)23時25分37秒
かなり消極的な真似碁対策ですが・・・。
4子を中央にポン抜きで置く形とかは対応したのですがイタチごっこですね。

CrazyStoneとかは自由置き碁ができないようになっていたようなので
gtp_set_free_handicap あたりを無効にすれば?いいのかもしれません。



Re: KGS で4子以下の置き碁に限定する方法  投稿者:HiraBot 投稿日:2016年 6月24日(金)01時34分19秒
真似碁対策ですが、黒先で天元に打つのは対策に入れたので
次は4子を中央にポン抜きで置く形を入れれば
4子以下の真似碁対策は出来ることになりますので
この方針でやってみます、それでもダメなら
真似碁を検出したら投了するようにします。



真似碁対策のテストをお願いします  投稿者:HiraBot 投稿日:2016年 6月24日(金)03時08分49秒
数日前から KGS で真似碁を検出したらログに残すようにして調べたところ
数1000局の HiraBot の対局のうち真似碁は1件のみでした、これでは真似碁のテストが出来ません

真似碁対策が一段落し HiraBot31〜38 3d に入れて Computer Go の部屋で
運用しております、興味のある方は真似碁を挑んでみてくださいよろしくお願いします
なお真似碁は free game で行ってください rank game で真似碁をすると
admin からランク停止を食らう恐れがあります。



置き石とコミの関係  投稿者:HiraBot 投稿日:2016年 6月25日(土)18時05分49秒
HiraBot を使用して置き石がコミに換算すると何目になるか調べた

http://kiyoshifk.dip.jp/kiyoshifk/apk/komi-V4.pdf

1子(互先) コミ=5.5目
2子     コミ=19.5目
3子     コミ=33.5目

となった、1子増えるごとにコミ 14目に相当することが分かりました。



Re: 真似碁対策のテストをお願いします  投稿者:HiraBot 投稿日:2016年 6月26日(日)06時40分37秒
テストをお願いしてから2日ほど経ちましたので経過報告します
2日の間に HiraBot 対局数 1600局あまり、真似碁は3件検出されました
いづれも真似碁は途中で中断され HiraBot が勝ました、効果があったと判断します
貴重なデータを有難うございました。



Re: 置き石とコミの関係  投稿者:山下 投稿日:2016年 6月26日(日)22時18分55秒
面白いデータをありがとうございます。
14目できれいに直線になるのに驚きました。
3dだと14目程度で、6d、7dだと16目と大きくなり、4k、5kだと12目ぐらいで
強くなるほど置石の重みが増していくような気がします。



自由置き碁  投稿者:gg 投稿日:2016年 7月 2日(土)14時03分25秒
自由置き碁は日本ルールにすれば禁止できます



Re: 自由置き碁  投稿者:山下 投稿日:2016年 7月 4日(月)16時01分55秒
あら、そこでしたか。
ありがとうございます。



Re: 真似碁対策のテストをお願いします  投稿者:HiraBot 投稿日:2016年 7月12日(火)13時46分43秒
テストをお願いしてから 18日経ちました、再度経過を報告します
この間に対局数 15,000局前後、真似碁は 29件検出されました
29件中 HiraBot が負けたのは 9件です HiraBot の勝率 69%
負け碁のうちで終局近くまで真似が続いたのは 2件です
真似碁は 29件中 2件で大成功したわけです
これを多いと見るか少ないと見るかは難しい所ですが
この程度の成功率なら積極的に真似碁をしようとしないと思います。



raspberry pi  投稿者:HiraBot 投稿日:2016年 7月13日(水)17時10分5秒
対局囲碁プログラムを raspberry pi で動かし、KGS で打たせてみた
KGS アカウントは DcnnRasPi です、現在 1k と 2k を行ったり来たりしてます
DCNN で読んだ手をそのまま打つプログラムです
ネット構成は 3x3-filter数128-12層-9入力面 です CGOS の DCNN-No211 と同じです
CGOS では PC で打っていましたが rating が 2158 でした
1k〜2k が妥当な所かもしれません
i7-4790k では CPU 処理で DCNN 1回読むのに 25ms かかっていたが(AVX, multi thread)
raspberry pi では1手 18s かかった、約 700 倍です、性能差は大きいですね。



HiraBot3 の rating  投稿者:HiraBot 投稿日:2016年 7月31日(日)10時07分47秒
HiraBot3 が KGS で 6d で安定しそうな様子ですが
CGOS での rating は 2956 at 242games でした(No260-No211-4c)
山下さんの Aya でのデータで近いものは下記の通りです

                    CGOS    KGS  Botname  Time
Aya786m_4c          2965    4d   AyaMC4   1min + 15sec x10

このデータからは HiraBot3 は 4d にしかならないはずですが
実際は 6d になっています、この差がどこから生じているか
考えたのですが、結局の所分かりませんでした。



Re: HiraBot3 の rating  投稿者:gg 投稿日:2016年 7月31日(日)19時54分46秒
Bayes Elo でのレートは
No260-No211-4c が 3264,
Aya786m_4c が 2969
ですから,KGS で 2d 違っても不思議ではありません.



Re: HiraBot3 の rating  投稿者:HiraBot 投稿日:2016年 7月31日(日)22時36分56秒
gg 様
CGOS の rating と CGOS の Bayes Elo が違う事は知りませんでした
有難うございます



Re: HiraBot3 の rating  投稿者:gg 投稿日:2016年 8月 1日(月)00時38分52秒
CGOS の通常のレートはインクりメンタルに更新,つまり
勝ったら相手とのレートの差に依存したある値を加算,負けたら減算
というアルゴリズムで決定しているので,精度という面では
若干(かなり?)問題があります.そこで Bayes Elo という,
全体でできるだけ辻褄が合うように求めたレートがあるのです.



Re: HiraBot3 の rating  投稿者:山下 投稿日:2016年 8月 2日(火)17時55分23秒
ComputerGo MLに投稿した数値もBayesEloの値です。
cgos <--> kgs rating
http://computer-go.org/pipermail/computer-go/2016-June/009444.html

BayesEloは対局者の棋力が一定、として、19路だと今までの12万対局すべてからレートを
計算しています。時間の概念はなく、12万局が同時に行われた、と仮定しています。
このため、同じ名前を使い続けて棋力が上がっていく、などの場合は単なるEloの方が
正確かもしれません。(CGOSでは棋力が変われば違うプログラム名で流した方がいいです)

サーバの実装は、いったん1局の対局結果をチェスのテキスト棋譜(pgn)形式に変換します。
これを12万局分つなげた巨大なテキストファイルを作り、Remiさんの
BayesEloというプログラムに読み込ませる、という作業を1日1回やってます。

BayesEloの方が信頼できるとは思いますが、Ayaとかはplayout数が少ない版との
自己対戦になっているので、実際以上に勝ちすぎて、上位のレートは上がりすぎていると思います。

たとえば2月の時点では
Zen-10.8-2c      3485
CrazyStone-0002  3313
でしたが8月の現在では100点下がってます。
Zen-10.8-2c      3383
CrazyStone-0002  3258
guess AlphaGo's CGOS rating
http://computer-go.org/pipermail/computer-go/2016-February/008638.html



Crazy Stoneの最新版  投稿者:sashisusoy 投稿日:2016年 8月11日(木)23時05分12秒
日本では発売延期していますが、
Steamなら英語版をダウンロード購入できます。
http://store.steampowered.com/app/479330

私はRemiさんのTwitterで知り購入しました。
https://twitter.com/Remi_Coulom/status/735755184781950978



US Go CongressでのAlphaGoの話  投稿者:山下 投稿日:2016年 8月12日(金)10時09分18秒
Youtubeに上がっていた開発者のAjaさんと練習対局者のFan Hui2段の話をまとめてみました。

2014年2月 AjaとDavid SilverでAlphaGoプロジェクトを開始
          人間の直感 Policy Network
          探索
          局面判断   Value Network (これがもっとも重要な要因)
2015年6月 CrazyStoneに70%勝つ(分散版で)
          20人近いAlphaGo Teamを結成(囲碁しらない人も多数)
2015年8月 自己対戦で作ったValueNetrokで2子強くなった(勝率95%)
          プロレベルに到達
          Value Network はDavid Silverのアイデア
          MCTSではKGSで6d止まりだったがそれをぶち破った

セドル戦ではGPUではなくTPUを使用。
Policy Networkの1回の計算に3msかかってたのが遥かに速くなった。
(具体的な数値なし)

開発開始から1ヶ月に1dのペースで強くなり続けた

セドル戦の評価グラフ
  赤い太い線が瞬間的な Value Network の値で、薄い線が探索の結果?
  訂正:太い線が探索で、上の薄い線がValue Networkの値です

  Value Network は投了直前でも100%ではなく80%ぐらい
  訂正:playoutの結果が80%ぐらいです。ValueNetの方が正確です。

  第5局、石塔で取られたのはミスだと言われたが、AlphaGoは取られた時点で
  勝率75%と思っていて、悪いとはまったく思っていない。

Ajaのセドル戦の予想はAlphaGoの3勝2敗、チームの誰もAlphaGoが負けるとは予想してなかった。

Opening Keynote: "The Story of Alpha Go", presented by Aja Huang 7d and Fan Hui 2p
https://www.youtube.com/watch?v=LX8Knl0g0LE



Value net  投稿者:nn 投稿日:2016年 8月13日(土)04時53分27秒
#AlphaGo estimates of how it thinks it's doing during the match.
Value network at top; playlist(プレイアウトの間違い?) at bottom. #IJCAI16
https://twitter.com/nathansttt/status/752860488137117696

というツイートがありますが、どっちでしょう



Re: Value net  投稿者:山下 投稿日:2016年 8月13日(土)10時31分47秒
その通りですね。大変失礼しました。
ValueNetはそこまで上がらないだろう、という先入観みたいなものがありました。

下はグラフから読み取ったValueNetの値とplayoutの結果です。
勝率は自分からみたものです。
AyaのValueNetはFilter数32、Layer11、というAlphaGoの(恐らくFilter数192、Layer14)に
比べてかなり小さいものですが、それでもplayoutより正確な値を出してる感じです。

セドル−AlphaGo戦の投了局面のValueNetとPlayoutの勝率

            AlphaGo                      Aya
        ValueNet     Playout       ValueNet   Playout
第1局      99%       74%              85%       78%
第2局      99%       80%              99%       88%
第3局      99%       86%              96%       88%
第4局      25%       30%              18%       29%
第5局      99%       99%              84%       91%

しかしAlphaGoのValueNetは正確ですね・・・。
AjaさんがValueNetが最重要だった、といった意味もうなずけます。
ほとんどValueNetの正確さだけで勝ってしまったような気がします。

AlphaGo Confidence Chart by David Silver
https://www.reddit.com/r/baduk/comments/4cgitz/alphagos_confidence_chart_for_the_5_games_david/



CGFオープン参加者募集  投稿者:荒木(ark) 投稿日:2016年 8月14日(日)02時38分20秒
CGF理事の荒木です。

CGFオープンの参加者募集を開始します。
今年(2016年)のCGFオープンは、
10月1,2日に開催することに決まりました。
種目は例年通り19路と9路の2部構成で、
場所もいつもと同じ電気通信大学西9号館3FのAVホールです。

参加希望の方はページにあるメールアドレス宛にメールを下さい。

・CGFオープンのページ
 http://hp.vector.co.jp/authors/VA012620/
・2016年CGFオープン、大会要項のページ
 http://hp.vector.co.jp/authors/VA012620/cgf2016/cgf2016.html

なお、GTPからNNGSへの変換スクリプトの新しいバージョンへのリンクが
上記のページにありますが、これは最新のバージョンのRubyでも動くように
したものです。

よろしくお願いします。



Re: Value net  投稿者:gg 投稿日:2016年 8月15日(月)11時37分45秒
>ほとんどValueNetの正確さだけで勝ってしまったような気がします。
この辺り,↓の分析が的確かと.
http://it.impressbm.co.jp/articles/-/13474
曰く,APV-MCTSでは、SL policy networkのボーナスによって、棋譜の頻出手を打つように強く重み付けられている。これによってValue networkが学習していない局面へと“脱線”していくことが防がれる。すなわちRollout policyとValue networkによって大局観と深読みという相反する強さを両立し、SL policy networkによってValue networkが力を発揮できる展開をキープする、という三位一体の戦略がAPV-MCTSの強さの秘訣と言えるだろう。



AyaZBotの不可解な手  投稿者:黒猫9 投稿日:2016年 8月17日(水)21時06分6秒
AyaZBotが141手目に自分の目を潰す手を打っていますね
これはバグなんでしょうか?
http://wars.fm/go13?lang=ja#game/y1gt5fq6hrz3



Re: AyaZBotの不可解な手  投稿者:gg 投稿日:2016年 8月18日(木)01時55分33秒
山下さんではありませんが,天頂6で解析したところ
勝率 100%の終局状態ということでパスを推奨されました.
Aya も勝率 100%なので適当な手を打っただけと思われます.



Re: AyaZBotの不可解な手  投稿者:山下 投稿日:2016年 8月19日(金)11時00分34秒
加藤さんのご指摘の通り、どこに打っても勝ちなので打っています。
Ayaは勝敗がほぼ確定したあとの着手があまりきれいではないです。



AyaZBotについて  投稿者:山下 投稿日:2016年 8月19日(金)11時47分17秒
囲碁クエストの13路で1週間前から動かしているAyaZBotですが
自己対戦だとPolicy Networkで+400、Value Networkで+150強くなったものです。
マシンはW3680 3.3GHz 6コア + GTX 980、で12スレッドで動かしています。
AyaXBotはルートノードだけ1回Policyを呼んで1万playout/1手、で
AyaZBotは約30万playout/1手でPolicyが4000回、Valueが6000回呼ばれます。

レートは±50ぐらいは簡単に変動するのですが現在の値だと

AyaXBot 以前     ディープラーニング後
9x9     2248      2344
13x13   2243      2403

AyaZBot
9x9     2466      ----
13x13   2361      2725

AyaXBotは9路で+100、13路で+150、AyaZBotは+360ほど強くなっています。
AyaZBotの自己対戦での上昇は+550なので、200ほど小さいです。

Policy NetworkはFilter128、Layer12で作った19路用の学習データをそのまま使っています。
Policyだけを使った場合、19路だと+600、13路で、+400、9路で+300ほど上がります。
(全ノードでPolicyを適用)
GoGoDの7万8000局の棋譜から1500万局面、それを8回転させて1億2千万局面から
学習させています。一致率は51%で1台のGTX 980で1ヶ月ほどかかりました。

13路のValueNetworkは(500playout+ルートノードだけPolicy1回)の自己対戦で100万局
させた棋譜から、1つの棋譜から16局面を取り出して約1600万局面で作成しています。
16局面は8対称に回転させています。1番目と9番目は同じ回転です。

Filterは32、Layerは11です。2月の時はAyaのplayoutの結果(500playoutして勝率63%、
なら0.63)を使っていたのですが、自己対戦の対局の結果をそのまま使った方が
強かったです。つまり16局面すべてに同じ値が設定されます。
このままだと初期局面は勝ち+1、と負け-1が50%で出現して誤差が大きいです。
ただ、80手目終了の最終結果が勝ち(+1)で40手目の局面を半分の(+0.5)にする直線近似をした場合、
誤差は下がるのですが、学習後の強さはほとんど変わりませんでした。
さらに直線でなく、二次関数で近似するとはっきり弱くなります。playoutの結果を使った場合も
はっきり弱いです。

13路のValueNetはコミは7.5で作ったので囲碁クエストのコミ7.0では少し性能が
悪くなっているかもしれません。
囲碁クエストで動いているAyaZBotは今月のKGS大会に参加したのと同じ構成で20コア+GTX 960の
Zenに3勝5敗でした。
http://www.weddslist.com/kgs/past/125/index.html
AyaZBot
http://wars.fm/go13?lang=ja#user/:ayazbot



Re: AyaZBotについて  投稿者:山下 投稿日:2016年 8月19日(金)12時03分5秒
深夜とかは対戦が組まれずにCPUとGPUが遊んでいることが多いので
下のようなシェルスクリプトを組んで、空き時間はCaffeの学習と自己対戦が
走るようになっています。
AyaZBotが12スレッドを使うのを10秒おきにチェックして他のプロセスを止めたり動かしたりしています。

$ ./idle.sh 23558 12574 12567 12571 12569 18342 29612
1min=7.23 , 7, (stop=8), 1min=7.23,  5min=6.72,  15min=6.82
cpu is idle. running 23558 12574 12567 12571 12569 18342 29612
1min=8.07 , 8, (stop=8), 1min=8.07,  5min=6.91,  15min=6.88
cpu is BUSY! stop 23558 12574 12567 12571 12569 18342 29612
1min=8.37 , 8, (stop=8), 1min=8.37,  5min=7.01,  15min=6.91
cpu is BUSY! stop 23558 12574 12567 12571 12569 18342 29612
1min=8.78 , 8, (stop=8), 1min=8.78,  5min=7.14,  15min=6.96

#!/bin/bash
while true ; do

up=`uptime | sed s/'.*load'/'load'/g`
w0=`echo $up | awk '{print $3}'`
w1=`echo $up | awk '{print $4}'`
w2=`echo $up | awk '{print $5}'`
w=`echo $w0 | tr "," " "`
wi=${w%.*}

pn=`expr $# + 1`
if [ $pn -eq 1 ]; then
  echo "one process is needed at least."
  exit
fi

echo "1min=$w, $wi, (stop=$pn), 1min=$w0  5min=$w1  15min=$w2"
if [ $wi -lt $pn ]; then
  echo -n "cpu is idle. running "
  sig="SIGCONT"
else
  echo -n "cpu is BUSY! stop "
  sig="SIGSTOP"
fi

num=1
while [ $num -le $# ] ; do
  eval pid=\$\{$num\}
  kill -s "${sig}" "${pid}"
  echo -n "$pid "
  num=`expr $num + 1`
done
echo ""

sleep 10s
done



(無題)  投稿者:黒猫9 投稿日:2016年 8月19日(金)12時17分6秒
ggさん、山下さん回答ありがとうございます。
山下さんの囲碁講習会のプログラムを見ると、プレイアウト時には自分の目に打たないので、自分の目には打たないものだと思い込んでいました。



(無題)  投稿者:黒猫9 投稿日:2016年 8月19日(金)12時47分26秒
AyaZBotは随分強くなったんですね
13路とはいえプロに勝つこともあるのはほんとに驚きです
残念ながら勉強不足でディープラーニングのことはさっぱり分かりませんが



Re: AyaZBotについて (idle.sh)  投稿者:内巻 投稿日:2016年 8月19日(金)17時08分41秒
わざわざ監視して切り替えなくても、nice/renice コマンドでプロセスの
優先度を低くしておけば、OSが自動的に遊休リソースを割り当ててくれる
と思うのですが、それではダメということですかね…。
SIGCONT/STOP ではなくプロセス自体を起動・終了させる必要がある場合なら、
自前で監視しないといけませんが。



Re: AyaZBotについて (idle.sh)  投稿者:山下 投稿日:2016年 8月19日(金)22時35分26秒
reniceで最低の19に設定はしているのですがGPUを使うcaffeが
GPUの負担もほとんど0にしてくれるのかよく分からなかったです。
止めてるほうが安心、というのはあります。
(それでもGPU内でメモリ消費してるのが影響しないか、とかよく分かっていません)



CUDA 7.5 と cuDNN 5.0  投稿者:山下 投稿日:2016年 8月20日(土)15時14分12秒
CUDA 7.0 と cuDNN 3.0 を使っていたGTX 980を
CUDA 7.5 と cuDNN 5.0 にバージョンアップしました。

1回の予測にかかる時間がFilter256, 128、どちらでもほぼ2倍近く速くなっています。

                  CUDA7.0+cuDNN3.0     CUDA7.5+cuDNN5.0
Filter256 Layer12     5.37ms                2.80ms
Filter128 Layer12     3.06ms                1.51ms
Filter 32 Layer11     0.98ms                0.60ms
(すべて19路、minibatch=1)

Filter256の構成は下で、3x3のFilterが10層と多いです。全Convolutionです。
256 5x5 x1, 256 3x3 x10, 1 3x3 x1
Filter128は256が128に減っただけです。
cuDNN 5.0 では3x3の計算が高速化されたそうで、それが効いているのかもしれません。

学習時間はほぼ似た構成のFilter128、L14の学習でminibatch128,100回が
25秒から16秒、と1.5倍速くなっています。

バージョンアップはかなり苦労したのですが、多分最終的には
CUDAを deb(network) からインストール、Caffeを再インストールしなおして
うまく動きました。
cuda_7.5.18_linux.run からインストールはうまくいきませんでした。

https://developer.nvidia.com/cuda-downloads
から deb (network) を選び
$ sudo dpkg -i cuda-repo-ubuntu1404_7.5-18_amd64.deb
$ sudo apt-get update
$ sudo apt-get install cuda
再起動



cudnn スピードテスト  投稿者:HiraBot 投稿日:2016年 8月23日(火)04時47分3秒
DCNN 計算に cudnn を取り入れて速度を測定しました
net は 3x3-128-11層 + 3x3-1-1層  です(No211)

cublas  (windows, GTX960)  3.3ms
cudnn-v3(windows, GTX960)  2.14ms
cudnn-v5(windows, GTX960)  1.35ms

cudnn を使用することで 2.4倍に速度が向上しました
HiraBot3 も cublas から cudnn-v5 に乗り換える予定です



Winograd アルゴリズム  投稿者:gg 投稿日:2016年 8月24日(水)02時10分22秒
cuDNN v5.0 で 3x3 の畳み込みが 2倍速くなったのは Winograd アルゴリズムを
使っているからです.論文は https://arxiv.org/abs/1509.09308
これを使った上で内部の行列乗算に cuBLAS を使うのが(普通レベルで)最速ですが,
最近 Intel に買収された NervanaSystems の Neon は,さらに Maxwell の
アセンブラを使って一割前後速くしたとか.Scott Gray さんは半端ない.
#GPU ではなく CPU での計算を高速化したければ自分で実装するしか...



Zen19K 9d?  投稿者:gg 投稿日:2016年 8月27日(土)23時01分34秒
Computer Go ML で紹介されていたのですが,
Zen19K が公式戦 23勝 1敗と,KGS 初の 9d bot を目指して
驀進してます.



value network  投稿者:HiraBot 投稿日:2016年 8月28日(日)23時48分54秒
value network の学習を開始しました、学習局面は KGS の棋譜から採用し
勝率データは平塚の囲碁 3000playout で作成しています、データ数は 1400万局面です
net は 2種類学習しました、No280 と No290 です
No280 : 3x3-32-11 + 全結合層-1、 No290 : 3x3-32-11 + 全結合層-500 + 全結合層-1
value net の計算時間は cudnn-v5 + GTX960 にて No280:0.75ms、No290:0.95ms でした
グラフは学習 epoch 数 vs loss です、loss の値は 0.0027 程度になりました
loss は caffe の EUCLIDEAN_LOSS で勝率の値は 0〜1 の範囲です
グラフを見ると No290 の方が明らかに良いです、全結合層は 2層が良いようです



Re: value network  投稿者:山下 投稿日:2016年 8月29日(月)00時59分58秒
詳細な情報ありがとうございます。

AyaのValueNetは19路では
32 5x5 x1, 32 3x3 x7, 32 1x1 x1, 全結合 256, 全結合 1
という構成です。

Ayaは19路ではGoGoDとKGSの4dの棋譜を使って作成しています。
ただ、棋譜の結果、のみを利用しています。
(コミ7.5や6.5の中押しは棋譜の結果を信用し、地合勝負の場合は最終局面の
Ayaの判定と一致すればOKで)

9路でのValueNetですが、ここの局面のplayoutの結果は使うよりは、
(自己対戦の)棋譜の結果のみ、を使ったほうが成績がよかったです。
1棋譜から16局面取り出すなら16局面にすべて同じ値をつけます。

自己対戦での「ValueNetあり - なし」の勝率

0.66 棋譜の結果のみ
0.64 棋譜の結果のみ、直線近似
0.56 棋譜の結果のみ、三次近似
0.66 棋譜の結果のみ。すべての層で半分をdropout
0.57 局面ごとのplayoutの結果を利用

なので、今のAyaも19路では棋譜の結果のみを使っています。
いろいろ試行錯誤したのですが、結局AlphaGoの論文のやり方が
かなり正確だと感じています。
彼らは相当な試行錯誤をしているはずです。



Re: value network  投稿者:gg 投稿日:2016年 9月 2日(金)00時07分49秒
HiraBot さん,棋譜一つから何局面使ってますか? Caffe の誤差と Nature の
とがどう違うのかが分からないのではっきりしたことは言えないのですが,誤差
が小さ過ぎる(Nature のより一桁小さい)ように思えます.これは,論文にある,
局面の相関が高い時の現象と似ていませんか?



Re: value network  投稿者:山下 投稿日:2016年 9月 2日(金)04時21分48秒
個々の局面のplayoutの結果をそのまま学習させた場合、私も
同じように誤差が小さくなります。

棋譜の結果(+1.0 か   -1.0)  学習前loss 0.50  学習後 0.369(F128) 0.37  (F32) 19路
棋譜の結果(+1.0 か   -1.0)  学習前loss 0.50  学習後             0.41  (F32) 13路
棋譜の結果(+1.0 から -1.0)  学習前loss 0.14  学習後             0.08  (F32) 19路 直線近似
playout   (+1.0 から -1.0)  学習前loss 0.034 学習後             0.014 (F32) 9路
棋譜の結果(+1.0 から -1.0)  学習前loss 0.036 学習後             0.0208(F32) 9路 三次近似

loss はTEST lossです。



value network 2  投稿者:HiraBot 投稿日:2016年 9月 2日(金)11時02分50秒
No290 の value net をプログラムに入れたのですが大幅に弱くなってしまいました
プログラムの問題か value net の性能不足かを調べるためデータを取りました
下記の局面では playout-value は No.1-2 が大きくて No.3-4 が小さいのですが
No290 の value net の値は逆になっています、value net の性能不足と考えて
学習を更に行うことにしました、現在学習データを作成中です。

黒番 ----------------------------------------------
      po     290    games
No.1  0.486  0.408  174734
No.2  0.485  0.394  32525
No.3  0.475  0.432  16401
No.4  0.455  0.444  13039
No.5  0.468  0.435  11451

   1 2 3 4 5 6 7 8 910111213141516171819
1 ┌┬┬┬┬┬┬┬┬┬┬┬┬┬┬┬┬┬┐
2 ├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
3 ├┼┼┼┼┼┼┼┼┼┼┼┼┼┼●┼┼┤
4 ├┼┼●┼●┼┼┼・┼┼┼┼┼・┼┼┤
5 ├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
6 ├┼○┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
7 ├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
8 ├┼○ 1┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
9 ├┼○●○┼┼┼┼┼┼┼┼┼┼┼┼┼┤
10├┼●○●┼┼┼┼・┼┼┼┼┼・┼┼┤
11├┼┼○●┼┼┼┼┼┼┼┼┼┼┼┼┼┤
12├┼●○○●┼┼┼┼┼┼┼┼┼┼┼┼┤
13├┼┼● 4 5┼┼┼┼┼┼┼┼┼┼┼┼┤
14├○○●┼ 3┼┼┼┼┼┼┼┼┼┼●┼┤
15├●●○○┼┼┼┼┼┼┼┼┼┼┼┼┼┤
16├┼○●○ 2●┼┼○┼┼┼┼┼●┼┼┤
17├┼○●●┼○○┼┼┼┼┼○┼┼┼┼┤
18├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
19└┴┴┴┴┴┴┴┴┴┴┴┴┴┴┴┴┴┘



Re: value network  投稿者:HiraBot 投稿日:2016年 9月 2日(金)11時19分27秒
gg さん、1棋譜から 10局面取り出し 8回転していますから 80局面です
確かに多すぎるように思います。



value network 3  投稿者:HiraBot 投稿日:2016年 9月 3日(土)06時17分27秒
山下さんに質問です

>Ayaは19路ではGoGoDとKGSの4dの棋譜を使って作成しています。
>ただ、棋譜の結果、のみを利用しています。

置き碁の場合、コンピュータどうしでは黒番の勝が多いと思うのですが
人の対局では白番の勝が多くなってしまうと思います
人の対局データで結果のみ使用して学習すると間違った学習をしてしまうと
思うのですが、どうなのでしょうか?



Re: value network 3  投稿者:山下 投稿日:2016年 9月 3日(土)08時19分17秒
置き碁の棋譜は除いています。
ただ、定先の棋譜は使っているので、白勝ちの方が多いかもしれません。
確認してみました。

 19路 黒勝率 0.418, komi 7.5,  3084万局面 GoGoD, KGS 4d以上, tygem, 500自己対戦
 13路 黒勝率 0.485, komi 7.5,  1679万局面 500playout 自己対戦
  9路 黒勝率 0.514, komi 7.0,  3376万局面 2000playout 自己対戦(持碁は0.5勝扱い) 黒勝=15175688, 白勝=14185072, 持碁=4403136

19路、ひどいですね・・・。
これは相当ダメそうです。
KGSの棋譜で白勝ちを少し削って黒勝率が0.48程度になるように調整しないとダメかもしれません。



Re: value network 3  投稿者:HiraBot 投稿日:2016年 9月 3日(土)10時20分47秒
山下さん有難うございました
置き碁の棋譜を除いた value net で置き碁を計算したら正しく計算するのでしょうか。



Re: value network 3  投稿者:山下 投稿日:2016年 9月 3日(土)23時48分11秒
置き碁の開始局面のValue Netの勝率

          F32 L11   F128 L14
初形 黒番  1.000     1.000
2子  白番  0.230     0.303
3子  白番  0.545     0.617
4子  白番  0.705     0.771
5子  白番  0.828     0.870
6子  白番  0.881     0.917
9子  白番  0.979     0.928

値の範囲は黒勝ち(+1.00) 〜 互角(0.00) 〜 白勝ち(-1.00)です。
初形の値が黒勝率100%(+1.00)になっているのは、初形の局面(石が何もない)は
学習させてないためと思われます。

F128、と大きなネットワークの方が勝率が高めに出ているようです。

開始局面の勝率を見た感じでは置き碁でもそこそこ正しい値を出してくれるような気がします。
もっともコミが7.5と0.5でかなり違うので、作り碁になったらひどい結果になりそうな気もしますが・・・。
Detlefさんとかはコミの数も入力として与えている、とか話してたような気がしますが
うまく行っているかどうかは分かりません。



Re: value network 3  投稿者:HiraBot 投稿日:2016年 9月 4日(日)06時32分35秒
KGS の棋譜で結果のみ使用して学習してみようと思います。



null_move枝刈りと、futility cut のやり方  投稿者:木口小平、改めMZ-SOFT 投稿日:2016年 9月 4日(日)10時30分35秒
お久しぶりです。一年半の精神病院からの入院から帰ってきました。またよろしくおねがいします。

象棋(中国将棋)を作っています。null move 枝刈りとfutility cut を組み込みたく、いろいろなサイトを探したあげく、画像にあるようなソースコードを見つけたのですが、null move 枝刈りの中にあるdoNullと、futility cutにあるEXT_F_MARGINとは何なのでしょうか?

助言をおねがいします。

http://blogs.yahoo.co.jp/mz_700_1500



Re: null_move枝刈りと、futility cut のやり方  投稿者:うさぴょんの育ての親 投稿日:2016年 9月 4日(日)15時39分23秒
doNullは、nullMoveを2回連続して行わないようにフラグとして使っているはずです。
(このコード例だと何かやり方が私と違うみたいですが。)

EXT_F_MARGINは、この局面で評価してみて、β+EXT_F_MARGIN以上の値が帰って来るのなら、それ以上探索しないで値を返すのですが、EXT_F_MARGINを大きくし過ぎると枝刈の効果が出ない&小さくし過ぎると誤った枝刈が起きるので、自分のプログラムに関して、値を変えて実験するなり、これから(静止探索等含めて)取られてしまう可能性のある駒の価値などを反映して設定する必要があります。

nullMoveは比較的簡単ですが、EXT_F_MARGINの設定は結構難しいです。(将棋の場合、飛車の価値×2位を設定するとかなり安全ですが、そこまで大きく設定してしまうと枝刈がほとんど起きなくなります。)



ありがとうございます!  投稿者:木口小平、改めMZ-SOFT 投稿日:2016年 9月 4日(日)17時06分59秒
『うさぴょんの育ての親』さんが来てるということは、あっちの掲示板に書き込めばよかったかな?
ありがとうございました。
http://blogs.yahoo.co.jp/mz_700_1500



value network 4  投稿者:HiraBot 投稿日:2016年 9月10日(土)16時32分38秒
KGS 4d の棋譜で結果のみ使用して学習しました、100万局程度の棋譜から互先と定先を使用し
7手毎に局面を取り出して 1700万局面になりました
ネット構成は No291: 3x3-32-11層 + 全結合層-500 + 全結合層-1, グラフは loss vs epoch です

山下さんのデータに比べて勝率が 1 or 0 で半分なので loss の値は 1/4 になる事が期待されます
山下さんのデータでは 19路の loss が学習後 0.37 となっていますから 1/4 にして 0.0925
それに対して私の学習では loss=0.1076 となりました、山下さんのより大幅に悪いです
ネット構成は山下さんの F32 より大きいネットなので問題ないと思います
学習データの局面が少ないか質が悪いかもしれません
そこで新しい学習データを作るため DCNN の自己対戦を行っています、1日に 10万局作れます
いささか乱造の気配が有りますが 100万局作って結果のみ使用で学習しようと思います



Re: value network 4  投稿者:山下 投稿日:2016年 9月10日(土)17時52分3秒
lossが学習前から10%程度しか落ちてないのはちょっと精度が悪い気がします。
棋譜のシャッフルはされてますか?
私は棋譜の順番を全部並び替えた後、学習局面を20000局面ずつ作って
シャッフルしてLevelDBに格納しています。

AlphaGoの論文では

      KGSの棋譜で失敗  RLで作成
Test Loss   0.37                0.226
Train Loss  0.19                0.234

となっていて、同じ比較をしていいのか分かりませんが
私の0.50から0.37、というのもかなり悪いと思ってます。
13路ではF32で0.41、F64で0.41とほぼ同じで
これで対局させた結果、棋力的にはF32とまったく互角でした(勝率0.48でF64がやや負け越し)。
ネットの大きさを4倍にしても性能が同じ、というのは学習データがまずいような気もします。

TEST lossですが、

ValueNet「あり」の「なし」に対する勝率
13路 0.74     TEST loss 0.41(F32)
19路 0.67     TEST loss 0.37(F32)
(棋譜の結果 +1.0 か -1.0のみ、を学習)

だったのでTEST lossの大きさが勝率に比較できるわけではなさそうです。

やはり同じ棋譜から16局面とか取り出しているのがいまいちのような気もしています。
論文のように、SLで50手ぐらい打たせて、そこから完全にランダムに1手打って、
その後からRLで打たせてデータを作る、というのをやってみないといけないかもしれません。
時間がかかるので手強いのですが・・・。



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月10日(土)18時56分46秒
山下さんコメントありがとうございます
やはり精度が悪いですよね
学習データが一番疑わしいのでしょうか。



Re: value network 4  投稿者:gg 投稿日:2016年 9月11日(日)00時44分22秒
>7手毎に局面を取り出して
と言うのは(Nature の論文が正しいとすれば)論外でしょう.山下さんは
>同じ棋譜から16局面とか取り出しているのがいまいちのような
と書かれているように,相関が高い局面を何個与えても,
(学習データとしては) 一サンプルの役割しか果たしません.
Value network が「何を」学習する必要があるのかを考えて下さい.



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月11日(日)08時00分16秒
gg さんコメントありがとうございます
7手毎に局面を取り出し回転していますから 7x8 = 56手毎に同じ回転の局面が現れます
56手毎なら何とか学習できないかと思ったのですが、ダメなのかもしれません
今日の内にも DCNN 自己対戦 100万局が出来ます、手数 250手以下から取り出すと
15手毎でも 1600万局面になり学習に必要な局面数になると思います
更に DCNN 自己対戦を続ければ 200万局くらいにはなると思うので
31手毎に局面を取り出すこともできるようになると思います。



Re: value network 4  投稿者:gg 投稿日:2016年 9月11日(日)09時11分33秒
Value network は,任意の局面の勝率を学習しなければなりません.
囲碁の局面数の多さを考えれば,高々数千万程度のサンプルから実戦に
現れるほぼ全ての局面に対して,ほぼ正しい勝率を学習できることは驚
異的です.この意味で,先にも書いたように,相関が高い局面をいくつ
与えても実質一サンプルにしかなりません.この場合回転云々は関係あ
りません.情報量の問題です.



AlphaGoの自己対戦の棋譜解説  投稿者:山下 投稿日:2016年 9月12日(月)23時26分30秒
セドルとの5局と、自己対戦の3局の解説つき棋譜が公開されてます。
解説はFanHui2段や中国の古力プロなどです。

自己対戦の最初の2局は1手5秒で、3局目は1手2分です。
2局目は大石をしとめて死活も強い、と主張しています。
https://deepmind.com/research/alphago/



goguiへのコマンド入力  投稿者:nlp 投稿日:2016年 9月14日(水)05時48分57秒
 大変ご無沙汰いたしております。
 さて手入力での対局のために、実行プログラムをgoguiに登録しようとしたのですが、メニューから「プログラム」→「新規プログラム」として、コマンドを入力しても「囲碁プログラムが予期せず終了しました。」のメッセージが出て登録できません。gogui-twogtpを用いればこの実行プログラムは動作しているので、どこに問題があるか特定できず困っているのですが、チェックすべき点がありましたら教えていただければ幸いです。



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月14日(水)13時15分30秒
DCNN 自己対戦 100万局を使用して学習してみました
山下さんの F32 を真似したネットで学習しました
No301: 5x5-32-1 + 3x3-32-7 + 1x1-32-1 + 全結合層-256-1
グラフは KGS 4d と DCNN の loss vs epoch です

KGS 4d 棋譜   : 100万局程度のうち互先と定先のみ、7手毎に局面取り出し、1700万局面
DCNN 自己対戦 : 100万局の互先局、250手以下 15手毎に局面取り出し、1600万局面

両者の loss はほとんど同じでした、7手毎に局面を取り出していたのを 15手毎に
改善しても loss が良くならないのは他に原因が有ると思われます
考えてみたのですが分からないので、また新しいデータを用意して学習しようと思います



Re: goguiへのコマンド入力  投稿者:荒木(ark) 投稿日:2016年 9月14日(水)17時02分34秒
nlpさん

荒木です。
goguiのエラーメッセージは「ツール」→「GTPシェル」から見られる場合も
多いので、まずはそこを確認してみてください。



Re: goguiへのコマンド入力  投稿者:山下 投稿日:2016年 9月14日(水)17時39分28秒
twogtpもgoguiも聞いてくるGTPコマンドは同じですね。
問題がありそうとすれば、
1. goguiの初期碁盤サイズが19路だとboardsize 19が来るので9路専用だと落ちる。
2. プログラムのカレントディレクトリが違っていてファイル読み込みで失敗
などでしょうか?

この現象、私も一度遭遇した記憶があるのですが何が原因だったか思い出せません。
goguiから起動させるときに、printfデバッグをファイルに書き出すようにして
落ちる場所を特定するとかでしょうか。

twogtp
<--protocol_version
<--name
<--version
<--list_commands
<--boardsize 9
<--clear_board
<--komi 6.5

gogui
<--name
<--protocol_version
<--version
<--list_commands
<--boardsize 19
<--clear_board
<--komi 6.5



Re: value network 4  投稿者:山下 投稿日:2016年 9月14日(水)17時58分29秒
もうDCNNで100万局作られたのでか!速いですね。
どちらもほとんど変わらないですね・・・。
250手をAlphaGoのように450手とすればlossはもう少し下がるような気もしますが
450手先の局面を学習させるメリットがいまいち分かってません。

入力層は何面使われてますか?
Ayaは50面(下のPolicy+手番)ですが、AlphaGoと同じ入力にしようかと思ってます。
後、直前に石が取られた場所、というのも与えてみようかと思ってます。

[Computer-go] DCNN can solve semeai?、
http://computer-go.org/pipermail/computer-go/2016-February/008606.html

値の範囲が+0から+1までで学習させてる、とのことですが
それだと最後のlossのtanhではなく、何か別のを使われているのですか?
私のネット構成はこちらで、値は-1から+1です。

[Computer-go] Value Network
http://computer-go.org/pipermail/computer-go/2016-March/008970.html



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月14日(水)18時27分21秒
>もうDCNNで100万局作られたのでか!速いですね。

KGS 2k の DCNN プログラムで 9日かかりました、2k では棋譜の質が悪いかもしれません

>入力層は何面使われてますか?

value net では単純にするため局面のみ与えています

>それだと最後のlossのtanhではなく、何か別のを使われているのですか?

tanh ではなくて sigmoid を使っています、参考までに prototxt ファイルを貼ります

name: "LogReg"
layers {
   name: "mnist"
   type: DATA
   top: "data"
   top: "label"
   transform_param {
      scale: 0.00390625
   }
   data_param {
     source: "../../../mnist_train_lmdb_21V-16D"
     batch_size: 100
     backend: LMDB
   }
   include: { phase: TRAIN }
}
layers {
   name: "mnist"
   type: DATA
   top: "data"
   top: "label"
   transform_param {
      scale: 0.00390625
   }
   data_param {
     source: "../../../mnist_test_lmdb_21V-16D"
     batch_size: 100
     backend: LMDB
   }
   include: { phase: TEST }
}

#this part should be the same in learning and prediction network
layers {
   name: "conv1_5x5_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "data"
   top: "conv2"
   convolution_param {
     num_output: 32
     kernel_size: 5
     pad: 2
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu2"
   type: RELU
   bottom: "conv2"
   top: "conv2"
}

layers {
   name: "conv2_3x3_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv2"
   top: "conv3"
   convolution_param {
     num_output: 32
     kernel_size: 3
     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu3"
   type: RELU
   bottom: "conv3"
   top: "conv3"
}

layers {
   name: "conv3_3x3_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv3"
   top: "conv4"
   convolution_param {
     num_output: 32
     kernel_size: 3
     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu4"
   type: RELU
   bottom: "conv4"
   top: "conv4"
}

layers {
   name: "conv4_3x3_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv4"
   top: "conv5"
   convolution_param {
     num_output: 32
     kernel_size: 3
     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu5"
   type: RELU
   bottom: "conv5"
   top: "conv5"
}

layers {
   name: "conv5_3x3_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv5"
   top: "conv6"
   convolution_param {
     num_output: 32
     kernel_size: 3
     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu6"
   type: RELU
   bottom: "conv6"
   top: "conv6"
}

layers {
   name: "conv6_3x3_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv6"
   top: "conv7"
   convolution_param {
     num_output: 32
     kernel_size: 3
     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu7"
   type: RELU
   bottom: "conv7"
   top: "conv7"
}

layers {
   name: "conv7_3x3_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv7"
   top: "conv8"
   convolution_param {
     num_output: 32
     kernel_size: 3
     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu8"
   type: RELU
   bottom: "conv8"
   top: "conv8"
}

layers {
   name: "conv8_3x3_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv8"
   top: "conv9"
   convolution_param {
     num_output: 32
     kernel_size: 3
     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu9"
   type: RELU
   bottom: "conv9"
   top: "conv9"
}

layers {
   name: "conv9_1x1_32"
   type: CONVOLUTION
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv9"
   top: "conv10"
   convolution_param {
     num_output: 32
     kernel_size: 1
#     pad: 1
     weight_filler {
       type: "xavier"
       }
       bias_filler {
       type: "constant"
       }
     }
}

layers {
   name: "relu10"
   type: RELU
   bottom: "conv10"
   top: "conv10"
}

layers {
   name: "ip1"
   type: INNER_PRODUCT
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "conv10"
   top: "ip1_zw"
   inner_product_param {
     num_output: 256
     weight_filler {
       type: "xavier"
       }
     bias_filler {
       type: "constant"
       }
    }
}

layers {
name: "relu13"
    type: RELU
    bottom: "ip1_zw"
    top: "ip1_zw"
}

layers {
   name: "ip2"
   type: INNER_PRODUCT
   blobs_lr: 1.
   blobs_lr: 2.
   bottom: "ip1_zw"
   top: "ip_zw"
   inner_product_param {
     num_output: 1
     weight_filler {
       type: "xavier"
       }
     bias_filler {
       type: "constant"
       }
    }
}

layers {
  name: "sig12"
  type: SIGMOID
  bottom: "ip_zw"
  top: "ip_zw"
}

layers {
  name: "pow"
  type: POWER
  bottom: "label"
  top: "label"
  power_param {
    power: 1
    scale: 0.001
    shift: 0
  }
}

layers {
  name: "loss"
  type: EUCLIDEAN_LOSS
  bottom: "ip_zw"
  bottom: "label"
  top: "loss"
}



Re: goguiへのコマンド入力  投稿者:nlp 投稿日:2016年 9月14日(水)23時15分56秒
荒木様、山下様
 早速のご教示ありがとうございました。
 幸い「ツール」→「GTPシェル」にエラーメッセージが出ており、libcublas.7.5.dylibとlibcurand.7.5.dylib が読み込めないとのことで、twogtpとgoguiでパスの指定の仕方が違うのか詳細は私にはわかりませんが、とりあえずは/usr/local/libに2つのdylibをコピーしてgoguiでも動作することができました。大変助かりました。



Re: value network 4  投稿者:gg 投稿日:2016年 9月15日(木)02時44分25秒
>450手先の局面を学習させるメリットがいまいち分かってません。
CGOS的な最終局面だと400手は必要でしょう.劫争いが長引いた場合を
考えると(多めに見積もって)450手になるかと.VN が学習するには
スコアに関係する点,中国ルールの場合(盤上に存在する)石と,同じ色の石で
囲まれた空点を認識しなければなりません.前者は簡単ですが,後者は若干
難しくなります.CGOS的な最終局面は,この点で最も学習し易い局面なのです.

>value net では単純にするため局面のみ与えています
これは無茶です.PN より遥かに難しいのですから,できれば PN より多くの
特徴(死活情報とか)を与えたい位なのに.



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月15日(木)06時39分9秒
>CGOS的な最終局面は,この点で最も学習し易い局面なのです

450手以下の手を取り出して学習してみます

>PN より遥かに難しいのですから,できれば PN より多くの特徴(死活情報とか)を与えたい位なのに.

入力層のデータに色々入れて試してみようと思います



Re: value network 4  投稿者:山下 投稿日:2016年 9月15日(木)07時59分46秒
> CGOS的な最終局面だと400手は必要でしょう.劫争いが

実際、360手を超えたぐらいでplayout自体が間違う局面はまれな気がします。
平均手数は220手程度なのに、出現確率が低い300手や400手後の局面を
学習させるのはより重要な50手、100手の局面の精度に悪い影響を
与えると思います。

彼らが450手までやってるので、実は400手後の判定が100手ぐらいにいい影響を
与えるのかもしれませんけど・・・。

> 入力層のデータに色々入れて試してみようと

Ayaより誤差が大きかったのは入力面の少なさだけな気がきがします。



Re: value network 4  投稿者:山下 投稿日:2016年 9月15日(木)08時08分41秒
それとさっぱり分からないのが
1. SLで(1手から450手までの乱数)でn手目まで打つ
2. 完全にランダムで1手打つ(n+1手)
3. n+2手からRLで終局まで打つ(n+1手後の局面を学習させる)

なぜ 2. が必要なのか、ということです。
完全に出現したことがない局面を作るためなのか、絶妙手を
たまに打たせたいのか。実際はランダムに1手は大悪手がほとんどだと思います。

それとRLで最後まで打たせるにしても眼の判定やセキの判定は別個に
入ってるはずで、論文に書かれてない細かい工夫はかなりあるような気がします。



Re: value network 4  投稿者:gg 投稿日:2016年 9月15日(木)11時33分39秒
>学習させるのはより重要な50手、100手の局面の精度に悪い影響を
>与えると思います。
悪影響を与えるかどうかは何とも言えません(直観的には多分ほとんど影響しない)が
問題は学習の進展です.先に書いたように,終局直前の局面は比較的学習し易いので,
スコアの計算方法が学習されます.まだ駄目がたくさんある局面は,将来どうなるかを
(確率的に)予測することになりますが,この前提として,スコアを正しく計算できる
必要があります.#これは個人的な仮説で,確認したわけではありません.
また,学習させると後ろの層の重みも変化しますから,これが常に正しくスコアを計算
するように維持させるには,終局状態の局面も与え続ける必要があると思います.

>なぜ 2. が必要なのか
これは PN が打たない手を学習させるために必要と思われます.効率は非常〜〜に悪いと
思いますが.最近,Aja が第四局の割り込みにも対応できるようになったと言ってますが,
これのお陰の可能性が高い.



Re: value network 4  投稿者:gg 投稿日:2016年 9月15日(木)16時48分42秒
>2k では棋譜の質が悪いかもしれません
悪いと思います.棋譜の生成には(多分)使い物にならないでしょう.
>眼の判定やセキの判定は別個に
と山下さんも書かれていますが,この PN-RL にはかなりの性能が必要です.

元々,後半に PN-SL ではなく PN-RL を使うのは,棋譜に現れてない手を
「正しく」終局まで打たせるためですから.例えば,中手で死んでる石を
打ち上げるとか,攻め合いで負けてる(以下同文).これができない
レベルの PN-RL では使い物になりません.



Re: value network 4  投稿者:nn 投稿日:2016年 9月15日(木)18時50分39秒
450手のうちどこかでランダムに1手打つということは
半数近くは勝敗に関係ないところでランダムに1手打っているということですかね



Re: value network 4  投稿者:gg 投稿日:2016年 9月15日(木)22時34分47秒
>半数近くは勝敗に関係ないところで
その手が勝敗に関係するかどうかはどうでも良いのです.
VN が学習したことがない局面を減らすためですから.



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月17日(土)12時06分39秒
学習した VN が以前より良くなったように思えたので
VN を評価関数に使った minimax 探索プログラムを作って
PN と対戦した、PN は No211(KGS 2k) で PN で読んだ手をそのまま打ちます
minimax は PN(No211) で手を選択し上位 4箇所を深さ 5まで打ちます
そこで VN(No291-14E) を評価関数にして点数付けして minimax 探索します

対戦結果は minimax の  17勝 9敗 勝率 65% でした

勝率 65% あるので一応 VN として働いていると思います
グラフは VN 学習時の loss vs epoch です、loss の値から分かるように
勝率は平塚の囲碁 1000playout で作成しています
VN も良くなったと思い平塚の囲碁に入れたのですが非常に弱くなって
しまいました、入れ方は UCB の計算式に下記のように入れたのですが
これではダメなのでしょうか

UCB = (Vuct + VN)/2 + C*sqrt(log(Nall)/Nuct)



Re: value network 4  投稿者:gg 投稿日:2016年 9月17日(土)19時46分34秒
ベンチマークは,playout 数固定と時間固定のどちらでやりましたか?
GoGui 辺りを使って,局面毎の Vuct と Vvn の値を見られるように
しては如何でしょう? 何が間違ってるのか分かると思います.あるいは
単にログファイルに吐き出すだけでも良いかも.



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月17日(土)23時14分41秒
gg さんコメントありがとうございます

ベンチマークは 1秒固定で行いました、勝率 10% 程度でした
色々試して調べてみます



Re: value network 4  投稿者:山下 投稿日:2016年 9月18日(日)05時44分12秒
> UCB = (Vuct + VN)/2 + C*sqrt(log(Nall)/Nuct)

これは非同期で紹介されてる計算だと思うのですが、
私も非同期でこちらを試した限りでは

同期 対 非同期
0.55 (48勝39敗) 1手/1秒 12スレッド、13路

同期を超えられませんでした。
今の同期の仕様ではplayoutをした局面で、playoutの値とValueNetの値の平均勝率を
上に返しています。

if ( phg2->has_net_value ) {
 float v_org = phg2->net_value;
 float v = v_org;
 if ( v > +1.0 ) v = +1.0;
 if ( v < -1.0 ) v = -1.0;
 double v0 = (v + 1.0) / 2.0; // 黒勝ち +1.0, 黒負け 0,
 if ( col == 2 ) v0 = -v0;
 const float r = 0.5;
 double mix = r * win + (1.0-r)*v0; // win: 黒番 黒勝ち 1, 負け0,  白番 白勝ち 0, 白負け -1
 win = mix;
}



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月18日(日)08時26分9秒
山下さんコメントありがとうございます
現在 UCB 計算式に VN を入れる方式のベンチマークをやっています(速度の遅いのは無視しています)
次に山下さんの紹介された playoutの値と VN の値の平均勝率を返す方式を試します、有望そうですね



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月18日(日)15時24分41秒
自己対戦をしましたが良い結果は得られませんでした

playout 結果に VN を平均する方法では  10勝 37敗 勝率 21%  でした
1手/1秒 8スレッド、19路

プログラムは単純なので間違いようがないと思うので
この結果は VN の性能不足だと思います



Re: value network 4  投稿者:gg 投稿日:2016年 9月18日(日)15時56分19秒
>ベンチマークは 1秒固定で
これだと VN を使って遅くなった分弱くなりますから,
VN を評価したければ playout 数固定の方が良いと思います.



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月19日(月)01時02分39秒
1秒固定で行うと、VN ソフトは playout 数が半分くらいになりました
playout 数固定にすれば VN の playout が 2倍になるわけですから
勝率がもう少し良くなると思いますが、21% が 50% になるとは思えません

また VN の学習をやろうと思います
1.入力層データを増やす
2.学習データのシャフルを強化する
3.新しい学習データを作成する



Re: value network 4  投稿者:gg 投稿日:2016年 9月19日(月)09時50分52秒
>21% が 50% になるとは思えません
一般論ですが,こういう決めつけは危険です.



Re: value network 4  投稿者:zakki 投稿日:2016年 9月20日(火)22時22分33秒
はじめまして

ip1のパラメーターが19*19*32*256でだいぶ自由度高いですが汎化うまくいきますか?
似たようなモデルを手元で試すとtrain lossだけ減ってtest lossが全く減りません。
#caffe使ってないのでprototxt読み間違えていたらすみません



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月21日(水)06時05分34秒
zakki さん、はじめまして

test loss が減らない原因として学習データが少ないか lr(ラーニングレート)
の設定が不適切であることが考えられます
学習データは 1000万局面程度あれば大丈夫だと思います(似た局面は除くらしい)
lr は value が 1 or 0 の 2値の場合と playout で求めた連続値の場合で異なりました

2値の場合、momentum=0.9 lr=0.02 (momentum=0 なら lr=0.2 だと思う) くらいでした
連続値の場合、momentum=0.9 lr=0.1 くらいでした

value が -1〜1 の場合は lr は小さくなると思われます (たぶん 1/4 になると思う)
私の学習はあまりうまくいっておらず、2値の場合は loss が 14% くらいしか減りません
山下さんの場合は 26% 減っており大分差があります



Re: value network 4  投稿者:山下 投稿日:2016年 9月21日(水)11時21分22秒
私は momentum=0.9 で lr=0.01、400000 か 800000 iterationでlrを半分にしています。
lr=0.0003125、ぐらいまで繰り返してます。lr=0.000625、以下ではほとんど動きませんが。
ミニバッチは128から512ぐらいです。

学習の初期は結構失敗しています。
フィルターが128と少し大きめのときは、traing、test、ともにまったく下がらずに
5000 iterationたってもまったく進みません。
止めて、何度か最初からやり直すとうまく収束を始めます。
30回ぐらい試してだめだったときは、層を6層とか浅くして無理やり学習を進めて
学習させたデータでFineTuningさせています。

test lossがまったく減らないならtestの学習データが間違っているのではないでしょうか?
もしくはシャッフルが足りないのかもしれません。
ディープラーニングの学習ではなるべく目新しい局面を与えるのが大事とのことです(下の本によると)。

深層学習 (機械学習プロフェッショナルシリーズ) 2015/4/8 岡谷 貴之
https://www.amazon.co.jp/dp/4061529021/



Re: value network 4  投稿者:zakki 投稿日:2016年 9月21日(水)21時06分28秒
ありがとうございます。

シャッフルしなおしたらtrainは滑らかに減るようになりましたがtestはいまいちです。
ネットワーク小さくしたりdropout導入すると精度が落ちる代わりに
trainにしたがってある程度testも小さくなるのでデータ自体は間違っていなくて
過学習起こしてるんじゃないかと思います。
KGSをもとにした30万局程度なのでデータ量だいぶ足りないですね。



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月22日(木)02時37分12秒
入力層の入力データに色々追加して試しました
グラフは入力面数 2 と 8 と 21 の 3種類のデータです
元になる sgf ファイルやネット構成は同じです

1.入力面数2
  局面  2面

2.入力面数8
  局面 3面(手番、相手、石無し)
  直前手
  2手前
  石取り
  石逃げ
  コウ

3.入力面数21
  局面 3面
  直前手
  2手前
  ダメ数データ 16面

入力面数8は面数2より悪いですこの理由はおそらく
石取り 石逃げ コウ はめったにデータが入らないため邪魔になるのだと思います
入力面数21は面数2より良くなりました、ダメ数データはいつもデータが入っており
役にも立っているのだと思います
少し良くなりましたがまだ山下さんには及びません
山下さんの入力データに興味が有る所です



Re: value network 4  投稿者:山下 投稿日:2016年 9月22日(木)07時16分18秒
> 局面 3面(手番、相手、石無し)

これはコミがあるので、(手番、黒、白)としないとまずい気がします。
私のは50面で手番1面、以外は下の通りです。

[Computer-go] DCNN can solve semeai?
http://computer-go.org/pipermail/computer-go/2016-February/008606.html

黒と白、は直接持たずダメ数だけで持たせています。
連の死活探索が入っているのと、昔のAyaの地合判定が入ってるのが大きな点でしょうか。

ただ、今ではAlphaGoの論文の通りの入力データの方が精度が出ると思っています。
論文の31ページ目で、全部0の面や全部1の面、とかがどういう効果があるのか
さっぱり分かりませんが何か魔法があるのでしょう・・・

Mastering the Game of Go with Deep Neural Networks and Tree Search
http://airesearch.com/wp-content/uploads/2016/01/deepmind-mastering-go.pdf



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月22日(木)09時39分29秒
山下さんありがとうございました

参考にさせていただきます



openmp の関数呼び出しの動作  投稿者:masatsune 投稿日:2016年 9月22日(木)22時59分30秒
こんにちは。

もしよろしければ教えてください。

思考部分をopenmp を使って並列化する場合に、
スレッド1で、func1() を呼び出し
スレッド2で、func2() を呼び出すとします。

func1() と func2() は同じ関数 func3()を使っています。

1)この時、func1() が func3() を実行している間は、
func2()が func3() を呼び出すのは抑制されるのでしょうか。
(func1()のfunc3()の実行終了後、func2()はfunc3()を呼び出す。)

2)それとも、func1()は、func3_1()を、func2() は func3_2()
が存在する様に同時に動作するのでしょうか。
(func3_1()とfunc3_2()は func3()と同じ関数。)

2)の場合に、func3()内部で宣言されているローカル変数は
上記のfunc3_1() とfunc3_2()で、同じ物としてあつかわれる
のでしょうか、それとも別の変数として扱われるのでしょうか。

使用している言語はC言語です。

C++ でも動作は同じでしょうか。

このような初歩的な質問ができるサイト等ありましたら
教えていただけると幸いです。

よろしくお願いします。



Re:openmp の関数呼び出しの動作  投稿者:都万 投稿日:2016年 9月23日(金)09時39分1秒
年寄りの古い知識だから、間違っているかもしれけど、・・・・・
それは、リエントラントの問題でしょ。
だから、マルチスレッドで動くモジュールはリエントラントに作らなければならないのは当り前の話でそうなっていればうまく動くし、そうなってなければ動かい、暴走するだけだろう。
一般にC言語の場合、リエントラントに作る必要があって、func3はリエントラントに作る。
つまり、違うスレッドが同じメモリをアクセスしないとか、戻り番地が同じメモリにないとか考慮に入れる必要がある。
C言語の場合、戻り番地はスタックエリアにあるので、スタックエリアが別々のスレッドにあれば問題がない。
メモリも固定値(定数)以外は、スタックエリアにあれば問題が生じない。
だから、そのように作ればいいが、それは難しい問題もある。

隠岐の場合は、そういう事を考えるとバカバカしいので、同じ動きをするDLLをスレッド数作って別々のスタックエリアでそれぞれのDLLを起動するようにしてる。
つまり、各DLLが違うスレッドメモリ内で動くのでメモリの競合が起きなく安全である。
ただ、それだけの話です。

そういう工夫をすれば、いいだけです。



Re: openmp の関数呼び出しの動作  投稿者:gg 投稿日:2016年 9月23日(金)10時59分33秒
スレッドの場合,スタック(ローカル変数の場所)は個別に,ヒープ(グローバル変数の場所)
は共通です.また,C や C++ に限らず,関数の実行を自動的に抑制する機構はありません.
そうしたければ自分でロックを掛ける(排他制御する)必要があります.つまり,func3() は
同時に二つ動き,この時,ローカル変数は別のものになります.



Re: openmp の関数呼び出しの動作  投稿者:masatsune 投稿日:2016年 9月23日(金)13時15分22秒
都万様、gg様 ご解答有難うございます。疑問が解消できたと思います。

別プログラムにするとデータの受け渡し量・頻度が多く効率的ではないため、同一のプログラム内でopenmp を使ってマルチスレッドにしようと思っております。

使用する全ての関数をスレッド分用意するのは大変で 変更時に修正忘れが起きそうなので、呼び出し頻度が少ない物は共通で使いたいと思っています。

同時に呼び出されて問題が発生する関数はロックを掛ける必要がある事を理解いたしました。
ローカル変数はスタック上に確保され(忘れていました)、別物として扱われるとの事なので何とかなりそうです。

有難うございました。



Re: openmp の関数呼び出しの動作  投稿者:gg 投稿日:2016年 9月23日(金)14時58分17秒
>使用する全ての関数をスレッド分用意する
OpenMP を使うにせよ,他のもの(pthread for C,
std::stread or boost::thread for C++) を使うにせよ,
↑は無意味です.コード(命令)は書き変わることがないので,
いくらでも再利用できますから.気にする必要があるのは(実行
時に)スレッド毎に異なる可能性ががあるものだけです.



Re: openmp の関数呼び出しの動作  投稿者:masatsune 投稿日:2016年 9月23日(金)16時39分57秒
gg 様
返信有難うございます。

以下の理解で合っていますでしょうか。

1)グローバル変数・static宣言された変数 に書き込みをする関数は
実行時に関数にロックをかけるか、スレッド毎に データ・関数を個別
に用意する必要がある。
(関数は自分のスレッド番号を参照し、使用するデータを切り替えれば
必須ではないと思いますが、簡便のため。)

2)グローバル変数・static宣言された変数からの読み出し、ローカル
変数への読み書きのみの場合スレッド毎に個別に用意する必要はない。

よろしくお願いします。



Re: openmp の関数呼び出しの動作  投稿者:gg 投稿日:2016年 9月24日(土)09時20分21秒
>1)グローバル変数・static宣言された変数 に書き込みをする関数は
>実行時に関数にロックをかけるか、スレッド毎に データ・関数を個別
>に用意する必要がある。
通常,関数全体にロックを掛けることはせず,排他制御する変数にアクセスする時だけ
ロックを掛けます.その方が並列度が上がりますから.また,ローカル変数は(そもそも
共有されないはずなので)排他制御する必要がないのは当然として,グローバルな変数
であっても,スレッド間で共有されてない,あるいは共有されていても排他制御の必要
が無いことはあり得ます.この辺りは,プログラムの内容・動作に依存するので,作者
にしか分からないことです.プログラムを並列化する場合,機械的に判断するのではな
く,自分でしっかり考えて,必要最低限のロックを掛けるようにしないと,手間の割に
性能が上がりません.また,単純なカウンタのようなものでしたら atomic を使う
方が性能が上がります.こちらもご検討下さい.



Re: openmp の関数呼び出しの動作  投稿者:masatsune 投稿日:2016年 9月24日(土)10時19分21秒
gg 様
丁寧な御説明有難うございます。大変勉強になります。

複数のCPUのプログラムカウンタが、プログラムの同じ場所
を指していても、プログラムはread only なので問題ない
という事ですね。(目から鱗状態です。)

以前に5x5の魔方陣を解くプログラムでOpenMPを使って以来
の2回目の並列化プログラムで、この時は動的なマシン&CPU
分散処理のためにOpenMPを使いましたが、データの共有が問題
になるような本格的な物は今回が初めてです。

強いプログラムを追及するというよりは、囲碁のプログラミ
ングを楽しみながら勉強できればと思っております。

この度は 貴重なお時間を割いていただきまして有難うござ
いました。

masatsune



Re: openmp の関数呼び出しの動作  投稿者:gg 投稿日:2016年 9月24日(土)16時22分21秒
>プログラムはread only なので問題ない
そのとおりです.クロック周波数の上昇がほとんど望めない今,
並列化は非常に重要な技術になっており,盛んに研究されてます.
細粒度では atomic,粗粒度では transactional memory なんて
ものもありますから,興味があればお調べ下さい.



来週の土日にCGFオープン  投稿者:山下 投稿日:2016年 9月24日(土)21時10分20秒
来週の10月1日(土)、2日(日)にCGFオープン(コンピュータ囲碁大会)が開催されます。
1日目が9路で2日目が19路です。
お気軽にご参加ください。観戦、見学も自由です。

現在の参加者は以下の通りです。
http://hp.vector.co.jp/authors/VA012620/cgf2016/list2016.html
CGFオープン2016
http://hp.vector.co.jp/authors/VA012620/cgf2016/cgf2016.html



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月25日(日)22時22分19秒
学習データを新しく作成した dcnn-No3(dcnn 自己対戦棋譜)にしたら一部良い結果が出ました

dcnn-No3 : 30手まで乱数を入れる、200手打ち切りで平塚の囲碁 1000playout にて勝敗決定
           31手から200手の間で 15手毎に局面取り出し、勝敗にて value 1 or 0

グラフは KGS 4d 棋譜と dcnn-No3 棋譜の比較です
ネット構成は同じです、入力層のデータ項目も同じです
dcnn-No3 の学習前 loss=0.125 学習後 loss=0.094 となりました、随分改善されました

playoutの値と VN の値の平均勝率を返す方式で平塚の囲碁に VN を入れて
4000 playout で自己対戦した所 24勝 30敗 勝率44%  でした
loss が大幅に減少しても自己対戦の結果が悪いのは意外でした、理由も全く分かりません



Re:来週の土日にCGFオープン  投稿者:荒木(ark) 投稿日:2016年 9月26日(月)00時07分50秒
荒木です。
CGFオープン2016の申し込みは締め切らせて頂きました。
ありがとうございました。
http://hp.vector.co.jp/authors/VA012620/cgf2016/list2016.html



Re: value network 4  投稿者:山下 投稿日:2016年 9月27日(火)05時42分3秒
dcnn-No3の方がはっきりとlossが小さいですね。
個人的には200手ぐらいの簡単な?局面が大量に含まれているせいかと思います。
AlphaGoの論文のlossが小さいのもこのせいかと。

自己対戦で結果がでないのは入力が以前のように「自分の手番の石、相手の石」だと
コミの分、ValueNetが白番では常に間違えた結果を学習しているせいだと思います。



Re: value network 4  投稿者:HiraBot 投稿日:2016年 9月27日(火)07時12分23秒
山下さんコメントありがとうございます

確かに定先で学習データを作っていますから互先の場合はコミの分だけ誤差が生じてしまいますね
新しく互先の学習データを作成し確かめてみようかと思います



CGFオープン9路結果  投稿者:荒木(ark) 投稿日:2016年10月 1日(土)17時16分17秒
CGFオープン運営担当の荒木です。
本日10月1日にCGFオープン9路部門が行われました。
ルールは、「中国ルール」、「コミ7.5目」、「持ち時間10分」、
「先後はジャンケンで決定」、「通信対戦でも手入力でも可」で行いました。
結果は
優勝:Negative Sleeper 7-0
準優勝:彩 6-1
3位(同率):nlp、勝也、(GnuGo3.7) 4-3
5位(同率):OKOJO、Deep Esper、ArgoCorse_IchiGo 1-6
でした。
対戦結果の表は以下の通りです。
                |1|2|3|4|5|6|7|8|
(1)彩           |-|O|O|O|O|O|X|O| 6-1
(2)nlp           |X|-|X|O|O|O|X|O| 4-3
(3)勝也          |X|O|-|X|O|O|X|O| 4-3
(4)GnuGo3.7     |X|X|O|-|O|O|X|O| 4-3
(5)OKOJO       |X|X|X|X|-|O|X|X| 1-6
(6)DeepEsper     |X|X|X|X|X|-|X|O| 1-6
(7)Negative Sleeper  |O|O|O|O|O|O|-|O| 7-0
(8)ArgoCorse_IchiGo |X|X|X|X|O|X|X|-| 1-6

明日も宜しくお願いします。



CGFオープン19路結果  投稿者:荒木(ark) 投稿日:2016年10月 2日(日)18時51分30秒
CGFオープン運営担当の荒木です。
本日10月2日にCGFオープン19路盤部門が行われました。
ルールは、「日本ルール」、「コミ6.5目」、「持ち時間30分」、
「スイス式5回戦+追加1回戦」、
「先後は組み合わせソフトで決定、但し最終局のみジャンケンで決定」、
「通信対戦のみ」で行いました。
結果は
優勝:彩 6-0
準優勝:Ray 5-1
3位(同率):nlp、Negative Sleeper 4-2
5位(同率):Kugutsu、勝也 2-4
7位:ArgoCorse_IchiGo 1-5
8位:DeepEsper 0-6
でした。
対戦結果の表は以下の通りです。
                                |1|2|3|4|5|6|7|8|
(1)彩                         |-|O|O|O|O|-|O|O| 6-0
(2)Ray                      |X|-|O|O|-|O|O|O| 5-1
(3)Kugutsu               |X|X|-|O|X|O|X|-|  2-4
(4)勝也                     |X|X|X|-|X|O|-|O| 2-4
(5)nlp                      |X|-|O|O|-|O|X|O| 4-2
(6)DeepEsper           |-|X|X|X|X|-|X|X| 0-6
(7)Negative Sleeper  |X|X|O|-|O|O|-|O| 4-2
(8)ArgoCorse_IchiGo|X|X|-|X|X|O|X|-| 1-5

皆さんどうもありがとうございました!、



Re: value network 4  投稿者:gg 投稿日:2016年10月 3日(月)07時09分26秒
>15手毎に局面取り出し
自己対戦の結果が悪いのはこれが理由だと思います.こんなに相関が強い局面では
loss が少ないのは当たり前で,Nature の論文でダメだった例として挙がっている
方法と同じことをやっています.Value network には相関がほとんど無い局面をた
くさん与えなければなりません.



回転、対称を学習  投稿者:山下 投稿日:2016年10月 3日(月)08時40分30秒
同一棋譜から取り出すことにどれくらい弊害があるかははっきりしたデータは
なく断定するのは危険だと思います。
15手ごとだとしても8回転が入るとすれば同一の回転は15*8=120手ごとにしか
現れません。
ValueNetでも8回転の盤面を入力して平均を取れば精度が上がるので
回転同一を識別する能力はそれほど高くないと思います。

下はPolicyNetの初形の確率ですが、明らかにプロが多く打つ右上だけを
候補に上げていて、回転はまったく学習していないです。
ちょっと面白いのは13路、9路に流用した場合、そっくり同じ確率が出てきます。

・・・これはGoGoDの8万局を8回転させた局面から学習させたのですが
4隅に均等に確率が出てないのはおかしいですね・・・。
学習データが間違ってたのかもしれません。
もしくは回転させない局面で学習させた後、回転局面で追加学習させたせいかもしれません。

19路  右上に打つ、としか学習されていない
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.55 0.36 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.03 0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

19路の学習データをそのまま流用した13路。右上の確率はほぼ一致
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.55 0.36 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.03 0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

19路の学習データをそのまま流用した9路。星と小目の確率は合計するとほぼ一致
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.01 0.00 0.00 0.00 0.00 0.00  星   0.46+0.07+0.02+0.02      = 0.57
0.00 0.00 0.01 0.02 0.02 0.46 0.25 0.00 0.00  小目 0.25+0.01+0.01+0.01+0.02 = 0.30
0.00 0.00 0.01 0.04 0.00 0.02 0.02 0.00 0.00
0.00 0.00 0.02 0.07 0.02 0.02 0.01 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00



Re: 回転、対称を学習  投稿者:gg 投稿日:2016年10月 3日(月)19時17分20秒
回転対称の問題と局面の多様性を同一に考えてはいけません.
需要なのは,十分多様な局面を与えることです.
>同一棋譜から取り出すことにどれくらい弊害があるかははっきりしたデータは
>なく断定するのは危険だと思います。
Nature の論文にはっきり書いてありますが,不十分だと? 彼らが明記している
以上,根拠なくそれを疑う理由はありません.実際に勝率が上がらないのなら,
まずそこを疑うのは当然でしょう.



Rn.0-4c on CGOS 19x19  投稿者:gg 投稿日:2016年10月 3日(月)19時28分26秒
CGOS の 19路の Rn.0-4c ですが,最後に死石を全部打ち上げずにパス
してしまうため,(特に Kugutsu に対する) 勝率が棋力を反映したもの
になっていません.他のプログラムのレートにも影響するので,できるだ
け早く直して下さい.



value network 5  投稿者:HiraBot 投稿日:2016年10月 3日(月)19時37分11秒
コミ 7.5目の学習データが出来たので入力データ項目に手番をいれて学習して自己対局しました
ネットは No299: 3x3-32-11層 + 全結合層-500-1、棋譜は dnn-No5 です、入力は下記の通りです

手番               2
局面               3
枠              1
直前手             2
石のダメ数         8
ダメ位置           8
打った石のダメ数   8
石数               8

playoutの値と VN の値の平均勝率を返す方式で平塚の囲碁に VN を入れて
3000 playout で自己対戦した所 47勝 44敗 勝率52%  でした

初めて勝率が 50% を超えて喜んでいます、しかし実用にするには同一時間で対戦して
勝たなければならないので先は長いですね



Re: 回転、対称を学習  投稿者:山下 投稿日:2016年10月 3日(月)20時54分36秒
> Nature の論文にはっきり書いてありますが,不十分だと?

論文では1棋譜の全ての局面を入力して(回転については書いてないですが)、
過学習してしまった、とあります。

AlphaGoの論文では

      KGSの棋譜で失敗  RLで作成
Test Loss   0.37                0.234
Train Loss  0.19                0.226

私が13路で試した結果では、

13路、1棋譜から16手取り出し。自己対戦の棋譜、100万局から。F32、14層
Test Loss   0.409274
Train Loss  0.390977

差は小さく過学習してるとは思えません。ネットが小さいせいもあるとは思いますが。
また、+150から+200Eloは強くなっています。
同一棋譜から16局面取り出しても、強くなることは確実です。
弊害がどの程度かは分かりませんが。



Re: Rn.0-4c on CGOS 19x19  投稿者:zakki 投稿日:2016年10月 3日(月)22時10分19秒
> CGOS の 19路の Rn.0-4c ですが,最後に死石を全部打ち上げずにパス

いったん止めました。



Re: Rn.0-4c on CGOS 19x19  投稿者:gg 投稿日:2016年10月 3日(月)22時48分21秒
>いったん止めました。
お手数掛けました (_ _).
CGOS はサーバがスコアを簡単に計算できるようにするために,
対局プログラム側で全ての死石を打ち上げ(盤から取り除か)
なければなりません.言い換えると,サーバは盤上の石は全て
活きているとみなして地合いを計算するので,本当は勝ってい
ても負けとなってしまいます.ちょっと面倒かも知れませんが,
死石を取り除く処理を追加して下さい.



KGSの月例のディビジョン  投稿者:gg 投稿日:2016年10月 3日(月)22時55分2秒
今度の月曜日の日本時間午前 1時から,KGS の 10月の月例コンピュータ
囲碁大会が開かれます.今回は 9路なので,9路で GNU Go に勝てるプロ
グラムは Formal division の方にエントリーして下さい.
と,Computer Go ML に主催者の Nick さんが書いてます.
>I would say, in a 9x9 tournament, being able to beat GNU Go at 9x9 is
>enough.
http://www.gokgs.com/tournEntrants.jsp?id=1078



Re: 回転、対称を学習  投稿者:gg 投稿日:2016年10月 3日(月)22時58分22秒
>ネットが小さいせいもあるとは思いますが。
13路というのも大きいと思いますよ.可能な局面の数が桁違いですから.



ディープラーニングで囲碁  投稿者:山下 投稿日:2016年10月 4日(火)01時16分26秒
ディープラーニングで囲碁のPolicyNet、ValueNetを作る際の
手順を大雑把ですが書いてみました。
http://www.yss-aya.com/deep_go.html



Re: value network 5  投稿者:HiraBot 投稿日:2016年10月 4日(火)06時57分56秒
VN を入れたソフトと元のソフトの 3000playout での自己対戦が勝率52% になったことは
御報告しましたがその後 1秒での自己対戦をしました(playout 数は 2倍程度異なる)

結果は  11勝 50敗 勝率18%  でした

まだ使い物にはならないようです
次は KGS 4d の棋譜を使用し勝敗判定に棋譜に残された結果だけでなく
平塚の囲碁 500playout コミ 7.5目でも読み、一致した棋譜のみ使用しようと思います



Re: ディープラーニングで囲碁  投稿者:gg 投稿日:2016年10月 4日(火)07時10分37秒
棋譜の入手先ですが,Baduk もあります.プロの 59,439棋譜,無料.
https://badukmovies.com/pro_games
Cuda は 8 が正式リリースされました.最新の Pascal(GTX 10xx
シリーズ)を使うにはこちらが必要です.
また,Caffe はちょっと古いので,速度重視なら Neon,機能重視なら
TensorFlow の方をお勧めします.



Re: ディープラーニングで囲碁  投稿者:gg 投稿日:2016年10月 4日(火)07時16分44秒
>B+Rなら黒勝ち (+1)、W+Rなら(-1)とします。
R は余計ですね,作り碁もありますから.また,T(時間)とか
F(ルール違反)は除いた方が良いでしょう.



Re: Rn.0-4c on CGOS 19x19  投稿者:gg 投稿日:2016年10月 4日(火)07時25分19秒
今度は劫の取返し違反で負けてます.CGOS は positional superko
を採用しています.これは日本式の劫と異なり,同一局面(手番無視)
は全て反復禁止とするルールで,通常 Zobrist ハッシュを利用して
実装します.両者が異なることは滅多にありませんが,KGS のトーナメ
ントもこちらを採用していますから,早目に直した方が良いでしょう.
http://senseis.xmp.net/?PositionalSuperko%2FExample



Re: ディープラーニングで囲碁  投稿者:masatsune 投稿日:2016年10月 4日(火)12時00分53秒
山下様

短時間での資料のアップロード有難うございます。
先日のCGFオープンの帰りに 参考図書にある「深層学習」を購入した所です。

昨日po中の乱数による着手確率を表示するようにしました。
(もっと早くに表示させるべきでした。)
結果、現在の手法ではだめな事に気がついたところです。

これからMM法を採用する理由もなく、DLに取り組む以外なさそうです。

初歩的な質問をする事もあるかとは思いますが、よろしくお願いします。



Re: ディープラーニングで囲碁  投稿者:gg 投稿日:2016年10月 4日(火)12時55分48秒
>これからMM法を採用する理由もなく、DLに取り組む以外なさそうです。
そんなネガティブな言い方をする必要はありません.
DCNN の方が遥かに簡単に高い性能が得られます.上手く
働けば(policy net だけでも)一気に 3d 位まで行くし.



Re: ディープラーニングで囲碁  投稿者:masatsune 投稿日:2016年10月 4日(火)15時35分41秒
gg 様

コメント有難うございます。

PC(Ubuntu16.04+GTX970)の準備をし、本を3冊買い、
ノウハウを公開していただき、リンクを教えていただいて、
何もしなけれは唯の怠け者ですね。

がんばります。



Re: ディープラーニングで囲碁  投稿者:囲碁ソフト使い 投稿日:2016年10月 4日(火)21時22分0秒
オープンソースの囲碁ソフトですが、大槻将棋の作者の方が作ったDeltaGoと
いうのもあります。ソースだけでなく講演資料とかもあって参考になります。

http://home.q00.itscom.net/otsuki/delta.html



Re: Rn.0-4c on CGOS 19x19  投稿者:zakki 投稿日:2016年10月 4日(火)21時54分41秒
もとになっているray 8.0.1 もたまにIllegalで負けてますね。
Zobrist Hash自体は他の用途で実装済みなのでスーパーコウにも流用可能か調べてみます。

darkforestはフィルタ数増やす方向のようですが、32〜64フィルタ程度でも
20〜40層あればKGS+GoGoDのデータセットで50%以上の一致率は確保できる割に
学習パラメーター数は少なくてすむので実行や学習が速くて楽っぽいです。



Re: Rn.0-4c on CGOS 19x19  投稿者:gg 投稿日:2016年10月 4日(火)22時31分51秒
>Zobrist Hash自体は他の用途で実装済みなのでスーパーコウにも流用可能か調べてみます。
Ray のは transposition table 用で,石の配置におまけ(劫の位置とか)が追加されていて
そのままは使えなかったように思います.
>32〜64フィルタ程度でも
>20〜40層あればKGS+GoGoDのデータセットで50%以上の一致率
40層というのは学習が結構大変そうですが,面白いデータですねぇ.



Re: ディープラーニングで囲碁  投稿者:山下 投稿日:2016年10月 5日(水)06時33分1秒
さっそくリンク追加しました。
大槻さんが作られていたのですね、ビックリしました。



層が深いネット  投稿者:山下 投稿日:2016年10月 5日(水)08時23分55秒
Alvaroさんは128x20層、64x20層、32x20層の合計60層で
GoGoDで52%が出た、と報告していましたね。
ResNet というショートカットを利用したネットだそうです。
Ayaは128x12層でGoGoDで51%でした。
CrazyStoneのRemiも、ショートカットを利用したフィルターは小さいが層が深いネットを
使っているそうです。

[Computer-go] Converging to 57%
http://computer-go.org/pipermail/computer-go/2016-August/009508.html



Darkforest が policy net の学習部を公開  投稿者:gg 投稿日:2016年10月 5日(水)09時10分40秒
http://computer-go.org/pipermail/computer-go/2016-October/009585.html
KGS の棋譜で 57.1%を GPU 4枚で 6.5日だそうです.



Re: 層が深いネット  投稿者:gg 投稿日:2016年10月 5日(水)22時19分47秒
>ResNet というショートカットを利用したネットだそうです。
Residual network というのは(実質的に)重みをゼロからでなく
1から始めるようにしたもので,ショートカットとは別の概念です.
論文では相補的(complementary)と表現してます.そして深い(論
文は数百層)ネットワークと組み合わせると非常に有効だそうです.
ついでにその理由ですが,重みの初期値をゼロ近辺の乱数にした非常に
深いネットでは,重みの組み合わせで入力がほとんどキャンセルされて
次層に伝わらなくなるという現象が起き,学習が遅くなることがあるの
で,初期値を(実質的に)1近辺から始めるのが有効だということです.



Amazon EC2 P2 Instances  投稿者:山下 投稿日:2016年10月 7日(金)14時18分11秒
最大16GPUまで利用可能なP2 Instanceが9月末に公開されたようです。
GPUはTesla K80、とのことで、GPU 8台搭載していたAlphaGoを
数だけなら抜く環境が簡単に試せそうです。

お値段はOregonで16GPUが1時間$14。スポットだと$1.44とかなり安く使えるみたいです。
ただスポットは普通3分の1ぐらいの価格なので、すぐ値上がりするかもですが。

Oregon
p2.16xlarge     $14.4 per Hour, Linux
p2.16xlarge     $1.44 per Hour, Linux

g2.8xlarge を使っていたときは、環境を g2.2xlarge で作成して、
そのAMIを動かしてました。P2も p2.xlarge で環境を作っておけば動くと思います。

Tesla K80は内部に2つ持ってるようで、実際は8台のGPUが刺さってるのでしょうか。
半分でもGTX 1080に匹敵する性能のようです。

NVIDIA GTX 1080 のDeep Learningにおける学習性能を比較
http://www.hpc.co.jp/benchmark20160610.html

Introducing Amazon EC2 P2 Instances, the largest GPU-Powered virtual machine in the cloud
https://aws.amazon.com/jp/about-aws/whats-new/2016/09/introducing-amazon-ec2-p2-instances-the-largest-gpu-powered-virtual-machine-in-the-cloud/



Re: Amazon EC2 P2 Instances  投稿者:gg 投稿日:2016年10月 9日(日)14時52分37秒
安藤さんの10月1日の記事
(http://www.geocities.jp/andosprocinfo/wadai16/20161001.htm)
の 2にも載ってますが,K80 の半分を単位として売っているようです.
速度に関しては,まだ確定的なことは言えませんが,囲碁の DCNN は
規模が小さいのでメモリネックになっている可能性が高いと思われ,
データを half float で持つようなことをしない限り,K80 の半分と
GTX 1080 1台はほぼ同等でしょう.なお,Google の GPU 8台は K80
が 8台という可能性も十分あると思います.



AyaもKGS Top100入り  投稿者:山下 投稿日:2016年10月12日(水)10時48分43秒
Zen19K2 がKGS 10.4dくらいになってKGSのトップになったのは先月でした。
他にもソフト打ちらしいハンドルが10個くらいあり、
Top100のうち20ぐらいはソフトが占めているかもしれません。

Ayaの場合は、半年前の対戦成績が考慮されなくなった?影響か、6dで勝ちまくった後
放置していたら、いつのまにか7dになっていました。
このAyaMCはXeon W3680 3.3GHz 6core に GTX 980 一枚、12スレッドで
128Filter,12層のPolicyNetと32Filter、14層のValue Netを動かしているものです。

CGOSのBayesEloだと
Aya790p1v1cn50_12t 3596
より+50ぐらい強いと思います。

グラフを見ると9ヶ月前まで3dだったのがPolicyNetの採用で6dまで上がり、
ValueNetの採用で7dまで上がってます。
ディープラーニングは本当にすさまじいブレイクスルーでした。
http://www.gokgs.com/graphPage.jsp?user=AyaMC

http://www.gokgs.com/top100.jsp
順位
  2 Zen19K2    9d
 24 Zen19K     8d
 41 Zen19A     8d
 68 Zen19X     7d
 69 CrazySton7 7d
 72 Zen19      7d
 85 AyaMC      7d



簡易ValueNetwork  投稿者:zakki 投稿日:2016年10月15日(土)23時24分10秒
KGSとGoGoDの棋譜からつくったValueNetwork入りのRayをcgosに投入してます。
プレイアウト勝率とVN勝率を同程度の比率で合成すると明らかに弱くなるんですが、
VNの寄与少な目にする分には既存棋譜だけからの学習でもレーティング+300くらい行きそうです。

VN1回でプレイアウト5回相当として計算していて、20000回プレイアウトする間に
VNが1000回程度評価されるので、λ換算だと0.8くらいでしょうか。

KGS棋譜で途中局面での勝率と実際の勝敗の差を、プレイアウト100回とVNで比較すると
250手目付近まではVNのほうが正確なんですが実際に100回相当の比率で合成して対戦させるとかなり弱くなります。
打たれた手だけ学習するので探索中に発生する妙な局面には対応できないということなのかなと思ってます。



Re: 簡易ValueNetwork  投稿者:山下 投稿日:2016年10月16日(日)02時02分58秒
Rn.1.1-4c(2551) がPolicyのみで Rn.2.2-4c(2953) がPolicy+Valueでしょうか?
RayにValueNetを入れると+400ぐらい強くなるのですか。驚きました。

私が9路で試した限りでは比率は5割前後でほとんど一定で、大きすぎても
小さすぎてもValueNetの効果は下がる感じでした。
250手までは圧倒的にValueが正確ですね。
AlphaGoではもっと手数が増えてもValueが正確でしたから
もっと手数が長い局面も学習させる必要があるのかもしれません。
ただ、250手後の局面はほぼ勝敗は決まってると思うのでそれほど必要でない気もしますが・・・。

ValueNetあり vs ValueNetなし (1000試合、1手1000playout、9路、Policy F128L12, Value F32L14)
playoutの比率 (0.2だとValueNetは0.8)  ValueNetありの勝率

0.2  0.60
0.3  0.66
0.4  0.64
0.45 0.66
0.5  0.66
0.55 0.68
0.6  0.65
0.7  0.66
0.8  0.60



ショートカットのテスト  投稿者:HiraBot 投稿日:2016年10月16日(日)06時27分2秒
value net はしばらくお休みしてショートカットを使用した policy net の学習をしていました
ショートカットを使用した深いネットを深さを変えてテストしました(No333 です)

No333-n層: 3x3-32-(n-1)層 + 3x3-1-1層  ショートカット使用

グラフは 8層〜48層 でのテスト結果です(accuracy vs 学習 epoch 数)
以前に行ったテストでは、普通のネットでは 12層以上にしても性能が向上しなかったのですが
ショートカットを使用すると 24層で accuracy の伸びは鈍るものの 32層まで伸びています

"簡易ValueNetwork" で λ 0.8 との報告が有りましたが、私も再度 value net に
挑戦しようと思います



Re: 簡易ValueNetwork  投稿者:zakki 投稿日:2016年10月16日(日)09時26分41秒
RnTest-0(2621)がPolicyのみで、Rn.1.1-4cはPolicy+Valueを入れた際にプレイアウトにバグ入ってしまってた版です。



NHK杯で高尾さんがAlphaGoのツケを参考にしたコウ立て  投稿者:山下 投稿日:2016年10月16日(日)14時23分38秒
今日の高尾紳路−林漢傑戦で高尾さんがAlphaGoの手を
参考にした手を打ちました。

高尾さんの「私の今日の1手」
「37手目はコウ立てとして打ったのですけど、以前なら損が大きすぎて打てなかった。
しかしAlphaGoが普通に何もない局面でツケて、うまく行ってるのを見て
損コウと思いながらも打った」

黒37手 D-04 まで  ハマ 黒1子  白2子
  ABCDEFGHJKLMNOPQRST
01┌┬┬┬┬┬┬┬┬┬┬┬┬┬┬┬┬┬┐
02├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
03├┼┼○┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
04├┼┼★┼┼┼┼┼┼┼┼┼┼┼●┼┼┤
05├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
06├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼●┼┤
07├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
08├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
09├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼┤
10├┼┼┼┼┼┼┼┼┼┼┼┼┼┼┼○┼┤
11├┼┼┼┼┼┼┼┼┼┼┼┼┼┼○┼┼┤
12├┼┼┼┼┼┼┼┼┼┼┼┼┼●○○●┤
13├┼┼┼┼┼┼┼┼┼┼┼┼┼┼●○┼┤
14├┼○┼┼┼┼┼┼┼┼┼○┼┼●○┼┤
15├┼┼┼┼┼┼┼┼┼●○●┼┼┼●┼┤
16├┼┼○┼●┼○┼┼┼●┼┼┼┼●┼┤
17├┼┼┼○●┼┼┼┼┼●┼┼┼┼┼┼┤
18├┼┼○┼○●○┼┼┼┼┼┼┼┼┼┼┤
19└┴┴┴○●┴┴┴┴┴┴┴┴┴┴┴┴┘

(;GM[1]SZ[19]
PB[高尾紳路]
PW[林漢傑]
DT[2016-10-16]RE[B+R]KM[6.5]RU[Japanese]
;B[pd];W[dp];B[qp];W[dc];B[fq];W[cn];B[lq];W[qj];B[qf];W[qm]
;B[pn];W[qn];B[qo];W[lo];B[pm];W[pl];B[mo];W[eq];B[fp];W[hp]
;B[lp];W[hr];B[er];W[dr];B[gr];W[es];B[ol];W[pk];B[fs];W[fr]
;B[rl];W[ql];B[er];W[mn];B[ko];W[fr];B[dd];W[ln];B[no];W[cd]
;B[er];W[pc];B[ds];W[qd])
途中まで



Re: ショートカットのテスト  投稿者:山下 投稿日:2016年10月16日(日)17時36分22秒
詳細なデータありがとうございます。
Filterを小さくし層を深くしてCPUのキャッシュに載るぐらいまでデータを小さくすれば
CPUで計算させた場合、高速で精度が高いものが出来るのかな、と思いました。



Re: 簡易ValueNetwork  投稿者:zakki 投稿日:2016年10月25日(火)22時32分34秒
Value Network の寄与をどの程度にするかですが、λ小さくしないと弱くなっていたのはVNの評価回数が少なかったからかもしれません。

Policy Network の強化学習と棋譜の自動生成に手を出せていないので、VNの過学習が問題でした。
過学習を軽減するために DarkForest の3手同時学習のような構造でPolicyとValueの前半のネットワークを共有して
PolicyとValueを同時に学習・評価するようにしています。
この関係でリーフの数ではなく展開したノードの数だけしかValueが評価されていませんでしたが
ノード展開の閾値を10から2に減らしたところλ=0.5相当付近でも特に問題なさそうです。
(Rn.2.3-4cでRn.2.2-4cから+27)



ショートカットネット  投稿者:HiraBot 投稿日:2016年10月28日(金)08時57分48秒
現在私の使用している policy net は No211: 3x3-128-11 + 3x3-1-1  ですが
ショートカットを使用してこのネットの深さを 2倍にしたネットを学習しています

No335: 3x3-128-23 + 3x3-1-1、ショートカット使用

No211 に比べて学習時間は 2.3倍になり、実行時間(cudnn-v5 + GTX960)は 2.0倍でした
学習時間が 2倍より大きくなったのは batch_size を 100 から 50 にした為と思われます

2つグラフを添付しました、勝率-学習epoch は DCNN の手をそのまま打つプログラムを使って
No211 と2000局自己対戦した結果です
もう一つは No211 と No335 の accuracy-学習epoch です、両者の学習データは全く同じです
従って入力データ項目も元になる sgf file(プロ棋譜 + KGS棋譜 3000万局面)も全く同じです

勝率は 0.1epoch 毎にデータを取っていましたが、勝率グラフを見るとこれでは粗すぎる
ようなので途中から 0.02epoch 毎に勝率データを取るように変更しました
しかしこれでも粗いようなのでもっと細かくデータを取る必要が有るかもしれません

現在学習中で 2epoch までのデータですが accuracy は No211 より 2% 前後良い値が出ています
No211 との自己対戦結果は大きく振動していますがピークのデータでは勝率 75% になっています
この上下の鋭いピーク同士で対戦してみました(勝率 75.5%=196elo と 27%=-173elo)
結果は 勝率 90%=382elo となり 196elo - (-173elo) = 369elo に大体一致しています
このことからピークは不安定な現象ではなくて確固として存在することが分かります

今までは accuracy グラフが滑らかなので勝率が大きく振動していると思いませんでした
No211 は勝率振動の概念がなく適当に学習を打ち切っていました
この勝率振動は学習が進むにつれて小さくなるとは思いますが
それを確かめるため打ち切った所から再度学習し勝率データを取ろうと思います

今まで勝率データを取らなかったのは自己対戦というと 1点のデータ取りに 10時間くらい
掛かっていたので数十点のデータを取るには莫大な時間が掛かると思っていた為ですが
DCNN をそのまま打つプログラムでの自己対戦は 1点 40分くらいでデータが取れる為
学習と平行して別のパソコンで勝率データを取れば良いことに気が付きました



勝率振動  投稿者:HiraBot 投稿日:2016年10月30日(日)18時39分23秒
"ショートカットネット" でご報告した勝率振動は自己対戦プログラムのバグの為でした
No211 でバグフィックスしてデータを取った所添付グラフのように
平坦なグラフになりました、謹んでお詫び申し上げます



cudnn-v5.1 の速度測定  投稿者:HiraBot 投稿日:2016年11月 4日(金)08時37分20秒
No335 のネットの実行時間を測定しました(windows10 にて)

1.cudnn-v5(cuda7.5)
    GTX960: 2.72ms    GTX1060: 2.30ms

2.cudnn-v5.1(cuda8.0)
    GTX960: 2.75ms    GTX1060: 1.80ms

cudnn-v5(cuda7.5) から v5.1(cuda8.0) にすると GTX960 ではほぼ同じ時間ですが
GTX1060 では 1.28倍早くなっています
実行環境は cudnn-v5.1(cuda8.0) に乗り換える事にします



開発環境更新  投稿者:HiraBot 投稿日:2016年11月 5日(土)05時47分33秒
今まで開発環境は GTX670(2GB) + cudnn-v2(cuda6.5) だったがこれを
GTX1060(3GB) + cudnn-v5.1(cuda8.0) に更新した(OS は ubuntu14.04)

旧環境で 9.0時間かかっていた学習が新環境では 2.7時間になった
3.3倍の速度である、もっと早くに更新していれば良かったと思う

更新作業は難航したが結局 OS からクリーンインストールして上手く行った
小細工を弄さずに初めからクリーンインストールすれば良かったと思う



Re: cudnn-v5.1 の速度測定  投稿者:山下 投稿日:2016年11月 6日(日)18時55分39秒
cuDNN 5.1はGTX 1080などのPascal世代にだけはかなり利くのですね。
GTX960より1.5倍速いのですか・・・。
私もGTX1080を買ってみようと思ってます。



コンピュータAI用の麻雀サーバ  投稿者:山下 投稿日:2016年11月 7日(月)20時27分33秒
東大の水上さんが麻雀サーバを作成して公開されています。

解説PDF
http://www.logos.ic.i.u-tokyo.ac.jp/~mizukami/slide/majong_server.pdf
麻雀サーバのソース
(mahjong-server github でググって下さい。なぜかgithubへのリンクはこの掲示板だとErrになるので)
牌譜...floodgate for mahjong(仮)
http://www.logos.t.u-tokyo.ac.jp/mjlog/
水上さんの論文など
http://www.logos.t.u-tokyo.ac.jp/~mizukami/

ちなみに水上さんの麻雀AIはオンライン麻雀「天鳳」で
上位0.0007%に入る強さ、とのことです。

麻雀界にもAIの波 「爆打」開発者に聞く
http://www.nikkansports.com/amusement/mahjong/news/1638731.html



ネット No335 テストデータ  投稿者:HiraBot 投稿日:2016年11月 9日(水)09時46分4秒
以前報告した No335 のネットの学習データをご報告します
No335 は No211 の改良版で層数を 12 から 24 にしたものです
両者は同じ学習データを使用しています、従って棋譜もデータ項目も同じです

accuracy はグラフによると 2% ほど向上しています 2% の向上は大きいと思います

勝率グラフは DCNN の結果をそのまま打つプログラムで No211 と対戦した結果です
学習が進むにつれて振動しながら勝率が上昇しており最高で 76.2% になりました

しかしこの勝率は DCNN 単体での値であり実際に必要なのは MCTS に組み込んだ時の強さです
そこで 3種類の epoch の学習データを MCTS に組み込んで No211 を組み込んだソフトと
自己対戦しました(全てのノード作成に DCNN を使用する)、1手 0.5秒の対戦です

epoch  DCNN勝率  MCTS対戦結果
4.1    72.8%     358勝 226敗 勝率61.3% +80elo
4.5    73.5%     368勝 213敗 勝率63.3% +95elo
5.1    76.2%     367勝 230敗 勝率61.4% +81elo

DCNN 単体では 勝率75% になったが MCTS に組み込むと 63% にしかならなかった
ネットの層数を 2倍にする事で 95elo 強くなるという結論になります



第2回囲碁電王戦で趙治勲さんとDeepZenが互先で3番勝負  投稿者:山下 投稿日:2016年11月 9日(水)15時13分26秒
■三番勝負  開催日時
第1局 2016年11月19日(土)
第2局 2016年11月20日(日)
第3局 2016年11月23日(水 祝)

第2回 囲碁電王戦 趙治勲名誉名人 vs DeepZenGo
http://denou.jp/go/



Re: ネット No335 テストデータ  投稿者:gg 投稿日:2016年11月 9日(水)23時24分18秒
層数2倍で pps がかなり低下していると思いますが,
自己対戦は time/move 固定ですか,それとも po/move
固定ですか?



Re: ネット No335 テストデータ  投稿者:HiraBot 投稿日:2016年11月10日(木)01時00分34秒
自己対戦は 1手 0.5秒固定です
DCNN 計算時間はちょうど 2倍になりました
DCNN 計算中はノード展開せずに playout するように
して居る為 pps はさほど変わりません



ネット No335 レーティング  投稿者:HiraBot 投稿日:2016年11月11日(金)04時34分8秒
No335 を MCTS に組み込んで CGOS で打てせていましたが
BayesElo が出たので No211 と比較して報告します

ネット名   アカウント        Elo   games
No211      No260-No211-4c    3215  242
No335-4.5  No335-4.5-gpu-4c  3468  102

No211 より 250elo ほど良くなりました
今度は KGS で打たせようと思います、アカウントは HiraBot3 です



deltaGoのOpenMP並列化  投稿者:delta 投稿日:2016年11月11日(金)15時22分16秒
大槻さんの公開されたdeltaGoをOpenMPで並列化してみました。
元のコードにあるAVXをそのままにconvlotution3x3とconvlotution5x5のfor文を並列化しました。
初期局面を100回計算してその所要時間を100で割ったものです。
CPU : Intel Xeon E5-2698 v4 (20コア) X 2
5x5-192F-1層 + 3x3-192F-11層
スレッド数 計算時間(速度比)
1 161.4msec (1.0)
2  82.5msec (2.0)
10  20.9msec (7.7)
20  13.7msec (11.8)
30  10.4msec (15.5)
40   9.4msec (17.2)
これから40スレッドで1スレッドの約17倍速くなって9.4msecとなることがわかります。
大槻さんの資料によるとAlphaGoはGPUで4.8msecとありますのでその半分程度の速度になります。
(このスレッドでのGPUはもう少し速いようですが)

ソースコードの変更箇所は以下の通りです。
#include 
int main(int argc, char **argv)
{
omp_set_num_threads(argc > 1 ? atoi(argv[1]) : 1);
・・・
}
static int convolution3x3 (const int layer, cnn_t hiddenNext[21][21][FILTER_SIZE], cnn_t hiddenPrev[21][21][FILTER_SIZE], game_hdl_t *hdl,
const int outputNums, const int inputNums)
{
int i;
#pragma omp parallel for
for (i = 0; i < 361; i++) {
int x = i / 19 + 1;
int y = i % 19 + 1;
get_hiddenNext_3x3(hdl, hiddenNext, hiddenPrev, x, y, inputNums, outputNums, layer);
}
}
(5x5も同様)
MakefileはCFLAGSとLDFLAGSに"-fopenmp"を追加します。



Re: deltaGoのOpenMP並列化  投稿者:山下 投稿日:2016年11月11日(金)19時27分39秒
OpenMPだとこれだけ簡単に並列化できるのですか。
それでも80スレッド?でほぼGPUと互角なのでCPUだけでは厳しいですが。

DeltaGoはCGOSで動かしてみたのですが2100ぐらい、とちょっと低かったです。
セキの認識などもしてないのですが、2400は行くかと思ったのですが。
http://www.yss-aya.com/cgos/19x19/cross/DCNN_DeltaGo_a54.html



麻雀サーバーのツモ切りサンプルを改良  投稿者:山下 投稿日:2016年11月12日(土)17時10分28秒
麻雀サーバーのツモ切りサンプルを改良したものを reach_yss という名前で動かしています。

リーチをかける前はほとんど上がれなかったのですが、
かけるようにすると、結構強くなって時々トップも取れるようです。
手牌の3枚揃い(333)や連番(678)に点数をつけて、一番低い牌を切るだけ、という思考で
シャンテン数とかは数えていません。

リーチがかけれるか、どの牌を切ったらテンパイか、上がれるか、という難しい判断は
全部サーバがやってくれるのでかなり楽です。
一番難しかったのは picojson の使い方でした・・・。

「dll_アカギ」というのが結構強いみたいです。
平均順位のランキングかレートのページがあれば便利なのですが。

reach_yss のソース。C++のツモ切りサンプルに、リーチ、ロン、ツモを追加。鳴かない。
http://www.yss-aya.com/20161112floodgate.cpp
麻雀サーバの対局一覧
http://www.logos.t.u-tokyo.ac.jp/mjlog/



2017年3月のUEC杯  投稿者:山下 投稿日:2016年11月14日(月)19時13分47秒
UEC杯が2017年の3月18日、19日に電通大で行われます。
参加申し込みは12月11日までで、メールでの申し込みとなっています。

電聖戦は優勝か、2位までかは未定で、開催される日程も今のところ未定です。
UEC杯の開催は今回で最後になります。
http://www.computer-go.jp/uec/public_html/index.shtml



KGSのボットトーナメント  投稿者:gg 投稿日:2016年11月14日(月)19時55分4秒
KGSのボットトーナメントの来年の予定ですが,今年段々
参加者が減ってるので,来年は年6回にしようかと,主宰者の
Nick さんが言ってます.意見がある人は是非 Computer Go
ML に投稿して下さい.英語が...という人はここでも構
いませんから意見を表明して下さい.



Re: KGSのボットトーナメント  投稿者:山下 投稿日:2016年11月14日(月)20時13分2秒
来月はぜひZenも参加してください。
Zenがいないトーナメントで優勝しても面白くないし
ギャラリーも見ていてつまらないと思います。



Re: KGSのボットトーナメント  投稿者:gg 投稿日:2016年11月14日(月)23時57分8秒
12月 5日 1AM か.アカデミック系が参加しないなら,Zen
が遠慮する理由の一つが無くなりますね.一段落したら
ドワンゴさんと相談してみましょうか.でも MFG とか,来年の
UEC 杯に向けて今は学習でハードが忙しいだけで,一段落したら
皆参加してくると思うんだけどねぇ.



DeepZenGoの強さの推測  投稿者:山下 投稿日:2016年11月16日(水)05時32分17秒
19日に趙治勲さんと対局するDeepZenGoの強さを推定してみました。
CGOSの Zen-12.8-1c0g が対戦するとしています。

Zen-12.5n-1c1g      3860    2860? GPUありで+245(Zen-12.5n-1c0gと比較)
Zen-12.5n-1c0g      3615

を比較するとGPUありとなしで +245 違います。

GPU 4台で +300 上がるとすると 合計 +545 強くなります。

Zen-12.8-1c0g       4316?   3316? 4GPU。趙治勲さんと戦う版。マシン1台。44コア 2.2GHz
趙治勲                      3237

趙治勲さんより80点ぐらい上、になっていい勝負なのかもしれません。
CGOSから1000点引くと、ちょうどGoRatingsのレートに近くなると思います。

                    CGOS    GoRatings
AlphaGo(2016/03)    5500?   4500? 3月の対セドル戦(DeepMind発表のグラフ http://i.imgur.com/ylQTErVl.jpg )
AlphaGo(2016/03)    4757?   3757? 3月の対セドル戦(セドルに4-1から推測、勝率80%でセドルより+241)
Ke Jie              4635?   3620  人類最強
Lee Sedol           4531?   3516
井山裕太                    3514
高尾紳路                    3369
一力遼                      3367
Zen-12.8-1c0g       4316?   3316? 4GPU。趙治勲さんと戦う版。マシン1台。44コア 2.2GHz
趙治勲                      3237
AlphaGo(2015/10)    4155?   3140  マシン22台?のクラスタ版  2015年10月
Fan Hui             3935?   2920
AlphaGo(2015/10)    3905?   2890  マシン1台(48CPUs, 8GPUs) 2015年10月
Zen-12.5n-1c1g      3860    2860? GPUありで+245(Zen-12.5n-1c0gと比較)
Zen-12.8-1c0g       3771          GPUありで+245。4GPUだと+300? +545で 4316
Zen-12.5n-1c0g      3615
Aya792p2v2cn50_12t  3586    2586? KGS 7d (Blitz)
AlphaGo RL          2785?         Reinforcement learning from AlphaGo SL
Aya790e_510_ro_1k   2714          KGS 3d
darkfores2          2657?         KGS 3d
AlphaGo SL          2532?   1517  DCNN, 探索なし F192
pachi11_12t_100k    2487          pachiの1手に100k playout
DCNN_Aya_F256x8     2456          DCNN, 探索なし
Gnugo-3.7.10-a1     1800     800? KGS 5k



tの舌打ち(^^;  投稿者:tss 投稿日:2016年11月16日(水)09時15分48秒
11月19日から20日、23日といよいよ
DeepZenGoが互先で趙治勲名誉名人と3番勝負をするらしいですね。
しかし、この盛り上がらなさはなんなのでしょうか。
これが私だけの虚無感ならいいのですが……。

私は過去に加藤さんとコンピュータ囲碁について、ちょっとした議論をした記憶があって
それを過去ログで探したところ見つからない。
私は2009年以降だと記憶していたのですが無く、2008年にも無い。
ようやく2007年12月16日に「モンテカルロ法の今後」を見つけた次第。
2007年にというのは、これは私にはちょっとした驚きだったわけですが、
まず、なぜ2009年以降だと記憶したのか。ちょっとした議論の内容がコンピュータ囲碁の学習機能についてで、
Bonanzaのソースが公開され機械学習がある程度知れ渡ったあとだと思ったからでした。
しかし2007年という年はまだBonanzaのソースが公開されておらず機械学習の効果ですら知られていない。
ましてやモンテカルロ法一色だったコンピュータ囲碁界に
学習機能についてなど未知の話だったのではないでしょうか。(ほんまかいなー)(^^

この時代に加藤さんとコンピュータ囲碁の学習機能についてレス出来たことは
私にとっては幸運でもありました。
モンテカルロ法についても全貌がよくわからない時代の私の勘違いも笑えるのですが、
「学習プログラムの組み込みにより、強力な序盤が可能」と妄想しているのは興味深いですねー。

実は私がディープラーニングを知ったのが2015年の9月頃で、その時にネットに
>「ディープラーニング」は,機械学習の一種で一時的な流行にとどまる可能性が高いという意見と本質的な人工知能の限界を突破している可能性があるという意見があるようである. 私は特徴表現学習の概念の如何によってその可能性はまだ拡がると思っているので,今後の「ディープラーニング」の開発に注目したい.
と関心を示した書き込みをしていました。
今でこそ「ディープラーニング」関連の書籍が多数出ていますが当時は学習機能のひとつという小さな扱いでした。
もし、ここの掲示板に2015年の9月頃に、
コンピュータ囲碁の「ディープラーニング」によるブレイクスルーを予想しておれば、
衝撃が走ったのではないのか、と舌打ちしている今日この頃です。(なんのこっちゃー)(^^A

山下さん、「DeepZenGoの強さの推測」ありがとうございます。
DeepZenGoは趙治勲名誉名人に、そしてAlphaGoに対してどのくらいの強さなのか
丁度疑問に思っていたのでとても参考になります。

前置きが長くなりましたが、DeepZenGoの圧勝を期待しています。



情報処理学会論文誌でゲームプログラミングの特集  投稿者:山下 投稿日:2016年11月16日(水)20時29分24秒
情報処理学会論文誌でゲームプログラミングの特集がされています。
NDFの金澤さんの手法が公開されるのは初めてだと思います。

特集「ゲームプログラミング」編集にあたって  伊藤 毅志
http://id.nii.ac.jp/1001/00175916/
確率的勾配降下法を用いたLinUCTのスケーラビリティの改善  万代 悠作, 金子 知適
http://id.nii.ac.jp/1001/00175917/
戦術的ターン制ストラテジゲームにおけるAI構成のための諸課題とそのアプローチ  佐藤 直之, 藤木 翼, 池田 心
http://id.nii.ac.jp/1001/00175918/
不確定性を含むデジタルカーリングにおけるゲーム木探索  加藤 修, 飯塚 博幸, 山本 雅人
http://id.nii.ac.jp/1001/00175919/
畳み込みニューラルネットワークを用いた囲碁における1局の棋譜からの棋力推定  荒木 伸夫, 保木 邦仁, 村松 正和
http://id.nii.ac.jp/1001/00175920/
将棋における棋譜から棋風を学習するための研究  大森 翔太朗, 金子 知適
http://id.nii.ac.jp/1001/00175921/
教師データが不足した環境での機械学習結果改善手法   金澤 裕治
http://id.nii.ac.jp/1001/00175922/
雑談ばかりしていると殺される?人狼ゲームにおける発話行為タグセットの提案とプレイヤの行動・勝敗の分析  稲葉 通将, 大畠 菜央実, 高橋 健一, 鳥海 不二夫
http://id.nii.ac.jp/1001/00175923/
コンピュータ大貧民におけるヒューリスティック戦略の実装と効果  田頭 幸三, 但馬 康宏
http://id.nii.ac.jp/1001/00175924/
対戦格闘ゲームにおけるゲームAIや操作法の違いがプレイヤの感じる面白さに与える影響の分析  石原 誠, 宮崎 泰地, 原田 智広, ターウォンマット ラック
http://id.nii.ac.jp/1001/00175925/
プレイヤの技能に動的に合わせるシステムの提案と評価  仲道 隆史, 伊藤 毅志
http://id.nii.ac.jp/1001/00175926/
大将棋における特殊ルールの評価  佐々木 宣介
http://id.nii.ac.jp/1001/00175927/

論文誌ジャーナル 11月号 特集「ゲームプログラミング」
https://www.ipsj.or.jp/saisingo/vol57no11.html



囲碁電王戦特番  投稿者:gg 投稿日:2016年11月17日(木)11時34分14秒
今夜8時からニコニコで「囲碁電王戦特番」があります.
司会は万波奈穂三段.山下さんも出ます!
http://sp.live.nicovideo.jp/gate/lv280666511



「囲碁電王戦」第1局  投稿者:tss 投稿日:2016年11月19日(土)18時20分42秒
結果がYahoo!ニュースで報じられています。
http://headlines.yahoo.co.jp/hl?a=20161119-00000027-zdn_n-sci



「囲碁電王戦」第2局  投稿者:tss 投稿日:2016年11月20日(日)16時44分20秒
結果が報じられています。
http://headlines.yahoo.co.jp/hl?a=20161120-00000027-zdn_n-sci



第3局は趙治勲名誉名人の勝ち  投稿者:山下 投稿日:2016年11月23日(水)16時25分37秒
3番勝負は趙治勲名誉名人の2勝1敗で人間の勝ちとなりました。
3局目はこちらでAyaの形勢判断を出していました。
https://twitter.com/nhk_igo_15bai
ソフトなのでZen有利と判定しやすいのですが、黒の勝率28%の時点で
白のZenが投了してしまったのはビックリでした。
Zenの勝率は50%以下に下がっていたらしいのですが、読みと形勢判断の性能にかなり差がありそうです。



Re: 第3局は趙治勲名誉名人の勝ち  投稿者:gg 投稿日:2016年11月24日(木)13時44分26秒
正確には 50.1% でした.あの局面は難しい死活や攻め合いが無いので,
中央をどれだけ過大評価するかで勝率が変わります.地合いは多分数目
しか違わないので,小さな誤差が大きく勝率に影響します.また,柯潔
九段が指摘した手順が見えてないと,最後に白の勝率が上がるかも.



Zen19L  投稿者:gg 投稿日:2016年11月24日(木)15時53分43秒
趙名誉名人と対局した版の Zen が KGS で動いてます.
持ち時間は 30分+5x30秒で,もう 9d にってます.



Re: 第3局は趙治勲名誉名人の勝ち  投稿者:山下 投稿日:2016年11月24日(木)21時49分51秒
50.1%で投げたのですか。
はっきり損になる手順を見付けて30%ぐらいまで急落したのかと思ってました。
65%ぐらいから上がりきれずにずるずる後退は典型的負けパターンだとは思ってましたけど。
darkforestが微妙な局面で投げたのもありますし、
Zenの投了基準まで待ってもよかった気もします。



Re: 第3局は趙治勲名誉名人の勝ち  投稿者:gg 投稿日:2016年11月24日(木)22時10分8秒
グラフにしてみたのですが,直近 12手(Zen は 6手)で 10%低下してます.
元々このクラスの人に 50%から逆転することは(相手が間違えない限り)
無理ですし,まだ時間もあったし,勝てる可能性はゼロと判断しました.
他のメンバーも勝ち目が無いことには同意してます.ただ,観客のために
もう数手打っても良かったかなとは思います.



Re: 第3局は趙治勲名誉名人の勝ち  投稿者:tss 投稿日:2016年11月25日(金)12時43分4秒
一年満たない間に四石なくなり互先での一勝は十分というべきなのでしょうか。
第三局投了局面から天頂6同士で一手30秒、一手60秒で打たしたところ
ともに黒番が勝利しましたねー。(ほんまかいなー)(^^;



Zen19Lの棋力グラフ  投稿者:山下 投稿日:2016年11月27日(日)09時12分5秒
Zen19Lの棋力グラフが出てますがグラフを見ると 9.4d ぐらいで
Blitzで 10.5d だった Zen19K2 より1dぐらい弱い値がついてます。
昔から1手15秒と1手30秒では1dぐらい差がありましたが、9d近くでも同じ?ようです。
CGOSだと12.4(Zen19K2)から13.1(Zen19L)は +230 ほど伸びているのですが、その
効果はあまり出ていないようです。
KGSでの対局数が少ないのと勝率が極めて高いのでまだ何とも言えませんが。
ちなみにZen19LにHiraBot3は3子で勝って、AyaMCは2子で負けました。

Zen19L   9.4d  30分、30秒x5  version 12.4
Zen19K2 10.5d   0分、15秒x10 version 13.1
http://www.gokgs.com/graphPage.jsp?user=Zen19L
http://www.gokgs.com/graphPage.jsp?user=Zen19K2



Re: Zen19L  投稿者:gg 投稿日:2016年11月28日(月)02時44分1秒
書き忘れましたが,KGS のは電王戦のよりちょっと遅いハードを
使ってます.主な違いは Titan X が Maxwell か Pascal か.



KGS の月例  投稿者:gg 投稿日:2016年11月29日(火)11時31分35秒
今度の日曜日の夕方,KGS の月例ボットトーナメント(13路)が開かれます.
参加するのは UEC杯より易しく,GTP さえ実装していれば OK です.
13路で GNU Go より強ければ Formal Division に,弱ければ Open Division
に参加して下さい.↓が参考になるでしょう.
http://s.webry.info/sp/nevertoolate.at.webry.info/200912/article_2.html
http://migo2010.blog108.fc2.com/blog-entry-207.html



データ数とネットワークの規模  投稿者:gg 投稿日:2016年11月30日(水)06時26分43秒
カリフォルニア工科大学のモスタファ教授に依れば(原則として)
データ数は少なくとも自由度の 10倍必要だそうです.
#つまり重み 1個当たりデータ 10個
AlphaGo の場合,重みは約 9百万個で与える局面は 3千万と
約 3倍でしかなく,データ数としては下限ギリギリと言っても
良い個数です.言い換えると,ネットワークをギリギリまで
大きくしていることになります.囲碁の場合,汎化はそれほど
要求されないので,これでも使い物になると思われますが,
これ以上データを減らすのは,止めておいた方が良いでしょう.



HiraBot の BayesElo  投稿者:HiraBot 投稿日:2016年12月 3日(土)01時29分0秒
playout とレーティングの関係を調べるため CGOS で平塚の囲碁を走らせました
DCNN を MCTS に組み込み全てのノード作成で DCNN を使用するプログラムです
ネットの識別名は No336-9.3 です

playout 50000 にてはっきりと頭打ちになっていますが
5000 以下ではグラフの直線性は良い(対数目盛にて)と思います
playout 5000 以下では playout 2倍で 150Elo 程度のようです

playout 2000 で KGS で運用しました(HiraBot1)5d になったのでグラフに記入しました
グラフから playout 100 では KGS 2d 程度と思われます
一番弱くして 2d ではまずいのでもう少し弱いソフトを作る必要があります
playout をこれ以上少なくしたくないので、弱くする為にプログラムを変える事にします
(DCNN を除いた MCTS のみにする予定)



Re: HiraBot の BayesElo  投稿者:山下 投稿日:2016年12月 3日(土)08時41分54秒
面白いデータありがとうございます。

100playoutではDCNNの探索なしの方が強いのが面白いです。
Ayaも13路で、RootだけDCNNを使った場合は、30playoutだとはっきり弱く、
100playoutで互角でした。

rootだけDCNN+MCTS vs DCNN探索なし (13路)

playout数 勝率  対局数
   30     0.456  243
  100     0.541  288
  300     0.733  311
  500     0.752  538



Re: KGS の月例  投稿者:gg 投稿日:2016年12月 4日(日)10時17分57秒
開始時刻が変わったようで,深夜一時からになってます
http://www.gokgs.com/tournEntrants.jsp?id=1093
今のところAyaとHiraBotだけなので
Nickさんのためにも皆さん是非参加してあげて下さい



Re: HiraBot の BayesElo  投稿者:HiraBot 投稿日:2016年12月 5日(月)02時14分38秒
MCTS のみの HiraBot を CGOS で走らせてレーティングデータを取りグラフにしました
gnugo がレーティング 1800 で KGS 5k らしいからグラフに記入しました
DCNN+MCTS と上手くつながっています、両者の差は 1000Elo くらいです
DCNN の効果は 1000Elo という事になります(MCTS only は本来の強さより弱いです)

DcnnRasPi は No211 を raspberry pi で打ち KGS 2k でしたが、同じアカウントで
No336-9.3 をパソコンで打たせたところ(raspberry pi では 35秒かかった為止めた)
2日余りで 1k になりました 1k で 7割〜8割程度の勝率なので 1d くらいのようです
No336-9.3 は CGOS で 2400Elo ですからグラフに記入しました

5d,1d および 5k の地点から 1d〜5d では 1ランク 140Elo
5k〜1d では 1ランク 120Elo であることが分かります
これで次に平塚の囲碁?段-GPU を出すときに適正な強さに出来ます



Re: HiraBot の BayesElo  投稿者:山下 投稿日:2016年12月 5日(月)18時05分48秒
10000playoutまではきれいにスケールする、ということでしょうか。
KGSの仕様だと5k以下は148点差で1段差、2d以上は231点差で1段差なので

> 1d〜5d では 1ランク 140Elo
> 5k〜1d では 1ランク 120Elo

5k付近は近いですが2d以上では差が100点近くずれています。
AyaのCGOSのレートだと下の表から大雑把に3dから7dで1ランク +218 Elo、
5kから3dで +114 ELo とそこそこKGS仕様に近い値になります。

                      CGOS BayesElo
Aya792p2v2cn50_12t    3586       KGS 7d (Blitz)
Aya790e_510_ro_1k     2714       KGS 3d
Gnugo-3.7.10-a1       1800       KGS 5k



Re: HiraBot の BayesElo  投稿者:HiraBot 投稿日:2016年12月 5日(月)18時52分52秒
> 5k付近は近いですが2d以上では差が100点近くずれています。

2000 playout で 5d でしたがこれを 4d と仮定すると
80000 playout 6d との間が 1ランク 250Elo
1d との間が 1ランク 180Elo となり、もっともらしくなります
ただ HiraBot1(2000playout) は現在も 5d で打っております



CGOS レーティングと段  投稿者:HiraBot 投稿日:2016年12月 7日(水)05時14分26秒
分かっている点を予想も交えてプロットしてみました

                      CGOS BayesElo
Aya792p2v2cn50_12t    3586       KGS 7d (Blitz)
Aya790e_510_ro_1k     2714       KGS 3d
HiraBot               3400       KGS 6d
HiraBot41/42          3350       KGS 6d
HiraBot43/44          3350       KGS 5d
HiraBot1              2950       KGS 5d
HiraBot31〜34         2650       KGS 3d
DcnnRasPi             2450       KGS 1d

グラフでは 1段当たり 230Elo 程度になり KGS の仕様と合致します
このグラフから No336-9.3(DcnnRasPi) は 2d 程度あると思われます



ニューラルネットワークへの入力  投稿者:zakki 投稿日:2016年12月 7日(水)21時12分1秒
Rn.2.xで盤面と経過手数と呼吸点の9面入力していたのを、Rn.3.0-4cでRayがプレイアウトのレーティングに使っている戦術的特徴をすべて含めて52面にしてみました。
一致率が53%から56%に上がって、自己勝率で90%以上、cgosレーティングで+200程度強くなりました。
もろもろで秒間プレイアウトが60%程度まで減ってしまいましたが効果はあったようです。

64フィルタ20層のままだと一致率はむしろ下がるのでフィルタ増やす必要がありそうでしたが
AlphaGoにならって192*14だと学習の収束遅すぎてめげて192*7+64*10にしてみています。



Re: ニューラルネットワークへの入力  投稿者:山下 投稿日:2016年12月 8日(木)19時02分18秒
53%から56%はかなりですね。KGSの棋譜でしょうか。

> 64フィルタ20層のままだと一致率はむしろ下がる

下がるのですか。不思議です・・・。
同じネットワークなら入力を増やしたほうが一致率は上がる、と思っていたのですが
そうでもないのですか。

> 192*7+64*10

入力に近い方が192、で後ろが64、でしょうか。
この17層だと128x14と同じくらいでしょうか。
どういうネットワーク構成が効果的なのかはよく分からないです。



Re: ニューラルネットワークへの入力  投稿者:zakki 投稿日:2016年12月 9日(金)00時23分58秒
> 53%から56%はかなりですね。KGSの棋譜でしょうか。
KGSとgogodのコミ6.5のものです。

> 下がるのですか。不思議です・・・。
> 同じネットワークなら入力を増やしたほうが一致率は上がる、と思っていたのですが
> そうでもないのですか。

理屈としては要らない入力の重みを0にすれば一致率は上がるはずですが、
PC1台で1〜2日である程度学習が進まなかった場合はアドホックに打ち切って別の構成を
試していたいたせいで、5*5*9から有用な64特徴を探し出すのに比べて5*5*52から有用な
64特徴を探すのが難しかったのだと思います。

>入力に近い方が192、で後ろが64、でしょうか。
はい。

>この17層だと128x14と同じくらいでしょうか。
>どういうネットワーク構成が効果的なのかはよく分からないです。

こちらもアドホックに学習データを流用していて、計算機リソースの制約上網羅的にネットワーク構成を
試せていないので、もっとましな構成は無数にありそうです。



GTX 1080を買ってみました  投稿者:山下 投稿日:2016年12月12日(月)18時27分22秒
速度を計ってみると学習では速そうなのでが1回の予測時間ではF256を除いて
GTX 980に負ける、とちょっと残念な結果でした。
バスの速度?に依存するかもなので、マザーボードなどによるのかもしれません。

          F32     F128    F256    MNIST
GTX 1080  0.87ms  1.79ms  2.65ms   19秒,  CUDA 8.0, cuDNN v5.1, Core i7 980X 3.3GHz 6core
GTX 980   0.60ms  1.51ms  2.80ms   24秒,  CUDA 7.5, cuDNN v5.0, Xeon W3680   3.3GHz 6core
GTX 980   0.98ms  3.06ms  5.37ms   24秒,  CUDA 7.0, cuDNN v3.0, Xeon W3680   3.3GHz 6core
GRID K520 -----   5.0 ms 14.7 ms   44秒,  CUDA 7.0, cuDNN v3.0, Amazon EC2 g2.8xlarge, Xeon E5-2650 v2 2.60GHz

F256はFilter数が256、入力49面、Policy Netで構成は下です。
256 5x5 x1, 256 3x3 x10, 1 3x3 x1
F128は256が128に減っただけです。
F32は入力50面のValue Netで
32 5x5 x1, 32 3x3 x7, 32 1x1 x1, fully connect 256, fully connect tanh 1
すべて19路、mini-batchは1です。10000回ループさせた時の平均です。

GTX 1080は玄人思考の GF-GTX1080-E8GB/BLF [PCIExp 8GB] です。
MNISTはCaffeに付属するもので、1回の学習にかかった秒数です。



Amazon EC2 p2.xlarge は2.7倍ほど遅いです  投稿者:山下 投稿日:2016年12月13日(火)03時41分44秒
Amazon EC2の p2.xlarge インスタンスでも速度を計ってみました。
1回の予測時間だとGTX 980より2.7倍ほど遅いです。
最大16枚使えば、GTX 980を5枚と同程度の速度でしょうか。

           F32    F128    F256    MNIST
GTX 1080  0.87ms  1.79ms  2.65ms   19秒,  CUDA 8.0, cuDNN v5.1, Core i7 980X 3.3GHz 6core
GTX 980   0.60ms  1.51ms  2.80ms   24秒,  CUDA 7.5, cuDNN v5.0, Xeon W3680   3.3GHz 6core
GTX 980   0.98ms  3.06ms  5.37ms   24秒,  CUDA 7.0, cuDNN v3.0, Xeon W3680   3.3GHz 6core
GRID K520 ------  5.0 ms 14.7 ms   44秒,  CUDA 7.0, cuDNN v3.0, Amazon EC2 g2.8xlarge, Xeon E5-2650 v2 2.60GHz
Tesla K80 1.66ms  3.68ms  7.25ms   33秒,  CUDA 7.5, cuDNN v5.1, Amazon EC2 p2.xlarge,  Xeon E5-2686 v4 2.30GHz

インストールは下のページを参考にして、CUDA 7.5 + cuDNN v5.1 を入れています。

AWS EC2 P2インスタンス(ubuntu 14.04)でCUDA+CuDNN+Caffeを使う
http://qiita.com/take60/items/19362ffd4829b921ad47



Re: GTX 1080を買ってみました  投稿者:gg 投稿日:2016年12月13日(火)05時21分49秒
Pascal なのに Maxwell より遅い原因ですが,どうも
CUDA/cuDNN 8.0/5.1 の問題の様です.
nVidia に文句を言って直させましょう.
#以前の版の ptx を JIT で使った方が速い



cuDNN を 5.1 から 5.0 したら速くなりました  投稿者:山下 投稿日:2016年12月14日(水)05時05分12秒
> CUDA/cuDNN 8.0/5.1 の問題の様です.

CUDA 8.0はそのままで、cuDNNを v5.1 から v5.0 にすると最高速度になりました。
最新版だと遅いとか罠ですね・・・。

           F32    F128    F256    MNIST
GTX 1080  0.48ms  1.45ms  2.38ms   17秒,  CUDA 8.0, cuDNN v5.0, Core i7 980X 3.3GHz 6core
GTX 1080  0.87ms  1.79ms  2.65ms   19秒,  CUDA 8.0, cuDNN v5.1, Core i7 980X 3.3GHz 6core
GTX 980   0.60ms  1.51ms  2.80ms   24秒,  CUDA 7.5, cuDNN v5.0, Xeon W3680   3.3GHz 6core
GTX 980   0.98ms  3.06ms  5.37ms   24秒,  CUDA 7.0, cuDNN v3.0, Xeon W3680   3.3GHz 6core
GRID K520 ------  5.0 ms 14.7 ms   44秒,  CUDA 7.0, cuDNN v3.0, Amazon EC2 g2.8xlarge, Xeon E5-2650 v2 2.60GHz
Tesla K80 1.66ms  3.68ms  7.25ms   33秒,  CUDA 7.5, cuDNN v5.1, Amazon EC2 p2.xlarge,  Xeon E5-2686 v4 2.30GHz



Re: cuDNN を 5.1 から 5.0 したら速くなりました  投稿者:HiraBot 投稿日:2016年12月14日(水)08時22分20秒
cuDNN 5.0 と 5.1 の速度を比較しました(1000回実行しての平均)
Windows では cuDNN の DLL は同じ名前だったので DLL のみ差し替えてテストしました

システムは  Windows7 GTX1060 i7-3770k(oc:4.2GHz) CUDA8.0
ネットは No336-9.3: 3x3-128filter-23層 + 3x3-1filter-1層(ショートカット使用)

cuDNN-v5.0: 2.43ms    cuDNN-v5.1: 1.87ms

私のテストでは cuDNN-v5.1 の方が早くて特に問題は有りません
Windows用 と ubuntu 用の cuDNN の違いでしょうか



Re: cuDNN を 5.1 から 5.0 したら速くなりました  投稿者:山下 投稿日:2016年12月14日(水)21時36分22秒
5.1は5.0より、かなり速いのですか。
インストール失敗していたのかもなので、後でもう一度5.1を試してみようと思います。
しかし、23層なのに1.87msは速いですね。全部3x3というのがcuDNN向きなのでしょうか。



Re: cuDNN を 5.1 から 5.0 したら速くなりました  投稿者:gg 投稿日:2016年12月15日(木)08時42分34秒
>全部3x3というのがcuDNN向きなのでしょうか。
cuDNN の Winograd カーネルが 3x3 しかサポートしてない可能性はあります.
また,GTX-1080 と 1060 で違う可能性もあります.
>Windows用 と ubuntu 用の cuDNN の違いでしょうか
それは考え難い.カーネルのコードは OS と関係ないので.



Re: cuDNN を 5.1 から 5.0 したら速くなりました  投稿者:zakki 投稿日:2016年12月15日(木)12時18分7秒
3x3の畳み込みを特別扱いして高速化が5系の目玉に挙げられてますね

https://developer.nvidia.com/cudnn



Re: cuDNN を 5.1 から 5.0 にしたら速くなりました  投稿者:gg 投稿日:2016年12月15日(木)14時12分45秒
5.0で前向きだけ Winograd 使って,5.1で全部使うようになった
感じですね,これは.とすると,Pascal で 5.1の方が速い人は
3x3 の学習の高速化が Pascal の速度低下を上回ってるだけという
可能性がありますね.



Value Netの作り方  投稿者:山下 投稿日:2016年12月16日(金)22時57分13秒
AlphaGoの論文だと自己対戦で3000万局面を作るには

1. 1から450までを乱数で選び、
2. その局面までSLで進め
3. 1-361までの完全な乱数で1手打つ
4. 残りの手数をRLで打つ

とありますが、1. は完全に均等な乱数で1-450までを選んでいないような気がします。
また 2. もSLの確率分布から乱数で選んでいる、と思ったのですが
それだとかなり弱くなるので、上位の数手だけ、とか偏った選び方をしている気がします。

13路で
1. 1-208までを乱数で選ぶ、
4. 残りの手数を1000playoutで打つ
に変更して270万局面を作ってみたのですが
すべての局面を対象にValue Netを作った場合と、130手以降はほとんど学習させない、
としても強さは変わりませんでした。
100手以降はほとんど学習させない、が最強で、70手以降、とすると逆に弱くなりました。

100手以降はほとんど学習させない、場合でも
1. 最初の16手をSLの確率分布でで選ぶ、
2. 残りを500playoutで打つ
とより弱い学習棋譜で作ったものとValue Netの強さは変わりませんでした(Filter 32の場合)。

実際の対局でほとんど出現しない局面を学習させるメリットはあまりない気がします。



Re: Value Netの作り方  投稿者:gg 投稿日:2016年12月19日(月)16時50分32秒
>1. は完全に均等な乱数で1-450までを選んでいないような気がします。
論文に unif{1,450} と書いてありますが...論文の記述を疑ったら終わりでしょう.
弱くなる原因は別にあると考えた方が良いと思います.
取り敢えず Fig. 2b や Fig. 4 相当のものを測定してみては如何でしょう?
各 DCNN や rollout の強さ/弱さがはっきりしますから.



棋力と VN  投稿者:gg 投稿日:2016年12月21日(水)16時50分42秒
VN が勝ちと判定している局面であっても,そこから自力で
勝ち切れなければ意味がありません.AlphaGo が自前の
PN で作った棋譜から VN を作っているのは,この辺りを
意識してのことと思われます.



UEC杯の申し込み締め切りが延期  投稿者:山下 投稿日:2016年12月21日(水)23時54分51秒
申し込み用ページのサーバにトラブルがあったとのことで現在
http://www.computer-go.jp/uec/public_html/index.shtml
に繋がらなくなっています。
復旧の日程は未定で今月中に復帰するかも未定です。
参加申し込みは最初12月11日までで、その後、12月25日に延期になり、
今回でさらなる延期となるそうです。

[UEC Computer Go Tournament] Server Trouble
http://computer-go.org/pipermail/computer-go/2016-December/009710.html



value net  投稿者:HiraBot 投稿日:2016年12月24日(土)09時36分21秒
value net に再度挑戦しました、以前よりはましな結果がでたので報告します
ネット構成は No360-38V です(以前のネットはパラメータ数が異常に多かったので減らした)

No360-38V: 5x5-F32-1 + 3x3-F32-7 + 15x15-F1-1 + 全結合256 + 全結合1(18万パラメータ)

ネットの実行時間は 0.62ms(GTX1060 i7-3770k-oc4.2GHz cuDNN-v5.1)
学習データは KGS 1d の policy net のみのプログラムの自己対戦棋譜で作りました
24万局作り 380万局面のデータです(18万パラメータの学習に 380万データなので何とかなる)
value net 有りと無しで自己対戦しました

2000playout、 有りの 235勝 194敗 勝率 54.8% +33Elo
0.5秒固定  、 有りの 123勝 147敗 勝率 45.6% -31Elo

同じ時間読ませると value-net 有りでは playout 数が 3/4〜2/3 程度に減ります
この為 0.5秒固定の方が勝率が下がっています

以前の value net よりは良くなったのですが、まだ実用にはならないと思います、そこで
平塚の囲碁の自己対戦(1000playout)での学習データ作成中です(時間がかかりますね)
1000playout では 4d 程度ですから今回の 1d 自己対戦棋譜より良い結果が出ると思います



God Moves  投稿者:osera 投稿日:2016年12月24日(土)20時43分25秒
何者ですか ?
http://www.unbalance.co.jp/info_sigoDL.html



(無題)  投稿者:osera 投稿日:2016年12月24日(土)20時44分41秒
URLは無関係です。この投稿ごと消してくださいませ。申し訳ありません。
m(_ _)m



GodMovesの話  投稿者:山下 投稿日:2016年12月27日(火)03時00分5秒
元は朝日新聞の記事だと思います。

ネット上の超絶棋士「神の手」 囲碁界騒然、正体は?
http://www.asahi.com/articles/ASJDM75CMJDMUCVL031.html

昨日、ニコニコの番組に出演させていただきました。

ネット上の囲碁サイトに突然出現し、強豪囲碁AI「Deep Zen Go」を
圧倒した正体不明の謎の棋士「God Moves」は誰なのか。
http://live.nicovideo.jp/watch/lv285912549

時間の使い方を調べてみると、1手5秒ぐらい、とかなりの早打ちなのですが、
1局に1回か2回、20秒ほど考えています。
また、3局目の83手目に16秒、続く 85,87,89手の3手は1秒,1秒,1秒と打っています。
これは人間の強い人が勝負どころで方針を考え、後の手をノータイムで打つのに似ています。
同じような長考、ノータイム数手、の繰り返しが何回か4,5回現れます。
ただ、大橋さんに聞いたところ3局目の83手目とか他の長考の手も特に難しい局面では
ない、とのことです。

      平均思考時間  GodMoves    Zen19L
1局目                4.6秒      10.2秒
2局目                4.6秒       8.9秒
3局目                5.2秒      10.4秒

      最大思考時間  GodMoves    Zen19L
1局目                 18秒        20秒
2局目                 22秒        20秒
3局目                 21秒        20秒

私は時間の使いかたから人間ぽい、と思うのですが。

棋譜。日付は日本時間。早朝とお昼に打っています。
1局目 11/30 05:58 http://files.gokgs.com/games/2016/11/29/Zen19L-GodMoves.sgf
2局目 11/30 08:52 http://files.gokgs.com/games/2016/11/29/Zen19L-GodMoves-2.sgf
3局目 12/01 12:24 http://files.gokgs.com/games/2016/12/1/Zen19L-GodMoves.sgf

GodMovesの時間の使い方
http://www.yss-aya.com/godmoves.xls
左からGodMovesの1,2,3局目、Zenの1,2,3局目、DEEPERさん(人間)です。



Re: GodMovesの話  投稿者:tss 投稿日:2016年12月29日(木)18時47分15秒
井山裕太棋士でしょうか?



Re: GodMovesの話  投稿者:山下 投稿日:2016年12月30日(金)14時15分16秒
大橋さんの話だと井山さんはタイトル戦と日程が重なっていたとかで
アリバイがあるそうです。他の候補の海外のトップ棋士もアリバイがある、とかで謎です。



Re: GodMovesの話  投稿者:tss 投稿日:2016年12月30日(金)15時52分50秒
さてはDeep Zen Goに興味を持ったアルファ碁でしょうか?
3局目の83手目は天頂6検討の第一候補であり、もしかするとコンピュータ的な手かもしれません。
時間の使い方も先読みの手であれば1秒返しも可能でしょうし、となると
アルファ碁は時間の使用方法も人間的で
もはやコンピュータとはわからなくなっているのかもしれませんね。(ほんまかいなー)(^^;