WCSC28のアピール文:三行まとめ
WCSC28のアピール文、読むのが大変なのでそれぞれ3行以下に抜粋(+ハード説明一行)。まとめが適切でなかったら修正しますのでご連絡ください。
elmo 三駒型、序盤の学習を厚くしている 定跡を評価関数と同様にelmo型で作成
(AWS)m5.24xlargeもしくはc5.18xlargeを予定
大合神クジラちゃん GPS型のマスタスレーブ+独自の工夫 探索はやねうら王、評価関数は既存のものに追加学習 定跡はまふ氏作
ニコニコ生放送リスナーのパソコン
the end of genesis T.N.K.evolution turbo type D 高速な差分計算を特徴とし三駒関係と同等の NPS を実現する ディープラーニング評価関数を搭載。CPUで評価 KPに相当する特徴量を入力とする全結合ニューラルネットワーク
Xeon, Intel Corei7
読み太 3駒関係+手番評価(KPPT型)SDT5版に対して追加学習 elmo.WCSC27に75%の勝率(+R190) 技巧型のクラスタ並列探索。c4.8xlargeを16台
Amazon EC2 c4.8xlarge×16+Core i7 6700HQ
HoneyWaffle 公開されている技術を最大限に活用し、最強振り飛車党ソフトを目指す 定跡や変な評価関数でただ飛車を振るだけでは真の「振り飛車」ではない 意識して「堅く囲ってから鋭く攻める」ことができるよう、にする。 AWS EC2インスタンス1台(極力高性能なものを選択)
NineDayFever 強化学習に使用する自己対戦棋譜の初期状態生成のため、自己対戦の勝率に基づいた定跡生成手法を流用。
定跡生成のため抽出したbookの拡張候補各局面から最低数十局程度の棋譜を生成し、生成された棋譜に基づいてelmo方式による学習。
勝率に基づいて book 内の各手の採用確率を決定します。 8コアマスター1+18コアスレーブ8台 E5-2666 v3
大将軍 KPP+KKPT型評価関数(プロの棋譜からの学習+自己の探索結果からの強化学習) Xeon E5-2687W v4一台
妖怪惑星Qhapaq 数理解析を駆使したご家庭レベルのPCで行える強化学習や、高速化 floodgateなどで得られる深い読みの局面を教師局面として利用 教師データが少ないのでその局面から浅い読みで作られた局面も教師にする
リモートの予定
nozomi KPP + KKPTの3駒関係。少ない棋譜からでも学習できるように工夫。 Stockfishベースの探索。指し手の選択確率を計算し、オーダリングに使用。 Amazon EC2 m5.24xlarge
Apery 半年前からの変更点は、学習データ生成時の探索深さを8から10に変更した点。 Depth12はできなかった。 AWS m5.24xlarge
なのは 手生成では歩、角、飛の不成も生成。 探索はStockfish使用。定跡部は実戦での出現数および勝率を考慮して手を選択 評価ベクトルはライブラリ使用予定。詰めルーチン(df-pn)搭載。終盤の強化。 Ryzen 7 1700
おから饅頭 昨年と同じ。 Ryzen 7 1700
GPS将棋 利きを管理する高速な将棋盤。実現確率を用いた探索。評価関数の自動学習。 評価関数は現在,序盤,中盤 1,中盤 2,終盤の 4 種類。 疎結合並列探索やdf-pn(並列協調)を用いた詰探索 302コア
スーパーうさぴょん2 探索部はStockFishを参考にしつつ、独自の工夫。 定跡部だけコードを含めて0ベースで作成。 Aperyの評価関数
多種構成
習甦 多層構造を持つ評価関数(駒の価値:盤面全体の駒の利きと持駒および手番から算出する玉の安全度に対応した非線形関数、駒の働き:入玉していない玉と玉以外の2つの駒の位置関係) 評価パラメータの機械学習方法 Amazon EC2 c5.9xlarge
たこっと 各種処理が AVX2 命令で実装されていて高速 Stockfish 風の探索アルゴリズム。オンライン学習ルーチン 近代的な機械学習の機能を一通り実装。新たなモデルの開発に取り組む Corei7 6700K
CGP 1から作成:高 NPS を目指す。Lazy SMP 非ビットボード型,利き等を保持。手番付き KPP SIMD等を活用 Corei9 7940X
柿木将棋 ほぼ同じソフトを同じハードで参加。ベンチマークになる Corei7 3960X EE
ひまわり Bonanzaメソッドを使用していない(方策勾配を用いた教師有り学習) 教師付学習後に強化学習 ほぼ前回大会のプログラム Corei7 5960X
芝浦将棋Softmax 確率分布(ボルツマン分布)に基づく選択(MCSoftmax 探索)を使用 深さ制御とバックアップ操作 Bonanza評価関数 Xeon E5-2695 v4
まったりゆうちゃん 4半世紀にわたって開発しているシステム 進化論的計算などの方式 ディープラーニングと多量パラメータ学習の中間的なメカニズム Corei7
名人コブラ 生粋のライブラリ勢 評価関数のキメラ化にこだわり(ライブラリ+0からのApery, やねうら王による学習) GCP Compute Engine n1-highcpu-96
カツ丼将棋 評価関数 簡易4コマ+手調整 Stockfish風探索+実現確率(実験中) Corei7 X5690
Novice Stockfish9 Rotated Bitboard Apery KKP.bin (横型) Corei5 3470 x 4
きのあ将棋 1手ごと思考エンジンを実行し、次の着手を思考する 完全独自プログラム 加算連結する評価処理、乗算連結する評価処理をしたものを抽象化し評価関数を作成。 評価パラメータにノイズを加味する方法:2の倍数固定値方式 Corei7
Claire 駒割、3駒関係、ディープラーニング評価関数を使わず、駒の利きのみを使用。 定跡はfloodgateの棋譜約8万局より抽出。局面の出現数・勝率より指し手を選択 Stockfish9をベース、飛・角・歩の不成も探索 開発言語:Rust Corei7 6700HQ
SilverBullet やねうら王、python-shogi(python使用)、dlshogi (DL使用) 有名ライブラリと狙い撃ちされにくいライブラリを同居させることでアンチ対策 Corei5 7400
こまあそび 基本アルゴリズムはαβ法。王手、王手回避手、駒をとる手などを延長。 評価関数は学習は使わず手でチューニングしている。 Corei7 4700MQ
臥龍 αβ探索、反復深化、トランスポジションテーブル、null move pruning評価関数パラメータ:駒損得、成駒、当たり駒、駒の絶対位置、玉の自由度、各枡の利き、駒の働き、囲い、ピン、手番 Java使用 前回から変更なし。 Corei7 4980HQ
dainomaruDNNc dlshogiを使用。 elmo_for_leamにて訓練データ(17.6GB)、テストデータ(2057件)により強化学習を行った。最適化手法をMomentumSGDからRMSpropGravesに変更 Corei7 7700HQ
山田将棋 クラシカルな構造・アルゴリズム 手調整した評価値の線形和 配列による盤駒表現、駒背番号制、利き数、、、 αβ探索、反復深化、局面が静かでない場合の探索延長、、、 Xeon E5-2687W v4
海底 現時点で最新のバージョンは SDT5 版に対して9割程度勝つことのできる棋力 StockFishや強豪ソフトを, 開発者自身の技術力が許す範囲で部分的にとりいれた 2 駒関係 (KP,PP) を特徴量とする線形評価関数。elmo型学習。 Corei7 7700K
隠岐 将棋の思考部はワンパターンになりやすく、将棋ソースを作るプログラムを開発してそのプログラムにやらせている。 Corei7 7700
オッズの魔法使い モンテカルロ探索、少々アレンジ 評価関数はボナンザ6 詰将棋探索使用 Corei7 5960X
Anicca Go言語使用。 定跡を利用しない 駒割と利き。手動調整 Atom x5-Z8500
なり金将棋 教師無し学習にて3駒間+2駒間の評価値を学習 強化学習と遺伝的学習の組み合わせ Corei7 3635QM
手抜き D言語を使用。2コマ評価ベクター(なのはmini) αβ法で全幅探索します。持ち時間を管理していません。 Corei5 2520M
きふわらべ 素朴集合論を用いたN駒定形 将棋のルールを再定義 楽観パスを再定義(よくわからん) Corei7 N2830
十六式いろは改 学習部:なし 駒の損得のみ。探索は局地暴走モード。 Lua言語 Atom Z3735G
762alpha(まとめるのが難しい、、) 学習を自動化し、コンピュータ将棋プログラム開発への人間の介在を不用にする キーワード:局面の場合分け 終盤局面内の「必要な駒」の抽出 Corei7-6700, Core i7-8550U
YSS Zero AlphaZeroの論文を参考に将棋のルールだけを教えて自己対戦でディープラーニング 学習にはCaffeを使って50万棋譜の中から64局面(Minibatch 64)をランダムに 特徴はAlphaZeroと同一ですが、手数の情報だけは使っていない。 Amazon EC2 p3.8xlarge
TMOQ 定跡/戦型にこだわり 「まふ互角局面」をベースに、①指し手の採用率の変更および②指し手の追加を行い、自分らしい特定の定跡/戦型になるべく教育。 CUDA というコンピュータ言語で書かれている。 Corei7 7700HQ
悲劇的 with Zero ①利きを中心の特徴として、母体は Bonanza 6.0 で学習部に最新のライブラリ(技巧・やねうら王・Apery)という構成のソフトと、②2年前の選手権バージョンに強化学習風の学習で追加学習させたソフトの 2 つのバージョンを作成。何方かで出場。 前回とはほとんど変更なし。 Xeon E5-2687W
人生送りバント失敗 前回から変更なし。 探索はαβ中心で、LMRとかFutilityとかの至って普通の技術を使っている。 オンライン学習を勉強してみたかったので、平均化パーセプトロンを試している。 Corei7
broaden Alpha Zero風の実装 目標:なるべく小さいネットワークで強くする 学習にはfloodgateの棋譜3年分を使用。指し手と勝ち負けの結果のみ使用。 Ryzen 7 1700
GA将!!!!!!!!!(ver.9) “PGLeaf Zwei”と呼んでいる学習ルーチンを使用 「勝率の最大化」「評価関数の精度向上」「浅い探索と深い探索の結果の一致率の向上」「オーバーフィッティングの抑制」を目的 Corei5 6300U
ツツカナ 指し手を読む深さを機械学習によって決定している 二駒の位置関係や玉の安全度、8つの進行度を駆使したコンパクトで表現力の高い評価関数 機械学習+ハンドチューニング(探索中に得られる動的な情報)によって構成されたreduction Corei9 7980XE
ichibinichi すべてオリジナル。プログラムは、基本に忠実で、とてもシンプルです。 Linuxとはなんぞえという興味、そしてJavaの勉強のために参加させていただきま す。 Corei5 i5-4300U
W@ndre 角頭歩を指します。角頭歩ができないときは阪田流向飛車を指します。 3種類の評価関数を作成。(1)特定の形に強制的に減点・加点することで角頭歩局面を評価する評価関数を作成。(2),(3)略 Corei7 7700HQ
Crazy Shogi an implementation of the AlphaZero algorithm (as Deep Mind) original code developed from scratch, in C++ neural network code uses the CUDNN library to run on Nvidia GPU GPU 8xV100+p3.16xlarge instance on AWS.
S.S.E. Stockfish 8 をベースに 0 から開発。縦型ビットボード。 elmo評価関数 Xeon E5-2609 v3
ねね将棋 AlphaZeroで採用されている Monte-Carlo Tree Searchを実装 評価関数:Deep Neural Network を深層学習により学習します。GPUを使用。 Yanuraou+python shogi Amazon EC2 p3.8xlarge E5-2686v4
ArgoCorse_IcSyo 評価関数のキメラ(elmo,tanuki-,Apery,Qhapaq) 「現時点から10手先の局面を評価関数で評価して元局面よりも評価値が高い場合を勝ちとする」という方法でモンテカルロ将棋 元局面を評価関数で評価して、それよりも評価値が低くなる手は採用しない Amazon EC2 m4.16xlarge Xeon(R) E5-2686 v4
SMS将棋 れさぴょん使用。 探索を序盤は深く、終盤は広くしています。 評価は手作業で行い、細かく調整しています。 Celeron
Shogi Boy 自己対戦を繰り返す事によって得られる局面毎のデータから勝つ確率が最も高い手を選択する評価関数の作成をめざしています。 Corei7 3630QM
Girigiri 探索部の実装がC++からRustに 駒の損得のみだった評価関数を、機械学習による3駒関係を用いたものに 静止探索の追加 Corei5
dlshogi ディープラーニングを使用。モンテカルロ木探索。 自己対局による強化学習。マルチ GPU 対応。CUDA、cuDNN を直接使用。 elmo1、Aperyを学習データ生成、局面管理、合法手生成のために部分的に使用 リモートでAWSを使用する可能性あり 7900X
PAL Deep Learningを使わない。0ベースの評価関数の学習。 強化学習と敵対的学習のハイブリッド 高回転並列学習(N連ガチャ) Xeon Platinum 8175
Windfall 評価関数:deep neural networkに変更 仕様:脱ビットボード, 合法手の計算をニューラルネットで実行 Python, Tensorflow, sonnet, 今回はC++のコードはなし Corei5
Hefeweizen やねうら王の探索部とオリジナルの局面評価関数と分岐先読みクラスタを使用する予定です 深層学習で作った評価関数や魔改造した技巧2などがあるのですが強さを計測してから使用するか決定 疎結合なクラスタ構成なのでパーツ交換で対戦ごとに構成を変える可能性もあり ノートPC+クラウドの予定(未テスト)
Yorkies 評価関数:KPPT形式の手番ありの3駒関係。elmoメソッドで学習。やねうら王110億局面(depth10)+自作50億局面(depth8)を使用。 探索部:置換表のキーを256bit化する。 定跡部:elmo(WCSC27版)をベースに追加する Corei7×1 + Google Compute Engine×複数
こい将棋 標準的な反復深化αβ探索+手番付き3駒関係の評価関数の独自コード。 評価関数,高速化を工夫。 Xeon E5-2690 v4