麻雀の打牌選択学習における\nDensely Multi Layer Perceptronの有効性と局面から獲得可能な特徴量の有効性

書誌事項

タイトル別名
  • Effectivity of Densely Multi Layer Perceptron and Effectivity of Features Obtained from Positions in Machine Learning Mahjong Players

抄録

本稿では,一般的なニューラルネットワークモデルである Multi Layer Perceptron(MLP)と,MLPの発展系である Densely Multi Layer Perceptron(DenseMLP)を用いて,麻雀の評価関数を学習することを試みた.近年,ゲームの分野でのディープラーニングの成果はめざましい.しかし,麻雀において, MLP を用いた評価関数の学習の先行研究は存在するがテスト一致率は 43.7%と低く,成果をあげていない.一方,Conbolutional Neural Network(CNN)を用いた先行研究では,68.8%と成果をあげている.そこで本稿では,先行研究で成果をあげられなかった MLP を用いて,先行研究と条件を変更し,中間層の数,各中間層のユニットの数を変化させ複数のモデルで実験を行なったところ,CNN を用いた先行研究のテスト一致率 68.8%と同程度のテスト一致率 68.6%を達成した.また,付録で示した実験ではニューラルネットワークへの入力に工夫を加えることで先行研究を大きく上回る 71.01%を記録した.また,MLPの発展系である DenseMLP についても同様の実験を行い,一致率の向上を試みたが,DenseMLP と MLPの間に大きな差は見られなかった.

In this paper, we try to train the evaluation functions of mahjong with Multi Layer Percep-tron(MLP) which is a general network model and Densely Connected Multi Layer Perceptron(DenseMLP) that is an extended model of MLP. In recent years, remarkable results of deep learning methods have been reported in the field of games. There was a study on learning of evaluation functions with MLP, but the test accuracy is as low as 43.7%. On the other hand, in a previous study with Convolutional Neural Net-work(CNN),the test accuracy was 68.8%. In this paper, we have conducted experiments with several models with MLP, and achieved 68.6%. In Addition, the experiment of appendix achieved 71.01%. We have con-ducted the same experiments with DenseMLP to improve the accuracy, but there was no significant difference between DenseMLP and MLP.

収録刊行物

詳細情報 詳細情報について

  • CRID
    1050011097169511424
  • NII論文ID
    170000180598
  • Web Site
    http://id.nii.ac.jp/1001/00199905/
  • 本文言語コード
    ja
  • 資料種別
    conference paper
  • データソース種別
    • IRDB
    • CiNii Articles

問題の指摘

ページトップへ