記述長最小基準と状態分割の立場からみた確率モデルの選択方法について

書誌事項

タイトル別名
  • Selection of the Stochastic Model based on the Minimum Description Length Principle and State Decomposition
  • 基礎理論

この論文をさがす

抄録

本論文では 具体的な割練例系列から例外を許容する不確実な知識を学習する問題(確率的知識の学習)について検討している.入出力の系列からの学習の問題に限定すれば 確率的な関係をもつ入出力の系列から 各入力を前提にした各出力の条件付確率(確率的知識)を推定する問題として定式化できる.この問題を記述長最小基準から検討する場合に 状態分割の立場からの枠組みは既存のものである.本論文は その修正・拡張およびその際に生ずる問題について解決している具体的には まず系列が入出力の形式になっている前提を除去した一般的な場合を検討している.すなわち 多次元の属性値の確率的な因果関係を見いだす問題についてである.しかしながら 学習の対象を広げることによって 一般には学習の計算量は増カロする・本論文では この視点にたって学習の対象の広さと学習の計算量の相互関係を議論している.そして 学習の対象を若干狭めても学習の計算量を十分に低減させる方策について検討している.その一例として 問題を近似して学習対象をDendroid分布に限定した場合の記述長最小基準における最適解法を導出している.導出した学習アルゴリズムは C K Chowらのアルゴリズムに基づいているが 属性間の依存関係が単一の木構造になる仮定を排除する一般性がある.

収録刊行物

被引用文献 (2)*注記

もっと見る

参考文献 (19)*注記

もっと見る

キーワード

詳細情報 詳細情報について

  • CRID
    1050001337887889792
  • NII論文ID
    110002723409
  • NII書誌ID
    AN00116647
  • ISSN
    18827764
  • Web Site
    http://id.nii.ac.jp/1001/00014603/
  • 本文言語コード
    ja
  • 資料種別
    journal article
  • データソース種別
    • IRDB
    • CiNii Articles

問題の指摘

ページトップへ