N-gramモデルのエントロピーに基づくパラメータ削減に関する検討

書誌事項

タイトル別名
  • N gram モデル ノ エントロピー ニ モトヅク パラメータ サクゲン ニ カンスル ケントウ
  • A Study on Entropy-based Compression Algorithms for N-gram Parameters

この論文をさがす

抄録

人間の発話を文字に変換する大語彙連続音声認識(ディクテーション)技術は, キーボード入力の省力化や, 様々な環境下における人間とコンピュータ間の音声インタフェースの実現のために必要不可欠な技術であり, 活発に研究が行われている.認識システムには, 人間の言語知識の役割を果たす言語モデルが組み込まれており, 一般的には統計的言語モデルであるN-gramが用いられている.しかし, 数千語?数万語を対象とする場合, N-gramモデルのパラメータが指数関数的に増大し, システム構築に際して, 大きな障害が生じることになる.本稿では, これまでに提案された種々のN-gramモデルのパラメータ削減手法の比較を行う.また, 我々が提案する削減手法を(N-1)-gramに適用するための予備実験を行ったので, その結果について報告する.

収録刊行物

参考文献 (22)*注記

もっと見る

キーワード

詳細情報 詳細情報について

問題の指摘

ページトップへ