書誌事項
- タイトル別名
-
- N gram モデル ノ エントロピー ニ モトヅク パラメータ サクゲン ニ カンスル ケントウ
- A Study on Entropy-based Compression Algorithms for N-gram Parameters
この論文をさがす
抄録
人間の発話を文字に変換する大語彙連続音声認識(ディクテーション)技術は, キーボード入力の省力化や, 様々な環境下における人間とコンピュータ間の音声インタフェースの実現のために必要不可欠な技術であり, 活発に研究が行われている.認識システムには, 人間の言語知識の役割を果たす言語モデルが組み込まれており, 一般的には統計的言語モデルであるN-gramが用いられている.しかし, 数千語?数万語を対象とする場合, N-gramモデルのパラメータが指数関数的に増大し, システム構築に際して, 大きな障害が生じることになる.本稿では, これまでに提案された種々のN-gramモデルのパラメータ削減手法の比較を行う.また, 我々が提案する削減手法を(N-1)-gramに適用するための予備実験を行ったので, その結果について報告する.
収録刊行物
-
- 情報処理学会論文誌
-
情報処理学会論文誌 42 (2), 327-333, 2001-02
情報処理学会
- Tweet
キーワード
詳細情報 詳細情報について
-
- CRID
- 1050014359400009728
-
- NII論文ID
- 110002725740
-
- NII書誌ID
- AA12317677
-
- ISSN
- 18827837
- 18827764
- 03875806
-
- HANDLE
- 10061/7764
-
- NDL書誌ID
- 5667528
-
- 本文言語コード
- ja
-
- 資料種別
- journal article
-
- データソース種別
-
- IRDB
- NDL
- CiNii Articles