Search Results 1-18 of 18

  • N-gram Approximation of Latent Words Language Models for Domain Robust Automatic Speech Recognition

    MASUMURA Ryo , ASAMI Taichi , OBA Takanobu , MASATAKI Hirokazu , SAKAUCHI Sumitaka , TAKAHASHI Satoshi

    … To solve the problem and apply this approach to ASR, this paper presents an n-gram approximation of LWLM. … The n-gram approximation is a method that approximates LWLM as a simple back-off n-gram structure, and offers LWLM-based robust one-pass ASR decoding. …

    IEICE Transactions on Information and Systems E99.D(10), 2462-2470, 2016

    J-STAGE

  • Statistical Language Modeling and Its Problems  [in Japanese]

    ITO Akinori

    … れている.特に back-off n-gram は連続音声認識の言語モデルの標準といっても良い一方,n-gram を超える言語モデルは多数提案されてきたが,n-gram (特に trigram) を大きく凌ぐ言語モデルはまだ発見されていない.本稿では,n-gram が持つ問題点 …

    IPSJ SIG Notes 2008(68(2008-SLP-072)), 43-46, 2008-07-11

    IPSJ References (30)

  • Estimation of N-gram probabilities based on the Binomial Posteriori Distribution  [in Japanese]

    Kawabata Takeshi

    … 音声認識の言語モデルとしてよく用いられるn-gram記号連鎖確率の高精度推定は, 統計的言語処理における重要な課題の一つである。 … 言語モデルとしての能力を高めるために, グラム数を大きくするとn-gramコンテキストの種類が語彙数のn乗オーダになるため, 推定の信頼性を高めるために非現実的な量の言語コーパスが必要になる。 …

    THE JOURNAL OF THE ACOUSTICAL SOCIETY OF JAPAN 61(8), 441-447, 2005

    J-STAGE References (12)

  • Performance Improvement of the Language Model Using Adaptive Interpolation of Multiple Back-off N-gram Models  [in Japanese]

    TAKAHASHI Rikiya , MINEMATSU Nobuaki , HIROSE Keikichi

    … 本稿では複数のN-gramモデルを動的補間する言語モデルとその高精度化手法について述べる。 … 複数のN-gramモデルを動的補間する言語モデルは二つの要素技術から成り立つ。 …

    IEICE technical report. Natural language understanding and models of communication 103(517), 61-66, 2003-12-18

  • Performance Improvement of the Language Model Using Adaptive Interpolation of Multiple Back - off N - gram Models  [in Japanese]

    TAKAHASHI Rikiya , MINEMATSU Nobuaki , HIROSE Keikichi

    … 本稿では複数のN-gramモデルを動的補間する言語モデルとその高精度化手法について述べる。 … 複数のN-gramモデルを動的保間する言語モデルは二つの要素技術から成り立つ。 …

    IPSJ SIG Notes 2003(124(2003-SLP-049)), 61-66, 2003-12-18

    IPSJ References (8)

  • Performance Improvement of the Language Model Using Adaptive Interpolation of Multiple Back-off N-gram Models  [in Japanese]

    TAKAHASHI Rikiya , MINEMATSU Nobuaki , HIROSE Keikichi

    … 本稿では複数のN-gramモデルを動的補間する言語モデルとその高精度化手法について述べる。 … 複数のN-gramモデルを動的補間する言語モデルは二つの要素技術から成り立つ。 …

    IEICE technical report. Speech 103(519), 61-66, 2003-12-11

    References (8)

  • Performance Improvement of the Language Model Using Adaptive Interpolation of Multiple Back-off N-gram Models  [in Japanese]

    TAKAHASHI Rikiya , MINEMATSU Nobuaki , HIROSE Keikichi

    電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション 103(517), 61-66, 2003-12-11

    References (8)

  • Complemental Back-off Algorithm for Merging Language Models  [in Japanese]

    NAGATOMO Kentaro , NISHIMURA Ryuichi , KOMATSU Kumiko , KURODA Yuka , LEE Akinobu , SARUWATARI Hiroshi , SHIKANO Kiyohiro

    … 高精度な言語モデルの融合手法として,相補的バックオフアルゴリズムに基づく融合アルゴリズムを提案するとともに,それを用いた言語モデルの融合ツールを構築した.N-gram言語モデルは,学習元のコーパスの話題や知識,語調や発話様式などの特徴を反映する.そのため,タスクごとの特徴を反映した複数の言語モデルを融合することで,より多様な入力に対処できるモデルを構築できる.この …

    Transactions of Information Processing Society of Japan 43(9), 2884-2893, 2002-09-15

    IPSJ IR References (15) Cited by (23)

  • An Efficient N-Best Search Method Using Best-Word Back-off Connection in Large Vacabulary Continuous Speech Recognition  [in Japanese]

    OGATA Jun , ARIKI Yasuo

    … 本論文では, 大語彙(い)連続音声認識のための高速なN-best探索手法を提案する.大語彙連続音声認識で一般的に用いられているlexical tree searchは効率的な探索アルゴリズムであるが, bigram確率のfactorizationを行う際, その必要メモリ量と処理時間の観点で問題があった.本論文ではまず, bigram言語モデルのback-off接続制約を考慮した探索ネットワークを用いることで, bigram factorizationにおけ …

    The Transactions of the Institute of Electronics,Information and Communication Engineers. 00084(00012), 2489-2500, 2001-12-01

    References (20) Cited by (20)

  • Complemental Backoff Algorithm for Merging Language Models  [in Japanese]

    NAGATOMO Kentaro , NISIMURA Ryuichi , KOMATSU Kumiko , KURODA Yuka , LEE Akinobu , SARUWATARI Hiroshi , SHIKANO Kiyohiro

    N-gram言語モデルは学習元のコーパスの話題や知識に依存するが、異なるタスクについて構築された複数のN-gram言語モデルの融合を行なうことで、広いタスクをカバーする言語モデルを構築できる。 … この際、ある言語モデルでは観測されるが他のモデルでは観測されないような未観測N-gramが存在する。 …

    IPSJ SIG Notes 2001(11(2000-SLP-035)), 49-54, 2001-02-02

    IPSJ References (6) Cited by (17)

  • A Study of Thesaurus-based Statistical Language Model  [in Japanese]

    ANDO Akio , SUZUKI Junko , SHIRAI Katsuhiko

    … 大語彙連続音声認識のための言語モデルとして、シソーラスから得られる単語クラスに基づく新しいクラスn-gramモデルについて検討する。 … そこで、本モデルを利用し、出現確率の低い文を生成したところ、従来の単語n-gramモデルを用いた場合よりも、適切な検査文が得られた。 …

    IEICE technical report. Speech 97(115), 59-66, 1997-06-20

    References (14) Cited by (1)

  • How to Determine the Inheritance Factors of BPD Back-off N-gram Smoothing Method  [in Japanese]

    KAWABATA Takeshi

    N-gram記号連鎖確率の高精度推定は統計的言語処理における重要な課題の一つである。 … 言語モデルとしての能力を高めるためには、大きいグラム数を用いたいが、n-gramのコンテキストの種類が語彙数のn乗のオーダーになるため、推定の信頼性を高めるためには膨大な言語コーパスが必要となってしまう。 …

    IEICE technical report. Speech 96(364), 19-24, 1996-11-15

    References (7) Cited by (1)

  • Statistical Aspects on N-gram Symbol Sequence probabilities  [in Japanese]

    Kawabata Takeshi

    N-gramは、記号n個の連鎖共起に基づく、簡単な確率的記号連鎖(言語)モデルである。 … 特に、過去n-1個の記号がわかっているとき、次に記号w'が出現する条件つき確率P(W,|W^<t-1>_<t-n+1>) where (W^<t-1>_<t-n+1>=W_<t-n+1>,W_<t-n>,…,W_<t-1> …

    Proceedings of the IEICE General Conference 1996年.情報・システム(1), 343-344, 1996-03-11

  • Back-off Method for N-gram Smoothing based on Binomial Posteriori Distribution  [in Japanese]

    KAWABATA Takeshi , TAMOTO Masafumi

    IEICE technical report. Speech 95(431), 1-6, 1995-12-15

    References (6) Cited by (3)

  • Back-off Method for N-gram Smoothing based on Binomial Posteriori Distribution  [in Japanese]

    KAWABATA Takeshi , TAMOTO Masafumi

    N-gram言語モデルは、自然音声言語を取り扱うための有力な手法の一つであるが信頼できるパラメータ推定のために、膨大な音声言語コーパスを必要とするという問題点があった。 … このため、疎(スパース)なデータからn-gram確率を推定する種々の手法が提案されている。 …

    IEICE technical report. Natural language understanding and models of communication 95(429), 1-6, 1995-12-15

    References (6) Cited by (3)

  • Back - off Method for N - gram Smoothing based on Binomial Posteriori Distribution  [in Japanese]

    KAWABATA Takeshi , TAMOTO Masafumi

    n?gram言語モデルは、自然音声言語を取り扱うための有力な手法の一つであるが信頼できるパラメータ推定のために、膨大な音声言語コーパスを必要とするという問題点があった。 … このため、疎(スパース)なデータがらn?gram確率を推定する種々の手法が提案されている。 …

    IPSJ SIG Notes 1995(120(1995-SLP-009)), 87-92, 1995-12-14

    IPSJ References (6)

  • Back-off Method for N-gram Smoothing based on Binomial Posteriori Distribution  [in Japanese]

    KAWABATA Takeshi , TAMOTO Masafumi

    日本音響学会研究発表会講演論文集 1995(2), 27-28, 1995-09-01

    References (3) Cited by (1)

  • 二項事後分布に基づくN-gram言語モデルのBack-off平滑化

    川端豪

    信学技報, SP95-93, 1995

    Cited by (2)

Page Top