言語の数理とLLMの知能 : 言葉を計算で繋ぐメカニズム

書誌事項

言語の数理とLLMの知能 : 言葉を計算で繋ぐメカニズム

船蔵颯著

オーム社, 2025.6

タイトル読み

ゲンゴ ノ スウリ ト LLM ノ チノウ : コトバ オ ケイサン デ ツナグ メカニズム

大学図書館所蔵 件 / 93

この図書・雑誌をさがす

注記

表現種別: テキスト (ncrcontent), 機器種別: 機器不用 (ncrmedia), キャリア種別: 冊子 (ncrcarrier)

参考文献: p[158]-171

内容説明・目次

内容説明

生成AIの1つである大規模言語モデル(LLM)は、言語を操る数理モデルの1つのあり方です。LLMを活用するシステムの研究・開発は、その不確実性の高さや制御の難しさから、多くの試行錯誤を要します。そのため、より効率的に、より効果的に課題解決をするためには、LLMがテキストを生成する仕組みの理解や、LLMを強化する方法論に向き合うことは欠かせません。また同時に、言語をつかさどる暗黙的な規則性を炙り出す、LLMとは異なるタイプの数理モデルにも目を向けるべきでしょう。これらの知見は、地に足のついた試行錯誤へと繋がります。上記のような知見は、計算言語学という領域で蓄積されています。本書は、LLM時代における計算言語学の「言語の理論としての側面」と、「言語の工学としての側面」に着目した入門書です。本書により、LLMをはじめとする言語の数理モデルが読者の皆さまの手札の1つとなり、より多くの実務的課題・学術的課題が解き明かされることを願います。

目次

  • 第1章 自然言語の数理(計算言語学とは;言語の理論としての計算言語学;言語の工学としての計算言語学;まとめと本書の構成)
  • 第2章 形式的手法による言語学(意味現象;依存型意味論序説;未指定型による形式証明の制御)
  • 第3章 大規模言語モデルの仕組み(言語モデルによるテキストの生成;大規模言語モデルのパイプライン;Tramsformerの機構;大規模言語モデルの学習大規模言語モデルの評価;データセットの作成方法)
  • 第4章 大規模言語モデルは何を理解しているか(注意機構の分析;プロービング;Logit lens:語彙空間への射影)
  • 第5章 大規模言語モデルの実用(大規模言語モデルの軽量化・高速化;RAG:大規模言語モデルの知識拡張;LLMエージェント:自律・推論・動態)
  • 付録

「BOOKデータベース」 より

詳細情報

ページトップへ