機械学習エンジニアのためのTransformers : 最先端の自然言語処理ライブラリによるモデル開発
Author(s)
Bibliographic Information
機械学習エンジニアのためのTransformers : 最先端の自然言語処理ライブラリによるモデル開発
オライリー・ジャパン , オーム社 (発売), 2022.8
- Other Title
-
Natural language processing with Transformers : building language applications with Hugging Face
- Title Transcription
-
キカイ ガクシュウ エンジニア ノ タメ ノ Transformers : サイセンタン ノ シゼン ゲンゴ ショリ ライブラリ ニヨル モデル カイハツ
Available at 168 libraries
  Aomori
  Iwate
  Miyagi
  Akita
  Yamagata
  Fukushima
  Ibaraki
  Tochigi
  Gunma
  Saitama
  Chiba
  Tokyo
  Kanagawa
  Niigata
  Toyama
  Ishikawa
  Fukui
  Yamanashi
  Nagano
  Gifu
  Shizuoka
  Aichi
  Mie
  Shiga
  Kyoto
  Osaka
  Hyogo
  Nara
  Wakayama
  Tottori
  Shimane
  Okayama
  Hiroshima
  Yamaguchi
  Tokushima
  Kagawa
  Ehime
  Kochi
  Fukuoka
  Saga
  Nagasaki
  Kumamoto
  Oita
  Miyazaki
  Kagoshima
  Okinawa
  Korea
  China
  Thailand
  United Kingdom
  Germany
  Switzerland
  France
  Belgium
  Netherlands
  Sweden
  Norway
  United States of America
Search this Book/Journal
Note
原著 (O'Reilly Media, c2022) の翻訳
Description and Table of Contents
Description
「Hugging Face Transformers」を使った自然言語処理の解説書。2017年の登場以来、Transformerと呼ばれるアーキテクチャを使った大規模なモデルが急速に普及しています。本書では、Hugging Faceの開発者らが、「Hugging Face Transformers」を使って、これらの大規模モデルを学習しスケールする方法をわかりやすく紹介します。テキスト分類、固有表現認識、テキスト生成、要約、質問応答といったタスクだけでなく、蒸留、量子化、枝刈り、ONNX Runtimeといったモデルの高速化技術、ラベル付きデータが少ないときに使えるゼロショット学習や少数事例学習、その他、多言語転移やドメイン適応といった類書では扱っていない技術についても解説しています。
Table of Contents
- 1章 入門Transformers
- 2章 テキスト分類
- 3章 Transformerの詳細
- 4章 多言語の固有表現認識
- 5章 テキスト生成
- 6章 要約
- 7章 質問応答
- 8章 Transformersの高速化
- 9章 ラベルのないまたは少ない状況への対応方法
- 10章 Transformerをゼロから学習する
- 11章 Transformerの未来
by "BOOK database"