機械学習エンジニアのためのTransformers : 最先端の自然言語処理ライブラリによるモデル開発
著者
書誌事項
機械学習エンジニアのためのTransformers : 最先端の自然言語処理ライブラリによるモデル開発
オライリー・ジャパン , オーム社 (発売), 2022.8
- タイトル別名
-
Natural language processing with Transformers : building language applications with Hugging Face
- タイトル読み
-
キカイ ガクシュウ エンジニア ノ タメ ノ Transformers : サイセンタン ノ シゼン ゲンゴ ショリ ライブラリ ニヨル モデル カイハツ
大学図書館所蔵 全167件
  青森
  岩手
  宮城
  秋田
  山形
  福島
  茨城
  栃木
  群馬
  埼玉
  千葉
  東京
  神奈川
  新潟
  富山
  石川
  福井
  山梨
  長野
  岐阜
  静岡
  愛知
  三重
  滋賀
  京都
  大阪
  兵庫
  奈良
  和歌山
  鳥取
  島根
  岡山
  広島
  山口
  徳島
  香川
  愛媛
  高知
  福岡
  佐賀
  長崎
  熊本
  大分
  宮崎
  鹿児島
  沖縄
  韓国
  中国
  タイ
  イギリス
  ドイツ
  スイス
  フランス
  ベルギー
  オランダ
  スウェーデン
  ノルウェー
  アメリカ
この図書・雑誌をさがす
注記
原著 (O'Reilly Media, c2022) の翻訳
内容説明・目次
内容説明
「Hugging Face Transformers」を使った自然言語処理の解説書。2017年の登場以来、Transformerと呼ばれるアーキテクチャを使った大規模なモデルが急速に普及しています。本書では、Hugging Faceの開発者らが、「Hugging Face Transformers」を使って、これらの大規模モデルを学習しスケールする方法をわかりやすく紹介します。テキスト分類、固有表現認識、テキスト生成、要約、質問応答といったタスクだけでなく、蒸留、量子化、枝刈り、ONNX Runtimeといったモデルの高速化技術、ラベル付きデータが少ないときに使えるゼロショット学習や少数事例学習、その他、多言語転移やドメイン適応といった類書では扱っていない技術についても解説しています。
目次
- 1章 入門Transformers
- 2章 テキスト分類
- 3章 Transformerの詳細
- 4章 多言語の固有表現認識
- 5章 テキスト生成
- 6章 要約
- 7章 質問応答
- 8章 Transformersの高速化
- 9章 ラベルのないまたは少ない状況への対応方法
- 10章 Transformerをゼロから学習する
- 11章 Transformerの未来
「BOOKデータベース」 より