5分で分かる! ? 有名論文ナナメ読み:Ashish Vaswani et al. : Attention Is All You Need

書誌事項

タイトル別名
  • 5フン デ ワカル!? ユウメイ ロンブン ナナメ ヨミ Ashish Vaswani et al. : Attention Is All You Need

この論文をさがす

抄録

本項では2017年に発表された,attention機構だけで構成されたニューラル機械翻訳モデルであるTransformerについて,特にself-attentionに焦点を当てて解説する.またTransformerモデルが革新的であることを説明するために,それ以前に提案されたニューラル機械翻訳のモデルを順に説明する.

収録刊行物

  • 情報処理

    情報処理 59 (11), 1040-1042, 2018-10-15

    東京 : 情報処理学会 ; 1960-

キーワード

詳細情報 詳細情報について

問題の指摘

ページトップへ