書誌事項
- タイトル別名
-
- 5フン デ ワカル!? ユウメイ ロンブン ナナメ ヨミ Ashish Vaswani et al. : Attention Is All You Need
この論文をさがす
抄録
本項では2017年に発表された,attention機構だけで構成されたニューラル機械翻訳モデルであるTransformerについて,特にself-attentionに焦点を当てて解説する.またTransformerモデルが革新的であることを説明するために,それ以前に提案されたニューラル機械翻訳のモデルを順に説明する.
収録刊行物
-
- 情報処理
-
情報処理 59 (11), 1040-1042, 2018-10-15
東京 : 情報処理学会 ; 1960-
- Tweet
キーワード
詳細情報 詳細情報について
-
- CRID
- 1050845762839862272
-
- NII論文ID
- 40021708104
-
- NII書誌ID
- AN00116625
-
- ISSN
- 04478053
-
- NDL書誌ID
- 029313166
-
- 本文言語コード
- ja
-
- 資料種別
- departmental bulletin paper
-
- データソース種別
-
- IRDB
- NDL
- CiNii Articles