generated at
Transformer


左 encoder
翻訳元の文章を理解するのが得意な構造
のちにBERTで活用された
>You'll find the key repository boundaries in this illustration: a Transformer is generally made of a collection of Attention mechanism, embeddings to encode some positional information, feed-forward blocks and a residual path (typically referred to as pre- or post- layer norm).


Transformerは本文がわかりづらい
わかるように全部書いてやるという論文
MLPは前提
アーキテクチャの基本形は3つのパターン
decoder / encoder / trasnformer
encder / transformer
decoder / transfomer
GPTはこれ
decoderのような単語は歴史的経緯で、別にdecodeしてない



Googleが特許をとっている