>@TJO_datasci: 近年のNN + NLP研究を網羅的に解説している素晴らしいスライド。それぞれの手法が出てきた当時はいまいちピンと来ていなかった概念がこれを読んですんなり理解できました
>典型的な言語モデルには,特定のタスクを解くために大量のラベル付きデータが必要
>特定タスクにモデルを適応する前に大規模コーパスで学習をする
> 2018年に登場したBERTが事前学習モデルの代表例です。BERTの登場以降,その応用モデルが数々開発され,タスクによっては人間を超えるような性能が実現されました。