generated at
BERT
Bidirectional Encoder Representations from Transformers (BERT) is a technique for NLP (Natural Language Processing) pre-training developed by Google.
BERT was created and published in 2018 by Jacob Devlin and his colleagues from Google.
Google is leveraging BERT to better understand user searches.


qiitaでBERTで検索しても結構見つかる


READMEの翻訳



>Transformerをたくさん積み重ねただけ
>Transformerの実装はオリジナルの tensor2tensor ライブラリを使っていて、しかも何もいじってない
ただし
TransformerのEncoder部分だけ使ってるのでそもそも構造が違うのに注意
これについて明確に述べている文章がmiyamonzが調べた時点ではあまりなく、注意が必要だと思った
研究してる人らにとっては当たり前でわざわざ述べてない、ということな気がする

TransformerのEncoderブロックから成る
ネットワーク側でなく学習データ側にマスクをかけている

ファインチューニングでいろんなタスクに使えるように
複数センテンス入力
1つのセンテンス入力
class label出力
start/end Span
とかがあるっぽい

ファインチューニングに関して
固定するパラメータはないはず