generated at
RWKV
読み ルワクフ(RwaKuv)(多分)
RNNでありながらTransformerと同程度の性能を持つ言語モデル
Transformerと違い、コンテキスト長が無限
これは理論的な話で、実際には学習時に使用したトークン数に影響されるため一応1024に設定されている

モデル
The Pileで学習
派生モデル

派生ツール
一番手っ取り早く動かせるGUI
...

性能比較待ちだけどVRAM3GBで動くらしいので革命が起きていると思うwogikaze