generated at
MPT-7B
https://www.mosaicml.com/blog/mpt-7b Introducing MPT-7B: A New Standard for Open-Source, Commercially Usable LLMs
MPTシリーズ
1Tトークンで学習
ALiBiを採用し入力トークン数65k(最大84k)で学習

モデル郡
decoder-style transformer
decoder only?
超長コンテキスト長で物語を読み書きするように設計されたモデル
the_pile_books3 でファインチューニング
📜Apache 2.0
dolly_hhrlhfでファインチューニング
チャットボットのためのモデル
複数の(非商用を含む)データセットでファインチューニング

量子化モデル