generated at
RedPajama
ベンチマークで他の同じサイズのオープンモデルを上回るベースモデル
Dolly 2.0 および Open Assistant のデータを使用して RedPajama-INCITE-Base-3B-v1 ベースモデルをファインチューニングしたチャットモデル
フューショットプロンプトに最適化されたモデルで、RedPajama-INCITE-Base-3B-v1ベースモデル上でGPT-JTと同じ式を使用してファインチューニングされました(ただし、HELMベンチマークと重複するすべてのデータセットを除外)
訓練の途中で約8000億トークンを完了し、品質が訓練中に改善するにつれ、RedPajama 7Bの初期プレビュー版
RedPajama-INCITE-Base-7B-previewで訓練されたチャットモデルの初期プレビュー版
RedPajama-INCITE-Base-7B-previewで訓練されたフューショットプロンプト用に設計されたモデルの初期プレビュー版

完全オープンソースなLLaMaの製作を目指すプロジェクト
LLaMaは研究目的のみ使用可
データスライスの構成をhttps://arxiv.org/abs/2302.13971に記載されたトークン数とほぼ一致するように調整