RedPajama
ベンチマークで他の同じサイズのオープンモデルを上回るベースモデル
フューショットプロンプトに最適化されたモデルで、RedPajama-INCITE-Base-3B-v1ベースモデル上で
GPT-JTと同じ式を使用してファインチューニングされました(ただし、HELMベンチマークと重複するすべてのデータセットを除外)
訓練の途中で約8000億トークンを完了し、品質が訓練中に改善するにつれ、RedPajama 7Bの初期プレビュー版
RedPajama-INCITE-Base-7B-previewで訓練されたチャットモデルの初期プレビュー版
RedPajama-INCITE-Base-7B-previewで訓練されたフューショットプロンプト用に設計されたモデルの初期プレビュー版
完全オープンソースな
LLaMaの製作を目指すプロジェクト
LLaMaは研究目的のみ使用可