>Cerebras-GPTファミリーは、オープンなアーキテクチャとデータセットを用いたLLMのスケーリング法則の研究を促進し、CerebrasソフトウェアとハードウェアスタックでLLMをトレーニングすることの簡便性とスケーラビリティを実証するためにリリースされました。Cerebras-GPTの全モデルは、Hugging Faceで利用可能です。
>
> ファミリーは、111M、256M、590M、1.3B、2.7B、6.7B、13Bのモデルがあります。
>
> Cerebras-GPTファミリーのすべてのモデルは、計算機最適化であるChinchillaスケーリング法則(モデルパラメータあたり20トークン)に従って学習されています。
> cerebras/Cerebras-GPT-13B
> cerebras/Cerebras-GPT-6.7B
> cerebras/Cerebras-GPT-2.7B
> cerebras/Cerebras-GPT-1.3B
> cerebras/Cerebras-GPT-590M
> cerebras/Cerebras-GPT-256M
> cerebras/Cerebras-GPT-111M
>GPUを使わないで学習させたLLMのパイオニアである。