generated at
Grok
> 眠れないからおすすめ聞いてみたら壊れちゃった🥲
> 
> @tmgnrei: おいwwwwwwwwwwwwwwwwwwwwwwwwww
> Twitterの新機能、精度良すぎて「前世バレ」するんだがwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
> 
> 
Twitterの生成AI
>xAIを発表した後、私たちは330億のパラメータを持つプロトタイプLLM(Grok-0)を訓練しました。この初期のモデルは、標準的なLMベンチマークでLLA 2(70B)機能にアプローチしますが、トレーニングリソースの半分しか使用していません。過去2ヶ月間で、はるかに強力な最先端の言語モデルであるGrok-1に至るまで、推論とコーディング能力を大幅に改善し、HumanEvalコーディングタスクで63.2%、MMLUで73%を達成しました。
GPT-4より現時点での応答の洗練度は低い
>これらのベンチマークでは、Grok-1は強力な結果を示し、ChatGPT-3.5やInflection-1を含むコンピューティングクラスの他のすべてのモデルを上回りました。これは、GPT-4のようなかなり大量のトレーニングデータと計算リソースで訓練されたモデルによってのみ追い越されます。
>Grok(グロク)の由来は、ロバート・A・ハインラインが1961年のSF小説「異星の客」で用いた造語。火星語で、理解する、認識するという意味ということになっている。