>Groq LPU™推論エンジン上で動作するMeta AIのLlama-2-70bは 、 出力トークンのスループットにおいて 、他の全ての クラウドベースの推論プロバイダーよりも 最大18倍高速 でした。
>現行のシステム では、10Rack で $2M
> 2nd Gen System では、5Rack で $1M
> 3rd Gen Systems では、1/2Rack で $500K と妄想しました。