generated at
Groq LPU™
https://wow.groq.com/groq-lpu-inference-engine-crushes-first-public-llm-benchmark/Groq LPU™ Inference Engine Crushes First Public LLM Benchmark
>Groq LPU™推論エンジン上で動作するMeta AIのLlama-2-70bは 、 出力トークンのスループットにおいて 、他の全ての クラウドベースの推論プロバイダーよりも 最大18倍高速 でした。


https://vengineer.hatenablog.com/entry/2023/10/29/080000Groqの新しいチップと新しいシステム - Vengineerの戯言
https://vengineer.hatenablog.com/entry/2023/08/22/000000Groq の Language Processing Unitって、なんだ? - Vengineerの戯言
https://vengineer.hatenablog.com/entry/2024/02/21/173000Groq で LIama 2 70B を推論システムとして使った時の規模とお値段を妄想する - Vengineerの戯言
>現行のシステム では、10Rack で $2M
> 2nd Gen System では、5Rack で $1M
> 3rd Gen Systems では、1/2Rack で $500K と妄想しました。

まったく関係がない