generated at
LLMのオープン性
>arankomatsuzaki A Survey of Large Language Models
>
>

LLMs
Modelアーキテクチャトレーニングデータモデル配布checkpoints最適化トレーニング?ライセンス
OpenAI GPT-2
OpenAI GPT-3
OpenAI GPT-4
Microsoft Megatron-Turing NLG
Microsoft Prometheus
Meta OPT-IML
Stability LLM(仮)
LINE HyperCLOVA
LAION Open Assistant
Allenai COSMO
百度 ERINE
百度 Wu Dao
Google Flan-PaLM
Google Flan-U-PaLM
Google Flan-T5
Google Flan-UL2
Google LaMDA
Google PaLM
BigScience BLOOM
Alpa OPT
DeepMind Gopher
DeepMind Chinchilla
DeepMind Sparrow
AI21 Labs Jurassic-1
Huawei PanGu-Alpha
Aleph Alpha Luminous-Supreme
Aleph Alpha Luminous-World
Meta LLaMA
Stanford Alpaca
GALACTICACC BY-NC 4.0
Gpt4all研究目的のみ
abeja gpt-neox-japanese
EleutherAI gpt-j
EleutherAI gpt-NeoXT
BERT
THUDM ChatGLM
ChatGLM
BlinkDL Raven商用不可
BlinkDL RWKVApache 2.0
Cerebras-GPTApache 2.0
GeoV
PythiaMITライセンス
Dolly研究目的のみ
Dolly 2.0商用可
PolyglotApache 2.0
StableLMCC BY-SA 4.0
MPT-7B BaseApache 2.0
MPT-7B-StoryWriter-65k+Apache 2.0
MPT-7B-InstructCC BY-SA 3.0
MPT-7B-ChatCC BY-NC-SA 4.0
OpenLLaMAApache 2.0