generated at
大規模言語モデル
Key concepts:

リソース増やせば、そのまま性能向上が期待できる。 #LLM
学習にお金がかかるので、事実上、いくつかのものしかない?

>OpenAIはこのGPT-3開発の知見を基に「ディープラーニングのscaling law(スケール則)」を提唱。モデルのパラメータ数、学習データ量、計算リソースを増やしていけば、性能はそのままスケールしていくとまで発表している

ロボット開発分野で応用が効く?