>・OpenAIは、この論文の内容に従って、GPT-2よりも大規模なGPT-3やGPT-4などの言語モデルを作ってきた。
> ・しかし2023年4月、OpenAIのCEOであるサム・アルトマン(Sam Altman)氏が「巨大なAIモデルの時代はすでに終わった
> と主張し、今後はスケーリング則に頼らない手法(その有望な手法の一つが「RLHF:人間のフィードバックを使った強化
> 学習」)の採用を考えていることが報じられた
> ・https://wired.jp/article/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/
> ・スケーリング則のように際限なく巨大化する手法は、データセンターの構築やコストなど物理的な限界があるため。