generated at
Dolly
GPT-J 6BをStanford Alpacaのデータセットで微調整したモデル
注目するポイントはGPT-Jという古い∧小規模(パラメーター数6B)モデルでも、Alpacaのような高品質なデータセットでチューニングするとChatGPTのような性能を発揮する点
指示(プロンプト)にちゃんと従うかどうかの能力をinstruction-following capabilitiesというらしい

Stanford Alpacaのデータセットを使っているのでDollyは研究用途のみ使用可