>データセットを使ってプロンプトを生成する。
>OpenAIモデルが提供する補完の品質を測定し
> 異なるデータセットやモデル間で性能を比較することができます。
>OpenAI の PlayGround でトライアンドエラーで行っていた作業が、eval を作成してコード化することで何度も実行できるようになる点に利点を感じています。
> Evals を利用することで、プロンプトで与える情報量とモデルの精度の検証や、新たなモデルが公開された時に既存のプロンプトが新しいモデルでどのように動くのかを、再現性をもって検証することが可能になります。