generated at
Hallucination
> 人工知能(AI) では、幻覚または人工幻覚(妄想と呼ばれることもあります) は、トレーニング データでは正当化されないように見える AI による自信のある反応です。たとえば、Teslaの収益を知らない幻覚チャットボットは、チャットボットがもっともらしいと見なす乱数 (「136 億ドル」など) を内部的に選択し、Tesla の収益は136 億ドル、この数字が自分の想像力の産物であるという内部認識の兆候はありません。

>AIが幻覚を見るのは、AIプログラムを欺くような入力データである「Adversarial examples」が原因です。
>例えば、開発者はAIシステムを学習させるために画像やテキストなどのデータを使用しますが、データが変更されたり歪められたりすると、アプリケーションは入力を異なる方法で解釈し、誤った結果を出力します。

> このケースもハルシネーションと呼んで問題ないです。ハルシネーションは
> Intrinsic Hallucination: 生成結果が事実に反する
> Extrinsic Hallucination: 生成結果が条件付けにないものを出す
> の2種類あるというイケてないポイントがあり、ExtrinsicではないがIntrinsic Hallucinationはあり得ます
> 「これはハルシネーションって呼ばない」っていっぱいつっこまれちゃった。…
> > 【DeepResearchのハルシネーション】
> > 大人気ないかなと思ってあえて言ってなかったですが、DeepResearchもハルシネーション起きます。
> >
> > 例:「医学論文の執筆において生成AIを使ってよいか、ガイドラインを各publisherごとにまとめて」ってDeepResearchで依頼した場合の回答。…
> >