GLAZE
>「Glaze」は、アートワークへ人間の目にはほとんど見えない微小な変更を加えるツール。それによって、画像生成AIがそのアートワークを学習する際、別の画風(例えばゴッホなど)に解釈させるものだという。
オプトアウトは理解できるのだけど、これを学習したせいで画像生成モデルが汚染されるとなると、またややこしくなりそうだな…

効果あるのだろうかこれ?

とりあえず拡大しなくてもわかるレベルでノイズが乗ってたのでびみょい
あと Glaze をかける過程で Stable Diffusion v1.5 が動いてるぽいので、SD で学習されないために SD を使うという奇妙なかんじ
少数のイラストレーター/デザイナーの権利を守るために、大多数のエンジニアの権利を剥奪するとはこれ如何に🤔
やっちゃってるじゃん

>研究チームが公開したGlazeの保護を突破する方法は、画像のアップスケーリングや新しいデータでAIをトレーニングする際に「別の微調整スクリプトを使用する」「トレーニング前に画像にガウスノイズを適用する」といったものです。研究チームは「これらの手法を適用することで、既存の保護を大幅に低下させることが可能です」と指摘しています。