generated at
ChatGPTのオープンソース版である「OpenAssistant」がプロンプトに対する回答の精度を向上させるためにアノテーションプラットフォーム使ってみんなで"AIを所持する未来"を作ってきた
public
このノートの構成
1. Open Assistantについて
2. 機械学習用データセットを集めるためにアノテーションプラットフォームを開始した
3. 先行事例: AWSのMTurkについて
4. 既存のデータを判別する「アノテーション」から(データ枯渇が原因で)データを生み出す方向にシフトする
5. AIコモンセンスがコモディティ化した後
6. インターネット上で公開されていないデータをもとに動く業界特化型AI(コンソーシアム型AI)
7. 機械学習のFine-tuningOptimize by attentionと見る
8. デスクトップでFederated Learningと、スマホからSocial Annotation
9. 国家が公共財を支持するために徴税をするのであれば、AI DAOのメンバーには"納税"としてのSemantic Annotationが求められる
最後に. DeCartographyをよろしく!

Open Assistantについて
OpenAIが開発したChatGPTを知ってる人は多いと思うけど、これは1企業が作ったものだ
そして、投資を受けているから次のバージョンであるGPT-4のChatGPTは、Microsoftのサービスと統合される
つまり、Microsoftを使ってるユーザーしかこの恩恵を受けられない
加えて、検閲がかけられている。どういうことかというと、暴力的なワードはOpenAIが答えないように規制している

そこで、オープンソースでAIをChatGPTのオルタナティブを作るプロジェクトがある
そこで最近発表されたのが、Open Assistant


OSSなのでGitHub上で開発の様子が見れる

GlaspChatGPT, RewindWhisperを使っているように、「大規模言語モデルの成果をアプリに埋め込む」という使い方があるが、Open Assistantもそんな感じを目指してるっぽい

関連

まずは簡単に、「ChatGPTの作り方」を紹介
この機械学習モデルを作る中で、fine-tuningが必要だと
それはいまだに「人間でやるのが最も効率がいい。この作業をみんなに協力してほしい!」と。

機械学習用データセットを集めるためにアノテーションプラットフォームを開始した
会話を理解するプロセスについて説明
> プロンプターは、会話の中での役割から、プロンプターを「ユーザー」と呼びたくなります。しかし私たちはすでに、このシステムと対話する人々を「ユーザ」と呼んでいます。そして、これらのユーザはそれぞれ、アシスタント、プロンプター、順位付け、投票などの役割を担うことができます。ですから用語は分けて考えたほうがいいでしょう。プロンプターとは会話における役割、ユーザーとは我々のデータと対話する実際の人間です。
アノテーションを行う人たち」

Discordでサインインができる

タスクをする画面。つまり、機械学習モデルをみんなで育てるような場所だ!

これは"ユーザー"が、Linuxにどうアプリをインストールするのかと聞いてる
Open Assistantがこの真ん中の質問に答えて、
もう一度ユーザーが「Linuxには詳しくない、どのパッケージマネージャーがいいの?」「Ubuntuを使っている」と聞いている様子がわかる

ちなみに、AI調教ガイドとも言えるべきドキュメントも公開されている

AIトレーニングのためのタスク開始!

先行事例: AWSのMTurkについて
AWSのプラットフォームの1つに「MTurk」というクラウドソーシング用のものがある
これは、以下のようなものである
1. AWSに対して企業はアノテーションしてほしいものを送る
2. クラウドワーカーは24時間いつでもMTurkにある「タスク」を取って、仕事することができる
3. 一定数のタスクを終えると報酬を受け取れる

要は、「機械学習データセットのアノテーションをクラウドソーシングできるサイト」なのだ。

調べてみると、MTurkのスクリーンショットがあった
EmotionLines: An Emotion Corpus of Multi-Party Conversationsという論文の図から取ってきた

MTurkを使ってる人たちを取材した記事
2006年に書かれていることに留意
>1つの作業につき数ドルから数十円の報酬で、自らを「ターカー」と呼ぶ労働者たちは、写真に色を合わせるような暗記作業かもしれないが、コンピュータを困惑させるような作業を行うのである。
> 哲学的な観点から言えば、これは従来のコンピューティングのパラダイムを覆すものです」と言う。「通常、人はコンピュータの助けを借りて仕事をします。この場合、コンピュータが人間からタスクを助けてもらっているのです」。
>昨年11月以来、米国をはじめ100カ国以上から何千人もの労働者がMturk.comで仕事をこなしている。

>企業側は確かに満足している。私がコンタクトを取った企業は、Amazon Mechanical Turkで仕事を受けると、驚くほどコストがかからないと述べています。何百人もの人にプロジェクトを分担させることで、派遣社員やコンサルタント、ましてや実際の従業員に委託するよりも早く仕事を終わらせることができるだけでなく、はるかに安価に仕事を終わらせることができるのです。このサイトのキャッチフレーズは、「格安の人工知能」でいいだろう。Mturk.comを使ってトラブルシューティングの質問に答えているある技術系企業は、通常なら数千ドルかかる仕事をMechanical Turkで数十ドルに抑えていると自慢している。そして、もし企業がターカーから得られる仕事の質が気に入らなければ、単にお金を払わなければいいのだ。

> いわば、今までは国境というものが国によって主観的に引かれていて、その中で労働や、それらを超えてグローバル経済があったけど、MTurkのようなものはグローバルの最低賃金を破壊する可能性があると思っている
>つまり、人類最後の労働は「労働をしなくて良くするための労働」だと思っている
>これが、機械学習のText-embeddingとかになるんじゃないかな。Federated Learningもそうで、アノテーションとか。


PoWを基本としたFederated Learningは、"Decentralized AI "への唯一の道と書いたことがあるが、もう一度軽く触れておこう


既存のデータを判別する「アノテーション」から(データ枯渇が原因で)データを生み出す方向にシフトする
GPT-4が誕生しても「幻覚」は消えない。そのためにはSemantic Dataが必要tkgshntkgshn



元々本来のWeb3はSemantic Webだったんだけど、実際には、Semantic Dataはデータ生成のインセンティブが提供者と受益者で合致しないってので失敗しちゃった

AIコモンセンスがコモディティ化した後
企業は自前のAIを作ることになるだろうが、データを入手できるところはもうすでに大手がやってるので、「データが取れない領域をメインに」コンソーシアム型AIは発展していくであろう

人間のコモンセンスを"自然"とし、機械学習モデルに対しては人工的に入力を繰り返す姿は、人間が判断する"よさ"を入力するセンサー担っている
予測市場によってリストを構築する「Token Curated Registry
これは仮想通貨を使って実験されている最中だ

課題: 既存のソーシャルメディア等をはじめとするコンテンツモデレーションは中央集権的だ
解決: そこで、Open Source Attentionという概念を使って再設計する必要がある
>分散化とオープンソースソフトウェアの動きに触発され、我々はオープンソースアテンションを提案する。
> これは、スティグマーギングマーカー(人間の注意のデジタル痕跡)を作成、保存、照会するための分散型エコシステムを通じて、プラットフォームによる制御から人間の注意を「解放」する社会-技術的枠組みである。
>
Stigmergy」という単語は、環境に残された情報に対する反応として行動を起こす、自発的で間接的な協調行動を指すと書いてある

>なかでも重要視されている「スティグマジー(stigmergy)」なる概念である。それは「社会性昆虫」と呼ばれるアリやハチの群れ行動やコロニー建設行動のメカニズムについて、非常に明快な説明を与えている



>
>
>

>コンテンツを直接修正せず、むしろシグナリングの手がかりとして機能するスティグマギー・マーカー(デジタルの場合:いいね、注釈、テキストのハイパーリンク)である
>Stigmergicマーカーは、ユーザーが明示的に残したもの(例:「いいね!」)、あるいはユーザーの行動を通じて暗黙的に記録されたもの(例:リンクのクリックスルーデータ、読書時間)である場合があります。

自己組織化は設計可能か──スティグマジーの可能性では、以下のように紹介されているtkgshn
>たとえば検索エンジンのGoogleは、いわゆるAI(人工知能)的な意味において高度で複雑な計算を行ない検索精度を高めているわけではなく、むしろ人間をアルゴリズム化することで検索エンジンとして成功した。その基本設計は極めてシンプルだ。「人間は良いと判断した情報にはリンクを貼る。だとすれば、そのリンクされたページに関するログを全部集計すれば、何がいいページかはおのずと分かる」というものである。ここで興味深いのは、むしろGoogleという検索ロボットの側こそが、人間を「情報収集ロボット」のように扱っているということである。すなわち、人間こそがアルゴリズム的に、つまり単純で反復的な「リンクをはる」という行動を取ることで、そのログの集積がそのまま検索エンジンの高性能化につながるということ。これこそが検索エンジンの基本的なインパクトであることは、改めて確認しておきたい事実である。

>コンテンツ発見アルゴリズムは,広大なデジタルランドスケープをナビゲートするために不可欠であるが,大部分はプラットフォームによってコントロールされている .したがって、第二のシフトは、人間中心のコンテンツ発見を通じてメーカーに権限を与えることにより、この移行をサポートするために我々の認識環境を再設計することです

この構造は他にも見られている


ちなみにこれは、social annotationの1つ
Solidに準拠
関連: Semantic Web
なお、ナレッジグラフ等のSemantic Dataのデータを使うことによって機械学習の精度が上がることは知られている

裏面のインターネット」とも言える
Social Bookmarkサービスの「del.icio.ustkgshn
Glaspと同じ概念


>自分のスティグメルジック・マーカーを作成・管理し、そのデータを、個人的・集団的成長を志向するコンテンツ発見サービスと共有する権限を与えられます。コンテンツのモデレーションは重要な代表例である
>モデレーションは、中央集権的なシステムでは、AI能力の固有の限界と、必要な複雑な人間の判断の規模のために、実行不可能である。対照的に、分散型エコシステムは、様々な個人や組織が自分たちのニーズに合わせてコンテンツ・モデレーション・システムを作成・調整できる「フィルターのマーケットプレイス」を可能にします。
Pol.iscollective intelligenceとかにも近い
検閲なしの標準モデルと、それ以外のフィルターみたいな考え方はできる
>スティグマーマーカーは公共財と考えることができる。しかし、そのユニークな重要性にもかかわらず、その分散化を特にターゲットにした研究は驚くほど少ない

>アノテーションツール。プラットフォームが「いいね!」ボタンを提供する場所だけでなく、そこに含まれるあらゆるURLやコンテンツ要素にマーカーを簡単に作成できるようにする


tkgshnとしては、「今こそ秒速送金システムとしての「仮想通貨」があるからこそ、こういったインターネット上でのマイクロワークに対してRetroactiveに報酬が支払われるべきなのではないか」と考えている
言うなれば、複雑系と計算機の2つを合成することが必要なのだという投げかけだ

Semantic Dataを活用したAIは今後増えていくと予想するtkgshntkgshntkgshntkgshn
>Wangらは識別されたオブジェクトとオントロジー クラスの間の文字列マッチングを提案し、Liaoら33はオンラインソースから自動 的に概念と関係をマイニングすることを提案している。効果的かつ効率的な知識照 合を可能にするためには、この分野だけでなく、Semantic Annotationの ような関連分野でのさらなる研究が必要である。

>機械学習の方向性を知り、それを最大限に活用しようとするならば、知識グラフをニューラルネットワークなどの手法や、決定木、ランダムフォレスト、SVM、回帰などのより単純な機械学習手法と組み合わせて使う方法を理解する必要があるだろう
>つまり、人間の言葉の曖昧性解消や推論を可能にするのは、ニューラルネットそのものではなく、知識グラフベースなのです。

ちょっと具体的にイメージしずらいと思うので他にも群衆の知恵を使ったものを紹介
AIではなく群衆の知恵を使って、Fake Newsを判定するTwitterのCommunity Notes

>@nishio: なるほど、Twitterでファクトチェックしやすくなる機能追加ってわけね、いいじゃん
>

実際の様子は、Community Notesを参照
1. 自分のアイデンティティというか専門分野みたいなのを最初に選択
2. 流れてくるツイートに対してレビュー
3. あとはTwitterが勝手に(異なるアイデンティティの人も同意とか同じような意見であれば)注釈を追加してくれる
例: 「これは今年の火事の画像ではなく、n年前のもので〜」

Community Notes論文。Pol.isとも似てる。

他にもたくさん
予測市場でミームをキュレーションする「memefactory

大規模言語モデルがOSSになると、「LAION AI」を"ジェネシスコモンセンス"(Bitcoin等のGenesis blockより)としてforkする(fine-tuning)する動きが起こる。
その結果、各業界のトップたちは連合して"取れないデータ"を集めようとする動きが起こる。
未来に起こりうるこれを、これを「コンソーシアム型 AI」と呼ぶことが可能であろう。

機械学習のFine-tuningOptimize by attentionと見る