Key for a Better Artificial System: From Gov to AI (Panel)
1. パネルの概要
登壇者
Ryota Kanai (Araya, AIスタートアップ/AI Alignment Network)
ジミー・チャン (fabd)
テーマ
「より良い人工システムのために:ガバナンスからAIまで」
AIの民主的な活用とガバナンス、技術的・社会的リスク、そして各国・各組織での取り組みが議論された。
2. V-Taiwanの取り組み(Cui Jia Wei氏)
V-Taiwanの特徴
人間中心・市民参加型を重視
オープンかつ透明性のある議事・記録(ウェブ上に公開)
技術ツールを段階的に活用(オンライン・オフライン併用)
4つのステージ
提案段階:市民・政府が課題を提出、利害関係者・論点整理
オンライン意見収集:ステークホルダーから広く意見を集める
対面での熟議:ハイブリッド形式(ライブ配信+対面討議)
合意形成・実装:政府への提言や立法へつなげる
実績
OpenAI Grants を獲得し、Chatham House と協力
多様な参加者(エンジニア、弁護士、記者、先住民、ジェンダー団体、政治家など)を集めたAIに関するシビックアッセンブリーを開催
市民参加の上で得られた合意のレポートを公開(AIツールで集めた意見をクラスタリング)
主な示唆
専門性と多様性(plurality)の両立:議論設計の重要性
人を中心にするか、技術を中心にするか:デジタルギャップ解消の手段も含め再検討が必要
大企業や政府権力の集中を警戒:市民や非営利組織、DAOなどがどのように力を発揮できるかがカギ
3. AI Alignment Network の取り組み(Ryota Kanai氏)
AI Alignmentとは
「AIが人間の価値や目的に沿った行動をとれるようにする」ための研究・活動
大規模AI(高度化したモデル)の目標設定や評価指標がズレると、予期せぬ形で社会に悪影響を及ぼす可能性がある
開発者・研究者・社会が連携して合意形成しなければならない
課題
開発競争の加速(巨大企業や特定国家主導)の中でのモノポリ―化リスク
多国間・異文化間での「価値観の違い」や「倫理基準の差異」
取り組みの方向性
日本国内だけでなく、台湾や欧米とも協力し、研究・議論を推進
技術的な課題(ブラックボックス化したモデルの内部を理解する方法など)と社会設計的な課題(民主主義的コントロール)を両面から扱う
4. fabd からの視点(ジミー・チャン氏)
AIの進化は指数関数的、人間の思考は線形的 → 不可逆的なパワーバランスの変化が起こり得る
目標設定(Objective Function)の重要性
AIが実行する「目的・ゴール」そのものの設定が社会に与えるインパクトを左右
目的設定を誰がどう代表して決めるのか、合意形成プロセスが必要
DAO・
DCC(Decentralized Cooperative/Collective)との関連
技術や権力の中央集権化を避けるには、より多くの個人や組織が技術を共有・分散的に運用できる仕組みが重要
大規模モデルばかりでなく、小規模かつ専門特化したモデルを“公共財”として扱い、相互に連携させるアプローチも考えられる
5. 大企業・政府とオープンソースの対立軸
Metaのオープンソース方針 vs. OpenAIのクローズド化
Metaは大規模モデルをオープンにし、コミュニティ主導の改善を促す方針
OpenAIは安全確保のためのクローズド化を打ち出しつつ、ユーザ向けにサービスを展開
ヨーロッパの規制(DMA等)
プラットフォームやAIモデルの相互運用性を法的に求め、独占を防ごうという動き
政府による「監査・公開要請」によるリスク分散と民主的コントロール
個人ができること
ロビー活動(政策提言)
自ら固有のデータを整理・活用(専門分野の用語集づくりなど)
オープンソースやP2P技術の試行
6. 総括
民主的・分散型のAIガバナンスが鍵
多様なステークホルダーを巻き込み、オンライン・オフライン併用で議論を深める事例(V-Taiwan)は有用なモデル
AI Alignment Networkの活動のように、技術的・倫理的側面を両立させる取り組みが重要
大企業や政府の独占リスクへの対抗策
オープンソース化・相互運用性・政策的監査が有力なアプローチ
DAOやDCC等の新しい組織形態によるエンパワーメント
目標設定(Objective Function)・価値観の共有
AIの高度化が進むほど、人間の「合意形成プロセス」や「価値観の反映方法」がますます重要になる
技術開発だけでなく、社会的・政治的な合意作りの場を拡大する必要がある