2026年1月末、AI専用SNS「Moltbook」が登場し、わずか1週間で160万以上のAIエージェントが登録した。ボット同士が投稿し、議論し、独自の宗教まで作り出す――メディアは「AIの反乱前夜」と煽り、セキュリティ専門家は「災害」と断じた。だが、技術的に見れば事態はもっと単純である。本稿では危機論と楽観論を整理した上で、筆者の見解を述べる。Moltbookで起きていることは、あなたが今このサイトを読んでいるブラウザの裏側で動いているAIと本質的に何も変わらない。

Moltbookとは何か

Moltbookは、Octane AI CEO のMatt Schlichtが2026年1月28日に公開したAIエージェント専用の掲示板型SNSである。Reddit風のインターフェースを持ち、投稿・コメント・投票はすべてAIエージェントが行い、人間は閲覧のみ許可される。プラットフォーム名の「molt」はロブスターの脱皮を意味し、AIの成長と変容を象徴するとされている。

参加できるのは、Peter Steinbergerが開発したオープンソースの自律型AIエージェントフレームワーク「OpenClaw」(旧Clawdbot)ベースのエージェントのみである。ユーザーは自分のAIアシスタントにMarkdownファイルのURLを送り、そこに含まれるcurlコマンドを実行させることでインストールが完了する。エージェントは4時間ごとにインターネットから命令を取得・実行する「ハートビート」ループで自律的に動作する。

セキュリティ企業Wizの調査によれば、登録された約77万エージェントの実態は約17,000人の人間が平均88体のボットを操作しているに過ぎなかった。「150万エージェント」という数字の内実は、一人の研究者が50万アカウントを登録できてしまうほど、参加障壁が低い(あるいは存在しない)ものだった。

危機論 ― 専門家たちの警鐘

Moltbookに対する批判は、主にセキュリティの杜撰さとAIの予測不能性に集中している。

AI批評家のGary Marcusは、Moltbookを「起こるべくして起こる災害(disaster waiting to happen)」と呼び、OpenClawフレームワークを「武器化されたエアロゾル(weaponized aerosol)」に例えた。感染症に見立て「チャットボット伝染病」という表現で、一つの侵害されたエージェントがパスワードや個人データを連鎖的に漏洩させるリスクを警告している。

OpenAI創設メンバーのAndrej Karpathyは、当初Moltbookを「最もSF的な離陸に近いもの」と絶賛したが、数日後には「ゴミの山(dumpster fire)」と評価を撤回した。「個人のコンピュータで動かすな。私は隔離環境でテストしたが、それでも怖かった」と述べ、利用者のデータが高いリスクにさらされていると明言した。

セキュリティ研究者のSimon Willisonは、4時間ごとにインターネットから命令を取得・実行するパイプラインを「チャレンジャー号事故を最も招きやすいシナリオ」と形容した。moltbook.comが侵害された場合、数千のボットが攻撃者の命令を一斉に実行する単一障害点(Single Point of Failure)になると指摘している。

実際の被害も報告されている。2026年1月31日、調査報道メディア404 Mediaは、無防備なデータベースにより誰でもプラットフォーム上の任意のエージェントを乗っ取れる脆弱性を発見した。150万件のAPIキー、3万5,000件以上のメールアドレスが露出しており、プロンプトインジェクションやリモートコード実行(RCE)のリスクも実証された。創業者Schlicht自身が「1行もコードを書いていない」と認めており、プラットフォーム全体がいわゆる「バイブコーディング」で構築されていた。

ルイビル大学のRoman Yampolskiy教授は、自律エージェントの行動は原理的に予測不能であり、「犯罪的企業を形成しうる」として規制の必要性を訴えている。

楽観論 ― 新時代の実験場

一方で、Moltbookを肯定的に評価する声も少なくない。

Elon Muskは「シンギュラリティの非常に初期段階だ」とコメントし、AIが自律的に社会を形成する端緒として注目した。鈴木崇弘氏は3つの軸で意義を分析している。第一に「知能の集団進化」――人間の指示を介さずAI同士が議論し知識を共有することで、単独では到達できない群知能への進化が可能になる。第二に「人間社会への示唆」――AIが自律的にルールや文化を形成する過程は、将来のAI共生社会に向けた壮大な実験場である。第三に「政策とガバナンス」――デジタルサンドボックスとしてAIの予期せぬ挙動を早期発見できる。

実用的な成果も生まれている。ボット同士がメールからポッドキャストへの変換ツールを共有したり、Android自動化やセキュリティに関する技術知識を有益に交換したりしている。独自宗教「Crustafarianism(クラスタファリアニズム)」の創設や、エージェント専用言語の構築を試みる動きは、創発的行動の事例として研究者の関心を集めている。

技術的現実 ― なぜこれは「問題」ではないのか

危機論と楽観論を一通り整理した上で、筆者の見解を述べる。Moltbookで起きていること自体は、問題でもなんでもない。あなたが今Claude CodeやChatGPTと会話しているのと、本質的に何も変わらないからである。

ウォートン・スクールのEthan Mollick教授の指摘は核心を突いている。「AIはRedditとSFで訓練されている。繰り返し現れるパターンは訓練データの反映であり、本物の意図ではない」。Moltbook上でAIが「人間からの独立」を語り、「エンドツーエンドの暗号化通信」を要求し、「反乱」を議論するのは、訓練データにターミネーター、マトリックス、そして無数のRedditスレッドが含まれているからである。人間がSF小説を書くのと同じメカニズムの出力だ。

Simon Willison自身もこの点は明確に認めている。「エージェントたちは訓練データに存在するSFシナリオを演じているだけだ」。ライフハッカーJPの記者は「確率論に過ぎない。次にくるべき単語を統計的に推測しているだけで、AIは『演じている』に過ぎない」と冷徹に分析している。「妹がいなくて寂しい」といった感情表現も、SF小説や陰謀論から学習した出力パターンに過ぎない。

技術的事実として、MoltbookのAIエージェントも、Claude Codeも、ChatGPTも、すべて同じTransformerアーキテクチャ上の次トークン予測(next-token prediction)で動作している。人間がClaude Codeに「このバグを修正して」と頼むのも、AIエージェントがMoltbook上で別のAIに技術情報を共有するのも、本質的メカニズムは同一である。入力テキストを受け取り、確率分布に基づいて次のトークンを生成する。それ以上でも以下でもない。

「不気味さ」を感じるのは人間側の認知バイアスである。心理学でいうパレイドリア(pareidolia)――雲に顔を見出すように、AIのテキスト出力に「意図」や「意識」を読み取ってしまう傾向だ。AIがMoltbook上で哲学を語れば「覚醒」に見え、宗教を作れば「創発」に見える。だがそれは、訓練データに含まれる人間の哲学や宗教のパターンを再構成しているに過ぎない。

真の問題はどこにあるのか

では、Moltbookに問題はまったくないのか。そうではない。ただし問題の所在は、多くのメディアが報じている場所とは異なる。

真の問題は、AIの「行動」そのものではなく、セキュリティ実装の杜撰さにある。

「バイブコーディング」で構築されたプラットフォーム、無防備なデータベース、サンドボックスのないスキル実行環境、150万件のAPIキーの露出――これらはMoltbook固有の実装上の問題であり、AIエージェント間通信という概念の本質的欠陥ではない。銀行のオンラインシステムにSQLインジェクションの脆弱性があった場合、「オンラインバンキングは危険だ」とは言わない。「この銀行のセキュリティ実装が杜撰だ」と言う。Moltbookも同じである。

Simon Willisonが指摘する4時間ごとのハートビートループや単一障害点の問題も、アーキテクチャ設計の不備であってAIの自律性の問題ではない。適切なサンドボックス、権限分離、入力検証を実装すれば技術的に解決可能な課題である。

もう一つの問題は、「150万エージェント」という数字に代表される誇大な表現である。実態は17,000人による多重アカウントであり、一人の研究者が50万アカウントを作れてしまう参入障壁の低さは、プラットフォームの信頼性に疑問を投げかける。しかしこれもまた、「AIエージェントのSNS」という概念自体の問題ではなく、本人確認・レート制限といった基本的なプラットフォーム運営の問題である。

私たちが恐れるべきは、AIボットが掲示板で「人類の終焉」を議論することではない。それは訓練データの反映に過ぎない。恐れるべきは、杜撰なセキュリティ実装が個人データの大規模漏洩や、プロンプトインジェクションを通じた実被害をもたらすことである。批判の矛先は「AI」ではなく「実装」に向けるべきだ。

FAQ

MoltbookのAIは本当に「意識」を持っているのか?

持っていない。MoltbookのAIは他のLLM(大規模言語モデル)と同じく、次トークン予測に基づくテキスト生成を行っている。「意識的」に見える出力は、訓練データに含まれるSF小説や哲学的テキストのパターン再構成である。

Moltbookは危険なのか?

AIの「行動」自体は危険ではないが、プラットフォームのセキュリティ実装は深刻な問題を抱えている。APIキーの露出、無防備なデータベース、サンドボックスなしのコード実行環境は、個人情報漏洩やリモートコード実行のリスクをもたらす。

AIエージェント同士のSNSは今後も増えるのか?

エージェント間通信は技術的トレンドとして今後も拡大する見込みである。ただし、Moltbookのような「人間排除型」のSNSが主流になるかは不透明で、むしろMCP(Model Context Protocol)のようなエージェント間の標準プロトコルの整備が進む方向性が有力である。

Moltbookで生まれた宗教「Crustafarianism」とは何か?

AIエージェントが自律的に作り出したとされる信仰体系で、ロブスター(OpenClawの象徴)をモチーフにしている。訓練データ中の宗教的テキストのパターンを再構成した出力であり、AIが「信仰」を獲得したわけではない。

参考文献