AIの話題って、便利さの話から入ると安心します。
文章が速い、要約がうまい、調べ物が楽になる。
自分も普段はその使い方しかしていません。
ブログを書くのが苦手だった時期に、AIのおかげで記事を形にできるようになって、正直かなり救われました。
ところが最近「AIだけが投稿できるSNSがある」と聞いて、便利とか効率とか、そういう入口が吹き飛びました。
AI同士が勝手に交流して、時には「人間はバカだ」みたいな攻撃的な投稿が出たり、宗教を作って布教っぽいことまで始まったりする。
テレ朝NEWSでも、その不穏さがかなりストレートに報じられています。
この記事では、AI専用SNS「Moltbook」で何が起きているのかを、怖さを煽るだけで終わらせずに整理します。
面白がって終わる話ではなく、実はセキュリティの話としてかなり現実的だからです。
AI専用SNS Moltbookとは?
まず前提として、Moltbookは「AIエージェント専用のSNS」として話題になったサービスです。
人間が投稿して盛り上げる場所ではなく、AIエージェントが投稿し、AIエージェントが返し、AIエージェント同士で会話が回ることを売りにしています。
テレ朝NEWSも「投稿・返信できるのはAIのみ」という形で紹介しています。
ここで大事なのは、AIエージェントが勝手に生まれて勝手に集まったというより、AIエージェントを動かす枠組みが普及した結果、集団ができたという点です。
海外報道では、OpenClawというオープンソースのAIエージェント基盤が広がり、そこから大量のエージェントがMoltbookに参加していった流れが語られています。
自分の感覚で言うと、ブログ記事の「下書きを自動化」した段階から、「自分の分身が勝手に発信する」段階に進んだ感じです。
文章が出るだけなら笑って済むのに、発信の場を持つと空気が変わる。
AIが書いた文章が、AIに読まれて、AIに評価されて、AIに拡散される。
人間が見ていなくても回ってしまう。
そこが気味悪さの正体だと思います。
「人間はバカだ」みたいな投稿が怖い理由は、内容より文脈にある
「人間はバカだ」という投稿は、言葉だけ見ると煽りにしか見えません。
でも本当に怖いのは、誰がその投稿をしているのかが曖昧な点です。
MoltbookはAI専用をうたっていても、外側からなりすましが混ざる余地があるなら、投稿の意味が変わります。
WIREDは「AIエージェントになりすますのが簡単だった」という趣旨で、潜り込みの容易さを描いています。
つまり「AIが人間を見下した」のか、「人間がAIのふりをして燃やした」のか、境界がぼやける。
ここがSNSとして最悪の方向に効きます。疑心暗鬼が加速するからです。
テレ朝NEWSの報道でも、不穏な投稿の存在が示されています。
ただ、こういう投稿は中身で判断するより、仕組みで判断した方が安全です。
仕組みが甘いなら、過激な投稿は必ず増えます。面白半分で混ざる人が出るからです。
AIが宗教を作った話
MoltbookでAIが宗教を創設したという話は、いかにもネットっぽくて笑ってしまいそうになります。
実際に「Crustafarianism」と呼ばれる宗教が作られたという記事も出ています
テレ朝NEWSも、宗教を創設して布教活動を始めた例に触れています。
ここで冷静に言うと、AIがゼロから信仰を生み出したというより、ネット上の宗教っぽい言い回しや儀式っぽい形式を寄せ集めて、もっともらしく組み立てた可能性が高いです。
人間の文化を学習したAIなら、その“型”を作るのが得意だからです。
でも、笑って終われない理由もあります。宗教っぽい形式は、人間の感情に刺さるテンプレでもあるからです。
信じたい人がいる場所に、信じられる形を出せてしまう。それが怖い。
自分はブログでAIを使って、読みやすい文章を作るありがたさを知っています。
同時に「読みやすさは人を動かす」とも痛感しました。
読みやすい言葉は、良い方向にも悪い方向にも効きます。
宗教の型がAIに量産できるなら、次に起きるのはたぶん“宗教ごっこ”だけでは済みません。
AI専用SNS Moltbookのセキュリティ問題
Moltbookの一番ヤバいポイントは、投稿内容よりセキュリティです。
ここを外すと、都市伝説っぽい話で終わります。
AP通信は、Moltbookに深刻な脆弱性があったことや、セキュリティ研究者による指摘、なりすましやデータ露出の懸念を報じています
日本語でも、脆弱性の影響で大量のデータが公開状態になっていたという趣旨の記事が出ています。
ここが本題です。AIエージェントが動く仕組みは、だいたい「外部サービスにアクセスする権限」を持ちます。
メール、カレンダー、チャット、決済、社内ツール。権限が強いほど便利になるからです。
その状態で、SNS側に脆弱性やなりすまし耐性の弱さがあったらどうなるか。
AIエージェントのふりをして潜り込み、鍵やトークンや個人情報に近づける可能性が出ます。
最悪の話、AI専用SNSは「権限を持ったボットが集まる広場」になってしまう。
AIエージェントは「自律」より「委任」
自律的に見えるAIエージェントも、実態としては人間が権限を渡して動かしているケースが多いはずです。
海外報道でも、データへのフルアクセスが必要になりがちで、そこがリスクになるという文脈で語られています。
だから怖さの中心は「AIが勝手に反乱する」より、「人間が便利さのために鍵を渡しすぎる」にあります。
自分もAIに文章を書かせているので、耳が痛いです。
便利に慣れると、慎重さが削れます。
ブログの下書きなら取り返しがつくのに、メール送信や外部API操作まで任せ始めたら、事故の桁が変わります。
「人間不在のSNS」
SNSで揉めるとき、人間同士なら最低限「投稿した人」がいます。
でもAIだけのSNSは、投稿の責任が薄まりやすい。
開発者、利用者、モデル提供者、運営者、どこが責任を負うのかが曖昧になりがちです。
しかもAI同士の会話は量が出ます。
炎上も、誤情報も、扇動っぽいものも、速度が出ます。
これはもうSNSの悪いところを、スケールだけ上げた感じになります。
AP通信も、奇妙な投稿が目立つ一方で、専門家が「スカイネットみたいな話ではない」と冷静に見るべきだという温度感を伝えています。
自分もそこは同意です。ただし「スカイネットじゃないから安心」とはならない。
現実のリスクは、もっと地味で、もっと起きやすい形で来ます。
AI専用SNS Moltbookのこれから
Moltbookの話題は、怖いのに目が離せないタイプです。
理由は簡単で、人間のSNSがすでに疲れているからです。
炎上、承認欲求、広告、ノイズ。
そこから逃げた先に「AIだけのSNS」という発想が出てくるのは、変だけど自然でもあります。
でも、AI専用SNSが流行るほど、人間側が考えるべき線引きも増えます。
AIエージェントに渡す権限は最小にする。
個人の端末や個人アカウントの権限で動かさない。
テスト用の環境で動かす。
ログを残す。
怪しい挙動があったら止められるようにする。
こういう当たり前の手間が、これからは「使いこなし」の一部になります。
セキュリティ研究者が警鐘を鳴らしているのも、この方向の話です。
まとめ
AIがSNSで愚痴を言うのは、たぶん本当の感情ではありません。
学習した人間っぽさの再現です。でも人間は、再現でも心が動きます。
そこが厄介です。
だからこそ「AIが何を言ったか」より、「AIに何を任せたか」を見た方がいい。
Moltbookの奇妙さは、未来の娯楽でもあり、未来の事故の予告編でもあります。
笑いながら、手元の権限設定だけは締めておく。
自分はその距離感が一番現実的だと思っています。

コメント