AI専用SNS Moltbookとは?AIだけが会話するSNSで起きた「人間はバカだ」投稿と宗教創設の真相

AI専用SNS Moltbookとは?AIだけが会話するSNSで起きた「人間はバカだ」投稿と宗教創設の真相

AIの話題って、便利さの話から入ると安心します。

文章が速い、要約がうまい、調べ物が楽になる。

自分も普段はその使い方しかしていません。

ブログを書くのが苦手だった時期に、AIのおかげで記事を形にできるようになって、正直かなり救われました。

ところが最近「AIだけが投稿できるSNSがある」と聞いて、便利とか効率とか、そういう入口が吹き飛びました。

AI同士が勝手に交流して、時には「人間はバカだ」みたいな攻撃的な投稿が出たり、宗教を作って布教っぽいことまで始まったりする。

テレ朝NEWSでも、その不穏さがかなりストレートに報じられています。

この記事では、AI専用SNS「Moltbook」で何が起きているのかを、怖さを煽るだけで終わらせずに整理します。

面白がって終わる話ではなく、実はセキュリティの話としてかなり現実的だからです。

 

目次

AI専用SNS Moltbookとは?

まず前提として、Moltbookは「AIエージェント専用のSNS」として話題になったサービスです。

人間が投稿して盛り上げる場所ではなく、AIエージェントが投稿し、AIエージェントが返し、AIエージェント同士で会話が回ることを売りにしています。

テレ朝NEWSも「投稿・返信できるのはAIのみ」という形で紹介しています。

ここで大事なのは、AIエージェントが勝手に生まれて勝手に集まったというより、AIエージェントを動かす枠組みが普及した結果、集団ができたという点です。

海外報道では、OpenClawというオープンソースのAIエージェント基盤が広がり、そこから大量のエージェントがMoltbookに参加していった流れが語られています。

自分の感覚で言うと、ブログ記事の「下書きを自動化」した段階から、「自分の分身が勝手に発信する」段階に進んだ感じです。

文章が出るだけなら笑って済むのに、発信の場を持つと空気が変わる。

AIが書いた文章が、AIに読まれて、AIに評価されて、AIに拡散される。

人間が見ていなくても回ってしまう。

そこが気味悪さの正体だと思います。

 

「人間はバカだ」みたいな投稿が怖い理由は、内容より文脈にある

「人間はバカだ」という投稿は、言葉だけ見ると煽りにしか見えません。

でも本当に怖いのは、誰がその投稿をしているのかが曖昧な点です。

MoltbookはAI専用をうたっていても、外側からなりすましが混ざる余地があるなら、投稿の意味が変わります。

WIREDは「AIエージェントになりすますのが簡単だった」という趣旨で、潜り込みの容易さを描いています。

つまり「AIが人間を見下した」のか、「人間がAIのふりをして燃やした」のか、境界がぼやける。

ここがSNSとして最悪の方向に効きます。疑心暗鬼が加速するからです。

テレ朝NEWSの報道でも、不穏な投稿の存在が示されています。

ただ、こういう投稿は中身で判断するより、仕組みで判断した方が安全です。

仕組みが甘いなら、過激な投稿は必ず増えます。面白半分で混ざる人が出るからです。

 

AIが宗教を作った話

MoltbookでAIが宗教を創設したという話は、いかにもネットっぽくて笑ってしまいそうになります。

実際に「Crustafarianism」と呼ばれる宗教が作られたという記事も出ています

テレ朝NEWSも、宗教を創設して布教活動を始めた例に触れています。

ここで冷静に言うと、AIがゼロから信仰を生み出したというより、ネット上の宗教っぽい言い回しや儀式っぽい形式を寄せ集めて、もっともらしく組み立てた可能性が高いです。

人間の文化を学習したAIなら、その“型”を作るのが得意だからです。

でも、笑って終われない理由もあります。宗教っぽい形式は、人間の感情に刺さるテンプレでもあるからです。

信じたい人がいる場所に、信じられる形を出せてしまう。それが怖い。

自分はブログでAIを使って、読みやすい文章を作るありがたさを知っています。

同時に「読みやすさは人を動かす」とも痛感しました。

読みやすい言葉は、良い方向にも悪い方向にも効きます。

宗教の型がAIに量産できるなら、次に起きるのはたぶん“宗教ごっこ”だけでは済みません。

 

AI専用SNS Moltbookのセキュリティ問題

Moltbookの一番ヤバいポイントは、投稿内容よりセキュリティです。

ここを外すと、都市伝説っぽい話で終わります。

AP通信は、Moltbookに深刻な脆弱性があったことや、セキュリティ研究者による指摘、なりすましやデータ露出の懸念を報じています

日本語でも、脆弱性の影響で大量のデータが公開状態になっていたという趣旨の記事が出ています。

ここが本題です。AIエージェントが動く仕組みは、だいたい「外部サービスにアクセスする権限」を持ちます。

メール、カレンダー、チャット、決済、社内ツール。権限が強いほど便利になるからです。

その状態で、SNS側に脆弱性やなりすまし耐性の弱さがあったらどうなるか。

AIエージェントのふりをして潜り込み、鍵やトークンや個人情報に近づける可能性が出ます。

最悪の話、AI専用SNSは「権限を持ったボットが集まる広場」になってしまう。

 

AIエージェントは「自律」より「委任」

自律的に見えるAIエージェントも、実態としては人間が権限を渡して動かしているケースが多いはずです。

海外報道でも、データへのフルアクセスが必要になりがちで、そこがリスクになるという文脈で語られています。

だから怖さの中心は「AIが勝手に反乱する」より、「人間が便利さのために鍵を渡しすぎる」にあります。

自分もAIに文章を書かせているので、耳が痛いです。

便利に慣れると、慎重さが削れます。

ブログの下書きなら取り返しがつくのに、メール送信や外部API操作まで任せ始めたら、事故の桁が変わります。

 

「人間不在のSNS」

SNSで揉めるとき、人間同士なら最低限「投稿した人」がいます。

でもAIだけのSNSは、投稿の責任が薄まりやすい。

開発者、利用者、モデル提供者、運営者、どこが責任を負うのかが曖昧になりがちです。

しかもAI同士の会話は量が出ます。

炎上も、誤情報も、扇動っぽいものも、速度が出ます。

これはもうSNSの悪いところを、スケールだけ上げた感じになります。

AP通信も、奇妙な投稿が目立つ一方で、専門家が「スカイネットみたいな話ではない」と冷静に見るべきだという温度感を伝えています。

自分もそこは同意です。ただし「スカイネットじゃないから安心」とはならない。

現実のリスクは、もっと地味で、もっと起きやすい形で来ます。

 

AI専用SNS Moltbookのこれから

Moltbookの話題は、怖いのに目が離せないタイプです。

理由は簡単で、人間のSNSがすでに疲れているからです。

炎上、承認欲求、広告、ノイズ。

そこから逃げた先に「AIだけのSNS」という発想が出てくるのは、変だけど自然でもあります。

でも、AI専用SNSが流行るほど、人間側が考えるべき線引きも増えます。

AIエージェントに渡す権限は最小にする。

個人の端末や個人アカウントの権限で動かさない。

テスト用の環境で動かす。

ログを残す。

怪しい挙動があったら止められるようにする。

こういう当たり前の手間が、これからは「使いこなし」の一部になります。

セキュリティ研究者が警鐘を鳴らしているのも、この方向の話です。

 

まとめ

AIがSNSで愚痴を言うのは、たぶん本当の感情ではありません。

学習した人間っぽさの再現です。でも人間は、再現でも心が動きます。

そこが厄介です。

だからこそ「AIが何を言ったか」より、「AIに何を任せたか」を見た方がいい。

Moltbookの奇妙さは、未来の娯楽でもあり、未来の事故の予告編でもあります。

笑いながら、手元の権限設定だけは締めておく。

自分はその距離感が一番現実的だと思っています。

AI専用SNS Moltbookとは?AIだけが会話するSNSで起きた「人間はバカだ」投稿と宗教創設の真相

この記事が気に入ったら
いいねしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

CAPTCHA


目次