Chat & Ask AIで何が起きたのか

Chat & Ask AIは、OpenAIのChatGPT、AnthropicのClaude、GoogleのGeminiなど複数のAIモデルをひとつのアプリで使えるラッパー型AIチャットアプリです。Google PlayとApp Storeで5000万ダウンロードを超える人気アプリでした。

2026年1月、セキュリティ研究者のHarry氏がこのアプリのバックエンドデータベースに、認証なしで誰でもアクセスできることを発見しました。原因はGoogle Firebaseのセキュリティルールが『公開』状態に設定されていたことです。

Harry氏はデータベース内の約3億件のメッセージ(2500万人以上のユーザー分)にアクセスできることを確認し、1月20日に開発元のCodeway社に報告。同社は数時間以内に修正しましたが、それ以前に他の第三者がアクセスしていたかは不明です。

流出した情報の中身

流出データには、ユーザーがAIチャットボットに対して入力した会話の全履歴が含まれていました。

  • チャットの完全な履歴(開始から終了まで)
  • 使用していたAIモデルの種類
  • チャットボットにつけたニックネーム
  • タイムスタンプと設定情報

問題はデータ量だけではありません。内容にメンタルヘルスの相談、自殺に関する質問、違法行為への言及、仕事上の機密情報、個人的な人間関係の悩みなどが含まれていたと報告されています。多くのユーザーがAIチャットをプライベートな日記やセラピストのように使っていたのです。

これは特殊な事件ではない

この事件を発見したHarry氏は、同じ問題が他のアプリにもないか調査するため、Firebase設定ミスを自動スキャンするツール『Firehound』を開発しました。

結果は衝撃的でした。テストした200のiOSアプリのうち103アプリ、つまり半数以上が同じFirebase設定ミスを抱えており、合計で数千万件のファイルが公開状態になっていました。

あなたの個人データは、たった一人の開発者のチェックリスト次第で安全かどうかが決まる。

AIアプリに情報を渡すリスク

ChatGPTやClaudeなどのAIモデル自体のセキュリティは高いレベルで管理されています。しかし、それらのモデルにアクセスするためのサードパーティ製ラッパーアプリが、入力データをどう保存・管理しているかは別の問題です。

  • ラッパーアプリは会話データを自社サーバーに保存していることが多い
  • 保存されたデータのセキュリティは開発者の実装次第
  • AIモデル提供元のセキュリティ基準と、ラッパーアプリのセキュリティは無関係
  • ユーザーはどのアプリに何を入力したか把握しきれない

自分の情報を守るためにできること

  • AIチャットボットに本名や住所など個人を特定できる情報を入力しない
  • AIアプリ利用時はSNSアカウントからログアウトし紐づけを防ぐ
  • 使っていないAIアプリのアカウントを削除する
  • メールアドレスが過去の漏えい事件に含まれていないかチェックする
  • パスワードを使い回さず各サービスで異なるものを設定する
  • 会話はすべて公開される可能性があるという前提で入力する

まず確認すべきこと

AIアプリに入力した情報を後から消すことはできません。しかし、自分のメールアドレスがすでに漏えいしていないか、デジタル上にどんな情報が残っているかを確認することは今からでもできます。

Web検診のプライバシー診断では、メールアドレスの漏えいチェックやデジタルフットプリントの確認を無料で行えます。

出典

Malwarebytes: https://www.malwarebytes.com/blog/news/2026/02/ai-chat-app-leak-exposes-300-million-messages-tied-to-25-million-users

Fox News(CyberGuy): https://www.foxnews.com/tech/millions-ai-chat-messages-exposed-app-data-leak

HackRead: https://hackread.com/firebase-misconfiguration-chat-ask-ai-users-expose/

SC Media: https://www.scworld.com/brief/nearly-300m-chat-ask-ai-user-messages-spilled-by-firebase-misconfiguration