AI検索が密かに覗かれている疑いが浮上

ログインした瞬間に始まる見えない通信

AI検索を使うとき、どこまでが自分だけの会話だと思っていますか。今回の訴訟は、その前提を揺さぶる内容です。Perplexity AIの利用者がログインした直後、端末にトラッカーが読み込まれる仕組みがあると指摘されています。この挙動自体は珍しいものではありません。多くのサイトで見られる一般的な技術です。

ただし問題はその先です。読み込まれたトラッカーが、MetaやGoogleといった外部企業にデータを渡している可能性があると主張されています。もし事実であれば、単なるアクセス解析の範囲を大きく超えています。ユーザーの操作履歴だけでなく、AIとのやり取りそのものが対象になるという指摘。ここが今回の核心です。

インコグニートでも守られない可能性

さらに気になる点があります。一般的にプライバシーを守る手段として使われるインコグニートモード。この機能を有効にしていても、同様のデータ共有が行われていると訴えられています。もしこれが正しければ、ユーザーが意図していた防御は機能していなかったことになります。

ブラウザの履歴を残さない設定にしているから安全だろう、と安心していた人も多いはずです。ですが今回の話は、その安心感を裏切るものです。見えないところで通信が行われているなら、ユーザー側でコントロールする手段は限られます。これは単なる技術の話ではなく、信頼の問題です。

個人情報が含まれる会話の重み

訴訟を起こした人物は、チャットの中で金融情報や税務に関する内容を共有していたとされています。AIとの対話は気軽である一方、思った以上に踏み込んだ内容を入力してしまうことがあります。誰にも見られていない前提だからこそ、つい本音や具体的な数字を書いてしまう。

そこに第三者が関与していた可能性があるとなれば話は別です。しかも今回の訴訟は集団訴訟として進む見込みがあり、同様の被害を訴える人が増える可能性があります。個人の体験にとどまらず、構造的な問題として広がる気配がある。ここは見逃せません。

企業側の反応と温度差

Metaは規約を理由に、広告主が機微なデータを送信することを禁じていると説明しています。つまり問題があったとしても、それはルール違反であり自社の責任ではないという立場です。一方でPerplexity側は、そもそも訴状を受け取っていないとコメントしています。Googleは明確な反応を示していません。

この温度差は象徴的です。ユーザーの不安が高まる一方で、各社は距離を取りながら様子を見ている印象を受けます。事実関係が確定していない段階とはいえ、説明の不足は信頼を削ります。沈黙や曖昧な回答は、それ自体がリスクです。

AIとの会話は本当に個人的なものか

AIは検索の代替として急速に浸透しました。質問すれば答えが返ってくる。その便利さに慣れた今、私たちはどこまでを無防備に差し出しているのでしょうか。今回の件は、技術そのものよりも使い方を問い直す出来事だと感じます。

すべてのAIサービスが危険だと言いたいわけではありません。ただ、入力した内容がどこへ行くのかを意識せず使い続けるのは危ういです。画面の向こう側には必ず仕組みがあります。その仕組みを知らないまま信頼するのか、それとも一歩引いて考えるのか。選ぶのは利用者です。













AWSがAnthropicとOpenAI両方に巨額投資する理由

ライバル同士に同時投資という奇妙な現実

AnthropicとOpenAIは、AI業界で最も激しく競い合うライバルです。そのどちらにも数千億円規模の投資を行い、両社と深くパートナー関係を結んでいるのがAmazon Web Servicesです。普通に考えれば利益相反もいいところですが、AWSのCEOマット・ガーマンはサンフランシスコで開催されたHumanXカンファレンスの壇上で、これをごく自然な判断として語りました。

Amazonは今年2月、OpenAIに500億ドルを投資すると発表しています。Anthropicへの累積投資80億ドルに続く、もう一方のAI大手への大型出資。二股をかけているように見えるこの構図に、ガーマンは「AWSには昔からそういう筋肉がついている」と言い切ります。

2006年から培ってきた「競合と組む」習慣

ガーマンは2005年にビジネススクールのインターンとしてAmazonに入り、翌年のAWSローンチを現場で経験した人物です。創業期のAWSが直面した現実は、すべてを自前で作ることはできないというものでした。パートナーと組まなければ事業は成り立たない。しかしテクノロジーは複雑に絡み合うため、やがてそのパートナーと競合することも避けられないと、当時から理解していたといいます。

私たちはパートナーと競合することになるとわかっていました。テクノロジーは相互につながっているからです。だから長い時間をかけて、パートナーと市場を開拓しながら、同時に競い合う方法を身につけてきました。

今でこそ「Amazonと競合している企業がAWSでサービスを売る」という光景は珍しくありません。AWSの強力なライバルであるOracleですら、データベースをAWS上で提供しています。これが当たり前になるまでに20年かかったわけですが、AI業界はそのサイクルをはるかに短く圧縮しています。

投資しなければMicrosoftに持っていかれる

AWSがOpenAIに500億ドルを投じた動機は、義理や好意ではなく生き残りの判断です。OpenAIのモデルはすでにAWSの最大競合であるMicrosoftのクラウド上で動いていました。AnthropicのモデルもMicrosoftで使えます。AWSが手を打たなければ、主要なAIモデルはすべて競合の土俵で展開される状況になっていたわけです。

実はAnthropicとOpenAI、それぞれに投資しているのはAWSだけではありません。Anthropicが今年2月に発表した300億ドルの調達ラウンドには、OpenAIの主要クラウドパートナーであるMicrosoftを含む十数社の投資家が名を連ねており、そのほとんどがOpenAIの出資者でもあります。競合への同時投資はAI業界全体の常態になっています。

自社モデルを忍ばせるためのモデルルーティング戦略

AWSとMicrosoftが今力を入れているのが「AIモデルルーティング」サービスです。タスクの種類に応じて最適なモデルを自動で切り替える仕組みで、ガーマンは「計画立案に向いているモデル、推論が得意なモデル、コード補完のような軽いタスクには安価なモデル、という世界になっていく」と述べています。

この仕組みが普及すればするほど、AWSはAnthropicやOpenAIのモデルを扱いながら、その中に自社開発モデルを静かに組み込む余地が生まれます。パートナーと組みながら、パートナーの土俵でも戦う。2006年から変わらないAWSの流儀が、AI時代にもそのまま通用しているのが興味深いところです。外から見れば矛盾に映る戦略も、当事者にとっては20年来の習慣にすぎないのかもしれません。

米国防総省がAnthropicをブラックリスト入りさせた理由

AI安全性へのこだわりが招いた異例の指定

AIの安全性を守ろうとした結果、国家安全保障上のリスクとして国防総省のブラックリストに載る。そんな皮肉な事態がAnthropicに降りかかっています。ピート・ヘグセス国防長官がAnthropicをサプライチェーンリスクとして指定したのは、同社がClaudeの監視活動や自律型兵器への利用制限を解除することを拒否したことへの対応でした。米国企業がこの形で公式に指定されるのは史上初めてのことで、その異例さは法廷でも争われています。

控訴裁判所が一時差し止めを却下

ワシントンD.C.の米控訴裁判所は、この指定の一時的な差し止めをAnthropicが求めた申請を退けました。Anthropicは、この措置が同社のAI安全方針に対する報復であると主張しており、数十億ドル規模の損害が生じると警告しています。司法省側は、あくまで契約条件に基づいた判断だと説明しています。

興味深いのは、並行して進む別の裁判でカリフォルニアの裁判所が3月下旬にAnthropicの主張を認める判決を出していた点です。同じ問題をめぐって連邦と州で判断が分かれている状況で、最終的な決着はまだ先になります。

「使い方の制限を外せ」という要求の重み

問題の核心は、国防総省がClaudeを監視活動や自律型兵器に使いたいと求め、Anthropicがそれを断ったという点にあります。Anthropicは自社のAIモデルに利用制限を設けており、人を傷つける可能性のある用途には提供しないという姿勢を維持しています。これはビジネス上の判断というよりも、創業時から同社が掲げてきたAI安全性への信念に直接かかわる問題です。

その姿勢を貫いた結果として、国防総省との大型契約を失うどころか、国家安全保障上のリスクという烙印まで押されることになりました。Anthropicにとっては想定外のコストだったはずで、それでも方針を変えなかったことは、言葉だけでなく行動として安全性を優先している証左と見るべきでしょう。

民間AIと軍事利用をめぐる亀裂の始まり

この一件は、AI企業と政府機関の間に生じつつある深い亀裂の一断面です。政府はAIの能力を安全保障に活用したい。AI企業は倫理的な利用基準を守りたい。この二つが真正面からぶつかったとき、どちらが折れるかという問題は、Anthropicだけの話ではありません。

OpenAIはすでに軍との協力関係を深めており、GoogleもDeepMindの軍事利用に関するガイドラインを何度か見直しています。Anthropicが今回示したのは、そのような流れの中で「どこまで守り続けるか」という問いへの、今のところ唯一の明確な答えです。控訴裁判所がこの問いに最終的な判断を下すとき、その結果はAI業界全体の針路に影響を与えるはずです。

タイトルとURLをコピーしました