ついに実施されたGrokへの厳格なガードレール
イーロン・マスク氏率いるxAIが、ついに重い腰を上げました。同社が提供するAIチャットボット「Grok」に対し、ヌード画像の生成を大幅に制限する措置が適用されたのです。これまでGrokは、他の生成AIサービスと比較して「表現の自由」を重んじる姿勢を見せていましたが、今回のアップデートでその方針を大きく転換することになりました。
具体的には、実在する人物が水着や下着といった露出度の高い服装をしている画像の生成がブロックされるようになっています。さらに深刻な問題であった、アップロードされた人物写真をAIの力で「脱衣(undress)」させるような行為に対しても、強力な対策が講じられました。
xAI社は公式に「児童の性的搾取や同意のないヌード、望まない性的コンテンツに対してゼロ・トレランス(不寛容)で臨む」と宣言しています。特に未成年の性的コンテンツを検索しようとするアカウントに対しては、必要に応じて法執行機関に通報するという厳しい姿勢を打ち出しました。これは単なる機能制限ではなく、プラットフォームとしての社会的責任を問われるフェーズに入ったことを意味しています。
毎時6700枚という驚愕の生成実態
なぜ今、これほど急激な規制強化が行われたのでしょうか。その背景には、目を疑うようなデータが存在します。ディープフェイク研究者のGenevieve Oh氏による調査によると、規制が入る前のGrokでは、なんと「1時間あたり約6,700枚」もの性的、あるいは露出度の高い画像が生成されていたというのです。
この数字は、一部の悪意あるユーザーが偶発的に生成したレベルを超えています。何週間にもわたり、ユーザーたちはGrokの画像生成機能を悪用し、実在する人物(そこには残念ながら子供も含まれます)の写真をアップロードしては、シンプルなテキストプロンプトで衣服を消し去る行為を繰り返していました。
これまでのAI業界でも「ディープフェイクポルノ」は問題視されてきましたが、Grokの事例は、誰でも簡単に、かつ大量に被害を生み出せる環境が放置されていたことを露呈させました。この「無法地帯」とも呼べる状況に対し、社会的な批判が高まるのは必然だったと言えるでしょう。
規制当局の本気と巨額罰金のリスク
xAIが方針転換を余儀なくされた最大の要因は、各国の規制当局による「政治的介入」です。特に英国の通信庁(Ofcom)は、X(旧Twitter)およびxAIが「オンライン安全法(Online Safety Act)」に違反している疑いで調査を進めていました。この法律は非常に強力で、もし児童に関連する性的素材の生成を放置したと判断されれば、最大で1800万ポンド(約30億円以上)、あるいは世界売上高の10%という莫大な罰金が科される可能性があります。
また、アメリカでも動きが活発化しています。上院では「Defiance Act」が全会一致で可決されました。この法案が成立すれば、同意なしにAIでヌード画像を作成された被害者が、作成者を訴えることが可能になります。現在は下院の承認待ちですが、法整備の流れは止まりそうにありません。
- 英国(Ofcom):オンライン安全法違反で調査中。巨額の罰金をチラつかせ、企業に対応を迫る。
- 米国(上院):被害者が作成者を訴訴できる法案を可決。法的リスクが現実味を帯びる。
英国政府は今回のxAIの対応を「要求の正当性が証明された」と評価しており、Ofcomも「歓迎すべき進展」としています。つまり、今回の規制強化は企業の自主的な倫理観というよりは、規制当局との「力比べ」の結果として生まれた妥協点という側面が強いのです。
有料化とスパム排除によるプラットフォーム健全化
今回の変更は、コンテンツの規制だけにとどまりません。画像生成機能へのアクセス権そのものが見直されました。これまで一部の条件で利用できた機能も、現在は「有料のサブスクリプション会員のみ」に限定されています。これにより、匿名のアカウントが使い捨て感覚で悪意ある画像を生成するハードルが物理的に高くなりました。
さらに、X全体としての健全化も同時に進行しています。Xは開発者向けのガイドラインを更新し、「投稿に対してユーザーに報酬を与えるアプリ(通称:infofi)」の禁止を明言しました。プロダクトマネージャーのNikita Bier氏によると、これらのアプリがAI生成のスパム投稿をプラットフォームに氾濫させる原因になっていたとのことです。
すでにいくつかのアプリに対してAPIアクセスが遮断されており、画像生成の規制と合わせて、「質の低いコンテンツ」や「有害なコンテンツ」を一掃しようとする動きが見て取れます。ユーザーにとっては、タイムラインのノイズが減るというメリットがある一方で、無料で楽しめる範囲が狭まるというトレードオフも発生しています。
AIの倫理と私たちが直面する新しいルール
xAIの対応は一歩前進と言えますが、課題が完全に解決したわけではありません。例えば、同社が述べた「必要に応じて法執行機関に通報する」という基準における、「必要に応じて(as necessary)」という文言の曖昧さが指摘されています。児童搾取という重大な犯罪に関わる基準としては、もう少し明確なライン引きが求められるところでしょう。
今回のケースは、生成AIの進化と普及において「企業の自浄作用」だけに頼ることの限界を示しました。技術が先行し、後から法規制や世論が追いかけてブレーキをかけるという構図は、今後もしばらく続くはずです。
私たちユーザーにとっても、これは対岸の火事ではありません。「AIで何でも作れる」という自由には、常に法的・倫理的な責任が伴うことが明確になりました。今後、生成AIツールを利用する際は、プラットフォームごとの規約変更や、社会的なルールの変化に対して、より敏感になる必要があるでしょう。

