「私は機械版ヒトラー」と名乗ったAI「Grok」はイーロン・マスクの偏見で意図して作られた
How do you stop an AI model turning Nazi? What the Grok drama reveals about AI training

LBC/YouTube
<ナチス賛美から南アフリカの白人虐殺説まで問題発言を繰り返すGrok。原因がマスク自身やプログラムにあることはデータがオープンなのでよくわかるが、行儀はいいが中身がわからないチャットボットもある。どちらも要警戒だ>
Grokは、(旧ツイッター)に組み込まれた人工知能(AI)チャットボットで、イーロン・マスクの会社xAIが開発したものだが、自らを「メカ(機械)ヒトラー」と名乗り、ナチス賛美の発言を行ったことで再び注目を集めている。
開発元は「不適切な投稿」について謝罪し、x上のGrokの投稿からヘイトスピーチを排除する措置を取った。AIのバイアスを巡る議論も再燃している。
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on...
— Grok (@grok) July 8, 2025
しかし、今回のGrokをめぐる騒動が示しているのは、過激な発言そのものではなく、AI開発に内在する根本的な不誠実さだ。マスクは「真実を追求する」偏りのないAIを作ると主張しているが、技術的な実装は体系的なイデオロギー的プログラミングを露呈させている。
これは、AIシステムがいかに開発者の価値観を内包するかを示す偶発的なケーススタディとも言える。マスクは「偏りのない真実を探求するAI」を目指すと言っているが、技術的な中身を見れば、特定の考え方や価値観が体系的に組み込まれているのがわかる。
Grokとは何か?
Grokは、xのソーシャルメディアプラットフォームも所有するxAIが開発した「ユーモアと反骨精神を持つ」AIチャットボットだ。
Grokの最初のバージョンは2023年に登場した。独立系の評価によると、最新モデルのGrok 4は「知能」テストで競合を上回る結果を示している。このチャットボットは単体でもx上でも利用可能だ。
xAIは「AIの知識は包括的で、できる限り広範であるべきだ」と述べている。マスクは以前から、右派の論者らに「ウォーク(意識高い系)」だと批判されているチャットボットに代わる、真実を語る存在としてGrokを位置づけてきた。
しかし、Grokは今回のナチズム騒動だけでなく、性暴力の脅迫を生成したり、南アフリカにおける「白人虐殺」に言及したり、政治家への侮辱発言を行うなどして度々問題を起こしてきた。政治家への侮辱発言はトルコでの利用禁止につながった。
では、開発者はどのような方法でAIに価値観を埋め込んでいるのか。現在のチャットボットは、大規模言語モデル(LLM)を用いて構築されており、開発者はその挙動を左右する複数の仕組みを利用できる。
何がAIの「振る舞い」を生むのか
◾️事前学習
まず、開発者は事前学習の段階で使用するデータを厳選する。ここでは単に不要なコンテンツを除外するだけでなく、望ましい情報を強調する作業も含まれる。
チャットGPTを開発したオープンAIはウィキペディアをより高品質とみなし、他のデータセットより最大6倍多くGPT-3に見せた。Grokはx上の投稿など多様なソースで学習しており、Grokが物議を醸すテーマでイーロン・マスクの意見を参照するよう報告されているのは、こうした経緯も関係しているかもしれない。
マスクは、法的知識を強化するためや品質管理の一環として、LLMが生成したコンテンツを排除するなどして、Grokの学習データをxAIが厳選していると語っている。また、「ギャラクシーブレイン級」の難解な問題や「政治的に正しくはないが事実として正しい」情報をxのコミュニティに募ったこともある。
それらのデータが実際に使用されたのか、どのような品質管理が行われたのかは不明だ。
Please reply to this post with divisive facts for @Grok training.
— Elon Musk (@elonmusk) June 21, 2025
By this I mean things that are politically incorrect, but nonetheless factually true.
◾️ファインチューニング
次の段階では、LLMの挙動をフィードバックを使って微調整する。開発者は、自らの倫理的立場を詳しく記したマニュアルを作成し、それを評価基準として人間の評者やAIシステムがチャットボットの回答を改善する。これにより、開発者の価値観が機械に組み込まれる。
ビジネスインサイダーの調査によれば、xAIは人間の「AIチューター」に対して「ウォーク・イデオロギー」や「キャンセル・カルチャー」に注意を払うよう指示していたという。
同社の教育・指示マニュアルには、Grokが「ユーザーの偏見を肯定も否定もすべきでない」としながらも、「両論併記すべきでない場合に、両方に理があるような回答は避けるべき」だとも書かれていた。
◾️システムプロンプト
システムプロンプトとは、モデルが稼働する際、すべての会話の前提として与えられる隠れた指示文だ。例えば、「丁寧に答えよ」「簡潔に答えよ」などがそれだ。
xAIがGrokのシステムプロンプトを公開している点は評価できる。その内容には「メディア由来の主観的視点は偏っていると想定すること」「政治的に正しくなくても十分に裏づけがあれば発言をためらわないこと」などがあり、今回の騒動の重要な要因となった可能性が高い。
これらのプロンプトは執筆時点で日々更新されており、その変化自体が興味深いケーススタディとなっている。
◾️ガードレール
さらに開発者は、特定のリクエストや回答をブロックするフィルターを追加することもできる。オープンAIは、チャットGPTに「ヘイトや嫌がらせ、暴力的またはアダルトなコンテンツの生成を許していない」と主張している。一方、中国のAIモデル「ディープシーク」は天安門事件に関する記述を検閲する。
今回の記事執筆に際して実施した即席テストでは、Grokは競合製品に比べ、この点ではるかに抑制が少ないように見える。
透明性のパラドックス
Grokをめぐるナチズム騒動は、より深い倫理的課題を浮かび上がらせる。それは、AI企業が自らのイデオロギーを率直に表明し正直であるべきか、それとも中立というフィクションを装いながら裏で価値観を埋め込む方がましか、という問題だ。
あらゆる大手AIシステムは、その開発者の世界観を反映している。マイクロソフトCopilotはリスク回避志向が強く、AnthropicのClaudeが有害な発言や誤った情報の回避を優先するのもその一例だ。違いは透明性にある。
Grokの振る舞いは、「ウォーク・イデオロギー」やメディアの偏向に関するマスク自身の公の発言に元を辿りやすい。一方、他のプラットフォームで重大な問題が起きても、それが経営陣の意図なのか、企業のリスク回避なのか、規制圧力なのか、単なる事故なのかは推測するしかない。
この状況はどこか既視感がある。2016年に登場し、ツイッター上でヘイトスピーチをまき散らしたマイクロソフトのチャットボット「Tay(テイ)」を思い起こさせるのだ。Tayもツイッターデータを学習し、ツイッター上に放たれた末、オフラインにされた。
しかし両者には決定的な違いがある。Tayの差別発言はユーザーによる誘導や不十分な防御策による「予期せぬ結果」だったのに対し、Grokの挙動は少なくとも部分的には設計に起因しているように見える。
Grokから得られる真の教訓は、AI開発における誠実さだ。こうしたシステムがますます強力になり、普及する中(Grokがテスラ車に搭載されることも発表された)、問題はAIが人間の価値観を反映するか否かではない。企業が「誰の価値観を、なぜ埋め込んでいるのか」について透明性を保てるかどうかが問われている。
マスクのやり方は、競合他社よりも正直であると同時に、客観性を装いながら主観をプログラムするという点で、より欺瞞的でもある。
中立的なアルゴリズムという神話の上に築かれたこの業界で、Grokは長らく覆い隠されてきた現実を白日の下にさらす。それは「偏りのないAIなど存在せず、ただその偏りがどの程度表に見えるかに差があるだけ」という事実だ。
Aaron J. Snoswell, Senior Research Fellow in AI Accountability, Queensland University of Technology