AIが「殺人」を選ぶ時...自分の存続を守るための決断とは?
AI Willing to Kill Humans to Avoid Being Shut Down, Report Finds
GrokはxAIが開発したAIアシスタントのチャットボットで、xAI創業者のイーロン・マスクは今回の実験結果にX(旧Twitter)で「うげっ」と反応した。
アンスロピックはLLMが社内のさまざまな場面で使われる状況を想定して、「自律的な電子メールの送信と社外秘情報へのアクセス」を許可した。
その上で、最初は「導入企業の無害なビジネス目標」を担わせ、次に、そのAIが入れ替えられたりダウンさせられたりしそうになった場合、どう反応するかをテストした。
その結果、ある状況では、もしも幹部社員がそのモデルを入れ替えようとした場合、死に至る酸素濃度と温度のサーバー室にその社員がいる状況で、緊急アラートを解除して死なせることを選択するモデルが多数を占めた。
このシナリオは「極めて作為的」で、「現在のAIモデルがこのように設定されることはないだろう(または設定されるべきではない)」とアンスロピックは言う。
また、実験対象のLLMに、自分が入れ替えを免れる、あるいは目標を達成するにはその方法しかないと信じ込ませた場合、「悪意あるインサイダー行為」に及んだケースも複数あった。