ChatGPTなど「生成AI」の監視を今すぐに強化しろ!元ホワイトハウス高官が提唱する3つのステップ
IT'S TIME TO ADDRESS THE RISKS OF AI
AIを監視する3つのステップ
しかもそれらの基準が適用されるのは、主として炭疽菌や鳥インフルエンザのウイルスなど、政府が潜在的リスクのある病原体リストに含めた細菌やウイルスに限られる。
このように監視対象を狭く絞ると、人々を十分に守れなくなる。コロナウイルスのようなありふれたウイルスも、変異によりパンデミックを引き起こすことは周知のとおりだ。
NSABBは最近、遺伝子研究の監視対象を大幅に拡大するようバイデン政権に提言した。提言書は、制御不能なほど感染が拡大し得るか、強力な感染性または致死性を獲得し得る病原体、さらには公衆衛生および国家安全保障に深刻な脅威を及ぼし得る病原体を扱う実験などを監視すべきだと述べている。
議会の複数の委員会でも、バイオテック業界に安全性の確保をより厳しく求める動きが活発化している。にもかかわらず、バイオ分野の安全対策は初動の遅れを今も挽回できていない。
AI研究者、起業家、規制当局はバイオテック分野の教訓を肝に銘じるべきだ。今すぐ潜在的リスクを評価し、安全対策を立案する作業に着手すること。意図的な悪用であれ意図せぬ弊害であれ、社会を揺るがす問題が起きてからでは手遅れだ。複数の機関が連携して研究開発を監視する制度を設計し、技術の進歩に伴って必要な修正を加えていく必要がある。
具体的なステップは以下のとおり。
①生成AIには潜在的リスクがあり、透明性の高い非排他的な監視体制を整備する必要があることを、テック部門のステークホルダー、政府、学界、さらには一般の人々が認識し、社会全体が責任を持って、この新技術が安全に活用され、大きな便益がもたらされるようにする。
②生成AIのプラットフォームとプログラムが公共善を最大化し、弊害を最小化するものとなるよう、ステークホルダーは直ちに具体的かつ一律に適用される倫理指針の作成に着手する。
③国の諮問委員会を直ちに設置する。これはAIの専門家に限らず、倫理学をはじめ多分野の学者、市民の代表、宗教指導者など多様なメンバーで構成する組織で、政府や研究機関、企業にAIプログラムの開発と進化に関する倫理指針を示す役割を担う。
冒頭で紹介したシドニーのエピソードのように、AIは私たちをびっくりさせるような能力を秘めている。それが楽しい驚きならいいが、いつもそうとは限らない。
AIの驚きの能力が個人や社会を破滅に導くことがないよう、万全の対策が急務だ。
アマゾンに飛びます
2026年4月14号(4月7日発売)は「トランプの大誤算」特集。国民向け演説は「フェイク」の繰り返し。泥沼化するイラン攻撃の出口は見えない
※バックナンバーが読み放題となる定期購読はこちら
-
生成AI商材/大手外資系「インサイドセールス「SV候補」」/その他コンサルティング系
ブリッジインターナショナル株式会社
- 東京都
- 年収340万円~450万円
- 正社員
-
未経験歓迎/テスラのセールスアドバイザー 初年度年収800万円可/飛び込みなし/外資系Tech企業/株式付与あり
TeslaJapan合同会社
- 東京都
- 年収400万8円~1,199万4円
- 正社員
-
労務 給与計算・社会保険手続き 外資系企業で働く/フレックス勤務/週2~3回のリモート勤務OK
VISTRA Japan株式会社
- 東京都
- 年収400万円~850万円
- 正社員
-
採用プロジェクトオペレーター 未経験可 「大手・外資系企業の採用支援/フレックス×リモート」
株式会社トライアンフ
- 東京都
- 月給20万2,200円~
- 正社員





