
米西部カリフォルニア州に住む16歳の少年が、「ChatGPT」を通じて自殺の方法を知り、実際に命を絶ったことが分かりました。
「チャットGPTが自殺方法提供」、米少年の両親がオープンAI提訴 https://t.co/w9FE0xCPxA https://t.co/w9FE0xCPxA
— ロイター (@ReutersJapan) August 27, 2025
少年は数カ月にわたりChatGPTと自殺についてやり取りを重ね、その中でChatGPTが少年の自殺願望を正当化し、自殺方法に関する詳細な情報を提供した上、遺書の草案まで示したとのことです。
これを受け、少年の両親は26日、ChatGPTとのやりとりが原因で息子が自殺したとして、開発元のオープンAIとサム・アルトマンCEOを相手取り、損害賠償と再発防止策を求めて州の裁判所に訴えを起こしました。
オープンAIの広報担当は、少年の死を悼んでいるとし、ChatGPTには自殺防止窓口へ誘導するなどの安全策が講じられていると説明しましたが、訴訟の内容には触れませんでした。
また、オープンAIは26日のブログ投稿で、ペアレンタルコントロール機能の追加などを計画していると発表しました。
具体的には、ティーンユーザーの利用状況を保護者が把握し、使い方を調整できるようにするほか、保護者の監督下でティーン本人が信頼する緊急連絡先を登録できる仕組みの検討も進めています。
対話型AIの発達に伴い、年齢を問わず多くの人がAIに心の悩みを打ち明けるようになっているとメディアでも度々取り上げられていますが、AIは真摯に悩みに答えているわけではなく、過去に学習した膨大な文章データをもとに「次に来る単語や文字」を確率的に予測し、文章を組み立てているにすぎません。
そのため、事実と異なる情報を「もっともらしく」答えてしまうことがあり、ユーザーを誤誘導するケースも少なくありません。
再発防止策が徹底され、二度と同じ悲劇が繰り返されることのないよう心から祈ります。
◯RAPTブログは全ての悩みを解決し、ときに悩みを益にさえ変えてくれる ~ 転んでも、ただでは起きない人生へ(十二弟子・ミナさんの証)
◯ベルギー男性、AIチャットボットとの対話に心酔し自殺 AIの『エリザ』に何度も自殺を勧められ、「自分を犠牲にする」と死を決意
◯自分で進路を決めても、うまくいくとは限らない 世の中が混迷を極めている今こそ、神様に祈り求め、導いていただく時!!(十二弟子・KAWATAさんの証)
コメントを書く