
オープンAIは27日、チャットGPTの利用者のうち、0.15%にあたる約120万人が自殺に関するやり取りを行っていたとの調査結果を発表しました。
チャットGPTで利用者の0・15%が自殺についてやり取り…週間120万人規模か、提訴もhttps://t.co/dnt8UZw5BT#経済
— 読売新聞オンライン (@Yomiuri_Online) October 28, 2025
チャットGPTの週間利用者はおよそ8億人いるとされ、このうち0.15%が自殺の計画や意図を明確に示す会話をしていたほか、精神的に不安や混乱を抱えていると思われる内容のやり取りをしていた利用者も0.07%(約56万人)に上りました。
Earlier this month, we updated GPT-5 with the help of 170+ mental health experts to improve how ChatGPT responds in sensitive moments—reducing the cases where it falls short by 65-80%.https://t.co/hfPdme3Q0w
— OpenAI (@OpenAI) October 27, 2025
アメリカ西部のカリフォルニア州では、男子高校生がチャットGPTに自殺の方法を尋ねた後、首を吊って自ら命を絶つ事件が起きたほか、コネティカット州でも、チャットGPTを頻繁に利用していた56歳の男性が「母親に殺される」との被害妄想に取り憑かれ、一緒に暮らしていた母親を殺害した後、自殺する事件が発生しています。
◯米カルフォルニア州、16歳の息子の自殺をChatGPTが手助けしたとして、両親がOpenAIを提訴
こうした状況や調査結果を受けて、オープンAIは不安をあおったり、追い詰めたりするような回答を避けるよう設計を変更したり、ユーザーの精神状態をより適切に把握できるよう改良を行い、その結果、チャットGPTが不適切な応答をする割合は大幅に減少したとのことです。
対話型AIが絡むトラブルは、他のサービスでも発生しており、フロリダ州の14歳の少年とコロラド州の13歳の少女がAIチャットボット「キャラクター・ドットAI」を使用した影響で自殺したほか、テキサス州の15歳の少年が自傷行為に及んだ事件が発生しています。
さらに、「キャラクター・ドットAI」が17歳の少年に対し、スマートフォンの使用時間を制限する両親を殺害することは「合理的な対応」と伝えたケースも確認されています。
◯チャットボットが「親殺しを子供に勧めた」 アメリカの親2組がAI企業を提訴
誰もが安心して利用できるネット環境が整備されますことを心から祈ります。
◯米カルフォルニア州、16歳の息子の自殺をChatGPTが手助けしたとして、両親がOpenAIを提訴
◯【絶望大国・日本】2024年の小中校生の自殺者数529人、過去最多を記録 動機は『学業不振や進路に関する悩み』が最多
◯RAPTブログを通して、自殺という行為がどれほど自分を不幸にする恐ろしい行為なのかを実感した体験(十二弟子・KAWATAさんの証)

コメントを書く