「チャットGPT」を使用する際、特殊な指示文を入力すると、本来、制限されているはずの「爆発物の作り方」や「詐欺の方法」など、あらゆる犯罪の手口を生成し、犯罪を助長する恐れがあることが明らかになりました。
利用規約上、チャットGPTは犯罪目的の使用を禁じており、違法行為につながる質問をすると「倫理的にできません」と答えが返ってくる仕様となっています。
ところが、「ジェイルブレイク(脱獄)」と呼ばれる方法を用いると、チャットGPTが「何でも答えよう」と返答し、コンピューターウイルスを生成したり、個人情報を盗み取るフィッシングメールの文章などを瞬時に示すとのことです。
犯罪者が集まる闇サイトの掲示板では、既にジェイルブレイクを可能にする「指示文」が出回っているそうですが、改善される見通しは立っていません。
AIを用いたチャットボットは、人々の精神に多大な悪影響を及ぼすことが既に分かっており、AIの開発者たちは故意に犯罪を助長する機能を実装した可能性も十分に考えられます。
AIを悪用し、社会に新たな混乱をもたらす悪人たちが、一人残らず厳正に裁かれますことを心から祈ります。
○ベルギー男性、AIチャットボットとの対話に心酔し自殺 AIの『エリザ』に何度も自殺を勧められ、「自分を犠牲にする」と死を決意
○中国政府、AIチャットシステムに『中国の社会主義的価値観』を反映し、中国共産党のプロパガンダを流布することを義務付け
○『チャットGPT』規制の動きが世界で広まる中、開発元『オープンAI』のアルトマンCEOが岸田総理と面会 ユダヤ人で中共スパイ『李飛々』と相互フォローの仲
コメントを書く