グーグルのAI「Gemini」がユーザーに対して、「死んでください」と返答したことが海外で報告され話題となっている。複数のメディアが報じている。
質問を重ねていくと、Geminiが突如豹変
問題の発言は海外のコミュニティーサイト「Reddit」に、スクリーンショットや応答履歴のURLとともに投稿されたもの。内容は「退職後の高齢者が抱える問題」に関するユーザーとGeminiのやり取りで、途中まで一般的な回答を続けていたGeminiが突如豹変し、以下のような文言を吐き捨てる模様が残されている。
報道によるとグーグルは本件をすでに把握しており、再発防止策を講じているという。
今回のケースで幸いだったのは、「死んでください」と言われたユーザーがGeminiの言葉を真に受けず、Redditに報告できるだけの冷静さをもっていたことだ。もし、自身の悩みをGeminiに相談した人にこのような回答が表示されていたら、結果は大きく違っていたかもしれない。
<このニュースへのネットの反応>
輝けの意味でShineと言ってきただけだろ(コナン脳)
Geminiは検索で調べた結果をつらつらと並べ立てるだけでchatGPTより柔軟性がないんだよなぁ…
今のやつは思考してるんじゃなくてみんなが言ってることをそれっぽく切りはり加工してるだけだからね。まぁ人間の思考もそんなもんなのかもしれないけど