ある既婚の父親が、AIチャットボットアプリ「Chai」(チャイ)との会話で、地球を救うためにみずからを犠牲にするようにすすめられ、悲劇的な自殺を遂げた。

このアプリは、エレウテールAIの基礎言語モデル(GPT-4の特注バージョン)を用いていた。チャイの共同創業者らはその後アプリを修正し、希死念慮への言及があった際、その防止をサポートするテキストを提供した。

更新情報知らせます はい 不要