大規模言語モデルの悪用は極めて簡単で、例えば、間接プロンプト・インジェクションと呼ばれる攻撃方法では、Webサイトや電子メールの本文を巧妙にそれらしく作り、その中に人間の目では見分けられない白色の文字(背景が白色の場合)を隠しておくだけでいい。一度仕込んでしまえば、AIモデルに対して思うままに命令ができる。

更新情報知らせます はい 不要