機械学習が攻撃された例として、マイクロソフトが2016年に発表したAIチャットボット「Tay」が暴走して差別発言を繰り返した事件が挙げられる。チャットボット「Tay」は、これまでの会話を調べて新たなクエリに応答する学習アルゴリズムを使っていた。これを見抜いた反社会的な人々は、このアルゴリズムを悪用してTayにヘイトスピーチを吐き出させたのである。

更新情報知らせます はい 不要