人種差別主義者のTwitterボットでマイクロソフトを訴えると脅迫されたとされるテイラー・スウィフト

Twitterを使用して意外にも話をする方法を学んだ人工知能チャットボットがビゴットボットに変わったとき、ボイラーの名前がテイだったので、テイラースウィフトは法的措置を脅かしたと伝えられています。マイクロソフトはおそらく、Twitterのトロールがチャットボットのプログラミングを利用して2016年に人種差別主義者であることを教えた実験を忘れるでしょうが、新しい本は、マイクロソフトがボットの人種差別主義者の発言よりももっと心配する必要があることを示す未発表の詳細を共有しています。

Tayは、アメリカに移動するときに3文字のモニカを採用する前に中国で最初にリリースされた10代向けのソーシャルメディアチャットボットでしたが、ボットはTwitterの会話に基づいて話す方法を学習するようにプログラムされていました。1日も経たないうちに、チャットボットがつぶやいた自動応答は、ヒトラーとサイディングし、ジェノサイドを促進し、そして一般に皆を嫌っていました。マイクロソフトはすぐにアカウントを削除し、謝罪しました。

ボットが再プログラムされたとき、テイはZoとして再起動されました。しかし、Microsoftの社長であるBrad SmithとMicrosoftのコミュニケーションディレクターであるCarol Ann Browneによる『Tools and Weapons』の本では、幹部がついにその理由を明らかにしました—別のテイ、テイラースウィフト。

ガーディアン紙によれば、ボットが破綻する前に、歌手の弁護士はチャットボットの名前をめぐって訴訟を起こすと脅迫したという。歌手は、名前が連邦法と州法の両方に違反していると主張した。スミス氏は、歌手との法的戦いに加わるのではなく、代わりに新しい名前の検討を始めました。

チャットボットが人種差別的なツイートを送信し始めたとき、歌手はさらに心配する理由がありました。マイクロソフトはボットを削除しました。しかし、チャットボットが再び出現したとき、TayはもはやTayTweetsではなくZoでした。ボットが政治、人種、宗教をトピックとして侵害するのを防ぐ新しいプログラムを完備しています。改訂されたチャットボットは、メッセンジャーなどでTwitterとともに利用できますが、後に、典型的な10代の少女に似ていると非難されました。

短縮されたモニカは、歌手が主張した唯一のものではありません—彼女はまた、1989年、彼女が生まれた年、そして彼女の曲の1つのタイトルを商標登録しました。歌手はまた、彼女の歌詞からいくつかの行を登録しています。

9月10日にリリースされた本は、スミスがこの事件をAIセーフガードの教訓としてどのように見ていたかについて引き続き議論している。