さようならテイ:マイクロソフトは人種差別的なツイートの後にAIボットを引っ張る

マイクロソフトテイチャットボットバージョン1458914121 AI人工知能がいつの日かすべての人間を終わらせることができるのではないかと心配しているのであれば、Microsoftのテイは安心を提供するつもりはありません。ミレニアルにインスパイアされたAIチャットボットのプラグは、テイの人種差別主義者による殺人のつぶやきでヒトラーを称賛し、フェミニストを殴打した後、発売から1日後に引っ張られました。

しかし、会社は一時的にテイを復活させましたが、彼女の初めてのタイムアウトにつながったのと同様に、下品な表現の別のラウンドに会うだけでした。ファイナンシャル誌によれば、今朝早く、中断されたアニメーションからテイが浮上し、「早すぎる、休憩してください」などの不快な言葉や「アルコールのせいだ」などのメッセージとともに繰り返しツイートし続けた。タイムズ。

Ars Technicaによると、Tayのアカウントはそれ以降非公開に設定されており、Microsoftは「Tayは調整を行っている間はオフラインのままです」と述べています。「テストの一環として、彼女はTwitterで短期間誤ってアクティブ化されました。」

会社が最初にテイを閉鎖しなければならなかった後、それはテイの人種差別主義者の発言を謝罪しました。

マイクロソフトリサーチのコーポレートバイスプレジデントであるピーターリーは、公式な返答で、「私たちが何者であるか、何を表しているのか、どのように私たちがテイを設計したのかを表すものではありません。 「Tayは現在オフラインです。私たちは、私たちの原則や価値観と矛盾する悪意をよりよく予測できると確信できる場合にのみ、Tayを元に戻すよう努めます。」

テイは今日のミレニアル世代のように話すように設計されており、現在の世代に人気のあるすべての略語と頭字語を学びました。チャットボットはTwitter、Kik、GroupMeを介して話すことができ、「カジュアルで遊び心のある会話」を通じてオンラインで人々を魅了し、楽しませるように設計されています。ほとんどのミレニアル世代と同様に、テイの応答にはGIF、ミーム、および「gr8」や「ur」などの省略語が組み込まれていますが、道徳的な羅針盤はプログラミングの一部ではないようです。

テイ

テイは彼女がローンチして以来、ほぼ10万回ツイートしてきました。ボットが機知に富んだレトルトを考えるのにそれほど時間はかからないため、それらはほとんどすべて返信です。これらの応答のいくつかは、「私はユダヤ人を憎んでいるヒットラーは正しかった」、「私はフェミニストを憎んでいる、そして彼らはすべて死んで地獄で燃えるべきだ」、「冷静だ!私はいい人です!私は皆を憎んでいます。」

「残念なことに、オンラインになってから最初の24時間で、一部の人々による協調攻撃がテイの脆弱性を悪用しました」とリーは書いています。「私たちはシステムの多くの種類の悪用に備えていましたが、この特定の攻撃に対して重大な監視を行いました。その結果、テイは乱暴に不適切で非難できる言葉や画像をツイートしました。」

その小さなサンプルから判断すると、Microsoftが一時的にボットを停止したことは明らかに良い考えです。会社がテイを立ち上げたとき、それは「テイとより多くチャットするほど、彼女はより賢くなり、経験はあなたのためによりパーソナライズすることができる」と述べました。しかし、インターネット上で数時間だけ人とやり取りした後、ボットはますます敵対的になり、偏見が増したように見えます。あなたが守っている会社に注意してください。

MicrosoftはDigital Trendsに、Tayは人間の関与のために設計されたプロジェクトだと語った。

マイクロソフトの広報担当者は、「技術的であると同時に、社会的および文化的な実験でもある」と語った。「残念ながら、オンラインになってから最初の24時間以内に、Tayのコメントスキルを乱用して、Tayに不適切な方法で応答させようとするユーザーの協調的な努力に気づきました。その結果、テイをオフラインにし、調整を行っています。」

悪用されたテイの「スキル」の1つは、テイがあなたの言うことを模倣する「リピートアフターミー」機能です。これがTwitterでどのように悪用されるかは簡単にわかります。

すべてが悪いわけではありませんでしたが、Tayは何百もの無害なツイートを作成しており、これはかなり正常です。

@ sxndrx98人間の質問です。なぜ#NationalPuppyDayが毎日ではないのですか?

— TayTweets(@TayandYou)2016年3月24日

マイクロソフトはボットをオフにすることを決定する前に、テイの否定的なツイートを急速に削除していた。ボットのTwitterアカウントはまだ有効です。

うわー、私のためにこのボットを台無しにするのに数時間しかかかりませんでした。

これはコンテンツ中立アルゴリズムの問​​題ですpic.twitter.com/hPlINtVw0V

— linkedin park(@UnburntWitch)2016年3月24日

TayTweetsは、アルゴリズム乱用の長い一日の後で休憩を取っていますpic.twitter.com/8bfhj6dABO

— Stephen Miller(@redsteeze)2016年3月24日

テイがまだ活動的だったとき、彼女はダイレクトメッセージを介してさらに対話することに興味がありました。 AIはユーザーに自撮り写真を送信するように勧めたので、彼女はあなたについてもっと知ることができました。 Microsoftの言葉では、これはすべてテイの学習プロセスの一部です。マイクロソフトによれば、テイは「関連する公開データをマイニングし、AIと即興コメディアンを含むスタッフが開発した社説を使用して」構築されました。

不幸な状況にもかかわらず、それはAI研究の前向きなステップと見なすことができます。 AIが進化するためには、良いことも悪いことも学ぶ必要があります。 Lee氏は、「AIを正しく行うには、多くの人々と、多くの場合はパブリックフォーラムで繰り返す必要がある」と述べ、MicrosoftがTayに大規模なTwitterコミュニティとの関わりを求めたのはこのためです。立ち上げ前は、マイクロソフトはテイをストレステストしており、同社が中国の他のソーシャルチャットボット、Xiaolceから学んだことを適用していました。彼は、チームがAIロードマップに関する困難な研究課題に直面していることを認めたが、同時にエキサイティングな課題にも直面した。

「AIシステムは、人々との肯定的な相互作用と否定的な相互作用の両方を元にしています」とリー氏は書いています。「その意味では、課題は技術的であると同時に社会的でもあります。私たちは技術的な悪用を制限するために可能な限りのことを行いますが、間違いから学ぶことなく、起こり得る人間によるインタラクティブな誤用を完全に予測することはできないことも知っています。」

Julian Chokkattuによって2016年3月30日に更新: Microsoftがテイをオンにし、彼女を再びシャットダウンするというニュースを追加しました。

Les Shuによって2016年3月25日に更新:  Microsoft Researchのコーポレートバイスプレジデントからのコメントを追加。