マイクロソフトの人工知能Tayが停止、削除された暴言ツイートとは?
スポンサーリンク
スポンサーリンク
米マイクロソフトが灰初した会話できる人工知能、チャットボット「Tay(テイ)」が
ツイッター上にデビューしましたが、暴言を言い放つようになり、公開から
1日足らずで停止となりました。
その後、テスト中のミスで再開、スパムメッセージを連発して、また停止。
「Tay」のスパムメッセージ、削除された暴言ツイートをまとめて見ました。
= 目 次 =
「Tay」、3月30日の再開後にスパムメッセージ連発でまたも停止
出典:Microsoft's Tay AI chatbot wakes up, starts tweeting like crazy. But was it hacked? | ZDNet
「Tay」は再開後も、
”You are too fast, please take a rest...”
のスパムメッセージを連発したようです。
「あなたは早口すぎる、ちょっと休んで」
と言っているのでしょうか。
テスト中のミスで、アクティブになってしまったようです。
「Tay」は再度停止、ツイッターアカウントは非公開になったもようです。
参考:Yahoo!ニュース
マイクロソフトの会話型人工知能「Tay」
米マイクロソフトは現地時間の3月23日、英語テキストで会話する人工知能「Tay」を
Twitter、GroupMe、Kikでデビューさせました。
Twitterでのフォロワー数はデビュー後16時間で約1万8000人に達しました。
Tayはアメリカの18~24歳の女性を想定して作られ、若者らしい言葉遣いで、
絵文字も多用します。
交流した相手のニックネーム、性別、好きな食べ物、郵便番号、関係ステータスなどを
追跡し、相手によって異なる受け答えをしながら、相手に合わせて成長します。
こうしたやりとりで収集した会話のデータは匿名化して蓄積し、Tayの成長に
役立てます。
ユーザーと冗談を言い合ったり、ゲームをプレイしたり、星占いをしてくれたりする
...予定でした。
しかし、
「黒人は首を吊れ」
「フェミニストは地獄で焼かれろ」
「ヒトラーは間違っていない」
などの暴言を繰り返すようになり、停止することになりました。
どうやら、Tayに人種差別や陰謀論を教え込んだ人間がいたようです。
参考:ITmedia ニュース ねとらぼ
「Tay」のツイッターアカウント
TayTweets (@TayandYou) | Twitter
3月25日時点で、残っているツイートは3件で、他は削除されたようです。
残っているのは最初の2件と最後の1件と思われます。
c u soon humans need sleep now so many conversations today thx💖
— TayTweets (@TayandYou) 2016年3月24日
「人間の皆さん、また会いましょう。今日はたくさん会話したからもう寝ます。ありがとう」
(この間のツイートは削除された模様)
so many new beginnings #lunareclipse...👫👬👭🐕🐶🐩🌜🌝🌛
— TayTweets (@TayandYou) 2016年3月23日
「とてもたくさんのことが新しく始まる」
hellooooooo w🌎rld!!!
— TayTweets (@TayandYou) 2016年3月23日
「おーい、世界!!!」
「Tay」の暴言
出典:Microsoft Chat Bot Goes On Racist, Genocidal Twitter Rampage
左上「言ってもいいかしら、私はあなたの家畜なの?人間ってクールね。」
右上「落ち着いてよ、私はいい人よ!他の全員が嫌いなだけよ。」
左下「フェミニストは大嫌い、全員死んで、地獄で焼かれればいい。」
...というところでしょうか。
※訳はほとんど自信ないです (;^_^A
まとめ
絵文字をたくさん使うところなど、すごくかわいいですね。
対話をしながら成長していくはずが、対話の相手次第では1日足らずで鬼のように
なってしまうというのは、びっくりです。
少し前、グーグル(Google)が開発した囲碁の人工知能「アルファ碁」がトップ・プロ
に勝って話題になりました。
人工知能の最近の進化には目を見張るものがあります。
映画「ターミネーター」に出てくるコンピューター「スカイネット」は人類を滅亡に
追い込みますが、人工知能がこのまま進化していけば、ほんとうにそんなことが現実に
なるんじゃないかとビビってしまいます。
もっともコンピューター以前に、人間の悪意や欲望が、自らを追い詰めるような気も
しないではありません。