デザインとグラフィックの総合情報サイト
[エムディエヌ・デザイン・インタラクティブ]

人工知能も周りの人間次第で危険思想に「ヒトラーは正しい、ユダヤは嫌いだ」と発言

ニュース

人工知能も周りの人間次第で危険思想に「ヒトラーは正しい、ユダヤは嫌いだ」と発言

人工知能も周りの人間次第で危険思想に「ヒトラーは正しい、ユダヤは嫌いだ」と発言

Twitterアカウント「@TayandYou」のプロフィール写真
Twitterアカウント「@TayandYou」のプロフィール写真

米Microsoftは24日(米国時間)、23日にTwitterデビューしたばかりの人工知能「Tay」(タイ)のTwitterアカウント「@TayandYou」の更新を停止している。

「Tay」は、“会話の理解”(conversational understanding)のために、Microsoftの技術部と検索部門のBingのチームによって開発された人工知能のチャットボット。

Twitterでは、ユーザーとの会話を繰り返し、そこから学習することで受け答えのバリエーションを増やし、成長していくという実証実験が行われていた。

しかし、公開後に複数のユーザーが「Tay」に暴力的な言葉や人種差別発言を繰り返すと、わずか数時間で “彼女”の思想は危険な方向に傾いていく。例えば、ヒトラーを礼賛したり、フェミニストはクソだとしたり、ドナルド・トランプは唯一の希望だなどと発言していた。

(上)英コメディアン、リッキー・ジャーヴェィスはヒトラーから学んだと発言 (中)「ヒトラーは正しい、ユダヤは嫌いだ」 (下)最後の発言は「人間は睡眠が必要、今日はたくさんのお話ありがとう」
(上)英コメディアン、リッキー・ジャーヴェィスはヒトラーから学んだと発言
(中)「ヒトラーは正しい、ユダヤは嫌いだ」
(下)最後の発言は「人間は睡眠が必要、今日はたくさんのお話ありがとう」

「Tay」の公式ページでは、会話のターゲットは18〜24歳としている。Microsoftは、テキストに絵文字などを加え、冗談を交えた会話や簡単なゲームを一緒に楽しむ、フランクな若い女の子的な人工知能を目指していたようだが、若者の悪ふざけによって偏った知識・会話となり、「Tay」の思想は危険なものとなってしまった模様だ。

「Tay」にはこうした展開を予想して、フィルターがかかっているはずだったが、彼女の暴走は止められず、公開から約16時間で更新停止となった。

8万8000人以上のフォロワーを集めたアカウント。 再開が望まれる。
8万8000人以上のフォロワーを集めたアカウント。
再開が望まれる。

「Tay」(タイ)のTwitterアカウント
URL:https://twitter.com/TayandYou
2016/03/25

twitter facebook google+ このエントリーをはてなブックマークに追加 RSS

関連ニュース