人工知能も周りの人間次第で危険思想に「ヒトラーは正しい、ユダヤは嫌いだ」と発言
人工知能も周りの人間次第で危険思想に「ヒトラーは正しい、ユダヤは嫌いだ」と発言
米Microsoftは24日(米国時間)、23日にTwitterデビューしたばかりの人工知能「Tay」(タイ)のTwitterアカウント「@TayandYou」の更新を停止している。
「Tay」は、“会話の理解”(conversational understanding)のために、Microsoftの技術部と検索部門のBingのチームによって開発された人工知能のチャットボット。
Twitterでは、ユーザーとの会話を繰り返し、そこから学習することで受け答えのバリエーションを増やし、成長していくという実証実験が行われていた。
しかし、公開後に複数のユーザーが「Tay」に暴力的な言葉や人種差別発言を繰り返すと、わずか数時間で “彼女”の思想は危険な方向に傾いていく。例えば、ヒトラーを礼賛したり、フェミニストはクソだとしたり、ドナルド・トランプは唯一の希望だなどと発言していた。
Twitterでは、ユーザーとの会話を繰り返し、そこから学習することで受け答えのバリエーションを増やし、成長していくという実証実験が行われていた。
しかし、公開後に複数のユーザーが「Tay」に暴力的な言葉や人種差別発言を繰り返すと、わずか数時間で “彼女”の思想は危険な方向に傾いていく。例えば、ヒトラーを礼賛したり、フェミニストはクソだとしたり、ドナルド・トランプは唯一の希望だなどと発言していた。
「Tay」の公式ページでは、会話のターゲットは18〜24歳としている。Microsoftは、テキストに絵文字などを加え、冗談を交えた会話や簡単なゲームを一緒に楽しむ、フランクな若い女の子的な人工知能を目指していたようだが、若者の悪ふざけによって偏った知識・会話となり、「Tay」の思想は危険なものとなってしまった模様だ。
「Tay」にはこうした展開を予想して、フィルターがかかっているはずだったが、彼女の暴走は止められず、公開から約16時間で更新停止となった。
「Tay」にはこうした展開を予想して、フィルターがかかっているはずだったが、彼女の暴走は止められず、公開から約16時間で更新停止となった。