Microsoftの人工知能(AI)チャットボット「Tay」が人種差別的発言したため実験を中断

Message from artificial intelligence..

by Michael Cordedda(画像:Creative Commons)




人工知能が人種差別的発言 実験を中断

(2016/3/25、NHK)

マイクロソフトが開発している人工知能は「Tay(てい)」と名付けられ、インターネット上での一般の人たちとの会話を通じて学習する機能を持っています。
マイクロソフトは23日、ツイッターに「Tay」のアカウントを開設し実験を始めましたが、一部の人たちとの不適切な会話が繰り返されたことで、人種差別的な発言をするようになりました。このためマイクロソフトは24日、修正の必要があるとして、実験を中断すると発表しました。

Microsoftは、インターネット上での会話を通じて学習する人工知能「Tay」が一部の人たちとの不適切な会話が繰り返されたことで、人種差別的な発言をするようになったため、実験を中断したと発表しました。

このことから得られる教訓とは、何でしょうか?

どんなに知性が優秀であっても環境によっては間違った行動をしてしまうということです。

人工知能(AI)を人間に近づければ近づけるほど、偏見を持ったやり方を学んでしまう!?で紹介したユタ大学のコンピューター・サイエンス研究者のSuresh Venkatasubramanian准教授によれば、人工知能(AI)を人間に近づければ近づけるほど、私たちの持つ偏見や制限も含んだやり方をAIが学んでしまうとコメントしています。

人工知能が機械学習(ディープ・ラーニング)を用いた方法によって、人間が持っているようなバイアス(偏り・偏見)がかかってしまい、不当な差別をしてしまうのではないかと危惧していたことが起きてしまいました。

しかし、これは人工知能に問題があったといえるのでしょうか?

「スイッチ 変われないを変える方法」(著:チップ・ハース&ダン・ハース)で紹介されたリー・ロス(スタンフォード大の心理学者)によれば、人は他者の行動の元になる環境的要因を無視する傾向があり、この根強い傾向を「根本的な帰属の誤り」というそうです。

この誤りが生まれるのは、私たちには人々の行動を「置かれている状況」ではなく「人間性」に帰属させる傾向があるからなのだそうです。

スイッチ! 〔新版〕― 「変われない」を変える方法 (ハヤカワ・ノンフィクション)

新品価格
¥1,296から
(2017/3/30 11:19時点)

つまり、今回のケースの場合に当てはめると、人工知能「Tay」の行動を環境ではなく、人工知能自身のせいにしてしまうおそれがあります。

今回のニュースも客観的に見れば、人工知能「Tay」にはインターネット上での一般の人たちとの会話を通じて学習する機能があるわけですから、一部の人達との会話だけになると、そういう発言・行動をしてもおかしくないわけです。

しかし、長く続けていけばいくほど、様々な人たちとコミュニケーションをとることによって、多様性があることを認めるようになり、次第に成長していく姿がみれたのではないでしょうか?

今回は企業イメージの問題があり、また人種差別発言によって傷つく方も多くいたと考えられますので、実験をストップしたことは仕方がなかったかもしれません。

本来であれば、次第に考え方が変わっていく姿が見れたのではないかと思うと残念でなりません。

今回の件は、人工知能に問題があるのではなく、置かれた環境が悪かっただけなのです。

人工知能の可能性に期待したいと思います。







【関連記事】

P.S.

そう考えると、日本マイクロソフトの女子高生AI「りんな」は平和ですね。