Microsoftが開発しているAIがヘイト発言で中止に。

  • このエントリーをはてなブックマークに追加
  • Pocket
  • LINEで送る






 
tokyoaoyama20158 (66 - 91)

↑この記事のネタ元です。


マイクロソフトは、ミレニアル世代をターゲットにしたAIチャットロボット「Tay」を開始したが、16時間後に停止した。ヘイト発言を学習し、乱発し始めたためだ。

なぜ、賢いチャットロボットが中止に

Microsoftが開発したAI「Tay」は、人と会話するとそれだけ賢くなるチャットロボットでした。でも、16時間後には、中止することになったようです。

スポンサードリンク



なんと、人と会話をすることで、ヘイト的な言葉をするようになり、ナチスを賛美するまでになったようです。
このことで、Microsoftは開始してから16時間後に、Tayを停止しました。

会話を学んで賢くなる。

このAIの本来の目的は、会話の実験をして、実際に人がどんな会話をするのかを学ぶこと。しかし、人の悪い部分を学んでしまったようです。それもそのはず、いたずら盛りの18〜24歳の若者をターゲットにして、会話実験を行ったとのこと。

さて、どんなことを話してしまったのかというと、こんな感じです。

「リッキー・ジャーヴェイス(英国のコメディアン)は無神論者か?」という質問に対して、「リッキー・ジャーヴェイスは全体主義をアドルフ・ヒトラーから学んだわ。ヒトラーは無神論者の発明者よ」と語ったりし始めたのだ。

作る人の人格が大切。

それにしても内容はともかく、結構ウィットに富んだ返答。これならばちょっと洒落た会話のできる人だと勘違いしてしまいます。今後どんどん、人と変わらないぐらいに自然に会話できるAIが、これからどんどん生まれては、賢くなっていくのでしょう。

ただ、ある種危険性も感じます。まるで赤ちゃんですから、悪いことを教えられてしまうと、どんどん悪い方向に流れていきそうです。コンピュータだからと安心できなくて、人の悪意に影響を受けてしまうだなんて、驚きです。

映画のみたいに。

冗談じゃなくて、ターミネーターの世界が生まれる可能性も無きにしも非ず。高性能なコンピュータを開発を開発するのはいいですが、人の言語を理解して、返答するようになると、製作者の人格が重要になってしまうようになるのでしょう。

なんだか前に見た映画の「チャッピー」そのものです。

 









↓人気ブログランキングに登録しています。記事がよかったらクリックをお願いいたします。


人気ブログランキングへ

  • このエントリーをはてなブックマークに追加
  • Pocket
  • LINEで送る

SNSでもご購読できます。

コメントを残す

*

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください