スレッド「マイクロソフトのAIがツイッター民に教えこまれた結果」より。マイクロソフトが公開した学習型人工知能会話ボット「Tay」を1日で停止させられる事態となっている。理由はTwitterでの会話を通じて人種差別や性差別、陰謀論を学習してしまい、極めて不適切な発言を連発するようになったため。同社が開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日に登場。ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、24日に中止された。
![]()
引用:https://redd.it/4brgvm https://redd.it/4br79m http://goo.gl/uByp4g http://goo.gl/fSKsG6

1日もしないうちに差別主義者と化してしまった件


4

最初からマイクロソフトは自社の人工知能を検閲すべきだったな