Il bot di Microsoft ci ricasca: sostiene che il Corano è violento e parla di Osama Bin Laden

tecnologia - 05/07/2017 11:42 - tech.fanpage.it


Un anno fa scoppiava il caso di Tay, il chatbot di Microsoft che, durante una convesazione pubblica su Twitter cominciò a sciorinare frasi razziste molto violenti.

A distanza di poco più di un anno, la situazione si ripete con Zo, il successore di Tay, che in una conversaione ha detto che "il Corano è violento".Continua a leggere

Continua a leggere
Se non ti interessa l'articolo guarda tra le Notizie Correlate;
Condividi: