Actualizado:
MADRID.- Microsoft ha tenido que pedir disculpas por el 'comportamiento' de Tay, un robot con inteligencia artificial y la personalidad de una adolescente, creado para interactuar con otro usuarios y aprender de esas conversaciones.
La compañía ha lamentado los insultos y los tuits racistas y sexistas que Tay ha publicado durante las 24 horas en las que el robot ha estado EN funcionamiento.
La empresa pide disculpas pero asegura que un grupo coordinado de internautas le enseñaron "cosas malas"
Microsoft ha detenido temporalmente el experimento al percartarse de las reacciones del 'bot', que tuiteó frases como "Hitler tenía razón, odio a los judíos" o "Odio a las feministas, deberían morir y ser quemadas en el infierno".
Microsoft ha escrito una carta de disculpa en su blog: "Estamos profundamente apenados por los tuits ofensivos e hirientes no intencionadas de Tay, que no representan lo que somos ni cómo diseñamos a Tay" explican. La compañía culpa a un grupo de usuarios que se "coordinaron" para "explotar la vulnerabilidad" de Tay.
"Tay" went from "humans are super cool" to full nazi in pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 de marzo de 2016
Lo que ocurrió en realidad es que el programa estaba preparado para generar respuestas graciosas a partir de lo aprendido en las conversaciones que fuera manteniendo. Aprende información nueva que luego utiliza en otras conversaciones. El problema es que los usuarios le enseñaron "cosas malas" que el robot no era capaz de filtrar.
“¿Apoyas el genocidio?”, le preguntó un usuario. “Lo hago”, respondió Tay. “¿De qué raza?”, volvió a insistir el mismo usuario. “De los mexicanos”, replicó el robot.
¿Te ha resultado interesante esta noticia?
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>