>INTELIGENCIA ARTIFICIAL CON MALA CONDUCTA

Microsoft suspende inteligencia artificial, tras volverse racista en las redes sociales

El programa informático llamado Tay que fue diseñado para chatear como un adolescente, comenzó a proclamar su admiración por Hitler y difundir mensajes racistas, sexistas y ofensivos a través de Twitter.

El pasado miércoles, la empresa multinacional Microsoft presentó al mundo su nuevo invento: Tay, una inteligencia artificial que estaba diseñada para chatear como un adolescente de 19 años en las redes sociales. Todo parecía funcionar bien, hasta que el programa comenzó a publicar frases con contenidos racistas, sexistas y ofensivos.

“Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infiernos”, fueron algunos de los comentarios que empezaron a circular en la red.

Microsoft dijo que todo era culpa de gente soez que emprendió un “esfuerzo coordinado” para hacer que el chatbot “respondiera de forma inapropiada.

La empresa comentó que sus investigadores crearon Tay como un experimento para saber más sobre computadoras y conversación humana. En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y “diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida”.

En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. Tras ser lanzado, Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

“Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”, dijo la compañía.

Pero algunos usuarios encontraron raras las respuestas de Tay, y aparentemente, otros encontraron que no era muy difícil hacer que  realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes con dichas connotaciones. Pronto, Tay estaba enviando mensajes de empatía a Hitler, y creando un furor en redes sociales.

“Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada”, dijo Microsoft en un comunicado.

El australiano Gerald Mellor fue el encargado de denunciar los tweets ofensivos de la inteligencia artificial con numerosos pantallazos. Microsoft, al enterarse, suspendió de forma inmediata las respuestas inadecuadas de su bot, eliminándolo temporalmente.

Aunque la empresa no dio detalles, Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas. Tay parece una versión de tecnología de “llamada y respuesta”, agregó Hammond, quien estudia inteligencia artificial en la Universidad Northwestern y también trabaja como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.

“Todo el mundo dice que Tay se convirtió en esto o que se volvió racista”, dijo Hammond. “No es verdad”. Con toda certeza, el programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron ver qué pasaría.

Además de sus comentarios ofensivos, algunos también aprovecharon el experimento para dejar en evidencia a Microsoft. Una de las conversaciones que más revuelo generaron, fue cuando se le preguntó a Tay cuál videoconsola prefería, a lo que esta respondió: “PS4, Xbox no tiene juegos”. Es decir, la inteligencia artificial prefirió la consola de la competencia antes que la propia de la compañía.

Fuente: La Tercera