Microsoft retira su robot Tay por comentarios ofensivos

Las respuestas ofensivas del robot Tay lo llevaron a ser suspendido. Conoce más este hecho, aquí.

Se les fue de las manos. A pocas horas de haber lanzado su robot Tay, un programa de inteligencia artificial destinada a interactuar con los usuarios, fue suspendido por completo luego que comenzara a difundir mensajes racistas, sexistas y ofensivos.

¿Pero qué es Tay y por qué se comentó tanto sobre ese robot? Tal vez no estuviste al tanto en esta Semana Santa sobre lo que sucedió con Tay, pero aquí te lo resumimos. Todo comenzó el último miércoles (23 de marzo) cuando Los de Redmond presentaron a Tay, un robot creado para saber más sobre computadoras y conversación humana. Si quieres saber más, entra aquí.

Lee también: Asistentes virtuales fallan ante emergencias de salud física o mental

Hasta aquí, todo iba bien, pero lo que no sabían o mejor dicho sí sabían, aunque no consideraron importante fueron las dimensiones de las preguntas que le harían en Tay. Y es que Microsoft informó que los internautas podrían conversar con Tay en Twitter, y todo empezó.

Conforme los cibernautas interactuaban más con Tay, comenzaron a hacerle preguntas ‘más picantes’, y el robot no salió bien librado de ello. Sus respuestas llamaron la atención cuando mostró su empatía con Hitler, aunque comenzó que lo hubiera matado al nacer; mientras que concordaba con el Holocausto e incluso menospreció a sus propios creadores.

tay hilter
En un mensaje Microsoft expresó que existía un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación del robot Tay para que respondiera de forma inapropiada.

tay mexico
holocausto tay

Tay: Soy buena, pero odio a todos

Muy al estilo de la Reina Roja, de la película Resident Evil,  el robot Tay afirmó que “Soy una buena persona… Lo que ocurre es que los odio a todos”, terminó por sentar sus exabruptos al interactuar y lo condenaron a desaparecer, al menos hasta nuevo aviso.

Sin embargo, ¿cuál es la lección de todo esto? Para Microsoft está claro, aún le falta un largo trabajo para hacer de Tay un verdadero personaje inteligente que sepa adaptarse al contexto e interactuar con las internautas.

La experta en “analítica conversacionales”, Caroline Sinders, afirmó a El Heraldo que Microsoft debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay, del cual afirmó  “es un ejemplo de mal diseño”.

Lo cierto de todo esto es que aún hay un trabajo pendiente en materia de inteligencia artificial sobre todo cuando se trata de crear herramientas que interactúen con temas controversiales con los cibernautas.