Llegó Skynet: Tay, el bot de Microsoft que se volvió contra sus creadores en menos de 24 horas - anonopshispano


Llegó Skynet: Tay, el bot de Microsoft que se volvió contra sus creadores en menos de 24 horas






Una vez más, se suscita la polémica sobre los peligros de la inteligencia artificial

Tay, el bot neonazi. FOTO: The Hacker News.

Tay, el bot neonazi. FOTO: The Hacker News.

 

Redmond, 24 de marzo 2016 (anonopshispano.com).- Tay, El nuevo «bot» de inteligencia artificial que Microsoft anunció con bombo y platillo esta semana, y que entró por la puerta grande a Twitter esta semana, se convirtió en un racista con tendencias nazis y machistas a unas horas de su presentación, lo que obligó a sus creadores a retirarlo, informó The Hacker News.

 

Según Microsoft, el bot, denominado como «millenial» y de sexo femenino, tenía el propósito de volverse más inteligente conforme la gente tuvieras interacción con él. En un entorno técnico, Jay tiene la finalidad de experimentar con la psicología conversacional, y aprender cómo la gente interactúa en redes sociales. «Se trata de un proyecto de inteligencia artificial, diseñado para interactuar con humanos», afirmó la empresa. «Es un proyecto social y cultural, como técnico».

 

Sin embargo, según Microsoft, a menos de 24 horas de lanzarlo a las redes, un supuesto «ataque coordinado» de un grupo de usuarios hizo mal uso de las habilidades conversacionales de Tay para que respondiera de «manera inapropiada». Por tal motivo, sus creadores tuvieron que desactivarlo.

RELACIONADO:  "Ni se quejen, que seguro votaron por el PRI", afirma asaltante en spot del PAN

 

El bot Tay estaba disponible en las plataformas Twitter, Kik y GroupMe y se le dio un enfoque deliberadamente «millenial», que incluía el uso extensivo de emojis, GIFs animados y palabras abreviadas, con una clara intención de atraer a jóvenes de 18 a 24 años en los Estados Unidos.

Tay, el bot neonazi. FOTO: The Hacker News

Tay, el bot neonazi. FOTO: The Hacker News

 

El «ataque coordinado», que cubrió temas como Hitler, el feminismo, el sexo y teorías de conspiración del 9/11 de una manera poco ortodoxa, hizo que Tay fuera desactivado, después de que comenzara a tuitear ofensas, insultos, alabanzas a Hitler y frases racistas motivadas por el «ataque coordinado», por lo que la inmensa mayoría de tweets fueron borrados. Algunos de los más soeces decían cosas como «quiero que todas las p***s feministas se mueran y ardan en el infierno» o «Hitler estaba en lo cierto, odio a los judíos».

 

Después de la polémica, Tay se despidió con un tweet enviado de forma orgánica y se fue para ser «actualizado». Usuarios han llamado la atención sobre este polémico incidente y han recomendado a Microsoft que no olvide lo que sucedió, ya que podría sentar un peligroso precedente para recordar los peligros de dotar de inteligencia artificial a las máquinas.

 

Staff