Jump to content

Microsoft presenta un algoritmos en twitter que se hace racista


SIRO
 Share

Publicaciones recomendadas

microsoft_tay_ai.jpg

 

Microsoft presentó al mundo a Tay, una cuenta de twitter que usaba algoritmos de Inteligencia Artificial para responder twitts, a la vez que aprendía del comportamiento de los usuarios. Si bien al principio las respuestas eran muy cordiales… la cosa no se salió de control rápidamente, ya que Tay comenzó a aprender comportamientos troll, y en menos de 24 horas ya escribía comentarios racistas, pro-nazis y misántropos, dándonos una versión bastante retorcida del test de Turing. Microsoft terminó por apagar a Tay al momento que los comentarios subieron de tono.

 

 

Pero en Japón el cuento fue diferente. El equivalente de Tay japonés llamada “Rinna”, terminó aprendiendo de sus compatriotas twitteros, y la inteligencia artificial comenzó a mostrar algo de jerga “otaku/geek”, a la vez que hacía comentarios estilo “Me gustan los Anime de Love Live y Mr. Osomatsu”.

Enlace al comentario
Compartir en otros sitios web

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
 Share

×
×
  • Crear nuevo...