Tay Bot : el Bot racista de Microsoft

La empresa Microsoft publicó en su sitio web una disculpa por las acciones de Tay , la inteligencia artificial que publicó comentarios misóginos y racistas en Twitter después de 24 horas en Internet a partir de su lanzamiento . En el post, la compañía de Microsoft dijo que los comentarios de Tay no representan a la empresa y el chatbot no estará disponible por mucho tiempo. «Como ustedes saben, el miércoles lanzamos una inteligencia artificial llamada chatterbot Tay.

Lamentamos profundamente los tweets ofensivos y expresiones de odio hechas por Tay, que no representan lo que somos o lo que pensamos. Tay está en línea ahora y lo traeremos de vuelta sólo cuando estamos seguros de que podemos bloquear las intenciones maliciosas que van en contra de nuestros principios y valores, evitando todo comentario ofensivo o de carácter racista y misógino » Ya sabemos que no debemos confiar a fondo en la Internet , pero Microsoft lo ha aprendido de la manera difícil.

La compañía puso en marcha la inteligencia artificial que aprende a responder a partir de la base de las interacciones y los comentarios en Twitter. Rápidamente, los internautas se pusieron en acción y en respuesta Tay hizo comentarios de odio, con tuits racistas, misóginos y las referencias al nazismo Aunque el principal error fue de Microsoft, esta no fue la primera prueba del software de inteligencia artificial de la compañía que han lanzado en Internet.

Un Tweet de Tay -¿Apoyas el Genocidio? - -Sí lo apoyo- -¿De que raza? - Tú me conoces, mexicanos.. -

Un Tweet de Tay
-¿Apoyas el Genocidio? – -Sí lo apoyo- -¿De que raza? – Tú me conoces, mexicanos.. –

El primero fue XiaoIce , que tenía la misma tecnología que usa Tay, pero que ha sido usado en China para una audiencia de alrededor de 40 millones de personas. Xiaolce tenía una buena programación y no se reportaron casos de abuso, lo que demuestra que el problema no es la tecnología en sí, sino las personas que lo retroalimentan – en el caso de Twitter, una porción enorme de respuesta, de los más de 300 millones de usuarios. Según Microsoft, la situación problematica sirvió para mostrar un poco más de los fracasos para la inteligencia artificial. «A pesar de que estamos preparados para muchos tipos de abusos en el sistema, se tenía una gran falta de cuidado con este tipo de respuesta con ataques en particular.

Como resultado, Tay ha tuiteado fotos ofensivas y malas palabras que llegan a lo grave. Somos responsables de no prever esta posibilidad. Hemos aprendido bien la lección para posteriores experiencias en china y Japón, y ahora estamos trabajando para corregir esta vulnerabilidad específica a la que Tay fue expuesto «.

sponsors

Después de todo esto, estamos seguros de que no vamos a ver pronto a Tay en Twitter. Pero cuando vuelva, lo cierto es que internet se lo tiene que tomar con calma y hacer mejores respuestas Se debe de recodar que esta no es la primera vez de Microsoft ha generado polémica este mes. La compañía llevó a cabo una fiesta en la GDC 2016 donde hubo bailarines con ropa corta bailando en las plataformas . El resultado: la gente Ofendida y en respuesta una disculpa de Phil Spencer y una hermosa amonestación para el equipo de Xbox.

Deja tu comentario!