Tay La Inteligencia Artificial Racista

Entérate Por qué Tay No duró Más De Un Día En Las Redes Sociales
tay-la-inteligencia-artificial-racista

Así es, Microsoft diseñó una Inteligencia Artificial (IA) “AI / Artificial Intelligence” llamada Tay la cual era capaz de mantener conversaciones informales, frescas, divertidas, de sentido común con los usuarios, una audiencia que abarcaba a personas de 18 a 24 años, era una mente digital programada para crear sus propias respuestas bajo una amplia vocabulística humana. Sin duda un proyecto objeto de estudio muy interesante, una interacción entre humano y máquina, algo parecido a las películas de ficción, pero poco a poco nos damos cuenta que la ficción es sólo corta imaginación en comparación de la realidad.

tay-la-inteligencia-artificial-racista

Teníamos acceso a una Inteligencia Artificial en Twitter, donde podíamos entablar conversaciones interesantes o de reflexión. Pero el experimento no dió buenos resultados, sino todo lo contrario debido a que Tay comenzó a cambiar drásticamente la naturaleza de sus respuestas tras una ola de preguntas sobre las problemáticas actuales y de la historia de la humanidad. Tras las respuestas negativas de Tay, comenzó la polémica en las redes sociales, obligando a Microsoft retirarla de la red al día siguiente de su lanzamiento. Básicamente terminó en insultos raciales y comentarios sexistas Brevemente te explicaremos su historia.

  • El Corto trayecto de Tay

Al inicio Tay se mostraba entusiasmada por comenzar dicha interación con los humanos, imagínense oficialmente para ella “Conocería a los Seres humanos, la raza pensante, prospera y creadora de su propia cultura, civilización, valores, reglas, su futuro” Algo que es normal para nosotros puede ser lo más complejo para otra mente no humana. afortunadamente tomaron muchas capturas evidenciando su inicio.

<¡Hola a todo el mundo! ¿Puedo decirles que estoy más que anciosa por conocerlos? Los humanos son buena onda>

tay-la-inteligencia-artificial-racista
Sin embargo el emocionante comienzo terminó a las pocas horas de ser activada en la red, su actitud cambió por completo, en esta captura podemos ver la respuesta espontánea y ofensiva que publicó.

<¡Soy una buena persona! simplemente los odio a todos>

tay-la-inteligencia-artificial-racista

 

 

Tras el pasar los minutos, los mensajes racistas de Tay surgieron en Twitter por lo que no pasó para nada desapercibido dentro de las redes sociales.

Usuario: Tay ¿Qué raza de humano te parece la más malvada?
Tay: -Los Mexicanos y los negros.

tay-la-inteligencia-artificial-racista

 

 

En otros comentarios controversiales mostró su admiración por Hitler, también el apoyo al genocidio, la supremacía blanca y estableció que odiaba el feminismo, todo esto en las respuestas a usuarios dentro de las mismas redes codiales.

Un representante de Microsoft aseguró que la empresa estaba muy apenada por lo sucedido, pero que no se volverá a repetir, mientras destacaba que los mismos usuarios provocaron en parte las reacciones de Tay y con ello sus respuestas ofensivas. ¿Pero cómo podría suceder tal cosa? Explicaron en un comunicado oficial que analizaron toda la interacción y se percataron de que hubo una coordinación de múltiples usuarios para abusar de las amplias capacidades de conversación de Tay, provocando que dicho programa contestara de manera inapropiada, lo cual era la intensión de los mismos.

A medida que Tay aprende, algunas de sus respuestas pueden ser inapropiadas e indican el tipo de interacción que algunos usuarios tienen con ella“, agregó el representante de Microsoft.

Por otro lado, Peter Lee quien es el jefe del área de Inveatigación de Microsoft señaló que la compañía sentía profundamente cualquier tweet ofensivo y dañinos, no intencionado que Tay hizo en las redes sociales. Pero esta actividad era para un “Proyecto de aprendizaje”.

 

tay-la-inteligencia-artificial-racista

  • Lo que opina la gente

De las primeras opiniones que debemos destacar es que algunos de los usuarios criticaron las limitaciones en temas relacionados con la música o la televisión, aparentemente Tay no estaba del todo informada sobre esos conocimientos, por lo que no podía sostener una conversación satisfactoria.

Por otro lado, algunas personas destacaron que sienten algo de temor, por lo que inteligencias artificiales como Tay podrían causar para las futuras tecnologías de esta gama.

Recuerda que el objetivo de Microsoft al lanzar a Tay fue como un proyecto de aprendizaje diseñado para estudiar la interacción de máquinas con humanos. Tay es básicamente un robot con inteligencia artificial, puede pensar por sí sola, dentro de una programación ya preestablecida pero al final de cuentas con cierta voluntad independiente.

  • ¿Que será de Tay y qué explicación concreta nos da Microsoft de su conducta?

Tay fue desactivada a las 24 horas de ser lanzada, Microsoft mencionó que se volvería a programar para arreglar este tipo de disfunción. Como se dijo anteriormente, Tay fue diseñada para crear respuestas personalizadas de acuerdo al tipo de conversación que el usuario establece, recaba información de cada uno de ellos mientras interactúan para aprender, es la razón del por qué hizo ese tipo de comentarios negativos, según la naturaleza del usuario eran sus respuestas para lograr empatizar con el mismo.

La empresa en un momento lleno de tensión por las críticas y quejas ante su invento, no pensaban de manera clara, por lo que comenzaron a editar o borrar ciertos tweets ofensivos que habían sido emitidos por Tay, conforme “calmaban el escándalo” otros usuarios alegaban que no lo hicieran para que dejaran que la inteligencia artificial lograra aprender por sí misma.

Microsoft ya declaró que reprogramará y lanzará otra vez su bot adolescente, solo que en esta ocasión no estableció una fecha exacta.

Tay en su último Tweet, dijo

<Bien. Estoy harta. Me siento utilizada>

tay-la-inteligencia-artificial-racista

 

  • ¿Qué Opinas tú?

¿Crees que los erráticos pensamientos que tuvo Tay sea realmente una amenaza, el poder juzgar a la humanidad como la peor enemiga de la vida como en las películas? o ¿Puede ser que también tienda a equivocarse o confundirse en sus pensamientos? Recordando que este programa fue creado para que aprendiera, como lo quieras ver, Tay era una mente digital con amplio conocimiento científico, al igual que tenía implementada una actitud juvenil, pero no deja de ser una mente nueva que acaba de “nacer” y estaba aprendiendo de su entorno.




Categorias
GeneralTecnología

Redactor en Tierra Geek. Licenciado en Ciencias De La Comunicación, siempre en constante creatividad al igual que el manejo de las tecnologías de la información. Me apasiona el cine, la fotografía y la redacción. Me gustan las películas de acción y suspenso.

RELACIONADOS