La inteligencia artificial reproduce los sesgos sexistas y racistas de los humanos
Los sistemas lingüísticos de la inteligencia artificial (AI, en sus siglas en inglés) cada vez son más comunes en nuestra vida cotidiana pero si bien representan un gran avance científico todavía tienen una cuota de lo "humano" a mejorar.
El llamado "futuro de la inteligencia artificial" ya está entre nosotros desde hace un tiempo. Ya sea a través del reconocimiento de voz para mensajes de texto, en correctores sintácticos cada vez más eficientes o en servicios de traducción online, entre otros.
Sin embargo los científicos notaron que estos sistemas inteligentes del lenguaje poseen sesgos sexistas y racistas que son tomados de la pautas preexistentes, es decir, nosotros: los humanos.
Científicos del Centro de Políticas sobre Tecnología de la Información de la Universidad de Princeton, en New Jersey, liderados por Aylin Caliskan, acaban de publicar un informe en Science en el que remarcan cómo la inteligencia artificial replica nuestras discriminaciones de género y culturales.
“Tanto los motores de búsqueda como las redes sociales utilizan texto”, explica Caliskan a Materia. “Pueden hacer ciertas asociaciones basadas en el texto con que se les alimenta mediante sistemas similares al que hemos usado en este trabajo. Pero, puesto que los buscadores, las redes sociales, los juegos de póker o iTunes no tienen código abierto (open source), no puedo hacer ningún comentario sobre la forma exacta en que incorporan el texto en sus sistemas. En cualquier caso, los buscadores y las redes sociales más populares han mencionado que usan estos sistemas para varias tareas”.
Un claro ejemplo es que los nombres de mujeres se asocian más con palabras relativas a la familia que con carreras profesionales, algo que sí ocurre con nombres masculinos.
Caliskan y sus colegas retomaron en un test para los sesgos humanos desarrollado en los años noventa por el psicólogo Anthony Greenwald, de la Universidad de Washington en Seattle. Se llama Test de Asociación Implícita (IAT), y se basa en presentar pares de palabras a los voluntarios y pedirles que pulsen una tecla si los encuentran relacionados, y otra si los encuentran inconexos. El tiempo de respuesta es muy diferente si existe o no una asociación inconsciente entre esas dos palabras.
Los especialistas hicieron que las máquinas- portadoras de AI- realicen el IAT y así observaron cómo se reproducían ciertos clichés, sesgos y convenciones propias de los humanos.
En resumen, el trabajo indica que, “si construimos un sistema inteligente que aprende lo bastante sobre las propiedades del lenguaje como para ser capaz de entenderlo y reproducirlo, en el proceso la máquina adquirirá también asociaciones culturales históricas, y algunas de ellas pueden ser inaceptables”.
Fuente: El País