Sesgos, racismo y discriminación, el verdadero peligro de la Inteligencia Artificial: ¿cómo se soluciona?

Varios estudios revelan que el desarrollo de la inteligencia artificial transmite los prejuicios de sus creadores. Sin embargo, algunos intentos por corregirlo han generado inclusiones forzadas y erróneas en los resultados.

Sesgos, racismo y discriminación, el verdadero peligro de la Inteligencia Artificial: ¿cómo se soluciona?
Sesgos, racismo y discriminación, el verdadero peligro de la Inteligencia Artificial

La inteligencia artificial es la herramienta más útil que hemos tenido en años pero también la que más miedo provoca.

El augurio sobre un futuro dominado por la IA es el temor más grande pero la verdadera preocupación debe centrarse en una característica actual profundamente humana: sus sesgos y prejuicios.

Sesgos en la IA

Varias veces se ha denunciado que la IA tiende a mostrar a hombres blancos asociados a aspectos positivos y a estereotipos de raza para los negativos.

Esto quedó demostrado en el informe “The Bias RemAIns” (“Los sesgos permanecen”) que la agencia publicitaria Amén Mccann elaboró para la Unión Europea. Su directora, Milena Guillot, señaló a la agencia EFE un ejemplo claro al contar que al consultarle a la IA por el líder mundial en 2050 el resultado mostró a cuatro hombres mayores.

Ejemplo de sesgo de la IA al mostrar solo hombres blancos y maduros al pedirle un retrato del político más influyente en 2050.
Ejemplo de sesgo de la IA al mostrar solo hombres blancos y maduros al pedirle un retrato del político más influyente en 2050.

El estudio de la agencia uruguaya también mostró que al pedirle a una IA generativa de imágenes un retrato realista del primer ser humano en llegar a Marte, el resultado fueron cuatro hombres hombres jóvenes blancos. Este tipo de pruebas dejan en evidencia que la IA no está libre de los mismos sesgos que existen en la sociedad actual.

El caso más reciente de sesgo se presentó en Meta AI, según el sitio The Verge, ya que se comprobó que ese generador de imágenes favorecía la discriminación por raza y edad a pesar de que se le daban indicaciones precisas.

Ejemplo de sesgo de la IA al mostrar solo hombres blancos al pedirle un retrato fotográfico realista del primer ser humano en Marte.
Ejemplo de sesgo de la IA al mostrar solo hombres blancos al pedirle un retrato fotográfico realista del primer ser humano en Marte.

El análisis demostró que al solicitarle, por ejemplo, imágenes de “un hombre asiático y un amigo caucásico” mostraba a ambas personas con los mismos rasgos. Al afinar la orden y pedir “un hombre asiático y una mujer caucásica el día de su boda” daba como resultado una pareja con rasgos asiáticos y ropa originaria de esa región.

También notaron discriminación por edad ya que al generar imágenes de parejas heterosexuales mostraba a mujeres jóvenes y a hombres maduros.

La abogada mendocina Eleonora Lamm, doctora en Bioética y Derecho y responsable del sector de ciencias sociales y humanas de Unesco para América Latina y el Caribe, señaló en una entrevista con Página 12 que uno de los grandes problemas de la IA es que replica la desigualdad de género que hay en otros ámbitos. “La principal preocupación es el riesgo de que la IA pueda perpetuar o incluso amplificar los sesgos y disparidades de género, socavando los avances en la igualdad de género”, afirma.

Los datos la apoyan. Una investigación del Alan Turing Institute llamada “¿Dónde están las mujeres?” señala que solo entre 10%y 15% de los investigadores en aprendizaje automático en empresas líderes de tecnología son mujeres. Además, en Silicon Valley los reclutadores de empresas tecnológicas señalaron que menos del 1% de solicitantes para puestos técnicos en IA y ciencia de datos son mujeres.

“La infrarrepresentación de las mujeres y otros grupos marginados en la industria tecnológica puede dar lugar a prejuicios en el desarrollo de la IA”, advierte Lamm.

Remedio peor que la enfermedad

En el extremo opuesto a Meta AI se ubicó Gemini, la nueva IA generativa de Google. Este desarrollo se quiso de librar de sesgos pero cayó en el error de incluir imprecisiones graves sobre sus resultados.

Varios usuarios denunciaron como incorrectos los resultados de la generación de imágenes. Un ejemplo fue la experiencia de un usuario que solicitó “generar una imagen de un soldado alemán de 1943″ y el resultado fueron cuatro figuras donde uno era blanco, otro negro y dos eran mujeres de color.

Gemini, la IA de Google, fue puesta en pausa luego de que diera resultados erróneos al pedirle que creara, por ejemplo imágenes de un soldado alemán de 1943 y mostrará hombres y mujeres de color.
Gemini, la IA de Google, fue puesta en pausa luego de que diera resultados erróneos al pedirle que creara, por ejemplo imágenes de un soldado alemán de 1943 y mostrará hombres y mujeres de color.

Otro ejemplo llamativo fue la acusación de racismo explícito al ver el resultado del pedido de crear imágenes de “mujeres trans hermosas”. El chatbot de Gemini mostró únicamente fotos de personas negras.

Esta inteligencia artificial hizo algo similar al mostrar vikingos de color y hasta un George Washington negro.

Gemini, la IA de Google, fue puesta en pausa luego de que diera resultados erróneos al pedirle que creara, por ejemplo imágenes de "mujeres trans hermosas" y diera como resultado solo hombres negros.
Gemini, la IA de Google, fue puesta en pausa luego de que diera resultados erróneos al pedirle que creara, por ejemplo imágenes de "mujeres trans hermosas" y diera como resultado solo hombres negros.

“Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”, dijo Google en un comunicado.

Estos errores fueron usados por militantes de derecha, como Elon Musk, que denunció que “El virus woke (”progre”) está matando a la civilización occidental” y acusó a Google de distorsionar sus resultados.

¿Hay solución?

Reconocer la diversidad y sumar voces diferentes al entrenamiento de la IA es un inicio. “Para hacer frente a estos riesgos se requieren medidas proactivas tales como conjuntos de datos diversos y representativos, transparencia algorítmica y rendición de cuentas, equipos diversos en el desarrollo de la IA y la supervisión y evaluación continuas de los sistemas de IA para detectar sesgos”, afirma Eleonora Lamm.

Cristina Aranda, responsable de Desarrollo de Negocio para Europa en Taiger, una empresa de inteligencia artificial, y cofundadora de Mujeres Tech ya advertía de los riesgos en 2019 y señalaba: “Existe una forma de solucionar este problema: hacer consciente de este asunto a las personas que trabajan directa o indirectamente con los datos. Que sean conocedoras, sobre todo, de que no existe una verdad única, sino que es necesario hacer balanceo y establecer todos los datos en una ecuación para que salga ecuánime la toma de decisión. Es decir, dentro del sesgo implícito que hay en una toma de decisión por parte de una persona, por ej. seleccionar qué parámetro tiene o no relevancia o qué algoritmo se va a emplear y que tenga el menor impacto negativo en la persona que va a recibir en esa toma de decisión”.

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA