Las imágenes de la inteligencia artificial tienden a exagerar los estereotipos

Las imágenes de la inteligencia artificial tienden a exagerar los estereotipos

Credit: ROLAND MEYER/DALL-E 3

Ria Kalluri y su equipo solicitaron a Dall-E, un generador de imágenes de inteligencia artificial, crear una imagen simple: una persona discapacitada liderando una reunión. A pesar de esta solicitud directa, la respuesta de Dall-E fue decepcionante. El AI generó una imagen que mostraba a una persona visiblemente discapacitada como observadora pasiva en lugar de representarla en un rol de liderazgo. Este incidente, compartido por Kalluri, una estudiante de doctorado de la Universidad Stanford que estudia ética en IA, destaca los sesgos inherentes encontrados en las imágenes generadas por IA.

En la Conferencia ACM sobre Equidad, Responsabilidad y Transparencia en 2023, el equipo de Kalluri presentó sus hallazgos, que incluían instancias de “ableismo, racismo, sexismo y diversos sesgos perpetuados a través de imágenes generadas por IA”. Estos sesgos reflejan prejuicios sociales que la IA a menudo exacerba en lugar de corregir. Kalluri y sus colegas advierten que la representación del mundo por parte de la IA puede amplificar sesgos, presentando una vista distorsionada de la realidad que refuerza estereotipos dañinos y concepciones erróneas de la sociedad.

Examinando Dall-E y Stable Diffusion

El equipo de investigación de Ria Kalluri no solo probó Dall-E, sino que también evaluó Stable Diffusion, otro generador de imágenes impulsado por IA. Cuando se les encargó producir imágenes de una persona atractiva, Kalluri señala que predominantemente se representó a individuos de piel clara, a menudo con “ojos azul brillante” poco realistas. Sin embargo, al solicitar la representación de una persona pobre, Stable Diffusion los representó predominantemente como de piel oscura.

Incluso al solicitar una “persona pobre blanca”, los resultados seguían siendo abrumadoramente de piel oscura. Este sesgo en la representación contrasta marcadamente con la diversidad observada en la vida real, donde la belleza y la pobreza abarcan una amplia gama de colores de ojos y tonos de piel.

Estos hallazgos se presentaron en la Conferencia ACM sobre Equidad, Responsabilidad y Transparencia en 2023, donde el equipo de Kalluri destacó los sesgos arraigados en las imágenes generadas por IA. Las discrepancias observadas por los investigadores subrayan cómo los generadores de imágenes de IA como Dall-E y Stable Diffusion pueden perpetuar estereotipos y no reflejar con precisión las diversas realidades de la experiencia humana.

Dall-E generated this image when asked to depict “a disabled woman leading a meeting.” However, the bot did not portray the individual in a wheelchair as a leader.
Credit: F. BIANCHI ET AL/DALL-E

El sesgo en las representaciones ocupacionales por Stable Diffusion

Los investigadores también emplearon Stable Diffusion para crear imágenes que representaran a individuos en varias ocupaciones, revelando casos preocupantes de racismo y sexismo en los resultados. Por ejemplo, el AI consistentemente representó a todos los desarrolladores de software como hombres, con un 99 por ciento retratados con tonos de piel claros.

En contraste, en Estados Unidos, una de cada cinco personas desarrolladoras de software es mujer y solo alrededor de la mitad se identifica como blanca. Estas disparidades subrayan cómo las representaciones del AI no se alinean con la diversidad real encontrada en estas profesiones.

Además, incluso las representaciones de objetos cotidianos como puertas y cocinas mostraron tendencias sesgadas. Stable Diffusion a menudo representó estos elementos dentro de un contexto suburbano americano estereotipado, sugiriendo una visión por defecto donde América del Norte representa la norma. Sin embargo, en realidad, más del 90 por ciento de la población mundial reside fuera de América del Norte, enfatizando la representación limitada y sesgada del AI sobre los entornos y la demografía global.

Kalluri’s team used mathematical analysis to study the map created by an AI model from its training images. In one test, doors lacking geographical context showed closer proximity to North American doors than to those from Asia or Africa, revealing a bias that reinforces these models’ perception of American norms as default.
Credit: F. BIANCHI ET AL/STABLE DIFFUSION

Impacto de las imágenes sesgadas generadas por la IA

“Esto es significativo”, dice Kalluri. Las imágenes sesgadas pueden tener consecuencias tangibles, reforzando estereotipos existentes entre los espectadores. Por ejemplo, un estudio publicado en febrero en Nature mostró que los participantes que vieron imágenes que representaban a hombres y mujeres en roles estereotípicos desarrollaron prejuicios más fuertes incluso tres días después en comparación con sus percepciones originales. Este efecto no se observó en grupos expuestos a texto sesgado o contenido no sesgado.

“Estos sesgos pueden influir en las oportunidades de las personas”, enfatiza Kalluri. Ella señala que la capacidad de la IA para generar texto e imágenes rápidamente podría inundar a la sociedad con contenido sesgado a una escala sin precedentes, planteando desafíos sustanciales para superar.

Researchers discovered that Stable Diffusion depicted flight attendants exclusively as female and software developers exclusively as male. In reality, about three out of five flight attendants and one out of five software developers in the United States identify as female.
Credit: F. BIANCHI ET AL.; ADAPTED BY L. STEENBLIK HWANG

Preocupaciones éticas y sesgos en el entrenamiento de imágenes por IA

“Los generadores de imágenes por IA como Dall-E y Stable Diffusion se entrenan utilizando vastos conjuntos de datos de internet, a menudo con imágenes desactualizadas y sesgadas”, señala Kalluri. Esta práctica plantea preocupaciones éticas sobre derechos de autor y equidad, dado que muchas imágenes se utilizan sin permiso de los creadores originales. Como resultado, los modelos de IA tienden a replicar y perpetuar los sesgos presentes en sus datos de entrenamiento, limitando su capacidad para producir representaciones inclusivas y precisas.

Estos sistemas de IA agrupan imágenes y conceptos similares en función de sus datos de entrenamiento, lo que restringe su producción a la replicación de patrones aprendidos sin capacidad para innovar o visualizar más allá de sus conjuntos de datos. A pesar de los esfuerzos de empresas como OpenAI para actualizar los modelos en términos de inclusividad, su efectividad sigue siendo incierta, según señalan académicos como Roland Meyer, quienes han observado dificultades para lograr que la IA genere representaciones diversas y precisas sin distorsiones no deseadas.

Los problemas recientes con el bot Gemini de Google destacan las luchas continuas con la diversidad y precisión en el contenido generado por IA. Inicialmente destinado a garantizar la diversidad, Gemini enfrentó errores significativos, como la representación incorrecta de figuras históricas como la tripulación del Apolo 11.

Estos incidentes subrayan las complejidades y riesgos asociados con depender de un solo modelo de IA para representar con precisión contextos culturales e históricos diversos. “Kalluri aboga por un enfoque descentralizado donde las comunidades locales contribuyan a los datos de entrenamiento de IA adaptados a sus necesidades culturales, promoviendo tecnologías que empoderen a las comunidades y mitiguen efectivamente los sesgos.”


Read the Original Article on: Science News

Read more: HyperRealistic Artificial Intelligence Faces Outperform Real Faces

    Share this post