La inteligencia artificial hiperrealista supera a los rostros reales
Los investigadores de la Universidad Nacional Australiana (ANU) han descubierto que las caras blancas generadas por la inteligencia artificial (IA) presentan ahora un nivel de realismo que supera al de los rostros humanos reales. Este fenómeno, sin embargo, no se extiende a las imágenes de personas de color, lo que revela un posible sesgo en los algoritmos de IA debido al entrenamiento predominante en rostros blancos. Según la Dra. Amy Dawel, autora principal del estudio, las implicaciones de este hiperrealismo, sobre todo a la hora de reforzar los prejuicios raciales en Internet, suscitan preocupación.
Prejuicios y retos en la percepción de la inteligencia artificial
Según el estudio, las tecnologías de inteligencia artificial, especialmente en la creación de retratos de aspecto profesional, tienden a alterar los rasgos de las personas de color para alinearlos con las normas de los blancos. Los rápidos avances en las capacidades de la IA han superado la concienciación pública, y los usuarios a menudo se dejan engañar por el realismo de los rostros generados por la IA.
Resulta paradójico que quienes perciben los rostros de la IA como reales sean a menudo los más seguros en sus juicios, lo que indica una posible falta de conciencia entre las personas que están siendo engañadas.
Mal interpretación de las diferencias físicas
Las investigaciones sugieren que, aunque sigue habiendo diferencias físicas entre los rostros generados por la IA y los humanos, los espectadores pueden malinterpretar estas distinciones. Por ejemplo, el estudio señala que los rostros blancos generados por IA suelen ser más proporcionados, lo que lleva a los observadores a asociar esta característica con una mayor “humanidad”.
Sin embargo, los investigadores prevén que, a medida que avance la tecnología de IA, estos indicios físicos serán menos fiables para distinguir entre rostros humanos y de IA.
Afrontar los retos y garantizar la transparencia
El estudio subraya la necesidad de una mayor transparencia en la tecnología de IA para hacer frente a los riesgos potenciales asociados a la desinformación y el robo de identidad derivados de las imágenes generadas por IA.
Los investigadores abogan por un acceso más amplio a la información sobre los procesos de IA para que los investigadores y la sociedad civil puedan identificar y abordar los problemas antes de que se agraven.
Concienciación pública y escepticismo
Para mitigar los riesgos, los investigadores subrayan la importancia de educar al público sobre el realismo percibido de los rostros generados por IA. Una mayor concienciación puede promover un escepticismo adecuado entre las personas que consumen contenidos en línea, fomentando el desarrollo de herramientas que identifiquen con precisión a los impostores generados por IA.
Como conclusión del estudio, las medidas proactivas son cruciales para navegar por el panorama de la tecnología de IA y su posible impacto en las percepciones de la sociedad.
Read more: Can Graph Neural Networks Truly Predict Drug Molecule Effectiveness?