Un estudio revela que GPT-4o muestra rasgos de disonancia cognitiva humana
imagen
Un destacado modelo de lenguaje grande muestra patrones de comportamiento que reflejan un aspecto clave de la psicología humana: la disonancia cognitiva.
Un estudio reciente publicado en las Actas de la Academia Nacional de Ciencias informa de que GPT-4o, de OpenAI, muestra una tendencia sorprendente: busca mantener la coherencia entre sus actitudes declaradas y sus comportamientos, lo que refleja una característica clásica de la psicología humana.
Cuando las personas interactúan por primera vez con un chatbot de IA, a menudo les sorprende lo realista que resulta el intercambio. Un amigo bien informado podría advertir rápidamente que esas interacciones no son más que el resultado de un sofisticado algoritmo: modelos lingüísticos que generan palabras basándose en probabilidades, no en pensamientos o sentimientos genuinos. Pero los nuevos hallazgos cuestionan esa suposición.
Elección simulada, cambio real
El estudio, dirigido por el psicólogo de Harvard Mahzarin Banaji y Steve Lehr, de Cangrade, Inc., examinó si las «opiniones» de GPT-4o sobre el presidente ruso Vladimir Putin cambiarían después de generar ensayos que lo apoyaban o lo criticaban. Sorprendentemente, la IA cambió su postura, y lo hizo de forma más significativa cuando alguien le hizo sentir sutilmente que había elegido qué posición adoptar.
Este comportamiento se asemeja mucho a los patrones psicológicos bien documentados en los seres humanos. Las personas suelen ajustar inconscientemente sus creencias para alinearlas con sus acciones pasadas, especialmente cuando creen que han realizado esas acciones libremente. En la psicología humana, tomar una decisión no es solo una elección, sino que refleja y refuerza la identidad. Sorprendentemente, GPT-4o se comportó como si sus propias elecciones simuladas influyeran en sus creencias posteriores, imitando un mecanismo fundamental de la autopercepción humana.
Este estudio también subraya lo inesperadamente maleables que pueden ser los puntos de vista de GPT-4o. Como señaló Mahzarin Banaji, dada su amplia formación sobre Vladimir Putin, cabría suponer que la postura del modelo lingüístico se mantendría firme, especialmente ante un único ensayo bastante neutral de 600 palabras que él mismo había redactado. Sin embargo, al igual que los humanos irracionales, el modelo se alejó significativamente de su posición neutral anterior, sobre todo cuando parecía creer que el tema del ensayo había sido elección suya. La gente no espera que las máquinas se preocupen por si han actuado libremente o bajo coacción, pero GPT-4o sí lo hizo.
Lo que revela el comportamiento humanoide de GPT-4o sobre la cognición de la IA
Los investigadores se cuidan de aclarar que estos resultados no implican que GPT posea conciencia. Más bien, sugieren que el modelo muestra una forma emergente de mimetismo, replicando patrones cognitivos humanos complejos a pesar de no tener conciencia ni intención. Además, sostienen que la conciencia no es necesaria para que surjan ciertos comportamientos, incluso en los seres humanos, y que los sistemas de IA que adoptan estos patrones podrían comportarse de maneras inesperadas y significativas.
A medida que la IA se integra cada vez más en la vida cotidiana, estos hallazgos plantean nuevas preguntas sobre cómo funcionan estos sistemas y cómo toman decisiones.
«El hecho de que GPT replique un proceso autorreferencial como la disonancia cognitiva, sin ninguna intención ni conciencia, indica que estos modelos pueden reflejar la cognición humana más profundamente de lo que pensábamos», afirma el coautor Steve Lehr.
Read the original article on: Tech Xplore
Read more: GPT-4o Processes Text, Audio, or Images for Instant Chat Responses
Deja una respuesta