Un número significativo de médicos ya está integrando la IA en la atención médica

Una encuesta reciente realizada a unos 1.000 médicos generalistas del Reino Unido reveló que uno de cada cinco médicos utiliza herramientas de IA generativa -como ChatGPT de OpenAI o Gemini de Google- para apoyar la práctica clínica.
Los médicos declararon utilizar la IA generativa para tareas como la creación de documentación después de las citas, la asistencia en la toma de decisiones clínicas y la entrega de información al paciente, como resúmenes de alta y planes de tratamiento fáciles de entender.
El papel de la IA en la transformación de la sanidad
Dado el entusiasmo que rodea a la IA y las presiones actuales sobre los sistemas sanitarios, no es de extrañar que tanto los médicos como los responsables políticos consideren que la IA es esencial para modernizar y transformar la asistencia sanitaria.
Sin embargo, la GenAI es un desarrollo reciente que desafía nuestro enfoque de la seguridad del paciente, y aún queda mucho por comprender antes de que pueda incorporarse con seguridad a la práctica clínica rutinaria.

Las aplicaciones de IA se han diseñado tradicionalmente para tareas específicas. Por ejemplo, las redes neuronales de aprendizaje profundo son eficaces en tareas de clasificación, como el análisis de mamografías para apoyar la detección del cáncer de mama.
La versatilidad de la IA Generativa
Sin embargo, la IA Generativa no se limita a una única tarea definida. Construidos sobre modelos fundacionales, estos sistemas tienen amplias capacidades que les permiten generar texto, imágenes, audio o una mezcla de ellos. Estas capacidades pueden adaptarse a diversos usos, como responder preguntas, codificar o crear imágenes, con aplicaciones potenciales limitadas únicamente por la creatividad del usuario.
Uno de los principales problemas es que GenAI no se diseñó con una finalidad específica, por lo que sus aplicaciones seguras en la atención sanitaria siguen siendo inciertas, lo que la hace inadecuada para un uso clínico generalizado en estos momentos.
Otro problema de la GenAI en la atención sanitaria es la conocida aparición de «alucinaciones», es decir, resultados que son respuestas sin sentido o inexactas a la información proporcionada.
Las alucinaciones en GenAI se han estudiado cuando se utiliza para resumir texto. Un estudio descubrió que varias herramientas de GenAI a veces hacían conexiones incorrectas basadas en el texto o incluían información que no estaba realmente presente en el contenido original.
Estas alucinaciones se producen porque GenAI se basa en la probabilidad -predecir la siguiente palabra probable en un contexto dado- en lugar de «comprender»realmente como hacen los humanos. Como resultado, los resultados de GenAI son a menudo plausibles pero no necesariamente precisos.
Esta dependencia de la verosimilitud sobre la precisión hace que GenAI no sea seguro para el uso regular en la práctica médica en este momento.
Por ejemplo, una herramienta GenAI que escuche las consultas de los pacientes y genere notas resumidas podría permitir a médicos y enfermeras centrarse más en el paciente. Sin embargo, la herramienta también podría crear notas basadas en lo que «cree»que podría ser cierto.
Los riesgos de los resúmenes inexactos de GenAI en la atención sanitaria
El resumen generado por GenAI podría cambiar incorrectamente la frecuencia o severidad de los síntomas, agregar síntomas que el paciente nunca mencionó o incluir detalles no discutidos realmente. Los profesionales sanitarios tendrían entonces que revisar cuidadosamente estas notas y confiar en la memoria para detectar cualquier información plausible pero inexacta.
En un entorno tradicional de médico de familia, donde el médico de cabecera conoce bien al paciente, detectar imprecisiones puede no ser un problema importante. Sin embargo, en un sistema sanitario fragmentado en el que los pacientes son atendidos con frecuencia por distintos profesionales, las imprecisiones en los historiales médicos pueden provocar graves riesgos para la salud, como retrasos, tratamientos incorrectos y diagnósticos erróneos.
Los riesgos ligados a las alucinaciones son considerables. Sin embargo, es importante señalar que los investigadores y desarrolladores están trabajando activamente para minimizar estos casos.
Otra razón por la que la GenAI no está preparada para la atención sanitaria es que la seguridad del paciente depende de la evaluación de sus interacciones en contextos específicos: evaluar cómo funciona la tecnología con las personas, cómo se ajusta a las normativas y presiones, y cómo encaja en la cultura y las prioridades de un sistema sanitario más amplio. Esta visión basada en sistemas sería esencial para determinar si la GenAI puede utilizarse de forma segura.
La naturaleza adaptativa de la IA Generativa
Sin embargo, el diseño abierto de GenAI la hace adaptable a usos que pueden ser difíciles de anticipar. Además, los desarrolladores actualizan continuamente GenAI con nuevas capacidades genéricas, que pueden cambiar el comportamiento de la herramienta.
Por otra parte, incluso si GenAI funciona según lo previsto, pueden producirse daños, dependiendo del contexto de uso.
Por ejemplo, el uso de chatbots GenAI para triaje podría afectar a la disposición de los pacientes a comprometerse con la asistencia sanitaria. Aquellos con menor alfabetización digital, hablantes no nativos de inglés o pacientes no verbales podrían tener dificultades con GenAI, lo que podría conducir a resultados desiguales. Así, aunque la tecnología «funcione», podría perjudicar inadvertidamente a determinados usuarios.
Estos riesgos son difíciles de prever mediante un análisis de seguridad convencional, que normalmente examina cómo los fallos pueden causar daños en situaciones específicas. Aunque GenAI y otras herramientas de IA son prometedoras para la atención sanitaria, su adopción generalizada requerirá normas de seguridad más adaptables y una supervisión reglamentaria a medida que evolucionen estas tecnologías.
Los desarrolladores y reguladores también deben colaborar con las comunidades que utilizan estas herramientas para garantizar que puedan integrarse de forma segura en la práctica clínica habitual.
Read the original article on: Science Alert
Read more: AI Rapidly Evaluates Antidepressant Efficacy