La inteligencia artificial podría estar en el origen de nuestra incapacidad para comunicarnos con los extraterrestres

La inteligencia artificial podría estar en el origen de nuestra incapacidad para comunicarnos con los extraterrestres

Crédito: Pixabay


Durante los últimos años, el rápido avance de la inteligencia artificial (IA) ha cautivado a muchos científicos. Algunos exploran ahora el concepto de superinteligencia artificial (ASI), imaginando una IA que no sólo supere la inteligencia humana, sino que también trascienda las limitaciones del aprendizaje humano.

Pero, ¿y si alcanzar este hito no es sólo una hazaña extraordinaria? ¿Y si también supone un obstáculo importante en el progreso de todas las civilizaciones, uno tan formidable que pone en peligro su supervivencia a largo plazo?

Este concepto es el núcleo de un reciente trabajo de investigación que he publicado en Acta Astronautica. ¿Podría ser la IA el «gran filtro» del universo, una barrera tan imponente que impida el avance de la mayoría de las civilizaciones hasta convertirse en sociedades espaciales?

Esta idea podría explicar por qué la búsqueda de inteligencia extraterrestre (SETI) aún no ha detectado signos de civilizaciones técnicas avanzadas en otros lugares de la galaxia.

Descifrar la paradoja de Fermi

En un universo tan vasto y antiguo como para albergar miles de millones de planetas potencialmente habitables, no hemos observado indicios de civilizaciones extraterrestres. Esta hipótesis postula que existen obstáculos formidables en la trayectoria evolutiva de las civilizaciones que impiden su transición a entidades con capacidad espacial.

Yo mantengo que la llegada de la IA podría servir de filtro. El rápido progreso de la IA, que podría conducir a la ASI, podría coincidir con una coyuntura crucial en la evolución de una civilización: la transición de una especie de un solo planeta a una especie multiplanetaria.

Esta fase crucial plantea riesgos significativos, ya que la IA podría avanzar mucho más rápidamente que nuestra capacidad para gestionar o explorar y colonizar de forma sostenible nuestro sistema solar.

El reto de la IA, en particular de la ASI, reside en su naturaleza autónoma, autoamplificadora y autosuperadora. Tiene la capacidad de aumentar sus propias capacidades a un ritmo que supera nuestros plazos evolutivos sin IA.

Descifrar la paradoja de Fermi

El potencial de catástrofes se cierne sobre las civilizaciones biológicas y de IA antes de que alcancen un estatus multiplanetario. Por ejemplo, una mayor dependencia de los sistemas autónomos de IA por parte de las naciones, comprometidas en búsquedas competitivas, podría escalar las capacidades militares a niveles de destrucción sin precedentes. Este escenario podría culminar en la aniquilación de nuestra civilización, incluidos los propios sistemas de IA.

En este escenario, estimo que la vida típica de una civilización tecnológica es inferior a 100 años. Este marco temporal abarca desde la capacidad de transmitir y recibir señales entre estrellas (1960) hasta la aparición prevista de la ASI (2040) en la Tierra. Esta brevedad es preocupante cuando se yuxtapone con la escala de tiempo cósmica que abarca miles de millones de años.

La incorporación de esta estimación a iteraciones optimistas de la ecuación de Drake, que trata de calibrar el número de civilizaciones extraterrestres activas y comunicativas en la Vía Láctea, sugiere que sólo pueden existir unas pocas civilizaciones inteligentes en un momento dado. Además, sus actividades tecnológicas relativamente limitadas podrían dificultar su detección, al igual que ocurre con nosotros.

Esta investigación no es sólo una advertencia de una posible catástrofe; es una llamada a la acción para que la humanidad establezca marcos reguladores sólidos que guíen el desarrollo de la IA, incluidas las aplicaciones militares.

Alinear la evolución de la IA con la supervivencia humana a largo plazo

No se trata sólo de prevenir el uso malévolo de la IA en la Tierra, sino también de garantizar que su evolución se ajuste a la supervivencia a largo plazo de nuestra especie. Esto implica la necesidad de priorizar los esfuerzos para convertirnos en una sociedad multiplanetaria, un objetivo latente desde la época del proyecto Apolo, ahora revitalizado por los avances del sector privado.

Como señaló el historiador Yuval Noah Harari, la historia no ofrece precedentes sobre el impacto de la introducción en nuestro planeta de entidades superinteligentes no conscientes. La reciente preocupación por la toma de decisiones autónoma por parte de la IA ha provocado llamamientos a una moratoria en el desarrollo de la IA hasta que se establezca un control y una regulación responsables.

Pero incluso con un acuerdo mundial sobre normas estrictas, las organizaciones deshonestas plantean retos a la aplicación de la normativa.

Navegar por dilemas éticos

En este sentido, la integración de la IA autónoma en los sistemas de defensa militar suscita especial preocupación. Las pruebas sugieren que los humanos ceden voluntariamente un poder significativo a sistemas más capaces para una ejecución rápida y eficaz de las tareas. Los gobiernos dudan en regular debido a las ventajas estratégicas de la IA, evidentes en conflictos recientes como el de Gaza.

En este precario equilibrio se corre el riesgo de que las armas autónomas operen más allá de los límites éticos y eludan el derecho internacional. Ceder poder a los sistemas de IA para obtener ventajas tácticas podría desencadenar una escalada rápida y altamente destructiva, que podría tener consecuencias catastróficas.

La humanidad se encuentra en un momento crucial de su viaje tecnológico. Nuestras acciones actuales pueden determinar si evolucionamos hacia una civilización interestelar duradera o sucumbimos a los desafíos planteados por nuestras propias creaciones.

Contemplar nuestro desarrollo futuro a través de la lente del SETI añade una perspectiva única al discurso de la IA. Nos incumbe a todos asegurarnos de que, a medida que alcanzamos las estrellas, no lo hacemos como un cuento con moraleja para otras civilizaciones, sino como un faro de esperanza: una especie que prospera a la par que la Inteligencia Artificial.


Read the original article on: Phys Org

Read more: Scientists Practice Alien Communication by Talking to Whales

    Share this post