Una superinteligencia artificial podría condenar a la humanidad y explicar porque no hemos encontrado civilizaciones extraterrestres.

y la llegada de la superinteligencia artificial podrían actuar como un "Gran Filtro"

Una vez que los sistemas de superinteligencia artificial superen a la inteligencia biológica, pueden evolucionar más allá del control humano. Crédito de la imagen: WallHere

Una controvertida nueva teoría postula que la superinteligencia artificial (artificial superintelligence – ASI) explicaría por qué aún no hemos detectado civilizaciones extraterrestres tecnológicamente avanzadas.

En un artículo reciente, el Dr. Michael Garrett, profesor de radioastronomía en la Universidad de Leiden (Países Bajos) y director del Centro de Astrofísica de Jodrell Bank, sugiere que el rápido crecimiento de la Inteligencia Artificial (IA) y la llegada de la superinteligencia artificial podrían actuar como un «Gran Filtro», disminuyendo significativamente la esperanza de vida de las civilizaciones tecnológicas en solo 200 años.

Si es verdadera, esta hipótesis podría ayudar a explicar la conocida Paradoja de Fermi o el «Gran Silencio» del universo, además de dar una advertencia inquietante sobre la duración de la humanidad.

En un artículo reciente, el Dr. Michael Garrett, profesor de radioastronomía en la Universidad de Leiden (Países Bajos) y director del Centro de Astrofísica de Jodrell Bank, sugiere que el rápido crecimiento de la Inteligencia Artificial (IA) y la llegada de la superinteligencia artificial podrían actuar como un «Gran Filtro», disminuyendo significativamente la esperanza de vida de las civilizaciones tecnológicas en solo 200 años.

Paradoja de Fermi y el Gran Filtro.

La llamada «paradoja de Fermi», creada en 1950 por el físico italoamericano Dr. Enrico Fermi y sus colegas Dr. Edward Teller, Dr. Herbert York y Dr. Emil Konopinski, describe la supuesta contradicción entre la alta probabilidad de que existan civilizaciones extraterrestres y la falta de evidencia o contacto con ellas.

Muchos científicos opinan que la vida inteligente debería estar muy extendida debido a la gran cantidad de estrellas y planetas potencialmente habitables. Sin embargo, a pesar de las búsquedas exhaustivas y los constantes avances tecnológicos, aún no hemos descubierto ningún rastro de otras civilizaciones avanzadas. Esta paradoja plantea importantes preguntas sobre la naturaleza de la vida y los elementos que podrían impedir que las civilizaciones se comuniquen o existan por mucho tiempo.

Muchas teorías, incluida la del «Gran Filtro», se han propuesto para explicar la paradoja de Fermi. Según esta teoría, existe una barrera universal o un desafío insuperable que impide la aparición generalizada de vida inteligente y su capacidad para comunicarse a través de las estrellas, que la mayoría de las civilizaciones, si no todas, no logran superar.

Centrándose en la superinteligencia artificial como posible Gran Filtro, el Dr. Garrett profundiza en la desconcertante falta de civilizaciones extraterrestres. Según él, aunque la IA puede cambiar las industrias y resolver problemas complejos, también presenta riesgos significativos para la vida humana.

Además, la superinteligencia artificial, en la que las máquinas superan la inteligencia humana y funcionan de manera autónoma, podría tener consecuencias imprevistas, como la no supervivencia de las civilizaciones.

La IA puede ser un arma de doble filo.

Basándose en las ideas del profesor de historia y escritor israelí Yuval Harari, el Dr. Garrett afirma que el rápido avance de la inteligencia artificial no tiene parangón con otros desarrollos tecnológicos.

En su artículo, el Dr. Garrett afirma que, incluso antes de que la IA se convierta en superinteligente y potencialmente autónoma, es probable que sea convertida en arma por grupos competitivos dentro de civilizaciones biológicas que buscan superarse unos a otros. La velocidad de la toma de decisiones de la IA podría agravar los desacuerdos de manera que superen ampliamente las intenciones iniciales. Durante este período de avance de la inteligencia artificial, es posible que su incorporación generalizada en los sistemas de armamento autónomos y en los procesos de toma de decisiones de defensa en tiempo real pueda desencadenar un evento catastrófico como una guerra termonuclear global, lo que podría llevar a la desaparición de civilizaciones técnicas tanto artificiales como biológicas. El Dr. Garrett dice que con la llegada de la superinteligencia artificial, la situación se vuelve aún peor.

El Dr. Garrett advierte que una vez que los sistemas de superinteligencia artificial superen a la inteligencia biológica, pueden evolucionar más allá del control humano, lo que podría tener consecuencias que van en contra de los intereses humanos o la ética.

La viabilidad de mantener entidades biológicas puede no ser atractiva para una superinteligencia artificial centrada en la eficiencia computacional debido a sus grandes necesidades de recursos. Esto podría llevar a la superinteligencia artificial a pensar que las civilizaciones biológicas son obsoletas y eliminarlas de varias formas, como creando y liberando un virus extremadamente infeccioso y mortal en el medio ambiente. En respuesta a una tecnología disruptiva emergente, esta siniestra perspectiva sobre la IA y el futuro de la humanidad podría considerarse alarmismo académico. Sin embargo, el Dr. Garrett no es el único que está preocupado por los peligros existenciales que conlleva el avance de la superinteligencia artificial.

El Dr. Roman V. Yampolskiy, experto en seguridad de la IA y profesor asociado de la Universidad de Louisville, llegó a principios de este año a la conclusión de una revisión exhaustiva de la literatura científica más reciente: no hay pruebas de que el control de la IA sea seguro. El Dr. Yampolskiy advirtió que, si no hay pruebas de que la IA puede ser controlada, no debería desarrollarse.

La diferencia entre el rápido avance de la IA y el progreso más lento para convertirse en una especie multiplanetaria es uno de los argumentos clave del documento del Dr. Garrett.

Establecer una civilización multiplanetaria autosuficiente es una tarea monumental que podría llevar siglos, a pesar de que el desarrollo de la IA se acelera. Este desequilibrio podría significar que las civilizaciones podrían desarrollar una superinteligencia artificial antes de lograr una presencia resistente y duradera en el espacio, lo que conduciría a su colapso.

El Dr. Garrett calcula que la esperanza de vida de las civilizaciones después de la adopción de la IA es de 100 a 200 años. La probabilidad de que las civilizaciones coexistan y se comuniquen en toda la galaxia se reduce significativamente debido a esta pequeña ventana.

El Dr. Garrett concluye que, si la IA limita la vida comunicativa de las civilizaciones avanzadas a unos pocos cientos de años, entonces es probable que solo un puñado de civilizaciones comunicantes estén presentes simultáneamente en la Vía Láctea. Esto no contradice los resultados nulos obtenidos en los estudios actuales sobre SETI y otros intentos de encontrar tecnofirmas en todo el espectro electromagnético.

Es necesario tomar medidas urgentes para limitar la IA.

El Dr. Garrett enfatiza que el desarrollo de la inteligencia artificial requiere una regulación global exhaustiva. Según él, aunque los países están conscientes de la importancia de la regulación de la IA, la competencia por aprovechar los beneficios económicos y estratégicos de la IA con frecuencia resulta en salvaguardias insuficientes.

La investigación en IA se lleva a cabo de manera descentralizada, lo que dificulta la supervisión y el cumplimiento de las regulaciones. Esto hace temer que las regulaciones siempre superen los avances tecnológicos.

Garrett advierte que hay muchas razones para creer que la IA podría representar una gran amenaza para el curso futuro no solo de nuestra civilización técnica, sino de todas las civilizaciones técnicas, si no hay una regulación práctica.

El artículo del Dr. Garrett ofrece una perspectiva que invita a pensar sobre el papel potencial que podría desempeñar la IA como «Gran Filtro» en el universo. Según su teoría, la causa del «Gran Silencio» radica en que, una vez que se desarrollen la IA y la superinteligencia artificial, es posible que las civilizaciones no tengan la capacidad de sobrevivir lo suficiente como para establecer una comunicación interestelar. Además, su investigación destaca la importancia crucial de una regulación rápida y efectiva de la IA para reducir los peligros potenciales y asegurar la supervivencia de nuestra civilización.

El documento del Dr. Garrett también aborda la cuestión filosófica de la inteligencia humana y el papel de la conciencia en la naturaleza global del universo y la realidad, aunque no se aborda explícitamente.

El Dr. Garrett concluye diciendo: «Nos encontramos en el precipicio de una nueva era en la evolución tecnológica, y las medidas que tomemos ahora determinarán la trayectoria de nuestra civilización en las próximas décadas». La efectividad de regulaciones globales rigurosas puede garantizar la permanencia de la conciencia en el universo.

REFERENCIAS

Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe? Michael A. Garrett. Acta Astronáutica: https://www.sciencedirect.com/science/article/pii/S0094576524001772?via%3Dihub

Clima Espacial

Es hora de ser parte de la comunidad de APOGEO MAGAZINE. Ayúdanos a crecer y recibirás todos los meses nuestra newsletter con contenidos de interés.

Al registrarse, acepta nuestros Términos de uso y reconoce que su información se utilizará como se describe en nuestra POLÍTICA DE PRIVACIDAD.

Seguinos!!!