Estudio: la IA podría ser responsable de la destrucción de civilizaciones en otros planetas

· 2 min de lectura
Estudio: la IA podría ser responsable de la destrucción de civilizaciones en otros planetas

En los últimos años, la tecnología de inteligencia artificial se ha desarrollado rápidamente. Ya se baraja la posibilidad de crear una superinteligencia artificial. Se trata de una forma de ella que no sólo supera la inteligencia humana, sino que además no está limitada por la velocidad del aprendizaje humano.

Sin embargo, su creación podría ser no sólo un hito decisivo, sino también acercar a la civilización a su existencia final. El astrofísico Michael Garrett, de la Universidad de Manchester, escribe sobre ello en su nuevo estudio. En su opinión, esto es lo que explica la existencia de la paradoja de Fermi.

La paradoja consiste en que, a pesar de miles de millones de años de desarrollo y del enorme tamaño del Universo, en el que pueden existir muchos mundos habitables, nunca hemos encontrado indicios de civilizaciones inteligentes. Para explicar la paradoja, se introdujo la hipótesis del "gran filtro": se trata de algún factor que imposibilita la comunicación entre civilizaciones avanzadas y les impide convertirse en civilizaciones multiplanetarias.

Garrett considera que el desarrollo de la superinteligencia artificial es un "gran filtro". Según él, las civilizaciones que inventan la IA a menudo no están preparadas para su aparición y no son plenamente conscientes de las consecuencias. La inteligencia artificial se desarrolla mucho más deprisa de lo que los humanos tienen tiempo de controlarla.

La superinteligencia artificial será capaz de superarse a sí misma de forma autónoma, invirtiendo mucho menos tiempo que la naturaleza evolutiva de los humanos. La pérdida de control amenaza con el colapso de la civilización antes de que llegue a ser multiplanetaria. En este contexto, es especialmente peligroso confiar a la IA los sistemas de control de procesos, incluidos los militares. Aunque empiezan a surgir tendencias en este sentido.

Esto podría desembocar en conflictos militares sin precedentes que amenazan con destruir la humanidad. El autor del artículo ha calculado que, en tal escenario, la duración de la existencia de una comunidad tecnológicamente avanzada no supera los 200 años.

La previsión aquí descrita supone que transcurrirán menos de 100 años entre la capacidad de recibir y transmitir señales al espacio (década de 1960) y la aparición de la superinteligencia artificial (década de 2040). Se trata de un plazo aterradoramente corto en comparación con la escala cósmica de miles de millones de años.

Si esta estimación se incluye en las versiones optimistas de la ecuación de Drake, que calcula el número de civilizaciones activas y listas para interactuar, resulta que en un momento dado sólo hay un pequeño puñado de comunidades inteligentes. Y todas ellas aún no han sido "filtradas" por la IA y tienen una visibilidad tecnológica relativamente baja, como los terrícolas para un observador externo condicional.

El autor del estudio cree que es urgente crear un marco jurídico que regule estrictamente los trabajos sobre inteligencia artificial. Al mismo tiempo, subraya que es probable que tales intentos se vean abocados al fracaso. El hecho es que la IA proporciona una ventaja competitiva muy grande, por lo que las restricciones no detendrán el desarrollo de las tecnologías, sino que sólo las marginarán, porque las empresas y los Estados tendrán una gran tentación de superar a sus rivales gracias a la inteligencia artificial.