La superinteligencia artificial que se encuentra fuera de control y pone en riesgo las civilizaciones
La presencia de una superinteligencia artificial descontrolada podría amenazar la supervivencia de civilizaciones y evitar su desarrollo más allá de su planeta de origen.
Existe un dilema entre la alta probabilidad de la existencia de civilizaciones más avanzadas en el universo y la falta de evidencia que respalde esta idea. Mientras algunos científicos proponen la teoría del Gran Filtro para abordar esta discrepancia, ahora un investigador sugiere una nueva causa y se trata de una superinteligencia artificial descontrolada.
Según esta teoría, estas civilizaciones podrían desaparecer antes de alcanzar un nivel tecnológico que les permita explorar el cosmos. Entre las posibles causas de este Gran Filtro se incluyen guerras, impactos de grandes meteoritos y cambios climáticos catastróficos.
Esta forma de inteligencia, superior a la humana, podría desarrollarse tan rápidamente que pondría en peligro la supervivencia y la longevidad de las civilizaciones tecnológicas avanzadas.
En 1950, el renombrado físico italiano y pionero en el campo de la energía nuclear, Federico Fermi, planteó una pregunta que sigue siendo relevante incluso después de más de siete décadas: "¿Dónde está todo el mundo?".
Considerando la vastedad del universo, con miles de billones de estrellas y trillones de planetas potencialmente habitables, resulta sorprendente la ausencia de cualquier evidencia de civilizaciones extraterrestres avanzadas.
LEE TAMBIÉN: Avi Loeb: “no estamos solos”, la profecía sobre la existencia de una civilización extraterrestre
A pesar de que los astrónomos han propuesto diversas respuestas a esta pregunta, una de las teorías más populares sigue siendo la del "Gran Filtro", que fue originalmente propuesta en 1996 por Robin Hanson, un economista de la Universidad George Mason.
Según esta teoría, la razón por la cual no hemos encontrado evidencia de otras civilizaciones es que todas ellas se extinguieron antes de tener la oportunidad de entrar en contacto con nosotros.
¿Qué provoca el Gran Filtro?
Desde entonces, se han propuesto numerosas posibles causas de este hipotético Gran Filtro que obstaculiza la expansión de la vida inteligente a nivel interplanetario e interestelar, e incluso puede llevar a su desaparición.
La mayoría de las investigaciones sobre este tema se han centrado en el estudio de la única civilización conocida hasta ahora, la nuestra. El razonamiento detrás de esto es que lo que parece más probable que nos cause la extinción a nosotros también podría representar una amenaza existencial para posibles formas de vida inteligente en otros planetas.
Entre las posibles razones de la extinción se encuentran el cambio climático, la guerra nuclear, los impactos de asteroides, las explosiones de supernovas, las plagas y cualquier otro tipo de cataclismo.
Recientemente, Michael Garrett, del Departamento de Física y Astronomía de la Universidad de Manchester en el Reino Unido, ha publicado un estudio en la revista Acta Astronáutica donde sugiere que el Gran Filtro también podría ser una inteligencia artificial descontrolada.
Garrett argumenta que este filtro podría surgir antes de que estas civilizaciones puedan establecer una existencia estable y multiplanetaria, lo que sugiere que la longevidad típica de una civilización tecnológica sería inferior a 200 años.
El impacto de la superinteligencia artificial
Garrett asegura que en la última década, la inteligencia artificial ha experimentado avances extraordinarios, demostrando que los plazos de progreso tecnológico en IA son extremadamente cortos en comparación con los de la evolución darwiniana.
Garrett escribe: “Mientras que la IA puede necesitar el apoyo de civilizaciones biológicas para existir, es difícil imaginar que esta condición se aplique también a la superinteligencia artificial. Al alcanzar una singularidad tecnológica, los sistemas de superinteligencia artificial superarán rápidamente a la inteligencia biológica y evolucionarán a un ritmo que sobrepasará por completo los mecanismos de supervisión tradicionales, lo que provocará consecuencias imprevistas y no deseadas que probablemente no estén alineadas con los intereses o la ética biológicos'".
El investigador no está solo en su preocupación por la llegada de una inteligencia artificial general que escape a nuestro control. En 2014, Stephen Hawking advirtió sobre los peligros del desarrollo de una IA con estas capacidades, sugiriendo que podría marcar el fin de la humanidad. Hawking argumentaba que esta IA podría evolucionar de manera autónoma, rediseñándose a sí misma a un ritmo cada vez mayor.
LEE TAMBIÉN: “El fin de la raza humana”: la oscura predicción de Stephen Hawking que está cerca de cumplirse
Esta preocupación también ha motivado a un grupo de más de mil expertos, incluyendo a figuras destacadas como Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, cofundador de Apple, y el historiador Yuval Noah Harari, a solicitar una moratoria en el desarrollo de la inteligencia artificial hasta que se pueda establecer una forma responsable de control y regulación.
Europa ha sido pionera en este aspecto al lanzar su propia legislación, pero aún queda por ver cómo esta regulación podrá mantenerse al día frente al rápido avance exponencial de la inteligencia artificial.