Los riesgos existenciales son aquellos que aniquilarían la vida inteligente originada en la Tierra o reducirían de manera permanente y drástica su potencial. La mayoría de ellos (por ejemplo, el bioterrorismo o el cambio climático) son creados por seres humanos y los gobiernos no los están abordando con la seriedad o urgencia que merecen.
MELBOURNE – En mayo, expertos de diversos campos se reunieron en Montenegro para debatir sobre “Amenazas existenciales y otros desastres: ¿cómo debemos abordarlos?”. El término “riesgo existencial” se popularizó en un ensayo de 2002 del filósofo Nick Bostrom, quien lo definió como un riesgo tal que “un resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría de manera permanente y drástica su potencial”.
Para apreciar la distinción entre los riesgos existenciales y otros desastres, pensemos en el cambio climático. En algunos escenarios, el calentamiento global descontrolado podría hacer que la mayor parte de la Tierra fuera demasiado caliente para que los humanos pudieran seguir viviendo allí, pero la Antártida y algunas de las regiones más septentrionales de Europa, Asia y América del Norte se volverían habitables.
Eso reduciría el potencial de vida inteligente en la Tierra, tal vez durante milenios, pero con el tiempo el planeta se enfriaría y los descendientes de los supervivientes lo repoblarían. Si estos son realmente los peores escenarios, entonces el cambio climático, por desastroso que pudiera ser, no es un riesgo existencial.
Es cierto que, si la gravedad de un desastre es directamente proporcional al número de personas que mata, la diferencia entre un desastre que mata a casi toda la población humana de la Tierra y uno que provoca su extinción no sería tan grande. Sin embargo, para muchos filósofos preocupados por el riesgo existencial, esta visión no tiene en cuenta la enorme cantidad de personas que existirían si nuestra especie sobreviviera durante mucho tiempo, pero que no lo harían si el Homo sapiens se extinguiera.
La conferencia de Montenegro, al referirse en su título a “otros desastres”, no se limitó a los riesgos existenciales, pero gran parte del debate giró en torno a ellos. Cuando la sesión final de la conferencia estaba a punto de concluir, algunos de los presentes consideraron que las cuestiones que habíamos estado discutiendo eran tan graves y, sin embargo, tan descuidadas, que debíamos tratar de atraer la atención del público y de los gobiernos hacia el tema. Se discutió el tenor general de esa declaración y yo fui miembro de un pequeño grupo designado para redactarla.
La declaración señala que existen graves riesgos para la supervivencia de la humanidad, la mayoría de ellos creados por seres humanos, ya sea de manera intencional, como el bioterrorismo, o de manera no intencional, como el cambio climático o el riesgo que supone la creación de una superinteligencia artificial que no esté alineada con nuestros valores. Estos riesgos, continúa la declaración, no están siendo tratados por los gobiernos con la seriedad o urgencia que merecen.
La declaración respalda su punto de vista con referencia a dos afirmaciones realizadas por Toby Ord en su libro de 2020, The Precipice . Ord estimó que la probabilidad de que nuestra especie se extinga en los próximos 100 años es del 16-17%, o una en seis. También estimó que la proporción del PIB mundial que la humanidad gasta en intervenciones destinadas a reducir este riesgo es inferior al 0,001%.
En una actualización que apareció en julio, Ord dice que debido a que la nueva evidencia sugiere que los escenarios más extremos de cambio climático son poco probables, el riesgo existencial que plantea el cambio climático es menor de lo que pensaba en 2020. Por otro lado, la guerra en Ucrania significa que el riesgo de que una guerra nuclear cause nuestra extinción es mayor, mientras que los riesgos de la IA superinteligente y las pandemias son, en su opinión, menores en algunos aspectos y mayores en otros.
Ord considera que el enfoque en los chatbots está llevando a la IA hacia una dirección menos peligrosa, porque los chatbots no son agentes, pero considera que la creciente competencia en la carrera por crear inteligencia artificial general avanzada probablemente lleve a tomar atajos en la seguridad de la IA.
En general, Ord no ha cambiado su estimación –que admite que es muy aproximada– de que hay una probabilidad entre seis de que nuestra especie no sobreviva los próximos 100 años. Celebra el hecho de que ahora haya un mayor interés global por reducir los riesgos de extinción y ofrece como ejemplos la inclusión del tema en el informe de 2021 del Secretario General de las Naciones Unidas y su prominencia en la agenda del grupo internacional de ex líderes mundiales conocido como The Elders.
La declaración de Montenegro insta a los gobiernos a trabajar de manera cooperativa para prevenir desastres existenciales y pide especialmente a los gobiernos de los países ricos que inviertan “recursos significativos” en encontrar las mejores formas de reducir los riesgos de extinción humana. Aunque la declaración no da ninguna indicación de lo que significa “significativo” en este contexto, Ord ha sugerido en otro lugar un compromiso de destinar el 1% del PIB mundial a reducir los riesgos de extinción de nuestra especie. Eso es mil veces más que su estimación de 2020 de cuánto gastaban entonces los gobiernos en esta tarea, pero sería difícil argumentar que es demasiado.
Peter Singer, profesor de Bioética en la Universidad de Princeton, es fundador de la organización sin fines de lucro The Life You Can Save . Sus libros incluyen Liberación Animal , Ética Práctica , La Ética de lo que Comemos.(con Jim Mason), Repensar la vida y la muerte , El punto de vista del universo , en coautoría con Katarzyna de Lazari-Radek, El mayor bien que puedes hacer , Hambruna, riqueza y moralidad , Un mundo ahora , Ética en el Mundo real , ¿por qué vegano? y Utilitarismo: una introducción muy breve , también con Katarzyna de Lazari-Radek. En abril de 2021, WW Norton publicó su nueva edición de El asno de oro de Apuleius.. En 2013, el Instituto Gottlieb Duttweiler lo nombró el tercer "pensador contemporáneo más influyente" del mundo. Es coautor (con Shih Chao-Hwei) de The Budista and the Ethicist (Publicaciones Shambhala, 2023).
Para apreciar la distinción entre los riesgos existenciales y otros desastres, pensemos en el cambio climático. En algunos escenarios, el calentamiento global descontrolado podría hacer que la mayor parte de la Tierra fuera demasiado caliente para que los humanos pudieran seguir viviendo allí, pero la Antártida y algunas de las regiones más septentrionales de Europa, Asia y América del Norte se volverían habitables.
Eso reduciría el potencial de vida inteligente en la Tierra, tal vez durante milenios, pero con el tiempo el planeta se enfriaría y los descendientes de los supervivientes lo repoblarían. Si estos son realmente los peores escenarios, entonces el cambio climático, por desastroso que pudiera ser, no es un riesgo existencial.
Es cierto que, si la gravedad de un desastre es directamente proporcional al número de personas que mata, la diferencia entre un desastre que mata a casi toda la población humana de la Tierra y uno que provoca su extinción no sería tan grande. Sin embargo, para muchos filósofos preocupados por el riesgo existencial, esta visión no tiene en cuenta la enorme cantidad de personas que existirían si nuestra especie sobreviviera durante mucho tiempo, pero que no lo harían si el Homo sapiens se extinguiera.
La conferencia de Montenegro, al referirse en su título a “otros desastres”, no se limitó a los riesgos existenciales, pero gran parte del debate giró en torno a ellos. Cuando la sesión final de la conferencia estaba a punto de concluir, algunos de los presentes consideraron que las cuestiones que habíamos estado discutiendo eran tan graves y, sin embargo, tan descuidadas, que debíamos tratar de atraer la atención del público y de los gobiernos hacia el tema. Se discutió el tenor general de esa declaración y yo fui miembro de un pequeño grupo designado para redactarla.
La declaración señala que existen graves riesgos para la supervivencia de la humanidad, la mayoría de ellos creados por seres humanos, ya sea de manera intencional, como el bioterrorismo, o de manera no intencional, como el cambio climático o el riesgo que supone la creación de una superinteligencia artificial que no esté alineada con nuestros valores. Estos riesgos, continúa la declaración, no están siendo tratados por los gobiernos con la seriedad o urgencia que merecen.
La declaración respalda su punto de vista con referencia a dos afirmaciones realizadas por Toby Ord en su libro de 2020, The Precipice . Ord estimó que la probabilidad de que nuestra especie se extinga en los próximos 100 años es del 16-17%, o una en seis. También estimó que la proporción del PIB mundial que la humanidad gasta en intervenciones destinadas a reducir este riesgo es inferior al 0,001%.
En una actualización que apareció en julio, Ord dice que debido a que la nueva evidencia sugiere que los escenarios más extremos de cambio climático son poco probables, el riesgo existencial que plantea el cambio climático es menor de lo que pensaba en 2020. Por otro lado, la guerra en Ucrania significa que el riesgo de que una guerra nuclear cause nuestra extinción es mayor, mientras que los riesgos de la IA superinteligente y las pandemias son, en su opinión, menores en algunos aspectos y mayores en otros.
Ord considera que el enfoque en los chatbots está llevando a la IA hacia una dirección menos peligrosa, porque los chatbots no son agentes, pero considera que la creciente competencia en la carrera por crear inteligencia artificial general avanzada probablemente lleve a tomar atajos en la seguridad de la IA.
En general, Ord no ha cambiado su estimación –que admite que es muy aproximada– de que hay una probabilidad entre seis de que nuestra especie no sobreviva los próximos 100 años. Celebra el hecho de que ahora haya un mayor interés global por reducir los riesgos de extinción y ofrece como ejemplos la inclusión del tema en el informe de 2021 del Secretario General de las Naciones Unidas y su prominencia en la agenda del grupo internacional de ex líderes mundiales conocido como The Elders.
La declaración de Montenegro insta a los gobiernos a trabajar de manera cooperativa para prevenir desastres existenciales y pide especialmente a los gobiernos de los países ricos que inviertan “recursos significativos” en encontrar las mejores formas de reducir los riesgos de extinción humana. Aunque la declaración no da ninguna indicación de lo que significa “significativo” en este contexto, Ord ha sugerido en otro lugar un compromiso de destinar el 1% del PIB mundial a reducir los riesgos de extinción de nuestra especie. Eso es mil veces más que su estimación de 2020 de cuánto gastaban entonces los gobiernos en esta tarea, pero sería difícil argumentar que es demasiado.
Publicación original en: https://www.project-syndicate.org/commentary/existential-risks-to-humanity-more-serious-than-governments-believe-by-peter-singer-2024-08
Lea también:
Preparémonos para calor extremo en el futuro
Países vulnerables al cambio climático, ¿qué hacer?