Dado que los modelos de inteligencia artificial generativa capaces de reproducir “deepfakes” realistas son ahora accesibles para todos, es comprensible que muchos se preocupen por las implicaciones para las elecciones y el discurso democrático. Pero durante el “superaño electoral” de 2024, las peores predicciones no se cumplieron.
LONDRES – En un momento en que casi la mitad de la población mundial acudirá a las urnas, 2024 fue calificado como un año de superelecciones, lo que llevó a muchos expertos a advertir sobre una inminente avalancha de desinformación política. Después de todo, la inteligencia artificial generativa ha hecho posible que cualquier persona, en cualquier lugar, produzca imágenes y videos “deepfake” que parezcan reales. Nunca antes los malos actores antidemocráticos habían tenido herramientas tan poderosas para socavar unas elecciones libres y justas.
Sin embargo, si bien la desinformación aumentada por inteligencia artificial ha proliferado claramente en línea, no tuvo un impacto desestabilizador sustancial en la democracia en 2024. La razón no está del todo clara. Tal vez los usuarios de las redes sociales se hayan vuelto más perspicaces, mientras que los verificadores de datos y las plataformas digitales han hecho un mejor trabajo para reducir la propagación de falsedades, siendo X (antes Twitter) de Elon Musk una excepción obvia.
Sin duda, en las elecciones presidenciales de Estados Unidos, ambos bandos se acusaron mutuamente de intentar suprimir la libertad de expresión y la democracia. Según el principal sitio de verificación de datos estadounidense Politifact , ambas campañas emitieron declaraciones engañosas o falsas, aunque la abrumadora mayoría provino de Donald Trump. No obstante, las peores predicciones sobre la perturbación del proceso democrático por parte de la IA no se cumplieron. En términos más generales, los resultados de las elecciones del año en todo el mundo fueron dispares, pero los partidos y candidatos liberales y pluralistas en general superaron las expectativas.
En nuestro libro Spin Dictators , Daniel Treisman y yo señalamos que la mayoría de la gente en todo el mundo (o al menos la mayoría de los encuestados en la Encuesta Mundial de Valores y otras encuestas similares) está a favor de la democracia por sobre cualquier otro modelo alternativo de gobierno. Por eso los líderes políticos tienden a atender esta preferencia celebrando elecciones y permitiendo el funcionamiento de algunos medios de comunicación independientes. Si bien en muchos países las elecciones no son libres ni justas, el hecho de que incluso los líderes no democráticos opten por celebrarlas demuestra la popularidad del voto. Por la misma razón, un buen desempeño de las fuerzas prodemocráticas debería considerarse la norma, no la excepción.
Pero ¿acaso los medios digitales no han corroído el discurso democrático? En 2019, el psicólogo social Jonathan Haidt de la Universidad de Nueva York y el ensayista Tobias Rose-Stockwell publicaron un influyente artículo titulado “La psicología oscura de las redes sociales”, en el que advertían que el modelo de negocio basado en la publicidad de las principales plataformas de redes sociales estaba promoviendo contenido que captaba la atención. Como la verdad puede parecer mundana en comparación con la falsedad sensacionalista, las plataformas basadas en la publicidad tienen una propensión a alimentar la desinformación y la polarización política. Mientras tanto, muchos otros académicos han vinculado este modelo con el aumento de la información falsa en las redes sociales en la década de 2010 y con su uso por parte de actores no democráticos.
Pero las empresas tecnológicas han tomado algunas medidas para abordar este problema. Para mitigar los costos reputacionales que implica ser los principales difusores de desinformación, la mayoría de las plataformas de redes sociales establecieron departamentos de “confianza y seguridad”, invirtieron en moderación de contenido y se involucraron en la autorregulación. Entrenaron algoritmos para identificar información errónea (material que es simplemente inexacto) y desinformación (material deliberadamente inexacto que tiene como objetivo engañar) y remitieron las publicaciones marcadas a verificadores humanos certificados.
Los ensayos controlados aleatorios de 2020 indican que estas medidas pueden haber sido efectivas. Si bien un estudio de 2018 concluyó que el uso de Facebook condujo a la polarización política y redujo el bienestar, estudios similares realizados en 2020 no encontraron tales efectos o solo encontraron efectos menores.
Otras investigaciones han examinado la forma en que las personas procesan y comparten noticias falsas. Al evaluar mensajes partidistas públicamente, las personas son más propensas a apoyar la postura de su partido, posiblemente para demostrar lealtad o para influir en los demás. Pero cuando se les pregunta en privado y se les ofrece un incentivo para evaluar la veracidad de un mensaje, los partidarios son más propensos a identificar los hechos correctamente y a abstenerse de compartir esas publicaciones.
Si bien las plataformas de redes sociales han difundido información errónea (parte de la cual ha sido realmente persuasiva), el lanzamiento público de plataformas de inteligencia artificial generativa ha suscitado nuevas y serias preocupaciones . La inteligencia artificial puede producir falsificaciones de audio y video sumamente convincentes que son prácticamente imposibles de distinguir de las imágenes reales.
Dado que esta tecnología es accesible para todos, es comprensible que muchos se preocupen por las implicaciones para las elecciones. Sin embargo, hasta ahora, el perro ha ladrado, no mordido. Si bien Rusia y otros actores estatales y privados hostiles implementaron diversas estrategias de desinformación e interferencia electoral en Estados Unidos y otros lugares, no hay evidencia sustancial de que la IA generativa o los deepfakes hayan desempeñado un papel fundamental en la determinación de los resultados.
Esto puede deberse a que los operadores políticos aún no dominan el uso de la tecnología, o a que aún no hemos estudiado a fondo su impacto. Pero otra posibilidad es que la experiencia de la década de 2010 haya enseñado a los usuarios de las redes sociales a ser más cautelosos con lo que encuentran en línea. Sin duda, necesitamos más investigación, pero, mientras tanto, podemos tener un poco menos de miedo a lo que la IA significará para el discurso público y la gobernanza democrática.
Sergei Guriev es decano y profesor de Economía en la London Business School. Es coautor (con Daniel Treisman) de Spin Dictators: The Changing Face of Tyranny in the 21st Century (Princeton University Press, 2022).
Sin embargo, si bien la desinformación aumentada por inteligencia artificial ha proliferado claramente en línea, no tuvo un impacto desestabilizador sustancial en la democracia en 2024. La razón no está del todo clara. Tal vez los usuarios de las redes sociales se hayan vuelto más perspicaces, mientras que los verificadores de datos y las plataformas digitales han hecho un mejor trabajo para reducir la propagación de falsedades, siendo X (antes Twitter) de Elon Musk una excepción obvia.
Sin duda, en las elecciones presidenciales de Estados Unidos, ambos bandos se acusaron mutuamente de intentar suprimir la libertad de expresión y la democracia. Según el principal sitio de verificación de datos estadounidense Politifact , ambas campañas emitieron declaraciones engañosas o falsas, aunque la abrumadora mayoría provino de Donald Trump. No obstante, las peores predicciones sobre la perturbación del proceso democrático por parte de la IA no se cumplieron. En términos más generales, los resultados de las elecciones del año en todo el mundo fueron dispares, pero los partidos y candidatos liberales y pluralistas en general superaron las expectativas.
En nuestro libro Spin Dictators , Daniel Treisman y yo señalamos que la mayoría de la gente en todo el mundo (o al menos la mayoría de los encuestados en la Encuesta Mundial de Valores y otras encuestas similares) está a favor de la democracia por sobre cualquier otro modelo alternativo de gobierno. Por eso los líderes políticos tienden a atender esta preferencia celebrando elecciones y permitiendo el funcionamiento de algunos medios de comunicación independientes. Si bien en muchos países las elecciones no son libres ni justas, el hecho de que incluso los líderes no democráticos opten por celebrarlas demuestra la popularidad del voto. Por la misma razón, un buen desempeño de las fuerzas prodemocráticas debería considerarse la norma, no la excepción.
Pero ¿acaso los medios digitales no han corroído el discurso democrático? En 2019, el psicólogo social Jonathan Haidt de la Universidad de Nueva York y el ensayista Tobias Rose-Stockwell publicaron un influyente artículo titulado “La psicología oscura de las redes sociales”, en el que advertían que el modelo de negocio basado en la publicidad de las principales plataformas de redes sociales estaba promoviendo contenido que captaba la atención. Como la verdad puede parecer mundana en comparación con la falsedad sensacionalista, las plataformas basadas en la publicidad tienen una propensión a alimentar la desinformación y la polarización política. Mientras tanto, muchos otros académicos han vinculado este modelo con el aumento de la información falsa en las redes sociales en la década de 2010 y con su uso por parte de actores no democráticos.
Pero las empresas tecnológicas han tomado algunas medidas para abordar este problema. Para mitigar los costos reputacionales que implica ser los principales difusores de desinformación, la mayoría de las plataformas de redes sociales establecieron departamentos de “confianza y seguridad”, invirtieron en moderación de contenido y se involucraron en la autorregulación. Entrenaron algoritmos para identificar información errónea (material que es simplemente inexacto) y desinformación (material deliberadamente inexacto que tiene como objetivo engañar) y remitieron las publicaciones marcadas a verificadores humanos certificados.
Los ensayos controlados aleatorios de 2020 indican que estas medidas pueden haber sido efectivas. Si bien un estudio de 2018 concluyó que el uso de Facebook condujo a la polarización política y redujo el bienestar, estudios similares realizados en 2020 no encontraron tales efectos o solo encontraron efectos menores.
Otras investigaciones han examinado la forma en que las personas procesan y comparten noticias falsas. Al evaluar mensajes partidistas públicamente, las personas son más propensas a apoyar la postura de su partido, posiblemente para demostrar lealtad o para influir en los demás. Pero cuando se les pregunta en privado y se les ofrece un incentivo para evaluar la veracidad de un mensaje, los partidarios son más propensos a identificar los hechos correctamente y a abstenerse de compartir esas publicaciones.
Si bien las plataformas de redes sociales han difundido información errónea (parte de la cual ha sido realmente persuasiva), el lanzamiento público de plataformas de inteligencia artificial generativa ha suscitado nuevas y serias preocupaciones . La inteligencia artificial puede producir falsificaciones de audio y video sumamente convincentes que son prácticamente imposibles de distinguir de las imágenes reales.
Dado que esta tecnología es accesible para todos, es comprensible que muchos se preocupen por las implicaciones para las elecciones. Sin embargo, hasta ahora, el perro ha ladrado, no mordido. Si bien Rusia y otros actores estatales y privados hostiles implementaron diversas estrategias de desinformación e interferencia electoral en Estados Unidos y otros lugares, no hay evidencia sustancial de que la IA generativa o los deepfakes hayan desempeñado un papel fundamental en la determinación de los resultados.
Esto puede deberse a que los operadores políticos aún no dominan el uso de la tecnología, o a que aún no hemos estudiado a fondo su impacto. Pero otra posibilidad es que la experiencia de la década de 2010 haya enseñado a los usuarios de las redes sociales a ser más cautelosos con lo que encuentran en línea. Sin duda, necesitamos más investigación, pero, mientras tanto, podemos tener un poco menos de miedo a lo que la IA significará para el discurso público y la gobernanza democrática.
Publicación original en: https://www.project-syndicate.org/magazine/ai-deepfakes-in-elections-not-yet-a-problem-by-sergei-guriev-2024-12
Lea también:
Nuestra IA en el futuro cercano
El mundo necesita una agenda de inteligencia artificial pro-humana