La capacidad de hacer cambiar a alguien de opinión mediante un discurso razonado está en el corazón de la democracia. Una comunicación clara y efectiva forma la base de la deliberación y de la persuasión, que son esenciales para resolver intereses enfrentados. Pero la persuasión tiene un costado oscuro: los motivos falsos, las mentiras y la manipulación cognitiva -un comportamiento malicioso que la IA podría facilitar.
En un futuro no tan lejano, la IA generativa podría permitir la creación de nuevas interfaces de usuario capaces de persuadir en nombre de cualquier persona o entidad con los medios para crear un sistema de esas características. Al apalancar bases de conocimiento privadas, estos modelos especializados ofrecerían diferentes verdades que compiten con base en su capacidad para generar respuestas convincentes para un grupo objetivo -una IA para cada ideología-. Lo que vendría después seguramente sería una ola de ingeniería social asistida por IA, y una competencia cada vez mayor que haría que a los malos actores les resultara más fácil y más barato diseminar desinformación y llevar a cabo estafas.
La aparición de la IA generativa, en consecuencia, ha alimentado una crisis de inseguridad epistémica. La respuesta política inicial ha sido garantizar que los seres humanos sepan que están interactuando con IA. En junio, la Comisión Europea instó a las grandes empresas tecnológicas a empezar a etiquetar los textos, los videos y los audios creados o manipulados por herramientas de IA, mientras que el Parlamento Europeo está presionando para que se incorpore una regla similar en la inminente Ley de IA. Esta conciencia, sostiene el argumento, impedirá que seamos engañados por un agente artificial, no importa lo convincente que sea.
Sin embargo, alertar a la gente sobre la presencia de IA no necesariamente la resguardaría de la manipulación. Allá por los años 1960, el experimento con el chatbot ELIZA en el MIT demostró que la gente puede formar conexiones emocionales con un programa informático con características antropomórficas, sentir empatía por él y atribuirle procesos de pensamiento humano -en este caso, patrones de lenguaje natural- a pesar de que se le advierta que es una entidad no humana.
Los seres humanos tendemos a desarrollar un vínculo emocional fuerte con nuestras creencias, lo que luego dificulta nuestra capacidad para evaluar una evidencia contradictoria de manera objetiva. Asimismo, muchas veces buscamos información que respalde, y no que cuestione, nuestras opiniones. Nuestro objetivo debería ser llevar a cabo una persuasión reflexiva, a través de la cual presentamos argumentos y consideramos cuidadosamente nuestras creencias y valores para alcanzar un acuerdo o un desacuerdo bien fundamentado.
Pero, fundamentalmente, generar conexiones emocionales con otros puede aumentar nuestra susceptibilidad a la manipulación, y sabemos que los seres humanos pueden hacer estos tipos de conexiones aún con chatbots que no están diseñados para eso. Cuando finalmente se creen chatbots que puedan conectarse emocionalmente con los seres humanos, se crearía una nueva dinámica arraigada en dos problemas de larga data del discurso humano: el riesgo asimétrico y la reciprocidad.
Imaginemos que una compañía tecnológica crea un chatbot persuasivo. Un agente con estas características asumiría esencialmente cero riesgo -tanto emocional como físico- en su intento de convencer a los demás. En cuanto a la reciprocidad, existen muy pocas posibilidades de que el chatbot que lleva a cabo la persuasión tenga alguna capacidad de ser persuadido. Es más probable que un individuo pueda hacer que el chatbot conceda un punto en el contexto de su interacción limitada, lo que luego se internalizaría para su entrenamiento. Esto haría que la persuasión activa -que se trata de inducir un cambio de opinión, no de alcanzar un acuerdo momentáneo- sea ampliamente inviable.
En resumidas cuentas, estamos desgraciadamente mal preparados para la diseminación de sistemas de IA persuasivos. Muchos líderes industriales, entre ellos OpenAI, la empresa detrás de ChatGPT, han generado conciencia sobre su amenaza potencial. Pero la conciencia no se traduce en un marco de gestión del riesgo integral.
No se puede inocular de manera efectiva a una sociedad contra la IA persuasiva, ya que eso exigiría hacer que cada persona fuera inmune a este tipo de agentes -una tarea imposible-. Asimismo, cualquier intento por controlar y etiquetar las interfaces de IA resultaría en que los individuos transfirieran información a nuevos dominios, no muy diferente de copiar texto producido por ChatGPT y pegarlo en un correo electrónico. Los propietarios de los sistemas, por lo tanto, serían responsables de rastrear la actividad de los usuarios y evaluar las conversiones.
Pero la IA persuasiva no tiene por qué ser generativa en su naturaleza. Un amplio rango de organizaciones, individuos y entidades ya han impulsado sus capacidades persuasivas para lograr sus objetivos. Consideremos el uso por parte de actores estatales de propaganda informática, que implica manipular la información y la opinión pública para promover intereses y agendas nacionales.
Mientras tanto, la evolución de la persuasión informática le ha brindado a la industria de tecnología publicitaria un modelo de negocios lucrativo. Este campo pujante no solo demuestra el poder de las tecnologías persuasivas a la hora de forjar el comportamiento de los consumidores. También subraya el papel significativo que pueden desempeñar en cuanto a impulsar las ventas y lograr objetivos comerciales.
Lo que une a estos diversos actores es el deseo de mejorar sus capacidades persuasivas. Esto refleja el panorama cada vez más amplio de la influencia impulsada por la tecnología, con todas sus implicancias sociales, políticas y económicas conocidas y desconocidas. En tanto la persuasión se vaya automatizando, un marco ético y regulatorio integral se vuelve imperativo.
Aurélie Jean también colaboró en este comentario.
Publicación original en: https://www.project-syndicate.org/commentary/persuasive-ai-poses-manipulation-disinformation-threats-by-mark-esposito-et-al-2024-01/spanish
Lea también:
Cómo prevenir un apocalipsis de la IA
¿Puede la IA reemplazar al terapeuta humano?