WASHINGTON, DC – El pesimismo impregna los debates actuales sobre la inteligencia artificial generativa. Una encuesta de YouGov realizada en marzo encontró que los estadounidenses se sienten principalmente “cautelosos” o “preocupados” por la IA, mientras que sólo uno de cada cinco está “esperanzado” o “entusiasmado”. Alrededor de cuatro de cada diez están muy o algo preocupados de que la IA pueda poner fin a la raza humana.
Estos temores ilustran la tendencia humana a centrarse más en lo que podría perderse que en lo que podría ganarse con el cambio tecnológico. Los avances en IA causarán disrupción. Pero la destrucción creativa crea y destruye, y ese proceso, en última instancia, es beneficioso. A menudo, los problemas creados por una nueva tecnología también pueden resolverse con ella. Ya estamos viendo esto con la IA y veremos más en los próximos años.
Recordemos el pánico que se apoderó de escuelas y universidades cuando OpenAI demostró por primera vez que su herramienta ChatGPT puede escribir en lenguaje natural. Muchos educadores expresaron preocupaciones válidas de que la IA generativa ayudaría a los estudiantes a hacer trampa en tareas y exámenes, perjudicando su educación. Pero la misma tecnología que permite este abuso también permite detectarlo y prevenirlo.
Además, la IA generativa puede ayudar a mejorar la calidad de la educación. El antiguo modelo educativo de aula enfrenta serios desafíos. La aptitud y la preparación varían ampliamente entre los estudiantes dentro de un aula determinada, al igual que los estilos de aprendizaje y los niveles de compromiso, atención y concentración. Además, la calidad de la enseñanza varía según las aulas.
La IA podría abordar estos problemas actuando como tutor privado para cada estudiante. Si un estudiante en particular aprende mejor matemáticas jugando juegos de matemáticas, la IA puede jugar juegos de matemáticas. Si otro estudiante aprende mejor trabajando silenciosamente en los problemas y pidiendo ayuda cuando la necesita, la IA puede adaptarse a eso. Si un estudiante se está quedando atrás mientras otro en la misma clase ya domina el material y se aburre, los tutores de IA pueden trabajar en la recuperación con el ex estudiante y en material más desafiante con el segundo. Los sistemas de IA también servirán como asistentes de enseñanza personalizados, ayudando a los profesores a desarrollar planes de lecciones y dar forma a la instrucción en el aula.
Los beneficios económicos de estas aplicaciones serían sustanciales. Cuando cada niño tenga un tutor privado de IA, los resultados educativos mejorarán en general, y los estudiantes menos favorecidos y los alumnos de escuelas de menor calidad probablemente se beneficiarán de manera desproporcionada. Estos estudiantes mejor educados se convertirán en trabajadores más productivos que podrán exigir salarios más altos. También serán ciudadanos más sabios, capaces de mejorar las perspectivas de la democracia. Dado que la democracia es la base de la prosperidad a largo plazo, esto también tendrá efectos económicos saludables.
A muchos comentaristas les preocupa que la IA socave la democracia al sobrecargar la desinformación y la desinformación. Nos piden que imaginemos una “falsificación profunda” de, digamos, el presidente Joe Biden anunciando que Estados Unidos se retira de la OTAN, o tal vez de Donald Trump sufriendo un problema médico. Un vídeo viral de este tipo podría ser tan convincente como para afectar a la opinión pública en el período previo a las elecciones de noviembre.
Pero si bien las falsificaciones de líderes políticos y candidatos a altos cargos son una amenaza real, las preocupaciones sobre los riesgos para la democracia que genera la IA son exageradas. Una vez más, la misma tecnología que permite las falsificaciones profundas y otras formas de guerra de información también puede utilizarse para contrarrestarlas. Ya se están introduciendo herramientas de este tipo. Por ejemplo, SynthID, una herramienta de marca de agua desarrollada por Google DeepMind, imbuye al contenido generado por IA con una firma digital que es imperceptible para los humanos pero detectable por software. Hace tres meses, OpenAI agregó marcas de agua a todas las imágenes generadas por ChatGPT.
¿Las armas de IA crearán un mundo más peligroso? Es demasiado pronto para decirlo. Pero como ocurre con los ejemplos anteriores, la misma tecnología que puede crear mejores armas ofensivas también puede crear mejores defensas. Muchos expertos creen que la IA aumentará la seguridad al mitigar el “dilema del defensor”: la asimetría según la cual los malos actores necesitan tener éxito sólo una vez, mientras que los sistemas defensivos deben funcionar siempre.
En febrero, el director ejecutivo de Google, Sundar Pichai, informó que su empresa había desarrollado un modelo de lenguaje de gran tamaño diseñado específicamente para la ciberdefensa y la inteligencia contra amenazas. “Algunas de nuestras herramientas ya son hasta un 70 por ciento mejores en la detección de scripts maliciosos y hasta un 300 por ciento más efectivas en la identificación de archivos que explotan vulnerabilidades”, escribió.
La misma lógica se aplica a las amenazas a la seguridad nacional. A los estrategas militares les preocupa que enjambres de drones de bajo costo y fáciles de fabricar puedan amenazar a portaaviones, aviones de combate y tanques grandes y costosos (todos sistemas de los que depende el ejército estadounidense) si están controlados y coordinados por IA. Pero la misma tecnología subyacente ya se está utilizando para crear defensas contra tales ataques.
Por último, a muchos expertos y ciudadanos les preocupa que la IA desplace a los trabajadores humanos. Pero, como escribí hace unos meses, este temor común refleja una mentalidad de suma cero que no entiende cómo evolucionan las economías. Aunque la IA generativa desplazará a muchos trabajadores, también creará nuevas oportunidades. El trabajo del futuro será muy diferente del trabajo actual porque la IA generativa creará nuevos bienes y servicios cuya producción requerirá mano de obra humana. Un proceso similar ocurrió con avances tecnológicos anteriores. Como han demostrado el economista del MIT David Autor y sus colegas , la mayoría de los empleos actuales se encuentran en ocupaciones introducidas después de 1940.
El debate actual en torno a la IA generativa se centra desproporcionadamente en la disrupción que podría desencadenar. Pero los avances tecnológicos no sólo perturban; ellos también crean. Siempre habrá malos actores que intentarán causar estragos con las nuevas tecnologías. Afortunadamente, existe un enorme incentivo financiero para contrarrestar esos riesgos, así como para preservarlos y generar ganancias.
La computadora personal e Internet empoderaron a los ladrones, facilitaron la difusión de información falsa y provocaron importantes perturbaciones en el mercado laboral. Sin embargo, hoy en día muy pocos harían retroceder el tiempo. La historia debería inspirar confianza –pero no complacencia– en que la IA generativa conducirá a un mundo mejor.
Publicación original en: https://www.project-syndicate.org/commentary/ai-a-net-good-will-solve-many-problems-it-creates-by-michael-r-strain-2024-05
Lea también:
La historia nos revela el futuro de la IA
El futuro del trabajo en la era de la IA