LONDRES – Hace poco más de un año, OpenAI, con sede en San Francisco, lanzó su chatbot, ChatGPT, lo que desencadenó una fiebre del oro de la inteligencia artificial y reavivó el antiguo debate sobre los efectos de la automatización en el bienestar humano.
El miedo al desplazamiento por parte de las máquinas se remonta a la Revolución Industrial del siglo XIX, cuando grupos de tejedores ingleses, conocidos como luditas, comenzaron a destruir los telares mecánicos que amenazaban sus medios de vida. El movimiento , que alcanzó su punto máximo entre 1811 y 1817, fue finalmente reprimido por las fuerzas gubernamentales y sus líderes fueron ejecutados o exiliados a Australia.
Pero los argumentos de los luditas encontraron un defensor inesperado (y algo irónico) en el renombrado economista David Ricardo, quien argumentó en su libro de 1817 Sobre los principios de economía política y tributación que “la opinión de la clase trabajadora de que el empleo de maquinaria es frecuentemente perjudicial para sus intereses, no se basa en prejuicios y errores, sino que se ajusta a los principios correctos de la economía política”. El economista británico Nassau Senior, por su parte, aconsejó a los tejedores “salir de esa rama de la producción”.
Terminaron haciendo precisamente eso: 250.000 empleos en telares manuales desaparecieron entre 1820 y 1860. Pero si bien la mecanización terminó beneficiando a los trabajadores humanos (la población y el ingreso real per cápita del Reino Unido se multiplicaron durante el mismo período), afectó negativamente a los caballos, cuyo número cayó drásticamente a medida que avanzaban. los trenes (y, más tarde, los vehículos motorizados) sustituyeron al transporte tirado por caballos.
Desde la Revolución Industrial, el argumento predominante a favor de las máquinas ha sido que, al aumentar la productividad laboral, la automatización aumenta los ingresos reales, permitiendo que más personas disfruten de niveles de vida más altos sin la correspondiente pérdida de empleos. Además, la liberación de tediosas tareas menores nos ha permitido redirigir nuestra energía hacia actividades más valiosas.
Los luditas modernos, por otro lado, enfatizan las desventajas de la automatización, especialmente el potencial de destruir medios de vida y comunidades. Sostienen que una distribución equitativa del ingreso y el poder es crucial para cosechar los beneficios a largo plazo del progreso tecnológico. Tecnopesimistas como Martin Ford y Daniel Susskind han argumentado que las tecnologías emergentes como la IA crearán muy pocos empleos nuevos, lo que resultará en un aumento de la pobreza y el ” desempleo tecnológico “.
El auge de la IA generativa y la llegada anticipada de la inteligencia artificial general (una IA capaz de realizar cualquier tarea cognitiva que los humanos puedan realizar) han intensificado el debate entre tecnooptimistas y tecnoescépticos. Por ejemplo, en el sector de la atención de la salud, una fuente aparentemente interminable de exageraciones tecnológicas, la IA promete mejores diagnósticos, telemedicina avanzada, medicamentos más eficaces y menores cargas administrativas para médicos y enfermeras, dejando más tiempo para la atención de los pacientes.
Esto parece reflejar la opinión predominante entre los principales expertos de que la IA generativa aumentará, en lugar de reemplazar, los empleos humanos. Al automatizar tareas rutinarias, promete liberar a los humanos para que puedan realizar trabajos más creativos. Sin duda, esta transformación requerirá aprendizaje permanente, haciendo de la educación continua una condición no sólo para participar en el mercado laboral sino también para acceder a una gama cada vez mayor de servicios en línea.
Con la llegada de la IA generativa, las preocupaciones han pasado de las pérdidas de empleo inducidas por la automatización a la perspectiva de que una superinteligencia se vuelva deshonesta, un temor que se remonta a la novela Frankenstein de Mary Shelley de 1818; o El Prometeo moderno . Haciéndose eco de estos sentimientos, el ex director ejecutivo de Google, Eric Schmidt, comentó recientemente que si bien los modelos actuales de IA siguen “bajo control humano”, existe un riesgo real de que se pueda desarrollar la capacidad de “superación personal recursiva”, ganar autonomía y comenzar a “establecer su metas propias.” Con el tiempo, advirtió, un “grupo de computadoras” podría evolucionar hasta convertirse en un “experto verdaderamente sobrehumano” capaz de actuar de forma independiente.
A medida que los expertos y académicos se preocupan cada vez más por la capacidad de la IA para destruir el mundo, un número creciente de voces han pedido que el desarrollo de la IA esté alineado con los objetivos y valores humanos. Hay dos formas de lograrlo. El primero es restringir la disponibilidad y las ventas de productos basados en inteligencia artificial potencialmente dañinos, como han intentado hacer los formuladores de políticas en Europa y otros lugares imponiendo regulaciones estrictas a tecnologías emergentes como los automóviles autónomos y el reconocimiento facial.
Un problema obvio de este enfoque es que alcanzar un consenso sobre lo que constituye daño es difícil en un mundo en el que el relativismo moral es la norma. Dado que cada vez es menos claro quién es el “propietario” del contenido que se considera dañino, es prácticamente imposible responsabilizar a los vendedores o proveedores. Además, los intentos de regular el uso de la tecnología tienden a llegar demasiado tarde.
La segunda forma de frenar la IA es limitar por completo el desarrollo de productos potencialmente peligrosos. Pero frenar la demanda es más complicado que restringir la oferta, especialmente en las sociedades modernas donde las fuerzas competitivas –tanto comerciales como geopolíticas– hacen extremadamente difícil frenar la innovación tecnológica.
La reciente agitación en OpenAI es un ejemplo de ello. En noviembre, la junta directiva de la compañía despidió brevemente al director ejecutivo Sam Altman, supuestamente debido a la preocupación de que la IA algún día pudiera conducir a la extinción de la humanidad. Aunque Altman fue reintegrado pocos días después, el escándalo subrayó la velocidad con la que tecnologías aparentemente beneficiosas podrían convertirse en riesgos existenciales. Dado que la rápida comercialización aparentemente tiene prioridad sobre la precaución y la competencia acelera el desarrollo de herramientas cada vez más poderosas, un apocalipsis inducido por la IA parece cada vez más plausible.
La conclusión ineludible es que simplemente regular la IA no es suficiente. Pero al introducir conceptos como neoludismo y redistribución en el debate público, podríamos desarrollar el vocabulario político e intelectual necesario para mitigar las amenazas que plantean estas tecnologías emergentes.
Por ejemplo, un neoludita podría preguntar: ¿Por qué las sociedades ricas, que ya producen más que suficiente para que sus ciudadanos vivan cómodamente, siguen centradas en maximizar el crecimiento del PIB? Una respuesta podría ser la falta de una distribución justa de la riqueza y el ingreso que garantice que los beneficios de la productividad y la eficiencia se compartan ampliamente.
Otra explicación es que la tecnología en sí misma no es intrínsecamente buena o mala; es un medio para un fin. Y en la economía política actual, la “innovación tecnológica” es a menudo un eufemismo para permitir a los ricos y poderosos redirigir capital de la industria a las finanzas, monopolizando así los beneficios de la automatización y empobreciendo a todos los demás.
Publicación original en: https://www.project-syndicate.org/commentary/luddites-today-not-wrong-about-artificial-intelligence-by-robert-skidelsky-2023-12
Lee también:
¿Puede la IA reemplazar al terapeuta humano?