SEATTLE – El año pasado explotó una cacofonía de conversaciones sobre la inteligencia artificial. Según a quien escuchemos, la IA nos está transportando a un nuevo y brillante mundo de infinitas posibilidades… o impulsándonos hacia una lúgubre distopía. Podemos referirnos a ellos como los escenarios Barbie y Oppenheimer, tan distintos y atrapantes como los éxitos de taquilla hollywoodenses de este verano, pero una de esas conversaciones dista mucho de recibir la atención necesaria: la de la responsabilidad corporativa.
Me incorporé a Nike en 1998 y fui su primera vicepresidenta de responsabilidad corporativa, justo en medio de la mayor crisis corporativa de la era de la hiperglobalización: esa icónica empresa dedicada a los deportes y el estado físico se había convertido en la cara de la explotación laboral en los países en desarrollo. Mientras lidiábamos con la crisis e implementábamos la responsabilidad corporativa de Nike, aprendimos duras lecciones que ahora pueden ayudarnos a orientar la manera en que navegamos la revolución de la IA.
Había una diferencia clave frente a lo que ocurre hoy: el drama del Nike tuvo lugar a fines de la década 1990 y se desarrolló de manera relativamente lenta. En el caso de la IA, sin embargo, el tiempo es un lujo del que no disponemos. A esta altura del año pasado, la mayoría de la gente no había escuchado hablar de la IA generativa. Esa tecnología irrumpió en nuestra conciencia colectiva como un relámpago a fines de 2022… y desde entonces venimos tratando de entenderla.
Como están las cosas, no hay vallas de contención externas para las empresas de IA generativa y eso nos convierte a todos en conejillos de indias. No es para nada normal. Si Boeing o Airbus presentaran un avión con la promesa de que sería más barato y rápido, pero potencialmente muy peligroso, no aceptaríamos el riesgo. Una empresa farmacéutica que lanzara un producto sin evaluarlo y advirtiera que podría ser tóxico sería penalmente responsable por los malestares y las muertes que causara. ¿Por qué entonces está bien que las empresas tecnológicas lancen al mercado productos de IA que según ellas mismas nos ponen en riesgo de extinción?
Incluso antes de que la IA generativa irrumpiera en escena, los gigantes tecnológicos y la economía de la atención enfrentaban críticas cada vez mayores por sus efectos perjudiciales. Productos como Snapchat, Instagram y TikTok están diseñados para generar aumentos de dopamina en el cerebro, lo que los torna tan adictivos como los cigarrillos. Los científicos están de acuerdo en que los medios digitales perjudican la salud mental de los usuarios —especialmente la de los niños—.
La IA dio un impulso brutal a la economía de la atención y desató un nuevo conjunto de riesgos, cuyo alcance dista de ser claro. Y aunque los pedidos de regulación son cada vez mayores, cuando provienen de quienes están detrás de esa tecnología representan en gran medida campañas de relaciones públicas y tácticas corporativas de demora. Después de todo, los reguladores y los gobiernos no entienden completamente cómo funcionan los productos basados en la IA ni los riesgos que generan, sólo las empresas lo saben.
Es responsabilidad de las empresas evitar causar daños a sabiendas y solucionar los problemas que crean, y es tarea del gobierno hacerlas rendir cuentas; pero la responsabilización suele ser posterior a los hechos… demasiado tarde para una tecnología como la IA.
Si los dueños de Purdue Pharma, la familia Sackler, hubieran actuado de manera responsable cuando entendieron el peligro que representaba la oxicodona y hubieran actuado para evitar que ese medicamento se recetara en exceso, podrían haber evitado la crisis de opioides en la que quedó atrapado Estados Unidos en los últimos años. Para cuando el gobierno se involucró ya se habían perdido innumerables vidas y arruinado comunidades. Ningún juicio o multa puede revertir algo así.
En el caso de la IA, las empresas pueden actuar mejor… y deben hacerlo. Pero deben actuar rápidamente, antes de que las herramientas basadas en la IA se hayan enquistado tanto en las actividades diarias que sus peligros sean normalizados y resulte imposible contener sus efectos.
En Nike una combinación de presión externa y el compromiso interno de hacer lo correcto nos condujo a reformar de manera fundamental el modelo de negocios. El naciente sector de la IA claramente siente la presión externa: el 21 de julio la Casa Blanca consiguió que siete de las principales empresas de IA se comprometieran a desarrollar productos seguros y confiables, en línea con el Anteproyecto de la Declaración de Derechos relacionados con la IA presentado el año pasado; pero los lineamientos voluntarios e imprecisos dejan demasiado margen de maniobra.
Nuestro futuro colectivo depende de que las empresas —en la intimidad de las reuniones de sus juntas de directorio y de sus ejecutivos, y en las sesiones estratégicas a puertas cerradas— decidan hacer lo correcto. Las empresas necesitan una estrella polar clara que funcione como guía en todo momento mientras innovan. Google lo había entendido en sus inicios, cuando su credo corporativo era «No seas malo». Ninguna corporación debiera perjudicar a sabiendas a la gente para obtener beneficios.
No alcanzará con que las empresas digan que contrataron a exreguladores y propongan soluciones. Deben diseñar planes de acción creíbles y eficaces para la IA, que respondan a cinco preguntas clave:
Hay que tratar al desafío de la IA como a cualquier otro proyecto corporativo. Exigir a las empresas que se comprometan con un plan de acción en 90 días es razonable y realista. No hay excusas. Si no cumplen las fechas límite debieran afrontar multas dolorosas. El plan no tiene que ser perfecto —probablemente haya que adaptarlo mientras seguimos aprendiendo—, pero el compromiso es fundamental.
Los gigantes tecnológicos deben mostrar el mismo grado de compromiso con la protección de las personas que con la maximización de los beneficios. Si lo único útil es la generación de utilidades, todos estamos en problemas.
Traducción al español por Ant-Translation
Publicación original en: https://www.project-syndicate.org/commentary/ai-regulation-corporate-responsibility-action-plans-by-maria-eitel-2023-08/spanish
Lee también:
La huelga en Hollywood contra IA es apenas el inicio