Las políticas públicas y las instituciones deben diseñarse para garantizar que las innovaciones mejoren el mundo; pero tal como están las cosas, muchas tecnologías se están implementando en el vacío, y los avances en inteligencia artificial levantan una bandera roja tras otra. La era de la autorregulación ligera debe terminar.
LONDRES – El mundo de la tecnología ha generado una nueva abundancia de noticias de primera plana en 2022. En octubre, Elon Musk compró Twitter, una de las principales plataformas de comunicación pública utilizadas por periodistas, académicos, empresas y legisladores, y procedió a despedir a la mayoría de su personal de moderación de contenido, lo que indica que la empresa se basaría en su lugar en la inteligencia artificial.
Luego, en noviembre, un grupo de empleados de Meta reveló que habían ideado un programa de inteligencia artificial capaz de vencer a la mayoría de los humanos en el juego de estrategia Diplomacia. En Shenzhen, China, los funcionarios están utilizando “gemelos digitales” de miles de dispositivos móviles conectados a 5G para monitorear y administrar los flujos de personas, el tráfico y el consumo de energía en tiempo real. Y con la última versión del modelo de predicción de idiomas de ChatGPT, muchos están declarando el final del ensayo universitario.
En resumen, fue un año en el que las preocupaciones ya serias sobre cómo se están diseñando y utilizando las tecnologías se profundizaron en recelos aún más urgentes. ¿Quién está a cargo aquí? ¿Quién debería estar a cargo? Las políticas públicas y las instituciones deben diseñarse para garantizar que las innovaciones mejoren el mundo; sin embargo, muchas tecnologías se están implementando actualmente en el vacío. Necesitamos estructuras de gobierno inclusivas orientadas a la misión que se centren en un verdadero bien común. Los gobiernos capaces pueden dar forma a esta revolución tecnológica para servir al interés público.
Considere la IA, que el Oxford English Dictionary define ampliamente como “la teoría y el desarrollo de sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana, como la percepción visual, el reconocimiento del habla, la toma de decisiones y la traducción entre idiomas”. La IA puede mejorar nuestras vidas de muchas maneras. Puede mejorar la producción y gestión de alimentos, haciendo que la agricultura sea más eficiente y mejorando la seguridad alimentaria. Puede ayudarnos a reforzar la resiliencia frente a los desastres naturales , diseñar edificios energéticamente eficientes, mejorar el almacenamiento de energía y optimizar el despliegue de energía renovable. Y puede mejorar la precisión de los diagnósticos médicos cuando se combina con las evaluaciones de los propios médicos.
Estas aplicaciones mejorarían nuestras vidas de muchas maneras. Pero sin reglas efectivas, es probable que la IA cree nuevas desigualdades y amplifique las preexistentes. No es necesario ir muy lejos para encontrar ejemplos de sistemas impulsados por IA que reproduzcan sesgos sociales injustos. En un experimento reciente, los robots impulsados por un algoritmo de aprendizaje automático se volvieron abiertamente racistas y sexistas. Sin una mejor supervisión, los algoritmos que se supone que ayudan al sector público a administrar los beneficios sociales pueden discriminar a las familias que realmente lo necesitan. Igualmente preocupante, las autoridades públicas de algunos países ya están utilizando tecnología de reconocimiento facial impulsada por IA para monitorear la disidencia política y someter a los ciudadanos a regímenes de vigilancia masiva.
La concentración del mercado también es una preocupación importante. El desarrollo de IA, y el control de los datos subyacentes, está dominado por unos pocos jugadores poderosos en unos pocos lugares. Entre 2013 y 2021, China y Estados Unidos representaron el 80% de la inversión privada en IA a nivel mundial. Ahora existe un enorme desequilibrio de poder entre los propietarios privados de estas tecnologías y el resto de nosotros.
Pero la IA también está siendo impulsada por una inversión pública masiva. Dicho financiamiento debe regirse por el bien común, no por el interés de unos pocos. Necesitamos una arquitectura digital que comparta las recompensas de la creación de valor colectivo de manera más equitativa. La era de la autorregulación ligera debe terminar. Cuando permitimos que prevalezca el fundamentalismo de mercado, el Estado y los contribuyentes están condenados a salir al rescate después de los hechos (como hemos visto en el contexto de la crisis financiera de 2008 y la pandemia de COVID-19), generalmente a un gran costo financiero y con cicatrices sociales duraderas. Peor aún, con la IA, ni siquiera sabemos si una intervención ex post será suficiente. Como señaló recientemente The Economist, los propios desarrolladores de IA a menudo se sorprenden por el poder de sus creaciones.
Afortunadamente, ya sabemos cómo evitar otra crisis inducida por el laissez-faire. Necesitamos una misión de IA “ética por diseño” que esté respaldada por una regulación sólida y gobiernos capaces que trabajen para dar forma a esta revolución tecnológica en el interés común, en lugar de solo en el interés de los accionistas. Con estos pilares establecidos, el sector privado puede y se sumará al esfuerzo más amplio para hacer que las tecnologías sean más seguras y justas.
La supervisión pública efectiva debe garantizar que la digitalización y la IA creen oportunidades para la creación de valor público. Este principio es parte integral de la Recomendación sobre la ética de la IA de la UNESCO, un marco normativo que fue adoptado por 193 estados miembros en noviembre de 2021. Además, los actores clave ahora están asumiendo la responsabilidad de reformular el debate, con la administración del presidente de EE. UU. Joe Biden proponiendo un proyecto de ley de IA de Derechos y la Unión Europea desarrollando un marco holístico para gobernar la IA.
Aún así, también debemos mantener los propios usos de la IA por parte del sector público sobre una base ética sólida. Dado que la IA respalda cada vez más la toma de decisiones, es importante garantizar que los sistemas de IA no se utilicen de manera que subviertan la democracia o violen los derechos humanos.
También debemos abordar la falta de inversión en las propias capacidades innovadoras y de gobernanza del sector público. COVID-19 ha subrayado la necesidad de capacidades más dinámicas del sector público . Sin términos y condiciones sólidos que rijan las asociaciones público-privadas, por ejemplo, las empresas pueden capturar fácilmente la agenda.
Sin embargo, el problema es que el outsourcing de contratos públicos se ha convertido cada vez más en una barrera para desarrollar las capacidades del sector público. Los gobiernos deben poder desarrollar la IA de manera que no dependan del sector privado para los sistemas sensibles, de modo que puedan mantener el control sobre productos importantes y garantizar que se respeten los estándares éticos. Asimismo, deben poder admitir el intercambio de información, protocolos y métricas interoperables entre departamentos y ministerios. Todo esto requerirá inversiones públicas en capacidades gubernamentales, siguiendo un enfoque orientado a la misión.
Dado que tanto conocimiento y experiencia ahora se centran en el sector privado, las sinergias entre los sectores público y privado son inevitables y deseables. La orientación a la misión se trata de elegir a los dispuestos, invirtiendo conjuntamente con socios que reconozcan el potencial de las misiones dirigidas por el gobierno. La clave es dotar al estado de la capacidad de gestionar cómo se implementan y utilizan los sistemas de IA, en lugar de ponerse siempre al día. Para compartir los riesgos y las recompensas de la inversión pública, los formuladores de políticas pueden imponer condiciones al financiamiento público. También pueden, y deben, exigir a las grandes tecnológicas que sean más abiertas y transparentes .
El futuro de nuestras sociedades está en juego. No solo debemos solucionar los problemas y controlar los riesgos a la baja de la IA, sino también dar forma a la dirección de la transformación digital y la innovación tecnológica de manera más amplia. Al inicio de un nuevo año, no hay mejor momento para comenzar a sentar las bases de una innovación ilimitada en interés de todos.
Te puede interesar:
¿Será 2023 un año de crisis económica?
Diez lecciones del retorno de la historia