El surgimiento de nuevas y poderosas herramientas como ChatGPT representa un gran avance en inteligencia artificial al tiempo que destaca la necesidad de una intervención regulatoria. Para proteger el interés público, los legisladores deben evitar que este mercado naciente sea dominado por un puñado de empresas privadas gigantes.
CAMBRIDGE–ChatGPT, el nuevo chatbot de inteligencia artificial desarrollado por el laboratorio de investigación OpenAI con sede en San Francisco, ha conquistado al mundo. Ya aclamada como un hito en la evolución de los llamados modelos de lenguaje extenso (LLM), la IA generativa más famosa del mundo plantea preguntas importantes sobre quién controla este mercado naciente y si estas poderosas tecnologías sirven al interés público.
El lanzamiento de OpenAI de ChatGPT en noviembre pasado se convirtió rápidamente en una sensación mundial, atrayendo a millones de usuarios y supuestamente acabando con el ensayo del estudiante. Puede responder preguntas en inglés conversacional (junto con algunos otros idiomas) y realizar otras tareas, como escribir código de computadora.
Lee también: ¿Qué es y para qué sirve Chat GPT?
Las respuestas que proporciona ChatGPT son fluidas y convincentes. Sin embargo, a pesar de su facilidad para el lenguaje, a veces puede cometer errores o generar falsedades fácticas, un fenómeno conocido entre los investigadores de IA como “alucinación”. El miedo a las referencias fabricadas ha llevado recientemente a varias revistas científicas a prohibir o restringir el uso de ChatGPT y herramientas similares en artículos académicos.
Pero si bien el chatbot puede tener problemas con la verificación de hechos, aparentemente es menos propenso a cometer errores cuando se trata de programación y puede escribir fácilmente un código eficiente y elegante.
A pesar de todos sus defectos, ChatGPT obviamente representa un gran avance tecnológico, razón por la cual Microsoft anunció recientemente una “inversión multianual y multimillonaria” en OpenAI, que supuestamente asciende a 10 mil millones de dólares, además de los mil millones de dólares que ya había comprometido con la empresa.
Originalmente una organización sin fines de lucro, OpenAI ahora es una corporación con fines de lucro valorada en 29 mil millones de dólares. Si bien se comprometió a limitar sus ganancias, su estructura flexible limita los rendimientos de los inversores al 10 mil por ciento.
ChatGPT funciona con un GPT-3, un poderoso LLM entrenado en grandes cantidades de texto para generar respuestas que suenan naturales y similares a las humanas. Si bien actualmente es la IA generativa más famosa del mundo, otras grandes empresas tecnológicas como Google y Meta han estado desarrollando sus propias versiones. Si bien aún no está claro cómo se monetizarán estos chatbots, se informa que próximamente se lanzará una versión paga de ChatGPT, con OpenAI proyectando mil millones de dólares en ingresos para 2024.
Sin duda, los malos actores podrían abusar de estas herramientas para varios esquemas ilícitos, como estafas en línea sofisticadas o escribir malware. Pero las posibles aplicaciones de la tecnología, desde la codificación hasta el descubrimiento de proteínas, ofrecen motivos para el optimismo. McKinsey, por ejemplo, estima que entre el 50 y el 60 por ciento de las empresas ya han incorporado herramientas impulsadas por IA, como chatbots, en sus operaciones. Al ampliar el uso de LLM, las empresas podrían mejorar la eficiencia y la productividad.
Pero la potencia informática masiva, inmensamente costosa y en rápido aumento necesaria para entrenar y mantener las herramientas generativas de IA representa una barrera de entrada sustancial que podría conducir a la concentración del mercado. El potencial de monopolización, junto con el riesgo de abuso, subraya la necesidad urgente de que los responsables políticos consideren las implicaciones de este avance tecnológico.
Afortunadamente, las autoridades de competencia en los Estados Unidos y en otros lugares parecen ser conscientes de estos riesgos. El regulador de comunicaciones del Reino Unido, Ofcom, inició una investigación del mercado de la computación en la nube, en el que se basan todos los grandes modelos de IA, a fines del año pasado, mientras que la Comisión Federal de Comercio de Eestados Unidos está investigando actualmente Amazon Web Services (AWS), que, junto con Google y Microsoft Azure, domina el mercado. Estas investigaciones podrían tener implicaciones de gran alcance para los servicios impulsados por IA, que dependen de enormes economías de escala.
Pero no está claro qué deberían hacer los formuladores de políticas, si es que deben hacer algo. Por un lado, si los reguladores no hacen nada, el mercado de IA generativa podría terminar dominado por una o dos empresas, como todos los mercados digitales anteriores. Por otro lado, la aparición de LLM de código abierto, como la herramienta de texto a imagen Stable Diffusion, podría garantizar que el mercado siga siendo competitivo sin más intervención.
Sin embargo, incluso si los modelos con fines de lucro se vuelven dominantes, los competidores de código abierto podrían reducir su cuota de mercado, tal como Firefox de Mozilla hizo con el navegador Chrome de Google y Android con el sistema operativo móvil de Apple, iOS. Por otra parte, los gigantes de la computación en la nube como AWS y Microsoft Azure también podrían aprovechar los productos de IA generativa para aumentar su poder de mercado.
Como se debatió en la reciente reunión del Foro Económico Mundial en Davos, la IA generativa es demasiado poderosa y potencialmente transformadora para dejar su destino en manos de unas pocas empresas dominantes. Pero si bien existe una clara demanda de intervención regulatoria, el ritmo acelerado del avance tecnológico deja a los gobiernos en una gran desventaja.
Lee también: Inteligencia artificial para el bien común
Para garantizar que el interés público esté representado en la frontera tecnológica, el mundo necesita una alternativa pública a los LLM con fines de lucro. Los gobiernos democráticos podrían formar un organismo multilateral que desarrollaría medios para prevenir la falsificación, el troleo y otros daños en línea, como un CERN para IA generativa. Alternativamente, podrían establecer un competidor financiado con fondos públicos con un modelo comercial diferente, e incentivos para fomentar la competencia entre los dos modelos.
Cualquiera que sea el camino que elijan los formuladores de políticas globales, mantenerse firme no es una opción. Está muy claro que dejar que el mercado decida cómo se utilizan estas poderosas tecnologías y por quién es una propuesta muy arriesgada.