Los directores ejecutivos europeos deben hablar sobre la regulación de la IA
Desde la Revolución Industrial hasta el presente, los marcos regulatorios para tecnologías nuevas y en evolución se han beneficiado de aportes del mundo real. Sin embargo, en el caso de la IA, demasiadas empresas permanecen al margen, lo que aumenta el riesgo de que reglas mal diseñadas obstaculicen el progreso.
PARÍS – A medida que la inteligencia artificial transforma las economías y las sociedades, los líderes empresariales deben considerar cómo trabajarán con los responsables de las políticas para regular el desarrollo de la tecnología. En la Unión Europea, la Ley de IA recientemente aprobada exige que las empresas tomen medidas de precaución según los riesgos asociados con los diferentes casos de uso. Por lo tanto, el uso de la IA para realizar “puntuaciones sociales” se considera “inaceptable”, mientras que los filtros de correo electrónico mejorados con IA conllevan un “riesgo mínimo”.
El éxito de este enfoque dependerá de que las empresas aporten conocimientos técnicos y conocimientos prácticos para lograr un equilibrio entre promover la innovación y abordar las preocupaciones sociales. Dejar la regulación en manos de los responsables políticos y de unas pocas empresas poderosas corre el riesgo de crear normas que sólo sirvan a los intereses de las grandes tecnológicas y dejen de lado otras perspectivas del sector.
En el caso de la Ley de Inteligencia Artificial de la UE, la falta de participación de las empresas en el proceso de redacción ya ha dejado sin resolver detalles críticos de implementación. Por ejemplo, la ley podría interpretarse como una regulación de técnicas estadísticas convencionales como la regresión lineal, que se utiliza habitualmente en el sector financiero. De ser así, eso añadiría una carga de cumplimiento innecesaria. De manera similar, la ley es ambigua en cuanto a qué herramientas estándar en el desarrollo de medicamentos quedan dentro de su ámbito de aplicación; tal incertidumbre podría ralentizar el desarrollo y aumentar los costos en una industria ya muy regulada.
Estos problemas se pueden evitar si los directores ejecutivos de estos sectores se involucran más. Si bien el texto de la Ley de IA ya está finalizado, las cuestiones de interpretación, implementación y cumplimiento aún están evolucionando. La lista precisa de sistemas de IA de alto riesgo (la categoría más importante para sectores que van desde la atención médica hasta la banca) puede cambiar con el tiempo, en función de los comentarios de la industria.
Además, con la formulación de normas y marcos normativos en Estados Unidos y otros países, así como a través de colaboraciones internacionales, los líderes empresariales necesitan ampliar su alcance. Podrían hacer aportes valiosos a lo que rápidamente se está convirtiendo en un panorama regulatorio complejo y multijurisdiccional.
Históricamente, la colaboración público-privada ha sido clave para gestionar tecnologías transformadoras. Durante la pandemia de COVID-19, garantizó un equilibrio adecuado entre innovación y seguridad para acelerar el desarrollo de vacunas. De manera similar, la interacción temprana de la industria de la energía nuclear con los reguladores dio como resultado reglas para reactores modulares pequeños que redujeron costos, agilizaron la concesión de licencias y armonizaron estándares, lo que permitió a las empresas expandirse a nuevos mercados, atraer inversiones y mejorar su posición competitiva, lo que representa un cambio notable con respecto al panorama regulatorio tradicionalmente engorroso del sector.
En ambos casos, los marcos regulatorios se beneficiaron de las aportaciones del mundo real. Sin embargo, en el caso de la IA, demasiadas empresas permanecen al margen, lo que aumenta el riesgo de que las normas estén mal diseñadas y obstaculicen el progreso. Esta ausencia de participación empresarial no refleja una falta de oportunidades. Solo el 7% de los participantes corporativos invitados al proceso de redacción de su Código de prácticas de IA de uso general de la UE se presentaron, lo que dejó a las ONG y los académicos dominando los debates. Mientras tanto, una encuesta reciente de BCG encontró que el 72% de los ejecutivos dicen que sus organizaciones no están completamente preparadas para la regulación de la IA.
Si usted es un director ejecutivo, ¿qué debería hacer? Dado que la regulación y la implementación de la IA son principalmente procesos específicos de cada sector, un primer paso es alinearse con su industria para que todos hablen al unísono. Esa es la mejor manera de hacerse oír junto con los gigantes tecnológicos que gastan más de 100 millones de dólares al año en presionar a los responsables de las políticas en Bruselas (con Meta a la cabeza).
Pero la regulación de la IA no consiste únicamente en levantar barreras y fijar límites. Además de crear coaliciones industriales y acordar estándares comunes de IA, los directores ejecutivos deben contribuir a todo el conjunto de regulaciones digitales que puedan afectar a sus industrias.
Como parte de su estrategia digital más amplia, la Comisión Europea ha implementado otras cuatro leyes importantes e introducido el concepto de “espacios de datos”. Se supone que estos permiten que los datos fluyan de forma segura dentro de la UE y entre sectores, manteniendo al mismo tiempo el cumplimiento de las leyes de la UE. Ahora le corresponde a la industria construir estos canales (con financiación pública). Los directores ejecutivos que alineen sus estrategias corporativas con este régimen emergente estarán mejor posicionados para aprovechar las oportunidades específicas del sector.
Los ejecutivos también deberían identificar y establecer relaciones con los principales responsables de las políticas y otras partes interesadas influyentes en sus respectivos sectores y en todos los niveles de gobernanza. Entre ellos se incluyen la Junta Europea de Protección de Datos y los organismos reguladores nacionales de la IA en Europa, así como agencias como la Comisión Federal de Comercio y el Departamento de Justicia de los Estados Unidos. En cada caso, lo mejor es pensar a largo plazo y construir relaciones estables basadas en la experiencia y la confianza, no en intercambios transaccionales.
Para apoyar estos esfuerzos, los directores ejecutivos deberían contar con un equipo especializado dedicado exclusivamente a la interacción con las autoridades regulatorias. Rechazar simplemente las regulaciones propuestas no es una opción, por lo que definir compensaciones justas es fundamental. Los líderes corporativos deberían estar preparados para responder con alternativas claras y viables presentadas en el lenguaje de los responsables de las políticas, no en la jerga del sector. Por ejemplo, los bancos podrían proponer que las evaluaciones de solvencia crediticia queden exentas de la designación de alto riesgo de la Ley de IA, con el argumento de que estas evaluaciones logran un equilibrio adecuado entre innovación y rendición de cuentas, y podrían reducir los costos y hacer que la financiación sea más accesible para los consumidores.
La regulación de la IA no es un mero ejercicio de cumplimiento normativo. Los líderes del sector tienen la oportunidad de dar forma a las normas que afectan directamente a la innovación y las operaciones. Si no participan, las empresas corren el riesgo de permitir que las regulaciones evolucionen sin su participación, lo que daría lugar a marcos de trabajo desconectados de las realidades operativas. No queremos un entorno en el que los reguladores hayan reaccionado exageradamente a los riesgos teóricos a expensas del progreso práctico.
De la misma manera que la Revolución Industrial exigió nuevas reglas para gobernar las tecnologías transformadoras, los avances en IA exigen medidas de contención. Los líderes empresariales siempre han tenido contribuciones importantes que hacer en momentos como este, y este no es la excepción.
PARÍS – A medida que la inteligencia artificial transforma las economías y las sociedades, los líderes empresariales deben considerar cómo trabajarán con los responsables de las políticas para regular el desarrollo de la tecnología. En la Unión Europea, la Ley de IA recientemente aprobada exige que las empresas tomen medidas de precaución según los riesgos asociados con los diferentes casos de uso. Por lo tanto, el uso de la IA para realizar “puntuaciones sociales” se considera “inaceptable”, mientras que los filtros de correo electrónico mejorados con IA conllevan un “riesgo mínimo”.
El éxito de este enfoque dependerá de que las empresas aporten conocimientos técnicos y conocimientos prácticos para lograr un equilibrio entre promover la innovación y abordar las preocupaciones sociales. Dejar la regulación en manos de los responsables políticos y de unas pocas empresas poderosas corre el riesgo de crear normas que sólo sirvan a los intereses de las grandes tecnológicas y dejen de lado otras perspectivas del sector.
En el caso de la Ley de Inteligencia Artificial de la UE, la falta de participación de las empresas en el proceso de redacción ya ha dejado sin resolver detalles críticos de implementación. Por ejemplo, la ley podría interpretarse como una regulación de técnicas estadísticas convencionales como la regresión lineal, que se utiliza habitualmente en el sector financiero. De ser así, eso añadiría una carga de cumplimiento innecesaria. De manera similar, la ley es ambigua en cuanto a qué herramientas estándar en el desarrollo de medicamentos quedan dentro de su ámbito de aplicación; tal incertidumbre podría ralentizar el desarrollo y aumentar los costos en una industria ya muy regulada.
Estos problemas se pueden evitar si los directores ejecutivos de estos sectores se involucran más. Si bien el texto de la Ley de IA ya está finalizado, las cuestiones de interpretación, implementación y cumplimiento aún están evolucionando. La lista precisa de sistemas de IA de alto riesgo (la categoría más importante para sectores que van desde la atención médica hasta la banca) puede cambiar con el tiempo, en función de los comentarios de la industria.
Además, con la formulación de normas y marcos normativos en Estados Unidos y otros países, así como a través de colaboraciones internacionales, los líderes empresariales necesitan ampliar su alcance. Podrían hacer aportes valiosos a lo que rápidamente se está convirtiendo en un panorama regulatorio complejo y multijurisdiccional.
Históricamente, la colaboración público-privada ha sido clave para gestionar tecnologías transformadoras. Durante la pandemia de COVID-19, garantizó un equilibrio adecuado entre innovación y seguridad para acelerar el desarrollo de vacunas. De manera similar, la interacción temprana de la industria de la energía nuclear con los reguladores dio como resultado reglas para reactores modulares pequeños que redujeron costos, agilizaron la concesión de licencias y armonizaron estándares, lo que permitió a las empresas expandirse a nuevos mercados, atraer inversiones y mejorar su posición competitiva, lo que representa un cambio notable con respecto al panorama regulatorio tradicionalmente engorroso del sector.
En ambos casos, los marcos regulatorios se beneficiaron de las aportaciones del mundo real. Sin embargo, en el caso de la IA, demasiadas empresas permanecen al margen, lo que aumenta el riesgo de que las normas estén mal diseñadas y obstaculicen el progreso. Esta ausencia de participación empresarial no refleja una falta de oportunidades. Solo el 7% de los participantes corporativos invitados al proceso de redacción de su Código de prácticas de IA de uso general de la UE se presentaron, lo que dejó a las ONG y los académicos dominando los debates. Mientras tanto, una encuesta reciente de BCG encontró que el 72% de los ejecutivos dicen que sus organizaciones no están completamente preparadas para la regulación de la IA.
Si usted es un director ejecutivo, ¿qué debería hacer? Dado que la regulación y la implementación de la IA son principalmente procesos específicos de cada sector, un primer paso es alinearse con su industria para que todos hablen al unísono. Esa es la mejor manera de hacerse oír junto con los gigantes tecnológicos que gastan más de 100 millones de dólares al año en presionar a los responsables de las políticas en Bruselas (con Meta a la cabeza).
Pero la regulación de la IA no consiste únicamente en levantar barreras y fijar límites. Además de crear coaliciones industriales y acordar estándares comunes de IA, los directores ejecutivos deben contribuir a todo el conjunto de regulaciones digitales que puedan afectar a sus industrias.
Como parte de su estrategia digital más amplia, la Comisión Europea ha implementado otras cuatro leyes importantes e introducido el concepto de “espacios de datos”. Se supone que estos permiten que los datos fluyan de forma segura dentro de la UE y entre sectores, manteniendo al mismo tiempo el cumplimiento de las leyes de la UE. Ahora le corresponde a la industria construir estos canales (con financiación pública). Los directores ejecutivos que alineen sus estrategias corporativas con este régimen emergente estarán mejor posicionados para aprovechar las oportunidades específicas del sector.
Los ejecutivos también deberían identificar y establecer relaciones con los principales responsables de las políticas y otras partes interesadas influyentes en sus respectivos sectores y en todos los niveles de gobernanza. Entre ellos se incluyen la Junta Europea de Protección de Datos y los organismos reguladores nacionales de la IA en Europa, así como agencias como la Comisión Federal de Comercio y el Departamento de Justicia de los Estados Unidos. En cada caso, lo mejor es pensar a largo plazo y construir relaciones estables basadas en la experiencia y la confianza, no en intercambios transaccionales.
Para apoyar estos esfuerzos, los directores ejecutivos deberían contar con un equipo especializado dedicado exclusivamente a la interacción con las autoridades regulatorias. Rechazar simplemente las regulaciones propuestas no es una opción, por lo que definir compensaciones justas es fundamental. Los líderes corporativos deberían estar preparados para responder con alternativas claras y viables presentadas en el lenguaje de los responsables de las políticas, no en la jerga del sector. Por ejemplo, los bancos podrían proponer que las evaluaciones de solvencia crediticia queden exentas de la designación de alto riesgo de la Ley de IA, con el argumento de que estas evaluaciones logran un equilibrio adecuado entre innovación y rendición de cuentas, y podrían reducir los costos y hacer que la financiación sea más accesible para los consumidores.
La regulación de la IA no es un mero ejercicio de cumplimiento normativo. Los líderes del sector tienen la oportunidad de dar forma a las normas que afectan directamente a la innovación y las operaciones. Si no participan, las empresas corren el riesgo de permitir que las regulaciones evolucionen sin su participación, lo que daría lugar a marcos de trabajo desconectados de las realidades operativas. No queremos un entorno en el que los reguladores hayan reaccionado exageradamente a los riesgos teóricos a expensas del progreso práctico.
De la misma manera que la Revolución Industrial exigió nuevas reglas para gobernar las tecnologías transformadoras, los avances en IA exigen medidas de contención. Los líderes empresariales siempre han tenido contribuciones importantes que hacer en momentos como este, y este no es la excepción.