El reciente aumento de la legislación de la Unión Europea para regular la inteligencia artificial (IA) es un testimonio de la creciente importancia de la IA en nuestra vida cotidiana y en la economía mundial. Leyes como la Ley de Mercados Digitales, la Ley de Servicios Digitales, la Ley de Datos y la Ley de IA, entre otras, reflejan la intención de la UE de proteger a los consumidores, fomentar la competencia y garantizar un desarrollo responsable de la IA.
Sin embargo, aunque los esfuerzos reguladores son bienintencionados, cada vez preocupa más que la mano dura europea pueda ahogar la innovación, debilitar la competitividad y llevar a algunas empresas a replantearse sus operaciones en la región.
En este artículo sostengo que el entorno normativo de la UE, especialmente en el ámbito de la IA, debe moverse con cautela entre el fomento de un mercado competitivo y el exceso de regulación. La UE corre el riesgo de perder su posición en el panorama tecnológico mundial si sigue imponiendo obstáculos normativos onerosos al desarrollo de la IA, en particular para las pequeñas y medianas empresas (PYME).
Implicación temprana de los reguladores de la competencia: ¿una precaución necesaria?
Uno de los aspectos más sorprendentes del actual impulso regulador en la UE es la pronta implicación de los reguladores de la competencia en el espacio de la IA. Históricamente, los reguladores han sido más lentos en actuar cuando se trata de nuevas tecnologías, a menudo esperando a que surjan problemas antes de aplicar medidas estrictas.
Sin embargo, la pronta publicación de la Declaración Conjunta sobre Competencia en Modelos Fundamentales de IA Generativa y Productos de IA, firmada por organismos reguladores clave como la Comisión Europea, la Autoridad de Competencia y Mercados (CMA) del Reino Unido y la Comisión Federal de Comercio (FTC) de EE.UU., señala un enfoque proactivo para prevenir los desequilibrios del mercado en el desarrollo de la IA.
La declaración destaca tres riesgos fundamentales: la concentración del control sobre la infraestructura crítica de la IA (como los chips, los datos y la potencia de cálculo), el dominio del mercado por parte de las grandes empresas digitales y la posibilidad de que se produzcan comportamientos colusorios entre los principales agentes. Estos riesgos son reales, sobre todo en un mercado tan incipiente y cambiante como el de la IA, en el que un puñado de actores podría establecer monopolios tempranos difíciles de desmantelar más adelante.
Sin embargo, cabe preguntarse si esta intervención temprana de los reguladores de la competencia podría ser en sí misma contraproducente. Al actuar antes de que las tecnologías de IA hayan madurado plenamente, los reguladores pueden limitar inadvertidamente la innovación y disuadir la inversión en el sector. Las grandes empresas tecnológicas podrían sentirse excesivamente vigiladas, mientras que los innovadores más pequeños podrían verse ahogados por el temor a una reacción reguladora antes incluso de haber tenido la oportunidad de establecerse.
El impacto de la sobrerregulación en la competitividad de la tecnología europea
La preocupación por el impacto de la regulación en la competitividad tecnológica global de Europa no es nada nuevo, pero en el contexto de la IA ha adquirido una urgencia renovada. El Informe Draghi sobre el futuro de la competitividad europea, publicado en septiembre de 2024, destacaba cómo el exceso de regulación es un obstáculo importante para las empresas europeas, en particular las pymes, que ya tienen dificultades para competir en el mercado tecnológico mundial.
El informe señala que la predilección de la UE por el principio de precaución ha creado un entorno legislativo en el que las empresas deben navegar por una maraña de normativas diseñadas para adelantarse a posibles riesgos.
Aunque en teoría esto podría funcionar para proteger a los consumidores y los mercados, en la práctica puede tener el efecto contrario: ahogar la innovación, ralentizar el despliegue de nuevas tecnologías y añadir costes significativos para el cumplimiento de la normativa, especialmente para los agentes más pequeños. Cuando se añaden normativas sobre IA como la Ley de IA a las más de 100 leyes centradas en la tecnología y a los 270 reguladores ya activos en Europa, queda claro que las barreras normativas son algo más que un inconveniente: son una importante desventaja competitiva.
El requisito de la Ley de IA de que los modelos de IA de propósito general que superen un determinado umbral computacional cumplan requisitos normativos adicionales es un buen ejemplo de ello. Aunque el objetivo es garantizar que los potentes modelos de IA se supervisen cuidadosamente, el impacto práctico es dificultar que las empresas más pequeñas escalen y compitan con gigantes establecidos que pueden absorber más fácilmente los costes del cumplimiento.
IA, innovación y extralimitación normativa
La IA ha sido aclamada como una de las tecnologías más transformadoras de nuestro tiempo, con aplicaciones en sectores que van desde la sanidad a las finanzas, pasando por la logística. Sin embargo, a medida que la UE se apresura a regular su desarrollo y despliegue, el riesgo de extralimitación normativa es cada vez mayor.
Algunas empresas ya han interrumpido o retrasado el despliegue de herramientas de IA en Europa, por temor a incumplir la Ley de Mercados Digitales y otras normativas. El problema no es sólo la cuantía de las multas por incumplimiento, sino también la dificultad de navegar por las complejas y a veces contradictorias normativas que existen en los distintos sectores y jurisdicciones. Al tratar de regular el funcionamiento interno de las tecnologías de IA, la UE corre el riesgo de crear un entorno en el que las empresas prefieran aplazar la innovación antes que arriesgarse a incumplir estas intrincadas leyes.
Un motivo de especial preocupación es el impulso de la UE a la interoperabilidad entre sistemas de mensajería, tal y como exige la Ley de Mercados Digitales. Aunque el objetivo es crear un mercado más abierto y competitivo, obligar a las empresas a abrir sus plataformas a aplicaciones de terceros plantea importantes riesgos para la privacidad y la seguridad. Muchos de los llamados "guardianes" -las grandes empresas tecnológicas con plataformas dominantes- han argumentado que estos requisitos podrían exponer sus sistemas a pirateos, violaciones de datos y otras vulnerabilidades de seguridad.
Sin embargo, los reguladores han restado importancia a estas preocupaciones, considerándolas más bien intentos de proteger prácticas contrarias a la competencia. Este vaivén entre reguladores y empresas tecnológicas ilustra la dificultad de equilibrar transparencia y seguridad en la era de la IA.
Los costes de detener la innovación
Existe un peligro real de que el exceso de regulación de la IA en Europa pueda llevarla a quedarse rezagada en la carrera mundial por la supremacía de la IA. Algunas empresas multinacionales ya están ralentizando o deteniendo la formación de sus modelos de IA en Europa por temor a incumplimientos. Esto podría dejar a los consumidores y las empresas europeas sin acceso a las últimas herramientas y tecnologías basadas en la IA, mientras que otras regiones, como Estados Unidos y Asia, siguen avanzando con menos restricciones.
El Informe Draghi señalaba el "exceso de concentración" de la regulación tecnológica en Europa como una de las principales razones por las que muchas empresas tecnológicas europeas tienen dificultades para crecer y competir a escala mundial. Para una tecnología tan revolucionaria como la IA, el riesgo es aún mayor. A medida que Europa impone más restricciones al desarrollo y despliegue de la IA, otras regiones podrían adelantarse, asegurándose el talento, la inversión y la infraestructura necesarios para liderar esta nueva frontera tecnológica.
En mi opinión, el deseo de la UE de regular la IA es comprensible, pero el ritmo y la intensidad de la regulación deben considerarse cuidadosamente. Si Europa quiere seguir siendo competitiva en el mercado mundial de la IA, no puede permitirse cargar a sus empresas con una burocracia excesiva. Un enfoque más flexible e iterativo de la regulación de la IA, que permita la innovación sin dejar de proteger a los consumidores, sería mucho más eficaz que el enfoque de mano dura que estamos viendo hoy en día.
Conclusiones: Encontrar el equilibrio adecuado
El reto de regular la IA es inmenso, y la UE hace bien en tomar la iniciativa a la hora de abordar los riesgos potenciales que plantea esta tecnología transformadora. Sin embargo, Europa debe encontrar el equilibrio adecuado entre la protección de los consumidores y el fomento de la innovación. Una regulación excesiva puede ahogar la propia tecnología que pretende gestionar, expulsar a las empresas de Europa y dejar a los consumidores en peor situación a largo plazo.
En lugar de imponer restricciones generales y onerosas cargas de cumplimiento, la UE debería adoptar un enfoque más flexible y basado en el riesgo para la regulación de la IA. Centrándose en áreas en las que se puede mitigar el daño real -como la transparencia, la seguridad y la parcialidad- y dejando margen para la innovación y el crecimiento, Europa puede mantenerse a la vanguardia del desarrollo de la IA sin perder su ventaja competitiva.
Si la UE no logra este equilibrio, corre el riesgo no sólo de perder su liderazgo en IA, sino también de alienar a las propias empresas que están impulsando esta revolución tecnológica. Las consecuencias de tal fracaso se dejarían sentir no solo en Europa, sino en toda la economía mundial.