La disputa global por la regulación de la Inteligencia Artificial (IA) escala por estos días con un protagonista inesperado y a la vez excluyente: Meta. La compañía de Mark Zuckerberg anunció su decisión de no adherirse al nuevo código de buenas prácticas para desarrolladores de modelos de IA de propósito general (GPAI) propuesto por la Unión Europea, una postura que la diferencia de otros gigantes tecnológicos como Microsoft, OpenAI y Mistral AI, quienes sí expresaron su voluntad de colaborar.
La Inteligencia Artificial médica alcanza 80% de precisión, mucho más que los humanos
Esta negativa, comunicada por Joel Kaplan, jefe de asuntos globales de Meta, llega en un momento crucial, a pocas semanas de la entrada en vigor del AI Act, la ambiciosa normativa europea que busca establecer un marco legal para el desarrollo y uso de la IA en el continente. La jugada de Meta expone las crecientes tensiones entre Silicon Valley y Bruselas sobre cómo debería gestionarse el rápido avance de esta tecnología.
Meta justifica su postura argumentando que el marco voluntario de la Comisión Europea introduce "incertidumbres legales para los desarrolladores de modelos" y medidas que "van mucho más allá del alcance del AI Act". Según Kaplan, Europa está "tomando el rumbo equivocado en materia de inteligencia artificial", y advirtió que una regulación excesiva podría "asfixiar la innovación" y frenar el desarrollo de modelos avanzados en el continente.
Microsoft despidió a 9.000 trabajadorxs
El código de buenas prácticas, un documento voluntario publicado el 10 de julio, busca guiar a las empresas para que cumplan anticipadamente con el AI Act, reduciendo los riesgos asociados a los modelos de IA de propósito general. Entre sus exigencias se incluyen requisitos de transparencia sobre los datos de entrenamiento, obligaciones de documentación técnica, cumplimiento de leyes de copyright europeas –incluida la prohibición de entrenar modelos con contenido pirateado– y evaluaciones de riesgo para modelos que superen determinados umbrales de capacidad computacional.
En contraste con Meta, el presidente de Microsoft, Brad Smith, ha manifestado su disposición a firmar el código, valorando el diálogo directo con la nueva Oficina de Inteligencia Artificial de la UE. Esta disparidad de respuestas subraya una fractura creciente entre las grandes tecnológicas frente al enfoque regulatorio europeo: algunas, como OpenAI, Mistral y Microsoft, optan por la colaboración, mientras otras, como Meta, se muestran reticentes.
Adiós humanos: Amazon ya tiene más empleados robots que personas
El AI Act, cuya entrada en vigor gradual comenzará el 2 de agosto de 2025, regulará las aplicaciones de IA en función de su nivel de riesgo, prohibiendo prácticas de "riesgo inaceptable" y exigiendo requisitos estrictos para las de "alto riesgo". Los modelos considerados de riesgo sistémico –aquellos que superen los 1025 FLOPs– tendrán que cumplir exigencias aún mayores, como supervisión continua y protocolos de seguridad robustos.
El rechazo de Meta se suma a críticas previas sobre los posibles efectos de la sobrerregulación, argumentando que podría "ralentizar el desarrollo y despliegue de modelos de frontera en Europa" y afectar a las empresas locales. Las declaraciones de Kaplan, que en el pasado sugirieron buscar apoyo en la administración estadounidense, refuerzan la idea de una grieta transatlántica en la política tecnológica, donde Europa prioriza la precaución legal y Estados Unidos, la agilidad comercial.