Las plataformas online se quejan de no poder lanzar productos en la UE debido a las estrictas normas.
En las últimas semanas, ejecutivos tanto de Meta como de Google han declarado que la normativa de la Unión Europea (UE) ha dificultado el lanzamiento de sus herramientas de inteligencia artificial (IA) en el mercado europeo. El año pasado, TikTok y X se enfrentaron al mismo problema, debido a los requisitos de la Ley de Servicios Digitales (DSA), la Ley de IA y el Reglamento General de Protección de Datos (GDPR). Sin embargo, grupos de la sociedad civil afirman a 'Euronews' que los consumidores europeos no se están perdiendo nada, y que las empresas deben rendir cuentas.
La 'AI Overview' con la IA de Google es la última herramienta que se ha puesto en marcha en solo ocho de los 27 Estados de la UE, pero aún no está claro si se lanzará en los 19 países restantes del bloque. Un directivo del gigante tecnológico ha declarado que la UE está empezando a quedarse sin innovación y que los s podrían no ver determinados productos nuevos debido a la carga normativa.
Las descripciones generales de IA (que aparecerán en los resultados de búsqueda de Google cuando sus sistemas determinen que las respuestas generativas pueden ser útiles para los s) se pusieron en marcha en la UE nueve meses después de su lanzamiento en EE.UU. y otras jurisdicciones.
Del mismo modo, la función de chat con IA de MetaAI no llegó a la UE hasta abril, mientras que en EE.UU. se introdujo en septiembre de 2023, seguida de India en junio de 2024 y en el Reino Unido en octubre. El lanzamiento previsto de Meta en Europa "se demoró más de lo previsto" debido a las preguntas del regulador irlandés sobre el uso por parte de la empresa de datos personales de s adultos de Facebook e Instagram con fines de formación. La empresa afirma que "sigue navegando por su complejo sistema regulador", pero celebró "haber llegado por fin".
Adaptarse al marco normativo, y no al revés
¿Se lo están perdiendo realmente los s? No, según Sébastien Pant, responsable adjunto de comunicación de la organización europea de consumidores BEUC. Según declaró a 'Euronews', los consumidores de la UE esperan que las herramientas de inteligencia artificial que utilizan sean seguras y respeten sus derechos.
"Si algunas empresas no pueden garantizar que sus productos de inteligencia artificial respetan la ley, los consumidores no se están perdiendo nada; se trata simplemente de productos que aún no pueden comercializarse con seguridad en la UE", dijo Pant. "No corresponde a la legislación plegarse a las nuevas funciones que lanzan las empresas tecnológicas. Son las empresas las que deben asegurarse de que las nuevas funciones, productos o tecnologías cumplen la legislación vigente antes de llegar al mercado de la UE", añadió.
Una encuesta realizada el año pasado por Euroconsumers, organización que representa a los ciudadanos de Bélgica, España, Portugal e Italia, muestra que uno de cada tres encuestados estaba muy preocupado por el gran desarrollo de la IA. "Para asegurarnos de que los consumidores europeos no se vean privados de la innovación en IA y de que nuestro marco no se convierta en una barrera, sino en un facilitador, necesitamos que nuestras autoridades y responsables políticos también proporcionen orientaciones claras al respecto, a las empresas de IA grandes y pequeñas", señaló Euroconsumers en un comunicado.
Varias investigaciones en marcha
No solo la tecnología estadounidense está bloqueada en la UE: La aplicación china de inteligencia artificial Deepseek fue prohibida en varios países de la UE por utilizar datos personales de ciudadanos para entrenar sus modelos, algo prohibido por el GDPR.
Grok, de X, que compite con GPT, de OpenAI, y Gemini, de Google, se enfrentó a un destino similar cuando la Comisión de Protección de Datos irlandesa (DPC) inició un procedimiento judicial contra la plataforma de redes sociales por violar los derechos de privacidad. La plataforma cambió discretamente la configuración de sus datos para optar automáticamente por el entrenamiento de su nuevo modelo de IA.
La empresa propiedad de Elon Musk se comprometió entonces a poner fin al procesamiento de datos, tras lo cual pasó a estar disponible en la UE. La abogada especializada en protección de datos Kleanthi Sardeli, que trabaja para el grupo de defensa de la privacidad NOYB, dijo que las herramientas emergentes de IA llevaban tiempo en su radar, y recordó que el máximo tribunal de la UE, con sede en Luxemburgo, ha sido claro en sus sentencias: los datos personales no deben tratarse para publicidad personalizada.
"Esto se debe a que el no espera que sus datos personales se utilicen para el entrenamiento de IA cuando interactúa con la aplicación de Facebook. Sin embargo, eso es exactamente lo que está ocurriendo con estas herramientas, dejando en un segundo plano la protección de los datos personales de los s", dijo Sardeli. "El derecho a la protección de datos es un derecho humano fundamental y debe tenerse en cuenta a la hora de diseñar y desplegar herramientas de IA", añadió.
La Comisión Europea ha abierto varias investigaciones en el marco de la DSA por el cumplimiento de las normas por parte de las plataformas, pero ninguna de ellas ha concluido todavía. Mientras tanto, las empresas tecnológicas estadounidenses se han puesto del lado de la istración del presidente Donald Trump, alegando que las normas de la UE son un ataque a las empresas estadounidenses. El vicepresidente de EE.UU., J.D. Vance, calificó como "excesiva" la regulación de la UE durante su asistencia a la Cumbre de Acción sobre IA celebrada en París en febrero.