Muy buenos días. ¿Algún comentario sobre el orden del día? No habiendo objeciones, queda aprobado. A continuación, pasamos a las decisiones de los coordinadores, que se han remitido por correo electrónico a todos los miembros.
No vale la pena repetirlas. La reunión de hoy, como es habitual, se retransmite por internet y cuenta con interpretación a 21 idiomas. El primer punto de fondo que tenemos hoy es la presentación del estudio sobre la interacción entre el Reglamento de Inteligencia Artificial y el marco legislativo de la UE en el ámbito digital, a cargo del departamento temático. Quiero agradecer la presencia de los señores Hans Graux, de Timelex, con sede en Bruselas, y de Martin Botterman, fundador de GNKS Consult. Les daremos la palabra para que nos presenten este estudio. Disponemos de aproximadamente media hora para este punto.
Tras la exposición de los autores, intervendrán los coordinadores de los distintos grupos políticos; a continuación, los autores responderán, habrá un turno de intervenciones espontáneas y una nueva ronda de respuestas. Quienes deseen intervenir, por favor, levanten los carteles con sus nombres para elaborar la lista de oradores. Señores Graux y Botterman, disponen de cinco minutos cada uno o diez minutos entre ambos. Muchas gracias.
Buenos días. Gracias por darnos la posibilidad de presentarles este estudio, que hemos estado elaborando a lo largo de los dos últimos meses. Es un momento idóneo para hacerlo, especialmente tras la presentación ayer de las propuestas Omnibus, una relativa a la IA y otra al marco normativo digital: dos cauces distintos. Nuestro estudio se ha elaborado de manera independiente respecto de esa propuesta Omnibus digital, si bien nos complace constatar que muchas de sus recomendaciones encajan plenamente con los hallazgos de nuestro trabajo.
Para quienes no hayan podido leer el estudio con detenimiento antes de esta sesión, recordamos que su objetivo era determinar la interrelación entre la legislación sobre inteligencia artificial y un amplio conjunto de normas aplicables al entorno digital. En él se abordan, entre otras, disposiciones relativas a derechos fundamentales, datos y seguridad de la información. Analizamos dónde se producen solapamientos, dónde existen lagunas que deberían abordarse y, en definitiva, si el panorama normativo es coherente, eficaz y eficiente, y si necesita ser tan complejo como es. Como saben, cuando hoy se habla del ecosistema digital, se habla también de simplificar y racionalizar un acervo que ha ido ganando complejidad con el tiempo.
Por razones de tiempo, no entraremos en cada uno de estos elementos por separado, pero agradecemos la oportunidad de profundizar en este asunto. La propia complejidad del tema ha hecho que el informe sea algo más extenso de lo previsto inicialmente. Con su permiso, comenzamos la presentación.
Permítanme abordar los elementos transversales de nuestro estudio. Tras haber examinado cada aspecto individualmente —y aportaremos ejemplos más adelante—, hemos extraído las siguientes conclusiones. La pila de normas que debe analizarse cuando se ofrecen o se utilizan productos de inteligencia artificial es considerable. ¿Cómo afecta esta acumulación normativa? Supongo que a nadie le sorprenderá que digamos que cada uno de esos actos legislativos tiene coherencia interna y funciona bien de manera aislada, pero, cuando hay que cumplir simultáneamente con normas con filosofías subyacentes distintas y enfoques diferentes para abordar problemas similares, las empresas se enfrentan a una tarea ingente, casi imposible de cumplir en su conjunto.
Cada acto legislativo es valioso por sí mismo, pero no deja de ser una pieza de un puzle. Si se ponen todas sobre la mesa e intentamos hacerlas encajar, comprobaremos lo difícil que resulta. Incluso para quienes nos pasamos el día evaluando estas normas, nos cuesta encontrar un encaje lógico de todo ello; imagínense para las pymes que tratan de entender qué se les exige en el entorno digital. Por eso, la propuesta Ómnibus nos parece positiva, porque da prioridad a la accesibilidad, la coherencia y la inteligibilidad.
En el caso concreto de la IA sucede lo mismo. Cualquiera de las normas que figuran en la Ley de Inteligencia Artificial es adecuada por sí misma; no cuestionamos su validez. Sin embargo, al abordar ámbitos como la legislación sobre productos, los derechos fundamentales, el diseño de productos, la innovación o la seguridad, si se pretende dar prioridad absoluta a todos estos objetivos a la vez, la aplicación práctica se complica en extremo. Veamos algunos ejemplos, pero para ello cedo la palabra a mi colega.
Gracias, buenos días. Como decía Hans, la Unión Europea se ha dotado de herramientas muy poderosas —el RGPD, la normativa antidiscriminación, normas sectoriales, etcétera—. Pero la inteligencia artificial, por su propia naturaleza, genera cuestiones como la trazabilidad plena y la responsabilidad individual que requieren aclaraciones específicas; ahí suelen colarse lagunas y aspectos normativos poco precisos.
Conviene examinar el Reglamento General de Protección de Datos porque la protección de la intimidad es un derecho fundamental que a veces se confunde con un derecho absoluto. El RGPD aclara que la protección de los datos personales no es un derecho absoluto: debe interpretarse en función de su papel en la sociedad y reequilibrarse con otros derechos fundamentales para mantener la proporcionalidad. Hay distintas maneras de entender esto, sobre todo al abordar la IA, porque la protección de la intimidad influye en cómo se interpretan y utilizan los datos. Es una de las dificultades a las que nos enfrentamos.
Si uno examina el marco del RGPD y lo coteja con la Ley de Inteligencia Artificial, verá que a las empresas se les exige realizar una evaluación de impacto de la IA y, además, una evaluación de impacto relativa a la protección de datos. En la práctica, las empresas soportan dos evaluaciones de impacto por separado y deben atender a organismos distintos, y no se ha previsto un acercamiento entre ambas normativas.
Tenemos un problema: ¿en qué medida los derechos son oponibles y ejecutables? Sobre todo cuando los datos personales se incorporan a sistemas de IA, resulta sumamente difícil hacer un seguimiento de cómo se utilizan y evolucionan. No existe un vacío jurídico, pero sí un enorme problema de aplicación, porque esos datos se tratan y procesan de formas a veces imprevisibles. Los derechos existen sobre el papel, pero aplicarlos en la práctica es muy difícil.
Conviene reiterar que no estamos contraponiendo la inteligencia artificial a la legislación de protección de datos; la interconexión entre ambos regímenes es mucho más amplia. En nuestro estudio examinamos de forma independiente nueve legislaciones para entender su filosofía subyacente y, en cada caso, identificar tensiones y complejidades en las que la interacción tampoco queda clara en los propios textos.
Por ejemplo, si comparamos el ámbito de aplicación de la Ley de IA con el de la Ley de Datos, que aborda los derechos de acceso y otros derechos sobre los datos, vemos que, aunque los datos son fundamentales para la IA, el problema va más allá: los sistemas de IA se sustentan en una pila tecnológica muy compleja de datos y software, y la Ley de Datos solo alcanza a una proporción muy pequeña. Si comparamos la Ley de IA con la Ley de Ciberresiliencia (CRA), la primera se centra en sistemas de alto riesgo y la segunda en productos con elementos digitales; surgen cuestiones muy complejas cuando se trata de productos con elementos digitales, y más aún cuando el producto es híbrido e incluye componentes de IA de alto riesgo junto con otros que no lo son. Además, la IA de propósito general queda excluida de ese ámbito.
¿Cuáles son, entonces, nuestras recomendaciones en el contexto de este estudio? Contemplamos medidas a corto, medio y largo plazo. A corto y medio plazo, proponemos enmendar de manera muy específica algunas normas vigentes. La propuesta Omnibus nos parece muy positiva, aunque no se ajusta plenamente a nuestras recomendaciones; al menos en parte contribuye a resolver algunos problemas. Hay, por tanto, una interacción entre lo que proponemos y lo que figura en el Omnibus. También formulamos recomendaciones a más largo plazo.
Nuestra última observación es que la normativa que regula el mundo digital avanza a pasos acelerados. Proponemos crear un marco común de reglas que permita aprovechar las interacciones entre los distintos instrumentos, reconociendo los valores compartidos sobre los que se ha construido cada uno. Por ejemplo, una declaración de derechos y principios digitales debería ser el punto de partida común. Trabajo desde 1995 en el desarrollo de la sociedad digital y esa declaración refleja adecuadamente la evolución legislativa; podría utilizarse mejor para fijar una visión común de futuro. Cabe recordar, en particular, el Libro Blanco sobre la IA publicado hace dos años, que ofrecía una brillante perspectiva de futuro y enumeraba muchas cuestiones ya incorporadas y otras aún no abordadas en la Ley de Inteligencia Artificial.
Debemos mantener presente el objetivo a largo plazo, avanzar paso a paso para no perder la orientación, pero empezar ya y, sobre todo, hacerlo bien. Gracias. Vamos a dar la...
A continuación, intervendrán los representantes de los grupos políticos, empezando por el PPE. Tiene la palabra Eva Maydell. Dos minutos para cada intervención, por favor.
Muchas gracias a los autores del estudio. Yo misma pedí la elaboración de este estudio en su momento. Me alegro de que los coordinadores hayan dado el visto bueno, porque me parece fundamental entender en qué medida todas las normas, que son más de quince en total y que hemos ido aprobando en los últimos años para configurar este entorno digital, encajan unas con otras. El estudio nos ofrece una imagen muy detallada. Nos dice que cada norma, en sí misma, es sólida y coherente, pero que en su conjunto resultan difíciles de entender. Me alegra que asesores y expertos independientes confirmen este análisis.
Por ello, llevo cinco o seis años insistiendo en que tenemos que hacer una reflexión muy de fondo sobre la legislación que promulgamos y cómo encajan —o no— unas normas con otras. Debemos tomarnos muy en serio los resultados de este estudio, sobre todo a la luz del futuro ómnibus. Quisiera recalcar algunos puntos clave que constan en el estudio: en primer lugar, nuestro ecosistema tiene que ser polifacético, de modo que la FRA, el GDPR, la CEA, etcétera, encajen mejor, porque, de lo contrario, pueden acabar frenando la competitividad. En segundo lugar, estamos añadiendo capas y sobrecapas: hay que tener en cuenta la adaptabilidad de los sistemas. En tercer lugar, persisten solapamientos con el GDPR que no se han resuelto, especialmente en el tratamiento de datos personales. En cuarto lugar, las obligaciones de ciberseguridad y esa acumulación de requisitos con NIS2 están generando informes por duplicado. Esos son, a mi juicio, los cuatro puntos más importantes que extrae el estudio.
Tengo también preguntas. Los autores dicen que, en el anexo 3 de la Ley de IA, cuando se abordan las clasificaciones, se recogen elementos subjetivos. ¿Cuáles son las categorías de ese anexo 3 que generan desajustes entre los perfiles reales de riesgo actuales y las obligaciones normativas? Si hubiera que replantear el anexo 3 sobre la base de la evidencia acumulada, ¿qué cambios estructurales propondrían ustedes? ¿Cuáles serían los más eficaces? Segunda pregunta, mucho más concisa: más allá de la Ley de IA, ¿qué pieza de la legislación digital genera más fricciones sistemáticas en su interacción con el resto del sistema? Y, si tuvieran que proponer un mecanismo transversal de simplificación aplicable a todas las normas futuras, ¿cuál sería?
Por favor, aténganse a los dos minutos que les hemos dado. Damos la bienvenida a un grupo de visitantes: dos profesores y nueve estudiantes del Instituto Erburg de Francia, que es un centro privado concertado con el Estado francés. Bueno, de hecho, no están aquí todavía; llegarán más tarde, pero han sido invitados por la señora Knafo. Les damos la bienvenida.
Tiene la palabra Matthias Ecke, por el S&D.
Gracias. Gracias a los dos autores del estudio. Siempre decimos que llegan a tiempo, pero esta vez es realmente oportuno, sobre todo por la propuesta que nos llegó ayer. Para mí hay un principio que debe estar claro: Europa tiene que preservar los derechos digitales de sus ciudadanos. Nos centramos mucho en nuestros derechos, pero, claro, las empresas tienen que ser capaces de respetar las normas. Esas normas tienen que...
Seamos sensatos. No creo que haya que optar entre la competitividad y la protección de la intimidad de las personas; ambas son perfectamente compatibles. Lo que sí debemos hacer es crear un entorno digital que proteja los derechos de los ciudadanos y, al mismo tiempo, promueva la innovación. No debemos dar a las grandes empresas tecnológicas libertad sin restricciones para recopilar y explotar aún más nuestra información personal.
Dicho esto, nuestro marco jurídico tiene que garantizar que ambos principios puedan funcionar de manera simultánea, y su estudio demuestra que no siempre es posible. Pero antes de tirar por la borda nuestros principios, debemos adaptar la legislación de forma inteligente para seguir avanzando. Acabar con los solapamientos puede contribuir a mejorar la seguridad jurídica, pero tampoco empecemos a poner en tela de juicio normas que ni siquiera han entrado plenamente en vigor. La Ley de IA todavía no ha entrado en vigor. Entonces, a corto plazo, ¿qué recomendarían ustedes? ¿En qué tendríamos que centrarnos en esa propuesta ómnibus digital? ¿Cuáles serían las cuestiones más urgentes? A más largo plazo, me parece interesante que haya hablado de una Declaración de Derechos Digitales, que, a mi juicio, debería ser nuestro principio fundamental. Menciona también problemas de soberanía y transferencia de datos. ¿Cómo podríamos plasmar esas preocupaciones de soberanía en un marco legislativo?
Bárbara Bonte, por los Patriotas. Gracias, señor presidente. Intervendré en alemán. Muchísimas gracias a ambos por la presentación de este interesantísimo estudio, que, además, confirma algo que venimos señalando desde hace tiempo: la Unión Europea se está quedando al margen en relación con la inteligencia artificial. Se están creando reglas adicionales que cargan especialmente sobre pymes y startups. ¿Qué debemos hacer? Para empezar, realizar evaluaciones de riesgo exhaustivas sobre las implicaciones de las normativas, detectar conflictos o sesgos y, asimismo, identificar los solapamientos con las reglas ya en vigor. Así despejaríamos gran parte de la incertidumbre. El marco actual no estimula la innovación; la penaliza. Nuestras empresas tendrán que dedicar mucho tiempo y recursos muy valiosos a estas obligaciones.
Propongo tres pasos claros: armonización y simplificación; protección de datos; y evaluaciones de impacto. Combinando estos esfuerzos, podremos clarificar quién hace qué, evitar una burocracia excesiva, asegurar la coordinación y establecer mandatos claros. Hay que replantearse de nuevo las normas y la arquitectura digitales. Colegas, si seguimos por este camino, nos quedaremos a la zaga y luego será imposible recuperar terreno. Muchas gracias.
De Renew Europe, no veo a Michael McNamara. ¿Algún otro orador de Renew Europe desea intervenir? Muchas gracias por esta presentación. Tengo un par de preguntas en relación con la simplificación de la reglamentación y su efectividad, en particular sobre el estudio relativo al RGPD y a los derechos fundamentales en el ámbito de la IA.
Los estudios de impacto se solapan en gran medida y habría que combinarlos. Creo que no se ha hecho. ¿Hasta dónde llega la simplificación y dónde empieza la desregulación? ¿Cómo se justifican, en particular, respecto a la actualización de los requisitos de evaluación de riesgos en interés público? Si se prevé una opción de exclusión para el público, ¿cómo se garantiza que no se ignore y que los usuarios estén debidamente informados?
Sergey Lagodinsky, del Grupo de Los Verdes/Alianza Libre Europea:
Gracias, señor presidente. Muchas gracias por este estudio enriquecedor e interesante. Quisiera subrayar tres puntos.
Primero, se afirma que hay solapamiento entre la evaluación de impacto en la protección de datos y la evaluación de impacto en los derechos fundamentales en el marco de la IA. No comparto plenamente esa conclusión. Negocié el Reglamento de IA y, en él, la protección de datos se aborda como un derecho fundamental concreto; esa es la diferencia. En el caso del tratamiento de datos personales, el ámbito se limita principalmente a autoridades y entidades que prestan servicios públicos. ¿Dónde ven entonces la carga adicional? Hay que despejar las lagunas.
Segundo, sobre las incoherencias, coincido en que existen. Desde este punto de vista, ¿cómo valoran la propuesta de crear una Agencia de Ejecución Digital? ¿Les parece adecuada? ¿Cómo la diseñarían para su encaje con la DSA y la Ley de Inteligencia Artificial? ¿Sería posible realizar evaluaciones de riesgos de forma simultánea?
Tercero, la Comisión está revisando si determinados sistemas de inteligencia artificial podrían encajar en la definición de motores de búsqueda en línea de muy gran tamaño en el sentido de la DSA. Al establecer estas relaciones, es crucial ser precisos. Hemos visto incluso casos de suicidio tras interactuar con sistemas de IA en la búsqueda de información. ¿Consideran que esto queda cubierto por la DSA? ¿Cómo podría la Comisión iniciar el procedimiento correspondiente?
El Presidente:
No habiendo más intervenciones de los coordinadores, pasamos a las intervenciones espontáneas. En primer lugar, Elena Sancho Murillo.
Elena Sancho Murillo:
Gracias por la presentación de este estudio sobre la interacción entre el Reglamento de IA y el marco legislativo digital. Su análisis muestra que el solapamiento de obligaciones entre la evaluación de impacto en derechos fundamentales y la evaluación de impacto relativa a la protección de datos con arreglo al RGPD crea incertidumbre jurídica y una carga desafortunada para las pymes, además de plantear riesgos para los derechos fundamentales de la ciudadanía.
Tengo dos preguntas. Primero, sobre la propuesta Omnibus: ¿qué influencia tiene en la protección de datos para las pymes? La propuesta introduce una evaluación de impacto que podría reducir la rendición de cuentas en casos de interferencia con datos personales y fragmenta la gobernanza. ¿Consideran que la Omnibus complica aún más la coordinación entre la Oficina de IA, las autoridades de protección de datos y las autoridades competentes? ¿Qué impacto puede tener en la protección de los ciudadanos y de su información?
Segundo, la simplificación es positiva, pero no puede hacerse a costa de la seguridad jurídica, los derechos fundamentales o el cumplimiento de la ley.
El Presidente:
Tiene un minuto, Bruno Gonçalves.
Gracias por su trabajo y por el estudio. Me parece que hay un equilibrio muy delicado entre lo que debemos proteger —nuestros estándares de protección de datos— y permitir el florecimiento de la inteligencia artificial en Europa. Existe una superposición de distintos reglamentos y esta es una de las cuestiones a las que hay que hincar el diente. ¿Cree usted que podría reducirse mejorando la cooperación entre los supervisores o proporcionando mayor certidumbre en la interpretación jurídica? Esto se incluyó en la presentación de ayer del paquete Ómnibus. Dicha cooperación entre supervisores ya es posible bajo el marco actual y nos preguntamos si puede lograrse con medidas no legislativas aplicables por la Comisión o si es preciso modificar las disposiciones relativas a la Oficina de IA para conseguirlo.
Además, habría que mejorar la facilidad de cumplimiento. El procedimiento de “parar el reloj” es necesario para garantizar la correcta aplicación de todas las disposiciones. Nuestros invitados, el señor Grau y el señor Boterman, tienen de nuevo la palabra: seis minutos entre ambos para sus respuestas y comentarios finales.
Vamos a intentar responder al mayor número posible de cuestiones, muchas de ellas relacionadas con las posibilidades de simplificación, su alcance y si ello podría derivar en desregulación. Uno de los retos es que el reglamento es, por definición, bastante estático. No podemos quedarnos atrapados en retos prácticos u obstáculos operativos que afrontan las empresas. Hay elementos subjetivos en el Anexo III en relación con los casos de uso: qué podría quedar fuera o retirarse. Resulta extraño que estos casos se detallen exhaustivamente en la legislación. Es el tipo de tarea en la que una autoridad reguladora, como la Oficina de IA, podría desempeñar un papel mucho más dinámico, desarrollando los pormenores y matices de cada caso y determinando si implica alto riesgo o no. Hoy hay muchos debates con proveedores de IA que intentan justificar que sus sistemas no encajan en el Anexo III, que no constituyen alto riesgo o que ni siquiera son sistemas de IA. Esto es inevitable, pero creemos que podría avanzarse más legislando menos y confiando más, otorgando mayor poder y autoridad a un organismo regulador.
Me detendré en dos preguntas más y luego Martín tomará el relevo. Cuando analizamos la interacción entre los estudios de impacto en protección de datos y los de derechos fundamentales, algunos intervinientes tienen razón al señalar que la protección de datos es solo uno de los derechos fundamentales. No podemos decir “abandonemos esto y todo irá bien”. Los juristas que acompañan a las empresas en el desarrollo de la IA abordan estas cuestiones de forma coordinada, y es muy difícil separar ambos estudios de impacto. Aquí es donde el regulador podría intervenir: la Oficina de IA podría trabajar con el SEPD o el CEPD para elaborar una plantilla de estudio de impacto que proporcione una herramienta más estandarizada, de modo que los desarrolladores de sistemas de IA tengan una ventanilla única y una guía clara sobre lo que quiere la Unión Europea. Si transmitimos la idea de que basta con marcar casillas para que el mercado interior quede abierto a los negocios, estaríamos enviando un mensaje equivocado.
Si nos fijamos en el código de prácticas que la Oficina de IA ha publicado a nivel europeo, llama la atención la rapidez con que se ha elaborado; da la impresión de que algún proveedor de sistemas de IA les ha asistido. Si esto pudiera ampliarse a otros ámbitos —protección de datos, derechos fundamentales, seguridad de la información o soberanía digital—, podría ser una vía útil.
Gracias por las preguntas planteadas. Indican que se comprende el fondo de estos temas. Lo primero que hay que entender es que todo el debate sobre los derechos fundamentales y la privacidad cambia de color si nos situamos en una era de la inteligencia artificial en la que datos antes no accesibles ahora están a disposición. Hay que tenerlo presente.
Son dos estudios diferentes que no se centran exactamente en lo mismo, de acuerdo; pero ¿no sería preferible coordinarlo a nivel europeo para que los Estados miembros tengan que dirigirse a un único órgano y no obtengan respuestas divergentes? Esto permitiría avanzar de manera más decidida. Este es uno de los motivos por los que la coordinación entre estos dos organismos supervisores es crucial, y además podríamos explorar otras formas de funcionamiento. Todo esto no se puede hacer de la noche a la mañana; hay que desarrollarlo paso a paso.
Quisiera subrayar algo que ya ha surgido en algunas intervenciones: no podemos dejar de adoptar actos legislativos; la tecnología avanza rápido y la legislación debe estar a la altura y mantener el paso. ¿Cómo aseguramos, al menos, la coherencia? Por eso abogamos por poner más énfasis en una declaración europea de principios que sirva de punto de partida. Este punto de partida puede evolucionar, pero necesitamos saber hacia dónde vamos y mantenerlo en mente. Así, la legislación que ahora está sobre la mesa y la que se apruebe en el futuro estará sujeta a un cierto grado de coherencia y encaje, y podrá mirar hacia el futuro. Esto permitirá crear en Europa un entorno propicio a la innovación y a la capacidad innovadora.
Muchas gracias a todos los oradores por sus intervenciones y, en especial, a nuestros invitados que nos acompañan hoy. Muchísimas gracias.
Pasamos a la sesión de votación. Comenzamos con la modificación del Reglamento (UE) 2021/1173 del Consejo, por el que se instituye la Empresa Común Europea de Informática de Alto Rendimiento, y por el que se deroga el Reglamento (UE) 2018/1488.
Procedemos a votar el texto de compromiso en su conjunto. ¿A favor? ¿En contra? ¿Abstenciones? Adoptado.
Pasamos al voto final, por votación nominal. Se abre la votación. Se cierra la votación. Aprobado.
El mini-omnibus de defensa. Una única votación nominal. Se abre la votación. Se cierra la votación. Queda aprobado. Muchas gracias.
El siguiente punto es el titulado “Respuesta a los efectos negativos derivados del exceso de capacidad mundial en el mercado siderúrgico de la Unión”. Contamos con unos 45 minutos para el debate y la ponente es Sofie Eriksson, del S&D. Nos presentará las enmiendas transaccionales y, a continuación, invitaré a intervenir a los oradores, incluidos los ponentes en la sombra. Señora Eriksson, dispone de cuatro minutos para su presentación.
Muchísimas gracias, presidente. Ante todo, quiero dar las gracias a los ponentes en la sombra por la excelente cooperación en este expediente. También quisiera decir que acojo muy favorablemente esta propuesta, puesto que atiende a un problema urgente y el Parlamento lleva pidiendo acción en esta materia desde hace mucho tiempo.
Sin embargo, estoy decepcionada con cómo la Comisión ha gestionado este proceso. En la propuesta se afirma que existe tal urgencia que no ha sido posible realizar una evaluación de impacto completa. No obstante, esta urgencia se relaciona con medidas que expiran en junio de 2026. Es decir, se conoce desde hace siete años este horizonte temporal para un problema que, según la propia Comisión, viene de hace diez años. Sabemos que el exceso de capacidad, especialmente en China, existe desde hace mucho tiempo. Entonces, ¿por qué no se ha tramitado mediante el procedimiento legislativo ordinario?
Teniendo en cuenta todo ello, resulta inaceptable disponer de solo un mes para recabar pruebas, máxime cuando hay que consultar tanto a los sectores aguas arriba como aguas abajo. Es evidente que, cuando es necesario, el Parlamento Europeo debe actuar con urgencia, y este es uno de esos casos.
Dicho esto, las prioridades que hemos debatido en este expediente son las siguientes. En primer lugar, aumentar la flexibilidad. La Comisión propone revisar el alcance de los productos con una periodicidad bienal, y queremos acortar ese plazo. Estamos examinando que la primera revisión se realice en un plazo de seis meses. He visto que distintos grupos han presentado enmiendas en este sentido; esperemos que este sea un mensaje claro que traslade esta comisión parlamentaria. Como en otras salvaguardias, la necesidad de flexibilidad es crucial, porque, de lo contrario, se producirán desplazamientos entre categorías de productos en el mercado cuando se ajusten los contingentes.
En segundo lugar, la inclusión de los slabs chinos. Son productos cubiertos por el régimen, pero actualmente están sujetos a una derogación hasta 2028. Originalmente, su entrada en vigor estaba prevista para 2024, pero se ha ampliado la excepción.