Buenas tardes. Si les parece, abrimos la sesión para tramitar el orden del día que sus señorías conocen, concretamente para celebrar, en primer lugar, la comparecencia para informar en relación con el proyecto de ley por el que se modifican diversas disposiciones legales para la mejora de la gobernanza democrática en servicios digitales y la ordenación de los medios de comunicación. Comparece doña Cani Fernández Vicién, presidenta de la Comisión Nacional de los Mercados y la Competencia, que tiene un tiempo solicitado aproximado de veinte minutos para exponernos el objeto de la convocatoria. Cuando quiera, señora.
Presidente, señorías. Comparezco ante esta Comisión de Economía, Comercio y Transformación Digital para informar, tal y como se me ha solicitado, sobre el proyecto de ley que modifica diversas disposiciones legales para la mejora de la gobernanza democrática en servicios digitales y la ordenación de los medios de comunicación. Como saben, el proyecto de ley fue aprobado por el Consejo de Ministros el 29 de julio de 2025 y remitido al Congreso de los Diputados, donde se encuentra actualmente en tramitación.
La Comisión Nacional de los Mercados y la Competencia, la CNMC, ya evacuó el informe sobre este proyecto normativo el 2 de julio de 2025, a solicitud del ministerio, y hemos cumplido con nuestros trámites de opinión. Pero estoy encantada de poder comparecer ante ustedes hoy para abundar en su contenido.
El proyecto de ley tiene por objeto adaptar al ordenamiento jurídico español dos normas europeas: el Reglamento relativo a un mercado único de servicios digitales, aprobado en 2022, conocido como Digital Services Act o DSA, y el Reglamento por el que se establece un marco común europeo para los medios de comunicación, el European Media Freedom Act, EMFA. En relación con la DSA, el proyecto propone, en esencia, la modificación de la Ley de Servicios de la Sociedad de la Información, mientras que el EMFA supone sobre todo la modificación de la Ley General de Comunicación Audiovisual. Por supuesto, el proyecto de ley propone en ambos casos la modificación de la ley de creación de la CNMC, por un lado para atribuirnos legalmente las funciones y responsabilidades derivadas de la aplicación de estas normas europeas y, por otro, para adaptar la estructura orgánica de la CNMC y organizar su aplicación efectiva. En este sentido, el proyecto de ley prevé la creación de dos nuevas direcciones en el seno de la CNMC: una dirección para la supervisión de los servicios digitales y otra dirección para los medios de comunicación.
Por el contexto de esta comparecencia, y porque solo dispongo de veinte minutos, me centraré en la parte relativa a la DSA y a los cambios que esta normativa europea exige incorporar en nuestra propia normativa. No obstante, quedo a su disposición en el turno de preguntas para cualquier cuestión que puedan precisar en relación con las previsiones que el proyecto de ley contempla respecto del EMFA. Incluso pongo a disposición de sus señorías la posible comparecencia del miembro del Consejo de la CNMC, Carlos Aguilar, que en estos momentos ocupa precisamente la presidencia del European Board for Media Services creado por el EMFA, presidencia que la CNMC ostenta durante este primer año.
La DSA es una norma de carácter transversal, pionera en el ámbito europeo, que pretende regular y someter a supervisión, por primera vez, a los prestadores de servicios intermediarios digitales, muy especialmente a las plataformas. Su objetivo es crear un entorno en línea seguro, predecible y digno de confianza en el que los ciudadanos puedan ejercer sus derechos fundamentales, en particular la libertad de expresión y de información, la libertad de empresa, el derecho a la no discriminación, así como un consumo en línea seguro.
Conviene recordar, además, que la CNMC ya es la autoridad competente en España para aplicar el Reglamento sobre mercados disputables y equitativos en el sector digital, la Digital Markets Act o DMA, que viene a completar la supervisión que desde la CNMC se puede realizar de estos mercados digitales, tanto desde la perspectiva del destinatario del servicio —más propia de la DSA— como desde la óptica de la competencia y la contestabilidad de los mercados —propias de la DMA y de las normas de defensa de la competencia—.
El Reglamento DSA se sustenta en un sistema de protección de derechos en línea articulado en torno a una gran red de vigilancia y actuación, en la que las competencias se reparten entre la Comisión Europea y los Estados miembros para garantizar...
Una aplicación coordinada y coherente, como si fuera una malla de contención tejida entre la Comisión Europea y las autoridades designadas en cada uno de los Estados miembros, que se llaman coordinadores de servicios digitales o DSCs por sus siglas en inglés. Para que esta malla de contención funcione sin fisuras, todos los Estados deben tener las competencias atribuidas para poder aplicar la DSA. Cuando uno de los Estados no las tiene, la red pierde eficacia, se generan desequilibrios y efectos negativos que comprometen tanto la aplicación uniforme del marco regulatorio como la confianza en el propio sistema.
Voy a trasladar de qué forma la DSA, y el proyecto de ley que la incorpora, puede marcar en este contexto un antes y un después. Hasta ahora, el principio imperante en el mundo digital era el de exención de responsabilidad de los prestadores de servicios intermediarios por los contenidos alojados o transmitidos por ellos, fueran plataformas, servicios de hosting o cualquier otro tipo de intermediario de servicios digitales. Es decir, los prestadores no están obligados a monitorizar la información que transmiten o almacenan y, en principio, no son responsables de ese contenido. Esta ha sido la postura regulatoria en relación con los servicios de la sociedad de la información.
El Reglamento de Servicios Digitales viene a condicionar este principio al cumplimiento de obligaciones esenciales por parte de los prestadores de estos servicios. En primer lugar, les impone obligaciones de diligencia debida con el fin de prevenir o mitigar ataques a nuestros derechos en línea, o permitir una rápida reacción para reparar un eventual atentado a esos derechos. La primera de estas obligaciones, la más básica, es la de establecerse o designar un representante legal en un Estado miembro de la Unión Europea al que se puedan dirigir las autoridades competentes del país de establecimiento sobre cualquier cuestión relacionada con las obligaciones y responsabilidades de la DSA. Ese representante legal debe actuar en todo momento como punto de contacto. Esta obligación, tan simple pero tan lógica, es trascendental, porque ya no será posible que un ciudadano europeo quede desamparado por el mero hecho de que el prestador de un servicio digital no pueda ser contactado en ningún país de la Unión Europea. El no designar un representante legal en el espacio europeo es, por sí mismo, una infracción sancionable.
Haré un somero repaso de las obligaciones que impone la DSA a los prestadores de servicios en el entorno digital para entender su valor añadido en la creación del entorno digital seguro al que me refería. Un primer grupo de obligaciones aborda el problema del contenido ilícito difundido en la red, ya se trate de productos ilegales, productos falsificados, contenido que constituya delitos de odio, abuso sexual infantil o cualquier otro que sea considerado ilícito en la normativa nacional o comunitaria. Y quiero recalcar que la DSA no especifica qué es contenido ilegal: es la normativa aplicable en cada Estado miembro la que lo determina. Lo que hace la DSA es ofrecer herramientas para impedir la circulación de todo lo que se considere ilícito según esa normativa, para ponerle freno cuanto antes e ir reduciendo su difusión.
Entre estas obligaciones están, por ejemplo, las de que las plataformas ofrezcan, dentro del servicio —sea una red social, un buscador o un marketplace—, un sistema ágil, fácil y directo para reportar la existencia de contenido ilegal. Si estamos realizando una compra en línea y observamos que se venden medicamentos sujetos a receta, se trata de una venta ilegal. Debemos poder reportarlo de forma sencilla en la propia plataforma. Además, la plataforma no solo debe crear y mantener ese sistema de notificación, sino gestionar las notificaciones de forma diligente, objetiva y no arbitraria, e informar a la persona que reporta sobre el curso dado a su aviso. Si, por ejemplo, una persona identifica en un marketplace ventas de productos falsificados, con la DSA debe poder notificarlo de manera simple para que la plataforma retire esos productos, y la plataforma debe informarle si efectivamente han sido retirados.
La DSA establece que los prestadores mantienen la exención de responsabilidad, lo cual es muy importante, siempre que cumplan con estas obligaciones de diligencia debida y con el resto de requisitos del propio Reglamento.
O información sobre los comerciantes que operan en sus plataformas, en el caso de los marketplaces, por ejemplo.
Otras obligaciones fundamentales son las establecidas de forma muy específica para las plataformas y motores de búsqueda de muy gran tamaño. Aquí sí que estamos pensando en Alphabet, en Meta, en fin, TikTok, Google, los que todos conocemos. No solo las plataformas, sino también los servicios que prestan, que son objeto específico de la DSA. Estas plataformas, que denominamos por sus siglas en inglés VLOP y VLOSEs (Very Large Online Platforms y Very Large Online Search Engines), son aquellas que, por número de usuarios en la Unión Europea, superan los 45 millones de usuarios de promedio. Como se considera que pueden entrañar riesgos de mucho mayor alcance y repercusión para la sociedad en su conjunto, aquí están incluidas, entre otras, Meta (con servicios como Facebook o Instagram), Google (con servicios como Google Play, Google Maps, Google Shopping y YouTube), el App Store de Apple, AliExpress, Amazon, prácticamente todas las designadas de pornografía (como Pornhub o Stripchat), así como Booking, Shein, LinkedIn, Bing, TikTok, Zalando o Wikipedia.
A todas esas plataformas de muy gran tamaño se les exige llevar a cabo una labor de detección, análisis y evaluación de riesgos sistémicos, porque, al entender que el impacto que pueden tener es tan grande, los riesgos que puedan derivar, por ejemplo, de un algoritmo programado de forma sesgada pasan a ser de naturaleza sistémica. Los riesgos pueden derivarse tanto del diseño como del funcionamiento de la plataforma; por ejemplo, si un uso determinado nos lleva a una multiplicación de chatbots que hace que un contenido sea viralizado de forma automática: cómo se está utilizando, cómo se está usando esa plataforma.
Además de realizar ese análisis para detectar los posibles riesgos sistémicos, tienen que aplicar medidas de mitigación de esos riesgos. Esto es crucial para abordar problemas tan complejos como la difusión de material de abuso sexual infantil, el discurso de odio, la desinformación, los riesgos específicos para los menores por el uso de las plataformas, pero también los riesgos para la salud mental de las personas o para la privacidad de sus datos. Y aquí el reglamento incorpora un mecanismo muy novedoso para hacer todavía más efectivas estas obligaciones: la obligación de los prestadores de gran tamaño de dar acceso a determinados investigadores certificados a los datos o a los sistemas necesarios para que estos investigadores puedan acometer sus análisis e investigaciones relacionados con los riesgos sistémicos. Se otorga así al mundo académico una palanca para poder acceder a las entrañas de las plataformas y contribuir al análisis de cómo estos agentes impactan a nuestras sociedades en ámbitos tan delicados, verificando, por ejemplo, que sus algoritmos no están sesgados.
Con un marco normativo tan potente, la siguiente pregunta es cómo se van a supervisar y hacer cumplir todas estas obligaciones. Y aquí es donde entra en juego la CNMC. La institución que presido fue designada en enero de 2024 como Coordinador de Servicios Digitales en España, como requiere el reglamento, el DSC del que hablaba al principio. Pero, como ustedes saben, no estamos habilitados legalmente para actuar y, por tanto, no podemos ejercer la mayor parte de nuestras funciones, especialmente aquellas que afectan a los prestadores de servicios establecidos en España; y ahí podemos hablar de Glovo, Idealista, Milanuncios… En fin, hay un montón de plataformas que están establecidas en España. Tampoco podemos certificar a nuestros posibles alertadores fiables, a los órganos de resolución extrajudicial o a nuestros académicos. Esta situación obviamente cambiaría si se aprobase el proyecto para el que me requieren hoy.
La DSA establece una serie de funciones, obligaciones y facultades para los DSC, para los Coordinadores de Servicios Digitales. Voy a destacar algunas de ellas que no estamos pudiendo ejercer por falta de habilitación. Estamos llamados a cumplir un papel de coordinación, tanto entre las autoridades internacionales —todos los DSC de los demás Estados miembros y la Comisión— como, sobre todo, con las nacionales, las competentes para prevenir o reparar esos atentados a nuestros derechos online de los que hablaba, a fin de conseguir que esa prevención o reparación sea más ágil, más inmediata y efectiva. Así, dependiendo del tipo de ilícito identificado en la plataforma, reforzaríamos la labor de la autoridad correspondiente: si se trata de un problema de consumo, las autoridades de consumo; o de supervisión del sector financiero, en los casos de fraude financiero; o de supervisión de aduanas, de inspección de productos, venta de medicamentos, lucha contra las falsificaciones, protección de los derechos de propiedad industrial e intelectual y, por supuesto, la autoridad fiscal.
Gracias, señor presidente. Estamos en contacto con la Fiscalía y con las Fuerzas y Cuerpos de Seguridad del Estado para todo tipo de delitos: abuso infantil, tráfico de drogas, estafas. La DSA es una norma horizontal que afecta a múltiples ámbitos en la medida en que regula a prestadores que actúan e interactúan en toda nuestra vida, pero en el entorno digital. Y la CNMC debe funcionar como un engranaje que ponga en contacto a todos esos supervisores de cada una de esas obligaciones y mecanismos, para poder actuar de forma rápida.
Podemos coordinar, y de hecho lo estamos haciendo en estos momentos. Estamos en contacto con muchas de estas autoridades, pero no estamos respaldados por un procedimiento sancionador que eventualmente vamos a necesitar, porque el cumplimiento de todas estas plataformas, como todos sabemos, no se hace de forma voluntaria. Además, esta falta de habilitación nos impide tener personal 100% dedicado a la DSA; para una coordinación ágil y eficaz es preciso contar con personal específicamente dedicado. Con lo cual, imaginen lo que podríamos hacer si, además de lo que ya estamos haciendo —esto es, reasignar personal desde otras áreas para atender la DSA—, pudiéramos investigar y formar parte de los equipos inspectores que en estos momentos estén analizando a cada una de estas plataformas. En definitiva, tengo muchos más ejemplos de cosas que se están haciendo en otras jurisdicciones que sí están habilitadas para la DSA. Si les interesa, en el turno de palabra les puedo contar qué es lo que nuestros colegas en esas jurisdicciones están pudiendo hacer y nosotros no.
Con esto cierro. Simplemente quería indicarles, una vez más, que España está perdiendo una oportunidad de formar parte de esta malla de protección en el mundo online y que, además, con todos los contenidos y las lenguas que utilizamos en España —y una de ellas, como el español, tan potente, con los contenidos que nos vienen también de Iberoamérica—, se está perdiendo esa supervisión precisamente por no estar habilitados. Muchas gracias, señorías.
Muchas gracias, señora Fernández.
A continuación, tienen un turno de intervención los distintos grupos. Habíamos fijado cinco minutos, pero han pedido que sea un poco más amplio, así que lo situamos en torno a seis y, como mucho, hasta siete minutos en esta primera intervención. Creo que no están en la sala representantes ni del Grupo Mixto, ni del Grupo Vasco, ni del Grupo Euskal Herria Bildu, ni de Junts per Catalunya ni del Grupo Republicano. Con lo cual, tiene la palabra, en representación del Grupo Parlamentario Plurinacional Sumar, la señora Andala.
Gracias, presidente. Buenas tardes, señorías. Presidenta de la CNMC, en primer lugar quería agradecerle su presencia hoy aquí, porque es importante la participación de la CNMC como organismo coordinador de esa futura norma que ojalá consigamos aprobar pronto. Como usted ha señalado, es urgente regular todo el espacio digital, que forma parte de nuestra vida y de nuestro día a día.
Usted ha sido bastante clara. Nuestro grupo parlamentario, en su momento, cuando se designó a la CNMC, tenía ciertas dudas sobre que asumiera más competencias de las que ya gestiona. Pero hoy me queda claro que, como organismo coordinador, puede delegar y coordinarse con otras instituciones.
Quisiera preguntarle algunas cuestiones que quizá no me han quedado del todo claras. ¿Cómo van a poder, en un hipotético caso, detectar el contenido ilegal? Me preocupa que, si se externaliza la supervisión, ustedes pierdan esa capacidad. Sé que, con presupuesto y recursos adecuados, se podrá, pero ¿cómo plantean ese modelo? ¿Van a ser servicios fuera de la CNMC u organismos delegados los que realicen esa detección de contenido ilegal?
Y, en relación con las herramientas de notificación, el reporting requiere mucho trabajo y, sobre todo, operatividad. ¿Piensan crear herramientas propias para esa detección? Creo que es importante que la detección del contenido ilegal resida en lo público y no quede a merced de voluntades privadas. Como sabemos, hay plataformas que están dejando la verificación en manos de usuarios sin garantías, y no debemos reproducir ese patrón ni delegarlo en empresas privadas que puedan tener sus propios intereses en esa supervisión. Ahí debemos poner el foco: no delegar en manos privadas y mantener una supervisión pública robusta.
Desde luego, nuestro grupo estará atento en esa parte.
Por otro lado, ha hecho también énfasis en la supervisión de algoritmos de estas plataformas. A nosotras nos preocupa siempre: ¿cómo va a ser de efectiva la norma para supervisar plataformas con sede en el extranjero? ¿Cómo está siendo? Porque, como bien sabe usted, se han impuesto multas a estas plataformas. ¿Están de verdad respondiendo? ¿Estamos pudiendo actuar desde la Unión Europea? Se lo pregunto desde el desconocimiento: ¿están cumpliendo? ¿El régimen sancionador de la Unión Europea está funcionando? Cuando escuchamos en los medios que se ha impuesto una multa de mil millones a Twitter porque no se sabe cómo está priorizando el contenido, ¿eso es factible y efectivo? ¿Cómo está siendo esa interlocución? O, en su caso, ¿cómo va a ser? Es verdad que estamos hablando de una norma que aún no está plenamente en vigor, así que le planteo escenarios futuros. Pero, ¿cómo va a ser esa supervisión en el seno de la Unión Europea?
De hecho, me gustaría saber por su parte cuáles son esos pilotos que ya están funcionando y que puedan ser modelos para nosotras, y que nos inspiren para que esta norma salga adelante, ojalá por consenso, cada grupo con su punto de vista.
Y, por último, me gustaría saber cómo va a ser su coordinación con la Agencia de Supervisión de Algoritmos de Inteligencia Artificial. ¿Cómo va a ser esa coordinación? Entiendo que la agencia va a supervisar algoritmos en el marco del IA Act, de la normativa de inteligencia artificial de la Unión Europea, y van a ir muy de la mano. De hecho, la propia inteligencia artificial podría servir como supervisora del contenido ilegal al que me refería en el primer punto. Comprendo que hablamos de un futurible y que probablemente necesiten que todo esto se ponga en marcha para concretarlo, pero sí es importante saber cómo va a ser esa coordinación y cómo va a ser la entrada de la academia para supervisar esos algoritmos. Esas empresas no publican su código como open source y, si hacen una apertura de su código al público, suele ser para que las comunidades de desarrolladores amplíen su propio proyecto, que es de propiedad de empresa. ¿Cómo vamos a encajar a la academia en la supervisión de esos algoritmos? Tenemos una gran preocupación en plataformas inmobiliarias y, en general, en todas las plataformas que utilizan algoritmos: ahora mismo el mayor escollo no es la regulación, sino cómo están alimentando sus propios algoritmos. No sé cómo lo están afrontando otros países, si usted lo sabe. No quiero consumir más tiempo, y creo que usted ha sido bastante clara. Gracias, presidenta.
Gracias, señora Andala. Por el Grupo Parlamentario VOX, tiene la palabra el señor Sáez.
Gracias, señor presidente, y gracias también a la señora Fernández por su comparecencia en esta comisión. La CNMC se convierte en pieza clave para la gobernanza democrática en servicios digitales y medios de comunicación en España. Señora Fernández, usted sabe de la importancia de que existan reguladores independientes para que los mercados sean competitivos.
Se lo dijimos en anteriores comparecencias y ahora lo repetimos: nos preocupa la colonización de las instituciones y organismos públicos por parte del Partido Socialista. Nos preocupa porque el Partido Socialista ha demostrado que su único interés es reforzar el control sobre las empresas del sector. Nos preocupa porque no existe ningún interés por parte del Partido Socialista en preservar el buen funcionamiento del mercado en interés de consumidores y usuarios. Nos preocupa porque el Partido Socialista no entiende lo que significa el principio de certidumbre jurídica, que es el que garantiza que atraigamos inversiones. Nos preocupa porque, sin certidumbre jurídica, la inversión buscará otros lugares y la economía y el empleo del país se verán afectados. Nos preocupa el ataque a la independencia del Poder Judicial que se está llevando a cabo por parte de este Gobierno, un ataque claro a la certidumbre jurídica. Nos preocupa porque lo que quiere realizar el Gobierno es un plan de control de los medios al más puro estilo totalitario. Nos preocupa que el Gobierno pretenda utilizar a la CNMC para dar una apariencia de independencia a un control que pretende ejercer sobre todos los medios.
Señora Fernández, nos preocupa la independencia de un organismo en el que se han nombrado consejeros que no consideramos independientes, y así lo hicimos notar en la comparecencia de los partidos políticos que apoyaron sus candidaturas. Nos preocupa que la CNMC reciba presiones que impidan garantizar, preservar y promover el correcto funcionamiento en todos los mercados y sectores productivos, la transparencia y la competencia efectiva. Nos preocupa, porque lo que vemos, también a nivel internacional, es que España ha retrocedido diez posiciones en el año 2024 en el índice de percepción de la corrupción, elaborado por Transparencia Internacional. Nos preocupa que este Gobierno utilice el paraguas de la CNMC para imponer su ideología. Nos preocupa porque, para el Partido Socialista y sus socios, la independencia de las instituciones es una amenaza a su forma de gobierno y a su concepto de democracia. En estos momentos, señora Fernández, es cuando se debe demostrar independencia, y esperamos sinceramente que la CNMC lo demuestre. Y termino con unas palabras suyas: es la certidumbre jurídica lo que va a garantizar que tengamos las inversiones necesarias; y también, que los mercados fuertes y trabajando en plena competencia son el mejor instrumento en el medio y largo plazo, y el papel de los reguladores es clave. Muchas gracias.
Muchas gracias. Por el Grupo Parlamentario Socialista, tiene la palabra el señor Rojo.
Muchas gracias, señor presidente. Señorías, muy buenas tardes. Desde luego, he de agradecer a la señora Fernández su intervención, una intervención detallada y rigurosa, aportando muchísimos datos y, además, algo que consideramos importante: en este mundo digital, donde a veces se utilizan tecnicismos, hay que explicar muy bien lo que nos estamos jugando con el desarrollo de este proyecto de ley. Es decir, la ciudadanía tiene que entender lo que tenemos entre manos, porque eso es lo que nos debe preocupar, más allá de otras consideraciones que ahora hacía el señor Sáez, poco pertinentes respecto a la seguridad jurídica de los ciudadanos en un ámbito global como es el mundo digital. Eso es lo que realmente nos debe ocupar.
En mi intervención voy a poner en valor y reflejar algunos aspectos que considero importantes para que la gente entienda la importancia de este proyecto de ley y la de un desarrollo seguro del espacio digital también en nuestro país, en un entorno que es global. Porque el mundo digital avanza a pasos agigantados, es cambiante y nos obliga a adaptarnos a un ritmo vertiginoso desde el punto de vista digital. Es indudable que este mundo ha transformado nuestra forma de vida en muchos campos, como la medicina, la ciencia o incluso el entretenimiento. Hemos dado saltos de gigante y se han producido avances que han mejorado nuestra vida sin ninguna duda.
Pero la aparición de las redes sociales merece un tratamiento específico, y esto es muy importante. Lo que empezó como un medio de expresión, de difusión de ideas y conocimiento, de conexión con otras personas, ha abierto la puerta a un mundo que, por desgracia, no es todo lo ético que nos gustaría. Las redes sociales han generado una potencial audiencia que, sin saberlo, a veces acaba siendo cautiva, porque ve limitada su capacidad para elegir el contenido que quiere escuchar y ver. La definición de los algoritmos y su retroalimentación propician la difusión de noticias falsas y la desinformación, lo que a gran escala puede provocar incluso injerencias en procesos electorales. Y esto no es ciencia ficción; ya lo hemos vivido. Al mismo tiempo, la reducción del control y la verificación de los contenidos por parte de las grandes plataformas favorece comportamientos más dañinos, algo que nos debe preocupar especialmente por los menores. Esas son las preocupaciones reales que debemos tener.
Por ello, se hace necesaria una regulación que proteja los derechos de la ciudadanía, porque esos derechos no pueden quedar supeditados a los intereses económicos de las grandes empresas multinacionales. Es algo que la Unión Europea ha tenido claro y se ha puesto manos a la obra, y es una prioridad de este Gobierno, como viene demostrando durante los últimos años. Y, como saben, en esta Comisión tenemos la tarea de tramitar el proyecto de ley para la mejora de la gobernanza democrática en servicios digitales y medios de comunicación, que, como bien usted indicaba, va a facilitar la denuncia de contenidos ilícitos en estas grandes plataformas. Muchas gracias.
Y por eso hemos considerado oportuna esta comparecencia de hoy. Desde luego, estamos satisfechos con esta exposición inicial, porque marca lo que debemos hacer respecto a la ciudadanía: explicar la importancia de aprobar este proyecto de ley. Este proyecto adaptará el ordenamiento jurídico español, como bien ha dicho, a la normativa europea sobre servicios digitales, de conformidad con el Reglamento Europeo de Servicios Digitales, la DSA, que impondrá a las plataformas digitales la obligación de implementar nuevas medidas para proteger mejor a los usuarios y aumentar la transparencia y la privacidad. Y esto es lo que deben saber los ciudadanos y ciudadanas.
Con esta ley abordaremos retos de nuestro espacio digital muy relevantes para nuestras vidas, como la desinformación, la protección de los menores, los discursos de odio y la vulneración sistemática de la privacidad. Usted lo ha indicado en su intervención, señora Fernández, y conviene reiterarlo porque son aspectos esenciales de la vida diaria. Se trata de que la democracia defienda el pluralismo y los derechos digitales y, al mismo tiempo, se proteja del acoso, la manipulación y el odio.
La Comisión Nacional de los Mercados y la Competencia, la CNMC, a la que este proyecto de ley otorga competencias de control, supervisión, inspección y sanción, velará porque los proveedores de servicios digitales cumplan con el Reglamento Europeo de Servicios Digitales, y esto lo deben saber los ciudadanos. En este punto quiero resaltar que vamos tarde: la CNMC podría contar ya con la habilitación legal necesaria desde hace meses, y si se ha tenido que incluir en este proyecto de ley es porque algunos grupos políticos decidieron, de forma irresponsable, no convalidar el Real Decreto-ley 9/2024, norma que ya incluía dicha habilitación. Podríamos estar ya trabajando en esta línea. Pero ahora no tenemos excusas. Como representantes públicos, tenemos una responsabilidad, y la sociedad civil lo está esperando. Imagino que conocerá, señora presidenta, y todos los grupos lo saben, que hemos recibido una carta firmada por numerosas organizaciones y expertos a título individual que nos recuerdan la necesidad de llevar a cabo las reformas necesarias para que la CNMC pueda cumplir con las obligaciones que establece la DSA y, en última instancia, proteger a la ciudadanía frente a amenazas.
Como saben, la Comisión Europea ha abierto diferentes investigaciones de mercado a los gigantes del sector y ha impuesto ya sanciones, entre otras, a Meta, con una multa de 797 millones de euros por infringir las normas de defensa de la competencia de la Unión Europea, y más recientemente a X, con un importe de 120 millones de euros por incumplir la Ley de Servicios Digitales.
Señorías, termino. Estamos ante algo muy importante y trascendental, y debemos estar a la altura de las circunstancias. Como ha señalado el presidente del Gobierno de España, Pedro Sánchez, en nuestro país la ley está por encima de cualquier algoritmo o de cualquier gran plataforma tecnológica, y quien vulnere nuestros derechos pagará las consecuencias. Esa es la línea a seguir y a la que todos debemos comprometernos. Muchas gracias. Seguimos avanzando, que es lo más importante.
Muchas gracias, señor Rojo. A continuación, para concluir el primer turno de intervención de los grupos, por el Grupo Parlamentario Popular, tiene la palabra el señor Cortés.
Buenas tardes. Muchas gracias, señora Fernández, por acudir a esto que no sé bien cómo denominar, porque lo primero que cabe preguntar es qué hacemos aquí. Pues yo les voy a contar qué hacemos aquí, puesto que ninguno de mis compañeros ha tenido el valor de contarlo. Mire usted: el presidente del Gobierno anuncia una comisión de investigación contra Meta por poner en riesgo los datos de seis millones de españoles. Después de eso, el Grupo Socialista se encuentra con que aquí no hay ni comisión de investigación ni Meta ni nada que valga. Entonces se les ocurre —voy a contar cómo ha sido— organizar unas comparecencias con motivo de la ley de gobernanza de los medios y los servicios digitales. Razón por la cual ahora, después, vamos a acordar los ponentes y, curiosamente, estamos celebrando una sesión totalmente irregular, puesto que no hemos aprobado ningún ponente, pero usted está aquí y el siguiente también. Total, ¿qué quiere decir esto? Que estamos dando una coartada a un titular mediático del presidente del Gobierno que dijo: «Sujétame el cubata», y voy a traerme...
…a Mark Zuckerberg a comparecer en el Congreso. Eso es lo que estamos haciendo aquí, no nos engañemos. Así de simple. Razón por la cual, fíjese, el portavoz del PSOE no le ha hecho ni una sola pregunta. ¿Se ha dado cuenta? No le ha preguntado absolutamente nada. Esta es la realidad de lo que hacemos aquí.
Luego, la segunda parte: la ley de gobernanza de medios y servicios digitales. Ese es, digamos, la excusa, el marco por el que hacemos estas comparecencias. Pues fíjese: usted lo ha dicho, ha hablado de la DSA. Un reglamento de obligado cumplimiento. No hace falta ninguna ley para eso. De hecho, lo ha comentado abiertamente: en un real decreto se introdujeron las competencias de la CNMC para poder ejercer esa ley. No hace falta ninguna ley. Si a eso nos vamos a la Ley de Libertad de Medios, de nuevo, otro reglamento. Tampoco hace falta desarrollo reglamentario. Y, precisamente, para lo poco que haría falta desarrollo reglamentario —por ejemplo, para definir cuál es el proceso por el que se puede excepcionar, o no, el derecho del periodista a no revelar su fuente—, mire por dónde, eso no lo aborda. Luego, cuénteme usted a mí qué sentido tiene esa ley, cuando precisamente lo más importante de todo es lo que usted ha comentado.
Doce meses después de haber traído un real decreto ómnibus trampa —que por eso se votó en contra—, ¿qué trabajo le costaba al Gobierno, a la semana siguiente, cuando nos hemos pronunciado públicamente, incluso con distintas proposiciones no de ley, diciendo que estábamos a favor de apoyar estos cambios en los estatutos de la CNMC, traer un real decreto? Y ustedes, como Gobierno, en doce meses no han traído ni un solo real decreto que hubiese sido aprobado ipso facto. Luego, no me vengan aquí a restar importancia a la ley. Por tanto, ¿para qué sirve esa ley? Lo ha apuntado Vox: sirve como coartada para intentar controlar a los medios de comunicación privados. ¿Por qué? Aplicamos un reglamento de obligado cumplimiento y aplicamos otro reglamento de obligado cumplimiento, y, precisamente, las cuatro cosas que habría que definir por parte del país no las incluye el texto.
De hecho, usted, señora Fernández, no ha hecho ni una sola referencia al proyecto de ley. Por eso entiendo —por suposición— que, como bien sabe, el Partido Socialista no la pedía a usted; no se le ha convocado a usted, se ha convocado a un subdirector de la CNMC. Y quizá le habrán dicho: “Mire usted, no toque nada de la ley de medios, que eso no nos interesa”. Pues yo, desgraciadamente, le voy a tener que preguntar por el objeto de la comparecencia, ya que, como digo, todo lo que le he contado es la coartada de lo que hacemos aquí sentados. No nos engañemos: un titular de un presidente que no sabía dónde se metía, una orden al grupo parlamentario de buscar un refuerzo legal, cuando todos sabemos que en unas ponencias como estas no hay obligación por parte del ponente de comparecer. Y ustedes han pedido a Mark Zuckerberg; Vox ha pedido a Elon Musk; venga, sujétame el cubata otra vez. Entonces, como ustedes comprenderán, eso es una tomadura de pelo en todos los aspectos. Pongamos las cosas en su sitio.
Y ahora, señora Fernández, por intentar ser productivos, ya que estamos aquí —aunque su intervención de hoy ya nos la ha hecho en varias ocasiones y ha puesto de manifiesto la urgente necesidad de estas competencias; entiendo que ha dicho: “Bueno, voy a volver a repetir lo ya dicho en otras comparecencias”—, le digo: estamos aquí, sabemos todos cuál es la urgencia, pero no me ha hecho referencia, como le digo, absolutamente a nada del proyecto de ley que se suponía es el marco por el que estamos aquí. Entre otras cosas, sí ha hablado de la delegación de competencias, pero no ha hablado de todo lo demás, donde la CNMC también tiene la designación para la aplicación de la Ley de Libertad de Medios de la Unión Europea. Me gustaría que, en su siguiente intervención, se centrara precisamente en esas nuevas competencias que se le atribuyen.
Como decía, al ser reglamentos, el 8 de agosto de este año ya se empezaba a aplicar la ley de medios. ¿Qué ha cambiado? ¿Qué están haciendo ustedes como CNMC, puesto que la ley ya se está aplicando? ¿Qué aportarían? ¿Qué pueden hacer y qué no pueden hacer? Igual que ha hecho un resumen de lo que pueden hacer con la DSA, me gustaría que volviera a hacer también un resumen de qué pueden o no pueden hacer, sin esta ley, con las competencias de la CNMC en cuanto a la libertad de los medios de comunicación.
También recordar que llevamos desde febrero de 2024 con la DSA en vigor, y este Gobierno no ha tenido tiempo, desde febrero de 2024, de traer un real decreto con los cuatro artículos que modifican las competencias de la CNMC. Pongámoslo en su debido contexto: desde el 17 de febrero de 2024. Muy ocupados habrán estado ustedes para no poder traerlo en todo este tiempo. Luego, se lo han anticipado ya.
¿No cree que quizá este proyecto de ley —yo lo doy por hecho, pero le pregunto— no deja de ser otra cosa que un intento de introducir artículos para controlar a los medios de comunicación privados? Y, con eso, le enlazo la pregunta: el Consejo de Estado ha hecho un informe —no sé si usted ha tenido conocimiento— donde, de alguna forma, habla de la posible ilegalidad de la evaluación de concentraciones; de que el registro obligatorio de medios podría restringir el ejercicio del periodismo; y de que el régimen sancionador es ambiguo. Le pregunto por esas tres cuestiones, que son precisamente las que la CNMC tendrá que ejercer, entiendo yo, cuando tenga esas competencias. ¿Qué opina? Porque se va a encontrar con que tiene que aplicar una legislación que el propio Consejo de Estado valora de esta manera: posible ilegalidad, restricción de derechos y un régimen sancionador ambiguo. ¿Va a ser un problema para usted, según cuenta el Consejo de Estado? Entiendo que tendrá una opinión al respecto.
Sobre esto, otra pregunta también directa: ¿cree que la CNMC es la idónea para aplicar la Ley de Libertad de Medios, cuando hablamos no solo de medios audiovisuales, sino de todos los medios? A priori suena raro, pero supongo que, cuando se enteró de que iba a ser el organismo designado, alguna opinión tendría.
Y, con esto termino: el Reglamento europeo de libertad de medios, en su artículo 4, precisamente habla de excepciones al derecho a no revelar fuentes periodísticas, un tema tan de actualidad ahora por el juicio del fiscal general. Establece cuatro posibles excepciones que los países tendrán que decidir. Como vamos con retraso y no se ha decidido —y, de hecho, en esta ley tampoco—, y sabe Dios cuándo se aprobará una norma que lo decida, ¿en qué situación queda ese artículo? Porque, si no se decide, ¿qué pasa? ¿Se aplica sin excepciones, sigue como estamos, se puede acoger cualquiera? Tengo mis dudas jurídicas y no sé si ustedes, en este aspecto, me pueden arrojar luz. Y, por último, un consejo. Muchas gracias.
Simplemente, a efectos de que conste en acta y para evitar confusiones, quiero aclarar que esta Comisión ha sido convocada de forma absolutamente regular, de acuerdo con lo que nos han indicado los letrados de la Cámara. Y, en segundo lugar, creo que lo que decidió la Mesa fue convocar a la Comisión Nacional de los Mercados y la Competencia; por lo tanto, se dirigió a su presidenta, que ha decidido comparecer en persona, cosa que le agradecemos. Las demás comparecencias serán tratadas a continuación en la Mesa y Portavoces, que ha sido convocada al finalizar esta Comisión. Tiene la palabra, por un tiempo aproximado de diez minutos, para contestar a estas consideraciones y preguntas de los grupos, la señora Fernández.
Muchísimas gracias. En primer lugar, contesto a las preguntas de la señora Andala en cuanto a la detección del contenido ilegal y cómo hacerlo. Es cierto que, en la medida en que todos vivimos en el mundo online, si no hay colaboración de todos va a ser imposible. No podemos estar todos con mil ojos al mismo tiempo en todas partes y, por eso, el propio diseño de la DSA incorpora precisamente a la sociedad civil, con alertadores fiables que deben ser certificados, verificada su independencia y su expertise; y también a los académicos, que deben ser certificados para garantizar estas dos cuestiones: su expertise y su independencia.
Luego contamos, por supuesto, con todas las demás autoridades que son competentes por razón de la materia. Si los contenidos ilegales son de naturaleza audiovisual, la propia CNMC, como regulador audiovisual, será quien detecte esos contenidos y pueda ordenar su retirada; si son de otra naturaleza, corresponderá a la autoridad competente por razón de la materia.
En definitiva, lo que hace la DSA es vertebrar una estructura que nos permita llegar, entre todos, a la detección inmediata de los contenidos ilegales para poder retirarlos cuanto antes, establecer los mecanismos para que esa retirada se haga de forma efectiva y verificar que las plataformas están cumpliendo con esas obligaciones. Es cierto que hace falta la colaboración de la sociedad civil. Por la parte que a nosotros nos toca, estamos desarrollando herramientas para poder investigar directamente. De hecho, en la parte audiovisual, precisamente porque tenemos que estar permanentemente analizando los contenidos, estamos lanzando ya códigos de corregulación; estamos empeñados en el etiquetado de esos contenidos y, al mismo tiempo, desarrollando nuestras propias herramientas, porque sin eso es imposible.
Aquí un apunte muy importante. En otros Estados miembros nuestros colegas ya nos están reportando experiencias y, por ejemplo, en materia de moderación de contenidos lo habitual es que se haga de forma automatizada. Lo que están constatando muchos de nuestros colegas es que eso no funciona si no hay intervención humana. Son lecciones que ya vamos aprendiendo y, cuando estemos habilitados, habrá ya un cierto recorrido; por eso lo estamos siguiendo para aprovechar esas experiencias.
En cuanto a los procedimientos sancionadores, están funcionando. La Comisión ha abierto ya más de quince procedimientos a distintas plataformas y motores de búsqueda de muy gran tamaño (VLOPs y VLOSEs), y ha lanzado requerimientos para verificar el cumplimiento, en su caso, con vistas a abrir sancionadores, a todas excepto a Wikipedia, que es la única que no lo ha recibido. Ya ha sancionado algunas. En el caso concreto de X, es un ejemplo claro de patrones oscuros: se daba a entender que se verificaba información marcada como verificada cuando, en realidad, no lo estaba; era falso. Más allá de los 120 millones de euros —que podemos pensar que son pocos y que habrá multas más elevadas—, lo relevante es, primero, el mensaje a los usuarios de X, constatando que esa información no está verificada, y, segundo, el descrédito que supone para la plataforma en un entorno en el que cualquiera puede advertir que “esto ya se ha dicho que no”. Además, el Tribunal de Justicia de la Unión Europea ya ha declarado que las obligaciones impuestas por la DSA no vulneran derechos y, por lo tanto, deben cumplirse. Esto incluye, por ejemplo, dar acceso a datos o a sistemas para que los investigadores puedan analizarlos, pese a que las plataformas alegaban que se atentaba contra sus derechos. Contamos, por tanto, con declaraciones del Tribunal que nos van a permitir seguir aplicando la norma y dar a la Comisión Europea la fuerza necesaria.
Sobre la coordinación con la Agencia de Supervisión de Algoritmos, en cuanto esté creada, funcione y nosotros estemos habilitados, si tiene funciones de verificación de algoritmos, será sin duda una de las autoridades con las que nos coordinemos. Respecto a la entrada de la academia, ya se están adoptando actos delegados en los grupos de trabajo de la DSA y en uno de ellos se discuten las características de los investigadores que podrán acreditarse. Una vez acreditados, la DSA obliga a darles acceso, y el Tribunal de Justicia ya ha dicho que ello no vulnera derechos de las plataformas. En caso de incumplimiento, cabrá una posible infracción por parte de la propia Comisión Europea. Creo que con esto he respondido a sus preguntas.
En cuanto a la intervención del señor Sanz, de Vox, no puedo estar más de acuerdo con que el papel de los reguladores es clave. La independencia de los reguladores es vital y el mensaje que se transmite, tanto a los inversores como a la sociedad, de que el Estado de derecho se cumple, es lo que nos convoca hoy aquí. La Comisión Nacional de los Mercados y la Competencia ha dado pruebas de estricto cumplimiento de la ley y de su independencia, y le puedo asegurar que, si esta Cámara —porque son ustedes quienes, en definitiva, nos deben encomendar las funciones de la ley— así lo decide, las ejerceremos con la misma independencia, profesionalidad y sujeción normativa que nos caracteriza. Coincido también en que las instituciones deben ser fuertes e independientes para vertebrar la arquitectura de un país.
En cuanto a los comentarios del señor Rojo, la situación reclama ya actuación, y creo que todos lo pensamos. Si les leo la cantidad de expedientes abiertos por mis compañeros, los coordinadores de servicios digitales (DSC) de otros Estados miembros, verán que no es solo con las grandes plataformas: hay multitud de redes sociales de ámbito mucho más reducido que plantean retos para nuestros adolescentes, con gran peligro. Si están establecidas en nuestro territorio, deberíamos estar actuando nosotros. Por ejemplo, en Alemania…