Congreso de los Diputados Economía, Comercio y Transformación Digital

Congreso de los Diputados - Economía, Comercio y Transformación Digital - 23 de enero de 2026

23 de enero de 2026
11:00

Contexto de la sesión

Comisión de Economía, Comercio y Transformación Digital. Sesión extraordinaria. Comparecencia de José Luis Zimmermann, director de Políticas Públicas de Meta España y Portugal. Sesión extraordinaria - Comisión de Economía, Comercio y Transformación Digital. Sesión extraordinaria. Comparecencia de José Luis Zimmermann, director de Políticas Públicas de Meta España y Portugal. Sesión extraordinaria - Sala: Sala Prim

Vista pública limitada

Esta es una vista pública que muestra solo la primera mitad de la transcripción. Para acceder al contenido completo, regístrate en nuestra plataforma.

0:00
Muy buenos días a todos. Como saben, está convocada esta comisión para celebrar la comparecencia con el fin de informar en relación con el proyecto de ley por el que se modifican diversas disposiciones legales para la mejora de la gobernanza democrática en servicios digitales y la ordenación de los medios de comunicación. Pero si les parece, y atendiendo a las circunstancias que ha vivido nuestro país,
5:00
El trágico accidente ferroviario nos lleva a expresar nuestras condolencias a las familias, así como nuestra solidaridad con las víctimas que se están recuperando. En apoyo a todos sus amigos y familiares, si les parece, guardamos un minuto de silencio antes de comenzar la sesión. Conforme a la convocatoria, procedemos a darle la palabra a don José Luis Zimmermann, director de Políticas Públicas de Meta España y Portugal, a quien agradecemos su disposición para informar a esta comisión. Tiene hasta veinte minutos para darnos su opinión sobre la disposición legal a la que me referí al inicio de la sesión. Señor Zimmermann, tiene usted la palabra. Muchas gracias, presidente. Distinguidas señorías, miembros de la Comisión de Economía, Comercio y Transformación Digital, quisiera agradecer en primer lugar la invitación a esta sesión en nombre de Meta y en el mío propio. Esta oportunidad me permite contribuir a los trabajos que esta comisión está abordando sobre el proyecto de ley para la mejora de la gobernanza democrática en servicios digitales y la ordenación de los medios de comunicación, que implementa, a su vez, medidas en respuesta a las obligaciones establecidas en el Reglamento de Servicios Digitales (DSA) y el Reglamento Europeo sobre la Libertad de los Medios de Comunicación (EMFA). Mis observaciones se centrarán en temas clave presentes en estos instrumentos y en cómo Meta los aborda en la práctica, concretamente en lo que respecta a la transparencia, la rendición de cuentas, la protección de los usuarios y el respeto de los derechos fundamentales. Como saben, el Reglamento de Servicios Digitales, al que me referiré como DSA, entró en vigor en noviembre de 2022 y sus obligaciones principales comenzaron a aplicarse a las grandes plataformas en línea, como Facebook e Instagram, en agosto de 2023, y a todas las plataformas a partir de febrero de 2024. El reglamento europeo sobre la libertad de los medios de comunicación (EMFA) entró en vigor en 2024 y se aplicará por fases, con disposiciones clave para Facebook e Instagram a partir de octubre de 2025. Ambos son reglamentos de la Unión Europea y, por tanto, son directamente aplicables en toda la Unión en virtud del principio de país de origen, que en el caso de Meta es Irlanda. En consecuencia, el papel de la legislación nacional no es replicar el contenido de estos marcos establecidos a nivel de la Unión Europea, sino garantizar un marco interno eficaz de implementación para los sujetos regulados en el Estado miembro correspondiente, en particular en lo relativo a la designación de autoridades competentes, los mecanismos de coordinación, los procedimientos y las facultades necesarias para su cumplimiento. Meta reconoce la importancia de este trabajo legislativo. Estos marcos establecen un alto estándar de transparencia y responsabilidad en el entorno digital y, al mismo tiempo, requieren una implementación prudente y equilibrada que seguirá evolucionando. Meta está comprometida con estos principios y lo demuestra de diversas maneras. En primer lugar, a través de nuestras políticas y normas que establecemos para proteger a nuestros usuarios frente a contenidos perjudiciales. Meta aspira a que sus plataformas sean seguras y fiables, donde las personas puedan expresarse con libertad. En ese sentido, somos muy claros: no se permite determinados tipos de contenido.
10:00
Para lograr el equilibrio entre libertad de expresión y seguridad, Meta adopta un enfoque integral para abordar contenidos o actividades potencialmente perjudiciales en sus plataformas, comenzando por sus políticas o estándares aplicables. Meta mantiene un conjunto de estándares de aplicación global, lo que denominamos las Normas Comunitarias, que definen qué está permitido y qué no lo está en nuestros servicios. Hacemos cumplir estos estándares de diversas maneras. Contamos con herramientas de denuncia fáciles de usar y utilizamos tecnología para ayudar a detectar y actuar sobre el contenido infractor, a veces incluso antes de que alguien lo haya visto. En línea con la DSA, también disponemos de opciones para que los usuarios puedan recurrir nuestras decisiones si consideran que hemos cometido un error. Asimismo, contamos con un canal específico de notificación para que las personas puedan presentar denuncias sobre contenido ilegal conforme al derecho nacional aplicable. Un elemento central de la DSA es la transparencia. En ese espíritu, además de nuestros informes voluntarios sobre la aplicación de nuestras Normas Comunitarias, Meta publica informes anuales de transparencia en virtud de la DSA, así como un amplio abanico de informes regulatorios que están disponibles públicamente en nuestro Centro de Transparencia. Estos informes ofrecen una descripción estructurada, centrada en la Unión Europea, de cómo operan en la práctica nuestros sistemas de seguridad e integridad. Incluyen información detallada sobre el volumen y las categorías de medidas adoptadas en la Unión Europea en relación con contenidos conformes a nuestras políticas y obligaciones legales. Los canales a través de los cuales los usuarios, los alertadores de confianza, cuando proceda, y las autoridades públicas pueden presentar notificaciones, así como la forma en que Meta gestiona reclamaciones, recursos y otros mecanismos de reparación, también son descritos. Además, se detallan los respectivos roles de la detección automatizada y la revisión humana, ofreciendo desgloses que permiten el escrutinio público, regulatorio e institucional acerca de cómo se aplican las políticas en los distintos ámbitos. Al preparar estos informes, procuramos ser exhaustivos y responsables. Exhaustivos porque la DSA está diseñada para que la rendición de cuentas de las plataformas sea medible mediante categorías uniformes, procedimientos definidos y calendarios de reporte claros. Responsables porque la transparencia no debe socavar la seguridad ni permitir que actores maliciosos eludan los controles ni expongan datos personales. Cuando la DSA permite la confidencialidad o la agregación de información por motivos legítimos, aplicamos esas salvaguardas. Nuestro objetivo sigue siendo ofrecer a reguladores, investigadores y al público en general una referencia fiable para evaluar los resultados a lo largo del tiempo. Más allá de la transparencia relativa a las medidas adoptadas, la DSA es explícita en que la obligación no se limita a piezas de contenido individual, sino que incluye entender y reducir los riesgos sistémicos. Para las grandes plataformas en línea, como Facebook e Instagram, ello incluye realizar evaluaciones de riesgos en ámbitos que la DSA identifica, tales como la difusión de contenido ilegal, la protección de menores, los riesgos para el debate cívico, los procesos electorales y la seguridad pública. Meta también pone a disposición información relacionada con la DSA sobre la evaluación y mitigación de estos riesgos. Estas divulgaciones describen nuestros procesos de gobernanza para identificar y evaluar riesgos, las medidas que implementamos para mitigarlos y la manera en que monitorizamos la eficacia y mejoramos los sistemas de forma iterativa. Este proceso permite un ciclo de mejora continua y es importante tener presente que los riesgos sistémicos evolucionarán con el tiempo, al igual que nuestro enfoque para abordarlos. Estos informes se complementan con otros recursos de transparencia disponibles a través del Centro de Transparencia de Meta, incluida información sobre transparencia publicitaria, informes de aplicación de políticas y herramientas de control para el usuario que les permiten configurar su experiencia. En conjunto, esta rendición de cuentas pública pretende dotar a las instituciones, a los reguladores y a la ciudadanía de una referencia transparente para evaluar nuestro cumplimiento y nuestros progresos a lo largo del tiempo. Seguiremos colaborando de forma constructiva con las autoridades competentes a medida que evolucione la implantación de la DSA. La DSA es, como saben, un reglamento horizontal basado en principios y de armonización plena, que deja un margen limitado a los Estados miembros para regular adicionalmente las cuestiones que cubre, como la moderación de contenidos. Una supervisión no fragmentada y bien informada es fundamental para garantizar que los servicios digitales operen en la Unión Europea de manera que protejan a los usuarios, promuevan el pluralismo y salvaguarden los valores democráticos. Meta mantiene un compromiso de colaboración constructiva con las autoridades competentes pertinentes, aportando información, respondiendo a las solicitudes lícitas de forma oportuna y transparente, y participando en los procedimientos previstos en la DSA.
15:00
Permítame referirme ahora a un asunto que a menudo se menciona junto con la DSA: la cuestión más amplia del impacto social, en particular la polarización y la desinformación. Se trata de preocupaciones legítimas en cualquier democracia. Al mismo tiempo, existen precisión, evidencia y respuestas proporcionadas. En cuanto a la polarización, la base empírica es compleja y las conclusiones académicas son dispares. La polarización política tiene múltiples factores: condiciones económicas, confianza institucional, cambios en el entorno mediático y dinámicas sociales más amplias. Muchas de estas tendencias son anteriores a las redes sociales. Diversos estudios solventes sugieren que las redes sociales no son el principal motor de la polarización, y que la evidencia de un efecto generalizado de burbuja o filtros es, como mínimo, limitada. Por ejemplo, investigaciones comparadas entre países han constatado que, en algunos casos, la polarización ya aumentaba antes de la existencia de Facebook, mientras que en otros ha disminuido, incluso, a medida que crecía el uso de Internet y de las plataformas. Otros estudios han constatado que la polarización ha crecido más entre los grupos demográficos menos propensos a utilizar Internet. Datos de la Unión Europea sugieren que los niveles de polarización ideológica son similares, tanto si las personas obtienen noticias a través de redes sociales como si lo hacen por otros medios. Una investigación previa a las elecciones de Estados Unidos en 2022 sugirió también que la desinformación relacionada con las elecciones estuvo impulsada principalmente por élites políticas y medios de comunicación de masas, desempeñando en las redes sociales un papel secundario. Considerados en conjunto, estos hallazgos implican para los responsables políticos que no deben ignorarse estas preocupaciones, sino que las respuestas deben ser basadas en evidencia, proporcionadas y coherentes con los derechos fundamentales. Del mismo modo, se suele sobredimensionar la idea de que la mayoría de los usuarios están confinados en cámaras de eco. Investigaciones de organizaciones como el Pew o el Reuters Institute sugieren que, a través de las redes sociales, las personas pueden encontrarse con una mayor diversidad de puntos de vista que con otros hábitos de consumo informativo. En Meta asumimos seriamente la responsabilidad de reducir daños preservando el debate legítimo y de ofrecer a las personas ciertas opciones. En virtud de la DSA, esto incluye transparencia sobre parámetros clave de los sistemas de recomendación y opciones que permitan a las personas influir en lo que ven. En materia de desinformación, es importante distinguir entre contenido ilegal, contenido perjudicial y contenido que, simplemente, es controvertido o políticamente sensible. La DSA traza líneas cuidadosas, y nosotros también. Los términos y condiciones de Meta prohíben que los usuarios publiquen contenido que sea ilícito, engañoso, discriminatorio o fraudulento, o que infrinja cualquiera de nuestros términos y políticas, incluidas las normas comunitarias. Meta adopta medidas frente a contenidos y cuentas que vulneran sus términos, por ejemplo, en casos de interferencia electoral, acoso, violencia o incitación a la violencia. En otros supuestos, priorizamos reducir la difusión, aportar contexto o introducir fricción para disminuir el riesgo de engaño sin limitar el debate legítimo ni la libertad de expresión. También es importante reconocer que la desinformación no se distribuye de manera uniforme. La difusión de afirmaciones demostrablemente falsas suele concentrarse en un subconjunto relativamente reducido de cuentas y redes, incluidas operaciones coordinadas. Por ello, el trabajo de integridad no puede basarse únicamente en decisiones caso por caso sobre contenidos; requiere desarticular redes que actúan de forma inauténtica, reducir los incentivos a la manipulación e invertir en capacidades de detección y de aplicación a escala. Esto me lleva a la integridad y a la seguridad. Meta ha invertido recursos significativos durante muchos años para desarrollar y mejorar sus sistemas de seguridad y protección. Esto incluye detección impulsada por inteligencia artificial para determinadas categorías de contenidos perjudiciales, mecanismos de denuncia sencillos para los usuarios y equipos especializados dedicados a la protección de menores y a la integridad de los procesos electorales. La seguridad no está vinculada únicamente a exigencias de cumplimiento; es esencial para la confianza, y la confianza es esencial para una esfera pública digital segura. La transparencia algorítmica es otro pilar de la DSA. Los sistemas de recomendación de Meta están diseñados para ayudar a las personas a encontrar contenidos que les resulten relevantes, y la DSA exige que ello vaya acompañado de transparencia y capacidad de elección del usuario. Facilitamos información a alto nivel sobre el funcionamiento de la clasificación y priorización de contenidos, y ofrecemos controles que permiten a los usuarios gestionar su experiencia, incluyendo, cuando proceda, opciones para ver contenidos sin determinadas formas de personalización. Asimismo, colaboramos, según corresponda, con la Comisión Europea y con la autoridad irlandesa competente en el cumplimiento.
20:00
Incluyendo la respuesta a solicitudes de información y la participación en los procesos de supervisión previstos en el reglamento. En lo que respecta a la libertad y el pluralismo de los medios, Meta apoya los objetivos del Reglamento Europeo sobre la Libertad de los Medios de Comunicación. Un ecosistema mediático libre, plural e independiente es indispensable para la democracia. Las plataformas tienen un papel que desempeñar, un papel compatible con el ordenamiento jurídico, con la protección de los distintos derechos fundamentales en juego y con la independencia editorial de los medios de comunicación. A medida que los legisladores valoran las distintas opciones de implementación, también es importante preservar la proporcionalidad. Por ejemplo, reconocemos el interés legítimo en reforzar la rendición de cuentas en línea y en combatir el fraude y la suplantación de identidad. En relación con las cuentas falsas y las conductas malintencionadas, nuestro objetivo es eliminar tantas cuentas inauténticas como sea posible, dando prioridad a aquellas creadas con intención maliciosa, como estafas, manipulación coordinada y suplantación. Utilizamos una combinación de detección automatizada y revisión humana para identificar y eliminar estos comportamientos, y actualizamos continuamente nuestros sistemas en respuesta a tácticas cambiantes. Por último, quiero subrayar un principio que debería guiar todo este trabajo: la rendición de cuentas debe ir de la mano del debido proceso y del equilibrio entre derechos fundamentales. La DSA exige que las plataformas informen a los usuarios cuando se adopte una medida respecto de su contenido y refuerza las vías de reclamación y recurso. Estas garantías procedimentales son importantes, mejoran la eficacia, generan confianza y aseguran que la aplicación no sea arbitraria. En conclusión, Meta está comprometida con la protección de nuestros usuarios y con la defensa de derechos fundamentales como la libertad de expresión, y apoya los fines del EMFA. Estamos comprometidos a mantener los más altos estándares de cumplimiento, transparencia y protección del usuario. También creemos que el enfoque más eficaz es el de la colaboración entre legisladores, autoridades independientes, plataformas, investigadores, sociedad civil y usuarios. Cada uno tiene un papel. Nuestro compromiso es seguir participando de forma constructiva dentro del marco normativo europeo, publicando informes transparentes, mejorando nuestros sistemas y protegiendo tanto la seguridad de nuestros usuarios como sus derechos fundamentales. Muchísimas gracias. Quedo a su disposición para las preguntas respecto al objeto de esta comparecencia. A continuación, hay un primer turno de intervención de los grupos presentes. Dado que no están representados ni el Grupo Mixto, ni el Grupo Vasco, ni el Grupo Euskal Herria Bildu, ni el Grupo Junts per Catalunya, ni el Grupo Republicano, tiene la palabra, en primer lugar, en representación del Grupo Plurinacional Sumar, la señora Andala. Gracias, presidente. Buenos días, señorías. Gracias también, señor Zimmermann, por acudir a esta comparecencia y por recibirnos el pasado abril aquí en el Congreso de los Diputados. Esta comparecencia se produce en un momento clave durante la tramitación de una norma en esta Cámara que no es meramente técnica ni sectorial, sino que afecta de lleno a la calidad de nuestra democracia, al acceso a la información y al ejercicio efectivo de los derechos fundamentales, que han sido reiterados tantas veces en su comparecencia por parte de millones de personas que son usuarias tanto de Facebook como de Instagram en nuestro país. Por tanto, hoy no estamos hablando únicamente de innovación, competitividad o economía digital; estamos hablando del espacio público digital, algo crucial y paralelo a nuestra vida hoy en día. También de la protección de las personas consumidoras y usuarias, y de cómo se distribuye el poder en un entorno dominado por unas pocas plataformas de las que no somos soberanos aquí en España. Meta, conforme al Reglamento Europeo del 2022-2065 de Servicios Digitales, es un prestador de servicios intermediario clasificado como Very Large Online Platform, al superar ampliamente los 45 millones de usuarios mensuales en nuestra Unión Europea a través de Facebook e Instagram. Esta clasificación no es neutral; implica, como ya señaló la presidenta de la CNMC en su reciente comparecencia, obligaciones reformadas y reforzadas de diligencia debida, evaluación y mitigación de riesgos sistémicos como la desinformación, la protección a los menores o la manipulación del debate público, así como una supervisión prioritaria por parte de las autoridades competentes, que efectivamente recae más en nuestro tejado o en el de la CNMC en este caso. Además, no puede olvidarse que Meta puede encajar también en la definición de prestador de servicios de medios de comunicación audiovisuales conforme al reglamento de la EMFA, con un impacto estructural sobre el pluralismo informativo. Las cifras están ahí, de todos los usuarios.
25:00
También de los beneficios en publicidad que tiene actualmente Meta, me gustaría destacar lo que ha mencionado sobre la desinformación y la polarización, que considero que no son hechos menores. Efectivamente, la polarización y la desinformación pueden producirse en los grandes medios de comunicación e incluso en el reenvío de noticias entre familiares, debido a ese sesgo de confianza. Sin embargo, no podemos negar la viralidad que tienen los algoritmos y las plataformas digitales. Este componente de viralidad hace que la desinformación llegue aún más, especialmente a la gente más joven, que puede no ser consumidora de esos medios de comunicación o grandes canales de televisión. Creo que debemos poner el acento en este aspecto. También ha mencionado que gestionan las denuncias que les llegan a través de los usuarios, y me gustaría saber cómo priorizan dichas denuncias. Por ejemplo, en el caso de una denuncia por contenido sexual o por contenido indebido, ¿cuál es el baremo de parametrización que tiene Meta a nivel interno para priorizar un tipo de denuncia sobre otra? Quisiera referirme al último caso en que nos atendió usted muy amablemente aquí en el Congreso de los Diputados, donde reiteramos nuestra preocupación por la cuestión de los verificadores y la eliminación de los mismos, un tema que ya se había avanzado en Estados Unidos. ¿Cuál es su aplicabilidad actualmente en España? ¿Ha cambiado su postura desde abril hasta ahora? ¿Sigue Meta considerando debilitar o ceder la responsabilidad de la verificación a la comunidad, dado que hasta ahora lo hacían ustedes? En su momento, nos indicó que en España no se iba a implementar esa medida, pero no sé si ha habido un cambio reciente en la política de Meta al respecto. Además, el compareciente anterior nos comentó algo bastante grave, que es el caso de Metapixel, investigado por la IMDA Networks, que apunta a un modelo basado en una explotación agresiva de datos, una desprotección del consumidor y una ruptura deliberada de garantías técnicas, incluso en contextos especialmente sensibles. Me gustaría saber si han recibido ustedes esa investigación, cuál es su alcance, cómo la han podido atender y si realmente, hoy en día, siguen teniendo acceso a través de los plugins de cookies locales a información interconectada para sus plataformas, como ya comentó el investigador que acudió aquí hace apenas unas semanas. Por otro lado, me gustaría mencionar el régimen sancionador. Efectivamente, la DSA es de obligado cumplimiento, pero en España aún no tenemos dotada a la CNMC con los mecanismos necesarios para que el régimen sancionador sea efectivo. Recientemente, ustedes han recibido una multa en Madrid de 479 millones de euros por competencia desleal a los medios españoles. ¿Han acatado esa sentencia judicial? ¿Cuál es realmente el cumplimiento por parte de Meta de todas estas multas que están recibiendo por parte de la Unión Europea y, en concreto, en nuestro país? Agradezco de nuevo su presencia aquí y reitero nuestro compromiso de trabajar en este ámbito. Comprendemos que la innovación es importante y que el debate sobre la polarización y las cámaras de eco es muy sensible. Sin embargo, también somos conscientes de que la viralidad, los algoritmos y la personalización que realiza su modelo de negocio pueden repercutir en la democracia, especialmente en la desinformación del interés público y del debate público. Gracias.
30:00
Fundamental en las sociedades del siglo XXI, porque es una herramienta que permite a los ciudadanos ejercer su libertad de expresión. Las redes sociales les permiten participar en los debates públicos, defender sus convicciones en igualdad de condiciones y también defenderse de los abusos del poder político. Además, los ciudadanos, a través de las redes sociales, pueden informarse de lo que ocurre en su país y en el mundo entero, así como informar sobre su entorno. Lo vimos durante las riadas de Valencia, donde los españoles pudimos conocer la magnitud de la catástrofe gracias a lo que se publicaba en las redes sociales, a través de los vecinos de los municipios afectados, quienes contaban con total transparencia lo que estaba ocurriendo y cómo las ayudas prometidas por el Gobierno no llegaban. También lo hemos visto recientemente con el trágico accidente ferroviario de Adamuce. Mientras que los políticos del bipartidismo y algunos periodistas pedían a los españoles que guardasen silencio, los ciudadanos, a través de las redes sociales, han demostrado su indignación al comprobar que la falta de inversión del Gobierno y la corrupción del mismo son letales. Este poder que tienen los ciudadanos gracias a las redes sociales molesta al Gobierno. Por ello, el PSOE ha solicitado esta comparecencia. No lo ha hecho por la soberanía de datos ni por la transparencia de los españoles, porque si así fuese, lo primero que harían sería acabar con los contratos que tienen con empresas tecnológicas de regímenes autoritarios. Tampoco lo han hecho para defender la verdad frente a los bulos, ya que, si ese fuese el motivo, habrían invitado al presidente de RTVE a comparecer en el Congreso de los Diputados, dado que la semana pasada conocimos, a través de un informe de los propios trabajadores de la cadena pública, que se está permitiendo la difusión de información falsa, aun sabiendo los presentadores que dicha información es incorrecta. Esta comparecencia ha sido solicitada por el Partido Socialista porque el Gobierno quiere, en realidad, allanar el camino para limitar la libertad de expresión de los españoles y evitar el uso libre de las redes sociales, conscientes de que estas son una herramienta que los ciudadanos utilizan para defenderse de los abusos del Gobierno. Quieren que los españoles vuelvan a expresar sus pensamientos en voz baja, en círculos reducidos, para que se entere poca gente. Gracias a las redes sociales, la gente puede manifestar abiertamente lo que piensa, no solo en sus entornos, sino ante el mundo entero. Las direcciones de las plataformas de redes sociales han comprendido que el mundo está cambiando y que la gente está reaccionando contra los debates artificiales y dañinos que han promovido los políticos del globalismo y el progresismo. Estas plataformas han desechado los dogmatismos políticos que se utilizaban para implantar la censura. Mark Zuckerberg, fundador de Meta, ha reconocido que el Gobierno de Biden le obligó a eliminar millones de publicaciones y cuentas de Facebook que contradecían su agenda ideológica o el discurso oficialista sobre la pandemia. Se eliminaron millones de cuentas de personas que hoy sabemos que decían la verdad. Por ello, queremos plantear al compareciente, José Luis Zimmermann, director de Asuntos Públicos de Meta en España y Portugal, las siguientes siete preguntas concretas: En primer lugar, ¿cuántas publicaciones y cuántas cuentas se eliminaron en España durante la pandemia en Meta? En segundo lugar, ¿qué garantías nos ofrece Meta para que la intromisión de los gobiernos para censurar contenido político a través de las redes sociales no se repita? ¿Qué mecanismos van a utilizar para evitar esta intromisión contra la libertad de expresión? En tercer lugar, ¿ha presionado el Gobierno de España en alguna ocasión a Meta para eliminar contenido de su plataforma relacionado con temas que preocupan a los españoles, como el incremento de la violencia callejera y los problemas derivados de la inmigración masiva? En cuarto lugar, ha trascendido que el Gobierno de España se reunió con las plataformas de redes sociales el pasado verano tras los acontecimientos ocurridos en Torre Pacheco. Queremos saber qué personas estuvieron en esa reunión por parte del Gobierno, qué les pidió y si se planteó la eliminación de contenido relacionado con las denuncias de inseguridad y las políticas migratorias que está impulsando el Gobierno. En quinto lugar, queremos conocer su opinión sobre el hecho de que en España se estén multiplicando las leyes y organismos regulatorios en el ámbito de lo que el Gobierno denomina gobernanza digital. En sexto lugar, en VOX sí nos importa que se protejan los datos de los españoles y por eso...
35:00
Queremos preguntarle cómo garantiza Meta la soberanía de datos del pueblo español. Asimismo, sabemos que Meta tiene un ambicioso proyecto en España, concretamente en la construcción de un centro de datos en Talavera de la Reina, con una inversión de 750 millones de euros y la posible creación de 250 puestos de trabajo directos. Hace unos meses, el presidente Pedro Sánchez atacó duramente a Meta, acusando a su plataforma de espiar a los españoles, y queremos preguntarle si este ataque puede afectar a esta inversión. Muchas gracias, señor Mariscal. A continuación, por el Grupo Socialista, tiene la palabra la señora Blanquer. Muchísimas gracias, presidente. Señor Zimmermann, bienvenido a esta comisión. Me gustaría, en primer lugar, aclarar que, a propuesta del Grupo Socialista, aprobamos en mesa peticiones de comparecencias centradas en la gobernanza democrática en servicios digitales, dado que es donde mayor preocupación compartida existe. En este contexto, organismos como la CNMC, expertos investigadores y plataformas digitales son llamados a comparecer. Como bien usted sabe, hay señales de alarma que nos interpelan a todos como sociedad, y cualquier empresa responsable que opere en el entorno digital ha de sentirse interpelada a conseguir, entre otros, tres objetivos. Primero, hacer efectiva la protección de los menores en el entorno digital y hacer frente de manera transparente a los riesgos sistémicos. Segundo, luchar contra la desinformación y los discursos de odio que amenazan la convivencia. La libertad de expresión no puede vulnerar el respeto a los derechos humanos, y no se puede propagar odio. Y, en tercer lugar, garantizar a los usuarios que sus datos sean protegidos y solo utilizados atendiendo a su consentimiento. En este marco, como no podía ser de otra manera, le hemos convocado a esta comisión porque, más allá de una presentación corporativa, lo que buscamos son respuestas. Queremos saber de verdad cómo actúa su plataforma para proteger derechos, generar confianza y garantizar estos tres objetivos, porque sin confianza no hay un ecosistema digital seguro y legítimo. Cuando hablamos de gobernanza en este contexto, significa algo muy concreto: cómo se previenen, cómo se detectan y se corrigen los riesgos que nacen del propio funcionamiento de su plataforma y del ecosistema digital, incluyendo su modelo publicitario, su capacidad de perfilado y la opacidad técnica que a veces impide al ciudadano entender qué ocurre con sus datos. Por tanto, divido mi intervención en tres bloques a los que usted también ha hecho referencia. Empiezo con menores y riesgos sistémicos. Usted sabe que en esta Cámara se está tramitando el proyecto de ley orgánica para la protección de las personas menores de edad en los entornos digitales, y esta comisión está tramitando otra ley, pero ambas están perfectamente conectadas. Las alarmas en este sentido son evidentes, porque, según un informe de Infancia Digital de Red.es junto con UNICEF, un 95% de los españoles considera urgente que actuemos para combatir el impacto negativo de las redes sociales sobre la salud mental de los menores y sobre el acoso online. De hecho, uno de cada diez menores reconoce haber sufrido ciberacoso. Por tanto, el marco normativo actual exige a los prestadores de servicios digitales adoptar medidas para proteger a los menores, y es imprescindible que dicho marco normativo se aplique. En su intervención también lo ha mencionado, para las grandes plataformas desde febrero de 2024. Sin embargo, nos dice que tienen publicadas las medidas, pero queremos que se detalle un poco más. ¿Qué medidas se están adoptando para garantizar la protección de los menores en sus servicios, en cumplimiento de la Ley de Servicios Digitales y conforme a las directrices de la Comisión? Nos preocupa que en mayo de 2024 la Comisión incoe un procedimiento formal contra Meta en virtud de la Ley de Servicios Digitales en relación con la protección de los menores en Facebook e Instagram. También nos preocupa que en octubre de 2025 Bruselas advirtiera a varias compañías, entre las que se encuentran Facebook e Instagram, de que ponen en riesgo a menores al exponerlos a contenido dañino, como material de abusos sexuales o terrorismo. Por otro lado, los sistemas algorítmicos empleados en la plataforma y redes sociales presentan riesgos no solo para menores, sino para todas las personas, incluyendo un uso adictivo de servicios digitales, los "rabbit holes", burbujas de contenido, hipervigilancia y la recopilación de grandes volúmenes de datos personales para el entrenamiento de los sistemas de inteligencia artificial. Algunos de estos aspectos no los ha mencionado explícitamente en su intervención. Por tanto, queremos saber si Meta está analizando estos fenómenos en el contexto de sus análisis de riesgos sistémicos, a qué conclusiones llegan tras ese análisis y qué medidas están adoptando.
40:00
Para mitigar esos riesgos sistémicos a los que usted hacía referencia, no a los que yo he mencionado, pero también ha mencionado otros, por tanto, si nos puede indicar. El segundo bloque sería para garantizar la convivencia. Según los boletines mensuales del Observatorio Español de Racismo y Xenofobia del Ministerio de Inclusión, el porcentaje de contenido retirado sobre lo reportado es irregular y distinto por plataforma. Por ejemplo, en Instagram, la retirada de contenido sube hasta verano y cae con claridad después; en Facebook, fue errática al principio, pero mejora en estos últimos meses. ¿Por qué esa diferencia tan marcada entre las redes sociales? ¿Qué criterios han utilizado? Queremos respuestas porque, además, Bruselas también le reprocha lo difícil que resulta a los usuarios rebatir una decisión relativa a la moderación de contenidos, incluida una potencial suspensión de su cuenta. Dicen que tienen mecanismos ágiles de reclamación, pero a nosotros nos dicen que es necesario que abunden en esta cuestión. El tercer objetivo es el de garantizar la privacidad, y aquí es donde nuestro grupo tiene mayor preocupación. Un grupo de investigadores de varios países descubrió que su grupo estaba utilizando un método de rastreo y vinculación de datos en dispositivos móviles que no era conocido por los usuarios y que, según se publicó, fue deshabilitado. En esta misma comisión, un investigador principal del Grupo Español aportó evidencia científica. Usted lo pedía, queremos evidencia científica. Aquí se aportó evidencia que apuntaba a que Meta desarrolló de forma consciente e intencionada mecanismos específicamente diseñados con el fin de controlar la navegación de los usuarios fuera de las plataformas de Meta, y que no tenían ninguna otra funcionalidad más que esa. Esto es grave en términos de confianza y de respeto a la Declaración Europea de Derechos y Principios Digitales. Lo que está en juego es si el usuario puede decidir de forma real, informada y libre qué datos comparte y con quién. En una democracia, esto no es un detalle, es un pilar. Por tanto, me parece que tiene una gran oportunidad ahora en su intervención para clarificar y contar qué es lo que ocurrió, qué se detectó, si fallaron sus controles o no. Yo le había preparado una serie de preguntas, no sé si me va a dar tiempo, pero también para calmar y ver cómo funciona su plataforma. Usted tiene unos controles, nos lo ha dicho, así que, ¿qué controles tiene? ¿Cómo se detectó? ¿Qué se detectó? En primer lugar, ¿confirma Meta que al menos desde septiembre de 2014 y durante meses, las aplicaciones de Facebook e Instagram en Android usaron un sistema para relacionar la navegación por Internet con la cuenta de la persona, tal y como han señalado varias investigaciones académicas? Si usted confirma que fue así, queremos saber con qué propósito se hizo: si fue por seguridad, por medición, por publicidad, por antifraude. Indíquenos qué categorías de datos se recogieron y qué volumen estimado de usuarios en España o de la Unión Europea pudo verse afectado. También nos interesa saber, desde el punto de vista del Reglamento General de Protección de Datos, cuál fue la base jurídica para esa vinculación de navegación con perfiles, dónde y cómo se informó al usuario de forma clara y verificable. Queremos saber si Meta tenía permiso real de las personas para recoger esa información y usarla, y dónde lo explicitó claramente. ¿Qué podía hacer el usuario realmente ante esa práctica? ¿Podía seguir usando la aplicación con normalidad? Si se quitó de forma sencilla, ¿se podía llegar a deducir información especialmente sensible a partir de lo recogido, como cuestiones médicas, opiniones políticas o aspectos personales? Por último, que nos indique qué medidas adoptó la plataforma para evitarlo. Si avisaron o consultaron a alguna autoridad de protección de datos antes o después de detectarse el problema, ¿a cuál y qué le respondieron? En su primera intervención, y yo se lo agradezco, Meta dice que va a colaborar de manera constructiva con las autoridades. Entonces, yo pregunto: ¿qué significa eso para las personas afectadas, que posiblemente no saben ni quiénes son? ¿Se han eliminado los datos recogidos mediante ese mecanismo? Si no se han eliminado, ¿hasta cuándo se van a conservar? No sé si usted en su intervención nos puede decir si ha habido una auditoría interna para explicar esto o si estaría dispuesto a que hubiera una auditoría independiente y un informe de medidas correctoras con calendario y responsables. ¿Qué compromisos puede asumir Meta aquí en esta comisión, diciéndonos qué medidas ha adoptado o qué controles tiene para que no vuelva a pasar?
45:00
Más transparencia y control. Si se compromete usted, en representación de su grupo, a facilitar acceso efectivo a datos e investigadores acreditados para evaluar riesgos sistémicos y el cumplimiento con procedimientos claros y plazos. Si han detectado alguna cuestión, ¿qué cambios van a hacer en sus aplicaciones y sistemas para impedir que se vuelva a recoger o cruzar información de navegación sin permiso? Y, ¿qué fecha podrían tenerlo? Para concluir, porque soy consciente de que me alargo, ¿se compromete también Meta a alinear sus prácticas comerciales con un estándar verificable y aceptar consecuencias si se acredita una vulneración más allá de malentendidos técnicos? Por último, esperando que en esta segunda intervención me pueda contestar, ¿se compromete Meta a explicar de forma periódica y en lenguaje claro en España qué herramientas usa para medir y seguir la actividad de las personas dentro y fuera de sus aplicaciones? Por ejemplo, píxeles en webs, intercambios de información entre la aplicación y el navegador, qué datos recogen exactamente, para qué los usan y cómo puede el usuario desactivarlo de manera sencilla. Creo que si nos atiende a estas preguntas y lo explica claramente, será muy interesante para el ejercicio de transparencia que su empresa siempre predica. Muchas gracias, señora portavoz. Para finalizar este primer turno de intervenciones, tiene la palabra por el Grupo Parlamentario Popular, el señor Pedreño. Muchas gracias, buenos días. Gracias, señor presidente. Muchas gracias, señor Zimmermann, por comparecer en esta comisión. Menudo interrogatorio de los señores del PSOE. Cualquiera que nos esté viendo podría pensar que estamos en una comisión de investigación o algo parecido, y estamos en una comisión que se supone que es para avanzar en la tramitación de un proyecto de ley sobre la gobernanza democrática en los servicios digitales y, que no se nos olvide, de ordenación de los medios de comunicación. Esta es la tercera comparecencia. La otra vez, de forma arrolladora, nos impusieron la comparecencia de la presidenta de la CNMC y de un investigador del INDEA relacionado con esta práctica de incursión en la privacidad de los usuarios de Meta, como ha comentado el Partido Socialista. Pero yo no veo ningún avance. Sinceramente, creo que tal y como se lo está planteando, sobre todo el Partido Socialista que sustenta al Gobierno, estamos dando pasos para atrás. Mire, a los comparecientes, cuando tramitamos leyes en esta comisión, hemos hecho muchas en la legislatura pasada especialmente. Llamamos a comparecientes para que nos ayuden desde su escaparate del sector, que es donde trabajan habitualmente, nosotros no estamos ahí, para que nos ayuden a reflexionar, analizar la ley y proponer mejoras sobre ella. Pero vuelvo a repetir, quien esté viendo esto está viendo algo totalmente distinto a lo que le estamos pidiendo. Señor Zimmermann, usted ha venido aquí porque le han convocado para hablar sobre estos aspectos de la ley. Ha hablado de la DSA fundamentalmente, de cómo la plataforma Meta entiende el cumplimiento de la DSA y cómo es la repercusión y qué es lo que propone esta ley europea en vigor desde el año 2022 para todo el tema de la protección y gobernanza de los servicios digitales. Pero el Partido Socialista quiere aprovechar cualquier oportunidad; este es el fair play parlamentario de este grupo. Como esta comisión, habilitada de urgencia, una urgencia tremenda para el mes de enero, lógicamente no se nos escapa que Davos estaba ahí, que el presidente Pedro Sánchez iría a hacer alguno de sus anuncios, como hizo en su momento de traer aquí a Mark Zuckerberg, esa ocurrencia que tuvo. Pero, por desgracia, debido a un accidente ferroviario, eso no se ha producido. Al fin y al cabo, usted estaba citado para esto, y creo que al Partido Socialista le ha salido el tiro por la culata. Vamos a aprovechar también para denunciar este atropello, que parte de una denuncia ilícita de Meta respecto a la protección de datos y la privacidad. El anuncio de Pedro Sánchez sobre la organización de esta comparecencia, primero, invitando a dos personas sin el consenso de todos, es algo que no es habitual en esta comisión. Luego, invitar solo a Meta, hoy ha venido usted solo. Entiendo que luego los comparecientes irán.
Fragmentos 1-10 de 20 (10 disponibles públicamente)

¿Listo para empezar?

Únete a Parlamento.ai y transforma la manera en que monitoreas la actividad parlamentaria