Parlamento Europeo EUDS - Escudo Europeo de la Democracia

Transcripción sin título

17 de julio de 2025
14:00
Duración: 300h 8m

Transcripción

Página 1 de 3 (Vista limitada - 13 de 27 fragmentos disponibles)

Vista pública limitada

Esta es una vista pública que muestra solo la primera mitad de la transcripción. Para acceder al contenido completo, regístrate en nuestra plataforma.

0:00
Estimados colegas, queridos invitados, con esta audiencia vamos a completar nuestros trabajos sobre el Código Normativo Digital. Ya hemos hablado de las plataformas y el contenido maligno, y nosotros tenemos que hacer frente a una nueva generación de amenazas que emanan de los sistemas de inteligencia artificial generativa capaces de producir contenidos muy sofisticados, realistas y manipuladores a una escala y velocidades sin precedentes. Gracias a la inteligencia artificial generativa se pueden producir contenidos a un coste extremadamente bajo, incluidos los deepfakes, lo que permite que cientos de imágenes, vídeos y relatos inunden simultáneamente el discurso público, diluyendo los mensajes importantes y descubriendo lo que domina el espacio informativo, manteniéndolo vivo para subvertir los procesos y los discursos democráticos. También vemos una tendencia preocupante más allá de las plataformas de redes sociales, que es el fenómeno creciente de la formación de modelos de inteligencia artificial con información manipulada. Un ejemplo llamativo que ya ha sido objeto de debates en nuestra comisión son las informaciones de Pravda con sede en Moscú, que ha logrado inundar los conjuntos de datos de información en inteligencia artificial con artículos de profunda prorrusa, lo que ha llevado a los principales modelos lingüísticos a reproducir estas narrativas en un tercio de sus respuestas, un fenómeno conocido como LLM grooming. El rápido desarrollo del mercado clandestino de identificadores de inteligencia artificial generativa y de herramientas maliciosas diseñadas para este fin, WOMGPT y FraudGPT, también es motivo de preocupaciones, probable que permita operaciones de ciberdelincuencia, manipulación de la información y desinformación a escala industrial, así como la explotación de las vulnerabilidades de las infraestructuras esenciales en todos los Estados miembros. Como siempre, con el cambio tecnológico, lo cual no es una mala noticia, las herramientas de inteligencia artificial se utilizan ahora ampliamente para investigar los FIMI, verificar el cumplimiento de las grandes plataformas y descubrir los deepfakes. La inteligencia artificial también se utiliza en herramientas de ciberseguridad para proteger nuestra infraestructura informática, especialmente en sectores críticos. El primer panel reúne a expertos que han estado a la vanguardia de la identificación, análisis y la lucha contra las amenazas que la inteligencia artificial generativa supone para los procesos democráticos. Estos ponentes combinan un profundo conocimiento técnico con experiencia práctica en el seguimiento de elecciones, la lucha contra la desinformación y la protección de las instituciones democráticas. Me alegra dar la bienvenida a Rasto Krusel, director ejecutivo de Memo98, especialista en medios de comunicación y elecciones, con más de 25 años de experiencia. El trabajo primero del señor Krusel sobre la desinformación en contextos electorales reviste especial importancia para el debate de hoy. Su reciente atención a las operaciones de información rusas y las campañas FIMI en los países de la Asociación Oriental proporciona informaciones esenciales sobre cómo la inteligencia artificial generativa amplifica las tácticas tradicionales de desinformación. También nos alegra contar con la señora Victoire Guillaud, fundadora y directora general de Whattofix, una destacada experta en responsabilidad tecnológica con experiencia en los sistemas de monetización de las redes sociales y su impacto en la integridad de la información. Su trabajo en Myanmar entre 2016 y 2023, dirigiendo los esfuerzos de responsabilidad tecnológica durante los periodos de genocidio, guerra civil y transición democrática, ha proporcionado información única sobre cómo el contenido generado por la inteligencia artificial puede utilizarse como un arma en contextos de crisis. También damos la bienvenida a Rami Ben-Efraim, fundador del grupo BNF, que aporta una perspectiva única que combina su experiencia en los sectores militar y tecnológico con un profundo conocimiento de las amenazas emergentes para la seguridad. En particular, ha trabajado en la naturaleza dual de las tecnologías de inteligencia artificial y su potencial para aplicaciones beneficiosas y maliciosas. Nuestro primer panel se completa con la participación del doctor...
5:00
Jorge Gord Levitsky, pronosticador y experto tecnológico de renombre internacional, que analiza la intersección entre la inteligencia artificial y el cambio de civilización. Sus esfuerzos académicos y su experiencia práctica en la prevención de proyectos proporcionan información esencial sobre las implicaciones a largo plazo de la inteligencia artificial para la gobernanza democrática. Serán muy valiosos sus observaciones. Su trabajo sobre los riesgos de la tecnología de inteligencia artificial generativa para inaugurar nuevas formas de autoritarismo digital ofrece una reflexión interesante sobre el potencial socialmente disruptivo de las tecnologías emergentes. Doy la palabra, sin más, empezando con el señor Cuché. Muchas gracias. Señoras, señores, es un honor el dirigirme a todos ustedes hoy en un tema que se centra en lo más importante de la resiliencia democrática. Yo soy investigador, como se ha dicho, y tengo ya treinta y pico años de experiencia en más de treinta países y hace poquito tiempo en Georgia y en Macedonia del Norte. Y muchas veces en un ámbito en el que la información está atacada continuamente. Empiezo, si me permiten, contándoles una anécdota personal que se me ha quedado más de dos decenios. En el 99 yo estaba trabajando en Ucrania y yo era un análisis de medios de comunicación para una misión de observación electoral. Y por entonces el presidente Kuchman solo aceptaba un periódico Silskevich, que era Noticias del Campo. Con 500.000 personas, pues daba voz a los candidatos de la oposición y criticaba al presidente. Todas las mañanas lo leía. Y un día abrí el periódico y de repente dije, oye, aquí ha pasado algo. Y parecía igual, todos los cuadros, etcétera, pero de repente atacaba a los candidatos de la oposición y decía que el presidente era maravilloso. Y dije, bueno, debe ser mi ruso que no lo entiendo. No, no. Alguien había producido y distribuido 500.000 copias falsas del Silskivitsky, que eran iguales, del contenido, etc. Era distinto, pero el diseño igual. Y era la primera vez que me encontraba con los bulos, la desinformación, las fake news. Entonces, eso es algo que se hacía con la prensa y ahora se hace fácilmente con la inteligencia artificial y llega a millones en segundos. La IA generativa permite nuevas tácticas, clonar la voz, impersonarse como otro, mentiras, y además permite que los malos actores creen contenido manipulativo de una manera sin precedentes, con una escala sin precedentes. En el 24, solo el 24, más del 80% de países que tenían elecciones pues se experimentaron este tipo de desinformación generada por la IA. Desde Trump apoyando a un candidato polaco, a una impersonización de Biden en los Estados Unidos, esta IA es parte de las elecciones y de las manipulaciones, pero no tenemos que tratarlo como algo que se trae así. Lo hemos visto en las elecciones rumanas anuladas, es que hace que la desinformación llegue a algo muy vulnerable, personalización, la confianza que se va quitando. Como se mencionó en el análisis rezante de 80.000 y pico posts de los medios de comunicaciones, pues ahí se vio clarísimamente que se estaba creando desinformación de género, por ejemplo dirigida a las mujeres en la política, a los periodistas y los activistas. Hemos documentado muchas narrativas manipuladas que lo que quieren es desacreditar a las mujeres en la política, a las mujeres famosas que piden igualdad de género y otros más amplios. Estas narrativas muchas veces crean ese mensaje anti-Unión Europea, pro-Kremlin. Todo ello para sembrar división. Y es que no hablamos solo de toxicidad digital. Es decir, quita a las mujeres de la política, silencia a las periodistas y acaba con la confianza. La IA generativa no lo hace de por sí, pero sí que hace que sea más anónimo, más rápido y más violento. La respuesta de las plataformas, pues no es la misma.
10:00
sido coherente, no ha sido adecuada. El abuso de las redes sigue yendo más rápido de la aplicación que podemos llevar a cabo. Sobre todo esto se está creando un declive cada vez mayor de la rendición de cuentas. Lo vemos en el metaverso. Países como Eslovaquia no lo pueden hacer ellos solitos. La Unión Europea es la que tiene que fijar una serie de normas claras vinculantes en el mercado único digital. La mayor parte de los países, muchos de la Unión Europea, todavía no tienen los marcos jurídicos necesarios para regular este tipo de injerencias para las elecciones por IA. Muchas veces no se tienen los instrumentos ni los trabajadores o el mandato para responder de una manera cabal porque muchas veces estamos viendo cómo este contenido muchas veces viene de cuentas, cuentas anónimas o seudónimos y esto hace muy difícil que se rastree el origen o que se lleve a cabo la rendición de cuentas. ¿Cómo lo hacemos? ¿Cómo respondemos a todo esto? Pues quiero ofrecerles cinco recomendaciones de índole práctica. Transparencia obligatoria. Pedir etiquetar en los metadatos, poner marcas de agua y archivar los contenidos políticos generados por la IA. También garantizar que esas bibliotecas políticas hagan un etiquetado de esos materiales que se generan por la IA. El acceso a los datos para la supervisión. Es el segundo punto que quiero decir. Es importante que los reguladores, los investigadores, la sociedad civil necesitan eso, que se apoya la supervisión en tiempo real por parte de la sociedad civil y los reguladores, sobre todo durante campañas electorales. Tercer punto, proteger a los grupos vulnerables. Es importante que haya leyes que aborden el abuso basado en imágenes y la difamación impulsada por la IA. Esto daña de una manera desproporcionada a las mujeres y a las minorías. También desarrollar la capacidad cívica y la periodística, invertir en herramientas y formación para activistas y desarrolladores de tecnología ética. Es importante, no solo para los reguladores. Y luego, aplicación transfronteriza, utilizar la ley de la IA de la Unión Europea, el convenio del CDE y las normas mundiales en este sentido. Y de esa manera se pueden crear normas vinculantes y que se puedan aplicar a cabo ya. Y les digo al final que la IA generativa no es en sí algo malo, simplemente puede acelerar todas las amenazas más difíciles de localizar y crea esa impersonación de tiempo real, la saturación, entre otras cosas. Y la tarea que tenemos delante de nosotros no son los regulares de tipo de instrumentos, sino reforzar la confianza, la participación y una institución que pueda hacer que se defienda la democracia. Así es que actuemos ahora, que todavía podemos. Me permiten el papel de las plataformas de redes sociales. Cinco años desde que se aprobó el Digital Service Act y la Ley de Mercados Digitales, pero mucho ha cambiado desde que se redactaron. Mucho, mucho ha cambiado desde entonces. Así es que quiero centrar mi intervención, si me permiten, en tres cambios importantes. En primer lugar, el auge de la monetización de las redes sociales, también la proliferación de la automatización no auténtica y la redefinición de los modelos publicitarios de las plataformas y las relaciones con los editores. En combinación con el auge de la IA generativa, estos cambios están creando una tormenta perfecta que está socavando de manera rápida la integridad de la información y también la democracia. En primer lugar, monetización en las redes sociales. En los últimos tres años, todas las principales plataformas de redes sociales han introducido programas de restitución de los ingresos. En la práctica, esto significa que las empresas de redes sociales ahora están pagando millones a los editores de contenido por publicar en sus plataformas. No conceden licencias de contenido por adelantado, tal y como desearían las organizaciones mediáticas, sino que pagan a los editores participantes derechos de autor en función del interés que genera su contenido. Meta es la única empresa que divulga de manera periódica las cuentas activas en sus programas de distribución de ingresos, lo que ven ahí en la pantalla, pues eso es lo que tiene Facebook, por ejemplo. Y como pueden ver ustedes, hay un crecimiento exponencial del 23 y va a más continuamente en los últimos meses. Y ese gráfico ni siquiera tiene en consideración más de 1,5 millones de cuentas adicionales que se añadieron en junio en unas semanitas.
15:00
Pero el problema es que no hay una supervisión de todo esto, aunque se redistribuyan millones de euros todos los años. Hace unas semanas mi organización llevó a cabo una investigación en la que se demostraba a TIG, Sputnik y otras entidades de sanciones que estaban registradas para recibir dinero durante meses después de las sanciones en cuestión. Nuestra investigación muestra que los sistemas de monetización de las plataformas que tienen que ver quién se cualifica para estos ingresos no funcionan. Estamos viendo cómo se hace. Los actores de información pasan por delante, los partidos políticos pasan de todo esto. Y en algunas partes del mundo, incluso la política, los militares, las páginas del gobierno se están registrando para sacar dinero del Facebook. Y cuando estos problemas no llevan a cabo operaciones motivadas políticamente, pues incentiva muchos de los comportamientos dañinos que nos preocupan. Hablo de influencers, por ejemplo, que cada vez son más extremos, porque desde luego si la gente está cabreada, pues hay más engagement y esto paga. O los jóvenes en lugares como Vietnam o Filipinas que generan ingresos a través de hacer que la IA generativa llegue a cuentas falsas y esto va a mercados globales. Y esto me deja o me lleva al segundo punto fundamental, que es la automatización inauténtica, inauténtica. Hace unos años solo había una serie de actores que tenían la experiencia técnica y la infraestructura para llevar a cabo manipulación automatizada y hacerlo a gran escala. ¿Qué ha cambiado desde entonces? Pues una serie de cosas que nos lleva al cambio de monetización del que les hablaba hace un segundín. En primer lugar, tenemos miles y miles de actores motivados desde el punto de vista financiero que están incentivados por parte de las plataformas para automatizar prácticamente todo, para mejorar sus operativas y maximizar lo que se paga. Esto está poniendo más leña al fuego en la demanda, en las herramientas de automatización, que está haciendo que la disponibilidad sea mayor y los precios menos. Los softwares de automatización cada vez son más sofisticados. Es decir, lo que ven ahí en la pantalla lo hace una empresa vietnamita, que se ha utilizado en europeos. Se pueden crear grupos de cuentas y darles una serie de tareas, programarlos para que su contenido solo tenga el tipo necesario de compromiso de engagement para llevar a cabo este tipo de sistemas. Este tipo de herramientas cada vez están más integradas con la IA generativa para que puedan automatizar la creación de contenidos. Para llevar este software de automatización se necesita lo que conoce como una granja de teléfonos, la phone farm. Es decir, muchas fotos, lo que ven en la izquierda, muchos teléfonos y un autopiloto. Es posible que se encargue una de estas granjas de teléfonos a su casa por menos de 100 euros. Pero lo que preocupa más, y esa es la siguiente diapositiva, ahora es posible alquilar acceso virtual a una de estas granjas de teléfonos de una manera virtual. Fíjense en un almacén con muchísimos teléfonos en Vietnam. Se pueden alquilar estos teléfonos por hora y hacer posible que se gestione un ejército de cuentas falsas desde un ordenador. La última parte, la redefinición de los modelos de publicidad de estas plataformas y las relaciones entre el publicador y las plataformas. En 2020, YouTube completamente redefinió la manera en que la publicidad funciona en los medios de comunicación. Lo que hizo es darle a él mismo el dinero de monetizar todos los lugares de publicidad en sus servicios. Y al hacer esto, cambió desde ser alguien como un intercambio de publicidad, que vendía estos plazamientos en nombre de los publicadores, y pasó a ser la empresa de contenido. En práctica quiere decir que los que publican contenido, incluyendo organizaciones de noticias legítimas, ya no tienen esos lugares que se ponen la publicidad y que eran suyos. Ahora las plataformas ya no tienen que tener el aprobado para hacer todo esto y los publicadores dependen de esas royalties en las que no tienen ningún tipo de control. Y no hablo de esos pagos de derechos de autor que son opacos, no predecibles, pero si encima pueden ser retenidos por las plataformas en cualquier momento, por cualquier razón, y encima no hay compensación. Además están sometidos a los sistemas de aplicación automática que como los sistemas de moderación de contenido más o menos pues tienen muchas interferencias.
20:00
Y con la IA generación, las plataformas cada vez están viendo cómo pueden sustituir a los creadores humanos con un contenido generado por la IA. Y si esto pasa, esto puede reducir o incluso reducir los pagos de esos derechos de autor en sí. Las implicaciones de esto tienen unos cambios enormes para la democracia. Miren, en primer lugar, las plataformas están incentivando actividades muy dañinas. Aparte de todo esto, la automatización de cuentas falsas está haciendo una producción en masa y la distribución de un contenido más fácil, más barato que lo que era hasta ahora. Y luego los creadores de contenidos de verdad están quedando al margen. Esto hace que sea mucho más difícil. ¿Qué tenemos que hacer aparte de eso? Ahora tengo tres recomendaciones que puedo trasladarles a todos ustedes. Tenemos que garantizar los riesgos que existen y que vienen de la mano de los incentivos. La de S.A. brinda las herramientas necesarias para que las plataformas en línea sean responsables del diseño, el funcionamiento y la utilización de esos servicios. Necesitamos que todos estos estén a la altura de los servicios de monetización. En segundo lugar, tenemos que alcanzar que el acceso a los servicios de modernización de EMA sea justo, razonable y no discrimine. De nuevo, no tenemos que reinventar la pólvora. Tenemos el de EMA, pero las plataformas de medios de comunicación han podido quitar el de EMA, separando sus empresas con el contenido de las mismas. Es decir, que hay que ver cómo podemos llevar a cabo la monetización como una plataforma de servicios. Y luego, tenemos que hacer que las plataformas revelen más de la monetización y con quién está asociada esta monetización. Podemos alcanzar todo esto a través del Digital Single Act, sobre todo si tenemos en cuenta que este contenido de monetización es parecido a las comunicaciones comerciales, pero a lo mejor hay que explotar alternativas para tener esas posibles soluciones para las siguientes legislaciones. Y por último, tenemos que ir de una manera más agresiva a la automatización. ¿Cómo podemos hacer que la venta de estos productos automáticos sean ilegales para que las plataformas hagan más de lo que hacen ahora? Y también que tengan más mercadotecnia y marketing sobre los servicios que llevan a cabo. Además, lo que tenemos que hacer también es que se lleve a cabo una supervisión de estos servicios de monetización para que se puedan mitigar los abusos que proliferan cada vez y esos comportamientos dañinos. Y hacer que todo esto sea posible. Muchísimas gracias por su atención. Gracias. Buenas presidentas, señorías. Muchísimas gracias por haberme invitado a hablar hoy. Me llamo Bench Mlinay y soy el fundador del grupo BNSL, un consorcio de tecnología que se centra en ayudar a las democracias, sobre todo en la época de la IA. Nuestro grupo tiene Planet 9, que trata la desinformación en plataformas chinas, rusas; StreamIA, que habla del sesgo de los algoritmos en los medios de comunicación; y otra que haya… a la hora de tener unas resoluciones a gran escala para la IA. Hoy quiero hacer hincapié en tres amenazas urgentes que la IA plantea a las democracias, teniendo en cuenta casos de vida real que hemos monitoreado y ver cómo podemos responder si lo único que hacemos es que esta visibilidad sea la prioridad. Empecemos con el ámbito geopolítico. En el año 25 estamos de nuevo en una era de… fuerza. Los países cada vez tienen más presupuesto de defensa y hace que las fuerzas militares estén en alerta. Se están desplegando soldados en las fronteras y policías en nuestras calles, pero nuestro espacio digital queda, a la mano de Dios, como una tierra de nadie. Y ese vacío está explotado por fuerzas malignas, externas, iraníes, rusos, chinos, que operan con muchísimos bots, con unos ejércitos de bots llevando a cabo la desinformación, las fake news y haciendo acopio de los datos de los ciudadanos con una serie de mensajes que no podemos confiar en nuestra democracia. Xi Jinping ya dijo hace años que el warfare de información es el mejor campo de batalla. Él no quiere decir que no está invirtiendo en esas capacidades militares. Lo que quiere decir es que si quieren llevar a cabo todo esto y que se siga de una manera clara, sin disparar una sola bala, eso se puede hacer. Y la guerra cognitiva lo llaman los vietnamitas, con mensajes breves para las jóvenes generaciones. Como por ejemplo, si votas aquel partido, votas por la guerra. Y esto tiene su impacto. China y Rusia tienen…
25:00
Los conocimientos y la escala y una estrategia de debilitamiento de nuestras democracias. Esta comisión ya conoce las capacidades e intenciones de estos países, por lo que yo añado sólo esto. Con la IA generativa estamos pasando a una nueva fase de esta guerra, con contenidos generados automáticamente, amplificados por las redes sociales, con una nueva escala y envergadura. ¿Cómo reaccionar? Pues el primer elemento con los socios gubernamentales es dar mayor visibilidad. Plataformas como Instagram, Ex o Facebook ya no bastan. Debemos cubrir todas las otras plataformas. Debemos poder supervisarlo todo con operaciones coordinadas sobre los flujos de información a través de las fronteras. Cuando se diseñó la cúpula de acero, se hizo con la misma filosofía, la protección total. El reto de la visibilidad puede sonar fácil, pero en el espacio digital y desde los usuarios es otra historia. En enero del 2025, TikTok tenía que apagarse en Estados Unidos, pero en la misma semana, el pequeño libro rojo se convirtió en el primer libro que se bajaba a los usuarios en Estados Unidos. O sea que la recomendación no es... útil. No es suficiente. El mensaje de Beijing fue muy claro. No cierran la puerta, entraremos por la ventana. La visibilidad es lo más importante. Las redes sociales de hoy en día y las plataformas sociales se ven dominadas por esa robótica. Debemos cubrir todas las áreas tecnológicas recuperando el control del espacio digital en manos del gobierno. Algunos de ustedes pensarán que hay que encontrar un buen equilibrio entre seguridad y privacidad para evitar el gran hermano. Pero recordemos esto. La libertad de expresión se le dio al ser humano, no a las máquinas. Lo repito. Es para los humanos, no para los bots, los botnets o los agentes ya. Segundo reto. Los algoritmos que utilizan las redes sociales. Se lanzó especulaciones sobre la utilización de Irán de TikTok. Pero dejemos los anuncios de un lado de momento. Cuando empiezan a desarrollarse las teorías de la conspiración, olvidándose de los hechos, ese es el principal reto y la principal amenaza. Si no tenemos procesos electivos limpios, las democracias empezarán a derrumbarse. Por ese motivo hemos decidido entrar en los algoritmos para entender cómo funcionan. Damos a nuestros socios gubernamentales una visión de los sesgos algorítmicos, demostrando que narrativas de Tic-Toc, por ejemplo, son promovidas. Es esencial para entender ese tsunami informativo y prepararnos para poder demostrar que unas elecciones son justas o no. En todo caso, las fuerzas malignas están intentando cambiar las almas de la ciudadanía. Por lo que necesitamos una línea de defensa robusta. También necesitamos visibilidad y transparencia para esos agentes de IA. La revolución IA está presente. Se acabó Google, empiezan los chatbots. Chat GPT, DeepSeek y otros muchos. Nuestra joven generación ve el mundo a través de ese prisma. En las últimas elecciones presidenciales se nos pidió si se estaba manipulando el contenido político a través de la IA. Después de unos cuantos controles vimos que había efectivamente una respuesta perturbadora. Sí, el LM está sesgando sistemáticamente los datos de los republicanos, ya no sólo de Trump, sino todo contenido republicano recibía un plus. El LLMES, nuevo dios de la información, estaba ofreciendo una verdad subjetiva, sesgada, que puede...
30:00
Puede ser discriminadora y en manos de actores malintencionados puede cambiar las mentalidades sin que el usuario se dé cuenta. ¿Qué podemos hacer? Pues ya saben por dónde voy. Visibilidad y más visibilidad para esas grandes IAs, para detectar todo tipo de sesgos. Y una vez más, debemos ir lo más profundo que se pueda, supervisando los circuitos para entender mejor la cadena de pensamiento y evitar que se genere una respuesta que no coincida o no acate nuestros valores occidentales. En el 2025, un adolescente piensa a través del modelo IA, por lo que los desarrolladores lo que están es con el modelo IA controlando las mentes de nuestra juventud, endoctrinándolos. Y para concluir, diré lo siguiente. Los actores extranjeros y malintencionados China-Rusia están controlando el espacio digital y la guerra de la información es un riesgo existencial para las democracias. Nuestras acciones no se pueden basar solo en una actuación reglamentaria. Debemos actuar con una estrategia clara que tenga en cuenta los retos de hoy y los que vendrán. El escudo democrático debe ser nuestra cúpula de acero, con visibilidad por delante, una cobertura completa de todas las plataformas chinas y rusas, una visibilidad clara de los sesgos algorítmicos y las capacidades de los agentes IAs. Esto va más allá de elecciones limpias. Estamos hablando en este caso de soberanía, de protección de las mentes y libertades de las siguientes generaciones. Recuperemos el control de nuestro espacio digital y tratemos de estar por delante. Gracias. Y ahora en línea, señor Levitsky. Gracias por la invitación. Yo soy analista en temas de seguridad y para mí la IA no es una amenaza en sí. Eso sí, la amenaza de la difusión de determinadas informaciones sí puede serlo. Y en mi investigación me centro sobre todo en dos aspectos, dos características de la IA generativa. Primero, es un poder que permite configurar las mentes, lo que llaman los militares conciencia de situación. Y esto afecta a toda la sociedad. En polaco utilizamos wiedo wasa, que es una palabra que significa conocimiento del poder, poder del conocimiento, poder decirle a la gente lo que es conocimiento creíble, lo que es real en definitiva. Pero existe también una capa más profunda de la influencia de la IA en nuestra realidad. Y lo han evocado mis predecesores. Para los adolescentes se está generando una especie de relación de lazo humano-máquina que, si se multiplica por muchísimos individuos, puede dar lugar a comportamientos a gran escala, costumbres que van emergiendo. Las personas, y en especial los jóvenes, empiezan a considerar los chatbots ya no sólo como su primera ventana hacia Internet, sino que los tratan cada vez más como socios, compañeros, amigos. La persona a quien te confías, lo cual demuestra el gran grado de aceptabilidad que tienen algunas narrativas dentro del contexto social. Se podría decir que, según las investigaciones, Overton Window está modificando la confianza y la aceptación de los humanos frente a lo que dice la máquina. ¿Por qué es importante? Y paso a la siguiente transparencia. Pues un término que resume muy bien lo que han dicho los oradores anteriores es el calibrado ideológico. ¿Qué es?
35:00
Es la forma en que un chatbot o un agente IA se refiere a contextos ideológicos blandos e insinuaciones. Lo que tenemos en pantalla lo ha elaborado David Rosado, un investigador australiano, que es la evolución de la actitud de los primeros modelos de chat GPT. En el 2023, recordarán ustedes, se calibró de forma un poco distinta. El primer calibrado era hacer que chat GPT contestara de forma más bien izquierdista o libertaria. Pero en el grok moderno... y recordarán ustedes cómo grok se ha convertido en mucho más brutal y derechista, pues demuestra que los chatbots y los motores tienen su marco ideológico, que luego a su vez conforma la mentalidad de los usuarios. Y, en función de los intereses propios u objetivos políticos del usuario y de los propietarios de estos chatbots, se puede modificar el perfil para que prospere su negocio. Y si ahora pensamos ya no en chatbots digitales, sino en robots incorporados que podrían injertarse en nuestros cerebros, pues serían agentes de influencia ideológica. Amenazas para la democracia. Ya se han mencionado muchas cosas. Manipulación totalitaria, influencia malintencionada. Podríamos llamarlo sharp power en inglés, como opuesto a soft power, que es la influencia a través de la cultura. El poder contundente es el que lidera la guerra informativa. Y es lo que hacen estos agentes, es decir, que inundan con contenido y esa inundación de contenido falso son utilizados por los actores autoritarios para influir en la mente de las personas. Y hay otro término que no... no todo el mundo conoce lo que se llama el dead internet, el internet muerto, que son esos espacios de recursos, de redes sociales en que se consigue influir en los usuarios. ¿Cómo se hace? Pues se despliegue una especie de granja de bots, como... mencionó la compañera antes, una granja para crear como opción en una red social, y otros bots empiezan a entrar en diálogo desde la granja. Y el usuario, nosotros, el humano, lo que buscamos es la prueba social de la verdad, como lo llaman los psicólogos. Es algo que todos tenemos. Si muchas personas dicen una cosa, pues pensaremos igual. Eso es una utilización deliberada de influencia a través del poder contundente, el sharp power. Pero luego hay otros fenómenos que no estudian muchos analistas: las consecuencias no intencionadas de la utilización de la IA generativa, como por ejemplo el retroceso de la cohesión social. Se pueden generar contenidos que crean burbujas informativas cerradas que, a su vez, pueden llevar al quebrantamiento de naciones en Francia, en Polonia, en Bélgica, en Rumanía. El guión que se propone al usuario desde estos chatbots es distinto del tramado social real, creando una... Sobre abundancia. Me explico. En la Edad Media ya existía la desinformación por falta de información. No había mucha información que circulaba, por lo que la gente a veces se inventaba cosas. Hoy en día es exactamente lo contrario. Desinformación por exceso de información.
40:00
Nuestro cerebro está cableado así. Cuando no podemos escoger lo que es cierto o no, pues decidimos no decidir o desconectar nuestro cerebro de la realidad. Y eso a su vez genera ese declive de la participación ciudadana. Ya he escrito sobre lo que yo he llamado la nueva edad media en geopolítica. Una era en que la distinción entre lo falso y lo real ya no importa, porque lo que busca la gente en la esfera digital es una buena experiencia, algo coherente con los valores propios que pueda tener. Y eso permite a los actores autoritarios generar, crear unas nuevas relaciones feudales opuestas al capitalismo, o mejor dicho, dentro del capitalismo, con unas relaciones jerárquicas entre el trabajador y quien pueda dar trabajo. Una relación neofeudal en que las grandes plataformas tecnológicas o incluso estados pueden hacerse con esferas de la realidad fuera de un marco de valores y principios democráticos, marcando sus propias normas desde una plataforma digital. No me explayaré más, porque veo que se me acaba el tiempo. Siguiente. Hay una historia reciente que cuenta que hay gente que utiliza la IA en las aplicaciones de encuentro, creando una especie de sociopatía autoinducida, porque utilizando la IA para relacionarse con los demás hace que uno pierda sus propias capacidades sociales. Existen todo tipo de propuestas políticas en la Unión Europea y las puedo mencionar, como por ejemplo, y ya se ha mencionado, debemos regular mejor la calibración ideológica de los chatbots. Porque siempre que aparece una nueva actualización de un chatbot que utilizan nuestros adolescentes, con la última actualización puede cambiar la mentalidad y actitud y visión del mundo que tienen esos mismos adolescentes. Por lo que el calibrado ideológico se merece muchísimo más estudio. En cuanto a los deepfakes, los vídeos creados artificialmente, pues existe una iniciativa muy interesante en Dinamarca que las caras, los rostros, sean objeto de derechos de autor, que se consideren como las propias huellas dactilares y si alguien utiliza tu rostro o un parecido para generar contenido falso y perjudicarte, y es una tendencia creciente entre los niños, se crea un deepfake para burlarse de un amiguito del cole y puede llevar hasta el suicidio. Pues si las caras, los rostros fueran protegidos por copyright, por derecho de autor, pues quizá podríamos luchar mejor contra este tipo de ultrafalsos. Ahora, todo ello sin pasarse. No hay que regular en exceso. Como ya ha dicho alguien en la mesa redonda, la innovación no se puede inhibir porque estaríamos dañando la economía europea, pero sí podemos escoger a nuestros socios. Los socios transatlánticos están siguiendo nuestros valores democráticos y de civilización europeos, sí o no. Y luego también ofrecer a los jóvenes unos servicios fuera de línea, con programas que fomenten la cohesión social. En algunos estados europeos estamos trabajando en esta línea. No voy a entrar en detalles, pero básicamente de lo que se trata es de crear una oferta fuera de línea que permita reconectar a los individuos entre sí, especialmente los adolescentes. Si ya tenemos 40 o 50 años, ya somos mayores. Pase lo que pase, pues no nos afectará. Otra cosa. Una prohibición de redes sociales antes de 15 años a nivel europeo.
45:00
sociales, desde luego, pero también de la utilización de los chatbots, esos chatbots que emulan algunos personajes o figuras, figuras totalmente artificiales que los niños consideran como sus propios amigos. Y cuando empieza ese tipo de relación humano-máquina con 10 o 12 años, el cerebro se está desarrollando de forma distinta y eso es otro aspecto que debemos tener muy presente. Muchísimas gracias de momento y con mucho gusto contestaré a sus preguntas. Muchas gracias a usted. Solo va a haber una ronda de preguntas. Esta es la QSPPE. Muchas gracias. Presidente, y gracias a los panelistas por esta presentación tan interesante. Es que no sabemos muy bien qué hacer con el impacto disruptivo de la inteligencia artificial en el contexto de elecciones y lo que es suavemente lo más exigente es la velocidad y el alcance. La inteligencia artificial consigue falsificar y construir imágenes, vídeos, relatos y ahora vemos un contenido sintético que no se puede distinguir de los medios de comunicación auténticos. Yo soy húngara y yo he visto de primera mano cómo se puede socavar el proceso democrático en los países de Europa Central y Oriental. Yo veo dos enfoques. En primer lugar, un etiquetado con las disposiciones de la legislación del mercado digital y también programas de alfabetización digital y también centrarse en la juventud y reformar la vida. Forzar los mecanismos transfronterizos para conseguir rendición de cuentas de los proveedores de servicios de inteligencia artificial comunitarios y extracomunitarios. Y esto implica varias cuestiones. Gracias por sus recomendaciones, así me puedo ahorrar uno. Tenemos que optar por medidas preventivas como la alfabetización o las medidas a toro pasado, como por ejemplo el etiquetado. Además necesitamos una coordinación porque el coste de no actuar sería exagerado. Es un desafío sin precedentes, pero con el etiquetado, la alfabetización e inversión en la colaboración podemos preservar la democracia y también la innovación. Muchísimas gracias por su reflexión. Gracias a todos los oradores. Ha sido sumamente interesante. Tengo la sensación de que estamos ante una sociedad distópica y a veces acabo pensando, Dios mío, ¿qué se puede hacer? No es demasiado tarde ya porque es una enorme amenaza si se abusa de ello para nuestra sociedad, pero también para el bienestar de los ciudadanos. La clave de la democracia es la confianza. Si ya no se puede fiar una de nadie y de nada, ¿dónde vamos a acabar? Me alegro por sus recomendaciones concretas. Me agrada oír que el DSA, yo fui ponente para el DSA, para la legislación de servicios digitales, es un buen instrumento y también hacer extensivo el deseo a los modelos de aprendizaje automatizado de la inteligencia artificial, de estos modelos de generación lingüística. A lo mejor se necesita una revisión, una legislación que abarque todo. Me gustaría sondearles al respecto. En el fondo hay que hacer todo lo que nos recomiendan. Habría que hacerlo, pero yo me temo que a lo mejor no es suficiente.
Fragmentos 1-10 de 27 (13 disponibles públicamente)

¿Listo para empezar?

Únete a Parlamento.ai y transforma la manera en que monitorejas la actividad parlamentaria