Nos ponemos de pie.
En nombre de Dios y la Patria, se abre la sesión.
El acta de la sesión 115 queda reglamentariamente aprobada; el acta de la sesión 116 se pone a disposición de las señoras y señores integrantes de la Comisión.
La señora Secretaria dará lectura a la Cuenta.
Gracias, Presidenta. Se han recibido los siguientes documentos:
— Comunicación del Jefe de Bancada de la UDI, por la que informa que la diputada Marta Bravo será reemplazada en esta sesión por el diputado Joaquín Lavín.
— Misma comunicación de esa bancada para informar que el diputado Daniel Lilayú será reemplazado en esta sesión por el diputado Felipe Donoso.
— Correo electrónico del cofundador y CEO de Lidia Compliance 360, señor Cristóbal Auger, a través del cual excusa su inasistencia a esta sesión por haber tomado conocimiento tarde de la invitación y por compromisos corporativos indelegables adquiridos previamente; queda a disposición para futuras sesiones.
— Informe elaborado por la Biblioteca del Congreso Nacional, titulado “Regulación Extranjera sobre Deepfake”, solicitado por esta Comisión en el marco del estudio del proyecto de ley, Boletín N° 17.795.
— Finalmente, correo electrónico del señor Francisco Nieto, en representación de la Asociación de Productores Fonográficos y Videográficos de Chile A.G., quien se refiere al proyecto de ley que regula la creación y difusión de imitaciones digitales realistas de la imagen, cuerpo o voz de las personas generadas mediante inteligencia artificial, y solicita audiencia con la Comisión para esa asociación gremial a fin de exponer su posición sobre el proyecto.
Es toda la Cuenta, Presidenta.
Muchas gracias, señora Secretaria. Ofrezco la palabra sobre la Cuenta.
Diputada Yeomans.
Tiene que ver, más bien, Presidenta, con la sesión, porque había una solicitud de audiencia. En la sesión de hoy tenemos varios invitados para poder escucharlos. Yo sé que habíamos tomado el acuerdo de que, después de escuchar a todos los invitados, votáramos.
Quería saber si eso va a ser posible, porque en vista de los tiempos no sé si nos va a dar.
Gracias, diputada. Vamos a ver cuántos invitados tenemos. Confirmados, ocho. Y habíamos acordado destinar la última media hora de la sesión al proyecto de ley del diputado Kaiser.
Diputado Kaiser: Señora Presidenta, si los miembros de la Comisión están de acuerdo, y en el caso de que podamos recuperar esa media hora en la próxima sesión, yo estaría dispuesto a que el segundo punto no se vea y completemos entonces la tramitación del primer punto. ¿Están de acuerdo?
Muchas gracias, diputado. Sí. La próxima sesión, si no me equivoco, el lunes es feriado. Por eso mismo lo pongo sobre la mesa, para que quizá nos convoquemos otro día; no sé si se puedan hacer sesiones especiales, o a la subsiguiente.
Diputada Laura: Gracias, Presidenta. A mi parecer, este es un proyecto de ley que toca materias que no son tan simples como podríamos creer, que tiene mucha profundidad y, como no somos expertos, necesitamos informarnos y escuchar. Por lo tanto, no creo que exista una premura tan urgente para votar rápidamente. Debiéramos darnos el tiempo de escuchar a todos los invitados con calma, a cabalidad, y entender lo que vamos a votar. Votemos en general cuando corresponda, porque no hay una urgencia que amerite hacerlo apuradamente o en sesiones extraordinarias. Gracias, Presidenta.
Gracias, diputada Laura. Efectivamente, habíamos tomado el acuerdo de votar hoy, pero tenemos ocho invitados confirmados para el día de hoy. Además, han solicitado ser escuchados otros actores. Agradeciendo la deferencia del diputado Kaiser de posponer para la siguiente sesión la revisión de su proyecto, le propongo a la Comisión que en la siguiente sesión, el lunes 15 de diciembre, terminemos con las audiencias —ojalá no quede ninguno pendiente; vamos a tratar de ser bien eficientes con los tiempos— y ese día votemos este proyecto. Luego pasamos a discutir el proyecto del diputado Kaiser. Es decir, lo que íbamos a hacer hoy lo aplazamos para el día 15, para no dejar de escuchar a las organizaciones que han solicitado audiencia sobre este proyecto.
Diputada Yeomans: Presidenta, doy el acuerdo, me parece bien. De todas formas, para que en la otra sesión realmente avancemos, me gustaría que pudiésemos votar en general y avanzar también en la discusión en particular. Entonces, hagamos todo lo posible para que en esta sesión escuchemos a todos los invitados que están, y en la siguiente sesión podamos avanzar, dejando la hora establecida para el diputado Kaiser, a fin de escuchar su proyecto de ley y respetar esos tiempos.
Estamos entonces de acuerdo con que el lunes 15 terminamos con este proyecto y lo votamos, por lo menos, en general. No me comprometo a avanzar más allá, pero sí, por lo menos, en general. Y así también damos paso a la revisión y discusión del proyecto del diputado Kaiser. ¿Les parece? ¿Todos de acuerdo? Bien, acordado entonces.
Asuntos varios. ¿Alguien? Sí, diputado Kaiser.
Diputado Kaiser: Señora Presidenta, para la próxima sesión. Tengo entendido que se cambió al director de la Agencia de Energía Nuclear, después de una situación un tanto desagradable. De hecho, tuvimos una presentación aquí en esta misma Comisión por parte de personal de la agencia. Sería interesante que nos dieran una actualización respecto de lo que está sucediendo ahí y de cuáles son las modificaciones que está realizando este Ejecutivo, si es que está realizando alguna, porque me parece que es un tema bastante delicado, sobre todo para la salud en Chile. Muchas gracias.
Muchas gracias, diputado.
Presidenta: Entonces, si a la Comisión le parece, podemos invitar a las personas que corresponden para el día lunes 5 de enero.
Diputada Yeomans: Presidenta, lo que pasa es que estamos con dos proyectos de ley y yo pondría prioridad ahí. ¿Les parece si oficiamos para que nos entreguen una primera versión y una respuesta por escrito de los organismos correspondientes? Luego, si es necesario, nos citamos a una sesión especial, de modo que no obstruyamos el avance de estos proyectos.
Diputada Labra: Por lo menos de mi parte no estoy de acuerdo, porque, insisto, este proyecto no tiene urgencia. Tenemos ya un proyecto de ley que fue despachado al Senado y que tiene relación con esto, y considero que no podemos ir aplazando temáticas relevantes; es necesario escucharlas de todas maneras. El proyecto de ley, independiente de si se aprueba o no en general, va a seguir avanzando, pero no podemos dejar de lado estas materias. Este proyecto, insisto, no tiene urgencia; por lo tanto, al menos yo no estoy de acuerdo. Gracias, Presidenta.
Presidenta: Gracias, diputada Labra. A ver, no quiero que entren en un conflicto respecto de este tema. Voy a acoger la solicitud de la diputada Yeomans de enviar el oficio, realizando las consultas. Es posible que no sea respondido rápidamente. El día lunes 5 de enero tendríamos que evaluar si ha llegado respuesta o no; y, si no ha llegado, entonces invitar a las personas y a las instituciones correspondientes para que vengan a tratar sobre el tema y, quizás ahí, estipular una fecha para una sesión especial, abordándolo con la prudencia y la responsabilidad que amerita. ¿Les parece? —Sí. Gracias, diputadas y diputados.
Vamos a pasar entonces a la tabla. Esta sesión ordinaria ha sido citada con el objeto de ocuparnos de la siguiente tabla: en primer lugar, continuar con el trámite de audiencias respecto del proyecto de ley, de origen en moción de los diputados y diputadas Gael Yeomans, Lorena Fries, Andrés Giordano, Javiera Morales, Ericka Ñanco, Camila Rojas, Patricio Rosas, Jaime Sáez, Emilia Schneider y Carolina Tello, que regula la creación y difusión de imitaciones digitales realistas de la imagen, cuerpo o voz de las personas, generadas mediante inteligencia artificial, en primer trámite constitucional, con urgencia calificada de simple.
En razón de lo anterior, escucharemos a los siguientes invitados: a la profesora de Derecho de la Universidad de Birmingham, señora Edina Harbinja, quien se encuentra conectada a la sesión; al periodista de la UDP especializado en el uso de redes sociales en la política, señor Marcelo Santos; al director y a la subdirectora del Centro de Estudios en Derecho, Tecnología y Sociedad de la Universidad de Chile, señor Alberto Cerda y señora Danielle Zaror Miralles, quienes se encuentran conectados; al director del Programa de Derecho, Ciencia y Tecnología de la Pontificia Universidad Católica de Chile, señor Matías Aránguiz Villagrán, acompañado del subdirector del programa, señor Sebastián Dueñas Müller; a la directora de la Fundación Datos Protegidos y profesora de la Facultad de Comunicación e Imagen de la Universidad de Chile, señora Patricia Peña Miranda, quien se encuentra conectada; en representación de la ONG Derechos Digitales – América Latina, a la coordinadora de Políticas Públicas, señora Lucía Camacho, quien también se encuentra conectada; al presidente y al director de Internet Society, Capítulo Chile, señores Jaime Cruz y Diego Lisoni; y al CEO de AI Factory, fundador de Club IA, señor Alec Dickinson, quien se encuentra conectado.
Vamos a partir entonces por la profesora señora Edina Harbinja. Antes de dar la palabra, informo que el tiempo máximo de exposición será de diez minutos para cada invitado, a fin de alcanzar a escuchar a todas y todos. Bienvenida, señora Harbinja; tiene la palabra.
Profesora Harbinja: ¿Se me escucha?
¿Funciona todo correctamente? Espero que sí, también en la sala. Muchas gracias, señor Presidente de la Comisión, honorables diputadas y diputados, y a todas las personas presentes, colegas de universidades y otros actores. Me honra y agradezco la oportunidad de intervenir sobre este tema tan relevante. Espero no hablar demasiado rápido para efectos de traducción; si así fuera, por favor interrúmpanme o pídanme que disminuya la velocidad. Procuraré ceñirme a los 10 minutos que amablemente se nos han asignado.
Mi contribución será desde una perspectiva comparada, como alguien que ha trabajado 15 años en derecho y tecnología, y en la regulación de tecnologías emergentes, con enfoques comparados en Estados Unidos, Europa, el Reino Unido y otras partes del mundo. Recientemente visité Chile, en la Universidad Católica, donde tuve la oportunidad de colaborar con colegas, por lo que también estoy familiarizada con aspectos del derecho chileno y sus enfoques. Probablemente, por ello, ofreceré una mirada más amplia que la de colegas que intervendrán desde una perspectiva más específica de Chile.
En primer término, al leer el proyecto quedé gratamente sorprendida. Me alegra el enfoque adoptado, enmarcado en la dignidad, la integridad y la personalidad, más que en la óptica de los derechos de publicidad o de la propiedad intelectual, enfoque que hemos visto en otras partes del mundo. En Estados Unidos, en distintos estados, se ha privilegiado el derecho de publicidad dentro de un paradigma de propiedad, que no se centra en la personalidad y la dignidad, sino que las concibe como una mercancía protegible en ese marco. En Europa, más recientemente —y para algunos de nosotros de modo sorprendente—, el enfoque danés propone enmendar la ley de derecho de autor para abordar ciertas representaciones de personas generadas mediante inteligencia artificial y otras tecnologías. Como sabemos, el derecho de autor protege expresiones más que ideas, un régimen doctrinal y filosóficamente más alineado con la propiedad que con la protección de la personalidad y la integridad, que es la base de su propuesta. Por ello, respaldo decididamente este enfoque centrado en proteger la integridad, la dignidad y la privacidad. Me parece el camino correcto, porque de lo que se trata aquí es de resguardar aspectos de nuestra identidad, algo inherente a nosotros como seres humanos y a la dignidad humana, a la integridad. En consecuencia, este es un excelente enfoque.
Muchas gracias.
Una de mis áreas de especialización, en la que he trabajado por mucho tiempo, es la privacidad y la dignidad en internet y en el entorno digital. Por ello, doy la bienvenida a su propuesta de extender la prohibición de deepfakes no consensuados a las personas fallecidas por 50 años post mortem. Existe también una disposición en Dinamarca, en el ámbito del derecho de autor, que contempla un plazo de 50 años post mortem; sin embargo, allí el enfoque está más puesto en la protección de los derechos de autor que en la dignidad de la persona fallecida.
Tengo algunos comentarios sobre el proyecto. Entiendo algo de español y, al leer el articulado, advertí que ciertas expresiones podrían ser más precisas. En el artículo 1º, al definir el uso no consensual de “inteligencia artificial” o tecnología para presentar imitaciones del cuerpo o de la voz, sugeriría no limitar el texto a “inteligencia artificial”, sino emplear un término más amplio como “tecnologías digitales”. Esto es medular para el título y el contenido de la ley. En Chile no tengo claro cómo está definida “inteligencia artificial” en el ordenamiento; en Europa hemos tenido un debate intenso sobre su definición en el AI Act. Para muchas personas, es demasiado amplia; si, por el contrario, se adopta una definición angosta, podría dejar fuera técnicas actuales o futuras de representación. Por ejemplo, podría discutirse si ciertos tipos de machine learning quedan dentro o fuera de una noción de IA más amplia.
Asimismo, cuando el proyecto se refiere a “imagen, cuerpo y voz”, si bien son ejemplos muy comunes, podría haber más manifestaciones relevantes que no queden cubiertas por esas tres categorías. Sugeriría explorar un término paraguas más amplio que abarque diferentes tipos de representaciones o semejanzas de la persona (por ejemplo, “semejanza”, “apariencia” u otra noción equivalente), sin perjuicio de utilizar el término técnico que sea más adecuado en el derecho chileno, a fin de no dejar fuera recreaciones o representaciones que esta tecnología puede generar.
Muchas gracias.
…en un individuo; es decir, reuniendo todas estas características que podrían usarse para crear imitaciones digitales o “fakes”. Tenía un comentario, me queda uno o dos minutos, sobre el consentimiento contemplado en el artículo 3, numeral 6. En esa definición advierto diferencias respecto de la definición de consentimiento en la normativa de protección de datos. Sería deseable alinear el concepto con el estándar europeo del GDPR, que exige que el consentimiento sea libre, específico, informado e inequívoco. Considerando, además, la próxima actualización de la ley de protección de datos en Chile, esta armonización ayudaría a dar mayor claridad y consistencia.
En la misma línea, estimo necesaria una disposición que refuerce la calidad del consentimiento, estableciendo que no puede otorgarse un consentimiento genérico o abierto para la creación y difusión de imitaciones digitales realistas. El consentimiento debe ser específico según fines y condiciones de uso, y no ambiguo.
Otro comentario, desde mi experiencia, dice relación con la protección post mortem. Valoro que el proyecto contemple salvaguardas para las personas fallecidas, pero observo que, tal como está, la exigibilidad práctica recae principalmente en los herederos o beneficiarios en favor de la persona fallecida. A mi juicio, sería conveniente incorporar una regla que permita a la persona, en vida, otorgar consentimiento para el uso de su imagen, cuerpo o voz mediante IA con efectos post mortem. Esto podría hacerse, por ejemplo, a través de un testamento —como instrumento legal reconocido— o mediante otro instrumento escrito con términos y condiciones claros, no ambiguos y verificables. Así se respeta su autonomía y dignidad, incluyendo escenarios cada vez más frecuentes de “inmortalidad digital”, chatbots u otras recreaciones póstumas.
Si ello se considerara demasiado prospectivo, al menos podría explicitarse la posibilidad de otorgar dicho consentimiento vía testamento. Si la persona no otorgó consentimiento en vida, entonces que opere el régimen por defecto (por ejemplo, el ejercicio por los herederos durante 50 años, como establece el proyecto).
Me he excedido del tiempo; quedo disponible para preguntas y agradezco la oportunidad de presentar estos comentarios.
Muchas gracias, señora Edina. Vamos a darle la palabra inmediatamente a don Marcelo Santos. Voy a insistir en los diez minutos; tendré que interrumpir cuando quede un minuto para respetar el tiempo, porque después hay rondas de preguntas. Don Marcelo, tiene la palabra.
Perfecto. Voy a saltarme un poco la parte protocolar para ajustarme al tiempo. Muchas gracias por la invitación. Hablaré desde la perspectiva de la comunicación. Sé que habrá intervenciones desde el ámbito jurídico que abordarán otras aristas. Parto señalando que hay múltiples problemáticas: esquemas de engaño, reconocimiento facial falso o la generación de desnudos mediante IA, por ejemplo, algo que encontré el otro día y que puede afectar seriamente a la sociedad. Yo me centraré en la comunicación política, que es lo mío, y repasaré algunos hitos. Y no quiero quedarme solo en lo negativo: también hay usos positivos de la tecnología y de la IA generativa, como comparar los programas de candidatos —hay herramientas disponibles— que permiten ver de forma sintética y entender propuestas en menos tiempo; la traducción de idiomas, o chatbots para responder preguntas específicas. Introduzco esto para subrayar que la regulación, en lo político en particular y en la sociedad en general, debe tener cuidado de no inhibir esos usos.
Entrando en lo negativo, que quizá es lo que más nos preocupa a quienes estamos aquí, hay varias formas de abuso. Me apoyo en un informe del IPI, una institución internacional que trabaja mayormente con desinformación, que mapeó todos los procesos electorales de 2024, el año del maratón electoral. Sistematizo algunas prácticas que aparecieron: persuadir o disuadir, no solo para votar por una u otra persona, sino también para no ir a votar, disuadiendo la participación en lugares donde eso es posible. La suplantación de identidad es quizás la que más temor genera, por su carácter persuasivo. En Sudáfrica, por ejemplo, apareció Eminem “apoyando” a un candidato; el año pasado se vio a Joe Biden “apoyando” a otro. También circulan contenidos sobre supuestos desistimientos de candidaturas. Traigo un ejemplo más desarrollado: un video falso de Mauricio Macri diciendo que su candidata para la alcaldía de Buenos Aires se había bajado. No era verdadero, y mostraré cómo funciona ese mecanismo. En Bangladesh pasó algo parecido. La interferencia internacional no es novedad, pero hay ejemplos recientes. Y asuntos internos delicados, como en República Dominicana —con el problema en la frontera con Haití—, donde el tema migratorio apareció fuertemente en las elecciones. También vimos acusaciones falsas e intentos de propaganda.
Para quedarnos en la región, esta semana apareció un audio falso sobre una conversación de Jeannette Jara con su jefe de campaña, por ejemplo. Y, para que se entienda, también Evelyn Matthei ha sufrido con este tema. No es un asunto de orientación política, sino de solidez democrática; eso quiero dejar claro. Ese audio alcanzó tres millones de visualizaciones, impulsado por cadenas de usuarios falsos. Enfrentamos un problema que no es solo la creación del video, sino también la red de usuarios —la red inauténtica— utilizada para amplificarlo: redes de bots, de “cyborgs”, de trolls, como el “patito verde” que apareció. Hay de todo: usuarios militantes reales, usuarios falsos y usuarios inadvertidos que creen el contenido y lo comparten sin verificar. El usuario original donde apareció por primera vez el video tenía un perfil que indicaba que solo producía contenidos con inteligencia artificial; estaba declarado. Pero ese audio, presentado como video casi a modo de ilustración, al circular dejó de tener esa advertencia y fue interpretado como una “filtración” por otros usuarios. A continuación, mostraré con más detalle el caso argentino, con la gentileza de una colega de ese país que me lo presentó la semana pasada.
El video —para tener un pantallazo— es bastante convincente: aparece la cara de Macri y se afirma que bajó la candidatura. ¿Cuál es el punto? No voy a repasar hito por hito, pero aquí no solo hay usuarios organizados y coordinados que aumentan la propagación de videos falsos, sino también tácticas que emulan a medios verificadores de información, lo que sofistica el engaño. Pasó algo similar con el audio de Jeannette Jara acá. Esa red coordinada, planificada con ciertos hitos, escala.
Entonces, el problema no es solo —otra vez— la producción o creación de un video con inteligencia artificial; es el mismo problema que ya existía con la desinformación y que sigue existiendo con otros contenidos. Por ejemplo, pongo lado a lado el llamado “informe” sobre consumo de estupefacientes de Gabriel Boric (2021) con una entrevista de Evelyn Matthei. A lo que voy: es un tema transversal; ojalá sea una preocupación para todas las sensibilidades políticas.
Para sintetizar y también recoger puntos con los que coincido de la colega que presentó antes: no centraría todo en la inteligencia artificial generativa. Ya venimos lidiando con Machine Learning, Big Data, con Photoshop, por mencionar algunos. Lo importante es perseguir el espíritu del problema más que la etiqueta tecnológica, porque no sabemos cómo se llamará la próxima herramienta.
En segundo lugar, la trazabilidad es muy difícil. Quienes han sufrido esto, o lo han estudiado, saben lo difícil que es llegar a la fuente. Si no hay alguien que dé un paso al frente, la trazabilidad es casi imposible. Por eso, cuando se detecta este tipo de conductas, la sanción debiera ser muy ejemplar. No sé si la cuantía en UTM contemplada en el proyecto es suficiente, pero, dada la dificultad de detectar a los responsables, la sanción debiera ser particularmente disuasiva. Además, el historial reciente indica que las plataformas no colaboran: no tienen incentivos y quedamos muy cortos de recursos cuando no hay cooperación. Yo ya denuncié 20.000 bots a Twitter y Twitter no hizo nada.
Sobre la capacidad de fiscalización: no basta con aprobar la ley. Recomiendo impulsar un frente de capacitación técnica y de competencias, porque a veces hay buenas leyes que son muy difíciles de llevar a la práctica.
Por último, está el problema de la pérdida o exclusión de evidencia del delito. Tengo muchos ejemplos; menciono solo el intento de golpe de Estado en Brasil: en dos años, más de uno de cada tres videos sobre la invasión a la Plaza de los Tres Poderes ya no estaba disponible. Y, tras la condena pública y mediática, muchos contenidos desaparecieron. Hay que inhibir la conducta de subir un video sabiendo que puede haber un problema legal: se siembra la duda, se viraliza, luego se baja para evitar responsabilidades; la plataforma no lo respalda, nadie conserva el material y, al final, el responsable queda sin consecuencias, pero la duda ya fue instalada.
La velocidad de corrección es menor que la de propagación. Cuando se siembra la duda o se difunde desinformación, muchas veces el daño es irreparable: es muy difícil retroceder o recomponer la reputación de una persona, de un partido o de una institución —como el Servel, por ejemplo—. En el proceso cognitivo de largo plazo, la desinformación es acumulativa: vamos olvidando de dónde obtuvimos la información y si era una fuente fiable, y queda solo el recuerdo de “algo que alguien dijo”. Eso nos vuelve más vulnerables porque quien desinforma obtiene una ventaja cognitiva. Y ese es, precisamente, el efecto de las redes de usuarios coordinados que mencionaba.
…no auténticos, no coordinados, para esas campañas. Y más adelante voy solo a plantear más problemas: la erosión del principio de realidad, en el sentido de que ya no tengo el ancla de qué es real o no. Cuando el contenido es muy parecido, pero no sé si es verdadero, pierdo ese principio de realidad. Y, por último —ya estoy en el tiempo—, se genera el llamado liar’s dividend: doy munición para que alguien que está planteando cosas falsas diga que algo verdadero es falso, porque ya nadie sabe qué es verdadero; por lo tanto, todo parece falso y se instala un no saber. Esto implica una erosión importante para todo el proceso democrático. Quisiera también dejar planteada la problemática de las plataformas de mensajería instantánea. He dicho.
Muchas gracias, don Marcelo. En tiempo justito. Le damos la palabra entonces al señor Alberto Cerda o a la señora Danielle Zaror, para que puedan intervenir desde ahora. Están conectados. Después le damos la palabra al señor Matías Aránguiz.
Muchas gracias, señora Presidenta. Como siempre, es un honor recibir estas invitaciones de parte de la Honorable Cámara de Diputados. Lamentablemente, compromisos previamente adquiridos nos han impedido estar en forma presencial en la Comisión, pero nuestro entusiasmo y nuestras ganas de participar en este debate son siempre muchas. Nuestra presentación de hoy estará dividida en dos partes: en una primera expondré los aspectos técnicos de este tipo de tecnología, y en una segunda parte, jurídica, que abordará el director del Centro, el profesor Alberto Cerda.
Lo primero que quisiera hacer presente es que hace exactamente un año se publicó la nueva ley de datos personales, que entrará en vigencia en un año más. Esta nueva ley establece un concepto mucho más complejo de dato personal: señala que es cualquier información vinculada o referida a una persona natural identificada o identificable. Y aquí viene lo importante en relación con este proyecto de ley: se considerará identificable a toda persona cuya identidad pueda determinarse directa o indirectamente, en particular mediante uno o más identificadores, tales como el nombre, el número de cédula de identidad o el análisis de elementos propios de la identidad física. De manera que esos elementos propios de la identidad física forman parte de los conceptos que podrían hacer identificable a una persona.
Respecto de la tecnología de deepfake, lo primero que hay que saber es que, en rigor, la tecnología subyacente no se llama así. En 2014, un ingeniero de la empresa Google desarrolló lo que en ciencias de la computación se denomina redes generativas antagónicas o redes generativas adversarias —GAN, por sus siglas en inglés, Generative Adversarial Network—. Esta tecnología no nace como una herramienta maliciosa; por el contrario, se desarrolla para potenciar ciertas investigaciones al interior de la compañía. Sin embargo, como suele ocurrir, comenzó a ser utilizada de manera maliciosa y, desde ahí, surge la denominación popularmente conocida de deepfake, cuya traducción al español más acertada sería “ultrasuplantación”. Es una combinación de los anglicismos deep, por deep learning o aprendizaje profundo, y fake, por falso. Esta denominación se usa por primera vez en 2017 en la red social Reddit, donde personas empiezan a utilizar esta tecnología generativa para fines no siempre positivos. Si uno quisiera entregar una definición técnica…
De lo que son estas redes, uno podría decir que se utilizan para crear nuevas instancias de datos sintéticos realistas, como imágenes y videos, a través de un proceso de competencia entre dos redes neuronales: una red que genera y una red que discrimina. ¿Cómo funciona esto? El uso de estas redes generativas antagónicas se basa en una dinámica competitiva inspirada en la teoría de los juegos, donde, por un lado, hay un generador que va creando nuevos datos y, por otro, un discriminador que recibe tanto los datos reales del conjunto de entrenamiento como los datos falsos del generador, y cuya tarea es juzgar si cada dato es real o sintético. Esta dinámica adversarial permite mejorar continuamente los resultados hasta producir salidas muy parecidas a las reales con las que se entrenó el sistema.
En el caso de las deepfakes, y en lo que atañe específicamente a este proyecto de ley, el foco está en procesos que implican introducir imágenes o audios de dos personas en un algoritmo de aprendizaje para entrenarlo, intercambiar rostros o voces y generar un resultado artificial.
¿Cuáles son los usos de estas redes adversariales generativas? Tienen usos positivos y negativos. Muchas industrias utilizan estos sistemas: la cinematográfica, los medios educativos, las comunicaciones, los medios digitales, los videojuegos y el entretenimiento en general, además de las redes sociales. La industria de la salud también emplea ampliamente esta tecnología, así como la ciencia de los materiales y, por supuesto, otros campos comerciales como la moda y el comercio electrónico.
Lo que nos convoca hoy son los usos negativos de esta tecnología, denominados deepfakes. A través de ella se puede suplantar la identidad, propagar noticias falsas y generar desinformación; desacreditar a personas; cometer delitos relacionados con el honor, la imagen o el fraude; influir en votaciones o en la toma de decisiones y en el pensamiento grupal; ejecutar venganzas digitales; manipular mercados financieros y desestabilizar relaciones internacionales.
¿Quién utiliza estas redes adversariales? Existen comunidades de aficionados a las deepfakes: un gran número de usuarios de internet que las emplean sin causar perjuicios, por ejemplo, para potenciar experiencias en videojuegos. Pero también pueden usarlas actores políticos, como gobiernos extranjeros y grupos de activistas. Asimismo, las utilizan actores maliciosos, como estafadores, y actores legítimos, como compañías cinematográficas y del sector salud. En el ámbito cinematográfico, se recurre a estas técnicas para recrear escenarios o escenas complejas. En la industria sanitaria se aplican en casos de enfermedades con poca información diagnóstica disponible, para adelantar o predecir un cuadro y eventualmente salvar vidas. Otro uso legítimo está en el mercado financiero, donde el análisis del comportamiento de los actores permite predecir situaciones que pudieran perjudicar al propio mercado.
¿Qué amenazas generan las deepfakes? Presionan el trabajo de los periodistas que deben filtrar noticias reales de las falsas; amenazan la seguridad nacional al difundir propaganda e interferir en elecciones; y debilitan la confianza de la ciudadanía en la información proporcionada por las autoridades. Hoy, cada vez que se ve información en un dispositivo, surge la duda de si es real o producto de la inteligencia artificial. Por supuesto, también plantean problemas de ciberseguridad para las personas y las organizaciones. Este proyecto de ley busca abordar precisamente un problema de ciberseguridad para las personas.
¿Cómo se combaten las deepfakes? Existen diversos mecanismos.