Sesión ordinaria citada con objeto de iniciar el trámite de audiencias respecto del proyecto de ley, de origen en moción de los diputados y diputadas Gael Yeomans (A), Lorena Fries, Andrés Giordano, Javiera Morales, Ericka Ñanco, Camila Rojas, Patricio Rosas, Jaime Sáez, Emilia Schneider y Carolina Tello, que regula la creación y difusión de imitaciones digitales realistas de la imagen, cuerpo o voz de las personas, generadas mediante inteligencia artificial (boletín N° 17795-19), en primer trámite constitucional, con urgencia calificada de “simple”.En razón de lo anterior, la Comisión escuchará la opinión de los siguientes invitados:• Grupo Legal de la Asociación Chilena de Empresas de Tecnologías de Información A.G. (ACTI), representado por su Presidente señor Claudio Magliona, y su Vicepresidente señor Alex Pessó.• Abogada especialista en tecnologías emergentes, señora Ebyenia Mestre.La Comisión ha invitado al Ministro de Ciencia, Tecnología, Conocimiento e Innovación, señor Aldo Valle Acevedo.
* Los indicados en la citación.
Lugar: Sala N° 310
tercer nivel (Sesión presencial)
Vista pública limitada
Esta es una vista pública que muestra solo la primera mitad de la transcripción.
Para acceder al contenido completo, regístrate en nuestra plataforma.
15:00
…decía qué derechos tiene la persona respecto de la inteligencia artificial. Punto. Nada más. No se hace cargo de cómo debe funcionar la inteligencia artificial; lo único que sostiene es que hay ciertos derechos esenciales que no deben ser vulnerados por la inteligencia artificial. De hecho, era un proyecto alternativo, porque tiene una lógica distinta al proyecto original de inteligencia artificial que entraba, en mi opinión, en una especie de sobreregulación; pero ese es otro tema.
En este caso particular, se señalaba qué derechos tiene la persona respecto de los sistemas. Y nosotros no nos quedamos ahí en el proyecto que despachamos al Senado. De hecho, si no me equivoco, la redundancia de este proyecto es muy parcial. En el Senado no veo que vaya a avanzar mucho, porque, por la extensión del proyecto que tramitamos aquí, habrá muchas dificultades para que sea despachado siquiera en términos parecidos a lo que hicimos en su momento.
La verdad, nuestra lógica en el proyecto que propusimos fue replicar la idea de los artículos de la Constitución que tienen que ver con los derechos fundamentales de las personas en un pequeño proyecto de ley, que permitiese a las personas recurrir ante la justicia sobre la base de la protección de esos derechos que estábamos reconociendo. Con eso, le entregamos mucha más flexibilidad a la justicia para reaccionar respecto de los sistemas de inteligencia artificial. Esa fue la lógica con la que trabajamos.
¿Es redundante respecto del proyecto que ya trabajamos? Quizás parcialmente. Pero el objeto era otro. Así como el proyecto de inteligencia artificial buscaba controlar o regular la forma de funcionamiento de los sistemas, aquí estamos estableciendo la protección de ciertos derechos. En ese sentido, no se cubren al 100%.
No sé si van a avanzar en el Senado con el proyecto original. Puede que todavía sea complementable. Personalmente, creo que probablemente no termine siendo visto de la manera en que salió desde acá y, en ese sentido, nos vamos a quedar sin una legislación en la materia. Muchas gracias.
Tiene la palabra, diputada Llamas.
Gracias, Presidenta. En la sesión anterior, en la que hice la presentación del proyecto de ley, también abordé las razones por las que era necesario tener una regulación más específica a propósito de la ley marco de inteligencia artificial. Y hay dos razones que son bien importantes. Pero, antes de reiterar esa presentación, lo que puedo hacer, Presidenta, es enviarla al…
20:00
...al chat que tenemos, para que se pueda revisar y así pasar a escuchar al Ministro, porque creo que la sesión tiene ese objeto y podemos avanzar. A mí me parece bien: si el diputado Kaiser tiene una moción parlamentaria que quiere que revisemos, podemos organizarnos para ello; no hay ningún problema, al menos de mi parte, para que lo incluyamos en la organización. Este proyecto de ley, de todas formas, busca hacernos cargo de una situación que está ocurriendo: el uso de inteligencia artificial en redes sociales para hacer deepfakes y para la modificación de la imagen y la voz de las personas, entre otros. Lo vemos día a día, tanto en el ámbito político como en hechos de violencia en colegios. Hay ejemplos relevantes y es importante que nos hagamos cargo mediante una legislación que proteja los derechos sobre la imagen, la voz, etcétera. En ese sentido, Presidenta, si le parece, en vez de ahondar en ello, puedo reenviar la presentación y así escuchar al Ministro. Gracias.
Muchas gracias, diputada Yeomans. Le voy a dar primero la palabra al Ministro para que, en el fondo, nos haga el comentario respecto de lo que consultó la diputada Labra, para después ya cerrar con este tema y pasar a la orden del día. Ministro. ¿Ahí se escucha?
Muchas gracias, Presidenta. Hemos querido estar presentes también en el inicio, aunque sea ya la segunda sesión de la Comisión, dado que este proyecto de ley se hace cargo, a nuestro juicio de manera necesaria por su especificidad, de un bien jurídico y social de moralidad pública que consideramos urgente regular, atender, o mejor dicho, proteger. La moción parlamentaria plantea un derecho subjetivo, amparado expresamente por la ley, consistente básicamente en el dominio y control del propio rostro, cuerpo y voz de toda persona humana. Ello justifica de manera fundada que se trate de una regulación que viene a complementar, en cualquier caso, el marco regulatorio general que se persigue con... Permítanme precisar: no hay superposición respecto de la determinación del sujeto pasivo ni de los sujetos activos. La especificidad de este proyecto de ley da lugar a una relación jurídica distinta y, por lo mismo, no nos parece que exista superposición ni que lo haga innecesario, precisamente por su enfoque, en relación con el otro, que se amplía a otros sujetos y a todas las actividades que puede implicar el uso de sistemas de inteligencia artificial. En este caso, estamos hablando de un bien jurídico protegido específico.
Entonces, diputado Kaiser, solo porque necesito cerrar el punto, por favor.
Lo que pasa es que, solo para aclarar, no estábamos hablando aquí del proyecto de la diputada Yeomans —me parece un proyecto muy interesante—. Lo que estaba proponiendo era que una resolución, un acuerdo que habíamos tomado ya en esta Comisión hace aproximadamente un año, efectivamente se transformara en realidad, que es que el proyecto iniciado por moción de mi parte y del diputado Lagomarsino, que tiene a varios participantes de esta Comisión como coautores, fuese visto...
25:00
Así como se propuso en su momento y como se aceptó también en la comisión, en paralelo con lo que iba a ser —o después de lo que iba a ser— el proyecto de ley de inteligencia artificial del Ejecutivo. A mí me parece que el proyecto de la diputada Jones es perfectamente compatible con lo que estamos planteando nosotros. El proyecto de la diputada Jones es mucho más específico; el nuestro es más amplio. Es decir, el nuestro se hace cargo efectivamente de la protección de ciertos derechos de los seres humanos respecto de la inteligencia artificial, pero de manera más amplia: no se reduce o remite solamente al tema de la imagen. En ese sentido, lo uno no obsta a lo otro y no sería incompatible verlo en paralelo. Muchas gracias.
Gracias, diputado. Entonces, para cerrar el punto, le propongo a la comisión que en la próxima sesión vaya en la tabla, en el segundo punto, el proyecto del diputado Kaiser y dejemos la última media hora de la sesión para poder comenzar la tramitación de ese proyecto, diputadas y diputados. ¿Les parece? Porque yo recuerdo que el acuerdo se había tomado y que nos habíamos comprometido a colocar ese proyecto en tabla. Entonces, acordado.
¿Nadie más sobre puntos varios? Vamos entonces a pasar a la tabla. Entrando en la orden del día, esta sesión ordinaria ha sido citada con el objeto de iniciar el trámite de audiencia respecto del proyecto de ley, de origen en moción de las diputadas y los diputados Gael Yeomans, Lorena Fríes, Andrés Giordano, Javiera Morales, Erika Ñanco, Camila Rojas, Patricio Rosas, Jaime Sáez, Emilia Schneider y Carolina Tello, que regula la creación y difusión de imitaciones digitales realistas de la imagen, cuerpo o voz de las personas generadas mediante inteligencia artificial, en primer trámite constitucional y con urgencia calificada de simple.
En razón de lo anterior, escucharemos la opinión de los siguientes invitados, quienes se encuentran conectados vía Zoom: el Grupo Legal de la Asociación Chilena de Empresas de Tecnologías de Información, representado por su presidente, señor Claudio Magliona, quien se encuentra conectado en la sesión. El vicepresidente, señor Alex Pesó, ha excusado su inasistencia por tener compromisos previamente agendados que no pudo modificar. La abogada especialista en tecnologías emergentes, señora Evienia Mestre, quien se encuentra conectada también en la sesión. Hemos invitado a esta sesión al ministro de Ciencia, Tecnología, Conocimiento e Innovación, señor Aldo Valle Acevedo. Lo acompañan los asesores Camila Guayo y Sebastián Galás. Muy bienvenidos todos.
Diputado Kaiser, para comenzar. Solamente una consulta: ¿el comparado, lo encontramos? Es que crea una legislación nueva; no hay legislación vigente que modifique, por lo tanto no hay un comparado. Lo voy a subir al grupo de WhatsApp.
Vamos a partir entonces. Le damos la palabra primero a los invitados. A ver, me dicen acá que el señor Claudio Magliona está presente. Le damos la palabra primero a don Claudio.
Muchas gracias, presidenta. Entiendo que se escucha bien. Señores diputados, señoras diputadas, feliz de estar aquí en la Comisión de Ciencia. Muchas gracias por la invitación. Yo represento a ACTI, la Asociación de Empresas de Tecnología de la Información, en la cual hay cerca de 200 empresas que participan en todos los procesos de tecnología, ya sea inteligencia artificial u otras tecnologías. Entiendo que estamos en la discusión general en estos momentos y no en la discusión particular. En ese mismo sentido, cuando a uno lo invitan a opinar, tiene que dar una opinión sincera. Y sinceramente, basado en la experiencia que existe en el derecho comparado y en las distintas regulaciones, de verdad no recomendamos que se apruebe la idea de legislar este proyecto de ley, por las siguientes razones: no queda claro cuál es el bien jurídico que estamos protegiendo. En este sentido existe legislación —puedo mencionar libertad de expresión, propiedad intelectual, datos personales, atributos de la personalidad, injurias y calumnias— que vendría a regular esta misma materia.
30:00
La voz de una persona es un dato personal, y tenemos una ley en plena implementación. Al mismo tiempo, la voz de una persona puede ser propiedad intelectual cuando se trata de un artista. No cabe duda de que se requiere autorización para utilizar la voz de una persona. Por lo tanto, ya sea para utilizar la voz de una persona, caemos en la ley de propiedad intelectual o en la ley de protección de datos personales.
Por otro lado, hay conflicto en este proyecto de ley porque señala que su objeto es proteger la identidad e integridad de las personas frente al uso no consentido de tecnologías mediante imitaciones digitales realistas. ¿Y quién define qué es una imagen digital realista? Y si no es realista, ¿no es sancionado? Entonces, con todo respeto, yo podría hacer aparecer a una figura pública o no pública haciendo el ridículo y, en ese caso, no estaría sancionado; pero si esa figura pública o no pública aparece haciendo algo que pareciera ser real, ¿sí sería sancionado?
Me preocupa mucho este proyecto de ley en relación con la libertad de expresión, porque el artículo 1 habla de imágenes realistas; luego, el artículo 4 dice que todas las personas tienen el derecho exclusivo de utilizar la reproducción digital de su imagen. Eso no es correcto: no toda persona tiene el derecho exclusivo de utilizar la reproducción de su imagen, porque para las noticias no se requiere autorización. Hay, entonces, una contradicción: por un lado se exige autorización y, por otro, se señala que no se requiere.
Luego se establece que las plataformas deben bajar contenido por un aviso privado del posible afectado. Esto ya se discutió muchas veces en el Congreso, señalando que, para bajar contenido que pueda afectar la libertad de expresión o la propiedad intelectual, se requiere una resolución judicial o una resolución administrativa. De lo contrario, estamos haciendo que el intermediario —y no necesariamente tiene que ser una plataforma digital; esto puede ocurrir dentro o fuera del ámbito digital— sea juez y decida qué es infracción y qué no. Y el incentivo de esa plataforma va a ser justamente controlar las redes, lo que, por lo menos en nuestro sistema en Chile, no es lo que queremos. No queremos el monitoreo de las plataformas y de los sistemas de redes para determinar qué es una copia, qué es una infracción o qué no lo es. Yo, por lo menos, prefiero que un organismo administrativo lo determine y ordene bajar el contenido.
Al analizar, y quiero ser bien concreto: si ustedes llegaran a concluir que la imitación de la voz requiere una sanción especial, o que existe un derecho de identidad digital —cuestión que, a mi juicio, está mal encaminada—, no lo restrinjamos a la inteligencia artificial. Hoy la tecnología en discusión es la inteligencia artificial, pero perfectamente se puede copiar con un algoritmo la voz de alguien sin inteligencia artificial. También se puede ridiculizar a alguien sin utilizar inteligencia artificial. Falta neutralidad tecnológica. Hoy hablamos de inteligencia artificial; mañana hablaremos de cualquier otra tecnología, y este proyecto de ley parece ser tan casuístico que rápidamente podría quedar sin efecto.
En ese sentido, creemos que, por favor, démosle la oportunidad a la ley de datos personales que está en proceso de implementación. También está la ley marco sobre ciberseguridad, la ley de delitos informáticos, la ley de propiedad intelectual, y pensemos en el equilibrio con la garantía de libertad de expresión.
Cuando establecemos que, bajo ciertas situaciones, las personas tienen el derecho ilimitado a pedir la bajada de información de las plataformas, esos derechos ilimitados pueden afectar la verdad histórica el día de mañana. Debemos tener cuidado, porque mañana alguien podría invocar el artículo 4 para decir: “tengo derecho exclusivo a utilizar la reproducción digital de mi imagen; así que, por favor, elimíneme del libro de historia”, aunque se trate de un hecho histórico. El llamado es a reconocer que se trata de un proyecto de ley muy casuístico.
35:00
Tenemos un proyecto del señor ministro presentado, y tenemos un proyecto de inteligencia artificial en el Senado que tiene retos bastante grandes. Continuamos con el esfuerzo marco que se está haciendo en inteligencia artificial, que hoy día está pasando al Senado. Y, humildemente, digo: no incurramos, si es posible, en la casuística que el día de mañana puede tener repercusiones que de verdad no conocemos acá y no conocen en el mundo. La legislación sobre inteligencia artificial en el mundo hoy día presenta dudas tremendas. No es algo que se haya masificado de forma alguna y, cuando uno ve un texto como el que yo tengo en mi mano en este momento, ve realmente disposiciones que, claramente, el día de mañana podrían utilizarse con un fin distinto para el cual serían aprobadas. Muchísimas gracias, Presidenta.
Muchas gracias, don Claudio. Le damos la palabra de inmediato. Le pido disculpas si pronuncio mal su nombre y apellido; no sé si es Evgenia o Evguenia. Por favor, señora Mestre.
Está bien, Evgenia. Bienvenida, tiene la palabra.
Muchas gracias. Quisiera compartir la presentación. No sé si la van a compartir ustedes o tengo que hacerlo yo.
Puede compartirla usted.
Ok.
Bueno, Presidenta, por su intermedio, primero muchas gracias por concederme la palabra. Soy Evgenia Mestre, licenciada en Ciencias Jurídicas y Sociales por la Universidad Diego Portales y actualmente candidata al grado de LLM en la University of Wisconsin–Madison Law School, donde he podido estudiar de cerca la regulación comparada sobre inteligencia artificial, uso de imagen y desinformación digital. Agradezco profundamente esta invitación y valoro enormemente que el Congreso esté abriendo esta discusión.
Quisiera comenzar presentando brevemente de qué se trata el proyecto, porque es importante partir desde un diagnóstico común. Este proyecto busca regular un fenómeno muy específico: la creación, uso y difusión de representaciones digitales realistas creadas mediante inteligencia artificial sin consentimiento, lo que hoy se conoce como deepfakes. Son contenidos que permiten mostrar a una persona haciendo o diciendo cosas que nunca ocurrieron.
Lo que el proyecto propone es algo relevante: crear un nuevo derecho, el derecho a la integridad digital, entendido como el control exclusivo que cada persona tiene sobre la reproducción de su imagen, su voz y su cuerpo generados por la IA. El corazón de la propuesta, entonces, es el consentimiento, y se establece que toda generación, difusión o almacenamiento de imitaciones digitales realistas sin consentimiento constituirá una infracción. Esto no es absoluto: incorpora excepciones limitadas, como fines satíricos o informativos, siempre que el contenido sea claramente irreal y no produzca desinformación ni daño.
El proyecto también contempla protección post mortem por 50 años, impone obligaciones de retiro de contenido a plataformas en un plazo de 72 horas y articula sanciones e indemnizaciones. Finalmente, propone coordinar esta regulación con la Ley 19.628 cuando el deepfake involucre datos biométricos o sensibles. Hasta aquí, esta es la arquitectura esencial del proyecto.
A mi juicio, el proyecto parte desde un diagnóstico muy adecuado: reconoce que las deepfakes ya están aquí, que no son un fenómeno teórico y que pueden atribuir hechos falsos a personas reales con un nivel de realismo que desafía nuestras categorías tradicionales. También identifica que, en el derecho chileno, hay un vacío normativo y que necesitamos herramientas nuevas para enfrentar formas contemporáneas de manipulación audiovisual. Me parece especialmente valioso que conceptualice la integridad digital como parte de la identidad personal, porque permite entender que no estamos hablando solo de datos, sino de la representación misma de quienes somos.
Aquí quisiera ser muy clara: el problema de las deepfakes no es un problema tecnológico, es un problema político y constitucional. Primero, por la velocidad y escala con que pueden difundirse. Segundo, por la enorme asimetría entre el daño que podrían producir y la capacidad de las víctimas para reaccionar. Y tercero, por el vacío normativo existente.
40:00
Vivimos un escenario en el que la manipulación audiovisual podría transformarse en una herramienta estratégica con efectos sociales y políticos profundos. Las deepfakes no solo podrían afectar la vida privada en el sentido clásico de revelar información íntima; lo que hacen también es atribuir hechos falsos con apariencia de verdad. Esto podría impactar la identidad personal, porque alguien puede ser representado diciendo o haciendo algo que nunca ocurrió; podría afectar la honra y la reputación, porque el daño se produce incluso después de que se demuestra la falsedad; también afecta la autodeterminación informativa, ya que no controlamos cómo aparecemos ante terceros; y, finalmente, erosiona nuestra libertad para construir nuestro propio proyecto de vida si terceras personas pueden manipular la forma en que nos mostramos al mundo. Quisiera detenerme brevemente en este punto porque es uno de los más relevantes.
Más allá de los derechos individuales afectados, las deepfakes tienen un impacto colectivo que no podemos ignorar. La democracia depende de un debate público informado, y cuando las campañas políticas comienzan a utilizar tecnologías capaces de fabricar realidades alternativas con apariencia de verdad, el problema trasciende lo individual. Se podría distorsionar el proceso deliberativo que sostiene al sistema democrático. Las imágenes manipuladas pueden reforzar prejuicios, instalar información engañosa o simplemente confundir al electorado, debilitando su capacidad de tomar decisiones racionales. Y esto ocurre en una sociedad donde la desinformación ya es un problema real y creciente. En ese contexto, la irrupción de herramientas capaces de producir falsedades prácticamente indetectables puede resultar devastadora, porque incluso el juicio más crítico o el ciudadano más informado necesita condiciones institucionales que lo protejan de contenidos diseñados específicamente para engañar.
Ahora bien, el riesgo de sobrerregulación existe y debemos evitarlo, pero la falta de regulación es bastante más peligrosa. Aquí quiero poner como ejemplo lo ocurrido en la franja presidencial de Marco Enríquez-Ominami. Esto no es una mera anécdota electoral; es una señal de alerta de la distancia entre nuestro marco normativo y las dinámicas tecnológicas que ya están transformando la política. No podemos asumir que el derecho se adaptará solo con el tiempo. Su actualización requiere reflexión, deliberación y decisión legislativa. Si no se regula, se corre el riesgo de que la próxima campaña presidencial no se dispute en el terreno de las ideas, sino en el de las ficciones algorítmicas. A eso me refiero cuando digo que lo que está en juego no es solo el respeto a los derechos fundamentales, sino la calidad misma del debate democrático.
Entrando ahora a mis observaciones técnicas, muy breves: creo que este proyecto va en la dirección correcta, pero hay varios aspectos que requieren revisión para hacerlo operativo. Primero, no hay un órgano fiscalizador claro. El proyecto no define quién recibe las denuncias, quién fiscaliza ni quién aplica las multas. Segundo, no se gradúan niveles de responsabilidad. No es lo mismo crear una deepfake que difundirla, ni es lo mismo un usuario, un autor o una plataforma. Esta distinción, a mi parecer, es fundamental. Tercero, hay una mezcla compleja de sanciones administrativas, civiles y penales, sin que quede claro qué procedimiento se aplica en cada caso. Además, se habla de “infracción” sin distinguir entre infracción leve, grave, etcétera. El retiro obligatorio en 72 horas, a mi parecer, es razonable, pero el procedimiento de notificación y retiro no está regulado, lo cual puede redundar en incertidumbres jurídicas. Lo importante es que, tal como está, obliga a las víctimas a judicializar, lo que en situaciones urgentes puede ser lento, costoso e ineficaz.
Todas estas falencias son corregibles. Algunas mejoras podrían ser: definir un órgano fiscalizador; graduar la responsabilidad entre autores, usuarios y plataformas; y clarificar el procedimiento de retiro de contenido. También creo que sería útil distinguir claramente entre responsabilidad civil y penal, e incorporar una vía de tutela rápida, por ejemplo, un procedimiento administrativo expedito que permita reaccionar con mayor celeridad.
Desde la perspectiva comparada, que es donde me ha tocado estudiar, podría aportar dos ideas. Primero, a nivel federal no existe aún una ley; hay proyectos desde 2018, pero, sin embargo, hay consenso en algunos puntos, como obligar a etiquetar las deepfakes, prohibir y sancionar a quien no lo haga, permitir acciones civiles federales y proteger especialmente frente a las deepfakes sexuales. Este es un debate en desarrollo.
45:00
Contenido restringido
Contenido premium
Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al
contenido completo, regístrate en la plataforma.