Cámara de Diputados Comisión de Ciencias

Cámara de Diputados - Comisión de Ciencias - 14 de mayo de 2025

14 de mayo de 2025
21:30
Duración: 217h 5m

Contexto de la sesión

Sesión ordinaria citada con objeto de continuar con la votación en particular del proyecto de ley que regula los sistemas de inteligencia artificial (boletines refundidos Nº 16821-19 y Nº 15869-19), en primer trámite constitucional, con urgencia calificada de “suma”. La Comisión ha invitado a la Ministra de Ciencia, Tecnología, Conocimiento e Innovación, señora Aisén Etcheverry Escudero.

Vista pública limitada

Esta es una vista pública que muestra solo la primera mitad de la transcripción. Para acceder al contenido completo, regístrate en nuestra plataforma.

5:00
En nombre de Dios y de la patria se abre la sesión. Se nota la presencia del diputado Beckett para partir a la hora. Muy bien, vamos a continuar con el proceso de votación de la ley de inteligencia. Estimada secretaria, estamos en… Está haciendo bullying impresionante. Se han recibido los siguientes documentos: Comunicación del jefe de bancada, diputado Judy, por la que informa que el diputado Daniel Lallú será reemplazado en esta sesión por el diputado Sergio Bobadilla. Comunicación del jefe de bancada, diputado del Frente Amplio Independiente, mediante el cual informa que la diputada Gael Yoman será reemplazada en esta sesión por el diputado Andrés Jordano. Comunicación suscrita por el jefe de bancada del Comité PPD Independiente y el jefe de bancada del Partido Socialista, a través de la cual informan que la diputada Elia Molina será reemplazada en esta sesión por el diputado Juan Santana. Comunicación del jefe de la bancada, diputado de Renovación Nacional, por la que informa que la diputada Paula Labra será reemplazada en esta sesión por el diputado Miguel Becker. Comunicación suscrita por el Comité Mixto Radical Liberal y el jefe de Comité del Frente Amplio Independiente, a través de la cual informan que el diputado Rubén Ollar será reemplazado en esta sesión por el diputado Patricio Rosa. Y finalmente, correo electrónico del Comité Mixto Social Cristiano Nacional Libertario Independiente, a través del cual se justifica la resistencia en esta sesión del diputado Johannes Kaiser por motivos particulares. Toda la cuenta presiona. Muchas gracias. ¿Se ofrece la palabra si está a la cuenta? Muy bien, se va a la cuenta. Sí, presidente, nos corresponde entonces el artículo 27. Sí, presidente, yo quiero hacerle una pregunta. Nosotros estábamos sesionando los días miércoles en la mañana debido a una situación que ocurre aquí en la comisión durante las tardes. Bueno, y ya nos podemos dar cuenta de a lo que me refiero. Entonces, en algún momento, a raíz de la ausencia de usted, presidente, de esta comisión, tomamos la decisión —porque me tocó a mí presidir accidentalmente— de, con el acuerdo del secretario de la corporación, poder estacionar durante las mañanas. Hoy día, algunos de nosotros —yo me incluyo en eso— teníamos compromisos y, por lo tanto, no habíamos citado a la sesión de la tarde. Estamos acá, presidente, porque es nuestro principal rol, pero yo tuve que dejar y pedir que me suspendieran algunas cosas para poder estar presente. La pregunta que le quiero hacer es: ¿cuál va a ser la dinámica que vamos a seguir en esta comisión? Si usted va a seguir viniendo a esta comisión —y se lo digo con harto respeto, presidente, pues en alguna oportunidad lo conversé con usted—, hoy día es vicepresidente de esta Cámara y, por lo que sabemos, no va a renunciar a la vicepresidencia, pero tampoco ha renunciado a esta comisión. A mí me inquieta de verdad y quiero saber cuál va a ser la forma de trabajar de aquí a las próximas sesiones. Estamos a punto de terminar de votar este proyecto, del cual también me ha tocado gran parte de tramitar, y creo que ya nos queda muy poquitito para terminarlo; sin embargo, me gustaría aclarar esa duda, pues hoy día varios de nuestros colegas, quizás, no se enteraron —yo no sé, a lo mejor no, no se enteraron de que teníamos sesión en la tarde.
10:00
Pero quiero dejar establecido, no una molestia, sino una preocupación, presidente. Eso, gracias. Muy bien, despejo de inmediato cualquier inquietud. Voy a seguir en la Comisión de Ciencias. Hemos logrado establecer una forma de trabajo ya en la mesa. De hecho, estando el presidente en Japón, durante esta semana conseguimos definir ese modo de operación. Yo lo expliqué nuevamente y creo que ha quedado evidente toda la situación que se produjo desde marzo hasta hace pocos días en una mesa que no era fácil de llevar adelante; pero ya tenemos un orden. Aunque ese orden, como siempre, a veces presenta algún desajuste, lo resolveremos en la mesa. Así que continuaré participando. Asumí la parte correspondiente cuando se tomó la decisión de sesionar a las 8:30 y seguiremos en esa dinámica. Lo de hoy fue absolutamente extraordinario, simplemente porque no nos volveremos a reunir hasta la semana distrital, y creo que estamos a las puertas de concluir la tramitación del proyecto, tal vez el más importante que tiene esta comisión, al menos en este periodo legislativo (y quizá también en periodos anteriores). Es por ello que se citó, ya que íbamos a volver en el mes de junio y considerábamos interesante hacer el esfuerzo de sacar esto antes de dicho mes. Reitero que hubiese sido estupendo lograrlo antes, pero este es un proyecto que se irá al Senado, donde también será muy discutido. Ojalá que este proyecto de ley vea la luz durante este periodo legislativo, algo que no es fácil, pero hagamos el esfuerzo por lo menos acá. Ya hemos logrado ordenar en la mesa de la Cámara, asignándonos las tareas que nos corresponden y manteniendo el funcionamiento a las 8:30 de la mañana, que considero lo más adecuado. El resto es simplemente, como bien dice usted, que la gente, por distintas circunstancias, no esté presente o que hayan muchos reemplazos. ¿Alguien más? ¿Sigue abierta la palabra? Sí, por cierto, diputado Páez. Puede resultar inoportuno, pero creo que es superoportuno manifestar en el seno de esta comisión mi preocupación por algo muy grave que sucedió: se ha profanado la tumba de una médica chilena, Ernestina Pérez, oriunda de la quinta región. Ella fue la segunda doctora en Chile, ginecóloga, y realizó un gran aporte a la salud pública y a la salud de la mujer, siendo la primera en atreverse, por ejemplo, a plantear el impacto que el corsé tenía en la salud femenina. Considero sumamente grave que se haya profanado su tumba en el Cementerio General de Santiago, lugar del cual se sustrajeron cinco cráneos —entiendo que uno de ellos correspondería a ella—. Lo traigo a colación porque, al abordar este asunto en la Comisión de Derechos Humanos, la reacción fue muy transversal. Por lo demás, estimo que es una situación muy grave y pertinente para esta comisión, dado que se trata de una destacada científica chilena. Presidente, muchas gracias. Hay un problema con el micrófono. Nos corresponde el artículo 27 del proyecto. Aquí hay dos indicaciones del Ejecutivo: la primera (el 65A) es para reemplazarlo por el siguiente: Artículo 27. Procedimiento de reclamación judicial. Las reclamaciones judiciales derivadas del ejercicio de los derechos y obligaciones establecidos en la presente ley se regirán por el procedimiento contemplado en el artículo 43 de la Ley 11.620. Los tribunales competentes conocerán de estas reclamaciones conforme a lo expuesto en la referida normativa en el marco del uso de sistemas de inteligencia artificial. Entiendo que la otra indicación del Ejecutivo queda obsoleta con esta nueva redacción. Eso es.
15:00
Gracias, señor presidente. Al igual que en el artículo anterior, la modificación que se plantea es para no generar nuevos procedimientos por sobre los ya existentes, sino que más bien remitirnos a la legislación vigente, ya sea por base de administración del Estado, el procedimiento civil o la ley que protege los datos personales, y de esa forma ir homologando y simplificando el ejercicio de los derechos por parte de los impactos previstos por esta ley. Está abierta la palabra para quienes deseen hacer algún alcance. ¿Procedemos tomando votación? La indicación del Ejecutivo, la 65A. Se consume también el voto del presidente. A la votación por la afirmativa, seis votos, aprobado por una unidad. Muy bien, queda aprobado el artículo 27 en los términos de la indicación del Ejecutivo. Pasamos al artículo 28. En este artículo, se ha aprobado una indicación para agregar un inciso final nuevo, a lo que se suman dos indicaciones del Ejecutivo. La 66A es para agregar, en el literal C, un punto seguido que introduzca la frase “cuando exista peligro inminente de daño irreparable”. La 66 del Ejecutivo es para eliminar, en el inciso primero, la frase “y de forma conjunta respecto del operador”. El Ejecutivo quiere agregar algo para explicar bien el alcance. Presidente, efectivamente, esta es la norma y el artículo que establece la responsabilidad civil. Fue largamente discutido al inicio del proyecto de ley a propósito de estas indicaciones, por lo que se aprobó una propuesta de consenso en toda la comisión. Los elementos que se agregaron fueron los discutidos en ese momento: el primero tiene que ver con la letra C, que ahora incluye “cuando exista peligro inminente de daño irreparable”, dado que la carga de establecer medidas necesarias para proseguir es, en general, alta y se limita a esta situación; y el segundo, con la indicación 66, elimina la mención “y de forma conjunta respecto del operador”. Esto se debe a que, durante la primera parte de la tramitación del proyecto, se consideró el rol de los distintos actores en la cadena de valor de la inteligencia artificial, y originalmente se entendía que existía responsabilidad solidaria de todos ellos. Sin embargo, considerando el funcionamiento de la inteligencia artificial, resultó que esto generaba una carga excesiva para quienes simplemente implementan una inteligencia artificial creada por otro, por lo que se elimina, volviendo a las reglas generales de la responsabilidad civil. Diputado Becker: Gracias, señor presidente. Saludo a la mesa y a quienes nos acompañan. No pertenezco a esta comisión; me correspondió venir a reemplazar, lo hago con mucho gusto, especialmente en consideración a su presidencia. No entiendo qué se considera exactamente cuando exista peligro inminente de daño irreparable; ¿podría, por su intermedio, explicarlo nuestra ministra para tener certeza de qué es lo que voy a votar, señor presidente?
20:00
Gracias, señor presidente, por su intermedio. Ya lo puedo explicar con un ejemplo. Un sistema de inteligencia artificial que está destinado, por ejemplo, a apoyar en el diagnóstico de algún tipo de cáncer puede tener una falla o un error en su entrenamiento, lo que significa que los diagnósticos que recomienda son errados. En ese caso, el continuar utilizando ese sistema podría generar un daño irreparable, en tanto que un paciente podría recibir un diagnóstico equivocado. Por ello, al existir el riesgo de daño irreparable se sugiere cesar inmediatamente para efectos de controlar la responsabilidad civil. Diputado Becker: Queda resuelta la cuestión. Procedemos a tomar la votación, entonces, señora secretaria. Las dos indicaciones del Ejecutivo se someten a votación. Presidente, siete votos. ¿Algún ausente? ¿Hay alguien de los presentes que no haya votado? Siete, perfecto. Aprobado. Vamos al siguiente punto. A continuación, presidente, corresponde votar el artículo 29, sobre procedimiento aplicable en materia civil, que no fue objeto de indicación. ¿Les parece? Lo aprobamos por unanimidad, aunque debemos ir al sistema. En votación, por la afirmativa, siete votos. Aprobado. Seguidamente, se formula una indicación de las diputadas Marta González y Natalia Castillo y del diputado Matías Ramírez para incorporar los artículos 29 bis y 29 ter. Artículo 29 bis. Responsabilidad derivada del uso y desarrollo de sistemas de IA. Los proveedores e implementadores de un sistema de IA son responsables por la afectación de los derechos fundamentales que se hayan generado durante su uso o desarrollo. Dicha responsabilidad puede ser de naturaleza civil, administrativa o penal, de acuerdo con lo expuesto en los artículos anteriores y demás normativas. Quien se considere perjudicado podrá interponer las acciones pertinentes en la vía legal correspondiente contra el proveedor, distribuidor, importador e implementador de un sistema de IA. Artículo 29 ter. Responsabilidad por contenidos modificados. Será ilegal que cualquier persona omita o elimine, altere, manipule o se habilite a sabiendas la información de procedencia del contenido, como imágenes, videos, clips de audio o texto a que se refiere el artículo 12 bis, para promover un acto o práctica desleal o engañosa, distribuyendo contenido sintético modificado de forma que parezca auténtico para una persona razonable. La infracción a esta norma será sancionada como infracción grave, conforme a lo dispuesto en el artículo 24, letra B, sin perjuicio de la responsabilidad civil o penal que sea aplicable, conforme a la legislación vigente. No están presentes los autores de la indicación. No sé si alguien pudiera explicar qué alcance tiene esta indicación respecto a nuestro proyecto, y cuál es la opinión del Ejecutivo. Gracias, señor presidente. Para compartir el análisis del Ejecutivo, respecto del artículo 29 bis, la evaluación es que todos sus elementos ya están contenidos en los artículos anteriores que fueron aprobados, ya que se refieren al tipo de infracciones que pueden ocurrir y a la responsabilidad, sea civil, administrativa o penal, lo que fue parte de la discusión al comienzo del proyecto. Por lo tanto, entendemos que es solo una confirmación.
25:00
De lo ya aprobado y en ese sentido no daña ni aporta en nuestra opinión. Y respecto del 29-TER, nosotros sí tenemos una preocupación. Este artículo hace referencia a algo que se conoce como los deepfakes y, si bien desde el Ejecutivo consideramos que son perjudiciales y efectivamente generan distorsiones o pueden prestarse para abuso, la forma en que está abordado en el proyecto es lo suficientemente amplia como para entrar en conflictos con elementos relativos a libertad de expresión, crítica, sátira u otros, que son derechos fundamentales que creemos deben ser resguardados. Por lo tanto, de parte del Ejecutivo y en coherencia con la lógica del proyecto de no regular una tecnología en específico, nosotros preferiríamos que este artículo no esté en el proyecto de ley de inteligencia artificial, sin perjuicio de que se pueda discutir en una legislación separada. Vamos a someter a votación, obviamente, de manera separada las indicaciones. ¿Votaría? ¿Es una sola indicación? Ah, perfecto. No es divisible. No, te pregunto: como la primera parte era redundante, pero no dañaba el proyecto, la segunda sí tiene otro carácter. Ok, la votamos como una sola unidad. Diputado: Yo solicito votarlo por separado, por favor. Tenemos un segundo para hacer la votación por separado. Para que quede claro, estamos votando el 29 bis. ¿Han votado todas las diputadas y diputados? Por la afirmativa, cuatro votos; tres en contra. Ahora vamos a, en votación, el artículo 29. ¿En votación? Sí, sí, donde quiera. Estamos en votación, ¿no? No, está bien, esperemos un segundito. El 29. Estamos en votación. Tres votos a favor, cinco en contra. Cambiamos de compareciente. Vamos al artículo 30. La indicación de 67A del Ejecutivo reemplaza el artículo 30 por el siguiente: Artículo 30. Reglamento. Un reglamento dictado por el intermedio del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación establecerá el listado de sistemas de IA de alto riesgo y de sistemas de riesgo limitado, respecto de los cuales serán aplicables las reglas de los artículos 8 y 10, respectivamente. El reglamento especificará adicionalmente lo siguiente: A. El contenido mínimo y la forma de dar cumplimiento a las reglas aplicables a los sistemas de IA cuyo uso sea calificado de alto riesgo, según lo dispuesto en el artículo 8. B. Los tipos de medidas frente a contingencias aplicables a los sistemas de IA de alto riesgo en función de la finalidad del sistema de alto riesgo. C. El contenido mínimo y la forma de dar cumplimiento a las reglas aplicables a los sistemas de IA de riesgo limitado del artículo 10, de las obligaciones y responsabilidades que deberán cumplir los operadores de sistemas de IA, cuyo uso sea de alto riesgo y de riesgo limitado, conforme a lo señalado en el artículo 3 de esta ley y en función de las reglas establecidas.
30:00
Para cada tipo de sistema de la indicación 67 del Ejecutivo, bueno, las letras A y B quedan superadas, digamos, por la indicación nueva, pero sí la letra C me señalaron que habría que también incorporarla en la indicación, que es para agregar un inciso segundo del siguiente tenor. Perdón, agregar un inciso tercero a continuación del segundo. Las actualizaciones que se efectúen en el reglamento entrarán en vigencia seis meses después de su publicación. Eso es, señor presidente. ¿Se ofrece la palabra respecto a esta indicación? ¿El Ejecutivo quiere plantear algún punto? Gracias, señor presidente. Esta norma viene a completar la tercera pata que hemos discutido durante todo el proyecto. Están los principios que rigen en función de las obligaciones definidas; luego, el consejo que vimos en algunas sesiones anteriores; y, posteriormente, este reglamento que se hace con el aporte del consejo, lo que permite mantener actualizado el estado de la técnica. Si ustedes recuerdan, cuando discutimos las obligaciones vinculadas a los tipos de riesgo, se trataron temas como la explicabilidad, la transparencia, las reglas de ciberseguridad y otros, puesto que el avance de la tecnología hace variar su contenido. En materia de ciberseguridad, hoy día puede pensarse que el estándar es cada 24 horas, y quizás en seis meses lo adecuado va a ser cada hora o incluso cada 10 minutos. Entonces, la manera de mantener actualizado el contenido de esas obligaciones es mediante estos reglamentos. Ahora bien, el reglamento señala cuáles son esos contenidos, en coincidencia con los artículos que aprobamos en sesiones anteriores, pero además, con el objetivo de entregar certeza a los distintos desarrolladores de inteligencia artificial, se establece este inciso segundo, en el que se dispone que las actualizaciones entrarán en vigencia seis meses después de ser aprobadas por el reglamento, entendiendo que estas exigencias pueden implicar, en algunos casos, hacer ajustes o actualizaciones a los sistemas, de modo que se le da tiempo a la industria y a los desarrolladores para adecuarse. Muchas gracias, señor presidente. Esto es muy relevante, producto de que en el proyecto de ley original los usos de inteligencia artificial de alto riesgo estaban pormenorizados y, lo que hoy se delega a un reglamento, le otorga mucha más flexibilidad frente a los avances tecnológicos, cuyos alcances desconocemos plenamente. Por ello, considero que esto va muy en línea con lo discutido durante todos estos meses en este proyecto de ley. Ahora bien, respecto a la indicación del Ejecutivo sobre las actualizaciones y su entrada en vigencia seis meses después, puedo entender que aquellas actualizaciones vinculadas a ampliaciones de los usos de alto riesgo sean razonables, pues si se incorpora un nuevo uso de inteligencia artificial de alto riesgo, pasando de ser de mínimo riesgo a alto riesgo, debe existir un proceso de implementación en el que la empresa desarrolladora o los operadores del sistema dispongan de un plazo para adaptarse. Sin embargo, no creo que esto deba aplicarse a la totalidad de los contenidos del reglamento, ya que éste aborda materias que no necesariamente requieren un plazo de implementación tan amplio como el que podría demandar un cambio en la clasificación de riesgo. Señor presidente, pienso que hay que acotar aquellas materias para las cuales se esperará seis meses para entrar en vigencia. En cuanto a la incorporación de nuevos usos, me parece perfecto, incluso podría ser un plazo algo corto, pero aplicar el mismo plazo a la totalidad de las materias abordadas en el reglamento, de acuerdo con lo que hemos legislado, resulta excesivo. Muchas gracias, señor presidente. Ministro, ¿quiere agregar algo? Gracias, señor presidente. Entendiendo la preocupación del diputado...
35:00
Como Martino, y entendiendo que hay que calibrar estos temas también, hay una necesidad que tienen, por ejemplo, las pymes de poder hacer las actualizaciones, que además deben considerarse en el tiempo. Entonces, nosotros, al menos del trabajo que hemos hecho con los expertos, creemos que el plazo es de alguna forma necesario. Quizás hay algunos que podrían implementarlo mucho más rápido y en eso concuerdo, pero tratando de tener una regla de carácter más general, a nosotros nos parece importante mantener el plazo. Bueno, sometamos a votación la indicación. Vamos a votar la indicación 67A del Ejecutivo. Posteriormente, vamos a votar la 67 letra C. Estamos en votación. ¿Han votado todos? Con la afirmativa, otro voto. Aprobado. A la 67 letra C; es que hay una redacción nueva que se puede ver en el otro libro, a la letra C de la indicación 67 del Ejecutivo. Ya, estamos en votación. ¿Han votado todos? ¿No han votado, diputados? Votación, ocho votos por la afirmativa. Aprobado. En el artículo... ah, hay una indicación nueva del diputado Lago Martínez. Sí, está en el grupo. Es para agregar un nuevo artículo 31, pasando el actual 31 a ser 32. Artículo 31. En las contrataciones que realice el Estado de Chile de sistemas de inteligencia artificial para usos de alto riesgo, deberá asegurarse de que los datos que hayan sido utilizados para su entrenamiento sean generados dentro del territorio nacional por empresas cuya casa matriz esté en Chile. Diputado López, muchas gracias, presidente. Esta indicación tiene un triple rol. El primer rol, efectivamente, es promover la industria nacional de producción de datos, ya que SIDE genera en general muy pocos datos propios que son fundamentales para que los sistemas de inteligencia artificial sean entrenados, y es una forma de promover la industria nacional respecto a la producción de bases de datos. En segundo lugar, la indicación tiene como objetivo que los sistemas de inteligencia artificial, que efectivamente son de alto riesgo, sean entrenados con datos representativos de nuestro país. Por ejemplo, en materia de salud, nos ha quedado claro, de acuerdo a las distintas exposiciones, que los sistemas de inteligencia artificial no pueden ser aplicables, a menos que sean entrenados con datos propios. Porque si un sistema de inteligencia artificial de salud es entrenado con datos de pacientes de Corea u otro país, no necesariamente va a ser aplicable. Entonces, en segundo lugar, se busca resguardar que los datos con los que sean entrenados los sistemas de inteligencia artificial de alto riesgo, no la totalidad de ellos, sean datos nacionales. Como les decía, también hay un... bueno, en esto hemos conversado ampliamente. Y en tercer lugar...
40:00
Que haya un resguardo de que los datos, al ser de estos sensibles, justamente la casa matriz de la empresa que recolecta esos datos esté en nuestro país, para que, obviamente, existan todos los resguardos respecto a la Ley de Protección de Datos Personales. Muchas gracias, presidente. Gracias, diputado López-Marcino. ¿Opinión del Ejecutivo en cuanto a ello? Muchas gracias, señor presidente. A ver, nosotros compartimos el diagnóstico del diputado Lagomarsino. Efectivamente, necesitamos generar muchos datos más y es importante que los sistemas de inteligencia artificial tengan entrenamiento con datos locales. Sin embargo, la indicación, tal como está propuesta, lo restringe exclusivamente a datos locales, lo que puede significar sistemas de inteligencia artificial muy pobres en su entrenamiento y en áreas que son muy amplias, particularmente en aquellas de alto riesgo, donde, por ejemplo, pienso en los sistemas que apoyan en materia de salud mental. Si bien es cierto que lo local es relevante, existen componentes abiertos que creemos también son importantes. Entonces, aunque compartimos el diagnóstico y consideramos fundamental reforzar la creación de datos locales y la industria nacional, entendemos que la forma en la que está redactado el artículo requiere de una discusión mucho más profunda para precisar en qué áreas y de qué manera, sin necesariamente apuntar a tener una inteligencia artificial. Muchas gracias, presidente, por su intermedio. Creo que el contraargumento que da la ministra, el ejemplo que utiliza para contradecir, no es el mejor; podría haber elegido algún otro y, quizá, generado un debate más adecuado, porque, justamente, en el área de la salud, la evidencia actual indica que los sistemas deben ser entrenados con bases de datos de pacientes del mismo país. Es decir, un sistema de inteligencia artificial, por ejemplo, en el ámbito de la psicología, puede ser desarrollado a través de un algoritmo o red neuronal generado, por ejemplo, en Inglaterra, donde tienen grandes avances en la materia; pero los datos con los cuales finalmente se entrena ese sistema, que pudo haber sido desarrollado fuera de nuestro país, deben ser nacionales, es decir, deben ser datos de pacientes de nuestro país. Muchas gracias. Presidente, sí quiero plantear que la verdad es que no estoy tan de acuerdo con la indicación del diputado Lagomarsino, completa la verdad, porque hay muchas áreas del conocimiento en las cuales se entrena, por ejemplo, en biología molecular, en radiología y en otras áreas que no necesariamente son clínicas. Se requiere utilizar data e imágenes de muchos países; a veces, debido a que los eventos relacionados con ciertas patologías —por ejemplo, aquellas de carácter radiológico— son pocos, es necesario acumular muchas imágenes de diversos países para asegurar que el sistema esté entrenado para detectar, por ejemplo, un tumor específico en una mamografía. Esto restringe la capacidad de entrenamiento para ciertos temas, no solo médicos, sino también en áreas de biología molecular y en el análisis de exámenes con marcación de isótopos reactivos, determinando cuándo el resultado es positivo o negativo. Asimismo, respecto a la obligación de que la casa matriz se ubique obligatoriamente en Chile, si bien tengo un sentimiento nacionalista en muchos aspectos, considero que en el campo de la inteligencia artificial lo que se está desarrollando es un sistema global de conocimiento que se actualiza prácticamente a diario. Por ello, aunque el plazo me parecía bastante largo, lo aprobamos de esta manera. Entonces, creo que este desarrollo avanzará más rápido de lo que probablemente la misma ley logre regular, dado que la inteligencia artificial generativa está facilitando de forma acelerada el acceso y el análisis de la información.
45:00
Contenido restringido

Contenido premium

Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al contenido completo, regístrate en la plataforma.

Registrarse para ver contenido completo
50:00
Contenido restringido

Contenido premium

Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al contenido completo, regístrate en la plataforma.

Registrarse para ver contenido completo
Fragmentos 1-10 de 16 (8 disponibles públicamente)

¿Listo para empezar?

Únete a Parlamento.ai y transforma la manera en que monitorejas la actividad parlamentaria