Cámara de Diputados Comisión de Ciencias

Cámara de Diputados - Comisión de Ciencias - 8 de enero de 2025

8 de enero de 2025
20:30
Duración: 25h 7m

Contexto de la sesión

Sesión ordinaria citada con objeto de ocuparse de los siguientes asuntos: * Los indicados en cada rango horario. 1) De 17:30 a 18:00 horas: Exposición de la Directora de Extensión y Educación del Instituto de Neurociencias Biomédicas de la Universidad de Chile, señora Gabriela Martínez Bravo, acerca del proyecto “Mentes Transformadoras: conectando el quehacer científico nacional con las comunidades educativas. Aplicación y evaluación de un modelo de educación científica basado en la indagación”. 2) De 18:00 a 18:30 horas: Recibir en audiencia: • A estudiantes del Liceo Bicentenario “Abdón Cifuentes” de Conchalí, equipo de Robótica Fénix, liderados por el profesor Marcelo Pacheco, que obtuvo el 2º lugar en una competencia en Tokio, Japón. • Al equipo del Colegio “Ena Bellemans Montti”, ganadores del 3er lugar del Torneo Delibera, con el proyecto de ley que regula a proveedores y usuarios de sistemas de inteligencia artificial. 3) De 18:30 a 19:30 horas: Continuar con la votación en particular del proyecto de ley, originado en mensaje, que regula los sistemas de inteligencia artificial (boletín Nº 16821-19), y una moción que regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de aplicación (boletín Nº 15869-19), refundidos, en primer trámite constitucional, con urgencia calificada de “simple”. La Comisión ha invitado a la Ministra de Ciencia, Tecnología, Conocimiento e Innovación, señora Aisén Etcheverry Escudero. Además, han sido invitados para participar en la sesión, en calidad de expertos: • Investigadora principal del Centro Nacional de Inteligencia Artificial (CENIA) y miembro del Grupo de Trabajo en Ética de CENIA, señora Claudia López Moncada. • Doctor en Políticas Públicas por la Universidad de Maryland at College Park, Estados Unidos, y Director del Departamento de Estudios Políticos de la Universidad de Santiago de Chile, señor Mauricio Olavarría Gambi. • Coordinadora Ejecutiva de la Iniciativa de Datos e Inteligencia Artificial (IDIA) de la Universidad de Chile, señora Dominique Varela Hermosilla. • Directora de Empresas Coca Cola, Andina, Novofarma, Orion, especialista en Inteligencia Artificial, señora María Francisca Yañez Castillo. • Gerente y Director Ejecutivo del Centro Nacional de Inteligencia Artificial (CENIA), señor Rodrigo Durán. • Subdirectora de Goblab -Laboratorio de Innovación Pública de la Escuela de Gobierno- de la Universidad Adolfo Ibáñez, abogada especialista en IA y protección de datos personales, señora Romina Garrido Iglesias.

Vista pública limitada

Esta es una vista pública que muestra solo la primera mitad de la transcripción. Para acceder al contenido completo, regístrate en nuestra plataforma.

0:00
El acta de la sesión número 80 queda reglamentariamente aprobada. El acta de la sesión 81 queda a disposición de las y los integrantes de la Comisión. En la cuenta, la señora secretaria dará lectura a la cuenta. Gracias, Presidente. Se han recibido los siguientes documentos: Oficio de su Excelencia el Presidente de la República, mediante el cual se presenta la urgencia clasificada de suma para el despacho del proyecto de ley que regula los sistemas de inteligencia artificial, Ordinario 8474; el Ministro de Relaciones Exteriores, por medio del cual da respuesta al oficio 103 de esta Comisión, en virtud del cual se solicitó emitir antecedentes sobre el protocolo de acuerdo que habría firmado el Presidente de la República con el Presidente de Brasil, respecto de la libertad de información; Ordinario 3521, la Ministra de Salud, mediante el cual, en cumplimiento de la Ley de Presupuestos del Sector Público de año 2024, glosa 16, informa acerca de los planes, políticas y acciones destinados a fortalecer la ciberseguridad. Comunicación del jefe de bancada, diputada Judy, por la que informa que el diputado Daniel Ilaiu será reemplazado en esta sesión por el diputado José Enrique Álvarez. Misma comunicación de la bancada, diputada Judy, por la que informa que la diputada Marta Bravo será reemplazada en esta sesión por el diputado Marco Antonio Sulantay. Comunicación de la jefa de bancada, diputados PPD, por la que informa que la diputada Elia Molina será reemplazada en esta sesión por el diputado Carlos Bianchi. Comunicación suscrita por diputados Marta Bravo y Daniel Ilaiu, por medio del cual solicitan a la Comisión acordar un cambio de horario en la celebración de sus sesiones ordinarias, por lo cual proponen de 8:30 a 9:45, considerando que la mayor parte de sus integrantes son de regiones que se encuentran alejadas de la sede del Congreso, lo que dificulta el traslado de los diputados a sus distritos. Correo electrónico del diputado Tomás Lagomarsino, por el cual solicita que la Comisión invite a una próxima sesión al señor Sebastián Correa, de la empresa tecnológica chilena Cubus, a fin de que exponga sobre el desarrollo tecnológico que están realizando en materia de aplicación de inteligencia artificial para el diagnóstico de melanomas malignos en la piel. Correo electrónico del diputado Lagomarsino, por el cual solicita que la Comisión invite a una próxima sesión al presidente del Consejo Directivo de la Comisión Chilena de Energía Nuclear, señor Julio Maturana, a fin de que informe sobre las circunstancias del robo al Centro de Estudios Nucleares de la RAE. Correo electrónico del director del Departamento de Estudios Políticos de la Universidad de Santiago de Chile, señor Mauricio Olavarría Gambi, tras el cual excusa su inexistencia en esta sesión, porque a la misma hora debe estar en una reunión preparatoria del proyecto científico Milenio para NIL. Correo electrónico del señor Pablo Noevan Bueno, miembro del Foro Nacional de Ciberseguridad, quien solicita audiencia con la Comisión a fin de hacer una presentación sobre las necesidades y desafíos identificados por el Foro Nacional de Ciberseguridad. Correo electrónico del señor Darlino Enríquez, quien en su calidad de realizador cinematográfico y especialista en TV digital terrestre, solicita audiencia con la Comisión con el propósito de exponer acerca de Televisión Abierta 2.5. También se recibe una solicitud de la diputada Erika Oliveira, mediante la cual solicita invitar a don Patricio Valenzuela a la próxima sesión, quien expondría sobre el desarrollo de un centro de excelencia en ciencia y tecnología, cuyo propósito está en el uso de la producción científica y tecnológica de excelencia para promover el desarrollo social de Chile. Esto es la cuenta, Presidente. Gracias. Bienvenido, diputado. ¿Estás bien? Bueno, entonces se ofrece la palabra acerca de la cuenta, sobre la cuenta. Gracias. Muchas gracias, Presidente. Solamente decir respecto a la cuenta que efectivamente solicité que se invitara al director del Centro de Estudios Nucleares producto de que hubo un robo en las dependencias que están bajo resguardo del ejército. Y creo que es importante conocer por parte de esta Cámara, en sus capacidades, obviamente fiscalizadoras, las circunstancias por las cuales se llevó a cabo dicho robo, y que fue sustraído de una infraestructura bastante crítica para nuestro país, que es justamente el Centro de Estudios Nucleares. Para que lo tengan en consideración dentro de la apretada agenda, Presidente. Muchas gracias. Muchas gracias, diputado Lagomarsino. ¿Alguien más acerca de la cuenta? Cerrará la cuenta. Entrando en el orden del día, esta sesión ordinaria ha sido citada con el objeto de ocuparse de los siguientes asuntos. En primer lugar, continuar con la votación en particular del proyecto de ley originado en los mensajes que regulan los sistemas de inteligencia artificial.
5:00
oficial, nos acompaña la ministra de Ciencia y Tecnología, están también sus asesoras legislativas, Camila Aguayo, Paloma Herrera, Noelia Campos y Emilio Ramírez, que acompaña también a la ministra. Y antes de iniciar, bueno, también están invitados y están conectados de manera telemática, investigadoras de un grupo de trabajo de ética del CENIA, la señora Claudia López Moncada, Dominique Varela Hermosilla, de la Universidad de Chile, de la Iniciativa de Datos e Inteligencia Artificial, la directora de Empresas Coca-Cola Andina, Novofarma, Orión, especialista en Inteligencia Artificial, la señora María Francisca Yañez Castillo, el gerente y director ejecutivo del Centro Nacional de Inteligencia Artificial, Rodrigo Durán, y la subdirectora de Goblab - Laboratorio de Innovación Pública de la Escuela de Gobierno de la Universidad Adolfo Ibáñez, abogada y panelista especialista en Inteligencia Artificial, Romina Garrido Iglesias. Les doy la bienvenida también a esta conexión y antes quisiese ofrecer la palabra a la ministra. Muchas gracias, señor presidente. No nos habíamos visto hace algunas semanas y por supuesto aquí muy comprometidos con el avance del proyecto de ley de Inteligencia Artificial. Yo quería decir algo que es bastante evidente, pero creo que ha sido el tono de trabajo en esta comisión y algo que usted, presidente, ha promovido de muy buena manera. Es que hoy día, al igual que ustedes están en varias comisiones, a mí me toca tener dos roles en dos ministerios distintos y, por lo tanto, quería solo reafirmar algo que he dicho en muchas ocasiones en esta comisión, que el compromiso está con este proyecto de ley y que en este espacio voy a venir permanentemente como ministra de Ciencias y Ministra de Ciencia y Tecnología, porque sé que esta es una agenda que nos interesa a todos y que hemos logrado trabajar de buena manera, separado de la contingencia, que es lo que tiene mucho que ver con mi otro rol. Y por lo tanto quería solo reafirmar este compromiso con la forma en cómo se ha llevado la comisión y que para mí como ministra de Ciencia y Tecnología es muy importante mantener en este espacio. Así que quería solo decir eso antes de empezar, presidente. Muchas gracias, ministra. Vamos a partir en los temas de la votación para retomar la votación en el proyecto de Inteligencia Artificial y luego, ¿no es cierto?, tenemos una serie de invitados, así que le voy a pedir paciencia a los invitados, van a hacer sus exposiciones, así que no hay problema. Pero vamos a continuar con el proceso de votación, ¿no es cierto?, de la ley de Inteligencia Artificial. Secretaria, si usted ayuda en esto. ¿Invitado Kaiser? Presidente, dado que llegamos a un acuerdo con la diputada Oliveira, me gustaría retirar mi indicación número 16. Creo que ahí hay un acuerdo más amplio. Perfecto. ¿Hay alguien más que quiera retirar alguna indicación? ¿Diputado Palma? 16 ter también se va a retirar. ¿Ese era vuestro, no? Vuestra, estamos, pero en el uso de lenguaje, además. En el artículo quinto. Sí, no, se está. Sí. No, no, sí, me imagino. Aprovechando, ¿hay alguien más que quiera retirar alguna indicación? Diputada Galliomas, estamos. Denle la palabra a la diputada Galliomas, por favor. Presidente, quisiera retirar la 13 y 15 de... Eso era el artículo quinto, ¿no es esto? Cuarto, en el cuarto. Diputado Lagomarsino, quisiese usted retirar alguna... ¿Estamos en condición? Sí. Ya, secretaria. Yo le pido que usted nos vaya guiando. Sí, presidente. En la última sesión, se votó el encabezado del artículo cuarto. Y se acordó ir votando letra por letra. De manera que... ¿Diputada Galliomas? No sé si lo tenga bien, pero considerando que el artículo quinto es más breve, quizás podríamos avanzar antes que el cuarto, que es más largo y tiene parte a parte. Digo, como para poder dejar uno terminado previamente.
10:00
¿Les parece? ¿Les parece? ¿Hay acuerdo? Entonces vamos a votar el quinto. Presidente, sobre el punto, de acuerdo con la diputada Oliveira, de que se vote primero el artículo quinto al cuarto, pero si cada una de las definiciones del sistema de inteligencia artificial por riesgo pudieran ser votadas por separado. Gracias, Presidenta. ¿Les parece, Diputado Kaiser? Existen indicaciones que sustituyan el artículo completo. Es decir, lo reemplazan completamente en el sentido de que si fuésemos votando cada una por separado, quedarían... La indicación de reemplazo quedaría sin lógica o sin orden lógico el tema. Propondría que primero se votaran las indicaciones que reemplazan completamente el texto. En el caso, por ejemplo, creo que el de la diputada Oliveira había sido un texto que habíamos llegado a consenso. Entonces, a ver, le sugiero, secretaria, que comencemos a tomar la votación. Usualmente se parte por las indicaciones, ¿no? Entonces, deberíamos comenzar a votar las indicaciones y luego vamos, ¿no es cierto?, a la presentación del artículo del Ejecutivo. En el quinto. En el artículo quinto, entonces, estamos en la página 13 del comparado. Hay varias... Hay una indicación del diputado Kaiser para sustituir el artículo 5. ¿Esa es la que retiró? Sí. Y luego hay una indicación de la diputada Oliveira, que reemplaza el artículo 16b, que reemplaza también el artículo 5. ¿Y el diputado Palma retiró la 16c? Sí. Es que acaban de llegar indicaciones nuevas del artículo 5. ¿No? La diputada de Llamas, pero le damos no y lo votamos. Le van a sacar foto a la indicación y la van a enviar al grupo, ¿ok? Diputada de Yamas. Presidente, es que quizás como estos son temas que hemos tratado de trabajar en la mesa. Si pudiese hacer como algún recuento del contenido del artículo, qué cosas se discutieron y así poder ver las indicaciones, no sé, con una breve introducción previa. ¿Está la Secretaría o el propio Ejecutivo en condiciones de darnos una breve explicación del artículo y lo que han trabajado? Planteo los dos, porque eran los dos que nos de esa... Breve explicación, ¿no? ¿El Ejecutivo podría entregar los detalles? Sí, señor presidente. En el artículo 5 se hizo el trabajo de mirar todas las indicaciones que se habían presentado hasta la fecha. Esas indicaciones tenían que ver esencialmente con la incorporación del concepto de uso asociado a las distintas categorías de riesgo. Era un punto que habíamos visto desde el Ejecutivo y que estaba presente en varias de las indicaciones de los parlamentarios también, esencialmente basado en el hecho de que el proyecto de ley en su conjunto regula el uso de los sistemas y que los sistemas en sí mismos pueden tener diversos usos. Si recuerdan, esto es una discusión que tuvimos a propósito de la definición de sistemas de uso general, que en el fondo un mismo sistema puede tener distintos usos y por lo tanto lo que rige y que gobierna el marco legal que le queremos dar a la materia viene dada por el uso de la IA y no por la herramienta en sí mismo. Esto es consistente con prácticas internacionales donde no se regula una tecnología en particular, sino que los usos que se dan a esa tecnología, energía nuclear o desarrollo nuclear es un ejemplo de aquello. El uso para temas de guerra es distinto que el uso para temas médicos. El segundo punto de discusión tenía que ver con el, es la B, ¿no es cierto? Claro. En el caso de la B, los usos de alto riesgo, donde...
15:00
La forma en cómo quedaba descrito era respecto de la afectación negativa que pudiese tener en la salud, seguridad y derechos fundamentales, luego de lo cual se describían algunos derechos como, por ejemplo, derechos de autor, derechos conexos, derechos con los consumidores. Eso generaba el problema más bien de interpretación, de que si hacíamos derechos fundamentales y luego mencionábamos a algunos o a otros no, podía generar confusión respecto del tema y la posición de acuerdo fue hablar de derechos fundamentales en términos genéricos y por lo tanto cortar la letra B hasta derechos fundamentales, entendiendo que están todos incorporados. Eso, señor presidente. Muchas gracias. Comencemos la votación. Sí, habiendo dos indicaciones que reemplazan totalmente el artículo 5, que es de la diputada Olivera que está en el comparado y la de la diputada Labra que acabo de mandar al grupo. Le doy lectura a esas dos primero. La 16 bis que está en el comparado de la diputada Olivera para reemplazar el artículo 5 por el siguiente. Artículo 5. Clasificación de los usos de sistemas de IA. Los usos de los sistemas de IA se clasifican de acuerdo con su riesgo en las siguientes categorías. A. Usos de riesgo inaceptable. Agrupa sistemas de IA incompatibles con el respeto y garantías de los derechos fundamentales de las personas, por lo que su introducción en el mercado o puesta en servicio se encuentra prohibida. B. Usos de alto riesgo. Agrupa sistemas de IA autónomos o componentes de seguridad de productos cuya utilización puede afectar negativamente los derechos fundamentales de las personas, especialmente si estos sistemas fallan o se utilizan de forma impropia. C. Uso de riesgo limitado. Agrupa sistemas de IA cuyo uso presenta riesgos no significativos de manipulación, engaño o error producto de su interacción con personas. D. Uso sin riesgo evidente. Agrupa a todos los sistemas de IA cuyo uso no entra en las categorías mencionadas en los literales precedentes. La indicación de la diputada Labra es también para reemplazar el artículo 5 por el siguiente. Artículo 5. Clasificación de los sistemas de IA. Los sistemas de IA se clasifican de acuerdo con su riesgo en las siguientes categorías. A. Sistemas de IA de riesgo inaceptable. Agrupa sistemas de IA incompatibles con el respeto y garantías de los derechos fundamentales de las personas, establecido en el artículo 6 de la presente ley, por lo que su introducción en el mercado o puesta en servicio se encuentra prohibida. B. Sistemas de IA de alto riesgo. Agrupa sistemas de IA autónomos o componentes de seguridad de productos cuya utilización puede afectar negativamente los derechos fundamentales de las personas, especialmente si estos sistemas fallan o se utilizan de forma impropia. C. Sistemas de IA de riesgo limitado. Agrupa sistemas de IA que presentan riesgos no significativos de manipulación o engaño o error producto de su interacción con personas. D. Sistemas de IA sin riesgo evidente. Agrupa a todos los demás sistemas de IA que no entran en las categorías mencionadas en los literales presentes. Eso es, presente. Perfecto. Vamos a someter a votación las indicaciones solo para tener certeza, si entendí bien. En la indicación de la diputada Olivera, lo que entendí es que el Ejecutivo está más de acuerdo, o no, para no tener dudas. ¿Sí? Perfecto. ¿Sí? Explique la diputada. Dado el uso, hacía bastante sentido, pero junto a mi asesora le dimos la vuelta respecto a la congruencia con el resto del proyecto y la idea matriz del proyecto. Y de hecho, por eso presentó una nueva indicación para eliminar en este artículo todo lo que tiene que ver con uso y les voy a aclarar por qué, cuáles son las complicaciones. En el artículo 2, el ámbito de aplicación de esta ley en su totalidad, la letra A, proveedores que introduzcan en el mercado, y ahí viene la definición de proveedores que introduzcan sistemas de IA al mercado. Ahí queda totalmente fuera el uso, el proveedor que está introduciendo un sistema en el mercado. La letra D habla sobre importadores a los que se les aplica esta ley. Y ahí no hablamos de uso. El artículo 5, el mismo artículo dice que los sistemas de IA agrupan sistemas incompatibles con el respeto, garantía de los derechos fundamentales, por lo que su introducción en el mercado o puesta en servicio está prohibida, que eso no es el uso. Por lo tanto no podríamos estar hablando de uso. El artículo 6, el sistema de riesgo inaceptable, habla de sistemas que explotan vulnerabilidades de las personas con componentes dañinos. Ese sistema es el que está siendo regulado, no el uso. El desarrollo de un sistema que explota vulnerabilidades de las personas para provocar daño no es el uso. El desarrollo de ese sistema es el que está siendo regulado. Artículo 24, las infracciones.
20:00
La apuesta en servicio de un sistema de inteligencia artificial de alto riesgo. La apuesta en servicio, no el uso. Artículo 26. Infracciones que cometa un operador por vulnerar prohibiciones. Infracción que comete el operador, no el uso. Por lo tanto, creo, confirmo mi convicción, que aquí si metemos el uso en la definición, desarticulamos el proyecto en su completitud. Por lo tanto, creo que si nos referimos solamente al uso, estaríamos en este proyecto regulando y el ámbito de aplicación sería solamente el usuario final. Por lo tanto, creo que incorporar uso acota el proyecto y lo aleja de la idea matriz. El ejecutivo, sí, por favor, ministra. Gracias, presidente. Necesito, como a primera, con un análisis de la ley solamente, porque recién conocemos la indicación. Y pregunta para la diputada que pudieron analizarlo en mayor profundidad. ¿No se resolvería ese problema incorporando una definición de uso? Porque en el fondo el objetivo que tenemos es que la tecnología se desarrolle, pero luego cuando se utiliza en distintos ámbitos que del acuerdo que generamos de acá nos parecen que están fuera de lo que legalmente corresponde, de lo que éticamente corresponde, debiese ser sancionado, ¿verdad? Por lo tanto, es el uso. Como conceptualmente estamos de acuerdo en que es el uso lo que debiésemos regular. Ahora, hay casos, como particularmente los desarrollos de inteligencia artificial que tienen como único objetivo cosas que son fuera del marco de lo que estamos estableciendo como legal, que son bien acotados. Por lo tanto, uno podría incorporar una definición de uso que se refiera a las finalidades con las cuales se utiliza una inteligencia artificial y respecto de aquellos que son de riesgo inaceptable, que efectivamente se salen un poco del margen, hacer una regla especial. Mi preocupación va por el lado de que si eliminamos el uso, los sistemas de inteligencia de uso general, por ejemplo, nos quedarían prohibidos per se y creo que no es lo que queremos lograr. Por eso lo planteo, como ver cómo le podemos dar la vuelta quizás con una definición. Voy a poner un ejemplo. Esta ley regula que todo lo que sea inteligencia artificial tiene que tener cierta identificación al usuario final que es inteligencia artificial. Entonces, si partimos dando la definición que esto regula sistemas de alto riesgo, inaceptable, tolerable, no sé qué, como solamente uso, eso ya no estaría aplicado en la ley. Porque ahí no estamos hablando del uso, estamos hablando que el desarrollador, el proveedor, tiene que clarificar, esto es un ejemplo particular, que es inteligencia artificial para quien lo está usando lo sepa. Entonces, si nos limitamos a decir que son solo usos, estamos dejando eso fuera. Por lo tanto, desarticulamos la ley y yo creo que esto hay que mirarlo en la totalidad, en la completitud del proyecto. Nos salimos un poco del contexto y genera, yo creo que bastante problemas en los otros artículos. Diputado Kaiser. Efectivamente, yo creo que hay un tema de coherencia, pero también el Ejecutivo tiene razón. O sea, yo creo que aquellos que hemos planteado que efectivamente la regulación tiene que ser al uso y no necesariamente al sistema, tiene razón de ser. Quizás la homogeneización no la tengamos que hacer, entendiendo la motivación de la diputada, no respecto de los sistemas, sino que incorporando el uso al resto del proyecto y haciéndonos cargo de que efectivamente se nos pasó ese detalle. Porque un sistema es lo mismo que una herramienta. Un cuchillo puede usted usarlo para cortar carne y puede usarlo para cosas bastante más terribles que eso. Entonces, si vamos a prohibir la herramienta en razón de su potencial, evidentemente que quedamos en una situación complicada. Si prohibimos un uso determinado, parece más razonable. Quizás haya que revisar lo que ya hemos...
25:00
Avanzado, yo creo que estoy convencido que esta comisión va a estar dispuesta a entregarle una animía para reabrir o corregir aquello que tenga que corregirse. Muchas gracias, señor presidente. La diputada Labra me pidió la palabra y le entrego la palabra a la ministra. Presidente, entendiendo que como tratando de recoger el punto que señalaba la ministra y haciéndonos cargo de lo que plantea la diputada Labra, igual se puede encontrar una redacción en donde no se deje establecida la prohibición o no se subentienda la prohibición de los usos, sino que se incorpore dentro de la clasificación de los sistemas. Entonces yo creo que esa es una mejor solución, entendiendo lo que plantea la diputada Labra y que me hace sentido, la verdad. O sea, si es que no vamos a incorporar otras particularidades que están en el proyecto de ley, puede que compliquen la coherencia del proyecto. Entonces yo en ese sentido trataría de buscar una forma, que puede ser cierto que la clasificación sea de los sistemas de inteligencia artificial incorporando los usos y que cada una de las clasificaciones se entenderá los usos correspondientes a su respectiva clasificación. Ministra, a ver, nosotros en las indicaciones del Ejecutivo incorporamos el concepto de uso en muchos de los artículos, precisamente porque cuando hicimos la primera revisión, llegamos a una conclusión parecida a la de la diputada Labra, porque cambiaba muchos de los artículos por la aplicación final y por lo tanto incorporamos muchas indicaciones hacia adelante donde se habla del uso de un sistema para o el, en fin, incorporamos la palabra uso un montón de veces. Entonces mi pregunta es si el análisis que hicieron considera esas indicaciones del Ejecutivo y si las considera lo mejor efectivamente como dice el diputado Kaiser, nos faltó alguna y la podríamos ir identificando y corrigiendo en el momento. Claro. Diputada Labra, perdón por venir aquí a complicar lo que parecía sencillo, pero yo creo que esto es algo súper importante. Nosotros quizás no nos damos cuenta, pero hay mucha gente, muchas instituciones mirando esto y hay muchas alertas que se han levantado y por lo tanto creo que necesitamos tomarnos tiempo y hacer un análisis completo en la coherencia y los efectos que puede tener este proyecto. Por ejemplo, cuando nosotros se detecta o se está realizando un desarrollo con inteligencia artificial de armas biológicas, aquí vamos a regular el uso. O sea, vamos a esperar que esto se desarrolle sabiendo que tiene perjuicio importante a la ciudadanía. No tiene sentido que eso se permita, se desarrolle y después el uso se sancione. O sea, se puede regular, pero si nosotros lo definimos así en este artículo, limitamos y acotamos. Por lo tanto, si se detecta que hay un desarrollo de este tipo, inmediatamente se clasifica como inaceptable. No el uso, sino ese sistema que se está desarrollando. Entonces por eso creo que a lo mejor el tema del uso en particular se puede ir incorporando en artículos que vienen más adelante. Pero no creo que en estas definiciones aplique la palabra uso por esas explicaciones que le he entregado. Me solicitó la palabra el diputado Kaiser, luego el diputado Lagomarsino y si alguien es capaz de hacer una síntesis, una indicación. Lo que pasa, señor presidente, es que el desarrollo... A ver, nosotros tenemos el hardware y el software, ¿de acuerdo? El sistema del hardware, que también se basa en un software de base, en este sentido, porque es aquel sobre el cual se construye entonces después la inteligencia artificial. Si usted lo hace aprender, por ejemplo, para la creación de armas biológicas, usted ya está cometiendo un delito. Lo está cometiendo porque ya está... eso está prohibido en una serie de normas, también de derecho internacional. A las cuales nosotros hemos adscrito, porque tenemos... nosotros adscribimos creo a los tratados que prohíben las armas biológicas y químicas. Chile, por lo menos. En ese sentido, la utilización del hardware para este tipo de fines, para fines que están prohibidos, está prohibido. El punto es que si nosotros prohibimos el hardware en sí, es decir, el programa base, ese programa puede ser utilizado para las más distintas operaciones. Entonces, claro, todo programa puede ser utilizado para fines nefastos. De hecho, yo en la indicación que habíamos incluido...
30:00
La diputada Olivera, ahí me saltó el ojo, que puede llegar a ser peligroso, puede llegar a ser peligroso también es bastante amplio. Yo podría agarrarle la inteligencia artificial, toda inteligencia artificial y transformarla en un arma. Entonces, cómo avanzamos en esto va a ser bien interesante. Lo que yo propongo en esta materia es que el Ejecutivo le dé una vuelta también con nuestros asesores, habiendo reconocido la inconsistencia entre ambas cosas, porque por un lado estábamos viendo el tema de los sistemas solamente, y por otro lado la utilización de los sistemas. El sistema, pensemos quizás el sistema como algo neutro, simplemente como una herramienta, que de la mano de su programación y de su fin, puede entonces convertirse en un problema, y donde tenemos que sancionar su programación y el fin que se le está dando. En ese caso tendríamos que cambiar la lógica de lo que es la parte que ya aprobamos del proyecto. Si queremos sancionar la creación de los sistemas hacia el futuro, entonces, o sea, el sistema mismo, entonces podemos mantenernos en la misma lógica y tendríamos que aprobar la indicación de la diputada. Y ahí probablemente, y ahí si tienen razón, nos quedamos sin inteligencia artificial en Chile, porque los sistemas pueden ser utilizados necesariamente, todo sistema puede ser utilizado con fines nefarios. Muchas gracias, señor presidente. Diputado Lagomarsino. Muchas gracias, presidente. Yo creo humildemente que nos estamos enredando un poco, producto de que cuando uno regula un uso, eso es aplicable tanto para el desarrollo como para la distribución, como para la utilización. Producto de que cuando uno desarrolla, lo desarrolla con un uso, ¿a qué se le va a dar? Efectivamente, los sistemas de inteligencia artificial en general son los mismos programas en general que ocupan machine learning, etcétera, y que son entrenados con datos diferentes y que eso les permite funcionar para ciertos usos. Pero ya cuando una persona, una empresa desarrolla un sistema de inteligencia artificial con datos determinados, es porque tiene claramente pensado para qué uso va a ser ese sistema de inteligencia artificial. Entonces yo no veo mayor incoherencia en ocupar la palabra usos, por lo menos de lo que se ha hablado hasta ahora. De hecho, algo que nos reforzaron de forma muy importante desde el mismo CENIA, en las presentaciones que tuvimos, fue que no era correcto regular una tecnología, sino que los usos de esa tecnología. Entonces cuando regulamos el uso, ya de por sí estamos regulando también la posibilidad de desarrollo, sobre todo, obviamente, cuando está prohibido, como es el caso de los de riesgo inaceptable. Muchas gracias, presidente. Ministra, perdón. Bajo riesgo de enredar. Y si enredo, lo sacan inmediatamente. Tomando el punto que decía la diputada, de que hay algunos casos extremos donde, francamente, no hay por dónde, y por lo tanto el solo desarrollo puede significar un riesgo que es demasiado grande. Así en frío me cuesta pensar en algún caso, por lo que decía el diputado Kaiser, particularmente en el mundo de la investigación, donde muchas veces no se sabe la etapa previa. Pero poniéndonos en el caso de que eso exista, ¿no sería una forma de resolverlo el mantener la regulación en los usos, como lo tenemos estructurado en el proyecto, e incorporar un artículo que describa sistemas que son completamente fuera de norma y de esa forma, respecto a la consistencia del artículo 1, quedarían definiciones de actores con distintas funciones, usos, que es la categoría de uso y la clasificación de riesgo que todos conocemos y que es el modelo más internacional, y una sección específica para sistemas...
35:00
Más de ella que simplemente no aguante ni que habría que pensar bien cómo describirlos o cómo enumerarlos. No sé si eso enreda o resuelve, pero tratando de hacerme cargo de la preocupación de la diputada Labra. Diputada Labra, entiendo lo que plantea el diputado Logomarsino y también lo que plantea la ministra, que podría ser una buena solución. Yo creo que eso es algo que va a tomar un poco de tiempo porque habría que ver la coherencia del proyecto completo para que sea aplicable y se pueda interpretar a lo que queremos llegar, que es algo que difícilmente quizás vamos a lograr resolver ahora. Y para responder un poco a las inquietudes del diputado Logomarsino y a lo que yo me refiero con que se tiene que revisar la coherencia completa, voy a volver a mencionar uno de los artículos que comenté, artículo 24, infracciones que estamos multando con multas altas. La infracción gravísima dice la puesta en servicio o la utilización del sistema de inteligencia artificial de alto riesgo inaceptable. La puesta en servicio es una multa gravísima. ¿Y qué es la puesta en marcha o puesta en servicio de un programa o un software, etcétera? El proceso de instalación, configuración y verificación de una plataforma. Por lo tanto, tampoco estamos hablando del uso final y eso lo estamos sancionando. Por lo tanto, aquí habría que darle una vuelta de tuerca al proyecto completo para que quede coherente si queremos referirnos a los usos. Y es algo que yo creo que vamos a tener que tomar un tiempo más para poder definirlo como corresponde. Este es un tema relevante que tiene mucho impacto. La inteligencia artificial se está usando en todos los rubros y no podemos quedarnos atrás, ventaja competitiva en términos económicos, desarrollo tecnológico con otros países. Por eso, quiero hacer un llamado a tomarse esto con seriedad y poder analizar con el tiempo que corresponde para hacer las mejoras pertinentes. ¿Quieres acotar algo? Gracias, Presidente. Estoy pensando mientras hablo. Pero tenemos un montón de expertos conectados. A lo mejor sería útil quizás preguntarles cómo lo ven. Yo creo que pueden ayudarnos a entender y quizás a resolver el nudo. No sé si habrá alguien. ¿Hay alguno de los expertos que quiera opinar? ¿Hay algún experto por ahí? No veo. Claro. Más allá de escuchar a los expertos, mi opinión es que como esto, recogiendo lo que plantea la diputada Labra, pero entiendo que también ponen en discusión ya artículos que se aprobaron, como el artículo 2. Por eso, se pone en discusión como toda la coherencia de lo que se está votando. Yo soy más partidario de que sometamos a votación las indicaciones. Porque esto obviamente es un primer trámite. Probablemente este proyecto no va a estar ni acabado ni en el primer trámite legislativo, ni en el segundo trámite. Es decir, esto va a seguir sufriendo en algún minuto algún grado de modificación. Porque si no, se va a hacer muy difícil el avance. De hecho, una de las propuestas que está aquí presente, por eso lo estoy diciendo con alta claridad, pone en cuestión incluso artículos que se han votado ya. Entonces, yo lo que voy a hacer es someter a votación las indicaciones, que son ambas legítimas, junto con el artículo legitimado y que dirimamos en una votación. ¿Diputado Kayser? Sí, señor Presidente. Lo que pasa es que a mí me molestaría que de esta comisión, que es una comisión que trabaja de manera absolutamente seria y donde hemos logrado una gran transversalidad, salga un proyecto donde el Senado mire la cuestión y diga, ah, tenemos que hacer toda la pega. Entonces, lo que me gustaría proponer, señor Presidente, y también consultar al Ejecutivo, si existiría... Bueno, yo personalmente me gustaría proponer que abriésemos los artículos que ya fueron votados y pedirle al Ejecutivo, si está de acuerdo, que en la lógica que va de la mano de esta indicación, es decir, de ir al uso y no necesariamente a los sistemas mismos, presente indicaciones a los sistemas.
40:00
Los artículos que ya fueron votados y con eso le damos coherencia porque más adelante las indicaciones del Ejecutivo van también en dirección al uso y en ese sentido, para darle coherencia al sistema, tenemos que volver un poquitito atrás. Estamos recién en el artículo 4, señor presidente, yo creo que no se pierde tanto y así podemos enfrentar todo desde una matriz común, porque si no vamos a estar con esta discusión también de uso, sistema, hasta el final del proyecto. Muchas gracias. Diputado López, Marcelo Pacheco, le pido la palabra. Muchas gracias, presidente. Yo creo que efectivamente, hagamos lo que hagamos, en el Senado van a decir que hicimos mal la pega. Yo creo que es indiscutible porque, bueno, y también lo mismo hacemos nosotros cuando llegan los proyectos de ley, al menos a salud. Al menos a salud. También decimos que no hicieron bien la pega, pero este es un proyecto de ley que está en su primer trámite, en comisión, todavía queda la sala. Yo no entiendo cuándo pudimos haber un poco extraviado quizás el rumbo, porque íbamos en un buen ritmo. Yo creo que todos tenemos disposición de dejar el proyecto lo mejor posible, pero aquello también requiere que en paralelo también vayamos avanzando con otras cosas. Yo por lo menos no tengo problema en reabrir artículos anteriores, pero a la vez poder aprovechar estos escasos minutos, porque entiendo que hasta las 18:30 tenemos para votaciones, nos quedan 12 minutos, y es que somos estrictos, para, aunque sea, llevar una votación adelante, presidente, si es posible. Muchas gracias. Diputado Yomas, me había pedido la palabra, entonces, y luego la diputada Labra, de inmediato. Sí, presidente. Mira, yo creo, primero, a partir de rescatar el ánimo que se ha tenido en la discusión de este proyecto de ley. Nos hemos tomado el tiempo, estamos haciendo un buen trabajo, hay una mesa, además, con los asesores. Yo creo que esa es como la forma de abordar un debate que es complejo. Sí, presidente, y claro, uno podría también estar de acuerdo en revisar, reabrir debates o artículos, pero que eso no implique retroceder, ¿cierto? Porque igual hay debates que hemos dado acá en esta comisión, se han dado en la mesa, entonces... Y efectivamente, en esta materia al menos, respecto a este artículo, yo lo que veo es que más bien lo que debiéramos resguardar es que no queden prohibidos todos los usos. No sé si hay algo más de lo que debiéramos hacernos cargo, porque uno podría buscar un mecanismo en que eso quede redactado de esa forma, sin tener que volver a dar discusiones que ya habíamos cerrado. Entonces, a mi disposición, si es que podemos encontrar alguna forma en que aquí mismo, en este mismo artículo, podamos abordar la diferencia sin necesidad de volver a reabrir discusiones. Una aclaración porque me pidió la palabra la diputada Labra. Si uno quisiese reabrir artículos, acabo de consultar a la asesora, se requieren dos tercios, dos tercios de quienes están presentes. O sea, se requerirían cinco votos para reabrir un artículo de lo que estamos, a ver si se presenta. Solo lo doy como un antecedente, entonces, diputada Labra, usted me pidió la palabra. Ahí sí. El ánimo es que busquemos una solución, porque efectivamente, e insisto en el punto, esto tiene que salir bien hecho, no a la rápida por decir que estamos avanzando y menos decir en los segundos trámites que se arregla. Tenemos que hacer la pega bien de una, no tenemos ningún apuro que no nos permita hacer las cosas como corresponde. Entonces, en ese sentido, en buscar propuestas, por ejemplo, el artículo 5 viene a ser una definición genérica, después el artículo 6 y el 7, para los que han revisado el proyecto, viene la definición más en particular. Por lo tanto, podemos ir de lo general a lo particular, y el artículo 5 no incorporar los usos, y después en la particular, que define los riesgos y pone un listado taxativo de los riesgos inaceptables y el que sigue de los riesgos de alto riesgo. Ahí quizás podemos incorporar el uso con una mejor definición y que quede más claro y le dé sentido al proyecto. Por otro lado, yo también confío mucho en el buen trabajo que ha hecho el Ejecutivo, en la mesa que han llevado los asesores, que ha funcionado muy bien, y quizás sería más pertinente que ahora votar en 15 minutos algo que puede dejar el proyecto poco coherente, quizás que el Ejecutivo lo pueda revisar, buscar quizás con los asesores también una propuesta y de ahí poder avanzar con algo ya más coherente. Si la ministra va a hacer una propuesta...
45:00
¿Ya? Diputado, que ahí se lo vamos a hacer. Gracias, señor presidente. Mi propuesta es la siguiente. Si nos vamos a poner de acuerdo, esto sería una especie de votación no sobre el texto, sino sobre el principio, ¿ya? Si nos vamos a poner de acuerdo en controlar el uso o los sistemas. Si estamos de acuerdo en que vamos por los usos, entonces tenemos que abrir los artículos anteriores y en ese sentido esperamos que el Ejecutivo le meta las indicaciones. Si estamos dispuestos a mantener el tema del sistema, bueno, posteriormente habrá que ver también porque hay indicaciones del Ejecutivo que nuevamente se refieren a la luz. Yo creo que nosotros deberíamos tener una sola lógica de lo que estamos regulando en este proyecto de ley, señor presidente, y me gustaría consultarle al Ejecutivo si también tiene la impresión de que nosotros deberíamos regular el uso en vez de meternos directamente con el sistema. Muchísimas gracias. Ministro. Gracias, señor presidente. Nosotros efectivamente, y creo que no hemos escuchado una opinión en contrario en esta comisión, el objetivo es regular el uso. Creo que en eso estamos todos de acuerdo. Y en ese entendido, nosotros queríamos proponer lo siguiente: que en lugar de reabrir los artículos ahora, llevar a la comisión técnica el análisis de las inconsistencias para darle tiempo, porque la verdad es que no es tan fácil entenderla y verla en todas las piezas de solo escuchar la indicación. Que nos demos la semana para trabajarlo en profundidad y si como resultado de ese trabajo entendemos que hay que reabrir artículo, hay que corregir o agregar otro, lo hacemos, pero no decidirlo ahora para, como decía la diputada Llamas, no reabrir discusiones donde ya las cerramos. Solo si es necesario, porque vemos que existen inconsistencias y nosotros, por supuesto, súper disponibles a que se trabaje en la mesa técnica y que lleguemos con un texto como acordado para la próxima sesión. Muchas gracias, presidente. Bueno, la Secretaría elaboró, no sé si al menos yo se lo pedí, un estado del proyecto de ley hasta el momento, que es hasta el 4 de diciembre de 2024, y por lo menos revisando esto, yo no veo mayor inconsistencia respecto a lo que se está discutiendo hoy día. Todo lo que estamos hablando en el artículo quinto, que es el que se tiene que votar, está en coherencia con lo anterior, porque lo que hemos votado hasta el momento es, uno, el objetivo de la ley, donde a mi juicio no hay ninguna incoherencia, dos, el artículo dos, ámbito de aplicación, y tres, las definiciones. El ámbito de aplicación no se contrapone con lo que estamos discutiendo en ningún sentido. Ahora bien, yo por su intermedio, presidente, quería preguntarle qué urgencia tiene el proyecto de ley y si es que fuera posible, por su intermedio, pedirle a la ministra que quizás hubiera algún grado de urgencia, al menos suma. Bueno, entonces, si tuviese suma, se pudiera sesionar en paralelo a la sala, cosa de poder avanzar un poco más con este proyecto, dado que finalmente los tiempos entre sesiones de ciencia, que son los miércoles, se extienden mucho. Entonces, finalmente no se transparenta la discusión hasta que llegamos acá. Y como la discusión se transparenta cuando llegamos acá, finalmente no avanzamos nada, porque tuvimos tres semanas de juego de máscara, en la cual nadie explicitaba sus diferencias, y eso también lo digo porque el espacio de asesores no sirve para que cada uno transparente su posición. Entonces, quizás podríamos tener sesiones más cortitas, pero en mayor número, para avanzar e ir transparentando esto en el espacio donde finalmente se da el debate que es este. Muchas gracias, presidente. Solo quiero aclarar que este es un proyecto que tiene suma urgencia, es decir, esto no sucede en la realidad. O sea, tendría quince días este proyecto para pasar por esta comisión, la decisión de llegar a la sala. Eso es. O sea, para que, si uno quiere hacer valer todos los reglamentos, obviamente yo lo que tendría que hacer hoy día es someter toda votación nomás y por la vía democrática dirimir, digamos, pero obviamente que no es el espíritu. Pero frente a la consulta, eso es. Hoy día este proyecto tiene suma urgencia, es decir, en quince días deberíamos tenerlo despachado. Diputada Llamas. Presidente, a propósito de los tiempos.
Fragmentos 1-10 de 28 (14 disponibles públicamente)

¿Listo para empezar?

Únete a Parlamento.ai y transforma la manera en que monitorejas la actividad parlamentaria