Sesión especial citada con objeto de continuar con la votación en particular del proyecto de ley que regula los sistemas de inteligencia artificial (boletines refundidos Nº 16821-19 y Nº 15869-19), en primer trámite constitucional, con urgencia calificada de “suma”.
La Comisión ha invitado a la Ministra de Ciencia, Tecnología, Conocimiento e Innovación, señora Aisén Etcheverry Escudero. * Ministra de Ciencia.
Vista pública limitada
Esta es una vista pública que muestra solo la primera mitad de la transcripción.
Para acceder al contenido completo, regístrate en nuestra plataforma.
0:00
El acta de la sesión 94 se pone a disposición de las señoras y señores integrantes de la comisión. La señora Secretaria dará lectura a la cuenta. Muchas gracias, Presidenta.
Se han recibido los siguientes documentos: oficio de Su Excelencia el Presidente de la República, mediante el cual se retira y hace presencia la urgencia calificada de “suma” para el despacho del proyecto de ley que regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación; en segundo lugar, una comunicación del jefe de bancada de diputados del Frente Amplio Independiente, por el que se informa que la diputada Gael Yoman será reemplazada en esta sesión por el diputado Andrés Jordán. Eso es toda la cuenta, Presidenta. Muchas gracias. ¿Por la cuenta, alguien?
Ok, pasamos entonces de inmediato a la orden del día. Entrando en el orden del día, esta sesión especial ha sido citada con objeto de continuar con la votación en particular del proyecto de ley que regula los sistemas de inteligencia artificial en primer trámite constitucional, con urgencia calificada de “suma”. Por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación se encuentran presentes las asesoras legislativas Camila Aguayo y Paloma Herrera. La secretaria –no sé si estará la secretaria de la ministra Aisén Etcheverry– ha excusado la inasistencia de la ministra a esta sesión por encontrarse en comisión de servicio en el extranjero.
Ok, pasamos entonces de inmediato.
Llegamos a la página 45 del comparado, artículo 15, 51A, Indicación del Ejecutivo. Presidenta, si me permite, voy a dar lectura a las indicaciones, correspondiendo entrar en el estudio del artículo 15. El artículo 15 tiene las siguientes indicaciones:
Indicación 51A del Ejecutivo: Para modificarlo en el siguiente sentido, literal A, se agregará en el literal A, a continuación de la expresión “una propuesta del Estado de sistemas de IA de alto riesgo y de riesgo limitado”, la frase “cuyo uso conforme a los criterios establecidos en la presente ley y considerando especialmente aquellos que por su naturaleza o impacto evidente impliquen riesgos significativos”. Literal B, se intercalará en el literal B, entre la frase “los operadores de sistemas de IA de alto riesgo y de riesgo limitado”, la expresión “cuyo uso sea”. Además, se reemplazará el literal B por el siguiente: literal B, asesorar a la ministra o ministro de Ciencia, Tecnología, Conocimiento e Innovación respecto del alcance y modo de cumplimiento de las reglas a las que deberán sujetarse los operadores de sistemas de alto riesgo y de riesgo limitado, así como las obligaciones y responsabilidades de los proveedores, implementadores, el representante autorizado, el importador y/o el distribuidor definidos en el artículo 3 de esta ley.
Otra indicación del Ejecutivo del artículo 15 es agregar, en el literal B del mismo artículo, el siguiente inciso segundo nuevo: “Sin perjuicio de lo anterior, los sistemas de IA de uso general deberán dar siempre cumplimiento a las obligaciones.”
5:00
Establecidas en el artículo 8 de la presente ley. Indicación 53 de la diputada Labra, el artículo 15, inciso primero, número 1, letra B, para agregar antes del punto final lo siguiente, y en otras materias asociadas al uso e implementación de sistemas de IA; número 2, para eliminar la letra C; número 3, para agregar una letra nueva del siguiente tenor: “presentar, al menos cada año, iniciativas de fomento para la innovación y desarrollo de IA en áreas de interés y beneficio comunitario, como salud, seguridad, agricultura, entre otras, especialmente enfocado en empresas de menor tamaño.” Indicación número 54 del diputado Ayarzo, para incorporar una letra D nueva del siguiente tenor: “elaborar recomendaciones para el sector público y privado en torno al buen uso de la inteligencia artificial y sus límites éticos.” Eso es todo, Presidenta.
Ok. Le voy a dar primero la palabra a la diputada Laura para recibir su indicación. Sí. Bueno, ok. ¿Le doy la palabra a Paloma o Camila? Sí.
Buenos días, Presidenta, y buenos días a todas y todos los diputados. Primero, quisiéramos excusar a la ministra porque hoy día se encuentra en Brasil junto al presidente, y quisiéramos dar un poco de contexto de eso antes de empezar la discusión de fondo, ya que es importante que la comisión conozca que ayer se firmó un importante acuerdo entre el Ministerio de Ciencia de nuestro país y el Ministerio de Ciencia de Brasil, el cual se inscribe en la política nacional de inteligencia artificial de nuestro país.
A grandes rasgos, el alcance de este acuerdo es el siguiente: en primer lugar, se promueve la cooperación académico-científica mediante proyectos conjuntos, intercambio de investigadores y realización de eventos bilaterales, además de computación de alto desempeño, lo que permitirá compartir infraestructura entre Brasil y Chile, considerando que Brasil es una superpotencia en términos tecnológicos en nuestro continente. Asimismo, destaca el desarrollo del modelo de lenguaje latinoamericano, puesto que se está construyendo el primer modelo de lenguaje en español y en portugués, que incluye numerosas lenguas indígenas de nuestro continente. A través de la firma de este acuerdo, Brasil se suma a este gran proyecto, fruto de un trabajo conjunto del Ministerio de Ciencia de nuestro país. Además, el acuerdo crea una gobernanza operativa entre Brasil y Chile, lo que posibilita el intercambio regulatorio y de políticas públicas respecto al uso ético de la inteligencia artificial, y una interoperabilidad frente a las normativas que regirán tanto en Brasil como en Chile. Creemos que esto tiene un potente impacto estratégico, pues consolida el liderazgo de nuestro país en inteligencia artificial en el Cono Sur y marca un hito en la integración científica latinoamericana, al construir y compartir infraestructura, talento y, sobre todo, datos para crear el primer modelo de lenguaje representativo de nuestra región.
Por su intermedio, vamos a dar cuenta del artículo 15 y de las indicaciones presentadas por el Ejecutivo. Primero, en aras del entendimiento, se debe señalar que las indicaciones presentadas por el Ejecutivo, correspondientes a los números 51A, 51 y 52, son complementarias, ya que modifican y reemplazan al artículo 15 propuesto por el Ejecutivo. Dicho artículo 15 busca establecer las funciones que tendrá el Consejo Asesor de IA. En la sesión anterior ya se comentó la importancia de contar con la creación de un consejo asesor en inteligencia artificial, conformado por un grupo de carácter técnico y consultivo, compuesto por personas expertas y representantes de distintas instituciones públicas, académicas, sociales y del sector productivo.
10:00
Y remarcar que su objetivo principal es apoyar y asesorar al Ministerio de Ciencia en la implementación de una regulación responsable y moderna sobre el uso del sistema de IA en Chile. Como pueden ver, este consejo tendría tres funciones clave:
En la letra A, el consejo debe proponer cuáles sistemas de inteligencia artificial requieren una regulación especial, dado que no todos presentan los mismos riesgos. Algunos pueden influir en decisiones sensibles, como el acceso a la salud, la educación o el trabajo, temas que ya hemos debatido en otras sesiones, especialmente en sectores delicados. En este sentido, el Consejo elaboraría una propuesta de listado de sistemas de alto riesgo y de riesgo limitado, considerando los criterios establecidos en la ley. Como vimos en los artículos anteriores, se detallan las clasificaciones de los distintos riesgos y las obligaciones y responsabilidades que debe cumplir cada operador. Esta base servirá para que el Ministerio dicte un reglamento, el cual se actualizará al menos cada dos años en función del avance de las tecnologías, y para que esta ley permanezca vigente sin caer en la obsolescencia, como ha ocurrido con otras normativas tecnológicas.
En la letra B, el Consejo tendrá la función de aconsejar sobre la aplicación de las reglas a quienes desarrollan los sistemas de inteligencia artificial. La propuesta establece que el Consejo entregue recomendaciones sobre las obligaciones de los distintos operadores, especialmente cuando estos sistemas impliquen riesgos contra los derechos fundamentales de las personas.
En la letra C se establece que el Consejo deberá proponer lineamientos para los espacios controlados de pruebas. Considerando la expertise del consejo, este podrá complementar y apoyar en la habilitación de dichos espacios, así como en la futura dictación de un reglamento que regule su habilitación, garantizando siempre que se protejan los derechos de las personas con los estándares mínimos de cumplimiento y transparencia establecidos en la ley.
Esa es la propuesta del artículo 15 del Ejecutivo, complementada con las indicaciones que acompañan dicho artículo.
Muchas gracias, Paloma.
Ok, ofrezco la palabra, diputada Navarra.
Muchas gracias, diputada Labra. Entonces, vamos a ir votando literal por literal a solicitud de la diputada Labra. Y ofrezco la palabra sobre el literal A, entonces, a alguien más, ¿no?
Claro, sí, iríamos por la letrada primero, diputado Caiz.
Si no hay más palabras, entonces... ponemos en votación. Sí.
15:00
Sí. La indicación de la subjetiva Grego. Exacto. Para Grego. Exacto. Ok, ponemos votación. Vamos a votar la indicación del Ejecutivo, que es el artículo 15 –que ha pasado a ser 14, la letra A, más lo que le agrega, exacto–; el original más la indicación. Eso va junto.
Sí, diputado Kaiser. Señora Presidenta, si un sistema es colocado en una calificación de alto riesgo o de riesgo limitado, es algo que va a determinar este Consejo, ¿no es cierto? Eso puede tener consecuencias para un sistema específico que está entrando al mercado. ¿Ante quién pueden apelar respecto de la resolución del Consejo? ¿Debe existir alguna instancia de apelación respecto de las resoluciones del Consejo en esta materia? Porque hay una decisión que puede tener un impacto patrimonial, y aquí yo no veo ninguna posibilidad de apelación.
Ok, diputado Pérez, gracias. ¿Le ofrezco la palabra al representante del Ejecutivo? Ya. Bueno, por su intermedio, Presidenta, responder al diputado Kaiser: ¿existe posibilidad de poder apelar o consultar debido a las respuestas que da el Consejo, tanto al Ministerio de Ciencia, Tecnología, Conocimiento e Innovación –quien finalmente es quien va a ejecutar esta ley–, por lo que puede haber una respuesta por parte del Ministerio respecto al porqué de la respuesta del Consejo propiamente tal? Y, además, tiene una modificación de cada dos años, por eso.
Señor Presidente, lo que a mí me complica es que nosotros ya hemos visto en legislaciones anteriores que se entrega al Ejecutivo facultades que pueden tener impactos patrimoniales muy relevantes, sin, con ello, al mismo tiempo establecer una jerarquía respecto de la cual una persona que sea afectada por estas facultades pueda interponer un recurso. Por ejemplo, esto fue en el caso del material de uso dual en defensa; habían colocado que el recurso era solamente de reposición ante la misma instancia que había tomado la decisión. Fue una discusión muy larga y extenuante hasta que nos pusimos de acuerdo en que no era razonable presentar ante la misma instancia el recurso de reposición, puesto que ni siquiera tenía que dar una opinión, sino que debía resolver de manera fundada la apelación. Aquí no hay un procedimiento de apelación determinado en la ley respecto del proceso de resolución del Consejo y del Ministerio, y yo creo que eso está faltando, evidentemente.
Gracias. Gracias, diputado. ¿Algo más que agregar en el Ejecutivo? Si no, la colocamos en votación.
Simplemente, también recordar que este proyecto de ley se tiene que interpretar a la luz de la demás normativa que existe. Por ejemplo, en el ámbito de derecho administrativo ya están las instancias, tal como señala el diputado Kaiser, de recursos de reposición, pero también recordemos que, ante recursos de reposición, puede proceder un recurso jerárquico en subsidio, donde lo vería un superior. Tenemos esas instancias administrativas y, además, está el control de fiscalización de los actos que ejerce la Contraloría General de la República.
Muchas gracias, Paloma. Colocamos entonces en votación. Gracias.
20:00
Resultado de la votación, cinco votos a favor, uno en contra, una abstención. Aprobado.
Con el literal B. El literal B presenta, lo leo en el jurado. Sí, completo también para que entendamos que vamos a votar en esta oportunidad el original del proyecto más lo que agrega la invitación, también el Ejecutivo. El literal B de la indicación del Ejecutivo es para intercalar, en el literal B, entre la frase “los operadores del sistema de IA y de alto riesgo y de riesgo limitado”, la expresión “cuyos usos sean”. Sí, diputado Palma.
… Sí, le consultaba al Ejecutivo: lo que pasa es que el literal B dice intercalarse en el anterior, pero a continuación dice para reemplazar el literal B por el siguiente, lo reemplazamos completo. ¿Cuál es el sentido de votar eso? ¿Me entiendes? Sí, te entiendo.
Le damos la palabra a Paloma para que nos aclare por qué hay después una indicación sobre lo mismo.
Paloma:
Para otorgar contexto, recordemos que el Ejecutivo ha presentado tres packs de indicaciones. Entonces, primero teníamos la propuesta del 51, que agrega dentro de las obligaciones que tendrá este Consejo Asesor también la de ayudar al Ministerio cuando tenga que dictar los correspondientes actos administrativos, es decir, las obligaciones y responsabilidades de los distintos operadores. Se agrega esa parte en el artículo B, que es la indicación 51 del Ejecutivo. Luego, en el último pack de indicaciones, presentado en el 51A del Ejecutivo, se complementa esta indicación a través del 51A letra B, señalando la inclusión, entre “los operadores de sistemas de IA y de alto riesgo y riesgo limitado”, de la expresión “cuyos usos sean”. Son distintas y complementarias: la primera busca establecer que el Consejo proponga las obligaciones y responsabilidades que tienen los operadores a la luz de la normativa, y la última busca señalar que lo que se regula son los usos de los sistemas, armonizando lo ya aprobado.
Ofrezco la palabra sobre este tema, diputada Laura.
Diputada Laura:
Gracias, Presidenta. Bueno, dado que ya en la sesión anterior quedó aprobado un consejo asesor, que a mi juicio no quedó con una composición idónea, hace sentido que una de sus funciones sea asesorar a la ministra, por supuesto. Pero con lo que no estoy de acuerdo es que se trata de una asesoría totalmente punitiva y restrictiva, o sea, asesorar sobre cómo deben cumplir las reglas punitivas y restrictivas que se han aprobado en el proyecto de ley respecto de los usos de sistemas de alto riesgo y de riesgo limitado. Por lo tanto, creo que vuelvo a mi punto de origen, que este es un proyecto totalmente restrictivo y, si vamos a avanzar, tiene que incorporar temas de innovación, desarrollo y fomento, razón por la cual presenté en su momento una indicación que plantea que se asesore en otras materias asociadas al uso e implementación, pero no en el sentido restrictivo y punitivo que es lo único que se está dando foco acá.
Gracias, diputada Alarra, diputado Lago Martino. Muchas gracias, Presidenta.
Esta discusión fue abordada intensamente durante la invitación y la discusión en general, producto de que, inicialmente, en el proyecto de ley, la materia o los usos de inteligencia artificial que iban a ser calificados de alto riesgo estaban taxativamente en el proyecto de ley original, así como también en el modo de cumplimiento y en el alcance, y justamente fueron los planteamientos prácticamente transversales de quienes escucharon…
25:00
Que esto era tan dinámico que era mejor que no estuviera en la ley, sino que se regulara mediante decisiones de carácter administrativo. Entonces, desde esa perspectiva, yo creo —y, de hecho, varios integrantes de la Comisión fueron también críticos de aquello— que hoy, desde el punto original del proyecto en el que todas estas materias estaban taxativamente incorporadas en el proyecto de ley y, por tanto, en la futura ley, pasamos a que se resuelva administrativamente, lo que permite mayor flexibilidad, ya que estas decisiones pueden modificarse conforme avance la tecnología. Eso no se podría lograr de otro modo y creo que ese es el objetivo que se ha cumplido, tal como lo expresaron en las exposiciones que escuchamos. Muchas gracias.
Ok. Gracias, diputado.
Paloma o Camila.
Sí, solamente comento respecto a la indicación que señalaba la diputada Laura por su intermedio, presidenta. Desde el Ejecutivo nos parece que complementa completamente el tenor de nuestra indicación, por lo que, de nuestra parte, ya no es necesario que se discuta ni se comente en esa línea.
Ok, ofrezco la palabra.
¿En votación, entonces? Sí, le voy a pedir a la secretaria que nos cuente: se va a votar la letra B de la indicación 51A del Ejecutivo, junto a la indicación 51 y la 52. Se agregan algunos puntos adicionales. ¿En votación, entonces? Se puede sumar.
Diputada, ahora le hago la pregunta: ¿quisiera que votemos, junto con el Ejecutivo, su indicación? ¿Le parece? ¿Le parece? Y se suma a la de la diputada, solamente la primera parte. Ok, vamos por separado.
A ver. La tecnología ha fallado. La tecnología ha fallado. Ahora sí. En votación.
Ok. ¿Todos votamos? Resultado de la votación: 6 votos a favor, 4 abstenciones. Aprobado.
Vamos, entonces, a la indicación de la diputada Laura, número 53. No lo sé, ahí la puse, pero solo el literal I, o sea, el 1 (el 1 romano). En votación, entonces, la indicación de la diputada Laura, la primera letra I, exactamente para agregar. ¿Todos han votado? Sí. Resultado de la votación: 10 votos a favor. Muy bien.
Vamos, entonces, a la letra 2, o sea, 2i, para eliminar la letra C, que también es de la diputada Laura.
30:00
Vamos a votar el literal C, Presidenta. Sí. Vamos, entonces, no sé si la diputada quiere ofrecer la palabra. Gracias, Presidenta.
Propongo eliminar esta letra C porque, bueno, es una discusión que viene en otro título del proyecto de ley y tiene que ver con los espacios controlados de prueba, o también conocidos como sandbox; algo con lo que no estoy de acuerdo y no sé si aplicaría a la discusión que se presenta en un título posterior. Por eso, propongo eliminarla, ya que no estoy de acuerdo con los espacios controlados tal como están planteados en el proyecto más adelante.
Ok, ofrezco la palabra. Sí, bueno, nosotros desde el Ejecutivo hemos planteado y reiterado en ocasiones que, además de regular el uso de la inteligencia artificial, este proyecto debe potenciar e incentivar el desarrollo y la innovación en nuestro país. En ese sentido, los espacios controlados de prueba se vuelven fundamentales para que no solo la gran industria, sino también desarrolladores con grandes ideas, puedan contar con el apoyo del Estado en coordinación con el sector privado. Por ello, es fundamental contar con una normativa que, a lo largo del proyecto, se discutirá en profundidad en lo que respecta a los sandbox o espacios controlados de prueba.
Quisiera hacer presente que, normalmente, cuando el Estado regula algo, es para impedir que se hagan las cosas y no para ayudar a quienes las realizan. Muchas gracias. En primer lugar, no puedo no estar de acuerdo con lo que ha planteado el diputado Geiser; creo que el Estado también tiene la capacidad de facilitar muchas cosas. Por ejemplo, en materia de salud, ¿cuánta innovación no se realiza precisamente gracias al financiamiento estatal que promueve proyectos? Ahora es una discusión que podemos abordar en otro espacio.
Efectivamente, creo que más adelante podremos tener una rica discusión sobre los sandbox y cómo se abordan en el proyecto de ley. Ahora bien, considero que no podemos estar en contra de la existencia de los sandbox, que resultan fundamentales para esta materia de la inteligencia artificial. Son necesarios para conocer los resultados o el funcionamiento de un sistema ante la incertidumbre sobre cómo son entrenados estos sistemas.
Quisiera dar un ejemplo: Hace un tiempo, la Universidad Alberto Hurtado trajo a Chile un sistema de inteligencia artificial que permitía detectar restos arqueológicos. Se había desarrollado en Grecia y consistía, básicamente, en un dron que tomaba imágenes desde la altura con una mega resolución para detectar pequeños indicios de restos arqueológicos. De hecho, aunque las imágenes se capturaron en Chile, tuvieron que enviarse al extranjero, ya que no era posible hacerlo en la nube debido a la gran cantidad de datos. Finalmente, esa experiencia no sirvió de nada, porque los datos con los que fue entrenado el sistema de búsqueda arqueológica en Grecia no son aplicables a Chile, dado que nuestros restos arqueológicos son completamente diferentes.
En ese sentido, este ejemplo –que evidentemente no implica un alto riesgo, ya que no se va a morir nadie, ni fallecerá nadie, ni se verán amenazadas garantías constitucionales si un sistema de este tipo falla– nos plantea que, efectivamente, los datos con los que son entrenados los sistemas de inteligencia artificial en un lugar determinado no necesariamente son aplicables a otro. Desde esa perspectiva, en materia de alto riesgo, adquieren especial importancia los sandbox para determinar y decidir si los sistemas de alto riesgo son seguros para su utilización en territorio nacional, en función de los datos con los que fueron entrenados, pues en Chile ningún sistema de inteligencia artificial presenta una situación análoga.
35:00
Contenido restringido
Contenido premium
Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al
contenido completo, regístrate en la plataforma.