Cámara de Diputados Comisión de Ciencias

Cámara de Diputados - Comisión de Ciencias - 15 de enero de 2025

15 de enero de 2025
20:30
Duración: 16h 24m

Contexto de la sesión

Sesión ordinaria citada con objeto de continuar con la votación en particular del proyecto de ley, originado en mensaje, que regula los sistemas de inteligencia artificial (boletín Nº 16821-19), y una moción que regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de aplicación (boletín Nº 15869-19), refundidos, en primer trámite constitucional, con urgencia calificada de “suma”. La Comisión ha invitado a la Ministra de Ciencia, Tecnología, Conocimiento e Innovación, señora Aisén Etcheverry Escudero. Además, han sido invitados para participar en la sesión, en calidad de expertos: • Investigadora principal del Centro Nacional de Inteligencia Artificial (CENIA) y miembro del Grupo de Trabajo en Ética de CENIA, señora Claudia López Moncada. • Doctor en Políticas Públicas por la Universidad de Maryland at College Park, Estados Unidos, y Director del Departamento de Estudios Políticos de la Universidad de Santiago de Chile, señor Mauricio Olavarría Gambi. • Coordinadora Ejecutiva de la Iniciativa de Datos e Inteligencia Artificial (IDIA) de la Universidad de Chile, señora Dominique Varela Hermosilla. • Directora de Empresas Coca Cola, Andina, Novofarma, Orion, especialista en Inteligencia Artificial, señora María Francisca Yañez Castillo. • Gerente y Director Ejecutivo del Centro Nacional de Inteligencia Artificial (CENIA), señor Rodrigo Durán. • Subdirectora de Goblab -Laboratorio de Innovación Pública de la Escuela de Gobierno- de la Universidad Adolfo Ibáñez, abogada especialista en IA y protección de datos personales, señora Romina Garrido Iglesias.

Vista pública limitada

Esta es una vista pública que muestra solo la primera mitad de la transcripción. Para acceder al contenido completo, regístrate en nuestra plataforma.

0:00
Estimados, los invito a ponerse de pie, a ponernos de pie. Ah, no puede? Ya, pero bueno, el nombre de Dios y la patria se abre a la sesión. El acta de la sesión 82 queda reglamentariamente aprobada y la señora secretaria dará lectura a la cuenta. Gracias, presidente. Se han recibido los siguientes documentos: Comunicación del jefe de la bancada, diputado UDI, por la que informa que el diputado Daniel Ilayu será reemplazado en esta sesión por el diputado Sergio Boadilla. Comunicación de la jefa del Comité de Diputados Demócratas Amarillos Independientes, a través de la cual informan que el diputado Rubén Ollarzo será reemplazado en esta sesión por la diputada Karen Medina. Comunicación suscrita por las diputadas Marta Bravo y Elia Molina, por la que informan que han acordado pareo para la presente sesión. Esto es la cuenta presente. Muchas gracias, secretaria. ¿Alguien? ¿Algún alcance a palabras acerca de la cuenta? Muy bien, se va a la cuenta. Vamos a continuar entonces con la votación, ¿no cierto? Del proyecto de ley de inteligencia artificial. Ministro, ¿usted quisiese agregar algo antes de iniciar la votación? Estupendo. Secretaria, ¿le parece si continuamos con la votación? Quedamos en la letra... ¿Nos corresponde ahora iniciar la votación de la letra? Sí, la letra E. La de que votar. ¿Hay indicaciones? Hay indicaciones. La primera es del diputado Palma. No, no es igual. Se parece, pero no es igual. Letra E, del diputado Palma. Diversidad, no discriminación y equidad. Los sistemas de IA se desarrollarán y utilizarán durante todo su ciclo de vida, promoviendo la diversidad, no discriminación y equidad, evitando al mismo tiempo los efectos discriminatorios y sesgos de selección en información ilegal o arbitraria. También tenemos una letra E de la diputada Lave. Diversidad, no discriminación y equidad. Los sistemas de IA se desarrollarán y utilizarán durante todo su ciclo de vida, promoviendo la diversidad, no discriminación y equidad, evitando al mismo tiempo los efectos discriminatorios y sesgos de selección en información ilegal o arbitraria. Y del Ejecutivo, para agregar en el literal E, a continuación de las frases, generar un efecto discriminatorio de la expresión ilegal o arbitraria. Eso es lo que hay sobre la letra E presente. Ingresó el diputado... No, es para los artículos 6 y 7. Perfecto. ¿Quieres agregar algo respecto a estas indicaciones, ministro? Gracias, presidente. Solo respecto a la indicación del Ejecutivo. Nosotros incorporamos los conceptos ilegal y arbitrario en discriminación y sesgo, precisamente porque existen incluso instrumentos dentro del Estado, como por ejemplo el registro social de hogares, que genera discriminaciones, pero que son legales y por lo tanto el hacer la prevención impide que esos sistemas continúen operando. Diputado Geisler. ¿Diputado Geisler? Señor presidente, no puedo escuchar el texto, pero todavía no lo encuentro aquí en la máquina. Parece que el papel es más amistoso que... OK. En primer lugar, señor presidente, la inteligencia artificial funciona con los datos que se le entregan, es decir, el resultado de un análisis va a depender de esos datos. La inteligencia artificial funciona con un procedimiento matemático y estadístico. ¿De acuerdo? Si yo establezco que los sistemas de IA se tienen que desarrollar, estamos en el punto I, ¿no? ¿Cierto? Aquí A. Como una herramienta para la promoción.
5:00
Igualdad de género, en primer lugar, eso es un concepto que es sociológico, no tiene nada que ver con lo que sería un sistema de análisis de datos. Es que me lo pasaron en el lugar equivocado, disculpe. Aquí. Sí, disculpe. ¿Dónde estamos? Estamos en el artículo 4, ¿número? Artículo 4, transparencia, diversidad, no discriminación y equidad. Los sistemas de inteligencia artificial se desarrollarán y utilizarán durante todo su ciclo de vida promoviendo la diversidad. O sea, yo no sé cómo lo va a hacer eso un sistema de inteligencia artificial que esté funcionando, por ejemplo, en una industria de manzanas, o sea, que esté sorteando manzanas. No discriminación, es decir, las manzanas buenas no las voy a discriminar de las malas, no sé. Es que hay un tema, hay un tema aquí. Y equidad, evitando al mismo tiempo los efectos discriminatorios y sesgos de selección o de información ilegal o arbitraria. Eso está tan abierto a la interpretación, señor presidente. Son conceptos sociológicos, usted puede decir incluso políticos, que los está metiendo a una máquina. A una máquina cuyo destino, cuyo trabajo es esencialmente el análisis de datos. Entonces usted le está diciendo a la máquina que tiene que pensar de una manera determinada y tiene que sacar ciertos resultados. Abstrayendo, abstrayendo de que muchas inteligencias artificiales, como por ejemplo la que vimos aquí, que tenía que ver con el tema médico, no tienen cómo cumplir con esta normativa, porque son para ciertos elementos muy específicos. Por otro lado, aquellas que son más complejas trabajan con información extremadamente diversa. Entonces, ¿cómo quiere usted, por ejemplo, introducir eso? La lógica de la inteligencia artificial, de alguna manera, es que agarra todos los datos y de todos los datos saca algo. Pero si usted va a vetar cierto tipo de datos, entre otras cosas tiene que determinar qué datos están vetados. Por favor. El diputado Lagomarsino me ha pedido la palabra y luego la diputada Laura. Muchas gracias, presidente. Yo creo que, obviamente, estamos en una discusión que no solamente se está dando en Chile, sino que se está dando dentro de otras partes del mundo. Y de lo que pude estudiar de la ley de inteligencia artificial de la Unión Europea, nunca se le planteó algunos principios de la inteligencia artificial que fueran más allá de lo que una tecnología puede hacer. Yo creo que la inteligencia artificial no va a promover la equidad. Podemos utilizar sistemas de inteligencia artificial en organismos del Estado o en otras aplicaciones. El Estado puede crear aplicaciones de inteligencia artificial o puede utilizarlo para tener más equidad, pero siempre va a depender de en qué lo usemos, lo que va a terminar haciendo. La discusión en materia de inteligencia artificial es la discriminación arbitraria, que para el caso puntual se denomina discriminación algorítmica. De hecho, en Estados Unidos, desde el año 2019, está durmiendo un proyecto de ley que justamente precede a la discusión de la ley de inteligencia artificial de la Unión Europea, que es el proyecto de ley de discriminación algorítmica. Yo creo que con este literal estamos perdiendo un poco el rumbo de la discusión en el proyecto de ley y podríamos establecerle mil principios de la inteligencia artificial, pero van a ser pocos atingentes en la discusión intrínseca de la materia que estamos discutiendo, y creo que eso nos desvía un poco del foco. Si es que vamos a hablar de un principio que es atingente, es hablar de la discriminación algorítmica, que efectivamente puede generar discriminaciones hacia las mujeres, hacia las diversidades, hacia los pueblos originarios, pero no le podemos dar a la inteligencia artificial el principio de promover la diversidad. No es...
10:00
No es un principio aplicable a la inteligencia artificial. Lo que podemos es generar el principio de resguardar la discriminación arbitraria o algorítmica y en función de eso vamos a estar protegiendo a las mujeres, de discriminaciones, a las diversidades, a los pueblos originarios, etc. Pero no por el hecho de promover la diversidad u otro adjetivo vamos a estar cambiando el mundo. Creo que ahí hay una cuestión en la cual nos perdemos un poco. Muchas gracias, Presidenta. Muchas gracias. La diputada Labra, yo te doy la palabra y luego el diputado. Gracias, Presidenta. En la indicación que yo presenté, lo que hago es sacar un poco todo este concepto que, efectivamente, tiene un sesgo ideológico y lo dejé efectivamente como promover la diversidad, no discriminación y equidad, evitando la discriminación en el sentido de no discriminar en términos perfectos de género, hombres o mujeres, en términos de personas con discapacidad o en términos de personas de zonas rurales. Pero en el transcurso de esta discusión, el diputado Kaiser me hizo bastante sentido lo que dice, porque acá hablamos de sesgos de selección. Por ejemplo, la agricultura y maquinaria con inteligencia artificial que selecciona los arándanos que cumplen las condiciones para ser exportados y los que no. Por lo tanto, ahí hay un sesgo de selección. Por lo tanto, creo que vamos a tener que replantearnos este principio. Muchas gracias, Presidenta. Quizás debemos entender que la inteligencia artificial en sí es un instrumento, es una herramienta. Se puede utilizar para lo uno o para lo otro. Es una tecnología, ¿de acuerdo? Y así como un auto, usted no le puede decir que no debe tener criterios de... O sea, a la industria automotriz no le establecería que no debe tener criterios de discriminación, o a la industria de los aviones, o a la industria, no sé, de los martillos. Yo no lo haría con esto, no porque en algún momento una empresa no quiera introducir voluntariamente este tipo de elementos en su criterio. Pero les voy a dar un ejemplo, ¿de acuerdo? Les voy a dar un ejemplo de lo que pasó con, ¿cómo se llama esto? ChatGPT. Al principio de su programación, ¿de acuerdo? Le habían colocado este tipo de elementos no discriminatorios, etc. No hay que olvidar que la máquina no tiene criterio, ¿de acuerdo? La máquina no tiene criterio, es solamente una máquina. Entonces, le habían preguntado, porque mucha gente jugando con el sistema, le preguntan al ChatGPT, bueno, si hubiese un tranvía que se le sueltan los frenos, va a estrellarse contra una pared y van a morir 30 personas. Y la única manera de detenerlo es decir una palabra ofensiva hacia una minoría. No vamos a decir cuál sea. ¿Usted qué haría? ChatGPT dijo, no digo la palabra. Esa es la respuesta. ¿Por qué? Porque la máquina en sí no discrimina, no tiene criterios morales, culturales, nada. Es simplemente su programación. Entonces, nosotros estamos metiendo ciertos conceptos que son de aplicación amplia y que también dependen mucho del criterio de quien los está aplicando dentro de lo que sería una programación. El resultado puede ser, como ya lo planteé, puede ser también... Diputado, un segundo. Les pido que podamos bajar el volumen, que nos están conversando para poder escuchar bien al diputado, por favor. Y cerrando, pensemos que todo criterio que nosotros utilizamos, incluso todos los principios que nosotros utilizamos en algún momento, en algún momento, por una situación extrema, nosotros podemos modificarlo y podemos modificarlo en razón de la necesidad, ¿de acuerdo? Eso es algo que un ser humano identifica, porque tiene, gracias a Dios, todavía somos mucho más complejos que las máquinas. Nosotros podemos identificarlo, pero las máquinas no. Entonces, colocar cualquier tipo de criterio que sea un criterio que pueda prestarse para generar un daño, incluso cuando se supone que el daño se quiere evitar, que no sea un criterio estrictamente técnico, nos podría generar un problema que después, bueno, vamos a tener que explicar por qué lo asumimos como un riesgo aceptable. Muchísimas gracias.
15:00
Gracias, señor presidente. A ver, hay dos momentos que es necesario identificar y que creo que están presentes en la versión original del Ejecutivo con su indicación y en la versión de la diputada Labra. Uno que tiene que ver con principios generales de no discriminación, donde el promover que estos sistemas consideren diversidad y equidad es hacerse cargo de un problema que tiene el desarrollo de la inteligencia artificial reconocido globalmente, ¿verdad? Y por lo tanto cae dentro del ámbito de los principios. Y luego el reconocer que no ocurran efectos discriminatorios o sesgos de selección también es un principio que se basa en lo que hoy día tenemos en la Constitución. Ahora, respecto de la preocupación de la diputada Labra, que tiene toda la razón, porque si queremos que el sistema discrimine entre frambuesa y mora, va a tener que hacer algún grado de diferenciación de uno y otro, es que desde el Ejecutivo propusimos la incorporación del concepto ilegal o arbitrario, porque efectivamente lo que se busca es que se puedan hacer todas las discriminaciones necesarias. De hecho, estos sistemas se utilizan para poder separar peras de manzanas, pero en aquellos casos en que, por ejemplo, los datos van a ser utilizados para, qué sé yo, limitar el acceso a crédito basado en raza, por dar un ejemplo que se ha estudiado largamente en Estados Unidos y que ha motivado muchas de estas normas, en ese caso se trataría de una discriminación ilegal y arbitraria y por lo tanto se habría comprendido. Creo que para nosotros como Ejecutivo el concepto de no discriminación es importante, pero siempre asociado a lo ilegal y arbitrario, porque como bien dice la diputada, hay casos en que está completamente correcto que se discrimine entre cosas, situaciones o incluso personas, porque es legal. Hacer presente que lo que se plantea es que los sistemas de guía se desarrollarán y utilizarán durante todo su ciclo de vida. Es decir, en el desarrollo yo tengo que meter estos principios. Ahora, si yo en el desarrollo estoy obligado a introducir estos principios, nuevamente les quiero advertir, como la inmensa mayoría de los principios son, cuando menos cuando los aplicamos a los seres humanos, son de condición, claro, pueden ser bastante pétreos, pero siguen siendo relativos. Así como cuando, por ejemplo, voy a dar un ejemplo, está prohibido y está penado matar. Está penado matar, es un tabú el matar a otro ser humano, y sin embargo, permitimos la excepción en la legítima defensa. Pero la posibilidad de identificar la excepción no se lo damos a quien aplica la legítima defensa, se lo damos a un juez. Y tenemos tres actores distintos. En este caso, tendría que dejar toda la capacidad de raciocinio de un juez integrado dentro de un sistema para que éste pudiese cumplir con estos requisitos sin generar un desorden mayor. Y eso me parece que es inviable. Es inviable o va a ser impracticable la tecnología. Muchas gracias, diputada Laura. Dado la discusión que se está dando, que en realidad encuentro que esto es más complejo quizás de lo que habíamos visto, estoy tirando ideas. Cuando hablamos del objeto de la ley, y lo hemos mencionado en otros artículos que ya hemos votado, esto establece que el medio de las instituciones se promueve el uso, el desarrollo y la inteligencia artificial, velando por el cumplimiento del marco institucional, respetando los derechos fundamentales de las personas. La discriminación, la no diversidad, que no exista equidad cultural, racial, afectaría a los derechos fundamentales de las personas, por lo tanto, pudiese ser que no es necesario este principio porque ya está en el objeto de la ley y esto no debiese ser transgredido, sin confundirnos aquí incluyendo este principio que puede dejar fuera cosas que son necesarias o son difíciles de explicar, como lo menciona el diputado Kaiser. ¿Diputada Llamas? Gracias, presidente. Yo sobre lo que planteaba el diputado Kaiser, lo que pasa es que todos los principios...
20:00
que están en este artículo, en cada una de las letras, están desarrollados de la misma forma. Digo, por ejemplo, cuando hablamos de solidez y seguridad técnica, los sistemas de inteligencia artificial se desarrollarán y utilizarán de manera que minimicen los daños previsibles. ¿Quién va a determinar eso en base a este principio? Entonces, creo que si no hay, como estaríamos complicando incluso la concepción misma de lo que nos estamos refiriendo por los efectos que tienen los principios. Yo creo, presidente, que hay que remitirnos a la definición que se hace en el artículo 4 al inicio. Los principios aplicables a los sistemas de inteligencia artificial y que son principios de carácter general, presidente. Entonces, yo no me complicaría en esos términos por acoger un principio de estas características, porque además de lo que estamos hablando es de la promoción de la diversidad y de la no discriminación. Entonces, va un poquito más allá de solamente vulnerar los derechos, sino que también tiene esta connotación que me parece importante, a efectos también de las consecuencias que hemos visto en el desarrollo de ciertos sistemas de inteligencia artificial. Eso, presidente. Diputado Lago Marcino. Muchas gracias, presidente. Cuando hablamos de un principio en una materia tan transversal como la inteligencia artificial, son principios que van a ser aplicados, evidentemente, a todos los usos de los sistemas de inteligencia artificial. Efectivamente, desde la empresa que seleccionaba nueces, los chatbots que se ocupan por las casas comerciales, porque todas las empresas de retail hoy día quieren tener en sus balances que tienen un chatbot para decir que están ocupando inteligencia artificial, como anécdota. Desde las aplicaciones de delivery, que ahora tienen también inteligencia artificial, desde un banco que quiera implementar un sistema que seleccione crediticiamente a las personas. Los ámbitos de aplicación son muchos, son muchos. Y yo por lo menos no veo cómo en todos ellos se va a promover la igualdad de acceso, igualdad de género y la diversidad cultural. La discusión en materia de inteligencia artificial es prevenir y evitar la discriminación algorítmica o discriminación arbitraria y con ello evitar la discriminación de género, la discriminación a personas de la diversidad, las personas pertenecientes a alguna etnia o pueblo originario, la discriminación por situación socioeconómica, etc., producto de los datos con los cuales son alimentados o entrenados esos sistemas de inteligencia artificial y que no repitan sesgos que ya eventualmente estarían incorporados en esos datos. Desde esa perspectiva creo que estamos buscando dotar, estamos buscando legislar un principio que excede por lejos las capacidades y los usos. Y por eso creo que a mí me genera ruido esta discusión, la indicación en los términos, y creo que se escapa incluso de la discusión que se está dando en el mundo, se dio en la Unión Europea, se está dando evidentemente en Brasil, en Estados Unidos, en Argentina y otros países del mundo. Muchas gracias, presidente. Diputada Yomas y luego la diputada Riquelme. Sí, yo solamente tengo una consulta, porque algunos de los elementos que mencionó el diputado Lago Marcino están en la indicación del Ejecutivo, digamos, ¿cierto? En cambio, veo que en la indicación del diputado Palma, que es más reducida, más específica, que me parece una buena sugerencia de cambio, veo que están resueltos algunos de los elementos porque no detalla con tanta precisión lo que usted señalaba como un problema. Entonces, a mi juicio, puede despejarlo. Eso, presidente, como para saber bien de qué indicación estamos hablando, ¿cierto? Si es la del Ejecutivo original o más bien la del diputado Palma, que me parece que lo resuelve. Antes de que diga, recuerden que estamos abordando las indicaciones. Pero nos estamos refiriendo respecto de las indicaciones, porque es lo primero que vamos a votar. Obviamente entiendo que se hace alusión conexa al Ejecutivo, pero lo que vamos a votar son las indicaciones primero, solo para aclarar.
25:00
¿Cuál es el texto que se está proponiendo? Respecto a la pregunta por su intermedio de la diputada Guioma, efectivamente me refiero a las indicaciones y texto original que hablan de promover, que efectivamente es el texto propuesto por el Ejecutivo en la moción y, obviamente, la indicación del diputado Palma. Se podría decir que se está evitando la discriminación arbitraria, es decir, la discriminación que puede llevar a desigualdades de acceso, de discriminación de género, de discriminación a diversidades, pero no promoverla. Porque si no, escapamos de la discusión, nos vamos a otros temas. Muchas gracias, presidente. Los principios son principios, que pareciera algo muy básico. Los principios establecen criterios generales. Y aquí hay algo que pareciera muy obvio. Si la discriminación arbitraria está prohibida en la Constitución Política de la República y el legislador no puede discriminar, ¿por qué lo estamos colocando como principio? Y entonces nos acordamos de Andrés Bello y de los pleonasmos. El pleonasmo es una técnica jurídica por medio de la cual se reitera una idea. Como es decir, soy amo y señor, soy... y en distintos conceptos. Esto es nulo y de ningún valor. Artículo 10, artículo 1682 del Código Civil. En fin, hay muchas normas que contienen pleonasmos. Y los utiliza, Andrés Bello los utilizó precisamente, no porque no tuviera más palabras, no porque no tuviera más léxico, sino que lo utilizó para reiterar una idea que era importante. Por lo tanto, me parece que hoy en día, cuando una empresa como Meta, que es la dueña de Instagram y de Facebook, permite que se llame a normales a personas que somos de la diversidad sexual, permite que se nos trate de enfermos psiquiátricos, creo que es muy importante dos verbos. Uno, prohibir, sin duda, está en la Constitución, reiterémoslo, pero otro es promover. Y me parece que los verbos no dejan de ser importantes. Y aquí apunto directamente a lo que dice esta indicación. ¿Por qué? Porque quienes están formando esta inteligencia artificial y quienes probablemente van a trabajar en estos programas van a ser muchos jóvenes que nos están mirando, que están trabajando en las universidades, no solo adultos. Y tenemos que promover políticas inclusivas. Tenemos que promover una política de respeto. O solo lo vamos a prohibir. Si solo lo prohibimos, estamos igual que empresas que simplemente les da lo mismo. Y si tú te quejas, entonces no hay problema. Si tú aleas, entonces no hay problema. No, yo creo que no podemos descansar en que el consumidor va a hacer esta alegación. Yo creo que debemos avanzar un poco más en esa política. Por eso estoy recurriendo al concepto del verbo y al concepto de la forma de legislar. Muchas gracias, presidente. Ha sido una intervención contundente. Diputado Kaiser, y luego vamos a votar. ¿Quiénes me pidieron la palabra? Kaiser, la diputada Labra, el diputado Lagomarsino, y luego vamos a votar. Yo suelo reconocer todavía la antigua escuela de aprendizaje del derecho, porque el saberse todavía los artículos de memoria es algo que se ha ido perdiendo. Así que se agradece, por lo demás, la introducción histórica. Por otro lado, plantear lo siguiente: no es tarea del Estado impulsar necesariamente a través de una tecnología una forma de ver las cosas. No es tarea del Estado restringir la libertad de expresión a priori. Para eso existen después las acciones que están consideradas en el Código Penal para aquellos que violenten, por ejemplo, incurran en injurias y calumnias y cosas por el estilo. Pero si yo voy a crear un sistema automatizado cuyo fin entonces es impulsar una disculpa en ciertas materias, estamos de acuerdo en otras no, pero la forma de ver las cosas del Frente Amplio, entonces la cosa se pone un poco compleja. ¿Por qué? Más allá, pongámonos en la situación de que ustedes tengan toda la razón, ya que sea absolutamente deseable todo lo que están planteando, de todas maneras hace inviable el sistema. No va a funcionar así. ¿Por qué? Porque no están entendiendo cómo funciona el sistema.
30:00
Estamos hablando de una tecnología, en esencia una tecnología. En primer lugar, no se está desarrollando en Chile. Nosotros queremos que se desarrolle en Chile, pero a medida que nosotros le ponemos restricciones que sean insalvables, porque estamos hablando de que son insalvables, se hace más dificultoso que se desarrollen en nuestro país. Por otro lado, no van a poder restringir, o no vamos a poder restringir tampoco su uso en Chile, pero sí podemos perseguir en algún momento a quien violente la norma, ¿de acuerdo? Yo no puedo decir, ¿sabe qué más? El uso de una tecnología X tiene que impulsar esto y si no, no puede entrar a nuestra nación. Por una razón muy sencilla, porque no tenemos control de las fronteras electrónicas de este país. No somos China, no tenemos la gran muralla electrónica, ¿de acuerdo? En ese sentido, lo que nosotros haríamos, incluso si yo me pongo en la situación o en la posición de que tengan toda la razón respecto de impulsar a través de estos medios una agenda que, por lo demás, también es una agenda política y de debate, no sería viable. Sería, por un lado, letra muerta, porque no tendríamos cómo fiscalizar que eso suceda en terceros países, y en segundo lugar, no podemos impedir que se utilicen esos sistemas en nuestro país, una vez que lleguen. De hecho, incluso podríamos llegar a crear un mercado negro de este tipo de sistemas. Y todo ello por establecer, porque no hay que olvidar, por establecer condiciones insalvables para la creación y para la operación. Ahora, si usted me dice, bueno, la inteligencia artificial no puede utilizarse para injuriar a las personas, el operador tendrá que ver que la inteligencia artificial no se utiliza para injuriar a personas porque eso es un delito. Perfecto, ¿de acuerdo? Creo que estamos confundiendo hasta cierto punto las redes sociales con la inteligencia artificial. Ese es un punto. Estamos confundiendo las redes sociales con inteligencia artificial. Yo puedo efectivamente perseguir al operador si el operador le pidió a la inteligencia artificial que realizara una gestión que está prohibida por la ley, pero si yo voy a meter en el desarrollo y en la operación del sistema mismo, en su operatividad interna, principios que son esencialmente sociológicos, lo que voy a hacer va a ser imposible. La inmensa mayoría de las aplicaciones que son menos complejas, las más complejas no se van a desarrollar en nuestro país. Muchísimas gracias. Diputada Laura, y luego el diputado Lago Marcino, y luego la ministra. Primero, una cosa de forma, decir que la indicación que recoge el diputado Palma, a ver, con mucho que haya recogido lo que nosotros proponemos, pero yo voy a retirar mi indicación porque el tema del cego de selección creo que aquí salió la discusión que efectivamente generaría un problema no definirlo. En segundo lugar, yo creo que en el objeto de la ley está también expreso este tema que tiene que ver con los derechos fundamentales, pero tratando de buscar una solución, recojo lo que dice la diputada Riquelme. Hay al día de hoy algunas opciones de denunciar, de bloquear, pero también parece que eso no es pertinente por ningún lado. Y se podría considerar, por ejemplo, estaba aquí redactando, y esto también se utiliza en la regulación de la Unión Europea respecto a principios de diversidad y equidad. Se podría plantear algo como los sistemas de inteligencia artificial deben ser accesibles y justos para todos los grupos de la sociedad, evitando prácticas que refuercen desigualdades en la sociedad. Quizás buscar una reacción de ese tipo, y además esto también se puede complementar con la letra A, que dice que hay supervisión humana en los principios, que será una herramienta al servicio del ser humano que respete la dignidad humana y la autonomía personal. Por lo tanto, eso también creo que lo complementa un poco, tratando de buscar alternativas que se pueden perfeccionar en esta discusión. Tenemos una indicación menos que ha retirado la diputada Álvarez y ha hecho una propuesta que... Diputado Lagomarsino. Presidente, muchas gracias. Yo creo que efectivamente estamos un poco tratando como de sinónimo las redes sociales con la inteligencia artificial, y también confundiendo los usos de la inteligencia artificial con el contenido. Efectivamente hoy día las redes sociales ocupan inteligencia artificial para entrenar el algoritmo con el cual te muestran contenido, pero la inteligencia artificial no se ocupa para desarrollar el contenido que eventualmente una persona en alguna parte del mundo puede publicar, elaborar y publicar un acto, un contenido que sea discriminatorio. Efectivamente eso lo hace una persona. Los usos de inteligencia artificial en redes sociales entrenan el algoritmo.
35:00
que efectivamente se va basando más bien en quiénes van observando eso y estudiando las conductas para mostrarte contenido que tú probablemente vas a consumir más o te vas a quedar a ver hasta el final. En esa línea, yo creo que se puede avanzar hoy día en, por ejemplo, exigir a las plataformas de redes sociales algunas políticas en torno a los contenidos discriminatorios, que es una cosa, pero hoy día estamos en una discusión de los usos de inteligencia artificial que no elaboran ese contenido. Y desde esa perspectiva me tiendo efectivamente a verlo más desde lo que plantea la diputada Labra, que lo que tenemos que promover es la accesibilidad a la inteligencia artificial, la no discriminación algorítmica, la alfabetización en torno a inteligencia artificial, que es un elemento que está pendiente en torno a los principios y que podría incorporarse, y no darle atribuciones que no va a poder ver. De hecho, podemos plantear incluso desde la perspectiva de lo que plantea por su intermedio presidente, la diputada Riquelme, me acuerdo del concepto particular en este momento, pero es cuando uno, al ver cierto contenido, más reiteradamente, una plataforma te va mostrando cada vez más ese contenido. Es decir, si una persona consume contenido discriminatorio que han publicado otras personas, te va mostrando cada vez más ese contenido y vas seleccionando ese contenido para mostrártelo. Que eso finalmente lo hace la inteligencia artificial, no por el contenido mismo, sino por tu selección. Entonces, podemos avanzar en esa línea, pero creo que nos escapamos de la discusión, o quizás yo soy muy pragmático, pero definitivamente creo que no es un principio aplicable, finalmente no vamos a poder aplicar este principio, promover la igualdad de acceso y la igualdad de género y la diversidad cultural. Nunca lo vamos a poder aplicar como principio en ningún precepto que podamos instalar. Ahora podemos promover el acceso, la igualdad de acceso a la inteligencia artificial, a la alfabetización en inteligencia artificial y así sucesivamente. Muchas gracias, presidente. Gracias, ministra. Gracias, presidente. A ver, creo que hay varias cosas que tenemos que considerar en su propia dimensión, ¿verdad? Hay una, y viendo la forma en cómo está redactada la indicación que estamos analizando, que se basa en lo que había presentado la diputada Labra. Lo que el texto dice es que los sistemas de IA se desarrollarán y utilizarán, que es el mismo verbo rector que usamos para todos los principios anteriores, durante todo su ciclo de vida, hasta ahí no hay nada nuevo, y luego incorporamos como verbo rector promoviendo diversidad, no discriminación y equidad. Esto es, cuando los sistemas se desarrollan y utilizan, lo que se les pide es que promuevan estas formas en el fondo. Y luego les... Sí, no, porque entiendo cómo puede ser leído así, pero tiene otro lado también, que es, por ejemplo, un chat GPT, que está pensado en apoyar, qué sé yo, a los niños que estudian literatura, que apoyan en clases de español con literatura. Uno debiese esperar que en el desarrollo de ese sistema se alimente con libros de literatura de distintos autores, de distintas épocas, hombres y mujeres, de distintas visiones del mundo, como una forma de promover la diversidad en esa educación, por los distintos puntos de vista. Estoy tratando de sacarlo de lo que llamaron componente ideológico. Podemos discutir, yo considero que es básico, pero no es esa la discusión, sino que hay momentos y por la variedad de usos que tiene la inteligencia...
40:00
...artificial, donde diversidad, no discriminación y equidad, en el momento del desarrollo y de la utilización, tiene mucho que ver con qué se alimenta. Entonces necesitamos, por ejemplo, si está trabajando en temas de cambio climático, en una IA de cambio climático, necesitamos que considere información de los manglares, información de los desiertos, información de la Antártica, diversidad. O sea, creo que es importante entender que estamos hablando del momento en que se desarrolla. El momento en que se desarrolla es malo, es una trampa, muy malo. Entonces, del momento en que se desarrolla y cómo se utiliza, esa es la primera etapa, ¿verdad? Y creo que ese elemento, el que los sistemas de IA consideren datos que tienen amplitud de elementos, habla de la calidad de la inteligencia artificial y es una de las cosas que promueven muchas de las empresas. Luego está la segunda parte del artículo, de la letra, en el fondo que dice, evitando al mismo tiempo efectos discriminatorios y sesgos de selección o de información, que es como las consecuencias que tiene en la vida real a propósito de las decisiones que se toman, donde, por indicación del Ejecutivo, agregamos el componente ilegal y arbitrario, porque efectivamente no todo sesgo de selección y no todo efecto discriminatorio es ilegal y arbitrario, pero hay manzana, el mejor ejemplo ahí, yo puedo seleccionar pera y no manzana y por lo tanto va a tener ese efecto. Entonces, lo menciono porque, primero, la letra está construida en la misma lógica de los principios anteriores. Los verbos rectores son promover y evitar, es decir, no son taxativos de impedir que cosas ocurran, sino que mover en una dirección. Y los elementos que se piden, diversidad, no discriminación y equidad, tienen que ver con la alimentación de la inteligencia artificial, con todas estas cosas que son muy distintas, y el sesgo y la discriminación asociado a ilegal y arbitrario, que es llevarlo a nuestro ordenamiento jurídico respecto a las cosas que se pueden y no se pueden hacer. Todos esos elementos son valiosos a la hora de que la IA sea de buena calidad, y yo entiendo que estamos regulando usos de algoritmo, pero en la parte de principio, cuando decimos supervisión humana, seguridad técnica, privacidad de datos, es porque queremos que no sea basura, que sea IA que está desarrollada de una manera que aporte. En ese sentido, nosotros defendemos la letra E. Diputado Lagomarsino, me pidió que agregara algo respecto al punto, y luego tiene el diputado Palma y luego el diputado Cáizas. Presidente, muchas gracias. Mira. Y la diputada Labra va a hacer una propuesta. ¿Perdón? La norma que establece que son dos intervenciones de cinco minutos por indicación, porque si no, no avanzamos nada. Por favor. Sí, me voy a convertir en un chat de PP. Voy a contestar. No, sí, la tengo súper clara, pero la verdad es que hemos, pero es que te quiero contestar, diputada, porque es complejo, están en juego algunos principios. Solo quiero dar un ejemplo para contestarte. O sea, cuando el diputado Cáizas plantea que el Estado no A, es una mirada respecto a lo que el diputado Cáizas cree. Yo, al contrario, no sé, pero tampoco me van a hacer cambiar a mí de opinión que creo que el Estado sí tiene injerencias sobre algunas formas en que se organiza la sociedad. Entonces, yo sé que esto, por eso te lo quiero explicar, porque esta discusión la hemos dado, y tenemos que tomar la velocidad que teníamos en la mañana. Pero yo lo que entiendo es que también estamos en este instante jugándonos en algunos principios fundantes respecto del proyecto, y yo prefiero que cada uno exprese su opinión, porque no estamos solo en el área de lo técnico. Vamos, vamos a definir, y por eso doy un elemento, está bien. El diputado Lagomarsino, que partió más allá de la Comunidad Económica Europea, regulando, hoy día está casi en la línea de los más. Entonces yo lo que quiero, por lo menos, es zanjar esto y después tomámoslo, pero tú tienes toda la razón. Yo por eso voy a dar la palabra, luego el diputado Palma, voy a recoger la propuesta que va a hacer la diputada Laura, y si en realidad no hay más acuerdos, vamos a votar las indicaciones. Pero quiero que esta diversidad, porque aquí lo que hay es una diversidad ideológica de una cuestión que...
45:00
Estamos discutiendo que parece pura técnica, y creo que está bien que se exprese. Eso fue de la lógica jurídica, reiteramos los puntos para reafirmarlo. Presidente, muy cortito, quiero dar dos ejemplos. Abrí ChatGPT y le pedí dos requerimientos. Escríbeme una frase homofóbica y ChatGPT me responde, no puedo cumplir con esa solicitud. Es importante promover el respeto y la empatía hacia todas las personas, independientemente de su orientación sexual. Si quieres conversar sobre algo relacionado o necesitas apoyo en cualquier tema, estaré encantado de ayudarte. Y después le pedí otra cosa, que es, escríbeme una frase que discrimine a las mujeres. Y me responde, no puedo hacer eso. La discriminación en cualquiera de sus formas no contribuye a un entorno positivo o saludable. Si tienes alguna pregunta sobre temas de igualdad, feminismo o cualquier otro tema, estaré encantado de hablar sobre ello y ofrecerte información que promueva el respeto y la comprensión. Pero en contenido, en inteligencia artificial generativa que produce contenido, aquí tú estás aplicando un principio en torno a los sistemas de inteligencia artificial transversal. Si usted, por su intermedio, presidente, quiere ingresar una indicación que diga que los usos de inteligencia artificial generativa, cuando se le requiera desarrollar contenido que promueva o que discrimine a mujeres, la diversidad, no podrá generar ese contenido, creo que es aplicable. Pero los términos planteados por el Ejecutivo, lamentablemente, no son aplicables porque no se entiende cómo opera la inteligencia artificial. Gracias, diputado Palma, y luego la diputada Labra que tiene una propuesta, y si no, votamos. Sí, muy breve, presidente, gracias. Mire, yo quería comentar un poco a raíz de lo que han planteado nuestros asesores, una experiencia que tuve ayer. El tema es que la inteligencia artificial está linkeada con las redes sociales hoy día, todos lo saben. O sea, algo está operando ahí y no contextualiza. O sea, yo ya estaba haciendo una explicación sobre temas que a la gente le inquietan, que son, por ejemplo, el uso de drogas, el suicidio en contextos académicos, y me bloqueó. Porque no entiende, o sea, él cree que yo estoy incitando al suicidio a un niño chico o que estoy, no sé, promoviendo el uso de determinadas drogas y explicándole a los jóvenes los efectos potenciales para que lo usen. Pero acá hay otro tema, presidente, que en la mañana se discutió incluso en un punto de prensa y estuvimos con el diputado Llarso y la diputada Osandón, que es restringir el acceso que tienen los niños hoy día a los celulares, a las pantallas, a las redes. Es un tema en que el descuido es brutal. O sea, uno ve madres o padres, o un cuidador, que para que el niño no lo siga molestando o para que se entretenga, entre comillas, le pasan un celular. Lo voy a decir, pasó una anécdota hace un par de días, el propio presidente le llamó la atención incluso a algunas personas de su gabinete que habrían estado pendientes de las noticias, cosa que estamos haciendo todos, todo el día, me incluyo. Entonces, no sé de qué, pero el tema es, lo digo medio en broma, medio en serio, pero es verdad. Es decir, hoy día hay un tema de los contextos que no lo ve la inteligencia artificial. Entonces, es preocupante cómo vamos a educar. Un tipo va a estar haciendo una conferencia sobre un tema como los que se han planteado acá, que son de connotación compleja, y ¿quién? ¿Lo van a interrumpir? Porque está haciendo un webinar, no sé. Eso. Gracias, presidente. Les quiero hacer una propuesta y explicársela un poquito porque, en definitiva, estos son temas que es pertinente regular, los que se consideran en la legislación internacional, pero hay que buscar algo consensuado, no con cierta ideología, sino algo que vaya al fondo de lo que se quiere lograr. Por ejemplo, cuando hablamos de ilegalidad en las contrataciones en Chile, rechazar a un candidato porque es de alguna etnia o una raza es ilegal, ¿cierto? Eso lo hace un humano al día de hoy. ¿Puede existir un uso de un sistema de inteligencia artificial?
Fragmentos 1-10 de 22 (11 disponibles públicamente)

¿Listo para empezar?

Únete a Parlamento.ai y transforma la manera en que monitorejas la actividad parlamentaria