Senado Desafíos del Futuro, Ciencia, Tecnología e Innovación

Senado - Desafíos del Futuro, Ciencia, Tecnología e Innovación - 26 de mayo de 2025

26 de mayo de 2025
19:30
Duración: 18h 55m

Contexto de la sesión

1.- De 15:30 a 15:50 horas. Recibir al Dr. Ricardo Baeza-Yates, para que exponga sobre inteligencia artificial. 2.- Bol.N° 16441-19 De 15:50 a 17:00 horas. Continuar con la discusión particular del proyecto de ley que crea una nueva institucionalidad de prospectiva y desarrollo sostenible basada en conocimiento, y modifica le ley N° 21.105, que crea el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, en términos que indica, con urgencia calificada de "simple" (Boletín N° 16.441-19).

Vista pública limitada

Esta es una vista pública que muestra solo la primera mitad de la transcripción. Para acceder al contenido completo, regístrate en nuestra plataforma.

0:00
Vamos a dar inicio a la Comisión Desafío del Futuro, Ciencia, Tecnología e Innovación del Senado de la República en formato comité. Los invito a tomar asiento. Vamos a postergar, entonces, la cuenta hasta que tengamos quórum. Saludamos al senador Juan Antonio Coloma, a la ministra de Ciencias Aysén Echeverry, a los asesores, a Carola Muñoz, por el Consejo del Futuro, y a quienes nos acompañan. Bienvenido, Ricardo, tiene la palabra. Al estar en comisiones paralelas, contamos con dos colegas que aún se encuentran en la Comisión de Salud. Perfecto. Están actuando desde el Ministerio Público del Consejo de Defensa. El uso de sistemas automatizados es muy importante, y cabe destacar que el tercer problema conceptual que presenta la regulación europea, que se ha fundamentado en ella, es que está basada en categorías de riesgo: aplicaciones prohibidas –me gustaría hablar un poco más de ello después–, alto riesgo, bajo riesgo y, por defecto, muy poco riesgo o sin riesgo. Estas categorías, que podrían pensarse como un intento de simplificar el problema, terminarán causando mayores inconvenientes, porque, en primer lugar, se asigna un riesgo a una variable que es continua; por ejemplo, en Chile, ya se ha determinado la existencia de personas de piel clara y otras de piel oscura. Esas son variables continuas, al igual que el color, por lo que no se pueden establecer categorías que en realidad no existen. Es decir, no existe una categoría genuinamente de alto riesgo, ya que no se sabe dónde establecer la frontera con el nivel de poco riesgo. Además, en el caso europeo, dichas categorías se definen sin basarse en alguna medida de riesgo conocida, pues actualmente no se sabe cómo medir el impacto del riesgo en las personas.
5:00
Hay muchos factores involucrados. Inventamos categorías que no existen y nos vamos a meter en un problema de 11 varas por esto. Ahora, en el caso específico de lo que se ha aprobado actualmente, lo último que se aprobó para, en Chile, la ley de uso de la ley A, lamentablemente se insiste en llamarla “ley de A” cuando debería referirse al uso de la ley A, ya que no se está regulando la tecnología en sí, sino el uso de la tecnología. Si no hablamos con precisión, la gente en la calle lo entenderá de la misma manera. Sin embargo, existe una diferencia importante: la Unión Europea cuenta con muchas leyes relacionadas con este tema, por ejemplo, en materia de protección de datos, derechos fundamentales, productos conectados y todo lo que tiene que ver con sistemas digitales. En cambio, en Chile esas leyes o bien no existen o están en un estado muy incipiente. Además, no existe una relación de casos de uso en los sistemas de alto riesgo, tal como se establece en el anexo 3 de la regulación de uso de la ley A en Europa. También en la regulación europea se detalla el sistema de gestión de riesgo y el sistema de gestión de calidad, aspectos que en el proyecto chileno ni siquiera se mencionan. Tampoco se hace mención a sistemas de alto riesgo ni a los requisitos de accesibilidad, elementos importantes de la regulación europea que, según mi comparación, están ausentes. Seguramente hay muchos más detalles que no tuve tiempo de estudiar a fondo, ya que apenas me enteré de esta reunión la semana pasada. Me gustaría, además, abordar el tema de los sistemas considerados de alto riesgo o prohibidos. Hay un aspecto que me preocupa profundamente y que tiene que ver con varios factores. Uno de ellos es la pseudociencia, es decir, suposiciones que no son verdaderamente científicas. Un ejemplo es asumir que se puede predecir el comportamiento de una persona basándose en datos de otras, como ocurre en los bancos de Chile, donde se utilizan datos de terceros para predecir si un nuevo cliente otorgará o no un préstamo. Esta práctica, lamentablemente, discrimina a las personas que viven en barrios pobres o a los jóvenes, y favorece a quienes tienen más edad y, por ejemplo, residen en barrios acomodados. Aunque en promedio funcione para una gran parte de la población, no es efectivo para todos. Entonces, la pregunta es: ¿cuál es el costo social que estamos dispuestos a aceptar, un funcionamiento del 90% del tiempo frente a un fallo del 10%? Está bien que, en determinadas condiciones, se favorezca a un 5% de las personas de un sector y se perjudique a otro 5%, pero ese compromiso debe ser analizado, tema sobre el cual, personalmente, no adoptaría medidas específicas por consideraciones sociales, aunque otros puedan tener una postura distinta. El siguiente asunto a discutir es la ratificación. Considero que existe una suposición equivocada de que los datos representan de manera fiel el problema, lo cual no es cierto en muchos casos. Por ejemplo, en la contratación de personal o en el ámbito de la justicia, el contexto de un caso es tan complejo que resulta muy difícil plasmarlo adecuadamente en datos. Para un mismo crimen, dependiendo del contexto, una persona puede ser inocente (por ejemplo, una mujer defendiéndose de violencia) o, en cambio, un asesino en serie, lo que implica penas diferentes. Dado que el contexto es esencial y difícil de expresar cuantitativamente, en aquellos sistemas donde el contexto juega un papel crucial, yo optaría por prohibirlos, ya que los datos no representan de forma íntegra el problema. Esta es una introducción a los temas que considero importantes de discutir. Dejo el resto del tiempo para responder preguntas y, aprovechando que estoy aquí, invito a que me pregunten cualquier inquietud acerca de estos temas. Muchas gracias. Gracias, Ricardo. ¿Se ofrece la palabra? A ver, respecto a la regulación de la inteligencia artificial, exacto, lo vinculo con el proyecto de ley que está en primer trámite en la Cámara, ya que considero que muchos de los puntos que has planteado se relacionan con dicho proyecto, que espero llegue prontamente al Senado. Ahora ya se ha finalizado su tramitación en la Comisión, y una vez que supere la sala, pasará a formar parte de nuestro debate. Por ello, te invito a profundizar en este análisis cuando iniciemos la discusión en particular aquí, en la Comisión.
10:00
Me parece que los puntos que usted ha planteado, partiendo por el marco conceptual, son esenciales. Yo coincido en que quizás hay que hablar de sistemas automatizados, no solo de inteligencia artificial. Usted hacía la analogía con el tema de los derechos humanos, y me parece que es importante, ya que estos son universales; de esta forma, se generan declaraciones más generales que facilitan la comprensión y se encuadran en la línea correcta. Así que, de mi parte, solo recogeré los comentarios que usted ha planteado, dejando lo invitado para cuando estemos en ese análisis, y también quiero ofrecer la palabra a los colegas y a la ministra para que avancemos con este preámbulo sobre el proyecto de ley y, en general, sobre los desafíos que nos plantea la inteligencia artificial. Resulta interesante que este sea el único proyecto en el mundo sobre regulación de la inteligencia artificial que sigue el método RAM. Este método, propuesto por la UNESCO, busca establecer laboratorios controlados de inteligencia artificial y resulta fundamental porque genera protección desde el punto de vista de la seguridad de las personas. Básicamente, lo que distingue al proyecto es la clasificación de los sistemas de inteligencia artificial en distintos niveles de riesgo. Se identifica, en primer lugar, el sistema de inteligencia artificial de riesgo inaceptable, que comprende, por ejemplo, los sistemas de control biométrico en la vía pública (salvo en temas de seguridad, ya que en el Parlamento se ha legislado respecto al sistema de control biométrico en aeropuertos, el cual se está aplicando de manera experimental). Luego, se consideran los sistemas de inteligencia artificial de riesgo alto, que requieren el cumplimiento de unas 10 condiciones clave, entre ellas que la administración del sistema esté a cargo de personas. Esto constituye un llamado de alerta ante la posible irrupción de sistemas de inteligencia artificial autónoma. Finalmente, se contemplan los sistemas de inteligencia artificial de riesgo moderado. El proyecto establece, además, una gobernanza que dialoga con el proyecto de ciberseguridad que logramos sacar adelante, permitiendo que todas las personas recurran a un órgano cuando se vean vulneradas sus garantías. Por eso es tan relevante lo que estamos haciendo en Chile, en contraste con lo que se está haciendo en Argentina, donde el sistema de laboratorios es mucho más liberado. En definitiva, los resguardos de los derechos de los ciudadanos son fundamentales. Por ejemplo, el sistema de vigilancia implementado en Buenos Aires ha llevado a una reducción significativa de los índices delictuales, consolidando dicha ciudad como una de las dos capitales más seguras de Sudamérica, lo que demuestra que, a pesar de la existencia de sistemas algorítmicos que determinan conductas desde el punto de vista de riesgos, se están resguardando los derechos de cada ciudadano. Esta legislación es, por tanto, modificable y mejorable. Deberíamos seguir el modelo europeo e incorporar, además, las recomendaciones de la UNESCO. En este contexto, Presidente, quisiera que abriéramos o ampliáramos el plazo para proponer expositores que puedan ofrecernos luces respecto de este proyecto. Existen especialistas, como Cecilia Danesi, entre otros, que han participado en congresos y que actualmente trabajan en Europa sobre temas de inteligencia artificial; están expectantes de lo que haga Chile, ya que esta será la primera legislación sobre inteligencia artificial en las Américas. Aunque se haya señalado que Brasil presentó propuestas en esta materia, este proyecto es, en rigor, el primero que asume esta condición. Muchas gracias, y si se puede abrir ese plazo para establecer propuestas de personas que puedan aportar, quiero también felicitar el trabajo de la subcomisión técnica, encabezada por la senadora Jiménez Rincón, que realizó un esfuerzo muy importante.
15:00
Hubo una disputa con el ministro para los efectos de saber dónde iniciábamos en su momento, por lo menos yo no sostuve que era importante ver por dónde partía el proyecto. Nosotros nos habría gustado que ese proyecto hubiese recogido las opiniones vertidas por los expertos en la subcomisión técnica liderada por Jimena Rincón, y hubiese ingresado por el Senado; pero bueno, ingresó por la Cámara. Esperamos que finalmente tenga todo el trámite legislativo correspondiente y el mejoramiento respectivo. Muchas gracias, senador Chagüer. Les vamos a pedir que, a través de sus asesores, nos hagan llegar las propuestas para expositores sobre la materia. Dado que ya tenemos quórum, también me gustaría abrir la sesión. En nombre de Dios y de la Patria, se abre la comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado. Le voy a dar la palabra a Carlos Amunátegui, quien la ha solicitado, y luego pasamos con la ministra Echeverry. Carlos, bienvenido. Efectivamente, ya no es así, ya no es tan así. ¿Por qué? Porque el reglamento europeo es un instrumento burocráticamente muy pesado. De hecho, partió desde una propuesta que ha envejecido un poco mal. En el año 2021, cuando se presentó el primer borrador del reglamento europeo, la mayor parte de las inteligencias artificiales eran más bien estrechas. Entonces, calificar las inteligencias artificiales por los riesgos que generaban en un campo determinado tenía sentido; pero hoy día tienden a mayor generalidad. O sea, el mismo instrumento, como apuntaba el profesor Baeza, el mismo modelo te puede servir para algo de alto riesgo, de riesgo medio o de riesgo bajo. Esto hace que sea muy difícil cuadrar el reglamento europeo con las inteligencias artificiales actuales en uso de frontera. El efecto que ha provocado en la economía europea es que, básicamente, no se están desplegando nuevas inteligencias artificiales de frontera. Para que nos entendamos: Apple Intelligence, que está disponible en cualquier móvil de Apple, no está en Europa; Llama 3, que es la inteligencia artificial que ustedes tienen en WhatsApp, tampoco está en Europa; y un montón de otros desarrollos tampoco se encuentran en Europa. Hoy día, en Europa, se tiene una inteligencia artificial de peor calidad y menos disponible que en Burundi. Es decir, en este caso, como señaló el profesor Baeza, parece ser que el modelo europeo ha servido más bien de freno. Yo mismo estaba, hace un año, a favor de regular, pero he cambiado de opinión. Atención: el proyecto chileno tiene puntos muy altos, tiene puntos muy buenos, pero hay que revisarlo en profundidad para evitar repetir errores de los europeos. Hay muchos puntos críticos que no están tratados y otros que resultan innecesarios. La idea de regular el uso de la inteligencia artificial, más que la inteligencia artificial per se, es correcta; lo que plantea el profesor Baeza es, básicamente, desde un punto de vista estrictamente jurídico, correcto. Muchas gracias, Carlos. Lo tomaremos en cuenta cuando analicemos el proyecto en la comisión, pero nos quedamos con tus comentarios. Le agradecemos a Ricardo por su exposición, y con el cambio de posición quedó clarísimo. Muchas gracias. La palabra ahora se la doy a la ministra Echeverry, a quien invito a exponer el segundo punto. Muchas gracias, presidenta. Muy brevemente, solo para actualizar el estado de avance de ese proyecto, comentar cómo lo hemos trabajado y hacer una propuesta, en caso de que a los senadores les parezca bien: el proyecto salió de la Comisión de Ciencia de la Cámara y está para revisión de la Comisión de Hacienda. Estamos trabajando con la Comisión de Hacienda para definir cuáles serán los artículos que se realizarán, pero en principio el contenido sería breve y poco extenso, por lo tanto…
20:00
Contenido restringido

Contenido premium

Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al contenido completo, regístrate en la plataforma.

Registrarse para ver contenido completo
25:00
Contenido restringido

Contenido premium

Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al contenido completo, regístrate en la plataforma.

Registrarse para ver contenido completo
30:00
Contenido restringido

Contenido premium

Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al contenido completo, regístrate en la plataforma.

Registrarse para ver contenido completo
35:00
Contenido restringido

Contenido premium

Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al contenido completo, regístrate en la plataforma.

Registrarse para ver contenido completo
40:00
Contenido restringido

Contenido premium

Este fragmento pertenece a la segunda mitad de la transcripción. Para acceder al contenido completo, regístrate en la plataforma.

Registrarse para ver contenido completo

¿Listo para empezar?

Únete a Parlamento.ai y transforma la manera en que monitorejas la actividad parlamentaria