El objetivo de las recomendaciones realizadas por el Consejo para la Transparencia apunta a que la ciudadanía conozca cómo se toman las decisiones cuando ellas son asistidas por algoritmos, aumentando la confianza, y que puedan disputarlas cuando corresponda, evitando resultados injustos, arbitrarios o que afecten indebidamente los derechos fundamentales.
La inteligencia artificial llegó para quedarse, tanto en el sector público como en el sector privado.
Vivimos en una época en la que diversos algoritmos coayudan en distintos procesos de tomas de decisión, por ejemplo, para saber quién tiene prioridad para recibir una atención de salud, o quién llenará el último cupo disponible en un colegio público, o para asistir a las autoridades en los procesos de monitoreo y fiscalización que realizan. En Chile, un estudio reciente de la UAI da cuenta de la existencia de 117 algoritmos públicos en el Estado, los que se utilizan en procesos internos o para dar forma a decisiones que afectan a muchas personas.
Se trata de una tecnología y herramienta que puede ser muy valiosa. Bien usada, puede traer múltiples beneficios en términos de productividad y eficiencia, impactando positivamente en la gestión, y con ello mejorar la calidad de vida de las personas, como puede ocurrir con el manejo de las listas de espera o la entrega de beneficios sociales no cobrados, entre otras. Por cierto, el uso de estas herramientas también puede conllevar riesgos para nuestros derechos y libertades. Sin embargo, maximizar aquellos minimizando los beneficios sería un error, así como también lo sería obviarlos bajo una visión extremadamente utópica de estas tecnologías. Buscar un equilibrio para aproximarse al asunto es aconsejable.
Actualmente el Congreso Nacional debate sobre un proyecto de ley para regular los diversos usos de la IA, los que reciben distinto tratamiento normativo (más o menos intenso) según el riesgo que involucran. No quisiera detenerme en el proyecto de ley, que está siendo (y en buena hora) objeto de un debate intenso y en que restan aún muchas inquietudes por resolver.
Cuando hablamos de regulación de tecnologías que evolucionan muy rápido -mucho más de lo que toma aprobar y modificar una ley- la resiliencia y adaptabilidad de las propuestas normativas son claves. El recorrido regulatorio debiera concentrarse y poner el énfasis en el panorama general, pues es cierto que la IA puede comprometer derechos y libertades, pero también puede protegerlos y facilitar su ejercicio, resolviendo problemas e impulsando el progreso. Así, la regulación no debe limitar el potencial de la IA, sino que debe desbloquearlo, resguardando nuestras libertades.
Políticas públicas resilientes, capaces de evolucionar con la IA, y que en su gestación y cambio involucren a los innovadores y a los usuarios, y en que se prioricen tanto la seguridad como la oportunidad, son esenciales. Adoptar herramientas flexibles, como “sandboxes”, principio, e incentivos, que sigan el ritmo de la tecnología, es un ejemplo.
En este escenario es interesante observar las recomendaciones emitidas al efecto por el Consejo para la Transparencia, a través de la Resolución No. 372, de 2024, respecto de algoritmos públicos y sistemas de decisión automatizados o semiautomatizados en el sector público, en las materias propias de su órbita de competencia, y tras un proceso participativo.
Ante la ausencia de un mecanismo general y común para que las instituciones públicas obligadas, bajo la ley de transparencia chilena, pudieran mostrar, de manera responsable y útil, qué sistemas automatizados de toma de decisiones estaban utilizando, el Consejo dio un paso adelante, sobre cómo informar a la ciudadanía acerca del uso de estos sistemas. Todo esto en el contexto constitucional y legal chileno, donde los actos y resoluciones de los órganos del Estado, así como sus fundamentos y los procedimientos que utilizan, son públicos, dejando a salvo las causales de reserva que establece la ley.
Las recomendaciones instan a publicar la existencia de estos sistemas, su modo de interacción, objetivos, propósitos, operación y resultados, junto con los datos y otras cualidades mínimas o información. El objetivo es que la ciudadanía conozca cómo se toman las decisiones cuando ellas son asistidas por algoritmos, aumentando la confianza, y que puedan disputarlas cuando corresponda, evitando resultados injustos, arbitrarios o que afecten indebidamente los derechos fundamentales.
La recomendación -en ese formato- permitirá ir evaluando el ritmo de su adopción y los desafíos involucrados, entre los que se encuentran: (i) las disparidades en las capacidades de las diversas instituciones, como ocurre por ejemplo entre el nivel municipal y central (reglas excesivamente rígidas podrían terminar siendo meras declaraciones incumplibles); (ii) las tensiones entre la transparencia y la protección de datos personales, especialmente cuando involucra datos sensibles; (iii) el fortalecer las capacidades institucionales de las agencias llamadas a auditar y fiscalizar el uso de estas herramientas, desde sus orbitas de competencia, para demandar correcciones, y (iv) el acceso limitado de la ciudadanía, debido a la complejidad técnica de la temática.
El objetivo no es arrojar manuales técnicos que nadie comprenda tan solo para cumplir con la obligación de transparencia, sino que se publique información útil sobre los algoritmos, explicando su propósito, impacto y lógica en términos simples, para así tal vez ir construyendo camino para que el día de mañana pueda implementarse un registro de algoritmos públicos y plataformas centralizadas (por ejemplo, un Portal de Transparencia Algorítmica) donde los ciudadanos puedan consultar esta información de manera intuitiva.
Las recomendaciones ofrecen flexibilidad, al tiempo que establecen un camino claro hacia adelante, brindando también oportunidades para evaluar y enmendar, de acuerdo con el desarrollo dinámico de la tecnología y las capacidades del sector público. Es posible hacer que la IA rinda cuentas, sin sacrificar su potencial.
Natalia González Bañados, Presidenta del Consejo para la Transparencia
Fuente: CPLT