Transparencia algorítmica: el desafío de la Administración pública del presente

Las nuevas tecnologías basadas en la inteligencia artificial han dotado de herramientas más potentes a las Administraciones públicas para mejorar la calidad de sus servicios; sin embargo, conocer su uso y las decisiones que toman no está claramente definido en las obligaciones de transparencia.

El avance de la transparencia alcanza nuevos horizontes con el desarrollo tecnológico de la sociedad, con innovaciones informáticas y herramientas tan potentes como la inteligencia artificial.

Pero este avance también conlleva riesgos y para evitar usos perniciosos, los Estados han comenzado a regular su uso, como ha sucedido con la reciente aprobación del reglamento europeo sobre inteligencia artificial.

Según la definición de las instituciones europeas, la inteligencia artificial son sistemas de software diseñados por humanos para conseguir un objetivo complejo que, a través de la adquisición e interpretación de datos, consiguen percibir su entorno o razonar sobre cierto conocimiento para decidir qué acciones son las mejores para conseguir el objetivo planteado.

Aunque este tipo de mecánica se lleva utilizando años, en noviembre de 2022 se alcanzó un punto de inflexión cuando la empresa OpenAI lanzó en acceso abierto para los usuarios de Internet la aplicación ChatGPT, una inteligencia artificial que superó los 58 millones de visitas a su web durante el primer mes de estreno.

Además de ChatGPT, en el último año otros chatbot han proliferado como herramientas de trabajo que permiten mejorar la productividad en tareas cotidianas como la redacción de documentos, búsqueda de información, creación de contenido audiovisual o incluso hacer una receta de cocina con darle la foto del interior del frigorífico. Copilot, Jasper, Aria o Gemini son algunas de estas tecnologías que parecen haber llegado para quedarse, como sucedió con el ordenador personal.

Sin embargo, a pesar de contener en su nombre la palabra ‘inteligencia’, estas herramientas también cometen errores, lo que lleva a plantearse la responsabilidad sobre las consecuencias de estas situaciones, especialmente cuando afectan a terceros o vulneran los derechos de las personas.

En este sentido, las Administraciones públicas cada vez utilizan más herramientas de IA para desarrollar sus servicios de manera más eficiente, ágil y eficaz, pero se plantean cuestiones sobre su responsabilidad con respecto al ciudadano, pues no hay una respuesta firme acerca de si estos deben ser informados de que sus datos son gestionados por este tipo de máquinas, y si el derecho de acceso también obliga a las IA de la Administración a ser transparentes.


NOTICIAS RELACIONADAS
Transparencia en la Administración: cómo los algoritmos deciden sobre la vida de los ciudadanos
Cómo la IA puede mejorar la transparencia y acercar la política al ciudadano
Diez años de la Ley de Transparencia: ¿qué ha cambiado?


Según explicaba Javier de la Cueva, abogado y miembro de Fundación Civio, en el seminario del Consejo de Transparencia sobre la Transparencia algorítmica en el sector público, las inteligencias artificiales presentan una problemática con doble perspectiva porque “estamos sustituyendo científicamente lo que es una relación de causalidad por una relación de correlación estadística”. Jurídicamente, la relación de causalidad es uno de los elementos en los cuales se podría realizar una rendición de cuentas en los sistemas de gobernanza y de ahí establecer un determinado tipo de responsabilidades. Sin embargo, cuando se entra en relaciones de correlación, la responsabilidad se difumina a través del origen de los datos y de las distintas ‘capas de cebolla’ que se van integrando dentro de los datos y de las maneras de manejarlos.

El otro problema señalado por De la Cueva es cómo ha obtenido los datos la máquina para adquirir el conocimiento, ya que puede ser del entorno a través de sus sensores o extraer el conocimiento de datos que se le dan previamente. “Entonces yo no le llamaría inteligencia, sino métodos estocásticos de producción de resultados”, afirmaba el representante de Civio.

¿Cuánta inteligencia artificial utiliza la Administración?

Por otra parte, Jesús Jiménez, director de la Agencia de Transparencia y Protección de Datos Personales de Andalucía, afirmó durante el seminario que las herramientas algorítmicas también pueden presentar ciertos conflictos si no están bien diseñadas, especialmente en relación con la protección de datos personales.

En este sentido, Jiménez dio algunos ejemplos de títulos de contratos públicos que claramente se basan en inteligencia artificial para mostrar “el alcance del espacio de oscuridad” que tiene la Administración española en el uso e implementación de estas tecnologías:

Diseño e implementación del asistente virtual corporativo de una Administración pública: análisis sistemático y automatizado del sentimiento de las conversaciones mantenidas por las personas usuarias asistentes.

Sistema de identidad de biometría facial con análisis de evidencia en un modelo de uso de software en la nube

Sensorización de flujos turísticos, para monitorizar la oferta y los productos destinados a los visitantes. Se obtienen datos de comportamiento de los turistas que acuden a la ciudad.

Proyecto Certeza de voz. Proyecto de investigación de detección precoz de sospecha de violencia contra la mujer a través de la voz.

Planificación de centros educativos mediante técnicas avanzadas predictivas sobre datos de menores que anticipa el fracaso escolar.

Además de estos ejemplos, en la Plataforma de Contratación Pública del Estado también se encuentran publicadas licitaciones recientes para incorporar la IA en la infraestructura de información para la Defensa, para la vigilancia de subvenciones o para el nodo genómico del Sistema Nacional de Salud –SNS-, cuya plataforma de Sistema de Información Genómica –SNS SIGenES– recopila, almacena y analiza datos de los pacientes para mejorar la atención médica personalizada y la toma decisiones clínicas.

Esto ejemplos, como afirmaba el director del Consejo de Transparencia andaluz, tienen “un impacto muy serio sobre los datos personales”; una cuestión que “preocupa mucho” a Jiménez: “Por ahora nadie ha preguntado sobre esta cuestión, lo cual significa que no está sujeto a control”.

Esta situación plantea una doble cuestión desde la perspectiva de la transparencia: ¿debe obligarse a la Administración pública a informar a los destinatarios de los servicios que la gestión se está llevando a cabo por una herramienta de inteligencia artificial? Y, en segundo lugar, ¿se puede solicitar el acceso al software de este tipo de herramientas para fiscalizar su correcto funcionamiento?

El director de la Agencia de Tansparencia y Protección de datos de Andalucia, Jesús Jiménez, ha mostrado su preocupación por el impacto sobre la protección de los datos personales en el uso de las herramientas algorítmicas.

Información pública y código fuente

Fundación Civio lleva litigando desde 2019 contra el Ministerio de Transición Ecológica para acceder a la información relativa a la aplicación informática Bosco. Se trata de la herramienta encargada de analizar los datos de los usuarios que sufren pobreza energética y que solicitan el bono social de electricidad. Dicha demanda tiene como fin comprobar que el funcionamiento de Bosco es correcto, ya que se sospecha que, erróneamente, ha privado del bono social a solicitantes que sí cumplen con los requisitos para ser considerados consumidores vulnerables.

“Aunque 5,5 millones de personas tienen derecho a esta ayuda, solo 1,1 han podido acceder a ella”, explican desde Civio en su web. “Entendemos que el derecho a saber también alcanza a aquellos programas informáticos que a diario toman decisiones sobre la vida de los ciudadanos”, subrayan.

El acceso al algoritmo fue denegado primero por el Ministerio y posteriormente por el Consejo de Transparencia que le dio la razón a la Administración, porque concluyó que el acceso al código fuente de la aplicación vulneraba los límites de la Ley de transparencia.

Según un informe del subdirector general de Tecnologías de la Información del Ministerio de Industria, quien es responsable del desarrollo de Bosco, el acceso al código fuente del sistema afectaría a los derechos de propiedad industrial del código, provocaría vulnerabilidades para la seguridad pública y la defensa nacional, además de una posible vulneración de la protección de datos personales por permitir el acceso a las bases conectadas con dicho algoritmo.

El pasado junio, la Audiencia Nacional desestimó el recurso de Civio, al considerar válidos los argumentos presentados por el Ministerio, de manera que De la Cueva anunció que van a presentar un recurso de casación ante el Tribunal Supremo, porque consideran que los efectos de estas sentencias tendrán una importante transcendencia en la defensa del derecho a saber frente a la Administración pública inteligente.

“Yo tengo derecho a conocer las normas, las reglas y el código fuente de lo que a mí me está regulando mis derechos, así que déjeme usted ver ese código fuente, porque esto es un supuesto en el cual la norma jurídica se está utilizando para tomar una determinación de a quién le concedo un derecho y a quién no se lo concedo”, afirmó el abogado de Civio.

“Entendemos que el derecho a saber también alcanza a aquellos programas informáticos que a diario toman decisiones sobre la vida de los ciudadanos”, Civio.

La no transparencia de la inteligencia artificial pública

Las investigaciones de la profesora Estrella Gutiérrez de la Universidad Complutense de Madrid sobre el empleo de las inteligencias artificiales y cómo afectan a la protección de datos personales han puesto de relieve que existen pocos canales para saber que se están automatizando las decisiones dentro de las Administraciones públicas y, además, que no hay rendición de cuentas al respecto.

En España, solo a raíz de una reclamación presentada ante el Consejo de Transparencia y Buen Gobierno se pudo documentar el procedimiento implementado por el Centro de Tratamiento de Denuncias Automatizadas -CTDA- de la Dirección General de Tráfico. Gracias a esta resolución del Consejo, se sabe cómo la automatización comprende desde que un cinemómetro (radar) detecta una posible infracción por exceso de velocidad, captura, compacta, encapsula y encripta mediante un algoritmo las imágenes digitales junto el fichero de texto con la información referente a la infracción, para luego remitirla al CTDA, donde nuevamente se tratan los ficheros, se cotejan matrícula y modelo de vehículo de la imagen con el que consta en el Registro de Vehículos, hasta que finalmente se genera el correspondiente expediente sancionador en la DGT.

En el marco del XXI Foro Internacional de Ética y Derecho de la Información -Fiedi-, Gutiérrez explicó que los modelos de inteligencia artificial, dependiendo del tipo de algoritmo, pueden tener distinto nivel de transparencia ya que depende de la interpretabilidad y de la ‘explicabilidad’ del propio sistema, y afirmó que se trata de “un concepto técnico ya que, dentro del dominio de la inteligencia artificial, ‘explicable’ quiere decir que el modelo es capaz de producir explicaciones”.

Sin embargo, las regulaciones sobre estas herramientas como el reciente reglamento europeo no es claro en las obligaciones de las Administraciones públicas a la hora de rendir cuentas sobre el uso de estas tecnologías, ya que las excluye cuando se utilizan en ámbitos como la cooperación policial o judicial, o para los sistemas de uso militar y en el contexto de la seguridad nacional.

En este sentido, Gutiérrez afirma que el concepto de “transparencia algorítmica” su significado técnico no es exactamente coincidente con el concepto jurídico del principio de transparencia, aunque la finalidad última de los conceptos técnico y jurídico sea el mismo: conocer cómo se adoptan las decisiones en un determinado ámbito y, en última instancia, garantizar la rendición de cuentas.

Por este motivo, tal y como afirma De la Cueva, la sentencia del Tribunal Supremo acerca del caso Bosco tendrá una importante transcendencia en la cultura de la transparencia en España, porque hasta ahora no hay jurisprudencia al respecto y determinará el camino a seguir para la Administración del futuro, que es ya presente.

Comentarios