Administraciones inteligentes y acceso al código fuente y los algoritmos públicos. Conjurando riesgos de cajas negras decisionales

dc.contributor.authorGutiérrez David, María Estrella
dc.date.accessioned2025-10-13T14:28:46Z
dc.date.available2025-10-13T14:28:46Z
dc.date.issued2021-05-30
dc.description.abstractExiste un consenso amplio en que el uso de sistemas de IA por parte de las Administraciones públicas debe ser transparente y garantizar que los ciudadanos comprenden cómo y por qué se han adoptado las decisiones algorítmicas que les afectan individual o colectivamente. La legislación de transparencia puede y debe ser un instrumento para este propósito. Existe una doctrina bien asentada de las Autoridades de transparencia que considera que código fuente y los algoritmos (deterministas o predictivos) utilizados por la Administración constituye «información pública». Partiendo de esta premisa, la casuística comparada e interna del derecho de acceso a la información posibilita identificar algunos de los riesgos inherentes al uso de estos sistemas de IA por parte de las Administraciones: reglamentación oculta y errores; existencia de black boxes decisionales; sesgos embebidos y vulneraciones de derechos y libertades. Sin perjuicio de los eventuales límites legales que puedan concurrir (e.g. seguridad pública, propiedad intelectual e industrial), analizados en este trabajo, existe cierto consenso en que el derecho de acceso no siempre garantiza una total transparencia y comprensibilidad del proceso de toma de decisiones mediante sistemas de IA, especialmente, cuando estos utilizan modelos de black box. Es más, la noción misma de un black box como incapacidad de entender los resultados producidos por un sistema algorítmico comienza a ser expansiva, en el sentido de que el análisis de la casuística ahí donde el acceso al código fuente de algoritmos deterministas es objeto de litigio evidencia que ni los afectados por la decisión ni el juez son capaces de entender cómo el sistema llegó a tal decisión. Se constata, por último, que no existe una coincidencia exacta entre el significado técnico de la transparencia algorítmica manejado por la XAI (Explainable Artificial Intelligence) -rama de la IA- y el significado jurídico de la transparencia administrativa propio del iuspublicismo. De lege ferenda, y a fin de garantizar una adecuada interpretabilidad, explicabilidad y justificación de las decisiones públicas adoptadas o apoyadas en sistemas de IA y el escrutinio público de las mismas, la legislación de transparencia debería determinar la información relevante que podría ser objeto de publicidad activa o del derecho de acceso e incorporar obligaciones de producción, conservación y registro de la documentación técnica relativa al ciclo de vida de tales sistemas.
dc.description.abstractThere is broad consensus that the use of AI systems by Governments must be transparent and ensure that citizens are able to understand how and why algorithmic decisions affecting them, individually or collectively, have been made. Transparency legislation can be a useful instrument for this purpose. There is a well-established doctrine issued by freedom information Authorities that the source code and algorithms (either deterministic or predictive) used by the Governments are «public information». Based on that premise, the comparative and domestic casuistic of the right of access to public information makes possible to identify some of the risks inherent in the use of AI systems by Governments: covert regulation and bugs; existence of black box decision-like; embedded biases and impairment of rights and freedoms. Notwithstanding the potential legal limits (e.g. public security, intellectual property) analysed in this paper, there is a wide consensus that the right of access does not always ensure full transparency and understanding of the algorithmic decision-making process, especially where black box models are implemented. Moreover, the idea itself of black box as an inability to understand how an algorithmic system produced an output is becoming expansive. In effect, cases where requests of access concerning the source code of deterministic algorithms is at dispute are showing to what extent neither the affected parties by an algorithmic decision nor the judge are able to understand how the system reached such decision. In addition, it has been found that there is no an exact match between the technical meaning of «algorithmic transparency» handled by the «XAI» (Explainable Artificial Intelligence) -a field of Artificial Intelligence- and the legal meaning of «administrative transparency» typical of Public Law. On a lex ferenda basis, in order to achieve appropriate interpretability, explainability and justification for governmental decisions made or supported by AI systems and public scrutiny thereof, freedom of information legislation should determine relevant information to be publicly disclosed or accessed and ensure that technical documents related to the whole life-cycle of such AI systems are dully produced, kept and registered.
dc.description.departmentSección Deptal. de Derecho Constitucional (Ciencias de la Información)
dc.description.facultyFac. de Ciencias de la Información
dc.description.refereedTRUE
dc.description.statuspub
dc.identifier.citationGutiérrez-David, M. E., Administraciones inteligentes y acceso al código fuente y los algoritmos públicos. Conjurando riesgos de cajas negras decisionales. Derecom. Revista de la Comunicación y de las Nuevas Tecnologías. 2021 May 30; 30: 143-229. Available from: http://www.derecom.com/secciones/articulos-de-fondo/item/433-administraciones-inteligentes-y-acceso-al-codigo-fuente-y-los-algoritmos-publicos-conjurando-riesgos-de-cajas-negras-decisionales
dc.identifier.issn1988‐2629
dc.identifier.officialurlhttps://revistas.ucm.es/index.php/DERE/article/view/93427
dc.identifier.relatedurlhttps://dialnet.unirioja.es/servlet/articulo?codigo=7980499
dc.identifier.relatedurlhttp://www.derecom.com/secciones/articulos-de-fondo/item/433-administraciones-inteligentes-y-acceso-al-codigo-fuente-y-los-algoritmos-publicos-conjurando-riesgos-de-cajas-negras-decisionales
dc.identifier.urihttps://hdl.handle.net/20.500.14352/124838
dc.issue.number30
dc.journal.titleDerecom. Revista Internacional de Derecho de la Comunicación y de las Nuevas Tecnologías
dc.language.isospa
dc.page.final229
dc.page.initial143
dc.publisherEdiciones Complutense
dc.rightsAttribution 4.0 Internationalen
dc.rights.accessRightsopen access
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/
dc.subject.cdu342.7
dc.subject.cdu342.9
dc.subject.cdu340
dc.subject.keywordDerecho de acceso
dc.subject.keywordFreedom of information
dc.subject.keywordCódigo fuente
dc.subject.keywordAlgoritmos de aprendizaje automatizado
dc.subject.keywordBlack box decisional
dc.subject.keywordTransparencia algorítmica
dc.subject.keywordInterpretabilidad
dc.subject.keywordExplicabilidad
dc.subject.keywordSource code
dc.subject.keywordMachine learning algorithms
dc.subject.keywordBlack-box decisions-like
dc.subject.keywordAlgorithmic transparency
dc.subject.keywordInterpretability
dc.subject.keywordExplainability
dc.subject.ucmDerecho constitucional
dc.subject.ucmDerecho administrativo
dc.subject.ucmDerecho comparado
dc.subject.unesco5605.04 Derecho Constitucional
dc.subject.unesco5605.01 Derecho Administrativo
dc.subject.unesco5602.02 Derecho Comparado
dc.subject.unesco5602.01 Derecho Anglosajón
dc.titleAdministraciones inteligentes y acceso al código fuente y los algoritmos públicos. Conjurando riesgos de cajas negras decisionales
dc.titleSmart governments and access to source code and algorithms held by public authorities. dismissing risks of a black box decision-like
dc.typejournal article
dc.type.hasVersionAM
dspace.entity.typePublication
relation.isAuthorOfPublication6d804889-7fc3-47c4-b3cb-baef1a8c8a36
relation.isAuthorOfPublication.latestForDiscovery6d804889-7fc3-47c4-b3cb-baef1a8c8a36

Download

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Derecom 2021- Administraciones inteligentes y acceso código fuente.pdf
Size:
938.08 KB
Format:
Adobe Portable Document Format
Description:
Metodológicamente, el artículo se enmarca expresamente en los Objetivos de Desarrollo Sostenible (ODS), y particularmente en el objetivo de la necesaria promoción de sociedades pacíficas e inclusivas (ODS número 16). Ello incluye la implantación efectiva del Estado de Derecho en los planos nacional e internacional, garantizando la igualdad de acceso a la justicia para todos (16.3), el desarrollo de instituciones eficaces, responsables y transparentes a todos los niveles (16.6), asegurar procesos de toma de decisiones receptivos, inclusivos, participativos y representativos en todos los niveles (16.7) y garantizar el acceso público a la información y proteger las libertades fundamentales, de conformidad con la legislación nacional y los acuerdos internacionales (16.10). El artículo realiza el análisis y sistematización de la doctrina emanada de las Autoridades de Transparencia (española, autonómica, francesa, alemana, británica) y de los Tribunales de Justicia −especialmente la del orden contencioso-administrativo, tanto en el ámbito comparado (EEUU, Italia, Países Bajos) como el nacional sobre el acceso al código fuente y el uso de algoritmos de IA utilizados por las Administraciones Públicas.

Collections