RT Book, Section T1 Transparencia y comunicación de información a los responsables del despliegue en el artículo 13 reglamento de inteligencia artificial A1 Gutiérrez David, María Estrella A2 Cotino Hueso, Lorenzo A2 Simón Castellano, Pere AB El Capítulo aborda un análisis exegético profundo y exhaustivo del Artículo 13 del Reglamento de Inteligencia Artificial (RIA) en el marco también de una obra colectiva exhaustiva que abarca 38 capítulos y 34 autores, nacionales e internacionales. Esta obra colectiva ha sido co-dirigida por el actual Presidente de la Agencia Española de Protección de Datos, Lorenzo Cotino y Pere Simón, y se presenta, según sus directores como un Tratado que realiza “una clasificación por bloques temáticos a fin de ofrecer una respuesta global y exhaustiva a la aportación que supone, tanto a nivel teórico como práctico, la aprobación de un Reglamento que cuenta con 180 considerandos, 112 artículos y 13 anexos”. Fiel al planteamiento global de la obra colectiva, a lo largo de 51 páginas, más de 50 referencias bibliográficas, unas 15 normas técnicas consultadas, 116 notas a pie de página y 7 tablas, la autora aborda el contenido y alcance de las obligaciones de transparencia y comunicación que el Artículo 13 del RIA impone a los proveedores de sistemas de IA de alto riesgo, clasificados de acuerdo con los criterios establecidos en el Art. 6 y Anexo III del RIA. A pesar del predominante carácter de reglamentación técnica del RIA en general y de su Art. 13 en particular, el Capítulo no olvida la perspectiva iusfundamental del tema abordado. Resulta necesaria un adecuado nivel de intelección e interpretación sistemática del precepto y su interrelación con otros (como los Arts. 50 y 86 del RIA), para poder comprender el impacto que, en los derechos fundamentales puede tener el diseño, desarrollo e implementación de los sistemas de IA de alto riesgo. Si bien tal aproximación se aborda al final del Capítulo, resulta necesario todo el camino previo recorrido a lo largo de la exégesis del Art. 13 del RIA. La estructura de este Capítulo aborda, en primer lugar, una descripción sistemática del Artículo 13 y la correlación de sus apartados con otras disposiciones del Reglamento, así como necesarias referencias a la normalización a efectos de completar la interpretación de los aspectos más técnicos del precepto (Tabla 3). En segundo lugar, se analiza cómo se ha producido la integración de los requisitos de transparencia, interpretabilidad y explicabilidad en el texto del Artículo 13. Dicho análisis pasa por una necesaria referencia a: (i) la conceptualización técnica de cada uno de los requisitos; (ii) los antecedentes pre-legislativos del texto (desde las Directrices Éticas para una IA fiable del Grupo de Expertos de la Comisión Europea, pasando por la propuesta de la Comisión hasta el proceso de trílogos); (iii) la interrelación entre los tres requisitos (Tablas 4, 5 y 6), al tiempo que se incorpora un estudio exhaustivo del enfoque (asistemático, insuficiente y ambiguo) que el Reglamento de Inteligencia Artificial tiene de la interpretabilidad y la explicabilidad. En tercer lugar, la exégesis del Artículo 13 pasa por abordar las tres dimensiones de la «transparencia» que incorpora el precepto: una dimensión subjetiva (quiénes son los sujetos obligados y destinatarios de la transparencia), una dimensión formal (el cómo o modo de cumplimiento de la obligación), y una dimensión sustantiva o material (qué información debe comunicarse a los sujetos destinatarios de la transparencia). A la hora de establecer una metodología adecuada para abordar el análisis y exégesis del Artículo 13, se han tenido en cuenta los siguientes aspectos. En primer lugar, el Artículo 13, al igual que buena parte del texto de la norma, tiene una vocación clara de reglamentación técnica. Por tanto, para una correcta interpretación teleológica del precepto, será necesaria su integración no sólo con otros preceptos del Reglamento (con idéntica vis técnica) y algunos apartados específicos del Anexo IV. En segundo lugar, para asegurar una adecuada intelección de aquellos términos de claro significado técnico incluidos en el Artículo 13 (e.g. precisión, métricas, rendimiento, transparencia, interpretación, explicación, entre otros), a falta de definición en el Reglamento, ha resultado necesario acudir a las normas técnicas y documentos de normalización que algunos organismos internacionales y nacionales (ISO, ETSI, IEEE, NIST) han empezado a producir (Tablas 1 y 3). Se han tenido en cuenta, además, las deficiencias de traducción detectadas en la versión oficial española del texto del RIA con relación a algunos términos fundamentales en el ámbito de la IA como «funcionamiento», «métricas», «parámetro» o «precisión». Así, la consulta y remisión a las normas técnicas referidas a lo largo del Capítulo ha permitido completar el significado de los aspectos más técnicos del contenido del Artículo 13, así como introducir un análisis comparado desde la perspectiva de la normalización en cuanto a la categorización de los tipos y niveles de transparencia (Tabla 2) o de las categorías de interesados y de información relevante (Tabla 7).En particular, han sido de especial utilidad la ISO/IEC DIS 12792:2024(en), la ISO/IEC 25059:2023, sobre modelo de calidad para sistemas de IA, o la ISO/IEC 22989:2022, donde se incluyen conceptos básicos sobre IA. En el caso particular de la ISO/IEC DIS 12792:2024(en), aunque se trate de una norma técnica en trámite el momento de cierre del Capítulo, ha resultado relevante su consulta a los efectos de este Capítulo por los niveles de transparencia e información técnica que establece (nivel del contexto del sistema de IA, nivel del sistema de IA, nivel del modelo de IA, y nivel del conjunto de datos utilizados por el sistema).El Capítulo finaliza con una valoración final del Artículo 13 del RIA donde se destacan aspectos como la mejorable técnica redaccional del precepto, la también mejorable articulación de las relaciones entre la transparencia, la interpretabilidad y la explicabilidad, la inseguridad jurídica para proveedores y responsables del despliegue que produce la indefinición del «tipo y nivel de transparencia adecuados» establecida precepto o la ausencia de criterios cuantitativos o cualitativos respecto del contenido o alcance de las categorías de información que están sujetas a la obligación de transparencia que podría dar lugar a interpretaciones restrictivas, entre otras. Pero, desde un punto iusfundamental, posiblemente una de las conclusiones más importantes del análisis exegético y sistemático del Artículo 13 en el conjunto del texto del RIA, es la identificación de los «grandes olvidados del Reglamento» desde la perspectiva de la transparencia, a saber, los sujetos destinatarios de los sistemas de IA (por lo general, los ciudadanos), más allá de las previsiones contenidas en los Artículos 50 (las obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de IA) y 86 (el derecho a una explicación de las decisiones tomadas individualmente, este último como intento de completar las insuficiencias del Art. 22 del Reglamento General de Protección de Datos). Teniendo en cuenta que la afectación grave y adversa de los derechos fundamentales, la salud o la seguridad son elementos definitorios del alto riesgo de los sistemas de IA, ni el Art. 13, ni los Arts. 50 y 86 podrían considerarse instrumentos verdaderamente habilitantes para que el público en general, y los afectados en particular, reciban información suficiente para comprender los riesgos a los que están sometidos e impugnar de manera eficaz las decisiones individuales que causen efectos adversos en los derechos fundamentales, la salud y la seguridad, individuales o colectivos.Se trata, en todo caso, de un Capítulo abierto, a la espera de que las autoridades europeas de normalización, el CEN y al CENELEC cumplan con el mandato de la Comisión Europea de elaborar normas técnicas y documentos de normalización que concreten el contenido y alcance de los requerimientos de los sistemas de alto riesgos establecidos en la Sección 2ª del Capítulo 3, entre los que se encuentra el requisito de transparencia y comunicación de información del artículo 13 RIA (Anexo I C(2023) 3215 final). AB The chapter provides an in-depth and comprehensive exegetical analysis of Article 13 of the Artificial Intelligence Regulation (AIA) within the framework of a comprehensive collective work comprising 38 chapters and 34 national and international authors. This collective work has been co-directed by the current President of the Spanish Data Protection Agency, Lorenzo Cotino, and Pere Simón, and is presented, according to its directors, as a treatise that "classifies topics into thematic blocks in order to offer a comprehensive and exhaustive response to the contribution, both theoretical and practical, of the approval of a regulation that has 180 recitals, 112 articles, and 13 annexes." In accordance with the comprehensive approach of the collective work, the author addresses the content and scope of the transparency and communication obligations that Article 13 of the AIA imposes on providers of high-risk AI systems, classified according to the criteria established in Article 6 and Annex III of the AIA. The comprehensive and systematic author’s approach is evidenced throughout 51 pages, more than 50 bibliographical references, some 15 technical standards consulted, 116 footnotes, and 7 tables. Despite the predominantly technical nature of the AIA in general and its Article 13 in particular, the chapter does not overlook the fundamental rights perspective of the issue addressed. An adequate level of understanding and systematic interpretation of the provision and its interrelation with others (such as Articles 50 and 86 of the AIA) is necessary in order to comprehend the impact that the design, development, and implementation of high-risk AI systems may have on fundamental rights. Although this approach is addressed at the end of the chapter, it is necessary to follow the entire path taken throughout the exegesis of Article 13 of the RIA. The structure of this chapter first provides a systematic description of Article 13 and the correlation of its sections with other provisions of the European Regulation, as well as necessary references to standardization in order to complete the interpretation of the more technical aspects of the provision (Table 3). Secondly, it analyzes how the requirements of transparency, interpretability, and explainability have been integrated into the text of Article 13. This analysis includes a necessary reference to: (i) the technical conceptualization of each of the requirements; (ii) the pre-legislative background of the text (from the Ethical Guidelines for Trustworthy AI of the European Commission's Expert Group, through the Commission's proposal, to the trilogue process); (iii) the relationship between the three requirements (Tables 4, 5, and 6), while incorporating an exhaustive study of the AIA (unsystematic, insufficient, and ambiguous) approach to interpretability and explainability. Thirdly, the exegesis of Article 13 addresses the three dimensions of "transparency" incorporated in the provision: a subjective dimension (who are the obligated parties and recipients of transparency), a formal dimension (how or in what manner the obligation is to be fulfilled), and a substantive or material dimension (what information must be communicated to the recipients of transparency). When establishing an appropriate methodology for analyzing and interpreting Article 13, the following aspects were taken into account. Firstly, Article 13, like much of the text of the regulation, has a clear technical regulatory purpose. Therefore, for a correct teleological interpretation of the provision, it will be necessary to integrate it not only with other provisions of the Regulation (with the same technical purpose) but also with some specific sections of Annex IV. Secondly, in order to ensure a proper understanding of those terms with a clear technical meaning included in Article 13 (e.g., accuracy, metrics, performance, transparency, interpretation, explanation, among others), in the absence of a definition in the Regulation, it has been necessary to refer to the technical standards and standardization documents that some international and national bodies (ISO, ETSI, IEEE, NIST) have begun to produce (Tables 1 and 3). In addition, translation deficiencies detected in the official Spanish version of the AIA text in relation to some fundamental terms in the field of AI, such as "performance," "metrics," "parameters," and "accuracy," have been taken into account. Thus, consultation and reference to the technical standards referred to throughout the chapter has made it possible to complete the meaning of the more technical aspects of the content of Article 13, as well as to introduce a comparative analysis from the perspective of standardization in terms of the categorization of types and levels of transparency (Table 2) or categories of data subjects and relevant information (Table 7).In particular, ISO/IEC DIS 12792:2024(en), ISO/IEC 25059:2023, on quality models for AI systems, and ISO/IEC 22989:2022, which includes basic concepts on AI, have been especially useful. In the particular case of ISO/IEC DIS 12792:2024(en), although it is a technical standard in progress at the time of closing the Treaty, it has been relevant to consult it for the purposes of this Chapter due to the levels of transparency and technical information it establishes (level of the AI system context, level of the AI system, level of the AI model, and level of the dataset used by the system).The Chapter concludes with a final assessment of Article 13 of the RIA, highlighting aspects such as the room for improvement in the wording of the provision or the appropriate articulation of the relationships between transparency, interpretability, and explainability; the legal uncertainty for providers and those responsible for deployment due to the lack of definition of the "appropriate type and level of transparency" established in the provision; and, the absence of quantitative or qualitative criteria regarding the content or scope of the categories of information subject to the transparency obligation, which could give rise to restrictive interpretations, among others. However, a fundamental rights perspective reveals one of the most significant conclusions of the exegetical and systematic analysis of Article 13 in the text of the AIA as a whole. This conclusion identifies the "great forgotten ones of the Regulation" from the perspective of transparency. Specifically, this refers to the recipients of AI systems (generally citizens), beyond the provisions contained in Articles 50 (the transparency obligations of suppliers and those responsible for the deployment of certain AI systems) and 86 (the right to an explanation of decisions taken individually which is an attempt to address the shortcomings of Article 22 of the General Data Protection Regulation). It is imperative to acknowledge that the potential for significant adverse effects on fundamental rights, health, and safety constitutes a fundamental aspect of the high risk posed by AI systems. Consequently, it is pertinent to question the efficacy of Articles 13 and 50, in conjunction with Article 86, as instruments that can effectively facilitate the dissemination of crucial information to the general public and those affected. This is particularly crucial in ensuring their comprehension of the risks they are exposed to and the ability to effectively challenge individual decisions that result in adverse effects on fundamental rights, health, and safety, whether at the individual or collective level.It should be noted that this is chapter remains still open, pending compliance by the European standardization authorities, CEN and CENELEC, with the European Commission's mandate to develop technical standards that specify the content and scope of the requirements for high-risk systems set out in Section 2 of Chapter 3 of the AIA, including the requirement for transparency and communication of information in Article 13 (Annex I C(2023) 3215 final). PB Aranzadi SN 978-84-1162-931-7 YR 2024 FD 2024 LK https://hdl.handle.net/20.500.14352/125216 UL https://hdl.handle.net/20.500.14352/125216 LA spa NO Gutierrez David ME, Transparencia y comunicación de información a los responsables del despliegue en el artículo 13 reglamento de inteligencia artificial. En: Cotino Hueso L y Simón Castellano P., Dirs. Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea. 1ª Edición. Madrid: Aranzadi. pp. 629-680. NO El Tratado completo y el Capítulo en particular se encuentran publicados en inglés y formato open access en Gutierrez David, ME. Transparency and provision of information to deployers in Article 13 od the Artificial Intelligence Act. In: Cotino Hueso L y Galetta D-U. Eds. The European Union Artificial Intelligence Act. A systematic commentary. Napoles: Editoriale Scientifica. https://editorialescientifica.it/wp-content/uploads/2025/06/eBook-Ceridap-Galletta_THE-EUROPEAN-UNION-ARTIFICIAL-INTELLIGENCE-ACT.pdf DS Docta Complutense RD 27 feb 2026