Para depositar en Docta Complutense, identifícate con tu correo @ucm.es en el SSO institucional. Haz clic en el desplegable de INICIO DE SESIÓN situado en la parte superior derecha de la pantalla. Introduce tu correo electrónico y tu contraseña de la UCM y haz clic en el botón MI CUENTA UCM, no autenticación con contraseña.
 

Generación de explicaciones basadas en ejemplos y contraejemplos a través de técnicas de Visual Question Answering

dc.contributor.advisorCaro Martínez, Marta
dc.contributor.authorBastardo Rojas, Ángel
dc.date.accessioned2025-07-21T08:29:56Z
dc.date.available2025-07-21T08:29:56Z
dc.date.issued2025
dc.descriptionTrabajo de Fin de Máster en Internet de las Cosas, Facultad de Informática UCM, Departamento de Ingeniería del Software e Inteligencia Artificial, Curso 2024/2025.
dc.description.abstractLa poca transparencia en los modelos de Inteligencia Artificial (IA) se presenta como uno de los retos hoy en día en la industria. Esta poca transparencia se refiere a lo complicado de explicar cómo los grandes modelos de inteligencia artificial logran tomar una decisión. Por ello cobra importancia la Inteligencia Artificial Explicable (XAI), campo de la inteligencia artificial que consiste en diseñar sistemas o métodos para hacer más transparente y fácil de comprender los mecanismos internos de los modelos de IA para los usuarios. En este Trabajo de Fin de Máster se propone un sistema de Case-Based Reasoning (CBR) que usa modelos de lenguaje multimodal, en concreto Large Lenguage Models (LLMs) para Visual Question Answering (VQA) y métricas de similitud textual y semántica, generando explicaciones basadas en ejemplos (factual) y contraejemplos (counter-factual). El método utiliza un modelo multimodal para crear descripciones textuales de imágenes y se utilizan métricas de similitud para recuperar las explicaciones y reutilizar la información textual generada anteriormente. Ambos enfoques (factual y conuterfactual) se han evaluado de forma offline y online, con usuarios reales, obteniendo resultados que indican que el método propuesto en este trabajo mejora la explicabilidad ante métodos tradicionales encontrados en la literatura.
dc.description.abstractThe lack of transparency in Artificial Intelligence (AI) models is currently one of the main challenges in the industry. This lack of transparency refers to the difficulty in explaining how large artificial intelligence models make decisions. For this reason, Explainable Artificial Intelligence (XAI) becomes important, it is the field of artificial intelligence focused on designing systems or methods to make the internal mechanisms of AI models more transparent and easier for users to understand. This Master Project proposes a Case-Based Reasoning (CBR) system that uses multimodal language models, specifically Large Language Models (LLMs) for Visual Question Answering (VQA), textual and semantic similarity metrics, generating explanation based on examples (factual) and counterexamples (counterfactual). The method employs a multimodal model to create textual descriptions of images and uses similarity metrics to retrieve explanations while reusing previously generated textual information. Both approaches (factual and counterfactual) were evaluated offline and online with real users, yielding results indicating that the proposed method improves explainability compared to traditional methods found in the literature.
dc.description.departmentDepto. de Ingeniería de Software e Inteligencia Artificial (ISIA)
dc.description.facultyFac. de Informática
dc.description.refereedFALSE
dc.description.statusunpub
dc.identifier.urihttps://hdl.handle.net/20.500.14352/122638
dc.language.isospa
dc.master.titleMáster en Internet de las Cosas
dc.page.total72
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internationalen
dc.rights.accessRightsopen access
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject.cdu004(043.3)
dc.subject.keywordInteligencia Artificial
dc.subject.keywordExplicabilidad
dc.subject.keywordLarge Lenguage Model
dc.subject.keywordVisual Question Answering
dc.subject.keywordRazonamiento Basado en Casos
dc.subject.keywordXAI
dc.subject.keywordArtificial Intelligence
dc.subject.keywordExplainability
dc.subject.keywordLarge Language Model
dc.subject.keywordVisual Question Answering
dc.subject.keywordCase-Based Reasoning
dc.subject.ucmInformática (Informática)
dc.subject.unesco33 Ciencias Tecnológicas
dc.titleGeneración de explicaciones basadas en ejemplos y contraejemplos a través de técnicas de Visual Question Answering
dc.titleGeneration of explanations based on examples and counterexamples through Visual Question Answering techniques
dc.typemaster thesis
dc.type.hasVersionAM
dspace.entity.typePublication
relation.isAdvisorOfPublicationf6c73d06-3406-4c35-97a8-df8371eee98d
relation.isAdvisorOfPublication.latestForDiscoveryf6c73d06-3406-4c35-97a8-df8371eee98d

Download

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Generación_de_explicaciones.pdf
Size:
8.35 MB
Format:
Adobe Portable Document Format