Para depositar en Docta Complutense, identifícate con tu correo @ucm.es en el SSO institucional. Haz clic en el desplegable de INICIO DE SESIÓN situado en la parte superior derecha de la pantalla. Introduce tu correo electrónico y tu contraseña de la UCM y haz clic en el botón MI CUENTA UCM, no autenticación con contraseña.

Detección y explicabilidad de errores en aplicaciones de software utilizando técnicas de machine learning y deep learning

dc.contributor.advisorIsabel Márquez, Miguel
dc.contributor.advisorCaro Martínez, Marta
dc.contributor.authorMartínez Banda, Juan Diego
dc.contributor.authorSantos Mirete, Luna
dc.contributor.authorMoreno Bayona, Francisco José
dc.date.accessioned2025-09-17T13:11:24Z
dc.date.available2025-09-17T13:11:24Z
dc.date.issued2025
dc.degree.titleGrado en Ingeniería Informática
dc.descriptionTrabajo de Fin de Grado en Ingeniería Informática, Facultad de Informática UCM, Departamento de Sistemas Informáticos y Computación, Curso 2024/2025
dc.description.abstractEl presente trabajo se centra en el análisis y explicabilidad de errores de concurrencia en aplicaciones de software mediante técnicas avanzadas de deep learning. El objetivo principal es aplicar técnicas de deep learning en aplicaciones concurrentes, donde los fallos pueden ser difíciles de detectar debido a la complejidad de las interacciones entre hilos. Partiendo de un trabajo previo de detección de errores concurrentes mediante Machine learning, se ha realizado un trabajo de adaptación, según los objetivos planteados e intereses, y de explicabilidad sobre los modelos. Para ello, se han utilizado modelos basados en redes neuronales, combinados con diferentes técnicas de explicabilidad como LIME, SHAP y ALE, para analizar la importancia de las características en las predicciones del modelo. Estas técnicas proporcionan información detallada sobre cómo los modelos se comportan y toman decisiones, permitiendo a los desarrolladores de los modelos comprender mejor los factores que contribuyen a las predicciones. Además, la evolución de este trabajo ha llevado a la exploración del uso de Vision Question Answering (VQA), utilizando modelos multimodales de IA generativa, para interpretar visualizaciones generadas por estos métodos de explicabilidad. Explorando así plataformas de inteligencia artificial, como repositorios o APIs de modelos pre-entrenados, como LlaVA o Gemini, con el objetivo de proporcionar descripciones textuales de los gráficos.
dc.description.abstractThis work focuses on the analysis and explainability of concurrency errors in software applications using advanced deep learning techniques. The main objective is to apply deep learning techniques to concurrent applications, where faults can be difficult to detect due to the complexity of thread interactions. Building on previous work on concurrent error detection using machine learning, we have adapted the models to our objectives and interests, as well as improved explainability. To this end, we have used neural network-based models, combined with different explainability techniques such as LIME, SHAP, and ALE, to analyze the importance of features in model predictions. These techniques provide detailed information about how models behave and make decisions, allowing model developers to understand better the factors contributing to predictions. Furthermore, the evolution of this work has led to the exploration of the use of Vision Question Answering (VQA), using multimodal generative AI models, to interpret visualizations generated by these explainability methods. Exploring artificial intelligence platforms, such as repositories or APIs for pre-trained models, like LlaVA or Gemini, with the goal of providing textual descriptions of the graphs.
dc.description.departmentDepto. de Ingeniería de Software e Inteligencia Artificial (ISIA)
dc.description.departmentDepto. de Sistemas Informáticos y Computación
dc.description.facultyFac. de Informática
dc.description.refereedTRUE
dc.description.statusunpub
dc.identifier.urihttps://hdl.handle.net/20.500.14352/124069
dc.language.isospa
dc.page.total185
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internationalen
dc.rights.accessRightsopen access
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject.cdu004(043.3)
dc.subject.keywordInteligencia Artificial Explicable
dc.subject.keywordExplicabilidad
dc.subject.keywordAprendizaje automático
dc.subject.keywordConcurrencia
dc.subject.keywordTransformadores
dc.subject.keywordPython
dc.subject.keywordExplainable Artificial Intelligence
dc.subject.keywordExplainability
dc.subject.keywordMachine Learning
dc.subject.keywordConcurrency
dc.subject.keywordTransformers
dc.subject.ucmCiencias
dc.subject.unesco33 Ciencias Tecnológicas
dc.titleDetección y explicabilidad de errores en aplicaciones de software utilizando técnicas de machine learning y deep learning
dc.titleDetection and explainability of errors in software applications using machine learning and deep learning techniques
dc.typebachelor thesis
dc.type.hasVersionAM
dspace.entity.typePublication
relation.isAdvisorOfPublication06ba5ba7-fae5-4f98-99b7-3830106dee88
relation.isAdvisorOfPublicationf6c73d06-3406-4c35-97a8-df8371eee98d
relation.isAdvisorOfPublication.latestForDiscovery06ba5ba7-fae5-4f98-99b7-3830106dee88

Download

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Deteccion_y_explicabilidad.pdf
Size:
7.34 MB
Format:
Adobe Portable Document Format