Isabel Márquez, MiguelCaro Martínez, MartaMartínez Banda, Juan DiegoSantos Mirete, LunaMoreno Bayona, Francisco José2025-09-172025-09-172025https://hdl.handle.net/20.500.14352/124069Trabajo de Fin de Grado en Ingeniería Informática, Facultad de Informática UCM, Departamento de Sistemas Informáticos y Computación, Curso 2024/2025El presente trabajo se centra en el análisis y explicabilidad de errores de concurrencia en aplicaciones de software mediante técnicas avanzadas de deep learning. El objetivo principal es aplicar técnicas de deep learning en aplicaciones concurrentes, donde los fallos pueden ser difíciles de detectar debido a la complejidad de las interacciones entre hilos. Partiendo de un trabajo previo de detección de errores concurrentes mediante Machine learning, se ha realizado un trabajo de adaptación, según los objetivos planteados e intereses, y de explicabilidad sobre los modelos. Para ello, se han utilizado modelos basados en redes neuronales, combinados con diferentes técnicas de explicabilidad como LIME, SHAP y ALE, para analizar la importancia de las características en las predicciones del modelo. Estas técnicas proporcionan información detallada sobre cómo los modelos se comportan y toman decisiones, permitiendo a los desarrolladores de los modelos comprender mejor los factores que contribuyen a las predicciones. Además, la evolución de este trabajo ha llevado a la exploración del uso de Vision Question Answering (VQA), utilizando modelos multimodales de IA generativa, para interpretar visualizaciones generadas por estos métodos de explicabilidad. Explorando así plataformas de inteligencia artificial, como repositorios o APIs de modelos pre-entrenados, como LlaVA o Gemini, con el objetivo de proporcionar descripciones textuales de los gráficos.This work focuses on the analysis and explainability of concurrency errors in software applications using advanced deep learning techniques. The main objective is to apply deep learning techniques to concurrent applications, where faults can be difficult to detect due to the complexity of thread interactions. Building on previous work on concurrent error detection using machine learning, we have adapted the models to our objectives and interests, as well as improved explainability. To this end, we have used neural network-based models, combined with different explainability techniques such as LIME, SHAP, and ALE, to analyze the importance of features in model predictions. These techniques provide detailed information about how models behave and make decisions, allowing model developers to understand better the factors contributing to predictions. Furthermore, the evolution of this work has led to the exploration of the use of Vision Question Answering (VQA), using multimodal generative AI models, to interpret visualizations generated by these explainability methods. Exploring artificial intelligence platforms, such as repositories or APIs for pre-trained models, like LlaVA or Gemini, with the goal of providing textual descriptions of the graphs.spaAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-nd/4.0/Detección y explicabilidad de errores en aplicaciones de software utilizando técnicas de machine learning y deep learningDetection and explainability of errors in software applications using machine learning and deep learning techniquesbachelor thesisopen access004(043.3)Inteligencia Artificial ExplicableExplicabilidadAprendizaje automáticoConcurrenciaTransformadoresPythonExplainable Artificial IntelligenceExplainabilityMachine LearningConcurrencyTransformersCiencias33 Ciencias Tecnológicas