RT Generic T1 Detección y explicabilidad de errores en aplicaciones de software utilizando técnicas de machine learning y deep learning T1 Detection and explainability of errors in software applications using machine learning and deep learning techniques A1 Martínez Banda, Juan Diego A1 Santos Mirete, Luna A1 Moreno Bayona, Francisco José AB El presente trabajo se centra en el análisis y explicabilidad de errores de concurrencia en aplicaciones de software mediante técnicas avanzadas de deep learning. El objetivo principal es aplicar técnicas de deep learning en aplicaciones concurrentes, donde los fallos pueden ser difíciles de detectar debido a la complejidad de las interacciones entre hilos. Partiendo de un trabajo previo de detección de errores concurrentes mediante Machine learning, se ha realizado un trabajo de adaptación, según los objetivos planteados e intereses, y de explicabilidad sobre los modelos. Para ello, se han utilizado modelos basados en redes neuronales, combinados con diferentes técnicas de explicabilidad como LIME, SHAP y ALE, para analizar la importancia de las características en las predicciones del modelo. Estas técnicas proporcionan información detallada sobre cómo los modelos se comportan y toman decisiones, permitiendo a los desarrolladores de los modelos comprender mejor los factores que contribuyen a las predicciones. Además, la evolución de este trabajo ha llevado a la exploración del uso de Vision Question Answering (VQA), utilizando modelos multimodales de IA generativa, para interpretar visualizaciones generadas por estos métodos de explicabilidad. Explorando así plataformas de inteligencia artificial, como repositorios o APIs de modelos pre-entrenados, como LlaVA o Gemini, con el objetivo de proporcionar descripciones textuales de los gráficos. AB This work focuses on the analysis and explainability of concurrency errors in software applications using advanced deep learning techniques. The main objective is to apply deep learning techniques to concurrent applications, where faults can be difficult to detect due to the complexity of thread interactions. Building on previous work on concurrent error detection using machine learning, we have adapted the models to our objectives and interests, as well as improved explainability. To this end, we have used neural network-based models, combined with different explainability techniques such as LIME, SHAP, and ALE, to analyze the importance of features in model predictions. These techniques provide detailed information about how models behave and make decisions, allowing model developers to understand better the factors contributing to predictions. Furthermore, the evolution of this work has led to the exploration of the use of Vision Question Answering (VQA), using multimodal generative AI models, to interpret visualizations generated by these explainability methods. Exploring artificial intelligence platforms, such as repositories or APIs for pre-trained models, like LlaVA or Gemini, with the goal of providing textual descriptions of the graphs. YR 2025 FD 2025 LK https://hdl.handle.net/20.500.14352/124069 UL https://hdl.handle.net/20.500.14352/124069 LA spa NO Trabajo de Fin de Grado en Ingeniería Informática, Facultad de Informática UCM, Departamento de Sistemas Informáticos y Computación, Curso 2024/2025 DS Docta Complutense RD 28 sept 2025