García Sánchez, CarlosGherasim, Iulius2025-09-122025-09-122025https://hdl.handle.net/20.500.14352/123896Trabajo de Fin de Máster en Ingeniería Informática, Facultad de Informática UCM, Departamento de Arquitectura de Computadores y Automática, Curso 2024/2025Cada día la inteligencia artificial está más presente en la vida diaria de todas las personas. Desde teléfonos móviles y tablets hasta pequeños dispositivos domóticos IoT, todos ellos ofrecen funcionalidades basadas en inteligencia artificial, como por ejemplo: el reconocimiento facial al desbloquear el móvil, los asistentes virtuales o las cámaras de vigilancia con detección de movimiento. Para poder ejecutar estos modelos de inteligencia artificial de manera eficiente cada vez es más común hacerlo directamente en el propio dispositivo, lo que se conoce como computación en el borde. Sin embargo, la ejecución local de modelos complejos de inteligencia artificial se necesitan bastantes recursos, los cuales suelen ser limitados en este tipo de dispositivos. Por este motivo, cada vez más dispositivos están empezando a incluir aceleradores como GPUs o NPUs y frameworks dedicados para estos con el fin de agilizar el cómputo de redes neuronales y reducir el consumo energético. En este trabajo se van a explorar las distintas configuraciones disponibles a la hora de ejecutar modelos de detección de objetos y de clasificación de imágenes de manera nativa en dispositivos Android y se propondrán combinaciones óptimas para distintos casos de uso.With each passing day artificial intelligence is evermore present in people’s daily lives. From mobile phones and tablets to small IoT domotic devices, each one of them offers artifical intelligence-based functionality like unlocking the phone with facial recognition, virtual assitants or security cameras with motion detection. To be able to run these artificial intelligence models more efficiently it is becoming increasingly common to do it directly on the device itself. Nevertheless, the local execution of complex artificial intelligence models requires plenty of resources, which tend to be limited on these types of devices. For this reason, more and more devices are starting to include accelerators like GPUs or NPUs and dedicated frameworks for them with the goal of speeding up neural network computations and reducing energy consumption. This dissertation will explore the different configurations available when it comes to the native execution of object detection and image classification models on Android devices and optimized combinations will be proposed for various use cases.spaAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-nd/4.0/Optimización hardware en Android para inferencia de modelos de IAHardware optimization on Android for inference of AI modelsmaster thesisopen access004(043.3)NPUGPUAndroidQualcommIADetecciónClasificaciónAceleradoresComputación HeterogéneaAIDetectionClassificationAcceleratorsHeterogeneous ComputingInformática (Informática)33 Ciencias Tecnológicas