Aviso: para depositar documentos, por favor, inicia sesión e identifícate con tu cuenta de correo institucional de la UCM con el botón MI CUENTA UCM. No emplees la opción AUTENTICACIÓN CON CONTRASEÑA
 

Analysis of the Transformer Architecture and application on a Large Language Model for mental health counseling

dc.contributor.advisorVega Barbas, Mario
dc.contributor.advisorVillanueva Díez, Ignacio
dc.contributor.authorHerencia López-Menchero, Andrés
dc.date.accessioned2024-07-19T10:21:14Z
dc.date.available2024-07-19T10:21:14Z
dc.date.defense2024-06
dc.date.issued2024
dc.description.abstractThe rapid advances of generative Artificial Intelligence (AI) have marked a milestone in the Natural Language Processing (NLP) field. Specifically, Transformer models have revolutionized the state-of-the-art due to their great effectiveness and efficiency in several tasks, both general and specific. Thus, this work explores the Transformer architecture and its application to Large Language Models (LLMs) through Parameter-Efficient Fine Tunning (PEFT) techniques, aiming to create a conversational model for mental health counseling. The study provides a detailed explanation of the architecture, including its theoretical and mathematical foundations. The fine-tuning process uses a novel state-ofthe-art technique known as Low Rank Adapters (LoRA). Subsequently, the performance is evaluated by comparing the original with the fine-tuned model to verify the adaptation performance. Some conclusions are extracted at the end of the document, highlighting the most important advantages and disadvantages of the applied methodology.
dc.description.abstractLos rápidos avances en Inteligencia Artificial (IA) generativa ha supuesto un hito en el campo del Procesamiento del Lenguaje Natural (PLN). Concretamente, los modelos Transformer han revolucionado el estado del arte a través de su gran eficacia y eficiencia en gran variedad de tareas, tanto generales como específicas. Así, este trabajo explora la arquitectura Transformador y su aplicación a Modelos del Lenguaje Grandes (MLG) a través de técnicas de sobre-entrenamiento, para crear una herramienta que sirva para asesorar y aconsejar en el ámbito de la salud mental. El estudio explica detalladamente la arquitectura, incluyendo los fundamentos teóricos y matemáticos. El proceso de sobreentrenamiento hace uso de una técnica novedosa en el estado del arte, conocida como LoRA (Low Rank Adapters). Posteriormente, se evalúa el rendimiento de este modelo con respecto al original, comprobando la efectividad de la adaptación. Algunas conclusiones son extraídas al final del documento, destacando las ventajas e inconvenientes de la metodología aplicada, así como futuras posibles líneas de investigación del proyecto.
dc.description.departmentDepto. de Análisis Matemático y Matemática Aplicada
dc.description.facultyFac. de Ciencias Matemáticas
dc.description.refereedTRUE
dc.description.statusunpub
dc.identifier.urihttps://hdl.handle.net/20.500.14352/106894
dc.language.isoeng
dc.master.titleMáster en Tratamiento Estadístico-Computacional de la Información
dc.rights.accessRightsopen access
dc.subject.keywordLarge Language Model (LLM)
dc.subject.keywordDeep Learning (DL)
dc.subject.keywordParameter-Efficient Fine Tunning (PEFT)
dc.subject.keywordLow Rank Adapters (LoRA)
dc.subject.keywordLLaMA
dc.subject.keywordTransformer
dc.subject.ucmInteligencia artificial (Informática)
dc.subject.unesco1203.04 Inteligencia Artificial
dc.titleAnalysis of the Transformer Architecture and application on a Large Language Model for mental health counseling
dc.title.alternativeAnálisis de la arquitectura Transformer y aplicación en un Gran Modelo de Lenguaje para asesoramiento en salud mental
dc.typemaster thesis
dc.type.hasVersionAM
dspace.entity.typePublication
relation.isAdvisorOfPublication45785a65-66ff-415c-a422-bfdc6e3ff149
relation.isAdvisorOfPublication.latestForDiscovery45785a65-66ff-415c-a422-bfdc6e3ff149

Download

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
andres_herencia_TFM_TECI.pdf
Size:
6.81 MB
Format:
Adobe Portable Document Format