Aviso: para depositar documentos, por favor, inicia sesión e identifícate con tu cuenta de correo institucional de la UCM con el botón MI CUENTA UCM. No emplees la opción AUTENTICACIÓN CON CONTRASEÑA Disculpen las molestias.
 

Leveraging Posit Arithmetic in Deep Neural Networks

dc.contributor.advisorBarrio García, Alberto Antonio del
dc.contributor.advisorBotella Juan, Guillermo
dc.contributor.authorMurillo Montero, Raúl
dc.date.accessioned2023-06-17T10:17:39Z
dc.date.available2023-06-17T10:17:39Z
dc.date.issued2021
dc.descriptionMáster en Ingeniería Informática, Facultad de Informática UCM, Departamento de Arquitectura de Computadores y Automática, Curso 2020/2021.
dc.description.abstractThe IEEE 754 Standard for Floating-Point Arithmetic has been for decades imple mented in the vast majority of modern computer systems to manipulate and com pute real numbers. Recently, John L. Gustafson introduced a new data type called positTM to represent real numbers on computers. This emerging format was designed with the aim of replacing IEEE 754 floating-point numbers by providing certain ad vantages over them, such as a larger dynamic range, higher accuracy, bitwise iden tical results across systems, or simpler hardware, among others. The interesting properties of the posit format seem to be really useful under the scenario of deep neural networks. In this Master’s thesis, the properties of posit arithmetic are studied with the aim of leveraging them for the training and inference of deep neural networks. For this purpose, a framework for neural networks based on the posit format is developed. The results show that posits can achieve similar accuracy results as floating-point numbers with half of the bit width without modifications in the training and infer ence flows of deep neural networks. The hardware cost of the posit arithmetic units needed for operating with neural networks (this is, additions and multiplications) is also studied in this work, obtaining great improvements in terms of area and power savings with respect state-of-the-art implementations.
dc.description.abstractEl estándar IEEE 754 para aritmética de coma flotante se ha implementado durante décadas en la gran mayoría de los sistemas informáticos modernos para manipular y calcular números reales. Recientemente, John L. Gustafson introdujo un nuevo tipo de datos llamado positTM para representar números reales en computadores. Este formato emergente fue diseñado con el objetivo de reemplazar a los números de coma flotante IEEE 754 proporcionando ciertas ventajas sobre ellos, como un mayor rango dinámico, mayor precisión, resultados idénticos bit a bit en todos los sistemas o un hardware más simple, entre otras. Las interesantes propiedades del formato posit parecen ser realmente útiles en el escenario de redes neuronales profundas. En este trabajo de fin de máster se estudian las propiedades de la aritmética posit con el fin de aprovecharlas para el entrenamiento e inferencia de redes neuronales profundas. Para ello, se desarrolla un framework para redes neuronales basadas en el formato posit. Los resultados muestran que los posits pueden lograr resultados de precisión similares a los números en coma flotante con la mitad de la anchura de bits sin modificaciones en los flujos de entrenamiento e inferencia de las redes neuronales profundas. En este trabajo también se estudia el coste hardware de las unidades aritméticas posit necesarias para operar con redes neuronales (es decir, sumas y multiplicaciones), obteniendo grandes mejoras en términos de área y ahorro de energía con respecto a las implementaciones del estado del arte.
dc.description.departmentDepto. de Arquitectura de Computadores y Automática
dc.description.facultyFac. de Informática
dc.description.refereedTRUE
dc.description.statusunpub
dc.eprint.idhttps://eprints.ucm.es/id/eprint/64587
dc.identifier.urihttps://hdl.handle.net/20.500.14352/9180
dc.language.isospa
dc.master.titleMáster en Ingeniería Informática
dc.page.total69
dc.rightsAtribución-NoComercial 3.0 España
dc.rights.accessRightsopen access
dc.rights.urihttps://creativecommons.org/licenses/by-nc/3.0/es/
dc.subject.cdu004(043.3)
dc.subject.keywordPosit arithmetic
dc.subject.keywordDeep neural networks
dc.subject.keywordTraining
dc.subject.keywordInference
dc.subject.keywordAdder
dc.subject.keywordMultiplier
dc.subject.keywordComputer arithmetic.
dc.subject.keywordAritmética Posit
dc.subject.keywordRedes neuronales profundas
dc.subject.keywordEntrenamiento
dc.subject.keywordInferencia
dc.subject.keywordSumador
dc.subject.keywordMultiplicador
dc.subject.keywordAritmética de computadores.
dc.subject.ucmInformática (Informática)
dc.subject.unesco1203.17 Informática
dc.titleLeveraging Posit Arithmetic in Deep Neural Networks
dc.title.alternativeAprovechando la Aritmética Posit en las redes neuronales profundas
dc.typemaster thesis
dspace.entity.typePublication
relation.isAdvisorOfPublicationf94b32c6-dff7-4d98-9c7a-00aad48c2b6a
relation.isAdvisorOfPublication.latestForDiscoveryf94b32c6-dff7-4d98-9c7a-00aad48c2b6a
relation.isAuthorOfPublicationd08b5d10-697d-4104-9cb1-1fc7db6ecec6
relation.isAuthorOfPublication.latestForDiscoveryd08b5d10-697d-4104-9cb1-1fc7db6ecec6

Download

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
TFM_RaulMurillo_MH.pdf
Size:
1.23 MB
Format:
Adobe Portable Document Format