Aviso: por motivos de mantenimiento y mejora del repositorio, mañana martes día 13 de mayo, entre las 9 y las 14 horas, Docta Complutense, no funcionará con normalidad. Disculpen las molestias.
 

Nuevas Técnicas Computacionales para la estimación de la independencia de los tests de aleatoriedad

dc.contributor.advisorGarcía Villalba, Luis Javier
dc.contributor.advisorAlmaraz Luengo, Elena Salomé
dc.contributor.authorLeiva Cerna, Marcos Brian
dc.date.accessioned2023-06-17T10:57:09Z
dc.date.available2023-06-17T10:57:09Z
dc.date.issued2021-06
dc.degree.titleDoble Grado en Ingeniería Informática y Matemáticas
dc.descriptionTrabajo de Fin de Doble Grado de Ingeniería Informática y Matemáticas, Facultad de Informática UCM, Departamento de Ingeniería del Software e Inteligencia Artificial, Curso 2020/2021.
dc.description.abstractLa información mutua es una cantidad que mide la dependencia entre dos variables aleatorias. En particular, mide cuánta información, en promedio, proporciona una variable aleatoria a otra. En el artículo “Measuring Independence between Statistical Randomness Tests by Mutual Information” [KALPMC+20] de Jorge Augusto Karell-Albo, Carlos Miguel Legón-Pérez, Evaristo José Madarro-Capó, Omar Rojas y Guillermo Sosa-Gómez, se propuso la información mutua para medir la dependencia entre pruebas de aleatoriedad. Esta nueva herramienta puede ser útil para futuros avances en criptografía: no solo tendríamos otra forma de ver las posibles dependencias entre pruebas, además de la conocida correlación de Pearson, sino que también puede ayudarnos a ver otras dependencias que esta última no era capaz de detectar, ya que la correlación de Pearson solo detecta dependencias lineales (una restricción que no afecta la información mutua). Para empezar, replicaremos los resultados del artículo, que utiliza información mutua para buscar dependencias en la batería NIST, para verificar que nuestras implementaciones del cálculo de información mutua y la posterior prueba de permutación son correctas. Luego, ampliaremos los análisis a otras baterías de tests conocidas, como ENT, FIPS 140-2 o DieHarder, para detectar sus dependencias y comprobar si la información mutua es una buena medida de independencia.
dc.description.abstractMutual information is a quantity that measures the dependence between two random variables. Particularly, it measures how much information, on average, one random variable provides to another. In the article “Measuring Independence between Statistical Randomness Tests by Mutual Information”[KALPMC+20] by Jorge Augusto Karell-Albo, Carlos Miguel Leg´on-P´erez, Evaristo Jos´e Madarro-Cap´o, Omar Rojas, and Guillermo Sosa-G´omez, this quantity is proposed to measure the dependence between randomness tests. This new tool can be helpful for future advances in cryptography: not only would we have another way of seeing possible dependencies between tests, apart from the well-known Pearson correlation, but it can also help us to see other dependencies that the latter was not able to detect, since the correlation Pearson’s only detects linear dependencies (a constraint that does not affect mutual information). To begin with, we will replicate the results of the article, which uses mutual information to look for dependencies in the National Institute of Standards and Technology (NIST) battery, to verify that our implementations of the mutual information calculation and the permutation test are correct. Then, we will extend the analyses to other known test batteries, such as ENT, Federal Information Processing Standards (FIPS) 140-2, or DieHarder, to detect their dependencies and to test the mutual information as an independence measure.
dc.description.departmentDepto. de Ingeniería de Software e Inteligencia Artificial (ISIA)
dc.description.facultyFac. de Informática
dc.description.refereedTRUE
dc.description.statusunpub
dc.eprint.idhttps://eprints.ucm.es/id/eprint/74055
dc.identifier.urihttps://hdl.handle.net/20.500.14352/10600
dc.language.isospa
dc.page.total114
dc.rightsAtribución-NoComercial 3.0 España
dc.rights.accessRightsopen access
dc.rights.urihttps://creativecommons.org/licenses/by-nc/3.0/es/
dc.subject.cdu004(043.3)
dc.subject.keywordCriptografía
dc.subject.keywordDieharder
dc.subject.keywordENT
dc.subject.keywordestadística
dc.subject.keywordFIPS 140-2
dc.subject.keywordindependencia
dc.subject.keywordinformación mutua
dc.subject.keywordNIST SP 800-22
dc.subject.keywordTestU01
dc.subject.keywordTuftests
dc.subject.keywordCryptography
dc.subject.keywordIndependence
dc.subject.keywordMutual information
dc.subject.keywordNIST Special Publication (SP) 800-22
dc.subject.keywordStatistics
dc.subject.ucmInformática (Informática)
dc.subject.unesco1203.17 Informática
dc.titleNuevas Técnicas Computacionales para la estimación de la independencia de los tests de aleatoriedad
dc.title.alternativeNew Computational Techniques for Estimating the Independence of Randomness Tests
dc.typebachelor thesis
dspace.entity.typePublication
relation.isAdvisorOfPublication0f67f6b3-4d2f-4545-90e1-95b8d9f3e1f0
relation.isAdvisorOfPublication.latestForDiscovery0f67f6b3-4d2f-4545-90e1-95b8d9f3e1f0

Download

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
LEIVA CERNA 75351_MARCOS_BRIAN_LEIVA_CERNA_Nuevas_Tecnicas_Computacionales_para_la_Estimacion_de_la_Independencia_de_los_Tests_de_Aleatoriedad_784051_1583706936.pdf
Size:
9.63 MB
Format:
Adobe Portable Document Format