Browsing by UCM subject "Seguridad informática"
Now showing 1 - 20 of 69
Results Per Page
Sort Options
Publication A Layered Trust Information Security Architecture(Multidisciplinary Digital Publishing Institute, 2014-12-01) Oliveira Albuquerque, Robson de; García Villalba, Luis Javier; Sandoval Orozco, Ana Lucila; Buiati, Fábio; Kim, T.H.Information can be considered the most important asset of any modern organization. Securing this information involves preserving confidentially, integrity and availability, the well-known CIA triad. In addition, information security is a risk management job; the task is to manage the inherent risks of information disclosure. Current information security platforms do not deal with the different facets of information technology. This paper presents a layered trust information security architecture (TISA) and its creation was motivated by the need to consider information and security from different points of view in order to protect it. This paper also extends and discusses security information extensions as a way of helping the CIA triad. Furthermore, this paper suggests information representation and treatment elements, operations and support components that can be integrated to show the various risk sources when dealing with both information and security. An overview of how information is represented and treated nowadays in the technological environment is shown, and the reason why it is so difficult to guarantee security in all aspects of the information pathway is discussed.Publication A Methodology to Evaluate Standards and Platforms within Cyber Threat Intelligence(MDPI, 2020-06-23) de Melo e Silva, Alessandra; Costa Gondim, João José; Oliveira Albuquerque, Robson de; García Villalba, Luis JavierThe cyber security landscape is fundamentally changing over the past years. While technology is evolving and new sophisticated applications are being developed, a new threat scenario is emerging in alarming proportions. Sophisticated threats with multi-vectored, multi-staged and polymorphic characteristics are performing complex attacks, making the processes of detection and mitigation far more complicated. Thus, organizations were encouraged to change their traditional defense models and to use and to develop new systems with a proactive approach. Such changes are necessary because the old approaches are not effective anymore to detect advanced attacks. Also, the organizations are encouraged to develop the ability to respond to incidents in real-time using complex threat intelligence platforms. However, since the field is growing rapidly, today Cyber Threat Intelligence concept lacks a consistent definition and a heterogeneous market has emerged, including diverse systems and tools, with different capabilities and goals. This work aims to provide a comprehensive evaluation methodology of threat intelligence standards and cyber threat intelligence platforms. The proposed methodology is based on the selection of the most relevant candidates to establish the evaluation criteria. In addition, this work studies the Cyber Threat Intelligence ecosystem and Threat Intelligence standards and platforms existing in state-of-the-art.Publication Aceleración hardware con propósitos criptográficos(2013) Pérez Rico, Javier; Imaña Pascual, José LuisLa criptografía asimétrica está siendo implementada hoy en día en muchas ramas, principalmente en el cifrado de clave pública y en las firmas digitales. Esto es debido principalmente a que no hace falta el intercambio de claves de cifrado entre el emisor y el receptor lo que hace que el sistema sea más seguro. Una variante de este tipo de criptografía es la criptografía de curvas elípticas. Este tipo de criptografía se basa en las matemáticas de curvas elípticas y la aritmética modular. Además, este tipo de criptografía es mucho más interesante que, por ejemplo, RSA ya que utiliza una clave de longitud menor para el mismo nivel de seguridad. En este trabajo se realiza una implementación de una nueva arquitectura de multiplicación modular para las operaciones sobre los cuerpos primos Fp, utilizada en este tipo de criptografía. Para ello se han utilizado algoritmos ya conocidos y revisiones de los mismos. Las revisiones y mejoras implementadas están orientadas al incremento de la velocidad de la operación de multiplicación. La implementación se realiza sobre dispositivos de hardware reconfigurable de la familia Virtex5 de Xilinx. Toda la implementación del sistema se hace mediante codificación en VHDL y el software de desarrollo de Xilinx ISE 14.2. De esta forma se puede estudiar mejor el comportamiento de los algoritmos bajo distintos casos de uso, anchos de bus y familias de FPGA. [ABSTRACT] Asymmetric cryptography is being implemented today in many branches, mainly in public-key encryption and digital signatures. This is mainly because you do not need the encryption key exchange between sender and receiver which makes the system more secure. A variant of this type of cryptography is elliptic curve cryptography. This type of cryptography is based on the mathematics of elliptic curves and modular arithmetic. Furthermore, this kind of encryption is much more interesting, for example, RSA key since it uses a shorter length for the same level of security. In this paper a new architecture implementing a modular multiplication operations over Fp prime fields used in this type of cryptography. This has been known algorithms used and revisions thereof. Revisions and improvements implemented are aimed at increasing the speed of the multiplication operation. The implementation is done on reconfigurable hardware devices in the Xilinx Virtex5. The whole system implementation is done using VHDL coding and development software Xilinx ISE 14.2. In this way you can study better the behavior of the algorithms under different use cases, bus widths and FPGA families.Publication Adquisición de conocimiento para la gestión autónoma de redes en arquitecturas auto-organizadas emergentes(Universidad Complutense de Madrid, 2019-06-27) Sotelo Monge, Marco Antonio; García Villalba, Luis JavierLos escenarios de red emergentes estan caracterizados por el acceso intensivo a una amplia gama de servicios y aplicaciones que han incrementado las exigencias de las redes de comunicacion. Los modelos de gestion de red tradicionales se han caracterizado a su vez por una alta dependencia del factor humano para llevar a cabo tareas de configuracion y mantenimiento de la red. Esta situacion se ha hecho menos sostenible en las redes moviles no solo por los costes operacionales y de inversion de capital asociados, sino tambien por la complejidad que estas han adquirido ante la inmersion exponencial de dispositivos moviles. Tales aspectos han motivado el surgimiento de la quinta generacion de redes moviles, caracterizadas por indicadores de desempeño ambiciosos que deben cumplirse para satisfacer los niveles de servicio acordados...Publication An Analysis of Smart Contracts Security Threats Alongside Existing Solutions(MDPI, 2020-02-11) López Vivar, Antonio; Turégano Castedo, Alberto; Sandoval Orozco, Ana Lucila; García Villalba, Luis JavierSmart contracts have gained a lot of popularity in recent times as they are a very powerful tool for the development of decentralised and automatic applications in many fields without the need for intermediaries or trusted third parties. However, due to the decentralised nature of the blockchain on which they are based, a series of challenges have emerged related to vulnerabilities in their programming that, given their particularities, could have (and have already had) a very high economic impact. This article provides a holistic view of security challenges associated with smart contracts, as well as the state of the art of available public domain tools.Publication Analysis of a rate-adaptive reconciliation protocol and the effect of leakage on the secret key rate(American Physical Society, 2013-04-26) Elkouss Coronas, David; Martínez Mateo, Jesús; Martín, VicenteQuantum key distribution performs the trick of growing a secret key in two distant places connected by a quantum channel. The main reason is so that the legitimate users can bound the information gathered by the eavesdropper. In practical systems, whether because of finite resources or external conditions, the quantum channel is subject to fluctuations. A rate-adaptive information reconciliation protocol, which adapts to the changes in the communication channel, is then required to minimize the leakage of information in the classical postprocessing. We consider here the leakage of a rate-adaptive information reconciliation protocol. The length of the exchanged messages is larger than that of an optimal protocol; however, we prove that the min-entropy reduction is limited. The simulation results, both in the asymptotic and in the finite-length regime, show that this protocol allows to increase the amount of a distillable secret key.Publication Autenticación y verificación de usuarios mediante dinámica del tecleo(2017) Rivilla Bravo, Fernando; Martín Martín, EnriqueDentro del área de la autenticación biométrica, uno de los campos que ha suscitado mayor interés en los últimos años ha sido la dinámica del tecleo. En él, se estudian multitud de técnicas de clasificación de usuarios con el objetivo de encontrar un sistema de autenticación alternativo a las contraseñas utilizadas en la actualidad. Todas ellas se basan en las diferentes características biométricas que las personas mostramos al utilizar un teclado informático. Por tanto, se propone realizar un estudio de distintas técnicas de clasificación de usuarios mediante dinámica del tecleo e implementar un sistema que utilice algunas de ellas.Publication Banco de tiempo Peer-to-Peer(2015) Núñez Guerrero, Antonio; Nowendsztern, Daniel Alejandro; Pérez García, Marcos; Pickin, SimonEn los últimos quince años se han realizado muchos artículos que prometen un futuro brillante a la tecnología P2P. Sin embargo, este futuro todavía no se ha alcanzado. Después de la primera explosión de interés que tuvo lugar a principios de este siglo, la tecnología P2P ha ido avanzado muy lentamente, y en consecuencia, el campo de las aplicaciones P2P no ha conseguido madurar lo suficiente. A pesar de los avances en el uso de las tecnologías P2P en sistemas masivos internos de grandes empresas tales como Facebook [43] y LinkedIn [68], y en aplicaciones muy populares como BitTorrent [17] y Bitcoin [15], la tecnología P2P sigue sin estar lo suficientemente preparada como para poder usarse como base para la construcción de una gran variedad de aplicaciones. En este contexto, el papel habitual de las universidades y centros de investigación es llevar a cabo estudios y construir prototipos que busquen avanzar en los aspectos fundamentales de las tecnologías, con el fin último de poder construir plataformas fiables y seguras sobre las que desarrollar aplicaciones de todo tipo. Es lógico que en las universidades y centros de investigación no se dedique mucho esfuerzo al estudio de las aplicaciones que podrían beneficiarse de una plataforma P2P fiable y seguro, salvo quizás para definir unos casos de uso demostrativos. Pero este hecho contribuye a alimentar el problema de la gallina y el huevo al que siempre se enfrentan las nuevas tecnologías de base. Por un lado, es difícil justificar la inversión de esfuerzo en el desarrollo de plataformas, si no se pueden exhibir aplicaciones útiles que se ejecutarían sobre ellas. Pero por otro lado, es difícil justificar la inversión de esfuerzo en la construcción de aplicaciones pensadas para ejecutarse sobre plataformas poco maduras o incluso todavía sin existir. Una forma de contribuir al avance del campo de la tecnología P2P, consistiría en estudiar las aplicaciones para las que resulta ventajoso ejecutarse sobre una plataforma P2P fiable y segura e intentar especificar de manera precisa los requisitos que imponen estas aplicaciones en la misma. Este proyecto se enmarca dentro de este enfoque. En este proyecto se estudia la definición de un banco de tiempo P2P (ejemplo sugerido por los propios alumnos) y como parte de este estudio y a modo de demostración de factibilidad, se implementa una parte del sistema especificado sobre una plataforma P2P existente. Dadas las dificultades de abordar este objetivo en un campo tan inmaduro, conceptualmente difícil y sin fuentes documentales definitivas no cabe esperar como resultado del proyecto un producto software elaborado como es el caso de otros proyectos más convencionales.Publication Bibliotecas digitales: seguridad en el modelo de referencia OAIS(2012) Muñoz de Solano y Palacios, Bárbara; Prieto Gutiérrez, Juan José; Ramos Simón, Luis FernandoLas cuestiones relacionadas con el tratamiento de la conservación de documentos en cualquiera de sus soportes (analógico, digital o mixto) no son sencillas y su consideración implica múltiples decisiones respecto a los factores de riesgo que pueden padecer en el tiempo para garantizar el acceso y la preservación. Los accidentes generan perdidas de identidad cultural y de conocimiento, siendo por ello necesario disponer de planes de seguridad con el propósito de reducir al máximo la siniestralidad. Desde el punto de vista del modelo de referencia Open Archival Information System (OAIS), se analizan los tres módulos esenciales que permiten el acceso al documento por parte del usuario: adquisición (Ingest), conservación (Archival storage) y recuperación y acceso a la información, con el objetivo de dar respuesta y solución a variados factores de riesgo inherentes de cada fase.Publication Capacidades esenciales de ciberdefensa: una visión integradora(2014-10-22) López Hernández-Ardieta, JorgeA pesar de los indudables beneficios que nos reporta la tecnología, nuevos avances tecnológicos siempre han traído consigo nuevas formas de amenaza. El ciberespacio, entendido como los sistemas de información y proceso de datos interconectados por redes de comunicaciones, es el nuevo ecosistema donde surgen y proliferan nuevas amenazas, que pueden llegar a comprometer servicios esenciales o activos críticos para un país, por ello el ciberespacio está reconocido como quinto dominio de la guerra. Gobiernos y otros actores llevan a cabo operaciones de diferente índole en el ciberespacio con el fin de lograr ventaja militar, estratégica o comercial sobre naciones enemigas u organizaciones competidoras. Si bien es cierto que estas operaciones cibernéticas se caracterizan generalmente por su alto nivel de sofisticación, también encontramos casos donde con pocos recursos o conocimiento puede orquestarse ciberataques a gran escala y con consecuencias severas. Ante este nuevo escenario surge la necesidad de desarrollar capacidades de ciberdefensa. Estas capacidades deben desarrollarse desde una perspectiva integral, que considere todas las dimensiones (doctrina, organización, formación, tecnología) e incorpore no sólo capacidades defensivas sino también capacidades ofensivas para responder activamente a la amenaza. Revisaremos los conceptos fundamentales que subyacen a los ciberconflictos, con especial atención a su dimensión internacional y transfronteriza, y se presenta una visión integradora de capacidades esenciales de ciberdefensa para lograr superioridad en los conflictos cibernéticos. Finalmente, se identifican y analizan algunos de los problemas abiertos y retos más relevantes que necesitan una respuesta urgente.Publication CloudBotNet(2016) Fallaha Sabhan, Abdalah; Góngora Fernández, José Luis; Vázquez Poletti, José Luis; Velasco Cabo, José ManuelLa Ciberseguridad es un campo que cada día está más presente en nuestra vida con el avance de la tecnología. Gobiernos, militares, corporaciones, instituciones financieras, hospitales y otros negocios recogen, procesan y almacenan una gran cantidad de información confidencial en sus ordenadores y transmiten estos datos a través de redes a otros ordenadores. Con el creciente volumen y la sofisticación de los Ciberataques, se requiere una atención continua para proteger los negocios sensibles y la información personal así como salvaguardar la seguridad nacional. En el futuro casi todo va a ser informático por lo que con el avance de la tecnología nuevas amenazas aparecen, más peligrosas y sofisticadas. El enfoque de nuestro proyecto es demostrar que con unos pocos conocimientos de redes, seguridad, computación en la nube y unas pocas líneas de código se puede implementar una potente herramienta de ataque que puede poner en peligro la integridad y confidencialidad de los usuarios e instituciones.Publication Confianza de grupo en sistemas distribuidos y sus relaciones con la seguridad de la información y la ciberseguridad(Universidad Complutense de Madrid, 2016-04-08) Oliveira Alburquerque, Robson de; García Villalba, Luis Javier; Sandoval Orozco, Ana LucilaThis thesis describes aspects regarding trust, reputation, information security and cyber security as connected subjects. It is the belief of this research that without trust it is not possible to address security in computational systems properly. One fundamental aspect is to use information systems or to rely on them. One must trust the technology involved and consequently the entire system, without even knowing it in the rst place. Due to human characteristics, there is the tendency to trust that systems will keep our data secure. However, one basic problem is that trust and reputation deals with subjective evaluations. In many situations, information systems nowadays have distributed support. It means that there are a lot of parts that connect everything together, which is unknown to the ordinary users. Depending on the technology, it is even unknown to systems administrators when it comes to for example clusters, cloud and peer-to-peer systems. Considering the rst area of research - trust - from the perspective of this work, a group trust model for distributed systems is presented as an extension applied to conventional trust and reputation mechanisms, extension developed considering groups, which is herein de ned as a collection of entities with particular a nities and capabilities. Broadening this perspective, the formation of groups is very common, but very few trust and reputation models studied deal with trust in the perspective of a collection of entities with common a nities. Thus, group trust is a way of representing the set of trust and reputation of their particular members. One aspect to be aware of is the fact that this set has pre-de ned activities and common objectives....Publication ¿Control de las redes?: implicaciones para la privacidad y la seguridad. (1ª parte)(2013) Lorenzana González, César; Sem; CapoPara César Lorenzana González (Jefe de investigación Grupo de delitos telemáticos de la Guardia Civil) dada la delincuencia en la red, no se trata de controlarnos, sino de normas que impidan o persigan el crimen. En ella todo deja traza pero lo importante es qué información personal debe conservarse, quién puede acceder a ella y qué uso pueda hacer. Similitud con la vida cotidiana, lo que no hacemos ni queremos que nos hagan en ella no debemos permitirlo en la red. Aquí no hay concepto de soberanía, la delincuencia es internacional y accedemos a servicios web ubicados en países con legislaciones distintas. Libertad no es hacer lo que queramos, es ejercer nuestros derechos y respetar los ajenos. Seguridad no es contraria a privacidad (en internet no hay privacidad). Si hay aplicaciones gratuitas es porque no somos clientes sino mercancías, nuestros datos interesan a las empresas. Las normas europeas son distintas a las de EE.UU., Facebook, Google, etc. deberían respetar las normas europeas si operan en Europa. Conclusiones: no sentirse engañados sino leer los términos de uso, y establecer unas normas en la red, no un control sino una legalidad siempre democrática. Para CAPO y SEM, (de lorea.org), no se trata de buenos y malos, sino de dos visiones de la humanidad: ¿el hombre es bueno o malo por naturaleza?, si malo entonces vigilancia masiva; si bueno, entonces no control. Se dice que el control es por bien de la humanidad, pero es por interés económico. Pero, ¿quién vigila a los vigilantes? Con Snowden es evidente el estado de vigilancia global, favorecedor de grandes corporaciones y estados que controlan el mundo. Ejemplo, Facebook no tiene herramienta para asambleas, no busca que la gente pueda organizarse y provocar cambios, solo fin económico. Internet no tenía esta finalidad pero ha prevalecido. Apogeo, explosión de las .com, (Web 1.0 el sitio producía contenidos y ganaban dinero; Web 2.0 es el usuario quién los produce y se gana más dinero). Google y Facebook dan servicios gratuitos porque sus usuarios les dan valor. Proponen un cambio: privacidad y anonimato co el cifrado de comunicaciones (en el ciberespacio importa la reputación no la identidad “real”, dada por el estado); software libre, el único que puede dar seguridad (aunque seguridad es un concepto relativo); uso de protocolos TOR para anonimato; Bitmessage para el correo; Twister clon descentralizado de Twitter; Guifi.net, red libre, abierta, neutral y descentralizada de las ISP; pago anónimo con criptomonedas, sin bancos intermediarios y sin embargos de cuentas.Publication ¿Control de las redes?: implicaciones para la privacidad y la seguridad. (2ª parte)(2013) Lorenzana González, César; Sem; CapoPara César Lorenzana González (Jefe de investigación Grupo de delitos telemáticos de la Guardia Civil) dada la delincuencia en la red, no se trata de controlarnos, sino de normas que impidan o persigan el crimen. En ella todo deja traza pero lo importante es qué información personal debe conservarse, quién puede acceder a ella y qué uso pueda hacer. Similitud con la vida cotidiana, lo que no hacemos ni queremos que nos hagan en ella no debemos permitirlo en la red. Aquí no hay concepto de soberanía, la delincuencia es internacional y accedemos a servicios web ubicados en países con legislaciones distintas. Libertad no es hacer lo que queramos, es ejercer nuestros derechos y respetar los ajenos. Seguridad no es contraria a privacidad (en internet no hay privacidad). Si hay aplicaciones gratuitas es porque no somos clientes sino mercancías, nuestros datos interesan a las empresas. Las normas europeas son distintas a las de EE.UU., Facebook, Google, etc. deberían respetar las normas europeas si operan en Europa. Conclusiones: no sentirse engañados sino leer los términos de uso, y establecer unas normas en la red, no un control sino una legalidad siempre democrática. Para CAPO y SEM, (de lorea.org), no se trata de buenos y malos, sino de dos visiones de la humanidad: ¿el hombre es bueno o malo por naturaleza?, si malo entonces vigilancia masiva; si bueno, entonces no control. Se dice que el control es por bien de la humanidad, pero es por interés económico. Pero, ¿quién vigila a los vigilantes? Con Snowden es evidente el estado de vigilancia global, favorecedor de grandes corporaciones y estados que controlan el mundo. Ejemplo, Facebook no tiene herramienta para asambleas, no busca que la gente pueda organizarse y provocar cambios, solo fin económico. Internet no tenía esta finalidad pero ha prevalecido. Apogeo, explosión de las .com, (Web 1.0 el sitio producía contenidos y ganaban dinero; Web 2.0 es el usuario quién los produce y se gana más dinero). Google y Facebook dan servicios gratuitos porque sus usuarios les dan valor. Proponen un cambio: privacidad y anonimato co el cifrado de comunicaciones (en el ciberespacio importa la reputación no la identidad “real”, dada por el estado); software libre, el único que puede dar seguridad (aunque seguridad es un concepto relativo); uso de protocolos TOR para anonimato; Bitmessage para el correo; Twister clon descentralizado de Twitter; Guifi.net, red libre, abierta, neutral y descentralizada de las ISP; pago anónimo con criptomonedas, sin bancos intermediarios y sin embargos de cuentas.Publication Cybersecurity and Network Forensics: Analysis of Malicious Traffic towards a Honeynet with Deep Packet Inspection(MDPI, 2017-10-18) Pimenta Rodrigues, Gabriel; de Oliveira Albuquerque, Robson; Gomes de Deus, Flávio; de Sousa Jr., Rafael; de Oliveira Júnior, Gildásio; García Villalba, Luis Javier; Kim, Tai-HoonAny network connected to the Internet is subject to cyber attacks. Strong security measures, forensic tools, and investigators contribute together to detect and mitigate those attacks, reducing the damages and enabling reestablishing the network to its normal operation, thus increasing the cybersecurity of the networked environment. This paper addresses the use of a forensic approach with Deep Packet Inspection to detect anomalies in the network traffic. As cyber attacks may occur on any layer of the TCP/IP networking model, Deep Packet Inspection is an effective way to reveal suspicious content in the headers or the payloads in any packet processing layer, excepting of course situations where the payload is encrypted. Although being efficient, this technique still faces big challenges. The contributions of this paper rely on the association of Deep Packet Inspection with forensics analysis to evaluate different attacks towards a Honeynet operating in a network laboratory at the University of Brasilia. In this perspective, this work could identify and map the content and behavior of attacks such as the Mirai botnet and brute-force attacks targeting various different network services. Obtained results demonstrate the behavior of automated attacks (such as worms and bots) and non-automated attacks (brute-force conducted with different tools). The data collected and analyzed is then used to generate statistics of used usernames and passwords, IP and services distribution, among other elements. This paper also discusses the importance of network forensics and Chain of Custody procedures to conduct investigations and shows the effectiveness of the mentioned techniques in evaluating different attacks in networks.Publication Detección de fraude bancario en tiempo real utilizando tecnologías de procesamiento distribuido(2016) Mansilla Montero, Javier; Martín Martín, EnriqueEn este Trabajo de Fin de Máster se desarrollará un sistema de detección de fraude en pagos con tarjeta de crédito en tiempo real utilizando tecnologías de procesamiento distribuido. Concretamente se considerarán dos tecnologías: TIBCO, un conjunto de herramientas comerciales diseñadas para el procesamiento de eventos complejos, y Apache Spark, un sistema abierto para el procesamiento de datos en tiempo real. Además de implementar el sistema utilizando las dos tecnologías propuestas, un objetivo, otro objetivo de este Trabajo de Fin de Máster consiste en analizar y comparar estos dos sistemas implementados usados para procesamiento en tiempo real. Para la detección de fraude en pagos con tarjeta de crédito se aplicarán técnicas de aprendizaje máquina, concretamente del campo de anomaly/outlier detection. Como fuentes de datos que alimenten los sistemas, haremos uso de tecnologías de colas de mensajes como TIBCO EMS y Kafka. Los datos generados son enviados a estas colas para que los respectivos sistemas puedan procesarlos y aplicar el algoritmo de aprendizaje máquina, determinando si una nueva instancia es fraude o no. Ambos sistemas hacen uso de una base de datos MongoDB para almacenar los datos generados de forma pseudoaleatoria por los generadores de mensajes, correspondientes a movimientos de tarjetas de crédito. Estos movimientos posteriormente serán usados como conjunto de entrenamiento para el algoritmo de aprendizaje máquina.Publication Detecting Cryptojacking Web Threats: An Approach with Autoencoders and Deep Dense Neural Networks(MPDI, 2022-03-22) Hernández Suárez, Aldo; Sánchez Pérez, Gabriel; Toscano Medina, Linda K.; Olivares Mercado, Jesus; Portillo Portilo, Jose; Avalos, Juan Gerardo; García Villalba, Luis JavierWith the growing popularity of cryptocurrencies, which are an important part of day-to-day transactions over the Internet, the interest in being part of the so-called cryptomining service has attracted the attention of investors who wish to quickly earn profits by computing powerful transactional records towards the blockchain network. Since most users cannot afford the cost of specialized or standardized hardware for mining purposes, new techniques have been developed to make the latter easier, minimizing the computational cost required. Developers of large cryptocurrency houses have made available executable binaries and mainly browser-side scripts in order to authoritatively tap into users’ collective resources and effectively complete the calculation of puzzles to complete a proof of work. However, malicious actors have taken advantage of this capability to insert malicious scripts and illegally mine data without the user’s knowledge. This cyber-attack, also known as cryptojacking, is stealthy and difficult to analyze, whereby, solutions based on anti-malware extensions, blocklists, JavaScript disabling, among others, are not sufficient for accurate detection, creating a gap in multi-layer security mechanisms. Although in the state-of-the-art there are alternative solutions, mainly using machine learning techniques, one of the important issues to be solved is still the correct characterization of network and host samples, in the face of the increasing escalation of new tampering or obfuscation techniques. This paper develops a method that performs a fingerprinting technique to detect possible malicious sites, which are then characterized by an autoencoding algorithm that preserves the best information of the infection traces, thus, maximizing the classification power by means of a deep dense neural network.Publication Developing secure business applications from secure BPMN models(2012) Valdazo Parnisari, Javier; García Clavel, ManuelEn este trabajo se propone una metodología para el desarrollo de aplicaciones seguras de procesos de negocios a partir de modelos BPMN Seguros. Es un proceso de tres pasos. En el primer paso, modelos de ActionGUI son automáticamente generados a partir de un modelo BPMN Seguro. Estos modelos de ActionGUI especifican tanto el comportamiento a alto nivel como la seguridad de la aplicación de negocios deseada. En el segundo paso, el modelador completará los modelos ActionGUI generados con la información relevante de la aplicación de negocios deseada que no puede ser expresada en el modelo BPMN dado. Finalmente, en el tercer paso, usando el generador de código disponible en ActionGUI, la aplicación de negocios deseada es generada automáticamente a partir de los modelos previamente completados. [ABSTRACT] In this work we propose a methodology for developing secure business applications from Secure BPMN models. In a nutshell, it is a three-step process. In the first step, ActionGUI models will be automatically generated from the given Secure BPMN model. These ActionGUI models specify the high-level behaviour, and the security of the desired business application. In the second step, the modeler will complete the generated ActionGUI models with all the relevant information about the desired business application that can not be expressed in the given BPMN model. Finally, in the third step, the desired business application will be automatically generated from the finalized models, using the available ActionGUI code generator.Publication Endpoint Security in Networks: An OpenMP Approach for Increasing Malware Detection Speed(MDPI, 2017-08-27) Forain, Igor; de Oliveira Albuquerque, Robson; Sandoval Orozco, Ana Lucila; García Villalba, Luis Javier; Kim, Tai-HoonIncreasingly sophisticated antivirus (AV) software and the growing amount and complexity of malware demand more processing power from personal computers, specifically from the central processor unit (CPU). This paper conducted performance tests with Clam AntiVirus (ClamAV) and improved its performance through parallel processing on multiple cores using the Open Multi-Processing (OpenMP) library. All the tests used the same dataset constituted of 1.33 GB of data distributed among 2766 files of different sizes. The new parallel version of ClamAV implemented in our work achieved an execution time around 62% lower than the original software version, reaching a speedup of 2.6 times faster. The main contribution of this work is to propose and implement a new version of the ClamAV antivirus using parallel processing with OpenMP, easily portable to a variety of hardware platforms and operating systems.Publication Entorno virtual 3D multiusuario para simulación de escenarios de evacuación(2011) Cruz Ruiz, Fernando; Durbey Carrasco, Alberto; Sanz Briones, Jorge; Gervás Gómez-Navarro, Pablo; León Aznar, CarlosEl uso de entornos virtuales 3D en el ámbito de la simulación de protocolos de evacuación permite avanzar en el desarrollo de estos sistemas, mejorando su efectividad y reduciendo los costes. Este documento recoge el estudio previo y la posterior implementación de un entorno virtual 3D que servirá para simular incendios en la Facultad de Informática de la Universidad Complutense de Madrid. Es un entorno multiusuario cliente – servidor. El documento plantea en primer lugar las limitaciones que presentan actualmente los simulacros de protocolos de evacuación. Se explican posteriormente tanto los orígenes y la evolución de los entornos virtuales, como la integración de los mismos en este tipo de actividades. Finalmente se expone la evolución de las soluciones aportadas para la consecución de los objetivos y las posibles aplicaciones y ampliaciones de este trabajo. [ABSTRACT] The use of 3D virtual environments in the field of evacuation simulations enables the progress in the development of these systems, improving their effectiveness and reducing their costs. This document depicts the prior study and later implementation of a 3D virtual environment that may be used for fire simulations in the Facultad de Informática (IT School) of the Universidad Complutense de Madrid. It is a multi user client/server environment. The document sets forth the limitations currently entailed in evacuation simulations, followed by the explanation of the origins and evolution of virtual environments and their integration in this type of activity. Finally, the evolution of the proposed solutions for the completion of goals is presented, as well as the possible applications and extensions of this project.