Rodríguez Parrondo, Juan ManuelPérez Calzado, Marina2025-09-182025-09-182025https://hdl.handle.net/20.500.14352/124122La segunda ley de la termodinámica establece que, en un sistema cerrado, la entropía no puede disminuir, lo que impone una dirección en la evolución temporal de los procesos físicos. Sin embargo, ciertos experimentos mentales como el demonio de Maxwell o el motor de Szilárd, han cuestionado esta ley al introducir la posibilidad de emplear la información para reducir la entropía de los sistemas. Este hecho motivó el desarrollo de una nueva rama de la física: la termodinámica de la información. En este trabajo se exploran los fundamentos teóricos que conectan la termodinámica con la teoría de la información, destacando el papel de la entropía de Shannon y la información mutua en la formulación moderna del segundo principio. Se presentan dos marcos formales complementarios para describir sistemas fuera del equilibrio, que permiten generalizar la segunda ley incorporando de manera explícita los efectos de la información en la dinámica de dichos sistemas. Además, se introducen los sistemas bipartitos con flujos de información, donde las correlaciones entre subsistemas pueden utilizarse como recurso termodinámico. Esta formulación se ejemplifica con una simulación numérica de una cadena de Markov bipartita acoplada a dos baños térmicos, en la que se analiza la producción de entropía, la eficiencia informacional y el flujo de trabajo en diferentes regímenes térmicos. Los resultados confirman que la información no viola la segunda ley, sino que redistribuye la disipación dentro del sistema. Este enfoque ofrece nuevas perspectivas para el diseño de motores, sensores y otros dispositivos que aprovechen la información como fuente efectiva de trabajo.The second law of thermodynamics states that, in a closed system, entropy cannot decrease. This imposes a direction on the temporal evolution of physical processes. However, certain gedanken experiments, such as Maxwell’s demon or the Szilárd engine, challenge this law by introducing the possibility of using information to reduce a system’s entropy. This idea motivated the development of a new branch of physics: the thermodynamics of information. This work explores the theoretical foundations connecting thermodynamics with information theory. It highlights the role of Shannon entropy and mutual information in modern formulations of the second law. Two complementary theoretical frameworks are presented to describe out-of-equilibrium systems. These allow generalizations of the second law by explicitly incorporating information into the system’s dynamics. Furthermore, bipartite systems with information flows are introduced. In these systems, correlations between subsystems can be used as a thermodynamic resource. This formulation is illustrated through a numerical simulation of a bipartite Markov chain coupled to two thermal baths. The simulation analyses entropy production, informational efficiency, and workflow under different thermal regimes. The results confirm that information does not violate the second law. Instead, it redistributes dissipation within the system. This approach opens new perspectives for the design of engines, sensors, and devices that harness information as a source of work.spaAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-nd/4.0/Información y entropíaInformation and entropybachelor thesisopen access536Segunda ley de la termodinámicaEntropía de ShannonTeoría de la informaciónDemonio de MaxwellMotor de SzilárdSistema bipartitoCadena de MarkovSecond law of thermodynamicsShannon entropyInformation theoryMaxwell’s demonSzilárd's engineBipartite systemMarkov chainTermodinámica2213 Termodinámica