Aviso: para depositar documentos, por favor, inicia sesión e identifícate con tu cuenta de correo institucional de la UCM con el botón MI CUENTA UCM. No emplees la opción AUTENTICACIÓN CON CONTRASEÑA
 

Micro-control de unidades en combates de StarCraft

dc.contributor.advisorSánchez Ruiz-Granados, Antonio Alejandro
dc.contributor.authorAscanio Gómez, Miguel
dc.contributor.authorCasas Ortiz, Alberto
dc.contributor.authorMartín Guadaño, Raúl
dc.date.accessioned2023-06-21T06:19:06Z
dc.date.available2023-06-21T06:19:06Z
dc.date.issued2016
dc.degree.titleGrado en Ingeniería Informática
dc.descriptionTrabajo de Fin de Grado en Ingeniería Informática (Universidad Complutense, Facultad de Informática, curso 2015/2016)
dc.description.abstractUno de los principales objetivos de la inteligencia artificial es conseguir entidades que actúen de forma autónoma ante diferentes situaciones sin necesidad de que haya un humano detrás decidiendo la siguiente acción. Cuando nos encontramos en un mundo estático e inmóvil, es posible conseguir crear un algoritmo que resuelva los problemas de manera eficaz, pero cuando el mundo en el que nos encontramos varía, pueden surgir nuevos problemas nuevos para los que el algoritmo original no funcione, por lo que necesitamos que nuestra entidad, o bot, aprenda a lidiar con ellos. Un ejemplo de mundo variante puede ser el propio mundo de StarCraft [14], un videojuego de estrategia en el que dispondremos de una base y una serie de unidades que debemos controlar con el objetivo de destruir la base enemiga. En un entorno así, a veces es difícil gestionar las diferentes situaciones para conseguir ganar, por ello, este proyecto tiene como objetivo construir un bot que aprenda a controlar varias unidades y a lidiar con las diferentes situaciones que aparezcan, permitiendo descubrir estrategias para ganar a partir de la experiencia del propio bot. Dado que no siempre sabemos en qué situación nos vamos a encontrar, parece idóneo utilizar el aprendizaje por refuerzo, que permite aprender de un entorno del que inicialmente no se tienen datos a través de la experiencia utilizando como medio un sistema de compensación de las diferentes acciones tomadas en función de sus consecuencias.
dc.description.abstractOne of the main goals in artificial intelligence is to achieve entities that act autonomously against different situations with no need of a human being deciding what to do. In the case in which we are in an immovable and static world, it is possible to code an algorithm that solve problems efficiently, but when we are in a variable world, there may arise new problems to which our algorithm cannot work, in that case, we need our entity to learn to confront those problems. An example of variable world can be the world of StarCraft [14], a strategy game in which we dispose of a base and a serie of units that we must control with the goal of destroying the enemy base. In that kind of environment, it is occasionally difficult to manage the different situations to reach our goal, that’s why the main objective of this project is to code a bot which learn to control groups of units and to confront the different situations, allowing the bot to discover strategies to win the game learning from its own experience. According to the fact that we don’t know in which situations we’ll be, it seems to be ideal to use the reinforcement learning, which allows the bot to learn interacting with the environment from where initially it has no data through experience, using for that task a system of compensation of the different actions carried out in function of its consequences.
dc.description.departmentDepto. de Ingeniería de Software e Inteligencia Artificial (ISIA)
dc.description.facultyFac. de Informática
dc.description.refereedTRUE
dc.description.statusunpub
dc.eprint.idhttps://eprints.ucm.es/id/eprint/38689
dc.identifier.urihttps://hdl.handle.net/20.500.14352/66061
dc.language.isospa
dc.page.total85
dc.rightsAtribución-NoComercial 3.0 España
dc.rights.accessRightsopen access
dc.rights.urihttps://creativecommons.org/licenses/by-nc/3.0/es/
dc.subject.cdu004.928(043.3)
dc.subject.cdu004.8(043.3)
dc.subject.cdu004.85(043.3)
dc.subject.keywordInteligencia artificial
dc.subject.keywordAprendizaje automático
dc.subject.keywordStarCraft
dc.subject.keywordAprendizaje por refuerzo
dc.subject.keywordq-learning
dc.subject.keywordFramework
dc.subject.keywordVideojuegos
dc.subject.keywordBWAPI
dc.subject.keywordTrabajo de fin de grado
dc.subject.keywordConductismo
dc.subject.keywordArtificial intelligence
dc.subject.keywordMachine learning
dc.subject.keywordReinforcement learning
dc.subject.keywordVideo games
dc.subject.keywordFinal degree project
dc.subject.keywordBehaviorism
dc.subject.ucmInteligencia artificial (Informática)
dc.subject.unesco1203.04 Inteligencia Artificial
dc.titleMicro-control de unidades en combates de StarCraft
dc.typebachelor thesis
dspace.entity.typePublication
relation.isAdvisorOfPublication90c1631c-e546-4b8e-b5f2-c12ab516957c
relation.isAdvisorOfPublication.latestForDiscovery90c1631c-e546-4b8e-b5f2-c12ab516957c

Download

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Memoria tfg.pdf
Size:
2.53 MB
Format:
Adobe Portable Document Format