english Icono del idioma   español Icono del idioma  

Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12008/20377 Cómo citar
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorGarat, Diego-
dc.contributor.advisorMoncecchi, Guillermo-
dc.contributor.authorLaguna, Rodrigo-
dc.contributor.authorMelli, Diego-
dc.contributor.authorSánchez, Ezequiel-
dc.date.accessioned2019-04-02T20:15:41Z-
dc.date.available2019-04-02T20:15:41Z-
dc.date.issued2018-
dc.identifier.citationLaguna, R, Melli, D y Sánchez, E. Jugador de ZX Spectrum utilizando aprendizaje por refuerzos profundo [en línea] Tesis de grado. Montevideo : UR.FI.INCO, 2018.es
dc.identifier.urihttp://hdl.handle.net/20.500.12008/20377-
dc.description.abstractUno de los desafíos del Aprendizaje Automático desde sus comienzos ha sido la resolución de juegos. Los juegos proveen entornos controlados en donde es posible desarrollar y probar los resultados de distintos algoritmos. En particular, los videojuegos muchas veces presentan problemas que para su resolución requieren de secuencias complejas de acciones: tomar objetos en cierto orden, llevarlos a lugares específicos, entre otros. Este trabajo se plantea como objetivo la creación de un jugador artificial para el videojuego Manic Miner sobre la plataforma ZX Spectrum mediante Aprendizaje profundo. Para esto se desarrollan y comparan agentes que aprenden directamente de los píxeles de la pantalla, entrenados mediante la aplicación de distintas variantes de Deep Q Learning: Deep Q-Network (DQN), Double Deep Q-Network (DDQN) y Dueling Network, combinándolas con técnicas de aprendizaje como Human Checkpoint Replay. También se implementa un entorno para esta plataforma, inexistente hasta el momento, que permite su interacción con el agente y una interfaz interactiva para generar checkpoints y editar niveles. A pesar de la complejidad del juego y del tiempo de entrenamiento que requieren estos algoritmos, se logra superar al primer nivel en más de una oportunidad, al asistir a la exploración del agente mediante Human Checkpoint Replay. Además, se analiza cualitativamente la capacidad del agente entrenado para aplicar sus conocimientos en escenarios ligeramente distintos al de entrenamiento gracias al editor de niveles interactivo desarrollado.es
dc.format.extent87 p.es
dc.format.mimetypeapplication/pdfen
dc.language.isoeses
dc.publisherUR.FI.INCOes
dc.rightsLas obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)es
dc.subjectAprendizaje por refuerzos profundoes
dc.subjectDeep Q-learninges
dc.subjectHuman checkpoint replayes
dc.titleJugador de ZX Spectrum utilizando aprendizaje por refuerzos profundoes
dc.typeTesis de gradoes
dc.contributor.filiacionLaguna Rodrigo, Universidad de la República (Uruguay). Facultad de Ingeniería-
dc.contributor.filiacionMelli Diego, Universidad de la República (Uruguay). Facultad de Ingeniería-
dc.contributor.filiacionSánchez Ezequiel, Universidad de la República (Uruguay). Facultad de Ingeniería-
thesis.degree.grantorUniversidad de la República (Uruguay). Facultad de Ingenieríaes
thesis.degree.nameIngeniero en Computaciónes
dc.rights.licenceLicencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND)es
Aparece en las colecciones: Tesis de grado - Instituto de Computación

Ficheros en este ítem:
Fichero Descripción Tamaño Formato   
tg-laguna-melli-sanchez.pdf3,18 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons