Representation learning for hierarchical reinforcement learning

dc.contributor
Universitat Pompeu Fabra. Departament de Tecnologies de la Informació i les Comunicacions
dc.contributor.author
Steccanella, Lorenzo
dc.date.accessioned
2023-05-26T12:20:46Z
dc.date.available
2023-05-26T12:20:46Z
dc.date.issued
2023-05-19
dc.identifier.uri
http://hdl.handle.net/10803/688366
dc.description.abstract
Hierarchical Reinforcement Learning (HRL) has the potential to simplify the solution of environments with long horizons and sparse rewards. The idea behind HRL is to decompose a complex decision-making problem into smaller, manageable sub-problems, allowing an agent to learn more efficiently and effectively. In this thesis, we aim to contribute to the field of HRL through the study of state space partition representations. We aim to discover representations that allow decomposing a complex state space in a set of small interconnected partitions. We start our work by presenting which are the properties of ideal state space partitions for HRL and then proceed to explore different methods for creating such partitions. We present algorithms able to leverage such representations to learn more effectively in sparse reward settings. Finally, we show how to combine the learned representation with Goal-Conditioned Reinforcement Learning (GCRL) and additionally we present state representations useful for GCRL.
ca
dc.description.abstract
El método Hiearchical Reinforcement Learning (HRL) tiene el potencial de simplificar la solución de entornos con escasas recompensas y horizontes a largo plazo. La idea detrás de HRL es descomponer un problema complejo de toma de decisiones en subproblemas más pequeños y manejables, lo que permite que un agente aprenda de manera más eficiente y efectiva. En esta tesis, pretendemos contribuir al campo del HRL a través del estudio de las representaciones de partición del espacio de estado. Nuestro objetivo es descubrir representaciones que permitan descomponer un espacio de estado complejo en un conjunto de particiones interconectadas. Comenzamos nuestro trabajo presentando cuáles son las propiedades de las particiones de espacio de estado ideales para HRL y luego procedemos a explorar diferentes métodos para crear dichas particiones. Presentamos algoritmos capaces de aprovechar tales representaciones para aprender de manera más efectiva en entornos de escasa recompensa. Finalmente, mostramos cómo combinar la representación aprendida con el método Goal-Conditioned Reinforcement Learning (GCRL) y, adicionalmente, presentamos representaciones de estado útiles para GCRL.
ca
dc.format.extent
127 p.
ca
dc.language.iso
eng
ca
dc.publisher
Universitat Pompeu Fabra
dc.rights.license
L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-sa/4.0/
ca
dc.rights.uri
http://creativecommons.org/licenses/by-nc-sa/4.0/
*
dc.source
TDX (Tesis Doctorals en Xarxa)
dc.subject
Reinforcement learning
ca
dc.subject
Hierarchical reinforcement learning
ca
dc.subject
Goal-conditioned reinforcement learning
ca
dc.subject
Representation learning
ca
dc.subject
Options learning
ca
dc.subject
Reward shaping
ca
dc.subject
Sparse-reward environments
ca
dc.title
Representation learning for hierarchical reinforcement learning
ca
dc.type
info:eu-repo/semantics/doctoralThesis
dc.type
info:eu-repo/semantics/publishedVersion
dc.subject.udc
33
ca
dc.contributor.authoremail
lorenzo.stecanella@upf.edu
ca
dc.contributor.director
Jonsson, Anders
dc.embargo.terms
cap
ca
dc.rights.accessLevel
info:eu-repo/semantics/openAccess
dc.description.degree
Programa de Doctorat en Tecnologies de la Informació i les Comunicacions


Documents

tls.pdf

7.341Mb PDF

Aquest element apareix en la col·lecció o col·leccions següent(s)