Autores
Orientador(es)
Resumo(s)
A Inteligência Artificial é uma área de estudo que, com o propósito maior
de criar sistemas que apresentem comportamento inteligente, tem vindo a desenvolver
várias abordagens que tentam atender a esse mesmo propósito, normalmente
focando-se nalguma actividade específica associada a inteligência,
como a deliberação ou a aprendizagem.
Especialmente na aprendizagem, existem vários paradigmas utilizados
em sistemas inteligentes, sendo uma delas a aprendizagem por reforço, na
capacidade de um sistema melhorar o seu desempenho numa tarefa, sem
qualquer conhecimento prévio das possíveis configurações do problema ou
das melhores acções a escolher, observando as consequências das suas acções
sob a forma de reforços positivos ou negativos. Estes reforços são processados
de modo a que as próximas acções possam ser mais direccionadas ao objectivo
da tarefa em questão.
Têm vindo a ser desenvolvidos ao longo do tempo vários algoritmos para
este tipo de aprendizagem, e estes têm sido cada vez mais optimizados à
medida que são expostos a problemas progressivamente mais complexos, seja
pela adição de subsistemas que contribuam para uma melhoria do desempenho
de alguma característica específica do sistema, ou pela total substituição
da mesma. A característica em questão nesta dissertação é a estrutura de
memória utilizada em sistemas de aprendizagem por reforço, que nos algoritmos
clássicos pode vir a apresentar limitações em termos de dimensão e de
complexidade.
Pretende-se com esta dissertação apresentar alguns dos métodos clássicos
de aprendizagem por reforço, e observar se a integração de estruturas de
memória episódica pode ou não trazer melhorias para sistemas desta natureza,
através do desenvolvimento de uma biblioteca de aprendizagem por
reforço que permita visualizar o funcionamento de algoritmos já conhecidos,
assim como algoritmos que integrem estruturas de memória episódica.
Artificial Intelligence is a field of study that, with the greater purpose of building systems that show an intelligent behaviour, has been developing a series of approaches that try to attend to that purpose, usually focusing on some specific activity associated with intelligence, like deliberation or learning. Specifically on the subject of learning, there are several paradigms used in intelligent systems, one of them being reinforcement learning, which consists of a system's capability of improving it's performance on a task, without any prior knowledge of the possible configurations of the problem or of the best actions to choose, observing the consequences of its actions in the form of positive and negative reinforcements. These reinforcements are processed in a way that the following actions can be more directed towards the goal of the task in question. Several algorithms for this type of learning have been developed over time, and these have been increasingly optimized as they are exposed to progressively more complex problems, either by the addition of subsystems that contribute to improving the performance of some speci_c feature of the system, or by its full replacement. The feature in question in this dissertation is the memory structure used in reinforcement learning systems, which in classical algorithms may present limitations in terms of size and complexity. The goal of this dissertation is to present some of the classical reinforcement learning methods, and to observe whether or not the integration of episodic memory structures can bring improvements to such systems, through the development of a reinforcement learning library that allows the visualization of known algorithms, and also algorithms that integrate episodic memory structures.
Artificial Intelligence is a field of study that, with the greater purpose of building systems that show an intelligent behaviour, has been developing a series of approaches that try to attend to that purpose, usually focusing on some specific activity associated with intelligence, like deliberation or learning. Specifically on the subject of learning, there are several paradigms used in intelligent systems, one of them being reinforcement learning, which consists of a system's capability of improving it's performance on a task, without any prior knowledge of the possible configurations of the problem or of the best actions to choose, observing the consequences of its actions in the form of positive and negative reinforcements. These reinforcements are processed in a way that the following actions can be more directed towards the goal of the task in question. Several algorithms for this type of learning have been developed over time, and these have been increasingly optimized as they are exposed to progressively more complex problems, either by the addition of subsystems that contribute to improving the performance of some speci_c feature of the system, or by its full replacement. The feature in question in this dissertation is the memory structure used in reinforcement learning systems, which in classical algorithms may present limitations in terms of size and complexity. The goal of this dissertation is to present some of the classical reinforcement learning methods, and to observe whether or not the integration of episodic memory structures can bring improvements to such systems, through the development of a reinforcement learning library that allows the visualization of known algorithms, and also algorithms that integrate episodic memory structures.
Descrição
Dissertação de Mestrado em Engenharia de Redes de Comunicação e Multimédia
Palavras-chave
Agentes inteligentes Intteligent agents Aprendizagem por reforço Reinforcement learning Memória episódica Episodic memory Política comportamental Behaviour policy
Contexto Educativo
Citação
GOMES, André Filipe Casaleiro - Aprendizagem por reforço com memória episódica. Lisboa: Instituto Superior de Engenharia de Lisboa, 2020. Dissertação de mestrado.
Editora
Instituto Superior de Engenharia de Lisboa
