개발하는 핑구
article thumbnail
[강화학습] Temporal Difference Methods (Q-Learning)
Reinforcement Learning 2023. 5. 26. 17:45

이번 포스팅에서는 Monte-Carlo와 같이 model-free한 방법으로써, Temporal Difference Methods에 대해 다루겠습니다. MC는 한 episode가 끝난 후에 얻은 return값으로 각 state에서 얻은 reward를 시간에 따라 discounting하는 방법으로 value function을 update합니다. 하지만, atrai게임이나 현실의 문제는 episode의 끝이 무한대에 가깝도록 길기 때문에 episode가 반드시 끝나야 학습을 하는 MC의 방법으로는 한계가 존재합니다. DP처럼 time-step마다 학습하면서 model-free한 방법이 바로 TD입니다. Temporal Difference TD는 MC와 DP의 idea를 조합한 방법으로써 MC처럼 model-..

article thumbnail
[강화학습] Monte-Carlo Methods
Reinforcement Learning 2023. 5. 23. 21:53

Model-Free 이전 포스팅에서 Dynamic Programming, policy iteration과 value iteration에 대해 알아보았습니다. Dynamic programming은 Bellman Equation을 통해서 optimal한 해를 찾아내는 방법으로서 MDP에 대한 모든 정보를 가진 상태에서 문제를 풀어나가는 방법입니다. 특히 environment의 MDP인 reward function과 state transition probabilities를 알아야하기 때문에 Model-based한 방법이라고 할 수 있습니다. 이러한 방법에는 아래과 같은 문제점이 있습니다. Full-width Backup ⇒ expensive computation Full knowledge about Envir..

article thumbnail
[강화학습] Planning by Dynamic Programming
Reinforcement Learning 2023. 4. 26. 18:05

http://www.yes24.com/Product/Goods/92337949 바닥부터 배우는 강화 학습 - YES24 강화 학습 기초 이론부터 블레이드 & 소울 비무 AI 적용까지강화 학습을 모르는 초보자도 쉽게 이해할 수 있도록 도와주는 입문서다. 현업의 강화 학습 전문가가 직접 설명해 강화 학습에 가장 www.yes24.com https://dnddnjs.gitbooks.io/rl/content/ https://sumniya.tistory.com/10 ※본 내용은 위의 자료들을 참고하여 작성하였습니다. 강화학습에는 Dynamic programming, Monte-carlo method, Temporal difference method 등 다양한 방법론이 있습니다. 최신 강화학습 알고리즘은 주로 TD..

article thumbnail
동적 프로그래밍 (Dynamic Programming, DP)
Algorithm 2023. 4. 22. 20:00

동적 프로그래밍(Dynamic Programming)이란? 동적 프로그래밍은 복잡한 문제를 작은 문제로 분해하여 해결하는 알고리즘 디자인 기법 중 하나입니다. 분할 정복(Divide and Conquer)과 유사하며, 분할 정복과의 차이점은 동적 프로그래밍은 중복되는 부분 문제가 발생할 때, 그것을 한 번만 계산하고 그 결과를 메모이제이션(Memoization)하여 다른 비슷한 부분 문제들이 다시 발생할 때, 메모이제이션된 결과를 가져와 재활용한다는 것입니다. 동적 프로그래밍을 적용하기 위해서는 다음의 두 가지 조건을 만족해야 합니다. 최적 부분 구조(Optimal Substructure): 전체 문제의 최적해가 부분 문제의 최적해로부터 구해질 수 있어야 합니다. 중복되는 부분 문제(Overlappin..

article thumbnail
Bellman Equation(벨만 방정식)이란?
Reinforcement Learning 2023. 3. 30. 17:12

http://www.yes24.com/Product/Goods/92337949 바닥부터 배우는 강화 학습 - YES24 강화 학습 기초 이론부터 블레이드 & 소울 비무 AI 적용까지강화 학습을 모르는 초보자도 쉽게 이해할 수 있도록 도와주는 입문서다. 현업의 강화 학습 전문가가 직접 설명해 강화 학습에 가장 www.yes24.com https://dana-study-log.tistory.com/18 ※본 내용은 위의 자료들을 참고하여 작성하였습니다. 벨만 방정식은 시점 t에서의 밸류와 시점 t+1에서의 밸류 사이의 관계를 다루며, 가치 함수와 정책 함수 사이의 관계도 다루고 있습니다. 여러 강화학습 알고리즘의 근간이 되는 만큼 중요한 개념입니다. 먼저 벨만 기대 방정식과 벨만 최적 방정식을 0단계부터 2..

article thumbnail
Markov Decision Process (MDP)란?
Reinforcement Learning 2023. 3. 16. 17:35

The Markov Decision Process (MDP) provides a mathematical framework for solving the RL problem. Almost all RL problems can be modeled as an MDP. MDPs are widely used for solving various optimization problems. In this section, we will understand what an MDP is and how it is used in RL. To understand an MDP, first, we need to learn about the Markov property and Markov chain. State Transition (Prob..

article thumbnail
[ROS2 시작하기 - 7] Launch
Robotics/ROS2 2023. 3. 2. 13:37

ROS2 Launch file Launch file will allow you to start many nodes from one single file. you will be able to quickly launch your application and to create different launch files for different nodes of you robot. Create and Install a Launch File cd ros2_ws/src/ ros2 pkg create my_robot_bringup cd my_robot_bringup rm -rf include/ src/ mkdir launch In CMakeLists.txt, remove some codes and in order to ..

article thumbnail
[ROS2 시작하기 - 6] Parameter
Robotics/ROS2 2023. 3. 1. 17:00

ROS2 Parameter Settings for your nodes, value set at run time A Parameter is specific to a node ROS2 Parameter types boolean, int, double, string, lists, … Declare your parameter number_publisher.cpp #include "rclcpp/rclcpp.hpp" #include "example_interfaces/msg/int64.hpp" class NumberPublisherNode : public rclcpp::Node { public: NumberPublisherNode() : Node("number_publisher"), number_(2) { // a..