Markov Decision Process (MDP)
Sequential decision making을 하기 위해 수학적으로 문제를 모델링하는 방법으로 agent 입장에서 문제를 이해하는 방식을 나타낸다. State, Action, Reward, Policy로 이루어진다.
State: Agent의 상황과 행동을 위한 현재의 정보를 나타낸다.
Action: Agent가 어떤 State에서 취할 수 있는 action으로 left, right, up, down과 같은 방향이 그 예가 될 수 있다.
Reward: Reinforcement Learning이라고 불리는 이유와 관계되는 핵심 요소로 Agent의 Action에 대한 평가를 나타낸다.
Policy: Agent가 Reward를 받기 위하여 어떠한 Action을 취해야 하는지를 결정한다.
MDP의 구성 요소
State
Agent의 상황을 나타내는 것으로 로봇의 경우 Sensor값이 된다.
모델을 만들때에는 학습을 하기 위해 충분한 정보가 있는지 체크하여야 한다.
Action
State 에서 가능한 행동
Reward function
State 에서 Action 를 취했을 때 Agent가 받을 Reward
State Transition Probability
Agent가 Current State s에서 어떤 Action a를 취했을 때 Next State s’으로 갈 확률을 나타낸다.
Discount Factor
나중에 받는 Reward에 대해서는 가치를 줄여주는 것으로 Current State와 가까운 Reward일수록 더 큰 가치를 준다.
로 표시하며 0에서 1사이 값이 된다.
Policy
각 State에서 Agent가 취할 Action으로 State가 input이 되고 Action이 output이 된다.
output은 단일 action이 될 수도 있고 각 action들의 probability가 될 수도 있다.
학습을 통해 Optimum Policy를 찾는 것이 최종 목표이다.
Value Function
Agent는 Current State에서 앞으로 받을 Reward들을 고려하여 Action을 선택해야 Optimal Policy에 도달할 수 있다. 이 때 받을 Reward를 예상하는 함수가 Value Function이다.
시간 t에서 단순히 앞으로의 Step들의 Reward를 더한다면 와 같이 될 것이다.
이러한 방식의 문제점은 모든 Step에서의 Reward들에 대한 Weight가 같아서 Current State로 부터의 거리에 대한 정보를 반영할 수가 없다.
만약, Discount Factor를 적용한다면 다음과 같은 형태가 될 것이다.
Value Function은 시간 t에서 State가 s일 때의 Return값 에 대한 Expectation값으로 정의된다.
위 수식을 대입하면, 도 결국은 실제 Reward가 아닌 예상되는 값으로 Value Function으로 표현될 수 있다.
즉, 로 표현된다.
Bellman Expectation Equation
Current State에서 Next State로 넘어갈 때에는 Policy에 따라 Action을 결정한다. 이 때, Policy에 의해 Value Function도 영향을 받는데 이렇게 Policy를 고려한 Value Function을 Bellman Expectation Equation이라고 한다.
Q Function
Agent는 Value Function을 통해 각각의 Next State에 대한 Total Reward를 알 수 있다. 즉, Value Function은 입력이 State가 되고 출력이 Total Reward가 되는 함수이다.
Q Function은 Next State의 Value Function이 아니라 Current State에서 각 Action에 대한 Value Function을 나타내는 것을 의미한다. 즉, State와 Action이라는 두개의 변수를 가진다.
Value Function = Sum of (Policy x Q Function)으로 나타낸다.
Q Function의 Bellman Expectation Equation:
Bellman Equation
Bellman Expectation Equation
Value Function은 Agent가 어떤 State로 갈 경우 받을 Reward의 합에 대한 Expectation을 나타낸다.
여기에 Policy를 반영한 것이 Bellman Expectation Equation이며 아래와 같이 표현한다.
Bellman Optimal Equation
여러가지의 policy중 가장 높은 reward를 주는 value Function
Reinforcement Learning은 MDP로 정의되는 문제에서 Optimal Policy를 찾는 것
좋은 Policy는 Reward의 합인 Value Function으로 판단 -> Value Function으로 Policy를 평가함
Q Function중 가장 높은 Action을 실행 (Q Function으로 행동을 판단)