logo

[강화학습] Q-러닝

 

Q-러닝 소개

 

Q-러닝이란 무엇인가

Q-러닝은 머신러닝의 한 분야인 강화학습 방법론 중 하나로, 에이전트가 환경과 상호작용하면서 최적의 행동 정책을 학습하는 과정입니다. Q-러닝에서 'Q'는 에이전트가 특정 상태에서 특정 행동을 취할 때 얻을 수 있는 "품질" 또는 "가치"를 의미합니다. 이 알고리즘은 어떠한 상태에서 어떤 행동을 취했을 때 받을 수 있는 예상 보상을 나타내는 Q-값(Q-Value)을 업데이트하면서 최적의 행동 정책을 찾아갑니다.

 

강화학습과 Q-러닝의 관계

강화학습은 학습하는 에이전트가 환경과 상호작용하며, 시행착오를 통해 보상을 최대화하는 방법을 학습하는 과정입니다. Q-러닝은 이러한 강화학습의 목표를 달성하기 위해 사용되는 주요 알고리즘 중 하나로, 에이전트가 상태변이 상태 공간에서의 최적의 행동을 찾는 데 중점을 둡니다.

 

Q-러닝의 중요성과 장점

Q-러닝의 가장 큰 장점은 특정한 모델 없이도 환경에 대한 최적의 행동 정책을 찾을 수 있다는 점입니다. 이러한 특성 때문에 모델이 알려지지 않은 복잡한 환경에서도 유용하게 사용될 수 있습니다. 또한, Q-러닝은 연속적이지 않는(discrete) 환경과 행동 공간에서 효율적으로 작동하며, 시간이 지남에 따라 더 나은 정책으로 수렴하는 성질을 가지고 있습니다.

 

Q-러닝의 원리

 

에이전트, 환경, 상태, 행동, 보상의 개념 소개

  • 에이전트(Agent): 학습 주체로, 환경과 상호작용하며 학습합니다.
  • 환경(Environment): 에이전트가 상호작용하는 외부 세계로, 에이전트의 행동에 반응합니다.
  • 상태(State): 환경의 현재 상황 또는 조건을 나타냅니다.
  • 행동(Action): 에이전트가 상태에 따라 취할 수 있는 결정 또는 동작입니다.
  • 보상(Reward): 행동의 결과로 환경으로부터 받는 피드백으로, 에이전트가 목표를 달성하도록 유도합니다.
 

Q-함수의 정의와 역할

Q-함수는 에이전트가 특정 상태에서 특정 행동을 취했을 때 예상되는 미래 보상의 총합을 나타내는 함수입니다. 이 함수의 주된 역할은 각 행동의 가치를 평가하여 에이전트가 최적의 결정을 내릴 수 있도록 하는 것입니다.

 

Q-값(Q-Value)과 Q-테이블(Q-Table)의 이해

Q-값은 특정 상태에서 특정 행동을 취했을 때의 Q-함수 값으로, 예상되는 미래 보상의 총합을 수치화한 것입니다. Q-테이블은 모든 상태와 가능한 행동 조합에 대한 Q-값을 저장하는 표입니다. 에이전트는 이 테이블을 참조하여 현재 상태에서 어떤 행동을 취할 것인지 결정합니다.

 

벨만 방정식(Bellman Equation)과 Q-러닝 업데이트 공식

벨만 방정식은 현재의 보상과 미래의 최대 예상 보상의 합으로 현재의 상태 가치를 나타냅니다. Q-러닝의 업데이트 공식은 다음과 같습니다.

Q(s,a)Q(s,a)+α[r+γmaxaQ(s,a)Q(s,a)] Q(s,a) \leftarrow Q(s,a) + \alpha [r + \gamma \max_{a'} Q(s',a') - Q(s,a)]

여기서,

  • ss: 현재 상태
  • aa: 취한 행동
  • rr: 보상
  • ss': 새로운 상태
  • α\alpha: 학습률
  • γ\gamma: 할인율
  • maxaQ(s,a)\max_{a'} Q(s',a'): 새로운 상태에서 가능한 모든 행동 중 최대 Q-값
 

Q-러닝 알고리즘

 

초기화: Q-테이블의 초기화 방법

Q-테이블은 초기에 0 또는 작은 무작위 값을 가지도록 초기화합니다. 이는 학습을 시작하기 전에 에이전트가 어떤 행동이 최선인지 모른다는 가정에서 출발합니다.

 

탐색과 이용의 균형(Exploration vs Exploitation)

탐색(Exploration)은 새로운 행동을 시도함으로써 환경에 대한 지식을 넓히는 것을 의미하고, 이용(Exploitation)은 이미 알려진 정보를 기반으로 최적의 행동을 선택하는 것을 말합니다. 에이전트는 이 두 가지를 적절히 조절하여 최적의 정책을 찾아갑니다.

 

학습률(learning rate, α\alpha)과 할인율(discount rate, γ\gamma)의 역할

  • **학습률(α\alpha)**은 새로운 정보를 얼마나 빠르게 받아들일지 결정합니다. 높은 학습률은 이전 지식을 빠르게 잊고 새 정보를 빠르게 받아들이는 것을 의미합니다.
  • **할인율(γ\gamma)**은 미래 보상의 현재 가치를 결정합니다. 할인율이 낮으면 에이전트는 더 즉각적인 보상을 선호하게 됩니다.
 

Q-러닝 알고리즘의 단계별 프로세스 설명

  1. 초기화: Q-테이블을 초기값으로 설정합니다.
  2. 루프 반복:
    • 현재 상태에서 행동을 선택합니다. (탐색 또는 이용)
    • 선택한 행동을 수행하여 보상을 받고 새로운 상태로 이동합니다.
    • Q-테이블을 업데이트합니다.
    • 새로운 상태는 다음 반복의 현재 상태가 됩니다.
  3. 종료 조건이 만족될 때까지 2단계를 반복합니다.

이 과정을 통하여, 에이전트는 환경 내에서 최적의 행동 정책을 학습하게 됩니다.

Previous
SARSA 알고리즘