[RL] Q-learning: Off-policy TD Control
(해당 포스트는 Coursera의 Sample-based Learning Methods의 강의 요약본입니다) 사실 Q-learning에 대해서는 옛날에 한 포스트를 통해서 다뤘었는데, 다시 정리를 해보고자 한다. 일단 알고리즘은 아래와 같다. 이전 포스트에서 다뤘던 SARSA와 거의 비슷한데, 한가지 다른 부분이 바로 Value function을 update하는 부분이다. 다시 한번 SARSA의 update 부분을 살펴보자. $$ Q(S_t, A_t) \leftarrow Q(S_t, A_t) + \alpha (\color{red}{R_{t+1}} + \color{red}{\gamma Q(S_{t+1}, A_{t+1})} - Q(S_t, A_t)) $$ 그런데 위의 식은 사실 Dynamic Programm..
Study/AI
2019. 9. 11. 16:54
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- Kinect
- 한빛미디어
- windows 8
- Kinect SDK
- reward
- 강화학습
- Policy Gradient
- Distribution
- arduino
- Gan
- Windows Phone 7
- dynamic programming
- 딥러닝
- ai
- RL
- ColorStream
- Offline RL
- bias
- 파이썬
- Expression Blend 4
- DepthStream
- SketchFlow
- Pipeline
- Off-policy
- Variance
- TensorFlow Lite
- Kinect for windows
- PowerPoint
- processing
- End-To-End
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함