[RL] The Linear Quadratic Regulator
dynamic를 모르는 상태에서의 optimal control을 이해하고, 강화학습을 전개하는 입장에서 관점을 제공해주는 엄청 심플한 baseline이 있을까? 일단 매우 일반화가 된 예에서 시작해보자. 일반적으로 알려진 optimal한 제어 문제는 다음 형태를 띈다:\( \text{maximize}_{u_{t}} \;\; \mathbb E_{e_{t}}[\sum_{t=0}^{N}R_{t}[x_{t}, u_{t}]] \) \( \text{subject to} \;\; x_{t+1} = f(x_{t}, u_{t}, e_{t}) \) \( (x_{0} \; \text{given}) \) 여기서 \(x_{t}\)는 system의 state이고, \(u_{t}\)는 제어 action이고, \(e_{t}\)는 랜..
Study/AI
2019. 2. 21. 18:39
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- ColorStream
- PowerPoint
- 한빛미디어
- 딥러닝
- processing
- windows 8
- Offline RL
- Policy Gradient
- bias
- Kinect SDK
- Gan
- Distribution
- dynamic programming
- ai
- Kinect
- reward
- Variance
- Off-policy
- RL
- TensorFlow Lite
- End-To-End
- Pipeline
- Expression Blend 4
- Windows Phone 7
- Kinect for windows
- DepthStream
- 파이썬
- 강화학습
- SketchFlow
- arduino
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함