dynamic를 모르는 상태에서의 optimal control을 이해하고, 강화학습을 전개하는 입장에서 관점을 제공해주는 엄청 심플한 baseline이 있을까? 일단 매우 일반화가 된 예에서 시작해보자. 일반적으로 알려진 optimal한 제어 문제는 다음 형태를 띈다:\( \text{maximize}_{u_{t}} \;\; \mathbb E_{e_{t}}[\sum_{t=0}^{N}R_{t}[x_{t}, u_{t}]] \) \( \text{subject to} \;\; x_{t+1} = f(x_{t}, u_{t}, e_{t}) \) \( (x_{0} \; \text{given}) \) 여기서 \(x_{t}\)는 system의 state이고, \(u_{t}\)는 제어 action이고, \(e_{t}\)는 랜..
Study/AI
2019. 2. 21. 18:39
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- 파이썬
- ColorStream
- Off-policy
- windows 8
- SketchFlow
- Kinect for windows
- 인공지능
- 강화학습
- Distribution
- Kinect
- Windows Phone 7
- 딥러닝
- Pipeline
- TensorFlow Lite
- End-To-End
- reward
- Gan
- bias
- Expression Blend 4
- arduino
- Variance
- Kinect SDK
- PowerPoint
- dynamic programming
- RL
- Policy Gradient
- Offline RL
- 한빛미디어
- DepthStream
- processing
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함