티스토리 뷰
KL Divergence는 distribution간의 차이를 표현해주는 information? 0에 가까우면, 그만큼 두 distribution의 차이는 거의 없다. KL Divergence는 항상 양수의 값을 가지며, 역에 대한 식은 같지 않다.
위의 그림은 true distribution(p)이 있을 때, 임의의 distribution(q)이 잘 쫓아가는지를 확인하려고 변화하는 경향을 animation으로 표현한 것이다. 구현코드는 참고!
'Study > AI' 카테고리의 다른 글
[RL] Offline (batch) Reinforcement Learning의 의미와 적용 (2) | 2022.03.18 |
---|---|
[RL] Windows에서 Dopamine 설치 (0) | 2021.12.22 |
[RL] MuJoCo 2.1.0 무료 공개 (5) | 2021.10.21 |
[DL][Embedded] Semantic Segmentation on Coral Dev board (0) | 2021.08.20 |
[ML][TIP] Logistic Regression에서의 coefficient를 통한 Feature importance 확인 (2) | 2021.04.14 |
[ML] Theory of the perceptron (2) | 2021.02.02 |
[RL] Windows 10에서 mujoco_py 구동 (12) | 2021.01.26 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- Kinect SDK
- ColorStream
- 강화학습
- DepthStream
- reward
- 딥러닝
- Offline RL
- Kinect for windows
- ai
- windows 8
- Expression Blend 4
- Pipeline
- Variance
- RL
- arduino
- Gan
- Policy Gradient
- TensorFlow Lite
- PowerPoint
- bias
- End-To-End
- Off-policy
- dynamic programming
- Kinect
- processing
- 파이썬
- 한빛미디어
- SketchFlow
- Distribution
- Windows Phone 7
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함