[Machine Learning] Generalization bound
수업시간에 다룬 Vapnik - Chervonenkis generalization(VC generalization) 을 표현해봤다. 우리가 Machine Learning을 하는 이유 자체는 개념에도 담겨있다시피 기계를 학습시키기 위함이고, 당연히 미래에 들어올 데이터에 대한 예측을 요구하는 것이다. 이를 위해서는 기존에 받아둔 Sample Data를 가지고, 그 Sample에 대한 hypothesis를 구해서, 최종 결과와 비교해야 한다. 당연히 sample에 대한 hypothesis가 최종 결과와 거의 비슷하게 나오면, 이 hypothesis를 가지고 미래에 들어올 Data를 구별하게 될 것이다. 보통 이런 개념을 In-sample Error와 Out-of-Sample Error간의 차이로 표현하기도 ..
Study/AI
2014. 4. 16. 21:36
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- arduino
- DepthStream
- 강화학습
- windows 8
- Kinect SDK
- Kinect for windows
- processing
- 딥러닝
- ColorStream
- TensorFlow Lite
- Offline RL
- Expression Blend 4
- 한빛미디어
- Kinect
- Distribution
- Windows Phone 7
- Pipeline
- reward
- Python
- SketchFlow
- 파이썬
- Variance
- Off-policy
- End-To-End
- bias
- Gan
- Policy Gradient
- PowerPoint
- dynamic programming
- RL
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함