예를 들어 100여개의 작은 학습 데이터를 가지고 있다고 가정해보자. 아마 10개의 데이터를 랜덤하게 선택해서 알고리즘을 학습시킬 것이고, 그다음에는 20개, 30개, 최종적으로는 100개까지 10의 단위로 갯수를 증가시키면서 학습을 시킬 것이다. 그러고 난 후에 10개의 데이터를 바탕으로 학습 곡선을 출력할 것이다. 아마 적은 학습 데이터 크기에서는 학습 곡선이 약간 오차가 발생하는 것처럼 보일 것이다.(값이 예상한 것보다는 크거나 작거나 할거란 것이다.) 10개의 데이터를 랜덤하게 뽑아서 학습시키면, 수많은 모호하거나 잘못 라벨링된 데이터와 같이 "나쁜" 학습 데이터를 뽑게 될 수 있다. 아니면, 운이 좋아서 상대적으로 "좋은" 학습 데이터를 뽑을 수 있을 것이다. 적은 학습 데이터를 가지고 있다는 ..
이런 학습 곡선에 대해서 고려해보자. 이 그래프는 high bias일까. high variance일까, 아니면 두 가지 경우가 합쳐진 걸까? 파란색 학습 오류 곡선은 상대적으로 낮고, 빨간색 개발 데이터의 오류 곡선은 파란색 학습 데이터 오류 곡선에 비해서는 더 크다. 그렇기 때문에 bias는 작고, variance는 큰 것이라고 볼수 있다. 여기서 학습 데이터를 조금 더 추가하면 개발 오류와 학습 오류 사이의 갭을 줄이는데 도움이 될 것이다. 그럼 이번에는 이런 경우를 고려해보자. 이번에는 학습 오류는 원하는 목표치에 비하면 더 큰 것을 알 수 있다. 그리고 개발 데이터 오류 또한 학습 데이터 오류에 비해서 더 큰 것을 알 수 있다. 그렇기 때문에 여기선 bias와 variance가 다 큰 것이라고 알..
- Total
- Today
- Yesterday
- reward
- 강화학습
- Distribution
- dynamic programming
- bias
- Kinect SDK
- arduino
- Pipeline
- Offline RL
- 딥러닝
- 한빛미디어
- RL
- windows 8
- SketchFlow
- End-To-End
- Gan
- 파이썬
- DepthStream
- processing
- Variance
- Policy Gradient
- ColorStream
- PowerPoint
- Off-policy
- Kinect
- TensorFlow Lite
- Kinect for windows
- Python
- Windows Phone 7
- Expression Blend 4
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |