이런 학습 곡선에 대해서 고려해보자. 이 그래프는 high bias일까. high variance일까, 아니면 두 가지 경우가 합쳐진 걸까? 파란색 학습 오류 곡선은 상대적으로 낮고, 빨간색 개발 데이터의 오류 곡선은 파란색 학습 데이터 오류 곡선에 비해서는 더 크다. 그렇기 때문에 bias는 작고, variance는 큰 것이라고 볼수 있다. 여기서 학습 데이터를 조금 더 추가하면 개발 오류와 학습 오류 사이의 갭을 줄이는데 도움이 될 것이다. 그럼 이번에는 이런 경우를 고려해보자. 이번에는 학습 오류는 원하는 목표치에 비하면 더 큰 것을 알 수 있다. 그리고 개발 데이터 오류 또한 학습 데이터 오류에 비해서 더 큰 것을 알 수 있다. 그렇기 때문에 여기선 bias와 variance가 다 큰 것이라고 알..
개발 데이터 오류 곡선이 아래와 같이 생겼다고 해보자: 이전에도 언급했었지만, 만약 개발데이터에 대한 오류 곡선이 위와 같이 안정화되어 있다면, 데이터를 추가해도 원하는 성능을 얻어내기 힘들 것이다. 하지만 빨간색의 개발 데이터 오류 곡선이 최종적으로 어떻게 형성될 지에 대해서는 정확히 알기 어렵다. 만약 개발 데이터가 작다면, 학습 곡선에 대해서 오차가 존재하기 때문에 뭔가 확실성을 갖기 어려울 것이다. 이 그래프에다가 학습데이터 오류 곡선을 추가해보면 아래와 같다. 이제는 데이터를 추가하는 것만으로는 충분하지 않다는 것을 확실히 알 수 있을 것이다. 왜 그럴까? 두가지 시사점에 대해서 기억해보자: - 우리가 학습 데이터를 더 추가해도 학습 오류는 더 심해질 수 있다. 그렇기에 파란색의 학습 오류 곡선..
- Total
- Today
- Yesterday
- PowerPoint
- RL
- Kinect
- End-To-End
- TensorFlow Lite
- Pipeline
- Windows Phone 7
- ColorStream
- Policy Gradient
- reward
- 딥러닝
- DepthStream
- Gan
- ai
- bias
- Variance
- Kinect for windows
- Off-policy
- 한빛미디어
- arduino
- 강화학습
- Kinect SDK
- Distribution
- 파이썬
- windows 8
- dynamic programming
- SketchFlow
- Expression Blend 4
- processing
- Offline RL
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |