개발 데이터 오류 곡선이 아래와 같이 생겼다고 해보자: 이전에도 언급했었지만, 만약 개발데이터에 대한 오류 곡선이 위와 같이 안정화되어 있다면, 데이터를 추가해도 원하는 성능을 얻어내기 힘들 것이다. 하지만 빨간색의 개발 데이터 오류 곡선이 최종적으로 어떻게 형성될 지에 대해서는 정확히 알기 어렵다. 만약 개발 데이터가 작다면, 학습 곡선에 대해서 오차가 존재하기 때문에 뭔가 확실성을 갖기 어려울 것이다. 이 그래프에다가 학습데이터 오류 곡선을 추가해보면 아래와 같다. 이제는 데이터를 추가하는 것만으로는 충분하지 않다는 것을 확실히 알 수 있을 것이다. 왜 그럴까? 두가지 시사점에 대해서 기억해보자: - 우리가 학습 데이터를 더 추가해도 학습 오류는 더 심해질 수 있다. 그렇기에 파란색의 학습 오류 곡선..
개발 데이터(그리고 테스트 데이터)의 오류는 학습 데이터량이 증가할수록 감소해야 한다. 하지만 지금 다루고 있는 학습 데이터 상에서의 오류는 학습 데이터 량이 증가해도 보통은 증가할 것이다. 예제와 함께 이런 현상에 대해서 다뤄보고자 한다. 지금 가지고 있는 학습 데이터가 단지 2개의 데이터만 있다고 해보자: 하나는 고양이 그림이고, 다른 하나는 고양이가 아닌 그림이다. 그렇게 되면 학습 데이터 상에서 두가지 케이스에 대해 "기억"시키는 것은 쉬운 일이 될 것이고, 아마 학습 데이터 오류도 0%가 나올 것이다. 학습 데이터에서 하나나 두 개 모두 잘 못 라벨링되어 있다 하더라도, 개발하고 있는 알고리즘이 해당 라벨에 대해서 기억하는 것은 여전히 쉬운 일이 될 것이다. 이제 학습 데이터가 100개정도 된다..
- Total
- Today
- Yesterday
- Gan
- Policy Gradient
- 강화학습
- Pipeline
- Expression Blend 4
- 파이썬
- bias
- reward
- Kinect
- Kinect for windows
- windows 8
- Distribution
- 딥러닝
- SketchFlow
- Off-policy
- arduino
- TensorFlow Lite
- dynamic programming
- RL
- ColorStream
- Windows Phone 7
- processing
- Python
- Offline RL
- Kinect SDK
- PowerPoint
- DepthStream
- 한빛미디어
- End-To-End
- Variance
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |