만약 현재 하고 있는 작업이 high avoidable bias에 의해서 어려움을 겪는다면, 아래의 방법들을 시도해보면 좋을것 같다.: - (neuron이나 계층의 갯수 같은) 모델의 크기를 증가시켜라: 이 방법은 bias를 줄여주는데, 이 방법을 통해서 학습 데이터에 더 잘 동작하게 해준다. 만약 이 방식이 variance를 증가시킬 수 있을텐데, 이 때 정규화 방식을 사용하면 variance의 증가를 막을 수 있다. - 오류평가시 얻은 지식을 기반으로 입력 특성을 수정하라: 만약 오류 평가를 통해서 특정 특성을 지닌 오류 카테고리를 제거할 수 있을 법한 기능을 만들어야 되겠다는 생각이 들었을 때를 보자. 이런 기능은 어쩌면 bias와 variance 관점에서 모두 도움이 될 수 있다. 이론적으로 특성..
보통 Bias와 Variance간의 tradeoff 라는 용어를 들어봤을 것이다. 대부분의 학습 알고리즘을 살펴보면 bias 오류를 줄이면 variance에 대한 비용이 증가하거나 반대의 case가 발생하는 경우를 봤을 것이다. 이게 바로 bias와 variance간의 "trade off"를 의미하는 것이다. 예를 들어 신경망의 layer나 neuron을 추가하는 것과 같이 학습 모델의 사이즈를 키우는 것은 일반적으로 bias를 줄이지만, 반대로 variance를 증가시킨다. 다른 방향으로 정규화 특성을 키우게 되면, variance는 감소하지만, bias가 증가하는 형태를 보인다. 요즘에는 매우 큰 신경망에서도 돌릴 수 있을 만큼 데이터가 엄청 많다. 그렇기 때문에 위에서 말한 "trade off"는 ..
- Total
- Today
- Yesterday
- 한빛미디어
- Distribution
- Kinect SDK
- SketchFlow
- Policy Gradient
- DepthStream
- windows 8
- dynamic programming
- Expression Blend 4
- arduino
- Offline RL
- bias
- Kinect
- 파이썬
- ColorStream
- Variance
- PowerPoint
- 딥러닝
- Gan
- TensorFlow Lite
- Off-policy
- End-To-End
- 강화학습
- reward
- processing
- RL
- Kinect for windows
- Windows Phone 7
- Pipeline
- Python
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |