bias와 variance 문제를 해결하기 위한 가장 간단한 공식을 살펴보자:- 만약 high avoidable bias가 있다면, 지금 학습하는 모델의 크기를 키워라(예를 들어 학습시키는 신경망에 계층을 추가하거나 뉴런의 갯수를 추가하는 방식으로 사이즈를 키우는 것) - 만약 high variance라면, 학습 데이터를 더 모아라 만약 아무 제한 없이 신경망의 크기를 키울 수 있고, 학습 데이터도 증가시킬 수 있다면, 많은 학습 문제들이 잘 해결될 것이다. 하지만 실전에서는, 모델의 크기를 키우게 되면 결과적으로 연산 문제에 직면하게 되는데, 그 이유는 매우 큰 모델을 학습시키는 작업이 매우 느리기 때문이다. 또한 학습 데이터를 모으는 것도 많이 어려울 것이다.(앞의 예를 가져올때, 인터넷이 연결되어 ..
이전에 다뤘던 고양이 인식 예시에서, "이상적인" 오류율이란 "이상적인" 분류기를 통해서 얻을 수 있는 것, 즉 거의 0%의 오류율을 얻는 것이다. 인간이 거의 고양이가 들어 있는 사진을 잘 인식하는 것과 같이 기계도 동일하게 잘해주길 원한다. 이렇게 인식하는 것이 아닌 다른 문제는 조금 더 어렵다. 예를 들어 음성 인식 시스템을 만들고 있을때, 14% 정도의 음성이 많은 배경 소음을 담고 있던가, 인간이 들어도 제대로 인식하기 힘들만큼 불분명한 것을 알았다. 이런 케이스라면 "이상적인" 음성 인식 시스템은 거의 14%의 오류율을 나타낼 것이다. 해당 음성 인식 문제에서 만든 알고리즘이 다음과 같은 성능을 얻었다고 치자: - 학습 데이터 오류 = 15% - 개발 데이터 오류 = 30% 학습 데이터를 통한..
- Total
- Today
- Yesterday
- Distribution
- Kinect for windows
- Gan
- Kinect SDK
- Offline RL
- PowerPoint
- 강화학습
- windows 8
- Kinect
- arduino
- RL
- Policy Gradient
- SketchFlow
- Expression Blend 4
- 한빛미디어
- Off-policy
- Windows Phone 7
- DepthStream
- reward
- 파이썬
- ColorStream
- processing
- TensorFlow Lite
- Variance
- 딥러닝
- bias
- dynamic programming
- Pipeline
- End-To-End
- Python
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |