[MLY] Variance를 줄이는 방법
만약 만든 알고리즘이 high variance에 의해서 어려움을 겪고 있다면, 아래의 방법을 고려해봐라: - 학습 데이터를 추가할 것 : 이 방법은 만약 당신이 데이터에 대해서 많이 접근할 수 있고, 이를 처리할 연산 능력이 충분한 한, Variance 문제를 해결할 수 있는 가장 간단하고 신뢰할 만한 방법이다. - 정규화 방법을 적용해볼 것 (L2 regularization, L1 regularization, dropout) : 이 방법은 variance를 줄여주지만, bias를 높이는 부작용이 있다. - Early Stopping을 적용해볼 것 (예를 들어 개발 데이터 오류에 기반해서 gradient descent를 빨리 멈추게 한다던지...) : 이 방법은 variance를 줄여주지만 bias를 높..
Study/AI
2018. 9. 14. 08:55
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- arduino
- Gan
- Distribution
- DepthStream
- Kinect SDK
- 한빛미디어
- Variance
- windows 8
- bias
- dynamic programming
- PowerPoint
- SketchFlow
- reward
- Off-policy
- RL
- Policy Gradient
- TensorFlow Lite
- Offline RL
- ColorStream
- Windows Phone 7
- End-To-End
- 딥러닝
- 파이썬
- Expression Blend 4
- ai
- 강화학습
- Kinect
- Pipeline
- Kinect for windows
- processing
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함