[MLY] Variance를 줄이는 방법
만약 만든 알고리즘이 high variance에 의해서 어려움을 겪고 있다면, 아래의 방법을 고려해봐라: - 학습 데이터를 추가할 것 : 이 방법은 만약 당신이 데이터에 대해서 많이 접근할 수 있고, 이를 처리할 연산 능력이 충분한 한, Variance 문제를 해결할 수 있는 가장 간단하고 신뢰할 만한 방법이다. - 정규화 방법을 적용해볼 것 (L2 regularization, L1 regularization, dropout) : 이 방법은 variance를 줄여주지만, bias를 높이는 부작용이 있다. - Early Stopping을 적용해볼 것 (예를 들어 개발 데이터 오류에 기반해서 gradient descent를 빨리 멈추게 한다던지...) : 이 방법은 variance를 줄여주지만 bias를 높..
Study/AI
2018. 9. 14. 08:55
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- Gan
- TensorFlow Lite
- DepthStream
- SketchFlow
- 딥러닝
- ai
- Off-policy
- Offline RL
- Windows Phone 7
- Kinect for windows
- Variance
- Pipeline
- End-To-End
- 강화학습
- reward
- PowerPoint
- bias
- Policy Gradient
- 파이썬
- Expression Blend 4
- arduino
- 한빛미디어
- Distribution
- RL
- windows 8
- Kinect
- dynamic programming
- processing
- Kinect SDK
- ColorStream
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함