[MLY] Variance를 줄이는 방법
만약 만든 알고리즘이 high variance에 의해서 어려움을 겪고 있다면, 아래의 방법을 고려해봐라: - 학습 데이터를 추가할 것 : 이 방법은 만약 당신이 데이터에 대해서 많이 접근할 수 있고, 이를 처리할 연산 능력이 충분한 한, Variance 문제를 해결할 수 있는 가장 간단하고 신뢰할 만한 방법이다. - 정규화 방법을 적용해볼 것 (L2 regularization, L1 regularization, dropout) : 이 방법은 variance를 줄여주지만, bias를 높이는 부작용이 있다. - Early Stopping을 적용해볼 것 (예를 들어 개발 데이터 오류에 기반해서 gradient descent를 빨리 멈추게 한다던지...) : 이 방법은 variance를 줄여주지만 bias를 높..
Study/AI
2018. 9. 14. 08:55
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- bias
- Kinect SDK
- End-To-End
- Pipeline
- SketchFlow
- Distribution
- TensorFlow Lite
- ColorStream
- RL
- DepthStream
- Kinect for windows
- PowerPoint
- Gan
- 딥러닝
- reward
- Policy Gradient
- 강화학습
- processing
- Off-policy
- windows 8
- 파이썬
- arduino
- dynamic programming
- Windows Phone 7
- Expression Blend 4
- Kinect
- 한빛미디어
- Variance
- Offline RL
- 인공지능
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함