티스토리 뷰
이런 학습 곡선에 대해서 고려해보자.
이 그래프는 high bias일까. high variance일까, 아니면 두 가지 경우가 합쳐진 걸까?
파란색 학습 오류 곡선은 상대적으로 낮고, 빨간색 개발 데이터의 오류 곡선은 파란색 학습 데이터 오류 곡선에 비해서는 더 크다. 그렇기 때문에 bias는 작고, variance는 큰 것이라고 볼수 있다. 여기서 학습 데이터를 조금 더 추가하면 개발 오류와 학습 오류 사이의 갭을 줄이는데 도움이 될 것이다.
그럼 이번에는 이런 경우를 고려해보자.
이번에는 학습 오류는 원하는 목표치에 비하면 더 큰 것을 알 수 있다. 그리고 개발 데이터 오류 또한 학습 데이터 오류에 비해서 더 큰 것을 알 수 있다. 그렇기 때문에 여기선 bias와 variance가 다 큰 것이라고 알 수 있다. 이제 알고리즘 단계에서 bias와 variance를 둘다 줄일 수 있는 방법을 찾아야 한다.
< 해당 포스트는 Andrew Ng의 Machine Learning Yearning 중 chapter 31. Interpreting learning curves: Other cases을 번역한 내용입니다.>
'Study > AI' 카테고리의 다른 글
[MLY] 인간의 성능 지표를 정의하는 방법 (0) | 2018.09.30 |
---|---|
[MLY] 인간이 했을 때의 성능과 비교해야 하는 이유 (0) | 2018.09.27 |
[MLY] 학습 곡선 출력 (0) | 2018.09.26 |
[MLY] 학습 곡선 분석 : high bias (0) | 2018.09.23 |
[MLY] 학습 오류 출력 (0) | 2018.09.23 |
[MLY] 학습 곡선 : bias와 Variance에 대한 판단 (0) | 2018.09.14 |
[MLY] Variance를 줄이는 방법 (0) | 2018.09.14 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- 파이썬
- 딥러닝
- Gan
- 한빛미디어
- TensorFlow Lite
- windows 8
- Variance
- DepthStream
- 강화학습
- reward
- processing
- Off-policy
- dynamic programming
- Pipeline
- bias
- Kinect SDK
- SketchFlow
- Policy Gradient
- Expression Blend 4
- Windows Phone 7
- Offline RL
- Kinect for windows
- ai
- RL
- arduino
- PowerPoint
- Distribution
- End-To-End
- Kinect
- ColorStream
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함