티스토리 뷰

Study/AI

[MLY] Machine Learning Yearning Overview

생각많은 소심남 2018. 10. 16. 20:32

 보통 머신러닝 업계에서는 몇몇 대가를 손꼽을 수 있는데, 그중 머신러닝의 대중화에 큰 영향을 준 사람으로 Andrew Ng을 많이 뽑는다. 이 분은 Stanford 교수로 있다가 Coursera라는 MOOC를 개설하면서 자신의 머신러닝 강좌를 무료로 공개했다. 그 밖에도 업계에서 기여한 부분이 크겠지만, 개인적으로는 이게 제일 큰 업적이 아닐까 싶다. 아무튼 Ng 교수가 2018년 7월부터 Machine Learning Yearning 이라는 책을 온라인 버전으로 무료로 공개하기 시작했다. 

 책 제목을 굳이 번역하자면 "머신러닝에 대한 열망" 정도가 될텐데, 엄청난 머신러닝 관련 알고리즘이나 기법을 장황하게 설명해둔 것이 아니라 적어도 머신러닝을 활용한 업무에서 참고해야 될 부분이나 간략한 이론적 기반을 설명하고 있다. 그래서 책 자체는 58장으로 구성되어 있긴 한데, 실제 책은 100여 페이지밖에 안된다. 나도 본격적으로 읽기 시작한 것은 9월 초였었는데, 책의 내용이 명확하고 뭔가 해당 업계에 있는 사람으로써 이 책이 주는 시사점에 감명을 받았었다. 사실 책의 제일 마지막에 이런 표현이 있다.

"The only thing better than being a superhero is being part of a superhero team"

 스스로가 머신러닝의 전문가가 되는 것보다 더 좋은 방법은 머신러닝 전문가 그룹의 일원이 되라는 것이다. 이 말에 동감하면서 각각의 장을 번역해서 블로그에 공유했고, 오늘로써 번역을 마무리했다. 혹시 머신러닝에 관심이 있거나 조금더 관심을 가져보려는 입문자에게는 도움이 되는 자료였으면 하는 마음이다.

(혹시라도 번역에 문제가 있거나 질문이 있으신 분은 해당 포스트에 댓글로 달아주시거나 kcsgoodboy at naver dot com 으로 메일을 주면 바로 피드백드리겠습니다.)

원서 : 

Ng_MLY01_13.pdf

번역 내용 :

(4. Scale drives machine learning progress)
2018/09/01 - [About Study/ML DL RL] - [MLY] 모델의 크기가 머신러닝의 성능을 향상시키다.

(5. Your development and test sets)
2018/09/01 - [About Study/ML DL RL] - [MLY] 현재 사용중인 개발 데이터와 테스트 데이터

(6. Your dev and test sets should come from the same distribution)
2018/09/02 - [About Study/ML DL RL] - [MLY] 개발 데이터와 테스트 데이터는 같은 분포를 가지고 있어야 한다.

(7. How large do the dev/test sets need to be?)
2018/09/02 - [About Study/ML DL RL] - [MLY] 개발 데이터와 테스트 데이터는 얼마나 많이 수집해야 할까?

(8. Establish a single-number evaluation metric for your team to optimize)
2018/09/02 - [About Study/ML DL RL] - [MLY] 최적화를 위해서는 단수 형태의 평가 지표를 취해라

(9. Optimizing and satisficing metrics)
2018/09/02 - [About Study/ML DL RL] - [MLY] 최적화 지표와 만족 지표

(10. Having a dev set and metric speeds up iterations)
2018/09/03 - [About Study/ML DL RL] - [MLY] 개발 데이터와 지표는 반복작업을 빠르게 해준다.

(11. When to change dev/test sets and metrics)
2018/09/05 - [About Study/ML DL RL] - [MLY] 개발/테스트 데이터와 평가 지표를 바꿔야 하는 경우

(12. Takeaways: Setting up development and test sets)
2018/09/05 - [About Study/ML DL RL] - [MLY] 개발 환경과 테스트 데이터를 설정하는 데 있어 고려해야 할 사항들

(13. Build your first system quickly, then iterate)
2018/09/05 - [About Study/ML DL RL] - [MLY] 빠르게 구현하고 나서 반복하기

(14. Error analysis: Look at dev set examples to evaluate ideas)
2018/09/06 - [About Study/ML DL RL] - [MLY] 오류 평가: 아이디어 검증을 위한 개발 데이터 예제 탐색

(15. Evaluating multiple ideas in parallel during error analysis)
2018/09/06 - [About Study/ML DL RL] - [MLY] 오류 평가 간에 여러개의 아이디어를 병렬로 평가하기

(16. Cleaning up mislabeled dev and test set examples)
2018/09/08 - [About Study/ML DL RL] - [MLY] 개발 데이터상에 잘못 라벨링된 것 정리하기

(17. If you have a large dev set, split it into two subsets, only one of which you look at)
2018/09/08 - [About Study/ML DL RL] - [MLY] 개발 데이터가 많은 경우, 두 집합으로 나누고 하나에서만 확인하기

(18. How big should the Eyeball and Blackbox dev sets be?)
2018/09/09 - [About Study/ML DL RL] - [MLY] Eyeball 데이터와 Blackbox 데이터는 얼마나 커야 할까?

(19. Takeaways: Basic error analysis)
2018/09/10 - [About Study/ML DL RL] - [MLY] 기본적인 오류 평가시 고려해야 할 사항

(20. Bias and Variance: The two big sources of error)
2018/09/10 - [About Study/ML DL RL] - [MLY] Bias와 Variance: 오류를 발생시키는 두개의 요인

(21. Examples of Bias and Variance)
2018/09/10 - [About Study/ML DL RL] - [MLY] Bias와 Variance의 예시들

(22. Comparing to the optimal error rate)
2018/09/11 - [About Study/ML DL RL] - [MLY] 이상적인 오류율과의 비교

(23. Addressing Bias and Variance)
2018/09/11 - [About Study/ML DL RL] - [MLY] Bias와 Variance에 대한 해결 방법

(24. Bias vs. Variance tradeoff)
2018/09/12 - [About Study/ML DL RL] - [MLY] bias와 Variance간 tradeoff

(25. Techniques for reducing avoidable bias)
2018/09/12 - [About Study/ML DL RL] - [MLY] avoidable bias를 줄이는 방법들

(26. Error analysis on the training set)
2018/09/14 - [About Study/ML DL RL] - [MLY] 학습 데이터 상에서의 오류 평가

(27. Techniques for reducing variance)
2018/09/14 - [About Study/ML DL RL] - [MLY] Variance를 줄이는 방법

(28. Diagnosing bias and variance: Learning curves)
2018/09/14 - [About Study/ML DL RL] - [MLY] 학습 곡선 : bias와 Variance에 대한 판단

(29. Plotting training error)
2018/09/23 - [About Study/ML DL RL] - [MLY] 학습 오류 출력

(30. Interpreting learning curves: High bias)
2018/09/23 - [About Study/ML DL RL] - [MLY] 학습 곡선 분석 : high bias

(31. Interpreting learning curves: Other cases)
2018/09/26 - [About Study/ML DL RL] - [MLY] 학습 곡선 분석 : 다른 케이스들

(32. Plotting learning curves)
2018/09/26 - [About Study/ML DL RL] - [MLY] 학습 곡선 출력

(33. Why we compare to human-level performance)
2018/09/27 - [About Study/ML DL RL] - [MLY] 인간이 했을 때의 성능과 비교해야 하는 이유

(34. How to define human-level performance)
2018/09/30 - [About Study/ML DL RL] - [MLY] 인간의 성능 지표를 정의하는 방법

(35. Surpassing human-level performance)
2018/09/30 - [About Study/ML DL RL] - [MLY] 인간 성능을 극복하는 것

(36. When you should train and test on different distributions)
2018/10/01 - [About Study/ML DL RL] - [MLY] 각각 다른 분포상에서 train과 test를 해야 되는 경우

(37. How to decide whether to use all your data)
2018/10/02 - [About Study/ML DL RL] - [MLY] 당신이 가진 데이터 모두를 사용해야 할지 여부를 결정하는 방법

(38. How to decide whether to include inconsistent data)
2018/10/03 - [About Study/ML DL RL] - [MLY] 모순된 데이터를 넣을지 여부를 결정하는 방법

(39. Weighting data)
2018/10/03 - [About Study/ML DL RL] - [MLY] 데이터에 가중치 부여하기

(40. Generalizing from the training set to the dev set)
2018/10/03 - [About Study/ML DL RL] - [MLY] 학습 데이터부터 개발 데이터까지 일반화하는 방법

(41. Identifying Bias, Variance, and Data Mismatch Errors)
2018/10/05 - [About Study/ML DL RL] - [MLY] Bias, Variance, Data mismatch 오류 확인하기

(42. Addressing data mismatch)
2018/10/05 - [About Study/ML DL RL] - [MLY] 데이터 불일치 해결하기

(43. Artificial data synthesis)
2018/10/05 - [About Study/ML DL RL] - [MLY] 인위적 데이터 합성

(44. The Optimization Verification test)
2018/10/09 - [About Study/ML DL RL] - [MLY] 최적화 검증 테스트

(45. General form of Optimization Verification test)
2018/10/10 - [About Study/ML DL RL] - [MLY] 최적화 검증 테스트의 일반적인 형태

(46. Reinforcement learning example)
2018/10/10 - [About Study/ML DL RL] - [MLY] 강화학습 예제

(47. The rise of end-to-end learning)
2018/10/11 - [About Study/ML DL RL] - [MLY] end-to-end 학습의 성장

(48. More end-to-end learning examples)
2018/10/12 - [About Study/ML DL RL] - [MLY] end-to-end learning의 예

(49. Pros and cons of end-to-end learning)
2018/10/12 - [About Study/ML DL RL] - [MLY] end-to-end 학습의 장단점

(50. Choosing pipeline components: Data availability)
2018/10/14 - [About Study/ML DL RL] - [MLY] 파이프라인 구성 요소 선택 : 데이터 가용성 측면

(51. Choosing pipeline components: Task simplicity)
2018/10/14 - [About Study/ML DL RL] - [MLY] 파이프라인 구성 요소 선택: 작업의 단순정도

(52. Directly learning rich outputs)
2018/10/15 - [About Study/ML DL RL] - [MLY] 정보가 많은 출력물을 통한 직접적 학습

(53. Error analysis by parts)
2018/10/15 - [About Study/ML DL RL] - [MLY] 요소별 오류 평가

(54. Attributing error to one part)
2018/10/15 - [About Study/ML DL RL] - [MLY] 한 부분에 대한 오류 표시

(55. General case of error attribution)
2018/10/16 - [About Study/ML DL RL] - [MLY] 오류 탐지의 일반적인 경우

(56 Error analysis by parts and comparison to human-level performance)
2018/10/16 - [About Study/ML DL RL] - [MLY] 요소별 오류 평가와 인간 성능 지표와의 비교

(57. Spotting a flawed ML pipeline & 58. Building a superhero team - Get your teammates to read this)
2018/10/16 - [About Study/ML DL RL] - [MLY] 결함이 있는 ML 파이프라인 발견 & 결론


댓글