[DL] Optimization Techniques
보통 딥러닝에서 Model의 size를 줄이거나 동작 속도를 향상시키기 위해서 수행하는 Optimization 기법으로 크게 3가지 방법을 드는데, accuracy 측면에서 약간 손해보면서 Model Size를 줄이는 Quantization, training시 필요한 metadata나 Operation을 안쓰게끔 하는 Freezing, 그리고 Layer의 복잡성을 줄이기 위해서 여러 Operation을 하나의 Operation으로 바꾸는 Fusion 등이 있다. Quantization Quantization은 Model을 구성하는 weight이나 bias들이 과연 몇 bit으로 표현하느냐와 연관된 내용이다. 물론 정확성 측면에서는 각 weight와 bias들이 소수점 자리까지 정확히 update하고 계산..
Study/AI
2020. 1. 28. 11:39
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- arduino
- Off-policy
- RL
- DepthStream
- Kinect for windows
- dynamic programming
- 강화학습
- windows 8
- Variance
- bias
- processing
- ai
- Kinect
- reward
- Offline RL
- Windows Phone 7
- 파이썬
- 한빛미디어
- TensorFlow Lite
- Policy Gradient
- SketchFlow
- Expression Blend 4
- Gan
- Kinect SDK
- PowerPoint
- Distribution
- ColorStream
- 딥러닝
- End-To-End
- Pipeline
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함