(해당 포스트에서 소개하고 있는 "파이썬 라이브러리를 활용한 데이터 분석" 책은 한빛 미디어로부터 제공받았음을 알려드립니다.) 파이썬 라이브러리를 활용한 데이터 분석(3판) 데이터 분석을 배우는 가장 완벽한 방법 파이썬 라이브러리 사용법부터 실제 데이터를 활용한 실습까지 hanbit.co.kr 10년전에 파이썬으로 데이터 분석을 해야 되겠다 싶어서 처음 봤던 책이 이 책이었다. (생각해보니까 그때 썼던 리뷰도 남아있다.) 그냥 책 제목도 직관적이어서 "이걸로 파이썬을 배우면서 데이터 분석도 할 수 있겠지..." 책 내용도 보지도 않고 그냥 샀던 책이었는데, 이 책이 어느덧 나온지 10년이 되었다. 책을 통해서 배울 수 있었던 것은 데이터 분석의 간단한 지름길을 알려준다는 점이었다. 책의 저자인 웨스 맥키..
(해당 포스트에서 소개하고 있는 "개발자를 위한 머신러닝&딥러닝" 책은 한빛 미디어로부터 제공받았음을 알려드립니다.) 개발자를 위한 머신러닝&딥러닝 수학이 어려운 개발자를 위한 코드 실습형 머신러닝 가이드북. 머신러닝 모델 구축부터 활용법까지 단계별로 설명하며 개발자가 마주하게 될 다양한 문제를 머신러닝으로 해결하는 법을 안내 hanbit.co.kr 지난 몇년동안 베타리딩이나 리뷰활동을 하면서 되도록이면 인공지능 관련 서적 (혹은 파이썬 개발서적)을 선택해서 읽는 편이다. 물론 현업에서 활용하기도 할 뿐더러, 과연 딥러닝/머신러닝 관련 서적들이 출간되면서 어떤 내용들을 다루는지 궁금해서다. 물론 왠만한 개발 내용은 인터넷을 검색해서도 찾을수도 있고, 때로는 논문을 찾아봐야만 나오는 내용들도 있지만, 이렇..
(해당 포스트에서 소개하고 있는 "러닝 타입스크립트" 책은 한빛 미디어로부터 제공받았음을 알려드립니다.) 러닝 타입스크립트 타입스크립트 개념부터 활용, 고급 기능까지 한 권에 모두 담았다! 핵심을 짚는 개념 설명과 다양한 예제를 살펴보며 타입스크립트를 차근차근 배워본다. hanbit.co.kr 타입스크립트는 2012년 마이크로소프트에서 만든 웹 프론트앤드 개발용 언어이다. 물론 타입스크립트에 앞서 웹 개발을 위해 만들어진 언어가 자바스크립트인데, 여기에 정적타입체크 등의 기능으로 확장된 언어가 바로 타입스크립트이다. 거기에 기존의 자바스크립트에서는 런터임에서만 확인할 수 있던 오류를 코드 작성시부터 파악할 수 있어 디버깅이나 개발 효율성이 향상되는 효과도 같이 누릴 수 있는 언어이다. 그래서 이전에 개발..
(해당 포스트에서 소개하고 있는 "트랜스포머를 활용한 자연어 처리" 책은 한빛 미디어로부터 제공받았음을 알려드립니다.) 트랜스포머를 활용한 자연어 처리 자연어 처리 분야에 있어 표준이 된 트랜스포머 모델을 사용해 실용적인 애플리케이션을 만들고 최적화하는 방법을 안내한다. 실습 위주로 구성되어 예제 코드를 직접 실행하면서 자신만의 실 hanbit.co.kr 아는 사람은 알겠지만 transformer 아키텍처는 2017년 google이 "Attention is all you need"이란 논문을 통해서 소개했다. 사실 이전의 NLP나 signal processing에는 LSTM이나 GRU로 대변되는 RNN 계열의 신경망으로 처리하는 방식에 비하여, 이 transformer 구조는 시퀀스 데이터에서 어떠한 패..
(해당 포스트에서 소개하고 있는 "파이썬 라이브러리를 활용한 텍스트 분석" 책은 한빛 미디어로부터 제공받았음을 알려드립니다.) 파이썬 라이브러리를 활용한 텍스트 분석 분석하려는 텍스트에 맞는 처리 기법을 소개하는 도서로 실제 모범 사례를 기반으로 상황에 맞게 설계한 텍스트 전처리 파이프라인 구축, N-그램 분석, 텍스트 벡터화 등 다양한 전략과 그때 필 hanbit.co.kr 인공지능이 실생활에 적용되는 분야를 꼽으라면 대표적인 분야가 보통 NLP로 표현되는 자연어처리일 것이다. 몇년전만 해도 뭔가 시대를 앞서나가는 듯한 사례를 제공했던 AI assistant도 이제 다양한 업체에서 제공하는 대표적인 케이스가 되었고, 이밖에도 사용자의 감정을 이해하고 어떤 상품을 추천하는데 있어서 자연어처리는 이런 기술..
(해당 포스트는 UC Berkeley 에서 진행된 CS285: Deep Reinforcement Learning, Decision Making and Control를 요약한 내용이며, 그림들은 강의 장표에서 발췌한 내용입니다.) CS 285 GSI Yuqing Du yuqing_du@berkeley.edu Office Hours: Wednesday 10:30-11:30am (BWW 1206) rail.eecs.berkeley.edu Reducing variance 이전 포스트에서 소개했다시피, policy gradient 알고리즘은 high variance로 인해서 practical problem에 적용하기 어려웠다. 그러면 이 variance를 줄일 수 있는 방법이 있을까? 다시 policy gradi..
(해당 포스트는 UC Berkeley 에서 진행된 CS285: Deep Reinforcement Learning, Decision Making and Control를 요약한 내용이며, 그림들은 강의 장표에서 발췌한 내용입니다.) CS 285 GSI Yuqing Du yuqing_du@berkeley.edu Office Hours: Wednesday 10:30-11:30am (BWW 1206) rail.eecs.berkeley.edu Comparison to maximum likelihood 이전 포스트의 마지막에 다뤘던 식이 아래와 같다. $$ \nabla_{\theta}J(\theta) \approx \frac{1}{N} \sum_{i=1}^N \big( \sum_{t=1}^T \nabla_{\thet..
보호되어 있는 글입니다.
(해당 포스트는 UC Berkeley 에서 진행된 CS285: Deep Reinforcement Learning, Decision Making and Control를 요약한 내용이며, 그림들은 강의 장표에서 발췌한 내용입니다.) CS 285 GSI Yuqing Du yuqing_du@berkeley.edu Office Hours: Wednesday 10:30-11:30am (BWW 1206) rail.eecs.berkeley.edu The goal of reinforcement learning 이 강의 주제는 신경망을 활용한 강화학습을 다루는 것이다. 강화학습의 목표라고 하면 어떤 환경에서 잘 동작하는 policy를 찾는 것인데, Deep RL에서는 이 policy가 신경망으로 표현된다. 그래서 이 po..
(논문의 의도를 가져오되, 개인적인 의견이 담길 수도 있습니다.) Deterministic Policy Gradient Algorithm (D.Silver et al, 2014) Abstract 이 논문에서는 Continuous Action을 수행할 수 있는 Deterministic Policy Gradient (DPG)에 대해서 소개하고 있다. DPG는 (보통 Q value function이라고 알고 있는) action-value function(\(Q^{\pi}(s, a)\) )의 expected gradient 형태로 되어 있어, 일반적으로 알고 있는 (Stochastic) Policy Gradient 보다 data efficiency 측면에서 이점이 있다. 대신 Deterministic하기 때문에..
- Total
- Today
- Yesterday
- Gan
- End-To-End
- windows 8
- Pipeline
- RL
- 파이썬
- dynamic programming
- Windows Phone 7
- Offline RL
- Distribution
- bias
- arduino
- Kinect
- reward
- Expression Blend 4
- 한빛미디어
- DepthStream
- Python
- 강화학습
- Kinect SDK
- 딥러닝
- Kinect for windows
- ColorStream
- Off-policy
- SketchFlow
- processing
- Policy Gradient
- TensorFlow Lite
- PowerPoint
- Variance
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |