요즘 방명록으로 많이들 물어보십니다만.. 저도 그렇게 잘 아는 수준이 아니고 책에 있는 내용을 복습하는 수준이라서 더 상세하게 답변을 못드리고 있습니다. 그중 전에 저한테 손에서 Particle이 생기게 할 수 있지 않느냐는 질문을 했었고, 이번 포스트에서 한번 시도해보고자 합니다. 기본적인 접근은 이렇습니다. 이 섹션의 지난 포스트 중에서는 Wave 제스처를 통해서 손을 인식하고 그 손의 움직임에 따라서 LED의 밝기를 조절할 수 있었습니다. 그 밝기를 조절하는 기능대신에 손의 위치를 따라서 Particle이 생기게 할 겁니다. 만약 3차원으로 표현하고 싶다면 Particle 대신에 Sphere가 생기게 하면 좋겠지요. 저는 일단 Particle로 해보겠습니다. 자 우선 간단하게 Depth Image상..
샘플이 하나 더 있더군요. 한번 보세요. 신기합니다.
한분이 제 방명록에 Unity3D에서 쓸 수 있는 키넥트 플러그인에 대해서 문의를 하셨습니다. 하지만 제가 전에 소개해드린 Gadget Accelerator Kit (GAK)은 라이선스에 대한 제약이 걸려있어서 제가 임의로 드릴 수가 없습니다.그래서 대신 다른 플러그인에 대해서 잠깐 소개해드리고자 합니다.사실 구글에서 찾아보시면 아시겠지만 매우 다양한 플러그인이 나와있습니다. 그중 가장 보편적으로 쓰이고 기능이 제일 많이 제공되는 것이 바로 ZigFu라는 겁니다. 대신 안 좋은 점이 있다면 기본의 Kinect SDK 기반이 아닌 OpenNI 기반의 플러그인이기에 이와 관련된 Dependency를 다시 설치해줘야 합니다. 물론 개발은 ZDK를 이용해서 진행되는데 기본적으로 Skeleton과 Color De..
지난 포스트 중에서 Hand Gesture를 Tracking할 수 있는 툴인 3 Gears System 을 소개해드렸습니다.2012/10/28 - [About Kinect] - [Useful SDK] 3Gear System.사실 공식 홈페이지에서 추천하는 개발환경은 다음과 같이 구성됩니다. 거기에 따르면 키넥트를 설치할 수 있는 프레임과 키넥트를 달 수 있는 마운트가 필요하다고 되어 있습니다. 사실 제 블로그를 보신 분이라면 아시겠지만 키넥트가 내보내는 IR 패턴이 겹치면 Depth의 형태가 미세하게 어긋납니다. 그래서 충분한 거리(1m)를 두고 무언가를 보정하는 과정을 거쳤을 거라고 생각합니다. 당연히 원래 키넥트가 제공하는 Near Mode같은건 적용할 수 없겠지요. 아무튼 저도 한번 시도를 해보고자..
말씀드린대로 Python은 IDLE이라는 GUI를 가지고 거진 모든 활동이 여기를 통해서 이뤄집니다. 강의에서는 크게 - Text Editor- Shell With Highlighting- Debugger가 내장되어 있다고 하는 일단 디버거가 있는 것만 봐도 프로그래밍시 오류를 효과적으로 찾을 수 있는 요소가 되지 않을까 생각합니다. Python에서 형성되는 모든 것을 Object라고 합니다. 물론 지금 작성하려는 코드도 역시 하나의 Object라고 할 수 있지요. 이 Object에는 Type이라는 built-in Function이 들어 있는데 여러분들이 아시는 정수형이니 소수점형이니 하는 그런 형태를 지칭합니다. 크게 Scaler와 Non-Scaler로 나룰 수 있는데 이제 다룰 Scaler Type은..
지난 포스트에서 예고했던 대로 쭉 다룰 내용은 Introduction to CS & Programming인데 거기서 주로 쓰는 툴은 Python입니다. 물론 강의서두를 보시면 교수님이 " 이 강의는 Python을 가르치는 수업이 아니라 파이썬이 배우기 쉽고 접근이 용이하기에 이용하는 것이다" 라는 걸 언급합니다. 그래서 일단 Python 설치부터 해보고자 합니다. 이 수업에서 쓰는 Python은 2.5.4입니다. 물론 Python 공식 홈페이지에 가시면 더 높은 버전이 공개되어있습니다만 강의교재 만들 당시에 썼던 함수가 많이 바뀌어서 이 버전으로 진행한다고 합니다. 다운로드는 다음 장소에서 받을 수 있습니다. 설치하면 다음과 같은 콘솔창이 뜨게 됩니다. Python은 기본적으로 IDLE(Integrate..
저도 대학원 입학준비를 하면서 점점 컴퓨터 과학에 대한 공부를 진행하려고 합니다. 그래서 자료를 찾다가 보니까 MIT에서 OCW를 제공한다는 것을 알고 이 것을 통해서 공부하고자 합니다. MIT OpenCourseWare란 MIT에서 제공하는 양질의 교육을 전세계에 공급하자는 취지에서 만들어진 공개 강좌이고 MIT에 개설된 모든 과목에 대해서 강의를 녹화하고 관련 자료를 무료로 제공합니다. 여러분이 생각하시는 대학강좌보다 훨씬 더 많은 강좌에 대해서 Open되어 있으며, 저는 그중에서 600번대 강좌인 Computer Science 과목을 듣고 그 내용을 정리해서 올리고자 합니다.
이번 포스트에서는 engadget에서 언급된 키넥트 소식에 대해서 전해보도록 하겠습니다. 혹시 Kinect Fusion이라는 영상을 보신적이 있으신가요? 지금 소개된 영상은 SIGGRAPH 2011에서 발표된 Kinect Fusion이라는 영상으로, MSR Cambridge에서 연구하고 있던 내용인데 일종의 3D Reconstruction에 대한 내용을 통해 모델링하는 기법을 소개했습니다. 그렇게 해서 만들어진 가상 공간에서 여러가지 작업을 할 수 있다는거지요. 저도 이 동영상을 보면서 언젠가 저런 가상환경을 구현한다면 조금더 삶이 다채로워지지 않을까 생각했습니다. 사람이 가보지 못하는 공간을 저렇게 Reconstruction된 공간속에서 체험할 수 있다는 건 언제 상상해도 즐거운 일이지요. 그런데 이런..
10월 초에 Kinect for Windows SDK가 v1.6으로 업데이트되면서 생긴 포멧중의 하나가 InfraRed, 즉 적외선 모드였습니다. 그리고 Developer ToolKit에서도 이를 활용한 예제가 있었는데 그게 바로 Infrared Basic입니다. 그런데 ToolKit에 있는 모든 C++ 예제들이 그렇지만 역시 Direct2D로 구현되어 있기도 하고 이와 관련된 Reference가 잘되어 있지 않아서 조금 알아보기 힘듭니다. 저도 조금 고민을 하다가 OpenCV로도 이걸 표현할 수 있지 않을까 해서 이것저것 해본 결과를 공유하고자 합니다. 우선 기본 세팅은 다른 포스트에서도 많이 언급했던 내용이니까 생략을 하고, 사전에 알아둘 점이 하나있습니다.전 애초에 Color와 Depth, IR을 ..
테스트 중입니다.
- Total
- Today
- Yesterday
- windows 8
- Variance
- dynamic programming
- RL
- Expression Blend 4
- Kinect for windows
- Pipeline
- arduino
- End-To-End
- Kinect
- Kinect SDK
- Python
- 딥러닝
- Distribution
- ColorStream
- Gan
- processing
- Windows Phone 7
- 강화학습
- SketchFlow
- PowerPoint
- 한빛미디어
- TensorFlow Lite
- bias
- 파이썬
- reward
- Policy Gradient
- DepthStream
- Offline RL
- Off-policy
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |