일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Machine learning
- tf.saver()
- ARM Processor
- Machine Vision
- Raspberry Pi
- Data Load
- I.MX6Q
- tf.train.string_input_producer()
- cross compile
- Homomorphic Filter
- Embedded System
- tf.train.match_filenames_once()
- Facial expression recognition
- deep-learning
- preprocessing
- CNN
- porting
- IOT
- OpenCV
- TensorFlow
- Python
- VGGnet
- Today
- Total
목록IOT (2)
Austin's_Lab
이제 감정케어 시스템이 I.MX6Q 보드에서 어떻게 동작하는 지 포스팅하려고 한다. 전체 코드는 https://github.com/moon920110/Facial_Expression_Recognition에 올려두었다. 보드에서 구현되는 기능은 이렇다. 1. 웹캠을 이용한 얼굴 영역 검출 및 cropping, 카메라 화면 출력 2. 서버와 통신 3. GUI(터치스크린) 4. 감정에 따른 / 혹은 사용자의 요구에 따른 음악 실행 5. 사용자의 현재 상태와 재생되고 있는 음악의 이름 및 디렉토리를 출력할 CLCD 6. 사용자의 새로운 감정 상태를 표현할 Dot Matrix와 LED 7. 감정검출 on/off, GUI/카메라 화면 전환을 수행할 switch button 전체 연결된 코드는 위의 github에서 ..
4학년 1학기에 있었던 Embedded System과 Pattern Recognition 수업에서 병행하여 진행한 프로젝트이다. 개요I.MXQ6 보드에서 사용자의 얼굴을 검출하여 서버로 보내면 서버에서는 학습기가 얼굴 표정을 분석하여 사용자의 현재 감정상태를 검출한다. 검출된 감정은 다시 보드에 전달되고, 보드는 사용자의 감정 상태에 따라 보드에 내장된 기능들을 사용해 적절한 조치를 취함으로써 사용자의 감정을 케어해준다. 개발환경server O/S : Ubuntu 14.04Programming language : C++, python 3.5Library : tensorflow 0.12.0, opencv 2.13(I.MX6Q) / 3.1 (server), numpyNetwork protocol : TCP/..