일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- OpenCV
- Python
- VGGnet
- tf.train.match_filenames_once()
- Raspberry Pi
- Data Load
- preprocessing
- CNN
- Embedded System
- IOT
- porting
- deep-learning
- tf.saver()
- TensorFlow
- Machine learning
- cross compile
- ARM Processor
- I.MX6Q
- Machine Vision
- tf.train.string_input_producer()
- Facial expression recognition
- Homomorphic Filter
- Today
- Total
목록ARM Processor (2)
Austin's_Lab
이제 감정케어 시스템이 I.MX6Q 보드에서 어떻게 동작하는 지 포스팅하려고 한다. 전체 코드는 https://github.com/moon920110/Facial_Expression_Recognition에 올려두었다. 보드에서 구현되는 기능은 이렇다. 1. 웹캠을 이용한 얼굴 영역 검출 및 cropping, 카메라 화면 출력 2. 서버와 통신 3. GUI(터치스크린) 4. 감정에 따른 / 혹은 사용자의 요구에 따른 음악 실행 5. 사용자의 현재 상태와 재생되고 있는 음악의 이름 및 디렉토리를 출력할 CLCD 6. 사용자의 새로운 감정 상태를 표현할 Dot Matrix와 LED 7. 감정검출 on/off, GUI/카메라 화면 전환을 수행할 switch button 전체 연결된 코드는 위의 github에서 ..
Embedded System이라는 수업에서 Arm based embedded board를 활용한 Term project로 얼굴 표정인식을 진행하기로 했다. 얼굴 표정 인식은 아무래도 deep-learning을 활용해야하지 싶다. 실습용 embedded board로는 아무래도 deep-learning을 수행하기엔 무리가 있으므로 학습기는 내 PC(서버)에 올리는 것으로 하고, arm board에서는 실시간 얼굴 검출 및 서버로 전송을 하는 역할만 주기로 했다. 외에 인식된 내용을 바탕으로 board에서 해야할 일이 더 있지만 이번 포스팅에서는 논외이므로 바로 본론으로 들어간다. Arm board에서 얼굴 검출을 하기위해 여러 방법을 찾던 중, opencv에서 Haar feature를 이용한 얼굴 검출 알고..