일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Homomorphic Filter
- IOT
- ARM Processor
- Facial expression recognition
- CNN
- Raspberry Pi
- TensorFlow
- preprocessing
- Machine learning
- tf.train.string_input_producer()
- tf.saver()
- Embedded System
- deep-learning
- I.MX6Q
- cross compile
- Machine Vision
- Python
- tf.train.match_filenames_once()
- porting
- OpenCV
- Data Load
- VGGnet
- Today
- Total
Austin's_Lab
이제 감정케어 시스템이 I.MX6Q 보드에서 어떻게 동작하는 지 포스팅하려고 한다. 전체 코드는 https://github.com/moon920110/Facial_Expression_Recognition에 올려두었다. 보드에서 구현되는 기능은 이렇다. 1. 웹캠을 이용한 얼굴 영역 검출 및 cropping, 카메라 화면 출력 2. 서버와 통신 3. GUI(터치스크린) 4. 감정에 따른 / 혹은 사용자의 요구에 따른 음악 실행 5. 사용자의 현재 상태와 재생되고 있는 음악의 이름 및 디렉토리를 출력할 CLCD 6. 사용자의 새로운 감정 상태를 표현할 Dot Matrix와 LED 7. 감정검출 on/off, GUI/카메라 화면 전환을 수행할 switch button 전체 연결된 코드는 위의 github에서 ..
-Tensorflow 0.12.0사용 on Ubuntu 14.04- 4학년 1학기 Embedded System과 Pattern Recognition 수업에서 병행하여 진행한 프로젝트의 일환이다. 서버는 I.MX6Q 보드에서 촬영된 얼굴 영역 이미지를 전송받아, 화남, 슬픔, 기쁨, 평상 네 가지 감정 중 어떤 감정인 지 판단하여 결과를 보드에 돌려주어야 한다. 서버를 구축하는 과정은 총 5step으로 나뉜다. 1. 데이터 수집2. 데이터 증식 및 전처리3. 학습 모델 선정 및 보완4. 학습 및 테스트5. 학습된 모델을 사용해 서버 프로그램 개발 3. 학습 모델 선정 및 보완학습 모델을 선정하는 데 있어서 다양한 논문들을 들여다 보았다. 그 중 CNN으로 진행한 대부분의 논문들을 구현해보았는데, 논문 만큼..
-Tensorflow 0.12.0사용 on Ubuntu 14.04- 4학년 1학기 Embedded System과 Pattern Recognition 수업에서 병행하여 진행한 프로젝트의 일환이다. 서버는 I.MX6Q 보드에서 촬영된 얼굴 영역 이미지를 전송받아, 화남, 슬픔, 기쁨, 평상 네 가지 감정 중 어떤 감정인 지 판단하여 결과를 보드에 돌려주어야 한다. 서버를 구축하는 과정은 총 5step으로 나뉜다. 1. 데이터 수집2. 데이터 증식 및 전처리3. 학습 모델 선정 및 보완4. 학습 및 테스트5. 학습된 모델을 사용해 서버 프로그램 개발 1. 데이터 수집표정 인식에 대한 연구가 이미 많이 진행돼 있어서 오픈된 표정 데이터는 많았지만, 우리가 원하는 표정만 추리고 보니 생각보다 쓸 수 있는 데이터가..