생몰정보
소속
직위
직업
활동분야
주기
서지
국회도서관 서비스 이용에 대한 안내를 해드립니다.
검색결과 (전체 1건)
원문 있는 자료 (1) 열기
원문 아이콘이 없는 경우 국회도서관 방문 시 책자로 이용 가능
목차보기더보기
표제지
요약
목차
제1장 서론 9
1.1. 본 논문의 배경 9
1.2. 본 논문의 구성 13
제2장 관련 연구 14
2.1. 접촉식 제스처 기반 인식의 인터페이스 14
2.1.1. 컴퓨터 보조 장치를 이용한 방법 14
2.1.2. 데이터 글러브를 이용한 방법 16
2.1.3. 마커를 이용한 방법 17
2.2. 비접촉식 제스처 인식 기반의 인터페이스 18
2.2.1. Posture 인식 18
2.2.2. Gesture 인식 19
2.3. 3차원 모델 제어를 위한 인터페이스 20
제3장 손동작을 이용한 인터페이스 23
3.1. 시스템 구성 23
3.2. 손 정보 분석 24
3.2.1. 손 영역 검출 25
3.2.2. 손 중심 계산 26
3.2.3. 손가락 끝점 계산 27
3.2.4. 손 중심과 손가락 끝점의 깊이 정보 계산 30
3.3. 데이터 분석 31
3.3.1. 손의 동작 정의 31
3.3.2. 학습 데이터 정의 32
3.3.3. Endpoint 검출 36
3.4. 손의 동작 인식 37
3.4.1. DTW(Dynamic Time Warping) 38
3.4.2. DTW를 이용한 거리 유사도 비교 39
3.4.3. 손의 동작 구분 43
제4장 실험 및 결과 46
4.1. 구성 46
4.2. 정보 추출 결과 47
4.3. 동작 인식 결과 49
4.2.1. endpoint 결과 49
4.2.2. DTW 결과 52
4.4. 응용 시나리오 58
4.5. 평가 65
제5장 결론 66
참고문헌 67
ABSTRACT 70
표 4.1. 손동작의 거리 유사도에 대한 정규화 결과. 52
표 4.2. 손동작에 대한 인식 결과. 54
표 4.3. 정답이 아닌 동작을 취했을 때 잘못 판단한 결과. 55
표 4.4. 사람과 컴퓨터의 손동작 판단 결과. 56
표 4.5. 손동작 구간의 오검출 결과. 56
표 4.6. 사용자에 따라 다른 정답데이터 적용한 결과. 57
표 4.7. 제안하는 인터페이스를 실험 대상자에게 적용시킨 결과. 65
그림 2.1. 3차원적 제어가 사용가능한 장치 15
그림 2.2. 데이터 글러브와 센서 글러브. 16
그림 2.3. 마커를 이용한 방법. 17
그림 2.4. 손의 특징점을 이용한 Posture 인식. 18
그림 2.5. 손의 고정된 모양을 이용한 posture 인식. 19
그림 2.6. SVM을 이용한 손 씻는 동작. 20
그림 2.7. 제스처 인식을 이용한 Toshiba 노트북. 20
그림 2.8. 손을 이용한 3차원 좌표계 구성. 21
그림 2.9. 손을 이용한 3차원 모델 제어. 21
그림 2.10. Visual Touch pad의 구성. 22
그림 3.1. 시스템 구성. 23
그림 3.2. 손에 대한 정보 추출 과정. 24
그림 3.3. HSV 공간. 25
그림 3.4. 피부색을 이용한 손의 영역 획득 결과. 26
그림 3.5. 거리변환 행렬. 27
그림 3.6. 손의 중심점과 외곽선을 검출한 결과. 28
그림 3.7. 곡률 계산을 위한 일정 간격의 세 점. 28
그림 3.8. 손가락 사이의 계곡 부분을 제거. 29
그림 3.9. 손가락 끝점 검출 결과. 30
그림 3.10. 손동작 정의. 31
그림 3.11. 손에 대한 정보를 이용한 특징. 32
그림 3.12. 동작에 따른 손가락 끝점과 손의 중심에 대한 관계. 33
그림 3.13. Endpoint 검출. 36
그림 3.14. 손동작 분류에 대한 구성. 37
그림 3.15. 두 개의 파형에 대한 왜곡 경로. 38
그림 3.16. 거리 유사도 계산 순서. 40
그림 3.17. 두 개의 파형을 이용한 DTW의 왜곡 경로. 41
그림 3.18. 가우시안 정규 분포. 42
그림 3.19. 입력 데이터와 정답 데이터의 거리 유사도 비교. 44
그림 4.1. 선택, 던지기, 회전 동작에 대한 데이터. 47
그림 4.2. 동작을 분류하기 위한 특징을 가진 데이터의 분포. 48
그림 4.3. 선택, 던지기, 회전 동작 구간 검출 결과. 49
그림 4.4. 손의 동작을 구분하기 위한 특징 데이터. 51
그림 4.5. 손동작에 대한 거리 유사도 측정 결과. 53
그림 4.6. 손동작에 대한 거리 유사도의 평균과 분포. 53
그림 4.7. 정답이 아닌 임의의 동작을 입력했을 경우. 55
그림 4.8. 연속적인 손동작의 모습. 58
그림 4.9. 3차원 모델을 선택하고 이동시키는 모습 59
그림 4.10. 3차원 스트림의 이동. 60
그림 4.11. 여러 개의 차원 모델 선택 제어. 60
그림 4.12. 선택한 3차원 모델을 던지는 모습. 61
그림 4.13. 3차원 모델 버리기 동작. 61
그림 4.14. 3차원 모델을 회전 시키는 모습. 62
그림 4.15. 3차원 스트림을 회전시키는 동작.(3차원 스트림을 반시계 방향으로 회전) 62
그림 4.16. 3차원 스트림 내부에서 3차원 모델을 제어하는 동작. 63
그림 4.17. 3차원 모델 제어를 위한 시나리오. 64
초록보기 더보기
최근 다양한 3차원 콘텐츠 및 응용 프로그램의 개발되고, 컴퓨터 사용자 계층이 다양화됨으로 인하여 인터페이스에 대한 연구가 활발히 진행되고 있다. 본 연구는 사용자가 손을 이용하여 가상의 3D모델을 효율적으로 제어할 수 있도록 하는 것을 목적으로 한다. 기존 인터페이스에 관한 연구들은 고가의 장비를 사용하거나 복잡한 제스처 인식, 또는 부가적인 도구인 마커 등을 사용해야하는 문제가 있다.
이러한 단점을 개선하기 위하여 새로운 시각적 접촉 기반의 인터페이스를 제안한다. 제안하는 인터페이스는 스테레오 카메라를 사용함으로써 사용자가 3차원 공간에서 거리감을 가지고 제어할 수 있도록 하였다. 즉, 인터페이스 응용의 범위를 2차원에서 3차원 공간으로 확대하였다. 그리고 간단한 손동작으로 제어하고자 하는 객체를 시각적으로 접촉할 수 있도록 함으로써 직관적인 제어가 가능하도록 하였다. 따라서 사용자들은 손가락으로 원하는 3D 모델을 선택해서 제어가 가능하다. 또한 매 프레임 입력되는 손의 움직이는 정보를 분석하는 데이터양이 크지 않기 때문에 상대적으로 시스템에 대한 부담이 적고 여러 개의 손동작을 실시간으로 분류할 수 있다.
제안하는 인터페이스의 손동작 분류 방법은 매 프레임 마다 손가락 끝점과 손의 중심점의 벡터, 변화량 성분을 이용하여 손동작을 분석하는 것이다. 입력되는 벡터, 변화량 성분을 이용하여 손동작을 분석하는 것이다. 입력되는 손동작을 분류하기 위해서 정답데이터를 정의하고 DTW를 사용하여 실시간으로 거리유사도를 계산하였다. 손동작에 대한 오류 분석은 컴퓨터와 사람의 인식의 차이, 주어진 손동작이 아닐 때 잘못 인식할 경우, 사용자에 따라 다른 인식 결과를 기준으로 했다. 마지막으로 제안하는 인터페이스를 활용하여 여러 개의 3D 형태의 윈도우와 3D 모델을 제어할 수 있는 응용을 통해서 효율성을 확인한다.
원문구축 및 2018년 이후 자료는 524호에서 직접 열람하십시요.
도서위치안내: / 서가번호:
우편복사 목록담기를 완료하였습니다.
* 표시는 필수사항 입니다.
* 주의: 국회도서관 이용자 모두에게 공유서재로 서비스 됩니다.
저장 되었습니다.
로그인을 하시려면 아이디와 비밀번호를 입력해주세요. 모바일 간편 열람증으로 입실한 경우 회원가입을 해야합니다.
공용 PC이므로 한번 더 로그인 해 주시기 바랍니다.
아이디 또는 비밀번호를 확인해주세요