국문목차
표제지=0,1,4
목차=0,5,2
그림목차=0,7,1
표목차=0,8,1
논문개요=0,9,1
I. 서론=1,10,1
1.1 연구 배경=1,10,2
1.2 연구 목적 및 내용=2,11,2
II. 관련연구=4,13,1
2.1 가상환경에서의 비전 트래킹=4,13,5
2.2 인체모델을(를)이용한 움직임 측정=8,17,3
III. 사용자 트래킹=11,20,1
3.1 픽셀정보 기반 사용자 트래킹=11,20,1
3.1.1 컬러모델을 이용한 피부 영역 추출=12,21,5
3.1.2 영역 라벨링 및 트래킹=17,26,3
IV. 역운동학을 이용한 사용자 움직임 측정=20,29,1
4.1 인체모델 단순화=20,29,2
4.1.1 인체 해부학적 정보 정의=22,31,1
4.1.2 운동학적 제약조건=23,32,3
4.2 사용자 움직임 측정=26,35,6
V. 구현 내용 및 결과=32,41,1
5.1 구현환경 및 구현내용=32,41,3
5.2 구현 및 실험 결과=35,44,6
VI. 결론=41,50,1
6.1 연구 성과 및 의의=41,50,1
6.2 향후연구=42,51,1
참고문헌=43,52,4
ABSTRACT=47,56,2
감사의글=49,58,2
그림2-1 마커 종류에 따른 비전 트래킹(a)활성마커를 이용한 비전 트래킹,(b)비활성마커를 이용한 비전 트래킹=5,14,1
그림2-2 프로젝션타입 환경에서의 비전 트래킹(a)ALIVE 시스템,(b)프로젝션월과 인터랙션=6,15,1
그림2-3 버추얼 테이블에서의 인터랙션=6,15,1
그림2-4 몰입형 가상환경에서의 헤드 트래킹=7,16,1
그림2-5 몰입형 가상환경에서의 포인팅 제스쳐=7,16,1
그림2-6 인체 모델 종류(a)뼈대 모델,(b)볼륨 모델=9,18,1
그림3-1 피부영역을 추출하기 위한 프로세스=12,21,1
그림3-2 HSV 컬러모델=13,22,1
그림4-1 단순화시킨 인체 모델=21,30,1
그림4-2 관절 분류=24,33,1
그림4-3 관절각 계산을 위한 기준점=27,36,1
그림4-4 팔움직임 2차원화=28,37,1
그림4-5 팔꿈치가 존재할 수 있는 영역=29,38,1
그림5-1 구현환경의(CAVE-like의 시스템)의 하드웨어 구조도=32,41,1
그림5-2 적외선 영상 획득 환경=33,42,1
그림5-3 설치된 카메라 위치=33,42,1
그림5-4 (a)적외선 광원,(b)적외선 필터=34,43,1
그림5-5 택스쳐 매핑된 영상=36,45,1
그림5-6 HSV컬러모델 적용=36,45,1
그림5-7 피부영역 추출(이차화)=36,45,1
그림5-8 피부영역 라벨링(blob타입)=36,45,1
그림5-9 피부영역 라벨링(ellipse타입)=37,46,1
그림5-10 피부영역 윤곽선 추출=37,46,1
그림5-11 트래킹 결과 영상(a)원영상,(b)트래킹 영상=37,46,2
그림5-12 움직임 측정 결과=39,48,2
표3-1 인종별 얼굴피부색에 대한 HSV 좌표계값(8bit)=14,23,1
표3-2 피부색 모델링을 위한 명시적 방법=15,24,1
표3-3 관심영역 추출=16,25,1
표3-4 Blob과 Track 구조체=18,27,1
표4-1 단순화시킨 인체 측정학적 정보=22,31,1
표4-2 단순화시킨 관절 정보=25,34,1