본문바로가기

자료 카테고리

전체 1
도서자료 0
학위논문 1
연속간행물·학술기사 0
멀티미디어 0
동영상 0
국회자료 0
특화자료 0

도서 앰블럼

전체 (0)
일반도서 (0)
E-BOOK (0)
고서 (0)
세미나자료 (0)
웹자료 (0)
전체 (1)
학위논문 (1)
전체 (0)
국내기사 (0)
국외기사 (0)
학술지·잡지 (0)
신문 (0)
전자저널 (0)
전체 (0)
오디오자료 (0)
전자매체 (0)
마이크로폼자료 (0)
지도/기타자료 (0)
전체 (0)
동영상자료 (0)
전체 (0)
외국법률번역DB (0)
국회회의록 (0)
국회의안정보 (0)
전체 (0)
표·그림DB (0)
지식공유 (0)

도서 앰블럼

전체 1
국내공공정책정보
국외공공정책정보
국회자료
전체 ()
정부기관 ()
지방자치단체 ()
공공기관 ()
싱크탱크 ()
국제기구 ()
전체 ()
정부기관 ()
의회기관 ()
싱크탱크 ()
국제기구 ()
전체 ()
국회의원정책자료 ()
입법기관자료 ()

검색결과

검색결과 (전체 1건)

검색결과제한

열기
논문명/저자명
거리 영상을 이용한 템플릿 정합 기반의 사람 신체 검출 = Human body detection based on template matching using depth image / 현종민 인기도
발행사항
서울 : 한양대학교 대학원, 2012.2
청구기호
TM 629.892 -12-7
형태사항
v, 57 p. ; 26 cm
자료실
전자자료
제어번호
KDMT1201214485
주기사항
학위논문(석사) -- 한양대학교 대학원, 지능형로봇학과, 2012.2. 지도교수: 김회율
원문
미리보기

목차보기더보기

Title Page

Contents

ABSTRACT 9

1. INTRODUCTION 11

2. PREVIOUS WORK 14

2.1. Color Image-based Approach 14

2.2. Depth Image-based Approach 17

3. HUMAN BODY DETECTION 22

3.1. Overview 22

3.2. Detection of Human Body Candidate 23

3.2.1. Region of Interest for Human Body 23

3.2.2. Depth Image Separation 24

3.2.3. Pixel Blob Analysis 27

3.2.4. Detection of Human Body Parietal Point 29

3.2.5. Human Body Candidate Image Generation 30

3.3. Human Body Verification 31

3.3.1. Neck Position Estimation 32

3.3.2. Rotation Angle Estimation of Head 34

3.3.3. Ellipse Template Matching 36

4. UPPER BODY PARTS DETECTION 39

4.1. Overview 39

4.2. Human Body Segmentation 40

4.3. Candidate Detection of Body Parts 42

4.4. Position Estimation of Body Parts 44

5. EXPERIMENTAL RESULTS 48

5.1. Dataset 48

5.2. Quantitative Evaluation 50

5.3. Qualitative Evaluation 53

6. CONCLUSION 57

REFERENCES 59

초록 63

Table 5-1. The accuracy results of SET A 51

Table 5-2. The accuracy results of SET B 51

Table 5-3. The accuracy results of SET C 51

Table 5-4. The accuracy results of SET D 51

Table 5-5. The comparision of average CPU time 52

Fig. 1-1. Examples of application to human body detection 11

Fig. 2-1.The human detection and identification system of Cho et al. 18

Fig. 2-2. Result of 2D chamfer matching: (a) canny edge, (b) distance map, (c) head template, (d) the head detection result. 19

Fig. 2-3. 3D head model 20

Fig. 2-4. Calculation of RDSF. 21

Fig. 3-1. Block diagram of the proposed method. 23

Fig. 3-2. Setting the ROI in the depth image. 24

Fig. 3-3. Separating image as reference depth value. 25

Fig. 3-4. Examples of separated images in the depth image: (a) input image, (b) image separated by the reference value 60, (c) image separated by the reference value 75, (d) image separated by the reference value 90, (e) image separated by the reference value 105, (f) image separated by the reference value 120, (g) image separated by the reference value... 26

Fig. 3-5. Example of a small number of pixels which consists of pixel blob (red ellipse). 27

Fig. 3-6. Example of the narrow width of pixel blob (red line). 28

Fig. 3-7. Example of the ratio of pixel in an enclosing rectangle: (a) the ratio of pixel in enclosing rectangle is less than 0.35 (b) the ratio of pixel in enclosing rectangle is more than 0.9. 29

Fig. 3-8. Example of analysis of the connectivity of pixel blob (a) human body touching Lb (b) pixel blob not touching Lb.(이미지참조) 29

Fig. 3-9. Example of detection of the candidate parietal point: (a) pixel blob, (b) the boundary of a pixel blob, (c) smoothing boundary, (d) detected parietal point in the pixel blob. 30

Fig. 3-10. Example of human body candidate image generation. 31

Fig. 3-11. Example of contour extraction in the human body candidate image: (a) the human body candidate image, (b) extracted contour of the human body candidate image, (c) smoothed contour. 33

Fig. 3-12. Example of left and right inflection point between the neck and the shoulder: (a) detected inflection points, (b) clustered inflection points, (c) left and right inflection point between the neck and the shoulder. 34

Fig. 3-13. The angle of rotation of the head (green circle: center of the head, red circle: left and right inflection point between the neck and the shoulder, purple circle: position of the neck). 35

Fig. 3-14. Examples of ellipse template in the human body candidate image: (a) no rotation of head, (b) bowed head, (c) head tilted to left, (d) head tilted to right, (e) body rotated to left (f) body rotated to left. 37

Fig. 3-15. Examples of chamfer matching of the ellipse template for head of the human: (a) the human body candidate image, (b) contour of the candidate image, (c) distance map of the human body candidate image, (d) the result of matching of the ellipse template to the distance map. 38

Fig. 4-1. Block diagram of the proposed upper body parts detection method. 40

Fig. 4-2. Human body segmentation: (a) result of human body detection (red box: detected human body, yellow box: ROI), (b) result of human body segmentation with floor, (c) result of human body segmentation removed floor. 42

Fig. 4-3. Distinction between convex and concave of inflection point: (a) convex inflection point, (b) concave inflection point. 43

Fig. 4-4. Result of distinction between convex and concave at inflection points(yellow dot: convex inflection point, green dot: concave inflection point). 43

Fig. 4-5. Method of pose estimation of body parts: (a) position between neck and shoulder, (b) position of shoulder, (c) position of elbow, (d) poisiton of hand. 46

Fig. 4-6. Result of upper body parts detection. 47

Fig. 5-1. images captured by kinect: (a) color image, (b) depth image. 48

Fig. 5-2. Dataset for test: (a) color image of SET A, (b) depth image of SET A, (c) color image of SET B, (d) depth image of SET B, (e) color image of SET C, (f) depth image of SET C, (g) color image of SET D, (h) depth image of SET D. 50

Fig. 5-3. Results of the human body detection: (a) input depth image, (b) detection result of human body candidates, (c) final result. 54

Fig. 5-4. Results in rotation case: (a) case of body rotation, (b) case of neck rotation. 55

Fig. 5-5. Results for each dataset: (a) SET A, (b) SET B, (c) SET C, (d) SET D. 56

초록보기 더보기

사람 검출은 인간과 컴퓨터 상호작용, 인간과 로봇 상호작용 및 보안감시를 기반으로 하는 시스템에서 가장 중요한 기술요소 중에 하나이다. 이와 같이 다양한 분야에 응용이 가능하며, 중요한 역할을 하기 때문에 지금까지 사람 검출에 대한 많은 연구가 진행되어 왔다.

기존의 사람 검출을 방법에서는 주로 컬러 영상을 사용하였다. 컬러영상을 사용한 다수의 방법은 컬러 영상을 입력으로 배경 모델링 또는 프레임 간의 차를 통해 전경을 배경으로부터 분리하며, 분리 된 전경에서 형태정보를 이용한 매칭 방법, 모델 기반 방법, 특징점 추출을 통한 학습 기반 방법 등과 같은 방법으로 사람을 검출하였다. 다른 접근 방법으로는 앞선 방법과 달리 사전 처리 없이 직접적으로 이미지 또는 패치의 특징을 추출하여 사람을 분류하는 것이 있다. 하지만 컬러 영상을 사용한 방법들은 전경 분리를 위한 노력이 필요하며, 그렇지 않을 경우 영상 전체에 대해서 윈도우 슬라이드(Window Slide)를 하기 때문에 실시간 수행이 어렵다. 또한 배경이 복잡하거나 조명 변화가 심할 경우 성능이 저하되는 단점이 있다. 이러한 문제점을 개선하기 위해 깊이 영상을 사용한 방법들이 있다. 이 방법들은 깊이 영상을 사용하기 때문에 유사한 거리에 있는 픽셀들을 객체화하기 용이하여 배경 모델링 또는 프레임 간의 차를 할 필요가 없으며, 복잡한 배경이나 조명의 변화에 대해 강인하다. 그러나 이 방법 중 다수는 사람의 머리와 어깨라인까지의 형태 특징을 이용하기 때문에 머리의 움직임에 따라 성능이 저하되는 단점이 있다.

본 논문에서는 머리와 몸의 회전에 강인한 깊이 영상 기반의 사람 검출을 제안한다. 제안하는 방법은 사람의 머리와 몸의 회전에 강인하기 위해 머리의 형태 특징을 이용하였으며, 머리의 회전각을 추정한다. 또한 연산 속도 개선과 오검출을 줄이기 위해 사람 후보 검출을 하였으며 후보 영역에 대해 사람 검증 작업을 수행한다. 사람 후보 검출은 우선 깊이 영상에 ROI(Region of Interest)를 설정하여 연산 속도를 개선하며, 유사한 거리값을 가지는 픽셀들을 모아 거리 기준 값에 따라 효율적으로 처리한다. 그리고 다음과 같은 4 가지의 픽셀 객체 분석을 통하여 불필요한 객체를 사전에 제거한다. 1) 픽셀 객체의 크기 2) 픽셀 객체의 폭 3) 픽셀 객체 내 차지하는 픽셀의 비율 4) 픽셀 객체의 위치정보. 최종적으로 남은 픽셀 객체에서 사람 후보 이미지를 생성하여 사람 검증을 수행한다. 사람 검증은 타원형태의 머리 특징을 이용한다. 사람 후보 이미지에서 목과 어깨 사이의 좌/우 변곡점을 검출하여 목의 위치를 추정하며, 머리의 중심 위치와의 관계를 이용하여 머리가 옆으로 기울어진 회전 각을 추정한다. 그리고 머리의 회전 각을 고려한 타원을 사람 후보 이미지에 생성하며, 챔퍼 매칭(chamfer matching)을 통해 사람인지 아닌지에 대하여 최종 결정한다.

실험은 컬러 기반의 HOG(Histogram of Oriented Gradient) 방법과 깊이 영상기반의 Xia 방법과 비교를 하였다. 실험 결과 제안하는 방법이 머리가 옆으로 기울어져 있는 영상과 몸의 회전이 있는 영상에서 효과적으로 검출할 수 있었으며, 실시간 수행하는 것을 확인하였다.

권호기사보기

권호기사 목록 테이블로 기사명, 저자명, 페이지, 원문, 기사목차 순으로 되어있습니다.
기사명 저자명 페이지 원문 기사목차
연속간행물 팝업 열기 연속간행물 팝업 열기