표제지
목차
Abstract(초록) 9
Ⅰ. 서론 11
1.1. 연구 배경 11
1.2. 연구의 목적 18
1.3. 논문의 구성 21
Ⅱ. 관련 연구 및 동향 22
2.1. 객체 추종 기능을 가지는 로봇 제품군 현황 22
2.2. 객체 추적 프로그램 현황 30
2.3. 실험용 로봇의 하드웨어 구성 현황 39
2.4. 영상데이터 취득 및 분석시스템 구성 45
Ⅲ. 객체 추종 로봇의 추적 S/W 설계 이론 49
3.1. Single Shot Detector Model과 Centroid Tracker를 이용한 객체 추적 50
3.2. YOLOv3와 Color Tracker를 이용한 객체 추적 60
3.3. Hourglass Key Points Model과 Key Points Color Tracker를 이용한 객체 추적 64
Ⅳ. 객체 추적 S/W 구현 및 분석 78
4.1. Single Shot Detector Model과 Centroid Tracker를 이용한 객체 추적 구현 85
4.2. YOLOv3와 Color Tracker를 이용한 객체 추적 구현 88
4.3. Hourglass Key Points Model과 Key Points Color Tracker를 이용한 객체 추적 구현 91
4.4. 객체 추적 프로그램의 성능 분석 및 고찰 105
Ⅴ. 결론 108
참고문헌 110
표 1-1. 농업용 로봇의 기술 분류 15
표 1-2. 농업용 로봇의 기술현황 및 발전방향 16
표 2-1. Terabee사 로봇의 객체 추종 방법 및 시스템 구성 요소 24
표 2-2. 실험용 로봇의 제원 41
표 2-3. Realsence D435 제원 45
표 3-1. Width Multiplier 값의 변화에 따른 값들의 변화 54
표 3-2. Resolution Multiplier 값의 변화에 따른 값들의 변화 54
표 3-3. 히스토그램 유사성 실험 결과 63
표 3-4. 이미지 전처리 실험 결과 77
표 4-1. 객체 추적 S/W 실험 환경 사양표 78
표 4-2. SSD model & Centroid Tracker 실험 결과 85
표 4-3. YOLOv3 & Color Tracker 실험 결과 88
표 4-4. 이미지 유사도 예시 96
표 4-5. 객체 ID 추측 방법별 결과 97
표 4-6. Hourglass Key Points Model & Color Tracker 실험 결과 104
그림 1-1. 농가 및 농가인구 현황 11
그림 1-2. 존디어 및 랠리사의 농업용 로봇 상용화 제품 14
그림 2-1. Doog사 Thouzer 로봇 23
그림 2-2. Effidence사 Effibot 로봇 24
그림 2-3. Terabee사의 로봇 25
그림 2-4. Terabee의 삼각법 측정 25
그림 2-5. PIAGGIO사의 Gita 25
그림 2-6. Gita의 객체 추종 프로그램 구성 26
그림 2-7. XAG R150 구성현황 및 컨트롤러 27
그림 2-8. XAG R150 로봇 및 XAG의 RTK-GPS VRS 27
그림 2-9. COWAROBOT사의 R1 및 R1 Following 기능 28
그림 2-10. Amazon의 가정용 로봇 Astro 29
그림 2-11. 객체 추적 프로그램 예시 : 반전된 이미지 기반의 객체 추적 34
그림 2-12. 색상 모델 모식도 : (좌) Gray 모델, (우) RGB 모델 36
그림 2-13. 샴 네트워크 아키텍처의 예시 37
그림 2-14. 모션 신호를 파생하는 칼만필터의 작동원리 38
그림 2-15. 실험용 로봇 외형 모델링 작업 39
그림 2-16. 실험용 로봇 외형 제작 40
그림 2-17. 로봇의 조향장치 모델링 42
그림 2-18. 구동부의 완충장치 43
그림 2-19. 로봇의 구성현황 44
그림 2-20. RealSense D435 및 Benewake CE30-D 장착 현황 46
그림 2-21. 로봇의 객체 추종 테스트 48
그림 3-1. IoU 도식화 및 Threshold 값 51
그림 3-2. SSD 개념도 52
그림 3-3. Residual block과 Inverted residual block의 차이 55
그림 3-4. 경계 상자 좌표 및 중심점 계산 56
그림 3-5. 후속 프레임의 경계 상자 및 중심점 56
그림 3-6. 직전 프레임과 후속 프레임 경계 상자 57
그림 3-7. 중심 쌍 사이의 유클리드 거리 계산 57
그림 3-8. 최소 거리를 가지는 객체 이동 도식화 58
그림 3-9. ID와 위치 갱신 및 등록 59
그림 3-10. YOLOv3 개념도 61
그림 3-11. Image Tracker 흐름도 61
그림 3-12. Coner pooling layer 모식도 65
그림 3-13. Coner pooling layer 설정 예시 66
그림 3-14. Cascade corner pooling layer 설정 예시 66
그림 3-15. Key Point 반환 예시 68
그림 3-16. Key Points Color Tracker 흐름도 69
그림 3-17. Histogram Equalization 비교 70
그림 3-18. 타일로 분할된 이미지 내역 71
그림 3-19. Histogram Equalization 비교 72
그림 3-20. 원본 이미지 2차원 히스토그램 72
그림 3-21. 히스토그램 균일화와 CLAHE에 대한 2차원 히스토그램 73
그림 3-22. HE 및 CLAHE 필터 적용 예시 74
그림 3-23. Homomorphic Filtering 적용 이미지 예시 76
그림 4-1. Case 1 이미지 내역 79
그림 4-2. Cass 2 이미지 내역 80
그림 4-3. Case 3 이미지 내역 81
그림 4-4. Cass 4 이미지 내역 82
그림 4-5. Cass 5 이미지 내역 83
그림 4-6. 시간 측정 소스 코드 84
그림 4-7. Centroid Tracker 추적 화면 85
그림 4-8. 추적 중인 대상이 다른 대상을 폐색한 예시 86
그림 4-9. 폐색에 의한 ID 추적 오류 예시 87
그림 4-10. Color Tracker 실행 화면 88
그림 4-11. 측면 보행 시 경계 상자 예시 89
그림 4-12. 비율 상수 C₁에 따른 인식률 변화 그래프 91
그림 4-13. 크기 n에 따른 객체 추적 성공률 92
그림 4-14. 신뢰 상수 C₂에 따른 인식 변화율 94
그림 4-15. 평균 예측 성공률과 소요 시간 95
그림 4-16. 객체 추종 모델 흐름도 99
그림 4-17. Key Points Color Tracker 실행 화면 100
그림 4-18. 배경 인식으로 인한 오류 화면 101
그림 4-19. Key Point로 제어된 배경 인식 화면 101
그림 4-20. 다른 객체에 의해 폐색 되었을 경우 Key Point 예시 102
그림 4-21. Key Point 근접 오류 예시 103
그림 4-22. 객체 인식 모델별 성능 비교 내역 106