표제지
목차
논문개요 10
제1장 서론 11
제1절 연구 배경 11
제2절 연구 목표 13
제2장 이론적 배경 14
제1절 목표 기반 시각적 이동 작업 14
제2절 시각적 맥락 정보 16
제3절 보상함수 18
제3장 목표 기반 시각적 이동 모델 19
제1절 모델 개요 19
제2절 시각적 맥락정보 임베딩 23
제3절 보상함수 설계 25
제4절 교착상태 복구를 위한 적응적 모방학습 28
제4장 구현 및 실험 33
제1절 구현 및 실험 환경 33
제2절 정량적 실험 36
제1항 시각적 맥락에 따른 성능 비교 36
제2항 보상함수에 따른 성능 비교 38
제3항 모방학습 길이에 따른 성능 비교 40
제4항 다른 최신 시각적 이동 모델들과의 성능 비교 42
제3절 정성적 실험 44
제5장 결론 및 향후 연구 48
참고문헌 49
Abstract 54
〈표 1〉 실험 환경 35
〈표 2〉 시각적 맥락에 따른 비교 36
〈표 3〉 보상함수에 따른 비교 38
〈표 4〉 모방학습 길이에 따른 비교 40
〈표 5〉 다른 최근 시각적 이동 모델들과의 비교 42
〈그림 1〉 목표 기반 시각적 이동 작업의 예시. 11
〈그림 2〉 제안된 VCENet 모델의 구조. 19
〈그림 3〉 시각적 맥락 네트워크. 23
〈그림 4〉 입력 영상을 이용한 교착상태 탐지 26
〈그림 5〉 교착상태 복구 네트워크 28
〈그림 6〉 목표기반 시각적 이동 작업에서의 교착상태 예시 29
〈그림 7〉 물체 탐지기 간의 비교 44
〈그림 8〉 최신 모델과 제안 모델 VCENet 간의 정성적 비교 분석 45
〈그림 9〉 제안된 VCENet 모델의 정성적 분석 47