목차
Abstract 1
Ⅰ. 서론 1
Ⅱ. 3차원 공간 재구축 3
Ⅲ. Neural Radiance FIeld(NeRF) 6
Ⅳ. NeRF 모델의 한계 및 개선 방향 15
Ⅴ. 결론 16
참고문헌 17
그림 1. 핀홀 카메라 모델에서의 Epipolar Geometry - 기하학적 관계([1]의 Fig.2.2) 4
그림 2. COLMAP - Incremental Structure-from-Motion 모식도([4]의 Fig.2) 4
그림 3. MVSNet의 네트워크 구조 및 전체 흐름도([5]의 Fig.1) 5
그림 4. MVSNet의 깊이영상 예측 결과 및 포인트 클라우드 형식의 결과물([5]의 Fig.3) 6
그림 5. NeRF 모델의 신경망 학습의 전체 흐름([6]의 Fig.2) 7
그림 6. 학습된 NeRF 모델로 새로운 시점에서 해당 장면을 바라본 이미지([6]의 Fig.5) 8
그림 7. 정밀하게 재구축된 3차원 장면 결과(왼쪽부터 정답, NeuS, IDR, NeRF) ([9]의 Fig.4) 9
그림 8. 강체변환을 통해 물체의 3차원 움직임을 NeRF 시스템 안에 포함시켜 모델링하는 전체 흐름도([12]의 Fig.2) 10
그림 9. 시간에 따라 변화하는 물체의 움직임 모델링 결과([12]의 Fig.6) 10
그림 10. NeRF를 이용한 3차원 아바타 모델링의 전체 네트워크 및 흐름도([14]의 Fig.2) 11
그림 11. 새로운 시점에서 바라본 3차원 아바타 모델링 결과(왼쪽부터 정답, Neural Texture, NHR, Animatable-NeRF)([14]의 Fig.3) 11
그림 12. NeRF-W[18]의 잠재적 표현자를 이용한 모델링 흐름도([18]의 Fig.3) 12
그림 13. NeRF-W[18]의 잠재적 표현자 보간을 통한 조도 변화 모델링 결과([18]의 Fig.3) 13
그림 14. NeRF-Editing[20]의 전체 네트워크 및 흐름도([20]의 Fig.2) 13
그림 15. NeRF-Editing[20]을 통해 변형된 물체의 렌더링 결과([20]의 Fig.) 14
그림 16. NeRF와 같은 기술이 적용될 것으로 보이는 Google의 미래 기술, Starline 프로젝트 15