표제지
목차
제1장 서론 7
제2장 관련 연구 11
1. 비디오 인식 모델 11
2. 이미지 인식 모델의 적대적 공격 12
3. 비디오 인식 모델의 적대적 공격 14
4. Temporal summation 15
제3장 제안 방법 17
1. Preliminaries 17
2. Aligning process 18
제4장 결과 20
1. 실험설정 20
2. 공격에 대한 성능 비교 21
3. 공격에 대한 비가시성 비교 23
4. λ에 따른 성능 비교 24
5. Aligning process의 확장성 25
제5장 결론 27
1. 결론 27
2. 한계점 28
제6장 참고문헌 29
초록 33
Abstract 34
표 4-1. є=4/255로 제한하여 targetd attack과 untargetd attack에서의 성능을 비교. 21
표 4-2. є=4/255로 제한하여 targetd attack과 untargetd attack에서 다양한 방법론의 성능 비교. 25
그림 1-1. 딥러닝 분류기를 공격하기 위한 적대적 예제의 예시 8
그림 1-2. 딥러닝 분류기를 공격하기 위한 적대적 예제의 예시 8
그림 1-3. 주파수 성분을 이용한 적대적 공격 9
그림 1-4. 특정 색상 공간에서의 적대적 공격 9
그림 2-1. 여러 형태의 비디오 분류 모델 11
그림 2-2. 적대적 예제가 특정 decision boundary로 이동하는 모습 13
그림 2-3. Temporal summation이 발생한 상황의 예시 16
그림 2-4. Temporal summation을 통해 screen shot 컨텐츠의 보안을 위한 방법론 16
그림 3-1. Aligning process의 이해를 위한 시각화 19
그림 4-1. Targeted attack(왼쪽)과 untargeted attack(오른쪽) 상황에서 base PGD와 제안한 방법론의 정량적인 비교. 22
그림 4-2. PGD attack을 통해 δ를 보다 나은 시각화를 위해 5배 만큼 강도를 강하게 하여 시각화 하였다. 23
그림 4-3. 우측으로 이동할수록 λ가 0.1씩 상승하는 ASR과 MPS에 대한 그래프 24
그림 4-4. MIM attack에 대한 섭동의 시각화 26
그림 4-5. TPGD attack에 대한 섭동의 시각화 26