CLIP 와 같이 사전 학습된 시각-언어 모델의 부상은 후속 데이터셋에 이러한 모델들을 적응시키는 방법들이 활발히 연구되고 있다. 그 중 최신 시각-언어 모델인 CLIP 에 기반을 둔 CoOp 와 CoCoOp 모델을 통해 few-shot 학습 능력을 향상시킴이 증명되었다. 본 논문에서는 데이터가 부족하거나 과적합되는 경향이 있을 때 심층 학습 모델의 성과 개선을 증명하는 강력한 도구가 되는 Mixup 데이터 증강 기법을 활용하여 시각-언어 모델의 효과적인 적응기법인 prompt learning 을 연구한다. 모델이 더 다양한 패턴을 학습함으로써 프롬프트 기반의 few-shot learning 의 효과성을 개2선된 일반화 성능을 보였다. 본 논문은 CoOp 와 CoCoOp 의 few-shot 성능을 개선함에 있어 Mixup 데이터 증강 기법의 효과성과 강점, 한계를 입증하는 실험을 수행한다.