무한한 동적 범위를 가진 장면을 촬영하기 위해서는 값비싼 High Dynamic Range (HDR) 카메라가 필수적이다. 그러나 비교적 저렴한 LDR 카메라를 사용하여 서로 다른 노출 값으로 촬영된 Low Dynamic Range (LDR) 이미지를 합성하여 HDR 영상을 생성할 수 있다. 하지만, 이 과정에서 고정되지 않은 카메라와 촬영 피사체의 큰 움직임으로 인해 유령 결함이 발생한다. 따라서 이러한 결함을 제거하기 위한 수많은 방법이 제안되었다. 최근에는 이 문제를 해결하기 위한 방법으로 비전 트랜스포머(ViT)를 도입하여 몇 가지 큰 개선을 이루었다. 그러나 입력 영상의 크기의 제곱에 비례하여 증가하는 큰 계산 비용으로 인해 비전 트랜스포머를 활용하여 해결하기에는 여전히 제한이 있다. 비전 트랜스포머를 활용한 방법들에서는 이러한 제약 때문에 매우 작은 패치로 이미지를 분할하여 학습을 수행할 뿐만 아니라 추론할 때에도 영상을 작은 패치로 분할하여 수행한다. 이러한 프로세스는 비전 트랜스포머의 장거리 관련도를 활용할 수 있다는 이점을 활용할 수 없도록 한다. 따라서 HDR deghosting 분야에서 가변 컨볼루션(Deformable Convolution)의 이점을 충분히 활용할 수 있는 DFHDRNet을 제안한다. 또한 가변 컨볼루션을 기반으로 서로 다른 노출로 LDR 영상을 융합하는 Deformable Fusion Block (DFFB)을 설계했다. 또한 과/저노출 영역을 효과적으로 복원하기 위해 Depth-wise Attention Module (DWAM)을 제안한다. 우리는 공개된 HDR 데이터 세트들에 대해 실험을 수행했으며 제안된 방법이 다양한 지표로 기존 트랜스포머 기반 방법을 능가함을 보인다.