네트워크 프루닝(network pruning)은 신경망의 불필요한 파라미터를 프루닝 기준(pruning criterion)을 이용하여 선택한 후 제거함으로써 신경망을 압축하는 기법이다. 하지만 신경망의 압축 비율이 높아질수록, 신경망 내 필요한 파라미터가 제거되어 압축된 신경망의 성능 하락이 발생한다. 이렇게 프루닝 이후 하락된 신경망의 성능은 미세조정 과정(fine-tuning process)을 통해 복구된다. 하지만 미세조정 과정은 학습에 필요한 수많은 데이터와 컴퓨팅 자원이 필요하다는 점에서 모바일과 같은 컴퓨팅 자원이 제한된 환경에서는 수행되기 어렵다. 이러한 문제를 해결하기 위해, 기존 연구에서는 제거되는 파라미터와 가장 유사한 파라미터를 선택하고 선택된 파라미터가 제거되는 파라미터의 정보를 상속하게 함으로써 압축된 신경망의 성능을 미세조정 과정 없이 복구하는 방법을 제안하였다. 하지만 이러한 단일 파라미터 기반 복구 기법은 신경망의 계층이 깊어질수록 파라미터 간의 유사도가 떨어진다는 점을 간과한다. 즉, 제거되는 파라미터와 보존되는 파라미터 간의 유사도가 낮음에도 성능 복구에 불필요한 파라미터를 선택할 가능성이 있다. 따라서 미세조정 과정 없이 프루닝으로 압축된 신경망의 성능을 보다 정확하게 복구하기 위해, 본 논문에서는 제거되는 필터가 여러 개의 필터에 정보를 분할해서 전달할 수 있도록 하는 방식을 제안한다. 이를 위해, 제거되는 필터와 보존되는 필터들간의 선형관계를 가정하고 BN과 ReLU를 고려한 손실함수를 새롭게 정의한다. 이후 이러한 손실함수를 최소화하는 계수들을 구하고, 제거되는 필터로 인해 연쇄적으로 제거되는 다음 계층의 채널에 해당 계수를 적절히 곱하여 나머지 보존되는 필터들의 채널에 더함으로써 손실 정보를 전달한다. ResNet-101을 이용한 이미지넷(ImageNet) 데이터를 사용한 실험을 통해, 제안된 기법이 기존 연구보다 프루닝 비율(pruning ratio) 30%에서 평균적으로 17.92% 더 높은 성능을 보이는 것을 확인했다.