텍스트 요약은 긴 텍스트의 핵심 의미와 정보를 보존하는 동시에 간결한 문장 형태로 생성하는 작업이다. 원본 텍스트에서 중요한 문장을 선택하는 추출적 요약과 달리, 추상적 요약은 콘텐츠를 재구성하여 포괄적인 문장을 제공한다. 디지털 시대에는 방대한 양의 텍스트 데이터 중에서 적절한 정보를 검색하는 것이 더욱 어려워졌다. 따라서, 효율적인 정보를 빠르게 전달하는 추상적 요약 작업에 대한 수요가 높아지고 있다. 최근에는 BART 와 같은 seq2seq 구조를 기반으로 한 마스크 언어 모델의 발전으로 추상적 요약에 있어 중요한 개선이 이루어졌습니다. 하지만 해당 모델은 exposure bias 와 같은 문제를 가지고 있다. 사전 학습 모델(PLM)의 성능을 최적화하는 다양한 방법이 있지만, 이 연구에서는 삼중 손실(triplet loss)의 적용을 통해 그 효과를 입증하였다. 삼중 손실은 기계 학습에서 사용되는 손실 함수로, 앵커(anchor)라고 불리는 기준점과 앵커와 유사한 긍정 예시(positive example) 및 앵커와 다른 부정 예시(negative example)를 비교하여 효과적인 표현을 학습하려는 것입니다. 빔 탐색(beam search)을 사용하여 요약 후보를 생성하고, 문장 쌍을 높은 유사도를 갖는 긍정 쌍 또는 낮은 코사인 유사도를 갖는 부정 쌍으로 식별하여 유사도의 정도를 나타낸다. 이 방법을 통해 모델이 효율적인 표현을 습득할 수 있게 하여, 기존 모델에 비해 ROUGE 평균적으로 3% 개선하였다.