자연어 처리에서 대조 학습을 이용한 적대적 훈련 


52권  1호, pp. 52-61, 1월  2025
10.5626/JOK.2025.52.1.52


PDF

  요약

자연어 처리(NLP)에서는 유사한 입력이 의미적으로 유사한 결과를 내도록 적대적 학습이 연구되어왔다. 그러나 언어에는 의미적 유사성에 대한 객관적인 척도가 없기 때문에, 기존 연구에서는 이러한 유사성을 보장하기 위해 외부의 사전 학습된 NLP 모델을 사용하여 많은 메모리를 소비하는 추가 학습 단계를 도입했다. 이 연구에서는 대조 학습을 이용해 언어 처리 모델을 적대적으로 훈련하는 적대적 학습(ATCL)을 제안한다. 핵심 아이디어는 빠른 경사 방법(FGM)을 통해 입력의 임베딩 공간에 선형의 변화를 만들고 대조 학습을 통해 원래 표현과 변화된 표현을 가깝게 유지하도록 훈련한다. 언어 모델링과 신경망 기계 번역 작업에 ATCL을 적용한 결과, 개선된 정량적(PPL 및 BLEU) 점수를 보여준다. 또한 시뮬레이션을 통해 ATCL은 사전 학습된 모델을 사용하지 않고도 두 작업 모두에서 의미 수준에서 우수한 정성적 결과를 달성한다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

D. N. Rim, D. Heo, H. Choi, "Adversarial Training with Contrastive Learning in NLP," Journal of KIISE, JOK, vol. 52, no. 1, pp. 52-61, 2025. DOI: 10.5626/JOK.2025.52.1.52.


[ACM Style]

Daniela N. Rim, DongNyeong Heo, and Heeyoul Choi. 2025. Adversarial Training with Contrastive Learning in NLP. Journal of KIISE, JOK, 52, 1, (2025), 52-61. DOI: 10.5626/JOK.2025.52.1.52.


[KCI Style]

다니엘라 림, 허동녕, 최희열, "자연어 처리에서 대조 학습을 이용한 적대적 훈련," 한국정보과학회 논문지, 제52권, 제1호, 52~61쪽, 2025. DOI: 10.5626/JOK.2025.52.1.52.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr