트랜스포머 기반 한국어 텍스트 요약 모델의 순차적 문맥 학습 영향성 분석 


48권  10호, pp. 1097-1104, 10월  2021
10.5626/JOK.2021.48.10.1097


PDF

  요약

텍스트 요약 기술은 전체 텍스트 내용이 가지는 의미를 유지하면서도 텍스트의 길이를 줄여, 정보 과적재 문제를 해결하고 독자의 빠른 정보 소비를 돕는다. 이를 위해 트랜스포머 기반의 영어 텍스트 요약 모델에 대한 연구가 활발히 진행되고 있다. 최근에는 RNN 기반의 인코더를 추가하여 고정된 어순을 갖는 영어의 특성을 반영한 추상 텍스트 요약 모델이 제안되기도 했다. 본 논문은 영어보다 자유로운 어순을 갖는 한국어에 대해 RNN 기반의 인코더를 이용하여, 텍스트 추상 요약 모델에 순차적 문맥 학습이 어떠한 영향을 미치는지 연구하였다. 직접 수집한 한국어 기사에 대해 트랜스포머 기반 모델과 기존 트랜스포머에 RNN 기반 인코더를 추가한 모델을 학습하여 제목 생성 및 기사 내용 요약 성능을 분석하였다. 실험 결과, RNN 기반의 인코더를 추가한 모델이 더 높은 성능을 보였으며, 한국어 텍스트의 추상 요약 수행 시, 순차적인 문맥 학습이 필요함을 확인하였다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

S. Kim, Y. Kim, J. Bang, "Analyzing the Impact of Sequential Context Learning on the Transformer Based Korean Text Summarization Model," Journal of KIISE, JOK, vol. 48, no. 10, pp. 1097-1104, 2021. DOI: 10.5626/JOK.2021.48.10.1097.


[ACM Style]

Subin Kim, Yongjun Kim, and Junseong Bang. 2021. Analyzing the Impact of Sequential Context Learning on the Transformer Based Korean Text Summarization Model. Journal of KIISE, JOK, 48, 10, (2021), 1097-1104. DOI: 10.5626/JOK.2021.48.10.1097.


[KCI Style]

김수빈, 김용준, 방준성, "트랜스포머 기반 한국어 텍스트 요약 모델의 순차적 문맥 학습 영향성 분석," 한국정보과학회 논문지, 제48권, 제10호, 1097~1104쪽, 2021. DOI: 10.5626/JOK.2021.48.10.1097.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr