BERT를 이용한 한국어 의미역 결정 


47권  11호, pp. 1021-1026, 11월  2020
10.5626/JOK.2020.47.11.1021


PDF

  요약

의미역 결정은 문장 내에서 “누가, 무엇을, 어떻게, 왜” 등의 관계를 찾아내는 자연어처리의 한 응용이다. 최근 의미역 결정 연구는 주로 기계학습을 이용하고 자질 정보를 배제한 종단 대 종단(end-to-end) 방식의 연구가 이루어지고 있다. 최근 BERT(Bidirectional Encoder Representations from Transformers)라는 언어 모델이 자연어처리 분야에 등장하여 기존 자연어처리 분야의 최고 성능 모델들 보다 더 좋은 성능을 보이고 있다. 종단 대 종단 방식을 이용한 의미역 결정 연구의 성능은 주로 기계학습 모델의 구조나 사전에 학습된 언어 모델의 영향을 받는다. 따라서 본 논문에서는 한국어 의미역 결정성능 향상을 위해 BERT를 한국어 의미역 결정에 적용한다. 실험 결과 BERT를 이용한 한국어 의미역 결정 모델의 성능이 85.77%로 기존 한국어 의미역 결정 모델들 보다 좋은 성능을 보였다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

J. Bae, C. Lee, S. Lim, H. Kim, "Korean Semantic Role Labeling with BERT," Journal of KIISE, JOK, vol. 47, no. 11, pp. 1021-1026, 2020. DOI: 10.5626/JOK.2020.47.11.1021.


[ACM Style]

Jangseong Bae, Changki Lee, Soojong Lim, and Hyunki Kim. 2020. Korean Semantic Role Labeling with BERT. Journal of KIISE, JOK, 47, 11, (2020), 1021-1026. DOI: 10.5626/JOK.2020.47.11.1021.


[KCI Style]

배장성, 이창기, 임수종, 김현기, "BERT를 이용한 한국어 의미역 결정," 한국정보과학회 논문지, 제47권, 제11호, 1021~1026쪽, 2020. DOI: 10.5626/JOK.2020.47.11.1021.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr