BERT 기반 End-to-end 신경망을 이용한 한국어 상호참조해결 


47권  10호, pp. 942-947, 10월  2020
10.5626/JOK.2020.47.10.942


PDF

  요약

상호참조해결은 주어진 문서에서 상호참조해결 대상이 되는 멘션(mention)을 식별하고, 같은 개체(entity)를 의미하는 멘션을 찾아 그룹화하는 자연어처리 태스크이다. 한국어 상호참조해결에서는 멘션탐지와 상호참조해결을 동시에 진행하는 end-to-end 모델과 포인터 네트워크 모델을 이용한 방법이 연구되었다. 구글에서 공개한 BERT 모델은 자연어처리 태스크에 적용되어 많은 성능 향상을 보였다. 본 논문에서는 한국어 상호참조해결을 위한 BERT 기반 end-to-end 신경망 모델을 제안하고, 한국어 데이터로 사전 학습된 KorBERT를 이용하고, 한국어의 구조적, 의미적 특징을 반영하기 위하여 의존구문분석 자질과 개체명 자질을 적용한다. 실험 결과, ETRI 질의응답 도메인 상호참조해결 데이터 셋에서 CoNLL F1(DEV) 71.00%, (TEST) 69.01%의 성능을 보여 기존 연구들에 비하여 높은 성능을 보였다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

K. Kim, C. Park, C. Lee, H. Kim, "Korean End-to-end Neural Coreference Resolution with BERT," Journal of KIISE, JOK, vol. 47, no. 10, pp. 942-947, 2020. DOI: 10.5626/JOK.2020.47.10.942.


[ACM Style]

Kihun Kim, Cheonum Park, Changki Lee, and Hyunki Kim. 2020. Korean End-to-end Neural Coreference Resolution with BERT. Journal of KIISE, JOK, 47, 10, (2020), 942-947. DOI: 10.5626/JOK.2020.47.10.942.


[KCI Style]

김기훈, 박천음, 이창기, 김현기, "BERT 기반 End-to-end 신경망을 이용한 한국어 상호참조해결," 한국정보과학회 논문지, 제47권, 제10호, 942~947쪽, 2020. DOI: 10.5626/JOK.2020.47.10.942.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr