의미역 결정을 위한 In-context Learning의 예제 선택 고도화 및 예제 재정렬 


52권  11호, pp. 948-953, 11월  2025
10.5626/JOK.2025.52.11.948


PDF

  요약

최근 대규모 언어 모델은 대용량 데이터를 사전 학습한 뒤 자체적인 언어 이해능력을 활용하여 추가 학습데이터를 학습시키지 않고 단순하게 프롬프트(Prompt)에 예제를 넣는 방법으로 기존의 작업을 처리할 수 있는 In-context Learning(ICL) 기법이 활발히 연구되고 있다. 그러나 이러한 예제 기반의 ICL 기법은 소량의(Few-shot) 예제에 의존하여 성능이 크게 변화하기에 어떤 예제를 선택하는 지와 그 예제를 어떻게 프롬프트로 구성하는지가 중요하다. 본 논문에서는 의미 구조를 출력해야 하는 비교적 어려운 작업인 의미역 결정(Semantic Role Labeling)에 ICL 기법을 적용할 때 예제 선택을 고도화 하고 이를 재정렬하는 방법을 제안한다. 특히 단순히 예제 순서를 유사도의 역순으로 정렬하는 방법만으로 의미역 결정 작업에서 최적의 예제 순서에 가까운 성능을 낼 수 있음을 확인하였다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

H. Hwang, Y. Jung, C. Lee, "OCR post-processing, Korean OCR error correction, Prompt engineering, LLM," Journal of KIISE, JOK, vol. 52, no. 11, pp. 948-953, 2025. DOI: 10.5626/JOK.2025.52.11.948.


[ACM Style]

Hyunsun Hwang, Youngjun Jung, and Changki Lee. 2025. OCR post-processing, Korean OCR error correction, Prompt engineering, LLM. Journal of KIISE, JOK, 52, 11, (2025), 948-953. DOI: 10.5626/JOK.2025.52.11.948.


[KCI Style]

황현선, 정영준, 이창기, "의미역 결정을 위한 In-context Learning의 예제 선택 고도화 및 예제 재정렬," 한국정보과학회 논문지, 제52권, 제11호, 948~953쪽, 2025. DOI: 10.5626/JOK.2025.52.11.948.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr