장기 대화를 위한 다각적 주의집중 기반 생성 모델 


52권  2호, pp. 117-124, 2월  2025
10.5626/JOK.2025.52.2.117


PDF

  요약

더욱 사람 같은 대화 모델을 실현하기 위해, 페르소나 메모리를 활용하여 응답을 생성하는 연구들이 활발히 진행되고 있다. 다수의 기존 연구들에서는 메모리로부터 관련된 페르소나를 찾기 위해 별도의 검색 모델을 이용한다. 그러나 이는 전체 시스템에 속도 저하를 일으키고 시스템을 무겁게 만드는 문제가 있다. 또한, 기존 연구들은 페르소나를 잘 반영해 응답하는 능력에만 중점을 두는데, 그 전에 페르소나 참조의 필요성 여부를 판별하는 능력이 선행되어야 한다. 따라서, 본 논문에서는 검색 모델을 활용하지 않고 생성 모델의 내부에서 다각적 주의집중 연산을 통해 메모리의 참조가 필요한지를 판별한다. 참조가 필요하다고 판단한 경우에는 관련된 페르소나를 반영하여 응답하며, 그렇지 않은 경우에는 대화 문맥에 집중하여 응답을 생성한다. 실험 결과를 통해 제안 모델이 장기적인 대화에서 효과적으로 동작함을 확인하였다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

H. Kim, B. Keum, J. Huang, O. Kwon, H. Kim, "Multi-Level Attention-Based Generation Model for Long-Term Conversation," Journal of KIISE, JOK, vol. 52, no. 2, pp. 117-124, 2025. DOI: 10.5626/JOK.2025.52.2.117.


[ACM Style]

Hongjin Kim, Bitna Keum, Jinxia Huang, Ohwoog Kwon, and Harksoo Kim. 2025. Multi-Level Attention-Based Generation Model for Long-Term Conversation. Journal of KIISE, JOK, 52, 2, (2025), 117-124. DOI: 10.5626/JOK.2025.52.2.117.


[KCI Style]

김홍진, 금빛나, 황금하, 권오욱, 김학수, "장기 대화를 위한 다각적 주의집중 기반 생성 모델," 한국정보과학회 논문지, 제52권, 제2호, 117~124쪽, 2025. DOI: 10.5626/JOK.2025.52.2.117.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr