검색 : [ keyword: 질의응답 ] (19)

관련성 게이트를 활용한 FiD 시스템의 패시지 선별 및 답변 생성 성능 향상

최승호, 박시현, 김민상, 박찬솔, 왕준호, 김지윤, 김봉수

http://doi.org/10.5626/JOK.2025.52.5.385

본 논문에서는 오픈 도메인 질의응답 시스템에서 FiD(Fusion-in-Decoder) 모델의 성능을 향상시키기 위한 새로운 접근 방식을 제안한다. FiD 모델은 여러 패시지를 독립적으로 인코딩한 후, 디코딩 단계에서 이를 결합하여 답변을 생성하는 구조를 갖고 있다. 그러나 이 방식은 불필요한 정보를 포함한 패시지를 필터링하지 못해 디코더에 과도한 부담을 주는 단점이 있다. 이를 해결하기 위해, 본 논문에서는 LSTM(Long Short-Term Memory)의 망각 게이트를 응용한 관련성 게이트(Relevance Gate)를 도입하였다. 이 게이트는 각 패시지의 관련성을 병렬적으로 평가하여 디코더에 전달되는 정보를 선별하며, 이를 통해 답변 생성의 정확성과 효율성을 크게 향상시킨다. 또한, 시그모이드 함수 대신 오픈 도메인 질의응답 시스템에 적합한 새로운 활성 함수를 적용하여 모델의 안정성을 확보하였다.

LLM 기반의 제로샷 문장 수준 단락 정제를 활용한 검색 증강 생성

황태호, 정소영, 조석민, 박종철

http://doi.org/10.5626/JOK.2025.52.4.304

본 논문은 강화학습 기반 자율이동체의 학습 효율을 향상시키기 위해 유사도 기반 다중 지식 전이 알고리즘(similarity-based multi-knowledge transfer, SMTRL)을 제안한다. SMTRL은 사전 학습된 모델과 현재 모델의 유사도를 계산하고, 그 유사도에 기반하여 지식 전이의 비율을 동적으로 조절하여 학습 효율을 극대화하는 방법론이다. 복잡한 환경에서 자율이동체가 단독으로 학습할 경우 많은 시간이 소요되므로, 지식 전이는 필수적이다. 하지만 사전 학습 모델과 실제 환경 간 차이가 클 경우, 학습 성능이 저하되는 부정 전이 현상이 나타날 수 있다. SMTRL은 이러한 부정 전이를 최소화하기 위해 유사도가 높은 사전 학습 모델의 지식을 반영 비율을 동적으로 조정함으로써 안정적으로 학습 속도를 가속화한다. 실험 결과, 제안된 알고리즘은 기존의 단일 지식 전이 및 전통적 강화학습 방법과 비교하여 수렴 속도 및 성능에서 우수한 결과를 나타냈다. 본 연구는 자율이동체의 효율적인 학습을 위한 새로운 지식 전이 방법을 제시하며, 복잡한 이동체 환경으로의 적용 가능성과 향후 연구 방향에 관해 논의한다.

질의 중심 다중 문서 요약을 통한 오픈 도메인 질의응답 시스템의 설명 가능한 근거 문장 생성

이하은, 고영중

http://doi.org/10.5626/JOK.2024.51.11.1020

오픈도메인 질의응답 시스템은 주어진 질의에 답변하기 위해 필요한 기반으로 언어모델에 내재된 지식만으로 충족되지 않는 외부 지식을 필요로 하며 최근 거대 언어모델에서 발생하는 환각 문제를 해결하기 위해 중요하게 연구되고 있는 기술이다. 본 논문에서는 QSG(Query-attentive Semantic Graph)의 구조 정보를 활용하여 멀리 떨어져 있는 문서 간의 정보를 질의 중심으로 요약, 이를 다중 문서 기반 질의 응답 시스템의 근거 문장으로 활용하는 모델을 제안한다. 질의 기반으로 요약 생성된 근거 문장은 기존의 추출 형식의 근거 문장을 사용하는 것보다 응답 생성 성능을 향상시킬 수 있었고 더 좋은 설명 가능성을 보여주었다.

생성형 언어모델을 이용한 테이블 질의응답 평가

민경구, 최주영, 심묘섭, 박민준, 최정규

http://doi.org/10.5626/JOK.2024.51.10.892

문서에서 테이블은 중요한 정보들을 축약하여 모아 놓은 정보 집합체라고 할 수 있다. 이러한 테이블을 대상으로 질의응답 하는 테이블 질의응답 기술들이 연구되고 있으며, 이 중 언어모델을 이용한 연구가 좋은 결과를 보이고 있다. 본 연구에서는 최근 주목받고 있는 생성형 언어모델 기술을 테이블 질의 응답에 적용하여 언어모델과 프롬프트의 변경에 따른 결과를 살펴보고, 단답형 정답과 생성형 결과의 특성 에 적합한 평가방법으로 측정해 보았다. 자체 개발한 EXAONE 1.7B 모델의 경우 KorWiki 데이터셋에 대해 적용하여 EM 92.49, F1 94.81의 결과를 얻었으며, 이를 통해 작은 크기의 모델을 파인 튜닝하여 GPT-4와 같은 초거대 모델보다 좋은 성능을 보일 수 있음을 확인하였으며 EXAONE 25B 모델의 경우 KorQuAD2Table 데이터셋에 대해서 실험한 모델들 중 가장 좋은 성능을 보였다.

다양한 도메인 변화에 강건한 한국어 표 기계독해

조상현, 김혜린, 권혁철

http://doi.org/10.5626/JOK.2023.50.12.1102

표 데이터는 일반적인 텍스트 데이터와 다르게 구조적인 특장점으로 정보를 압축해 표현할 수 있다. 이는 표가 다양한 도메인에서 활용되는 것으로 이어지며, 기계독해 영역에서의 표 기계독해 능력이 차지하는 비중은 점점 커지고 있다. 하지만 도메인마다 표의 구조와 요구되는 지식이 달라 언어 모델을 단일 도메인으로 학습했을 때 다른 도메인에서의 모델의 평가 성능이 하락해 일반화 성능이 낮게 나타날 가능성이 크다. 이를 극복하기 위해서는 다양한 도메인의 데이터셋 구축이 우선이 되어야 하며, 단순 사전학습한 모델이 아닌 다양한 기법을 적용하는 것이 중요하다. 본 연구에서는 도메인 일반화 성능을 높이기 위해 도메인 간 불변하는 언어적 특성(Invariant-feature)을 학습하는 언어 모델을 설계한다. 각 도메인별 평가 데이터셋에서의 성능을 높이기 위해서 적대적 학습을 이용하는 방법과 표 데이터에 특화된 임베딩 레이어와 트랜스포머 레이어를 추가하는 모델의 구조를 변형하는 방법을 적용하였다. 적대적 학습을 적용했을 때는 표와 관련된 특화된 임베딩을 추가하지 않는 구조의 모델에서 성능이 향상되는 것을 확인했으며, 표에 특화된 트랜스포머 레이어를 추가하고 추가된 레이어가 표에 특화된 임베딩을 추가로 입력받도록 했을 때, 모든 도메인의 데이터에서 가장 향상된 성능을 보였다.

질의응답에 대한 지식베이스 기반 근거 문장 생성 모델

성수진, 차정원

http://doi.org/10.5626/JOK.2023.50.11.940

본 연구에서는 지식베이스로부터 질의에 대한 근거 문장을 생성하여 응답 추론 과정에 정보를 추가하고, 사람이 읽기 쉬운 형태의 근거 문장을 제공하고자 한다. 이를 위해 HotpotQA 데이터 내 근거 문서에 대한 디비피디아와 위키데이터 두 개의 지식베이스를 직접 수집하고, 수집된 트리플을 기반으로 근거 문장 생성 모델을 학습한다. 답변 생성 모델은 생성된 근거 문장과 질문을 입력으로 학습한다. 지식베이스를 기반으로 생성된 근거 문장은 디비피디아와 위키데이터에 관계없이 모두 응답 생성에 대해 긍정적인 추가 정보를 제공하여 응답 생성 성능을 향상시킬 수 있었고, 사람이 이해할 수 있는 문장을 생성할 수 있었다.

R²FID: Joint Reranker기반 Fusion-In-Decoder를 이용한 오픈 도메인 테이블 질의 응답

이성민, 박은환, 서대룡, 전동현, 강인호, 나승훈

http://doi.org/10.5626/JOK.2023.50.10.874

오픈 도메인 질의 응답은 주어진 질문에 대한 단서가 주어지지 않은 환경에서 정답을 도출해 내는 어려운 문제이다. 최근 테이블 데이터와 같은 구조화된 데이터에서의 질의응답 시스템에 대한 중요도가 점차 높아지면서, 본 논문에서는 위키피디아에 등장하는 테이블들을 대상으로 한국어 테이블 오픈 도메인 질의 응답 시스템을 구성하기로 한다. 또한, 테이블 검색의 한계를 보완하기 위해 Joint Reranker 기반 Fusion-In-Decoder를 제안하고 적용하여 질의응답 과업에서 기존 방법에 대비하여 EM 3.36%, F1-Score 3.25% 향상을 이루어냈다.

학습 가능한 재순위화 및 응답 필터링 모델을 적용한 오픈 도메인 질의응답 시스템의 성능 향상

신현호, 이명훈, 전홍우, 이재민, 최성필

http://doi.org/10.5626/JOK.2023.50.3.273

딥러닝 기술이 자연어처리에 적용되면서, 사용자 질문에 대상 단락을 미리 준비하지 않은 상황에서도 정답을 찾을 수 있는 오픈 도메인 질의응답에 대한 연구가 활발히 진행되고 있다. 그러나 기존 연구는 키워드 기반 정보 검색을 사용하여 의미론적 매칭에 한계가 존재한다. 이를 보완하기 위해 딥러닝 기반 정보 검색 연구가 진행되고 있으나 실증적으로 실 시스템에 적용한 국내 연구는 아직 많지는 않은 상황이다. 이에 본 논문에서는 한국어 오픈 도메인 질의응답 시스템의 성능을 높이기 위해 2단계 성능 고도화 방법을 제안하였다. 제안된 방법은 검색엔진과 기계독해 모델이 결합된 형태의 베이스라인 시스템에 기계학습 기반의 재순위화 모델과 응답 필터링 모델을 순차적으로 적용하는 방법이다. 베이스라인 시스템의 경우 초기 성능은 F1 스코어 74.43, EM 스코어 60.79이며, 제안된 방법을 활용하였을 때 F1 스코어 82.5, EM 스코어 68.82로 성능이 향상되는 것을 확인하였다.

KorSciQA 2.0: 과학기술 분야 한국어 논문 기계독해를 위한 질의응답 데이터셋

공혜수, 윤화묵, 현미환, 이혜진, 설재욱

http://doi.org/10.5626/JOK.2022.49.9.686

최근 다양한 질의응답 공개 과제를 통해 기계독해 시스템의 성능은 향상되고 있으며, 더욱 지능화된 기계독해 시스템의 학습을 위해 여러 텍스트 단락과 지문을 포괄적으로 이해하고 이산적인 추론을 해야 하는 도전적인 과제가 공개되고 있다. 그러나 한국어 학술정보를 이해하기 위한 복합추론 목적 질의 응답 데이터셋의 부재로 인해 학술 논문에 대한 기계독해 연구는 활발히 이루어지지 않고 있다. 본 논문에서는 한국어 학술 논문의 전문을 대상으로 난이도를 일반, 하, 상으로 나누어 기계독해 시스템의 변별력을 확인할 수 있는 질의응답 데이터인 KorSciQA 2.0을 구축하였으며, KorSciQA 2.0을 구축하기 위한 방법론과 프로세스, 그리고 시스템을 제안하였다. KorSciQA 2.0에 대한 기계독해 성능 평가 실험 결과, 과학기술분야 도메인에 대한 한국어 기반 BERT 모델인 KorSciBERT 모델을 기반으로 미세 조정(Fine-tuning)하였을 때, F1 성능이 80.76%로 가장 높은 성능을 보였다.

비디오 질의응답 정확도 향상을 위해 신뢰성 기반 다중 선택 학습을 활용한 앙상블 모델에 관한 연구

박규민, 김아영, 박성배

http://doi.org/10.5626/JOK.2022.49.4.284

비디오 질의응답은 비디오와 질의를 입력으로 받아서 적절한 응답을 도출하는 문제로, 대표적인 멀티모달 문제 중 하나이다. 비디오 질의응답 모델은 질의에 적절한 응답을 도출하기 위해서 멀티모달 정보뿐만 아니라 시계열 정보를 처리할 수 있는 능력이 필요하다. 그래서 모든 질의에 강건하게 응답하는 단일 모델을 설계하는 것은 어려운 문제이다. 성능 향상을 위해 기존의 여러 모델들을 결합하는 방법이 있다. 하지만 기존의 여러 모델들을 결합하는 방법은 모델마다 비디오를 표현하는 관점이 다르기에 성능을 개선하기 위해서는 각 모델의 관점을 반영할 수 있는 앙상블 모델과 학습 기법이 필요하다. 본 논문에서는 비디오 질의응답 성능을 높이기 위하여 신뢰성 기반 다중 선택 학습(CMCL) 기반의 앙상블 모델을 제안한다. DramaQA 데이터셋으로 실험한 결과, 기존의 두 질의응답 모델에 CMCL을 적용한 모델이 단일 모델들보다 더 높은 성능을 보여주었으며 앙상블 방법들이 모델에 미치는 영향을 분석하였다.


Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr