검색 : [ keyword: 언어 모델 ] (33)

LLMEE: 시각적 Token Attribution을 통한 대규모 언어 모델의 설명 가능성 및 평가 강화

김윤수, 김민찬, 최진우, 황영석, 박현우

http://doi.org/10.5626/JOK.2024.51.12.1104

대규모 언어 모델(LLM)은 자연어 처리(NLP)와 생성형 AI 분야에서 중요한 발전을 이루었지만 복잡한 구조로 인해 해석과 신뢰성 확보에 어려움이 있다. 이를 해결하기 위해 본 연구에서는 LLM의 예측 과정을 시각적으로 설명하고 평가하는 도구인 LLMEE를 제안한다. LLMEE는 입력된 각 토큰이 출력에 미치는 영향을 시각적으로 표현하여 모델의 투명성을 높이며 Summarization, Question Answering, Text Generation과 같은 다양한 NLP 작업에 적용 가능하다. 또한 ROUGE, BLEU, BLEURTScore와 같은 평가 지표를 통합한 결과를 제공하여 LLM의 출력 품질을 정량적·정성적으로 평가할 수 있도록 설계하였다. LLMEE는 LLM의 복잡한 작동 원리를 이해할 수 있게 하고 품질에 대한 추가적인 평가를 제공하므로 신뢰성 있는 LLM 평가 및 개선에 기여할 수 있을 것으로 기대된다.

생성적 상호참조 해결을 통한 대화형 검색 질의 재작성 개선 방법

유희재, 이상구

http://doi.org/10.5626/JOK.2024.51.11.1028

대화형 검색에서 쿼리 재구성은 맥락 의존적인 쿼리를 맥락에 독립적인 형태로 변환하여 기존의 검색기를 활용하는 방법이다. 기존 접근 방식은 주로 사전 학습된 언어 모델을 인간이 다시 쓴 쿼리를 사용해 파인 튜닝하거나, 대형 언어 모델을 이용해 현재 턴 쿼리의 생략과 모호성을 해결한다. 그러나 본 논문의 실험 결과에 따르면 기존 방법들은 여전히 상호참조 해결에 어려움을 겪는다. 이 논문은 1) 쿼리 내 상호참조 구절을 감지할 수 있는 모델의 훈련 가능성, 2) 감지된 상호참조 구절을 구체화할 수 있는 모델의 훈련 가능성을 연구한다. 각 질문에 답하기 위해 Detector와 Decoder라는 두 구성 요소를 고안하고, 실험을 통해 파인 튜닝된 각 모델이 질문 내의 다양한 형태의 상호참조 구절을 식별하고 이를 구체적인 표현으로 재구성하는 것이 가능함을 보인다. 따라서 본 논문에서는 가벼운 생성 모델을 통해 상호참조를 해결함으로써 대화형 검색 성능을 향상시키는 새로운 패러다임을 제안한다.

피드백 강화학습을 통한 검색 모델 개선

서민택, 임준호, 김태형, 류휘정, 장두성, 나승훈

http://doi.org/10.5626/JOK.2024.51.10.900

오픈 도메인 질의응답 작업은 검색을 통해 단서를 얻고 문제를 해결하는 과정이다. 이러한 작 업에서 검색 모델이 적절한 단서를 제공하는 것은 매우 중요하며, 이는 최종 성능에 직접적인 영향을 미친 다. 또한, 정보 검색은 일상 생활에서도 빈번히 사용되는 중요한 기능이다. 본 논문에서는 이러한 문제의 중요성을 인식하고, 검색 모델의 성능 향상을 목표로 한다. 최근 디코더 모델에서 Reinforcement learning from human feedback(RLHF)을 통해 출력을 조정하는 방식이 자주 사용되고 있는 것처럼, 본 연구에서 는 강화학습을 활용하여 검색 모델을 강화하고자 한다. 구체적으로, 답변 모델의 손실과 검색 문서와 정답 문서 간의 유사도라는 두 가지 보상을 정의하고, 이를 바탕으로 강화학습을 적용하여 검색 모델의 문서 확 률 분포에서 1위 문서의 확률 점수를 조정한다. 이러한 방법을 통해 강화학습 방법의 일반성과 이를 통한 추가적인 성능 향상을 확인한다.

지식 그래프의 링크 예측을 위한 거대 언어 모델 기반 관계 설명문 생성 방법

차현묵, 고영중

http://doi.org/10.5626/JOK.2024.51.10.908

지식 그래프는 개체들과 개체 사이의 관계들로 이루어진 네트워크로 수많은 자연어처리 문제 해결에 활용되고 있다. 불완전한 지식 그래프를 완성하기 위해 링크 예측과 관계 예측을 통한 그래프 완성 연구가 이루어지고 있다. 최근에는 개체와 관계에 대한 자연어 정보를 바탕으로 듀얼 인코더 구조를 활용 하는 모델이 등장하여 많은 관심을 받았다. 하지만, 링크 예측 데이터셋에는 관계에 대한 자연어 설명문은 존재하지 않기 때문에 개체에 대한 자연어 설명문에 지나치게 의존적이라는 문제점이 존재한다. 본 논문에 서는 이러한 문제 상황을 해결하기 위해서 거대 언어 모델인 GPT-3.5-turbo를 활용하여 관계에 대한 자 연어 설명문을 생성하여 기존의 모델이 관계에 대한 정보를 풍부하게 학습할 수 있도록 하였다. 또한 제안 방법을 통해 생성한 관계 설명문을 다른 언어 모델 기반 링크 예측 모델에 적용했을 때 성능 향상이 기대 된다. 링크 예측을 통한 성능 평가 결과, 제안 방법은 베이스라인 모델과 비교했을 때 한국어 ConceptNet, WN18RR, FB15k-237, YAGO3-10 데이터셋에 대해 MRR에서 각각 0.34%p, 0.11%p, 0.12%p, 0.41%p의 성능향상을 보였다.

대규모 자연어 모델의 병렬 학습 가속화를 위한 서버 할당 최적화 알고리즘 비교 연구

임진규, 최예림, 이진호

http://doi.org/10.5626/JOK.2024.51.9.783

최근 대규모 언어모델(LLM)이 다양한 분야에 활용됨에 따라 보다 높은 성능을 보유한 모델 개발에 대한 수요가 증가하고 있다. 지금까지 대부분의 사용자들은 모델 학습에 필요한 계산 능력과 메모리 용 량을 충족시키기 위해 GPU가 장착된 다수의 서버를 활용하고 있고, 이들을 효율적으로 이용하는 방법론으로 3D 병렬화 방법론을 대표적으로 채택하고 있다. 그러나 3D 병렬화는 빈번하게 진행되는 서버간 대규모 데이 터 전송 시간이 길어 전체 학습 시간을 지연시키는 문제가 있다. 이를 해결 하기 위해 비균일한 클러스터 네 트워크 상태를 사전에 파악하여 서버 및 GPU를 최적화된 병렬 구성으로 배치하는 방법론이 기존 연구에서 제안되었으나, 이 역시 고전적인 최적화 알고리즘인 SA(Simulated Annealing)가 매핑을 위해 사용되었다는 한계가 있다. 이에 이러한 문제를 해결하고자 본 연구에서는 유전(Genetic) 알고리즘, SAT(Satisfiability) 알 고리즘을 해당 문제에 추가 적용하여 다양한 실험 환경에서 각 알고리즘의 성능을 비교 분석하였다.

대규모 언어 모델의 소수 검증 능력 심층 평가: ChatGPT와 PaLM 2를 중심으로

정현우, 박건우

http://doi.org/10.5626/JOK.2024.51.8.699

이연구는 ChatGPT와 PaLM2, 두 대규모 언어모델의 소수 검증 능력을 심층적으로 조사한다. 하나의 수에 대해 소수인지 합성수인지 반대 형태의 예/아니오 질문 두 개를 묻는다. 두 질문에 대해 모두 정답을 생성한 경우에만 언어 모델이 해당 수에 대해 성공적으로 검증을 수행한 것으로 간주한다. 또 한, 생성 프롬프트 내 나눗셈 연산에 오류가 발생하는지를 고려한다. 소수 664 개 및 합성수 1458 개 데이 터셋에 대한 추론 결과로부터, 대상 숫자의 난도가 증가함에 따라 검증 정확도가 감소함을 발견하였다. 연 산 오류를 반영한 후 검증 정확도는 두 모델에서 모두 감소하였으며, PaLM 2는 난도가 높은 네 자리 합 성수에 대한 검증을 모두 실패하였다. 이 결과는 단순한 질문에 기반한 언어 모델의 추론 능력 평가는 오 해의 소지가 있으며, 심층 평가가 필요함을 시사한다.

대규모 언어모델을 활용한 단계별 누적 프롬프팅 방법론의 법률 도메인 적용

연희연, 정해인, 김민주, 양정, 김민혜, 장현지, 구명완

http://doi.org/10.5626/JOK.2024.51.7.592

이 연구는 법률 분야의 복잡한 논리적 추론에 적합한 생성형 대규모 언어모델에 단계적인 계층적 프롬프트 방식을 제시한다. 복잡한 논리적 문제를 여러 단계로 분해하고, 각 단계의 결과를 계속 누 적하며 이후 단계의 프롬프트를 구성한다. 한국 변호사의 논술 시험 평가 과정에 이 방법을 적용했을 때, 파인 튜닝 방식보다 우수한 성과를 달성하였다. 특별히, 최종 단계의 법률 전문가 평가에서는 두 가지 작 업에서 모두 인간의 정밀도가 0.70 이상으로, 정확한 근거에 기초한 해석을 생성할 수 있음이 나타났다. 이러한 프롬프트 기법은 LLM에서 발생하는 Hallucination 문제를 극복하고 효과적으로 활용할 수 있음을 시사한다. 앞으로의 연구에서는 LLM에 더욱 정확한 법률 지식을 반영할 수 있도록 전문화된 검색기의 도 입을 고려하여, 더욱 정확한 근거를 프롬프트에 포함하는 방향으로 발전할 수 있을 것이라 기대한다.

시멘틱 세그멘테이션 도메인 적응 향상을 위한 거대 영상-언어 모델 기반 수도 라벨 보정 기법

임정기, 김유성

http://doi.org/10.5626/JOK.2024.51.5.464

현실에서 획득한 이미지에 대해 시멘틱 세그멘테이션 라벨을 만드는 것은 매우 비용이 많이 든다. 비지도 도메인 적응에서는 이러한 문제를 해결하기 위해 라벨을 쉽게 수집할 수 있는 가상 환경에서 생성된 데이터 혹은 이미 라벨이 확보된 데이터와 라벨이 없는 현실에서 획득한 이미지를 활용하여 모델 을 학습시킨다. 비지도 도메인 적응에서 흔히 나타나는 문제 중 하나는 유사한 사물 클래스를 쉽게 혼동한 다는 것이다. 본 논문에서는 거대 영상-언어 모델을 활용하여 타겟 데이터의 수도 라벨을 보정하는 방법 을 제안한다. 타겟 이미지에 대해 생성되는 수도 라벨을 보다 정확하게 만들면 사물 클래스 간의 혼동을 줄일 수 있다. 제안된 방법은 DAFormer의 성능을 게임에서 현실로의 적응에서 +1.1 mIoU, 낮에서 밤으 로의 적응에서 +1.1 mIoU 향상시켰다. 사물 클래스에 대해 MIC의 성능을 게임에서 현실로의 적응에서 +0.6 mIoU, 낮에서 밤으로의 적응에서 +0.7 mIoU 향상시켰다.

New Transformer Model to Generate Molecules for Drug Discovery

Yu-Bin Hong, Kyungjun Lee, DongNyenog Heo, Heeyoul Choi

http://doi.org/10.5626/JOK.2023.50.11.976

다양한 생성모델 기반의 신약 후보 생성 방법 중, 회귀적 신경망 (RNNs) 기반의 모델이 최고 성능을 보여왔다. RNN의 장기 의존성 문제를 해결하기 위해 Transformer 기반의 모델이 제안되어왔으나, RNN 기반 모델에 비해서 낮은 성능을 보였는데, Transformer 모델의 과적합 문제가 그 원인일 수 있다. 해당문제를 완화하도록, 본 논문에서는, 큰 decoder 모델을 간단한 순방향 신경망으로 변환하는 모델을 제안한다. 실험결과, 제안된 모델이 기존 최고 성능 모델을 주요 지표들에서 앞서며, 다른 지표에서도 유사한 성능을 보이는 것을 확인했다. 또한, 제안하는 모델을 SARs-CoV-2 (COVID-19) 바이러스에 대항할 수 있는 신약 후보 생성에 적용하였고, 그렇게 생성된 신약 후보군들이 현재 시장에서 사용되는 약들인 Paxlovid, Molnupiravir, Remdesivir들 보다 더 효과적인 실험결과를 확인하였다.

문서 기반 대화 시스템의 외부 지식 검색을 위한 다중 작업 학습 기반 재순위화 모델

이홍희, 고영중

http://doi.org/10.5626/JOK.2023.50.7.606

문서 기반 대화 시스템은 대화에 관련된 외부 문서를 검색하고 해당 문서를 활용해 적절한 응답을 생성한다. 그러나 기존 듀얼 인코더(dual-encoder) 구조의 검색 모델은 문서를 찾는데 낮은 성능을 기록했고, 이를 보완하기 위한 재순위화 모델은 충분히 최적화되지 않은 모습을 보였다. 본 논문에서는 이러한 문제를 해결하고 효과적인 검색을 수행하기 위해 다중 작업 학습 기반 재순위화 모델을 제안한다. 제안 모델은 크로스 인코더(cross-encoder) 구조의 모델로 대조 학습 기반 순위화, MLM(Masked Language Model), PDR(Posterior Differential Regularization)을 미세조정 단계에 동시에 학습하며, 보조 작업인 MLM과 PDR을 통해 모델의 언어 이해 능력과 강건성을 강화하는 방향으로 학습한다. 평가 결과 제안 모델은 베이스라인 모델과 비교했을 때 Recall@1, Recall@5, Recall@10에서 모두 성능 향상을 보였다.


Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr