디지털 라이브러리[ 검색결과 ]
순차적 레이블링을 통한 한국어 의존 구문분석
http://doi.org/10.5626/JOK.2024.51.12.1053
의존 구문분석은 언어 분석에서 중요한 단계로, 문장 내 어절 간의 관계를 파악하는 과정이다. 최근 자연어 처리 분야에서는 트랜스포머 계열의 사전 학습 모델들이 다양한 자연어처리 연구에서 뛰어난 성능을 보이며, 의존 구문분석에도 적용되었다. 기존의 사전 학습 모델을 적용한 의존 구문분석은 크게 두 단계로 처리되었다. 첫째, 사전 학습 모델을 통해 생성된 토큰 단위 임베딩을 어절 단위 임베딩으로 병합한다. 둘째, 구성된 임베딩을 비교하거나 분류하는 단계를 통해 의존 관계를 분석한다. 그러나 사전 학습 모델의 특성상 파라미터가 많고, 추가적인 계층을 통해 임베딩을 구성·비교·분류하는 과정이 포함되어 시간 및 메모리의 효율성이 떨어지는 문제가 있었다. 본 논문에서는 의존 구문분석 세트 단위를 정의하고, 계층 축소를 통해 학습 및 추론의 효율성을 높인 순차적 레이블링 기반의 의존 구문분석 기법을 제안한다. 구문분석 세트를 정의하기 위해 스페셜 토큰을 추가하여 어절 단위 임베딩 병합 단계를 생략하였으며, 계층 축소로 파라미터 수를 효율적으로 줄여 학 습 및 추론에 필요한 시간을 크게 단축하였다. 제안된 모델은 의존 구문분석에서 유의미한 성능을 보인다.
토큰 공간 기반 표상을 활용한 설명가능 동영상 검색 시스템
http://doi.org/10.5626/JOK.2024.51.12.1068
질의-동영상 검색은 사용자가 입력한 질의와 가장 관련성 깊은 동영상을 찾는 분야이다. 이를 위해 기존 연구들은 질의와 동영상을 적절히 잠재 벡터 공간으로 표상하여 검색에 활용한다. 하지만 질의와 동영상의 관련도를 계산하는 방식이 단순히 두 벡터의 내적값을 활용할 뿐, 의미, 내용, 설명가능성 등을 내포하지 않는다. 본 논문에서는 질의와 동영상을 토큰 기반 공간에 위치한 임베딩으로 변환하여, 동영상을 문서처럼 검색하여 의미적 유사도를 계산하는 모델을 제안한다. 실험 결과 본 논문에서 제안하는 최종 모델의 성능은 베이스라인 대비 MSVD 데이터셋에서 Recall@1, Recall@5, Recall@10 기준 모두 향상된 성능을 보인다. 나아가 CLIP4Clip 대비 제안 모델이 약 3.33배 빠르며, 최소한의 수정을 거친 BM25를 적용한 경우 약 208.11배 빠른 속도를 보인다. 또한, 정성 평가를 통해 동영상으로부터 추출한 토큰이 자막에 준하는 관련도를 보이며 설명가능성 기반 구조임을 증명한다.
LLMEE: 시각적 Token Attribution을 통한 대규모 언어 모델의 설명 가능성 및 평가 강화
http://doi.org/10.5626/JOK.2024.51.12.1104
대규모 언어 모델(LLM)은 자연어 처리(NLP)와 생성형 AI 분야에서 중요한 발전을 이루었지만 복잡한 구조로 인해 해석과 신뢰성 확보에 어려움이 있다. 이를 해결하기 위해 본 연구에서는 LLM의 예측 과정을 시각적으로 설명하고 평가하는 도구인 LLMEE를 제안한다. LLMEE는 입력된 각 토큰이 출력에 미치는 영향을 시각적으로 표현하여 모델의 투명성을 높이며 Summarization, Question Answering, Text Generation과 같은 다양한 NLP 작업에 적용 가능하다. 또한 ROUGE, BLEU, BLEURTScore와 같은 평가 지표를 통합한 결과를 제공하여 LLM의 출력 품질을 정량적·정성적으로 평가할 수 있도록 설계하였다. LLMEE는 LLM의 복잡한 작동 원리를 이해할 수 있게 하고 품질에 대한 추가적인 평가를 제공하므로 신뢰성 있는 LLM 평가 및 개선에 기여할 수 있을 것으로 기대된다.
커널 트레이싱 로그를 활용한 머신러닝 기반 컨테이너 보안 강화
http://doi.org/10.5626/JOK.2024.51.11.947
최근 컨테이너 기술이 클라우드 환경에서 주목받으며 사용이 급증하고 있다. 컨테이너는 자체 운영체제를 가지지 않아 가상 머신보다 가볍고 배포에 유리한 특징이 있다. 그러나 컨테이너는 동일한 호스트 커널을 공유하는 특성으로 인해 보안 취약점이 발생할 수 있다. 본 연구에서 우리는 이러한 취약점을 해결하기 위해 eBPF 기술, 커널 트레이싱 로그와 앙상블 머신러닝 모델을 사용하여 보안 시스템을 설계하고 구현한다. 우리의 시스템은 race condition을 활용한 공격과 커널 메모리 취약점에서 사용되는 heap spray 기법을 효과적으로 탐지할 수 있으며, 기존의 보안 정책 기반 접근 방식과 달리 프로파일 생성없이 신속하고 동적인 대응이 가능하다. Race Condition을 활용한 공격 탐지에서는 Precision, Recall, F1-Score 모두 99% 이상의 정확도 달성하였고, Heap Spray 탐지에 서는 모든 지표에서 97% 이상의 정확도를 기록하였다.
질의 중심 다중 문서 요약을 통한 오픈 도메인 질의응답 시스템의 설명 가능한 근거 문장 생성
http://doi.org/10.5626/JOK.2024.51.11.1020
오픈도메인 질의응답 시스템은 주어진 질의에 답변하기 위해 필요한 기반으로 언어모델에 내재된 지식만으로 충족되지 않는 외부 지식을 필요로 하며 최근 거대 언어모델에서 발생하는 환각 문제를 해결하기 위해 중요하게 연구되고 있는 기술이다. 본 논문에서는 QSG(Query-attentive Semantic Graph)의 구조 정보를 활용하여 멀리 떨어져 있는 문서 간의 정보를 질의 중심으로 요약, 이를 다중 문서 기반 질의 응답 시스템의 근거 문장으로 활용하는 모델을 제안한다. 질의 기반으로 요약 생성된 근거 문장은 기존의 추출 형식의 근거 문장을 사용하는 것보다 응답 생성 성능을 향상시킬 수 있었고 더 좋은 설명 가능성을 보여주었다.
생성형 언어모델을 이용한 테이블 질의응답 평가
http://doi.org/10.5626/JOK.2024.51.10.892
문서에서 테이블은 중요한 정보들을 축약하여 모아 놓은 정보 집합체라고 할 수 있다. 이러한 테이블을 대상으로 질의응답 하는 테이블 질의응답 기술들이 연구되고 있으며, 이 중 언어모델을 이용한 연구가 좋은 결과를 보이고 있다. 본 연구에서는 최근 주목받고 있는 생성형 언어모델 기술을 테이블 질의 응답에 적용하여 언어모델과 프롬프트의 변경에 따른 결과를 살펴보고, 단답형 정답과 생성형 결과의 특성 에 적합한 평가방법으로 측정해 보았다. 자체 개발한 EXAONE 1.7B 모델의 경우 KorWiki 데이터셋에 대해 적용하여 EM 92.49, F1 94.81의 결과를 얻었으며, 이를 통해 작은 크기의 모델을 파인 튜닝하여 GPT-4와 같은 초거대 모델보다 좋은 성능을 보일 수 있음을 확인하였으며 EXAONE 25B 모델의 경우 KorQuAD2Table 데이터셋에 대해서 실험한 모델들 중 가장 좋은 성능을 보였다.
지식 그래프의 링크 예측을 위한 거대 언어 모델 기반 관계 설명문 생성 방법
http://doi.org/10.5626/JOK.2024.51.10.908
지식 그래프는 개체들과 개체 사이의 관계들로 이루어진 네트워크로 수많은 자연어처리 문제 해결에 활용되고 있다. 불완전한 지식 그래프를 완성하기 위해 링크 예측과 관계 예측을 통한 그래프 완성 연구가 이루어지고 있다. 최근에는 개체와 관계에 대한 자연어 정보를 바탕으로 듀얼 인코더 구조를 활용 하는 모델이 등장하여 많은 관심을 받았다. 하지만, 링크 예측 데이터셋에는 관계에 대한 자연어 설명문은 존재하지 않기 때문에 개체에 대한 자연어 설명문에 지나치게 의존적이라는 문제점이 존재한다. 본 논문에 서는 이러한 문제 상황을 해결하기 위해서 거대 언어 모델인 GPT-3.5-turbo를 활용하여 관계에 대한 자 연어 설명문을 생성하여 기존의 모델이 관계에 대한 정보를 풍부하게 학습할 수 있도록 하였다. 또한 제안 방법을 통해 생성한 관계 설명문을 다른 언어 모델 기반 링크 예측 모델에 적용했을 때 성능 향상이 기대 된다. 링크 예측을 통한 성능 평가 결과, 제안 방법은 베이스라인 모델과 비교했을 때 한국어 ConceptNet, WN18RR, FB15k-237, YAGO3-10 데이터셋에 대해 MRR에서 각각 0.34%p, 0.11%p, 0.12%p, 0.41%p의 성능향상을 보였다.
대규모 자연어 모델의 병렬 학습 가속화를 위한 서버 할당 최적화 알고리즘 비교 연구
http://doi.org/10.5626/JOK.2024.51.9.783
최근 대규모 언어모델(LLM)이 다양한 분야에 활용됨에 따라 보다 높은 성능을 보유한 모델 개발에 대한 수요가 증가하고 있다. 지금까지 대부분의 사용자들은 모델 학습에 필요한 계산 능력과 메모리 용 량을 충족시키기 위해 GPU가 장착된 다수의 서버를 활용하고 있고, 이들을 효율적으로 이용하는 방법론으로 3D 병렬화 방법론을 대표적으로 채택하고 있다. 그러나 3D 병렬화는 빈번하게 진행되는 서버간 대규모 데이 터 전송 시간이 길어 전체 학습 시간을 지연시키는 문제가 있다. 이를 해결 하기 위해 비균일한 클러스터 네 트워크 상태를 사전에 파악하여 서버 및 GPU를 최적화된 병렬 구성으로 배치하는 방법론이 기존 연구에서 제안되었으나, 이 역시 고전적인 최적화 알고리즘인 SA(Simulated Annealing)가 매핑을 위해 사용되었다는 한계가 있다. 이에 이러한 문제를 해결하고자 본 연구에서는 유전(Genetic) 알고리즘, SAT(Satisfiability) 알 고리즘을 해당 문제에 추가 적용하여 다양한 실험 환경에서 각 알고리즘의 성능을 비교 분석하였다.
장단기 시간 패턴 학습을 통한 그래프 신경망 기반의 태양광 발전량 예측 기법
http://doi.org/10.5626/JOK.2024.51.8.690
최근 태양광 에너지의 활용이 크게 보편화되면서, 태양광 에너지의 효율 향상을 위한 태양광 발전량 예측 연구가 활발히 진행되고 있다. 이와 관련하여, 기존의 심층 학습 모델을 넘어 그래프 신경망 기반의 태양광 발전량 예측 모델들이 제시되었다. 이 모델들은 특정 지역의 태양광 발전량이 인접 지역의 기후 조건에 영향을 받는 공간적 상호작용과 태양광 발전량의 시간 패턴을 함께 고려하는 지역 간 상관관 계를 학습함으로써 예측 정확도를 개선한다. 하지만, 기존 모델들은 주로 고정된 형태의 그래프 구조에 의 존하여, 시간적 및 공간적 상호작용을 반영하기 어려운 한계가 있다. 이에, 본 논문은 지역별 태양광 발전 량 데이터의 장기 및 단기적 시간 패턴을 고려하고, 이를 지역 간 상관관계의 학습에 반영하는 그래프 신 경망 기반의 태양광 발전량 예측 기법을 제안한다. 제안 기법은 타 그래프 신경망 기반 예측 모델과 비교 하여 RRSE 기준 최대 7.49%의 성능 개선을 달성하여 그 우수성을 입증하였다.
대규모 언어모델을 활용한 단계별 누적 프롬프팅 방법론의 법률 도메인 적용
연희연, 정해인, 김민주, 양정, 김민혜, 장현지, 구명완
http://doi.org/10.5626/JOK.2024.51.7.592
이 연구는 법률 분야의 복잡한 논리적 추론에 적합한 생성형 대규모 언어모델에 단계적인 계층적 프롬프트 방식을 제시한다. 복잡한 논리적 문제를 여러 단계로 분해하고, 각 단계의 결과를 계속 누 적하며 이후 단계의 프롬프트를 구성한다. 한국 변호사의 논술 시험 평가 과정에 이 방법을 적용했을 때, 파인 튜닝 방식보다 우수한 성과를 달성하였다. 특별히, 최종 단계의 법률 전문가 평가에서는 두 가지 작 업에서 모두 인간의 정밀도가 0.70 이상으로, 정확한 근거에 기초한 해석을 생성할 수 있음이 나타났다. 이러한 프롬프트 기법은 LLM에서 발생하는 Hallucination 문제를 극복하고 효과적으로 활용할 수 있음을 시사한다. 앞으로의 연구에서는 LLM에 더욱 정확한 법률 지식을 반영할 수 있도록 전문화된 검색기의 도 입을 고려하여, 더욱 정확한 근거를 프롬프트에 포함하는 방향으로 발전할 수 있을 것이라 기대한다.