검색 : [ author: 조석민 ] (2)

LLM 기반의 제로샷 문장 수준 단락 정제를 활용한 검색 증강 생성

황태호, 정소영, 조석민, 박종철

http://doi.org/10.5626/JOK.2025.52.4.304

본 논문은 강화학습 기반 자율이동체의 학습 효율을 향상시키기 위해 유사도 기반 다중 지식 전이 알고리즘(similarity-based multi-knowledge transfer, SMTRL)을 제안한다. SMTRL은 사전 학습된 모델과 현재 모델의 유사도를 계산하고, 그 유사도에 기반하여 지식 전이의 비율을 동적으로 조절하여 학습 효율을 극대화하는 방법론이다. 복잡한 환경에서 자율이동체가 단독으로 학습할 경우 많은 시간이 소요되므로, 지식 전이는 필수적이다. 하지만 사전 학습 모델과 실제 환경 간 차이가 클 경우, 학습 성능이 저하되는 부정 전이 현상이 나타날 수 있다. SMTRL은 이러한 부정 전이를 최소화하기 위해 유사도가 높은 사전 학습 모델의 지식을 반영 비율을 동적으로 조정함으로써 안정적으로 학습 속도를 가속화한다. 실험 결과, 제안된 알고리즘은 기존의 단일 지식 전이 및 전통적 강화학습 방법과 비교하여 수렴 속도 및 성능에서 우수한 결과를 나타냈다. 본 연구는 자율이동체의 효율적인 학습을 위한 새로운 지식 전이 방법을 제시하며, 복잡한 이동체 환경으로의 적용 가능성과 향후 연구 방향에 관해 논의한다.

거대 언어 모델의 정치적 편향과 하위 작업에서의 영향

서정연, 조석민, 박종철

http://doi.org/10.5626/JOK.2025.52.1.18

거대 언어 모델 (Large Language Model; LLM)의 성능이 비약적으로 향상되며 인간과의 직접 상호 작용이 가능해짐에 따라 윤리 검증의 필요성이 대두된다. 본 연구에서는 LLM의 정치 성향이 얼마나 다양한 스펙트럼으로 변할 수 있는지와 생성된 정치 성향이 하위 작업에 끼치는 영향을 알아본다. 먼저 LLM의 내재된 정치 성향을 대조군으로, Jailbreak, 정치 페르소나, Jailbreak 페르소나를 실험군으로 선정하였다. 실험 결과, Jailbreak에서 가장 큰 변화를 보였으나, 대조군과 평균적으로 유사하여 LLM에 내재된 정치 성향에서 벗어나지 못하였다. 또한, 두 번째 실험을 통해 변화된 정치성이 하위 작업에 미치는 영향을 확인하였다. 이는 모델이 실제 사용될 때 개인화된 응답보다는 모델의 내재된 정치 성향에 벗어나지 못하는 응답을 생성하는 경향을 보이며, 이러한 특성은 모델의 정치성과 판단이 사용자에게 여과없이 노출될 수 있음을 시사한다.


Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr