국방 언어 임베딩 모델을 위한 BGE-M3의미세조정: 대조학습에서 네거티브 샘플 선택이모델 성능에 미치는 영향 


53권  2호, pp. 117-123, 2월  2026
10.5626/JOK.2026.53.2.117


PDF

  요약

언어 모델은 발전해왔지만, 국방 용어 이해에 특화된 한국어 모델은 부족하다. 기존 연구는 주 로 BERT 기반 한국어 사전학습에 집중했으나, 본 논문은 다국어 사전학습된 BGE-M3를 국방 분야에 맞 게 미세조정(Fine-tuning)하고, 대조학습(Contrastive Learning) 시 네거티브 샘플 선택이 성능에 미치는 영향을 분석했다. 네거티브 샘플링 방식으로 (1) 무작위(Easy), (2) 구분이 어려운(Hard), (3) 유사도가 높 은(Harder) 방식을 비교한 결과, Harder 샘플링이 Accuracy, NMI, ARI에서 가장 우수했다. 또한, KorSTS 데이터셋으로 미세조정 전후의 Pearson 및 Spearman 상관계수를 분석한 결과, 기존 모델의 언 어적 지식을 효과적으로 유지하면서도 국방 도메인에 특화됨을 확인했다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

J. Kim, D. Choi, S. G. Kim, D. H. Kim, "Fine-Tuning BGE-M3 for Defense Language EmbeddingModel: The Impact of Negative Sample Selection inContrastive Learning," Journal of KIISE, JOK, vol. 53, no. 2, pp. 117-123, 2026. DOI: 10.5626/JOK.2026.53.2.117.


[ACM Style]

Junsub Kim, Dongnyeok Choi, Sung Gu Kim, and Deuk Hwa Kim. 2026. Fine-Tuning BGE-M3 for Defense Language EmbeddingModel: The Impact of Negative Sample Selection inContrastive Learning. Journal of KIISE, JOK, 53, 2, (2026), 117-123. DOI: 10.5626/JOK.2026.53.2.117.


[KCI Style]

김준섭, 최동녘, 김성구, 김득화, "국방 언어 임베딩 모델을 위한 BGE-M3의미세조정: 대조학습에서 네거티브 샘플 선택이모델 성능에 미치는 영향," 한국정보과학회 논문지, 제53권, 제2호, 117~123쪽, 2026. DOI: 10.5626/JOK.2026.53.2.117.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr