검색 : [ keyword: image processing ] (7)

한국어 소형 거대 언어 모델의 차트 이미지 설명 텍스트 생성 가능성에 관한 실험적 연구

안효준, 최성필

http://doi.org/10.5626/JOK.2025.52.2.132

본 연구는 차트 이미지에서의 정보를 자동으로 생성하고 해석하는 데 있어 소형 거대 언어 모델(소형 거대 언어 모델)의 활용 가능성을 탐구하였다. 이를 위하여 차트 이미지로부터 텍스트 데이터를 생성하고 이에 대한 설명 데이터를 추가하여, 소형 거대 언어 모델 학습을 위한 인스트럭션 데이터셋을 구축하였다. 공개된 한국어 소형 거대 언어 모델을 대상으로 인스트럭션 튜닝을 진행하였으며, 해당 소형 거대 언어 모델에 대한 차트 이미지로 부터의 정보 추출 가능성을 실험하였다. 실험 결과, 구축된 인스트럭션 데이터셋을 통해 미세 조정된 소형 거대 언어 모델은 OpenAI의 gpt-4o-mini API와 유사한 수준에서의 설명 텍스트 생성이 가능한 것으로 나타났다. 본 연구를 통해 향후 한국어 소형 거대 언어 모델이 더욱 다양한 범위의 시각적 데이터를 대상으로 설명 텍스트 및 정보 제공에 사용될 수 있을 것으로 기대한다.

VACS: 패션 객체 영역 분할 기법을 통한 가상 착용 기술 아티팩트 보정 시스템

박원정, 정유진, 박순찬, 박진아

http://doi.org/10.5626/JOK.2022.49.10.802

생산적 적대 신경망 기술이 발전함에 따라 모델 및 제품 이미지를 합성하는 가상 착용 기술(virtual try-on, VITON)에 대한 연구 역시 활발히 이루어지고 있다. 현재까지의 VITON 기술은 생성 모델을 통해서 모델 이미지와 의류 제품 이미지를 합성해 해당 의류 제품을 착용한 모델의 이미지를 만들어낸다. 그러나 상의를 합성할 시 바지, 배경 등에 해당하는 픽셀도 변형되는 문제가 있다. 본 연구에서는 패션 객체 영역 분할 기술을 통해 VITON에서 합성된 제품 영역을 분할하여 보호하고, 그 외의 영역에 해당하는 픽셀은 원본 이미지로 대체하여 합성 이미지의 사실감을 높이는 가상 착용 기술 아티팩트 보정 시스템을 제안한다.

대비 결합 CNN을 이용한 인공위성 사진 내 선박 탐지 정확도 향상 연구

임성균, 전영배, 황정환, 윤지원

http://doi.org/10.5626/JOK.2019.46.8.823

인공위성은 지상관측이나 통신, 해양, 방송 등의 임무를 가지며 인공위성 사진을 이용한 선박탐지는 해상 보안 및 교통 통제 등 쓰임새가 다양하다. 인공위성 사진의 특성은 지구 전역을 촬영하기 때문에 저장되는 데이터양이 많고 각 사진은 초고해상도로 크기가 매우 커 컴퓨터를 이용한 자동 선박 탐지가 필요하다. 기존 연구에서는 여러 딥러닝 모델을 이용하여 선박 탐지 연구를 진행하였지만, 인공위성 사진 특성으로 인한 처리속도가 문제되어 상대적으로 빠른 CNN 모델을 이용하여 연구가 진행되고 있다. 그러나 선박이 있는 선착장과 등대, 파도 등 여러 가지 요인으로 인해서 대부분 정확도와 성능을 높이는데 어려움을 가지고 있다. 따라서 이 논문에서는 이미지 명암 대비 향상을 기존 CNN(Convolution Neural Network)에 접목해 정확도와 성능을 높인 모델을 제안한다. 또한, 학습 단계에서 선박 분류에 필요한 데이터의 양을 늘리기 위해 overlap과 rotation 기능을 이용하고 실제 인공위성 사진에서 탐지 속도를 줄이기 위해 탐지 최적화(window sliding)를 고려하여 자동화 탐지 기술을 구현한다. 식별된 선박 데이터는 다시 학습데이터로 사용하여 정확도를 높이고 실제 산업에서 사용할 수 있도록 구현한다.

빛의 불규칙성을 기반으로 한 동작영역 검출 알고리즘

김창민, 이규웅

http://doi.org/10.5626/JOK.2017.44.10.1094

본 논문이 제안하는 동작검출 알고리즘은 빛에 대한 불규칙성을 이용하여 동작영역을 탐색하는 방식으로, 기존 3 way-diff 알고리즘에서 주장한 반사된 빛 영역을 수식화하여 추출한다. 즉, 3way-diff 알고리즘을 확장한 알고리즘이다. 3 way-diff 알고리즘은 연속된 3개의 이미지를 사용하여 반사된 빛 영역을 추출한다. 이 알고리즘에서 주장하는 반사된 빛 영역이란 이미지 제작과정에서 빛에 의해 발생된 영역으로 모든 사물 주변에 미세하게 생성된다. 이러한 영역을 추출하기 위해 하나의 과정을 보인다. 하지만 이 과정은 단순한 작업일 뿐 빛에 대한 수식이 정의되지 않았다. 본 논문은 3 way-diff 알고리즘에서 주장하는 반사된 빛 영역을 잡음의 일종이라 판단하여 반사된 빛 영역을 추출하는 수식을 정의한다. 제안된 알고리즘과 기존 알고리즘들에 실험을 통해 성능비교를 보인다.

ConvNet을 활용한 영역기반 신속/범용 영상정합 기술

백승철

http://doi.org/

영역기반 영상정합은 미리 정의된 특징의 도움 없이 영상을 정합할 수 있기 때문에, 기계학습과 접목된다면 이론 상 다양한 영상정합 문제에 적용 가능하다. 그러나 신속한 정합을 위하여, 미리 정의된 특징을 탐지하여 패치 쌍 후보를 선정에 사용하는데, 이는 영역기반 방법의 적용성에 제약을 준다. 이를 해소하기 위하여 본 연구에서는 단순히 두 패치의 관련도 뿐만 아니라 두 패치가 어느 정도 공간 상 떨어져 있는지에 대한 정보를 제공하는 ConvNet Dart를 개발하였다. 이러한 정보를 기반으로 효율적으로 패치 쌍 탐색공간을 줄일 수 있었다. 추가로 Dart가 제대로 작동할 수 없는 영역을 식별하는 ConvNet Fad를 개발하여 정합의 정밀도를 높였다. 본 연구에서는 이들을 딥러닝으로 학습하였으며, 이를 위해 소수의 정합된 영상에서 다량의 예제를 생성하는 방법을 개발하였다. 마지막으로 단순한 영상정합 문제에 성공적으로 적용하여, 이러한 방법론이 작동하는 것을 보였다.

영상 분할의 가능성 및 초기값 배정에 대한 위상적 분석

도상윤, 김정국

http://doi.org/

본 논문에서는 기존의 영상분할에서 발생하는 초기값 배정문제와 영상분할 가능여부를 확인할 수 있는 방법에 대한 이론적 근거를 분석하고 제시한다. 본 논문의 앞 부분에서는 위상수학의 이론에 근거한 수학적 논증을 바탕으로 적절한 초기값 배정의 대한 위상적 근거와 방법론을 제시한다. 이어서 위상수학의 분리공리 이론에 근거하여 영상이 영역 분할되기 위한 최소의 위상조건을 확인하고 해당 조건을 이용하여 영상분할을 위해 사용된 모델의 유효성을 검증하는 방법론을 제시한다. 즉, 본 논문은 기존의 통계적 분석과 달리, 위상적 분석을 통해 영상 영역 분할의 수학적 근거를 제시한 것에 그 특징이 있다. 마지막으로 기존의 가우시안 랜덤 필드 모델 기반 영상 분할에 본 논문에서 제시한 이론과 방법론을 적용하여 가우시안 랜덤 필드 모델의 유효성을 확인한다.

생선 가공 자동화 시스템을 위한 RANSAC 기반 지느러미 절단선 검출 기법

장용훈, 박창현

http://doi.org/

어업에서는 분류와 가공작업에 많은 작업자가 필요할 뿐만아니라 실제 현장의 작업들이 대부분 수작업으로 진행되고 있다. 이러한 이유로 작업량과 안정성의 향상을 위해 작업장에서는 자동화 시스템이 필요하다. 본 논문에서는 지느러미 절단 자동화 시스템을 위해서 RANSAC(RANdom SAmple Consensus)기반 지느러미 절단선 검출 기법을 제안한다. 지느러미 절단선 검출을 위해 먼저 하이패스필터(high pass filter)를 이용하여 윤곽선을 검출한 뒤 잡음필터의 파라미터와 임계값을 조절하여 몸통과 지느러미의 경계를 검출한다. 그리고 RANSAC을 이용해 최적의 지느러미 절단선을 검출한다. 제안한 기법으로 가자미 50여 마리의 샘플에 대해서 실험한 결과 약 90%의 절단선 검출 정확도를 보였다.


Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr