디지털 라이브러리[ 검색결과 ]
적응형 사용자 인터페이스 개발을 위한 요구사항 도출 및 명세 기법
사용자 및 기기의 상황을 파악하고 이에 따라 실시간으로 사용자 인터페이스를 변경하는 ‘적응형 사용자 인터페이스 (Adaptive User Interface)’ 연구가 진행되어 왔다. 기존 관련 연구들은 주로 설계방법론에 초점을 맞추고 있으며, 요구공학 방법론에 대해서는 거의 다루어지지 않았다. 본 연구에서는 적응형 사용자 인터페이스를 요구공학 관점에서 조명하고, 자가 적응 시스템 분야에서 연구되어 온 개념들에 기초한 요구사항 도출 및 명세 방법을 제안한다. 잘 알려진 자가 적응 소프트웨어 개념들을 재정의 및 해석한 후, 적응형 사용자 인터페이스 요구사항을 도출 및 명세하는 방법을 단계적으로 보인다. 사례연구에서는 제안하는 방법에 따라 적응형 사용자 인터페이스 요구사항을 도출 및 명세하여 본 기법이 효과적임을 보인다.
Quantified Lockscreen: 감정 마이닝과 자기정량화를 위한 개인화된 표정인식 및 모바일 잠금화면 통합 어플리케이션
잠금화면은 현대인들이 모바일 플랫폼에서 가장 자주 대면하는 인터페이스 중 하나이다. 조사에 따르면 스마트폰 사용자들은 일일 평균 150번 잠금해제를 수행하지만[1], 패턴인식, 비밀번호와 같은 잠금화면 인터페이스등은 보안 및 인증의 목적을 제외하곤 별 다른 이익을 제공하지 못하는 것이 현 실정이다. 본 논문에서는 보안용도의 기존 잠금화면을 전방 카메라를 활용한 얼굴 및 표정인식 어플리케이션으로 대체하여 표정 데이터를 수집한 뒤 실시간 표정 및 감정 변화 피드백을 제공하는 인터페이스를 제시한다. 본 연구에선 Quantified Lockscreen 어플리케이션을 통한 실험을 통해 1) 잠금화면을 활용한 비침습적인 인터페이스를 통해 연속적인 표정데이터 획득과 감정패턴을 분석할 수 있는 것을 검증했으며 2) 개인화된 학습 및 분석으로 표정인식 및 감정 검출의 정확도를 개선하였으며 3) 표정으로부터 추론된 감정 데이터의 타당성을 강화하기 위한 양괄식 검증기법을 도입하여 감정 검출의 다중채널 및 다중입력 방법론의 가능성을 확인하였다.
효과적인 모델 기반 안드로이드 GUI 테스팅을 위한 GUI 상태 비교 기법
안드로이드(Android) 어플리케이션(앱)의 신뢰성과 사용성 검증을 위해, 앱의 기능 검사와 크래쉬(Crash) 탐지 등을 위한 다양한 GUI 테스팅(Graphical User Interface Testing) 기법이 널리 사용되고 있다. 그 중 모델 기반(Model-based) GUI 테스팅 기법은 GUI 모델을 이용해 테스트 케이스를 생성하기 때문에, 기법의 유효성(Effectiveness)은 기반 모델의 정확도에 의존적이다. 따라서 모델 기반 기법의 유효성 향상을 위해서는 테스트 대상 앱의 행위를 충분히 반영할 수 있는 모델 생성 기법이 필요하며, 이를 위해 본 연구에서는 GUI 상태를 정밀하게 구분하는 계층적 화면 비교 기법을 통해 테스팅의 유효성과 효율성을 향상시키고자 한다. 또한, 기존 연구 기법과의 비교 실험을 통해 제안 기법이 유효한 모델의 효율적 생성을 가능하게 함을 확인함으로써, 모델 기반 안드로이드 GUI 테스팅의 성능 향상 가능성을 제시한다.