KR20170050885A - 사용자 인터페이스 평가 장치 및 그 평가 방법 - Google Patents

사용자 인터페이스 평가 장치 및 그 평가 방법 Download PDF

Info

Publication number
KR20170050885A
KR20170050885A KR1020150152959A KR20150152959A KR20170050885A KR 20170050885 A KR20170050885 A KR 20170050885A KR 1020150152959 A KR1020150152959 A KR 1020150152959A KR 20150152959 A KR20150152959 A KR 20150152959A KR 20170050885 A KR20170050885 A KR 20170050885A
Authority
KR
South Korea
Prior art keywords
information
interface
user
operation area
evaluation
Prior art date
Application number
KR1020150152959A
Other languages
English (en)
Other versions
KR101749070B1 (ko
Inventor
우승현
안대윤
오종민
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150152959A priority Critical patent/KR101749070B1/ko
Priority to US15/339,270 priority patent/US20170123646A1/en
Publication of KR20170050885A publication Critical patent/KR20170050885A/ko
Application granted granted Critical
Publication of KR101749070B1 publication Critical patent/KR101749070B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3438Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment monitoring of user actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 인터페이스 평가 장치 및 그 평가 방법에 관한 것이다. 일 측면은 평가 대상이 되는 인터페이스를 제공하는 인터페이스부, 인터페이스의 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 촬영부 및 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하고, 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑하고, 조작 영역에 사용자의 조작 명령이 입력된 것으로 판단되면 조작 명령에 대한 평가 정보를 제공하는 제어부를 포함한다.

Description

사용자 인터페이스 평가 장치 및 그 평가 방법 {APPARATUS AND METHOD FOR ASSESSING USER INTERFACE}
사용자 인터페이스 평가 장치 및 그 평가 방법에 관한 발명이다.
기술의 발전에 따라 복합적인 기능 수행을 위해 IT(information technology) 기기 등에서 제공되는 사용자 인터페이스가 복잡해 지고 있으며, 이에 따라 사용자를 배려한 사용자 인터페이스 디자인 구현이 어려워지고 있다.
이에 사용자 인터페이스의 설계 및 구상 단계에서 사용자 인터페이스의 선행 사용성 검증을 위한 연구들이 행해지고 있다.
일 측면은 평가 대상 인터페이스의 조작 영역에 정보 기술 장비의 기능을 부여하고, 해당 조작 영역 대한 사용자의 조작 명령 정보를 수집하고, 수집된 정보에 기초해 사용자 인터페이스의 평가가 가능하도록 마련된 사용자 인터페이스 평가 장치 및 그 평가 방법을 제공하고자 한다.
일 측면은 평가 대상이 되는 인터페이스를 제공하는 인터페이스부; 인터페이스의 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 촬영부; 및 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하고, 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑하고, 조작 영역에 사용자의 조작 명령이 입력된 것으로 판단되면 조작 명령에 대한 평가 정보를 제공하는 제어부;를 포함한다.
또한, 조작 명령에 대한 평가 정보를 제공하는 표시부;를 더 포함할 수 있다.
또한, 제어부는, 조작 영역에 대한 조작 시간 정보, 조작 영역에 대한 사용자의 시선 분산 시간 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 중 적어도 하나의 평가 정보를 제공할 수 있다.
또한, 조작 시간 정보는, 기능 접근 시간 정보 및 기능 조작 시간 정보 중 적어도 하나를 포함하고, 시선 분산 시간 정보는, 시선 탐색 시간 정보 및 조작 피드백 확인 시간 정보 중 적어도 하나를 포함할 수 있다.
또한, 인터페이스부는, 사진, 동영상 또는 손그림 형태로 마련된 인터페이스가 스크린에 투영된 형태로 평가 대상이 되는 인터페이스를 제공할 수 있다.
또한, 사진, 동영상 또는 손그림 형태로 마련된 인터페이스를 스크린에 방사하는 투사부;를 더 포함할 수 있다.
또한, 촬영부와 투사부는 일체로 마련될 수 있다.
또한, 인터페이스부는, 하드웨어 및 목업 형태 중 적어도 하나의 형태로 평가 대상 인터페이스를 제공할 수 있다.
또한, 촬영부는, 조작 영역에 대한 조작 시간 정보 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 중 적어도 하나의 정보를 수집할 수 있다.
또한, 조작 영역에 대한 사용자의 시선 분산 시간 정보를 포함하는 사용자의 시선 정보를 수집하는 시선 정보 수집부;를 더 포함할 수 있다.
또한, 조작 영역에 사용자의 조작 명령이 입력되면, 조작 영역에 맵핑된 기능에 대한 기능 실행 화면이 인터페이스부 및 표시부 중 적어도 하나에 제공될 수 있다.
또한, 평가 대상 인터페이스의 평가 관련 정보를 저장하는 메모리;를 더 포함할 수 있다.
일 측면에 따른 사용자 인터페이스 평가 방법은, 평가 대상이 되는 인터페이스를 제공하는 단계; 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하는 단계; 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑하는 단계; 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 단계; 및 조작 명령에 대한 평가 정보를 표시하는 단계;를 포함한다.
또한, 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 단계는, 조작 영역에 대한 조작 시간 정보, 조작 영역에 대한 사용자의 시선 분산 시간 정보 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 정보 중 적어도 하나의 정보를 수집하는 단계;를 더 포함할 수 있다.
또한, 조작 시간 정보는, 기능 접근 시간 정보 및 기능 조작 시간 정보 중 적어도 하나를 포함하고, 시선 분산 시간 정보는, 시선 탐색 시간 정보 및 조작 피드백 확인 시간 정보 중 적어도 하나를 포함할 수 있다.
또한, 피험자 정보를 입력하는 단계; 구현 방식을 설정하는 단계; 및 평가 항목을 선택하는 단계; 중 적어도 하나의 단계를 더 포함할 수 있다.
또한, 구현 방식을 설정하는 단계는, 평가 대상이 되는 인터페이스의 형태를 설정하는 것을 포함할 수 있다.
또한, 평가 항목을 설정하는 단계는, 조작 영역에 대한 조작 시간 항목, 조작 영역에 대한 사용자의 시선 분산 시간 항목 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 항목 중 적어도 하나의 평가 항목을 설정하는 것을 포함할 수 있다.
또한, 평가 대상 인터페이스를 제공하는 단계는, 사진, 동영상 또는 손그림 형태로 마련된 평가 대상 인터페이스를 스크린에 투영하는 형태로 제공하는 것을 포함할 수 있다.
또한, 평가 대상 인터페이스를 제공하는 단계는, 하드웨어 및 목업 형태 중 적어도 하나의 형태로 마련된 평가 대상 인터페이스를 제공하는 것을 포함할 수 있다.
또한, 조작 영역에 사용자의 조작 명령이 입력 되면, 조작 영역에 맵핑된 기능에 대한 기능 실행 화면을 제공하는 단계;를 더 포함할 수 있다.
일 측면에 따른 사용자 인터페이스 평가 장치 및 그 평가 방법에 의하면 사용자 인터페이스의 설계 시 손쉽게 사용자 인터페이스에 대한 선행 사용성 검증이 가능하도록 할 수 있다.
보다 상세하게, 사용자에 의해 제작된 목업(mock-up)이나 손스케치 만으로 실제 인터렉션이 가능하도록 함으로써, 손쉽게 사용자 인터페이스에 대한 선행 사용성 검증이 가능하도록 할 수 있다.
도 1은 일 실시 예에 따른 사용자 인터페이스 평가 장치를 개략적으로 도시한 도면이다.
도 2는 일 실시 예에 따른 사용자 인터페이스 평가 장치의 구성을 도시한 제어 블록도 이다.
도 3은 일 실시 예에 따른 사용자 인터페이스 평가 장치의 구성을 세부적으로 도시한 제어 블록도 이다.
도 4 및 도 5는 조작 영역을 결정하고, 조작 영역에 정보 기술 장비의 기능들을 맵핑하는 과정의 일 예를 도시한 도면이다.
도 6은 평가 대상 인터페이스의 제 1 조작 영역에 사용자의 조작 명령이 입력되는 예를 도시한 도면이다.
도 7은 일 실시 예에 따른 사용자 인터페이스 평가 방법의 흐름을 도시한 흐름도이다.
도 8은 일 실시 예에 따른 사용자 인터페이스 평가 방법의 흐름을 세부적으로 도시한 흐름도 이다.
이하 첨부된 도면을 참조하여 사용자 인터페이스 평가 장치 및 그 평가 방법에 대해 상세하게 설명한다.
도 1은 일 실시 예에 따른 사용자 인터페이스 평가 장치(100)를 개략적으로 도시한 도면이고, 도 2는 일 실시 예에 따른 사용자 인터페이스 평가 장치(100)의 구성을 도시한 제어 블록도 이고, 도 3은 일 실시 예에 따른 사용자 인터페이스 평가 장치(100)의 구성을 세부적으로 도시한 제어 블록도 이다.
도 1 내지 도 3에 도시된 바를 참조하면 일 실시 예에 따른 사용자 인터페이스 평가 장치(100)는, 인터페이스부(110)와, 촬영부(130)와, 제어장치(170)를 포함할 수 있다. 보다 상세하게, 사용자 인터페이스 평가 장치(100)는 인터페이스부(110)와, 촬영부(130)와, 동작인식장비(140)와, 시선정보 수집부(150)와, 투사부(160)와, 제어장치(170)를 포함할 수 있다.
인터페이스부(110)는 평가 대상이 되는 인터페이스를 제공할 수 있다. 보다 상세하게, 인터페이스부(110)에는 사용자에 의해 제작된 평가 대상이 되는 인터페이스가 제공될 수 있다.
인터페이스부(110)는 사진, 동영상 또는 손그림 형태로 마련된 인터페이스가 스크린에 투영된 형태로 제공될 수 있으며, 하드웨어 및 목업 형태 중 적어도 하나의 형태로 마련된 인터페이스가 제공될 수도 있다. 다만 인터페이스의 제공 예가 이에 한정되는 것은 아니며, 양자가 혼합된 형태로 제공될 수 있음은 물론이다.
인터페이스부(110)에 제공되는 평가 대상 인터페이스의 조작 영역에 사용자의 조작 명령이 입력되면, 인터페이스부(110)에는 조작 영역에 맵핑된 기능에 대한 기능 실행 화면이 제공될 수 있다.
구체적으로, 사진, 동영상 또는 손그림 형태로 마련된 인터페이스가 스크린에 투영된 형태로 인터페이스부(110)가 제공되는 경우, 인터페이스부(110)의 조작 영역에 사용자의 조작 명령이 입력되면, 인터페이스부(110)에는 해당 조작 명령에 대한 기능 실행 화면이 제공될 수 있다.
예를 들어, 스크린은 평가 대상 인터페이스를 표시하는 제 1 영역과, 평가 대상 인터페이스의 조작 영역에 입력된 사용자의 조작 명령에 대한 기능 실행 화면을 표시하는 제 2 영역이 분할된 형태로 제공될 수 있다.
한편, 실시 예에 따라 하드웨어 또는 목업 형태로 마련된 인터페이스가 평가 대상 인터페이스로 제공될 경우, 기능 실행 화면을 표시하기 위해 별도의 스크린이 마련될 수 있으며, 실시 예에 따라 후술하는 제어장치(170)의 표시부(172)에 기능 실행 화면이 표시될 수 있음은 물론이다.
촬영부(130)는 인터페이스부(110)와 일정 간격 이격되도록 배치되어 평가 대상 인터페이스의 조작 영역에 대한 사용자의 조작 명령 정보를 수집할 수 있다. 사용자의 조작 명령 정보를 수집하는 것은 평가 대상 인터페이스에 대한 손가락 위치 또는 손동작 정보를 수집하는 것을 포함할 수 있다.
일 예에 따르면, 촬영부(130)는 후술할 동작인식장비(140)에 부착된 마커 정보를 수집하는 방식으로 사용자의 조작 명령 정보를 수집할 수 있다. 사용자가 사용자 인터페이스를 평가하는 과정에서 손에 착용하는 동작인식장비(140)에는 컬러 마커가 부착될 수 있으며, 컬러 마커는 사용자의 손이 움직임에 따라 함께 이동될 수 있다.
촬영부(130)는 이러한 컬러 마커의 움직임 정보를 수집함으로써 사용자의 조작 명령 정보, 보다 상세하게 조작 영역에 대한 조작 시간 정보 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 중 적어도 하나의 정보를 수집할 수 있다. 여기서, 조작 시간 정보는 기능 접근 시간 정보와, 기능 조작 시간 정보를 포함할 수 있다. 이하, 기능 접근 시간 정보는 기능 수행 위치를 파악하고 손을 뻗어 이동하는 시간 정보로 정의하고, 기능 조작 시간 정보는 기능 수행을 위해 버튼을 순수하게 조작하는 시간 정보로 정의한다.
촬영부(130)는 카메라를 포함할 수 있다. 개시된 발명에 따른 사용자 인터페이스 평가 장치(100)에는 단일 카메라가 사용되는 것이 일반적이나, 필요에 따라 복수 개의 스크린이 채용될 경우 또는 사용자의 조작 정보를 보다 정밀하게 수집하고자 하는 경우에는 복수 개의 카메라가 사용될 수도 있다.
동작인식장비(140)는 사용자 인터페이스를 평가하는 과정에서 사용자의 손가락 움직임을 확인하고, 평가 대상 인터페이스의 조작 영역에 대해 사용자의 조작 명령이 입력되었는지 여부를 확인하기 위한 버튼 신호 정보를 수집할 수 있다.
동작인식장비(140)는 버튼부(141)와, 수신부(142)와, 통신부(143)와, 제어부(144)를 포함할 수 있으며, 동작인식장비(140)의 일면에는 컬러 마커(M)가 부착될 수 있다. 이하, 제어 장치(170)의 통신부(174)와의 구분을 위해 동작인식장비(140)의 통신부(143) 제 1 통신부(143)으로 지칭한다.
버튼부(141)는 평가 대상 인터페이스에 대한 사용자의 조작 명령 입력 정보를 수집하고, 수집된 정보를 수신부(142)로 출력할 수 있다. 사용자가 동작인식장비(140)를 착용할 경우 사용자의 손가락 부분에 버튼부(141)가 위치하게 되며, 이에 사용자가 평가 대상 인터페이스의 조작 영역을 터치할 경우 버튼부(141)는 사용자의 조작 명령 입력 정보를 수집할 수 있다.
수신부(142)는 버튼부(141)로부터 수집된 정보를 수신하고 이를 동작인식장비(140)의 제어부(144)로 출력할 수 있다.
제 1 통신부(143)는 동작인식장비(140) 제어부(144)의 제어에 따라 동작인식장비(140)를 제어장치(170)와 연결시킬 수 있다. 보다 상세하게, 제 1 통신부(143)는 제어부(144)의 제어에 따라 제어장치(170)의 제 2 통신부(174)로부터 원격 제어에 대응되는 신호를 수신함으로써 동작인식장비(140)와 제어장치(170)를 연결시킬 수 있다. 제 1 통신부(143)는 동작인식장비(140)의 성능 및 구조에 대응하여 유선 이더넷(Ethernet), 무선 랜 및 근거리 통신 유닛 중 적어도 하나를 포함할 수 있으나, 제 1 통신부(143)의 마련 예가 이에 한정되는 것은 아니다.
동작인식장비(140)의 제어부(144)는 동작인식장비(140)의 전반적인 동작을 제어한다. 동작인식장비(140)의 제어부(144)는 동작인식장비(140)의 각 구성, 즉 버튼부(141), 수신부(142) 및 제 1 통신부(143) 등의 동작을 제어할 수 있다.
시선정보 수집부(150)는 사용자의 시선 정보를 수집할 수 있다. 보다 상세하게 시선정보 수집부(150)는 평가 대상 인터페이스의 조작 영역에 대한 사용자의 시선 분산 시간 정보를 수집할 수 있다. 여기서, 시선 분산 시간 정보는 시선 탐색 시간 정보와 조작 피드백 확인 시간을 포함할 수 있다. 이하, 시선 탐색 시간 정보는 기능 수행을 위해 버튼의 위치를 찾는데 걸리는 시선 분선 시간 정보로 정의하고, 조작 피드백 확인 시간 정보는 조작 시 해당 기능 피드백 확인을 위해 걸리는 시선 분산 시간 정보로 정의한다.
시선정보 수집부(150)는 아이트랙커를 포함할 수 있으며, 실시 예에 따라 사용자 인터페이스 평가 장치(100)에 시선정보 수집부(150)가 생략될 수도 이다. 한편, 사용자 인터페이스 평가 장치(100)에 시선정보 수집부(150)가 포함된 경우, 사용자의 설정에 따라 시선정보 수집부(150)가 동작하지 않을 수도 있다.
투사부(160)는 사진, 동영상 또는 손그림 형태로 마련된 평가 대상 인터페이스를 스크린에 방사하는 장치로, 프로젝터로 구현될 수 있다. 투사부(160)를 통해 평가 대상 인터페이스를 방사하는 경우에는 스크린이 인터페이스부(110)로 기능할 수 있다.
투사부(160)에 의해 평가 대상 인터페이스가 스크린에 투영된 형태로 제공될 경우, 전술한 촬영부(130)와 투사부(160)는 일체로 마련될 수 있다. 투사부(160)는 평가 대상이 되는 인터페이스를 스크린에 투영하고, 촬영부(130)는 스크린에 투영된 평가 대상 인터페이스를 촬영하므로 투사부(160)와 촬영부(130)를 일체로 형성함으로써 보다 효과적인 장치 구성을 도모할 수 있다.
한편, 경우에 따라 사용자 인터페이스 평가 장치(100)는 투사부(160)를 포함하지 않을 수도 있다. 예를 들어, 평가 대상 인터페이스가 하드웨어 또는 목업 형상으로 마련되는 경우, 투사부(160)가 생략될 수도 있다.
제어장치(170)는 사용자 인터페이스 평가 장치(100)의 동작을 전반적으로 제어하기 위한 것으로, 데스크탑, 태블릿 PC 등을 포함할 수 있다. 다만, 제어장치(170)의 종류가 이에 한정되는 것은 아니며 당업자가 쉽게 생각할 수 있는 범위 내의 변경을 포함하는 개념으로 넓게 이해되어야 할 것이다. 다만, 이하 설명의 편의상 제어장치(170)로 데스크탑이 적용된 경우를 예로 들어 설명하도록 할 것이다.
제어장치(170)는 입력부(171)와, 표시부(172)와, 메모리(173)와, 제 2 통신부(174)와, 제어부(175)를 포함할 수 있다.
입력부(171)는 사용자로부터 사용자 인터페이스 평가 장치(100)에 대한 제어 명령을 입력 받을 수 있다. 입력부(171)는 사용자 입력을 위해 하드키 방식, 근접 센서 방식 또는 터치 패드 등가 같은 GUI(Graphic User Interface) 방식을 채용할 수 있다.
표시부(172)는 사용자 인터페이스 평가 장치(100)의 평가 과정이 진행됨에 따라 평가 과정에 대응되는 화면을 표시할 수 있다. 예를 들어, 표시부(172)는 사용자 인터페이스의 평가 대상을 설정하는 피험자 정보 입력 화면, 사용자 인터페이스 평가 장치(100)의 구현 방식을 설정하는 구현 방식 설정 화면, 평가 대상 인터페이스에 정보 기술 장비의 기능을 맵핑하기 위한 기능 맵핑 화면, 평가 항목을 선택하기 위한 평가 항목 선택 화면, 평가가 진행되는 중에는 평가가 진행 중임을 알리는 실험 화면, 평가가 완료되면 사용자의 조작 명령에 대한 평가 정보를 표시하는 결과 분석 화면 등을 표시할 수 있다. 다만, 표시부(172)에서 표시 가능한 화면의 예가 이에 한정되는 것은 아니며, 당업자가 쉽게 생각할 수 있는 범위 내의 변경을 포함할 수 있다.
표시부(172)는 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 마련될 수 있으나, 이에 한정되지는 않는다.
메모리(173)는 제어장치(170), 구체적으로 사용자 인터페이스 평가 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 제어 프로그램 또는 어플리케이션을 저장할 수 있다.
메모리(173)는 사용자 인터페이스 평가 장치(100)를 구동하고 제어하기 위한 제어 프로그램 또는 어플리케이션과 관련된 UI(User interface), UI를 제공하기 위한 오브젝트(예를 들어, 티미지, 텍스트, 아이콘, 버튼 등), 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
구체적으로, 메모리(173)는 평가 대상 인터페이스의 평가 관련 정보를 저장할 수 있으며, 평가 관련 정보는 차량의 사용자 인터페이스 정보와 사용자 인터페이스 평가 정보를 포함할 수 있다.
이하, 차량의 사용자 인터페이스 정보는 차량 센터페시아 이미지 정보, 정보 기술 장비(예를 들면, 차량)의 기능 정보, 차량 하드키의 배치, 크기, 타입, 색상 등의 정보, 피드백될 기능 실행 화면를 포함하는 화면 정보 등을 의미할 수 있다.
또한, 사용자 인터페이스 평가 정보는 기존의 평가 데이터 정보를 의미할 수 있다. 개시된 발명에 따른 사용자 인터페이스 평가 장치(100)는 메모리(173)에 기존의 평가 데이터 정보를 저장함으로 인해, 기존에 평가되었던 사용자 인터페이스가 평가 대상 인터페이스로 제공될 경우 별도의 평가 과정을 거치지 않고 사용자에게 미리 저장된 평가 정보를 제공할 수 있다.
메모리(173)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 통상의 기술자에 알려져 있는 여러 형태로 구현될 수도 있다.
제어부(175)는 제어장치(170)의 동작 및 제어장치(170) 내부 구성요소들 사이의 신호 흐름을 제어하고 데이터를 처리하는 기능을 수행한다. 제어부(175)는 사용자로부터 제어 명령이 입력되거나 미리 설정된 조건을 만족하는 경우 메모리(173)에 저장된 제어 프로그램 또는 어플리케이션을 실행할 수 있다.
제어부(175)는 프로세서(176), 제어장치(170)의 제어를 위한 제어 프로그램 또는 어플리케이션이 저장된 롬(ROM, 178), 제어장치(170)의 외부에서 입력되는 신호 또는 데이터를 저장하거나 제어장치(170)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 177)을 포함할 수 이다. 이하, 제어부(175)의 롬(178)과 램(177)은 메모리(173)의 롬과 램을 포함하는 개념일 수 있다.
제어 프로그램은 평가 대상 인터페이스의 조작 영역에 대한 사용자의 조작 명령이 입력되면 인터페이스부(110) 또는 표시부(172)에 기능 실행 화면을 제공하는 콘텐츠 제어 프로그램을 포함할 수 있으며, 사용자의 조작 명령 정보가 수집되면 수집 정보를 기초로 조작 명령에 대한 평가 정보를 제공하는 기능 수행도 측정 및 분석 프로그램을 포함할 수 있다. 아울러, 동작 인식 장치에 부착된 컬러 마커(M)를 인식하기 위한 컬러 인식 프로그램을 포함할 수도 있다.
제어부(175)는 입력부(171)의 입력에 따라 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하고, 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑할 수 있다.
도 4 및 도 5는 조작 영역을 결정하고, 조작 영역에 정보 기술 장비의 기능들을 맵핑하는 과정의 일 예를 도시한 도면이다. 도 4 및 도 5에서는 제어장치(170)의 표시부(172)의 표시 화면을 예로 들어 도시하였으나, 도 4 및 도 5에 도시된 바와 같은 표시 화면이 투사부(160)에 의해 스크린에 투영된 형태로 제공될 수 있음은 물론이다.
도 4에 도시된 바를 참조하면, 사용자는 평가 대상 인터페이스의 특정 영역을 조작 영역으로 설정할 수 있다. 도 4에서는 평가 대상 인터페이스에서 조작 영역으로 설정하고자 하는 부분을 좌상단에서 우하단으로 드래그하여 조작 영역을 설정하는 예를 도시하였으나, 조작 영역의 설정을 위한 드래그 방식이 도 4에 도시된 바에 의해 한정되는 것은 아니다.
사용자에 의해 조작 영역이 설정되면, 설정된 조작 영역에 대한 기능 맵핑 과정이 수행될 수 있다. 도 5에 도시된 바를 참조하면, 제어장치(170)의 표시부(172)에는 설정된 조작 영역에 맵핑 가능한 기능 항목들이 표시될 수 있다. 사용자는 입력부(171)를 통해 맵핑하고자 하는 기능 항목을 선택함으로써 조작 영역에 대해 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑할 수 있다.
사용자는 평가 대상이 되는 인터페이스에서 평가하고자 하는 모든 조작 영역들에 대해 전술한 도 4 및 5의 방법으로 기능을 맵핑 할 수 있다. 복수의 조작 영역에는 서로 다른 기능들이 맵핑될 수 있으며, 실시 예에 따라 복수의 조작 영역에 동일 기능이 맵핑될 수 있음은 물론이다.
제어부(175)는 촬영부(130), 동작인식장비(140) 및 시선정보 수집부(150) 중 적어도 하나로부터 수집된 정보에 기초해 사용자의 조작 명령이 입력 되었는지 판단할 수 있다.
도 6은 평가 대상 인터페이스의 제 1 조작 영역에 사용자의 조작 명령이 입력되는 예를 도시한 도면이다.
일 예에 따르면 사용자는 도 6에 도시된 바와 같이 평가 대상 인터페이스의 제 1 조작 영역을 터치하는 방식으로 조작 명령을 입력할 수 있다.
제 1 조작 영역에 대한 조작 명령이 도 6에 도시된 바와 같은 터치 방식으로 입력될 경우, 사용자가 손에 착용한 동작인식장비(140)의 버튼부(141)가 가압되어 버튼 입력 신호가 생성될 수 있으며, 생성된 버튼 입력 신호는 동작인식장비(140)의 제 1 통신부(143)와 제어장치(170)의 제 2 통신부(174)를 거쳐 제어장치(170)의 제어부(175)로 전달될 수 있다.
동시에, 촬영부(130)를 통해 컬러 마커(M) 정보가 수집되면 해당 정보가 제어장치(170)의 제어부(175)로 전달될 수 있다.
제어장치(170)의 제어부(175)는 버튼 입력 신호와 컬러 마커(M) 정보가 수신되면 컬러 마커(M)의 좌표와 대응되는 지점에 위치한 평가 대상 인터페이스의 조작 영역에 사용자의 조작 명령이 입력된 것으로 판단할 수 있다.
제어부(175)는 조작 영역에 사용자의 조작 명령이 입력된 것으로 판단되면 조작 명령에 대한 평가 정보를 제공하도록 표시부(172)를 제어할 수 있다.
일 예에 따르면, 제어부(175)는 평가 대상 인터페이스의 제 1 조작 영역에 사용자의 조작 명령이 입력되면, 제 1 조작 영역에 입력된 조작 명령에 대한 평가 정보를 제공하도록 표시부(172)를 제어할 수 있다.
제어부(175)는 조작 영역에 대한 조작 시간 정보, 조작 영역에 대한 사용자의 시선 분산 시간 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 중 적어도 하나의 평가 정보를 제공할 수 있다. 제공 되는 평가 정보는 인터페이스 평가 실험에 대한 초기 설정 단계에서 평가 항목 선택 화면을 통해 선택된 평가 항목에 기초해 결정될 수 있다.
조작 시간 정보는 기능 접근 시간 정보 및 기능 조작 시간 정보 중 적어도 하나를 포함할 수 있으며, 시선 분산 시간 정보는 시선 탐색 시간 정보 및 조작 피드백 시간 확인 정보 중 적어도 하나를 포함할 수 있다. 이하 각 정보의 의미와 관련해 전술한 바와 중복되는 설명은 생략하도록 한다.
제어부(175)는 조작 명령에 대한 평가 정보를 로우 데이터 형태로 제공할 수 있으며, 실시 예에 따라 평가 정보가 통계 분석된 형태로 제공할 수도 있다. 일 예에 따르면, 제어부(175)는 누적 데이터의 평균 값을 제공하거나 누적 데이터의 결과 값을 그래프 형태로 제공할 수도 있다. 다만, 평가 정보의 제공 방식이 전술한 예에 의해 한정되는 것은 아니며 당해 업계에서 통상의 지식을 지닌 자가 쉽게 생각할 수 있는 범위 내의 변경을 포함할 수 있다.
이상으로, 사용자 인터페이스 평가 장치(100)의 실시 예에 대해 설명하였다. 다음으로, 사용자 인터페이스 평가 방법에 대해 설명하도록 한다.
도 7은 일 실시 예에 따른 사용자 인터페이스 평가 방법의 흐름을 도시한 흐름도이고, 도 8은 일 실시 예에 따른 사용자 인터페이스 평가 방법의 흐름을 보다 상세하게 도시한 흐름도 이다.
도 7 및 도 8에 도시된 바를 참조하면, 일 실시 예에 따른 사용자 인터페이스 평가 방법은 평가 대상이 되는 인터페이스를 제공하는 단계와(210), 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하는 단계와(240), 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑하는 단계와(250), 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 단계와(270), 조작 명령에 대한 평가 정보를 표시하는 단계(290)를 포함할 수 있다.
실시 예에 따라, 피험자 정보를 입력하는 단계와(220), 사용자 인터페이스 평가 장치(100)의 구현 방식을 설정하는 단계와(230), 평가 항목을 선택하는 단계와(260), 조작 영역에 맵핑된 기능에 대한 기능 실행 화면을 제공하는 단계(280)를 더 포함할 수도 있다.
먼저, 평가 대상이 되는 인터페이스를 제공하는 단계는, 사진, 동영상 또는 손그림 형태로 마련된 평가 대상 인터페이스를 스크린에 투영하는 형태로 제공하는 것을 포함할 수 있다. 또한, 하드웨어 및 목업 형태 중 적어도 하나의 형태로 마련된 평가 대상 인터페이스를 제공하는 것을 포함할 수 있다(210).
다음으로, 피험자 정보를 입력하는 단계가 선택적으로 수행될 수 있다. 여기서, 피험자에 대한 정보는 평가 대상 인터페이스를 조작하는 사람의 성별, 키, 연령 등에 대한 정보를 의미할 수 있다(220).
다음으로, 구현 방식을 설정하는 단계가 선택적으로 수행될 수 있다. 구현 방식을 설정하는 단계에서는 인터페이스부(110)에 제공되는 평가 대상 인터페이스의 형태에 대한 정보를 입력할 수 있다. 예를 들어, 손그림 형태로 마련된 인터페이스와 목업 형태로 마련된 인터페이스가 혼합된 형태의 사용자 인터페이스에 대해 평가를 진행하고자 할 경우 손그림 형태의 인터페이스 항목과 목업 형태의 인터페이스 항목을 선택하여 구현 방식을 설정할 수 있다.
실시 예에 따라 구현 방식 설정 단계에서 차량의 브랜드, 차종, 연식 등을 설정할 수도 있다(230).
다음으로, 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하고, 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑하는 단계가 수행될 수 있다. 본 과정과 관련해 전술한 도 4 및 도 5에서 설명한 것과 중복되는 설명은 생략하도록 한다(240, 250).
다음으로, 평가 항목을 선택하는 단계가 선택적으로 수행될 수 있다. 평가 항목을 설정하는 단계에서는 조작 영역에 대한 조작 시간 항목, 조작 영역에 대한 사용자의 시선 분산 시간 항목, 시작 지점으로부터 조작 영역까지의 조작 길이 항목 중 적어도 하나의 평가 항목을 설정할 수 있다. 실시 예에 따라 각각의 항목은 복수 개의 세부 항목으로 구분될 수 있으며, 이하 세부 항목으로 제공 가능한 예와 관련하여 전술한 바와 중복되는 설명은 생략하도록 한다(260).
다음으로, 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 단계가 수행될 수 있다. 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 단계에서는 조작 영역에 대한 조작 시간 정보, 조작 영역에 대한 사용자의 시선 분산 시간 정보 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 정보 중 적어도 하나의 정보를 수집할 수 있다.
구체적으로, 조작 영역에 대한 사용자의 조작 명령 정보는 동작인식장비(140) 버튼부(141)의 버튼 입력 신호를 수집하거나, 촬영부(130)의 카메라를 통해 사용자 손의 움직임 정보를 수집하는 방식으로 수집할 수 있다. 또한, 시선분산시간 정보는 시선정보 수집부(150)의 아이트래커를 통해 사용자의 눈동자 움직임 정보를 수집하는 방식으로 수집할 수 있다. 또한, 조작 궤적 길이 정보는 촬영부(130)를 통해 동작인식장비(140)의 컬러 마커(M) 정보를 수집해 컬러 마커(M)의 좌표 정보를 추출하는 방식으로 수집할 수 있다. 사용자의 조작 명령 정보의 수집 방식이 전술한 예에 의해 한정되는 것은 아니며, 당업자가 쉽게 생각할 수 있는 범위 내의 변경을 포함할 수 있다(270).
다음으로, 조작 영역에 맵핑된 기능에 대한 기능 실행 화면을 제공하는 단계가 선택적으로 수행될 수 있다. 조작 영역에 사용자의 조작 명령이 입력되면, 해당 조작 영역에 대해 사용자의 조작 명령이 입력되었음을 사용자에게 시각적으로 표시하기 위한 화면이 제공될 수 있다. 예를 들어, 제 1 조작 영역에 사용자의 조작 명령이 입력되면, 제 1 조작 영역에 맵핑된 제 1 기능에 대한 기능 실행 화면이 제공될 수 있다. 기능 실행 화면은 표시 중인 화면이 기능 실행 화면으로 전환된 형태로 제공될 수 있다. 다만 기능 실행 화면의 제공 방식이 이에 한정되는 것은 아니며, 기능 실행 화면이 표시 중인 화면에 겹쳐지는 형태로 제공되거나 표시 중인 화면이 축소됨과 동시에 표시 중인 화면과 나란하게 표시되는 형태로 제공될 수 있음은 물론이다.
또한, 기능 실행 화면은 인터페이스부(110)의 형태에 따라 다양한 방식으로 제공될 수 있다. 예를 들어, 기능 실행 화면은 인터페이스부(110)에 제공되거나, 인터페이스부(110)와 별도로 마련된 스크린에 제공되거나, 제어장치(170)의 표시부(172)에 제공될 수 있다(280).
다음으로, 조작 명령에 대한 평가 정보를 표시하는 단계가 수행될 수 있다. 조작 명령에 대한 평가 정보는 조작 영역에 대한 조작 시간 정보, 조작 영역에 대한 사용자의 시선 분산 시간 및 시작 지점으로부터 조작 영역까지의 조작 궤적 길이 중 적어도 하나를 포함할 수 있다.
조작 명령에 대한 평가 정보를 표시하는 단계에서는 조작 명령에 대한 평가 정보가 로우 데이터 형태로 제공할 수 있으며, 실시 예에 따라 평가 정보가 통계 분석된 형태로 제공할 수도 있다(290).
이상으로, 사용자 인터페이스 평가 장치 및 그 평가 방법의 실시 예에 대해 상세하게 설명하였다. 발명의 실시 예가 전술한 실시 예에 의해 한정되는 것은 아니며 당해 업계에서 통상의 지식을 가진 자가 쉽게 실시할 수 있는 범위 내에서 다양한 변경이 가능할 수 있다.
100: 사용자 인터페이스 평가 장치
110: 인터페이스부
130: 촬영부
150: 시선정보 수집부
160: 투사부
170: 제어 장치

Claims (21)

  1. 평가 대상이 되는 인터페이스를 제공하는 인터페이스부;
    상기 인터페이스의 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 촬영부; 및
    상기 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하고, 상기 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑하고, 상기 조작 영역에 사용자의 조작 명령이 입력된 것으로 판단되면 상기 조작 명령에 대한 평가 정보를 제공하는 제어부;를 포함하는 사용자 인터페이스 평가 장치.
  2. 제 1항에 있어서,
    상기 조작 명령에 대한 평가 정보를 제공하는 표시부;를 더 포함하는 사용자 인터페이스 평가 장치.
  3. 제 1항에 있어서,
    상기 제어부는,
    상기 조작 영역에 대한 조작 시간 정보, 상기 조작 영역에 대한 사용자의 시선 분산 시간 및 시작 지점으로부터 상기 조작 영역까지의 조작 궤적 길이 중 적어도 하나의 평가 정보를 제공하는 사용자 인터페이스 평가 장치.
  4. 제 3항에 있어서,
    상기 조작 시간 정보는,
    기능 접근 시간 정보 및 기능 조작 시간 정보 중 적어도 하나를 포함하고,
    상기 시선 분산 시간 정보는,
    시선 탐색 시간 정보 및 조작 피드백 확인 시간 정보 중 적어도 하나를 포함하는 사용자 인터페이스 평가 장치.
  5. 제 1항에 있어서,
    상기 인터페이스부는,
    사진, 동영상 또는 손그림 형태로 마련된 인터페이스가 스크린에 투영된 형태로 상기 평가 대상이 되는 인터페이스를 제공하는 사용자 인터페이스 장치.
  6. 제 5항에 있어서,
    사진, 동영상 또는 손그림 형태로 마련된 인터페이스를 상기 스크린에 방사하는 투사부;를 더 포함하는 사용자 인터페이스 장치.
  7. 제 6항에 있어서,
    상기 촬영부와 상기 투사부는 일체로 마련된 사용자 인터페이스 장치.
  8. 제 1항에 있어서,
    상기 인터페이스부는,
    하드웨어 및 목업 형태 중 적어도 하나의 형태로 평가 대상 인터페이스를 제공하는 사용자 인터페이스 평가 장치.
  9. 제 1항에 있어서,
    상기 촬영부는,
    상기 조작 영역에 대한 조작 시간 정보 및 시작 지점으로부터 상기 조작 영역까지의 조작 궤적 길이 중 적어도 하나의 정보를 수집하는 사용자 인터페이스 평가 장치.
  10. 제 1항에 있어서,
    상기 조작 영역에 대한 사용자의 시선 분산 시간 정보를 포함하는 사용자의 시선 정보를 수집하는 시선 정보 수집부;를 더 포함하는 사용자 인터페이스 평가 장치.
  11. 제 1항 및 제 2항에 있어서,
    상기 조작 영역에 사용자의 조작 명령이 입력되면, 상기 조작 영역에 맵핑된 기능에 대한 기능 실행 화면이 상기 인터페이스부 및 상기 표시부 중 적어도 하나에 제공되는 사용자 인터페이스 평가 장치.
  12. 제 1항에 있어서,
    평가 대상 인터페이스의 평가 관련 정보를 저장하는 메모리;를 더 포함하는 사용자 인터페이스 평가 장치.
  13. 평가 대상이 되는 인터페이스를 제공하는 단계;
    상기 평가 대상이 되는 인터페이스에 적어도 하나의 조작 영역을 결정하는 단계;
    상기 조작 영역에 정보 기술 장비의 기능들 중 적어도 하나의 기능을 맵핑하는 단계;
    상기 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 단계; 및
    상기 조작 명령에 대한 평가 정보를 표시하는 단계;를 포함하는 사용자 인터페이스 평가 방법.
  14. 제 13항에 있어서,
    상기 조작 영역에 대한 사용자의 조작 명령 정보를 수집하는 단계는,
    상기 조작 영역에 대한 조작 시간 정보, 상기 조작 영역에 대한 사용자의 시선 분산 시간 정보 및 시작 지점으로부터 상기 조작 영역까지의 조작 궤적 길이 정보 중 적어도 하나의 정보를 수집하는 단계;를 더 포함하는 사용자 인터페이스의 평가 방법.
  15. 제 14항에 있어서,
    상기 조작 시간 정보는,
    기능 접근 시간 정보 및 기능 조작 시간 정보 중 적어도 하나를 포함하고,
    상기 시선 분산 시간 정보는,
    시선 탐색 시간 정보 및 조작 피드백 확인 시간 정보 중 적어도 하나를 포함하는 사용자 인터페이스 평가 방법.
  16. 제 13항에 있어서,
    피험자 정보를 입력하는 단계;
    구현 방식을 설정하는 단계; 및
    평가 항목을 선택하는 단계; 중 적어도 하나의 단계를 더 포함하는 사용자 인터페이스 평가 방법.
  17. 제 16항에 있어서,
    상기 구현 방식을 설정하는 단계는,
    평가 대상이 되는 인터페이스의 형태를 설정하는 것을 포함하는 사용자 인터페이스 평가 방법.
  18. 제 16항에 있어서,
    상기 평가 항목을 설정하는 단계는,
    상기 조작 영역에 대한 조작 시간 항목, 상기 조작 영역에 대한 사용자의 시선 분산 시간 항목 및 시작 지점으로부터 상기 조작 영역까지의 조작 궤적 길이 항목 중 적어도 하나의 평가 항목을 설정하는 것을 포함하는 사용자 인터페이스의 평가 방법.
  19. 제 13항에 있어서,
    상기 평가 대상 인터페이스를 제공하는 단계는,
    사진, 동영상 또는 손그림 형태로 마련된 평가 대상 인터페이스를 스크린에 투영하는 형태로 제공하는 것을 포함하는 사용자 인터페이스의 평가 방법.
  20. 제 13항에 있어서,
    상기 평가 대상 인터페이스를 제공하는 단계는,
    하드웨어 및 목업 형태 중 적어도 하나의 형태로 마련된 평가 대상 인터페이스를 제공하는 것을 포함하는 사용자 인터페이스의 평가 방법.
  21. 제 13항에 있어서,
    상기 조작 영역에 사용자의 조작 명령이 입력되면, 상기 조작 영역에 맵핑된 기능에 대한 기능 실행 화면을 제공하는 단계;를 더 포함하는 사용자 인터페이스의 평가 방법.
KR1020150152959A 2015-11-02 2015-11-02 사용자 인터페이스 평가 장치 및 그 평가 방법 KR101749070B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150152959A KR101749070B1 (ko) 2015-11-02 2015-11-02 사용자 인터페이스 평가 장치 및 그 평가 방법
US15/339,270 US20170123646A1 (en) 2015-11-02 2016-10-31 Apparatus and method for evaluating user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150152959A KR101749070B1 (ko) 2015-11-02 2015-11-02 사용자 인터페이스 평가 장치 및 그 평가 방법

Publications (2)

Publication Number Publication Date
KR20170050885A true KR20170050885A (ko) 2017-05-11
KR101749070B1 KR101749070B1 (ko) 2017-06-20

Family

ID=58634708

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150152959A KR101749070B1 (ko) 2015-11-02 2015-11-02 사용자 인터페이스 평가 장치 및 그 평가 방법

Country Status (2)

Country Link
US (1) US20170123646A1 (ko)
KR (1) KR101749070B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102484523B1 (ko) * 2022-07-11 2023-01-09 주식회사 리오랩 메타버스 기반 사용성테스트에서 테스트 참여자의 동작을 분석하기 위한 방법 및 시스템

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106997236B (zh) * 2016-01-25 2018-07-13 亮风台(上海)信息科技有限公司 基于多模态输入进行交互的方法和设备
US20240028208A1 (en) * 2022-07-25 2024-01-25 Samsung Electronics Co., Ltd. Memory-interface converter chip
CN116069165B (zh) * 2023-02-14 2024-02-09 中国民用航空总局第二研究所 一种远程塔台光学系统的目标界面确定方法
CN116893953B (zh) * 2023-09-11 2024-04-30 深圳联友科技有限公司 一种基于眼动追踪的界面可用性评估方法和系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275439A (ja) * 2004-03-22 2005-10-06 Osamu Kanai Ui設計評価方法及び装置
KR100650250B1 (ko) * 2005-10-28 2006-11-27 주식회사 케이티프리텔 이동통신 단말의 사용자 인터페이스 테스트 장치 및 그방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102484523B1 (ko) * 2022-07-11 2023-01-09 주식회사 리오랩 메타버스 기반 사용성테스트에서 테스트 참여자의 동작을 분석하기 위한 방법 및 시스템

Also Published As

Publication number Publication date
KR101749070B1 (ko) 2017-06-20
US20170123646A1 (en) 2017-05-04

Similar Documents

Publication Publication Date Title
US10831281B2 (en) Systems and methods of free-space gestural interaction
KR101749070B1 (ko) 사용자 인터페이스 평가 장치 및 그 평가 방법
US10001838B2 (en) Feature tracking for device input
JP6480434B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US20170285876A1 (en) Projection device, projection method, and projection program
US20190278376A1 (en) System and method for close-range movement tracking
CN107003716B (zh) 投射型影像显示装置以及影像显示方法
US20170228138A1 (en) System and method for spatial interaction for viewing and manipulating off-screen content
AU2010366331B2 (en) User interface, apparatus and method for gesture recognition
US10015402B2 (en) Electronic apparatus
US20130194173A1 (en) Touch free control of electronic systems and associated methods
US20130077831A1 (en) Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP2009042796A (ja) ジェスチャー入力装置および方法
CN105229582A (zh) 基于近距离传感器和图像传感器的手势检测
US20160092062A1 (en) Input support apparatus, method of input support, and computer program
CN109144304A (zh) 至少一个显示窗口布局调整及触控自动校准方法及系统
JP2013037675A5 (ko)
US20140317576A1 (en) Method and system for responding to user's selection gesture of object displayed in three dimensions
US10572134B2 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
KR20130105725A (ko) 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전
JP2013054661A (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
EP3400827A1 (en) Electronic make-up mirror device and background switching method thereof
WO2021004413A1 (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
JP2015122124A (ja) 仮想マウスによるデータ入力機能を有する情報装置
CN110147169A (zh) 至少一个显示窗口布局调整及触控自动校准方法及系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right