KR102131358B1 - 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법 - Google Patents

유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법 Download PDF

Info

Publication number
KR102131358B1
KR102131358B1 KR1020130068878A KR20130068878A KR102131358B1 KR 102131358 B1 KR102131358 B1 KR 102131358B1 KR 1020130068878 A KR1020130068878 A KR 1020130068878A KR 20130068878 A KR20130068878 A KR 20130068878A KR 102131358 B1 KR102131358 B1 KR 102131358B1
Authority
KR
South Korea
Prior art keywords
viewing window
user interface
interface device
map
speed
Prior art date
Application number
KR1020130068878A
Other languages
English (en)
Other versions
KR20140146352A (ko
Inventor
최창목
김상준
배상곤
윤승근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130068878A priority Critical patent/KR102131358B1/ko
Priority to US14/161,145 priority patent/US9529434B2/en
Priority to EP14160911.5A priority patent/EP2816320B1/en
Publication of KR20140146352A publication Critical patent/KR20140146352A/ko
Application granted granted Critical
Publication of KR102131358B1 publication Critical patent/KR102131358B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법을 제공한다. 일실시예에 따른 유저 인터페이스 장치는, 착용형 모바일 기기에서 맵을 검색하는 데에 있어, 팔의 움직임의 범위가 한정되어 있다 하더라도, 근전도 신호의 강약 조절을 통해, 맵 상에서 원하는 영역으로 빠르게 이동할 수 있다.

Description

유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법{USER INTERFACE DEVICE AND METHOD OF OPERATION OF USER INTERFACE DEVICE}
이하의 실시예들은 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법에 관한 것이다.
근래에는, 스마트폰의 확산과 함께, 새로운 착용형 모바일 기기의 출현이 가속화 되고 있다. 이러한 착용형 모바일 기기에서는, 무선 데이터망을 통해 스마트폰으로 얻은 정보를, 스마트폰을 직접 보지 않고도, 데이터를 가공하여 별도로 제공되는 화면을 통해 시각화하고 있다.
스마트폰은 비교적 큰 화면을 기반으로 사용자가 손가락으로 화면을 터치하여 조작하면서 정보를 처리한다. 반면, 착용형 모바일 기기는 스마트폰의 화면에 비해 상대적으로 작은 화면을 가지고 있어, 터치를 하기 위해 화면에 손가락을 올려놓으면 화면 대부분이 가려져 미세하고 정확한 조작이 어렵다는 단점을 가지고 있다.
이러한 단점에 대한 대응으로는 착용형 모바일 기기에 적용될 수 있는 음성 인식에 의한 기기의 조작 방식도 등장하였지만, 상기 음성 인식의 조작 방식도, 주변에 소음이 많으면 인식률이 떨어진다는 문제가 있다.
이에 따라, 신체에서 감지되는 근전도 신호와, 신체의 제스처를 병행하여 이용 함으로써, 보다 섬세하고 효율적으로, 외부의 기기를 조작할 수 있게 하는 모델의 등장이 요구되고 있다.
일실시예에 따른 유저 인터페이스 장치는, 측정 대상에 접촉되어 상기 측정 대상으로부터 근전도 신호를 획득하는 제1 센서부, 및 상기 근전도 신호를 이용하여, 디스플레이 수단에 표시되는 맵 영역을 결정하는 시야 윈도우를 제어하는 표시 제어부를 포함하여 구성할 수 있다.
상기 표시 제어부는, 획득되는 상기 근전도 신호의 크기에 비례하여, 맵 상에서 상기 시야 윈도우가 이동하는 속도를 조정할 수 있다.
상기 표시 제어부는, 상기 디스플레이 수단에서 현재 표시하지 않는 제2 맵 영역과 관련한 상기 시야 윈도우의 이동속도가, 상기 디스플레이 수단에서 현재 표시하는 제1 맵 영역과 관련한 상기 시야 윈도우의 이동속도 보다 빠르도록 조정할 수 있다.
상기 유저 인터페이스 장치는, 상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 제2 센서부를 더 포함하여 구성할 수 있다.
상기 표시 제어부는, 상기 가속도 신호에 의해 식별되는 방향으로, 상기 조정된 이동속도로 상기 시야 윈도우를 이동시킬 수 있다.
상기 표시 제어부는, 획득되는 상기 근전도 신호의 크기에 비례하여, 맵에 대해 상기 시야 윈도우가 주밍을 변경하는 속도를 조정할 수 있다.
상기 표시 제어부는, 상기 디스플레이 수단에서 현재 표시되는 제1 맵 영역을 적어도 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도가, 상기 제1 맵 영역의 일부를 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도 보다 빠르도록 조정할 수 있다.
상기 유저 인터페이스 장치는, 상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 제2 센서부를 더 포함하고, 상기 표시 제어부는, 상기 가속도 신호에 의해 식별되는 방향에 따라, 상기 시야 윈도우에 의해 결정되는 맵 영역의 범위를 증가시키거나, 또는 감소시킬 수 있다.
상기 제1 센서부는, 상기 측정 대상과 연관되어, 근육 수축 및 근육 이완 중 적어도 하나에 의해 발생하는 상기 근전도 신호를 획득할 수 있다.
일실시예에 따른 유저 인터페이스 장치의 동작 방법은, 측정 대상에 접촉되는 제1 센서부에 의해 상기 측정 대상으로부터 근전도 신호를 획득하는 단계, 및 상기 근전도 신호를 이용하여, 디스플레이 수단에 표시되는 맵 영역을 결정하는 시야 윈도우를 제어하는 단계를 포함하여 구성할 수 있다.
상기 시야 윈도우를 제어하는 단계는, 획득되는 상기 근전도 신호의 크기에 비례하여, 맵 상에서 상기 시야 윈도우가 이동하는 속도를 조정하는 단계를 포함할 수 있다.
상기 시야 윈도우를 제어하는 단계는, 상기 디스플레이 수단에서 현재 표시하지 않는 제2 맵 영역과 관련한 상기 시야 윈도우의 이동속도가, 상기 디스플레이 수단에서 현재 표시하는 제1 맵 영역과 관련한 상기 시야 윈도우의 이동속도 보다 빠르도록 조정하는 단계를 더 포함할 수 있다.
상기 유저 인터페이스 장치의 동작 방법은, 제2 센서부에 의해, 상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 단계를 더 포함하고, 상기 시야 윈도우를 제어하는 단계는, 상기 가속도 신호에 의해 식별되는 방향으로, 상기 조정된 이동속도로 상기 시야 윈도우를 이동시키는 단계를 더 포함 할 수 있다.
상기 시야 윈도우를 제어하는 단계는, 획득되는 상기 근전도 신호의 크기에 비례하여, 맵에 대해 상기 시야 윈도우가 주밍을 변경하는 속도를 조정하는 단계를 포함할 수 있다.
상기 시야 윈도우를 제어하는 단계는, 상기 디스플레이 수단에서 현재 표시되는 제1 맵 영역을 적어도 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도가, 상기 제1 맵 영역의 일부를 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도 보다 빠르도록 조정하는 단계를 더 포함할 수 있다.
상기 유저 인터페이스 장치의 동작 방법은, 제2 센서부에 의해, 상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 단계를 더 포함하고, 상기 시야 윈도우를 제어하는 단계는, 상기 가속도 신호에 의해 식별되는 방향에 따라, 상기 시야 윈도우에 의해 결정되는 맵 영역의 범위를 증가시키거나, 또는 감소시키는 단계를 더 포함할 수 있다.
도 1은 일실시예에 따른 유저 인터페이스 장치에 대한 구성을 설명하기 위한 도면이다.
도 2는 일실시예에 따라, 근전도 신호의 크기에 기초하여, 시야 윈도우의 이동 속도를 제어하는 일례를 도시하는 도면이다.
도 3은 근전도 신호의 크기에 비례하여, 맵 상에서, 시야 윈도우를 이동 제어하는 일례를 도시하는 도면이다.
도 4는 일실시예에 따라, 근전도 신호와 가속도 신호를 이용하여 시야 윈도우를 제어하는 일례를 도시하는 도면이다.
도 5는 일실시예에 따른 유저 인터페이스 장치의 동작 방법을 구체적으로 도시한 작업 흐름도이다.
이하에서, 실시예들을, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 실시 가능한 예시는, 명세서에 기재된 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
명세서에서 지속적으로 사용되는 센서부는, 측정 대상에 접촉되게 부착되어, 측정 대상에서 발생하는 신호를 획득하거나, 또는 측정 대상의 움직임을 감지하는 센서 또는 센서들의 집합을 지칭할 수 있다.
예컨대, 센서부는, 팔목, 팔뚝 등의 생체에 부착되어, 상기 생체의 근육 수축 및 근육 이완에 따라 발생하는 근전도 신호(EMG 신호)를 획득하는 근전도 센서, 광 센서, 압전(piezo-electric) 센서, 힘 센서 등으로 예시할 수 있으며, 본 명세서에서는 이를 제1 센서부로 명명한다.
다른 예시에서, 센서부는 생체의 동작을 직간접적으로 모니터링하여, 상기 생체의 움직임에 관한 가속도 신호를 획득하는 가속도 센서, 자이로 센서, 지자계 센서, GPS 센서 등으로 예시할 수 있으며, 본 명세서에서는 이를 제2 센서부로 명명한다.
일실시예에 따른 유저 인터페이스 장치는, 제2 센서부에서 획득한 가속도 신호를 이용하여, 디스플레이 수단에 표시되는 맵 영역을, 식별되는 방향으로 이동(navigation) 하되, 상기 맵 영역을 이동시키는 속도를, 제1 센서부에서 획득한 근전도 신호의 크기에 따라 제어할 수 있다.
이를 통해, 유저 인터페이스 장치는, 근전도 신호의 강약을 조정하여, 팔의 움직임이 제한되는 공간에서도, 보여지지 않던 맵 상의 먼 영역으로 신속하게 이동 가능하게 할 수 있다.
도 1은 일실시예에 따른 유저 인터페이스 장치에 대한 구성을 설명하기 위한 도면이다.
도 1을 참조하여, 유저 인터페이스 장치(100)는 제1 센서부(110) 및 표시 제어부(120)를 포함하여 구성할 수 있다. 또한, 유저 인터페이스 장치(100)는 실시예에 따라, 제2 센서부(130)를 더 포함하여 구성할 수 있다.
우선, 제1 센서부(110)는 측정 대상(105)에 접촉되어, 측정 대상(105)으로부터 근전도 신호를 획득한다. 제1 센서부(110)는 측정 대상(105)과 연관되어, 근육 수축 및 근육 이완 중 적어도 하나에 의해 발생하는 EMG 신호로서의 근전도 신호를 획득할 수 있다. 예컨대, 제1 센서부(110)는 측정 대상(105)으로 팔목이 지정되는 경우, 상기 팔목의 근육으로부터, 팔목 근육의 수축 또는 이완에 따라 생성되는 근전도 신호를 감지할 수 있다.
여기서, 측정 대상(105)은 예컨대 상기 근전도 신호를 발생시키는 근육이 위치하는, 생물체의 팔목, 팔뚝, 얼굴, 목 등을 예시할 수 있다.
제1 센서부(110)는 측정 대상(105)의 근육으로부터 근전도 신호를 감지하는 하나 이상의 센서를 포함하고, 상기 센서를 통해 상기 근육에서의 수축 또는 이완을 모니터링 할 수 있다. 상기 제1 센서부(110)는, 근전도 신호(EMG 신호)를 획득하는 근전도 센서, 광 센서, 압전(piezo-electric) 센서, 힘 센서 등을 예시할 수 있다.
상기 근전도 신호는, 예컨대 상기 근육과 연관하여 생성되는 생체 전기/자기 신호(Bio-electric/magnetic signals), 생체 임피던스 신호(Bio-impedance signals), 생체 역학 신호(Bio-mechanical signals) 등을 포함할 수 있다.
실시예에 따라, 제1 센서부(110)는, 측정 대상(105)을 체결할 수 있는 팔찌 부재에 고정될 수 있다. 이때, 제1 센서부(110)의 센싱면은 측정 대상(105)과 직접 접촉하도록 상기 팔찌 부재에 고정될 수 있다. 상기 센싱면은 측정 대상(105)과 맞닿아 측정 대상(105)에서 발생하는 근전도 신호를 감지하는, 하나 이상의 근전도 센서가 배열되는 면일 수 있다. 예컨대 팔찌 부재는 제1 센서부(110)를 통해, 측정 대상(105)에 관한, 생체 전기/자기 신호, 생체 임피던스 신호, 생체 역학 신호 등의 근전도 신호를 광범위하게 감지할 수 있다.
상기 팔찌 부재는 예컨대 팔목 근육을 덮는 피부를 둘러 싸듯이 체결하되, 제1 센서부(110)가 배열되는 팔찌 부재의 영역(센싱면)이 상기 팔목 근육을 적어도 덮도록 하여 체결할 수 있다. 이를 통해 제1 센서부(110)는 포함되는 하나 이상의 근전도 센서를 통해, 측정 대상(105)인 팔목 근육 전 범위에 걸쳐, 근전도 신호를 수집할 수 있다.
표시 제어부(120)는 상기 근전도 신호를 이용하여, 디스플레이 수단에 표시되는 맵 영역을 결정하는 시야 윈도우를 제어한다. 상기 시야 윈도우는, 전체 맵 중에서, 디스플레이 수단인 화면 상으로 표시될 맵 영역을 지정하는 데에 사용되는 가상의 틀(frame)일 수 있다. 표시 제어부(120)는 상기 시야 윈도우를 맵 상에서, 상하좌우로 이동하여, 화면으로 표시되는 맵 영역을 결정할 수 있다.
일례에서, 표시 제어부(120)는, 획득되는 상기 근전도 신호의 크기에 비례하여, 맵 상에서 상기 시야 윈도우가 이동하는 속도를 조정할 수 있다. 예컨대, 표시 제어부(120)는 상기 근전도 신호가 큰 크기로 단시간에 획득되면, 상기 획득한 크기에 비례하여 상기 시야 윈도우가 상기 맵 상을 빠른 속도로 이동하도록 제어할 수 있다. 또한, 표시 제어부(120)는 상기 근전도 신호가 작은 크기로 장시간에 걸쳐 획득되면, 상기 시야 윈도우가 상기 맵 상을 일정한 낮은 속도로 이동하도록 제어할 수 있다.
이때, 표시 제어부(120)는, 상기 디스플레이 수단에서 현재 표시하지 않는 제2 맵 영역과 관련한 상기 시야 윈도우의 이동속도가, 상기 디스플레이 수단에서 현재 표시하는 제1 맵 영역과 관련한 상기 시야 윈도우의 이동속도 보다 빠르도록 조정할 수 있다.
예컨대, 표시 제어부(120)는 맵 상에서, 먼 지역에 속하는 제2 맵 영역으로의 상기 시야 윈도우 이동을 빠르게 제어 함으로써, 먼 지역에 대한 맵 검색이 보다 효율적으로 이루어지게 할 수 있다.
또한, 표시 제어부(120)는 맵 상에서, 가까운 지역에 속하는 제1 맵 영역에서의 상기 시야 윈도우 이동을 느리게 제어 함으로써, 가까운 지역에 대한 보다 상세한 맵 검색이 가능하도록 지원할 수 있다.
도 2는 일실시예에 따라, 근전도 신호의 크기에 기초하여, 시야 윈도우의 이동 속도를 제어하는 일례를 도시하는 도면이다.
우선 도 2(a)에는, 유저 인터페이스 장치(100)의 제1 센서부(110)에서 획득한 근전도 신호를 예시한다.
도 2(a)에 도시한 바와 같이, 근전도 신호는, 아날로그의 정현파 형태로 획득되며, 예컨대 손가락에 힘을 주는 t1 내지 t2 구간에서 보다 큰 파형을 가지고 획득될 수 있다.
도 2(b)에서는, 유저 인터페이스 장치(100)의 표시 제어부(120)에 의해, 획득된 근전도 신호의 크기를 신호 처리하여, 크기 비교를 가능하게 하는 그래프를 예시한다. 예컨대, 표시 제어부(120)는 도 2(a)의 근전도 신호를 참조하여, 파형이 커지는 t1 이후에, 기울기가 급격히 상승하는 2차 곡선의 그래프를 작성할 수 있다.
또한, 표시 제어부(120)는 도 2(b)의 크기 구간을, 근전도 신호가 획득되지 않는 '최소'에서, 근전도 신호가 가장 크게 획득되는 '최대' 사이를, 몇 개의 세부구간으로 나누어, 시야 윈도우의 이동 속도에 대한 세부적인 제어가 가능하게 할 수 있다.
예컨대, 도 2(b)에서 표시 제어부(120)는 상기 크기 구간을, '중간' 및 '약간' 등의 세부구간으로 나눌 수 있다.
도 2(c)에서는, 표시 제어부(120)에 의해, 도 2(b)의 신호 처리 그래프에 기초하여 맵 상에서 시야 윈도우의 이동 속도를 제어하는 일례를 예시한다. 도 2(c)에서 표시 제어부(120)는 획득되는 상기 근전도 신호의 크기에 비례하여, 맵 상에서 상기 시야 윈도우가 이동하는 속도를 조정할 수 있다.
예컨대, 표시 제어부(120)는 근전도 신호의 크기를 통해, 디스플레이 수단에서 맵 영역이 옮겨지는 속도를 제어할 수 있다.
도 2(c)에 도시한 바와 같이, 표시 제어부(120)는, 손가락에 힘을 주지 않는, 근전도 신호의 크기 '최소'인 경우, 속도 '1'로 시야 윈도우를 이동시킬 수 있다.
또한, 표시 제어부(120)는, 손가락에 약간 힘을 주는, 근전도 신호의 크기 '약간'인 경우, 상기 속도 '1' 보다 상대적으로 빠른 속도 '2'로 시야 윈도우를 이동시킬 수 있다.
유사하게, 표시 제어부(120)는, 손가락에 중간 힘을 주는, 근전도 신호의 크기 '중간'인 경우, 상기 속도 '2' 보다 상대적으로 빠른 속도 '3'으로 시야 윈도우를 이동시킬 수 있다. 실시예에 따라, 표시 제어부(120)는 속도 '2'과 '3'과의 사이 구간 거리가, 속도 '1'과 '2'와의 사이 구간 거리 보다 넓게 하여, 상기 근전도 신호의 크기에 따라, 상기 시야 윈도우가 보다 빠른 속도로 이동되도록 유도할 수 있다.
이를 통해, 표시 제어부(120)는, 근전도 신호를 이용하여 전체 맵 중에서 가까운 지역에 속하는 맵 영역이 천천히 이동하도록 하고, 또한 전체 맵 중에서 먼 지역에 속하는 맵 영역이 빠르게 이동하도록 제어할 수 있다.
도 3은 근전도 신호의 크기에 비례하여, 맵 상에서, 시야 윈도우를 이동 제어하는 일례를 도시하는 도면이다.
도 3에서는, 근전도 신호의 크기에 따라, 맵 상에서의 이동 속도를 다르게 결정하여, 디스플레이 수단에 맵 영역을 표시하는 것을 예시한다.
도 3에서, 도번 310의 점선은 시야 윈도우에 의해, 디스플레이 수단에서 현재 표시하는 제1 맵 영역을 나타내고, 도번 320의 실선은 디스플레이 수단에서 현재 표시하지 않지만, 상기 시야 윈도우의 이동에 의해, 앞으로 표시될 제2 맵 영역을 지칭할 수 있다.
우선, 도 3(a)에서 표시 제어부(120)는, 측정 대상(105)으로부터 근전도 신호를 측정하지 못한 '근전도 신호 = 0'(근전도 신호의 크기 '최소')의 조건하에서, 제1 맵 영역(310)에서, 제2 맵 영역(320)으로 시야 윈도우를 이동시키는 것을 예시하고 있다. 예컨대, 사용자가 근육에 어떠한 힘을 주지 않은 상태에서, 후술하는 제2 센서부(130)가 포함되는 유저 인터페이스 장치(100)를 '상 방향'으로 움직이는 경우, 표시 제어부(120)는 사전에 정한 속도(예컨대 속도 '1')로 시야 윈도우가 이동되도록 제어할 수 있다.
반면, 도 3(b)에서는, 측정 대상(105)으로부터 약간의 근전도 신호가 측정되는 '근전도 신호 = 10'일 경우, 제1 맵 영역(310)에서, 제2 맵 영역(320)으로 시야 윈도우를 이동시키는 것을 예시하고 있다. 이때, 표시 제어부(120)는 상기 '근전도 신호 = 10'을 '약간'으로 분석하고, 크기 '약간'에 대해 정해진 속도(예컨대 속도 '2')로 시야 윈도우가 이동되도록 제어할 수 있다. 도 3(b)에서 상기 '근전도 신호 = 10'에 대해, 시야 윈도우가 맵 상에서 이동한 거리는 'α'일 수 있다.
또한, 도 3(c)에서 표시 제어부(120)는, 측정 대상(105)으로부터 중간 크기의 '근전도 신호 = 20'을 갖는 근전도 신호를 획득하는 조건하에서, 제1 맵 영역(310)에서, 제2 맵 영역(320)으로 시야 윈도우를 이동시킬 수 있다. 예컨대, 표시 제어부(120)는 상기 '근전도 신호 = 20'을 '중간'으로 분석하고, 크기 '중간'에 대해 정해진 속도(예컨대 속도 '3')로 시야 윈도우가 이동되도록 제어할 수 있다.
도 3(c)에서 상기 '근전도 신호 = 20'에 대해, 시야 윈도우가 맵 상에서 이동한 거리는 'β'일 수 있다. 여기서, β는 도 3(b)에서 이동한 거리 'α'의 2배수 보다 크게 되도록 설정할 수 있다(β>2α). 예컨대, 표시 제어부(120)는 근전도 신호의 크기가 2배('10' → '20')로 증가하는 경우라도, 시야 윈도우가 이동하는 거리를 상기 2배 보다 더 크도록 제어할 수 있다.
표시 제어부(120)는 디스플레이 수단에서 현재 표시하지 않는 제2 맵 영역(320)과 관련한 상기 시야 윈도우의 이동속도가, 상기 디스플레이 수단에서 현재 표시하는 제1 맵 영역(310)과 관련한 상기 시야 윈도우의 이동속도 보다 빠르도록 조정 함으로써, 상기 근전도 신호의 크기에 따라, 상기 시야 윈도우가 먼 지역의 맵 영역을 보다 빠른 속도로 맵 상을 이동하도록 할 수 있다.
다시, 도 1을 설명하면, 유저 인터페이스 장치(100)는 상기 시야 윈도우의 제어시, 측정 대상(105)의 움직임을 더 고려할 수 있다. 이를 위해, 유저 인터페이스 장치(100)는 측정 대상(105)의 움직임을 감지하여 가속도 신호를 획득하는 제2 센서부(130)를 더 포함하여 구성할 수 있다.
제2 센서부(130)는 측정 대상(105)의 동작을 모니터링하고, 상기 동작에 따라 사용자가 의도하는, 제어하고자 하는 방향을 파악하는 역할을 한다. 제2 센서부(130)는 감지되는 측정 대상(105)의 움직임을 고려하여, 측정 대상(105)과 관련하여 취해지는 제스처를 식별하고, 상기 식별되는 제스처와 관련하는 가속도 신호를 획득 할 수 있다. 제2 센서부(130)는 측정 대상(105)의 움직임에 관한 가속도 신호를 획득하는 가속도 센서, 자이로 센서, 지자계 센서, GPS 센서 등을 예시할 수 있다.
실시예에 따라, 제2 센서부(130)는, 제1 센서부(110)와 함께, 측정 대상(105)을 체결할 수 있는 팔찌 부재에 고정될 수 있다.
예컨대, 측정 대상인 팔이 상 방향으로 움직임에 따라, 제2 센서부(130)는 상기 움직임으로 '상 방향'과 관련한 가속도 신호를 획득할 수 있다. 또한, 표시 제어부(120)는 상기 획득한 가속도 신호에 의해 식별되는 방향으로, 상기 조정된 이동속도로 상기 시야 윈도우를 이동시킬 수 있다.
예컨대, 앞서 설명한 도 3(a) 내지 도 3(c)에서, 3가지 이동속도로 조정되는 시야 윈도우는, 가속도 신호에 의해 식별되는 방향인 '상 방향'으로 이동하는 것을 예시하고 있다.
이에 따라, 일실시예에 따른 유저 인터페이스 장치(100)는, 착용형 모바일 기기에서 맵을 검색하는 데에 있어, 팔의 움직임의 범위가 한정되어 있다 하더라도, 근전도 신호의 강약 조절을 통해, 맵 상에서 원하는 영역으로 빠르게 이동할 수 있다.
또한, 유저 인터페이스 장치(100)에 의해서는, 맵 상에서, 먼 지역에 속하는 맵 영역으로의 시야 윈도우 이동을 빠르게 제어 함으로써, 먼 지역에 대한 맵 검색이 보다 효율적으로 이루어지게 할 수 있다.
또한, 유저 인터페이스 장치(100)는 맵 상에서, 가까운 지역에 속하는 제1 맵 영역에서의 상기 시야 윈도우 이동을 상대적으로 느리게 제어 함으로써, 가까운 지역에 대한 보다 상세한 맵 검색이 가능하도록 지원할 수 있다.
다른 실시예에서, 유저 인터페이스 장치(100)는 획득되는 상기 근전도 신호의 크기에 비례하여, 맵에 대해 상기 시야 윈도우가 주밍(zooming)을 변경하는 속도를 조정할 수 있다. 여기서, 주밍은 그래픽 사용자 인터페이스(GUI)에서 화면에 나타난 정보 가운데 어느 한 부분을 확대하거나 축소하는 것으로, 줌 인(zoom in)과, 줌 아웃(zoom out)을 포함할 수 있다.
표시 제어부(120)는 상기 시야 윈도우를 줌 인 또는 줌 아웃하여, 화면으로 표시되는 맵 영역의 범위를 결정하고, 또한 상기 획득한 근전도 신호를 고려하여 주밍변경속도를 제어할 수 있다.
예컨대, 표시 제어부(120)는 상기 근전도 신호가 큰 크기로 단시간에 획득되면, 상기 획득한 크기에 비례하여, 상기 시야 윈도우가 상기 맵 상의 특정 위치에 대해 줌 인 또는 줌 아웃하는 속도를 빠르게 제어할 수 있다.
또한, 표시 제어부(120)는 상기 근전도 신호가 작은 크기로 장시간에 걸쳐 획득되면, 상기 시야 윈도우가 상기 맵 상의 특정 위치에 대해 줌 인 또는 줌 아웃하는 속도가 일정한 낮은 속도로 제어되도록 할 수 있다.
이때, 표시 제어부(120)는, 상기 디스플레이 수단에서 현재 표시되는 맵 영역을 적어도 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도가, 상기 맵 영역의 일부를 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도 보다 빠르도록 조정할 수 있다.
예컨대, 표시 제어부(120)는 현재 보여지는 맵 영역을 포함하여, 보다 넒은 지역을 함께 표시하고자 하는 경우, 상기 시야 윈도우의 줌 아웃하는 주밍변경속도가 단시간에 변경되도록 제어 함으로써, 보다 넓은 지역에 대한 맵 검색이 효율적으로 이루어지게 할 수 있다.
또한, 표시 제어부(120)는 현재 보여지는 맵 영역 내 일부를 보다 상세히 표시하고자 하는 경우, 상기 시야 윈도우의 줌 인하는 주밍변경속도가 장시간에 걸쳐 변경되도록 제어 함으로써, 보다 좁은 지역에 대한 상세한 맵 검색이 가능하도록 지원할 수 있다.
또한, 표시 제어부(120)는 측정 대상(105)의 움직임을 감지하는 제2 센서부(130)에 의해 획득되는 가속도 신호에 의해 식별되는 방향에 따라, 상기 시야 윈도우에 의해 결정되는 맵 영역의 범위를 증가시키거나, 또는 감소시킬 수 있다. 여기서, 맵 영역의 범위는, 시야 윈도우의 줌 인 또는 줌 아웃에 의해 결정되는 맵 영역의 크기를 지칭하며, 상기 시야 윈도우가 줌 아웃하면 맵 영역의 크기는 넓어지고, 반면 상기 시야 윈도우가 줌 인하면 맵 영역의 크기는 좁아질 수 있다.
표시 제어부(120)는 측정 대상(105)의 움직임을 더 고려하여, 상기 시야 윈도우를 제어할 수 있다.
예컨대, 측정 대상인 팔이 업 방향으로 움직임에 따라, 표시 제어부(120)는, 앞서 근전도 신호의 크기에 따라 조정되는 주밍변경속도로, 상기 시야 윈도우를 '업 방향'으로 이동시켜, 보다 넓은 지역에 대한 포괄적인 맵 검색을 지원할 수 있다.
또한, 측정 대상인 팔이 다운 방향으로 움직이는 경우, 표시 제어부(120)는, 근전도 신호의 크기에 비례하여 조정되는 주밍변경속도로, 상기 시야 윈도우를 '다운 방향'으로 이동시켜, 보다 좁은 지역에 대한 상세한 맵 검색을 지원할 수 있다.
도 4는 일실시예에 따라, 근전도 신호와 가속도 신호를 이용하여 시야 윈도우를 제어하는 일례를 도시하는 도면이다.
도 4에 도시한 바와 같이, 유저 인터페이스 장치를 구성하는 제1 센서부(410)는 측정 대상으로부터 근전도 신호를 획득한다(411). 예컨대, 제1 센서부(410)는 측정 대상의 팔목에서 중간 정도 힘이 주어짐에 따른 근전도 신호를 획득할 수 있다.
이후, 상기 유저 인터페이스 장치는, 제1 센서부(410)에서 획득한 상기 근전도 신호를 신호처리하여, 특징을 추출한다(412). 예컨대, 상기 유저 인터페이스 장치는 상기 특징으로서, 상기 근전도 신호의 크기를 '중간'으로 추출할 수 있다.
계속해서, 상기 유저 인터페이스 장치는 상기 추출된 특징을 이용하여, 맵 이동 속도를 결정한다(413). 예컨대, 상기 유저 인터페이스 장치는 상기 '중간'에 대응한 시야 윈도우의 이동 속도 '3'을, 상기 맵 이동 속도로서 결정할 수 있다.
또한, 상기 유저 인터페이스 장치를 구성하는 제2 센서부(420)는 측정 대상의 움직임을 감지하여 가속도 신호를 획득한다(421). 예컨대, 제2 센서부(420)는 측정 대상의 팔목이 정면을 향해 움직이는 것에 따른 가속도 신호를 획득할 수 있다.
이후, 상기 유저 인터페이스 장치는, 제2 센서부(420)에서 획득한 상기 가속도 신호를 신호처리하여, 특징을 추출한다(422). 예컨대, 상기 유저 인터페이스 장치는 상기 특징으로서, 상기 가속도 신호에 의해 식별되는 방향의 '상 방향'을 추출할 수 있다.
계속해서, 상기 유저 인터페이스 장치는 상기 추출된 특징을 이용하여, 맵 이동 방향을 결정한다(423). 예컨대, 상기 유저 인터페이스 장치는 상기 '상 방향'에 대응한 시야 윈도우의 이동 방향을, 상기 맵 이동 방향으로서 결정할 수 있다.
상기 유저 인터페이스 장치는 상기 결정된 맵 이동 속도와 맵 이동 방향을 이용하여 맵 이동한다(430). 예컨대, 상기 유저 인터페이스 장치는 맵 상에서 시야 윈도우를 이동 속도 '3'으로, 이동 방향 '상 방향'으로 이동 시킴으로써, 맵 이동을 가능하게 할 수 있다.
이와 같이, 일실시예에 따른 유저 인터페이스 장치는, 근전도 신호와 가속도 신호를 함께 고려하여 시야 윈도우를 제어할 수 있다.
이하, 일실시예에 따른 유저 인터페이스 장치(100)의 동작에 대한 흐름을 상세히 설명한다.
도 5는 일실시예에 따른 유저 인터페이스 장치의 동작 방법을 구체적으로 도시한 작업 흐름도이다.
유저 인터페이스 장치(100)는 제1 센서부(110)를 통해 측정 대상(105)으로부터 근전도 신호를 획득한다(510). 단계(510)은 측정 대상(105)의 근육으로부터, 수축 또는 이완에 따라 생성되는 근전도 신호를 감지하는 과정이다.
여기서, 측정 대상(105)은 예컨대 상기 근전도 신호를 발생시키는 근육이 위치하는, 생물체의 팔목, 팔뚝, 얼굴 목 등을 예시할 수 있다.
제1 센서부(110)는 측정 대상(105)의 근육으로부터 근전도 신호를 감지하는 하나 이상의 센서를 포함하고, 상기 센서를 통해 상기 근육에서의 수축 또는 이완을 모니터링 할 수 있다.
상기 근전도 신호는, 예컨대 상기 근육과 연관하여 생성되는 생체 전기/자기 신호(Bio-electric/magnetic signals), 생체 임피던스 신호(Bio-impedance signals), 생체 역학 신호(Bio-mechanical signals) 등을 포함할 수 있다.
실시예에 따라, 제1 센서부(110)는, 측정 대상(105)을 체결할 수 있는 팔찌 부재에 고정될 수 있다. 이때, 제1 센서부(110)의 센싱면은 측정 대상(105)과 직접 접촉하도록 상기 팔찌 부재에 고정될 수 있다. 상기 센싱면은 측정 대상(105)과 맞닿아 측정 대상(105)에서 발생하는 근전도 신호를 감지하는, 하나 이상의 근전도 센서가 배열되는 면일 수 있다. 예컨대 팔찌 부재는 제1 센서부(110)를 통해, 측정 대상(105)에 관한, 생체 전기/자기 신호, 생체 임피던스 신호, 생체 역학 신호 등의 근전도 신호를 광범위하게 감지할 수 있다.
상기 팔찌 부재는 예컨대 팔목 근육을 덮는 피부를 둘러 싸듯이 체결하되, 제1 센서부(110)가 배열되는 팔찌 부재의 영역(센싱면)이 상기 팔목 근육을 적어도 덮도록 하여 체결할 수 있다. 이를 통해 제1 센서부(110)는 포함되는 하나 이상의 근전도 센서를 통해, 측정 대상(105)인 팔목 근육 전 범위에 걸쳐, 근전도 신호를 수집할 수 있다.
또한, 유저 인터페이스 장치(100)는 제2 센서부(130)을 통해 측정 대상(105)의 움직임을 감지하여 가속도 신호를 획득한다(520).
제2 센서부(130)는 측정 대상(105)의 동작을 모니터링하고, 상기 동작에 따라 사용자가 의도하는 제어하고자 하는 방향을 파악하는 역할을 한다. 제2 센서부(130)는 감지되는 측정 대상(105)의 움직임을 고려하여, 측정 대상(105)과 관련하여 취해지는 제스처를 식별하고, 상기 식별되는 제스처와 관련하는 가속도 신호를 획득 할 수 있다.
실시예에 따라, 제2 센서부(130)는, 제1 센서부(110)와 함께, 측정 대상(105)을 체결할 수 있는 팔찌 부재에 고정될 수 있다.
예컨대, 측정 대상인 팔이 상 방향으로 움직임에 따라, 제2 센서부(130)는 상기 움직임으로 '상 방향'과 관련한 가속도 신호를 획득할 수 있다.
계속해서, 유저 인터페이스 장치(100)는 상기 근전도 신호를 이용하여, 디스플레이 수단에 표시되는 맵 영역을 결정하는 시야 윈도우를 제어한다(530). 상기 시야 윈도우는, 전체 맵 중에서, 디스플레이 수단인 화면 상으로 표시될 맵 영역을 지정하는 데에 사용되는 가상의 틀일 수 있다. 단계(530)에서 유저 인터페이스 장치(100)는 상기 시야 윈도우를 맵 상에서, 상하좌우로 이동하여, 화면으로 표시되는 맵 영역을 결정할 수 있다.
일례에서, 유저 인터페이스 장치(100)는 획득되는 상기 근전도 신호의 크기에 비례하여, 맵 상에서 상기 시야 윈도우가 이동하는 속도를 조정할 수 있다. 예컨대, 유저 인터페이스 장치(100)는 상기 근전도 신호가 큰 크기로 단시간에 획득되면, 상기 획득한 크기에 비례하여 상기 시야 윈도우가 상기 맵 상을 빠른 속도로 이동하도록 제어할 수 있다. 또한, 유저 인터페이스 장치(100)는 상기 근전도 신호가 작은 크기로 장시간에 걸쳐 획득되면, 상기 시야 윈도우가 상기 맵 상을 일정한 낮은 속도로 이동하도록 제어할 수 있다.
이때, 유저 인터페이스 장치(100)는 상기 디스플레이 수단에서 현재 표시하지 않는 제2 맵 영역과 관련한 상기 시야 윈도우의 이동속도가, 상기 디스플레이 수단에서 현재 표시하는 제1 맵 영역과 관련한 상기 시야 윈도우의 이동속도 보다 빠르도록 조정할 수 있다.
예컨대, 유저 인터페이스 장치(100)는 맵 상에서, 먼 지역에 속하는 제2 맵 영역으로의 상기 시야 윈도우 이동을 빠르게 제어 함으로써, 먼 지역에 대한 맵 검색이 보다 효율적으로 이루어지게 할 수 있다.
또한, 유저 인터페이스 장치(100)는 맵 상에서, 가까운 지역에 속하는 제1 맵 영역에서의 상기 시야 윈도우 이동을 느리게 제어 함으로써, 가까운 지역에 대한 보다 상세한 맵 검색이 가능하도록 지원할 수 있다.
또한, 단계(530)에서, 유저 인터페이스 장치(100)는 상기 획득한 가속도 신호에 의해 식별되는 방향으로, 상기 조정된 이동속도로 후술하는 시야 윈도우를 이동시킬 수 있다.
다른 실시예에서, 유저 인터페이스 장치(100)는 획득되는 상기 근전도 신호의 크기에 비례하여, 맵에 대해 상기 시야 윈도우가 주밍(zooming)을 변경하는 속도를 조정할 수 있다. 여기서, 주밍은 그래픽 사용자 인터페이스(GUI)에서 화면에 나타난 정보 가운데 어느 한 부분을 확대하거나 축소하는 것으로, 줌 인(zoom in)과, 줌 아웃(zoom out)을 포함할 수 있다.
유저 인터페이스 장치(100)는 상기 시야 윈도우를 줌 인 또는 줌 아웃하여, 화면으로 표시되는 맵 영역의 범위를 결정하고, 또한 상기 획득한 근전도 신호를 고려하여 주밍변경속도를 제어할 수 있다.
예컨대, 유저 인터페이스 장치(100)는 상기 근전도 신호가 큰 크기로 단시간에 획득되면, 상기 획득한 크기에 비례하여, 상기 시야 윈도우가 상기 맵 상의 특정 위치에 대해 줌 인 또는 줌 아웃하는 속도를 빠르게 제어할 수 있다.
또한, 유저 인터페이스 장치(100)는 상기 근전도 신호가 작은 크기로 장시간에 걸쳐 획득되면, 상기 시야 윈도우가 상기 맵 상의 특정 위치에 대해 줌 인 또는 줌 아웃하는 속도가 일정한 낮은 속도로 제어되도록 할 수 있다.
이때, 유저 인터페이스 장치(100)는 상기 디스플레이 수단에서 현재 표시되는 맵 영역을 적어도 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도가, 상기 맵 영역의 일부를 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도 보다 빠르도록 조정할 수 있다.
예컨대, 유저 인터페이스 장치(100)는 현재 보여지는 맵 영역을 포함하여, 보다 넒은 지역을 함께 표시하고자 하는 경우, 상기 시야 윈도우의 줌 아웃하는 주밍변경속도가 단시간에 변경되도록 제어 함으로써, 보다 넓은 지역에 대한 맵 검색이 효율적으로 이루어지게 할 수 있다.
또한, 유저 인터페이스 장치(100)는 현재 보여지는 맵 영역 내 일부를 보다 상세히 표시하고자 하는 경우, 상기 시야 윈도우의 줌 인하는 주밍변경속도가 장시간에 걸쳐 변경되도록 제어 함으로써, 보다 좁은 지역에 대한 상세한 맵 검색이 가능하도록 지원할 수 있다.
또한, 유저 인터페이스 장치(100)는 측정 대상(105)의 움직임을 감지하는 제2 센서부(130)에 의해 획득되는 가속도 신호에 의해 식별되는 방향에 따라, 상기 시야 윈도우에 의해 결정되는 맵 영역의 범위를 증가시키거나, 또는 감소시킬 수 있다. 여기서, 맵 영역의 범위는, 시야 윈도우의 줌 인 또는 줌 아웃에 의해 결정되는 맵 영역의 크기를 지칭하며, 상기 시야 윈도우가 줌 아웃하면 맵 영역의 크기는 넓어지고, 반면 상기 시야 윈도우가 줌 인하면 맵 영역의 크기는 좁아질 수 있다.
유저 인터페이스 장치(100)는 측정 대상(105)의 움직임을 더 고려하여, 상기 시야 윈도우를 제어할 수 있다.
예컨대, 측정 대상인 팔이 업 방향으로 움직임에 따라, 유저 인터페이스 장치(100)는 앞서 근전도 신호의 크기에 따라 조정되는 주밍변경속도로, 상기 시야 윈도우를 '업 방향'으로 이동시켜, 보다 넓은 지역에 대한 포괄적인 맵 검색을 지원할 수 있다.
또한, 측정 대상인 팔이 다운 방향으로 움직이는 경우, 유저 인터페이스 장치(100)는 근전도 신호의 크기에 비례하여 조정되는 주밍변경속도로, 상기 시야 윈도우를 '다운 방향'으로 이동시켜, 보다 좁은 지역에 대한 상세한 맵 검색을 지원할 수 있다.
이에 따라, 일실시예에 따른 유저 인터페이스 장치(100)는, 착용형 모바일 기기에서 맵을 검색하는 데에 있어, 팔의 움직임의 범위가 한정되어 있다 하더라도, 근전도 신호의 강약 조절을 통해, 맵 상에서 원하는 영역으로 빠르게 이동할 수 있다.
또한, 유저 인터페이스 장치(100)에 의해서는, 맵 상에서, 먼 지역에 속하는 맵 영역으로의 시야 윈도우 이동을 빠르게 제어 함으로써, 먼 지역에 대한 맵 검색이 보다 효율적으로 이루어지게 할 수 있다.
또한, 유저 인터페이스 장치(100)는 맵 상에서, 가까운 지역에 속하는 제1 맵 영역에서의 상기 시야 윈도우 이동을 상대적으로 느리게 제어 함으로써, 가까운 지역에 대한 보다 상세한 맵 검색이 가능하도록 지원할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100 : 유저 인터페이스 장치
110 : 제1 센서부 120 : 표시 제어부
130 : 제2 센서부

Claims (15)

  1. 측정 대상에 접촉되어 상기 측정 대상으로부터 근전도 신호를 획득하는 제1 센서부; 및
    상기 근전도 신호를 이용하여, 디스플레이 수단에 표시되는 맵 영역을 결정하는 시야 윈도우를 제어하는 표시 제어부
    를 포함하고,
    상기 표시 제어부는,
    획득되는 상기 근전도 신호의 크기에 비례하여, 맵 상에서 상기 시야 윈도우가 이동하는 속도를 조정하되,
    상기 디스플레이 수단에서 현재 표시하지 않는 제2 맵 영역과 관련한 상기 시야 윈도우의 이동속도가, 상기 디스플레이 수단에서 현재 표시하는 제1 맵 영역과 관련한 상기 시야 윈도우의 이동속도 보다 빠르도록 조정하는
    유저 인터페이스 장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 유저 인터페이스 장치는,
    상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 제2 센서부
    를 더 포함하고,
    상기 표시 제어부는,
    상기 가속도 신호에 의해 식별되는 방향으로, 상기 조정된 이동속도로 상기 시야 윈도우를 이동시키는
    유저 인터페이스 장치.
  5. 제1항에 있어서,
    상기 표시 제어부는,
    획득되는 상기 근전도 신호의 크기에 비례하여, 맵에 대해 상기 시야 윈도우가 주밍(zooming)을 변경하는 속도를 조정하는
    유저 인터페이스 장치.
  6. 제5항에 있어서,
    상기 표시 제어부는,
    상기 디스플레이 수단에서 현재 표시되는 제1 맵 영역을 적어도 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도가, 상기 제1 맵 영역의 일부를 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도 보다 빠르도록 조정하는
    유저 인터페이스 장치.
  7. 제5항에 있어서,
    상기 유저 인터페이스 장치는,
    상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 제2 센서부
    를 더 포함하고,
    상기 표시 제어부는,
    상기 가속도 신호에 의해 식별되는 방향에 따라, 상기 시야 윈도우에 의해 결정되는 맵 영역의 범위를 증가시키거나, 또는 감소시키는
    유저 인터페이스 장치.
  8. 제1항에 있어서,
    상기 제1 센서부는,
    상기 측정 대상과 연관되어, 근육 수축 및 근육 이완 중 적어도 하나에 의해 발생하는 상기 근전도 신호를 획득하는
    유저 인터페이스 장치.
  9. 측정 대상에 접촉되는 제1 센서부에 의해 상기 측정 대상으로부터 근전도 신호를 획득하는 단계; 및
    상기 근전도 신호를 이용하여, 디스플레이 수단에 표시되는 맵 영역을 결정하는 시야 윈도우를 제어하는 단계
    를 포함하고,
    상기 시야 윈도우를 제어하는 단계는,
    획득되는 상기 근전도 신호의 크기에 비례하여, 맵 상에서 상기 시야 윈도우가 이동하는 속도를 조정하는 단계; 및
    상기 디스플레이 수단에서 현재 표시하지 않는 제2 맵 영역과 관련한 상기 시야 윈도우의 이동속도가, 상기 디스플레이 수단에서 현재 표시하는 제1 맵 영역과 관련한 상기 시야 윈도우의 이동속도 보다 빠르도록 조정하는 단계
    를 포함하는 유저 인터페이스 장치의 동작 방법.
  10. 삭제
  11. 삭제
  12. 제9항에 있어서,
    상기 유저 인터페이스 장치의 동작 방법은,
    제2 센서부에 의해, 상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 단계
    를 더 포함하고,
    상기 시야 윈도우를 제어하는 단계는,
    상기 가속도 신호에 의해 식별되는 방향으로, 상기 조정된 이동속도로 상기 시야 윈도우를 이동시키는 단계
    를 더 포함하는 유저 인터페이스 장치의 동작 방법.
  13. 제9항에 있어서,
    상기 시야 윈도우를 제어하는 단계는,
    획득되는 상기 근전도 신호의 크기에 비례하여, 맵에 대해 상기 시야 윈도우가 주밍을 변경하는 속도를 조정하는 단계
    를 더 포함하는 유저 인터페이스 장치의 동작 방법.
  14. 제13항에 있어서,
    상기 시야 윈도우를 제어하는 단계는,
    상기 디스플레이 수단에서 현재 표시되는 제1 맵 영역을 적어도 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도가, 상기 제1 맵 영역의 일부를 포함하여 표시하도록 하는 경우의 상기 시야 윈도우의 주밍변경속도 보다 빠르도록 조정하는 단계
    를 더 포함하는 유저 인터페이스 장치의 동작 방법.
  15. 제13항에 있어서,
    상기 유저 인터페이스 장치의 동작 방법은,
    제2 센서부에 의해, 상기 측정 대상의 움직임을 감지하여 가속도 신호를 획득하는 단계
    를 더 포함하고,
    상기 시야 윈도우를 제어하는 단계는,
    상기 가속도 신호에 의해 식별되는 방향에 따라, 상기 시야 윈도우에 의해 결정되는 맵 영역의 범위를 증가시키거나, 또는 감소시키는 단계
    를 더 포함하는 유저 인터페이스 장치의 동작 방법.
KR1020130068878A 2013-06-17 2013-06-17 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법 KR102131358B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130068878A KR102131358B1 (ko) 2013-06-17 2013-06-17 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법
US14/161,145 US9529434B2 (en) 2013-06-17 2014-01-22 Presentation device and method for operating the device
EP14160911.5A EP2816320B1 (en) 2013-06-17 2014-03-20 Presentation device and method for operating the device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130068878A KR102131358B1 (ko) 2013-06-17 2013-06-17 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법

Publications (2)

Publication Number Publication Date
KR20140146352A KR20140146352A (ko) 2014-12-26
KR102131358B1 true KR102131358B1 (ko) 2020-07-07

Family

ID=50478678

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130068878A KR102131358B1 (ko) 2013-06-17 2013-06-17 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법

Country Status (3)

Country Link
US (1) US9529434B2 (ko)
EP (1) EP2816320B1 (ko)
KR (1) KR102131358B1 (ko)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US9299248B2 (en) * 2013-02-22 2016-03-29 Thalmic Labs Inc. Method and apparatus for analyzing capacitive EMG and IMU sensor signals for gesture control
US10152082B2 (en) 2013-05-13 2018-12-11 North Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
KR101545654B1 (ko) * 2014-06-26 2015-08-20 주식회사 아이파이브 개인별 맞춤형 운동 시스템 및 개인별 맞춤형 운동 방법
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
CN104657063B (zh) * 2015-02-11 2018-07-06 青岛歌尔声学科技有限公司 一种用户界面内容显示的方法和显示设备
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
CN105138133A (zh) * 2015-09-14 2015-12-09 李玮琛 生物信号手势识别设备及方法
KR20170076500A (ko) * 2015-12-24 2017-07-04 삼성전자주식회사 생체 신호에 근거하여 기능을 수행하기 위한 방법, 저장 매체 및 전자 장치
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US11635736B2 (en) 2017-10-19 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for identifying biological structures associated with neuromuscular source signals
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
FR3055158B1 (fr) * 2016-08-19 2019-11-08 Ontracks Systeme d'aide a la navigation visuelle et lateralisee
US10591987B2 (en) * 2016-11-04 2020-03-17 Htc Corporation Method, virtual reality apparatus and recording medium for fast moving in virtual reality
KR101963694B1 (ko) * 2017-01-22 2019-03-29 계명대학교 산학협력단 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법
US10452150B2 (en) 2017-01-25 2019-10-22 International Business Machines Corporation Electronic map augmentation through pointing gestures background
KR20190057835A (ko) 2017-11-21 2019-05-29 대한민국(국립재활원장) 생체신호기반 전자기기 제어장치
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
WO2020047429A1 (en) 2018-08-31 2020-03-05 Ctrl-Labs Corporation Camera-guided interpretation of neuromuscular signals
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
KR20200058624A (ko) 2018-11-19 2020-05-28 대한민국(국립재활원장) 생체신호를 이용한 전자기기 제어장치
US20200215376A1 (en) * 2019-01-07 2020-07-09 Spencer Bishop Smartbell
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100031186A1 (en) * 2008-05-28 2010-02-04 Erick Tseng Accelerated Panning User Interface Interactions
WO2011055326A1 (en) * 2009-11-04 2011-05-12 Igal Firsov Universal input/output human user interface
US20120274593A1 (en) * 2007-04-24 2012-11-01 Kuo-Ching Chiang Portable Communicating Electronic Device Having Transparent Display

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20001506A (fi) 1999-10-12 2001-04-13 J P Metsaevainio Design Oy Kädessäpidettävän laitteen toimintamenetelmä
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
JP4078419B2 (ja) 2003-06-18 2008-04-23 独立行政法人産業技術総合研究所 ポインティングデバイス
KR100594117B1 (ko) 2004-09-20 2006-06-28 삼성전자주식회사 Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법
KR100680023B1 (ko) 2004-12-06 2007-02-07 한국전자통신연구원 생체신호를 이용한 착용형 휴대폰 입력 장치 및 그 제어방법
KR100674090B1 (ko) 2004-12-20 2007-01-24 한국전자통신연구원 착용형 범용 3차원 입력 시스템
KR100812245B1 (ko) 2006-10-11 2008-03-13 한국과학기술원 방향 센서와 기울기 센서를 이용하여 포인팅이 가능한직관적인 네비게이션 시스템 및 그에 따른 직관적인 포인팅방법
KR100901482B1 (ko) 2007-09-27 2009-06-08 한국전자통신연구원 가상 메뉴 맵을 이용한 원격 제어 시스템 및 방법
KR101635016B1 (ko) 2009-11-19 2016-06-30 엘지전자 주식회사 이동단말기 및 그의 지도 검색 방법
KR101048479B1 (ko) 2009-12-03 2011-07-11 숭실대학교산학협력단 표면 근전도 센서 및 관성 센서를 이용한 게임 인터페이스 방법 및 시스템
KR101048481B1 (ko) 2009-12-03 2011-07-11 숭실대학교산학협력단 근전도 신호 및 영상 분석에 기반한 마우스 인터페이스 방법
KR101302138B1 (ko) 2009-12-18 2013-08-30 한국전자통신연구원 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
JP2012093887A (ja) 2010-10-26 2012-05-17 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
KR101214544B1 (ko) 2010-12-27 2012-12-24 (주)오픈텔레콤 능동 검출 장치를 이용한 입력 제어 시스템 및 방법
JP5724396B2 (ja) 2011-01-13 2015-05-27 ソニー株式会社 地図表示制御装置、地図表示制御方法、およびプログラム
US20130002724A1 (en) 2011-06-30 2013-01-03 Google Inc. Wearable computer with curved display and navigation tool
EP3617843A1 (en) 2012-12-10 2020-03-04 Samsung Electronics Co., Ltd. Mobile device, control method thereof, and ui display method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120274593A1 (en) * 2007-04-24 2012-11-01 Kuo-Ching Chiang Portable Communicating Electronic Device Having Transparent Display
US20100031186A1 (en) * 2008-05-28 2010-02-04 Erick Tseng Accelerated Panning User Interface Interactions
WO2011055326A1 (en) * 2009-11-04 2011-05-12 Igal Firsov Universal input/output human user interface

Also Published As

Publication number Publication date
KR20140146352A (ko) 2014-12-26
US9529434B2 (en) 2016-12-27
EP2816320B1 (en) 2017-11-29
US20140368424A1 (en) 2014-12-18
EP2816320A1 (en) 2014-12-24

Similar Documents

Publication Publication Date Title
KR102131358B1 (ko) 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법
US20220050588A1 (en) Information processing apparatus, information processing method and program
US10121063B2 (en) Wink gesture based control system
KR102170321B1 (ko) 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
ES2759786T3 (es) Reactivación rápida de gestos
US11921916B2 (en) Image editing with audio data
JP6445515B2 (ja) 少なくとも2つの制御オブジェクトを用いて行われるジェスチャの検出
KR102482595B1 (ko) 지도 정보 제공 방법 및 이를 지원하는 전자 장치
US10642404B2 (en) Touch sensitive device with multi-sensor stream synchronized data
US20100182232A1 (en) Electronic Data Input System
KR102165060B1 (ko) 착용형 생체신호 인터페이스 및 착용형 생체신호 인터페이스의 동작 방법
EP2736016B1 (en) Contour segmentation apparatus and method based on user interaction
US20120268359A1 (en) Control of electronic device using nerve analysis
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US20180004287A1 (en) Method for providing user interface through head mounted display using eye recognition and bio-signal, apparatus using same, and computer readable recording medium
KR20150022536A (ko) 의료 진단 장치의 사용자 인터페이스 제공 방법 및 장치
KR102325339B1 (ko) 사용자의 움직임을 검출하여 사용자 입력을 수신하는 방법 및 이를 위한 장치
GB2520069A (en) Identifying a user applying a touch or proximity input
KR102516354B1 (ko) 검출 시점 간 시간 차 측정 방법 및 이를 수행하는 장치
KR20130101728A (ko) 모션 인식을 통한 인터페이스 장치 및 이의 제어방법
KR20140048416A (ko) 드래그 제스처를 이용한 원격 제어 방법 및 장치
KR101685523B1 (ko) 사용자의 신체적 특징과 뇌파 집중 지수를 이용한 가상 모니터 개념의 인터페이스 방법 및 그 시스템
WO2015064991A2 (ko) 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법
CN105892857B (zh) 图像定位方法及装置
JP6690343B2 (ja) 測定装置、測定方法、及び測定プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant