KR20170085480A - 웨어러블 디바이스 및 그 제어 방법 - Google Patents

웨어러블 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20170085480A
KR20170085480A KR1020177008247A KR20177008247A KR20170085480A KR 20170085480 A KR20170085480 A KR 20170085480A KR 1020177008247 A KR1020177008247 A KR 1020177008247A KR 20177008247 A KR20177008247 A KR 20177008247A KR 20170085480 A KR20170085480 A KR 20170085480A
Authority
KR
South Korea
Prior art keywords
wearable device
image
predetermined
hand
wearer
Prior art date
Application number
KR1020177008247A
Other languages
English (en)
Other versions
KR102284369B1 (ko
Inventor
이주환
박시화
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20170085480A publication Critical patent/KR20170085480A/ko
Application granted granted Critical
Publication of KR102284369B1 publication Critical patent/KR102284369B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays

Abstract

본 명세서의 일 실시예에 따른 웨어러블 디바이스는 착용자의 손목의 힘줄에 기초하여 손의 형태와 악력을 디텍트하고, 웨어러블 디바이스의 회전 방향에 기초하여 이미지의 디스플레이 위치를 변경할 수 있다. 또한, 웨어러블 디바이스는 착용자의 컨텍스트(context) 정보를 손목의 힘줄을 이용하여 센싱함으로써 개선된 정보 제공 방법을 제공할 수 있다.

Description

웨어러블 디바이스 및 그 제어 방법
본 발명은 웨어러블(wearable) 디바이스 및 그 제어 방법에 대한 것이다.
도 1은 박스를 들고 있는 웨어러블 디바이스의 착용자를 도시한다.
손목에 착용되는 웨어러블 디바이스(100)는 스마트 워치(smart watch), 리스트 밴드(wrist band) 등 다양한 명칭으로 호칭될 수 있다. 더 얇고 플레서블한 디스플레이의 등장과 함께 다양한 웨어러블 디바이스(100)가 제시되고 있다.
도 1에서, 웨어러블 디바이스(100)의 착용자는 상자들을 들고 있다. 도 1과 같이, 손목에 착용되는 웨어러블 디바이스(100)는 통상적으로 손등의 방향에 이미지를 디스플레이한다. 따라서, 착용자는 손목을 회전시켜 손등을 얼굴 방향으로 향함으로써 웨어러블 디바이스(100)의 디스플레이를 확인할 수 있다. 그러나, 도 1과 같이 착용자가 무거운 물건을 들고 있는 경우, 착용자는 손목을 회전할 수 없다. 따라서, 도 1의 좌측에 도시된 바와 같이, 착용자는 물건을 든 상태에서 웨어러블 디바이스(100)의 디스플레이를 확인할 수 없다.
따라서, 착용자의 움직임이 제한된 상황에서도 쉽게 웨어러블 디바이스(100) 상의 정보(예를 들어, 현재 시각)를 확인할 수 있는 방법이 요구된다.
본 명세서는, 착용자의 컨텍스트(context) 정보에 기초하여 디스플레이를 전환하는 웨어러블 디바이스 및 그 제어 방법을 제공하고자 한다. 특히, 착용자의 손목의 힘줄들을 센싱함으로써 착용자의 컨텍스트 정보를 센싱하는 웨어러블 디바이스를 제시하고자 한다.
본 명세서의 일 실시예에 따른 웨어러블 디바이스는, 손목의 적어도 일부에 착용되는 웨어러블(wearable) 디바이스로서, 웨어러블 디바이스의 외부 표면의 적어도 일부에 이미지를 디스플레이하는 디스플레이 유닛, 손목의 힘줄들을 센싱하는 힘줄 센싱 유닛 웨어러블 디바이스의 오리엔테이션(orientation)을 센싱하는 오리엔테이션 센싱 유닛 및 디스플레이 유닛, 힘줄 센싱 유닛 및 오리엔테이션 센싱 유닛을 제어하는 프로세서를 포함하고, 프로세서는, 제1 이미지를 웨어러블 디바이스의 외부 표면 상의 제1 위치에 디스플레이하고, 힘줄 센싱 유닛을 이용하여 착용자의 손의 형태 및 악력을 디텍트하고, 디텍트된 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고, 디텍트된 악력이 기설정된 악력 이상이며, 오리엔테이션 센싱 유닛에 의하여 상기 웨어러블 디바이스의 제1 방향으로의 회전이 디텍트되면, 제1 위치로부터 제2 방향으로 이동된 제2 위치에 제1 이미지를 디스플레이하며, 제1 방향과 제2 방향은 웨어러블 디바이스의 착용자의 손목을 중심으로 하는 회전 방향이며, 제1 방향과 제2 방향은 서로 반대 방향이다.
본 명세서의 일 실시예에 따른 웨어러블 디바이스의 제어 방법은, 제1 이미지를 웨어러블 디바이스의 외부 표면 상의 제1 위치에 디스플레이하는 단계, 손목의 힘줄들을 센싱하고 센싱된 힘줄들에 기초하여 착용자의 손의 형태 및 악력을 디텍트하는 단계, 웨어러블 디바이스의 오리엔테이션(orientation)을 센싱하는 단계 및 디텍트된 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고, 디텍트된 악력이 기설정된 악력 이상이며, 웨어러블 디바이스가 제1 방향으로 회전되면, 제1 위치로부터 제2 방향으로 이동된 제2 위치에 제1 이미지를 디스플레이하는 단계를 포함하고, 제1 방향과 제2 방향은 착용자의 손목을 중심으로 하는 회전 방향이며, 제1 방향과 제2 방향은 서로 반대 방향이다.
본 명세서에 따른 웨어러블 디바이스는 유저에게 개선된 인터페이스를 제공할 수 있다.
또한, 본 명세서에 따른 웨어러블 디바이스는 착용자의 손목 힘줄을 센싱하여 디스플레이를 변경함으로써 제한된 상황의 착용자에게 효율적으로 정보를 제공할 수 있다.
또한, 본 명세서에 따른 웨어러블 디바이스는 직관적이고 인체공학적인 제스쳐에 기초하여 디스플레이를 변경함으로써 개선된 사용자 체험을 제공할 수 있다.
도 1은 박스를 들고 있는 웨어러블 디바이스의 착용자를 도시한다.
도 2는 일 실시예에 따른 웨어러블 디바이스의 구성도이다.
도 3a 내지 도 3d는 웨어러블 디바이스의 다양한 실시예들을 도시한다.
도 4는 손목의 힘줄들을 도시한다.
도 5는 손목의 회전에 기초한 디스플레이 위치의 변경을 도시한다.
도 6은 손목의 회전에 기초한 디스플레이 위치의 유지를 도시한다.
도 7은 일 실시예에 따른 웨어러블 디바이스의 모드 전환을 도시한다.
도 8은 손목의 회전 방향에 기초한 디스플레이 이미지의 전환을 도시한다.
도 9는 손목의 회전에 기초한 디스플레이 위치의 변경을 도시한다.
도 10은 시선에 기초한 디스플레이 위치의 변경을 도시한다.
도 11은 일 실시예에 따른 웨어러블 디바이스의 제어 방법의 흐름도이다.
발명의 실시를 위한 최선의 형태
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시 예를 상세하게 설명한다. 그러나, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
이하에서 설명되는 웨어러블 디바이스는 착용자(유저)의 손목에 착용되는 것으로서, 스마트 워치(smart watch), 리스트 밴드(wrist band) 등 다양한 형태를 포함할 수도 있다.
도 2는 일 실시예에 따른 웨어러블 디바이스의 구성도이다.
일 실시예에 따른 웨어러블 디바이스(100)는 디스플레이 유닛(120), 힘줄 센싱 유닛(130), 오리엔테이션 센싱 유닛(140) 및 프로세서(110)를 포함할 수 있다.
디스플레이 유닛(120)은 웨어러블 디바이스(100)의 외부 표면의 적어도 일부에 이미지를 디스플레이할 수 있다. 웨어러블 디바이스(100)의 외부 표면은, 웨어러블 디바이스(100)가 착용되었을 때, 손목을 향하는 면의 반대 면을 의미한다. 디스플레이 유닛(120)은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode) 디스플레이, 플라즈마 디스플레이를 포함할 수도 있다. 또한, 디스플레이 유닛(120)은 플렉서블(flexible) 디스플레이일 수도 있다. 또한, 디스플레이 유닛(120)은 프로젝션(projection) 유닛, 프리즘 및/또는 렌즈를 포함하고, 이미지를 웨어러블 디바이스(100)의 외부 표면 상에 프로젝션할 수도 있다. 또한, 디스플레이 유닛(120)은 복수의 디스플레이 패널들을 포함할 수도 있다. 디스플레이 유닛(120)은 터치 센서티브(touch sensitive) 디스플레이일 수도 있다. 아울러, 상술한 디스플레이 유닛(120)의 구성들은 선택적으로 조합될 수도 있다.
힘줄 센싱 유닛(130)은 웨어러블 디바이스(100)의 착용자의 손목을 지나는 힘줄들을 센싱할 수 있다. 힘줄 센싱 유닛(130)은 손가락의 움직임에 따라 변형된 힘줄들의 형상 뿐 아니라, 악력의 변화 및 손가락의 움직임 속도를 센싱할 수 있다. 힘줄 센싱 유닛(130)은 힘줄들의 움직임 특성을 센싱할 수 있으며, 움직임 특성은 손가락의 형상, 제스쳐, 손가락의 움직임 속도, 손목의 움직임 방향, 손목의 움직임 속도 및/또는 악력을 포함할 수 있다. 예를 들어, 힘줄 센싱 유닛(130)은 웨어러블 디바이스(100)의 내측에 배치된 일렬의 힘 센서들로 구성될 수도 있다. 또한, 힘줄 센싱 유닛(130)은 손목의 전기적인 신호를 분석함으로서 힘줄들을 센싱할 수도 있다.
오리엔테이션 센싱 유닛(140)은 웨어러블 디바이스(100)의 오리엔테이션을 센싱할 수 있다. 예를 들어, 오리엔테이션 센싱 유닛(140)은 GPS 센서, 자이로 센서, 가속도 센서, 및/또는 고도 센서를 포함할 수 있다. 오리엔테이션 센싱 유닛(140)은 웨어러블 디바이스(100)의 위치, 회전, 속도, 가속도 및/또는 중력에 대한 웨어러블 디바이스(100)의 방향 등을 센싱할 수 있다.
프로세서(110)는 디스플레이 유닛(120), 힘줄 센싱 유닛(130) 및 오리엔테이션 센싱 유닛(140)을 제어할 수 있다. 또한, 프로세서(110)는 후술하는 웨어러블 디바이스(100)에 포함된 다른 구성들을 제어할 수도 있다. 프로세서(110)는 웨어러블 디바이스(100)의 데이터를 프로세싱하여 다양한 어플리케이션을 실행할 수 있다. 프로세서(110)는 명령에 기초하여 웨어러블 디바이스(100) 및 웨어러블 디바이스(100)에서 실행되는 컨텐츠를 제어할 수 있다.
또한, 웨어러블 디바이스(100)는 도 2에 미도시된 구성들을 더 포함할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는, 메모리, 전력원, 하우징(housing), 오디오 수신 유닛, 오디오 출력 유닛, 비디오 수신 유닛, 근접 센서 및/또는 이미지 센싱 유닛을 더 포함할 수도 있다. 이미지 센싱 유닛은 가시 광성, 적외선, 자외선, 자기장 및/또는 음파를 이용하여 이미지를 센싱할 수도 있다.
또한, 상술한 구성들은 제조사의 선택 또는 웨어러블 디바이스(100)의 형태에 따라서 선택적으로 조합될 수도 있다. 상술한 구성들은 버스를 통하여 서로 연결될 수 있으며, 프로세서(110)에 의하여 제어될 수도 있다.
한편, 도 2에 도시된 웨어러블 디바이스(100)의 구성도는 일 실시예에 따른 블록도로서, 분리하여 표시된 블록들은 하드웨어적인 구성 유닛들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 웨어러블 디바이스(100)의 구성 유닛들은 설계에 따라서 하나의 칩으로 또는 복수의 칩으로 구현될 수도 있다.
한편, 본 명세서의 웨어러블 디바이스(100)는 다양한 입력에 기초하여 제어될 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 물리적 버튼을 포함할 수 있으며, 물리적 버튼으로부터 입력을 수신할 수도 있다. 또한, 웨어러블 디바이스(100)는 음성 수신 유닛을 포함할 수 있으며, 수신된 음성에 기초하여 음성 인식을 수행하고, 음성 인식에 기초하여 제어될 수도 있다. 구체적으로, 웨어러블 디바이스(100)는 음절, 단어 또는 문장 단위의 음성 인식을 수행할 수도 있으며, 인식된 음절, 단어 또는 문장을 조합하여 기능을 수행할 수도 있다. 또한, 웨어러블 디바이스(100)는 이미지 센싱 유닛을 이용하여 이미지 분석을 수행할 수 있으며, 분석된 이미지에 기초하여 제어될 수도 있다. 또한, 웨어러블 디바이스(100)는 터치 센싱 유닛을 포함하며, 터치 센싱 유닛에 입력된 터치에 기초하여 제어될 수도 있다. 아울러, 웨어러블 디바이스(100)는 상술한 입력들의 조합에 기초하여 제어될 수도 있다.
도 3a 내지 도 3d는 웨어러블 디바이스의 다양한 실시예들을 도시한다.
본 명세서의 웨어러블 디바이스(100)는 다양한 형태를 가질 수 있다. 본 명세서의 웨어러블 디바이스(100)는 예를 들어, 착용자의 손목 힘줄을 센싱하기 위하여 손목에 착용될 수 있는 형태를 가질 수 있다. 또한, 도 3a 내지 3d에는 제1 이미지(201)로서 시각과 날짜가 디스플레이 유닛(120) 상에 디스플레이되어 있으나, 이는 일 예시로서, 다양한 정보가 제1 이미지(201)로서 디스플레이될 수도 있다. 예를 들어, 제1 이미지(201)는 날씨, 현재 시각, 현재 날짜, 수신 메시지 내용, 메시지 발신자 정보 및/또는 스케쥴 정보를 포함할 수도 있다.
예를 들어, 도 3a에 도시된 바와 같이, 웨어러블 디바이스(100)는 스마트 와치(smart watch) 또는 리스트 밴드(wrist band)의 형태를 가질 수도 있다. 웨어러블 디바이스(100)는 플렉서블한 소재로 구성될 수도 있다. 또한, 디스플레이 유닛(120)은 플렉서블 디스플레이 유닛일 수도 있다. 한편, 웨어러블 디바이스(100)는 손목에 장착되기 위한 결합부(미도시)를 더 포함할 수도 있다.
또한, 도 3b에 도시된 바와 같이, 웨어러블 디바이스(100)는 개방부를 가질 수도 있다. 또한, 웨어러블 디바이스(100)는 플렉서블한 소재로 구성되고, 개방부를 이용하여 손목에 장착될 수도 있다.
또한, 도 3c에 도시된 바와 같이, 웨어러블 디바이스(100)는 복수의 디스플레이 유닛(또는 패널)들(120-1, 120-2, 120-3)을 포함할 수도 있다.
또한, 도 3d에 도시된 바와 같이, 웨어러블 디바이스(100)는 웨어러블 디바이스 상에 제1 이미지(201)를 프로젝션하는 디스플레이 유닛(120)을 포함할 수 있다. 또한, 디스플레이 유닛(120)은 프로젝션을 위한 프리즘 및/또는 렌즈를 포함할 수 있다. 디스플레이 유닛(120)은 고정된 위치에서 회전함으로써 제1 이미지(201)가 프로젝션될 방향을 조정할 수도 있다.
도 3a 내지 도 3d의 웨어러블 디바이스(100)는 본 개시물의 웨어러블 디바이스(100)의 예시들로서, 손목에 착용되는 임의의 웨어러블 디바이스가 본 개시물의 웨어러블 디바이스(100)에 포함될 수 있다.
이하에서는, 웨어러블 디바이스(100)의 동작들을 도 4 내지 도 11을 참조하여 설명한다. 도 2 및 도 3과 관련하여 상술한 웨어러블 디바이스(100)의 구성이 후술하는 웨어러블 디바이스(100)의 동작에 이용될 수도 있다. 또한, 이하에서 웨어러블 디바이스(100)의 동작과 프로세서의 동작은 동일시되어 설명될 수도 있다.
도 4는 손목의 힘줄들을 도시한다.
도 1과 관련하여 상술한 바와 같이, 웨어러블 디바이스(100)의 착용자가 물건을 들고 있는 경우에는 착용자의 움직임이 제한된다. 따라서, 착용자의 물건을 들고 있는 경우에는 좀 더 쉽게 웨어러블 디바이스(100)의 정보를 확인할 수 있는 방법이 요구된다. 이를 위하여, 우선 착용자의 움직임이 제한되었는지, 예를 들어, 착용자가 물건을 들고 있는지가 웨어러블 디바이스(100)에 의하여 판단될 수 있다.
도 4에서, 웨어러블 디바이스(100)의 착용자는 컵을 들고 있다. 일점쇄선의 원안에는, 손목을 통과하는 힘줄들이 도시되어 있다. 손목의 내부에는 수근관(또는 손목굴, carpal tunnel)이 있으며, 수근관에는 각각의 손가락 움직임을 관장하는 힘줄들의 힘줄 다발(finger flexor tendons)이 존재한다. 힘줄 다발에는 아홉 개의 힘줄과 한 개의 신경이 존재하며, 힘줄 다발에 포함된 아홉 개의 힘줄들의 다양한 조합으로 손각락이 움직여진다.
따라서, 웨어러블 디바이스(100)는 손목 내의 힘줄들의 형상과 형상의 변형을 센싱함으로써 현재 손가락들의 형상을 센싱할 수 있다. 예를 들어, 도 4의 경우, 웨어러블 디바이스(100)는 센싱된 힘줄들에 기초하여 현재 착용자의 손의 형상이 주먹을 쥔 형태임을 센싱할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 기설정된 손의 형태와 센싱된 손의 손의 형태가 실질적으로 일치하는지 판단할 수도 있다. 이 경우, 기설정된 손의 형태는 물건을 들 때의 손의 형상일 수도 있다.
그러나, 손의 형태만으로는 웨어러블 디바이스(100)의 착용자가 물건을 들고 있다고 확정하기 어려울 수도 있다. 예를 들어, 착용자는 가볍게 주먹을 쥐고 있을 수도 있다. 착용자가 물건을 들고 있는지 판단하기 위하여, 웨어러블 디바이스(100)는 손목 내의 힘줄들을 센싱함으로써 손에 어느 정도의 악력이 있음을 센싱할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 손의 악력이 기설정된 악력 이상일 때에만 착용자가 물건을 들고 있다고 판단할 수도 있다.
따라서, 웨어러블 디바이스(100)는 손의 악력과 손의 형태에 기초하여 착용자가 어떠한 물건을 들고 있다고 판단할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고, 손의 악력이 기설정된 악력 이상이면 착용자가 물건을 들고 있다고 판단할 수도 있다.
예외적으로, 손의 형상과 악력에도 불구하고, 착용자는 물건을 들고 있지 않을 수도 있다. 예를 들어, 착용자는 주먹을 꽉쥐고 달리기를 하고 있을 수도 있다. 이 경우, 착용자의 움직임이 실질적으로 제한되지 않는다. 일반적으로, 물건을 들고 있는 착용자는 손목의 움직임이 제한된다. 따라서, 웨어러블 디바이스(100)는 오리엔테이션 센싱 유닛을 이용하여 웨어러블 디바이스(100)의 무브먼트를 모니터링할 수도 있다. 예를 들어, 착용자가 달리기를 하는 경우, 웨어러블 디바이스(100)의 무브먼트는 높게 센싱될 수 있다. 따라서, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 무브먼트가 기설정된 범위 이내일 때에만, 후술하는 디스플레이의 변경을 수행할 수도 있다.
또한, 웨어러블 디바이스(100)는 착용자의 양손의 움직임이 모두 제한적일 때에 후술하는 디스플레이의 변경을 수행할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 전기적 신호를 센싱함으로써 착용자의 양손의 움직임이 모두 제한적인지를 판단할 수도 있다. 또한, 웨어러블 디바이스(100)는 착용자의 양쪽 손목 모두에 각각 착용되고, 상호 커뮤니케이션에 의하여 양손이 모두 물건을 들고 있는지 판단할 수도 있다. 또한, 웨어러블 디바이스(100)는 이미지 프로세싱에 기초하여 착용자가 양손을 이용하여 물건을 들고 있는지를 판단할 수도 있다.
도 4와 관련하여 상술한 바와 같이, 착용자가 물건을 들고 있다고 판단되면, 웨어러블 디바이스(100)는 후술하는 도 5 내지 도 11의 동작들을 수행할 수도 있다. 또한, 도 4와 관련하여 상술한 웨어러블 디바이스(100)의 동작은 도 5 내지 도 11과 관련하여 후술하는 웨어러블 디바이스(100)의 동작과 선택적으로 조합될 수 있다. 또한, 이하에서 제1 방향과 제2 방향은 착용자의 손목을 중심으로 하는 회전 방향이며, 제1 방향과 제2 방향은 서로 반대 방향을 의미한다. 예를 들어, 제1 방향은 웨어러블 디바이스(100)의 디스플레이 유닛(120)이 바닥을 향하는 방향으로 설정되고, 제2 방향은 웨어러블 디바이스(100)의 디스플레이 유닛(120)이 착용자의 눈을 향하는 방향으로 설정될 수 있다.
도 5는 손목의 회전에 기초한 디스플레이 위치의 변경을 도시한다.
도 5의 (a)는 물건(미도시)을 들고 있는 손을 옆에서 바라본 모습을 도시한다. 도 5의 (a)에서, 웨어러블 디바이스(100)는 웨어러블 디바이스의 외부 표면 상의 제1 위치에 제1 이미지(201)를 디스플레이한다. 도 1과 같이, 착용자가 물건을 들고 있다고 가정할 경우, 착용자가 손의 위쪽에서 웨어러블 디바이스(100)를 내려다보면 도 5의 (a)의 제1 이미지(201)를 볼 수 없다.
이 경우, 센싱된 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고, 센싱된 악력이 기설정된 악력 이상이면. 웨어러블 디바이스(100)는 착용자가 물건(미도시)을 들고 있는 것으로 판단할 수 있다. 이때, 도 5의 (a)에 도시된 바와 같이, 손목이 시계 방향으로 회전한다. 웨어러블 디바이스(100)는 손목의 회전을 오리엔테이션 센싱 유닛을 이용하여 센싱할 수 있다. 따라서, 착용자가 물건을 들고 있다고 판단되고, 손목이 기설정된 제1 방향으로 회전되면, 웨어러블 디바이스(100)는 제1 이미지(201)의 디스플레이 위치를 변경한다. 구체적으로, 웨어러블 디바이스(100)는 제1 방향과 반대되는 제2 방향으로 이동된 위치에 제1 이미지(201)를 디스플레이할 수 있다. 여기서, 제1 방향과 제2 방향은 서로 반대 방향이며, 제1 방향과 제2 방향은 착용자의 손목을 중심으로한 회전 방향을 의미한다.
도 5의 (b)는, 제1 이미지(201)의 디스플레이 위치가 변경된 후, 사용자가 손의 위쪽에서 손을 내려다 본 모습을 도시한다. 도 5의 (b)에 도시된 바와 같이, 제1 이미지(201)의 디스플레이 위치가 변경됨으로써, 착용자는 제1 이미지(201)를 용이하게 확인할 수 있다.
또한, 웨어러블 디바이스(100)는, 일단 이동된 위치에 제1 이미지(201)를 디스플레이한 후에는, 웨어러블 디바이스(100)가 제2 방향으로 회전한다고 하더라도 제1 이미지(201)의 디스플레이 위치를 이동된 위치로 유지할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 이동된 위치에 제1 이미지(201)를 디스플레이하고, 착용자가 더 이상 물건을 들고 있지 않다고 판단될 때까지 디스플레이 위치의 이동을 유지할 수도 있다.
한편, 웨어러블 디바이스(100)는 센싱된 손의 형태가 기설정된 형태와 일치하고, 기설정된 악력 이상의 악력이 기설정된 시간 이상 센싱될 때에 착용자가 물건을 들고 있다고 판단할 수도 있다. 이는, 지나치게 잦은 제1 이미지(201)의 디스플레이 위치 변동을 방지하기 위함이다.
또한, 웨어러블 디바이스(100)는 이동된 위치에 제1 이미지(201)를 디스플레이한 후에는, 음성 명령에 기초하여 제어될 수도 있다. 이는, 웨어러블 디바이스(201)의 착용자가 손을 통하여 웨어러블 디바이스(100)를 제어하기 어렵기 때문이다.
또한, 웨어러블 디바이스(100)는 제1 이미지(201)의 이동된 디스플레이 위치를 웨어러블 디바이스(100)의 오리엔테이션에 기초하여 결정할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 중력 방향의 반대 방향을 제1 이미지(201)의 이동된 디스플레이 위치로 결정할 수도 있다. 그러나, 제1 이미지(201)의 이동된 디스플레이 위치는 기설정된 위치일 수도 있다.
또한, 웨어러블 디바이스(100)는 이동된 위치에 제1 이미지(201)를 디스플레이함에 있어서, 제1 이미지(201)의 일부를 변경할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 제1 이미지의 색상, 명도, 대비 및 디스플레이 크기 중 적어도 하나를 변경할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 제1 이미지(201)의 가독성을 높이기 위하여 밝기를 증가시키거나, 디스플레이 크기를 증가시킬 수도 있다. 또한, 웨어러블 디바이스(100)는 제1 이미지(201)를 이동된 위치에 디스플레이함에 있어서, 제1 이미지(201) 내의 데이터 일부만을 디스플레이할 수도 있다. 예를 들어, 웨어러블 디바이스(100)는 제1 이미지(201) 내의 데이터 중 오직 현재 시각만을 이동된 위치에 디스플레이할 수도 있다.
또한, 도 5와 관련하여 상술한 웨어러블 디바이스(100)의 동작은 도 4 및 도 6 내지 도 11과 관련하여 후술하는 웨어러블 디바이스(100)의 동작과 선택적으로 조합될 수 있다.
도 6은 손목의 회전에 기초한 디스플레이 위치의 유지를 도시한다.
도 6의 (a)는 물건(미도시)을 들고 있는 손을 옆에서 바라본 모습을 도시한다. 도 6의 (a)에서, 웨어러블 디바이스(100)는 웨어러블 디바이스의 외부 표면 상의 제1 위치에 제1 이미지(201)를 디스플레이한다. 이 때, 착용자는 손목을 반시계 방향으로 회전한다.
도 6의 (b)는 반시계 방향으로 회전된 착용자의 손목을 도시한다. 도 6의 (b)에 도시된 바와 같이, 웨어러블 디바이스(100)는 제1 이미지(201)의 디스플레이 위치를 유지한다.
도 6의 (a)에서 착용자가 반시계 방향으로 손목을 회전하는 경우, 착용자는 어려움 없이 제1 이미지(201)를 확인할 수 있다. 따라서, 웨어러블 디바이스(100)는 착용자가 물건을 들고 있다고 판단되더라고, 손목이 기설정된 제2 방향으로 회전되면, 제1 이미지(201)의 디스플레이 위치를 유지한다.
또한, 도 6과 관련하여 상술한 웨어러블 디바이스(100)의 동작은 도 4, 도 5 및 도 7 내지 도 11과 관련하여 설명되는 웨어러블 디바이스(100)의 동작과 선택적으로 조합될 수 있다.
도 7은 일 실시예에 따른 웨어러블 디바이스의 모드 전환을 도시한다.
도 7에서 웨어러블 디바이스(100)의 착용자는 물건(미도시)을 들고 있다. 또한, 웨어러블 디바이스(100)의 착용자는 시각 t1에서 손목을 제1 방향(예를 들어, 시계 방향)으로 회전한 뒤, 시각 t2에서 다시 손목을 제2 방향(예를 들어, 반시계 방향)으로 회전한다. 또한, 시각 t1과 시각 t2는 기설정된 시간 T 이내의 시각이다. 이 경우, 웨어러블 디바이스(100)는 음성 모드로 전환될 수 있다. 음성 모드의 진입시, 웨어러블 디바이스(100)는 제1 이미지와 연관된 정보를 음성 출력할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 "현재 시각은 10시 50분입니다."와 같은 문구를 음성 출력할 수도 있다. 또한, 음성 모드의 웨어러블 디바이스(100)는 음성 입력에 기초하여 제어될 수도 있다.
즉, 웨어러블 디바이스(100)는 디텍트된 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고, 디텍트된 손의 악력이 기설정된 악력 이상이며, 웨어러블 디바이스(100)가 제1 방향으로 회전되고, 제1 방향으로의 회전 시각(t1)으로부터 기설정된 시간(T) 내에 웨어러블 디바이스(100)가 제2 방향으로 회전되면, 제1 이미지(201)에 연관된 정보를 음성 출력할 수도 있다. 예를 들어, 제1 이미지(201)에 연관된 정보는 날씨, 현재 시각, 현재 날짜, 수신 메시지 내용, 메시지 발신자 정보 및/또는 스케쥴 정보를 포함할 수도 있다.
또한, 도 7과 관련하여 상술한 웨어러블 디바이스(100)의 동작은 도 4 내지 6 및 도 8 내지 도 11과 관련하여 설명되는 웨어러블 디바이스(100)의 동작과 선택적으로 조합될 수 있다.
도 8은 손목의 회전 방향에 기초한 디스플레이 이미지의 전환을 도시한다.
도 8에서, 웨어러블 디바이스(100)는 제1 이미지(201)를 제1 위치에 디스플레이한다. 또한, 웨어러블 디바이스(100)는 기설정된 악력 미만의 악력을 센싱한다. 이 경우, 착용자는 물건을 들고 있지 않을 수도 있다. 또한, 웨어러블 디바이스의 무브먼트가 기설정된 범위 이내일 수 있다. 즉, 착용자는 물건을 들지 않고 안정된 상태에 있을 수 있다.
이 때, 웨어러블 디바이스(100)는 디텍트된 악력이 기설정된 악력 미만이고, 웨어러블 디바이스(100)의 무브먼트가 기설정된 범위 이내이면, 웨어러블 디바이스(100)의 현재 오리엔테이션을 기준 오리엔테이션으로 설정할 수 있다. 예를 들어, 도 8의 (a)에서, 웨어러블 디바이스(100)는 현재의 웨어러블 디바이스(100)의 오리엔테이션을 현재 오리엔테이션으로 설정할 수도 있다.
또한, 도 8의 (b)에 도시된 바와 같이, 웨어러블 디바이스(100)가 기준 오리엔테이션으로부터 제1 방향으로 회전되면, 웨어러블 디바이스(100)는 제1 이미지(201)의 디스플레이 위치로부터 제1 방향과 반대인 제2 방향으로 이동된 위치에 제2 이미지(202)를 디스플레이할 수도 있다.
또한, 도 8의 (c)에 도시된 바와 같이, 웨어러블 디바이스(100)가 기준 오리엔테이션으로부터 제2 방향으로 회전되면, 웨어러블 디바이스(100)는 제1 이미지(201)의 디스플레이 위치로부터 제1 방향으로 이동된 위치에 제2 이미지(203)를 디스플레이할 수도 있다.
즉, 착용자가 물건을 들고 있지 않고, 웨어러블 디바이스(100)가 안정된 상태에 있다고 판단되는 경우에는, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 회전에 기초하여 추가적인 정보를 디스플레이할 수 있다.
또한, 상술한 제1 이미지(201), 제2 이미지(202) 및 제 3 이미지(203)는 서로 상이한 정보를 포함할 수도 있다. 예를 들어, 제1 이미지(201)는 현재 시각을, 제2 이미지(202)는 현재 날씨를, 제3 이미지(203)는 현재 배터리 정보를 포함할 수도 있다. 그러나, 이는 예시적인 것이다.
또한, 도 8과 관련하여 상술한 웨어러블 디바이스(100)의 동작은 도 4 내지 7 및 도 9 내지 도 11과 관련하여 설명되는 웨어러블 디바이스(100)의 동작과 선택적으로 조합될 수 있다.
도 9는 손목의 회전에 기초한 디스플레이 위치의 변경을 도시한다.
도 9의 웨어러블 디바이스(100)는 도 5와 관련하여 상술한 웨어러블 디바이스(100)와 기본적으로 동일하게 작동한다. 즉, 웨어러블 디바이스(100)는 착용자가 물건을 들고 있다고 판단되고, 웨어러블 디바이스(100)가 기설정된 방향으로 회전하면 제1 이미지(201)의 디스플레이 위치를 도 9의 (a)에 도시된 위치로부터 도 9의 (b)에 도시된 위치로 이동할 수 있다.
다만, 도 9의 웨어러블 디바이스(100)는 제1 이미지(201)를 프로젝션하는 디스플레이 유닛(120)을 갖는다. 도 9의 디스플레이 유닛(120)은 웨어러블 디바이스(100)의 표면으로부터 돌출된 형태를 가져, 손목 또는 웨어러블 디바이스의 표면 상의 제1 이미지(201)를 프로젝션한다. 디스플레이 유닛(120)은 프로젝션을 위한 프리즘, 렌즈 및/또는 거울을 포함할 수 있다. 따라서, 도 9의 (b)에 도시된 바와 같이 제1 이미지(201)의 디스플레이 위치를 이동시키기 위하여, 디스플레이 유닛(120)은 프리즘, 렌즈 및/또는 거울을 회전시킬 수 있다. 또한, 제1 이미지(201)의 디스플레이 위치는 프리즘, 렌즈 및/또는 거울의 회전에 기초하여 이동될 수 있다.
또한, 도 9와 관련하여 상술한 웨어러블 디바이스(100)의 동작은 도 4 내지 8 및 도 10 내지 도 11과 관련하여 설명되는 웨어러블 디바이스(100)의 동작과 선택적으로 조합될 수 있다.
도 10은 시선에 기초한 디스플레이 위치의 변경을 도시한다.
웨어러블 디바이스(100)는 이미지 센싱 유닛 또는 시선 센싱 유닛을 더 포함할 수도 있다. 웨어러블 디바이스(100)는 이미지 센싱에 기초하여 착용자가 아닌 사람이 웨어러블 디바이스(100)를 응시하는 것을 센싱할 수도 있다. 또한, 착용자가 아닌 사람의 응시가 센싱되면, 웨어러블 디바이스(100)는 이미지의 디스플레이 위치를 변경할 수도 있다.
도 10의 좌측에 도시된 바와 같이, 웨어러블 디바이스(100)는 제1 이미지(201)를 디스플레이 유닛(120)의 상측에 디스플레이할 수도 있다. 이 경우, 도 10의 우측에 도시된 바와 같이, 착용자가 아닌 다른 사람이 제1 이미지(201)를 훔쳐보려할 수도 있다.
도 10에는 제1 이미지(201)가 시간으로 도시되어 있으나, 제1 이미지(201)는 개인 정보를 포함할 수도 있다. 예를 들어, 제1 이미지(201)는 수신 문자 메시지를 포함할 수도 있다. 따라서, 웨어러블 디바이스(100)의 착용자는 제1 이미지(201)의 노출을 원하지 않을 수도 있다.
따라서, 웨어러블 디바이스(100)는 착용자가 아닌 사람의 응시가 센싱되면, 도 10의 우측에 도시된 바와 같이, 제1 이미지(201)의 디스플레이 위치를 착용자 쪽으로 이동시킬 수도 있다. 제1 이미지(201)를 응시 여부에 기초하여 이동시킴으로써 개선된 개인 정보 보안을 제공할 수도 있다.
또한, 도 10과 관련하여 상술한 웨어러블 디바이스(100)의 동작은 도 4 내지 9 및 도 11과 관련하여 설명되는 웨어러블 디바이스(100)의 동작과 선택적으로 조합될 수 있다.
도 11은 일 실시예에 따른 웨어러블 디바이스의 제어 방법의 흐름도이다.
웨어러블 디바이스는 제1 이미지를 웨어러블 디바이스의 외부 표면 상의 제1 위치에 디스플레이(1101)한다. 도 5와 관련하여 상술한 바와 같이, 제1 이미지는 다양한 정보들을 포함할 수 있다. 웨어러블 디바이스(1101)는 손목의 힘줄들을 센싱하고 센싱될 힘줄들에 기초하여 착용자의 손의 형태 및 악력을 디텍트(1102)한다. 도 4과 관련하여 상술한 바와 같이, 웨어러블 디바이스는 힘줄 센싱 유닛을 이용하여 손목을 통과하는 힘줄들 및 힘줄들의 변화를 센싱할 수 있다. 또한, 웨어러블 디바이스는 웨어러블 디바이스의 오리엔테이션을 센싱(1103)할 수 있다. 도 4와 관련하여 상술한 바와 같이, 웨어러블 디바이스는 오리엔테이션 센싱 유닛을 이용하여 오리엔테이션을 센싱할 수 있다.
웨어러블 디바이스(1104)는 디텍트된 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고 디텍트된 악력이 기설정된 악력 이상(1104)이면, 착용자가 물건을 들고 있다고 판단할 수도 있다. 이 경우, 웨어러블 디바이스가 제1 방향으로 회전되면, 웨어러블 디바이스는 제1 위치로부터 제2 방향으로 이동된 제2 위치에 제1 이미지를 디스플레이(1105)할 수 있다. 여기서, 제1 방향과 제2 방향은 손목을 중심으로 한 회전 방향이며, 서로 반대 방향이다.
도 11의 웨어러블 디바이스의 제어 방법은 도 4 내지 도 10과 관련하여 상술한 웨어러블 디바이스의 동작들과 선택적으로 조합될 수 있다. 본 명세서에 따른 웨어러블 디바이스 및 그 제어 방법은 상술한 실시 예들의 구성과 방법으로 한정되어 적용되는 것이 아니라, 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있다.
한편, 본 명세서의 웨어러블 디바이스 및 그 제어 방법은 웨어러블 디바이스에 구비된 프로세서가 읽을 수 있는 기록 매체에 소프트웨어로서 구현되는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
발명의 실시를 위한 형태
-
본 발명은 단말 장치에서 사용 가능하고 반복 가능성이 있는 산업상 이용가능성이 있다.

Claims (21)

  1. 손목의 적어도 일부에 착용되는 웨어러블(wearable) 디바이스로서,
    상기 웨어러블 디바이스의 외부 표면의 적어도 일부에 이미지를 디스플레이하는 디스플레이 유닛;
    상기 손목의 힘줄들을 센싱하는 힘줄 센싱 유닛;
    상기 웨어러블 디바이스의 오리엔테이션(orientation)을 센싱하는 오리엔테이션 센싱 유닛; 및
    상기 디스플레이 유닛, 상기 힘줄 센싱 유닛 및 상기 오리엔테이션 센싱 유닛을 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    제1 이미지를 상기 웨어러블 디바이스의 외부 표면 상의 제1 위치에 디스플레이하고,
    상기 힘줄 센싱 유닛을 이용하여 착용자의 손의 형태 및 악력을 디텍트하고,
    상기 디텍트된 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고, 상기 디텍트된 악력이 기설정된 악력 이상이며, 상기 오리엔테이션 센싱 유닛에 의하여 상기 웨어러블 디바이스의 제1 방향으로의 회전이 디텍트되면, 상기 제1 위치로부터 제2 방향으로 이동된 제2 위치에 상기 제1 이미지를 디스플레이하며,
    상기 제1 방향과 상기 제2 방향은 상기 웨어러블 디바이스의 착용자의 손목을 중심으로 하는 회전 방향이며, 상기 제1 방향과 상기 제2 방향은 서로 반대 방향인, 웨어러블 디바이스.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 디텍트된 손의 형태가 상기 기설정된 손의 형태와 실질적으로 일치하고, 상기 기설정된 악력 이상의 악력이 기설정된 시간 이상 디텍트되며, 상기 웨어러블 디바이스의 제1 방향으로의 회전이 디텍트되면, 상기 제1 위치의 상기 제1 이미지를 상기 제2 위치에 디스플레이하는, 웨어러블 디바이스.
  3. 제 1 항에 있어서,
    상기 프로세서는,
    상기 디텍트된 손의 형태가 상기 기설정된 손의 형태와 실질적으로 일치하고, 상기 디텍트된 악력이 상기 기설정된 악력 이상이며, 상기 오리엔테이션 센싱 유닛에 의하여 상기 웨어러블 디바이스의 상기 제2 방향으로의 회전이 디텍트되면, 상기 제1 이미지의 디스플레이 위치를 상기 제1 위치로 유지하는, 웨어러블 디바이스.
  4. 제 1 항에 있어서,
    상기 웨어러블 디바이스는 음성 출력 유닛을 더 포함하고,
    상기 프로세서는,
    상기 디텍트된 손의 형태가 상기 기설정된 손의 형태와 실질적으로 일치하고, 상기 디텍트된 악력이 상기 기설정된 악력 이상이며, 상기 웨어러블 디바이스가 상기 제1 방향으로 회전되고, 상기 제1 방향으로의 회전 시각으로부터 기설정된 시간 내에 상기 웨어러블 디바이스가 상기 제2 방향으로 회전되면, 상기 제1 이미지에 연관된 정보를 음성 출력하는, 웨어러블 디바이스.
  5. 제 4 항에 있어서,
    상기 제1 이미지에 연관된 상기 정보는 날씨, 현재 시각, 현재 날짜, 수신 메시지 내용, 메시지 발신자 정보 및 현재 스케쥴 정보 중 적어도 하나를 포함하는, 웨어러블 디바이스.
  6. 제 1 항에 있어서,
    상기 웨어러블 디바이스는 음성 출력 유닛 및 음성 수신 유닛을 더 포함하고,
    상기 프로세서는,
    상기 제1 이미지를 상기 제2 위치에 디스플레이한 후, 음성 명령에 기초하여 상기 웨어러블 디바이스를 제어하는, 웨어러블 디바이스.
  7. 제 1 항에 있어서,
    상기 프로세서는,
    상기 오리엔테이션 유닛을 이용하여 상기 웨어러블 디바이스의 무브먼트를 모니터링하고,
    상기 웨어러블 디바이스의 상기 무브먼트가 기설정된 범위 이내이면, 상기 웨어러블 디바이스의 회전을 디텍트하는, 웨어러블 디바이스.
  8. 제 1 항에 있어서,
    상기 디스플레이 유닛은 플렉서블 디스플레이 유닛을 포함하고, 상기 웨어러블 디바이스의 적어도 일부 상에 위치되는, 웨어러블 디바이스.
  9. 제 8 항에 있어서,
    상기 플렉서블 디스플레이 유닛은 복수의 디스플레이 패널을 포함하는, 웨어러블 디바이스.
  10. 제 1 항에 있어서,
    상기 디스플레이 유닛은 프로젝션(projection) 유닛을 포함하고, 상기 프로젝션 유닛을 이용하여 상기 웨어러블 디바이스의 외부 표면의 적어도 일부에 이미지를 디스플레이하는, 웨어러블 디바이스.
  11. 제 10 항에 있어서,
    상기 프로세서는,
    상기 프로젝션 유닛의 투영 방향을 회전시킴으로써 상기 제1 이미지를 상기 제1 위치로부터 상기 제2 방향으로 이동된 상기 제2 위치에 디스플레이하는, 웨어러블 디바이스.
  12. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제1 이미지가 디스플레이된 상기 제2 위치는 상기 웨어러블 디바이스의 상기 오리엔테이션에 기초하여 결정되는, 웨어러블 디바이스.
  13. 제 1 항에 있어서,
    상기 프로세서는,
    상기 디텍트된 악력이 상기 기설정된 악력 미만이고, 상기 오리엔테이션 센싱 유닛에 의하여 상기 웨어러블 디바이스의 무브먼트가 기설정된 범위 이내이면, 상기 웨어러블 디바이스의 현재 오리엔테이션을 기준 오리엔테이션으로 설정하고,
    상기 웨어러블 디바이스가 상기 기준 오리엔테이션으로부터 상기 제1 방향으로 회전되면, 상기 제1 위치로부터 상기 제2 방향으로 이동된 상기 제2 위치에 제2 이미지를 디스플레이하고,
    상기 웨어러블 디바이스의 상기 기준 오리엔테이션으로부터 상기 제2 방향으로 회전되면, 상기 제1 위치로부터 상기 제1 방향으로 이동된 제3 위치에 제3 이미지를 디스플레이하는, 웨어러블 디바이스.
  14. 제 13 항에 있어서,
    상기 제1 이미지, 상기 제2 이미지 및 상기 제3 이미지는 서로 상이한 정보를 포함하는, 웨어러블 디바이스.
  15. 제 1 항에 있어서,
    상기 제2 위치에 디스플레이된 상기 제1 이미지는 상기 제1 위치에 디스플레이된 상기 제1 이미지의 색상, 명도, 대비 및 디스플레이 크기 중 적어도 하나가 상이한, 웨어러블 디바이스.
  16. 제 15 항에 있어서,
    상기 제2 위치에 디스플레이된 제1 이미지는 상기 제1 위치에 디스플레이된 제1 이미지 내의 데이터의 일부만을 포함하는, 웨어러블 디바이스.
  17. 손목의 적어도 일부에 착용되는 웨어러블(wearable) 디바이스의 제어 방법으로서,
    제1 이미지를 상기 웨어러블 디바이스의 외부 표면 상의 제1 위치에 디스플레이하는 단계;
    상기 손목의 힘줄들을 센싱하고 센싱된 힘줄들에 기초하여 착용자의 손의 형태 및 악력을 디텍트하는 단계;
    상기 웨어러블 디바이스의 오리엔테이션(orientation)을 센싱하는 단계; 및
    상기 디텍트된 손의 형태가 기설정된 손의 형태와 실질적으로 일치하고, 상기 디텍트된 악력이 기설정된 악력 이상이며, 상기 웨어러블 디바이스가 제1 방향으로 회전되면, 상기 제1 위치로부터 제2 방향으로 이동된 제2 위치에 상기 제1 이미지를 디스플레이하는 단계를 포함하고,
    상기 제1 방향과 상기 제2 방향은 상기 착용자의 손목을 중심으로 하는 회전 방향이며, 상기 제1 방향과 상기 제2 방향은 서로 반대 방향인, 웨어러블 디바이스의 제어 방법.
  18. 제 17 항에 있어서,
    상기 제1 위치로부터 상기 제2 방향으로 이동된 상기 제2 위치에 상기 제1 이미지를 디스플레이하는 단계는, 상기 기설정된 악력 이상의 악력이 기설정된 시간 이상 디텍트되면, 상기 제1 위치로부터 상기 제2 방향으로 이동된 상기 제2 위치에 상기 제1 이미지를 디스플레이하는 단계를 더 포함하는, 웨어러블 디바이스의 제어 방법.
  19. 제 17 항에 있어서,
    상기 디텍트된 손의 형태가 상기 기설정된 손의 형태와 실질적으로 일치하고, 상기 디텍트된 악력이 상기 기설정된 악력 이상이며, 상기 웨어러블 디바이스가 상기 제2 방향으로의 회전되면, 상기 제1 이미지의 디스플레이 위치를 상기 제1 위치로 유지하는 단계를 더 포함하는, 웨어러블 디바이스의 제어 방법.
  20. 제 17 항에 있어서,
    상기 웨어러블 디바이스가 상기 제1 방향으로의 회전된 시각으로부터 기설정된 시간 내에 상기 웨어러블 디바이스가 상기 제2 방향으로 회전되면, 상기 제1 이미지에 연관된 정보를 음성 출력하는 단계를 더 포함하는, 웨어러블 디바이스의 제어 방법.
  21. 제 17 항에 있어서,
    상기 제1 위치로부터 제2 방향으로 이동된 제2 위치에 상기 제1 이미지를 디스플레이하는 단계는, 상기 제1 위치에 디스플레이된 상기 제1 이미지의 색상, 명도, 대비 및 디스플레이 크기 중 적어도 하나를 변경하는 단계를 포함하는, 웨어러블 디바이스의 제어 방법.
KR1020177008247A 2014-11-17 2014-11-17 웨어러블 디바이스 및 그 제어 방법 KR102284369B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/011002 WO2016080557A1 (ko) 2014-11-17 2014-11-17 웨어러블 디바이스 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20170085480A true KR20170085480A (ko) 2017-07-24
KR102284369B1 KR102284369B1 (ko) 2021-08-02

Family

ID=56014084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177008247A KR102284369B1 (ko) 2014-11-17 2014-11-17 웨어러블 디바이스 및 그 제어 방법

Country Status (3)

Country Link
US (1) US10345893B2 (ko)
KR (1) KR102284369B1 (ko)
WO (1) WO2016080557A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10782651B2 (en) * 2018-06-03 2020-09-22 Apple Inc. Image capture to provide advanced features for configuration of a wearable device
JP7155808B2 (ja) * 2018-09-25 2022-10-19 富士フイルムビジネスイノベーション株式会社 ウェアラブル装置、及び制御プログラム
US10890982B2 (en) * 2018-12-18 2021-01-12 Samsung Electronics Co., Ltd. System and method for multipurpose input device for two-dimensional and three-dimensional environments
CN110164313B (zh) * 2019-05-31 2022-07-26 武汉天马微电子有限公司 一种显示设备
CN112671975A (zh) * 2019-10-15 2021-04-16 中兴通讯股份有限公司 一种显示位置调整方法、装置、终端及可读存储介质
JP2021192157A (ja) * 2020-06-05 2021-12-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157994A (ja) * 2002-10-07 2004-06-03 Sony France Sa 自由空間に作られるジェスチャを解析する方法及び装置
KR20120054809A (ko) * 2010-11-22 2012-05-31 한국전자통신연구원 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법
KR20140074824A (ko) * 2012-12-10 2014-06-18 삼성전자주식회사 뱅글 타입의 모바일 디바이스와 그 제어 방법 및 ui 표시 방법
KR101497829B1 (ko) * 2013-09-30 2015-03-04 현대엠엔소프트 주식회사 모션 입력을 이용하는 손목시계형 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8851372B2 (en) * 2011-07-18 2014-10-07 Tiger T G Zhou Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card
US8988349B2 (en) 2012-02-28 2015-03-24 Google Technology Holdings LLC Methods and apparatuses for operating a display in an electronic device
US20140049417A1 (en) 2012-08-20 2014-02-20 Playtabase, LLC Wireless motion activated command transfer device, system, and method
EP3617843A1 (en) * 2012-12-10 2020-03-04 Samsung Electronics Co., Ltd. Mobile device, control method thereof, and ui display method
KR102099358B1 (ko) * 2013-04-22 2020-04-09 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157994A (ja) * 2002-10-07 2004-06-03 Sony France Sa 自由空間に作られるジェスチャを解析する方法及び装置
KR20120054809A (ko) * 2010-11-22 2012-05-31 한국전자통신연구원 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법
KR20140074824A (ko) * 2012-12-10 2014-06-18 삼성전자주식회사 뱅글 타입의 모바일 디바이스와 그 제어 방법 및 ui 표시 방법
KR101497829B1 (ko) * 2013-09-30 2015-03-04 현대엠엔소프트 주식회사 모션 입력을 이용하는 손목시계형 장치

Also Published As

Publication number Publication date
WO2016080557A1 (ko) 2016-05-26
US10345893B2 (en) 2019-07-09
US20180307301A1 (en) 2018-10-25
KR102284369B1 (ko) 2021-08-02

Similar Documents

Publication Publication Date Title
KR102284369B1 (ko) 웨어러블 디바이스 및 그 제어 방법
US20220417358A1 (en) Displaying relevant user interface objects
EP2943835B1 (en) Head mounted display providing eye gaze calibration and control method thereof
US10191281B2 (en) Head-mounted display for visually recognizing input
US8289162B2 (en) Gesture-based user interface for a wearable portable device
KR102304772B1 (ko) 운동 보조를 위한 전자 장치 및 방법
US20150123898A1 (en) Digital device and control method thereof
US20150242120A1 (en) Data input peripherals and methods
US20130069883A1 (en) Portable information processing terminal
KR102033334B1 (ko) 변형가능한 기재를 가지는 손목착용형 장치
US20150002434A1 (en) Head-mounted display and information display apparatus
CA3007196A1 (en) Systems, devices, and methods for interacting with content displayed on head-mounted displays
US10766208B2 (en) Electronic device and information processing method
US20180150147A1 (en) Head-mounted display device, computer program, and control method for head-mounted display device
CN106471450A (zh) 信息处理设备、信息处理方法和程序
US10037085B2 (en) Techniques for real object and hand representation in virtual reality content
KR20180048158A (ko) 디스플레이 운용 방법 및 이를 지원하는 전자 장치
KR101497829B1 (ko) 모션 입력을 이용하는 손목시계형 장치
JP2018206080A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US10871837B2 (en) Wearable electronic devices having a rotatable input structure
US20170353686A1 (en) Method for providing interface using mobile device and wearable device
US20180321759A1 (en) Wearable computing device
US20180314213A1 (en) Mobile terminal module and watch type mobile terminal
US9619049B2 (en) One-handed operation of mobile electronic devices
KR20170086464A (ko) 웨어러블 디바이스 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant