KR102397397B1 - Wearalble device and operating method for the same - Google Patents

Wearalble device and operating method for the same Download PDF

Info

Publication number
KR102397397B1
KR102397397B1 KR1020150047493A KR20150047493A KR102397397B1 KR 102397397 B1 KR102397397 B1 KR 102397397B1 KR 1020150047493 A KR1020150047493 A KR 1020150047493A KR 20150047493 A KR20150047493 A KR 20150047493A KR 102397397 B1 KR102397397 B1 KR 102397397B1
Authority
KR
South Korea
Prior art keywords
wearable device
focus
item
surrounding object
area
Prior art date
Application number
KR1020150047493A
Other languages
Korean (ko)
Other versions
KR20160015146A (en
Inventor
신호철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2015/006995 priority Critical patent/WO2016017956A1/en
Priority to JP2017504397A priority patent/JP6418585B2/en
Priority to AU2015297289A priority patent/AU2015297289B2/en
Priority to EP15178252.1A priority patent/EP2980677B1/en
Priority to TW104124615A priority patent/TWI537771B/en
Priority to US14/813,889 priority patent/US9823751B2/en
Priority to CN201510458504.2A priority patent/CN105320275B/en
Publication of KR20160015146A publication Critical patent/KR20160015146A/en
Priority to US15/812,586 priority patent/US10437346B2/en
Application granted granted Critical
Publication of KR102397397B1 publication Critical patent/KR102397397B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Abstract

주변 객체의 움직임을 검출하는 센서; 복수의 아이템을 표시하고, 표시된 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시하는 디스플레이부; 및 상기 객체가 움직인 방향에 대응되는 위치하는 아이템으로 포커스를 이동시켜 표시하도록 상기 디스플레이부를 제어하는 프로세서를 포함하는 웨어러블 디바이스가 개시된다.a sensor that detects a movement of a surrounding object; a display unit that displays a plurality of items and displays focus on at least one item among the plurality of displayed items; and a processor for controlling the display unit to display by moving the focus to an item located corresponding to the moving direction of the object.

Description

웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법{WEARALBLE DEVICE AND OPERATING METHOD FOR THE SAME}Wearable device and operation method of wearable device {WEARALBLE DEVICE AND OPERATING METHOD FOR THE SAME}

개시된 실시 예들은 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법에 관한 것이다.The disclosed embodiments relate to a wearable device and an operating method of the wearable device.

프로세서의 크기가 줄어들면서, 모바일 디바이스들의 크기도 줄어들고 있다. 모바일 디바이스의 크기가 줄어들어, 사용자의 신체에 착용이 가능한 웨어러블 디바이스가 생산되었다.As processors shrink in size, so do mobile devices. As the size of the mobile device is reduced, a wearable device that can be worn on a user's body has been produced.

사용자는 웨어러블 디바이스를 조작하여 원하는 정보를 획득할 수 있다. 웨어러블 디바이스는 사용자의 조작을 위한 인터페이스를 제공한다. 사용자는 웨어러블 디바이스를 직접 터치하여 웨어러블 디바이스를 조작할 수 있다. 웨어러블 디바이스는 사용자의 조작에 따른 결과를 디스플레이 장치를 통해 표시한다.A user may obtain desired information by manipulating the wearable device. The wearable device provides an interface for user manipulation. The user may manipulate the wearable device by directly touching the wearable device. The wearable device displays a result according to a user's manipulation through a display device.

개시된 일 실시 예는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법을 제공하는데 있다. 웨어러블 디바이스는 사용자의 신체에 착용되기 위해 소형으로 제작된다. 따라서, 소형의 웨어러블 디바이스를 사용자가 편리하게 조작하기 위한 방법이 제공되어야 한다.The disclosed embodiment provides a wearable device and a method of operating the wearable device. A wearable device is manufactured to be small to be worn on a user's body. Accordingly, a method for a user to conveniently operate a small wearable device should be provided.

일 실시 예에 따른 웨어러블 디바이스는 주변 객체의 움직임을 검출하는 센서; 복수의 아이템을 표시하고, 표시된 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시하는 디스플레이부; 및 상기 객체가 움직인 방향에 대응되는 위치의 아이템으로 포커스를 이동시켜 표시하도록 상기 디스플레이부를 제어하는 프로세서를 포함한다.A wearable device according to an embodiment includes a sensor for detecting a motion of a surrounding object; a display unit that displays a plurality of items and displays focus on at least one item among the plurality of displayed items; and a processor controlling the display unit to display by moving the focus to an item at a position corresponding to the moving direction of the object.

일 실시 예에 따른 웨어러블 디바이스의 동작 방법은 복수의 아이템을 표시하고, 표시된 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시하는 단계; 주변 객체의 움직임을 검출하는 단계; 및 상기 객체가 움직인 방향에 대응되는 위치의 아이템으로 포커스를 이동시켜 표시하는 단계를 포함한다.According to an embodiment, a method of operating a wearable device includes displaying a plurality of items and displaying focus on at least one item among the plurality of displayed items; detecting a motion of a surrounding object; and moving the focus to an item at a position corresponding to the moving direction of the object and displaying the moved item.

개시된 일 실시 예에 따른 웨어러블 디바이스의 동작 방법은 사용자에게 편리한 메뉴 선택 방법을 제공한다.The operating method of the wearable device according to the disclosed embodiment provides a convenient menu selection method for a user.

도 1a은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다.
도 1b는 정면에 센서를 구비하는 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 웨어러블 디바이스 주변에서의 객체의 움직임을 이용하여 웨어러블 디바이스의 디스플레이에 표시된 포커스를 이동하는 방법을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 4는 또 다른 일 실시 예에 따른 웨어러블 디바이스가 각도에 따른 영역을 결정하여 표시되는 아이템을 변경하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 6은 일 실시 예에 따른 웨어러블 디바이스가 각도에 대응하는 영역을 결정하여 이미지를 이동하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 8은 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다.
도 9는 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다.
도 10은 일 실시 예에 따른 웨어러블 디바이스가 객체의 이동 각도를 측정하는 방법을 설명하기 위한 도면이다.
도 11 내지 도 18은 일 실시 예에 따른 웨어러블 디바이스가 포커스의 위치에 대응하는 영역을 설정하는 방법을 설명하기 위한 도면이다.
도 19는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다.
도 20 내지 도 26은 일 실시 예에 따른 웨어러블 디바이스가 사용자의 입력에 따라 포커스를 이동하는 예를 설명하기 위한 도면이다.
도 27은 일 실시 예에 따른 웨어러블 디바이스가 객체의 제스처를 인식하여 화면을 전환하는 방법을 설명하기 위한 도면이다.
도 28은 일 실시 예에 따른 웨어러블 디바이스(100)가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 30은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 31은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 32는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 33은 일 실시 예에 따른 웨어러블 디바이스가 문자를 입력하는 방법을 설명하기 위한 도면이다.
도 34는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 35 내지 도 41은 일 실시 예에 따른 웨어러블 디바이스의 네비게이션 방법을 설명하기 위한 도면들이다.
도 42 내지 도 43은 일 실시 예에 따른 웨어러블 디바이스가 손등 터치를 감지하여 문자를 입력하는 방법을 설명하기 위한 도면이다.
도 44 내지 도 45는 일 실시 예에 따른 웨어러블 디바이스의 터치 센서의 배열 설명하기 위한 도면이다.
도 46은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다.
도 47은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다.
도 48 내지 49는 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다.
도 50 내지 54는 일 실시 예에 따른 화면 회전 방법을 설명하기 위한 도면이다.
1A is a diagram for describing a method of operating a wearable device according to an exemplary embodiment.
1B is a view for explaining a method of operating a wearable device having a sensor on its front side.
FIG. 2 is a diagram for describing a method of moving a focus displayed on a display of a wearable device using a movement of an object around the wearable device, according to an exemplary embodiment.
3 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
4 is a diagram for explaining a method of changing a displayed item by determining an area according to an angle by a wearable device according to another exemplary embodiment.
5 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
6 is a diagram for explaining a method of moving an image by determining an area corresponding to an angle by a wearable device according to an exemplary embodiment.
7 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
8 is a block diagram illustrating a wearable device according to an embodiment.
9 is a block diagram illustrating a wearable device according to an embodiment.
10 is a diagram for describing a method for a wearable device to measure a movement angle of an object according to an exemplary embodiment.
11 to 18 are diagrams for explaining a method of setting, by a wearable device, an area corresponding to a location of a focus, according to an exemplary embodiment.
19 is a diagram for explaining a method of operating a wearable device according to an embodiment.
20 to 26 are diagrams for explaining an example in which the wearable device moves a focus according to a user input, according to an exemplary embodiment.
27 is a diagram for explaining a method for a wearable device to change a screen by recognizing a gesture of an object, according to an embodiment.
FIG. 28 is a diagram for explaining a method in which the wearable device 100 recognizes a gesture and operates according to an embodiment.
29 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment.
30 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment.
FIG. 31 is a diagram for explaining a method in which a wearable device operates by recognizing a gesture, according to an exemplary embodiment.
32 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment.
33 is a diagram for describing a method of inputting text by a wearable device according to an exemplary embodiment.
34 is a flowchart illustrating a method of operating a wearable device according to an embodiment.
35 to 41 are diagrams for explaining a navigation method of a wearable device according to an embodiment.
42 to 43 are diagrams for explaining a method in which a wearable device inputs a character by sensing a touch on the back of a hand, according to an embodiment.
44 to 45 are diagrams for explaining an arrangement of touch sensors of a wearable device according to an exemplary embodiment.
46 is a diagram for describing a text input method according to an exemplary embodiment.
47 is a diagram for explaining a text input method according to an embodiment.
48 to 49 are diagrams for explaining a text input method according to an exemplary embodiment.
50 to 54 are diagrams for explaining a screen rotation method according to an embodiment.

본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Since the present embodiments can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope of the specific embodiments, and it should be understood to include all transformations, equivalents and substitutions included in the spirit and scope of the disclosure. In describing the embodiments, if it is determined that a detailed description of a related known technology may obscure the subject matter, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments, and are not intended to limit the scope of rights. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
Hereinafter, the embodiment will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted.

도 1a은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다. 도 1a을 참조하면, 웨어러블 디바이스(100)는 객체(object)의 움직임을 감지하여 아이템에 표시된 포커스를 이동시킬 수 있다.1A is a diagram for describing a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 1A , the wearable device 100 may detect a movement of an object to move a focus displayed on the item.

객체는 웨어러블 디바이스(100)의 주변에서 감지될 수 있는 사물, 사용자의 손가락 등이 될 수 있다. 웨어러블 디바이스(100)의 ‘주변’은 웨어러블 디바이스(100)로부터 미리 설정된 거리 내의 영역을 의미하거나, 웨어러블 디바이스(100)의 측면으로부터 동일한 거리 내의 영역을 의미할 수 있다. 예를 들어, 웨어러블 디바이스(100)의 주변은 웨어러블 디바이스(100)를 착용하고 있는 사용자의 손등일 수 있다. 또는, 웨어러블 디바이스(100)의 주변은 웨어러블 디바이스(100)의 정면일 수 있다. 웨어러블 디바이스(100)의 주변은 웨어러블 디바이스(100)의 카메라가 객체를 인식할 수 있는 영역일 수 있다.The object may be an object that can be detected in the vicinity of the wearable device 100 , a user's finger, or the like. “Nearby” of the wearable device 100 may mean an area within a preset distance from the wearable device 100 or an area within the same distance from the side of the wearable device 100 . For example, the periphery of the wearable device 100 may be the back of a user's hand wearing the wearable device 100 . Alternatively, the periphery of the wearable device 100 may be the front of the wearable device 100 . The periphery of the wearable device 100 may be an area in which the camera of the wearable device 100 may recognize an object.

객체의 움직임을 감지한다는 것은 웨어러블 디바이스(100)가 주변 객체를 감지하고, 객체가 이동하는 방향, 각도, 이동 거리 또는 속도 등을 측정하는 것일 수 있다.Sensing the movement of the object may mean that the wearable device 100 detects a surrounding object and measures the direction, angle, movement distance, or speed in which the object moves.

웨어러블 디바이스(100)는 센서(110) 및 디스플레이부(120)를 포함한다. 센서(110)는 주변 객체를 검출하고, 디스플레이부(120)는 적어도 하나의 아이템 및 포커스(10)를 표시한다. The wearable device 100 includes a sensor 110 and a display unit 120 . The sensor 110 detects a surrounding object, and the display unit 120 displays at least one item and the focus 10 .

아이템은 웨어러블 디바이스(100)의 각각의 기능 또는 메뉴 등을 나타낸다. 디스플레이부(120)는 하나의 아이템을 전체 화면에 표시하거나, 2개 이상의 아이템들을 화면에 표시할 수 있다. 또한, 디스플레이부(120)는 아이템들의 크기를 서로 다르게 표시할 수 있다. 예를 들어, 디스플레이부(120)는 중앙에 위치한 아이템을 다른 아이템들보다 크게 표시할 수 있다.The item represents each function or menu of the wearable device 100 . The display 120 may display one item on the entire screen or display two or more items on the screen. Also, the display unit 120 may display different sizes of items. For example, the display 120 may display an item located in the center larger than other items.

포커스(10)는 현재 선택된 아이템을 나타내는 식별 표시이다. 포커스는 아이템의 색상을 변경하거나 아이템의 크기를 변경하는 등의 형태로 표현될 수도 있다. 또는, 포커스(10)는 아이템 위에 표시되는 도형일 수도 있다. The focus 10 is an identification mark indicating the currently selected item. The focus may be expressed in the form of changing the color of the item or changing the size of the item. Alternatively, the focus 10 may be a figure displayed on the item.

도 1a의 경우, 포커스(10)가 아이템의 외곽에 표시되는 일 예를 나타낸다. 도 1은 6개의 아이템들(media controller, call, application, messenger, E-mail, Gallery)이 웨어러블 디바이스(100)에 표시된 경우이다. 또한, 도 1은 포커스(10)가 Messenger에 표시되었다가 Call에 표시되는 과정을 도시하고 있다.1A shows an example in which a focus 10 is displayed outside an item. 1 is a case in which six items (media controller, call, application, messenger, E-mail, Gallery) are displayed on the wearable device 100 . Also, FIG. 1 shows a process in which the focus 10 is displayed in Messenger and then displayed in Call.

웨어러블 디바이스(100)는 센서(110)를 통해 객체의 움직임을 검출한다. 센서(110)는 객체가 설정된 거리 내에 객체가 있는지 여부를 검출한다. 센서(110)는 센서(110)와 객체와의 거리를 측정한다. 또는, 센서(110)는 객체의 이동 방향, 이동 각도 및 이동 거리를 측정할 수 있다. The wearable device 100 detects the movement of an object through the sensor 110 . The sensor 110 detects whether the object is within a set distance. The sensor 110 measures the distance between the sensor 110 and the object. Alternatively, the sensor 110 may measure the movement direction, movement angle, and movement distance of the object.

도 1a의 경우, 웨어러블 디바이스(100)가 사용자의 손가락을 인식하는 경우를 도시하고 있다. 웨어러블 디바이스(100)는 사용자의 손가락뿐만 아니라, 다양한 객체들의 움직임을 인식할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 펜, 막대기 등과 같은 사물을 인식할 수도 있다.1A illustrates a case in which the wearable device 100 recognizes a user's finger. The wearable device 100 may recognize the movement of various objects as well as the user's finger. For example, the wearable device 100 may recognize an object such as a pen or a stick.

웨어러블 디바이스(100)는 디스플레이부에 복수의 아이템을 표시한다. 또한, 웨어러블 디바이스(100)는 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시한다.The wearable device 100 displays a plurality of items on the display unit. Also, the wearable device 100 displays focus on at least one item among the plurality of items.

웨어러블 디바이스(100)는 객체가 이동한 각도 또는 방향을 획득한다. 웨어러블 디바이스(100)는 객체의 위치를 측정하고, 객체의 위치에 변동이 있는 경우, 객체가 움직인 각도 또는 방향을 계산한다. 도 1a의 경우, 객체가 45도 방향으로 이동한 경우를 도시하고 있다. 웨어러블 디바이스(100)는 거리 또는 속도의 범위를 설정하고, 객체의 이동 거리 또는 객체의 속도가 설정된 범위에 포함되는 경우에만 객체의 각도를 계산할 수도 있다. 따라서, 객체의 이동 거리 또는 속도가 설정된 범위에 포함되지 않는 경우(예를 들어, 이동 거리가 짧거나 속도가 느린 경우), 객체의 미세한 움직임 또는 사용자가 입력을 원하지 않는 경우로 판단하고, 웨어러블 디바이스(100)는 포커스(10)를 이동하지 않을 수 있다.The wearable device 100 acquires the angle or direction in which the object moves. The wearable device 100 measures the position of the object, and when there is a change in the position of the object, calculates an angle or direction in which the object moves. In the case of FIG. 1A , a case in which the object moves in a 45 degree direction is illustrated. The wearable device 100 may set the range of the distance or speed, and may calculate the angle of the object only when the moving distance or speed of the object is included in the set range. Therefore, when the moving distance or speed of the object is not included in the set range (for example, when the moving distance is short or the speed is slow), it is determined that the fine movement of the object or the user does not want an input, and the wearable device ( 100 ) may not move the focus ( 10 ).

웨어러블 디바이스(100)는 객체가 움직인 방향에 대응하는 위치의 아이템으로 포커스를 이동시킨다. 웨어러블 디바이스(100)는 객체가 이동한 방향에 따라 포커스(10)의 이동 방향을 결정한다. 웨어러블 디바이스(100)는 디스플레이부(120)에 도시된 포커스(10)를 결정된 이동 방향에 위치한 아이템으로 이동한다. 도 1a의 경우, 객체가 45도 방향으로 이동하였으므로, 웨어러블 디바이스(100)는 포커스(10)를 Messenger 에서 Call 로 이동한다.The wearable device 100 moves the focus to an item at a location corresponding to the direction in which the object moves. The wearable device 100 determines the moving direction of the focus 10 according to the moving direction of the object. The wearable device 100 moves the focus 10 shown on the display unit 120 to an item located in the determined moving direction. In the case of FIG. 1A , since the object has moved in a 45 degree direction, the wearable device 100 moves the focus 10 from Messenger to Call.

웨어러블 디바이스(100)는 사용자가 신체에 착용 가능한 디바이스이다. 예를 들어, 웨어러블 디바이스(100)는 스마트 워치, 스마트 글래스, 암 밴드 등 일수 있다.The wearable device 100 is a device that a user can wear on the body. For example, the wearable device 100 may be a smart watch, smart glasses, an arm band, or the like.

웨어러블 디바이스(100)는 센서(110)를 포함한다. 센서(110)는 웨어러블 디바이스(100)가 사용자의 제스처를 감지할 수 있는 위치에 배치될 수 있다. 예를 들어, 스마트 워치의 경우, 센서(110)는 스마트 워치의 측면에 배치될 수 있다. 스마트 글래스의 경우, 센서(110)는 스마트 글래스의 정면에 배치될 수 있다.
The wearable device 100 includes a sensor 110 . The sensor 110 may be disposed at a position where the wearable device 100 may detect a user's gesture. For example, in the case of a smart watch, the sensor 110 may be disposed on the side of the smart watch. In the case of smart glasses, the sensor 110 may be disposed in front of the smart glasses.

도 1b는 정면에 센서를 구비하는 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다. 도 1b를 참조하면, 웨어러블 디바이스(100)는 정면에 센서들(110)을 포함한다. 정면은 디스플레이부(120)가 구비된 영역이다. 2개의 센서(110)들은 디스플레이부(120)의 위쪽과 아래쪽에 위치할 수 있다.1B is a view for explaining a method of operating a wearable device having a sensor on its front side. Referring to FIG. 1B , the wearable device 100 includes sensors 110 on the front side. The front is an area in which the display unit 120 is provided. The two sensors 110 may be located above and below the display unit 120 .

센서들(110)은 웨어러블 디바이스(100)의 정면에서 움직이는 객체를 감지할 수 있다. 예를 들어, 센서들(110)은 정면에서 움직이는 사용자의 손가락을 감지할 수 있다. The sensors 110 may detect an object moving in front of the wearable device 100 . For example, the sensors 110 may detect a user's finger moving from the front.

웨어러블 디바이스(100)는 센서들(110)에 의해 감지된 손가락의 방향을 획득하고, 획득된 방향에 대응하는 위치의 아이템으로 포커스를 이동시킨다.
The wearable device 100 acquires the direction of the finger detected by the sensors 110 , and moves the focus to an item in a position corresponding to the obtained direction.

도 2는 일 실시 예에 따른 웨어러블 디바이스 주변에서의 객체의 움직임을 이용하여 웨어러블 디바이스의 디스플레이에 표시된 포커스를 이동하는 방법을 설명하기 위한 도면이다. 도 2에서 웨어러블 디바이스(100)는 각도를 측정하고, 측정된 각도에 따라 포커스의 이동 방향을 결정할 수 있다.FIG. 2 is a diagram for describing a method of moving a focus displayed on a display of a wearable device using a movement of an object around the wearable device, according to an exemplary embodiment. In FIG. 2 , the wearable device 100 may measure an angle and determine a movement direction of a focus according to the measured angle.

step1에서, 웨어러블 디바이스(100)는 주변에서 객체가 움직인 각도를 측정한다. 도 2의 경우, 객체가 이동한 각도가 80도인 경우를 예를 들어 도시하고 있다. 객체의 각도는 웨어러블 디바이스(100)를 기준으로 계산된다.In step 1 , the wearable device 100 measures an angle at which the object moves around it. In the case of FIG. 2, a case where the angle at which the object moves is 80 degrees is illustrated as an example. The angle of the object is calculated based on the wearable device 100 .

step2에서, 웨어러블 디바이스(100)는 측정된 각도에 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 각도에 따라 영역들을 미리 설정하고, 측정된 각도에 해당하는 영역을 결정한다. 예를 들어, 웨어러블 디바이스(100)는 360도를 적어도 2개의 영역으로 설정할 수 있다. 도 2의 경우, 웨어러블 디바이스(100)는 360도를 4개의 영역으로 설정한 예이다. 각도 80도는 제2 영역에 포함된다. 따라서, 웨어러블 디바이스(100)는 제2 영역을 측정된 각도에 대응되는 영역으로 결정한다.In step 2 , the wearable device 100 determines an area corresponding to the measured angle. The wearable device 100 presets regions according to angles and determines regions corresponding to the measured angles. For example, the wearable device 100 may set 360 degrees to at least two areas. In the case of FIG. 2 , the wearable device 100 is an example in which 360 degrees is set as four regions. An angle of 80 degrees is included in the second region. Accordingly, the wearable device 100 determines the second area as an area corresponding to the measured angle.

step3에서, 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향으로 디스플레이부에 표시된 포커스를 이동한다. 도 2의 경우, 포커스가 Messenger에서 E-mail로 이동한 경우를 도시하고 있다.
In step 3 , the wearable device 100 moves the focus displayed on the display unit in a direction corresponding to the determined area. In the case of Fig. 2, a case in which the focus is moved from Messenger to E-mail is shown.

도 3은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 3을 참조하면, 웨어러블 디바이스(100)는 주변 객체를 검출하여 포커스를 제1 아이템에서 제2 아이템으로 이동할 수 있다.3 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 3 , the wearable device 100 may detect a surrounding object and move the focus from a first item to a second item.

단계 310에서, 웨어러블 디바이스(100)는 화면상의 제1 아이템에 포커스를 표시한다. 웨어러블 디바이스(100)는 화면상에 표시된 복수의 아이템들 중에서 제1 아이템에 포커스를 표시한다.In operation 310, the wearable device 100 displays focus on the first item on the screen. The wearable device 100 displays a focus on a first item among a plurality of items displayed on the screen.

단계 320에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 센서(110)를 이용하여 주변 객체를 검출할 수 있다.In operation 320, the wearable device 100 detects a surrounding object. The wearable device 100 may detect a surrounding object using the sensor 110 .

단계 330에서, 웨어러블 디바이스(100)는 주변 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 기준으로 객체가 이동하는 각도를 계산하여 방향을 획득할 수 있다.In operation 330 , the wearable device 100 acquires a direction in which the surrounding object moves. The wearable device 100 may obtain a direction by calculating an angle at which an object moves based on the wearable device 100 .

단계 340에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다. In operation 340, the wearable device 100 determines a movement direction of the focus according to the obtained direction.

단계 350에서, 웨어러블 디바이스(100)는 결정된 이동 방향에 따라 포커스를 제2 아이템으로 이동한다. In operation 350 , the wearable device 100 moves the focus to the second item according to the determined moving direction.

웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 대응하는 영역들을 설정할 수 있고, 영역들과 획득된 방향을 맵핑하여 포커스의 이동 방향을 결정할 수도 있다. The wearable device 100 may set regions corresponding to a direction in which the focus is movable, and may determine the direction of movement of the focus by mapping the regions and the obtained direction.

포커스가 이동 가능한 방향은 아이템의 배열 방식에 따라 현재 포커스가 이동 가능한 아이템이 존재한 방향을 나타낸다. 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향을 확인하고, 확인된 방향의 수만큼의 영역들을 설정할 수 있다. 이때, 웨어러블 디바이스(100)는 이동 가능한 방향들을 각각 포함하는 영역들을 설정한다. 예를 들어, 이동 가능한 방향이 위쪽이라면, 웨어러블 디바이스(100)는 -20도부터 20도를 위쪽에 대응하는 영역으로 설정할 수 있다.The focus-movable direction indicates a direction in which the focus-movable item is present according to an arrangement method of the items. The wearable device 100 may check a direction in which the focus can be moved, and may set as many areas as the number of the checked directions. In this case, the wearable device 100 sets regions each including movable directions. For example, if the movable direction is upward, the wearable device 100 may set -20 degrees to 20 degrees as the area corresponding to the upper part.

영역들과 획득된 방향을 맵핑한다는 것은 획득된 방향이 영역들 중에서 어느 영역에 포함되는지를 판단하는 것을 나타낸다. 영역은 각도의 범위로 구분된다. 예를 들어, 0도에서 180도는 제1 영역으로 설정되고, 180도에서 360도는 제2 영역으로 설정될 수 있다. 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향을 결정한다. 웨어러블 디바이스(100)는 획득된 방향이 포함되는 영역을 결정할 수 있다. 영역은 포커스가 이동 가능한 방향에 대응하여 설정되므로, 웨어러블 디바이스(100)는 결정된 영역에 대응하는 포커스의 이동 방향을 결정할 수 있다.
Mapping the regions and the acquired direction represents determining which region from among the regions the acquired direction is included. Regions are delimited by ranges of angles. For example, 0 degrees to 180 degrees may be set as the first area, and 180 degrees to 360 degrees may be set as the second area. The wearable device 100 determines a direction corresponding to the determined area. The wearable device 100 may determine an area including the obtained direction. Since the area is set to correspond to the direction in which the focus can be moved, the wearable device 100 may determine the direction of movement of the focus corresponding to the determined area.

도 4는 또 다른 일 실시 예에 따른 웨어러블 디바이스가 각도에 따른 영역을 결정하여 표시되는 아이템을 변경하는 방법을 설명하기 위한 도면이다. 도 4를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 각도에 따라 표시되는 아이템을 변경할 수 있다.4 is a diagram for explaining a method of changing a displayed item by determining an area according to an angle by a wearable device according to another exemplary embodiment. Referring to FIG. 4 , the wearable device 100 may change the displayed item according to the movement angle of the object.

step1에서, 웨어러블 디바이스(100)는 객체의 이동 각도를 측정한다. 도 2의 경우, 객체의 이동 각도가 170도인 경우를 예를 들어 도시하고 있다.In step 1 , the wearable device 100 measures the movement angle of the object. In the case of FIG. 2, a case where the movement angle of the object is 170 degrees is illustrated as an example.

step2에서, 웨어러블 디바이스(100)는 측정된 이동 각도와 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 각도에 따라 영역들을 설정하고, 측정된 각도를 포함하는 영역을 결정한다. 도 2의 경우, 아이템들이 1열로 배열된 경우이므로, 사용자의 조작에 의해 현재 아이템의 위쪽 아이템 또는 아래쪽 아이템만이 표시될 수 있다. 따라서, 웨어러블 디바이스(100)는 360도를 절반으로 나누어, 위쪽 영역은 제1 영역으로 설정하고, 아래쪽 영역은 제2 영역으로 설정한다. 도 2에서 측정된 각도 170도는 제2 영역에 대응된다. 따라서, 웨어러블 디바이스(100)는 제2 영역을 측정된 각도에 대응되는 영역으로 결정한다.In step 2 , the wearable device 100 determines an area corresponding to the measured movement angle. The wearable device 100 sets regions according to angles and determines regions including the measured angles. In the case of FIG. 2 , since the items are arranged in one column, only the upper item or the lower item of the current item may be displayed by a user's manipulation. Accordingly, the wearable device 100 divides 360 degrees in half, and sets the upper area as the first area and the lower area as the second area. An angle of 170 degrees measured in FIG. 2 corresponds to the second area. Accordingly, the wearable device 100 determines the second area as an area corresponding to the measured angle.

만약, Gallery 아이템이 표시된 상태인 경우에는, 위쪽 영역은 중립 영역으로 설정되고, 아래쪽 영역이 제1 영역으로 설정될 수 있다. 객체의 이동 각도가 중립 영역에 포함되는 경우, 웨어러블 디바이스(100)는 표시되는 아이템을 변경하지 않는다. 중립 영역에 해당하는 방향으로는 더 이상 표시될 아이템이 존재하지 않으므로, 웨어러블 디바이스(100)는 사용자에게 피드백을 제공하여 Gallery 아이템이 마지막 아이템임을 알릴 수 있다.If the Gallery item is displayed, the upper area may be set as the neutral area, and the lower area may be set as the first area. When the movement angle of the object is included in the neutral region, the wearable device 100 does not change the displayed item. Since there is no longer an item to be displayed in the direction corresponding to the neutral region, the wearable device 100 may provide feedback to the user to inform that the Gallery item is the last item.

step3에서, 웨어러블 디바이스(100)는 표시되는 아이템을 변경한다. 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향에 배치된 아이템을 표시한다.In step 3 , the wearable device 100 changes the displayed item. The wearable device 100 displays an item disposed in a direction corresponding to the determined area.

예를 들어, 아이템들은 1열로 배치될 수 있으며, 제2 영역에 포함되는 각도가 획득되었으므로, 웨어러블 디바이스(100)는 현재 표시된 Call보다 위쪽에 배치된 아이템인 E-mail을 다음에 표시할 아이템으로 결정할 수 있다.
For example, the items may be arranged in one column, and since the angle included in the second area is obtained, the wearable device 100 displays E-mail, which is an item placed above the currently displayed Call, as an item to be displayed next. can decide

도 5는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 5를 참조하면, 웨어러블 디바이스(100)는 주변 객체를 검출하여 객체의 이동 방향에 따라 표시되는 아이템을 변경할 수 있다.5 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 5 , the wearable device 100 may detect a surrounding object and change the displayed item according to the moving direction of the object.

단계 510에서, 웨어러블 디바이스(100)는 화면에 제1 아이템을 표시한다. In operation 510, the wearable device 100 displays the first item on the screen.

단계 520에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 센서(110)를 이용하여 주변 객체를 검출할 수 있다.In operation 520, the wearable device 100 detects a surrounding object. The wearable device 100 may detect a surrounding object using the sensor 110 .

단계 530에서, 웨어러블 디바이스(100)는 주변 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 기준으로 객체가 이동하는 각도를 계산하여 방향을 획득할 수 있다.In operation 530, the wearable device 100 acquires a direction in which the surrounding object moves. The wearable device 100 may obtain a direction by calculating an angle at which an object moves based on the wearable device 100 .

단계 540에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 표시되는 제2 아이템을 결정할 수 있다. 웨어러블 디바이스(100)는 현재 표시되는 아이템 및 아이템들의 상대적인 위치에 따라 어느 아이템을 표시할 것인지를 결정한다.In operation 540, the wearable device 100 may determine the displayed second item according to the obtained direction. The wearable device 100 determines which item to display according to the currently displayed item and the relative positions of the items.

단계 550에서, 웨어러블 디바이스(100)는 결정된 제2 아이템을 디스플레이부에 표시한다.In operation 550, the wearable device 100 displays the determined second item on the display unit.

웨어러블 디바이스(100)는 아이템들의 배치에 따라 대응하는 영역들을 설정할 수 있고, 획득된 방향이 포함되는 영역을 결정하여 표시되는 아이템을 결정할 수도 있다.
The wearable device 100 may set corresponding areas according to the arrangement of the items, and may determine the displayed item by determining the area including the obtained direction.

도 6은 일 실시 예에 따른 웨어러블 디바이스가 각도에 대응하는 영역을 결정하여 이미지를 이동하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of moving an image by determining an area corresponding to an angle by a wearable device according to an exemplary embodiment.

step1에서, 웨어러블 디바이스(100)는 객체의 각도를 측정한다. 도 6의 경우, 객체가 이동한 각도가 80도인 경우를 예를 들어 도시하고 있다.In step 1 , the wearable device 100 measures the angle of the object. In the case of FIG. 6 , an example of a case in which an angle at which the object moves is 80 degrees is illustrated.

step2에서, 웨어러블 디바이스(100)는 측정된 각도와 대응하는 영역을 결정한다. 웨어러블 디바이스(100)는 각도에 따라 영역들을 설정하고, 측정된 각도를 포함하는 영역을 결정한다. 도 6의 경우, 각도 80도는 제2 영역에 대응된다. 따라서, 웨어러블 디바이스(100)는 제2 영역을 측정된 각도에 대응되는 영역으로 결정한다.In step 2 , the wearable device 100 determines an area corresponding to the measured angle. The wearable device 100 sets regions according to angles and determines regions including the measured angles. In the case of FIG. 6 , an angle of 80 degrees corresponds to the second area. Accordingly, the wearable device 100 determines the second area as an area corresponding to the measured angle.

step3에서, 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향으로 이미지를 이동한다. 도 6의 경우, 제2 영역에 대응하는 방향은 오른쪽이므로, 이미지가 오른쪽으로 이동한 경우를 도시하고 있다.In step 3 , the wearable device 100 moves the image in a direction corresponding to the determined area. In the case of FIG. 6 , since the direction corresponding to the second region is right, the image is moved to the right.

또 다른 실시 예에 따른 웨어러블 디바이스(100)는 검출된 객체의 이동과 동일하게 이미지를 이동할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 객체가 검출되면, 검출된 객체의 위치를 기준으로 객체의 이동 좌표를 계산하고, 계산된 이동 좌표만큼 이미지를 이동할 수 있다. 웨어러블 디바이스(100)는 화면의 중심을 기준점으로 계산된 이동 좌표로 이미지의 중심을 이동할 수 있다.The wearable device 100 according to another embodiment may move the image in the same manner as the movement of the detected object. For example, when an object is detected, the wearable device 100 may calculate movement coordinates of the object based on the detected position of the object and move the image by the calculated movement coordinates. The wearable device 100 may move the center of the image by moving coordinates calculated from the center of the screen as a reference point.

또 다른 예로, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체가 이동한 각도 및 거리를 측정하여 이미지를 이동할 수 있다. 다시 말해서, 웨어러블 디바이스(100)는 측정된 각도로 이미지를 이동하되, 측정된 거리만큼 또는 측정된 거리에 비례하여 이미지를 이동한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체를 검출하면, 검출된 위치를 기준점으로 하여 이미지를 이동할 수 있다.
As another example, the wearable device 100 may move an image by measuring an angle and a distance moved by a peripheral object of the wearable device 100 . In other words, the wearable device 100 moves the image at the measured angle, but moves the image by the measured distance or in proportion to the measured distance. When the wearable device 100 detects an object surrounding the wearable device 100 , the image may be moved using the detected position as a reference point.

도 7은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 7을 참조하면, 웨어러블 디바이스(100)는 주변 객체를 검출하여 객체가 움직인 방향에 따라 이미지를 이동할 수 있다.7 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 7 , the wearable device 100 may detect a surrounding object and move an image according to a direction in which the object moves.

단계 710에서, 웨어러블 디바이스(100)는 화면에 이미지를 표시한다. In operation 710, the wearable device 100 displays an image on the screen.

단계 720에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 센서(110)를 이용하여 주변 객체를 검출할 수 있다.In operation 720, the wearable device 100 detects a surrounding object. The wearable device 100 may detect a surrounding object using the sensor 110 .

단계 730에서, 웨어러블 디바이스(100)는 주변 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 기준으로 객체가 이동하는 각도를 계산한다.In operation 730, the wearable device 100 acquires a direction in which the surrounding object moves. The wearable device 100 calculates an angle at which the object moves with respect to the wearable device 100 .

단계 740에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 이미지의 이동 방향을 결정한다. In operation 740, the wearable device 100 determines the moving direction of the image according to the obtained direction.

단계 750에서, 웨어러블 디바이스(100)는 결정된 이동 방향에 따라 이미지를 이동한다. In operation 750, the wearable device 100 moves the image according to the determined moving direction.

웨어러블 디바이스(100)는 객체의 이동 거리를 획득하고, 획득된 이동 거리만큼 이미지를 이동할 수 있다.
The wearable device 100 may obtain the movement distance of the object and move the image by the obtained movement distance.

도 8은 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다. 도 8을 참조하면, 웨어러블 디바이스(100)는 센서(110), 디스플레이부(120), 메모리(130) 및 프로세서(140)를 포함한다.8 is a block diagram illustrating a wearable device according to an embodiment. Referring to FIG. 8 , the wearable device 100 includes a sensor 110 , a display unit 120 , a memory 130 , and a processor 140 .

센서(110)는 웨어러블 디바이스(100)의 주변 객체를 감지한다. 센서(110)는 일정 범위 내에 객체를 감지한다. 센서(110)는 객체가 감지되면 프로세서(140)로 객체가 감지되었음을 나타내는 신호를 출력한다. 또한, 센서(110)는 객체의 위치를 나타내는 정보도 함께 출력할 수 있다. 예를 들어, 센서(110)는 센서(110)를 원점으로 객체의 좌표를 측정하여 출력할 수도 있다.The sensor 110 detects an object surrounding the wearable device 100 . The sensor 110 detects an object within a predetermined range. When an object is detected, the sensor 110 outputs a signal indicating that the object is detected to the processor 140 . In addition, the sensor 110 may also output information indicating the location of the object. For example, the sensor 110 may measure and output the coordinates of the object with the sensor 110 as the origin.

센서(110)는 웨어러블 디바이스(100)의 주변 객체가 이동한 방향을 획득한다. 센서(110)는 객체가 이동을 시작하는 시작점의 좌표와 객체가 멈추는 끝점의 좌표를 계산하고, 센서와 시작점 및 끝점의 위치 관계를 이용하여 객체가 이동한 방향을 계산할 수 있다.The sensor 110 acquires a direction in which a surrounding object of the wearable device 100 moves. The sensor 110 may calculate the coordinates of the start point where the object starts moving and the coordinates of the end point where the object stops, and calculate the direction in which the object moves by using the positional relationship between the sensor and the start point and the end point.

센서(110)는 IR 센서, 초음파 센서 또는 EM wave 센서 등일 수 있다. IR 센서는 적외선을 방출하고 반사된 적외선이 감지되는 시간을 이용하여 객체와 IR 센서와의 거리를 측정할 수 있다. 초음파 센서는 초음파를 송신하고 객체에 반사된 초음파가 수신하는 시간을 이용하여 객체와 초음파 센서와의 거리를 측정할 수 있다. 또는, 초음파 센서는 송신한 초음파와 수신된 초음파의 위상(phase)의 변화를 측정하여 객체와 초음파 센서와의 거리를 측정할 수 있다. EM wave 센서는 송신한 전자기파와 수신된 전자기파의 위상(phase)의 변화를 측정하여 객체와 EM wave 센서와의 거리를 측정할 수 있다. 또는, EM wave 센서는 수신된 전자기파가 왜곡된 형태를 분석하여 객체와 EM wave 센서와의 거리를 측정할 수 있다.The sensor 110 may be an IR sensor, an ultrasonic sensor, or an EM wave sensor. The IR sensor emits infrared and can measure the distance between the object and the IR sensor using the time the reflected infrared is detected. The ultrasonic sensor may measure the distance between the object and the ultrasonic sensor using a time for transmitting ultrasonic waves and receiving ultrasonic waves reflected from the object. Alternatively, the ultrasonic sensor may measure the distance between the object and the ultrasonic sensor by measuring a change in phase between the transmitted ultrasonic wave and the received ultrasonic wave. The EM wave sensor may measure the distance between the object and the EM wave sensor by measuring a change in phase between the transmitted electromagnetic wave and the received electromagnetic wave. Alternatively, the EM wave sensor may measure the distance between the object and the EM wave sensor by analyzing a distorted shape of the received electromagnetic wave.

디스플레이부(120)는 프로세서(140)로부터 수신되는 이미지를 표시한다. 이미지는 사진, 아이템, 초기화면 등일 수 있다.The display unit 120 displays an image received from the processor 140 . The image may be a photo, an item, an initial screen, or the like.

디스플레이부(120)는 전체 화면에 표시된 복수의 아이템들 중 적어도 하나의 아이템에 포커스를 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 제1 아이템에 포커스를 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 제1 아이템에 표시된 포커스를 제2 아이템으로 이동할 수 있다.The display 120 displays focus on at least one item among a plurality of items displayed on the entire screen. The display 120 displays focus on the first item under the control of the processor 140 . The display 120 may move the focus displayed on the first item to the second item under the control of the processor 140 .

디스플레이부(120)는 표시된 아이템을 변경한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 전체 화면에 제1 아이템을 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 전체 화면에 제2 아이템을 표시한다.The display unit 120 changes the displayed item. The display unit 120 displays the first item on the entire screen under the control of the processor 140 . The display unit 120 displays the second item on the entire screen under the control of the processor 140 .

디스플레이부(120)는 표시된 이미지를 이동한다. 전체 이미지가 디스플레이부(120)에 표시되지 않는 경우, 디스플레이부(120)는 프로세서(140)의 제어에 따라 이미지의 일부를 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 이동된 이미지를 표시한다.The display unit 120 moves the displayed image. When the entire image is not displayed on the display unit 120 , the display unit 120 displays a part of the image under the control of the processor 140 . The display unit 120 displays the moved image under the control of the processor 140 .

메모리(130)는 데이터를 저장한다. 메모리(130)는 웨어러블 디바이스(100)를 동작하기 위한 데이터를 저장한다. 예를 들어, 메모리(130)는 프로그램, 이미지, 연산을 위한 데이터 등을 저장할 수 있다.The memory 130 stores data. The memory 130 stores data for operating the wearable device 100 . For example, the memory 130 may store a program, an image, data for operation, and the like.

프로세서(140)는 웨어러블 디바이스(100)의 동작을 제어한다. 프로세서(140)는 센서(110)로부터 수신된 데이터를 이용하여 디스플레이부(120)에 표시되는 이미지를 결정할 수 있다. 예를 들어, 프로세서(140)는 센서(110)로부터 객체의 이동에 관한 데이터를 수신하고, 디스플레이부(120)에 표시되는 포커스를 이동할 수 있다. 또한, 프로세서는 디스플레이부(120)에 표시되는 아이템을 변경할 수 있으며, 이미지를 이동할 수 있다.The processor 140 controls the operation of the wearable device 100 . The processor 140 may determine an image displayed on the display unit 120 by using the data received from the sensor 110 . For example, the processor 140 may receive data related to movement of an object from the sensor 110 , and may move a focus displayed on the display unit 120 . Also, the processor may change the item displayed on the display unit 120 and move the image.

프로세서(140)는 센서(110)로부터 수신되는 정보에 기초하여 객체가 이동하는 방향을 획득한다. 프로세서(140)는 객체가 이동을 시작하는 시작점의 좌표와 객체가 멈추는 끝점의 좌표를 계산하고, 웨어러블 디바이스(100)와 시작점 및 끝점의 위치 관계를 이용하여 방향을 획득할 수 있다.The processor 140 acquires the direction in which the object moves based on the information received from the sensor 110 . The processor 140 may calculate the coordinates of the starting point where the object starts moving and the coordinates of the endpoint where the object stops, and obtain the direction using the positional relationship between the wearable device 100 and the starting point and the ending point.

프로세서(140)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다. 프로세서(140)는 방향에 따른 영역을 설정하여 포커스의 이동 방향을 결정할 수 있다. 프로세서(140)는 웨어러블 디바이스(100)의 화면의 표시 상태에 따라 복수의 영역들을 설정한다. 프로세서(140)는 포커스가 이동 가능한 방향들에 대응하는 영역들을 적응적으로 설정한다. 프로세서(140)는 화면의 표시 상태에 따라 영역들을 다르게 설정할 수 있다. 프로세서(140)는 획득된 방향이 영역들 중에서 어느 영역에 포함되는지 결정한다. 프로세서(140)는 결정된 영역에 대응하는 이동 방향을 결정한다.The processor 140 determines the moving direction of the focus according to the obtained direction. The processor 140 may determine the moving direction of the focus by setting an area according to the direction. The processor 140 sets a plurality of regions according to the display state of the screen of the wearable device 100 . The processor 140 adaptively sets regions corresponding to directions in which the focus is movable. The processor 140 may set the regions differently according to the display state of the screen. The processor 140 determines which area among the areas includes the obtained direction. The processor 140 determines a movement direction corresponding to the determined area.

프로세서(140)는 결정된 이동 방향에 따라 표시되는 아이템을 변경할 수 있다. 프로세서(140)는 결정된 이동 방향에 따라 문자를 입력할 수 있다.The processor 140 may change the displayed item according to the determined moving direction. The processor 140 may input characters according to the determined moving direction.

프로세서(140)는 객체의 제스처가 감지된 경우, 제스처에 대응하는 동작을 수행한다. 예를 들어, 프로세서(140)는 일정 시간 내에 적어도 2회 이상의 객체의 이동 방향을 획득하는 경우, 프로세서(140)는 2회 이상의 객체들의 이동 패턴에 대응하는 동작을 실행할 수 있다.
When the gesture of the object is detected, the processor 140 performs an operation corresponding to the gesture. For example, when the processor 140 obtains the movement direction of the object at least two times within a predetermined time, the processor 140 may execute an operation corresponding to the movement pattern of the object two or more times.

도 9는 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다. 도 9를 참조하면, 웨어러블 디바이스(100)의 프로세서(140)는 방향 획득부(141), 이동 방향 결정부(142) 및 제어부(143)를 포함한다.9 is a block diagram illustrating a wearable device according to an embodiment. Referring to FIG. 9 , the processor 140 of the wearable device 100 includes a direction obtaining unit 141 , a moving direction determining unit 142 , and a control unit 143 .

방향 획득부(141)는 센서(110)로부터 수신되는 정보에 기초하여 객체가 이동하는 방향을 획득한다. 예를 들어, 방향 획득부(141)는 웨어러블 디바이스(100)의 제1 및 제2 센서들과 객체 사이의 거리를 각각 측정한다. 방향 획득부(141)는 제1 센서와 객체 사이의 거리, 제2 센서와 객체 사이의 거리 및 제1 센서와 제2 센서 사이의 거리를 이용하여 객체의 이동 방향을 획득할 수 있다. 또는, 방향 획득부(141)는 제1 센서와 객체 사이의 거리, 제2 센서와 객체 사이의 거리 및 제1 센서와 제2 센서 사이의 거리를 이용하여 객체의 좌표를 계산할 수 있다. 좌표를 계산할 때, 웨어러블 디바이스(100)의 중심이 원점이 될 수 있다.The direction obtaining unit 141 obtains a direction in which the object moves based on information received from the sensor 110 . For example, the direction obtaining unit 141 measures a distance between the first and second sensors of the wearable device 100 and the object, respectively. The direction obtaining unit 141 may obtain the moving direction of the object by using the distance between the first sensor and the object, the distance between the second sensor and the object, and the distance between the first sensor and the second sensor. Alternatively, the direction obtainer 141 may calculate the coordinates of the object using the distance between the first sensor and the object, the distance between the second sensor and the object, and the distance between the first sensor and the second sensor. When calculating the coordinates, the center of the wearable device 100 may be the origin.

방향 획득부(141)는 객체가 이동을 시작하는 시작점의 좌표와 객체가 멈추는 끝점의 좌표를 계산하고, 웨어러블 디바이스(100)와 시작점 및 끝점의 위치 관계를 이용하여 객체가 움직인 방향을 획득할 수 있다.The direction obtaining unit 141 calculates the coordinates of the starting point where the object starts moving and the coordinates of the end point where the object stops, and uses the positional relationship between the wearable device 100 and the starting point and the ending point to obtain the direction in which the object moves. can

이동 방향 결정부(142)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다. 이동 방향 결정부(142)는 방향에 따른 영역을 설정하여 포커스의 이동 방향을 결정할 수 있다.The movement direction determiner 142 determines the movement direction of the focus according to the obtained direction. The movement direction determiner 142 may determine the movement direction of the focus by setting an area according to the direction.

이동 방향 결정부(142)는 웨어러블 디바이스(100)의 화면의 표시 상태에 따라 복수의 영역들을 설정한다. 이동 방향 결정부(142)는 포커스가 이동 가능한 방향들에 대응하는 영역들을 적응적으로 설정한다. 이동 방향 결정부(142)는 화면의 표시 상태에 따라 영역들을 다르게 설정할 수 있다.The movement direction determiner 142 sets a plurality of regions according to the display state of the screen of the wearable device 100 . The movement direction determiner 142 adaptively sets regions corresponding to directions in which the focus can be moved. The movement direction determiner 142 may set the regions differently according to the display state of the screen.

이동 방향 결정부(142)는 획득된 방향이 영역들 중에서 어느 영역에 포함되는지 결정한다. 이동 방향 결정부(142)는 결정된 영역에 대응하는 이동 방향을 결정한다.The movement direction determining unit 142 determines which area from among the areas the obtained direction is included. The movement direction determining unit 142 determines a movement direction corresponding to the determined area.

제어부(143)는 결정된 이동 방향에 따라 포커스를 제2 아이템으로 이동한다. 이동 방향 결정부(142)는 포커스가 이동할 수 없는 방향에 대응하는 중립 영역을 설정할 수 있고, 제어부(143)는 객체의 이동 방향이 중립 영역에 포함되는 경우에는 포커스를 이동하지 않고, 사용자에게 피드백을 제공한다.The controller 143 moves the focus to the second item according to the determined moving direction. The movement direction determiner 142 may set a neutral region corresponding to a direction in which the focus cannot move, and when the movement direction of the object is included in the neutral region, the controller 143 does not move the focus and provides feedback to the user. provides

객체의 이동 방향이 중립 영역에 포함되는 경우, 이동 방향 결정부(142)는 이전에 저장된 객체의 이동 방향에 관한 히스토리에 기초하여 포커스의 이동 방향을 결정할 수 있다. 다시 말해서, 이동 방향 결정부(142)는 학습을 통해서, 중립 영역을 다른 영역에 포함시킬 수 있다. When the moving direction of the object is included in the neutral region, the moving direction determiner 142 may determine the moving direction of the focus based on a previously stored history of the moving direction of the object. In other words, the movement direction determiner 142 may include the neutral region in another region through learning.

예를 들어, 객체의 이동 방향이 중립 영역에 대응하고, 바로 이어진 객체의 이동 방향이 중립 영역에 인접한 제1 영역에 대응하는 방향인 경우, 이동 방향 결정부(142)는 중립 영역을 제1 영역에 포함시킬 수 있다. 따라서, 이후에 측정되는 객체의 이동 방향이 중립 영역에 포함되면, 이동 방향 결정부(142)는 객체의 이동 방향을 제1 영역에 대응하는 이동 방향으로 결정한다.For example, when the moving direction of the object corresponds to the neutral region and the moving direction of the immediately following object corresponds to the first region adjacent to the neutral region, the moving direction determining unit 142 sets the neutral region to the first region. can be included in Accordingly, when the moving direction of the object measured later is included in the neutral region, the moving direction determining unit 142 determines the moving direction of the object as the moving direction corresponding to the first region.

상술한 학습 방법은 일 예일 뿐이며, 이동 방향 결정부(142)는 다양한 기준으로 학습을 수행할 수 있으며, 학습 방법에 따라 객체의 이동 방향이 중립 영역에 포함되는 경우 객체의 이동 방향이 다르게 결정될 수 있다.The above-described learning method is only an example, and the movement direction determining unit 142 may perform learning based on various criteria, and according to the learning method, when the movement direction of the object is included in the neutral region, the movement direction of the object may be determined differently. there is.

객체의 이동 방향이 중립 영역에 포함되는 경우, 제어부(143)는 사용자에게 피드백을 제공할 수 있다. 예를 들어, 제어부(143)는 진동 장치를 구동하거나, 디스플레이부(120)에 표시된 이미지를 일부 변형할 수 있다.When the moving direction of the object is included in the neutral region, the controller 143 may provide feedback to the user. For example, the controller 143 may drive a vibration device or partially transform an image displayed on the display unit 120 .

제어부(143)는 결정된 이동 방향에 따라 표시되는 아이템을 변경할 수 있다. The controller 143 may change the displayed item according to the determined moving direction.

제어부(143)는 결정된 이동 방향에 따라 문자를 입력할 수 있다.The controller 143 may input a character according to the determined moving direction.

제어부(143)는 객체의 제스처가 감지된 경우, 제스처에 대응하는 동작을 수행한다. 예를 들어, 방향 획득부(141)가 일정 시간 내에 적어도 2회 이상의 객체의 이동 방향을 획득하는 경우, 제어부(143)는 2회 이상의 객체들의 이동 패턴에 대응하는 동작을 실행할 수 있다.When the gesture of the object is detected, the controller 143 performs an operation corresponding to the gesture. For example, when the direction obtaining unit 141 obtains the movement direction of the object at least two times within a predetermined time, the controller 143 may execute an operation corresponding to the movement pattern of the object two or more times.

방향 획득부(141), 이동 방향 결정부(142) 및 제어부(143)은 프로세서(140) 내에 구현된 소프트웨어 모듈일 수 있다. 또한, 프로세서(140)는 방향 획득부(141), 이동 방향 결정부(142) 및 제어부(143) 등이 수행하는 모든 기능을 처리할 수 있는 하드웨어 모듈로 구현될 수 있다.
The direction obtaining unit 141 , the moving direction determining unit 142 , and the control unit 143 may be software modules implemented in the processor 140 . In addition, the processor 140 may be implemented as a hardware module capable of processing all functions performed by the direction obtaining unit 141 , the moving direction determining unit 142 , and the control unit 143 .

도 10은 일 실시 예에 따른 웨어러블 디바이스가 객체의 이동 각도를 측정하는 방법을 설명하기 위한 도면이다. 도 10을 참조하면, 웨어러블 디바이스(100)는 2개의 센서들(111, 112)을 이용하여 객체의 이동 각도를 측정한다.10 is a diagram for describing a method for a wearable device to measure a movement angle of an object according to an exemplary embodiment. Referring to FIG. 10 , the wearable device 100 measures a movement angle of an object using two sensors 111 and 112 .

웨어러블 디바이스(100)는 객체가 시작점(1010)부터 끝점(1020)까지 이동했을 때, 객체와 웨어러블 디바이스(100) 사이의 각도를 측정한다. 제1 센서(111)는 제1 센서(111)와 객체의 시작점(1010) 및 끝점(1020) 사이의 거리를 측정하고, 제2 센서(112)는 제2 센서(112)와 객체의 시작점(1010) 및 끝점(1020) 사이의 거리를 측정한다.When the object moves from the start point 1010 to the end point 1020 , the wearable device 100 measures an angle between the object and the wearable device 100 . The first sensor 111 measures the distance between the first sensor 111 and the starting point 1010 and the ending point 1020 of the object, and the second sensor 112 is the second sensor 112 and the starting point of the object ( 1010) and the distance between the endpoint 1020 is measured.

웨어러블 디바이스(100)는 제1 센서(111)와 시작점(1010) 사이의 거리 및 제2 센서(111)와 시작점(1010) 사이의 거리를 이용하여 시작점(1010)의 좌표를 계산할 수 있다. 웨어러블 디바이스(100)는 제2 센서(110)와 끝점(1020) 사이의 거리 및 제1 센서(110)와 끝점(1020) 사이의 거리를 이용하여 끝점(1020)의 좌표를 계산할 수 있다. 웨어러블 디바이스(100)는 도 10과 같이 웨어러블 디바이스(100)의 중심을 원점으로 좌표축을 설정할 수 있다.The wearable device 100 may calculate the coordinates of the starting point 1010 using the distance between the first sensor 111 and the starting point 1010 and the distance between the second sensor 111 and the starting point 1010 . The wearable device 100 may calculate the coordinates of the endpoint 1020 using the distance between the second sensor 110 and the endpoint 1020 and the distance between the first sensor 110 and the endpoint 1020 . The wearable device 100 may set a coordinate axis with the center of the wearable device 100 as an origin as shown in FIG. 10 .

웨어러블 디바이스(100)는 시작점(1010)의 좌표 및 끝점(1020)의 좌표를 이용하여 벡터를 구하고, 벡터의 시작점(1010)이 원점에 위치하도록 벡터를 평행 이동한다. 웨어러블 디바이스(100)는 좌표축을 기준으로 벡터와 좌표축이 이루는 각도를 계산한다.
The wearable device 100 obtains a vector using the coordinates of the start point 1010 and the coordinates of the end point 1020 , and moves the vector in parallel so that the start point 1010 of the vector is located at the origin. The wearable device 100 calculates an angle between the vector and the coordinate axis with respect to the coordinate axis.

도 11 내지 도 18은 일 실시 예에 따른 웨어러블 디바이스(100)가 포커스의 위치에 대응하는 영역을 설정하는 방법을 설명하기 위한 도면이다. 도 11은 포커스가 왼쪽 아래의 아이템(Messenger)에 표시된 경우, 웨어러블 디바이스(100)가 대응 영역을 설정하는 방법을 나타낸다. 11 to 18 are diagrams for explaining a method of setting, by the wearable device 100, an area corresponding to a focus position, according to an exemplary embodiment. 11 illustrates a method in which the wearable device 100 sets a corresponding area when the focus is displayed on an item (Messenger) at the lower left.

포커스가 왼쪽 아래의 아이템(Messenger)에 표시되고 있으므로, 포커스는 오른쪽이나 위쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제3 영역들을 설정한다. 제1 영역은 아이템(Media controller)에 대응하고, 제2 영역은 아이템(Call)에 대응하고, 제3 영역은 아이템(E-mail)에 대응한다.Since the focus is being displayed on the lower left item (Messenger), the focus can be moved to the right or up. Accordingly, the wearable device 100 sets the first to third regions based on the direction in which the focus can be moved. The first area corresponds to the item (Media controller), the second area corresponds to the item (Call), and the third area corresponds to the item (E-mail).

포커스가 왼쪽 아래의 아이템(Messenger)에 표시되고 있으므로, 포커스는 왼쪽이나 아래쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 위치에 기초하여 중립 영역을 설정한다. 예를 들어, 웨어러블 디바이스(100)는 135도부터 315도까지의 각도의 범위를 중립 영역으로 설정할 수 있다.Since the focus is being displayed on the lower left item (Messenger), the focus cannot be moved left or down. Accordingly, the wearable device 100 sets a neutral region based on a position to which the focus cannot be moved. For example, the wearable device 100 may set an angle range from 135 degrees to 315 degrees as a neutral region.

도 11의 경우, 제1 영역은 315도에서 30도 사이의 범위를 나타내고, 제2 영역은 30도에서 60도 사이의 범위를 나타낸다. 제3 영역은 60도에서 135도 사이의 범위를 나타내고, 중립 영역은 135도에서 315도 사이의 범위를 나타낸다.
In the case of FIG. 11 , the first area represents a range between 315 degrees and 30 degrees, and the second area represents a range between 30 degrees and 60 degrees. The third region represents a range between 60 and 135 degrees, and the neutral region represents a range between 135 and 315 degrees.

도 12는 포커스가 왼쪽 위의 아이템(Media controller)에 표시된 경우, 웨어러블 디바이스가 대응 영역을 설정하는 방법을 나타낸다. 12 illustrates a method in which the wearable device sets a corresponding area when a focus is displayed on an upper left item (Media controller).

포커스가 왼쪽 아래의 아이템(Media controller)에 표시되고 있으므로, 포커스는 오른쪽이나 아래쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제3 영역들을 설정한다. 제1 영역은 아이템(Call)에 대응하고, 제2 영역은 아이템(E-mail)에 대응하고, 제3 영역은 아이템(Messenger)에 대응한다.Since focus is being displayed on the lower left item (Media controller), the focus can be moved to the right or down. Accordingly, the wearable device 100 sets the first to third regions based on the direction in which the focus can be moved. The first area corresponds to the item (Call), the second area corresponds to the item (E-mail), and the third area corresponds to the item (Messenger).

포커스가 왼쪽 위의 아이템(Media controller)에 표시되고 있으므로, 포커스는 왼쪽이나 위쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역을 설정한다.Since focus is being displayed on the upper left item (Media controller), the focus cannot be moved left or up. Accordingly, the wearable device 100 sets the neutral region based on the direction in which the focus cannot be moved.

도 12의 경우, 제1 영역은 45도에서 120도 사이의 범위를 나타내고, 제2 영역은 120도에서 150도 사이의 범위를 나타낸다. 제3 영역은 150도에서 225도 사이의 범위를 나타내고, 중립 영역은 225도에서 45도 사이의 범위를 나타낸다.
In the case of FIG. 12 , the first area represents a range between 45 degrees and 120 degrees, and the second area represents a range between 120 degrees and 150 degrees. The third region represents a range from 150 degrees to 225 degrees, and the neutral zone represents a range from 225 degrees to 45 degrees.

도 13은 포커스가 위쪽 중앙의 아이템(Call)에 표시된 경우, 웨어러블 디바이스가 대응 영역을 설정하는 방법을 나타낸다. 13 illustrates a method in which the wearable device sets a corresponding area when a focus is displayed on an item (Call) in the upper center.

포커스가 위쪽 중앙 아이템(Call)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽 및 아래쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제5 영역들을 설정한다. 제1 영역은 아이템(Application)에 대응하고, 제2 영역은 아이템(Gallery)에 대응하고, 제3 영역은 아이템(E-mail)에 대응하고, 제4 영역은 아이템(Messenger)에 대응하고, 제5 영역은 아이템(Media controller)에 대응한다.Since the focus is displayed on the upper central item (Call), the focus can move in right, left, and down directions. Accordingly, the wearable device 100 sets the first to fifth regions based on the direction in which the focus can be moved. The first area corresponds to the item (Application), the second area corresponds to the item (Gallery), the third area corresponds to the item (E-mail), and the fourth area corresponds to the item (Messenger), The fifth area corresponds to an item (Media controller).

포커스가 위쪽 중앙의 아이템(Call)에 표시되고 있으므로, 포커스는 위쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역을 설정한다. Since the focus is displayed on the item (Call) in the upper center, the focus cannot move upward. Accordingly, the wearable device 100 sets the neutral region based on the direction in which the focus cannot be moved.

도 13의 경우, 제1 영역은 45도에서 105도 사이의 범위를 나타내고, 제2 영역은 105도에서 160도 사이의 범위를 나타낸다. 제3 영역은 160도에서 210도 사이의 범위를 나타내고, 제4 영역은 210도에서 255도 사이의 범위를 나타낸다. 제5 영역은 225도에서 315도 사이의 범위를 나타내고, 중립 영역은 315도에서 45도 사이의 범위를 나타낸다.
In the case of FIG. 13 , the first area represents a range between 45 degrees and 105 degrees, and the second area represents a range between 105 degrees and 160 degrees. The third area represents a range between 160 and 210 degrees, and the fourth area represents a range between 210 and 255 degrees. The fifth region represents a range between 225 degrees and 315 degrees, and the neutral zone represents a range between 315 degrees and 45 degrees.

도 14는 포커스가 아래쪽 중앙의 아이템(E-mail)에 표시된 경우, 웨어러블 디바이스(100)가 대응 영역을 설정하는 방법을 나타낸다. 14 illustrates a method in which the wearable device 100 sets a corresponding area when a focus is displayed on an item (E-mail) in the lower center.

포커스가 아래쪽 중앙 아이템(E-mail)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽 및 위쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제5 영역들을 설정한다. 제1 영역은 아이템(Application)에 대응하고, 제2 영역은 아이템(Gallery)에 대응하고, 제3 영역은 아이템(Messenger)에 대응하고, 제4 영역은 아이템(Media controller)에 대응하고, 제5 영역은 아이템(Call)에 대응한다.Since the focus is being displayed on the lower central item (E-mail), the focus can be moved in right, left and up directions. Accordingly, the wearable device 100 sets the first to fifth regions based on the direction in which the focus can be moved. The first area corresponds to the item (Application), the second area corresponds to the item (Gallery), the third area corresponds to the item (Messenger), the fourth area corresponds to the item (Media controller), and the second area corresponds to the item (Media controller). Area 5 corresponds to an item (Call).

포커스가 아래쪽 중앙의 아이템(E-mail)에 표시되고 있으므로, 포커스는 아래쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역을 설정한다.Since the focus is being displayed on the item (E-mail) in the lower center, the focus cannot be moved in the downward direction. Accordingly, the wearable device 100 sets the neutral region based on the direction in which the focus cannot be moved.

도 14의 경우, 제1 영역은 40도에서 75도 사이의 범위를 나타내고, 제2 영역은 75도에서 135도 사이의 범위를 나타낸다. 제3 영역은 255도에서 285도 사이의 범위를 나타내고, 제4 영역은 285도에서 330도 사이의 범위를 나타낸다. 제5 영역은 330도에서 30도 사이의 범위를 나타내고, 중립 영역은 135도에서 225도 사이의 범위를 나타낸다.
In the case of FIG. 14 , the first area represents a range between 40 degrees and 75 degrees, and the second area represents a range between 75 degrees and 135 degrees. The third area represents a range between 255 degrees and 285 degrees, and the fourth area represents a range between 285 degrees and 330 degrees. The fifth region represents a range between 330 degrees and 30 degrees, and the neutral zone represents a range between 135 degrees and 225 degrees.

도 15는 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 십자가 모양으로 배치된 경우, 웨어러블 디바이스(100)가 대응 영역을 설정하는 방법을 나타낸다. 15 illustrates a method in which the wearable device 100 sets a corresponding area when a focus is displayed on a central item (E-mail) and the items are arranged in a cross shape.

포커스가 중앙 아이템(E-mail)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽, 위쪽 및 아래쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제4 영역들을 설정한다. 제1 영역은 아이템(Call)에 대응하고, 제2 영역은 아이템(Gallery)에 대응하고, 제3 영역은 아이템(Media controller)에 대응하고, 제4 영역은 아이템(Messenger)에 대응한다.Since the focus is displayed on the central item (E-mail), the focus can move in right, left, up and down directions. Accordingly, the wearable device 100 sets the first to fourth regions based on the direction in which the focus can be moved. The first area corresponds to the item (Call), the second area corresponds to the item (Gallery), the third area corresponds to the item (Media controller), and the fourth area corresponds to the item (Messenger).

도 15의 경우, 제1 영역은 315도에서 45도 사이의 범위를 나타내고, 제2 영역은 45도에서 135도 사이의 범위를 나타낸다. 제3 영역은 135도에서 225도 사이의 범위를 나타내고, 제4 영역은 225도에서 315도 사이의 범위를 나타낸다.
In the case of FIG. 15 , the first area represents a range between 315 degrees and 45 degrees, and the second area represents a range between 45 degrees and 135 degrees. The third region represents a range between 135 degrees and 225 degrees, and the fourth region represents a range between 225 and 315 degrees.

도 16은 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 십자가 모양으로 배치된 경우, 웨어러블 디바이스가 중립 영역을 설정하는 방법을 나타낸다. 16 illustrates a method in which the wearable device sets a neutral region when a focus is displayed on a central item (E-mail) and the items are arranged in a cross shape.

포커스가 중앙 아이템(E-mail)에 표시되고 있고, 대각선 방향에는 아이템이 없으므로, 포커스는 대각선 방향으로는 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역들을 설정한다. Since the focus is displayed on the central item (E-mail) and there are no items in the diagonal direction, the focus cannot be moved in the diagonal direction. Accordingly, the wearable device 100 sets neutral regions based on a direction in which the focus cannot be moved.

도 16의 경우, 제1 영역 내지 4 영역 사이에 중립 영역들이 설정된 예를 나타낸다.
16 shows an example in which neutral regions are set between the first to fourth regions.

도 17은 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 3x3 모양으로 배치된 경우, 웨어러블 디바이스가 대응 영역을 설정하는 방법을 나타낸다.17 illustrates a method in which the wearable device sets a corresponding area when a focus is displayed on a central item (E-mail) and the items are arranged in a 3x3 shape.

포커스가 중앙 아이템(E-mail)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽, 위쪽, 아래쪽 및 대각선 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제8 영역들을 설정한다. Since the focus is displayed on the central item (E-mail), the focus can move in right, left, up, down, and diagonal directions. Accordingly, the wearable device 100 sets the first to eighth areas based on the direction in which the focus can be moved.

도 17의 경우, 제1 영역은 337.5도에서 22.5도 사이의 범위를 나타내고, 제2 영역은 22.5도에서 67.5도 사이의 범위를 나타낸다. 제3 영역은 67.5도에서 112.5도 사이의 범위를 나타내고, 제4 영역은 112.5도에서 157.5도 사이의 범위를 나타낸다. 제5 영역은 157.5도에서 202.5도 사이의 범위를 나타내고, 제6 영역은 202.5도에서 247.5도 사이의 범위를 나타낸다. 제7 영역은 247.5도에서 292.5도 사이의 범위를 나타내고, 제8 영역은 292.5도에서 337.5도 사이의 범위를 나타낸다.
In the case of FIG. 17 , the first area represents a range between 337.5 degrees and 22.5 degrees, and the second area represents a range between 22.5 degrees and 67.5 degrees. The third region represents a range between 67.5 degrees and 112.5 degrees, and the fourth zone represents a range between 112.5 degrees and 157.5 degrees. The fifth region represents a range from 157.5 degrees to 202.5 degrees, and the sixth zone represents a range from 202.5 degrees to 247.5 degrees. The seventh region represents a range between 247.5 and 292.5 degrees, and the eighth region represents a range between 292.5 and 337.5 degrees.

도 18은 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 3x3 모양으로 배치된 경우, 웨어러블 디바이스가 중립 영역을 설정하는 방법을 나타낸다. 18 illustrates a method in which the wearable device sets a neutral region when a focus is displayed on a central item (E-mail) and the items are arranged in a 3x3 shape.

도 18의 경우, 제1 영역 내지 8 영역 사이에 중립 영역들이 설정된 예를 나타낸다.
18 shows an example in which neutral regions are set between the first to eighth regions.

도 19는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다. 도 19를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향이 중립 영역에 포함되는 경우 사용자에게 피드백을 제공할 수 있다.19 is a diagram for explaining a method of operating a wearable device according to an embodiment. Referring to FIG. 19 , the wearable device 100 may provide feedback to the user when the moving direction of the object is included in the neutral region.

단계 1910에서, 웨어러블 디바이스(100)는 웨어러블 디바이스(100) 화면상의 제1 메뉴 아이템에 포커스를 표시한다.In operation 1910 , the wearable device 100 displays focus on the first menu item on the screen of the wearable device 100 .

단계 1920에서, 웨어러블 디바이스(100)는 웨어러블 디바이스 주변 객체를 검출한다.In operation 1920, the wearable device 100 detects an object surrounding the wearable device.

단계 1930에서, 웨어러블 디바이스(100)는 객체가 이동하는 방향을 획득한다.In operation 1930, the wearable device 100 acquires a direction in which the object moves.

단계 1940에서, 웨어러블 디바이스(100)는 웨어러블 디바이스의 화면의 표시 상태에 따라 복수의 영역들을 설정한다. 웨어러블 디바이스(100)는 아이템의 배열 또는 포커스가 표시된 위치에 기초하여 복수의 영역들을 설정할 수 있다.In operation 1940, the wearable device 100 sets a plurality of regions according to the display state of the screen of the wearable device. The wearable device 100 may set a plurality of regions based on an arrangement of items or a position where a focus is displayed.

단계 1950에서, 웨어러블 디바이스(100)는 획득된 방향이 복수의 영역들 중에서 어느 영역에 포함되는지 결정한다.In operation 1950 , the wearable device 100 determines which area from among a plurality of areas the obtained direction is included.

단계 1960에서, 웨어러블 디바이스(100)는 획득된 방향이 중립 영역에 포함되는지 판단한다. 만약, 획득된 방향이 중립 영역에 포함되면, 단계 1990으로 진행하고, 그렇지 않으면 단계 1970로 진행한다.In operation 1960, the wearable device 100 determines whether the obtained direction is included in the neutral region. If the obtained direction is included in the neutral region, the process proceeds to step 1990; otherwise, the process proceeds to step 1970.

단계 1970에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다.In operation 1970, the wearable device 100 determines a movement direction of the focus according to the obtained direction.

단계 1980에서, 웨어러블 디바이스(100)는 결정된 이동 방향에 따라 포커스를 제2 메뉴 아이템으로 이동한다.In operation 1980, the wearable device 100 moves the focus to the second menu item according to the determined moving direction.

단계 1990에서, 웨어러블 디바이스(100)는 사용자에게 피드백을 제공한다. 웨어러블 디바이스(100)는 진동 장치를 구동하거나, 디스플레이부(120)에 표시된 이미지를 일부 변형하여 사용자에게 피드백을 제공할 수 있다.
In operation 1990, the wearable device 100 provides feedback to the user. The wearable device 100 may provide feedback to the user by driving a vibration device or partially transforming an image displayed on the display unit 120 .

도 20 내지 도 26은 일 실시 예에 따른 웨어러블 디바이스가 사용자의 입력에 따라 포커스를 이동하는 예를 설명하기 위한 도면이다.20 to 26 are diagrams for explaining an example in which the wearable device moves a focus according to a user input, according to an exemplary embodiment.

도 20은 일 실시 예에 따른 웨어러블 디바이스(100)가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 20을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.20 is a diagram for explaining an example in which the focus is moved by the wearable device 100 according to an exemplary embodiment. Referring to FIG. 20 , the wearable device 100 moves the focus according to the moving direction of the object.

도 20의 경우, 객체가 이동한 각도가 15도이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Messenger)에서 아이템(Media controller)로 이동한다.
In the case of FIG. 20 , the moving angle of the object is 15 degrees, and the wearable device 100 moves the focus 10 from the item (Messenger) to the item (Media controller).

도 21은 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 21을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.21 is a diagram for describing an example in which a focus of a wearable device is moved, according to an exemplary embodiment. Referring to FIG. 21 , the wearable device 100 moves the focus according to the moving direction of the object.

도 21의 경우, 객체가 이동한 각도가 40이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Messenger)에서 아이템(Call)로 이동한다.
In the case of FIG. 21 , the moving angle of the object is 40, and the wearable device 100 moves the focus 10 from the item (Messenger) to the item (Call).

도 22는 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 22를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.22 is a diagram for describing an example in which a focus of a wearable device is moved according to an exemplary embodiment. Referring to FIG. 22 , the wearable device 100 moves the focus according to the moving direction of the object.

도 22의 경우, 객체가 이동한 각도가 80이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Call)에서 아이템(Application)으로 이동한다.
In the case of FIG. 22 , the moving angle of the object is 80, and the wearable device 100 moves the focus 10 from the item (Call) to the item (Application).

도 23은 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 23을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.23 is a diagram for explaining an example in which a focus is moved by a wearable device according to an exemplary embodiment. Referring to FIG. 23 , the wearable device 100 moves the focus according to the moving direction of the object.

도 23의 경우, 객체가 이동한 각도가 130이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Call)에서 아이템(Gallery)으로 이동한다.
In the case of FIG. 23 , the moving angle of the object is 130, and the wearable device 100 moves the focus 10 from the item (Call) to the item (Gallery).

도 24는 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 24를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.24 is a diagram for explaining an example in which a focus of a wearable device is moved according to an exemplary embodiment. Referring to FIG. 24 , the wearable device 100 moves the focus according to the moving direction of the object.

도 24의 경우, 객체가 이동한 각도가 170이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Application)에서 아이템(Gallery)으로 이동한다.
In the case of FIG. 24 , the moving angle of the object is 170, and the wearable device 100 moves the focus 10 from the item (Application) to the item (Gallery).

도 25는 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 25를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.25 is a diagram for describing an example in which a focus is moved by a wearable device according to an exemplary embodiment. Referring to FIG. 25 , the wearable device 100 moves the focus according to the moving direction of the object.

도 25의 경우, 객체가 이동한 각도가 220이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Application)에서 아이템(E-mail)으로 이동한다.
In the case of FIG. 25 , the moving angle of the object is 220, and the wearable device 100 moves the focus 10 from the item (Application) to the item (E-mail).

도 26은 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 26을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.26 is a diagram for describing an example in which a focus is moved by a wearable device according to an exemplary embodiment. Referring to FIG. 26 , the wearable device 100 moves the focus according to the moving direction of the object.

도 26의 경우, 객체가 이동한 각도가 260이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(E-mail)에서 아이템(Messenger)으로 이동한다.
In the case of FIG. 26 , the moving angle of the object is 260, and the wearable device 100 moves the focus 10 from the item (E-mail) to the item (Messenger).

도 27은 일 실시 예에 따른 웨어러블 디바이스가 객체의 제스처를 인식하여 화면을 전환하는 방법을 설명하기 위한 도면이다.27 is a diagram for explaining a method for a wearable device to change a screen by recognizing a gesture of an object, according to an embodiment.

단계 2710에서, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체를 검출한다. In operation 2710 , the wearable device 100 detects a surrounding object of the wearable device 100 .

단계 2720에서, 웨어러블 디바이스(100)는 객체의 제스처를 인식한다. 웨어러블 디바이스(100)는 객체가 움직이는 방향을 획득하고, 획득된 방향이 포함되는 영역을 결정한다. 웨어러블 디바이스(100)는 2회 이상의 객체의 움직임을 감지할 수 있으며, 이 경우, 웨어러블 디바이스(100)는 객체가 움직이는 방향을 2회 이상 측정한다. In operation 2720, the wearable device 100 recognizes the gesture of the object. The wearable device 100 obtains a direction in which the object moves, and determines an area including the obtained direction. The wearable device 100 may detect the movement of the object two or more times, and in this case, the wearable device 100 measures the direction in which the object moves two or more times.

단계 2730에서, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 화면의 표시 상태 및 인식된 제스처에 따라 화면을 전환한다. 웨어러블 디바이스(100)는 화면의 표시 상태와 제스처를 모두 고려하여 화면을 전환한다. 예를 들어, 웨어러블 디바이스(100)는 현재 표시되고 있는 아이템과 이전에 표시된 아이템을 기록하고, 인식되는 제스처에 따라 이전에 표시된 아이템을 표시할 수 있다.In operation 2730 , the wearable device 100 switches the screen according to the display state of the screen of the wearable device 100 and the recognized gesture. The wearable device 100 switches the screen in consideration of both the display state of the screen and the gesture. For example, the wearable device 100 may record a currently displayed item and a previously displayed item, and display the previously displayed item according to a recognized gesture.

설정된 시간 내에 객체가 2회 이상 다른 방향으로 이동하는 경우, 웨어러블 디바이스(100)는 2회 이상의 방향의 조합에 대응하는 동작을 수행한다. 웨어러블 디바이스(100)는 적어도 하나의 영역을 설정하고, 획득된 방향에 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 객체가 움직인 방향이 2회 이상 측정되면, 대응되는 영역들의 조합에 따라 화면을 전환한다. 예를 들어, 웨어러블 디바이스(100)는 이전 화면을 표시하거나 상위 폴더를 표시하거나 현재 실행된 프로그램을 취소하고 이전 화면이나 홈 화면을 표시할 수 있다.
When the object moves in different directions two or more times within a set time, the wearable device 100 performs an operation corresponding to a combination of two or more directions. The wearable device 100 sets at least one area and determines an area corresponding to the obtained direction. When the direction in which the object moves is measured two or more times, the wearable device 100 switches the screen according to a combination of corresponding regions. For example, the wearable device 100 may display a previous screen, display an upper folder, cancel a currently executed program, and display a previous screen or a home screen.

도 28은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 28을 참조하면, 웨어러블 디바이스(100)는 객체가 왼쪽, 오른쪽으로 움직이는 제스처를 인식하여 ‘뒤로 가기’ 기능을 실행한다. 28 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 28 , the wearable device 100 executes a 'go back' function by recognizing a gesture in which an object moves left and right.

도 28은 객체의 첫 번째 이동 방향이 제4 영역에 포함되고, 객체의 두 번째 이동 방향이 제2 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제4 영역과 제2 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 화면의 표시 순서를 참조하여 ‘뒤로 가기’ 기능을 실행할 수 있다.
28 illustrates a case in which the first moving direction of the object is included in the fourth area and the second moving direction of the object is included in the second area. The wearable device 100 executes a function corresponding to the combination of the fourth area and the second area. For example, the wearable device 100 may execute a 'go back' function with reference to the display order of the screen.

도 29는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 29를 참조하면, 웨어러블 디바이스(100)는 객체가 오른쪽, 왼쪽으로 움직이는 제스처를 인식하여 ‘앞으로 가기’ 기능을 실행한다. 29 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 29 , the wearable device 100 executes a 'go forward' function by recognizing a gesture of moving an object to the right and left.

도 29는 객체의 첫 번째 이동 방향이 제2 영역에 포함되고, 객체의 두 번째 이동 방향이 제4 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제2 영역과 제4 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 화면의 표시 순서를 참조하여 ‘앞으로 가기’ 기능을 실행할 수 있다.29 illustrates a case in which the first moving direction of the object is included in the second area and the second moving direction of the object is included in the fourth area. The wearable device 100 executes a function corresponding to the combination of the second area and the fourth area. For example, the wearable device 100 may execute a 'go forward' function with reference to the display order of the screen.

도 30은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 30을 참조하면, 웨어러블 디바이스(100)는 객체가 위, 아래로 움직이는 제스처를 인식하여 ‘상위 폴더로 이동’ 기능을 실행한다. 30 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 30 , the wearable device 100 recognizes a gesture in which an object moves up and down and executes a ‘move to a higher folder’ function.

도 30은 객체의 첫 번째 이동 방향이 제1 영역에 포함되고, 객체의 두 번째 이동 방향이 제3 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제1 영역과 제3 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 폴더들의 관계를 참조하여 ‘상위 폴더로 이동’ 기능을 실행할 수 있다.
30 illustrates a case in which the first moving direction of the object is included in the first area and the second moving direction of the object is included in the third area. The wearable device 100 executes a function corresponding to the combination of the first area and the third area. For example, the wearable device 100 may execute a 'move to a higher folder' function by referring to the relationship between folders.

도 31은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 31을 참조하면, 웨어러블 디바이스(100)는 객체가 아래, 위로 움직이는 제스처를 인식하여 ‘하위 폴더로 이동’ 기능을 실행한다. FIG. 31 is a diagram for explaining a method in which a wearable device operates by recognizing a gesture, according to an exemplary embodiment. Referring to FIG. 31 , the wearable device 100 executes a 'moving to a subfolder' function by recognizing a gesture of moving an object up and down.

도 31은 객체의 첫 번째 이동 방향이 제3 영역에 포함되고, 객체의 두 번째 이동 방향이 제1 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제3 영역과 제1 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 폴더들의 관계를 참조하여 ‘하위 폴더로 이동’ 기능을 실행할 수 있다.
31 illustrates a case in which the first moving direction of the object is included in the third area and the second moving direction of the object is included in the first area. The wearable device 100 executes a function corresponding to the combination of the third area and the first area. For example, the wearable device 100 may execute a 'move to a subfolder' function with reference to the relationship between folders.

도 32는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 32를 참조하면, 웨어러블 디바이스(100)는 객체가 오른쪽, 왼쪽, 오른쪽으로 움직이는 제스처를 인식하여 ‘홈 화면으로 이동 또는 취소’ 기능을 실행한다. 32 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 32 , the wearable device 100 recognizes a gesture of moving an object to the right, left, or right and executes a 'move to the home screen or cancel' function.

도 32는 객체의 첫 번째 이동 방향이 제2 영역에 포함되고, 객체의 두 번째 이동 방향이 제4 영역에 포함되고, 세 번째 는 경우를 도시한다. 웨어러블 디바이스(100)는 제1 영역과 제3 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 ‘홈 화면으로 이동 또는 취소’ 기능을 실행할 수 있다.
32 illustrates a case in which the first moving direction of the object is included in the second area, the second moving direction of the object is included in the fourth area, and the third is the case. The wearable device 100 executes a function corresponding to the combination of the first area and the third area. For example, the wearable device 100 may execute a 'move to the home screen or cancel' function.

도 33은 일 실시 예에 따른 웨어러블 디바이스가 문자를 입력하는 방법을 설명하기 위한 도면이다. 도 33을 참조하면, 웨어러블 디바이스(100)는 주변 객체의 방향을 획득하고, 획득된 방향에 대응되는 문자를 입력할 수 있다.33 is a diagram for describing a method of inputting text by a wearable device according to an exemplary embodiment. Referring to FIG. 33 , the wearable device 100 may obtain a direction of a surrounding object and input a character corresponding to the obtained direction.

웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체를 검출하고, 객체가 이동하는 방향을 획득한다.The wearable device 100 detects an object surrounding the wearable device 100 and obtains a direction in which the object moves.

웨어러블 디바이스(100)는 획득된 방향과 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 획득된 방향을 포함하는 영역이 어느 영역인지를 결정한다. 웨어러블 디바이스(100)는 문자 입력 시스템에 따라 영역의 수를 결정할 수 있다. 도 33의 경우, 웨어러블 디바이스(100)가 8개의 영역을 설정한 경우를 예를 들어 설명하고 있다.The wearable device 100 determines an area corresponding to the obtained direction. The wearable device 100 determines which area is the area including the obtained direction. The wearable device 100 may determine the number of regions according to the text input system. In the case of FIG. 33 , a case in which the wearable device 100 sets 8 areas is described as an example.

웨어러블 디바이스(100)는 결정된 영역에 대응하는 문자를 입력한다. 웨어러블 디바이스(100)는 설정된 영역들에 대응하는 문자들을 미리 지정한다. 예를 들어, 도 33에서는 제1 영역은 ㄱ, ㅋ 에 대응되고, 제2 영역은 ㄴ, ㄹ 에 대응된다. 제3 영역은 ㄷ, ㅌ 에 대응되고, 제4 영역은 ㅈ, ㅊ 에 대응된다. 제5 영역은 ㅅ, ㅎ 에 대응되고, 제6 영역은 ㅇ, ㅁ 에 대응된다. 제7 영역은 ㅂ, ㅍ 에 대응되고, 제8 영역은 특수문자에 대응된다.The wearable device 100 inputs a character corresponding to the determined area. The wearable device 100 designates characters corresponding to the set regions in advance. For example, in FIG. 33 , the first region corresponds to a and bla, and the second region corresponds to b and d. The third area corresponds to c and t, and the fourth area corresponds to i and c. The fifth area corresponds to ㅅ and ㅎ, and the sixth area corresponds to ㅇ and ㅁ. The seventh area corresponds to f and p, and the eighth area corresponds to special characters.

각 영역마다 2개 이상의 문자가 대응되는 경우, 웨어러블 디바이스(100)는 사용자의 동작을 추가로 감지하여 2개 이상의 문자들 중에서 어느 하나의 문자를 결정할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 사용자의 탭(Tab) 동작을 추가로 감지할 수 있다. 만약, 웨어러블 디바이스(100)가 객체의 이동 방향이 제1 영역에 해당한다고 판단하면, ㄱ 을 입력하지만, 사용자의 탭 동작이 추가로 감지되면 ㅋ 을 입력한다.
When two or more characters correspond to each area, the wearable device 100 may additionally detect a user's motion to determine any one of the two or more characters. For example, the wearable device 100 may additionally detect a user's tap operation. If the wearable device 100 determines that the moving direction of the object corresponds to the first area, it inputs a, but when a user's tap motion is additionally sensed, it inputs ㅋ.

도 34는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 34를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향을 획득하여 문자를 입력할 수 있다.34 is a flowchart illustrating a method of operating a wearable device according to an embodiment. Referring to FIG. 34 , the wearable device 100 may input a character by obtaining a moving direction of an object.

단계 3410에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 설정된 범위 내에 객체를 감지한다. In operation 3410, the wearable device 100 detects a surrounding object. The wearable device 100 detects an object within a set range.

단계 3420에서, 웨어러블 디바이스(100)는 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 객체가 이동하면, 객체의 이동 각도를 계산한다. 예를 들어, 웨어러블 디바이스(100)는 객체가 검출될 때 객체의 위치 및 객체가 이동을 멈추었을 때 객체의 위치를 이용하여 객체의 이동 각도를 계산할 수 있다.In operation 3420, the wearable device 100 acquires a direction in which the object moves. When the object moves, the wearable device 100 calculates a movement angle of the object. For example, the wearable device 100 may calculate the movement angle of the object by using the position of the object when the object is detected and the position of the object when the object stops moving.

단계 3430에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 문자를 결정한다. 웨어러블 디바이스(100)는 문자 입력 시스템마다 방향에 따른 영역들을 설정한다. 웨어러블 디바이스(100)는 획득된 방향이 설정된 영역들 중에서 어느 영역에 포함되는지 결정한다. 웨어러블 디바이스(100)는 각각의 영역마다 맵핑된 문자를 저장하고, 결정된 영역에 맵핑된 문자가 무엇인지 결정한다. In operation 3430, the wearable device 100 determines a character according to the obtained direction. The wearable device 100 sets regions according to directions for each text input system. The wearable device 100 determines which area is included among areas in which the obtained direction is set. The wearable device 100 stores the characters mapped to each region, and determines which characters are mapped to the determined region.

단계 3440에서, 웨어러블 디바이스(100)는 결정된 문자를 입력한다. 웨어러블 디바이스(100)는 결정된 문자를 디스플레이부(120)에 표시할 수 있다.
In operation 3440, the wearable device 100 inputs the determined character. The wearable device 100 may display the determined character on the display unit 120 .

도 35 내지 도 41은 일 실시 예에 따른 웨어러블 디바이스의 네비게이션 방법을 설명하기 위한 도면들이다. 도 35 내지 도 41을 참조하면, 웨어러블 디바이스(100)는 사용자의 제스처를 감지하여 제스처에 대응하는 동작을 수행할 수 있다.35 to 41 are diagrams for explaining a navigation method of a wearable device according to an embodiment. 35 to 41 , the wearable device 100 may detect a user's gesture and perform an operation corresponding to the gesture.

도 35의 경우, 웨어러블 디바이스(100)는 탭(tab) 동작을 감지하고, 현재 아이템을 선택 또는 실행한다. 디스플레이부(120)는 아이템들을 표시하고, 웨어러블 디바이스(100)는 탭 동작을 감지하면, 디스플레이부(120)에 현재 표시된 아이템을 선택한다. 35 , the wearable device 100 detects a tap operation and selects or executes a current item. The display unit 120 displays items, and when the wearable device 100 detects a tap operation, it selects an item currently displayed on the display unit 120 .

도 36의 경우, 웨어러블 디바이스(100)는 더블 탭 동작을 감지하고, 디스플레이부(120)에 옵션을 표시한다. 예를 들어, 웨어러블 디바이스(100)는 현재 표시 상태에 따라 수행 가능한 기능들을 디스플레이부(120)에 표시할 수 있다. 도 36에서, 웨어러블 디바이스(100)는 더블 탭 동작을 감지하고, ‘Select All’ 및 ‘Unselect All’을 디스플레이부(120)에 표시하는 경우를 도시하고 있다.In the case of FIG. 36 , the wearable device 100 detects a double tap operation and displays an option on the display unit 120 . For example, the wearable device 100 may display functions that can be performed according to a current display state on the display unit 120 . In FIG. 36 , the wearable device 100 detects a double tap operation and displays ‘Select All’ and ‘Unselect All’ on the display unit 120 .

도 37의 경우, 웨어러블 디바이스(100)는 슬라이드 동작을 감지하고, 디스플레이부(120)에 표시된 아이템들을 회전한다. 웨어러블 디바이스(100)는 손가락이 슬라이드 하는 방향에 따라 아이템의 회전 방향을 결정할 수 있다. 도 37에서, 웨어러블 디바이스(100)는 객체가 아래 방향으로 슬라이드 하는 동작을 감지하고, 디스플레이부(120)에 표시된 아이템들을 아래 방향으로 이동한다. 37 , the wearable device 100 detects a slide motion and rotates items displayed on the display unit 120 . The wearable device 100 may determine the rotation direction of the item according to the direction in which the finger slides. In FIG. 37 , the wearable device 100 detects an object sliding motion in a downward direction, and moves items displayed on the display unit 120 in a downward direction.

도 38의 경우, 웨어러블 디바이스(100)는 2개의 손가락이 슬라이드 하는 동작을 감지하고, 디스플레이부(120)에 표시된 아이템들을 회전한다. 웨어러블 디바이스(100)는 1개의 손가락이 슬라이드 하는 경우보다 2개의 손가락이 슬라이드 하는 경우, 아이템의 회전 속도를 빠르게 할 수 있다.38 , the wearable device 100 detects a sliding motion of two fingers, and rotates items displayed on the display unit 120 . The wearable device 100 may increase the rotation speed of the item when two fingers slide rather than when one finger slides.

도 39의 경우, 웨어러블 디바이스(100)는 손가락의 스윕(sweep) 동작을 감지하고, 홈 화면을 표시하거나 취소 기능을 실행한다. 웨어러블 디바이스(100)는 손가락이 좌우로 3회 이상 이동하는 경우 스윕 동작으로 판단한다. 홈 화면은 웨어러블 디바이스(100)의 초기 화면과 같은 기본 화면을 나타낸다. 취소 기능은 가장 최근에 실행된 기능을 취소하는 것을 나타낸다.39 , the wearable device 100 detects a sweep operation of a finger, and displays a home screen or executes a cancel function. The wearable device 100 determines a sweep operation when the finger moves left and right three or more times. The home screen represents a basic screen such as an initial screen of the wearable device 100 . The cancel function indicates to cancel the most recently executed function.

도 40의 경우, 웨어러블 디바이스(100)는 손가락이 왼쪽으로 이동하는 동작을 감지하고, 이전 화면으로 이동한다. 웨어러블 디바이스(100)는 현재 화면을 표시하기 전에 표시되었던 가장 최근의 화면을 표시한다.In the case of FIG. 40 , the wearable device 100 detects a movement of the finger to the left and moves to the previous screen. The wearable device 100 displays the most recent screen that was displayed before displaying the current screen.

도 41의 경우, 웨어러블 디바이스(100)는 손가락이 오른쪽으로 이동하는 동작을 감지하고, 다음 화면으로 이동한다.
In the case of FIG. 41 , the wearable device 100 detects a movement of the finger to the right, and moves to the next screen.

도 42 내지 도 43은 일 실시 예에 따른 웨어러블 디바이스가 손등 터치를 감지하여 문자를 입력하는 방법을 설명하기 위한 도면이다. 웨어러블 디바이스(100)의 디스플레이부(120)는 스마트 폰이나 태블릿 PC 등의 디스플레이부에 비해 더 작을 수 있다. 따라서, 사용자가 웨어러블 디바이스(100)의 디스플레이부(120)를 터치하여 문자를 입력하는 경우, 오타가 발생할 확률이 높다. 일 실시 예에 따른 웨어러블 디바이스(100)는 디스플레이부(120)에 비해 상대적으로 넓은 영역을 사용자의 손등에 설정함으로써, 사용자가 입력하고자 하는 문자를 정확히 식별할 수 있다. 42 to 43 are diagrams for explaining a method in which a wearable device inputs a character by detecting a touch on the back of a hand, according to an embodiment. The display unit 120 of the wearable device 100 may be smaller than a display unit such as a smart phone or a tablet PC. Accordingly, when a user inputs a character by touching the display unit 120 of the wearable device 100 , there is a high probability that an error will occur. The wearable device 100 according to an embodiment sets a relatively wide area on the back of the user's hand compared to the display unit 120 to accurately identify a character that the user wants to input.

도 42를 참조하면, 웨어러블 디바이스(100)는 사용자의 손등을 복수의 영역으로 구분한다. 도 42의 경우, 웨어러블 디바이스(100)는 손등을 12개의 영역으로 구분하는 경우를 예를 들어 설명하고 있다.Referring to FIG. 42 , the wearable device 100 divides the back of the user's hand into a plurality of regions. In the case of FIG. 42 , the case in which the wearable device 100 divides the back of the hand into 12 regions is described as an example.

웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 착용하고 있는 사용자의 손등의 범위를 설정한다. The wearable device 100 sets the range of the back of the user's hand wearing the wearable device 100 .

웨어러블 디바이스(100)는 사용자가 복수의 영역들 중 어느 영역을 터치하는지를 결정한다. 웨어러블 디바이스(100)는 측면에 구비된 센서를 통해 사용자가 손등의 어느 부분을 터치하는지를 감지한다. 다시 말해서, 웨어러블 디바이스(100)는 사용자의 손가락이 감지된 위치를 판단한다. 예를 들어, 웨어러블 디바이스(100)는 2개의 센서와 손가락의 거리를 측정하고, 측정된 거리를 이용하여 손가락이 감지된 위치를 계산할 수 있다.The wearable device 100 determines which area among a plurality of areas the user touches. The wearable device 100 detects which part of the back of the user's hand the user touches through a sensor provided on the side. In other words, the wearable device 100 determines a position where the user's finger is sensed. For example, the wearable device 100 may measure a distance between two sensors and a finger, and calculate a position where a finger is sensed using the measured distance.

웨어러블 디바이스(100)는 사용자가 터치한 영역에 대응되는 문자를 결정한다. 웨어러블 디바이스(100)는 설정된 영역과 문자를 맵핑한다. 도 42의 경우, 12개의 영역에 맵핑된 문자를 도시하고 있다. 예를 들어, 2행 2열의 영역은 ㄴ, ㄹ 이 맵핑된 영역이다.The wearable device 100 determines a character corresponding to an area touched by the user. The wearable device 100 maps a set area and a character. 42 shows characters mapped to 12 regions. For example, the area of 2nd row and 2nd column is the area to which b and d are mapped.

도 43은 웨어러블 디바이스(100)에 입력되는 문자 및 표시되는 문자 입력 가이드를 설명하기 위한 도면이다. 도 43을 참조하면, 웨어러블 디바이스(100)는 디스플레이부(120)에 입력되는 문자를 표시한다. 웨어러블 디바이스(100)는 사용자의 터치를 감지하고, 터치된 위치에 따라 문자를 입력한다. 43 is a diagram for explaining text input to the wearable device 100 and a text input guide displayed. Referring to FIG. 43 , the wearable device 100 displays characters input to the display unit 120 . The wearable device 100 detects a user's touch and inputs a character according to the touched position.

웨어러블 디바이스(100)는 디스플레이부(120)에 문자 입력 가이드를 표시한다. 다시 말해서, 웨어러블 디바이스(100)는 디스플레이부(120)에 문자가 배열된 상태를 표시한다. 사용자는 문자 입력 가이드를 참조하여 터치 위치를 구분할 수 있다.
The wearable device 100 displays a text input guide on the display unit 120 . In other words, the wearable device 100 displays a state in which characters are arranged on the display unit 120 . The user may identify the touch position by referring to the text input guide.

도 44 내지 도 45는 일 실시 예에 따른 웨어러블 디바이스의 터치 센서의 배열 설명하기 위한 도면이다. 도 44를 참조하면, 웨어러블 디바이스(100)는 정면의 상하 또는 좌우에 터치 센서(150)들을 포함할 수 있다. 터치 센서(150)는 웨어러블 디바이스(100)의 정면의 가장자리에 배치될 수 있다. 도 45를 참조하면, 웨어러블 디바이스(100)는 4면에 터치 센서(150)들을 포함할 수 있다. 터치 센서(150)들은 디스플레이부(120)를 둘러싼 형태로 배열될 수 있다.
44 to 45 are diagrams for explaining an arrangement of touch sensors of a wearable device according to an exemplary embodiment. Referring to FIG. 44 , the wearable device 100 may include touch sensors 150 on the top, bottom, left and right of the front. The touch sensor 150 may be disposed on the edge of the front of the wearable device 100 . Referring to FIG. 45 , the wearable device 100 may include touch sensors 150 on four surfaces. The touch sensors 150 may be arranged to surround the display unit 120 .

도 46은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다. 도 46을 참조하면, 웨어러블 디바이스(100)는 터치 센서(150)들을 이용하여 문자를 입력할 수 있다. 웨어러블 디바이스(100)는 4면에 배치된 터치 센서(150)들과 병렬로 문자들을 표시한다. 예를 들어, 웨어러블 디바이스(100)의 윗면에는 초성들이 배열될 수 있고, 우측 면에는 중성이 배열될 수 있고, 아랫면에는 종성이 배열될 수 있고, 좌측 면에는 이동 표시가 배열될 수 있다. 웨어러블 디바이스(100)는 터치 센서(150)들 중에서 사용자의 터치가 감지된 위치를 결정하고, 결정된 위치에 배열된 문자를 입력할 수 있다. 도 46에서는 한글을 배열한 경우를 예를 들어 설명하고 있으나, 영어, 일어, 스페인어 등 다양한 언어가 배열될 수 있다.
46 is a diagram for describing a text input method according to an exemplary embodiment. Referring to FIG. 46 , the wearable device 100 may input text using the touch sensors 150 . The wearable device 100 displays characters in parallel with the touch sensors 150 disposed on four sides. For example, initial consonants may be arranged on the upper surface of the wearable device 100 , neutral letters may be arranged on the right surface, final consonants may be arranged on the lower surface, and movement marks may be arranged on the left surface of the wearable device 100 . The wearable device 100 may determine a position where the user's touch is sensed among the touch sensors 150 , and may input characters arranged at the determined position. In FIG. 46, a case in which Korean is arranged is described as an example, but various languages such as English, Japanese, and Spanish may be arranged.

도 47은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다. 도 47을 참조하면, 웨어러블 디바이스(100)는 터치, 드래그 및 드랍 동작을 감지하여 문자를 입력할 수 있다. 47 is a diagram for explaining a text input method according to an embodiment. Referring to FIG. 47 , the wearable device 100 may input text by detecting touch, drag, and drop operations.

첫째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 터치(touch) 동작을 감지한다. 웨어러블 디바이스(100)는 터치 동작이 감지되면, 터치된 위치를 결정하고, 결정된 위치에 배열된 문자를 확대하여 표시한다.First, the wearable device 100 senses a touch operation through the touch sensor 150 . When a touch operation is detected, the wearable device 100 determines a touched position and enlarges and displays the characters arranged at the determined position.

둘째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 드래그(drag) 동작을 감지한다. 드래그 동작은 사용자가 터치 센서(150)를 터치한 상태로 이동하는 동작을 나타낸다. 웨어러블 디바이스(100)는 드래그 동작을 감지하면, 사용자의 터치 입력이 이동에 따라 문자를 확대한다.Second, the wearable device 100 senses a drag operation through the touch sensor 150 . The drag operation represents an operation in which the user moves while touching the touch sensor 150 . When the wearable device 100 detects a drag operation, the user's touch input magnifies the text according to movement.

셋째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 드랍(drop) 동작을 감지한다. 드랍 동작은 사용자가 터치 입력을 종료하는 동작을 나타낸다. 예를 들어, 터치 센서(150)에 접촉된 사용자의 손가락이 터치 센서(150)에서 떨어지는 것을 나타낸다. 웨어러블 디바이스(100)는 드랍 동작이 감지되면, 드랍 동작이 감지될 때 확대된 문자를 입력한다. 입력된 문자는 디스플레이부에 표시된다. 도 47에서는 ㅅ 이 입력된 경우를 도시하고 있다.
Third, the wearable device 100 detects a drop operation through the touch sensor 150 . The drop operation represents an operation in which the user terminates the touch input. For example, it indicates that the user's finger in contact with the touch sensor 150 is separated from the touch sensor 150 . When a drop operation is detected, the wearable device 100 inputs an enlarged character when the drop operation is detected. The input characters are displayed on the display unit. 47 illustrates a case in which s is input.

도 48 내지 49는 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다. 도 48 내지 49를 참조하면, 웨어러블 디바이스(100)는 적어도 2번의 터치 동작을 감지하여 문자를 입력할 수 있다. 48 to 49 are diagrams for explaining a text input method according to an exemplary embodiment. 48 to 49 , the wearable device 100 may input a character by detecting at least two touch operations.

첫째로, 첫째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 터치(touch) 동작을 감지한다. First, first, the wearable device 100 senses a touch operation through the touch sensor 150 .

둘째로, 웨어러블 디바이스(100)는 터치 동작이 감지되면, 터치된 위치를 결정하고, 결정된 위치에 인접한 적어도 하나의 문자를 확대하여 표시한다. 예를 들어, 웨어러블 디바이스(100)는 결정된 위치에 표시된 문자 및 결정된 위치와 가장 인접한 위치에 표시된 문자를 확대하여 표시할 수 있다. 도 49에서는 사용자가 ㄴ 이 표시된 부분의 터치 센서(150)를 터치한 경우, 웨어러블 디바이스(100)가 ㄴ 과 인접한 ㄱ 및 ㄷ 을 확대하여 표시한 예를 도시하고 있다.Second, when a touch operation is sensed, the wearable device 100 determines a touched position and enlarges and displays at least one character adjacent to the determined position. For example, the wearable device 100 may enlarge and display a character displayed at the determined position and a character displayed at a position closest to the determined position. In FIG. 49 , when the user touches the touch sensor 150 at the portion marked with b, the wearable device 100 shows an example in which b and c adjacent to b are enlarged and displayed.

셋째로, 사용자는 터치 센서(150) 또는 확대된 문자를 터치할 수 있다. 도 49에서는 사용자가 ㄱ, ㄴ, ㄷ 중 ㄴ 을 터치한 예를 도시하고 있다.Third, the user may touch the touch sensor 150 or the enlarged character. 49 shows an example in which the user touches b among a, b, and c.

넷째로, 웨어러블 디바이스(100)는 확대된 문자들 중 사용자의 터치가 어느 문자에 대해 수행되었는지 결정하고, 결정된 문자를 입력하고, 디스플레이부에 표시한다.
Fourth, the wearable device 100 determines which character the user touches among the enlarged characters, inputs the determined character, and displays it on the display unit.

도 50 내지 54는 일 실시 예에 따른 화면 회전 방법을 설명하기 위한 도면이다. 도 50 내지 도 54를 참조하면, 웨어러블 디바이스(100)는 가장자리에 배치된 터치 센서(150)들을 이용하여 화면을 회전할 수 있다.50 to 54 are diagrams for explaining a screen rotation method according to an embodiment. 50 to 54 , the wearable device 100 may rotate the screen using the touch sensors 150 disposed at the edge.

도 50 내지 51은 터치 센서(150)들이 웨어러블 디바이스(100)의 위쪽과 아래쪽에 배치된 경우를 예를 들어 설명한다. 웨어러블 디바이스(100)는 위쪽과 아래쪽에 배치된 터치 센서(150)들을 통해 사용자의 터치를 수신하고, 수신된 터치 패턴에 따라 화면을 회전할 수 있다. 도 50은 웨어러블 디바이스(100)가 사용자의 입력에 따라 시계 방향으로 도형을 회전하는 예를 나타낸다.50 to 51 will be described as an example in which the touch sensors 150 are disposed above and below the wearable device 100 . The wearable device 100 may receive a user's touch through the touch sensors 150 disposed above and below, and rotate the screen according to the received touch pattern. 50 illustrates an example in which the wearable device 100 rotates a figure in a clockwise direction according to a user's input.

도 51은 웨어러블 디바이스(100)가 도 50에 도시된 사용자의 입력 패턴을 감지하는 방법을 설명하기 위한 도면이다. 웨어러블 디바이스(100)는 위쪽 터치 센서(150) 및 아래쪽 터치 센서(150)에서 터치 및 드래그 동작을 감지한다. 웨어러블 디바이스(100)는 터치 센서(150)들에서 감지되는 드래그의 방향을 결정한다. 웨어러블 디바이스(100)는 위쪽 터치 센서(150) 및 아래쪽 터치 센서(150)에서 감지되는 드래그의 방향에 따라 설정된 동작을 수행한다. 예를 들어 위쪽 터치 센서(150)에서 감지되는 드래그의 방향과 아래쪽 터치 센서(150)에서 감지되는 드래그의 방향이 반대인 경우, 웨어러블 디바이스(100)는 화면을 회전한다. FIG. 51 is a diagram for explaining a method in which the wearable device 100 detects a user input pattern shown in FIG. 50 . The wearable device 100 detects touch and drag operations from the upper touch sensor 150 and the lower touch sensor 150 . The wearable device 100 determines the direction of the drag detected by the touch sensors 150 . The wearable device 100 performs a set operation according to the direction of the drag detected by the upper touch sensor 150 and the lower touch sensor 150 . For example, when the drag direction detected by the upper touch sensor 150 and the drag direction detected by the lower touch sensor 150 are opposite to each other, the wearable device 100 rotates the screen.

도 51에서는 위쪽 터치 센서(150)는 왼쪽에서 오른쪽 방향으로 드래그를 감지하고, 아래쪽 터치 센서(150)는 오른쪽에서 왼쪽 방향으로 드래그를 감지한다. 웨어러블 디바이스(100)는 화면을 시계 방향으로 회전한다. In FIG. 51 , the upper touch sensor 150 detects a drag from left to right, and the lower touch sensor 150 detects a drag from right to left. The wearable device 100 rotates the screen clockwise.

도 52는 위쪽 터치 센서(150)가 오른쪽에서 왼쪽 방향으로 드래그를 감지하고, 아래쪽 터치 센서(150)가 왼쪽에서 오른쪽 방향으로 드래그를 감지한 경우, 웨어러블 디바이스(100)는 화면을 반시계 방향으로 회전하는 예를 도시하고 있다.
52 shows when the upper touch sensor 150 detects a drag from right to left and the lower touch sensor 150 detects a drag from left to right, the wearable device 100 rotates the screen counterclockwise An example of rotation is shown.

도 53 내지 54는 터치 센서(150)들이 웨어러블 디바이스(100)의 왼쪽과 오른쪽에 배치된 경우를 예를 들어 설명한다. 웨어러블 디바이스(100)는 왼쪽과 오른쪽에 배치된 터치 센서(150)들을 통해 사용자의 터치를 수신하고, 수신된 터치 패턴에 따라 화면을 회전할 수 있다. 53 to 54 will be described as an example in which the touch sensors 150 are disposed on the left and right sides of the wearable device 100 . The wearable device 100 may receive a user's touch through the touch sensors 150 disposed on the left and right sides, and rotate the screen according to the received touch pattern.

도 53은 웨어러블 디바이스(100)가 사용자의 입력에 따라 시계 방향으로 도형을 회전하는 예를 나타낸다. 웨어러블 디바이스(100)는 왼쪽 터치 센서(150) 및 오른쪽 터치 센서(150)에서 터치 및 드래그 동작을 감지한다. 웨어러블 디바이스(100)는 터치 센서(150)들에서 감지되는 드래그의 방향을 결정한다. 웨어러블 디바이스(100)는 왼쪽 터치 센서(150) 및 오른쪽 터치 센서(150)에서 감지되는 드래그의 방향에 따라 설정된 동작을 수행한다. 예를 들어 왼쪽 터치 센서(150)에서 감지되는 드래그의 방향과 오른쪽 터치 센서(150)에서 감지되는 드래그의 방향이 반대인 경우, 웨어러블 디바이스(100)는 화면을 회전한다. 53 illustrates an example in which the wearable device 100 rotates a figure in a clockwise direction according to a user input. The wearable device 100 senses touch and drag operations from the left touch sensor 150 and the right touch sensor 150 . The wearable device 100 determines the direction of the drag detected by the touch sensors 150 . The wearable device 100 performs a set operation according to the direction of the drag detected by the left touch sensor 150 and the right touch sensor 150 . For example, when the direction of the drag detected by the left touch sensor 150 and the direction of the drag detected by the right touch sensor 150 are opposite to each other, the wearable device 100 rotates the screen.

도 53에서는 왼쪽 터치 센서(150)는 아래에서 위 방향으로 드래그를 감지하고, 오른쪽 터치 센서(150)는 위에서 아래 방향으로 드래그를 감지한다. 웨어러블 디바이스(100)는 화면을 시계 방향으로 회전한다. In FIG. 53 , the left touch sensor 150 detects a drag from the bottom up, and the right touch sensor 150 detects a drag from the top down. The wearable device 100 rotates the screen clockwise.

도 54는 왼쪽 터치 센서(150)가 위에서 아래 방향으로 드래그를 감지하고, 오른쪽 터치 센서(150)가 아래에서 위 방향으로 드래그를 감지한 경우, 웨어러블 디바이스(100)는 화면을 반시계 방향으로 회전하는 예를 도시하고 있다.
54 shows when the left touch sensor 150 detects a drag from top to bottom and the right touch sensor 150 detects a drag from bottom to top, the wearable device 100 rotates the screen counterclockwise An example is shown.

본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. The device according to the present embodiments includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button, and the like. It may include an interface device and the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, the computer-readable recording medium includes a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optically readable medium (eg, CD-ROM). ), and DVD (Digital Versatile Disc)). The computer-readable recording medium may be distributed among network-connected computer systems, so that the computer-readable code may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed on a processor.

본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, an embodiment may be an integrated circuit configuration, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. can be hired Similar to how components may be implemented as software programming or software components, this embodiment includes various algorithms implemented in a combination of data structures, processes, routines, or other programming constructs, including C, C++, Java ( Java), assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, the present embodiment may employ the prior art for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in connection with a processor or the like.

본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. The specific implementations described in this embodiment are examples, and do not limit the technical scope in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of lines between the components shown in the drawings illustratively represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections.

본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (especially in the claims), the use of the term “above” and similar referential terms may be used in both the singular and the plural. In addition, when a range is described, individual values within the range are included (unless there is a description to the contrary), and each individual value constituting the range is described in the detailed description. Finally, the steps constituting the method may be performed in an appropriate order unless the order is explicitly stated or there is no description to the contrary. It is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary terms (eg, etc.) is merely for describing the technical idea in detail, and the scope is not limited by the examples or exemplary terms unless limited by the claims. In addition, those skilled in the art will appreciate that various modifications, combinations, and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

100: 웨어러블 디바이스
110: 센서
120: 디스플레이부
100: wearable device
110: sensor
120: display unit

Claims (17)

주변 객체의 움직임을 검출하는 센서;
복수의 아이템들을 표시하고, 표시된 상기 복수의 아이템들 중 제1 아이템에 포커스를 표시하는 디스플레이부; 및
상기 포커스의 현재 위치에 따라 상기 포커스가 이동 가능한 방향들에 대응하는 하나 이상의 영역들 및 상기 포커스가 이동할 수 없는 방향에 대응하는 중립 영역을 설정하고,
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 하나 이상의 영역들에 포함되는 것에 기초하여, 상기 포커스를 상기 제1 아이템에서 상기 주변 객체가 움직인 방향에 대응되는 위치의 제2 아이템으로 이동시켜 표시하도록 상기 디스플레이부를 제어하고,
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 중립 영역에 포함되는 것에 기초하여, 사용자에게 피드백을 제공하는 프로세서를 포함하는 웨어러블 디바이스.
a sensor that detects a movement of a surrounding object;
a display unit that displays a plurality of items and displays a focus on a first item among the displayed plurality of items; and
setting one or more regions corresponding to directions in which the focus is movable and a neutral region corresponding to a direction in which the focus cannot be moved according to the current position of the focus;
Based on the fact that a position corresponding to the moving direction of the surrounding object is included in the one or more regions, the focus is moved from the first item to a second item at a position corresponding to the moving direction of the surrounding object and displayed to control the display unit to
and a processor configured to provide feedback to a user based on a location corresponding to a movement direction of the surrounding object being included in the neutral region.
제 1 항에 있어서,
상기 프로세서는 상기 주변 객체가 이동을 시작하는 시작점의 좌표와 상기 주변 객체가 멈추는 끝점의 좌표를 계산하고, 상기 웨어러블 디바이스와 상기 시작점 및 상기 끝점의 위치 관계를 이용하여 상기 주변 객체의 움직임 방향을 획득하는 것을 특징으로 하는 웨어러블 디바이스.
The method of claim 1,
The processor calculates the coordinates of the starting point at which the surrounding object starts moving and the coordinates of the end point at which the surrounding object stops, and uses the positional relationship between the wearable device and the starting point and the end point to obtain the motion direction of the surrounding object Wearable device, characterized in that.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 프로세서는 상기 웨어러블 디바이스의 측면 또는 정면에서 움직이는 상기 주변 객체의 움직임 방향을 획득하는 것을 특징으로 하는 웨어러블 디바이스.
The method of claim 1,
The processor is a wearable device, characterized in that it obtains the movement direction of the peripheral object moving from the side or the front of the wearable device.
삭제delete 제 1 항에 있어서,
상기 프로세서는 상기 주변 객체가 이동한 각도를 계산하여 상기 포커스의 이동 방향을 결정하는 것을 특징으로 하는 웨어러블 디바이스.
The method of claim 1,
The processor is a wearable device, characterized in that for determining the movement direction of the focus by calculating the movement angle of the surrounding object.
복수의 아이템들을 표시하고, 표시된 상기 복수의 아이템들 중 제1 아이템에 포커스를 표시하는 단계;
상기 포커스의 현재 위치에 따라 상기 포커스가 이동 가능한 방향들에 대응하는 하나 이상의 영역들 및 상기 포커스가 이동할 수 없는 방향에 대응하는 중립 영역을 설정하는 단계;
주변 객체의 움직임을 검출하는 단계;
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 하나 이상의 영역들에 포함되는 것에 기초하여, 상기 포커스를 상기 제1 아이템에서 상기 주변 객체가 움직인 방향에 대응되는 위치의 제2 아이템으로 이동시켜 표시하는 단계; 및
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 중립 영역에 포함되는 것에 기초하여, 사용자에게 피드백을 제공하는 단계를 포함하는 웨어러블 디바이스의 동작 방법.
displaying a plurality of items and displaying focus on a first item among the displayed plurality of items;
setting one or more regions corresponding to directions in which the focus is movable and a neutral region corresponding to a direction in which the focus is not movable according to the current position of the focus;
detecting a motion of a surrounding object;
Based on the fact that a position corresponding to the moving direction of the surrounding object is included in the one or more regions, the focus is moved from the first item to a second item at a position corresponding to the moving direction of the surrounding object and displayed to do; and
and providing feedback to a user based on a location corresponding to a movement direction of the surrounding object being included in the neutral region.
제 9 항에 있어서,
상기 주변 객체가 이동을 시작하는 시작점의 좌표와 상기 주변 객체가 멈추는 끝점의 좌표를 계산하고, 상기 웨어러블 디바이스와 상기 시작점 및 상기 끝점의 위치 관계를 이용하여 상기 주변 객체의 움직임 방향을 획득하는 단계를 더 포함하는 것을 특징으로 하는 웨어러블 디바이스의 동작 방법.
10. The method of claim 9,
Calculating the coordinates of the starting point at which the surrounding object starts moving and the coordinates of the end point at which the surrounding object stops, and using the positional relationship between the wearable device and the starting point and the end point to obtain the direction of movement of the surrounding object Operating method of a wearable device, characterized in that it further comprises.
삭제delete 삭제delete 삭제delete 제 10 항에 있어서, 상기 주변 객체의 움직임 방향을 획득하는 단계는,
상기 웨어러블 디바이스의 측면에서 움직이는 상기 주변 객체의 움직임 방향을 획득하는 것을 특징으로 하는 웨어러블 디바이스의 동작 방법.
The method of claim 10, wherein the obtaining of the motion direction of the surrounding object comprises:
The operating method of the wearable device, characterized in that obtaining the movement direction of the surrounding object moving from the side of the wearable device.
삭제delete 제 9 항에 있어서, 상기 포커스를 이동시켜 표시하는 단계는,
상기 주변 객체가 이동한 각도를 계산하여 상기 포커스의 이동 방향을 결정하고, 상기 결정된 이동 방향으로 상기 포커스를 이동시켜 표시하는 것을 특징으로 하는 웨어러블 디바이스의 동작 방법.
The method of claim 9, wherein the displaying by moving the focus comprises:
The operating method of the wearable device, characterized in that the moving direction of the focus is determined by calculating the moving angle of the surrounding object, and the focus is moved and displayed in the determined moving direction.
제9항, 제10항, 제14항 및 제16항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium in which a program for executing the method of any one of claims 9, 10, 14 and 16 on a computer is recorded.
KR1020150047493A 2014-07-30 2015-04-03 Wearalble device and operating method for the same KR102397397B1 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
PCT/KR2015/006995 WO2016017956A1 (en) 2014-07-30 2015-07-07 Wearable device and method of operating the same
JP2017504397A JP6418585B2 (en) 2014-07-30 2015-07-07 Wearable device and operation method of wearable device
AU2015297289A AU2015297289B2 (en) 2014-07-30 2015-07-07 Wearable device and method of operating the same
EP15178252.1A EP2980677B1 (en) 2014-07-30 2015-07-24 Wearable device and method of operating the same
TW104124615A TWI537771B (en) 2014-07-30 2015-07-30 Wearable device and method of operating the same
US14/813,889 US9823751B2 (en) 2014-07-30 2015-07-30 Wearable device and method of operating the same
CN201510458504.2A CN105320275B (en) 2014-07-30 2015-07-30 The method of wearable device and operation wearable device
US15/812,586 US10437346B2 (en) 2014-07-30 2017-11-14 Wearable device and method of operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140097613 2014-07-30
KR1020140097613 2014-07-30

Publications (2)

Publication Number Publication Date
KR20160015146A KR20160015146A (en) 2016-02-12
KR102397397B1 true KR102397397B1 (en) 2022-05-13

Family

ID=55355084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150047493A KR102397397B1 (en) 2014-07-30 2015-04-03 Wearalble device and operating method for the same

Country Status (4)

Country Link
JP (1) JP6418585B2 (en)
KR (1) KR102397397B1 (en)
AU (1) AU2015297289B2 (en)
TW (1) TWI537771B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI680401B (en) * 2017-01-25 2019-12-21 華碩電腦股份有限公司 Electronic device and operation method thereof
TW202032324A (en) 2019-02-27 2020-09-01 財團法人工業技術研究院 Multiplayer sports formation arrangement prompting method and system
KR102219674B1 (en) * 2019-08-19 2021-02-24 김동주 Watch control device for adjusting moving speed of the hands according to the background image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
JP2012113743A (en) 2012-02-29 2012-06-14 Denso Corp Display controller for remote operation device
JP2012113715A (en) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd Item selection device and method using movement of object
US20130335303A1 (en) 2012-06-14 2013-12-19 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
JP2013545183A (en) * 2010-11-01 2013-12-19 トムソン ライセンシング Method and apparatus for detecting gesture input

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804488B2 (en) * 2006-11-03 2010-09-28 Research In Motion Limited Method of employing a switch assembly to provide input, and handheld electronic device
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
US20110314425A1 (en) * 2010-06-16 2011-12-22 Holy Stone Enterprise Co., Ltd. Air gesture recognition type electronic device operating method
KR101514170B1 (en) * 2011-04-27 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 Input device, input method and recording medium
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US11237719B2 (en) * 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
JP2013545183A (en) * 2010-11-01 2013-12-19 トムソン ライセンシング Method and apparatus for detecting gesture input
JP2012113715A (en) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd Item selection device and method using movement of object
JP2012113743A (en) 2012-02-29 2012-06-14 Denso Corp Display controller for remote operation device
US20130335303A1 (en) 2012-06-14 2013-12-19 Qualcomm Incorporated User interface interaction for transparent head-mounted displays

Also Published As

Publication number Publication date
KR20160015146A (en) 2016-02-12
AU2015297289A1 (en) 2017-02-02
JP2017526061A (en) 2017-09-07
TWI537771B (en) 2016-06-11
JP6418585B2 (en) 2018-11-07
AU2015297289B2 (en) 2018-03-01
TW201617793A (en) 2016-05-16

Similar Documents

Publication Publication Date Title
US10437346B2 (en) Wearable device and method of operating the same
CN108431729B (en) Three-dimensional object tracking to increase display area
JP6371475B2 (en) Eye-gaze input device, eye-gaze input method, and eye-gaze input program
US8988380B2 (en) Display apparatus, display method, and display program
US20110191707A1 (en) User interface using hologram and method thereof
US20180232106A1 (en) Virtual input systems and related methods
JP2014219938A (en) Input assistance device, input assistance method, and program
US20140082559A1 (en) Control area for facilitating user input
US10394434B2 (en) Apparatus and method for recognizing proximity motion using sensors
KR102397397B1 (en) Wearalble device and operating method for the same
US10331333B2 (en) Touch digital ruler
GB2531112B (en) Optical digital ruler
JP6033061B2 (en) Input device and program
KR101436585B1 (en) Method for providing user interface using one point touch, and apparatus therefor
JP5780823B2 (en) Display device, display device control method, and program
JP5769841B2 (en) Portable game device with touch panel display
US20150091831A1 (en) Display device and display control method
KR20140086805A (en) Electronic apparatus, method for controlling the same and computer-readable recording medium
JP6126639B2 (en) A portable game device having a touch panel display and a game program.
KR20150031953A (en) Method for processing data and an electronic device thereof
JP6204414B2 (en) GAME DEVICE AND PROGRAM
JP5769765B2 (en) Portable game device with touch panel display
KR101436586B1 (en) Method for providing user interface using one point touch, and apparatus therefor
KR20100099490A (en) User interface and method for providing guidance information

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant