KR102397397B1 - Wearalble device and operating method for the same - Google Patents
Wearalble device and operating method for the same Download PDFInfo
- Publication number
- KR102397397B1 KR102397397B1 KR1020150047493A KR20150047493A KR102397397B1 KR 102397397 B1 KR102397397 B1 KR 102397397B1 KR 1020150047493 A KR1020150047493 A KR 1020150047493A KR 20150047493 A KR20150047493 A KR 20150047493A KR 102397397 B1 KR102397397 B1 KR 102397397B1
- Authority
- KR
- South Korea
- Prior art keywords
- wearable device
- focus
- item
- surrounding object
- area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Abstract
주변 객체의 움직임을 검출하는 센서; 복수의 아이템을 표시하고, 표시된 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시하는 디스플레이부; 및 상기 객체가 움직인 방향에 대응되는 위치하는 아이템으로 포커스를 이동시켜 표시하도록 상기 디스플레이부를 제어하는 프로세서를 포함하는 웨어러블 디바이스가 개시된다.a sensor that detects a movement of a surrounding object; a display unit that displays a plurality of items and displays focus on at least one item among the plurality of displayed items; and a processor for controlling the display unit to display by moving the focus to an item located corresponding to the moving direction of the object.
Description
개시된 실시 예들은 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법에 관한 것이다.The disclosed embodiments relate to a wearable device and an operating method of the wearable device.
프로세서의 크기가 줄어들면서, 모바일 디바이스들의 크기도 줄어들고 있다. 모바일 디바이스의 크기가 줄어들어, 사용자의 신체에 착용이 가능한 웨어러블 디바이스가 생산되었다.As processors shrink in size, so do mobile devices. As the size of the mobile device is reduced, a wearable device that can be worn on a user's body has been produced.
사용자는 웨어러블 디바이스를 조작하여 원하는 정보를 획득할 수 있다. 웨어러블 디바이스는 사용자의 조작을 위한 인터페이스를 제공한다. 사용자는 웨어러블 디바이스를 직접 터치하여 웨어러블 디바이스를 조작할 수 있다. 웨어러블 디바이스는 사용자의 조작에 따른 결과를 디스플레이 장치를 통해 표시한다.A user may obtain desired information by manipulating the wearable device. The wearable device provides an interface for user manipulation. The user may manipulate the wearable device by directly touching the wearable device. The wearable device displays a result according to a user's manipulation through a display device.
개시된 일 실시 예는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법을 제공하는데 있다. 웨어러블 디바이스는 사용자의 신체에 착용되기 위해 소형으로 제작된다. 따라서, 소형의 웨어러블 디바이스를 사용자가 편리하게 조작하기 위한 방법이 제공되어야 한다.The disclosed embodiment provides a wearable device and a method of operating the wearable device. A wearable device is manufactured to be small to be worn on a user's body. Accordingly, a method for a user to conveniently operate a small wearable device should be provided.
일 실시 예에 따른 웨어러블 디바이스는 주변 객체의 움직임을 검출하는 센서; 복수의 아이템을 표시하고, 표시된 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시하는 디스플레이부; 및 상기 객체가 움직인 방향에 대응되는 위치의 아이템으로 포커스를 이동시켜 표시하도록 상기 디스플레이부를 제어하는 프로세서를 포함한다.A wearable device according to an embodiment includes a sensor for detecting a motion of a surrounding object; a display unit that displays a plurality of items and displays focus on at least one item among the plurality of displayed items; and a processor controlling the display unit to display by moving the focus to an item at a position corresponding to the moving direction of the object.
일 실시 예에 따른 웨어러블 디바이스의 동작 방법은 복수의 아이템을 표시하고, 표시된 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시하는 단계; 주변 객체의 움직임을 검출하는 단계; 및 상기 객체가 움직인 방향에 대응되는 위치의 아이템으로 포커스를 이동시켜 표시하는 단계를 포함한다.According to an embodiment, a method of operating a wearable device includes displaying a plurality of items and displaying focus on at least one item among the plurality of displayed items; detecting a motion of a surrounding object; and moving the focus to an item at a position corresponding to the moving direction of the object and displaying the moved item.
개시된 일 실시 예에 따른 웨어러블 디바이스의 동작 방법은 사용자에게 편리한 메뉴 선택 방법을 제공한다.The operating method of the wearable device according to the disclosed embodiment provides a convenient menu selection method for a user.
도 1a은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다.
도 1b는 정면에 센서를 구비하는 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 웨어러블 디바이스 주변에서의 객체의 움직임을 이용하여 웨어러블 디바이스의 디스플레이에 표시된 포커스를 이동하는 방법을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 4는 또 다른 일 실시 예에 따른 웨어러블 디바이스가 각도에 따른 영역을 결정하여 표시되는 아이템을 변경하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 6은 일 실시 예에 따른 웨어러블 디바이스가 각도에 대응하는 영역을 결정하여 이미지를 이동하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 8은 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다.
도 9는 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다.
도 10은 일 실시 예에 따른 웨어러블 디바이스가 객체의 이동 각도를 측정하는 방법을 설명하기 위한 도면이다.
도 11 내지 도 18은 일 실시 예에 따른 웨어러블 디바이스가 포커스의 위치에 대응하는 영역을 설정하는 방법을 설명하기 위한 도면이다.
도 19는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다.
도 20 내지 도 26은 일 실시 예에 따른 웨어러블 디바이스가 사용자의 입력에 따라 포커스를 이동하는 예를 설명하기 위한 도면이다.
도 27은 일 실시 예에 따른 웨어러블 디바이스가 객체의 제스처를 인식하여 화면을 전환하는 방법을 설명하기 위한 도면이다.
도 28은 일 실시 예에 따른 웨어러블 디바이스(100)가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 30은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 31은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 32는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다.
도 33은 일 실시 예에 따른 웨어러블 디바이스가 문자를 입력하는 방법을 설명하기 위한 도면이다.
도 34는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다.
도 35 내지 도 41은 일 실시 예에 따른 웨어러블 디바이스의 네비게이션 방법을 설명하기 위한 도면들이다.
도 42 내지 도 43은 일 실시 예에 따른 웨어러블 디바이스가 손등 터치를 감지하여 문자를 입력하는 방법을 설명하기 위한 도면이다.
도 44 내지 도 45는 일 실시 예에 따른 웨어러블 디바이스의 터치 센서의 배열 설명하기 위한 도면이다.
도 46은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다.
도 47은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다.
도 48 내지 49는 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다.
도 50 내지 54는 일 실시 예에 따른 화면 회전 방법을 설명하기 위한 도면이다.1A is a diagram for describing a method of operating a wearable device according to an exemplary embodiment.
1B is a view for explaining a method of operating a wearable device having a sensor on its front side.
FIG. 2 is a diagram for describing a method of moving a focus displayed on a display of a wearable device using a movement of an object around the wearable device, according to an exemplary embodiment.
3 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
4 is a diagram for explaining a method of changing a displayed item by determining an area according to an angle by a wearable device according to another exemplary embodiment.
5 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
6 is a diagram for explaining a method of moving an image by determining an area corresponding to an angle by a wearable device according to an exemplary embodiment.
7 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
8 is a block diagram illustrating a wearable device according to an embodiment.
9 is a block diagram illustrating a wearable device according to an embodiment.
10 is a diagram for describing a method for a wearable device to measure a movement angle of an object according to an exemplary embodiment.
11 to 18 are diagrams for explaining a method of setting, by a wearable device, an area corresponding to a location of a focus, according to an exemplary embodiment.
19 is a diagram for explaining a method of operating a wearable device according to an embodiment.
20 to 26 are diagrams for explaining an example in which the wearable device moves a focus according to a user input, according to an exemplary embodiment.
27 is a diagram for explaining a method for a wearable device to change a screen by recognizing a gesture of an object, according to an embodiment.
FIG. 28 is a diagram for explaining a method in which the
29 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment.
30 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment.
FIG. 31 is a diagram for explaining a method in which a wearable device operates by recognizing a gesture, according to an exemplary embodiment.
32 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment.
33 is a diagram for describing a method of inputting text by a wearable device according to an exemplary embodiment.
34 is a flowchart illustrating a method of operating a wearable device according to an embodiment.
35 to 41 are diagrams for explaining a navigation method of a wearable device according to an embodiment.
42 to 43 are diagrams for explaining a method in which a wearable device inputs a character by sensing a touch on the back of a hand, according to an embodiment.
44 to 45 are diagrams for explaining an arrangement of touch sensors of a wearable device according to an exemplary embodiment.
46 is a diagram for describing a text input method according to an exemplary embodiment.
47 is a diagram for explaining a text input method according to an embodiment.
48 to 49 are diagrams for explaining a text input method according to an exemplary embodiment.
50 to 54 are diagrams for explaining a screen rotation method according to an embodiment.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Since the present embodiments can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope of the specific embodiments, and it should be understood to include all transformations, equivalents and substitutions included in the spirit and scope of the disclosure. In describing the embodiments, if it is determined that a detailed description of a related known technology may obscure the subject matter, the detailed description thereof will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments, and are not intended to limit the scope of rights. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
이하, 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
Hereinafter, the embodiment will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted.
도 1a은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다. 도 1a을 참조하면, 웨어러블 디바이스(100)는 객체(object)의 움직임을 감지하여 아이템에 표시된 포커스를 이동시킬 수 있다.1A is a diagram for describing a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 1A , the
객체는 웨어러블 디바이스(100)의 주변에서 감지될 수 있는 사물, 사용자의 손가락 등이 될 수 있다. 웨어러블 디바이스(100)의 ‘주변’은 웨어러블 디바이스(100)로부터 미리 설정된 거리 내의 영역을 의미하거나, 웨어러블 디바이스(100)의 측면으로부터 동일한 거리 내의 영역을 의미할 수 있다. 예를 들어, 웨어러블 디바이스(100)의 주변은 웨어러블 디바이스(100)를 착용하고 있는 사용자의 손등일 수 있다. 또는, 웨어러블 디바이스(100)의 주변은 웨어러블 디바이스(100)의 정면일 수 있다. 웨어러블 디바이스(100)의 주변은 웨어러블 디바이스(100)의 카메라가 객체를 인식할 수 있는 영역일 수 있다.The object may be an object that can be detected in the vicinity of the
객체의 움직임을 감지한다는 것은 웨어러블 디바이스(100)가 주변 객체를 감지하고, 객체가 이동하는 방향, 각도, 이동 거리 또는 속도 등을 측정하는 것일 수 있다.Sensing the movement of the object may mean that the
웨어러블 디바이스(100)는 센서(110) 및 디스플레이부(120)를 포함한다. 센서(110)는 주변 객체를 검출하고, 디스플레이부(120)는 적어도 하나의 아이템 및 포커스(10)를 표시한다. The
아이템은 웨어러블 디바이스(100)의 각각의 기능 또는 메뉴 등을 나타낸다. 디스플레이부(120)는 하나의 아이템을 전체 화면에 표시하거나, 2개 이상의 아이템들을 화면에 표시할 수 있다. 또한, 디스플레이부(120)는 아이템들의 크기를 서로 다르게 표시할 수 있다. 예를 들어, 디스플레이부(120)는 중앙에 위치한 아이템을 다른 아이템들보다 크게 표시할 수 있다.The item represents each function or menu of the
포커스(10)는 현재 선택된 아이템을 나타내는 식별 표시이다. 포커스는 아이템의 색상을 변경하거나 아이템의 크기를 변경하는 등의 형태로 표현될 수도 있다. 또는, 포커스(10)는 아이템 위에 표시되는 도형일 수도 있다. The
도 1a의 경우, 포커스(10)가 아이템의 외곽에 표시되는 일 예를 나타낸다. 도 1은 6개의 아이템들(media controller, call, application, messenger, E-mail, Gallery)이 웨어러블 디바이스(100)에 표시된 경우이다. 또한, 도 1은 포커스(10)가 Messenger에 표시되었다가 Call에 표시되는 과정을 도시하고 있다.1A shows an example in which a
웨어러블 디바이스(100)는 센서(110)를 통해 객체의 움직임을 검출한다. 센서(110)는 객체가 설정된 거리 내에 객체가 있는지 여부를 검출한다. 센서(110)는 센서(110)와 객체와의 거리를 측정한다. 또는, 센서(110)는 객체의 이동 방향, 이동 각도 및 이동 거리를 측정할 수 있다. The
도 1a의 경우, 웨어러블 디바이스(100)가 사용자의 손가락을 인식하는 경우를 도시하고 있다. 웨어러블 디바이스(100)는 사용자의 손가락뿐만 아니라, 다양한 객체들의 움직임을 인식할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 펜, 막대기 등과 같은 사물을 인식할 수도 있다.1A illustrates a case in which the
웨어러블 디바이스(100)는 디스플레이부에 복수의 아이템을 표시한다. 또한, 웨어러블 디바이스(100)는 복수의 아이템 중 적어도 하나의 아이템에 포커스를 표시한다.The
웨어러블 디바이스(100)는 객체가 이동한 각도 또는 방향을 획득한다. 웨어러블 디바이스(100)는 객체의 위치를 측정하고, 객체의 위치에 변동이 있는 경우, 객체가 움직인 각도 또는 방향을 계산한다. 도 1a의 경우, 객체가 45도 방향으로 이동한 경우를 도시하고 있다. 웨어러블 디바이스(100)는 거리 또는 속도의 범위를 설정하고, 객체의 이동 거리 또는 객체의 속도가 설정된 범위에 포함되는 경우에만 객체의 각도를 계산할 수도 있다. 따라서, 객체의 이동 거리 또는 속도가 설정된 범위에 포함되지 않는 경우(예를 들어, 이동 거리가 짧거나 속도가 느린 경우), 객체의 미세한 움직임 또는 사용자가 입력을 원하지 않는 경우로 판단하고, 웨어러블 디바이스(100)는 포커스(10)를 이동하지 않을 수 있다.The
웨어러블 디바이스(100)는 객체가 움직인 방향에 대응하는 위치의 아이템으로 포커스를 이동시킨다. 웨어러블 디바이스(100)는 객체가 이동한 방향에 따라 포커스(10)의 이동 방향을 결정한다. 웨어러블 디바이스(100)는 디스플레이부(120)에 도시된 포커스(10)를 결정된 이동 방향에 위치한 아이템으로 이동한다. 도 1a의 경우, 객체가 45도 방향으로 이동하였으므로, 웨어러블 디바이스(100)는 포커스(10)를 Messenger 에서 Call 로 이동한다.The
웨어러블 디바이스(100)는 사용자가 신체에 착용 가능한 디바이스이다. 예를 들어, 웨어러블 디바이스(100)는 스마트 워치, 스마트 글래스, 암 밴드 등 일수 있다.The
웨어러블 디바이스(100)는 센서(110)를 포함한다. 센서(110)는 웨어러블 디바이스(100)가 사용자의 제스처를 감지할 수 있는 위치에 배치될 수 있다. 예를 들어, 스마트 워치의 경우, 센서(110)는 스마트 워치의 측면에 배치될 수 있다. 스마트 글래스의 경우, 센서(110)는 스마트 글래스의 정면에 배치될 수 있다.
The
도 1b는 정면에 센서를 구비하는 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다. 도 1b를 참조하면, 웨어러블 디바이스(100)는 정면에 센서들(110)을 포함한다. 정면은 디스플레이부(120)가 구비된 영역이다. 2개의 센서(110)들은 디스플레이부(120)의 위쪽과 아래쪽에 위치할 수 있다.1B is a view for explaining a method of operating a wearable device having a sensor on its front side. Referring to FIG. 1B , the
센서들(110)은 웨어러블 디바이스(100)의 정면에서 움직이는 객체를 감지할 수 있다. 예를 들어, 센서들(110)은 정면에서 움직이는 사용자의 손가락을 감지할 수 있다. The
웨어러블 디바이스(100)는 센서들(110)에 의해 감지된 손가락의 방향을 획득하고, 획득된 방향에 대응하는 위치의 아이템으로 포커스를 이동시킨다.
The
도 2는 일 실시 예에 따른 웨어러블 디바이스 주변에서의 객체의 움직임을 이용하여 웨어러블 디바이스의 디스플레이에 표시된 포커스를 이동하는 방법을 설명하기 위한 도면이다. 도 2에서 웨어러블 디바이스(100)는 각도를 측정하고, 측정된 각도에 따라 포커스의 이동 방향을 결정할 수 있다.FIG. 2 is a diagram for describing a method of moving a focus displayed on a display of a wearable device using a movement of an object around the wearable device, according to an exemplary embodiment. In FIG. 2 , the
step1에서, 웨어러블 디바이스(100)는 주변에서 객체가 움직인 각도를 측정한다. 도 2의 경우, 객체가 이동한 각도가 80도인 경우를 예를 들어 도시하고 있다. 객체의 각도는 웨어러블 디바이스(100)를 기준으로 계산된다.In
step2에서, 웨어러블 디바이스(100)는 측정된 각도에 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 각도에 따라 영역들을 미리 설정하고, 측정된 각도에 해당하는 영역을 결정한다. 예를 들어, 웨어러블 디바이스(100)는 360도를 적어도 2개의 영역으로 설정할 수 있다. 도 2의 경우, 웨어러블 디바이스(100)는 360도를 4개의 영역으로 설정한 예이다. 각도 80도는 제2 영역에 포함된다. 따라서, 웨어러블 디바이스(100)는 제2 영역을 측정된 각도에 대응되는 영역으로 결정한다.In
step3에서, 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향으로 디스플레이부에 표시된 포커스를 이동한다. 도 2의 경우, 포커스가 Messenger에서 E-mail로 이동한 경우를 도시하고 있다.
In
도 3은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 3을 참조하면, 웨어러블 디바이스(100)는 주변 객체를 검출하여 포커스를 제1 아이템에서 제2 아이템으로 이동할 수 있다.3 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 3 , the
단계 310에서, 웨어러블 디바이스(100)는 화면상의 제1 아이템에 포커스를 표시한다. 웨어러블 디바이스(100)는 화면상에 표시된 복수의 아이템들 중에서 제1 아이템에 포커스를 표시한다.In
단계 320에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 센서(110)를 이용하여 주변 객체를 검출할 수 있다.In
단계 330에서, 웨어러블 디바이스(100)는 주변 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 기준으로 객체가 이동하는 각도를 계산하여 방향을 획득할 수 있다.In
단계 340에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다. In
단계 350에서, 웨어러블 디바이스(100)는 결정된 이동 방향에 따라 포커스를 제2 아이템으로 이동한다. In
웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 대응하는 영역들을 설정할 수 있고, 영역들과 획득된 방향을 맵핑하여 포커스의 이동 방향을 결정할 수도 있다. The
포커스가 이동 가능한 방향은 아이템의 배열 방식에 따라 현재 포커스가 이동 가능한 아이템이 존재한 방향을 나타낸다. 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향을 확인하고, 확인된 방향의 수만큼의 영역들을 설정할 수 있다. 이때, 웨어러블 디바이스(100)는 이동 가능한 방향들을 각각 포함하는 영역들을 설정한다. 예를 들어, 이동 가능한 방향이 위쪽이라면, 웨어러블 디바이스(100)는 -20도부터 20도를 위쪽에 대응하는 영역으로 설정할 수 있다.The focus-movable direction indicates a direction in which the focus-movable item is present according to an arrangement method of the items. The
영역들과 획득된 방향을 맵핑한다는 것은 획득된 방향이 영역들 중에서 어느 영역에 포함되는지를 판단하는 것을 나타낸다. 영역은 각도의 범위로 구분된다. 예를 들어, 0도에서 180도는 제1 영역으로 설정되고, 180도에서 360도는 제2 영역으로 설정될 수 있다. 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향을 결정한다. 웨어러블 디바이스(100)는 획득된 방향이 포함되는 영역을 결정할 수 있다. 영역은 포커스가 이동 가능한 방향에 대응하여 설정되므로, 웨어러블 디바이스(100)는 결정된 영역에 대응하는 포커스의 이동 방향을 결정할 수 있다.
Mapping the regions and the acquired direction represents determining which region from among the regions the acquired direction is included. Regions are delimited by ranges of angles. For example, 0 degrees to 180 degrees may be set as the first area, and 180 degrees to 360 degrees may be set as the second area. The
도 4는 또 다른 일 실시 예에 따른 웨어러블 디바이스가 각도에 따른 영역을 결정하여 표시되는 아이템을 변경하는 방법을 설명하기 위한 도면이다. 도 4를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 각도에 따라 표시되는 아이템을 변경할 수 있다.4 is a diagram for explaining a method of changing a displayed item by determining an area according to an angle by a wearable device according to another exemplary embodiment. Referring to FIG. 4 , the
step1에서, 웨어러블 디바이스(100)는 객체의 이동 각도를 측정한다. 도 2의 경우, 객체의 이동 각도가 170도인 경우를 예를 들어 도시하고 있다.In
step2에서, 웨어러블 디바이스(100)는 측정된 이동 각도와 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 각도에 따라 영역들을 설정하고, 측정된 각도를 포함하는 영역을 결정한다. 도 2의 경우, 아이템들이 1열로 배열된 경우이므로, 사용자의 조작에 의해 현재 아이템의 위쪽 아이템 또는 아래쪽 아이템만이 표시될 수 있다. 따라서, 웨어러블 디바이스(100)는 360도를 절반으로 나누어, 위쪽 영역은 제1 영역으로 설정하고, 아래쪽 영역은 제2 영역으로 설정한다. 도 2에서 측정된 각도 170도는 제2 영역에 대응된다. 따라서, 웨어러블 디바이스(100)는 제2 영역을 측정된 각도에 대응되는 영역으로 결정한다.In
만약, Gallery 아이템이 표시된 상태인 경우에는, 위쪽 영역은 중립 영역으로 설정되고, 아래쪽 영역이 제1 영역으로 설정될 수 있다. 객체의 이동 각도가 중립 영역에 포함되는 경우, 웨어러블 디바이스(100)는 표시되는 아이템을 변경하지 않는다. 중립 영역에 해당하는 방향으로는 더 이상 표시될 아이템이 존재하지 않으므로, 웨어러블 디바이스(100)는 사용자에게 피드백을 제공하여 Gallery 아이템이 마지막 아이템임을 알릴 수 있다.If the Gallery item is displayed, the upper area may be set as the neutral area, and the lower area may be set as the first area. When the movement angle of the object is included in the neutral region, the
step3에서, 웨어러블 디바이스(100)는 표시되는 아이템을 변경한다. 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향에 배치된 아이템을 표시한다.In
예를 들어, 아이템들은 1열로 배치될 수 있으며, 제2 영역에 포함되는 각도가 획득되었으므로, 웨어러블 디바이스(100)는 현재 표시된 Call보다 위쪽에 배치된 아이템인 E-mail을 다음에 표시할 아이템으로 결정할 수 있다.
For example, the items may be arranged in one column, and since the angle included in the second area is obtained, the
도 5는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 5를 참조하면, 웨어러블 디바이스(100)는 주변 객체를 검출하여 객체의 이동 방향에 따라 표시되는 아이템을 변경할 수 있다.5 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 5 , the
단계 510에서, 웨어러블 디바이스(100)는 화면에 제1 아이템을 표시한다. In
단계 520에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 센서(110)를 이용하여 주변 객체를 검출할 수 있다.In
단계 530에서, 웨어러블 디바이스(100)는 주변 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 기준으로 객체가 이동하는 각도를 계산하여 방향을 획득할 수 있다.In
단계 540에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 표시되는 제2 아이템을 결정할 수 있다. 웨어러블 디바이스(100)는 현재 표시되는 아이템 및 아이템들의 상대적인 위치에 따라 어느 아이템을 표시할 것인지를 결정한다.In
단계 550에서, 웨어러블 디바이스(100)는 결정된 제2 아이템을 디스플레이부에 표시한다.In
웨어러블 디바이스(100)는 아이템들의 배치에 따라 대응하는 영역들을 설정할 수 있고, 획득된 방향이 포함되는 영역을 결정하여 표시되는 아이템을 결정할 수도 있다.
The
도 6은 일 실시 예에 따른 웨어러블 디바이스가 각도에 대응하는 영역을 결정하여 이미지를 이동하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of moving an image by determining an area corresponding to an angle by a wearable device according to an exemplary embodiment.
step1에서, 웨어러블 디바이스(100)는 객체의 각도를 측정한다. 도 6의 경우, 객체가 이동한 각도가 80도인 경우를 예를 들어 도시하고 있다.In
step2에서, 웨어러블 디바이스(100)는 측정된 각도와 대응하는 영역을 결정한다. 웨어러블 디바이스(100)는 각도에 따라 영역들을 설정하고, 측정된 각도를 포함하는 영역을 결정한다. 도 6의 경우, 각도 80도는 제2 영역에 대응된다. 따라서, 웨어러블 디바이스(100)는 제2 영역을 측정된 각도에 대응되는 영역으로 결정한다.In
step3에서, 웨어러블 디바이스(100)는 결정된 영역에 대응하는 방향으로 이미지를 이동한다. 도 6의 경우, 제2 영역에 대응하는 방향은 오른쪽이므로, 이미지가 오른쪽으로 이동한 경우를 도시하고 있다.In
또 다른 실시 예에 따른 웨어러블 디바이스(100)는 검출된 객체의 이동과 동일하게 이미지를 이동할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 객체가 검출되면, 검출된 객체의 위치를 기준으로 객체의 이동 좌표를 계산하고, 계산된 이동 좌표만큼 이미지를 이동할 수 있다. 웨어러블 디바이스(100)는 화면의 중심을 기준점으로 계산된 이동 좌표로 이미지의 중심을 이동할 수 있다.The
또 다른 예로, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체가 이동한 각도 및 거리를 측정하여 이미지를 이동할 수 있다. 다시 말해서, 웨어러블 디바이스(100)는 측정된 각도로 이미지를 이동하되, 측정된 거리만큼 또는 측정된 거리에 비례하여 이미지를 이동한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체를 검출하면, 검출된 위치를 기준점으로 하여 이미지를 이동할 수 있다.
As another example, the
도 7은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 7을 참조하면, 웨어러블 디바이스(100)는 주변 객체를 검출하여 객체가 움직인 방향에 따라 이미지를 이동할 수 있다.7 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment. Referring to FIG. 7 , the
단계 710에서, 웨어러블 디바이스(100)는 화면에 이미지를 표시한다. In
단계 720에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 센서(110)를 이용하여 주변 객체를 검출할 수 있다.In
단계 730에서, 웨어러블 디바이스(100)는 주변 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 기준으로 객체가 이동하는 각도를 계산한다.In
단계 740에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 이미지의 이동 방향을 결정한다. In
단계 750에서, 웨어러블 디바이스(100)는 결정된 이동 방향에 따라 이미지를 이동한다. In
웨어러블 디바이스(100)는 객체의 이동 거리를 획득하고, 획득된 이동 거리만큼 이미지를 이동할 수 있다.
The
도 8은 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다. 도 8을 참조하면, 웨어러블 디바이스(100)는 센서(110), 디스플레이부(120), 메모리(130) 및 프로세서(140)를 포함한다.8 is a block diagram illustrating a wearable device according to an embodiment. Referring to FIG. 8 , the
센서(110)는 웨어러블 디바이스(100)의 주변 객체를 감지한다. 센서(110)는 일정 범위 내에 객체를 감지한다. 센서(110)는 객체가 감지되면 프로세서(140)로 객체가 감지되었음을 나타내는 신호를 출력한다. 또한, 센서(110)는 객체의 위치를 나타내는 정보도 함께 출력할 수 있다. 예를 들어, 센서(110)는 센서(110)를 원점으로 객체의 좌표를 측정하여 출력할 수도 있다.The
센서(110)는 웨어러블 디바이스(100)의 주변 객체가 이동한 방향을 획득한다. 센서(110)는 객체가 이동을 시작하는 시작점의 좌표와 객체가 멈추는 끝점의 좌표를 계산하고, 센서와 시작점 및 끝점의 위치 관계를 이용하여 객체가 이동한 방향을 계산할 수 있다.The
센서(110)는 IR 센서, 초음파 센서 또는 EM wave 센서 등일 수 있다. IR 센서는 적외선을 방출하고 반사된 적외선이 감지되는 시간을 이용하여 객체와 IR 센서와의 거리를 측정할 수 있다. 초음파 센서는 초음파를 송신하고 객체에 반사된 초음파가 수신하는 시간을 이용하여 객체와 초음파 센서와의 거리를 측정할 수 있다. 또는, 초음파 센서는 송신한 초음파와 수신된 초음파의 위상(phase)의 변화를 측정하여 객체와 초음파 센서와의 거리를 측정할 수 있다. EM wave 센서는 송신한 전자기파와 수신된 전자기파의 위상(phase)의 변화를 측정하여 객체와 EM wave 센서와의 거리를 측정할 수 있다. 또는, EM wave 센서는 수신된 전자기파가 왜곡된 형태를 분석하여 객체와 EM wave 센서와의 거리를 측정할 수 있다.The
디스플레이부(120)는 프로세서(140)로부터 수신되는 이미지를 표시한다. 이미지는 사진, 아이템, 초기화면 등일 수 있다.The
디스플레이부(120)는 전체 화면에 표시된 복수의 아이템들 중 적어도 하나의 아이템에 포커스를 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 제1 아이템에 포커스를 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 제1 아이템에 표시된 포커스를 제2 아이템으로 이동할 수 있다.The
디스플레이부(120)는 표시된 아이템을 변경한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 전체 화면에 제1 아이템을 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 전체 화면에 제2 아이템을 표시한다.The
디스플레이부(120)는 표시된 이미지를 이동한다. 전체 이미지가 디스플레이부(120)에 표시되지 않는 경우, 디스플레이부(120)는 프로세서(140)의 제어에 따라 이미지의 일부를 표시한다. 디스플레이부(120)는 프로세서(140)의 제어에 따라 이동된 이미지를 표시한다.The
메모리(130)는 데이터를 저장한다. 메모리(130)는 웨어러블 디바이스(100)를 동작하기 위한 데이터를 저장한다. 예를 들어, 메모리(130)는 프로그램, 이미지, 연산을 위한 데이터 등을 저장할 수 있다.The
프로세서(140)는 웨어러블 디바이스(100)의 동작을 제어한다. 프로세서(140)는 센서(110)로부터 수신된 데이터를 이용하여 디스플레이부(120)에 표시되는 이미지를 결정할 수 있다. 예를 들어, 프로세서(140)는 센서(110)로부터 객체의 이동에 관한 데이터를 수신하고, 디스플레이부(120)에 표시되는 포커스를 이동할 수 있다. 또한, 프로세서는 디스플레이부(120)에 표시되는 아이템을 변경할 수 있으며, 이미지를 이동할 수 있다.The
프로세서(140)는 센서(110)로부터 수신되는 정보에 기초하여 객체가 이동하는 방향을 획득한다. 프로세서(140)는 객체가 이동을 시작하는 시작점의 좌표와 객체가 멈추는 끝점의 좌표를 계산하고, 웨어러블 디바이스(100)와 시작점 및 끝점의 위치 관계를 이용하여 방향을 획득할 수 있다.The
프로세서(140)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다. 프로세서(140)는 방향에 따른 영역을 설정하여 포커스의 이동 방향을 결정할 수 있다. 프로세서(140)는 웨어러블 디바이스(100)의 화면의 표시 상태에 따라 복수의 영역들을 설정한다. 프로세서(140)는 포커스가 이동 가능한 방향들에 대응하는 영역들을 적응적으로 설정한다. 프로세서(140)는 화면의 표시 상태에 따라 영역들을 다르게 설정할 수 있다. 프로세서(140)는 획득된 방향이 영역들 중에서 어느 영역에 포함되는지 결정한다. 프로세서(140)는 결정된 영역에 대응하는 이동 방향을 결정한다.The
프로세서(140)는 결정된 이동 방향에 따라 표시되는 아이템을 변경할 수 있다. 프로세서(140)는 결정된 이동 방향에 따라 문자를 입력할 수 있다.The
프로세서(140)는 객체의 제스처가 감지된 경우, 제스처에 대응하는 동작을 수행한다. 예를 들어, 프로세서(140)는 일정 시간 내에 적어도 2회 이상의 객체의 이동 방향을 획득하는 경우, 프로세서(140)는 2회 이상의 객체들의 이동 패턴에 대응하는 동작을 실행할 수 있다.
When the gesture of the object is detected, the
도 9는 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다. 도 9를 참조하면, 웨어러블 디바이스(100)의 프로세서(140)는 방향 획득부(141), 이동 방향 결정부(142) 및 제어부(143)를 포함한다.9 is a block diagram illustrating a wearable device according to an embodiment. Referring to FIG. 9 , the
방향 획득부(141)는 센서(110)로부터 수신되는 정보에 기초하여 객체가 이동하는 방향을 획득한다. 예를 들어, 방향 획득부(141)는 웨어러블 디바이스(100)의 제1 및 제2 센서들과 객체 사이의 거리를 각각 측정한다. 방향 획득부(141)는 제1 센서와 객체 사이의 거리, 제2 센서와 객체 사이의 거리 및 제1 센서와 제2 센서 사이의 거리를 이용하여 객체의 이동 방향을 획득할 수 있다. 또는, 방향 획득부(141)는 제1 센서와 객체 사이의 거리, 제2 센서와 객체 사이의 거리 및 제1 센서와 제2 센서 사이의 거리를 이용하여 객체의 좌표를 계산할 수 있다. 좌표를 계산할 때, 웨어러블 디바이스(100)의 중심이 원점이 될 수 있다.The
방향 획득부(141)는 객체가 이동을 시작하는 시작점의 좌표와 객체가 멈추는 끝점의 좌표를 계산하고, 웨어러블 디바이스(100)와 시작점 및 끝점의 위치 관계를 이용하여 객체가 움직인 방향을 획득할 수 있다.The
이동 방향 결정부(142)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다. 이동 방향 결정부(142)는 방향에 따른 영역을 설정하여 포커스의 이동 방향을 결정할 수 있다.The
이동 방향 결정부(142)는 웨어러블 디바이스(100)의 화면의 표시 상태에 따라 복수의 영역들을 설정한다. 이동 방향 결정부(142)는 포커스가 이동 가능한 방향들에 대응하는 영역들을 적응적으로 설정한다. 이동 방향 결정부(142)는 화면의 표시 상태에 따라 영역들을 다르게 설정할 수 있다.The
이동 방향 결정부(142)는 획득된 방향이 영역들 중에서 어느 영역에 포함되는지 결정한다. 이동 방향 결정부(142)는 결정된 영역에 대응하는 이동 방향을 결정한다.The movement
제어부(143)는 결정된 이동 방향에 따라 포커스를 제2 아이템으로 이동한다. 이동 방향 결정부(142)는 포커스가 이동할 수 없는 방향에 대응하는 중립 영역을 설정할 수 있고, 제어부(143)는 객체의 이동 방향이 중립 영역에 포함되는 경우에는 포커스를 이동하지 않고, 사용자에게 피드백을 제공한다.The
객체의 이동 방향이 중립 영역에 포함되는 경우, 이동 방향 결정부(142)는 이전에 저장된 객체의 이동 방향에 관한 히스토리에 기초하여 포커스의 이동 방향을 결정할 수 있다. 다시 말해서, 이동 방향 결정부(142)는 학습을 통해서, 중립 영역을 다른 영역에 포함시킬 수 있다. When the moving direction of the object is included in the neutral region, the moving
예를 들어, 객체의 이동 방향이 중립 영역에 대응하고, 바로 이어진 객체의 이동 방향이 중립 영역에 인접한 제1 영역에 대응하는 방향인 경우, 이동 방향 결정부(142)는 중립 영역을 제1 영역에 포함시킬 수 있다. 따라서, 이후에 측정되는 객체의 이동 방향이 중립 영역에 포함되면, 이동 방향 결정부(142)는 객체의 이동 방향을 제1 영역에 대응하는 이동 방향으로 결정한다.For example, when the moving direction of the object corresponds to the neutral region and the moving direction of the immediately following object corresponds to the first region adjacent to the neutral region, the moving
상술한 학습 방법은 일 예일 뿐이며, 이동 방향 결정부(142)는 다양한 기준으로 학습을 수행할 수 있으며, 학습 방법에 따라 객체의 이동 방향이 중립 영역에 포함되는 경우 객체의 이동 방향이 다르게 결정될 수 있다.The above-described learning method is only an example, and the movement
객체의 이동 방향이 중립 영역에 포함되는 경우, 제어부(143)는 사용자에게 피드백을 제공할 수 있다. 예를 들어, 제어부(143)는 진동 장치를 구동하거나, 디스플레이부(120)에 표시된 이미지를 일부 변형할 수 있다.When the moving direction of the object is included in the neutral region, the
제어부(143)는 결정된 이동 방향에 따라 표시되는 아이템을 변경할 수 있다. The
제어부(143)는 결정된 이동 방향에 따라 문자를 입력할 수 있다.The
제어부(143)는 객체의 제스처가 감지된 경우, 제스처에 대응하는 동작을 수행한다. 예를 들어, 방향 획득부(141)가 일정 시간 내에 적어도 2회 이상의 객체의 이동 방향을 획득하는 경우, 제어부(143)는 2회 이상의 객체들의 이동 패턴에 대응하는 동작을 실행할 수 있다.When the gesture of the object is detected, the
방향 획득부(141), 이동 방향 결정부(142) 및 제어부(143)은 프로세서(140) 내에 구현된 소프트웨어 모듈일 수 있다. 또한, 프로세서(140)는 방향 획득부(141), 이동 방향 결정부(142) 및 제어부(143) 등이 수행하는 모든 기능을 처리할 수 있는 하드웨어 모듈로 구현될 수 있다.
The
도 10은 일 실시 예에 따른 웨어러블 디바이스가 객체의 이동 각도를 측정하는 방법을 설명하기 위한 도면이다. 도 10을 참조하면, 웨어러블 디바이스(100)는 2개의 센서들(111, 112)을 이용하여 객체의 이동 각도를 측정한다.10 is a diagram for describing a method for a wearable device to measure a movement angle of an object according to an exemplary embodiment. Referring to FIG. 10 , the
웨어러블 디바이스(100)는 객체가 시작점(1010)부터 끝점(1020)까지 이동했을 때, 객체와 웨어러블 디바이스(100) 사이의 각도를 측정한다. 제1 센서(111)는 제1 센서(111)와 객체의 시작점(1010) 및 끝점(1020) 사이의 거리를 측정하고, 제2 센서(112)는 제2 센서(112)와 객체의 시작점(1010) 및 끝점(1020) 사이의 거리를 측정한다.When the object moves from the
웨어러블 디바이스(100)는 제1 센서(111)와 시작점(1010) 사이의 거리 및 제2 센서(111)와 시작점(1010) 사이의 거리를 이용하여 시작점(1010)의 좌표를 계산할 수 있다. 웨어러블 디바이스(100)는 제2 센서(110)와 끝점(1020) 사이의 거리 및 제1 센서(110)와 끝점(1020) 사이의 거리를 이용하여 끝점(1020)의 좌표를 계산할 수 있다. 웨어러블 디바이스(100)는 도 10과 같이 웨어러블 디바이스(100)의 중심을 원점으로 좌표축을 설정할 수 있다.The
웨어러블 디바이스(100)는 시작점(1010)의 좌표 및 끝점(1020)의 좌표를 이용하여 벡터를 구하고, 벡터의 시작점(1010)이 원점에 위치하도록 벡터를 평행 이동한다. 웨어러블 디바이스(100)는 좌표축을 기준으로 벡터와 좌표축이 이루는 각도를 계산한다.
The
도 11 내지 도 18은 일 실시 예에 따른 웨어러블 디바이스(100)가 포커스의 위치에 대응하는 영역을 설정하는 방법을 설명하기 위한 도면이다. 도 11은 포커스가 왼쪽 아래의 아이템(Messenger)에 표시된 경우, 웨어러블 디바이스(100)가 대응 영역을 설정하는 방법을 나타낸다. 11 to 18 are diagrams for explaining a method of setting, by the
포커스가 왼쪽 아래의 아이템(Messenger)에 표시되고 있으므로, 포커스는 오른쪽이나 위쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제3 영역들을 설정한다. 제1 영역은 아이템(Media controller)에 대응하고, 제2 영역은 아이템(Call)에 대응하고, 제3 영역은 아이템(E-mail)에 대응한다.Since the focus is being displayed on the lower left item (Messenger), the focus can be moved to the right or up. Accordingly, the
포커스가 왼쪽 아래의 아이템(Messenger)에 표시되고 있으므로, 포커스는 왼쪽이나 아래쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 위치에 기초하여 중립 영역을 설정한다. 예를 들어, 웨어러블 디바이스(100)는 135도부터 315도까지의 각도의 범위를 중립 영역으로 설정할 수 있다.Since the focus is being displayed on the lower left item (Messenger), the focus cannot be moved left or down. Accordingly, the
도 11의 경우, 제1 영역은 315도에서 30도 사이의 범위를 나타내고, 제2 영역은 30도에서 60도 사이의 범위를 나타낸다. 제3 영역은 60도에서 135도 사이의 범위를 나타내고, 중립 영역은 135도에서 315도 사이의 범위를 나타낸다.
In the case of FIG. 11 , the first area represents a range between 315 degrees and 30 degrees, and the second area represents a range between 30 degrees and 60 degrees. The third region represents a range between 60 and 135 degrees, and the neutral region represents a range between 135 and 315 degrees.
도 12는 포커스가 왼쪽 위의 아이템(Media controller)에 표시된 경우, 웨어러블 디바이스가 대응 영역을 설정하는 방법을 나타낸다. 12 illustrates a method in which the wearable device sets a corresponding area when a focus is displayed on an upper left item (Media controller).
포커스가 왼쪽 아래의 아이템(Media controller)에 표시되고 있으므로, 포커스는 오른쪽이나 아래쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제3 영역들을 설정한다. 제1 영역은 아이템(Call)에 대응하고, 제2 영역은 아이템(E-mail)에 대응하고, 제3 영역은 아이템(Messenger)에 대응한다.Since focus is being displayed on the lower left item (Media controller), the focus can be moved to the right or down. Accordingly, the
포커스가 왼쪽 위의 아이템(Media controller)에 표시되고 있으므로, 포커스는 왼쪽이나 위쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역을 설정한다.Since focus is being displayed on the upper left item (Media controller), the focus cannot be moved left or up. Accordingly, the
도 12의 경우, 제1 영역은 45도에서 120도 사이의 범위를 나타내고, 제2 영역은 120도에서 150도 사이의 범위를 나타낸다. 제3 영역은 150도에서 225도 사이의 범위를 나타내고, 중립 영역은 225도에서 45도 사이의 범위를 나타낸다.
In the case of FIG. 12 , the first area represents a range between 45 degrees and 120 degrees, and the second area represents a range between 120 degrees and 150 degrees. The third region represents a range from 150 degrees to 225 degrees, and the neutral zone represents a range from 225 degrees to 45 degrees.
도 13은 포커스가 위쪽 중앙의 아이템(Call)에 표시된 경우, 웨어러블 디바이스가 대응 영역을 설정하는 방법을 나타낸다. 13 illustrates a method in which the wearable device sets a corresponding area when a focus is displayed on an item (Call) in the upper center.
포커스가 위쪽 중앙 아이템(Call)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽 및 아래쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제5 영역들을 설정한다. 제1 영역은 아이템(Application)에 대응하고, 제2 영역은 아이템(Gallery)에 대응하고, 제3 영역은 아이템(E-mail)에 대응하고, 제4 영역은 아이템(Messenger)에 대응하고, 제5 영역은 아이템(Media controller)에 대응한다.Since the focus is displayed on the upper central item (Call), the focus can move in right, left, and down directions. Accordingly, the
포커스가 위쪽 중앙의 아이템(Call)에 표시되고 있으므로, 포커스는 위쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역을 설정한다. Since the focus is displayed on the item (Call) in the upper center, the focus cannot move upward. Accordingly, the
도 13의 경우, 제1 영역은 45도에서 105도 사이의 범위를 나타내고, 제2 영역은 105도에서 160도 사이의 범위를 나타낸다. 제3 영역은 160도에서 210도 사이의 범위를 나타내고, 제4 영역은 210도에서 255도 사이의 범위를 나타낸다. 제5 영역은 225도에서 315도 사이의 범위를 나타내고, 중립 영역은 315도에서 45도 사이의 범위를 나타낸다.
In the case of FIG. 13 , the first area represents a range between 45 degrees and 105 degrees, and the second area represents a range between 105 degrees and 160 degrees. The third area represents a range between 160 and 210 degrees, and the fourth area represents a range between 210 and 255 degrees. The fifth region represents a range between 225 degrees and 315 degrees, and the neutral zone represents a range between 315 degrees and 45 degrees.
도 14는 포커스가 아래쪽 중앙의 아이템(E-mail)에 표시된 경우, 웨어러블 디바이스(100)가 대응 영역을 설정하는 방법을 나타낸다. 14 illustrates a method in which the
포커스가 아래쪽 중앙 아이템(E-mail)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽 및 위쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제5 영역들을 설정한다. 제1 영역은 아이템(Application)에 대응하고, 제2 영역은 아이템(Gallery)에 대응하고, 제3 영역은 아이템(Messenger)에 대응하고, 제4 영역은 아이템(Media controller)에 대응하고, 제5 영역은 아이템(Call)에 대응한다.Since the focus is being displayed on the lower central item (E-mail), the focus can be moved in right, left and up directions. Accordingly, the
포커스가 아래쪽 중앙의 아이템(E-mail)에 표시되고 있으므로, 포커스는 아래쪽 방향으로 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역을 설정한다.Since the focus is being displayed on the item (E-mail) in the lower center, the focus cannot be moved in the downward direction. Accordingly, the
도 14의 경우, 제1 영역은 40도에서 75도 사이의 범위를 나타내고, 제2 영역은 75도에서 135도 사이의 범위를 나타낸다. 제3 영역은 255도에서 285도 사이의 범위를 나타내고, 제4 영역은 285도에서 330도 사이의 범위를 나타낸다. 제5 영역은 330도에서 30도 사이의 범위를 나타내고, 중립 영역은 135도에서 225도 사이의 범위를 나타낸다.
In the case of FIG. 14 , the first area represents a range between 40 degrees and 75 degrees, and the second area represents a range between 75 degrees and 135 degrees. The third area represents a range between 255 degrees and 285 degrees, and the fourth area represents a range between 285 degrees and 330 degrees. The fifth region represents a range between 330 degrees and 30 degrees, and the neutral zone represents a range between 135 degrees and 225 degrees.
도 15는 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 십자가 모양으로 배치된 경우, 웨어러블 디바이스(100)가 대응 영역을 설정하는 방법을 나타낸다. 15 illustrates a method in which the
포커스가 중앙 아이템(E-mail)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽, 위쪽 및 아래쪽 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제4 영역들을 설정한다. 제1 영역은 아이템(Call)에 대응하고, 제2 영역은 아이템(Gallery)에 대응하고, 제3 영역은 아이템(Media controller)에 대응하고, 제4 영역은 아이템(Messenger)에 대응한다.Since the focus is displayed on the central item (E-mail), the focus can move in right, left, up and down directions. Accordingly, the
도 15의 경우, 제1 영역은 315도에서 45도 사이의 범위를 나타내고, 제2 영역은 45도에서 135도 사이의 범위를 나타낸다. 제3 영역은 135도에서 225도 사이의 범위를 나타내고, 제4 영역은 225도에서 315도 사이의 범위를 나타낸다.
In the case of FIG. 15 , the first area represents a range between 315 degrees and 45 degrees, and the second area represents a range between 45 degrees and 135 degrees. The third region represents a range between 135 degrees and 225 degrees, and the fourth region represents a range between 225 and 315 degrees.
도 16은 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 십자가 모양으로 배치된 경우, 웨어러블 디바이스가 중립 영역을 설정하는 방법을 나타낸다. 16 illustrates a method in which the wearable device sets a neutral region when a focus is displayed on a central item (E-mail) and the items are arranged in a cross shape.
포커스가 중앙 아이템(E-mail)에 표시되고 있고, 대각선 방향에는 아이템이 없으므로, 포커스는 대각선 방향으로는 움직일 수 없다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 불가능한 방향에 기초하여 중립 영역들을 설정한다. Since the focus is displayed on the central item (E-mail) and there are no items in the diagonal direction, the focus cannot be moved in the diagonal direction. Accordingly, the
도 16의 경우, 제1 영역 내지 4 영역 사이에 중립 영역들이 설정된 예를 나타낸다.
16 shows an example in which neutral regions are set between the first to fourth regions.
도 17은 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 3x3 모양으로 배치된 경우, 웨어러블 디바이스가 대응 영역을 설정하는 방법을 나타낸다.17 illustrates a method in which the wearable device sets a corresponding area when a focus is displayed on a central item (E-mail) and the items are arranged in a 3x3 shape.
포커스가 중앙 아이템(E-mail)에 표시되고 있으므로, 포커스는 오른쪽, 왼쪽, 위쪽, 아래쪽 및 대각선 방향으로 움직일 수 있다. 따라서, 웨어러블 디바이스(100)는 포커스가 이동 가능한 방향에 기초하여 제1 내지 제8 영역들을 설정한다. Since the focus is displayed on the central item (E-mail), the focus can move in right, left, up, down, and diagonal directions. Accordingly, the
도 17의 경우, 제1 영역은 337.5도에서 22.5도 사이의 범위를 나타내고, 제2 영역은 22.5도에서 67.5도 사이의 범위를 나타낸다. 제3 영역은 67.5도에서 112.5도 사이의 범위를 나타내고, 제4 영역은 112.5도에서 157.5도 사이의 범위를 나타낸다. 제5 영역은 157.5도에서 202.5도 사이의 범위를 나타내고, 제6 영역은 202.5도에서 247.5도 사이의 범위를 나타낸다. 제7 영역은 247.5도에서 292.5도 사이의 범위를 나타내고, 제8 영역은 292.5도에서 337.5도 사이의 범위를 나타낸다.
In the case of FIG. 17 , the first area represents a range between 337.5 degrees and 22.5 degrees, and the second area represents a range between 22.5 degrees and 67.5 degrees. The third region represents a range between 67.5 degrees and 112.5 degrees, and the fourth zone represents a range between 112.5 degrees and 157.5 degrees. The fifth region represents a range from 157.5 degrees to 202.5 degrees, and the sixth zone represents a range from 202.5 degrees to 247.5 degrees. The seventh region represents a range between 247.5 and 292.5 degrees, and the eighth region represents a range between 292.5 and 337.5 degrees.
도 18은 포커스가 중앙의 아이템(E-mail)에 표시되고, 아이템들이 3x3 모양으로 배치된 경우, 웨어러블 디바이스가 중립 영역을 설정하는 방법을 나타낸다. 18 illustrates a method in which the wearable device sets a neutral region when a focus is displayed on a central item (E-mail) and the items are arranged in a 3x3 shape.
도 18의 경우, 제1 영역 내지 8 영역 사이에 중립 영역들이 설정된 예를 나타낸다.
18 shows an example in which neutral regions are set between the first to eighth regions.
도 19는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 도면이다. 도 19를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향이 중립 영역에 포함되는 경우 사용자에게 피드백을 제공할 수 있다.19 is a diagram for explaining a method of operating a wearable device according to an embodiment. Referring to FIG. 19 , the
단계 1910에서, 웨어러블 디바이스(100)는 웨어러블 디바이스(100) 화면상의 제1 메뉴 아이템에 포커스를 표시한다.In
단계 1920에서, 웨어러블 디바이스(100)는 웨어러블 디바이스 주변 객체를 검출한다.In
단계 1930에서, 웨어러블 디바이스(100)는 객체가 이동하는 방향을 획득한다.In
단계 1940에서, 웨어러블 디바이스(100)는 웨어러블 디바이스의 화면의 표시 상태에 따라 복수의 영역들을 설정한다. 웨어러블 디바이스(100)는 아이템의 배열 또는 포커스가 표시된 위치에 기초하여 복수의 영역들을 설정할 수 있다.In
단계 1950에서, 웨어러블 디바이스(100)는 획득된 방향이 복수의 영역들 중에서 어느 영역에 포함되는지 결정한다.In
단계 1960에서, 웨어러블 디바이스(100)는 획득된 방향이 중립 영역에 포함되는지 판단한다. 만약, 획득된 방향이 중립 영역에 포함되면, 단계 1990으로 진행하고, 그렇지 않으면 단계 1970로 진행한다.In
단계 1970에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 포커스의 이동 방향을 결정한다.In
단계 1980에서, 웨어러블 디바이스(100)는 결정된 이동 방향에 따라 포커스를 제2 메뉴 아이템으로 이동한다.In
단계 1990에서, 웨어러블 디바이스(100)는 사용자에게 피드백을 제공한다. 웨어러블 디바이스(100)는 진동 장치를 구동하거나, 디스플레이부(120)에 표시된 이미지를 일부 변형하여 사용자에게 피드백을 제공할 수 있다.
In
도 20 내지 도 26은 일 실시 예에 따른 웨어러블 디바이스가 사용자의 입력에 따라 포커스를 이동하는 예를 설명하기 위한 도면이다.20 to 26 are diagrams for explaining an example in which the wearable device moves a focus according to a user input, according to an exemplary embodiment.
도 20은 일 실시 예에 따른 웨어러블 디바이스(100)가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 20을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.20 is a diagram for explaining an example in which the focus is moved by the
도 20의 경우, 객체가 이동한 각도가 15도이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Messenger)에서 아이템(Media controller)로 이동한다.
In the case of FIG. 20 , the moving angle of the object is 15 degrees, and the
도 21은 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 21을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.21 is a diagram for describing an example in which a focus of a wearable device is moved, according to an exemplary embodiment. Referring to FIG. 21 , the
도 21의 경우, 객체가 이동한 각도가 40이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Messenger)에서 아이템(Call)로 이동한다.
In the case of FIG. 21 , the moving angle of the object is 40, and the
도 22는 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 22를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.22 is a diagram for describing an example in which a focus of a wearable device is moved according to an exemplary embodiment. Referring to FIG. 22 , the
도 22의 경우, 객체가 이동한 각도가 80이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Call)에서 아이템(Application)으로 이동한다.
In the case of FIG. 22 , the moving angle of the object is 80, and the
도 23은 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 23을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.23 is a diagram for explaining an example in which a focus is moved by a wearable device according to an exemplary embodiment. Referring to FIG. 23 , the
도 23의 경우, 객체가 이동한 각도가 130이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Call)에서 아이템(Gallery)으로 이동한다.
In the case of FIG. 23 , the moving angle of the object is 130, and the
도 24는 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 24를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.24 is a diagram for explaining an example in which a focus of a wearable device is moved according to an exemplary embodiment. Referring to FIG. 24 , the
도 24의 경우, 객체가 이동한 각도가 170이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Application)에서 아이템(Gallery)으로 이동한다.
In the case of FIG. 24 , the moving angle of the object is 170, and the
도 25는 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 25를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.25 is a diagram for describing an example in which a focus is moved by a wearable device according to an exemplary embodiment. Referring to FIG. 25 , the
도 25의 경우, 객체가 이동한 각도가 220이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(Application)에서 아이템(E-mail)으로 이동한다.
In the case of FIG. 25 , the moving angle of the object is 220, and the
도 26은 일 실시 예에 따른 웨어러블 디바이스가 포커스를 이동하는 예를 설명하기 위한 도면이다. 도 26을 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향에 따라 포커스를 이동한다.26 is a diagram for describing an example in which a focus is moved by a wearable device according to an exemplary embodiment. Referring to FIG. 26 , the
도 26의 경우, 객체가 이동한 각도가 260이고, 웨어러블 디바이스(100)는 포커스(10)를 아이템(E-mail)에서 아이템(Messenger)으로 이동한다.
In the case of FIG. 26 , the moving angle of the object is 260, and the
도 27은 일 실시 예에 따른 웨어러블 디바이스가 객체의 제스처를 인식하여 화면을 전환하는 방법을 설명하기 위한 도면이다.27 is a diagram for explaining a method for a wearable device to change a screen by recognizing a gesture of an object, according to an embodiment.
단계 2710에서, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체를 검출한다. In
단계 2720에서, 웨어러블 디바이스(100)는 객체의 제스처를 인식한다. 웨어러블 디바이스(100)는 객체가 움직이는 방향을 획득하고, 획득된 방향이 포함되는 영역을 결정한다. 웨어러블 디바이스(100)는 2회 이상의 객체의 움직임을 감지할 수 있으며, 이 경우, 웨어러블 디바이스(100)는 객체가 움직이는 방향을 2회 이상 측정한다. In
단계 2730에서, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 화면의 표시 상태 및 인식된 제스처에 따라 화면을 전환한다. 웨어러블 디바이스(100)는 화면의 표시 상태와 제스처를 모두 고려하여 화면을 전환한다. 예를 들어, 웨어러블 디바이스(100)는 현재 표시되고 있는 아이템과 이전에 표시된 아이템을 기록하고, 인식되는 제스처에 따라 이전에 표시된 아이템을 표시할 수 있다.In
설정된 시간 내에 객체가 2회 이상 다른 방향으로 이동하는 경우, 웨어러블 디바이스(100)는 2회 이상의 방향의 조합에 대응하는 동작을 수행한다. 웨어러블 디바이스(100)는 적어도 하나의 영역을 설정하고, 획득된 방향에 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 객체가 움직인 방향이 2회 이상 측정되면, 대응되는 영역들의 조합에 따라 화면을 전환한다. 예를 들어, 웨어러블 디바이스(100)는 이전 화면을 표시하거나 상위 폴더를 표시하거나 현재 실행된 프로그램을 취소하고 이전 화면이나 홈 화면을 표시할 수 있다.
When the object moves in different directions two or more times within a set time, the
도 28은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 28을 참조하면, 웨어러블 디바이스(100)는 객체가 왼쪽, 오른쪽으로 움직이는 제스처를 인식하여 ‘뒤로 가기’ 기능을 실행한다. 28 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 28 , the
도 28은 객체의 첫 번째 이동 방향이 제4 영역에 포함되고, 객체의 두 번째 이동 방향이 제2 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제4 영역과 제2 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 화면의 표시 순서를 참조하여 ‘뒤로 가기’ 기능을 실행할 수 있다.
28 illustrates a case in which the first moving direction of the object is included in the fourth area and the second moving direction of the object is included in the second area. The
도 29는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 29를 참조하면, 웨어러블 디바이스(100)는 객체가 오른쪽, 왼쪽으로 움직이는 제스처를 인식하여 ‘앞으로 가기’ 기능을 실행한다. 29 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 29 , the
도 29는 객체의 첫 번째 이동 방향이 제2 영역에 포함되고, 객체의 두 번째 이동 방향이 제4 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제2 영역과 제4 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 화면의 표시 순서를 참조하여 ‘앞으로 가기’ 기능을 실행할 수 있다.29 illustrates a case in which the first moving direction of the object is included in the second area and the second moving direction of the object is included in the fourth area. The
도 30은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 30을 참조하면, 웨어러블 디바이스(100)는 객체가 위, 아래로 움직이는 제스처를 인식하여 ‘상위 폴더로 이동’ 기능을 실행한다. 30 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 30 , the
도 30은 객체의 첫 번째 이동 방향이 제1 영역에 포함되고, 객체의 두 번째 이동 방향이 제3 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제1 영역과 제3 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 폴더들의 관계를 참조하여 ‘상위 폴더로 이동’ 기능을 실행할 수 있다.
30 illustrates a case in which the first moving direction of the object is included in the first area and the second moving direction of the object is included in the third area. The
도 31은 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 31을 참조하면, 웨어러블 디바이스(100)는 객체가 아래, 위로 움직이는 제스처를 인식하여 ‘하위 폴더로 이동’ 기능을 실행한다. FIG. 31 is a diagram for explaining a method in which a wearable device operates by recognizing a gesture, according to an exemplary embodiment. Referring to FIG. 31 , the
도 31은 객체의 첫 번째 이동 방향이 제3 영역에 포함되고, 객체의 두 번째 이동 방향이 제1 영역에 포함되는 경우를 도시한다. 웨어러블 디바이스(100)는 제3 영역과 제1 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 폴더들의 관계를 참조하여 ‘하위 폴더로 이동’ 기능을 실행할 수 있다.
31 illustrates a case in which the first moving direction of the object is included in the third area and the second moving direction of the object is included in the first area. The
도 32는 일 실시 예에 따른 웨어러블 디바이스가 제스처를 인식하여 동작하는 방법을 설명하기 위한 도면이다. 도 32를 참조하면, 웨어러블 디바이스(100)는 객체가 오른쪽, 왼쪽, 오른쪽으로 움직이는 제스처를 인식하여 ‘홈 화면으로 이동 또는 취소’ 기능을 실행한다. 32 is a diagram for explaining a method of operating a wearable device by recognizing a gesture, according to an embodiment. Referring to FIG. 32 , the
도 32는 객체의 첫 번째 이동 방향이 제2 영역에 포함되고, 객체의 두 번째 이동 방향이 제4 영역에 포함되고, 세 번째 는 경우를 도시한다. 웨어러블 디바이스(100)는 제1 영역과 제3 영역의 조합에 대응하는 기능을 실행한다. 예를 들어, 웨어러블 디바이스(100)는 ‘홈 화면으로 이동 또는 취소’ 기능을 실행할 수 있다.
32 illustrates a case in which the first moving direction of the object is included in the second area, the second moving direction of the object is included in the fourth area, and the third is the case. The
도 33은 일 실시 예에 따른 웨어러블 디바이스가 문자를 입력하는 방법을 설명하기 위한 도면이다. 도 33을 참조하면, 웨어러블 디바이스(100)는 주변 객체의 방향을 획득하고, 획득된 방향에 대응되는 문자를 입력할 수 있다.33 is a diagram for describing a method of inputting text by a wearable device according to an exemplary embodiment. Referring to FIG. 33 , the
웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 주변 객체를 검출하고, 객체가 이동하는 방향을 획득한다.The
웨어러블 디바이스(100)는 획득된 방향과 대응되는 영역을 결정한다. 웨어러블 디바이스(100)는 획득된 방향을 포함하는 영역이 어느 영역인지를 결정한다. 웨어러블 디바이스(100)는 문자 입력 시스템에 따라 영역의 수를 결정할 수 있다. 도 33의 경우, 웨어러블 디바이스(100)가 8개의 영역을 설정한 경우를 예를 들어 설명하고 있다.The
웨어러블 디바이스(100)는 결정된 영역에 대응하는 문자를 입력한다. 웨어러블 디바이스(100)는 설정된 영역들에 대응하는 문자들을 미리 지정한다. 예를 들어, 도 33에서는 제1 영역은 ㄱ, ㅋ 에 대응되고, 제2 영역은 ㄴ, ㄹ 에 대응된다. 제3 영역은 ㄷ, ㅌ 에 대응되고, 제4 영역은 ㅈ, ㅊ 에 대응된다. 제5 영역은 ㅅ, ㅎ 에 대응되고, 제6 영역은 ㅇ, ㅁ 에 대응된다. 제7 영역은 ㅂ, ㅍ 에 대응되고, 제8 영역은 특수문자에 대응된다.The
각 영역마다 2개 이상의 문자가 대응되는 경우, 웨어러블 디바이스(100)는 사용자의 동작을 추가로 감지하여 2개 이상의 문자들 중에서 어느 하나의 문자를 결정할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 사용자의 탭(Tab) 동작을 추가로 감지할 수 있다. 만약, 웨어러블 디바이스(100)가 객체의 이동 방향이 제1 영역에 해당한다고 판단하면, ㄱ 을 입력하지만, 사용자의 탭 동작이 추가로 감지되면 ㅋ 을 입력한다.
When two or more characters correspond to each area, the
도 34는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 설명하기 위한 순서도이다. 도 34를 참조하면, 웨어러블 디바이스(100)는 객체의 이동 방향을 획득하여 문자를 입력할 수 있다.34 is a flowchart illustrating a method of operating a wearable device according to an embodiment. Referring to FIG. 34 , the
단계 3410에서, 웨어러블 디바이스(100)는 주변 객체를 검출한다. 웨어러블 디바이스(100)는 설정된 범위 내에 객체를 감지한다. In
단계 3420에서, 웨어러블 디바이스(100)는 객체가 이동하는 방향을 획득한다. 웨어러블 디바이스(100)는 객체가 이동하면, 객체의 이동 각도를 계산한다. 예를 들어, 웨어러블 디바이스(100)는 객체가 검출될 때 객체의 위치 및 객체가 이동을 멈추었을 때 객체의 위치를 이용하여 객체의 이동 각도를 계산할 수 있다.In
단계 3430에서, 웨어러블 디바이스(100)는 획득된 방향에 따라 문자를 결정한다. 웨어러블 디바이스(100)는 문자 입력 시스템마다 방향에 따른 영역들을 설정한다. 웨어러블 디바이스(100)는 획득된 방향이 설정된 영역들 중에서 어느 영역에 포함되는지 결정한다. 웨어러블 디바이스(100)는 각각의 영역마다 맵핑된 문자를 저장하고, 결정된 영역에 맵핑된 문자가 무엇인지 결정한다. In
단계 3440에서, 웨어러블 디바이스(100)는 결정된 문자를 입력한다. 웨어러블 디바이스(100)는 결정된 문자를 디스플레이부(120)에 표시할 수 있다.
In
도 35 내지 도 41은 일 실시 예에 따른 웨어러블 디바이스의 네비게이션 방법을 설명하기 위한 도면들이다. 도 35 내지 도 41을 참조하면, 웨어러블 디바이스(100)는 사용자의 제스처를 감지하여 제스처에 대응하는 동작을 수행할 수 있다.35 to 41 are diagrams for explaining a navigation method of a wearable device according to an embodiment. 35 to 41 , the
도 35의 경우, 웨어러블 디바이스(100)는 탭(tab) 동작을 감지하고, 현재 아이템을 선택 또는 실행한다. 디스플레이부(120)는 아이템들을 표시하고, 웨어러블 디바이스(100)는 탭 동작을 감지하면, 디스플레이부(120)에 현재 표시된 아이템을 선택한다. 35 , the
도 36의 경우, 웨어러블 디바이스(100)는 더블 탭 동작을 감지하고, 디스플레이부(120)에 옵션을 표시한다. 예를 들어, 웨어러블 디바이스(100)는 현재 표시 상태에 따라 수행 가능한 기능들을 디스플레이부(120)에 표시할 수 있다. 도 36에서, 웨어러블 디바이스(100)는 더블 탭 동작을 감지하고, ‘Select All’ 및 ‘Unselect All’을 디스플레이부(120)에 표시하는 경우를 도시하고 있다.In the case of FIG. 36 , the
도 37의 경우, 웨어러블 디바이스(100)는 슬라이드 동작을 감지하고, 디스플레이부(120)에 표시된 아이템들을 회전한다. 웨어러블 디바이스(100)는 손가락이 슬라이드 하는 방향에 따라 아이템의 회전 방향을 결정할 수 있다. 도 37에서, 웨어러블 디바이스(100)는 객체가 아래 방향으로 슬라이드 하는 동작을 감지하고, 디스플레이부(120)에 표시된 아이템들을 아래 방향으로 이동한다. 37 , the
도 38의 경우, 웨어러블 디바이스(100)는 2개의 손가락이 슬라이드 하는 동작을 감지하고, 디스플레이부(120)에 표시된 아이템들을 회전한다. 웨어러블 디바이스(100)는 1개의 손가락이 슬라이드 하는 경우보다 2개의 손가락이 슬라이드 하는 경우, 아이템의 회전 속도를 빠르게 할 수 있다.38 , the
도 39의 경우, 웨어러블 디바이스(100)는 손가락의 스윕(sweep) 동작을 감지하고, 홈 화면을 표시하거나 취소 기능을 실행한다. 웨어러블 디바이스(100)는 손가락이 좌우로 3회 이상 이동하는 경우 스윕 동작으로 판단한다. 홈 화면은 웨어러블 디바이스(100)의 초기 화면과 같은 기본 화면을 나타낸다. 취소 기능은 가장 최근에 실행된 기능을 취소하는 것을 나타낸다.39 , the
도 40의 경우, 웨어러블 디바이스(100)는 손가락이 왼쪽으로 이동하는 동작을 감지하고, 이전 화면으로 이동한다. 웨어러블 디바이스(100)는 현재 화면을 표시하기 전에 표시되었던 가장 최근의 화면을 표시한다.In the case of FIG. 40 , the
도 41의 경우, 웨어러블 디바이스(100)는 손가락이 오른쪽으로 이동하는 동작을 감지하고, 다음 화면으로 이동한다.
In the case of FIG. 41 , the
도 42 내지 도 43은 일 실시 예에 따른 웨어러블 디바이스가 손등 터치를 감지하여 문자를 입력하는 방법을 설명하기 위한 도면이다. 웨어러블 디바이스(100)의 디스플레이부(120)는 스마트 폰이나 태블릿 PC 등의 디스플레이부에 비해 더 작을 수 있다. 따라서, 사용자가 웨어러블 디바이스(100)의 디스플레이부(120)를 터치하여 문자를 입력하는 경우, 오타가 발생할 확률이 높다. 일 실시 예에 따른 웨어러블 디바이스(100)는 디스플레이부(120)에 비해 상대적으로 넓은 영역을 사용자의 손등에 설정함으로써, 사용자가 입력하고자 하는 문자를 정확히 식별할 수 있다. 42 to 43 are diagrams for explaining a method in which a wearable device inputs a character by detecting a touch on the back of a hand, according to an embodiment. The
도 42를 참조하면, 웨어러블 디바이스(100)는 사용자의 손등을 복수의 영역으로 구분한다. 도 42의 경우, 웨어러블 디바이스(100)는 손등을 12개의 영역으로 구분하는 경우를 예를 들어 설명하고 있다.Referring to FIG. 42 , the
웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 착용하고 있는 사용자의 손등의 범위를 설정한다. The
웨어러블 디바이스(100)는 사용자가 복수의 영역들 중 어느 영역을 터치하는지를 결정한다. 웨어러블 디바이스(100)는 측면에 구비된 센서를 통해 사용자가 손등의 어느 부분을 터치하는지를 감지한다. 다시 말해서, 웨어러블 디바이스(100)는 사용자의 손가락이 감지된 위치를 판단한다. 예를 들어, 웨어러블 디바이스(100)는 2개의 센서와 손가락의 거리를 측정하고, 측정된 거리를 이용하여 손가락이 감지된 위치를 계산할 수 있다.The
웨어러블 디바이스(100)는 사용자가 터치한 영역에 대응되는 문자를 결정한다. 웨어러블 디바이스(100)는 설정된 영역과 문자를 맵핑한다. 도 42의 경우, 12개의 영역에 맵핑된 문자를 도시하고 있다. 예를 들어, 2행 2열의 영역은 ㄴ, ㄹ 이 맵핑된 영역이다.The
도 43은 웨어러블 디바이스(100)에 입력되는 문자 및 표시되는 문자 입력 가이드를 설명하기 위한 도면이다. 도 43을 참조하면, 웨어러블 디바이스(100)는 디스플레이부(120)에 입력되는 문자를 표시한다. 웨어러블 디바이스(100)는 사용자의 터치를 감지하고, 터치된 위치에 따라 문자를 입력한다. 43 is a diagram for explaining text input to the
웨어러블 디바이스(100)는 디스플레이부(120)에 문자 입력 가이드를 표시한다. 다시 말해서, 웨어러블 디바이스(100)는 디스플레이부(120)에 문자가 배열된 상태를 표시한다. 사용자는 문자 입력 가이드를 참조하여 터치 위치를 구분할 수 있다.
The
도 44 내지 도 45는 일 실시 예에 따른 웨어러블 디바이스의 터치 센서의 배열 설명하기 위한 도면이다. 도 44를 참조하면, 웨어러블 디바이스(100)는 정면의 상하 또는 좌우에 터치 센서(150)들을 포함할 수 있다. 터치 센서(150)는 웨어러블 디바이스(100)의 정면의 가장자리에 배치될 수 있다. 도 45를 참조하면, 웨어러블 디바이스(100)는 4면에 터치 센서(150)들을 포함할 수 있다. 터치 센서(150)들은 디스플레이부(120)를 둘러싼 형태로 배열될 수 있다.
44 to 45 are diagrams for explaining an arrangement of touch sensors of a wearable device according to an exemplary embodiment. Referring to FIG. 44 , the
도 46은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다. 도 46을 참조하면, 웨어러블 디바이스(100)는 터치 센서(150)들을 이용하여 문자를 입력할 수 있다. 웨어러블 디바이스(100)는 4면에 배치된 터치 센서(150)들과 병렬로 문자들을 표시한다. 예를 들어, 웨어러블 디바이스(100)의 윗면에는 초성들이 배열될 수 있고, 우측 면에는 중성이 배열될 수 있고, 아랫면에는 종성이 배열될 수 있고, 좌측 면에는 이동 표시가 배열될 수 있다. 웨어러블 디바이스(100)는 터치 센서(150)들 중에서 사용자의 터치가 감지된 위치를 결정하고, 결정된 위치에 배열된 문자를 입력할 수 있다. 도 46에서는 한글을 배열한 경우를 예를 들어 설명하고 있으나, 영어, 일어, 스페인어 등 다양한 언어가 배열될 수 있다.
46 is a diagram for describing a text input method according to an exemplary embodiment. Referring to FIG. 46 , the
도 47은 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다. 도 47을 참조하면, 웨어러블 디바이스(100)는 터치, 드래그 및 드랍 동작을 감지하여 문자를 입력할 수 있다. 47 is a diagram for explaining a text input method according to an embodiment. Referring to FIG. 47 , the
첫째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 터치(touch) 동작을 감지한다. 웨어러블 디바이스(100)는 터치 동작이 감지되면, 터치된 위치를 결정하고, 결정된 위치에 배열된 문자를 확대하여 표시한다.First, the
둘째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 드래그(drag) 동작을 감지한다. 드래그 동작은 사용자가 터치 센서(150)를 터치한 상태로 이동하는 동작을 나타낸다. 웨어러블 디바이스(100)는 드래그 동작을 감지하면, 사용자의 터치 입력이 이동에 따라 문자를 확대한다.Second, the
셋째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 드랍(drop) 동작을 감지한다. 드랍 동작은 사용자가 터치 입력을 종료하는 동작을 나타낸다. 예를 들어, 터치 센서(150)에 접촉된 사용자의 손가락이 터치 센서(150)에서 떨어지는 것을 나타낸다. 웨어러블 디바이스(100)는 드랍 동작이 감지되면, 드랍 동작이 감지될 때 확대된 문자를 입력한다. 입력된 문자는 디스플레이부에 표시된다. 도 47에서는 ㅅ 이 입력된 경우를 도시하고 있다.
Third, the
도 48 내지 49는 일 실시 예에 따른 문자 입력 방법을 설명하기 위한 도면이다. 도 48 내지 49를 참조하면, 웨어러블 디바이스(100)는 적어도 2번의 터치 동작을 감지하여 문자를 입력할 수 있다. 48 to 49 are diagrams for explaining a text input method according to an exemplary embodiment. 48 to 49 , the
첫째로, 첫째로, 웨어러블 디바이스(100)는 터치 센서(150)를 통해 터치(touch) 동작을 감지한다. First, first, the
둘째로, 웨어러블 디바이스(100)는 터치 동작이 감지되면, 터치된 위치를 결정하고, 결정된 위치에 인접한 적어도 하나의 문자를 확대하여 표시한다. 예를 들어, 웨어러블 디바이스(100)는 결정된 위치에 표시된 문자 및 결정된 위치와 가장 인접한 위치에 표시된 문자를 확대하여 표시할 수 있다. 도 49에서는 사용자가 ㄴ 이 표시된 부분의 터치 센서(150)를 터치한 경우, 웨어러블 디바이스(100)가 ㄴ 과 인접한 ㄱ 및 ㄷ 을 확대하여 표시한 예를 도시하고 있다.Second, when a touch operation is sensed, the
셋째로, 사용자는 터치 센서(150) 또는 확대된 문자를 터치할 수 있다. 도 49에서는 사용자가 ㄱ, ㄴ, ㄷ 중 ㄴ 을 터치한 예를 도시하고 있다.Third, the user may touch the touch sensor 150 or the enlarged character. 49 shows an example in which the user touches b among a, b, and c.
넷째로, 웨어러블 디바이스(100)는 확대된 문자들 중 사용자의 터치가 어느 문자에 대해 수행되었는지 결정하고, 결정된 문자를 입력하고, 디스플레이부에 표시한다.
Fourth, the
도 50 내지 54는 일 실시 예에 따른 화면 회전 방법을 설명하기 위한 도면이다. 도 50 내지 도 54를 참조하면, 웨어러블 디바이스(100)는 가장자리에 배치된 터치 센서(150)들을 이용하여 화면을 회전할 수 있다.50 to 54 are diagrams for explaining a screen rotation method according to an embodiment. 50 to 54 , the
도 50 내지 51은 터치 센서(150)들이 웨어러블 디바이스(100)의 위쪽과 아래쪽에 배치된 경우를 예를 들어 설명한다. 웨어러블 디바이스(100)는 위쪽과 아래쪽에 배치된 터치 센서(150)들을 통해 사용자의 터치를 수신하고, 수신된 터치 패턴에 따라 화면을 회전할 수 있다. 도 50은 웨어러블 디바이스(100)가 사용자의 입력에 따라 시계 방향으로 도형을 회전하는 예를 나타낸다.50 to 51 will be described as an example in which the touch sensors 150 are disposed above and below the
도 51은 웨어러블 디바이스(100)가 도 50에 도시된 사용자의 입력 패턴을 감지하는 방법을 설명하기 위한 도면이다. 웨어러블 디바이스(100)는 위쪽 터치 센서(150) 및 아래쪽 터치 센서(150)에서 터치 및 드래그 동작을 감지한다. 웨어러블 디바이스(100)는 터치 센서(150)들에서 감지되는 드래그의 방향을 결정한다. 웨어러블 디바이스(100)는 위쪽 터치 센서(150) 및 아래쪽 터치 센서(150)에서 감지되는 드래그의 방향에 따라 설정된 동작을 수행한다. 예를 들어 위쪽 터치 센서(150)에서 감지되는 드래그의 방향과 아래쪽 터치 센서(150)에서 감지되는 드래그의 방향이 반대인 경우, 웨어러블 디바이스(100)는 화면을 회전한다. FIG. 51 is a diagram for explaining a method in which the
도 51에서는 위쪽 터치 센서(150)는 왼쪽에서 오른쪽 방향으로 드래그를 감지하고, 아래쪽 터치 센서(150)는 오른쪽에서 왼쪽 방향으로 드래그를 감지한다. 웨어러블 디바이스(100)는 화면을 시계 방향으로 회전한다. In FIG. 51 , the upper touch sensor 150 detects a drag from left to right, and the lower touch sensor 150 detects a drag from right to left. The
도 52는 위쪽 터치 센서(150)가 오른쪽에서 왼쪽 방향으로 드래그를 감지하고, 아래쪽 터치 센서(150)가 왼쪽에서 오른쪽 방향으로 드래그를 감지한 경우, 웨어러블 디바이스(100)는 화면을 반시계 방향으로 회전하는 예를 도시하고 있다.
52 shows when the upper touch sensor 150 detects a drag from right to left and the lower touch sensor 150 detects a drag from left to right, the
도 53 내지 54는 터치 센서(150)들이 웨어러블 디바이스(100)의 왼쪽과 오른쪽에 배치된 경우를 예를 들어 설명한다. 웨어러블 디바이스(100)는 왼쪽과 오른쪽에 배치된 터치 센서(150)들을 통해 사용자의 터치를 수신하고, 수신된 터치 패턴에 따라 화면을 회전할 수 있다. 53 to 54 will be described as an example in which the touch sensors 150 are disposed on the left and right sides of the
도 53은 웨어러블 디바이스(100)가 사용자의 입력에 따라 시계 방향으로 도형을 회전하는 예를 나타낸다. 웨어러블 디바이스(100)는 왼쪽 터치 센서(150) 및 오른쪽 터치 센서(150)에서 터치 및 드래그 동작을 감지한다. 웨어러블 디바이스(100)는 터치 센서(150)들에서 감지되는 드래그의 방향을 결정한다. 웨어러블 디바이스(100)는 왼쪽 터치 센서(150) 및 오른쪽 터치 센서(150)에서 감지되는 드래그의 방향에 따라 설정된 동작을 수행한다. 예를 들어 왼쪽 터치 센서(150)에서 감지되는 드래그의 방향과 오른쪽 터치 센서(150)에서 감지되는 드래그의 방향이 반대인 경우, 웨어러블 디바이스(100)는 화면을 회전한다. 53 illustrates an example in which the
도 53에서는 왼쪽 터치 센서(150)는 아래에서 위 방향으로 드래그를 감지하고, 오른쪽 터치 센서(150)는 위에서 아래 방향으로 드래그를 감지한다. 웨어러블 디바이스(100)는 화면을 시계 방향으로 회전한다. In FIG. 53 , the left touch sensor 150 detects a drag from the bottom up, and the right touch sensor 150 detects a drag from the top down. The
도 54는 왼쪽 터치 센서(150)가 위에서 아래 방향으로 드래그를 감지하고, 오른쪽 터치 센서(150)가 아래에서 위 방향으로 드래그를 감지한 경우, 웨어러블 디바이스(100)는 화면을 반시계 방향으로 회전하는 예를 도시하고 있다.
54 shows when the left touch sensor 150 detects a drag from top to bottom and the right touch sensor 150 detects a drag from bottom to top, the
본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. The device according to the present embodiments includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button, and the like. It may include an interface device and the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, the computer-readable recording medium includes a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optically readable medium (eg, CD-ROM). ), and DVD (Digital Versatile Disc)). The computer-readable recording medium may be distributed among network-connected computer systems, so that the computer-readable code may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed on a processor.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, an embodiment may be an integrated circuit configuration, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. can be hired Similar to how components may be implemented as software programming or software components, this embodiment includes various algorithms implemented in a combination of data structures, processes, routines, or other programming constructs, including C, C++, Java ( Java), assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, the present embodiment may employ the prior art for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in connection with a processor or the like.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. The specific implementations described in this embodiment are examples, and do not limit the technical scope in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of lines between the components shown in the drawings illustratively represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (especially in the claims), the use of the term “above” and similar referential terms may be used in both the singular and the plural. In addition, when a range is described, individual values within the range are included (unless there is a description to the contrary), and each individual value constituting the range is described in the detailed description. Finally, the steps constituting the method may be performed in an appropriate order unless the order is explicitly stated or there is no description to the contrary. It is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary terms (eg, etc.) is merely for describing the technical idea in detail, and the scope is not limited by the examples or exemplary terms unless limited by the claims. In addition, those skilled in the art will appreciate that various modifications, combinations, and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.
100: 웨어러블 디바이스
110: 센서
120: 디스플레이부 100: wearable device
110: sensor
120: display unit
Claims (17)
복수의 아이템들을 표시하고, 표시된 상기 복수의 아이템들 중 제1 아이템에 포커스를 표시하는 디스플레이부; 및
상기 포커스의 현재 위치에 따라 상기 포커스가 이동 가능한 방향들에 대응하는 하나 이상의 영역들 및 상기 포커스가 이동할 수 없는 방향에 대응하는 중립 영역을 설정하고,
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 하나 이상의 영역들에 포함되는 것에 기초하여, 상기 포커스를 상기 제1 아이템에서 상기 주변 객체가 움직인 방향에 대응되는 위치의 제2 아이템으로 이동시켜 표시하도록 상기 디스플레이부를 제어하고,
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 중립 영역에 포함되는 것에 기초하여, 사용자에게 피드백을 제공하는 프로세서를 포함하는 웨어러블 디바이스.a sensor that detects a movement of a surrounding object;
a display unit that displays a plurality of items and displays a focus on a first item among the displayed plurality of items; and
setting one or more regions corresponding to directions in which the focus is movable and a neutral region corresponding to a direction in which the focus cannot be moved according to the current position of the focus;
Based on the fact that a position corresponding to the moving direction of the surrounding object is included in the one or more regions, the focus is moved from the first item to a second item at a position corresponding to the moving direction of the surrounding object and displayed to control the display unit to
and a processor configured to provide feedback to a user based on a location corresponding to a movement direction of the surrounding object being included in the neutral region.
상기 프로세서는 상기 주변 객체가 이동을 시작하는 시작점의 좌표와 상기 주변 객체가 멈추는 끝점의 좌표를 계산하고, 상기 웨어러블 디바이스와 상기 시작점 및 상기 끝점의 위치 관계를 이용하여 상기 주변 객체의 움직임 방향을 획득하는 것을 특징으로 하는 웨어러블 디바이스.The method of claim 1,
The processor calculates the coordinates of the starting point at which the surrounding object starts moving and the coordinates of the end point at which the surrounding object stops, and uses the positional relationship between the wearable device and the starting point and the end point to obtain the motion direction of the surrounding object Wearable device, characterized in that.
상기 프로세서는 상기 웨어러블 디바이스의 측면 또는 정면에서 움직이는 상기 주변 객체의 움직임 방향을 획득하는 것을 특징으로 하는 웨어러블 디바이스.The method of claim 1,
The processor is a wearable device, characterized in that it obtains the movement direction of the peripheral object moving from the side or the front of the wearable device.
상기 프로세서는 상기 주변 객체가 이동한 각도를 계산하여 상기 포커스의 이동 방향을 결정하는 것을 특징으로 하는 웨어러블 디바이스.The method of claim 1,
The processor is a wearable device, characterized in that for determining the movement direction of the focus by calculating the movement angle of the surrounding object.
상기 포커스의 현재 위치에 따라 상기 포커스가 이동 가능한 방향들에 대응하는 하나 이상의 영역들 및 상기 포커스가 이동할 수 없는 방향에 대응하는 중립 영역을 설정하는 단계;
주변 객체의 움직임을 검출하는 단계;
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 하나 이상의 영역들에 포함되는 것에 기초하여, 상기 포커스를 상기 제1 아이템에서 상기 주변 객체가 움직인 방향에 대응되는 위치의 제2 아이템으로 이동시켜 표시하는 단계; 및
상기 주변 객체의 움직임 방향에 대응되는 위치가 상기 중립 영역에 포함되는 것에 기초하여, 사용자에게 피드백을 제공하는 단계를 포함하는 웨어러블 디바이스의 동작 방법.displaying a plurality of items and displaying focus on a first item among the displayed plurality of items;
setting one or more regions corresponding to directions in which the focus is movable and a neutral region corresponding to a direction in which the focus is not movable according to the current position of the focus;
detecting a motion of a surrounding object;
Based on the fact that a position corresponding to the moving direction of the surrounding object is included in the one or more regions, the focus is moved from the first item to a second item at a position corresponding to the moving direction of the surrounding object and displayed to do; and
and providing feedback to a user based on a location corresponding to a movement direction of the surrounding object being included in the neutral region.
상기 주변 객체가 이동을 시작하는 시작점의 좌표와 상기 주변 객체가 멈추는 끝점의 좌표를 계산하고, 상기 웨어러블 디바이스와 상기 시작점 및 상기 끝점의 위치 관계를 이용하여 상기 주변 객체의 움직임 방향을 획득하는 단계를 더 포함하는 것을 특징으로 하는 웨어러블 디바이스의 동작 방법.10. The method of claim 9,
Calculating the coordinates of the starting point at which the surrounding object starts moving and the coordinates of the end point at which the surrounding object stops, and using the positional relationship between the wearable device and the starting point and the end point to obtain the direction of movement of the surrounding object Operating method of a wearable device, characterized in that it further comprises.
상기 웨어러블 디바이스의 측면에서 움직이는 상기 주변 객체의 움직임 방향을 획득하는 것을 특징으로 하는 웨어러블 디바이스의 동작 방법.The method of claim 10, wherein the obtaining of the motion direction of the surrounding object comprises:
The operating method of the wearable device, characterized in that obtaining the movement direction of the surrounding object moving from the side of the wearable device.
상기 주변 객체가 이동한 각도를 계산하여 상기 포커스의 이동 방향을 결정하고, 상기 결정된 이동 방향으로 상기 포커스를 이동시켜 표시하는 것을 특징으로 하는 웨어러블 디바이스의 동작 방법.The method of claim 9, wherein the displaying by moving the focus comprises:
The operating method of the wearable device, characterized in that the moving direction of the focus is determined by calculating the moving angle of the surrounding object, and the focus is moved and displayed in the determined moving direction.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2015/006995 WO2016017956A1 (en) | 2014-07-30 | 2015-07-07 | Wearable device and method of operating the same |
JP2017504397A JP6418585B2 (en) | 2014-07-30 | 2015-07-07 | Wearable device and operation method of wearable device |
AU2015297289A AU2015297289B2 (en) | 2014-07-30 | 2015-07-07 | Wearable device and method of operating the same |
EP15178252.1A EP2980677B1 (en) | 2014-07-30 | 2015-07-24 | Wearable device and method of operating the same |
TW104124615A TWI537771B (en) | 2014-07-30 | 2015-07-30 | Wearable device and method of operating the same |
US14/813,889 US9823751B2 (en) | 2014-07-30 | 2015-07-30 | Wearable device and method of operating the same |
CN201510458504.2A CN105320275B (en) | 2014-07-30 | 2015-07-30 | The method of wearable device and operation wearable device |
US15/812,586 US10437346B2 (en) | 2014-07-30 | 2017-11-14 | Wearable device and method of operating the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140097613 | 2014-07-30 | ||
KR1020140097613 | 2014-07-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160015146A KR20160015146A (en) | 2016-02-12 |
KR102397397B1 true KR102397397B1 (en) | 2022-05-13 |
Family
ID=55355084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150047493A KR102397397B1 (en) | 2014-07-30 | 2015-04-03 | Wearalble device and operating method for the same |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP6418585B2 (en) |
KR (1) | KR102397397B1 (en) |
AU (1) | AU2015297289B2 (en) |
TW (1) | TWI537771B (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI680401B (en) * | 2017-01-25 | 2019-12-21 | 華碩電腦股份有限公司 | Electronic device and operation method thereof |
TW202032324A (en) | 2019-02-27 | 2020-09-01 | 財團法人工業技術研究院 | Multiplayer sports formation arrangement prompting method and system |
KR102219674B1 (en) * | 2019-08-19 | 2021-02-24 | 김동주 | Watch control device for adjusting moving speed of the hands according to the background image |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237765A (en) * | 2009-03-30 | 2010-10-21 | Toshiba Corp | Information processing apparatus, focus movement control method, and focus movement control program |
JP2012113743A (en) | 2012-02-29 | 2012-06-14 | Denso Corp | Display controller for remote operation device |
JP2012113715A (en) * | 2010-11-22 | 2012-06-14 | Samsung Electronics Co Ltd | Item selection device and method using movement of object |
US20130335303A1 (en) | 2012-06-14 | 2013-12-19 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
JP2013545183A (en) * | 2010-11-01 | 2013-12-19 | トムソン ライセンシング | Method and apparatus for detecting gesture input |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7804488B2 (en) * | 2006-11-03 | 2010-09-28 | Research In Motion Limited | Method of employing a switch assembly to provide input, and handheld electronic device |
US8624836B1 (en) * | 2008-10-24 | 2014-01-07 | Google Inc. | Gesture-based small device input |
US20110314425A1 (en) * | 2010-06-16 | 2011-12-22 | Holy Stone Enterprise Co., Ltd. | Air gesture recognition type electronic device operating method |
KR101514170B1 (en) * | 2011-04-27 | 2015-04-21 | 엔이씨 솔루션 이노베이터 가부시키가이샤 | Input device, input method and recording medium |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
US11237719B2 (en) * | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US9477313B2 (en) * | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
-
2015
- 2015-04-03 KR KR1020150047493A patent/KR102397397B1/en active IP Right Grant
- 2015-07-07 JP JP2017504397A patent/JP6418585B2/en not_active Expired - Fee Related
- 2015-07-07 AU AU2015297289A patent/AU2015297289B2/en not_active Ceased
- 2015-07-30 TW TW104124615A patent/TWI537771B/en not_active IP Right Cessation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237765A (en) * | 2009-03-30 | 2010-10-21 | Toshiba Corp | Information processing apparatus, focus movement control method, and focus movement control program |
JP2013545183A (en) * | 2010-11-01 | 2013-12-19 | トムソン ライセンシング | Method and apparatus for detecting gesture input |
JP2012113715A (en) * | 2010-11-22 | 2012-06-14 | Samsung Electronics Co Ltd | Item selection device and method using movement of object |
JP2012113743A (en) | 2012-02-29 | 2012-06-14 | Denso Corp | Display controller for remote operation device |
US20130335303A1 (en) | 2012-06-14 | 2013-12-19 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
Also Published As
Publication number | Publication date |
---|---|
KR20160015146A (en) | 2016-02-12 |
AU2015297289A1 (en) | 2017-02-02 |
JP2017526061A (en) | 2017-09-07 |
TWI537771B (en) | 2016-06-11 |
JP6418585B2 (en) | 2018-11-07 |
AU2015297289B2 (en) | 2018-03-01 |
TW201617793A (en) | 2016-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10437346B2 (en) | Wearable device and method of operating the same | |
CN108431729B (en) | Three-dimensional object tracking to increase display area | |
JP6371475B2 (en) | Eye-gaze input device, eye-gaze input method, and eye-gaze input program | |
US8988380B2 (en) | Display apparatus, display method, and display program | |
US20110191707A1 (en) | User interface using hologram and method thereof | |
US20180232106A1 (en) | Virtual input systems and related methods | |
JP2014219938A (en) | Input assistance device, input assistance method, and program | |
US20140082559A1 (en) | Control area for facilitating user input | |
US10394434B2 (en) | Apparatus and method for recognizing proximity motion using sensors | |
KR102397397B1 (en) | Wearalble device and operating method for the same | |
US10331333B2 (en) | Touch digital ruler | |
GB2531112B (en) | Optical digital ruler | |
JP6033061B2 (en) | Input device and program | |
KR101436585B1 (en) | Method for providing user interface using one point touch, and apparatus therefor | |
JP5780823B2 (en) | Display device, display device control method, and program | |
JP5769841B2 (en) | Portable game device with touch panel display | |
US20150091831A1 (en) | Display device and display control method | |
KR20140086805A (en) | Electronic apparatus, method for controlling the same and computer-readable recording medium | |
JP6126639B2 (en) | A portable game device having a touch panel display and a game program. | |
KR20150031953A (en) | Method for processing data and an electronic device thereof | |
JP6204414B2 (en) | GAME DEVICE AND PROGRAM | |
JP5769765B2 (en) | Portable game device with touch panel display | |
KR101436586B1 (en) | Method for providing user interface using one point touch, and apparatus therefor | |
KR20100099490A (en) | User interface and method for providing guidance information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |