JP2017526061A - Wearable device and operation method of wearable device - Google Patents

Wearable device and operation method of wearable device Download PDF

Info

Publication number
JP2017526061A
JP2017526061A JP2017504397A JP2017504397A JP2017526061A JP 2017526061 A JP2017526061 A JP 2017526061A JP 2017504397 A JP2017504397 A JP 2017504397A JP 2017504397 A JP2017504397 A JP 2017504397A JP 2017526061 A JP2017526061 A JP 2017526061A
Authority
JP
Japan
Prior art keywords
wearable device
focus
item
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017504397A
Other languages
Japanese (ja)
Other versions
JP6418585B2 (en
Inventor
ホ−チュル・シン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2015/006995 external-priority patent/WO2016017956A1/en
Publication of JP2017526061A publication Critical patent/JP2017526061A/en
Application granted granted Critical
Publication of JP6418585B2 publication Critical patent/JP6418585B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Multimedia (AREA)

Abstract

周辺客体の動きを検出するセンサと、複数のアイテムを表示し、表示された複数のアイテムのうち少なくとも1つのアイテムにフォーカスを表示するディスプレイ部と、客体が動いた方向に対応する位置するアイテムにフォーカスを移動させて表示するように、ディスプレイ部を制御するプロセッサと、を含むウェアラブルデバイスである。Sensors that detect the movement of surrounding objects, a display unit that displays a plurality of items and displays focus on at least one of the displayed items, and an item that is positioned corresponding to the direction in which the object has moved A wearable device including a processor that controls a display unit so that a focus is moved and displayed.

Description

本発明は、ウェアラブルデバイス、及びウェアラブルデバイスの動作方法に関する。   The present invention relates to a wearable device and a method for operating the wearable device.

プロセッサの大きさが小さくなるにつれ、モバイルデバイスの大きさも小さくなっている。モバイルデバイスの大きさが小さくなり、ユーザの身体に着用が可能なウェアラブルデバイス(wearable device)が生産されている。   As the size of processors decreases, so does the size of mobile devices. Mobile devices have become smaller and wearable devices that can be worn on the user's body have been produced.

ユーザは、ウェアラブルデバイスを操作し、所望情報を獲得することができる。該ウェアラブルデバイスは、ユーザの操作のためのインターフェースを提供する。ユーザは、該ウェアラブルデバイスを直接タッチし、該ウェアラブルデバイスを操作することができる。該ウェアラブルデバイスは、ユーザの操作による結果を、ディスプレイ装置を介して表示する。   The user can acquire the desired information by operating the wearable device. The wearable device provides an interface for user operation. The user can directly touch the wearable device to operate the wearable device. The wearable device displays a result of a user operation through a display device.

本発明が解決しようとする課題は、ウェアラブルデバイス、及びウェアラブルデバイスの動作方法を提供することである。該ウェアラブルデバイスは、ユーザの身体に着用されるために、小型に製作される。従って、小型のウェアラブルデバイスをユーザが便利に操作するための方法が提供されなければならない。   The problem to be solved by the present invention is to provide a wearable device and a method for operating the wearable device. The wearable device is made small to be worn on the user's body. Therefore, a method must be provided for a user to conveniently operate a small wearable device.

一実施形態によるウェアラブルデバイスは、周辺客体(peripheral object)の動きを検出するセンサと、複数のアイテムを表示し、表示された複数のアイテムのうち少なくとも1つのアイテムにフォーカスを表示するディスプレイ部と、前記客体が動いた方向に対応する位置のアイテムにフォーカスを移動させて表示するように、前記ディスプレイ部を制御するプロセッサと、を含む。   A wearable device according to an embodiment includes a sensor that detects movement of a peripheral object, a display unit that displays a plurality of items, and displays a focus on at least one of the displayed items. And a processor for controlling the display unit so that an item at a position corresponding to a direction in which the object moves is moved and displayed.

一実施形態によるウェアラブルデバイスの動作方法は、複数のアイテムを表示し、表示された複数のアイテムのうち少なくとも1つのアイテムにフォーカスを表示する段階と、周辺客体の動きを検出する段階と、前記客体が動いた方向に対応する位置のアイテムにフォーカスを移動させて表示する段階と、を含む。   An operation method of a wearable device according to an embodiment includes a step of displaying a plurality of items, displaying a focus on at least one of the displayed items, detecting a movement of a surrounding object, and the object Moving the focus to an item at a position corresponding to the direction in which the item moved.

本発明によるウェアラブルデバイスの動作方法は、ユーザに便利なメニュー選択方法を提供する。   The operation method of the wearable device according to the present invention provides a menu selection method convenient for the user.

一実施形態によるウェアラブルデバイスの動作方法について説明するための図面である。6 is a diagram illustrating an operation method of a wearable device according to an exemplary embodiment. 正面にセンサを具備するウェアラブルデバイスの動作方法について説明するための図面である。It is drawing for demonstrating the operation | movement method of the wearable device which comprises a sensor in the front. 一実施形態による、ウェアラブルデバイス周辺での客体の動きを利用して、ウェアラブルデバイスのディスプレイに表示されたフォーカスを移動させる方法について説明するための図面である。6 is a diagram for explaining a method of moving a focus displayed on a display of a wearable device using movement of an object around the wearable device according to an embodiment. 一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。5 is a flowchart for explaining an operation method of a wearable device according to an embodiment. 他の一実施形態によるウェアラブルデバイスが、角度による領域を決定し、表示されるアイテムを変更する方法について説明するための図面である。6 is a diagram illustrating a method for a wearable device according to another embodiment to determine an angle area and change a displayed item. 他の一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。12 is a flowchart for explaining an operation method of a wearable device according to another embodiment. 一実施形態によるウェアラブルデバイスが、角度に対応する領域を決定し、イメージを移動させる方法について説明するための図面である。5 is a diagram for explaining a method of determining a region corresponding to an angle and moving an image by a wearable device according to an exemplary embodiment. さらに他の一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。10 is a flowchart for explaining an operation method of a wearable device according to another embodiment. 一実施形態によるウェアラブルデバイスを示す構成図である。It is a block diagram which shows the wearable device by one Embodiment. 他の一実施形態によるウェアラブルデバイスを示す構成図である。It is a block diagram which shows the wearable device by other one Embodiment. 一実施形態によるウェアラブルデバイスが、客体の移動角度を測定する方法について説明するための図面である。3 is a diagram illustrating a method for measuring a moving angle of an object by a wearable device according to an exemplary embodiment. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスが、フォーカス位置に対応する領域を設定する方法について説明するための図面である。5 is a diagram for explaining a method for a wearable device according to an embodiment to set an area corresponding to a focus position. 一実施形態によるウェアラブルデバイスの動作方法について説明するための図面である。6 is a diagram illustrating an operation method of a wearable device according to an exemplary embodiment. 一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。6 is a diagram for describing an example in which a wearable device according to an embodiment moves focus according to a user input. 一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。6 is a diagram for describing an example in which a wearable device according to an embodiment moves focus according to a user input. 一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。6 is a diagram for describing an example in which a wearable device according to an embodiment moves focus according to a user input. 一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。6 is a diagram for describing an example in which a wearable device according to an embodiment moves focus according to a user input. 一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。6 is a diagram for describing an example in which a wearable device according to an embodiment moves focus according to a user input. 一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。6 is a diagram for describing an example in which a wearable device according to an embodiment moves focus according to a user input. 一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。6 is a diagram for describing an example in which a wearable device according to an embodiment moves focus according to a user input. 一実施形態によるウェアラブルデバイスが、客体のジェスチャを認識し、画面を転換する方法について説明するための図面である。3 is a diagram illustrating a method for a wearable device according to an embodiment to recognize an object gesture and change a screen; 一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。6 is a diagram illustrating a method for a wearable device to recognize and operate a gesture according to an exemplary embodiment. 他の一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。10 is a diagram illustrating a method in which a wearable device according to another embodiment recognizes a gesture and operates. さらに他の一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。10 is a diagram illustrating a method in which a wearable device according to another embodiment recognizes a gesture and operates. さらに他の一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。10 is a diagram illustrating a method in which a wearable device according to another embodiment recognizes a gesture and operates. さらに他の一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。10 is a diagram illustrating a method in which a wearable device according to another embodiment recognizes a gesture and operates. 一実施形態によるウェアラブルデバイスが文字を入力する方法について説明するための図面である。5 is a diagram illustrating a method for inputting characters by a wearable device according to an exemplary embodiment. さらに他の一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。10 is a flowchart for explaining an operation method of a wearable device according to another embodiment. 一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。3 is a diagram for explaining a wearable device navigation method according to an exemplary embodiment; 一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。3 is a diagram for explaining a wearable device navigation method according to an exemplary embodiment; 一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。3 is a diagram for explaining a wearable device navigation method according to an exemplary embodiment; 一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。3 is a diagram for explaining a wearable device navigation method according to an exemplary embodiment; 一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。3 is a diagram for explaining a wearable device navigation method according to an exemplary embodiment; 一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。3 is a diagram for explaining a wearable device navigation method according to an exemplary embodiment; 一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。3 is a diagram for explaining a wearable device navigation method according to an exemplary embodiment; 一実施形態によるウェアラブルデバイスが手の甲タッチを感知して文字を入力する方法について説明するための図面である。4 is a diagram illustrating a method for inputting characters by detecting a back touch of a hand by a wearable device according to an exemplary embodiment. 一実施形態によるウェアラブルデバイスが手の甲タッチを感知して文字を入力する方法について説明するための図面である。4 is a diagram illustrating a method for inputting characters by detecting a back touch of a hand by a wearable device according to an exemplary embodiment. 一実施形態によるウェアラブルデバイスのタッチセンサの配列説明を行うための図面である。3 is a diagram for explaining an arrangement of touch sensors of a wearable device according to an embodiment. 一実施形態によるウェアラブルデバイスのタッチセンサの配列説明を行うための図面である。3 is a diagram for explaining an arrangement of touch sensors of a wearable device according to an embodiment. 一実施形態による文字入力方法について説明するための図面である。It is a drawing for explaining a character input method according to an embodiment. 他の一実施形態による文字入力方法について説明するための図面である。It is a figure for demonstrating the character input method by other one Embodiment. さらに他の一実施形態による文字入力方法について説明するための図面である。6 is a diagram illustrating a character input method according to another embodiment. さらに他の一実施形態による文字入力方法について説明するための図面である。6 is a diagram illustrating a character input method according to another embodiment. 一実施形態による画面回転方法について説明するための図面である。5 is a diagram for explaining a screen rotation method according to an embodiment; 一実施形態による画面回転方法について説明するための図面である。5 is a diagram for explaining a screen rotation method according to an embodiment; 一実施形態による画面回転方法について説明するための図面である。5 is a diagram for explaining a screen rotation method according to an embodiment; 一実施形態による画面回転方法について説明するための図面である。5 is a diagram for explaining a screen rotation method according to an embodiment; 一実施形態による画面回転方法について説明するための図面である。5 is a diagram for explaining a screen rotation method according to an embodiment;

本実施形態は、多様な変換を加えることができ、さまざまな実施形態を有することができるが、特定実施形態を図面に例示し、詳細な説明によって詳細に説明する。しかし、それらは、特定の実施形態について範囲を限定するものではなく、開示された思想及び技術範囲に含まれる全ての変換、均等物ないし代替物を含むものであると理解されなければならない。実施形態についての説明において、関連公知技術に係わる具体的な説明が、要旨を不明確にすると判断される場合、その詳細な説明を省略する。   While this embodiment can be modified in various ways and can have a variety of embodiments, specific embodiments are illustrated in the drawings and will be described in detail with the detailed description. However, they should not be construed to limit the scope of the specific embodiments, but should be understood to include all transformations, equivalents or alternatives that fall within the spirit and scope of the disclosure. In the description of the embodiment, when it is determined that the specific description related to the related known technology makes the gist unclear, the detailed description thereof is omitted.

第1、第2のような用語は、多様な構成要素についての説明に使用されるが、該構成要素は、用語によって限定されるものではない。該用語は、1つの構成要素を他の構成要素から区別する目的だけに使用される。   Terms such as “first” and “second” are used to describe various components, but the components are not limited by the terms. The term is only used to distinguish one component from another.

本出願で使用された用語は、ただ特定の実施形態についての説明に使用されたものであり、権利範囲を限定する意図ではない。単数の表現は、文脈上明白に異なって意味しない限り、複数の表現を含む。本出願において、「含む」または「有する」というような用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品、またはそれらを組み合わせが存在するということを指定するものであり、一つ、またはそれ以上の他の特徴、数字、段階、動作、構成要素、部品、またはそれらの組み合わせの存在または付加の可能性をあらかじめ排除するものではないと理解されなければならない。   The terms used in the present application are merely used to describe particular embodiments, and are not intended to limit the scope of rights. An expression used in the singular encompasses the expression of the plural, unless it has a clearly different meaning in the context. In this application, terms such as “comprising” or “having” designate that there is a feature, number, step, action, component, part, or combination thereof described in the specification. It should be understood that this does not exclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

以下、実施形態について、添付図面を参照し、詳細に説明するが、添付図面を参照しての説明において、同一であるか、あるいは対応する構成要素は、同一図面番号を付し、それについての重複説明は省略する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same or corresponding components are denoted by the same drawing numbers, and A duplicate description is omitted.

図1Aは、一実施形態によるウェアラブルデバイス(wearable device)の動作方法について説明するための図面である。図1Aを参照すれば、ウェアラブルデバイス100は、客体(object)の動きを感知し、アイテムに表示されたフォーカスを移動させることができる。   FIG. 1A is a diagram illustrating an operation method of a wearable device according to an embodiment. Referring to FIG. 1A, the wearable device 100 can sense the movement of an object and move the focus displayed on the item.

該客体は、ウェアラブルデバイス100の周辺(periphery)で感知される事物、ユーザの指などにもなる。ウェアラブルデバイス100の「周辺」は、ウェアラブルデバイス100から、あらかじめ設定された距離内の領域を意味するか、あるいはウェアラブルデバイス100の側面から、同一距離内の領域を意味する。例えば、ウェアラブルデバイス100の周辺は、ウェアラブルデバイス100を着用しているユーザの手の甲でもある。または、ウェアラブルデバイス100の周辺は、ウェアラブルデバイス100の正面でもある。ウェアラブルデバイス100の周辺は、ウェアラブルデバイス100のカメラが客体を認識することができる領域でもある。   The object may also be an object sensed around the wearable device 100 (periphery), a user's finger, or the like. The “periphery” of the wearable device 100 means an area within a preset distance from the wearable device 100, or an area within the same distance from the side of the wearable device 100. For example, the periphery of the wearable device 100 is also the back of the user's hand wearing the wearable device 100. Alternatively, the periphery of the wearable device 100 is also the front surface of the wearable device 100. The periphery of the wearable device 100 is also an area where the camera of the wearable device 100 can recognize an object.

該客体の動きを感知するということは、ウェアラブルデバイス100が周辺客体(peripheral object)を感知し、該客体が移動する方向、角度、移動距離または速度などを測定することでもある。   Sensing the movement of the object means that the wearable device 100 senses a peripheral object and measures a direction, an angle, a moving distance, or a speed of the moving object.

ウェアラブルデバイス100は、センサ110及びディスプレイ部120を含む。センサ110は、周辺客体を検出し、ディスプレイ部120は、少なくとも1つのアイテム及びフォーカス10を表示する。   The wearable device 100 includes a sensor 110 and a display unit 120. The sensor 110 detects a peripheral object, and the display unit 120 displays at least one item and the focus 10.

該アイテムは、ウェアラブルデバイス100のそれぞれの機能またはメニューなどを示す。ディスプレイ部120は、1つのアイテムを全体画面に表示するか、あるいは2個以上のアイテムを画面に表示することができる。また、ディスプレイ部120は、アイテムの大きさを、互いに異ならせて表示することができる。例えば、ディスプレイ部120は、中央に位置したアイテムを、他のアイテムより大きく表示することができる。   The item indicates each function or menu of the wearable device 100. The display unit 120 can display one item on the entire screen or display two or more items on the screen. In addition, the display unit 120 can display items with different sizes. For example, the display unit 120 can display an item located in the center larger than other items.

フォーカス10は、現在選択されたアイテムを示す識別表示である。フォーカス10は、アイテムの色相を変更したり、アイテムの大きさを変更したりするような形態によっても表現される。または、フォーカス10は、アイテム上に表示される図形でもある。   The focus 10 is an identification display indicating the currently selected item. The focus 10 is also expressed by a form that changes the hue of the item or changes the size of the item. Alternatively, the focus 10 is also a graphic displayed on the item.

図1Aの場合、フォーカス10が、アイテムの外郭に表示される事例を示している。図1Aは、6個のアイテム(Media controller、Call、Application、Messenger、E−mail、Gallery)がウェアラブルデバイス100に表示された場合である。また、図1Aは、フォーカス10が、Messengerに表示されていて、Callに表示される過程を図示している。   In the case of FIG. 1A, the case where the focus 10 is displayed on the outline of the item is shown. FIG. 1A shows a case where six items (Media controller, Call, Application, Messenger, E-mail, Gallery) are displayed on the wearable device 100. FIG. 1A shows a process in which the focus 10 is displayed on the Messenger and displayed on the Call.

ウェアラブルデバイス100は、センサ110を介して客体の動きを検出する。センサ110は、客体が設定された距離内に客体があるか否かということを検出する。センサ110は、センサ110と客体との距離を測定する。または、センサ110は、客体の移動方向、移動角度及び移動距離を測定することができる。   The wearable device 100 detects the movement of the object through the sensor 110. The sensor 110 detects whether or not an object is within a set distance. The sensor 110 measures the distance between the sensor 110 and the object. Alternatively, the sensor 110 can measure the moving direction, moving angle, and moving distance of the object.

図1Aの場合、ウェアラブルデバイス100が、ユーザの指を認識する場合を図示している。ウェアラブルデバイス100は、ユーザの指だけではなく、多様な客体の動きを認識することができる。例えば、ウェアラブルデバイス100は、ペン、棒のような事物を認識することもできる。   In the case of FIG. 1A, the case where the wearable device 100 recognizes a user's finger is illustrated. The wearable device 100 can recognize not only a user's finger but also various object movements. For example, the wearable device 100 can also recognize things such as pens and sticks.

ウェアラブルデバイス100は、ディスプレイ部に複数のアイテムを表示する。また、ウェアラブルデバイス100は、複数のアイテムのうち少なくとも1つのアイテムにフォーカスを表示する。   The wearable device 100 displays a plurality of items on the display unit. Wearable device 100 displays focus on at least one item among a plurality of items.

ウェアラブルデバイス100は、客体が移動した角度または方向を獲得する。ウェアラブルデバイス100は、客体の位置を測定し、客体の位置に変動がある場合、客体が動いた角度または方向を計算する。図1Aの場合、客体が45°°向に移動した場合を図示している。ウェアラブルデバイス100は、距離または速度の範囲を設定し、客体の移動距離または客体の速度が、設定された範囲に含まれる場合にだけ客体の角度を計算することもできる。従って、客体の移動距離または速度が、設定された範囲に含まれない場合(例えば、移動距離が短いか、あるいは速度が遅い場合)、客体の微細な動きとして、あるいはユーザが入力が願わない場合であると判断し、ウェアラブルデバイス100は、フォーカス10を移動しない。   The wearable device 100 acquires the angle or direction in which the object has moved. The wearable device 100 measures the position of the object, and calculates the angle or direction in which the object moves when the position of the object varies. In the case of FIG. 1A, a case where the object moves in the 45 ° direction is illustrated. The wearable device 100 may set a range of distance or speed, and may calculate the angle of the object only when the moving distance of the object or the speed of the object is included in the set range. Therefore, when the moving distance or speed of the object is not included in the set range (for example, when the moving distance is short or the speed is slow), as a fine movement of the object or when the user does not wish to input The wearable device 100 does not move the focus 10.

ウェアラブルデバイス100は、客体が動いた方向に対応する位置のアイテムに、フォーカスを移動させる。ウェアラブルデバイス100は、客体が移動した方向に沿ってフォーカス10の移動方向を決める。ウェアラブルデバイス100は、ディスプレイ部120に図示されたフォーカス10を、決定された移動方向に位置したアイテムに移動する。図1Aの場合、客体が45°方向に移動したので、ウェアラブルデバイス100は、フォーカス10をMessengerからCallに移動する。   Wearable device 100 moves the focus to an item at a position corresponding to the direction in which the object has moved. The wearable device 100 determines the moving direction of the focus 10 along the direction in which the object has moved. The wearable device 100 moves the focus 10 illustrated on the display unit 120 to an item positioned in the determined movement direction. In the case of FIG. 1A, since the object has moved in the 45 ° direction, the wearable device 100 moves the focus 10 from Messenger to Call.

ウェアラブルデバイス100は、ユーザが身体に着用可能なデバイスである。例えば、ウェアラブルデバイス100は、スマートウオッチ、スマートグラス、アームンドなどでもある。   Wearable device 100 is a device that a user can wear on the body. For example, the wearable device 100 may be a smart watch, a smart glass, an armund, or the like.

ウェアラブルデバイス100は、センサ110を含む。センサ110は、ウェアラブルデバイス100がユーザのジェスチャを感知することができる位置に配置される。例えば、スマートウオッチの場合、センサ110は、スマートウオッチの側面に配置される。スマートグラスの場合、センサ110は、スマートグラスの正面に配置される。   Wearable device 100 includes a sensor 110. The sensor 110 is disposed at a position where the wearable device 100 can sense a user's gesture. For example, in the case of a smart watch, the sensor 110 is disposed on the side surface of the smart watch. In the case of smart glass, the sensor 110 is disposed in front of the smart glass.

図1Bは、正面にセンサを具備するウェアラブルデバイスの動作方法について説明するための図面である。図1Bを参照すれば、ウェアラブルデバイス100は、正面にセンサ110を含む。正面は、ディスプレイ部120が具備された領域である。2個のセンサ110は、ディスプレイ部120の上側及び下側に位置することができる。   FIG. 1B is a diagram for explaining an operation method of a wearable device including a sensor on the front surface. Referring to FIG. 1B, the wearable device 100 includes a sensor 110 on the front surface. The front is an area where the display unit 120 is provided. The two sensors 110 may be located above and below the display unit 120.

センサ110は、ウェアラブルデバイス100の正面で動く客体を感知することができる。例えば、センサ110は、正面で動くユーザの指を感知することができる。
ウェアラブルデバイス100は、センサ110によって感知された指の方向を獲得し、獲得された方向に対応する位置のアイテムにフォーカスを移動させる。
The sensor 110 can sense an object moving in front of the wearable device 100. For example, the sensor 110 can sense a user's finger moving in front.
The wearable device 100 acquires the direction of the finger sensed by the sensor 110 and moves the focus to an item at a position corresponding to the acquired direction.

図2は、一実施形態による、ウェアラブルデバイス周辺での客体の動きを利用して、ウェアラブルデバイスのディスプレイに表示されたフォーカスを移動させる方法について説明するための図面である。図2において、ウェアラブルデバイス100は、角度を測定し、測定された角度によって、フォーカスの移動方向を決定することができる。   FIG. 2 is a diagram for explaining a method of moving a focus displayed on a display of a wearable device using movement of an object around the wearable device according to an embodiment. In FIG. 2, the wearable device 100 measures an angle, and can determine a moving direction of the focus based on the measured angle.

Step1において、ウェアラブルデバイス100は、周辺で客体が動いた角度を測定する。図2の場合、客体が移動した角度が80°である場合を例として図示している。該客体の角度は、ウェアラブルデバイス100を基準に計算される。   In Step 1, the wearable device 100 measures the angle at which the object moves around. In the case of FIG. 2, an example in which the angle of movement of the object is 80 ° is illustrated. The angle of the object is calculated based on the wearable device 100.

Step2において、ウェアラブルデバイス100は、測定された角度に対応する領域を決定する。ウェアラブルデバイス100は、角度によって領域をあらかじめ設定し、測定された角度に該当する領域を決定する。例えば、ウェアラブルデバイス100は、360°を少なくとも2個の領域に設定することができる。図2の場合、ウェアラブルデバイス100は、360°を4個の領域に設定した例である。角度80°は、第2領域に含まれる。従って、ウェアラブルデバイス100は、第2領域を測定された角度に対応する領域と決定する。   In Step 2, the wearable device 100 determines a region corresponding to the measured angle. The wearable device 100 presets a region according to an angle, and determines a region corresponding to the measured angle. For example, wearable device 100 can set 360 ° to at least two regions. In the case of FIG. 2, the wearable device 100 is an example in which 360 ° is set to four regions. The angle of 80 ° is included in the second region. Therefore, the wearable device 100 determines the second region as a region corresponding to the measured angle.

Step3において、ウェアラブルデバイス100は、決定された領域に対応する方向に、ディスプレイ部に表示されたフォーカスを移動させる。図2の場合、フォーカスがMessengerからE−mailに移動した場合を図示している。   In Step 3, wearable device 100 moves the focus displayed on the display unit in a direction corresponding to the determined area. In the case of FIG. 2, a case where the focus moves from Messenger to E-mail is illustrated.

図3は、一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。図3を参照すれば、ウェアラブルデバイス100は、周辺客体を検出し、フォーカスを第1アイテムから第2アイテムに移動することができる。   FIG. 3 is a flowchart for explaining an operation method of the wearable device according to the embodiment. Referring to FIG. 3, the wearable device 100 can detect a peripheral object and move the focus from the first item to the second item.

段階310において、ウェアラブルデバイス100は、画面上の第1アイテムにフォーカスを表示する。ウェアラブルデバイス100は、画面上に表示された複数のアイテムのうち第1アイテムにフォーカスを表示する。   In step 310, the wearable device 100 displays focus on the first item on the screen. Wearable device 100 displays the focus on the first item among a plurality of items displayed on the screen.

段階320において、ウェアラブルデバイス100は、周辺客体を検出する。ウェアラブルデバイス100は、センサ110を利用して、周辺客体を検出することができる。   In step 320, the wearable device 100 detects a peripheral object. The wearable device 100 can detect a surrounding object using the sensor 110.

段階330において、ウェアラブルデバイス100は、周辺客体が移動する方向を獲得する。ウェアラブルデバイス100は、ウェアラブルデバイス100を基準に、客体が移動する角度を計算して方向を獲得することができる。
段階340において、ウェアラブルデバイス100は、獲得された方向に沿って、フォーカスの移動方向を決定する。
段階350において、ウェアラブルデバイス100は、決定された移動方向に沿って、フォーカスを第2アイテムに移動する。
In step 330, the wearable device 100 acquires a direction in which the peripheral object moves. The wearable device 100 can acquire the direction by calculating the angle at which the object moves based on the wearable device 100.
In operation 340, the wearable device 100 determines a moving direction of the focus along the acquired direction.
In step 350, the wearable device 100 moves the focus to the second item along the determined movement direction.

ウェアラブルデバイス100は、フォーカスが移動可能な方向に対応する領域を設定することができ、領域と獲得された方向とをマッピングし、フォーカスの移動方向を決定することもできる。   The wearable device 100 can set an area corresponding to the direction in which the focus can move, and can map the area and the acquired direction to determine the moving direction of the focus.

フォーカスが移動可能な方向は、アイテムの配列方式によって、現在フォーカスが移動可能なアイテムが存在した方向を示す。ウェアラブルデバイス100は、フォーカスが移動可能な方向を確認し、確認された方向の数ほどの領域を設定することができる。このとき、ウェアラブルデバイス100は、移動可能な方向をそれぞれ含む領域を設定する。例えば、移動可能な方向が上側であるならば、ウェアラブルデバイス100は、−20°から20°を、上側に対応する領域と設定することができる。   The direction in which the focus can be moved indicates the direction in which the item to which the focus can currently move is present according to the item arrangement method. The wearable device 100 can confirm the direction in which the focus can move, and can set as many regions as the number of confirmed directions. At this time, the wearable device 100 sets areas each including a movable direction. For example, if the movable direction is the upper side, the wearable device 100 can set −20 ° to 20 ° as a region corresponding to the upper side.

領域と獲得された方向とをマッピングするということは、獲得された方向が、領域内において、いずれの領域に含まれるかということを判断することを示す。該領域は、角度の範囲で区分される。例えば、0°から180°は、第1領域に設定され、180°から360°は、第2領域に設定される。ウェアラブルデバイス100は、決定された領域に対応する方向を決定する。ウェアラブルデバイス100は、獲得された方向が含まれる領域を決定することができる。該領域は、フォーカスが移動可能な方向に対応して設定されるので、ウェアラブルデバイス100は、決定された領域に対応するフォーカスの移動方向を決定することができる。   Mapping the region and the acquired direction indicates that it is determined in which region the acquired direction is included in the region. The region is divided by a range of angles. For example, 0 ° to 180 ° is set in the first region, and 180 ° to 360 ° is set in the second region. Wearable device 100 determines a direction corresponding to the determined area. The wearable device 100 can determine an area including the acquired direction. Since the area is set in correspondence with the direction in which the focus can move, the wearable device 100 can determine the movement direction of the focus corresponding to the determined area.

図4は、他の一実施形態によるウェアラブルデバイスが、角度による領域を決定し、表示されるアイテムを変更する方法について説明するための図面である。図4を参照すれば、ウェアラブルデバイス100は、客体の移動角度によって表示されるアイテムを変更することができる。
Step1において、ウェアラブルデバイス100は、客体の移動角度を測定する。図2の場合、客体の移動角度が170°である場合を例として図示している。
FIG. 4 is a diagram for explaining a method in which a wearable device according to another embodiment determines an angle area and changes displayed items. Referring to FIG. 4, the wearable device 100 can change an item displayed according to the moving angle of the object.
In Step 1, the wearable device 100 measures the movement angle of the object. In the case of FIG. 2, the case where the moving angle of the object is 170 ° is shown as an example.

Step2において、ウェアラブルデバイス100は、測定された移動角度と対応する領域を決定する。ウェアラブルデバイス100は、角度によって領域を設定し、測定された角度を含む領域を決定する。図2の場合、アイテムが1列に配列された場合であるので、ユーザの操作によって、現在アイテムの上側アイテムまたは下側アイテムだけが表示される。従って、ウェアラブルデバイス100は、360°を半分で分け、上側領域を第1領域と設定し、下側領域を第2領域と設定する。図2で測定された角度170°は、第2領域に対応する。従って、ウェアラブルデバイス100は、第2領域を、測定された角度に対応する領域と決定する。   In Step 2, the wearable device 100 determines an area corresponding to the measured movement angle. The wearable device 100 sets an area according to an angle, and determines an area including the measured angle. In the case of FIG. 2, since the items are arranged in one column, only the upper item or the lower item of the current item is displayed by the user's operation. Therefore, wearable device 100 divides 360 ° in half, sets the upper area as the first area, and sets the lower area as the second area. The angle 170 ° measured in FIG. 2 corresponds to the second region. Therefore, the wearable device 100 determines the second region as a region corresponding to the measured angle.

もしGalleryアイテムが表示された状態である場合には、上側領域は、中立領域に設定され、下側領域が第1領域に設定される。客体の移動角度が中立領域に含まれる場合、ウェアラブルデバイス100は、表示されるアイテムを変更しない。中立領域に該当する方向には、それ以上表示されるアイテムが存在しないので、ウェアラブルデバイス100は、ユーザにフィードバックを提供し、Galleryアイテムが最後のアイテムであるということを知らせることができる。   If the Gallery item is displayed, the upper area is set as a neutral area and the lower area is set as a first area. When the moving angle of the object is included in the neutral region, the wearable device 100 does not change the displayed item. Since there are no more items to be displayed in the direction corresponding to the neutral region, the wearable device 100 can provide feedback to the user to inform the user that the Gallery item is the last item.

Step3において、ウェアラブルデバイス100は、表示されるアイテムを変更する。ウェアラブルデバイス100は、決定された領域に対応する方向に配置されたアイテムを表示する。   In Step 3, the wearable device 100 changes the displayed item. Wearable device 100 displays items arranged in a direction corresponding to the determined area.

例えば、該アイテムは、1列に配置され、第2領域に含まれる角度が獲得されたので、ウェアラブルデバイス100は、現在表示されたCallより上側に配置されたアイテムであるE−mailを、次に表示するアイテムと決定することができる。   For example, since the items are arranged in one row and the angle included in the second area is acquired, the wearable device 100 follows the E-mail that is the item arranged above the currently displayed Call. It can be determined that the item is displayed on

図5は、一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。図5を参照すれば、ウェアラブルデバイス100は、周辺客体を検出し、客体の移動方向に沿って表示されるアイテムを変更することができる。
段階510において、ウェアラブルデバイス100は、画面に第1アイテムを表示する。
FIG. 5 is a flowchart for explaining an operation method of the wearable device according to the embodiment. Referring to FIG. 5, the wearable device 100 can detect a peripheral object and change an item displayed along the moving direction of the object.
In step 510, the wearable device 100 displays the first item on the screen.

段階520において、ウェアラブルデバイス100は、周辺客体を検出する。ウェアラブルデバイス100は、センサ110を利用して、周辺客体を検出することができる。   In step 520, the wearable device 100 detects a peripheral object. The wearable device 100 can detect a surrounding object using the sensor 110.

段階530において、ウェアラブルデバイス100は、周辺客体が移動する方向を獲得する。ウェアラブルデバイス100は、ウェアラブルデバイス100を基準に、客体が移動する角度を計算して方向を獲得することができる。   In step 530, the wearable device 100 acquires a direction in which the peripheral object moves. The wearable device 100 can acquire the direction by calculating the angle at which the object moves based on the wearable device 100.

段階540において、ウェアラブルデバイス100は、獲得された方向に沿って表示される第2アイテムを決定することができる。ウェアラブルデバイス100は、現在表示されるアイテム、及びアイテムの相対的な位置によって、いずれのアイテムを表示するかということを決定する。
段階550において、ウェアラブルデバイス100は、決定された第2アイテムをディスプレイ部に表示する。
In step 540, the wearable device 100 may determine a second item to be displayed along the acquired direction. The wearable device 100 determines which item to display according to the currently displayed item and the relative position of the item.
In step 550, the wearable device 100 displays the determined second item on the display unit.

ウェアラブルデバイス100は、アイテムの配置によって対応する領域を設定することができ、獲得された方向が含まれる領域を決定し、表示されるアイテムを決定することもできる。
図6は、一実施形態によるウェアラブルデバイスが、角度に対応する領域を決定し、イメージを移動させる方法について説明するための図面である。
Step1において、ウェアラブルデバイス100は、客体の角度を測定する。図6の場合、客体が移動した角度が80°である場合を例として図示している。
The wearable device 100 can set a corresponding area according to the arrangement of the items, can determine an area including the acquired direction, and can determine an item to be displayed.
FIG. 6 is a diagram for explaining a method in which a wearable device according to an embodiment determines a region corresponding to an angle and moves an image.
In Step 1, the wearable device 100 measures the angle of the object. In the case of FIG. 6, the case where the angle which the object moved is 80 degrees is illustrated as an example.

Step2において、ウェアラブルデバイス100は、測定された角度と対応する領域を決定する。ウェアラブルデバイス100は、角度によって領域を設定し、測定された角度を含む領域を決定する。図6の場合、角度80°は、第2領域に対応する。従って、ウェアラブルデバイス100は、第2領域を、測定された角度に対応する領域と決定する。   In Step 2, the wearable device 100 determines a region corresponding to the measured angle. The wearable device 100 sets an area according to an angle, and determines an area including the measured angle. In the case of FIG. 6, the angle of 80 ° corresponds to the second region. Therefore, the wearable device 100 determines the second region as a region corresponding to the measured angle.

Step3において、ウェアラブルデバイス100は、決定された領域に対応する方向にイメージを移動させる。図6の場合、第2領域に対応する方向が右側であるので、イメージが右側に移動した場合を図示している。   In Step 3, the wearable device 100 moves the image in a direction corresponding to the determined area. In the case of FIG. 6, since the direction corresponding to the second region is the right side, the case where the image has moved to the right side is illustrated.

他の実施形態によるウェアラブルデバイス100は、検出された客体の移動と同一にイメージを移動させることができる。例えば、ウェアラブルデバイス100は、客体が検出されれば、検出された客体の位置を基準に、客体の移動座標を計算し、計算された移動座標ほどイメージを移動させることができる。ウェアラブルデバイス100は、画面の中心を基準点として計算された移動座標において、イメージの中心を移動させることができる。   The wearable device 100 according to another embodiment can move the image in the same manner as the detected movement of the object. For example, if an object is detected, the wearable device 100 can calculate the movement coordinates of the object based on the detected position of the object, and can move the image as the calculated movement coordinates. The wearable device 100 can move the center of the image in the movement coordinates calculated using the center of the screen as a reference point.

さらに他の例で、ウェアラブルデバイス100は、ウェアラブルデバイス100の周辺客体が移動した角度及び距離を測定し、イメージを移動させることができる。言い替えれば、ウェアラブルデバイス100は、測定された角度でイメージを移動させるが、測定された距離ほど、または測定された距離に比例して、イメージを移動させる。ウェアラブルデバイス100は、ウェアラブルデバイス100の周辺客体を検出すれば、検出された位置を基準点にして、イメージを移動させることができる。   In yet another example, the wearable device 100 may measure an angle and a distance that a peripheral object of the wearable device 100 has moved, and move an image. In other words, the wearable device 100 moves the image by the measured angle, but moves the image by the measured distance or in proportion to the measured distance. When the wearable device 100 detects the peripheral object of the wearable device 100, the wearable device 100 can move the image with the detected position as a reference point.

図7は、一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。図7を参照すれば、ウェアラブルデバイス100は、周辺客体を検出し、客体が動いた方向に沿って、イメージを移動させることができる。
段階710において、ウェアラブルデバイス100は、画面にイメージを表示する。
FIG. 7 is a flowchart for explaining the operation method of the wearable device according to the embodiment. Referring to FIG. 7, the wearable device 100 can detect a peripheral object and move an image along a direction in which the object moves.
In step 710, the wearable device 100 displays an image on the screen.

段階720において、ウェアラブルデバイス100は、周辺客体を検出する。ウェアラブルデバイス100は、センサ110を利用して、周辺客体を検出することができる。   In step 720, the wearable device 100 detects a peripheral object. The wearable device 100 can detect a surrounding object using the sensor 110.

段階730において、ウェアラブルデバイス100は、周辺客体が移動する方向を獲得する。ウェアラブルデバイス100は、ウェアラブルデバイス100を基準に、客体が移動する角度を計算する。
段階740において、ウェアラブルデバイス100は、獲得された方向に沿って、イメージの移動方向を決定する。
段階750において、ウェアラブルデバイス100は、決定された移動方向に沿って、イメージを移動させる。
ウェアラブルデバイス100は、客体の移動距離を獲得し、獲得された移動距離ほどイメージを移動させることができる。
In step 730, the wearable device 100 acquires a direction in which the peripheral object moves. The wearable device 100 calculates an angle at which the object moves based on the wearable device 100.
In step 740, the wearable device 100 determines a moving direction of the image along the acquired direction.
In step 750, wearable device 100 moves the image along the determined direction of movement.
The wearable device 100 can acquire the moving distance of the object and move the image by the acquired moving distance.

図8は、一実施形態によるウェアラブルデバイスを示す構成図である。図8を参照すれば、ウェアラブルデバイス100は、センサ110、ディスプレイ部120、メモリ130及びプロセッサ140を含む。   FIG. 8 is a block diagram illustrating a wearable device according to an embodiment. Referring to FIG. 8, the wearable device 100 includes a sensor 110, a display unit 120, a memory 130, and a processor 140.

センサ110は、ウェアラブルデバイス100の周辺客体を感知する。センサ110は、一定範囲内に客体を感知する。センサ110は、客体が感知されれば、プロセッサ140に客体が感知されたことを示す信号を出力する。また、センサ110は、客体の位置を示す情報も、共に出力することができる。例えば、センサ110は、センサ110を原点に、客体の座標を測定して出力することもできる。   The sensor 110 detects an object around the wearable device 100. The sensor 110 senses an object within a certain range. If the object is detected, the sensor 110 outputs a signal indicating that the object is detected to the processor 140. The sensor 110 can also output information indicating the position of the object. For example, the sensor 110 can measure and output the coordinates of the object with the sensor 110 as the origin.

センサ110は、ウェアラブルデバイス100の周辺客体が移動した方向を獲得する。センサ110は、客体が移動し始める開始点の座標と、客体が止まる終了点の座標とを計算し、センサ、並びに開始点及び終了点の位置関係を利用して、客体が移動した方向を計算することができる。   The sensor 110 acquires the direction in which the peripheral object of the wearable device 100 has moved. The sensor 110 calculates the coordinates of the start point at which the object starts moving and the coordinates of the end point at which the object stops, and calculates the direction in which the object has moved using the positional relationship between the sensor and the start point and end point. can do.

センサ110は、IR(infrared)センサ、超音波センサまたはEM(electromagnetic) waveセンサなどでもある。IRセンサは、赤外線を放出し、反射された赤外線が感知される時間を利用して、客体とIRセンサとの距離を測定することができる。超音波センサは、超音波を送信し、客体に反射された超音波が受信する時間を利用して、客体と超音波センサとの距離を測定することができる。または、超音波センサは、送信した超音波と、受信された超音波との位相(phase)変化を測定し、客体と超音波センサとの距離を測定することができる。EM waveセンサは、送信した電磁波と、受信された電磁波との位相変化を測定し、客体とEM waveセンサとの距離を測定することができる。または、EM waveセンサは、受信された電磁波が歪曲された形態を分析し、客体とEM waveセンサとの距離を測定することができる。
ディスプレイ部120は、プロセッサ140から受信されるイメージを表示する。該イメージは、写真、アイテム、初期画面などでもある。
The sensor 110 is also an IR (infrared) sensor, an ultrasonic sensor, an EM (electromagnetic) wave sensor, or the like. The IR sensor emits infrared rays, and can measure the distance between the object and the IR sensor using the time when the reflected infrared rays are sensed. The ultrasonic sensor can measure the distance between the object and the ultrasonic sensor by using the time for transmitting the ultrasonic wave and receiving the ultrasonic wave reflected by the object. Alternatively, the ultrasonic sensor can measure a phase change between the transmitted ultrasonic wave and the received ultrasonic wave, and can measure the distance between the object and the ultrasonic sensor. The EM wave sensor can measure the phase change between the transmitted electromagnetic wave and the received electromagnetic wave, and can measure the distance between the object and the EM wave sensor. Alternatively, the EM wave sensor can analyze the form in which the received electromagnetic wave is distorted and measure the distance between the object and the EM wave sensor.
The display unit 120 displays an image received from the processor 140. The image may be a photograph, an item, an initial screen, or the like.

ディスプレイ部120は、全体画面に表示された複数のアイテムのうち少なくとも1つのアイテムにフォーカスを表示する。ディスプレイ部120は、プロセッサ140の制御によって、第1アイテムにフォーカスを表示する。ディスプレイ部120は、プロセッサ140の制御によって、第1アイテムに表示されたフォーカスを、第2アイテムに移動することができる。   The display unit 120 displays focus on at least one item among a plurality of items displayed on the entire screen. The display unit 120 displays the focus on the first item under the control of the processor 140. The display unit 120 can move the focus displayed on the first item to the second item under the control of the processor 140.

ディスプレイ部120は、表示されたアイテムを変更する。ディスプレイ部120は、プロセッサ140の制御によって、体画面に第1アイテムを表示する。ディスプレイ部120は、プロセッサ140の制御によって、全体画面に第2アイテムを表示する。   The display unit 120 changes the displayed item. The display unit 120 displays the first item on the body screen under the control of the processor 140. The display unit 120 displays the second item on the entire screen under the control of the processor 140.

ディスプレイ部120は、表示されたイメージを移動させる。全体イメージがディスプレイ部120に表示されない場合、ディスプレイ部120は、プロセッサ140の制御によって、イメージの一部を表示する。ディスプレイ部120は、プロセッサ140の制御によって、移動されたイメージを表示する。   The display unit 120 moves the displayed image. When the entire image is not displayed on the display unit 120, the display unit 120 displays a part of the image under the control of the processor 140. The display unit 120 displays the moved image under the control of the processor 140.

メモリ130は、データを保存する。メモリ130は、ウェアラブルデバイス100を動作させるためのデータを保存する。例えば、メモリ130は、プログラム、イメージ、演算のためのデータなどを保存することができる。   The memory 130 stores data. The memory 130 stores data for operating the wearable device 100. For example, the memory 130 can store a program, an image, data for calculation, and the like.

プロセッサ140は、ウェアラブルデバイス100の動作を制御する。プロセッサ140は、センサ110から受信されたデータを利用して、ディスプレイ部120に表示されるイメージを決定することができる。例えば、プロセッサ140は、センサ110から、客体の移動に係わるデータを受信し、ディスプレイ部120に表示されるフォーカスを移動させることができる。また、プロセッサは、ディスプレイ部120に表示されるアイテムを変更することができ、イメージを移動させることができる。   The processor 140 controls the operation of the wearable device 100. The processor 140 may determine an image to be displayed on the display unit 120 using data received from the sensor 110. For example, the processor 140 can receive data related to the movement of the object from the sensor 110 and move the focus displayed on the display unit 120. In addition, the processor can change the item displayed on the display unit 120 and can move the image.

プロセッサ140は、センサ110から受信される情報に基づいて、客体が移動する方向を獲得する。プロセッサ140は、客体が移動し始める開始点の座標と、客体が止まる終了点の座標とを計算し、ウェアラブルデバイス100と、開始点及び終了点との位置関係を利用して方向を獲得することができる。   The processor 140 acquires a direction in which the object moves based on information received from the sensor 110. The processor 140 calculates the coordinates of the start point where the object starts to move and the coordinates of the end point where the object stops, and acquires the direction using the positional relationship between the wearable device 100 and the start point and end point. Can do.

プロセッサ140は、獲得された方向に沿って、フォーカスの移動方向を決定する。プロセッサ140は、方向による領域を設定し、フォーカスの移動方向を決定することができる。プロセッサ140は、ウェアラブルデバイス100の画面の表示状態によって、複数の領域を設定する。プロセッサ140は、フォーカスが移動可能な方向に対応する領域を適応的に設定する。プロセッサ140は、画面の表示状態によって、領域を異ならせて設定することができる。プロセッサ140は、獲得された方向が、領域内のいずれの領域に含まれるかということを決定する。プロセッサ140は、決定された領域に対応する移動方向を決定する。   The processor 140 determines a moving direction of the focus along the acquired direction. The processor 140 can set an area according to the direction and determine the moving direction of the focus. The processor 140 sets a plurality of areas depending on the display state of the screen of the wearable device 100. The processor 140 adaptively sets a region corresponding to the direction in which the focus can move. The processor 140 can set different areas depending on the display state of the screen. The processor 140 determines which region within the region the acquired direction is included in. The processor 140 determines a moving direction corresponding to the determined area.

プロセッサ140は、決定された移動方向に沿って表示されるアイテムを変更することができる。プロセッサ140は、決定された移動方向によって、文字を入力することができる。   The processor 140 can change the items displayed along the determined direction of movement. The processor 140 can input characters according to the determined moving direction.

プロセッサ140は、客体のジェスチャが感知された場合、ジェスチャに対応する動作を遂行する。例えば、プロセッサ140は、一定時間内に少なくとも2回以上の客体の移動方向を獲得する場合、プロセッサ140は、2回以上の客体の移動パターンに対応する動作を実行することができる。   When an object gesture is detected, the processor 140 performs an operation corresponding to the gesture. For example, when the processor 140 acquires the moving direction of the object at least twice within a certain time, the processor 140 may perform an operation corresponding to the moving pattern of the object twice or more.

図9は、一実施形態によるウェアラブルデバイスを示す構成図である。図9を参照すれば、ウェアラブルデバイス100のプロセッサ140は、方向獲得部141、移動方向決定部142及び制御部143を含む。   FIG. 9 is a block diagram illustrating a wearable device according to an embodiment. Referring to FIG. 9, the processor 140 of the wearable device 100 includes a direction acquisition unit 141, a movement direction determination unit 142, and a control unit 143.

方向獲得部141は、センサ110から受信される情報に基づいて、客体が移動する方向を獲得する。例えば、方向獲得部141は、ウェアラブルデバイス100の第1センサ及び第2センサと、客体との距離をそれぞれ測定する。方向獲得部141は、第1センサと客体との距離、第2センサと客体との距離、及び第1センサと第2センサとの距離を利用して、客体の移動方向を獲得することができる。または、方向獲得部141は、第1センサと客体との距離、第2センサと客体との距離、及び第1センサと第2センサとの距離を利用して、客体の座標を計算することができる。座標を計算するとき、ウェアラブルデバイス100の中心が原点にもなる。   The direction acquisition unit 141 acquires a direction in which the object moves based on information received from the sensor 110. For example, the direction acquisition unit 141 measures the distances between the first sensor and the second sensor of the wearable device 100 and the object. The direction acquisition unit 141 can acquire the moving direction of the object using the distance between the first sensor and the object, the distance between the second sensor and the object, and the distance between the first sensor and the second sensor. . Alternatively, the direction acquisition unit 141 may calculate the object coordinates using the distance between the first sensor and the object, the distance between the second sensor and the object, and the distance between the first sensor and the second sensor. it can. When calculating the coordinates, the center of wearable device 100 is also the origin.

方向獲得部141は、客体が移動し始める開始点の座標と、客体が止まる終了点の座標とを計算し、ウェアラブルデバイス100と、開始点及び終了点との位置関係を利用して、客体が動いた方向を獲得することができる。   The direction acquisition unit 141 calculates the coordinates of the start point at which the object starts to move and the coordinates of the end point at which the object stops, and uses the positional relationship between the wearable device 100 and the start point and the end point. You can get the direction you moved.

移動方向決定部142は、獲得された方向に沿って、フォーカスの移動方向を決定する。移動方向決定部142は、方向による領域を設定し、フォーカスの移動方向を決定することができる。   The movement direction determination unit 142 determines the movement direction of the focus along the acquired direction. The movement direction determination unit 142 can set an area according to the direction and determine the movement direction of the focus.

移動方向決定部142は、ウェアラブルデバイス100の画面の表示状態によって、複数の領域を設定する。移動方向決定部142は、フォーカスが移動可能な方向に対応する領域を適応的に設定する。移動方向決定部142は、画面の表示状態によって、領域を異ならせて設定することができる。   The movement direction determination unit 142 sets a plurality of areas depending on the display state of the screen of the wearable device 100. The movement direction determination unit 142 adaptively sets a region corresponding to the direction in which the focus can move. The movement direction determination unit 142 can set different areas depending on the display state of the screen.

移動方向決定部142は、獲得された方向が領域内のいずれの領域に含まれるかということを決定する。移動方向決定部142は、決定された領域に対応する移動方向を決定する。   The movement direction determination unit 142 determines which region in the region the acquired direction is included in. The movement direction determination unit 142 determines a movement direction corresponding to the determined area.

制御部143は、決定された移動方向に沿って、フォーカスを第2アイテムに移動する。移動方向決定部142は、フォーカスが移動することができない方向に対応する中立領域を設定することができ、制御部143は、客体の移動方向が中立領域に含まれる場合には、フォーカスを移動せず、ユーザにフィードバックを提供する。   The control unit 143 moves the focus to the second item along the determined movement direction. The movement direction determination unit 142 can set a neutral area corresponding to a direction in which the focus cannot move, and the control unit 143 moves the focus when the movement direction of the object is included in the neutral area. First, provide feedback to the user.

客体の移動方向が中立領域に含まれる場合、移動方向決定部142は、以前に保存された客体の移動方向に係わるヒストリーに基づいて、フォーカスの移動方向を決定することができる。言い替えれば、移動方向決定部142は、学習を介して、中立領域を他の領域に含めることができる。   When the moving direction of the object is included in the neutral region, the moving direction determination unit 142 can determine the moving direction of the focus based on the history related to the moving direction of the object that has been stored previously. In other words, the moving direction determination unit 142 can include the neutral region in other regions through learning.

例えば、客体の移動方向が中立領域に対応して、すぐ続く客体の移動方向が中立領域に隣接した第1領域に対応する方向である場合、移動方向決定部142は、中立領域を第1領域に含めることができる。従って、その後測定される客体の移動方向が中立領域に含まれれば、移動方向決定部142は、客体の移動方向を第1領域に対応する移動方向に決定する。   For example, when the moving direction of the object corresponds to the neutral region and the moving direction of the object that immediately follows is a direction corresponding to the first region adjacent to the neutral region, the moving direction determination unit 142 sets the neutral region to the first region. Can be included. Therefore, if the moving direction of the object measured thereafter is included in the neutral region, the moving direction determination unit 142 determines the moving direction of the object as the moving direction corresponding to the first region.

前述の学習方法は、一例であるのみ、移動方向決定部142は、多様な基準で学習を行うことができ、学習方法によって、客体の移動方向が中立領域に含まれる場合、客体の移動方向が異なるように決定される。   The above-described learning method is only an example, and the moving direction determination unit 142 can perform learning based on various criteria. When the moving direction of the object is included in the neutral region by the learning method, the moving direction of the object is determined. Determined differently.

客体の移動方向が中立領域に含まれる場合、制御部143は、ユーザにフィードバックを提供することができる。例えば、制御部143は、振動装置を駆動したり、ディスプレイ部120に表示されたイメージを一部変形したりすることができる。
制御部143は、決定された移動方向によって表示されるアイテムを変更することができる。
制御部143は、決定された移動方向によって、文字を入力することができる。
When the moving direction of the object is included in the neutral region, the control unit 143 can provide feedback to the user. For example, the control unit 143 can drive the vibration device or partially deform the image displayed on the display unit 120.
The control unit 143 can change the item displayed according to the determined moving direction.
The control unit 143 can input characters according to the determined moving direction.

制御部143は、客体のジェスチャが感知された場合、ジェスチャに対応する動作を遂行する。例えば、方向獲得部141が一定時間内に少なくとも2回以上の客体の移動方向を獲得する場合、制御部143は、2回以上の客体の移動パターンに対応する動作を実行することができる。   When the gesture of the object is detected, the controller 143 performs an operation corresponding to the gesture. For example, when the direction acquisition unit 141 acquires the moving direction of the object at least twice within a predetermined time, the control unit 143 can execute an operation corresponding to the movement pattern of the object twice or more.

方向獲得部141、移動方向決定部142及び制御部143は、プロセッサ140内に具現されたソフトウェアモジュールでもある。また、プロセッサ140は、方向獲得部141、移動方向決定部142及び制御部143などが遂行する全ての機能を処理することができるハードウェアモジュールによって具現される。   The direction acquisition unit 141, the moving direction determination unit 142, and the control unit 143 are software modules embodied in the processor 140. The processor 140 is implemented by a hardware module that can process all functions performed by the direction acquisition unit 141, the movement direction determination unit 142, the control unit 143, and the like.

図10は、一実施形態によるウェアラブルデバイスが、客体の移動角度を測定する方法について説明するための図面である。図10を参照すれば、ウェアラブルデバイス100は、2個のセンサ111,112を利用して、客体の移動角度を測定する。   FIG. 10 is a diagram for explaining a method in which a wearable device according to an embodiment measures a moving angle of an object. Referring to FIG. 10, the wearable device 100 uses two sensors 111 and 112 to measure the movement angle of the object.

ウェアラブルデバイス100は、客体が開始点1010から終了点1020まで移動したとき、客体とウェアラブルデバイス100との角度を測定する。第1センサ111は、第1センサ111と、客体の開始点1010及び終了点1020との距離を測定し、第2センサ112は、第2センサ112と、客体の開始点1010及び終了点1020との距離を測定する。   Wearable device 100 measures the angle between the object and wearable device 100 when the object moves from start point 1010 to end point 1020. The first sensor 111 measures the distance between the first sensor 111 and the start point 1010 and the end point 1020 of the object. The second sensor 112 measures the distance between the second sensor 112 and the start point 1010 and the end point 1020 of the object. Measure the distance.

ウェアラブルデバイス100は、第1センサ111と開始点1010との距離、及び第2センサ111と開始点1010との距離を利用して、開始点1010の座標を計算することができる。ウェアラブルデバイス100は、第2センサ110と終了点1020との距離、及び第1センサ110と終了点1020との距離を利用して、終了点1020の座標を計算することができる。ウェアラブルデバイス100は、図10のように、ウェアラブルデバイス100の中心を原点に座標軸を設定することができる。   The wearable device 100 can calculate the coordinates of the start point 1010 using the distance between the first sensor 111 and the start point 1010 and the distance between the second sensor 111 and the start point 1010. The wearable device 100 can calculate the coordinates of the end point 1020 using the distance between the second sensor 110 and the end point 1020 and the distance between the first sensor 110 and the end point 1020. As shown in FIG. 10, the wearable device 100 can set coordinate axes with the center of the wearable device 100 as the origin.

ウェアラブルデバイス100は、開始点1010の座標、及び終了点1020の座標を利用して、ベクトルを求め、ベクトルの開始点1010が原点に位置するように、ベクトルを平行移動する。ウェアラブルデバイス100は、座標軸を基準に、ベクトルと座標軸とがなす角度を計算する。   The wearable device 100 uses the coordinates of the start point 1010 and the coordinates of the end point 1020 to obtain a vector, and translates the vector so that the vector start point 1010 is located at the origin. The wearable device 100 calculates an angle formed by the vector and the coordinate axis based on the coordinate axis.

図11ないし図18は、一実施形態によるウェアラブルデバイス100が、フォーカスの位置に対応する領域を設定する方法について説明するための図面である。図11は、フォーカスが左側下のアイテム(Messenger)に表示された場合、ウェアラブルデバイス100が対応領域を設定する方法を示している。   11 to 18 are diagrams for describing a method in which the wearable device 100 according to an embodiment sets a region corresponding to a focus position. FIG. 11 illustrates a method in which the wearable device 100 sets the corresponding area when the focus is displayed on the lower left item (Messenger).

フォーカスが左側下のアイテム(Messenger)に表示されているので、フォーカスは、右側方向や上側方向に動くことができる。従って、ウェアラブルデバイス100は、フォーカスが移動可能な方向に基づいて、第1領域ないし第3領域を設定する。第1領域は、アイテム(Media controller)に対応し、第2領域は、アイテム(Call)に対応し、第3領域は、アイテム(E−mail)に対応する。   Since the focus is displayed on the lower left item (Messenger), the focus can move in the right direction or the upper direction. Therefore, the wearable device 100 sets the first region to the third region based on the direction in which the focus can move. The first area corresponds to an item (Media controller), the second area corresponds to an item (Call), and the third area corresponds to an item (E-mail).

フォーカスが左側下のアイテム(Messenger)に表示されているので、フォーカスは、左側方向や下側方向に動くことができない。従って、ウェアラブルデバイス100は、フォーカスが移動不可能な位置に基づいて、中立領域を設定する。例えば、ウェアラブルデバイス100は、135°から315°までの角度の範囲を中立領域と設定することができる。   Since the focus is displayed on the lower left item (Messenger), the focus cannot move leftward or downward. Therefore, wearable device 100 sets a neutral region based on a position where the focus cannot move. For example, the wearable device 100 can set a range of angles from 135 ° to 315 ° as the neutral region.

図11の場合、第1領域は、315°から30°までの範囲を示し、第2領域は、30°から60°までの範囲を示す。第3領域は、60°から135°までの範囲を示し、中立領域は、135°から315°までの範囲を示す。   In the case of FIG. 11, the first region shows a range from 315 ° to 30 °, and the second region shows a range from 30 ° to 60 °. The third region shows a range from 60 ° to 135 °, and the neutral region shows a range from 135 ° to 315 °.

図12は、フォーカスが左側上のアイテム(Media controller)に表示された場合、ウェアラブルデバイスが対応領域を設定する方法を示している。   FIG. 12 shows a method in which the wearable device sets the corresponding area when the focus is displayed on the item (Media controller) on the upper left side.

フォーカスが左側上のアイテム(Media controller)に表示されているので、フォーカスは、右側方向や下側方向に動くことができる。従って、ウェアラブルデバイス100は、フォーカスが移動可能な方向に基づいて、第1領域ないし第3領域を設定する。第1領域は、アイテム(Call)に対応し、第2領域は、アイテム(E−mail)に対応し、第3領域は、アイテム(Messenger)に対応する。   Since the focus is displayed on the upper left item (Media controller), the focus can move to the right or down. Therefore, the wearable device 100 sets the first region to the third region based on the direction in which the focus can move. The first area corresponds to an item (Call), the second area corresponds to an item (E-mail), and the third area corresponds to an item (Messenger).

フォーカスが左側上のアイテム(Media controller)に表示されているので、フォーカスは、左側方向や上側方向に動くことができない。従って、ウェアラブルデバイス100は、フォーカスが移動不可能な方向に基づいて、中立領域を設定する。   Since the focus is displayed on the upper left item (Media controller), the focus cannot move leftward or upward. Accordingly, wearable device 100 sets a neutral region based on the direction in which the focus cannot move.

図12の場合、第1領域は、45°から120°までの範囲を示し、第2領域は、120°から150°までの範囲を示す。第3領域は、150°から225°までの範囲を示し、中立領域は、225°から45°までの範囲を示す。
図13は、フォーカスが上側中央のアイテム(Call)に表示された場合、ウェアラブルデバイスが対応領域を設定する方法を示している。
In the case of FIG. 12, the first region shows a range from 45 ° to 120 °, and the second region shows a range from 120 ° to 150 °. The third region shows a range from 150 ° to 225 °, and the neutral region shows a range from 225 ° to 45 °.
FIG. 13 shows a method in which the wearable device sets the corresponding area when the focus is displayed on the upper center item (Call).

フォーカスが上側中央アイテム(Call)に表示されているので、フォーカスは、右側方向、左側方向及び下側方向に動くことができる。従って、ウェアラブルデバイス100は、フォーカスが移動可能な方向に基づいて、第1領域ないし第5領域を設定する。第1領域は、アイテム(Application)に対応し、第2領域は、アイテム(Gallery)に対応し、第3領域は、アイテム(E−mail)に対応し、第4領域は、アイテム(Messenger)に対応し、第5領域は、アイテム(Media controller)に対応する。   Since the focus is displayed on the upper center item (Call), the focus can move in the right direction, left direction, and lower direction. Therefore, the wearable device 100 sets the first area to the fifth area based on the direction in which the focus can move. The first area corresponds to an item (Application), the second area corresponds to an item (Gallery), the third area corresponds to an item (E-mail), and the fourth area corresponds to an item (Messenger). The fifth area corresponds to an item (Media controller).

フォーカスが上側中央のアイテム(Call)に表示されているので、フォーカスは、上側方向に動くことができない。従って、ウェアラブルデバイス100は、フォーカスが移動不可能な方向に基づいて、中立領域を設定する。   Since the focus is displayed on the upper center item (Call), the focus cannot move upward. Accordingly, wearable device 100 sets a neutral region based on the direction in which the focus cannot move.

図13の場合、第1領域は、45°から105°までの範囲を示し、第2領域は、105°から150°までの範囲を示す。第3領域は、150°から210°までの範囲を示し、第4領域は、210°から255°までの範囲を示す。第5領域は、225°から315°までの範囲を示し、中立領域は、315°から45°までの範囲を示す。
図14は、フォーカスが下側中央のアイテム(E−mail)に表示された場合、ウェアラブルデバイス100が対応領域を設定する方法を示している。
In the case of FIG. 13, the first region shows a range from 45 ° to 105 °, and the second region shows a range from 105 ° to 150 °. The third region shows a range from 150 ° to 210 °, and the fourth region shows a range from 210 ° to 255 °. The fifth region shows a range from 225 ° to 315 °, and the neutral region shows a range from 315 ° to 45 °.
FIG. 14 shows a method in which the wearable device 100 sets the corresponding area when the focus is displayed on the lower center item (E-mail).

フォーカスが下側中央アイテム(E−mail)に表示されているので、フォーカスは、右側方向、左側方向及び上側方向に動くことができる。従って、ウェアラブルデバイス100は、フォーカスが移動可能な方向に基づいて、第1領域ないし第5領域を設定する。第1領域は、アイテム(Application)に対応し、第2領域は、アイテム(Gallery)に対応し、第3領域は、アイテム(Messenger)に対応し、第4領域は、アイテム(Media controller)に対応し、第5領域は、アイテム(Call)に対応する。   Since the focus is displayed on the lower center item (E-mail), the focus can move in the right direction, left direction, and upper direction. Therefore, the wearable device 100 sets the first area to the fifth area based on the direction in which the focus can move. The first area corresponds to an item (Application), the second area corresponds to an item (Gallery), the third area corresponds to an item (Messenger), and the fourth area corresponds to an item (Media controller). Correspondingly, the fifth area corresponds to the item (Call).

フォーカスが下側中央のアイテム(E−mail)に表示されているので、フォーカスは、下側方向に動くことができない。従って、ウェアラブルデバイス100は、フォーカスが移動不可能な方向に基づいて、中立領域を設定する。   Since the focus is displayed on the lower center item (E-mail), the focus cannot move downward. Accordingly, wearable device 100 sets a neutral region based on the direction in which the focus cannot move.

図14の場合、第1領域は、30°から75°までの範囲を示し、第2領域は、75°から135°までの範囲を示す。第3領域は、255°から285°までの範囲を示し、第4領域は、285°から330°までの範囲を示す。第5領域は、330°から30°までの範囲を示し、中立領域は、135°から225°までの範囲を示す。   In the case of FIG. 14, the first region shows a range from 30 ° to 75 °, and the second region shows a range from 75 ° to 135 °. The third region shows a range from 255 ° to 285 °, and the fourth region shows a range from 285 ° to 330 °. The fifth region shows a range from 330 ° to 30 °, and the neutral region shows a range from 135 ° to 225 °.

図15は、フォーカスが中央のアイテム(E−mail)に表示され、アイテムが十字架状に配置された場合、ウェアラブルデバイス100が対応領域を設定する方法を示している。   FIG. 15 shows a method in which the wearable device 100 sets the corresponding area when the focus is displayed on the center item (E-mail) and the items are arranged in a cross shape.

フォーカスが中央アイテム(E−mail)に表示されているので、フォーカスは、右側方向、左側方向、上側方向及び下側方向に動くことができる。従って、ウェアラブルデバイス100は、フォーカスが移動可能な方向に基づいて、第1領域ないし第4領域を設定する。第1領域は、アイテム(Call)に対応し、第2領域は、アイテム(Gallery)に対応し、第3領域は、アイテム(Media controller)に対応し、第4領域は、アイテム(Messenger)に対応する。   Since the focus is displayed on the center item (E-mail), the focus can move in the right direction, left direction, upper direction, and lower direction. Therefore, the wearable device 100 sets the first area to the fourth area based on the direction in which the focus can move. The first area corresponds to an item (Call), the second area corresponds to an item (Gallery), the third area corresponds to an item (Media controller), and the fourth area corresponds to an item (Messenger). Correspond.

図15の場合、第1領域は、315°から45°までの範囲を示し、第2領域は、45°から135°までの範囲を示す。第3領域は、135°から225°までの範囲を示し、第4領域は、225°から315°までの範囲を示す。   In the case of FIG. 15, the first region shows a range from 315 ° to 45 °, and the second region shows a range from 45 ° to 135 °. The third region shows a range from 135 ° to 225 °, and the fourth region shows a range from 225 ° to 315 °.

図16は、フォーカスが中央のアイテム(E−mail)に表示され、アイテムが十字架状に配置された場合、ウェアラブルデバイスが中立領域を設定する方法を示している。   FIG. 16 shows how the wearable device sets a neutral area when the focus is displayed on the center item (E-mail) and the items are arranged in a cross shape.

フォーカスが中央アイテム(E−mail)に表示されており、対角線方向には、アイテムがないので、フォーカスは、対角線方向には動くことができない。従って、ウェアラブルデバイス100は、フォーカスが移動不可能な方向に基づいて、中立領域を設定する。
図16の場合、第1領域ないし4領域の間に中立領域が設定された例を示している。
Since the focus is displayed on the central item (E-mail) and there is no item in the diagonal direction, the focus cannot move in the diagonal direction. Accordingly, wearable device 100 sets a neutral region based on the direction in which the focus cannot move.
FIG. 16 shows an example in which a neutral region is set between the first region to the four regions.

図17は、フォーカスが中央のアイテム(E−mail)に表示され、アイテムが3x3状に配置された場合、ウェアラブルデバイスが対応領域を設定する方法を示している。   FIG. 17 shows a method in which the wearable device sets the corresponding area when the focus is displayed on the center item (E-mail) and the items are arranged in a 3 × 3 shape.

フォーカスが中央アイテム(E−mail)に表示されているので、フォーカスは、右側方向、左側方向、上側方向、下側方向及び対角線方向に動くことができる。従って、ウェアラブルデバイス100は、フォーカスが移動可能な方向に基づいて、第1領域ないし第8領域を設定する。   Since the focus is displayed on the center item (E-mail), the focus can move in the right direction, left direction, upper direction, lower direction, and diagonal direction. Therefore, the wearable device 100 sets the first area to the eighth area based on the direction in which the focus can move.

図17の場合、第1領域は、337.5°から22.5°までの範囲を示し、第2領域は、22.5°から67.5°までの範囲を示す。第3領域は、67.5°から112.5°までの範囲を示し、第4領域は、112.5°から157.5°までの範囲を示す。第5領域は、157.5°から202.5°までの範囲を示し、第6領域は、202.5°から247.5°までの範囲を示す。第7領域は、247.5°から292.5°までの範囲を示し、第8領域は、292.5°から337.5°までの範囲を示す。   In the case of FIG. 17, the first region shows a range from 337.5 ° to 22.5 °, and the second region shows a range from 22.5 ° to 67.5 °. The third region shows a range from 67.5 ° to 112.5 °, and the fourth region shows a range from 112.5 ° to 157.5 °. The fifth region shows a range from 157.5 ° to 202.5 °, and the sixth region shows a range from 202.5 ° to 247.5 °. The seventh region shows a range from 247.5 ° to 292.5 °, and the eighth region shows a range from 292.5 ° to 337.5 °.

図18は、フォーカスが中央のアイテム(E−mail)に表示され、アイテムが3x3状に配置された場合、ウェアラブルデバイスが中立領域を設定する方法を示している。
図18の場合、第1領域ないし8領域の間に、中立領域が設定された例を示している。
FIG. 18 shows a method in which the wearable device sets a neutral area when the focus is displayed on the center item (E-mail) and the items are arranged in a 3 × 3 shape.
In the case of FIG. 18, an example in which a neutral region is set between the first region to the eighth region is shown.

図19は、一実施形態によるウェアラブルデバイスの動作方法について説明するための図面である。図19を参照すれば、ウェアラブルデバイス100は、客体の移動方向が中立領域に含まれる場合、ユーザにフィードバックを提供することができる。
段階1910において、ウェアラブルデバイス100は、ウェアラブルデバイス100画面上の第1メニューアイテムにフォーカスを表示する。
段階1920において、ウェアラブルデバイス100は、ウェアラブルデバイス周辺客体を検出する。
段階1930において、ウェアラブルデバイス100は、客体が移動する方向を獲得する。
FIG. 19 is a diagram illustrating an operation method of a wearable device according to an embodiment. Referring to FIG. 19, the wearable device 100 can provide feedback to the user when the moving direction of the object is included in the neutral region.
In step 1910, the wearable device 100 displays the focus on the first menu item on the wearable device 100 screen.
In step 1920, the wearable device 100 detects an object around the wearable device.
In step 1930, the wearable device 100 acquires a direction in which the object moves.

段階1940において、ウェアラブルデバイス100は、ウェアラブルデバイスの画面の表示状態によって、複数の領域を設定する。ウェアラブルデバイス100は、アイテムの配列、またはフォーカスが表示された位置に基づいて、複数の領域を設定することができる。
段階1950において、ウェアラブルデバイス100は、獲得された方向が複数の領域内のいずれの領域に含まれるかということを決定する。
In step 1940, the wearable device 100 sets a plurality of areas according to the display state of the wearable device screen. The wearable device 100 can set a plurality of areas based on the arrangement of items or the position where the focus is displayed.
In step 1950, the wearable device 100 determines in which of the plurality of regions the acquired direction is included.

段階1960において、ウェアラブルデバイス100は、獲得された方向が中立領域に含まれるか否かということを判断する。もし獲得された方向が中立領域に含まれれば、段階1990に進み、そうではなければ、段階1970に進む。
段階1970において、ウェアラブルデバイス100は、獲得された方向に沿って、フォーカスの移動方向を決定する。
段階1980において、ウェアラブルデバイス100は、決定された移動方向に沿って、フォーカスを第2メニューアイテムに移動する。
In operation 1960, the wearable device 100 determines whether the acquired direction is included in the neutral region. If the obtained direction is included in the neutral region, proceed to step 1990; otherwise, proceed to step 1970.
In step 1970, the wearable device 100 determines a moving direction of the focus along the acquired direction.
In step 1980, the wearable device 100 moves the focus to the second menu item along the determined movement direction.

段階1990において、ウェアラブルデバイス100は、ユーザにフィードバックを提供する。ウェアラブルデバイス100は、振動装置を駆動するか、あるいはディスプレイ部120に表示されたイメージを一部変形し、ユーザにフィードバックを提供することができる。
図20ないし図26は、一実施形態によるウェアラブルデバイスが、ユーザの入力によって、フォーカスを移動させる例について説明するための図面である。
In step 1990, wearable device 100 provides feedback to the user. The wearable device 100 can drive the vibration device, or can partially deform the image displayed on the display unit 120 and provide feedback to the user.
20 to 26 are diagrams for describing an example in which the wearable device according to an embodiment moves the focus in accordance with a user input.

図20は、一実施形態によるウェアラブルデバイス100がフォーカスを移動させる例について説明するための図面である。図20を参照すれば、ウェアラブルデバイス100は、客体の移動方向に沿って、フォーカスを移動させる。   FIG. 20 is a diagram for explaining an example in which the wearable device 100 moves the focus according to an embodiment. Referring to FIG. 20, the wearable device 100 moves the focus along the moving direction of the object.

図20の場合、客体が移動した角度が15°であり、ウェアラブルデバイス100は、フォーカス10を、アイテム(Messenger)からアイテム(Media controller)に移動させる。   In the case of FIG. 20, the angle at which the object has moved is 15 °, and the wearable device 100 moves the focus 10 from the item (Messenger) to the item (Media controller).

図21は、一実施形態によるウェアラブルデバイスがフォーカスを移動させる例について説明するための図面である。図21を参照すれば、ウェアラブルデバイス100は、客体の移動方向に沿って、フォーカスを移動させる。   FIG. 21 is a diagram for describing an example in which the wearable device according to an embodiment moves the focus. Referring to FIG. 21, the wearable device 100 moves the focus along the moving direction of the object.

図21の場合、客体が移動した角度が40°であり、ウェアラブルデバイス100は、フォーカス10を、アイテム(Messenger)からアイテム(Call)に移動させる。   In the case of FIG. 21, the angle at which the object has moved is 40 °, and the wearable device 100 moves the focus 10 from the item (Messenger) to the item (Call).

図22は、一実施形態によるウェアラブルデバイスがフォーカスを移動させる例について説明するための図面である。図22を参照すれば、ウェアラブルデバイス100は、客体の移動方向に沿って、フォーカスを移動させる。   FIG. 22 is a diagram for describing an example in which the wearable device according to an embodiment moves the focus. Referring to FIG. 22, the wearable device 100 moves the focus along the moving direction of the object.

図22の場合、客体が移動した角度が80°であり、ウェアラブルデバイス100は、フォーカス10を、アイテム(Call)からアイテム(Application)に移動させる。   In the case of FIG. 22, the angle at which the object has moved is 80 °, and the wearable device 100 moves the focus 10 from the item (Call) to the item (Application).

図23は、一実施形態によるウェアラブルデバイスがフォーカスを移動させる例について説明するための図面である。図23を参照すれば、ウェアラブルデバイス100は、客体の移動方向に沿って、フォーカスを移動させる。   FIG. 23 is a diagram for describing an example in which the wearable device according to an embodiment moves the focus. Referring to FIG. 23, the wearable device 100 moves the focus along the moving direction of the object.

図23の場合、客体が移動した角度が130°であり、ウェアラブルデバイス100は、フォーカス10を、アイテム(Call)からアイテム(Gallery)に移動させる。   In the case of FIG. 23, the angle at which the object has moved is 130 °, and the wearable device 100 moves the focus 10 from the item (Call) to the item (Gallery).

図24は、一実施形態によるウェアラブルデバイスがフォーカスを移動させる例について説明するための図面である。図24を参照すれば、ウェアラブルデバイス100は、客体の移動方向に沿って、フォーカスを移動させる。   FIG. 24 is a view for explaining an example in which the wearable device according to an embodiment moves the focus. Referring to FIG. 24, the wearable device 100 moves the focus along the moving direction of the object.

図24の場合、客体が移動した角度が170°であり、ウェアラブルデバイス100は、フォーカス10を、アイテム(Application)からアイテム(Gallery)に移動させる。   In the case of FIG. 24, the angle at which the object has moved is 170 °, and the wearable device 100 moves the focus 10 from the item (Application) to the item (Gallery).

図25は、一実施形態によるウェアラブルデバイスがフォーカスを移動させる例について説明するための図面である。図25を参照すれば、ウェアラブルデバイス100は、客体の移動方向に沿って、フォーカスを移動させる。   FIG. 25 is a diagram for explaining an example in which the wearable device according to an embodiment moves the focus. Referring to FIG. 25, the wearable device 100 moves the focus along the moving direction of the object.

図25の場合、客体が移動した角度が220°であり、ウェアラブルデバイス100は、フォーカス10を、アイテム(Application)からアイテム(E−mail)に移動させる。   In the case of FIG. 25, the angle at which the object has moved is 220 °, and the wearable device 100 moves the focus 10 from the item (Application) to the item (E-mail).

図26は、一実施形態によるウェアラブルデバイスがフォーカスを移動させる例について説明するための図面である。図26を参照すれば、ウェアラブルデバイス100は、客体の移動方向に沿って、フォーカスを移動させる。   FIG. 26 is a diagram for describing an example in which the wearable device according to an embodiment moves the focus. Referring to FIG. 26, the wearable device 100 moves the focus along the moving direction of the object.

図26の場合、客体が移動した角度が260°であり、ウェアラブルデバイス100は、フォーカス10を、アイテム(E−mail)からアイテム(Messenger)に移動させる。
図27は、一実施形態によるウェアラブルデバイスが、客体のジェスチャを認識し、画面を転換する方法について説明するための図面である。
段階2710において、ウェアラブルデバイス100は、ウェアラブルデバイス100の周辺客体を検出する。
In the case of FIG. 26, the angle at which the object has moved is 260 °, and the wearable device 100 moves the focus 10 from the item (E-mail) to the item (Messenger).
FIG. 27 is a diagram illustrating a method in which a wearable device according to an embodiment recognizes an object gesture and changes a screen.
In step 2710, the wearable device 100 detects a peripheral object of the wearable device 100.

段階2720において、ウェアラブルデバイス100は、客体のジェスチャを認識する。ウェアラブルデバイス100は、客体が動く方向を獲得し、獲得された方向が含まれる領域を決定する。ウェアラブルデバイス100は、2回以上の客体の動きを感知することができ、その場合、ウェアラブルデバイス100は、客体が動く方向を2回以上測定する。   In operation 2720, the wearable device 100 recognizes an object gesture. The wearable device 100 acquires a direction in which the object moves, and determines a region including the acquired direction. The wearable device 100 can sense the movement of the object two or more times. In this case, the wearable device 100 measures the moving direction of the object two or more times.

段階2730で、ウェアラブルデバイス100は、ウェアラブルデバイス100の画面の表示状態、及び認識されたジェスチャによって画面を転換する。ウェアラブルデバイス100は、画面の表示状態とジェスチャとをいずれも考慮し、画面を転換する。例えば、ウェアラブルデバイス100は、現在表示されているアイテムと、以前に表示されたアイテムとを記録し、認識されるジェスチャによって、以前に表示されたアイテムを表示することができる。   In operation 2730, the wearable device 100 changes the screen according to the display state of the screen of the wearable device 100 and the recognized gesture. Wearable device 100 changes the screen in consideration of both the display state of the screen and the gesture. For example, the wearable device 100 can record the currently displayed item and the previously displayed item, and display the previously displayed item by a recognized gesture.

設定された時間内に、客体が2回以上異なる方向に移動する場合、ウェアラブルデバイス100は、2回以上の方向の組み合わせに対応する動作を遂行する。ウェアラブルデバイス100は、少なくとも1つの領域を設定し、獲得された方向に対応する領域を決定する。ウェアラブルデバイス100は、客体が動いた方向が2回以上測定されれば、対応する領域の組み合わせによって画面を転換する。例えば、ウェアラブルデバイス100は、以前画面を表示するか、上位フォルダを表示するか、あるいは現在実行されたプログラムを取消、以前画面やホーム画面を表示することができる。   When the object moves in two or more different directions within the set time, the wearable device 100 performs an operation corresponding to a combination of two or more directions. The wearable device 100 sets at least one area and determines an area corresponding to the acquired direction. The wearable device 100 changes the screen according to a combination of corresponding areas if the direction in which the object moves is measured twice or more. For example, the wearable device 100 can display the previous screen, display the upper folder, cancel the currently executed program, and display the previous screen and the home screen.

図28は、一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。図28を参照すれば、ウェアラブルデバイス100は、客体が左側、右側に動くジェスチャを認識し、「後戻り」機能を行う。   FIG. 28 is a diagram for explaining a method in which a wearable device according to an embodiment recognizes and operates a gesture. Referring to FIG. 28, the wearable device 100 recognizes a gesture in which the object moves to the left and right, and performs a “return” function.

図28は、客体の最初の移動方向が第4領域に含まれ、客体の2番目の移動方向が第2領域に含まれる場合を図示している。ウェアラブルデバイス100は、第4領域と第2領域との組み合わせに対応する機能を行う。例えば、ウェアラブルデバイス100は、画面の表示順序を参照し、「後戻り」機能を行うことができる。   FIG. 28 illustrates a case where the first movement direction of the object is included in the fourth area and the second movement direction of the object is included in the second area. Wearable device 100 performs a function corresponding to a combination of the fourth area and the second area. For example, the wearable device 100 can perform a “return” function by referring to the display order of the screens.

図29は、一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。図29を参照すれば、ウェアラブルデバイス100は、客体が右側、左側に動くジェスチャを認識し、「前に進む」機能を行う。   FIG. 29 is a diagram for explaining a method in which a wearable device according to an embodiment recognizes a gesture and operates. Referring to FIG. 29, the wearable device 100 recognizes a gesture in which an object moves to the right and left, and performs a “forward” function.

図29は、客体の最初の移動方向が第2領域に含まれ、客体の2番目の移動方向が第4領域に含まれる場合を図示する。ウェアラブルデバイス100は、第2領域と第4領域との組み合わせに対応する機能を行う。例えば、ウェアラブルデバイス100は、画面の表示順序を参照し、「前に進む」機能を行うことができる。   FIG. 29 illustrates a case where the first movement direction of the object is included in the second area and the second movement direction of the object is included in the fourth area. Wearable device 100 performs a function corresponding to a combination of the second area and the fourth area. For example, the wearable device 100 can perform a “go forward” function with reference to the display order of the screens.

図30は、一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。図30を参照すれば、ウェアラブルデバイス100は、客体が上下に動くジェスチャを認識し、「上位フォルダに移動」機能を行う。   FIG. 30 is a diagram illustrating a method in which a wearable device according to an embodiment recognizes a gesture and operates. Referring to FIG. 30, the wearable device 100 recognizes a gesture in which an object moves up and down and performs a “move to upper folder” function.

図30は、客体の最初の移動方向が第1領域に含まれ、客体の2番目の移動方向が第3領域に含まれる場合を図示する。ウェアラブルデバイス100は、第1領域と第3領域との組み合わせに対応する機能を行う。例えば、ウェアラブルデバイス100は、フォルダの関係を参照し、「上位フォルダに移動」機能を行うことができる。   FIG. 30 illustrates a case where the first movement direction of the object is included in the first area and the second movement direction of the object is included in the third area. Wearable device 100 performs a function corresponding to a combination of the first area and the third area. For example, the wearable device 100 can perform a “move to upper folder” function by referring to the relationship of folders.

図31は、一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。図31を参照すれば、ウェアラブルデバイス100は、客体が下上に動くジェスチャを認識し、「下位フォルダに移動」機能を行う。   FIG. 31 is a diagram for explaining a method in which a wearable device according to an embodiment recognizes a gesture and operates. Referring to FIG. 31, the wearable device 100 recognizes a gesture in which an object moves down and performs a “move to lower folder” function.

図31は客、体の最初の移動方向が第3領域に含まれ、客体の2番目の移動方向が第1領域に含まれる場合を図示する。ウェアラブルデバイス100は、第3領域と第1領域との組み合わせに対応する機能を行う。例えば、ウェアラブルデバイス100は、フォルダの関係を参照して「下位フォルダに移動」機能を行うことができる。   FIG. 31 illustrates a case where the first movement direction of the customer and the body is included in the third area, and the second movement direction of the object is included in the first area. Wearable device 100 performs a function corresponding to a combination of the third area and the first area. For example, the wearable device 100 can perform a “move to lower folder” function with reference to the relationship of folders.

図32は、一実施形態によるウェアラブルデバイスが、ジェスチャを認識して動作する方法について説明するための図面である。図32を参照すれば、ウェアラブルデバイス100は、客体が右側、左側、右側に動くジェスチャを認識し、「ホーム画面に移動または取消」機能を行う。   FIG. 32 is a diagram for explaining a method in which a wearable device according to an embodiment recognizes a gesture and operates. Referring to FIG. 32, the wearable device 100 recognizes a gesture in which an object moves to the right side, the left side, and the right side, and performs a “move or cancel home screen” function.

図32は、客体の最初の移動方向が第2領域に含まれ、客体の2番目の移動方向が第4領域に含まれ、3番目の移動方向が、第2領域に含まれる場合を図示する。ウェアラブルデバイス100は、第1領域と第3領域との組み合わせに対応する機能を行う。例えば、ウェアラブルデバイス100は、「ホーム画面に移動または取消」機能を行うことができる。   FIG. 32 illustrates a case where the first movement direction of the object is included in the second area, the second movement direction of the object is included in the fourth area, and the third movement direction is included in the second area. . Wearable device 100 performs a function corresponding to a combination of the first area and the third area. For example, the wearable device 100 can perform a “move or cancel home screen” function.

図33は、一実施形態によるウェアラブルデバイスが文字を入力する方法について説明するための図面である。図33を参照すれば、ウェアラブルデバイス100は、周辺客体の方向を獲得し、獲得された方向に対応する文字を入力することができる。
ウェアラブルデバイス100は、ウェアラブルデバイス100の周辺客体を検出し、客体が移動する方向を獲得する。
FIG. 33 is a diagram for explaining a method of inputting characters by the wearable device according to an embodiment. Referring to FIG. 33, the wearable device 100 may acquire a direction of a peripheral object and input a character corresponding to the acquired direction.
The wearable device 100 detects a peripheral object of the wearable device 100 and acquires a direction in which the object moves.

ウェアラブルデバイス100は、獲得された方向と対応する領域を決定する。ウェアラブルデバイス100は、獲得された方向を含む領域がいずれの領域であるかということを決定する。ウェアラブルデバイス100は、文字入力システムによって、領域の数を決定することができる。図33の場合、ウェアラブルデバイス100が8個の領域を設定した場合を例として説明している。   The wearable device 100 determines a region corresponding to the acquired direction. The wearable device 100 determines which area includes the acquired direction. The wearable device 100 can determine the number of areas by a character input system. In the case of FIG. 33, the case where the wearable device 100 sets eight areas is described as an example.

ウェアラブルデバイス100は、決定された領域に対応する文字を入力する。ウェアラブルデバイス100は、設定された領域に対応する文字をあらかじめ指定する。例えば、図33では、第1領域は、
に対応し、第2領域は、
に対応する。第3領域は、
に対応し、第4領域は、
に対応する。第5領域は、
に対応し、第6領域は、
に対応する。第7領域は、
に対応し、第8領域は、特殊文字に対応する。
Wearable device 100 inputs a character corresponding to the determined area. Wearable device 100 designates a character corresponding to the set area in advance. For example, in FIG. 33, the first region is
And the second region is
Corresponding to The third area is
The fourth area corresponds to
Corresponding to The fifth area is
The sixth region corresponds to
Corresponding to The seventh area is
The eighth area corresponds to special characters.

各領域ごとに2個以上の文字が対応する場合、ウェアラブルデバイス100は、ユーザの動作を追加して感知し、2個以上の文字のうちいずれか1つの文字を決定することができる。例えば、ウェアラブルデバイス100は、ユーザのタップ(tap)動作を追加して感知することができる。もしウェアラブルデバイス100が、客体の移動方向が第1領域に該当すると判断すれば、
を入力するが、ユーザのタップ動作が追加して感知されれば、
を入力する。
When two or more characters correspond to each region, the wearable device 100 can additionally detect a user action and determine any one of the two or more characters. For example, the wearable device 100 may additionally sense a user tap operation. If the wearable device 100 determines that the moving direction of the object corresponds to the first area,
If a user tap action is detected in addition,
Enter.

図34は、一実施形態によるウェアラブルデバイスの動作方法について説明するためのフローチャートである。図34を参照すれば、ウェアラブルデバイス100は、客体の移動方向を獲得して文字を入力することができる。
段階3410において、ウェアラブルデバイス100は、周辺客体を検出する。ウェアラブルデバイス100は、設定された範囲内で客体を感知する。
FIG. 34 is a flowchart for explaining an operation method of the wearable device according to the embodiment. Referring to FIG. 34, the wearable device 100 can acquire the moving direction of the object and input characters.
In step 3410, the wearable device 100 detects a peripheral object. The wearable device 100 senses an object within a set range.

段階3420において、ウェアラブルデバイス100は、客体が移動する方向を獲得する。ウェアラブルデバイス100は、客体が移動すれば、客体の移動角度を計算する。例えば、ウェアラブルデバイス100は、客体が検出されるとき、客体の位置、及び客体が移動を止めたときの客体の位置を利用し、客体の移動角度を計算することができる。   In operation 3420, the wearable device 100 acquires a direction in which the object moves. The wearable device 100 calculates the movement angle of the object when the object moves. For example, the wearable device 100 can calculate the moving angle of the object using the position of the object when the object is detected and the position of the object when the object stops moving.

段階3430において、ウェアラブルデバイス100は、獲得された方向によって、文字を決定する。ウェアラブルデバイス100は、文字入力システムごとに方向による領域を設定する。ウェアラブルデバイス100は、獲得された方向が設定された領域内のいずれの領域に含まれるかということを決定する。ウェアラブルデバイス100は、それぞれの領域ごとにマッピングされた文字を保存し、決定された領域にマッピングされた文字が何であるかということを決定する。   In operation 3430, the wearable device 100 determines a character according to the obtained direction. Wearable device 100 sets an area according to direction for each character input system. The wearable device 100 determines which area within the set area the acquired direction is included in. The wearable device 100 stores characters mapped for each area, and determines what the characters mapped to the determined area are.

段階3440において、ウェアラブルデバイス100は、決定された文字を入力する。ウェアラブルデバイス100は、決定された文字をディスプレイ部120に表示することができる。   In operation 3440, the wearable device 100 inputs the determined character. The wearable device 100 can display the determined character on the display unit 120.

図35ないし図41は、一実施形態によるウェアラブルデバイスのナビゲーション方法について説明するための図面である。図35ないし図41を参照すれば、ウェアラブルデバイス100は、ユーザのジェスチャを感知し、ジェスチャに対応する動作を遂行することができる。   FIG. 35 to FIG. 41 are diagrams for explaining a wearable device navigation method according to an embodiment. Referring to FIGS. 35 to 41, the wearable device 100 may detect a user gesture and perform an operation corresponding to the gesture.

図35の場合、ウェアラブルデバイス100は、タップ(tap)動作を感知し、現在アイテムを選択したり実行したりする。ディスプレイ部120は、アイテムを表示し、ウェアラブルデバイス100は、タップ動作を感知すれば、ディスプレイ部120に、現在表示されたアイテムを選択する。   In the case of FIG. 35, the wearable device 100 detects a tap operation and selects or executes the current item. The display unit 120 displays an item, and the wearable device 100 selects an item currently displayed on the display unit 120 when detecting a tap operation.

図36の場合、ウェアラブルデバイス100は、ダブルタップ(double tap)動作を感知し、ディスプレイ部120にオプションを表示する。例えば、ウェアラブルデバイス100は、現在表示状態によって遂行可能な機能を、ディスプレイ部120に表示することができる。図36において、ウェアラブルデバイス100は、ダブルタップ動作を感知し、「Select All」及び「UnSelect All」をディスプレイ部120に表示する場合を図示している。   In the case of FIG. 36, the wearable device 100 detects a double tap operation and displays an option on the display unit 120. For example, the wearable device 100 can display functions that can be performed according to the current display state on the display unit 120. 36, the wearable device 100 senses a double tap operation and displays “Select All” and “UnSelect All” on the display unit 120.

図37の場合、ウェアラブルデバイス100は、スライド(slide)動作を感知し、ディスプレイ部120に表示されたアイテムを回転させる。ウェアラブルデバイス100は、指がスライドする方向によって、アイテムの回転方向を決定することができる。図37において、ウェアラブルデバイス100は、客体が下方向にスライドする動作を感知し、ディスプレイ部120に表示されたアイテムを下方向に移動させる。   In the case of FIG. 37, the wearable device 100 detects a slide operation and rotates an item displayed on the display unit 120. The wearable device 100 can determine the rotation direction of the item according to the direction in which the finger slides. In FIG. 37, the wearable device 100 senses the movement of the object sliding downward, and moves the item displayed on the display unit 120 downward.

図38の場合、ウェアラブルデバイス100は、2本指がスライド(2 finger slide)する動作を感知し、ディスプレイ部120に表示されたアイテムを回転させる。ウェアラブルデバイス100は、1本の指がスライドする場合より2本指がスライドする場合、アイテムの回転速度を速くすることができる。   In the case of FIG. 38, the wearable device 100 senses the movement of two fingers sliding (two finger slide), and rotates the item displayed on the display unit 120. The wearable device 100 can increase the rotation speed of an item when two fingers slide compared to when one finger slides.

図39の場合、ウェアラブルデバイス100は、指のスウィープ(sweep)動作を感知し、ホーム画面を表示したり取り消したりする機能を行う。ウェアラブルデバイス100は、指が左右に3回以上移動する場合、スウィープ動作と判断する。ホーム画面は、ウェアラブルデバイス100の初期画面のような基本画面を示す。取消機能は、最も最近実行された機能を取り消すことを示す。   In the case of FIG. 39, the wearable device 100 detects a finger sweep operation and performs a function of displaying or canceling the home screen. Wearable device 100 determines a sweep operation when the finger moves left and right three times or more. The home screen shows a basic screen such as the initial screen of wearable device 100. The cancel function indicates to cancel the function executed most recently.

図40の場合、ウェアラブルデバイス100は、指が左に移動する動作を感知し、以前(previous)画面に移動する。ウェアラブルデバイス100は、現在画面を表示する前に表示された最も最近の画面を表示する。
図41の場合、ウェアラブルデバイス100は、指が右側に移動する動作を感知し、次の(newt)画面に移動する。
In the case of FIG. 40, the wearable device 100 senses the movement of the finger to the left and moves to the previous screen. The wearable device 100 displays the most recent screen displayed before displaying the current screen.
In the case of FIG. 41, the wearable device 100 senses the movement of the finger to the right and moves to the next (newt) screen.

図42及び図43は、一実施形態によるウェアラブルデバイスが、手の甲タッチを感知して文字を入力する方法について説明するための図面である。ウェアラブルデバイス100のディスプレイ部120は、スマートフォンやタブレットPC(personal computer)などのディスプレイ部に比べ、さらに小さい。従って、ユーザがウェアラブルデバイス100のディスプレイ部120をタッチして文字を入力する場合、入力間違いが発生する確率が高い。一実施形態によるウェアラブルデバイス100は、ディスプレイ部120に比べ、相対的に広い領域をユーザの手の甲に設定することにより、ユーザが入力する文字を正確に識別することができる。   FIG. 42 and FIG. 43 are diagrams for explaining a method in which the wearable device according to an embodiment senses the back of the hand and inputs characters. The display unit 120 of the wearable device 100 is smaller than a display unit such as a smartphone or a tablet PC (personal computer). Therefore, when the user inputs characters by touching the display unit 120 of the wearable device 100, there is a high probability that an input error will occur. The wearable device 100 according to the embodiment can accurately identify a character input by the user by setting a relatively wide area on the back of the user's hand as compared to the display unit 120.

図42を参照すれば、ウェアラブルデバイス100は、ユーザの手の甲を複数の領域に区分する。図42の場合、ウェアラブルデバイス100は、手の甲を12個の領域に区分する場合を例として説明している。
ウェアラブルデバイス100は、ウェアラブルデバイス100を着用しているユーザの手の甲の範囲を設定する。
Referring to FIG. 42, the wearable device 100 divides the back of the user's hand into a plurality of regions. In the case of FIG. 42, the wearable device 100 is described as an example in which the back of the hand is divided into 12 regions.
Wearable device 100 sets the range of the back of the user's hand wearing wearable device 100.

ウェアラブルデバイス100は、ユーザが、複数の領域内のいずれの領域をタッチするかということを決定する。ウェアラブルデバイス100は、側面に具備されたセンサを介して、ユーザが手の甲のいずれの部分をタッチするかということを感知する。言い替えれば、ウェアラブルデバイス100は、ユーザの指が感知された位置を判断する。例えば、ウェアラブルデバイス100は、2個のセンサと指の距離とを測定し、測定された距離を利用して、指が感知された位置を計算することができる。   Wearable device 100 determines which area in the plurality of areas the user touches. The wearable device 100 senses which part of the back of the hand the user touches through a sensor provided on a side surface. In other words, the wearable device 100 determines a position where the user's finger is detected. For example, the wearable device 100 can measure the distance between two sensors and a finger, and use the measured distance to calculate a position where the finger is sensed.

ウェアラブルデバイス100は、ユーザがタッチした領域に対応する文字を決定する。ウェアラブルデバイス100は、設定された領域と文字とをマッピングする。図42の場合、12個の領域にマッピングされた文字を図示している。例えば、2行2列の領域は、このマッピングされた領域である。   Wearable device 100 determines a character corresponding to an area touched by the user. Wearable device 100 maps a set area and a character. In the case of FIG. 42, characters mapped to 12 areas are illustrated. For example, an area of 2 rows and 2 columns is the mapped area.

図43は、ウェアラブルデバイス100に入力される文字、及び表示される文字入力ガイドについて説明するための図面である。図43を参照すれば、ウェアラブルデバイス100は、ディスプレイ部120に入力される文字を表示する。ウェアラブルデバイス100は、ユーザのタッチを感知し、タッチされた位置によって文字を入力する。   FIG. 43 is a diagram for describing characters input to the wearable device 100 and displayed character input guides. Referring to FIG. 43, the wearable device 100 displays characters input to the display unit 120. Wearable device 100 senses a user's touch and inputs characters according to the touched position.

ウェアラブルデバイス100は、ディスプレイ部120に文字入力ガイドを表示する。言い替えれば、ウェアラブルデバイス100は、ディスプレイ部120に文字が配列された状態を表示する。ユーザは、文字入力ガイドを参照し、タッチ位置を区分することができる。   The wearable device 100 displays a character input guide on the display unit 120. In other words, wearable device 100 displays a state in which characters are arranged on display unit 120. The user can distinguish the touch position by referring to the character input guide.

図44及び図45は、一実施形態によるウェアラブルデバイスのタッチセンサの配列説明を行うための図面である。図44を参照すれば、ウェアラブルデバイス100は、正面の上下または左右に、タッチセンサ150を含んでもよい。タッチセンサ150は、ウェアラブルデバイス100の正面のエッジに配置される。図45を参照すれば、ウェアラブルデバイス100は、4面にタッチセンサ150を含んでもよい。タッチセンサ150は、ディスプレイ部120を取り囲んだ形態に配列される。   44 and 45 are diagrams for explaining the arrangement of touch sensors of a wearable device according to an embodiment. Referring to FIG. 44, the wearable device 100 may include touch sensors 150 on the top, bottom, left and right of the front. The touch sensor 150 is disposed on the front edge of the wearable device 100. Referring to FIG. 45, the wearable device 100 may include touch sensors 150 on four sides. The touch sensor 150 is arranged in a form surrounding the display unit 120.

図46は、一実施形態による文字入力方法について説明するための図面である。図46を参照すれば、ウェアラブルデバイス100は、タッチセンサ150を利用して、文字を入力することができる。ウェアラブルデバイス100は、4面に配置されたタッチセンサ150と並列に文字を表示する。例えば、ウェアラブルデバイス100の上面には、初声が配列され、右側面には、中性が配列され、下側面には、終声が配列され、左側面には、移動表示が配列される。ウェアラブルデバイス100は、タッチセンサ150のうちユーザのタッチが感知された位置を決定し、決定された位置に配列された文字を入力することができる。図46では、ハングルを配した場合を例として説明しているが、英語、日本語、スペイン語など多様な言語が配列されてもよい。   FIG. 46 is a diagram for explaining a character input method according to an embodiment. Referring to FIG. 46, the wearable device 100 can input characters using the touch sensor 150. Wearable device 100 displays characters in parallel with touch sensors 150 arranged on four sides. For example, the initial voice is arranged on the upper surface of the wearable device 100, the neutral is arranged on the right side, the end voice is arranged on the lower side, and the movement display is arranged on the left side. The wearable device 100 may determine a position where the user's touch is detected in the touch sensor 150 and input characters arranged at the determined position. In FIG. 46, the case where Hangeul is arranged is described as an example, but various languages such as English, Japanese, and Spanish may be arranged.

図47は、一実施形態による文字入力方法について説明するための図面である。図47を参照すれば、ウェアラブルデバイス100は、タッチ(touch)動作、ドラッグ(drag)動作及びドロップ(drop)動作を感知して文字を入力することができる。   FIG. 47 is a diagram for explaining a character input method according to an embodiment. Referring to FIG. 47, the wearable device 100 may input characters by detecting a touch operation, a drag operation, and a drop operation.

最初に、ウェアラブルデバイス100は、タッチセンサ150を介して、タッチ動作を感知する。ウェアラブルデバイス100は、該タッチ動作が感知されれば、タッチされた位置を決定し、決定された位置に配列された文字を拡大して表示する。   First, the wearable device 100 senses a touch operation via the touch sensor 150. When the touch operation is detected, wearable device 100 determines a touched position and enlarges and displays characters arranged at the determined position.

第2に、ウェアラブルデバイス100は、タッチセンサ150を介して、ドラッグ動作を感知する。該ドラッグ動作は、ユーザがタッチセンサ150をタッチした状態で移動させる動作を示す。ウェアラブルデバイス100は、ドラッグ動作を感知すれば、ユーザのタッチ入力が、移動によって文字を拡大する。   Second, the wearable device 100 senses a drag operation via the touch sensor 150. The drag operation indicates an operation of moving the user while touching the touch sensor 150. When the wearable device 100 senses a drag operation, the user's touch input enlarges the character by movement.

第3に、ウェアラブルデバイス100は、タッチセンサ150を介して、ドロップ動作を感知する。該ドロップ動作は、ユーザがタッチ入力を終了する動作を示す。例えば、タッチセンサ150に接触されたユーザの指が、タッチセンサ150から離れることを示す。ウェアラブルデバイス100は、ドロップ動作が感知されれば、ドロップ動作が感知されるとき、拡大された文字を入力する。入力された文字は、ディスプレイ部に表示される。図47では、
が入力された場合を図示している。
Third, the wearable device 100 senses a drop operation via the touch sensor 150. The drop operation indicates an operation in which the user ends touch input. For example, this indicates that the user's finger touched by the touch sensor 150 is separated from the touch sensor 150. If the drop operation is detected, the wearable device 100 inputs an enlarged character when the drop operation is detected. The input characters are displayed on the display unit. In FIG.
The case where is input is illustrated.

図48及び図49は、一実施形態による文字入力方法について説明するための図面である。図48及び図49を参照すれば、ウェアラブルデバイス100は、少なくとも2回のタッチ動作を感知して文字を入力することができる。
第1に、ウェアラブルデバイス100は、タッチセンサ150を介して、タッチ(touch)動作を感知する。
48 and 49 are diagrams for explaining a character input method according to an embodiment. 48 and 49, the wearable device 100 can input characters by detecting at least two touch operations.
First, the wearable device 100 detects a touch operation via the touch sensor 150.

第2に、ウェアラブルデバイス100は、タッチ動作が感知されれば、タッチされた位置を決定し、決定された位置に隣接した少なくとも1つの文字を拡大して表示する。例えば、ウェアラブルデバイス100は、決定された位置に表示された文字、及び決定された位置と最も隣接した位置に表示された文字を拡大して表示することができる。図49では、ユーザが
が表示された部分のタッチセンサ150をタッチした場合、ウェアラブルデバイス100が、
と隣接した
を拡大して表示した例を図示している。
Second, the wearable device 100 determines a touched position when a touch operation is detected, and displays at least one character adjacent to the determined position in an enlarged manner. For example, the wearable device 100 can enlarge and display the character displayed at the determined position and the character displayed at the position closest to the determined position. In FIG. 49, the user
When the touch sensor 150 of the portion where is displayed is touched, the wearable device 100
Adjacent to
The figure which expanded and displayed is shown in figure.

第3に、ユーザは、タッチセンサ150、または拡大された文字をタッチすることができる。図49では、ユーザが、
のうち
をタッチした例を図示している。
Third, the user can touch the touch sensor 150 or the enlarged character. In FIG. 49, the user
Out of
An example of touching is shown.

第4に、ウェアラブルデバイス100は、拡大された文字のうち、ユーザのタッチがいずれの文字に対して実行されたかということを決定し、決定された文字を入力し、ディスプレイ部に表示する。   Fourthly, the wearable device 100 determines which character among the enlarged characters the user's touch has been performed, inputs the determined character, and displays it on the display unit.

図50ないし図54は、一実施形態による画面回転方法について説明するための図面である。図50ないし図54を参照すれば、ウェアラブルデバイス100は、エッジに配置されたタッチセンサ150を利用して、画面を回転させることができる。   50 to 54 are views for explaining a screen rotation method according to an embodiment. Referring to FIGS. 50 to 54, the wearable device 100 can rotate the screen using the touch sensor 150 disposed at the edge.

図50及び図51は、タッチセンサ150がウェアラブルデバイス100の上側及び下側に配置された場合を例として説明している。ウェアラブルデバイス100は、上側及び下側に配置されたタッチセンサ150を介して、ユーザのタッチを受信し、受信されたタッチパターンによって、画面を回転させることができる。図50は、ウェアラブルデバイス100が、ユーザの入力によって、時計回り方向に図形を回転させる例を示している。   50 and 51 illustrate an example in which the touch sensor 150 is disposed on the upper side and the lower side of the wearable device 100. FIG. The wearable device 100 can receive a user's touch via the touch sensors 150 arranged on the upper side and the lower side, and can rotate the screen according to the received touch pattern. FIG. 50 shows an example in which the wearable device 100 rotates a figure in the clockwise direction by a user input.

図51は、ウェアラブルデバイス100が、図50に図示されたユーザの入力パターンを感知する方法について説明するための図面である。ウェアラブルデバイス100は、上側タッチセンサ150及び下側タッチセンサ150において、タッチ動作及びドラッグ動作を感知する。ウェアラブルデバイス100は、タッチセンサ150で感知されるドラッグの方向を決定する。ウェアラブルデバイス100は、上側タッチセンサ150及び下側タッチセンサ150で感知されるドラッグの方向によって、設定された動作を遂行する。例えば、上側タッチセンサ150で感知されるドラッグの方向と、下側タッチセンサ150で感知されるドラッグの方向とが反対である場合、ウェアラブルデバイス100は、画面を回転させる。   FIG. 51 is a diagram illustrating a method in which the wearable device 100 senses a user input pattern illustrated in FIG. Wearable device 100 senses a touch action and a drag action at upper touch sensor 150 and lower touch sensor 150. The wearable device 100 determines a drag direction sensed by the touch sensor 150. The wearable device 100 performs a set operation according to a drag direction sensed by the upper touch sensor 150 and the lower touch sensor 150. For example, when the drag direction detected by the upper touch sensor 150 is opposite to the drag direction detected by the lower touch sensor 150, the wearable device 100 rotates the screen.

図51では、上側タッチセンサ150は、左側方向から右側方向にドラッグを感知し、下側タッチセンサ150は、右側方向から左側方向にドラッグを感知する。ウェアラブルデバイス100は、画面を時計回り方向に回転させる。   In FIG. 51, the upper touch sensor 150 detects dragging from the left direction to the right direction, and the lower touch sensor 150 detects dragging from the right direction to the left direction. Wearable device 100 rotates the screen in the clockwise direction.

図52は、上側タッチセンサ150が、右側方向から左側方向にドラッグを感知し、下側タッチセンサ150が、左側方向から右側方向にドラッグを感知した場合、ウェアラブルデバイス100は、画面を反時計回り方向に回転させる例を図示している。   52, when the upper touch sensor 150 detects dragging from the right side to the left side and the lower touch sensor 150 detects dragging from the left side to the right side, the wearable device 100 rotates the screen counterclockwise. An example of rotating in the direction is shown.

図53及び図54は、タッチセンサ150がウェアラブルデバイス100の左側及び右側に配置された場合を例として説明している。ウェアラブルデバイス100は、左側及び右側に配置されたタッチセンサ150を介して、ユーザのタッチを受信し、受信されたタッチパターンによって、画面を回転させることができる。   53 and 54 illustrate an example in which the touch sensor 150 is disposed on the left side and the right side of the wearable device 100. FIG. The wearable device 100 can receive a user's touch via the touch sensors 150 arranged on the left side and the right side, and can rotate the screen according to the received touch pattern.

図53は、ウェアラブルデバイス100が、ユーザの入力によって、時計回り方向に図形を回転させる例を示している。ウェアラブルデバイス100は、左側タッチセンサ150及び右側タッチセンサ150において、タッチ動作及びドラッグ動作を感知する。ウェアラブルデバイス100は、タッチセンサ150で感知されるドラッグの方向を決定する。ウェアラブルデバイス100は、左側タッチセンサ150及び右側タッチセンサ150で感知されるドラッグの方向によって、設定された動作を遂行する。例えば、左側タッチセンサ150で感知されるドラッグの方向と、右側タッチセンサ150で感知されるドラッグの方向とが反対である場合、ウェアラブルデバイス100は、画面を回転させる。
図53では、左側タッチセンサ150は、下から上の方向にドラッグを感知し、右側タッチセンサ150は、上から下の方向にドラッグを感知する。ウェアラブルデバイス100は、画面を時計回り方向に回転させる。
FIG. 53 shows an example in which the wearable device 100 rotates a figure in the clockwise direction by a user input. Wearable device 100 senses a touch action and a drag action at left touch sensor 150 and right touch sensor 150. The wearable device 100 determines a drag direction sensed by the touch sensor 150. The wearable device 100 performs a set operation according to the drag direction sensed by the left touch sensor 150 and the right touch sensor 150. For example, when the drag direction sensed by the left touch sensor 150 is opposite to the drag direction sensed by the right touch sensor 150, the wearable device 100 rotates the screen.
In FIG. 53, the left touch sensor 150 senses dragging from the bottom to the top, and the right touch sensor 150 senses dragging from the top to the bottom. Wearable device 100 rotates the screen in the clockwise direction.

図54は、左側タッチセンサ150が、上から下の方向にドラッグを感知し、右側タッチセンサ150が、下から上の方向にドラッグを感知した場合、ウェアラブルデバイス100は、画面を反時計回り方向に回転させる例を図示している。 54, when the left touch sensor 150 senses a drag from the top to the bottom and the right touch sensor 150 senses a drag from the bottom to the top, the wearable device 100 turns the screen counterclockwise. An example of rotating is shown.

本実施形態による装置は、プロセッサ、プログラムデータを保存して実行するメモリ、ディスクドライブのような永久保存部(permanent storage)、外部装置と通信する通信ポート、タッチパネル・キー(key)・ボタンのようなユーザインターフェース装置などを含んでもよい。ソフトウェアモジュールまたはアルゴリズムによって具現される方法は、前記プロセッサ上で実行可能なコンピュータで読み取り可能なコードまたはプログラム命令として、コンピュータで読み取り可能な記録媒体上に保存される。ここで、コンピュータで読み取り可能な記録媒体として、マグネチック記録媒体(例えば、ROM(read only memory)、RAM(random access memory)、フロッピーディスク、ハードディスクなど)、及び光学的判読媒体(例えば、CD−ROM(compact disc read only memory)、DVD(digital versatile disc))などがある。コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式で、コンピュータで判読可能なコードが保存されて実行される。該媒体は、コンピュータによって判読可能であり、メモリに保存され、プロセッサで実行される。   The device according to the present embodiment includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel key (key) and a button. A simple user interface device or the like. A method embodied by a software module or algorithm is stored on a computer readable recording medium as computer readable code or program instructions executable on the processor. Here, as a computer-readable recording medium, a magnetic recording medium (for example, a read only memory (ROM), a random access memory (RAM), a floppy disk, a hard disk, etc.), and an optical reading medium (for example, a CD- ROM (compact disc read only memory) and DVD (digital versatile disc)). The computer-readable recording medium is distributed in a computer system connected to a network, and a computer-readable code is stored and executed in a distributed manner. The medium is readable by a computer, stored in memory and executed by a processor.

本実施形態は、機能的なブロック構成及び多様な処理段階で示される。かような機能ブロックは、特定機能を実行する多様な個数のハードウェアまたは/及びソフトウェア構成によって具現される。例えば、実施形態は、1以上のマイクロプロセッサの制御、または他の制御装置によって多様な機能を実行することができる、メモリ、プロセッシング、ロジック(logic)、ルックアップテーブル(look-up table)のような直接回路構成を採用することができる。該構成要素がソフトウェアプログラミングまたはソフトウェア要素で実行されるところと類似して、本実施形態は、データ構造、プロセス、ルーチン、または他のプログラミング構成の組み合わせによって具現される多様なアルゴリズムを含み、C、C++、ジャバ(Java(登録商標))、アセンブラ(assembler)のようなプログラミング言語またはスクリプティング言語によって具現される。機能的な側面は、1以上のプロセッサによって実行されるアルゴリズムによって具現される。また、本実施形態は、電子的な環境設定、信号処理及び/またはデータ処理などのために、従来技術を採用することができる。「メカニズム」、「要素」、「手段」、「構成」のような用語は、広く使用され、機械的で物理的な構成として限定されるものではない。前記用語は、プロセッサなどと連繋し、ソフトウェアの一連の処理(routines)の意味を含んでもよい。   This embodiment is shown with a functional block configuration and various processing stages. Such functional blocks are implemented by various numbers of hardware or / and software configurations that execute specific functions. For example, embodiments may be memory, processing, logic, look-up table, etc. that may perform various functions by controlling one or more microprocessors, or other control devices. A direct circuit configuration can be employed. Similar to where the components are implemented in software programming or software elements, this embodiment includes various algorithms embodied by a combination of data structures, processes, routines, or other programming configurations, and C, It is implemented by a programming language or scripting language such as C ++, Java (registered trademark), and assembler. Functional aspects are embodied by an algorithm executed by one or more processors. In addition, the present embodiment can employ a conventional technique for electronic environment setting, signal processing, and / or data processing. Terms such as “mechanism”, “element”, “means”, “configuration” are widely used and are not limited to mechanical and physical configurations. The term is linked to a processor or the like, and may include a meaning of a series of software routines.

本実施形態で説明する特定実行は、例示であり、いかなる方法でも、技術的範囲を限定するものではない。明細書の簡潔さのために、従来の電子的な構成、制御システム、ソフトウェア、前記システムの他の機能的な側面の記載は省略する。また、図面に図示された構成要素間の線の連結または連結部材は、機能的な連結及び/または物理的または回路的な連結を例示的に示したものであり、実際の装置では、代替可能であったり追加されたりする多様な機能的な連結、物理的な連結または回路の連結として示される。   The specific execution described in this embodiment is an exemplification, and does not limit the technical scope in any way. For the sake of brevity, the description of the conventional electronic configuration, control system, software, and other functional aspects of the system is omitted. In addition, the line connection or connection member between the components illustrated in the drawings exemplifies functional connection and / or physical or circuit connection, and can be replaced with an actual apparatus. It is shown as various functional connections, physical connections, or circuit connections that may be added or added.

本明細書(特に、特許請求の範囲)において、「前記」の用語、及びそれと類似した指示用語の使用は、単数及び複数のいずれもに該当する。また、範囲(range)を記載した場合、前記範囲に属する個別的な値を含むものであり(それに反する記載がなければ)、詳細な説明において、前記範囲を構成する各個別的な値を記載した通りである。最後に、方法を構成する段階について、明白に順序を記載するか、あるいはそれに反する記載がなければ、前記段階は、適切な順序によって実行される。必ずしも前記段階の記載順序に限定されるものではない。全ての例または例示的な用語(例えば、など)の使用は、単に技術的思想について詳細に説明するためのものであり、特許請求の範囲によって限定されない以上、前記例、または例示的な用語によって範囲が限定されるものではない。また、当業者は、多様な修正、組み合わせ及び変更が付加された特許請求の範囲またはその均等物の範疇内で、設計条件及びファクタによっても構成されるということを理解することができるであろう。   In this specification (especially the claims), the use of the term “above” and similar terminology includes both the singular and the plural. In addition, when a range is described, it includes individual values belonging to the range (unless otherwise described), and in the detailed description, individual values constituting the range are described. That's right. Finally, the steps are performed in an appropriate order unless explicitly stated or contrary to the steps that make up the method. It is not necessarily limited to the description order of the steps. The use of all examples or exemplary terms (eg, etc.) is merely for the purpose of explaining the technical idea in detail, and is not limited by the scope of the claims. The range is not limited. Those skilled in the art will also understand that various modifications, combinations and changes may be made according to design conditions and factors within the scope of the appended claims or their equivalents. .

10 フォーカス
100 ウェアラブルデバイス
110 センサ
120 ディスプレイ部
130 メモリ
140 プロセッサ
141 方向獲得部
142 移動方向決定部
143 制御部
150 タッチセンサ
DESCRIPTION OF SYMBOLS 10 Focus 100 Wearable device 110 Sensor 120 Display part 130 Memory 140 Processor 141 Direction acquisition part 142 Movement direction determination part 143 Control part 150 Touch sensor

Claims (16)

周辺客体の動きを検出するセンサと、
複数のアイテムを表示し、表示された複数のアイテムのうち少なくとも1つのアイテムにフォーカスを表示するディスプレイ部と、
前記客体が動いた方向に対応する位置のアイテムにフォーカスを移動させて表示するように、前記ディスプレイ部を制御するプロセッサと、を含むウェアラブルデバイス。
A sensor for detecting the movement of surrounding objects,
A display unit that displays a plurality of items and displays focus on at least one of the displayed items;
A wearable device comprising: a processor that controls the display unit so that an item at a position corresponding to a direction in which the object moves is moved and displayed.
前記プロセッサは、前記客体が移動し始める開始点の座標と、前記客体が止まる終了点との座標を計算し、前記ウェアラブルデバイスと、前記開始点及び前記終了点との位置関係を利用して、前記方向を獲得することを特徴とする請求項1に記載のウェアラブルデバイス。   The processor calculates the coordinates of the start point at which the object starts moving and the end point at which the object stops, and uses the positional relationship between the wearable device and the start point and the end point, The wearable device according to claim 1, wherein the direction is acquired. 前記プロセッサは、あらかじめ少なくとも1つの領域を設定し、前記客体が動いた方向が、前記領域内のいずれの領域に含まれるかということを判断し、フォーカスの移動方向を決定することを特徴とする請求項1に記載のウェアラブルデバイス。   The processor sets at least one region in advance, determines which region within the region the direction in which the object moves is included, and determines a moving direction of the focus. The wearable device according to claim 1. 前記プロセッサは、前記領域の間には、中立領域を設定することを特徴とする請求項3に記載のウェアラブルデバイス。   The wearable device according to claim 3, wherein the processor sets a neutral area between the areas. 前記プロセッサは、前記獲得された方向が前記中立領域に含まれる場合、ユーザにフィードバックを提供するように、前記ディスプレイ部を制御することを特徴とする請求項4に記載のウェアラブルデバイス。   The wearable device of claim 4, wherein the processor controls the display unit to provide feedback to a user when the obtained direction is included in the neutral region. 前記プロセッサは、前記ウェアラブルデバイスの側面または正面で動く前記客体の方向を獲得することを特徴とする請求項1に記載のウェアラブルデバイス。   The wearable device according to claim 1, wherein the processor acquires a direction of the object moving on a side surface or a front surface of the wearable device. 前記プロセッサは、現在フォーカスの位置によって、フォーカスが移動可能な方向に対応する領域を設定し、前記客体が動いた方向が、前記領域内のいずれの領域に含まれるかということを判断し、フォーカスの移動方向を決定することを特徴とする請求項1に記載のウェアラブルデバイス。   The processor sets an area corresponding to a direction in which the focus can be moved according to a current focus position, determines which area in the area the moving direction of the object is included, and The wearable device according to claim 1, wherein the moving direction is determined. 前記プロセッサは、前記客体が移動した角度を計算し、フォーカスの移動方向を決定することを特徴とする請求項1に記載のウェアラブルデバイス。   The wearable device according to claim 1, wherein the processor calculates an angle of movement of the object and determines a moving direction of the focus. 複数のアイテムを表示し、表示された複数のアイテムのうち少なくとも1つのアイテムにフォーカスを表示する段階と、
周辺客体の動きを検出する段階と、
前記客体が動いた方向に対応する位置のアイテムにフォーカスを移動させて表示する段階と、を含むウェアラブルデバイスの動作方法。
Displaying a plurality of items and displaying focus on at least one of the displayed items;
Detecting the movement of surrounding objects,
A method of operating the wearable device, comprising: moving and displaying a focus on an item at a position corresponding to a direction in which the object moves.
前記客体が移動し始める開始点の座標と、前記客体が止まる終了点の座標とを計算し、前記ウェアラブルデバイスと、前記開始点及び前記終了点との位置関係を利用して、前記客体が動いた方向を獲得する段階をさらに含むことを特徴とする請求項9に記載のウェアラブルデバイスの動作方法。   The coordinates of the start point at which the object starts to move and the coordinates of the end point at which the object stops are calculated, and the object moves using the positional relationship between the wearable device and the start point and the end point. The method of claim 9, further comprising obtaining a direction. 少なくとも1つの領域を設定する段階と、
前記客体が動いた方向が、前記設定された領域内のいずれの領域に含まれるかということを判断する段階と、をさらに含み、
前記表示する段階は、前記判断された領域に対応する方向に位置するアイテムにフォーカスを移動させて表示することを特徴とする請求項9に記載のウェアラブルデバイスの動作方法。
Setting at least one region;
Determining in which of the set areas the direction in which the object has moved is included,
The operation method of the wearable device according to claim 9, wherein in the displaying, the focus is moved to an item positioned in a direction corresponding to the determined area.
前記領域を設定する段階は、
前記領域の間には、中立領域を設定することを特徴とする請求項11に記載のウェアラブルデバイスの動作方法。
The step of setting the area includes
The operation method of the wearable device according to claim 11, wherein a neutral region is set between the regions.
前記獲得された方向が、前記中立領域に含まれる場合、ユーザにフィードバックを提供する段階をさらに含むことを特徴とする請求項12に記載のウェアラブルデバイスの動作方法。   The method of claim 12, further comprising providing feedback to a user when the obtained direction is included in the neutral region. 前記方向を獲得する段階は、
前記ウェアラブルデバイスの側面で動く客体の方向を獲得することを特徴とする請求項10に記載のウェアラブルデバイスの動作方法。
Obtaining the direction comprises:
The operation method of the wearable device according to claim 10, wherein a direction of an object moving on a side surface of the wearable device is acquired.
前記領域を設定する段階は、
現在表示されたフォーカスの位置によって、フォーカスが移動可能な方向に対応する領域を設定することを特徴とする請求項11に記載のウェアラブルデバイスの動作方法。
The step of setting the area includes
12. The operation method of the wearable device according to claim 11, wherein an area corresponding to a direction in which the focus can be moved is set according to a currently displayed focus position.
フォーカスを移動させて表示する段階は、
前記客体が移動した角度を計算し、フォーカスの移動方向を決定し、前記決定された移動方向にフォーカスを移動させて表示することを特徴とする請求項9に記載のウェアラブルデバイスの動作方法。
The stage where the focus is moved and displayed
The wearable device operating method according to claim 9, wherein an angle of movement of the object is calculated, a moving direction of the focus is determined, and the focus is moved in the determined moving direction for display.
JP2017504397A 2014-07-30 2015-07-07 Wearable device and operation method of wearable device Expired - Fee Related JP6418585B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20140097613 2014-07-30
KR10-2014-0097613 2014-07-30
KR10-2015-0047493 2015-04-03
KR1020150047493A KR102397397B1 (en) 2014-07-30 2015-04-03 Wearalble device and operating method for the same
PCT/KR2015/006995 WO2016017956A1 (en) 2014-07-30 2015-07-07 Wearable device and method of operating the same

Publications (2)

Publication Number Publication Date
JP2017526061A true JP2017526061A (en) 2017-09-07
JP6418585B2 JP6418585B2 (en) 2018-11-07

Family

ID=55355084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504397A Expired - Fee Related JP6418585B2 (en) 2014-07-30 2015-07-07 Wearable device and operation method of wearable device

Country Status (4)

Country Link
JP (1) JP6418585B2 (en)
KR (1) KR102397397B1 (en)
AU (1) AU2015297289B2 (en)
TW (1) TWI537771B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI680401B (en) * 2017-01-25 2019-12-21 華碩電腦股份有限公司 Electronic device and operation method thereof
TW202032324A (en) 2019-02-27 2020-09-01 財團法人工業技術研究院 Multiplayer sports formation arrangement prompting method and system
KR102219674B1 (en) * 2019-08-19 2021-02-24 김동주 Watch control device for adjusting moving speed of the hands according to the background image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
JP2012113715A (en) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd Item selection device and method using movement of object
JP2012113743A (en) * 2012-02-29 2012-06-14 Denso Corp Display controller for remote operation device
WO2012147959A1 (en) * 2011-04-27 2012-11-01 Necシステムテクノロジー株式会社 Input device, input method and recording medium
JP2013545183A (en) * 2010-11-01 2013-12-19 トムソン ライセンシング Method and apparatus for detecting gesture input
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
JP2014102838A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd Gui transition on wearable electronic device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804488B2 (en) * 2006-11-03 2010-09-28 Research In Motion Limited Method of employing a switch assembly to provide input, and handheld electronic device
US20110314425A1 (en) * 2010-06-16 2011-12-22 Holy Stone Enterprise Co., Ltd. Air gesture recognition type electronic device operating method
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
JP2013545183A (en) * 2010-11-01 2013-12-19 トムソン ライセンシング Method and apparatus for detecting gesture input
JP2012113715A (en) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd Item selection device and method using movement of object
WO2012147959A1 (en) * 2011-04-27 2012-11-01 Necシステムテクノロジー株式会社 Input device, input method and recording medium
JP2012113743A (en) * 2012-02-29 2012-06-14 Denso Corp Display controller for remote operation device
JP2014102838A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd Gui transition on wearable electronic device

Also Published As

Publication number Publication date
TW201617793A (en) 2016-05-16
AU2015297289A1 (en) 2017-02-02
KR102397397B1 (en) 2022-05-13
KR20160015146A (en) 2016-02-12
JP6418585B2 (en) 2018-11-07
AU2015297289B2 (en) 2018-03-01
TWI537771B (en) 2016-06-11

Similar Documents

Publication Publication Date Title
US20220129060A1 (en) Three-dimensional object tracking to augment display area
US10437346B2 (en) Wearable device and method of operating the same
EP3234732B1 (en) Interaction with 3d visualization
EP2972669B1 (en) Depth-based user interface gesture control
US9405404B2 (en) Multi-touch marking menus and directional chording gestures
JP5702296B2 (en) Software keyboard control method
CN108700957B (en) Electronic system and method for text entry in a virtual environment
EP2840478B1 (en) Method and apparatus for providing user interface for medical diagnostic apparatus
EP3100151B1 (en) Virtual mouse for a touch screen device
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20140082559A1 (en) Control area for facilitating user input
WO2015105756A1 (en) Increasing touch and/or hover accuracy on a touch-enabled device
WO2013106169A1 (en) Menu selection using tangible interaction with mobile devices
JP6418585B2 (en) Wearable device and operation method of wearable device
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
WO2017095643A1 (en) Display hover detection
US9256360B2 (en) Single touch process to achieve dual touch user interface
JP6033061B2 (en) Input device and program
KR20140086805A (en) Electronic apparatus, method for controlling the same and computer-readable recording medium
JP2019186698A (en) Image processing apparatus, processing method, and program
KR20100099490A (en) User interface and method for providing guidance information
EP3374847A1 (en) Controlling operation of a 3d tracking device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181002

R150 Certificate of patent or registration of utility model

Ref document number: 6418585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees