JP2013164701A - Electronic device using user interaction and method for controlling the same, and electronic device control system - Google Patents

Electronic device using user interaction and method for controlling the same, and electronic device control system Download PDF

Info

Publication number
JP2013164701A
JP2013164701A JP2012026923A JP2012026923A JP2013164701A JP 2013164701 A JP2013164701 A JP 2013164701A JP 2012026923 A JP2012026923 A JP 2012026923A JP 2012026923 A JP2012026923 A JP 2012026923A JP 2013164701 A JP2013164701 A JP 2013164701A
Authority
JP
Japan
Prior art keywords
electronic device
interaction
recognition range
user
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012026923A
Other languages
Japanese (ja)
Inventor
Sea Hak Zhang
時 學 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2012026923A priority Critical patent/JP2013164701A/en
Publication of JP2013164701A publication Critical patent/JP2013164701A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device using user interaction which occurs in a space adjacent to the electronic device and a method for controlling the electronic device and an electronic device control system.SOLUTION: The control method of an electronic device using input interaction includes: a step of recognizing one or more interactions from a space adjacent to the electronic device; and a step of controlling the electronic device in accordance with one or more interactions.

Description

本発明は、ユーザインタラクションを利用した電子機器とその制御方法、及び電子機器制御システムに関し、より詳細には、電子機器に隣接する空間上で発生するユーザインタラクションによって制御される電子機器とその制御方法、及び電子機器制御システムに関する。   The present invention relates to an electronic device using user interaction, a control method thereof, and an electronic device control system, and more specifically, an electronic device controlled by user interaction generated in a space adjacent to the electronic device and a control method thereof. And an electronic device control system.

最近、通信技術の急速な発展に伴い、電子機器の機能が徐々に拡大され、これにより、更に多様なユーザインターフェース(UI:User Interface)及びそれを利用した多様な機能が提供されている。また、電子機器では、多様な機能を制御するための多様な入力方式が提供されている。   Recently, with the rapid development of communication technology, the functions of electronic devices have been gradually expanded, thereby providing more various user interfaces (UI) and various functions using the user interfaces. In electronic devices, various input methods for controlling various functions are provided.

一般的な電子機器において、当該電子機器の制御、即ち当該電子機器に与えられた多様な機能を実行するために、電子機器に設けられたキーに対するキー入力を通じて制御することができる。或いはタッチスクリーン(touch screen)が設けられた電子機器の場合、タッチスクリーンの特定領域へのタッチ入力を通じて電子機器を制御することができる。このように、従来は、電子機器の制御のための特定の入力手段に直接入力を発生させることによって、電子機器の制御が可能である。   In a general electronic device, in order to control the electronic device, that is, to execute various functions given to the electronic device, the electronic device can be controlled through key input to a key provided in the electronic device. Alternatively, in the case of an electronic device provided with a touch screen, the electronic device can be controlled through touch input to a specific area of the touch screen. Thus, conventionally, it is possible to control an electronic device by directly generating an input to a specific input means for controlling the electronic device.

しかし、上記のように、一般的な電子機器の制御は、当該電子機器が提供する各機能の制御が単純にキー入力又はタッチ入力で行われる。従って、電子機器の各機能は、キー入力又はタッチ入力だけによって制御される制約による限界性を有し、また、各機能は、キー入力又はタッチ入力のように画一化された入力方式だけによって制御される単純性を有する問題点がある。また、従来、1つの電子機器の制御のための入力手段は、異なる種類の入力装置の同時入力に対して融合させて当該結果を出力する機能を支援しない問題点がある。   However, as described above, in general control of an electronic device, control of each function provided by the electronic device is simply performed by key input or touch input. Therefore, each function of the electronic device has a limit due to restrictions controlled only by key input or touch input, and each function can be limited only by a uniform input method such as key input or touch input. There is a problem with the simplicity being controlled. Further, conventionally, there is a problem that an input unit for controlling one electronic device does not support a function of outputting the result by merging simultaneous inputs of different types of input devices.

本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、ユーザインタラクションを利用し、電子機器に隣接する空間上に発生するユーザインタラクションによって制御され、また電子機器に隣接する空間で入力される複合的なユーザインタラクションによって制御され、また電子機器に隣接する空間上で発生する1つ以上のインタラクションを認識して1つ以上のインタラクションによって制御される電子機器とその制御方法、及び電子機器制御システムを提供することにある。
また、本発明の目的は、電子機器で提供される多様な機能を容易且つ直観的に利用することができるマルチモーダルインターフェースを提供し、電子機器に隣接する空間で平面インタラクションと空間インタラクションのうちの1つ以上のインタラクションを認知し、平面インタラクション及び空間インタラクションのうちの少なくとも1つのインタラクションによって簡便に且つ直観的に制御される電子機器とその制御方法、及び電子機器制御システムを提供することにある。
The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to control user interaction generated in a space adjacent to an electronic device using user interaction. An electronic device that is controlled by multiple user interactions input in a space adjacent to the electronic device, and that recognizes one or more interactions occurring in the space adjacent to the electronic device and is controlled by the one or more interactions, and A control method and an electronic device control system are provided.
Also, an object of the present invention is to provide a multimodal interface that can easily and intuitively use various functions provided in an electronic device, and in a space adjacent to the electronic device, a planar interaction and a spatial interaction are provided. To provide an electronic device that recognizes one or more interactions and is easily and intuitively controlled by at least one of a plane interaction and a spatial interaction, a control method thereof, and an electronic device control system.

上記目的を達成するためになされた本発明の一態様による入力インタラクションを利用する電子機器は、前記電子機器に隣接する空間上で発生する1つ以上のインタラクションを認識するデバイスと、前記デバイスが認識する1つ以上のインタラクションによって前記電子機器を制御する制御部と、を備えることを特徴とする。   In order to achieve the above object, an electronic device using input interaction according to an aspect of the present invention includes a device that recognizes one or more interactions that occur in a space adjacent to the electronic device, and the device recognizes And a control unit that controls the electronic device by one or more interactions.

上記目的を達成するためになされた本発明の一態様による入力インタラクションを利用する電子機器制御システムは、前記電子機器に隣接する空間で平面上に行われるユーザジェスチャーによる平面インタラクションを認識する第1デバイスと、前記電子機器に隣接する空間で空間上に行われるユーザジェスチャーによる空間インタラクションを認識する第2デバイスと、前記平面インタラクション及び空間インタラクションを区分し、区分された少なくとも1つのインタラクションに対応して前記電子機器を制御する処理手段と、を備えることを特徴とする。   In order to achieve the above object, an electronic device control system using input interaction according to an aspect of the present invention is a first device for recognizing planar interaction by a user gesture performed on a plane in a space adjacent to the electronic device. A second device for recognizing a spatial interaction by a user gesture performed on a space in a space adjacent to the electronic device, and the planar interaction and the spatial interaction are classified, and the corresponding to at least one of the classified interactions And a processing means for controlling the electronic device.

上記目的を達成するためになされた本発明の一態様による入力インタラクションを利用する電子機器の制御方法は、前記電子機器に隣接する空間から1つ以上のインタラクションを認識する段階と、前記1つ以上のインタラクションに対応して前記電子機器を制御する段階と、を有することを特徴とする。   In order to achieve the above object, a method of controlling an electronic device using input interaction according to an aspect of the present invention includes recognizing one or more interactions from a space adjacent to the electronic device, and the one or more interactions. And controlling the electronic device in response to the interaction.

前記デバイスは、前記電子機器に隣接する空間上で発生する平面インタラクション及び空間インタラクションのうちの1つ以上のインタラクションを感知することを特徴とする。また、前記デバイスは、ユーザジェスチャーによる前記平面インタラクションを認知するデバイスと、ユーザジェスチャーによる空間インタラクションを認知するデバイスとに区分されることを特徴とする。
前記デバイスが多数個で構成される場合、前記デバイスは、同一のタイプで構成されるか又は互いに異なるタイプで構成されることを特徴とする。また、前記デバイスは、ユーザジェスチャーによるインタラクションが認識される認識範囲を有し、前記認識範囲は、前記デバイスの構成に対応して多数個に区分され、区分された各々の認識範囲の間に重畳領域を含むことを特徴とする。
前記デバイスは、認識範囲でインタラクションを感知すると、前記インタラクションに対応するユーザジェスチャーの識別のための情報を提供することを特徴とする。また、前記デバイスは、前記重畳領域の認識範囲から平面インタラクション及び空間インタラクションに対応する情報を提供し、前記重畳領域以外の個別認識範囲から平面インタラクション又は空間インタラクションに対応する情報を提供することを特徴とする。
前記制御部を含む処理手段は、前記デバイスが提供する情報の分析によって前記インタラクションを区分することを特徴とする。また、前記処理手段は、1つ以上のデバイスが提供する情報によって平面インタラクション及び空間インタラクションのうちのいずれか1つのインタラクションを区分し、区分されたインタラクションに対応して前記電子機器を制御することを特徴とする。また、前記処理手段は、1つ以上のデバイスが提供する情報によって平面インタラクション及び空間インタラクションが一緒に発生すると、前記平面インタラクション及び空間インタラクションに対応して前記電子機器を制御することを特徴とする。
The device may detect one or more of a planar interaction and a spatial interaction that occur in a space adjacent to the electronic device. The device may be classified into a device that recognizes the planar interaction by a user gesture and a device that recognizes a spatial interaction by a user gesture.
When the device includes a plurality of devices, the devices may be configured of the same type or different types. Further, the device has a recognition range in which an interaction by a user gesture is recognized, and the recognition range is divided into a plurality of pieces corresponding to the configuration of the device, and overlapped between the divided recognition ranges. A region is included.
When the device detects an interaction within a recognition range, the device provides information for identifying a user gesture corresponding to the interaction. In addition, the device provides information corresponding to planar interaction and spatial interaction from the recognition range of the overlapping region, and provides information corresponding to planar interaction or spatial interaction from the individual recognition range other than the overlapping region. And
The processing means including the control unit classifies the interaction by analyzing information provided by the device. The processing means may classify any one of the planar interaction and the spatial interaction according to information provided by one or more devices, and may control the electronic device in accordance with the classified interaction. Features. The processing unit may control the electronic apparatus in response to the planar interaction and the spatial interaction when the planar interaction and the spatial interaction are generated together by information provided by one or more devices.

本発明によれば、電子機器は、電子機器に隣接する空間から1つ以上のユーザインタラクションを認知する1つ以上のデバイスを含み、ユーザは、電子機器に隣接する空間上で設定されたユーザジェスチャーだけで電子機器を簡便且つ直観的に制御することができる。また、1つ以上のデバイスを通じて認知する1つ以上のユーザインタラクションに対する実行機能をユーザ設定によって定義することができるので、入力されたユーザインタラクションによって電子機器に対する多様な制御が可能になる。   According to the present invention, the electronic device includes one or more devices that recognize one or more user interactions from a space adjacent to the electronic device, and the user performs a user gesture set on the space adjacent to the electronic device. The electronic device can be controlled simply and intuitively. In addition, since an execution function for one or more user interactions recognized through one or more devices can be defined by user settings, various controls on the electronic device can be performed by the input user interactions.

また、本発明によれば、電子機器を制御するにあたって、従来の制限的且つ画一的な入力手段及び入力方式に限定されず、互いに異なるデバイスを利用したユーザジェスチャーによって実感ある制御及び直観的な制御が可能になる。即ち、本発明によれば、互いに異なるデバイスを通じて電子機器に隣接する空間上で行われるユーザジェスチャーを認知し、ユーザジェスチャーによるインタラクションを利用した電子機器の制御が可能になる。これにより、ユーザは、電子機器制御によるユーザ便宜及び親和性を向上させることができる。   In addition, according to the present invention, when controlling an electronic device, the present invention is not limited to conventional restrictive and uniform input means and input methods, but can be realized through intuitive control and intuitive control by user gestures using different devices. Control becomes possible. That is, according to the present invention, it is possible to recognize a user gesture performed in a space adjacent to the electronic device through different devices and control the electronic device using the interaction by the user gesture. Thereby, the user can improve user convenience and affinity by electronic device control.

また、本発明によれば、例えば電子機器を利用した演奏機能を実行する場合、電子機器に隣接する空間でユーザジェスチャーによるインタラクションによって楽器演奏が可能であり、多様な楽器オブジェクト(ドラム、ギター、トランペットなど)の特性に相当する楽器演奏を直観的且つ実感的に演奏することができる。このように、本発明によれば、キー入力や画面のタッチ入力以外の他の入力方式を用いて電子機器を制御するという点から、ユーザの電子機器制御入力に対する多様性を提供することができる効果がある。即ち、本発明によれば、ユーザは、入力の多様化を通じて、電子機器を制御する際に、より多様な方式による制御及び複合的な制御が可能であり、電子機器の制約的且つ画一的な制御方式を改善することで、電子機器を利用する際にリアリティー付与及び便宜性の向上を図ることができる。   Further, according to the present invention, for example, when a performance function using an electronic device is executed, the musical instrument can be played by user gesture interaction in a space adjacent to the electronic device, and various musical instrument objects (drum, guitar, trumpet) Etc.) can be played intuitively and intuitively. As described above, according to the present invention, it is possible to provide a variety of user electronic device control inputs in that the electronic devices are controlled using an input method other than key input or screen touch input. effective. That is, according to the present invention, when the electronic device is controlled through diversification of inputs, the user can perform control by various methods and complex control, and the electronic device is restricted and uniform. By improving a simple control method, it is possible to provide reality and improve convenience when using an electronic device.

本発明の一実施形態による電子機器を概略的に示す図である。1 is a diagram schematically illustrating an electronic apparatus according to an embodiment of the present invention. 本発明の一実施形態による電子機器を概略的に示す図である。1 is a diagram schematically illustrating an electronic apparatus according to an embodiment of the present invention. 本発明の一実施形態による電子機器を概略的に示す図である。1 is a diagram schematically illustrating an electronic apparatus according to an embodiment of the present invention. 本発明の一実施形態による電子機器の構成を概略的に示す図である。It is a figure which shows schematically the structure of the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器における平面及び空間インタラクションを認識する認識範囲を説明するための概略的な図である。It is a schematic diagram for explaining a recognition range for recognizing a plane and spatial interaction in an electronic device according to an embodiment of the present invention. 本発明の一実施形態による各認識範囲でユーザジェスチャーによる電子機器の運用方法を説明するための概略的な図である。It is a schematic diagram for explaining an operation method of an electronic device by a user gesture in each recognition range according to an embodiment of the present invention. 本発明の一実施形態による各認識範囲でユーザジェスチャーによる電子機器の運用方法を説明するための概略的な図である。It is a schematic diagram for explaining an operation method of an electronic device by a user gesture in each recognition range according to an embodiment of the present invention. 本発明の一実施形態による各認識範囲でユーザジェスチャーによる電子機器の運用方法を説明するための概略的な図である。It is a schematic diagram for explaining an operation method of an electronic device by a user gesture in each recognition range according to an embodiment of the present invention. 本発明の一実施形態による電子機器におけるユーザインタラクションを利用した制御方法を示す図である。It is a figure which shows the control method using the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態によるユーザインタラクションを利用した電子機器を制御する全体動作を概略的に示す図である。It is a figure which shows schematically the whole operation | movement which controls the electronic device using the user interaction by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する一動作例を示す図である。It is a figure which shows one operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する一動作例を示す図である。It is a figure which shows one operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する一動作例を示す図である。It is a figure which shows one operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する一動作例を示す図である。It is a figure which shows one operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する他の動作例を示す図である。It is a figure which shows the other operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する他の動作例を示す図である。It is a figure which shows the other operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する更に他の動作例を示す図である。It is a figure which shows the further another operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する更に他の動作例を示す図である。It is a figure which shows the further another operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する更に他の動作例を示す図である。It is a figure which shows the further another operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する更に他の動作例を示す図である。It is a figure which shows the further another operation example which processes the said function corresponding to the user interaction in the electronic device by one Embodiment of this invention.

以下、本発明によるユーザインタラクションを利用した電子機器とその制御方法、及び電子機器制御システムを実施するための形態の具体例を、図面を参照しながら詳細に説明する。ここで、図面において同一の構成要素は、できるだけ同一の符号で示す。また、本発明の要旨を不明瞭にする可能性がある公知機能及び構成に対する詳細な説明は省略する。   Hereinafter, specific examples of embodiments for implementing an electronic device using the user interaction according to the present invention, a control method thereof, and an electronic device control system will be described in detail with reference to the drawings. Here, in the drawings, the same components are denoted by the same reference numerals as much as possible. Further, detailed descriptions of known functions and configurations that may obscure the subject matter of the present invention are omitted.

本発明の電子機器は、電子機器に隣接する空間で発生する1つ以上のインタラクションを認知する少なくとも1つのデバイスを含む。また、本発明は、少なくとも1つのデバイスが認識する1つ以上のインタラクションによって電子機器の機能を制御する。   The electronic device of the present invention includes at least one device that recognizes one or more interactions that occur in a space adjacent to the electronic device. In the present invention, the function of the electronic device is controlled by one or more interactions recognized by at least one device.

また、本発明の電子機器は、電子機器の周辺で平面上に行われるユーザジェスチャーによる平面インタラクションと、空間上に行われるユーザジェスチャーによる空間インタラクションと、平面インタラクションと空間インタラクションが一緒に行われる融合インタラクションとを区分して認知し、当該インタラクションに対応する機能を処理する。   In addition, the electronic device of the present invention includes a plane interaction by a user gesture performed on a plane around the electronic device, a space interaction by a user gesture performed on a space, and a fusion interaction in which a plane interaction and a space interaction are performed together. And the function corresponding to the interaction is processed.

このような本発明によると、電子機器に含まれるデバイスを活用してユーザのジェスチャー(手の形状、手の動き、移動方向など)を感知し、感知されたジェスチャーを予め設定された定義によって分類し、電子機器の意味ある入力として使用する。また、本発明の実施形態では、ユーザジェスチャーを感知して分別するために少なくとも1つのデバイスを使用し、分類された入力は、電子機器の制御インタラクションのために使用されるように定義する。   According to the present invention, a user's gesture (hand shape, hand movement, moving direction, etc.) is detected using a device included in the electronic device, and the detected gesture is classified according to a predetermined definition. And used as a meaningful input for electronic equipment. Also, embodiments of the present invention use at least one device to sense and sort user gestures, and the classified inputs are defined to be used for electronic device control interactions.

以下では、本発明の実施形態によって、ユーザインタラクションを利用する電子機器と、ユーザインタラクションを利用して電子機器を制御する方法について説明する。しかし、本発明の電子機器及びその制御動作は、下記で記述する内容に限定されるものではなく、下記の実施形態に基づいて多様な実施形態に適用することができる。   Hereinafter, an electronic device that uses user interaction and a method that controls the electronic device using user interaction according to an embodiment of the present invention will be described. However, the electronic device of the present invention and its control operation are not limited to the contents described below, and can be applied to various embodiments based on the following embodiments.

図1〜図3は、本発明の一実施形態による電子機器を概略的に示す図である。   1 to 3 are diagrams schematically illustrating an electronic apparatus according to an embodiment of the present invention.

図1〜図3を参照すると、図1は、本発明に利用される電子機器の1つである携帯端末の例を示すものであり、図2は、本発明に利用される電子機器の1つである案内システムの例を示すものであり、図3は、本発明に利用される電子機器の1つであるテレビの例を示すものである。   Referring to FIGS. 1 to 3, FIG. 1 shows an example of a portable terminal which is one of electronic devices used in the present invention, and FIG. 2 shows one of electronic devices used in the present invention. FIG. 3 shows an example of a television which is one of the electronic devices used in the present invention.

ここで、図1の携帯端末は、多様な通信システムに対応する通信プロトコル(communication protocols)に基づいて作動する全ての移動通信端末(mobile communication terminals)を含む電子機器であり、PMP(Portable Multimedia Player)、デジタル放送プレーヤー、PDA(Personal Digital Assistant)、音楽再生機(例えば、MP3プレーヤー)、携帯ゲーム端末、及びスマートフォン(Smart Phone)などの全ての情報通信機器とマルチメディア機器及びそれに対する応用機器を含む。また、図2の案内システムは、博物館、展示館、遊園地、街路などでユーザから要請される多様な案内情報を提供するものであり、壁面、柱、及び地面などに固定装着されるスクリーンモニタ、メディアポール(media pole)などを含む。また、図3のテレビは、大型電子機器の例を示すものであり、このようなテレビ以外に、パソコン、パソコンのモニタ、ノートパソコン、ノートパソコンのモニタなどを含む。   Here, the mobile terminal of FIG. 1 is an electronic device including all mobile communication terminals that operate based on communication protocols corresponding to various communication systems, and is a PMP (Portable Multimedia Player). ), Digital broadcasting players, PDAs (Personal Digital Assistants), music players (for example, MP3 players), portable game terminals, smartphones (Smart Phones), and other information communication devices, multimedia devices, and application devices for them. Including. In addition, the guidance system of FIG. 2 provides various guidance information requested by users in museums, exhibition halls, amusement parks, streets, etc., and is a screen monitor fixedly mounted on a wall surface, pillar, ground, or the like. , Media pole, etc. 3 shows an example of a large electronic device, and includes a personal computer, a personal computer monitor, a notebook personal computer, a notebook personal computer monitor, and the like in addition to such a television.

図1〜図3に示したように、本実施形態による電子機器は、ユーザの入力に対応する出力を提供する手段を有し、このような電子機器は、ユーザが携帯可能な小型機器だけでなく、特定空間に固定される中大型機器も含む。従って、以下では、電子機器が携帯端末である場合を代表的な例として説明するが、本発明の電子機器は、上述したように、多様な形態の全ての機器を含む。   As shown in FIGS. 1 to 3, the electronic device according to the present embodiment has means for providing an output corresponding to the user's input, and such an electronic device is only a small device portable by the user. It also includes medium and large equipment that is fixed in a specific space. Therefore, hereinafter, a case where the electronic device is a portable terminal will be described as a representative example. However, as described above, the electronic device of the present invention includes all devices in various forms.

このような本発明による電子機器は、電子機器に隣接する空間で発生する1つ以上のユーザインタラクションを感知し、ユーザインタラクションによる機能制御を処理する。このために、本発明の電子機器は、1つ以上のユーザインタラクションが入力される1つ以上のデバイスを含む。以下、1つ以上のデバイスを含む電子機器に対する構成例を、図4を参照して説明する。   The electronic apparatus according to the present invention senses one or more user interactions that occur in a space adjacent to the electronic apparatus, and processes function control based on the user interactions. To this end, the electronic device of the present invention includes one or more devices to which one or more user interactions are input. Hereinafter, a configuration example for an electronic apparatus including one or more devices will be described with reference to FIG.

図4は、本発明の一実施形態による電子機器の構成を概略的に示す図である。特に、図4では、電子機器を、ユーザインタラクションを利用することができる携帯端末の1つの形態の例として示すが、本発明の電子機器は、必ずしも携帯端末に限定されるものではなく、上述したように、多様な小型機器及び中大型機器を全て利用することができる。   FIG. 4 is a diagram schematically showing the configuration of an electronic device according to an embodiment of the present invention. In particular, FIG. 4 shows an electronic device as an example of one form of a portable terminal that can use user interaction. However, the electronic device of the present invention is not necessarily limited to a portable terminal, and is described above. As described above, all of a variety of small-sized devices and medium-sized devices can be used.

図4を参照すると、本実施形態による電子機器は、1つ以上のデバイスを含む。例えば、電子機器は、第1デバイス410、第2デバイス430、及び第3デバイス450を含む。本実施形態において第1〜第3デバイス410、430、450の各デバイスは、電子機器に隣接する特定空間で入力されるユーザジェスチャーに対応する1つ以上のインタラクションを認識する手段を示す。   Referring to FIG. 4, the electronic apparatus according to the present embodiment includes one or more devices. For example, the electronic apparatus includes a first device 410, a second device 430, and a third device 450. In the present embodiment, each of the first to third devices 410, 430, and 450 represents a unit that recognizes one or more interactions corresponding to a user gesture input in a specific space adjacent to the electronic device.

本実施形態において、各デバイス410、430、450は、ユーザジェスチャーを追跡し、それによる結果値の生成が可能な全ての形態の認識手段を含む。例えば、デバイス410、430、450は、近接センサー、赤外線センサー、照度センサー、カメラセンサーなどの認識手段を含む。図4の例の場合、電子機器は、第1デバイス410及び第2デバイス430がカメラセンサーであり、第3デバイス450が近接センサーである場合を例として示す。即ち、図4の電子機器は、2つのカメラセンサー410、430と1つの近接センサー450とで構成されたデバイスを含む携帯端末を示す。   In this embodiment, each device 410, 430, 450 includes all forms of recognition means that can track user gestures and thereby generate result values. For example, the devices 410, 430, and 450 include recognition means such as a proximity sensor, an infrared sensor, an illuminance sensor, and a camera sensor. In the case of the example in FIG. 4, the electronic apparatus shows a case where the first device 410 and the second device 430 are camera sensors and the third device 450 is a proximity sensor. That is, the electronic apparatus of FIG. 4 shows a portable terminal including a device composed of two camera sensors 410 and 430 and one proximity sensor 450.

ここで、図4の各デバイス410、430、450の位置は、必ずしも図4の形態に限定されるものではない。例えば、図4では、カメラセンサーに該当する第1デバイス410と第2デバイス430が電子機器の左右の側部に各々1つずつ設けられ、近接センサーに該当する第3デバイス450が電子機器の内部に形成される場合を例として示した。しかし、第1デバイス410及び第2デバイス430が電子機器の上下の側部に各々1つずつ設けられ、第3デバイス450が第1デバイス410及び第2デバイス430のうちのいずれか1つ又は両方に隣接して配置されるなどのように、電子機器を製造する際に多様な方式で構成され得ることは勿論である。   Here, the position of each device 410, 430, 450 in FIG. 4 is not necessarily limited to the form of FIG. For example, in FIG. 4, a first device 410 and a second device 430 corresponding to a camera sensor are provided on each of the left and right sides of the electronic device, and a third device 450 corresponding to a proximity sensor is provided inside the electronic device. The case where it is formed is shown as an example. However, the first device 410 and the second device 430 are respectively provided on the upper and lower sides of the electronic apparatus, and the third device 450 is one or both of the first device 410 and the second device 430. Of course, it can be configured in various ways when manufacturing an electronic device, such as being arranged adjacent to the device.

また、図4の例では、電子機器が多数個の異なるデバイスを含むものとして示したが、本発明の電子機器は、必ずしもこのようなデバイスの構成に限定されない。即ち、本発明の電子機器は、1つのデバイスよりなることができる。また、本発明の電子機器は、第1デバイス410及び第2デバイス430のように、同一のタイプのデバイスが多数個よりなることができる。また、本発明の電子機器は、第1デバイス410、第2デバイス430、及び第3デバイス450のように、異なるタイプのデバイスの組み合わせよりなることができる。このようなデバイスの構成は、電子機器の形態によって多様に提供され得る。   In the example of FIG. 4, the electronic apparatus is illustrated as including a number of different devices. However, the electronic apparatus of the present invention is not necessarily limited to such a device configuration. That is, the electronic apparatus of the present invention can be composed of one device. In addition, the electronic apparatus of the present invention can include a plurality of devices of the same type, such as the first device 410 and the second device 430. In addition, the electronic apparatus of the present invention can be a combination of different types of devices such as the first device 410, the second device 430, and the third device 450. The configuration of such a device can be variously provided depending on the form of the electronic device.

例えば、電子機器は、近接センサー、赤外線センサー、照度センサー、及びカメラセンサーなどの認識手段のうちのいずれか1つの認識手段でデバイスを構成するか、又は1つの近接センサーと1つのカメラセンサーの組み合わせでデバイスを構成するか、又は1つの近接センサーと多数個のカメラセンサーの組み合わせでデバイスを構成することができる。   For example, the electronic device may be configured by any one of recognition means such as a proximity sensor, an infrared sensor, an illuminance sensor, and a camera sensor, or a combination of one proximity sensor and one camera sensor. The device can be configured with a single sensor or a combination of a number of camera sensors.

以下では、本発明の実施形態を説明するにあたって、図4の例で示したように、電子機器の左右の側部にカメラセンサーが各々設けられ、電子機器の内部に1つの近接センサーが設けられた携帯端末を参照して本発明の動作を説明する。   In the following description of the embodiment of the present invention, as shown in the example of FIG. 4, camera sensors are provided on the left and right sides of the electronic device, respectively, and one proximity sensor is provided inside the electronic device. The operation of the present invention will be described with reference to the portable terminal.

即ち、以下では、図4に示したような、カメラセンサーに該当する第1デバイス410及び第2デバイス430と、近接センサーに該当する第3デバイス450を活用して電子機器の周辺で行われるユーザジェスチャー(例えば、手の形状、手の動作、手の移動方向など)を認識する。また、少なくとも1つのデバイスで認識されたユーザジェスチャーを電子機器の制御のためのインタラクション入力として処理する。   That is, in the following, as shown in FIG. 4, a user performed around an electronic device using the first device 410 and the second device 430 corresponding to the camera sensor and the third device 450 corresponding to the proximity sensor. Recognize gestures (eg, hand shape, hand movement, hand movement direction, etc.). Further, a user gesture recognized by at least one device is processed as an interaction input for controlling the electronic device.

ここで、本実施形態において、近接センサーに対応する第3デバイス450は、電子機器に隣接する空間で発生するユーザジェスチャーが電子機器に近接する状態(近接状態)を判断し、このための基準を提供する。また、第3デバイス450は、身体(例えば、ユーザの手など)の近接認識及び電子機器に隣接する空間上における領域を区分する用途に使用される。即ち、第3デバイス450は、電子機器から特定距離までの物体の近接の有無を感知し、本実施形態では、ユーザの手の近接を感知し、電子機器の当該機能を判別する役目を担当する。即ち、第3デバイス450は、電子機器に隣接する空間上で行われるユーザジェスチャーによる空間インタラクションを利用して制御信号を発生する。   Here, in the present embodiment, the third device 450 corresponding to the proximity sensor determines a state in which a user gesture generated in a space adjacent to the electronic device is close to the electronic device (proximity state), and sets a reference for this. provide. Further, the third device 450 is used for applications such as proximity recognition of a body (for example, a user's hand) and a region on a space adjacent to an electronic device. That is, the third device 450 senses the proximity of an object from the electronic device up to a specific distance, and in this embodiment, senses the proximity of the user's hand and takes charge of determining the function of the electronic device. . That is, the third device 450 generates a control signal using spatial interaction by a user gesture performed on a space adjacent to the electronic device.

また、本実施形態において、カメラセンサーに対応する第1デバイス410及び第2デバイス430は、ユーザジェスチャーを感知し、ユーザジェスチャーの動き方向、動き速度、及びジェスチャー形状(手の形状など)などを測定するのに利用される。特に、第1デバイス410及び第2デバイス430は、電子機器に隣接する空間上で行われるユーザジェスチャーによる平面インタラクションを利用して制御信号を発生する。   In the present embodiment, the first device 410 and the second device 430 corresponding to the camera sensor sense a user gesture and measure a movement direction, a movement speed, a gesture shape (such as a hand shape) of the user gesture, and the like. Used to do. In particular, the first device 410 and the second device 430 generate a control signal using planar interaction by a user gesture performed on a space adjacent to the electronic device.

ここで、第1デバイス410及び第2デバイス430と、第3デバイス450でユーザジェスチャーによる空間インタラクション及び平面インタラクションが一緒に発生する場合、本発明では、空間インタラクション及び平面インタラクションを融合インタラクションとして定義し、融合インタラクションによる制御信号が発生するものとして説明する。即ち、本実施形態によると、特定のユーザジェスチャーが第1デバイス410及び第2デバイス430のうちのいずれか1つにより感知された状態で、第3デバイス430でも一緒に感知されると、第3デバイス430によってユーザジェスチャーによるインタラクションを段階別、即ち近接レベル別に区分して電子機器の当該機能を制御する。   Here, in the case where the first device 410 and the second device 430 and the third device 450 generate the spatial interaction and the planar interaction by the user gesture together, the present invention defines the spatial interaction and the planar interaction as a fusion interaction, It is assumed that a control signal is generated by the fusion interaction. That is, according to the present embodiment, when a specific user gesture is sensed by one of the first device 410 and the second device 430 and is sensed together by the third device 430, The device 430 controls the functions of the electronic device by classifying the interaction by the user gesture according to the stage, that is, the proximity level.

例えば、近接センサーを通じて空間インタラクションを認知すると、空間インタラクションのユーザジェスチャーによりマッピングされた当該機能を行うように電子機器を制御し、カメラセンサーを通じて平面インタラクションを認知すると、平面インタラクションのユーザジェスチャーによりマッピングされた当該機能を行うように電子機器を制御し、カメラセンサー及び近接センサーを通じて融合インタラクションを認知すると、融合インタラクションのユーザジェスチャーによりマッピングされた当該機能を行うように電子機器を制御する。このような例については、後述する各実施形態による図面及び表を参照して説明する。   For example, when a spatial interaction is recognized through a proximity sensor, the electronic device is controlled to perform the corresponding function mapped by a spatial interaction user gesture, and when a planar interaction is recognized through a camera sensor, it is mapped by a planar interaction user gesture. When the electronic device is controlled to perform the function and the fusion interaction is recognized through the camera sensor and the proximity sensor, the electronic device is controlled to perform the function mapped by the user gesture of the fusion interaction. Such an example will be described with reference to drawings and tables according to embodiments described later.

上述のように、本発明の動作のための諸構成としては、ユーザのジェスチャーによるインタラクションを感知する近接センサー、カメラセンサー、赤外線センサー、照度センサーなどのようなデバイスと、デバイスを含む電子機器と、そして少なくとも1つのデバイスから感知されたインタラクションを入力として機能制御を処理する処理部(例えば、制御部、各機能に対応する実行アプリケーションなど)よりなることができる。ここで、制御部は、本実施形態によるインタラクションを利用した電子機器の制御を担当し、実行アプリケーションは、後述する例に示すように、楽器演奏アプリケーション、イメージビューアーアプリケーション、カメラ機能関連アプリケーションなどを含み、このようなアプリケーションは、1つ以上のデバイスを用いたインタラクションによって定義された動作を行う。   As described above, various configurations for the operation of the present invention include devices such as a proximity sensor, a camera sensor, an infrared sensor, an illuminance sensor, and the like that detect an interaction by a user's gesture, and an electronic device including the device, Then, it can be composed of a processing unit (for example, a control unit, an execution application corresponding to each function, etc.) that processes function control using an interaction detected from at least one device as an input. Here, the control unit is in charge of controlling the electronic device using the interaction according to the present embodiment, and the execution application includes a musical instrument performance application, an image viewer application, a camera function related application, and the like as shown in an example described later. Such an application performs an action defined by interaction with one or more devices.

図5は、本発明の一実施形態による電子機器における平面及び空間インタラクションを認識する認識範囲を説明するための概略的な図である。   FIG. 5 is a schematic diagram for explaining a recognition range for recognizing a plane and space interaction in an electronic apparatus according to an embodiment of the present invention.

先ず、本実施形態による電子機器に含まれる1つ以上のデバイスを利用してユーザの手の動きなどのようなジェスチャーを感知し、感知されたジェスチャーを予め設定された定義によって分類し、電子機器の意味ある入力として使用する。ここで、本実施形態では、ジェスチャーを感知して分別するのに少なくとも1つのデバイスが利用され、分類された入力を、電子機器の制御インタラクションのために使用されるように定義する。   First, one or more devices included in the electronic apparatus according to the present embodiment are used to detect a gesture such as a user's hand movement, and the detected gesture is classified according to a predetermined definition. Use as a meaningful input. Here, in the present embodiment, at least one device is used to sense and classify gestures, and the classified input is defined to be used for control interaction of an electronic device.

図5を参照すると、本実施形態において定義される1つ以上のデバイスでインタラクションを認識するための認識範囲を、第1デバイス410及び第2デバイス430が平面インタラクションを認識する平面認識範囲510、530と、第3デバイス450が空間インタラクションを認識する空間認識範囲550とに区分する。   Referring to FIG. 5, the recognition ranges for recognizing the interaction with one or more devices defined in the present embodiment are the plane recognition ranges 510 and 530 in which the first device 410 and the second device 430 recognize the plane interaction. And the third device 450 divides it into a spatial recognition range 550 in which spatial interaction is recognized.

本実施形態において、平面認識範囲510、530は、第1デバイス410及び第2デバイス430が電子機器に隣接する空間からユーザの平面インタラクションを感知するための範囲を示し、空間認識範囲550は、第3デバイス450が電子機器に隣接する空間からユーザの空間インタラクションを感知するための範囲を示す。ここで、平面認識範囲510、530は、図4及び図5の例に示すように、第1デバイス410及び第2デバイス430の電子機器に対する位置によって各々左右の領域に区分され、ユーザの左手及び右手による各ジェスチャーを認識するように配置される。   In the present embodiment, the plane recognition ranges 510 and 530 indicate ranges for the first device 410 and the second device 430 to detect the user's plane interaction from the space adjacent to the electronic device, and the space recognition range 550 is the first range. 3 shows a range for the device 450 to detect a user's spatial interaction from the space adjacent to the electronic device. Here, as shown in the examples of FIGS. 4 and 5, the plane recognition ranges 510 and 530 are divided into left and right regions according to the positions of the first device 410 and the second device 430 with respect to the electronic device, respectively. It is arranged to recognize each gesture with the right hand.

ここで、本実施形態では、第1デバイス410〜第3デバイス450のうちの少なくとも1つのデバイスの認識範囲でユーザのジェスチャーを認識し、ジェスチャーに対するインタラクションを判別する。また、インタラクションによって電子機器を制御する。   Here, in the present embodiment, the user's gesture is recognized within the recognition range of at least one of the first device 410 to the third device 450, and the interaction with the gesture is determined. In addition, the electronic device is controlled by interaction.

例えば、ユーザが電子機器を利用して楽器演奏を行う場合を仮定すると、ユーザは、電子機器に隣接する空間のうちの認識範囲510〜530内で設定されたジェスチャー入力によってインタラクションを発生する。すると、第1デバイス410及び/又は第2デバイス430は、平面認識範囲510及び/又は530でユーザのジェスチャーを認識し、それに対する平面インタラクションを発生することによって、楽器演奏による当該機能を処理する。また、第3デバイス450は、空間認識範囲550の限界点(境界線)を基準にして限界点の下側に進入するジェスチャーを認識し、楽器を打撃する空間インタラクションを発生することによって、楽器演奏による当該機能を処理する。また、第1デバイス410及び/又は第2デバイス430と第3デバイス450の平面認識範囲及び空間認識範囲でユーザのジェスチャーを認識し、それに対する融合インタラクションを発生することによって、楽器演奏による当該機能を処理する。   For example, assuming that the user performs a musical instrument performance using an electronic device, the user generates an interaction by a gesture input set in a recognition range 510 to 530 in a space adjacent to the electronic device. Then, the first device 410 and / or the second device 430 recognizes the user's gesture in the plane recognition range 510 and / or 530 and generates a plane interaction with the user's gesture, thereby processing the function by the musical instrument performance. Further, the third device 450 recognizes a gesture entering below the limit point with reference to the limit point (boundary line) of the space recognition range 550, and generates a space interaction that strikes the instrument, thereby playing the musical instrument. Process the function by. In addition, by recognizing a user's gesture in the plane recognition range and the spatial recognition range of the first device 410 and / or the second device 430 and the third device 450, and generating a fusion interaction therewith, the function by playing the musical instrument can be achieved. Process.

以上のように、本実施形態によると、少なくとも1つのデバイスによるインタラクションによって電子機器を区別するように制御することができる。これを概略的に整理すると、下記表1のように示すことができる。   As described above, according to the present embodiment, it is possible to perform control so that electronic devices are distinguished by interaction by at least one device. This can be summarized as shown in Table 1 below.

Figure 2013164701
Figure 2013164701

上記表1に示したように、電子機器の制御部は、第1デバイス410の平面認識範囲510だけでインタラクションが感知されると、即ち第3デバイス450の空間認識範囲550の外側(例えば、限界点上端)のうちの平面認識範囲510でインタラクションが感知されると、平面認識範囲510で測定されたユーザのジェスチャーを分析し、当該ジェスチャーに予め定義された機能によって電子機器を制御する。   As shown in Table 1, the control unit of the electronic device detects an interaction only in the plane recognition range 510 of the first device 410, that is, outside the spatial recognition range 550 of the third device 450 (for example, a limit) When an interaction is detected in the plane recognition range 510 of the upper end of the point), the user's gesture measured in the plane recognition range 510 is analyzed, and the electronic device is controlled by a function predefined in the gesture.

また、電子機器の制御部は、第2デバイス430の平面認識範囲530だけでインタラクションが感知されると、即ち第3デバイス450の空間認識範囲550の外側(例えば、限界点上端)のうちの平面認識範囲530でインタラクションが感知されると、平面認識範囲530で測定されたユーザのジェスチャーを分析し、当該ジェスチャーに予め定義された機能によって電子機器を制御する。   In addition, when an interaction is detected only in the plane recognition range 530 of the second device 430, the control unit of the electronic device, that is, the plane outside the space recognition range 550 of the third device 450 (for example, the upper limit point). When an interaction is detected in the recognition range 530, the user's gesture measured in the plane recognition range 530 is analyzed, and the electronic device is controlled by a function predefined in the gesture.

また、電子機器の制御部は、第3デバイス450の空間認識範囲550だけでインタラクションが感知されると、即ち第3デバイス450の空間認識範囲550の内側(例えば、限界点下端)のうちの平面認識範囲510、530以外の領域でインタラクションが感知されると、空間認識範囲550で測定されたユーザのジェスチャーを分析し、当該ジェスチャーに予め定義された機能によって電子機器を制御する。   In addition, when the interaction is detected only in the space recognition range 550 of the third device 450, that is, the control unit of the electronic device, that is, the plane inside the space recognition range 550 of the third device 450 (for example, the lower end of the limit point). When an interaction is detected in a region other than the recognition ranges 510 and 530, the user's gesture measured in the space recognition range 550 is analyzed, and the electronic device is controlled by a function predefined in the gesture.

また、電子機器の制御部は、第1デバイス410の平面認識範囲510と第3デバイス450の空間認識範囲550でインタラクションが感知されると、即ち第3デバイス450の空間認識範囲550の内側(例えば、限界点下端)のうちの平面認識範囲510が重畳する領域でインタラクションが感知されると、空間認識範囲550と平面認識範囲510が重畳する領域で測定されたユーザのジェスチャーを分析し、当該ジェスチャーに予め定義された機能によって電子機器を制御する。   Further, when an interaction is detected in the plane recognition range 510 of the first device 410 and the space recognition range 550 of the third device 450, the control unit of the electronic device, that is, inside the space recognition range 550 of the third device 450 (for example, When the interaction is detected in the region where the plane recognition range 510 overlaps (the lower limit point), the user's gesture measured in the region where the space recognition range 550 and the plane recognition range 510 overlap is analyzed, and the gesture The electronic device is controlled by a predefined function.

また、電子機器の制御部は、第2デバイス430の平面認識範囲530と第3デバイス450の空間認識範囲550でインタラクションが感知されると、即ち第3デバイス450の空間認識範囲550の内側(例えば、限界点下端)のうちの平面認識範囲530が重畳する領域でインタラクションが感知されると、空間認識範囲550と平面認識範囲530が重畳する領域で測定されたユーザのジェスチャーを分析し、当該ジェスチャーに予め定義された機能によって電子機器を制御する。   When the interaction is detected in the plane recognition range 530 of the second device 430 and the space recognition range 550 of the third device 450, that is, the inside of the space recognition range 550 of the third device 450 (for example, If the interaction is detected in the region where the plane recognition range 530 overlaps (the lower end of the limit point), the user's gesture measured in the region where the space recognition range 550 and the plane recognition range 530 overlap is analyzed, and the gesture The electronic device is controlled by a predefined function.

また、電子機器の制御部は、第1デバイス410及び第2デバイス430の平面認識範囲510、530と第3デバイス450の空間認識範囲550でインタラクションが感知されると、即ち第3デバイス450の空間認識範囲550の内側(例えば、限界点下端)のうちの平面認識範囲510が重畳する領域と第3デバイス450の空間認識範囲550の内側(例えば、限界点下端)のうちの平面認識範囲530が重畳する領域の各々でインタラクションが感知されると、空間認識範囲550と平面認識範囲510が重畳する領域及び空間認識範囲550と平面認識範囲530が重畳する領域で測定された各々のユーザのジェスチャーを分析し、当該ジェスチャーに予め定義された機能によって電子機器を制御する。   In addition, when an interaction is detected in the plane recognition ranges 510 and 530 of the first device 410 and the second device 430 and the space recognition range 550 of the third device 450, the control unit of the electronic device, that is, the space of the third device 450. An area where the plane recognition range 510 overlaps inside the recognition range 550 (for example, the lower end of the limit point) and a plane recognition range 530 inside the space recognition range 550 of the third device 450 (for example, the lower limit point). When an interaction is detected in each of the overlapping regions, the user's gestures measured in the region where the space recognition range 550 and the plane recognition range 510 overlap and the region where the space recognition range 550 and the plane recognition range 530 overlap are displayed. Analyze and control the electronic device by a function predefined in the gesture.

また、上述したように、本実施形態では、各認識範囲に対応して平面インタラクション、空間インタラクション、及び融合インタラクションに区分し、測定されたユーザジェスチャーと当該ジェスチャーに対して定義された情報によって当該機能制御を処理する。以上のように、本実施形態では、1つ以上のデバイスの認識範囲を利用して空間を区分して使用することによって、2つ或いはそれ以上のレベルに対するインタラクションを可能にする。   In addition, as described above, in the present embodiment, the function is classified according to the measured user gestures and information defined for the gestures, which are classified into planar interaction, spatial interaction, and fusion interaction corresponding to each recognition range. Process control. As described above, in the present embodiment, interaction with respect to two or more levels is enabled by dividing and using a space by using a recognition range of one or more devices.

以下では、上述した本発明の具体的な実施形態について図6〜図8を参照して説明する。   Hereinafter, specific embodiments of the present invention described above will be described with reference to FIGS.

図6〜図8は、本発明の一実施形態による各認識範囲でユーザジェスチャーによる電子機器の運用方法を説明するための概略的な図である。   6 to 8 are schematic views for explaining a method of operating an electronic device using a user gesture in each recognition range according to an embodiment of the present invention.

図6を参照すると、第3デバイス450の空間認識範囲550の外側で、即ち重畳しない領域でユーザジェスチャーが第1デバイス410及び/又は第2デバイス430によって感知される場合及びそれによる動作を示す。即ち、ユーザは、第1デバイス410及び第2デバイス430の少なくとも1つの平面認識範囲のうちの空間認識範囲550と重畳しない領域で予め定義されたジェスチャーを発生することができる。ここで、ジェスチャーは、電子機器を基準にして上下左右の方向に該当する手の動きと、多様な形態の手の形状、多様な形態の手動作などを含む。これにより、電子機器の制御部は、第1デバイス410及び/又は第2デバイス430で認識するインタラクションによるジェスチャーを分析し、それにマッピングされた機能制御を処理する。   Referring to FIG. 6, a case in which a user gesture is sensed by the first device 410 and / or the second device 430 outside the spatial recognition range 550 of the third device 450, that is, in a non-overlapping region, and operations according thereto are illustrated. That is, the user can generate a gesture defined in advance in an area that does not overlap with the space recognition range 550 of at least one plane recognition range of the first device 410 and the second device 430. Here, the gesture includes hand movements corresponding to up, down, left and right directions with respect to the electronic device, various forms of hands, various forms of hand movements, and the like. Accordingly, the control unit of the electronic device analyzes the gesture by the interaction recognized by the first device 410 and / or the second device 430, and processes the function control mapped thereto.

図7を参照すると、第3デバイス450の空間認識範囲550の内側で、即ち重畳する領域でユーザジェスチャーが第1デバイス410及び/又は第2デバイス430によって感知される場合及びそれによる動作を示す。即ち、ユーザは、第1デバイス410及び第2デバイス430の少なくとも1つの平面認識範囲のうちの空間認識範囲550と重畳する領域で予め定義されたジェスチャーを発生することができる。ここで、ジェスチャーは、電子機器を基準にして上下左右の方向に該当する手の動きと、多様な形態の手の形状、多様な形態の手動作などを含む。これにより、電子機器の制御部は、第1デバイス410及び/又は第2デバイス430と第3デバイス450で認識するインタラクションによるジェスチャーを分析し、それにマッピングされた機能制御を処理する。   Referring to FIG. 7, a case where a user gesture is sensed by the first device 410 and / or the second device 430 inside the spatial recognition range 550 of the third device 450, that is, in an overlapping region, and operations according thereto are illustrated. That is, the user can generate a gesture defined in advance in an area that overlaps the space recognition range 550 of at least one plane recognition range of the first device 410 and the second device 430. Here, the gesture includes hand movements corresponding to up, down, left and right directions with respect to the electronic device, various forms of hands, various forms of hand movements, and the like. Accordingly, the control unit of the electronic device analyzes the gesture by the interaction recognized by the first device 410 and / or the second device 430 and the third device 450, and processes the function control mapped thereto.

図8を参照すると、第3デバイス450の空間認識範囲(限界点)を横切る、即ち重畳しない領域から重畳する領域に認識範囲が変更されるジェスチャーが感知される場合及びそれによる動作を示す。即ち、ユーザは、第1デバイス410及び第2デバイス430の少なくとも1つの平面認識範囲のうちの空間認識範囲550と重畳しない領域から重畳する領域にインタラクションが進入する予め定義されたジェスチャーを発生することができる。ここで、ジェスチャーは、空間認識範囲550の限界点を基準にして上側から下側に進入(例えば、打撃する行為など)する手の動作などを含む。これにより、電子機器の制御部は、第1デバイス410及び/又は第2デバイス430の認識範囲で第3デバイス450の認識範囲と重畳する領域に移動変更されたインタラクションを感知し、制御部は、インタラクションによるジェスチャーを分析し、それにマッピングされた機能制御を処理する。   Referring to FIG. 8, a case where a gesture that crosses the spatial recognition range (limit point) of the third device 450, that is, a recognition range is changed from a non-superimposed region to a superposed region is detected, and an operation performed thereby. That is, the user generates a predefined gesture in which an interaction enters an overlapping area from an area that does not overlap with the space recognition range 550 of at least one plane recognition range of the first device 410 and the second device 430. Can do. Here, the gesture includes an action of a hand entering from the upper side to the lower side (for example, an act of hitting) with reference to the limit point of the space recognition range 550. Accordingly, the control unit of the electronic device senses an interaction that has been moved and changed to a region that overlaps the recognition range of the third device 450 in the recognition range of the first device 410 and / or the second device 430, and the control unit Analyzes gestures by interaction and processes the function control mapped to it.

図8の動作について、楽器演奏機能を行う場合を例にして説明すると、楽器の打撃は、ユーザインタラクションが空間認識範囲550の限界点の外側から内側に進入する動作によって制御することができる。ここで、第1デバイス410及び第2デバイス430の各々は、ユーザジェスチャーの進入によるフレームの変化を感知し、変化の程度によって打撃強度を認識することができる。また、空間感知範囲550の限界点の外側から内側に進入するジェスチャーに対して第1デバイス410及び/又は第2デバイス430のフレーム変化を分析し、それによって打楽器を強く打ったか、弱く打ったかを区分するようにできる。このような動作は、左側及び右側で同一に適用され、各々異なる音の入力として使用することができる。このような動作の例については、後述する図面を参照して説明する。   The operation of FIG. 8 will be described by taking the case of performing an instrument performance function as an example. The hitting of the instrument can be controlled by an operation in which user interaction enters from the outside of the limit point of the space recognition range 550 to the inside. Here, each of the first device 410 and the second device 430 can detect a change in the frame due to the entry of the user gesture, and recognize the hitting strength according to the degree of the change. Also, the frame change of the first device 410 and / or the second device 430 is analyzed for a gesture entering from the outside of the limit point of the space sensing range 550, thereby determining whether the percussion instrument is struck strongly or weakly. Can be segmented. Such an operation is equally applied to the left side and the right side, and can be used as different sound inputs. An example of such an operation will be described with reference to the drawings described later.

図9は、本発明の一実施形態による電子機器におけるユーザインタラクションを利用した制御方法を示す図である。   FIG. 9 is a diagram illustrating a control method using user interaction in an electronic device according to an embodiment of the present invention.

図9を参照すると、先ず、電子機器の制御部は、ユーザ要請に応答してユーザインタラクションを利用した電子機器制御のためのモードを活性化する(901段階)。ここで、モード活性化は、ユーザ要請によって適応的に活性化/不活性化することができ、或いは設定方式によって常に活性化状態であり得る。従って、モード活性化段階は、本実施形態において省略することができる。   Referring to FIG. 9, first, the controller of the electronic device activates a mode for electronic device control using user interaction in response to a user request (operation 901). Here, the mode activation can be adaptively activated / deactivated according to a user request, or can always be in an activated state according to a setting method. Therefore, the mode activation step can be omitted in this embodiment.

次に、電子機器の制御部は、電子機器に隣接する空間上からインタラクションを感知する(903段階)。ここで、電子機器の制御部には、上述した図4〜図8を参照して説明したように、1つ以上のデバイスを通じて感知された1つ以上のインタラクションが入力される。   Next, the control unit of the electronic device detects the interaction from the space adjacent to the electronic device (step 903). Here, as described with reference to FIGS. 4 to 8 described above, one or more interactions detected through one or more devices are input to the control unit of the electronic device.

次に、電子機器の制御部は、入力されたインタラクションを区分する(905段階)。即ち、電子機器の制御部は、1つ以上のデバイスを通じて認識されるインタラクションの認識範囲を判断する。即ち、制御部は、インタラクションが1つ以上のデバイスの個別認識範囲で認識されるインタラクションであるか、又は少なくとも2つのデバイスへの重畳認識範囲で認識されるインタラクションであるかを判断する。また、制御部は、インタラクションが認識される当該認識範囲で測定されたユーザジェスチャーを識別する。   Next, the control unit of the electronic device classifies the input interaction (step 905). That is, the control unit of the electronic device determines the recognition range of the interaction recognized through one or more devices. That is, the control unit determines whether the interaction is an interaction recognized in the individual recognition range of one or more devices or an interaction recognized in the overlap recognition range for at least two devices. In addition, the control unit identifies a user gesture measured in the recognition range where the interaction is recognized.

次に、電子機器の制御部は、入力されたインタラクションによる設定された機能を判断する(907段階)。即ち、インタラクションによって識別するユーザジェスチャーに予め定義された機能を判断する。そして、電子機器の制御部は、判断した機能制御を処理する(909段階)。   Next, the control unit of the electronic device determines a function set by the input interaction (step 907). That is, a function defined in advance for the user gesture identified by the interaction is determined. Then, the control unit of the electronic device processes the determined function control (step 909).

図10は、本発明の一実施形態によるユーザインタラクションを利用した電子機器を制御する全体動作を概略的に示す図である。   FIG. 10 is a diagram schematically illustrating an overall operation of controlling an electronic device using user interaction according to an embodiment of the present invention.

図10を参照すると、先ず、電子機器に隣接する空間上でユーザジェスチャーが発生すると、電子機器の制御部は、1つ以上のデバイスからユーザジェスチャーによるインタラクションを感知する(1010段階)。また、電子機器の制御部は、1つ以上のデバイスからインタラクションが感知されると、インタラクションを識別する手続きを処理する(1020段階)。   Referring to FIG. 10, first, when a user gesture is generated in a space adjacent to the electronic device, the control unit of the electronic device detects an interaction by the user gesture from one or more devices (step 1010). In addition, when an interaction is detected from one or more devices, the control unit of the electronic device processes a procedure for identifying the interaction (operation 1020).

ここで、インタラクションは、電子機器がデバイスを具備する形態によって多様に示すことができる。例えば、電子機器が近接センサーなどのような空間上のインタラクションを認識するデバイスだけで構成される場合、デバイスによって空間インタラクションのみを感知する。また、電子機器がカメラセンサーなどのような平面上のインタラクションを認識するデバイスだけで構成される場合、デバイスによって平面インタラクションのみを感知する。また、電子機器が近接センサー及びカメラセンサーなどのように空間上のインタラクション及び平面上のインタラクションの両方を個別に認識可能となるように異なる種類のデバイスが多数個で構成される場合、デバイスによって空間インタラクション及び平面インタラクションのうちの少なくとも1つのインタラクションを感知する。   Here, the interaction can be variously indicated according to the form in which the electronic apparatus includes the device. For example, when the electronic device is configured only by a device that recognizes a spatial interaction, such as a proximity sensor, only the spatial interaction is detected by the device. In addition, when the electronic device is configured only by a device that recognizes a planar interaction such as a camera sensor, only the planar interaction is detected by the device. In addition, when an electronic device is configured with a large number of different types of devices such as proximity sensors and camera sensors so that both spatial interaction and planar interaction can be individually recognized, the space varies depending on the device. Sensing at least one of an interaction and a planar interaction.

電子機器の制御部は、識別するインタラクションが平面インタラクションであると識別すると(1031段階)、上述の図4〜図9を参照して説明したように、平面インタラクションによる機能制御を処理する(1033段階)。この際、電子機器の制御部は、平面インタラクションのタイプ別に当該機能制御を処理することができる。例えば、カメラセンサーの認識範囲内で発生する各ユーザジェスチャー(手の動作、手の形状、移動方向など)に対応するように設定されたインタラクションを追跡し、インタラクションによる当該機能を制御する。   When the control unit of the electronic device identifies that the identified interaction is a planar interaction (step 1031), as described with reference to FIG. 4 to FIG. 9 described above, the control unit of the electronic device processes the function control by the planar interaction (step 1033). ). At this time, the control unit of the electronic device can process the function control for each type of planar interaction. For example, an interaction set so as to correspond to each user gesture (hand movement, hand shape, movement direction, etc.) generated within the recognition range of the camera sensor is tracked, and the function by the interaction is controlled.

また、電子機器の制御部は、識別するインタラクションが空間インタラクションであると識別すると(1041段階)、上述の図4〜図9を参照して説明したように、空間インタラクションによる機能制御を処理する(1043段階)。この際、電子機器の制御部は、空間インタラクションのタイプ別に当該機能制御を処理することができる。例えば、近接センサーの認識範囲内で発生する各ユーザジェスチャー(手の動作、近接程度など)に対応するように設定されたインタラクションを追跡し、インタラクションによる当該機能を制御する。   Also, when the control unit of the electronic device identifies that the identified interaction is a spatial interaction (step 1041), as described with reference to FIGS. 4 to 9 described above, the function control by the spatial interaction is processed ( 1043). At this time, the control unit of the electronic device can process the function control for each type of spatial interaction. For example, an interaction set so as to correspond to each user gesture (hand movement, proximity degree, etc.) generated within the recognition range of the proximity sensor is tracked, and the function by the interaction is controlled.

また、電子機器の制御部は、識別するインタラクションが融合インタラクションであると識別すると(1051段階)、上述の図4〜図9を参照して説明したように、融合インタラクションによる機能制御を処理する(1053段階)。融合インタラクションは、空間インタラクション及び平面インタラクションが一緒に発生する場合のインタラクションを示す。即ち、空間インタラクションが感知される認識範囲と、平面インタラクションが感知される認識範囲が重畳する領域で発生するユーザジェスチャーを感知することができ、これを融合インタラクションとして処理する。この際、電子機器の制御部は、融合インタラクションのタイプ別に当該機能制御を処理することができる。例えば、近接センサー及びカメラセンサーの各認識範囲が重畳する領域内で発生する各ユーザジェスチャー(手の動作、接近程度、手の形状、移動方向など)に対応するように設定されたインタラクションを追跡し、インタラクションによる当該機能を制御する。   When the control unit of the electronic device identifies that the interaction to be identified is a fusion interaction (step 1051), as described with reference to FIGS. 4 to 9, the function control by the fusion interaction is processed (see FIG. 4). Step 1053). The fusion interaction indicates an interaction when a spatial interaction and a planar interaction occur together. That is, a user gesture generated in a region where a recognition range where spatial interaction is detected and a recognition range where planar interaction is detected can be detected, and this is processed as a fusion interaction. At this time, the control unit of the electronic device can process the function control for each type of fusion interaction. For example, it tracks the interaction set to correspond to each user gesture (hand movement, degree of approach, hand shape, direction of movement, etc.) that occurs within the area where the recognition ranges of proximity sensor and camera sensor overlap. Control the function by interaction.

次に、電子機器の制御部は、上記のように、平面インタラクション、空間インタラクション、及び融合インタラクションによる機能制御中に、当該インタラクションの変化が感知されると(1060段階)、即ちユーザジェスチャーが感知される認識範囲又はジェスチャー形態が変更されると、1020段階に進行し、上述の各段階を継続する。   Next, as described above, the control unit of the electronic device detects a change in the interaction during the function control by the planar interaction, the spatial interaction, and the fusion interaction (step 1060), that is, a user gesture is detected. When the recognition range or the gesture form is changed, the process proceeds to step 1020, and the above-described steps are continued.

以下、上述した本発明による動作の実施形態及びそれらの画面例について説明する。しかし、本発明の実施形態は、下記で記述する内容に限定されるものではなく、下記の実施形態に基づいて多様な実施形態に適用することができる。   Hereinafter, embodiments of the operation according to the present invention and examples of the screens will be described. However, embodiments of the present invention are not limited to the contents described below, and can be applied to various embodiments based on the following embodiments.

図11〜図14は、本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する一動作例を示す図である。ここで、下記では、第1デバイス410及び第2デバイス430がカメラセンサーに対応し、第3デバイス450が近接センサーに対応するものとして説明する。   11 to 14 are diagrams illustrating an example of an operation for processing the function corresponding to user interaction in the electronic device according to the embodiment of the present invention. Here, in the following description, it is assumed that the first device 410 and the second device 430 correspond to camera sensors, and the third device 450 corresponds to a proximity sensor.

図11〜図14を参照すると、アルバムアプリケーション実行時、近接センサーで感知される近接レベルによってインタラクションを区分し、設定された当該機能を制御する動作例を示す。即ち、図11〜図14は、近接センサーの境界(限界点)を基準にして内側又は外側で発生するユーザジェスチャーによってインタラクションを区分し、それによりマッピングされた機能を制御する。以下、図11〜図14を参照して近接レベルによるインタラクション区分及びそれによる多様な機能を制御する方法について説明する。   Referring to FIGS. 11 to 14, an operation example is shown in which, when an album application is executed, an interaction is classified according to a proximity level detected by a proximity sensor, and the set function is controlled. That is, FIGS. 11 to 14 classify the interaction by the user gesture generated inside or outside with respect to the boundary (limit point) of the proximity sensor, thereby controlling the mapped function. Hereinafter, with reference to FIG. 11 to FIG. 14, an interaction classification according to the proximity level and a method for controlling various functions will be described.

先ず、図11を参照すると、アルバムアプリケーションの実行によって任意のオブジェクト(例えば、イメージ)が提示された場合において、近接センサーの認識範囲の内側でインタラクションが発生した時、ユーザジェスチャー(例えば、手の左右移動)に定義された機能がオブジェクトナビゲーション機能であることを例として示す。   First, referring to FIG. 11, when an arbitrary object (for example, an image) is presented by executing an album application, when an interaction occurs within the recognition range of the proximity sensor, a user gesture (for example, left or right hand) As an example, the function defined in (Move) is an object navigation function.

即ち、図11に示すように、電子機器の制御部は、近接センサーの認識範囲の内側で入力されたユーザジェスチャーを認知し、またユーザジェスチャーがカメラセンサーの認識範囲で上下左右のうちのいずれか一方向に移動したことを認知する。これにより、制御部は、近接センサーによるインタラクションとカメラセンサーによるインタラクションを融合し、ジェスチャーが融合インタラクションであると決定する。また、制御部は、融合インタラクションでユーザジェスチャー、即ち追跡するジェスチャーの移動方向によって予め定義された機能を実行する。即ち、ジェスチャーの移動方向に対応して提示されたオブジェクトに対するナビゲーション機能を処理する。   That is, as shown in FIG. 11, the control unit of the electronic device recognizes a user gesture input inside the recognition range of the proximity sensor, and the user gesture is one of up, down, left, and right within the recognition range of the camera sensor. Recognize that it has moved in one direction. As a result, the control unit fuses the interaction by the proximity sensor and the interaction by the camera sensor, and determines that the gesture is a fusion interaction. In addition, the control unit executes a function defined in advance by the moving direction of the user gesture, that is, the gesture to be tracked in the fusion interaction. That is, the navigation function for the presented object corresponding to the movement direction of the gesture is processed.

上記のように、近接センサー及びカメラセンサーによって融合インタラクションが発生した場合、即ち近接センサーによるジェスチャーが感知された状態でカメラセンサーによるジェスチャーが一緒に感知された場合、電子機器の制御部は、融合インタラクション中にカメラセンサーで感知されたジェスチャーによってオブジェクト間のナビゲーションを行う機能制御を処理する。   As described above, when a fusion interaction is generated by the proximity sensor and the camera sensor, that is, when a gesture by the camera sensor is sensed together while a gesture by the proximity sensor is sensed, the controller of the electronic device performs the fusion interaction. The function control for navigating between objects by the gesture detected by the camera sensor is processed.

次に、図12を参照すると、アルバムアプリケーションの実行によって任意のオブジェクト(例えば、イメージ)が提示された場合において、近接センサーの認識範囲の内側でインタラクションが発生した時、ユーザジェスチャー(例えば、手の上下移動)に定義された機能が拡大/縮小機能であることを例として示す。   Next, referring to FIG. 12, when an arbitrary object (for example, an image) is presented by executing the album application, when an interaction occurs within the recognition range of the proximity sensor, a user gesture (for example, a hand) As an example, the function defined in (up / down movement) is an enlargement / reduction function.

即ち、図12に示すように、電子機器の制御部は、近接センサーの認識範囲の内側で入力されたユーザジェスチャーを認知し、またユーザジェスチャーが近接センサーの認識範囲の内側で電子機器に近接したか又は遠くなった、即ち可変されたことを認知する。これにより、制御部は、ジェスチャーが近接センサーによる近接レベル変化による空間インタラクションであると決定する。また、制御部は、空間インタラクションでユーザジェスチャー、即ち追跡するジェスチャーの近接レベルによって予め定義された機能を実行する。即ち、ジェスチャーが電子機器に近接する程度に対応して提示されたオブジェクトに対する拡大/縮小機能を処理する。ここで、ジェスチャーが近接センサーの認識範囲(限界点)を外れた場合、オブジェクトを基本設定された基本サイズに復元する動作を設定方式によって行うこともできることは勿論である。   That is, as illustrated in FIG. 12, the control unit of the electronic device recognizes the user gesture input inside the proximity sensor recognition range, and the user gesture approaches the electronic device inside the proximity sensor recognition range. It is recognized that it has been changed or changed. Accordingly, the control unit determines that the gesture is a spatial interaction due to a proximity level change by the proximity sensor. In addition, the control unit executes a function defined in advance by the proximity level of the user gesture, that is, the gesture to be tracked in the spatial interaction. In other words, the enlargement / reduction function for the presented object is processed corresponding to the degree that the gesture is close to the electronic device. Here, when the gesture is out of the recognition range (limit point) of the proximity sensor, it is needless to say that the operation of restoring the object to the basic size set as a basic setting can be performed by the setting method.

上記のように、近接センサーによるジェスチャーが感知されたか、又は近接センサーによるジェスチャーが感知された状態でカメラセンサーによるジェスチャーが一緒に感知された場合、電子機器の制御部は、近接センサーで感知されたジェスチャーによってオブジェクトの拡大/縮小を行う機能制御を処理する。   As described above, when the gesture by the proximity sensor is sensed or when the gesture by the camera sensor is sensed together with the gesture by the proximity sensor sensed, the control unit of the electronic device is sensed by the proximity sensor. Function control for enlarging / reducing an object by a gesture is processed.

次に、図13を参照すると、アルバムアプリケーションの実行によって任意のオブジェクト(例えば、イメージ)が提示された場合において、近接センサーの認識範囲の外側でインタラクションが発生した時、ユーザジェスチャー(例えば、手の上下移動)に定義された機能がカテゴリーナビゲーション機能であることを例として示す。   Next, referring to FIG. 13, when an arbitrary object (for example, an image) is presented by the execution of the album application, when an interaction occurs outside the recognition range of the proximity sensor, a user gesture (for example, a hand) As an example, the function defined in (Move Up / Down) is a category navigation function.

即ち、図13に示すように、近接センサーの認識範囲の外側で入力されるユーザジェスチャーに対しては、近接センサーによるインタラクションが発生しない。即ち、ユーザジェスチャーは、カメラセンサーの認識範囲内だけで感知され、それによるインタラクションが発生する。このような場合、電子機器の制御部は、カメラセンサーの認識範囲で上下左右のうちのいずれか一方向に移動するジェスチャーを認知すると、カメラセンサーによるインタラクションを平面インタラクションとして決定し、平面インタラクションでユーザジェスチャー、即ち追跡するジェスチャーの移動方向にマッピングされた機能(例えば、カテゴリーナビゲーション制御)を実行する。即ち、ジェスチャーの移動方向に対応して提示されたカテゴリーに対するナビゲーション機能を処理する。   That is, as shown in FIG. 13, no interaction by the proximity sensor occurs for a user gesture input outside the recognition range of the proximity sensor. That is, the user gesture is detected only within the recognition range of the camera sensor, and an interaction is generated accordingly. In such a case, when the control unit of the electronic device recognizes a gesture that moves in one of the upper, lower, left, and right directions within the recognition range of the camera sensor, it determines the interaction by the camera sensor as a planar interaction, and the user interacts with the planar interaction. A function (for example, category navigation control) mapped to the movement direction of the gesture, that is, the gesture to be tracked is executed. That is, the navigation function for the category presented corresponding to the movement direction of the gesture is processed.

従って、上記のように、カメラセンサーによって平面インタラクションが発生すると、平面インタラクションによってカテゴリー間のナビゲーションを行う機能制御を処理する。この際、カテゴリーの変更によって当該カテゴリーに属する内容(例えば、イメージ)も一緒に変更されて提供される。   Therefore, as described above, when a plane interaction is generated by the camera sensor, the function control for performing navigation between categories is processed by the plane interaction. At this time, contents (for example, images) belonging to the category are also changed and provided by changing the category.

次に、図14を参照すると、アルバムアプリケーションの実行によって任意のオブジェクト(例えば、イメージ)が提示された場合において、近接センサーの認識範囲の外側でインタラクションが発生した時、ユーザジェスチャー(例えば、手の回転)に定義された機能がオブジェクト回転機能であることを例として示す。   Next, referring to FIG. 14, when an arbitrary object (for example, an image) is presented by executing the album application, when an interaction occurs outside the recognition range of the proximity sensor, a user gesture (for example, a hand) As an example, the function defined in (Rotation) is the object rotation function.

即ち、図14に示すように、近接センサーの認識範囲の外側で入力されるユーザジェスチャーに対しては、近接センサーによるインタラクションが発生しない。即ち、ユーザジェスチャーは、カメラセンサーの認識範囲内だけで感知され、それによるインタラクションが発生する。このような場合、電子機器の制御部は、カメラセンサーの認識範囲で時計方向又は反時計方向に回転するジェスチャーを認知すると、カメラセンサーによるインタラクションを平面インタラクションとして決定し、平面インタラクションでユーザジェスチャー、即ち追跡するジェスチャーの回転方向にマッピングされた機能(例えば、オブジェクト回転制御)を実行する。即ち、ジェスチャーの回転方向に対応して提示されたオブジェクトに対する回転機能を処理する。   That is, as shown in FIG. 14, the interaction by the proximity sensor does not occur for a user gesture input outside the recognition range of the proximity sensor. That is, the user gesture is detected only within the recognition range of the camera sensor, and an interaction is generated accordingly. In such a case, when the control unit of the electronic device recognizes a gesture that rotates clockwise or counterclockwise within the recognition range of the camera sensor, it determines the interaction by the camera sensor as a planar interaction, and the user gesture by the planar interaction, that is, A function (for example, object rotation control) mapped in the rotation direction of the gesture to be tracked is executed. That is, the rotation function for the presented object corresponding to the rotation direction of the gesture is processed.

従って、上記のように、カメラセンサーによって平面インタラクションが発生すると、平面インタラクションによってオブジェクトを回転する機能制御を処理する。この際、ジェスチャーの時計方向又は反時計方向の回転に対応してオブジェクトを当該方向に回転するエフェクトを適応的に反映して提供する。   Accordingly, as described above, when a plane interaction is generated by the camera sensor, the function control for rotating the object by the plane interaction is processed. At this time, the effect of rotating the object in the direction corresponding to the clockwise or counterclockwise rotation of the gesture is adaptively reflected and provided.

以上のように、本発明の動作例によると、近接センサーを利用して近接による空間上の範囲を決定することができる。また、近接範囲の内側では、カメラセンサーによってジェスチャーの動く方向を認識し、当該インタラクションとして活用し、近接センサーの外側では、カメラセンサーによってジェスチャー形状/動作を認識し、当該インタラクションで活用するなどユーザ定義によって多様な運用が可能である。   As described above, according to the operation example of the present invention, it is possible to determine a spatial range by proximity using a proximity sensor. User-defined, for example, the gesture direction is recognized by the camera sensor inside the proximity range and used as the interaction, and the gesture shape / motion is recognized by the camera sensor outside the proximity sensor and used in the interaction. Various operations are possible.

図15及び図16は、本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する他の動作例を示す図である。ここで、下記では、第1デバイス410及び第2デバイス430がカメラセンサーに対応し、第3デバイス450が近接センサーに対応し、また、第1デバイス410であるカメラセンサーは、カメラ本体の機能を実行し、第2デバイス430であるカメラセンサーは、本実施形態においてユーザインタラクションのための機能として作動するものとして説明する。また第1デバイス410と第2デバイス430間の機能を交換して利用することが可能であることも勿論である。   FIGS. 15 and 16 are diagrams illustrating another example of operations for processing the function corresponding to user interaction in the electronic device according to the embodiment of the present invention. Here, in the following, the first device 410 and the second device 430 correspond to the camera sensor, the third device 450 corresponds to the proximity sensor, and the camera sensor that is the first device 410 has the function of the camera body. The camera sensor that is executed and is the second device 430 will be described as operating as a function for user interaction in the present embodiment. Of course, the functions between the first device 410 and the second device 430 can be exchanged and used.

図15及び図16を参照すると、近接センサーで感知される近接レベルによってインタラクションを区分して機能を制御する動作の例を示す。特に、図15及び図16では、カメラを利用する機能のうちのセルフ撮影機能を行う場合の例を示し、このような動作は、画像通話時にも応用することができることは勿論である。   Referring to FIGS. 15 and 16, an example of an operation of controlling the function by classifying the interaction according to the proximity level detected by the proximity sensor is shown. In particular, FIG. 15 and FIG. 16 show an example of performing a self-photographing function among functions using a camera, and it is needless to say that such an operation can also be applied during an image call.

図15及び図16を参照すると、近接センサーの認識範囲(限界点)を基準にして内側又は外側で発生するユーザジェスチャーによってインタラクションを区分し、各インタラクションに対応するユーザジェスチャーによってセルフ撮影に関連した機能を制御する動作例を示す。即ち、図15及び図16では、セルフ撮影アプリケーションが実行時に近接センサー及び残りの他のカメラセンサーで感知されたインタラクションを区分し、設定されたセルフ撮影機能を制御する動作例を示す。   Referring to FIG. 15 and FIG. 16, the functions related to self-photographing are classified by the user gesture generated inside or outside based on the recognition range (limit point) of the proximity sensor, and the user gesture corresponding to each interaction. An example of the operation for controlling is shown. That is, FIGS. 15 and 16 illustrate an operation example in which, when the self-photographing application is executed, the interactions detected by the proximity sensor and the remaining other camera sensors are classified, and the set self-photographing function is controlled.

先ず、図15を参照すると、セルフ撮影機能の実行中に近接センサーの認識範囲550の内側でユーザジェスチャーによるインタラクションが発生する場合を示す。図15に示すように、電子機器の制御部は、近接センサーの認識範囲550の内側で入力されたユーザインタラクションを認知し、またユーザジェスチャーが近接センサーの認識範囲550の内側で電子機器に近接したか又は遠くなった、即ち可変されたことを認知する。これにより、制御部は、ジェスチャーが近接センサーによる近接レベル変化によるインタラクションであると決定する。また、制御部は、インタラクションでユーザジェスチャー、即ち追跡するジェスチャーの近接レベルによって予め定義された機能を実行する。例えば、ジェスチャーが電子機器に近接する程度に対応してセルフ撮影による被写体のズームイン/ズームアウト機能を処理する。   First, referring to FIG. 15, a case where an interaction by a user gesture occurs inside the proximity sensor recognition range 550 during execution of the self-photographing function is shown. As shown in FIG. 15, the control unit of the electronic device recognizes the user interaction input inside the proximity sensor recognition range 550, and the user gesture approaches the electronic device inside the proximity sensor recognition range 550. It is recognized that it has been changed or changed. Thereby, the control unit determines that the gesture is an interaction due to a proximity level change by the proximity sensor. In addition, the control unit executes a function defined in advance according to the proximity level of the user gesture in the interaction, that is, the gesture to be tracked. For example, the zoom-in / zoom-out function of the subject by self-photographing is processed in accordance with the degree to which the gesture is close to the electronic device.

上記のように、近接センサーによるジェスチャーが感知されたか、又は近接センサーによるジェスチャーが感知された状態でカメラセンサーによるジェスチャーが一緒に感知された場合、電子機器の制御部は、近接センサーで感知されたジェスチャーによってセルフ撮影によるズームイン/ズームアウト機能制御を処理する。   As described above, when the gesture by the proximity sensor is sensed or when the gesture by the camera sensor is sensed together with the gesture by the proximity sensor sensed, the control unit of the electronic device is sensed by the proximity sensor. The zoom-in / zoom-out function control by self-photographing is processed by the gesture.

即ち、図15では、カメラセンサーによってユーザインタラクションが発生し、また、近接センサーによってユーザインタラクションが発生したか、又は近接センサーだけによってユーザインタラクションが発生した時、近接センサーによるユーザインタラクションの近接レベルによってセルフ撮影のズームイン/ズームアウト機能を制御することができる。この際、近接センサーの認識範囲550の内側で発生した近接レベルによって、即ち感知された認識値の強弱によってズームイン又はズームアウト機能を処理する。図15を参照すると、ユーザの手が近接センサーの認識範囲550の限界点から電子機器の側に近接した場合、ズームイン機能を処理し、ユーザの手が電子機器における認識範囲550の限界点から遠くなった場合、ズームアウト機能を処理する。   That is, in FIG. 15, when a user interaction is generated by the camera sensor, a user interaction is generated by the proximity sensor, or a user interaction is generated only by the proximity sensor, self-photographing is performed according to the proximity level of the user interaction by the proximity sensor. The zoom in / zoom out function can be controlled. At this time, the zoom-in or zoom-out function is processed according to the proximity level generated within the recognition range 550 of the proximity sensor, that is, the strength of the recognized recognition value. Referring to FIG. 15, when the user's hand approaches the electronic device side from the limit point of the proximity sensor recognition range 550, the zoom-in function is processed, and the user's hand is far from the limit point of the recognition range 550 in the electronic device. If this happens, the zoom-out function is processed.

次に、図16を参照すると、セルフ撮影機能の実行中に近接センサーの認識範囲550の外側でユーザジェスチャーによるインタラクションが発生する場合を示す。図16に示すように、ユーザジェスチャーは、カメラセンサーの認識範囲550内だけで感知され、それによるインタラクションが発生する。このような場合、電子機器の制御部は、カメラセンサーの認識範囲550で発生したジェスチャーを認知すると、カメラセンサーによるインタラクションでユーザジェスチャー、即ち追跡するジェスチャーの形態によってマッピングされた機能を実行する。例えば、ジェスチャーが“OK”に対応する手の形状を有する場合、手の形状に対応してセルフ撮影による撮影機能を処理する。   Next, referring to FIG. 16, a case where an interaction by a user gesture occurs outside the proximity sensor recognition range 550 during execution of the self-photographing function is shown. As shown in FIG. 16, the user gesture is detected only within the recognition range 550 of the camera sensor, and an interaction occurs accordingly. In such a case, when the control unit of the electronic device recognizes the gesture generated in the recognition range 550 of the camera sensor, the control unit executes a function mapped according to the user gesture, that is, the form of the gesture to be tracked by the interaction with the camera sensor. For example, when the gesture has a hand shape corresponding to “OK”, the photographing function by self-photographing is processed corresponding to the shape of the hand.

即ち、図16では、カメラセンサーによってユーザインタラクションが発生すると、カメラセンサーによって追跡されたジェスチャーの形態によってセルフ撮影による多様な付加機能を処理することができる。   That is, in FIG. 16, when user interaction is generated by the camera sensor, various additional functions by self-photographing can be processed according to the form of the gesture tracked by the camera sensor.

一方、セルフ撮影などのカメラセンサー及び近接センサーの相互間による機能制御は、必ずしも上述の例に限定されるものではなく、ユーザジェスチャーとデバイス間の機能制御情報は、ユーザ設定により変更することができ、このような例は、下記表2のように示すことができる。   On the other hand, the function control between the camera sensor and the proximity sensor such as self-photographing is not necessarily limited to the above example, and the function control information between the user gesture and the device can be changed by the user setting. Such an example can be shown in Table 2 below.

Figure 2013164701
Figure 2013164701

上記表2に示したように、本発明の実施形態では、ユーザ設定によってインタラクション、ジェスチャー、及びそれに該当する機能を設定することができる。例えば、同一のズームイン/ズームアウト機能に対しても、近接センサー及びカメラセンサーによる融合インタラクションを感知するようにするか、又はいずれか1つのデバイスによる平面インタラクション又は空間インタラクションを感知するようにし、また、インタラクション発生のためのジェスチャーも、やはりユーザ希望によって設定することができる。また、同一のジェスチャー及びそれによる機能に対しても、空間インタラクションによって行うか、又は平面インタラクションによって行うかなどユーザ便宜によって多様に設定可能である。   As shown in Table 2 above, in the embodiment of the present invention, an interaction, a gesture, and a function corresponding thereto can be set by user settings. For example, for the same zoom-in / zoom-out function, sense fusion interaction by proximity sensor and camera sensor, or sense planar interaction or spatial interaction by any one device, A gesture for generating an interaction can also be set according to a user's request. Also, the same gesture and the function based on the same gesture can be set in various ways depending on the user's convenience, such as whether to perform by spatial interaction or planar interaction.

図17〜図20は、本発明の一実施形態による電子機器におけるユーザインタラクションに対応して当該機能を処理する更に他の動作例を示す図である。ここで、下記では、第1デバイス410及び第2デバイス430がカメラセンサーに対応し、第3デバイス450が近接センサーに対応するものとして説明する。   17 to 20 are diagrams showing still another example of operations for processing the function corresponding to the user interaction in the electronic device according to the embodiment of the present invention. Here, in the following description, it is assumed that the first device 410 and the second device 430 correspond to camera sensors, and the third device 450 corresponds to a proximity sensor.

ここで、図17〜図20に示した電子機器は、ユーザインタラクションを識別するためのデバイスであって、2つのカメラセンサーが電子機器の平面の側部に各々設けられ、電子機器の内部又は一側に近接センサーが設けられた場合の例を示す。このような構成の例は、本発明の多様な電子機器の形態のうちの一例に該当するものであり、本発明の電子機器は、必ずしも図17〜図20の形態に限定されるものではない。   Here, the electronic devices shown in FIGS. 17 to 20 are devices for identifying user interaction, and two camera sensors are provided on the sides of the plane of the electronic device, respectively. An example in which a proximity sensor is provided on the side is shown. An example of such a configuration corresponds to an example of various electronic device forms according to the present invention, and the electronic device according to the present invention is not necessarily limited to the form shown in FIGS. .

先ず、図17を参照すると、電子機器における楽器演奏アプリケーションの実行時にユーザがジェスチャーを入力する動作例を示す。図17に示したように、ユーザの左手及び右手の各々は、2つのカメラセンサー410、430の各認知範囲上に位置する。この際、2つのカメラセンサー410、430の各々は、左手及び右手に対する手動作を継続的に感知する。   First, FIG. 17 shows an operation example in which a user inputs a gesture when executing a musical instrument performance application in an electronic device. As shown in FIG. 17, each of the left hand and the right hand of the user is located on each recognition range of the two camera sensors 410 and 430. At this time, each of the two camera sensors 410 and 430 continuously senses a hand movement with respect to the left hand and the right hand.

また、近接センサー450の認識範囲(限界点)を打楽器の仮想の表面として見なし、認識範囲(限界点)の外側から内側に進入する入力を感知する時、打楽器を打撃するものと定義する。また、各カメラセンサー410、430は、ユーザジェスチャーの移動速度を感知することができ、これは、楽器を演奏する力の強さとして定義することができる。   Further, the recognition range (limit point) of the proximity sensor 450 is regarded as a virtual surface of the percussion instrument, and it is defined that the percussion instrument is hit when an input entering from the outside to the inside of the recognition range (limit point) is detected. In addition, each camera sensor 410, 430 can sense the moving speed of the user gesture, which can be defined as the strength of playing the instrument.

このような例において、図17の例に示すように、電子機器で楽器演奏アプリケーションを実行する場合を仮定すると、2つのカメラセンサー410、430及び近接センサー450は、各々左右の手の動きを通じた楽器演奏のために使用され、各カメラセンサー410、430で感知したフレーム変化を追跡し、手の動きの速度を測定する。   In such an example, as shown in the example of FIG. 17, assuming that a musical instrument performance application is executed on an electronic device, the two camera sensors 410 and 430 and the proximity sensor 450 each move through left and right hand movements. It is used for playing a musical instrument, tracking the frame change sensed by each camera sensor 410, 430, and measuring the speed of hand movement.

一方、図17では、2つのカメラセンサー410、430を利用する場合を例として示したが、2つ以上の多数個のカメラセンサーが設けられ、各々の認識範囲が区分される場合、多数の入力を受け入れることができる。   On the other hand, FIG. 17 shows an example in which two camera sensors 410 and 430 are used. However, when two or more camera sensors are provided and each recognition range is divided, a large number of inputs are used. Can accept.

以下、本発明のユーザインタラクションを利用して電子機器で楽器演奏機能を実行する動作について説明する。   Hereinafter, an operation for executing a musical instrument performance function in an electronic device using the user interaction of the present invention will be described.

図18〜図20を参照すると、先ず、電子機器では、楽器演奏アプリケーションの実行に対応するユーザインターフェース(UI:User Interface)を画面上に表示する。ユーザインターフェースは、実際の楽器形態に対応するグラフィックユーザインターフェース(GUI:Graphical User Interface)である。或いは、実際の楽器形態を簡素化して示したGUIであってもよい。図18〜図20では、ユーザ要請に対応する楽器の形態を簡素化してGUIで示す場合の例を示す。例えば、図18〜図20では、ユーザが打楽器のうちのドラムを選択した場合、それに対応するGUIを示したものである。   18 to 20, first, the electronic device displays a user interface (UI) corresponding to execution of the musical instrument performance application on the screen. The user interface is a graphic user interface (GUI) corresponding to an actual musical instrument form. Or the GUI which simplified and showed the actual musical instrument form may be sufficient. 18 to 20 show examples in which the form of the musical instrument corresponding to the user request is simplified and shown in the GUI. For example, FIGS. 18 to 20 show GUIs corresponding to the case where the user selects a drum among percussion instruments.

先ず、図18に示したように、楽器に対する打撃の場合、近接センサー450の認識範囲から内側に進入する動作だけを認識してインタラクションとして処理する。この際、カメラセンサー410、430の各々は、フレームの変化を感知し、その変化の程度によるインタラクションを処理する。即ち、ユーザジェスチャーによる強さを区分する。また、近接センサー450の認識範囲の外側から内側に進入するジェスチャーの移動に対してカメラセンサー410、430でフレーム変化を分析し、それによって打楽器を強く打ったか、弱く打ったかを区分する。このような動作は、左側及び右側で同一に適用され、各々異なる音の入力として使用することもできる。   First, as shown in FIG. 18, in the case of hitting a musical instrument, only an action entering inside from the recognition range of the proximity sensor 450 is recognized and processed as an interaction. At this time, each of the camera sensors 410 and 430 senses a change in the frame and processes an interaction depending on the degree of the change. That is, the strength by the user gesture is classified. In addition, frame changes are analyzed by the camera sensors 410 and 430 with respect to the movement of the gesture entering from the outside of the recognition range of the proximity sensor 450, thereby distinguishing whether the percussion instrument was hit strongly or weakly. Such an operation is equally applied to the left and right sides, and can be used as different sound inputs.

次に、図19に示したように、楽器演奏で繰り返し的な弱い入力は、近接センサー450の認識範囲の内側でウエーブ動作として定義し、近接センサー及びカメラセンサーが重畳する認識範囲でウエーブジェスチャーのようなインタラクションが発生すると、これを楽器演奏機能での連続的な弱い入力として処理する。   Next, as shown in FIG. 19, repetitive weak input in musical instrument performance is defined as a wave action inside the recognition range of the proximity sensor 450, and a wave gesture is detected in the recognition range where the proximity sensor and the camera sensor overlap. When such an interaction occurs, it is processed as a continuous weak input in the musical instrument performance function.

次に、図20に示したように、楽器は、特性上、音の響きが持続することがあり、従って、現在の音をミュート(mute)するインタラクションを定義する。図20の例では、ミュート機能制御のための入力を近接センサー450の認識範囲の外側で行われるウエーブ動作として定義し、近接センサー450の認識範囲の外側でのカメラセンサー410、430によってインタラクションが発生すると、これを楽器演奏機能でのミュート入力として処理する。このような動作は、ユーザインタラクションが発生するいずれか一方だけをミュートするか、又は左右の両方をミュートする。   Next, as shown in FIG. 20, the musical instrument may continue to sound due to its characteristics, and thus defines an interaction that mute the current sound. In the example of FIG. 20, an input for controlling the mute function is defined as a wave operation performed outside the recognition range of the proximity sensor 450, and interaction is generated by the camera sensors 410 and 430 outside the recognition range of the proximity sensor 450. Then, this is processed as a mute input in the musical instrument performance function. In such an operation, only one of the user interactions is muted, or both the left and right are muted.

以上のように、本発明によれば、1つ以上のデバイスを利用してユーザインタラクションによる電子機器の制御が可能である。例えば、カメラセンサーは、手動作の動きを持続的に感知し、当該動作を各々のインタラクションとして活用することができる。また、近接センサーは、近接の範囲を定義し、空間上の領域を区分する役目として活用することができる。このような本発明により、単一のセンサーを利用したインタラクション方式に比べて2つのセンサーの結合で空間の概念(近接レベル)を導入し、拡張されたインタラクションを提供することができる。   As described above, according to the present invention, electronic devices can be controlled by user interaction using one or more devices. For example, the camera sensor can continuously detect a movement of a hand movement and use the movement as each interaction. Further, the proximity sensor can be used as a role of defining a proximity range and partitioning an area in space. According to the present invention, an extended interaction can be provided by introducing the concept of space (proximity level) by combining two sensors as compared to an interaction method using a single sensor.

以上、図面を参照しながら本発明の実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。   As mentioned above, although embodiment of this invention was described referring drawings, this invention is not limited to the above-mentioned embodiment, In the range which does not deviate from the technical scope of this invention, various changes are implemented. It is possible.

410 第1デバイス
430 第2デバイス
450 第3デバイス
510、530 平面認識範囲
550 空間認識範囲
410 First device 430 Second device 450 Third device 510, 530 Plane recognition range 550 Spatial recognition range

Claims (15)

入力インタラクションを利用する電子機器であって、
前記電子機器に隣接する空間上で発生する1つ以上のインタラクションを認識するデバイスと、
前記デバイスが認識する1つ以上のインタラクションによって前記電子機器を制御する制御部と、を備えることを特徴とする電子機器。
An electronic device that uses input interaction,
A device for recognizing one or more interactions occurring in a space adjacent to the electronic device;
An electronic device comprising: a control unit that controls the electronic device by one or more interactions recognized by the device.
前記デバイスは、
前記電子機器の周辺で平面上に行われるユーザジェスチャーによる平面インタラクションを認知する第1デバイスと、
前記電子機器の周辺で空間上に行われるユーザジェスチャーによる空間インタラクションを認知する第2デバイスと、を含むことを特徴とする請求項1に記載の電子機器。
The device is
A first device for recognizing planar interaction by a user gesture performed on a plane around the electronic device;
The electronic device according to claim 1, further comprising: a second device that recognizes a spatial interaction by a user gesture performed on a space around the electronic device.
前記第1デバイス及び前記第2デバイスは、同一のタイプで構成されるか又は互いに異なるタイプで構成されることを特徴とする請求項2に記載の電子機器。   The electronic device according to claim 2, wherein the first device and the second device are configured with the same type or different types. 前記デバイスは、ユーザジェスチャーによるインタラクションが認識される認識範囲を有し、
前記認識範囲は、前記デバイスの構成に対応して多数個に区分され、区分された各々の認識範囲の間に重畳領域を形成することを特徴とする請求項2に記載の電子機器。
The device has a recognition range in which an interaction by a user gesture is recognized,
The electronic device according to claim 2, wherein the recognition range is divided into a large number corresponding to the configuration of the device, and an overlapping region is formed between the divided recognition ranges.
前記デバイスは、前記重畳領域の認識範囲から平面インタラクション及び空間インタラクションに対応する情報を提供し、前記重畳領域以外の個別認識範囲から平面インタラクション又は空間インタラクションに対応する情報を提供することを特徴とする請求項4に記載の電子機器。   The device provides information corresponding to planar interaction and spatial interaction from the recognition range of the overlapping region, and provides information corresponding to planar interaction or spatial interaction from an individual recognition range other than the overlapping region. The electronic device according to claim 4. 前記制御部は、前記デバイスからの情報によって平面インタラクション及び空間インタラクションを区分し、区分された少なくとも1つのインタラクションに対応して前記電子機器を制御することを特徴とする請求項5に記載の電子機器。   The electronic device according to claim 5, wherein the control unit divides planar interaction and spatial interaction according to information from the device, and controls the electronic device in accordance with at least one divided interaction. . 入力インタラクションを利用する電子機器制御システムであって、
前記電子機器に隣接する空間で平面上に行われるユーザジェスチャーによる平面インタラクションを認識する第1デバイスと、
前記電子機器に隣接する空間で空間上に行われるユーザジェスチャーによる空間インタラクションを認識する第2デバイスと、
前記平面インタラクション及び空間インタラクションを区分し、区分された少なくとも1つのインタラクションに対応して前記電子機器を制御する処理手段と、を備えることを特徴とする電子機器制御システム。
An electronic device control system using input interaction,
A first device for recognizing planar interaction by a user gesture performed on a plane in a space adjacent to the electronic device;
A second device for recognizing spatial interaction by a user gesture performed on the space in a space adjacent to the electronic device;
An electronic device control system comprising: processing means for classifying the planar interaction and the spatial interaction and controlling the electronic device in response to at least one of the classified interactions.
前記第1デバイス及び前記第2デバイスは、同一のタイプのデバイスであるか又は互いに異なるタイプのデバイスであることを特徴とする請求項7に記載の電子機器制御システム。   The electronic device control system according to claim 7, wherein the first device and the second device are devices of the same type or different types of devices. 前記第1デバイスは前記平面インタラクションのための認識範囲を有し、前記第2デバイスは前記空間インタラクションのための認識範囲を有し、
前記第1デバイスの認識範囲及び前記第2デバイスの認識範囲は、重畳する領域を有することを特徴とする請求項8に記載の電子機器制御システム。
The first device has a recognition range for the planar interaction, the second device has a recognition range for the spatial interaction;
The electronic device control system according to claim 8, wherein the recognition range of the first device and the recognition range of the second device have overlapping regions.
入力インタラクションを利用する電子機器の制御方法であって、
前記電子機器に隣接する空間から1つ以上のインタラクションを認識する段階と、
前記1つ以上のインタラクションに対応して前記電子機器を制御する段階と、を有することを特徴とする電子機器の制御方法。
A method for controlling an electronic device using input interaction,
Recognizing one or more interactions from a space adjacent to the electronic device;
Controlling the electronic device in response to the one or more interactions.
前記1つ以上のインタラクションを認識する段階は、
前記電子機器に隣接する空間からユーザジェスチャーを感知する段階と、
前記ユーザジェスチャーに対応する1つ以上のインタラクションを認識する段階と、を含むことを特徴とする請求項10に記載の電子機器の制御方法。
Recognizing the one or more interactions comprises:
Sensing a user gesture from a space adjacent to the electronic device;
The method according to claim 10, further comprising: recognizing one or more interactions corresponding to the user gesture.
前記1つ以上のインタラクションを認識する段階は、
前記電子機器に隣接する空間上で前記ユーザジェスチャーが発生する認識範囲によって平面インタラクション及び空間インタラクションのうちの少なくとも1つのインタラクションを認識することを特徴とする請求項11に記載の電子機器の制御方法。
Recognizing the one or more interactions comprises:
12. The method of controlling an electronic device according to claim 11, wherein at least one of a plane interaction and a spatial interaction is recognized according to a recognition range in which the user gesture is generated in a space adjacent to the electronic device.
前記ユーザジェスチャーが発生する認識範囲は、前記平面インタラクションのための認識範囲と前記空間インタラクションのための認識範囲とに区分され、前記平面インタラクションのための認識範囲と前記空間インタラクションのための認識範囲とが重畳された領域を含むことを特徴とする請求項12に記載の電子機器の制御方法。   The recognition range in which the user gesture is generated is divided into a recognition range for the planar interaction and a recognition range for the spatial interaction, and a recognition range for the planar interaction and a recognition range for the spatial interaction. The method for controlling an electronic device according to claim 12, further comprising a region where is superimposed. 前記電子機器を制御する制御する段階は、
前記平面インタラクション及び空間インタラクションのうちのいずれか1つのインタラクションを識別し、識別されたインタラクションに対応して前記電子機器を制御する段階を含むことを特徴とする請求項12に記載の電子機器の制御方法。
The step of controlling to control the electronic device includes:
13. The electronic device control according to claim 12, further comprising: identifying one of the planar interaction and the spatial interaction, and controlling the electronic device in response to the identified interaction. Method.
前記電子機器を制御する制御する段階は、
前記平面インタラクション及び空間インタラクションが一緒に発生すると、前記平面インタラクション及び空間インタラクションに対応して前記電子機器を制御する段階を含むことを特徴とする請求項12に記載の電子機器の制御方法。
The step of controlling to control the electronic device includes:
13. The method of controlling an electronic device according to claim 12, further comprising the step of controlling the electronic device corresponding to the planar interaction and the spatial interaction when the planar interaction and the spatial interaction occur together.
JP2012026923A 2012-02-10 2012-02-10 Electronic device using user interaction and method for controlling the same, and electronic device control system Withdrawn JP2013164701A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012026923A JP2013164701A (en) 2012-02-10 2012-02-10 Electronic device using user interaction and method for controlling the same, and electronic device control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012026923A JP2013164701A (en) 2012-02-10 2012-02-10 Electronic device using user interaction and method for controlling the same, and electronic device control system

Publications (1)

Publication Number Publication Date
JP2013164701A true JP2013164701A (en) 2013-08-22

Family

ID=49176020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012026923A Withdrawn JP2013164701A (en) 2012-02-10 2012-02-10 Electronic device using user interaction and method for controlling the same, and electronic device control system

Country Status (1)

Country Link
JP (1) JP2013164701A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177315A (en) * 2019-04-16 2020-10-29 アルパイン株式会社 Electronics device
WO2023038195A1 (en) * 2021-09-12 2023-03-16 주식회사 콕스스페이스 Method and apparatus for user-defined gesture profile generation and gesture recognition, based on repeated motion of user

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177315A (en) * 2019-04-16 2020-10-29 アルパイン株式会社 Electronics device
WO2023038195A1 (en) * 2021-09-12 2023-03-16 주식회사 콕스스페이스 Method and apparatus for user-defined gesture profile generation and gesture recognition, based on repeated motion of user

Similar Documents

Publication Publication Date Title
AU2010277931B2 (en) Method and apparatus for controlling electronic device using user interaction
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
CN108139778B (en) Portable device and screen display method of portable device
CN105229582B (en) Gesture detection based on proximity sensor and image sensor
US20180292907A1 (en) Gesture control system and method for smart home
US9582173B1 (en) Navigation control for an electronic device
US9990062B2 (en) Apparatus and method for proximity based input
KR101847754B1 (en) Apparatus and method for proximity based input
KR101247991B1 (en) Camera gestures for user interface control
US9448714B2 (en) Touch and non touch based interaction of a user with a device
US20140375587A1 (en) Method of controlling virtual object or view point on two dimensional interactive display
US10928948B2 (en) User terminal apparatus and control method thereof
KR20170124933A (en) Display apparatus and method for controlling the same and computer-readable recording medium
KR20070006477A (en) Method for arranging contents menu variably and display device using the same
US11501505B2 (en) Traversing photo-augmented information through depth using gesture and UI controlled occlusion planes
JP2013539580A (en) Method and apparatus for motion control on device
JP2010176332A (en) Information processing apparatus, information processing method, and program
CN104137045A (en) User gesture recognition
KR20130099186A (en) Display device, user interface method, and program
JP2013541110A (en) Gesture-based input scaling
JP2015210684A (en) Input controller, control method and control program
JP2013164701A (en) Electronic device using user interaction and method for controlling the same, and electronic device control system
KR101898952B1 (en) Operation Method And System For a plurality of touch panel, and Portable Device supporting the same
JP5998700B2 (en) Information equipment
US9830897B2 (en) Electronic device and method for outputting sounds

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20141107