JP2011209773A - Apparatus and method for processing of gesture command, and program - Google Patents

Apparatus and method for processing of gesture command, and program Download PDF

Info

Publication number
JP2011209773A
JP2011209773A JP2010073816A JP2010073816A JP2011209773A JP 2011209773 A JP2011209773 A JP 2011209773A JP 2010073816 A JP2010073816 A JP 2010073816A JP 2010073816 A JP2010073816 A JP 2010073816A JP 2011209773 A JP2011209773 A JP 2011209773A
Authority
JP
Japan
Prior art keywords
gesture
command
input
new
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010073816A
Other languages
Japanese (ja)
Inventor
Shigeyuki Matsumoto
茂之 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010073816A priority Critical patent/JP2011209773A/en
Publication of JP2011209773A publication Critical patent/JP2011209773A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To allocate a new command to a new gesture and to make the command be stored, even when the new gesture not stored associatively to a command is input.SOLUTION: A gesture command processing apparatus 200 includes: a gesture command memory 210 for associating and storing a gesture and a command executed by the gesture; an input gesture specification part 220 for specifying a gesture input by a user; a command execution part 230 for reading the command corresponding to the input gesture from the gesture command memory 210 and executing the command; a new gesture memory 240 for storing input information of the new gesture associatively to the new gesture when the input gesture is the new gesture not stored in the gesture command memory 210; and a gesture command allocation part 250 for making the command be stored in the gesture command memory 210 associatively to the new gesture wherein the input information satisfies a prescribed command allocation condition.

Description

本発明は、ジェスチャ・コマンド処理装置、ジェスチャ・コマンド処理方法、およびプログラムに関し、特に、ユーザーの体の一部または専用の指示媒体を用いてジェスチャ入力を行うことにより、操作対象機器に対して当該ジェスチャ入力に対応して割り当てられるコマンドを実行することのできるジェスチャ・コマンド処理装置、ジェスチャ・コマンド処理方法、およびプログラムに関する。   The present invention relates to a gesture / command processing device, a gesture / command processing method, and a program, and in particular, by performing gesture input using a part of a user's body or a dedicated instruction medium, The present invention relates to a gesture command processing apparatus, a gesture command processing method, and a program capable of executing a command assigned corresponding to a gesture input.

従来、コンピューターやテレビ・オーディオなどの電子機器に対して所定の操作コマンドを実行するためのユーザーインターフェイスとしては、マウスやキーボードあるいはリモートコントローラーを用いた操作入力が一般的であるが、近年、ユーザーインターフェイスの新しい方法として、予めコマンドに対応付けて登録しておいたジェスチャをペンやマウスなどを用いて行うことにより、対応するコマンドを実行させるジェスチャ認識システムが知られている(例えば特許文献1参照)。   Conventionally, as a user interface for executing a predetermined operation command for an electronic device such as a computer, a television, and an audio, an operation input using a mouse, a keyboard, or a remote controller is generally used. As a new method, there is known a gesture recognition system that executes a corresponding command by performing a gesture registered in advance in association with a command using a pen, a mouse, or the like (see, for example, Patent Document 1). .

特開2003−233452号公報JP 2003233345 A 特開2008−282092号公報JP 2008-282092 A

ところで、このようなシステムは、複数のユーザーで使用する場合や使用頻度が低い場合に、登録されているジェスチャとコマンドの対応関係が分からなくなることが課題であった。これに対し、例えば特許文献2に記載のように、ジェスチャとコマンドの対応関係の一覧を表示する方法が知られている。   By the way, when such a system is used by a plurality of users or when the frequency of use is low, it has been a problem that the correspondence relationship between a registered gesture and a command cannot be understood. On the other hand, for example, as disclosed in Patent Document 2, a method of displaying a list of correspondence relationships between gestures and commands is known.

このような方法では、システムに登録されているジェスチャとコマンドをユーザーに知らせることはできるが、当該ユーザーは、登録されているジェスチャを覚えなければならず、自分にとって分かり易いあるいは簡単なジェスチャを新規に登録したり、既登録のジェスチャに置き換えて登録するようなジェスチャ−コマンド対応関係の追加・変更が難しかった。   In such a method, the user can be notified of the gestures and commands registered in the system, but the user must remember the registered gestures, and can create new gestures that are easy to understand or simple for him / her. It was difficult to add or change the gesture-command correspondence relationship such as registering to a previously registered gesture or replacing it with a registered gesture.

上記課題を解決することを目的とし、本発明は、ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶するジェスチャ・コマンド記憶部と、ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、入力される前記ジェスチャに対応する前記コマンドを前記ジェスチャ・コマンド記憶部から読み出して実行するコマンド実行部と、入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、を備えることを特徴とするジェスチャ・コマンド処理装置を提供する。   In order to solve the above-described problems, the present invention provides a gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other, and an input gesture specifying unit that specifies a gesture input by a user. A command execution unit that reads and executes the command corresponding to the input gesture from the gesture command storage unit, and the input gesture is a new gesture that is not stored in the gesture command storage unit The new gesture storage unit that stores the input information of the new gesture in association with the new gesture, and the command associated with the new gesture in which the input information satisfies a predetermined command allocation condition. Store in the gesture command storage unit Providing a gesture command processing apparatus characterized by comprising: a Esucha command allocation unit.

このようなジェスチャ・コマンド処理装置によれば、コマンドに対応付けて記憶されていない新規なジェスチャが入力された場合でも、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。   According to such a gesture command processing apparatus, even when a new gesture that is not stored in association with a command is input, a new command can be assigned to the gesture and stored.

また、上記ジェスチャ・コマンド処理装置において、前記新規ジェスチャ記憶部は、前記新規ジェスチャの累積入力回数を前記入力情報として前記新規ジェスチャに対応付けて記憶し、前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記累積入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることが好ましい。   In the gesture command processing apparatus, the new gesture storage unit stores the cumulative input count of the new gesture as the input information in association with the new gesture, and the gesture command allocation unit stores the new gesture. It is preferable that the command is associated with the new gesture and stored in the gesture command storage unit in response to the cumulative number of times of reaching the predetermined number.

これにより、例えばユーザーが自分にとって分かり易いあるいは簡単なジェスチャを所定回数入力することで、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。   Accordingly, for example, when a user inputs a gesture that is easy to understand or simple for the user a predetermined number of times, a new command can be assigned to the gesture and stored.

また、上記ジェスチャ・コマンド処理装置において、前記新規ジェスチャ記憶部は、前記新規ジェスチャの連続入力回数を前記入力情報として前記新規ジェスチャに対応付けて記憶し、前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記連続入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることが好ましい。   In the gesture / command processing device, the new gesture storage unit stores the number of continuous inputs of the new gesture as the input information in association with the new gesture, and the gesture / command allocation unit stores the new gesture. It is preferable that the command is associated with the new gesture and stored in the gesture command storage unit when the number of continuous inputs reaches a predetermined number.

これにより、例えばユーザーが自分にとって分かり易いあるいは簡単なジェスチャを連続で所定回数入力することで、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。   As a result, for example, when the user inputs a gesture that is easy to understand or is easy to understand for a predetermined number of times in succession, a new command can be assigned to the gesture and stored.

また、上記ジェスチャ・コマンド処理装置は、いずれの前記ジェスチャにも対応付けられていない未登録の前記コマンドを記憶する未登録コマンド記憶部を更に備え、前記ジェスチャ・コマンド割当部は、前記コマンド割当条件を満たした前記新規ジェスチャに対して、未登録の前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることが好ましい。   The gesture command processing device further includes an unregistered command storage unit that stores the unregistered command that is not associated with any of the gestures, and the gesture command allocation unit includes the command allocation condition It is preferable that the unregistered command is associated with the new gesture satisfying the above and stored in the gesture command storage unit.

これにより、予め設定されたコマンド割当条件を満たして入力された新規なジェスチャに対して、ジェスチャが割り当てられていないコマンドを割り当てて記憶させることができる。   As a result, a command to which no gesture is assigned can be assigned and stored for a new gesture that is input while satisfying a preset command assignment condition.

また、上記ジェスチャ・コマンド処理装置において、前記ジェスチャ・コマンド割当部は、入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されている前記ジェスチャである場合に、当該ジェスチャとともに所定の前記コマンド変更要求が入力されたことに応じて、当該ジェスチャと対応付けて前記ジェスチャ・コマンド記憶部に記憶されている前記コマンドを他の前記コマンドに変更することが好ましい。   In the gesture command processing device, the gesture command assigning unit may change the predetermined command together with the gesture when the input gesture is the gesture stored in the gesture command storage unit. It is preferable that the command stored in the gesture command storage unit in association with the gesture is changed to another command in response to the input of the request.

これにより、すでにコマンドが割り当てられているジェスチャであっても、所定のコマンド変更要求が入力されたことを条件として、当該ジェスチャに対応付けられているコマンドを変更することができる。   As a result, even if a gesture is already assigned to a command, the command associated with the gesture can be changed on condition that a predetermined command change request is input.

また、本発明は、他の形態として、ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶し、ユーザーにより入力されるジェスチャを特定し、入力される前記ジェスチャに対応する前記コマンドを実行し、入力される前記ジェスチャが記憶していない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶し、前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて記憶することを特徴とするジェスチャ・コマンド処理方法を提供する。   As another embodiment, the present invention stores a gesture and a command executed by the gesture in association with each other, specifies a gesture input by a user, and executes the command corresponding to the input gesture When the input gesture is a new gesture that is not stored, the input information of the new gesture is stored in association with the new gesture, and the input information satisfies the predetermined command allocation condition. Provided is a gesture command processing method characterized in that the command is stored in association with a gesture.

また、本発明は、さらに他の形態として、コンピューターを、
ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶するジェスチャ・コマンド記憶部と、ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、入力される前記ジェスチャに対応する前記コマンドを前記ジェスチャ・コマンド記憶部から読み出して実行するコマンド実行部と、入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、を備えることを特徴とするジェスチャ・コマンド処理装置として機能させるプログラムを提供する。
In addition, the present invention, as yet another form,
A gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other, an input gesture specifying unit that specifies a gesture input by a user, and the command corresponding to the gesture input A command execution unit that reads out and executes from a gesture command storage unit, and if the input gesture is a new gesture that is not stored in the gesture command storage unit, input information of the new gesture to the new gesture A new gesture storage unit that stores the associated command, and a gesture command allocation unit that stores the command in the gesture command storage unit in association with the new gesture in which the input information satisfies a predetermined command allocation condition And having Providing a program to function as a gesture command processing apparatus according to symptoms.

本発明の実施形態に係るジェスチャ入力システム10の機能ブロック図である。It is a functional block diagram of gesture input system 10 concerning an embodiment of the present invention. ジェスチャ入力装置100の機能ブロック図である。3 is a functional block diagram of the gesture input device 100. FIG. 撮像データの一例を示す。An example of imaging data is shown. 図3の撮像データにおけるユーザーの手が存在する領域から特定される当該領域の重心位置の移動方向・移動速度をベクトルで示した例である。It is the example which showed the moving direction and moving speed of the gravity center position of the said area | region specified from the area | region where the user's hand exists in the imaging data of FIG. 3 with the vector. ジェスチャ・コマンド処理装置200の機能ブロック図である。3 is a functional block diagram of a gesture command processing device 200. FIG. ユーザーによりジェスチャが入力されたときのジェスチャ入力装置100における処理フローの一例を示す。An example of a processing flow in the gesture input device 100 when a gesture is input by the user is shown. ユーザーによりジェスチャが入力されたときのジェスチャ・コマンド処理装置200における処理フローの一例を示す。An example of the processing flow in the gesture command processing apparatus 200 when a gesture is input by the user is shown. 表示装置300の表示画面に表示される候補コマンド一覧の一例である。6 is an example of a list of candidate commands displayed on the display screen of the display device 300. コンピューター1000のハードウェア構成の一例を示す。2 shows an exemplary hardware configuration of a computer 1000.

以下、添付図面に基づいて本発明の一実施形態について説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また、実施形態における特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. However, the following embodiment does not limit the invention according to the claims, and all combinations of features in the embodiment are based on the invention. It is not always essential to the solution.

図1は、本発明の実施形態に係るジェスチャ入力システム10の機能ブロック図である。本実施形態のジェスチャ入力システム10は、図1に示すように、ジェスチャ入力装置100、ジェスチャ・コマンド処理装置200、表示装置300、および操作対象機器400で構成され、ジェスチャ入力装置100を通じてユーザーが予め登録されているジェスチャを入力すると、ジェスチャ・コマンド処理装置200において入力されたジェスチャに対応するコマンドが実行されて、例えばテレビ、ゲーム機、あるいはオーディオ装置などの操作対象機器400に対して当該コマンドの内容に応じた操作を行うことができるシステムである。   FIG. 1 is a functional block diagram of a gesture input system 10 according to an embodiment of the present invention. As shown in FIG. 1, the gesture input system 10 according to the present embodiment includes a gesture input device 100, a gesture command processing device 200, a display device 300, and an operation target device 400. When a registered gesture is input, a command corresponding to the gesture input by the gesture command processing device 200 is executed, and the command is transmitted to the operation target device 400 such as a television, a game machine, or an audio device. It is a system that can perform operations according to the contents.

図2は、ジェスチャ入力システム10を構成するジェスチャ入力装置100の機能ブロック図である。ジェスチャ入力装置100は、本例では動画を撮影可能なカメラであり、図2に示すように、撮像部110、撮像データ処理部120、記憶部130、および制御部140を備える。   FIG. 2 is a functional block diagram of the gesture input device 100 constituting the gesture input system 10. In this example, the gesture input device 100 is a camera capable of shooting a moving image, and includes an imaging unit 110, an imaging data processing unit 120, a storage unit 130, and a control unit 140, as shown in FIG.

なお、ジェスチャ入力装置100は、例えばジェスチャ・コマンド処理装置200に無線または有線により接続されたマウスやペンデバイスであってもよく、この場合は、ユーザーはマウスやペンデバイスを動かすことでジェスチャ・コマンド処理装置200に対してジェスチャを入力する。また、これに替えて、ジェスチャ入力装置100は、表示装置300がLCDなどの表示画面を有するデバイスである場合は、当該表示画面上に設けられたタッチパネルなどであってもよい。この場合は、ユーザーは例えば表示画面を指でなぞることでジェスチャ・コマンド処理装置200に対してジェスチャを入力する。   The gesture input device 100 may be, for example, a mouse or a pen device connected to the gesture command processing device 200 wirelessly or by wire. In this case, the user moves the gesture command by moving the mouse or the pen device. A gesture is input to the processing device 200. Alternatively, if the display device 300 is a device having a display screen such as an LCD, the gesture input device 100 may be a touch panel provided on the display screen. In this case, the user inputs a gesture to the gesture command processing apparatus 200 by, for example, tracing the display screen with a finger.

撮像部110は、光学レンズなどの光学系およびイメージセンサーを有し、撮像範囲内の動画あるいは静止画の撮像信号を撮像データ処理部120に出力する。イメージセンサーには、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子アレイが用いられる。   The imaging unit 110 includes an optical system such as an optical lens and an image sensor, and outputs an imaging signal of a moving image or a still image within the imaging range to the imaging data processing unit 120. An image sensor array such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used for the image sensor.

撮像データ処理部120は、信号増幅回路、ノイズ補正回路、および各種の信号処理回路を有し、撮像部110からの撮像信号から所定のフレームレートで撮像データを生成する。また、撮像データ処理部120は、生成した撮像データからユーザーの顔検出処理および顔向き判定処理を実行する。具体的には、撮像データ処理部120は、例えば、生成した撮像データから肌色領域を抽出して当該領域の形状を特定し、その形状と予め記憶されたパターンデータとの比較演算を行うことにより、撮像データにユーザーの顔が存在するか否かを判別する。   The imaging data processing unit 120 includes a signal amplification circuit, a noise correction circuit, and various signal processing circuits, and generates imaging data at a predetermined frame rate from the imaging signal from the imaging unit 110. In addition, the imaging data processing unit 120 executes user face detection processing and face orientation determination processing from the generated imaging data. Specifically, for example, the imaging data processing unit 120 extracts a skin color region from the generated imaging data, specifies the shape of the region, and performs a comparison operation between the shape and pattern data stored in advance. Then, it is determined whether or not the user's face exists in the imaging data.

そして、撮像データ処理部120は、ユーザーの顔が検出された場合、その顔領域内の特徴点を抽出して上記パターンデータに対応付けて記憶された特徴点との比較演算を行うことにより、ユーザーの顔の向きを検出する。そして、撮像データ処理部120は、ユーザーの顔が撮像部110側(正面)を一定時間以上向いていることが検出された場合、ユーザーの手の位置およびその動きを検出する。   Then, when the user's face is detected, the imaging data processing unit 120 extracts a feature point in the face area and performs a comparison operation with the feature point stored in association with the pattern data, Detect the user's face orientation. Then, when it is detected that the user's face is facing the imaging unit 110 side (front) for a predetermined time or longer, the imaging data processing unit 120 detects the position and movement of the user's hand.

例えば、撮像データ処理部120は、撮像データから抽出した肌色領域におけるユーザーの顔以外の領域の形状を特定し、その形状と予め記憶されたパターンデータとの比較演算を行うことにより、撮像データからユーザーの手が存在する領域を検出する。より具体的には、撮像データ処理部120は、例えば生成した撮像データが図3に示すようなものである場合、当該撮像データから抽出される肌色領域のうち、形状特徴などからユーザーの手が存在する領域として、図3に「H1」および「H2」で示す領域を特定する。   For example, the imaging data processing unit 120 specifies the shape of an area other than the user's face in the skin color area extracted from the imaging data, and performs comparison operation between the shape and pre-stored pattern data, thereby obtaining the imaging data. Detect areas where the user's hands are present. More specifically, when the generated imaging data is as shown in FIG. 3, for example, the imaging data processing unit 120 determines that the user's hand is based on the shape characteristics of the skin color area extracted from the imaging data. As the existing areas, the areas indicated by “H1” and “H2” in FIG. 3 are specified.

図4は、図3の撮像データにおけるユーザーの手が存在する領域から特定される当該領域の重心位置の移動方向・移動速度をベクトルで示した例である。撮像データ処理部120は、図3に示す撮像データから特定した上記「H1」および「H2」で示す領域の特徴量を抽出する。本例では、撮像データ処理部120は、図4に示すように、「H1」および「H2」の各領域の長手方向の長さと重心位置を特定するとともに、直前フレームの撮像データからの重心位置の移動距離を特定する。これにより、上記各領域の重心位置の移動方向および移動速度が特定される(図4では「H1」および「H2」の各領域の移動方向および移動速度をベクトル「V1」および「V2」で示している)。   FIG. 4 is an example in which the moving direction and moving speed of the centroid position of the area identified from the area where the user's hand exists in the imaging data of FIG. 3 are shown by vectors. The imaging data processing unit 120 extracts the feature amounts of the areas indicated by the above “H1” and “H2” specified from the imaging data shown in FIG. In this example, as shown in FIG. 4, the imaging data processing unit 120 specifies the length in the longitudinal direction and the gravity center position of each area of “H1” and “H2”, and the gravity center position from the imaging data of the immediately preceding frame. Specify the travel distance. Thereby, the moving direction and moving speed of the center of gravity of each area are specified (in FIG. 4, the moving direction and moving speed of each area of “H1” and “H2” are indicated by vectors “V1” and “V2”. ing).

そして、撮像データ処理部120は、上記各領域の重心位置とその移動方向および移動速度をユーザーの手の位置と移動方向および移動速度、すなわちジェスチャの特徴量として記憶部130へと出力する。なお、撮像データ処理部120は、ジェスチャの特徴量を、生成した撮像データの一または複数のフレームに対応付けて記憶部130へと出力してもよい。また、撮像データ処理部120による上記特徴量の特定は、例えばジェスチャ・コマンド処理装置200における後述の入力ジェスチャ特定部220が行ってもよい。   Then, the imaging data processing unit 120 outputs the gravity center position, the moving direction, and the moving speed of each region to the storage unit 130 as the position, moving direction, and moving speed of the user's hand, that is, the feature amount of the gesture. Note that the imaging data processing unit 120 may output the feature amount of the gesture to the storage unit 130 in association with one or a plurality of frames of the generated imaging data. Further, the above-described feature amount specification by the imaging data processing unit 120 may be performed by, for example, an input gesture specifying unit 220 described later in the gesture command processing device 200.

制御部140は、ジェスチャ入力装置100の各部の動作状況や設定情報を検出して当該各部を制御する。例えば、制御部140は、撮像データ処理部120による上記の各検出結果に基づいて、撮像データ処理部120で生成された撮像データおよび上記特徴量を記憶部130に記憶させるか否かを制御する。   The control unit 140 detects the operation status and setting information of each unit of the gesture input device 100 and controls each unit. For example, the control unit 140 controls whether to store the imaging data generated by the imaging data processing unit 120 and the feature amount in the storage unit 130 based on each detection result by the imaging data processing unit 120. .

例えば、制御部140は、予め設定された条件に基づいて、撮像データの記憶を開始すべき旨のキャプチャ命令を記憶部130へ出力する。本例では、制御部140は、ユーザーの顔が正面を向いていることを撮像データ処理部120が検出したことを条件として、キャプチャ命令を記憶部130へ出力する。なお、制御部140がキャプチャ命令を出力するための条件はこれに限られず、例えばキャプチャを開始すべき旨のジェスチャを予め設定しておき、ユーザーが当該ジェスチャを行ったことを撮像データ処理部120が検出したことを条件としても良い。   For example, the control unit 140 outputs, to the storage unit 130, a capture command indicating that storage of imaging data should be started based on a preset condition. In this example, the control unit 140 outputs a capture command to the storage unit 130 on the condition that the imaging data processing unit 120 detects that the user's face is facing the front. Note that the condition for the control unit 140 to output the capture command is not limited to this. For example, a gesture to start capturing is set in advance, and the imaging data processing unit 120 indicates that the user has performed the gesture. It is good also as a condition that it detected.

そして、制御部140は、予め設定された条件に基づいて、撮像データの記憶を停止すべき旨のキャプチャ停止命令を記憶部130へ出力する。本例では、制御部140は、ユーザーの顔が正面を向かなくなった、または、ユーザーの顔や手が撮像部110の撮像範囲外に出たことを撮像データ処理部120が検出したことを条件として、キャプチャ停止命令を記憶部130へ出力する。また、これに替えて、制御部140は、ユーザーの手の重心位置が所定の領域内に一定時間留まっていること、または記憶部130にキャプチャ命令を出力してから一定時間が経過したことを上記条件としてキャプチャ停止命令を記憶部130へ出力してもよい。   Then, the control unit 140 outputs a capture stop command indicating that the storage of the imaging data should be stopped to the storage unit 130 based on a preset condition. In this example, the control unit 140 detects that the imaging data processing unit 120 has detected that the user's face has stopped facing the front or that the user's face or hand has gone out of the imaging range of the imaging unit 110. As a condition, a capture stop command is output to the storage unit 130. Alternatively, the control unit 140 confirms that the gravity center position of the user's hand remains within a predetermined area for a certain period of time, or that a certain period of time has elapsed since the capture command was output to the storage unit 130. A capture stop instruction may be output to the storage unit 130 as the above condition.

記憶部130は、撮像データ処理部120から入力される撮像データおよび上記特徴量を記憶する。本例では、記憶部130は、撮像データ処理部120からの撮像データをフレーム単位で記憶する。そして、記憶部130は、ジェスチャ・コマンド処理装置200からのアクセスに応じて、記憶している撮像データおよび上記特徴量をジェスチャ・コマンド処理装置200へと出力する。本例では、記憶部130は、制御部140からのキャプチャ命令を受け付けたことに応じて、撮像データ処理部120から入力される撮像データおよび上記特徴量の記憶を開始し、制御部140からのキャプチャ停止命令を受け付けたことに応じて、撮像データおよび上記特徴量の記憶を終了する。この記憶部130には、例えばフラッシュメモリーなどの記憶素子やハードディスクなどの記憶媒体が用いられる。   The storage unit 130 stores the imaging data input from the imaging data processing unit 120 and the feature amount. In this example, the storage unit 130 stores the imaging data from the imaging data processing unit 120 in units of frames. Then, the storage unit 130 outputs the stored imaging data and the feature amount to the gesture command processing device 200 in response to the access from the gesture command processing device 200. In this example, in response to receiving the capture command from the control unit 140, the storage unit 130 starts storing the imaging data input from the imaging data processing unit 120 and the feature amount. In response to receiving the capture stop command, the storage of the imaging data and the feature amount is ended. For the storage unit 130, for example, a storage element such as a flash memory or a storage medium such as a hard disk is used.

図5は、ジェスチャ・コマンド処理装置200の機能ブロック図である。ジェスチャ・コマンド処理装置200は、図2に示すように、ジェスチャ・コマンド記憶部210、入力ジェスチャ特定部220、コマンド実行部230、新規ジェスチャ記憶部240、ジェスチャ・コマンド割当部250、設定条件記憶部260、および未登録コマンド記憶部270を備える。   FIG. 5 is a functional block diagram of the gesture / command processing apparatus 200. As shown in FIG. 2, the gesture command processing device 200 includes a gesture command storage unit 210, an input gesture specifying unit 220, a command execution unit 230, a new gesture storage unit 240, a gesture command allocation unit 250, and a setting condition storage unit. 260 and an unregistered command storage unit 270.

ジェスチャ・コマンド記憶部210は、ジェスチャと当該ジェスチャにより実行されるべきコマンドとを対応付けて記憶する。例えば、ジェスチャ・コマンド記憶部210は、「右手(左手)で丸を描く」というジェスチャと「操作対象機器400の電源を入れる」とのコマンド(操作コマンド)とを対応付けて記憶する。なお、ここでいうコマンドは、操作対象機器400に対する特定の操作を指すものである。   The gesture command storage unit 210 stores a gesture and a command to be executed by the gesture in association with each other. For example, the gesture command storage unit 210 stores a gesture “draw a circle with the right hand (left hand)” and a command (operation command) “turn on the operation target device 400” in association with each other. The command here indicates a specific operation on the operation target device 400.

入力ジェスチャ特定部220は、ジェスチャ入力装置100を通じてユーザーにより入力されるジェスチャを特定する。より具体的には、入力ジェスチャ特定部220は、ジェスチャ入力装置100の記憶部130にアクセスして記憶部130に記憶された撮像データおよび上記特徴量を取り込む。そして、入力ジェスチャ特定部220は、撮像データをおよび上記特徴量に基づいて、ユーザーにより入力されるジェスチャを特定する。   The input gesture specifying unit 220 specifies a gesture input by the user through the gesture input device 100. More specifically, the input gesture specifying unit 220 accesses the storage unit 130 of the gesture input device 100 and captures the imaging data and the feature amount stored in the storage unit 130. Then, the input gesture specifying unit 220 specifies a gesture input by the user based on the imaging data and the feature amount.

そして、入力ジェスチャ特定部220は、ジェスチャ・コマンド記憶部210にアクセスして特定されたジェスチャに対応するコマンドを読み出して当該コマンドをコマンド実行部230へと出力する。より具体的には、入力ジェスチャ特定部220は、例えば、ユーザーが行ったジェスチャが「右手(左手)で丸を描く」ジェスチャであると特定された場合、当該ジェスチャに対応する「操作対象機器400の電源を入れる」とのコマンドをジェスチャ・コマンド記憶部210から読み出して当該コマンドをコマンド実行部230へと出力する。   Then, the input gesture specifying unit 220 accesses the gesture / command storage unit 210 to read a command corresponding to the specified gesture and outputs the command to the command execution unit 230. More specifically, for example, when the gesture performed by the user is identified as a “draw a circle with the right hand (left hand)” gesture, the input gesture identification unit 220 identifies “the operation target device 400 corresponding to the gesture”. Is read from the gesture command storage unit 210 and the command is output to the command execution unit 230.

なお、入力ジェスチャ特定部220による上記ジェスチャの特定方法は特に限定されないが、例えば、入力ジェスチャ特定部220は、ジェスチャ・コマンド記憶部210にアクセスして、コマンドと対応して記憶されている全てのジェスチャを読み出し、その特徴量と入力されたジェスチャの特徴量との類似度を算出し、当該類似度が最も高いジェスチャをユーザーが行ったジェスチャとしてもよい。   The gesture specifying method by the input gesture specifying unit 220 is not particularly limited. For example, the input gesture specifying unit 220 accesses the gesture command storage unit 210 and stores all of the gestures stored in correspondence with the command. It is also possible to read a gesture, calculate the similarity between the feature amount and the feature amount of the input gesture, and use the gesture with the highest similarity as the gesture performed by the user.

コマンド実行部230は、入力ジェスチャ特定部220において特定されたジェスチャに対応付けてジェスチャ・コマンド記憶部210に記憶されているコマンドを実行する。より具体的には、コマンド実行部230は、例えば、入力ジェスチャ特定部220から「操作対象機器400の電源を入れる」とのコマンドが入力された場合、操作対象機器400に対して電源をオンすべき旨の信号を出力する。   The command execution unit 230 executes a command stored in the gesture command storage unit 210 in association with the gesture specified by the input gesture specification unit 220. More specifically, for example, when the command “turn on the operation target device 400” is input from the input gesture identification unit 220, the command execution unit 230 turns on the operation target device 400. A power signal is output.

新規ジェスチャ記憶部240は、入力ジェスチャ特定部220に入力されるジェスチャがジェスチャ・コマンド記憶部210に記憶されていないジェスチャ(以下、「新規ジェスチャ」と称する)である場合に、当該新規ジェスチャの入力情報を記憶する。本例では、新規ジェスチャ記憶部240は、入力ジェスチャ特定部220に新規ジェスチャが入力される度に、その入力情報を当該新規ジェスチャに対応付けて記憶する。ここで、入力情報には、上記新規ジェスチャが入力されたタイミング(時間)、累積入力回数、連続入力回数、および最後に入力されてからの経過時間などが含まれる。   The new gesture storage unit 240 inputs the new gesture when the gesture input to the input gesture specifying unit 220 is a gesture that is not stored in the gesture command storage unit 210 (hereinafter referred to as “new gesture”). Store information. In this example, each time a new gesture is input to the input gesture specifying unit 220, the new gesture storage unit 240 stores the input information in association with the new gesture. Here, the input information includes the timing (time) at which the new gesture is input, the cumulative input count, the continuous input count, the elapsed time since the last input, and the like.

ジェスチャ・コマンド割当部250は、上記入力情報が所定のコマンド割当条件を満たした新規ジェスチャに対して、操作対象機器400に対する特定の操作などを行うためのコマンドを対応付けてジェスチャ・コマンド記憶部210に記憶させる。より具体的には、ジェスチャ・コマンド割当部250は、例えば新規ジェスチャの累積入力回数が予め設定した回数に達した場合、あるいは、新規ジェスチャの連続入力回数が予め設定した回数に達した場合に、上記コマンド割当条件を満たしたとして、当該新規ジェスチャに対して上記コマンドを対応付けてジェスチャ・コマンド記憶部210に記憶させる。   The gesture command allocation unit 250 associates a command for performing a specific operation on the operation target device 400 with a new gesture whose input information satisfies a predetermined command allocation condition, and performs a gesture command storage unit 210. Remember me. More specifically, the gesture / command allocation unit 250, for example, when the cumulative input count of new gestures reaches a preset count, or when the continuous input count of new gestures reaches a preset count, Assuming that the command allocation condition is satisfied, the command is associated with the new gesture and stored in the gesture command storage unit 210.

なお、本例では、上記コマンド割当条件は、設定条件記憶部260に記憶されている。したがって、ジェスチャ・コマンド割当部250は、新規ジェスチャ記憶部240に記憶されている各新規ジェスチャの入力情報のいずれかが更新されると、設定条件記憶部260に記憶された上記コマンド割当条件を読み出して更新された新規ジェスチャの入力情報と比較する。なお、設定条件記憶部260を、外部からの操作入力あるいは内部プログラムによって記憶内容を書換え可能な記憶素子で構成してもよい。   In the present example, the command assignment condition is stored in the setting condition storage unit 260. Therefore, when any of the input information of each new gesture stored in the new gesture storage unit 240 is updated, the gesture / command allocation unit 250 reads the command allocation condition stored in the setting condition storage unit 260. Compare with the updated input information of the new gesture. Note that the setting condition storage unit 260 may be configured by a storage element that can rewrite the stored content by an external operation input or an internal program.

未登録コマンド記憶部270は、いずれのジェスチャにも対応付けられていない未登録のコマンドを記憶する。例えば、未登録コマンド記憶部270は、ジェスチャ・コマンド記憶部210に記憶されていない全てのコマンドを記憶してもよいが、それら全てのコマンドのうち、ジェスチャの入力に応じて実行されるべきコマンドのみを記憶してもよい。   The unregistered command storage unit 270 stores an unregistered command that is not associated with any gesture. For example, the unregistered command storage unit 270 may store all commands that are not stored in the gesture command storage unit 210, but among these all commands, a command to be executed in response to a gesture input You may memorize only.

本例では、ジェスチャ・コマンド割当部250は、上記コマンド割当条件を満たした新規ジェスチャに対して、未登録の全てのコマンドを未登録コマンド記憶部270から読み出す。そして、未登録の全てのコマンドの一覧を表示装置300へと出力する。そして、表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、新規ジェスチャに対して選択されたコマンドを対応付けてジェスチャ・コマンド記憶部210に記憶させる。   In this example, the gesture / command allocation unit 250 reads all unregistered commands from the unregistered command storage unit 270 for new gestures that satisfy the command allocation conditions. Then, a list of all unregistered commands is output to the display device 300. When the user performs a gesture for selecting a specific command from the list of commands displayed on the display device 300, the gesture command allocation unit 250 associates the selected command with the new gesture and performs the gesture. Store in the command storage unit 210.

なお、新たにコマンドと対応付けてジェスチャ・コマンド記憶部210に記憶されたジェスチャを次にユーザーが行った場合は、そのコマンドがコマンド実行部230により実行される。   When the user next performs a gesture newly associated with a command and stored in the gesture command storage unit 210, the command is executed by the command execution unit 230.

また、ジェスチャ・コマンド割当部250は、ユーザーにより入力されるジェスチャが、ジェスチャ・コマンド記憶部210において既にいずれかのコマンドと対応付けて記憶されているジェスチャ(既登録ジェスチャ)である場合は、通常は、そのコマンドが実行される。しかしながら、既登録ジェスチャとともに所定のコマンド割当条件が入力されたことに応じて、当該ジェスチャと対応付けてジェスチャ・コマンド記憶部210に記憶されているコマンドを他のコマンドに変更する。   In addition, the gesture / command allocation unit 250 is usually configured when the gesture input by the user is a gesture (registered gesture) that is already stored in association with one of the commands in the gesture command storage unit 210. The command is executed. However, when a predetermined command allocation condition is input together with the already registered gesture, the command stored in the gesture command storage unit 210 in association with the gesture is changed to another command.

具体的には、本例では、特定のジェスチャを、続けて入力される既登録ジェスチャに割り当てられているコマンドを他のコマンドへ変更するための変更操作を開始すべき旨を示すコマンド変更ジェスチャとして予めジェスチャ・コマンド記憶部210に記憶させておく。そして、ジェスチャ・コマンド割当部250は、コマンド変更ジェスチャに続けて既登録ジェスチャが入力されたことに応じて、未登録の全てのコマンドを未登録コマンド記憶部270から読み出して、その一覧を表示装置300へと出力する。そして、表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、上記既登録ジェスチャに対応付けられていたコマンドを選択されたコマンドに変更してジェスチャ・コマンド記憶部210に記憶させる。なお、上記変更操作を開始するためのコマンド割当条件は、上記のコマンド変更ジェスチャの入力に限られず、他のインターフェイスによる特定のコマンド入力を、上記変更操作を開始するためのコマンド割当条件としてもよい。   Specifically, in this example, a specific gesture is used as a command change gesture indicating that a change operation to change a command assigned to a previously registered gesture to another command should be started. It is stored in advance in the gesture command storage unit 210. Then, the gesture / command allocation unit 250 reads all unregistered commands from the unregistered command storage unit 270 in response to the input of the already registered gesture following the command change gesture, and displays a list of the commands. Output to 300. Then, when the user performs a gesture for selecting a specific command from the list of commands displayed on the display device 300, the gesture / command allocation unit 250 selects the command associated with the registered gesture. The command is changed to a command and stored in the gesture command storage unit 210. The command assignment condition for starting the change operation is not limited to the input of the command change gesture, and a specific command input by another interface may be used as the command assignment condition for starting the change operation. .

以下において、本システムを用いてジェスチャ入力により操作対象機器400を操作する際の具体的なフローを説明する。図6は、ユーザーによりジェスチャが入力されたときのジェスチャ入力装置100における処理フローの一例を示す。本フローでは、まず、ジェスチャ入力装置100の撮像部110により動画の撮像を開始する(ステップS500)。   Below, the specific flow at the time of operating the operation target apparatus 400 by gesture input using this system is demonstrated. FIG. 6 shows an example of a processing flow in the gesture input device 100 when a gesture is input by the user. In this flow, first, imaging of a moving image is started by the imaging unit 110 of the gesture input device 100 (step S500).

そして、撮像データ処理部120において、撮像部110からの撮像信号に基づいて生成された撮像データからユーザーの顔検出処理および顔向き判定処理が行われる(ステップS505)。そして、ユーザーの顔が撮像部110側(正面)を向いていることが検出されると(ステップS510:YES)、記憶部130によって撮像データが記憶される(ステップS515)。また、このとき、撮像データ処理部120でジェスチャの特徴量が抽出されて撮像データとともに記憶部130に記憶される(ステップS520)。なお、上記顔検出処理および顔向き判定処理の結果、ユーザーの顔が正面を向いていない場合は(ステップS510:NO)、引き続き顔検出処理および顔向き判定処理が行われる(ステップS505)。   Then, in the imaging data processing unit 120, a user face detection process and a face orientation determination process are performed from the imaging data generated based on the imaging signal from the imaging unit 110 (step S505). When it is detected that the user's face is facing the imaging unit 110 side (front) (step S510: YES), the imaging data is stored in the storage unit 130 (step S515). At this time, the feature amount of the gesture is extracted by the imaging data processing unit 120 and stored in the storage unit 130 together with the imaging data (step S520). Note that, as a result of the face detection process and the face direction determination process, if the user's face is not facing front (step S510: NO), the face detection process and the face direction determination process are subsequently performed (step S505).

そして、記憶部130による撮像データおよびジェスチャの特徴量のキャプチャを停止すべきか否かが制御部140によって判定される(ステップS525)。本例では、ユーザーの手の重心位置が所定の領域内に一定時間留まっているか、または制御部140から記憶部130にキャプチャ命令が出力されてからの経過時間が予め設定した時間に達した場合に、記憶部130によるキャプチャを停止すべき条件が満たされたものと判定され(ステップS530:YES)、制御部140から記憶部130にキャプチャ停止命令が出力される。   Then, it is determined by the control unit 140 whether or not the capturing of the imaging data and the feature amount of the gesture by the storage unit 130 should be stopped (step S525). In this example, the gravity center position of the user's hand remains in a predetermined area for a certain period of time, or the elapsed time after the capture command is output from the control unit 140 to the storage unit 130 reaches a preset time Then, it is determined that the condition for stopping the capture by the storage unit 130 is satisfied (step S530: YES), and a capture stop command is output from the control unit 140 to the storage unit 130.

これにより、記憶部130による撮像データおよびジェスチャの特徴量のキャプチャが終了し(ステップS535)、当該撮像データおよびジェスチャの特徴量がジェスチャ・コマンド処理装置200へと出力される(ステップS540)。以上により、本フローは終了する。なお、上記の条件を満たしていない状態では(ステップS530:NO)、引き続き撮像データ処理部120でジェスチャの特徴量が抽出されて撮像データとともに記憶部130に記憶される(ステップS520)。   As a result, the capture of the image data and the feature amount of the gesture by the storage unit 130 ends (step S535), and the image data and the feature amount of the gesture are output to the gesture command processing device 200 (step S540). Thus, this flow ends. If the above conditions are not satisfied (step S530: NO), the feature value of the gesture is continuously extracted by the imaging data processing unit 120 and stored in the storage unit 130 together with the imaging data (step S520).

図7は、ユーザーによりジェスチャが入力されたときのジェスチャ・コマンド処理装置200における処理フローの一例を示す。本フローでは、まず、入力ジェスチャ特定部220によって、ユーザーがジェスチャを行った際の撮像データおよび当該ジェスチャの特徴量がジェスチャ入力装置100から取得される(ステップS600)。そして、入力ジェスチャ特定部220によって、既にコマンドが割当られてジェスチャ・コマンド記憶部210に記憶されているジェスチャが検索される(ステップS605)。ここでは、各ジェスチャの特徴量と入力されたジェスチャの特徴量とが比較される(ステップS610)。なお、ジェスチャの比較は、例えばDPマッチングが用いられる。また、ジェスチャ・コマンド記憶部210に記憶されているジェスチャのデータについてハッシュ値で索引付けを行うことで、ジェスチャの検索を高速化することができる。   FIG. 7 shows an example of a processing flow in the gesture command processing apparatus 200 when a gesture is input by the user. In this flow, first, the input gesture specifying unit 220 obtains image data and a feature amount of the gesture from the gesture input device 100 when the user performs a gesture (step S600). The input gesture specifying unit 220 searches for gestures that have already been assigned a command and stored in the gesture command storage unit 210 (step S605). Here, the feature amount of each gesture is compared with the feature amount of the input gesture (step S610). For example, DP matching is used for the gesture comparison. In addition, it is possible to speed up gesture search by indexing the gesture data stored in the gesture command storage unit 210 with a hash value.

そして、入力されたジェスチャと一致するジェスチャがあれば(ステップS610:YES)、既登録ジェスチャに割り当てられているコマンドを他のコマンドへ変更するための変更操作を開始すべき旨のコマンド割当条件(コマンド変更要求)が併せて入力されているか否かがジェスチャ・コマンド割当部250によって確認される(ステップS615)。   Then, if there is a gesture that matches the input gesture (step S610: YES), a command assignment condition that a change operation for changing a command assigned to the registered gesture to another command should be started ( Whether or not a command change request) is also input is confirmed by the gesture / command assignment unit 250 (step S615).

そして、既登録ジェスチャとともにコマンド変更要求が併せて入力されていれば(ステップS615:YES)、ジェスチャ・コマンド割当部250は、未登録の全てのコマンドを変更後に割り当てるべき候補コマンドとして、表示装置300の表示画面に表示させる(ステップS650)。   If a command change request is input together with the already registered gesture (step S615: YES), the gesture command allocating unit 250 displays all the unregistered commands as candidate commands to be allocated after the change, and the display device 300. Is displayed on the display screen (step S650).

図8は、表示装置300の表示画面に表示される候補コマンド一覧の一例である。図8に示すように、上記候補コマンドは、例えば、当該候補コマンドを選択するために行うべきジェスチャと対応させた一覧表として表示装置300の表示画面に表示される。図8に示す一覧において、例えば、候補コマンド「A」、「B」、「C」は、それぞれ、「電源を入れる」、「電源を切る」、「入力を切り替える」である。   FIG. 8 is an example of a list of candidate commands displayed on the display screen of the display device 300. As shown in FIG. 8, the candidate commands are displayed on the display screen of the display device 300 as a list corresponding to gestures to be performed to select the candidate commands, for example. In the list shown in FIG. 8, for example, candidate commands “A”, “B”, and “C” are “turn on power”, “turn off power”, and “switch input”, respectively.

表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、既登録ジェスチャに対応付けられていたコマンドを選択されたコマンドに変更してジェスチャ・コマンド記憶部210に記憶させる(ステップS655)。   When the user performs a gesture for selecting a specific command from the list of commands displayed on the display device 300, the gesture / command allocation unit 250 changes the command associated with the registered gesture to the selected command. The change is made and stored in the gesture command storage unit 210 (step S655).

これに対し、コマンド変更要求が併せて入力されていなければ(ステップS615:NO)、特定されたジェスチャに対応付けてジェスチャ・コマンド記憶部210に記憶されているコマンドがコマンド実行部230によって実行される(ステップS620)。   On the other hand, if the command change request is not input together (step S615: NO), the command execution unit 230 executes the command stored in the gesture command storage unit 210 in association with the specified gesture. (Step S620).

一方、上記ステップS610において、入力されたジェスチャと一致するジェスチャがなければ(ステップS610:NO)、入力ジェスチャ特定部220によって新規ジェスチャ記憶部240に入力情報とともに記憶されているジェスチャが検索される。すなわち、入力されたジェスチャが以前に入力されたことのあるジェスチャか否か判別される(ステップS625)。   On the other hand, in step S610, if there is no gesture that matches the input gesture (step S610: NO), the gesture stored together with the input information in the new gesture storage unit 240 is searched by the input gesture specifying unit 220. That is, it is determined whether or not the input gesture is a gesture that has been input before (step S625).

そして、入力されたジェスチャが新規ジェスチャ記憶部240に入力情報とともに記憶されているジェスチャであれば(ステップS625:YES)、当該入力情報が更新される(ステップS635)。そして、ジェスチャ・コマンド割当部250は、設定条件記憶部260に記憶されたコマンド割当条件を読み出し、上記ステップS635において更新された入力情報と比較する(ステップS640)。   If the input gesture is a gesture stored together with the input information in the new gesture storage unit 240 (step S625: YES), the input information is updated (step S635). Then, the gesture / command assignment unit 250 reads the command assignment condition stored in the setting condition storage unit 260 and compares it with the input information updated in step S635 (step S640).

そして、入力されたジェスチャに対応する入力情報がコマンド割当条件を満たせば(ステップS645:YES)、ジェスチャ・コマンド割当部250は、未登録の全てのコマンドを変更後に割り当てるべき候補コマンドとして、その一覧を表示装置300に表示させる(ステップS650)。そして、表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、既登録ジェスチャに対応付けられていたコマンドを選択されたコマンドに変更してジェスチャ・コマンド記憶部210に記憶させる(ステップS655)。   If the input information corresponding to the input gesture satisfies the command allocation condition (step S645: YES), the gesture command allocation unit 250 lists all the unregistered commands as candidate commands to be allocated after the change. Is displayed on the display device 300 (step S650). When the user performs a gesture for selecting a specific command from the list of commands displayed on the display device 300, the gesture / command allocation unit 250 selects the command associated with the registered gesture. The command is changed and stored in the gesture command storage unit 210 (step S655).

一方、上記ステップS625において、入力されたジェスチャが新規ジェスチャ記憶部240に記憶されていない新しいジェスチャであれば(ステップS625:NO)、新規ジェスチャ記憶部240は、当該ジェスチャの入力時間および入力回数などの入力情報を記憶する(ステップS630)。以上により本フローは終了する。   On the other hand, in step S625, if the input gesture is a new gesture that is not stored in the new gesture storage unit 240 (step S625: NO), the new gesture storage unit 240 determines the input time, the number of times of input, and the like. Is stored (step S630). This flow is completed by the above.

以上のように、本実施形態に係るジェスチャ入力システム10によれば、コマンドに対応付けて記憶されていない新規なジェスチャが入力された場合でも、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。また、新規なジェスチャに対してコマンドを割り当てる条件を設定することができるので、例えばユーザーが自分にとって分かり易いあるいは簡単なジェスチャを連続であるいは累積で所定回数入力することで、当該ジェスチャに新たにコマンドを割り当てて記憶させておくことができる。   As described above, according to the gesture input system 10 according to the present embodiment, even when a new gesture that is not stored in association with a command is input, a new command can be assigned to the gesture and stored. it can. In addition, since a condition for assigning a command to a new gesture can be set, for example, a user can input a new command to the gesture by inputting a predetermined number of continuous or simple gestures that are easy to understand for the user. Can be assigned and stored.

また、本システムによれば、新規に入力されたジェスチャに対してコマンドを割り当てるためのコマンド割当条件を設定しておくことで、当該コマンド割当条件を満たして入力された新規なジェスチャに対して、ジェスチャが割り当てられていないコマンドを割り当てて記憶させることができる。また、本システムによれば、すでにコマンドが割り当てられている既登録ジェスチャについても、既登録ジェスチャに割り当てられているコマンドを変更するためのコマンド変更要求として特定のジェスチャ入力などを設定しておくことにより、既登録ジェスチャに対応付けられているコマンドを変更することができる。   Further, according to the present system, by setting a command allocation condition for allocating a command to a newly input gesture, for a new gesture input satisfying the command allocation condition, Commands to which no gesture is assigned can be assigned and stored. In addition, according to the present system, for a registered gesture to which a command has already been assigned, a specific gesture input or the like is set as a command change request for changing the command assigned to the registered gesture. Thus, the command associated with the registered gesture can be changed.

また、本システムにおけるジェスチャ入力装置100のようにユーザーのジェスチャを撮像して特定する形態に替えて、例えば、加速度センサーやGPSセンサーを内蔵したコントローラーをジェスチャ入力装置100として備え、ユーザーがこれらのコントローラーを介してジェスチャを入力しても良い。また、ジェスチャ入力装置100は、ユーザーが入力したジェスチャの確認および修正などを行うことのできるコントローラーを含んでも良い。   Further, instead of a mode in which a user's gesture is imaged and specified as in the gesture input device 100 in the present system, for example, a controller incorporating an acceleration sensor or a GPS sensor is provided as the gesture input device 100, and the user inputs these controllers. A gesture may be input via. In addition, the gesture input device 100 may include a controller that can check and correct a gesture input by the user.

また、本システムにおけるジェスチャ入力装置100、ジェスチャ・コマンド処理装置200、および表示装置300は、一体の装置であっても良く、また、操作対象機器400に組み込まれても良い。   Further, the gesture input device 100, the gesture command processing device 200, and the display device 300 in this system may be an integrated device or may be incorporated in the operation target device 400.

図9は、コンピューター1000のハードウェア構成の一例を示す。コンピューター1000は、与えられるプログラムに基づいて、図1から図8を参照して説明したジェスチャ入力システム10のジェスチャ・コマンド処理装置200として機能する。例えば、コンピューター1000がジェスチャ・コマンド処理装置200として機能する場合、プログラムは、コンピューター1000を、ジェスチャ・コマンド処理装置200のジェスチャ・コマンド記憶部210、入力ジェスチャ特定部220、コマンド実行部230、新規ジェスチャ記憶部240、ジェスチャ・コマンド割当部250、設定条件記憶部260、および未登録コマンド記憶部270として機能させてよい。   FIG. 9 shows an exemplary hardware configuration of the computer 1000. The computer 1000 functions as the gesture command processing device 200 of the gesture input system 10 described with reference to FIGS. 1 to 8 based on a given program. For example, when the computer 1000 functions as the gesture command processing device 200, the program causes the computer 1000 to use the gesture command storage unit 210, the input gesture identification unit 220, the command execution unit 230, and the new gesture. The storage unit 240, the gesture / command allocation unit 250, the setting condition storage unit 260, and the unregistered command storage unit 270 may function.

コンピューター1000は、CPU周辺部、入出力部、およびレガシー入出力部を備える。CPU周辺部は、ホスト・コントローラー1082により相互に接続されるCPU1005、RAM1020、グラフィック・コントローラー1075、および表示装置1080を有する。入出力部は、入出力コントローラー1084によりホスト・コントローラー1082に接続される通信インターフェイス1030、ハードディスクドライブ1040、およびCD−ROMドライブ1060を有する。レガシー入出力部は、入出力コントローラー1084に接続されるROM1010、フレキシブルディスク・ドライブ1050、および入出力チップ1070を有する。   The computer 1000 includes a CPU peripheral unit, an input / output unit, and a legacy input / output unit. The CPU peripheral portion includes a CPU 1005, a RAM 1020, a graphic controller 1075, and a display device 1080 that are connected to each other by a host controller 1082. The input / output unit includes a communication interface 1030, a hard disk drive 1040, and a CD-ROM drive 1060 that are connected to the host controller 1082 by the input / output controller 1084. The legacy input / output unit includes a ROM 1010, a flexible disk drive 1050, and an input / output chip 1070 connected to the input / output controller 1084.

ホスト・コントローラー1082は、RAM1020と、高い転送レートでRAM1020をアクセスするCPU1005およびグラフィック・コントローラー1075とを接続する。CPU1005は、ROM1010およびRAM1020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラー1075は、CPU1005等がRAM1020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置1080上に表示させる。これに代えて、グラフィック・コントローラー1075は、CPU1005等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1082 connects the RAM 1020 to the CPU 1005 and the graphic controller 1075 that access the RAM 1020 at a high transfer rate. The CPU 1005 operates based on programs stored in the ROM 1010 and the RAM 1020 and controls each unit. The graphic controller 1075 acquires image data generated by the CPU 1005 or the like on a frame buffer provided in the RAM 1020 and displays the image data on the display device 1080. Instead of this, the graphic controller 1075 may include a frame buffer for storing image data generated by the CPU 1005 or the like.

入出力コントローラー1084は、ホスト・コントローラー1082と、比較的高速な入出力装置である通信インターフェイス1030、ハードディスクドライブ1040、CD−ROMドライブ1060を接続する。通信インターフェイス1030は、ネットワークを介してジェスチャ入力装置100、表示装置300、および操作対象機器400などと通信する。ハードディスクドライブ1040は、コンピューター1000内のCPU1005が使用するプログラムおよびデータを格納する。CD−ROMドライブ1060は、CD−ROM1095からプログラム又はデータを読み取り、RAM1020を介してハードディスクドライブ1040に提供する。   The input / output controller 1084 connects the host controller 1082 to the communication interface 1030, the hard disk drive 1040, and the CD-ROM drive 1060, which are relatively high-speed input / output devices. The communication interface 1030 communicates with the gesture input device 100, the display device 300, the operation target device 400, and the like via a network. The hard disk drive 1040 stores programs and data used by the CPU 1005 in the computer 1000. The CD-ROM drive 1060 reads a program or data from the CD-ROM 1095 and provides it to the hard disk drive 1040 via the RAM 1020.

また、入出力コントローラー1084には、ROM1010と、フレキシブルディスク・ドライブ1050、および入出力チップ1070の比較的低速な入出力装置とが接続される。ROM1010は、コンピューター1000が起動時に実行するブート・プログラムや、コンピューター1000のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1050は、フレキシブルディスク1090からプログラム又はデータを読み取り、RAM1020を介してハードディスクドライブ1040に提供する。入出力チップ1070は、フレキシブルディスク・ドライブ1050や、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して、ジェスチャ入力装置100、表示装置300、および操作対象機器400などの各種の入出力装置との間でデータの入出力を行う。   The input / output controller 1084 is connected to the ROM 1010, the flexible disk drive 1050, and the relatively low-speed input / output device of the input / output chip 1070. The ROM 1010 stores a boot program executed when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like. The flexible disk drive 1050 reads a program or data from the flexible disk 1090 and provides it to the hard disk drive 1040 via the RAM 1020. The input / output chip 1070 is a flexible disk drive 1050, such as a gesture input device 100, a display device 300, and an operation target device 400 via a parallel port, a serial port, a keyboard port, a mouse port, and the like. Input / output data to / from various input / output devices.

RAM1020を介してハードディスクドライブ1040に提供されるプログラムは、フレキシブルディスク1090、CD−ROM1095、又はICカード等の記録媒体に格納されてユーザーによって提供される。プログラムは、記録媒体から読み出され、RAM1020を介してコンピューター1000内のハードディスクドライブ1040にインストールされ、CPU1005において実行される。   A program provided to the hard disk drive 1040 via the RAM 1020 is stored in a recording medium such as the flexible disk 1090, the CD-ROM 1095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 1040 in the computer 1000 via the RAM 1020, and executed by the CPU 1005.

当該プログラムは、コンピューター1000にインストールされる。当該プログラムは、CPU1005等に働きかけて、コンピューター1000を、前述したジェスチャ・コマンド記憶部210、入力ジェスチャ特定部220、コマンド実行部230、新規ジェスチャ記憶部240、ジェスチャ・コマンド割当部250、設定条件記憶部260、および未登録コマンド記憶部270として機能させる。   The program is installed in the computer 1000. The program works on the CPU 1005 or the like to cause the computer 1000 to change the above-described gesture / command storage unit 210, input gesture identification unit 220, command execution unit 230, new gesture storage unit 240, gesture / command allocation unit 250, setting condition storage. Function as the unit 260 and the unregistered command storage unit 270.

以上に示したプログラムは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク1090、CD−ROM1095の他に、DVDやCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピューター1000に提供してもよい。   The program shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 1090 and the CD-ROM 1095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1000 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることができることは当業者に明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment.

10…ジェスチャ入力システム、100…ジェスチャ入力装置、110…撮像部、120…撮像データ処理部、130…記憶部、140…制御部、200…ジェスチャ・コマンド処理装置、210…ジェスチャ・コマンド記憶部、220…入力ジェスチャ特定部、230…コマンド実行部、240…新規ジェスチャ記憶部、250…ジェスチャ・コマンド割当部、260…設定条件記憶部、270…未登録コマンド記憶部、300…表示装置、400…操作対象機器、1000…コンピューター、1005…CPU、1010…ROM、1020…RAM、1030…通信インターフェイス、1040…ハードディスクドライブ、1050…フレキシブルディスク・ドライブ、1060…CD−ROMドライブ、1070…入出力チップ、1075…グラフィック・コントローラー、1080…表示装置、1082…ホスト・コントローラー、1084…入出力コントローラー、1090…フレキシブルディスク、1095…CD−ROM DESCRIPTION OF SYMBOLS 10 ... Gesture input system, 100 ... Gesture input device, 110 ... Imaging part, 120 ... Imaging data processing part, 130 ... Storage part, 140 ... Control part, 200 ... Gesture command processing apparatus, 210 ... Gesture command storage part, DESCRIPTION OF SYMBOLS 220 ... Input gesture specific | specification part, 230 ... Command execution part, 240 ... New gesture memory | storage part, 250 ... Gesture command allocation part, 260 ... Setting condition memory | storage part, 270 ... Unregistered command memory | storage part, 300 ... Display apparatus, 400 ... Operation target device, 1000 ... computer, 1005 ... CPU, 1010 ... ROM, 1020 ... RAM, 1030 ... communication interface, 1040 ... hard disk drive, 1050 ... flexible disk drive, 1060 ... CD-ROM drive, 1070 ... input / output chip, 1 75 ... graphics controller, 1080 ... display device, 1082 ... the host controller, 1084 ... input and output controller, 1090 ... flexible disk, 1095 ... CD-ROM

Claims (7)

ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶するジェスチャ・コマンド記憶部と、
ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、
入力される前記ジェスチャに対応付けて前記ジェスチャ・コマンド記憶部に記憶されている前記コマンドを実行するコマンド実行部と、
入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、
前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、
を備えることを特徴とするジェスチャ・コマンド処理装置。
A gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other;
An input gesture specifying unit for specifying a gesture input by the user;
A command execution unit that executes the command stored in the gesture command storage unit in association with the input gesture;
A new gesture storage unit that stores input information of the new gesture in association with the new gesture when the input gesture is a new gesture that is not stored in the gesture command storage unit;
A gesture command allocation unit that associates a command with the new gesture in which the input information satisfies a predetermined command allocation condition and stores the command in the gesture command storage unit;
A gesture command processing apparatus comprising:
前記新規ジェスチャ記憶部は、前記新規ジェスチャの累積入力回数を前記入力情報として前記新規ジェスチャに対応付けて記憶し、
前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記累積入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることを特徴とする請求項1に記載のジェスチャ・コマンド処理装置。
The new gesture storage unit stores the accumulated input count of the new gesture in association with the new gesture as the input information,
The gesture command allocating unit associates the command with the new gesture and stores the command in the gesture command storage unit in response to the cumulative input count of the new gesture reaching a predetermined number of times. The gesture command processing apparatus according to claim 1, characterized in that:
前記新規ジェスチャ記憶部は、前記新規ジェスチャの連続入力回数を前記入力情報として前記新規ジェスチャに対応付けて記憶し、
前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記連続入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることを特徴とする請求項1または2に記載のジェスチャ・コマンド処理装置。
The new gesture storage unit stores the number of continuous inputs of the new gesture in association with the new gesture as the input information,
The gesture command assigning unit associates the command with the new gesture and stores it in the gesture command storage unit in response to the number of continuous inputs of the new gesture reaching a predetermined number of times. The gesture command processing apparatus according to claim 1, wherein the gesture command processing apparatus is characterized.
いずれの前記ジェスチャにも対応付けられていない未登録の前記コマンドを記憶する未登録コマンド記憶部を更に備え、
前記ジェスチャ・コマンド割当部は、前記コマンド割当条件を満たした前記新規ジェスチャに対して、未登録の前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることを特徴とする請求項1から3のいずれか1項に記載のジェスチャ・コマンド処理装置。
An unregistered command storage unit that stores the unregistered command that is not associated with any of the gestures;
The gesture command allocation unit stores the unregistered command in the gesture command storage unit in association with the new gesture that satisfies the command allocation condition. The gesture command processing device according to any one of the above.
前記ジェスチャ・コマンド割当部は、
入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されている前記ジェスチャである場合に、当該ジェスチャとともに前記コマンド変更要求が入力されたことに応じて、当該ジェスチャと対応付けて前記ジェスチャ・コマンド記憶部に記憶されている前記コマンドを他の前記コマンドに変更することを特徴とする請求項1から4のいずれか1項に記載のジェスチャ・コマンド処理装置。
The gesture command allocation unit
When the input gesture is the gesture stored in the gesture command storage unit, the gesture command is associated with the gesture in response to the input of the command change request together with the gesture. 5. The gesture command processing apparatus according to claim 1, wherein the command stored in the storage unit is changed to another command. 6.
ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶し、
ユーザーにより入力されるジェスチャを特定し、
入力される前記ジェスチャに対応する前記コマンドを実行し、
入力される前記ジェスチャが記憶していない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶し、
前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて記憶することを特徴とするジェスチャ・コマンド処理方法。
Storing the gesture and the command executed by the gesture in association with each other;
Identify gestures entered by the user,
Execute the command corresponding to the input gesture,
When the input gesture is a new gesture that is not stored, the input information of the new gesture is stored in association with the new gesture,
A gesture command processing method characterized by storing the command in association with the new gesture in which the input information satisfies a predetermined command allocation condition.
コンピューターを、
ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶するジェスチャ・コマンド記憶部と、
ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、
入力される前記ジェスチャに対応する前記コマンドを前記ジェスチャ・コマンド記憶部から読み出して実行するコマンド実行部と、
入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、
前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、
を備えることを特徴とするジェスチャ・コマンド処理装置として機能させるプログラム。
Computer
A gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other;
An input gesture specifying unit for specifying a gesture input by the user;
A command execution unit that reads and executes the command corresponding to the input gesture from the gesture command storage unit;
A new gesture storage unit that stores input information of the new gesture in association with the new gesture when the input gesture is a new gesture that is not stored in the gesture command storage unit;
A gesture command allocating unit that associates the command with the new gesture in which the input information satisfies a predetermined command allocation condition and stores the command in the gesture command storage unit;
A program that functions as a gesture command processing device.
JP2010073816A 2010-03-26 2010-03-26 Apparatus and method for processing of gesture command, and program Pending JP2011209773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010073816A JP2011209773A (en) 2010-03-26 2010-03-26 Apparatus and method for processing of gesture command, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010073816A JP2011209773A (en) 2010-03-26 2010-03-26 Apparatus and method for processing of gesture command, and program

Publications (1)

Publication Number Publication Date
JP2011209773A true JP2011209773A (en) 2011-10-20

Family

ID=44940805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010073816A Pending JP2011209773A (en) 2010-03-26 2010-03-26 Apparatus and method for processing of gesture command, and program

Country Status (1)

Country Link
JP (1) JP2011209773A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175282A (en) * 2011-02-18 2012-09-10 Sharp Corp Manipulation apparatus, playback device and television receiver
CN102778952A (en) * 2012-06-20 2012-11-14 深圳Tcl新技术有限公司 Method and device for acceleration control by gesture
JP2013097798A (en) * 2011-10-27 2013-05-20 Samsung Electronics Co Ltd System and method for identifying type of input to mobile device with touch panel
WO2013146862A1 (en) * 2012-03-29 2013-10-03 ブラザー工業株式会社 Head-mounted display and computer program
JP2014033857A (en) * 2012-08-09 2014-02-24 Panasonic Corp Massage machine operation program, portable electronic information terminal, massage machine, and massage system
JP2014102697A (en) * 2012-11-20 2014-06-05 Canon Inc Gesture recognition apparatus, control method and program thereof
EP2781990A1 (en) 2013-03-21 2014-09-24 Fujitsu Limited Signal processing device and signal processing method
EP2781991A2 (en) 2013-03-21 2014-09-24 Fujitsu Limited Signal processing device and signal processing method
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
JP2015195020A (en) * 2014-03-20 2015-11-05 国立研究開発法人産業技術総合研究所 Gesture recognition device, system, and program for the same
WO2017022852A1 (en) * 2015-08-06 2017-02-09 株式会社ニコン Electronic control device and electronic control program
CN110850982A (en) * 2019-11-11 2020-02-28 南方科技大学 AR-based human-computer interaction learning method, system, device and storage medium
KR20210019725A (en) * 2019-08-13 2021-02-23 박종태 Method of command generation according to six-axis motion analysis of feet and legs
JP2021510012A (en) * 2018-11-26 2021-04-08 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Speaker control method and speaker control device

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175282A (en) * 2011-02-18 2012-09-10 Sharp Corp Manipulation apparatus, playback device and television receiver
JP2013097798A (en) * 2011-10-27 2013-05-20 Samsung Electronics Co Ltd System and method for identifying type of input to mobile device with touch panel
US9495095B2 (en) 2011-10-27 2016-11-15 Samsung Electronics Co., Ltd. System and method for identifying inputs input to mobile device with touch panel
WO2013146862A1 (en) * 2012-03-29 2013-10-03 ブラザー工業株式会社 Head-mounted display and computer program
JP2013206412A (en) * 2012-03-29 2013-10-07 Brother Ind Ltd Head-mounted display and computer program
CN102778952A (en) * 2012-06-20 2012-11-14 深圳Tcl新技术有限公司 Method and device for acceleration control by gesture
JP2014033857A (en) * 2012-08-09 2014-02-24 Panasonic Corp Massage machine operation program, portable electronic information terminal, massage machine, and massage system
JP2014102697A (en) * 2012-11-20 2014-06-05 Canon Inc Gesture recognition apparatus, control method and program thereof
US9342152B2 (en) 2013-03-21 2016-05-17 Fujitsu Limited Signal processing device and signal processing method
EP2781990A1 (en) 2013-03-21 2014-09-24 Fujitsu Limited Signal processing device and signal processing method
EP2781991A2 (en) 2013-03-21 2014-09-24 Fujitsu Limited Signal processing device and signal processing method
JP2014182749A (en) * 2013-03-21 2014-09-29 Fujitsu Ltd Signal processing apparatus, signal processing method, and signal processing program
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
JP2015195020A (en) * 2014-03-20 2015-11-05 国立研究開発法人産業技術総合研究所 Gesture recognition device, system, and program for the same
WO2017022852A1 (en) * 2015-08-06 2017-02-09 株式会社ニコン Electronic control device and electronic control program
JPWO2017022852A1 (en) * 2015-08-06 2018-04-26 株式会社ニコン Electronic control device and electronic control program
JP2021510012A (en) * 2018-11-26 2021-04-08 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Speaker control method and speaker control device
JP7203735B2 (en) 2018-11-26 2023-01-13 北京小米移動軟件有限公司 Speaker control method and speaker control device
US11614540B2 (en) 2018-11-26 2023-03-28 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for controlling sound box
KR20210019725A (en) * 2019-08-13 2021-02-23 박종태 Method of command generation according to six-axis motion analysis of feet and legs
KR102274781B1 (en) * 2019-08-13 2021-07-07 박종태 Method of command generation according to six-axis motion analysis of feet and legs
CN110850982A (en) * 2019-11-11 2020-02-28 南方科技大学 AR-based human-computer interaction learning method, system, device and storage medium
CN110850982B (en) * 2019-11-11 2024-03-29 南方科技大学 AR-based man-machine interaction learning method, system, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP2011209773A (en) Apparatus and method for processing of gesture command, and program
US20210096651A1 (en) Vehicle systems and methods for interaction detection
US9128526B2 (en) Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control
EP3754542B1 (en) Method and apparatus for recognizing handwriting in air, and device and computer-readable storage medium
TWI543018B (en) An input device, an input method, and storage medium
KR102230630B1 (en) Rapid gesture re-engagement
JP5991041B2 (en) Virtual touch screen system and bidirectional mode automatic switching method
KR101341737B1 (en) Apparatus and method for controlling terminal using touch the back of the terminal
WO2014045953A1 (en) Information processing device and method, and program
JP5604279B2 (en) Gesture recognition apparatus, method, program, and computer-readable medium storing the program
JP2020067999A (en) Method of virtual user interface interaction based on gesture recognition and related device
JP2013037499A (en) Gesture recognition device, gesture recognition method, and gesture recognition program
JP6349800B2 (en) Gesture recognition device and method for controlling gesture recognition device
EP3839702B1 (en) Electronic device and method for processing letter input in electronic device
CN108733302B (en) Gesture triggering method
EP3547107A1 (en) Method for providing information mapped between a plurality of inputs and electronic device for supporting the same
KR101365083B1 (en) Interface device using motion recognition and control method thereof
WO2018076720A1 (en) One-hand operation method and control system
JP2016099643A (en) Image processing device, image processing method, and image processing program
CN114360047A (en) Hand-lifting gesture recognition method and device, electronic equipment and storage medium
US10379678B2 (en) Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram
CN106598422A (en) Directivity-based control and hybrid control methods, control system and electronic equipment
US20180032142A1 (en) Information processing apparatus, control method thereof, and storage medium
JP2017215842A (en) Electronic apparatus
JP2017059201A (en) Electronic equipment and its control method, program, and storage medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120817