JP2011209773A - Apparatus and method for processing of gesture command, and program - Google Patents
Apparatus and method for processing of gesture command, and program Download PDFInfo
- Publication number
- JP2011209773A JP2011209773A JP2010073816A JP2010073816A JP2011209773A JP 2011209773 A JP2011209773 A JP 2011209773A JP 2010073816 A JP2010073816 A JP 2010073816A JP 2010073816 A JP2010073816 A JP 2010073816A JP 2011209773 A JP2011209773 A JP 2011209773A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- command
- input
- new
- storage unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、ジェスチャ・コマンド処理装置、ジェスチャ・コマンド処理方法、およびプログラムに関し、特に、ユーザーの体の一部または専用の指示媒体を用いてジェスチャ入力を行うことにより、操作対象機器に対して当該ジェスチャ入力に対応して割り当てられるコマンドを実行することのできるジェスチャ・コマンド処理装置、ジェスチャ・コマンド処理方法、およびプログラムに関する。 The present invention relates to a gesture / command processing device, a gesture / command processing method, and a program, and in particular, by performing gesture input using a part of a user's body or a dedicated instruction medium, The present invention relates to a gesture command processing apparatus, a gesture command processing method, and a program capable of executing a command assigned corresponding to a gesture input.
従来、コンピューターやテレビ・オーディオなどの電子機器に対して所定の操作コマンドを実行するためのユーザーインターフェイスとしては、マウスやキーボードあるいはリモートコントローラーを用いた操作入力が一般的であるが、近年、ユーザーインターフェイスの新しい方法として、予めコマンドに対応付けて登録しておいたジェスチャをペンやマウスなどを用いて行うことにより、対応するコマンドを実行させるジェスチャ認識システムが知られている(例えば特許文献1参照)。 Conventionally, as a user interface for executing a predetermined operation command for an electronic device such as a computer, a television, and an audio, an operation input using a mouse, a keyboard, or a remote controller is generally used. As a new method, there is known a gesture recognition system that executes a corresponding command by performing a gesture registered in advance in association with a command using a pen, a mouse, or the like (see, for example, Patent Document 1). .
ところで、このようなシステムは、複数のユーザーで使用する場合や使用頻度が低い場合に、登録されているジェスチャとコマンドの対応関係が分からなくなることが課題であった。これに対し、例えば特許文献2に記載のように、ジェスチャとコマンドの対応関係の一覧を表示する方法が知られている。 By the way, when such a system is used by a plurality of users or when the frequency of use is low, it has been a problem that the correspondence relationship between a registered gesture and a command cannot be understood. On the other hand, for example, as disclosed in Patent Document 2, a method of displaying a list of correspondence relationships between gestures and commands is known.
このような方法では、システムに登録されているジェスチャとコマンドをユーザーに知らせることはできるが、当該ユーザーは、登録されているジェスチャを覚えなければならず、自分にとって分かり易いあるいは簡単なジェスチャを新規に登録したり、既登録のジェスチャに置き換えて登録するようなジェスチャ−コマンド対応関係の追加・変更が難しかった。 In such a method, the user can be notified of the gestures and commands registered in the system, but the user must remember the registered gestures, and can create new gestures that are easy to understand or simple for him / her. It was difficult to add or change the gesture-command correspondence relationship such as registering to a previously registered gesture or replacing it with a registered gesture.
上記課題を解決することを目的とし、本発明は、ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶するジェスチャ・コマンド記憶部と、ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、入力される前記ジェスチャに対応する前記コマンドを前記ジェスチャ・コマンド記憶部から読み出して実行するコマンド実行部と、入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、を備えることを特徴とするジェスチャ・コマンド処理装置を提供する。 In order to solve the above-described problems, the present invention provides a gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other, and an input gesture specifying unit that specifies a gesture input by a user. A command execution unit that reads and executes the command corresponding to the input gesture from the gesture command storage unit, and the input gesture is a new gesture that is not stored in the gesture command storage unit The new gesture storage unit that stores the input information of the new gesture in association with the new gesture, and the command associated with the new gesture in which the input information satisfies a predetermined command allocation condition. Store in the gesture command storage unit Providing a gesture command processing apparatus characterized by comprising: a Esucha command allocation unit.
このようなジェスチャ・コマンド処理装置によれば、コマンドに対応付けて記憶されていない新規なジェスチャが入力された場合でも、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。 According to such a gesture command processing apparatus, even when a new gesture that is not stored in association with a command is input, a new command can be assigned to the gesture and stored.
また、上記ジェスチャ・コマンド処理装置において、前記新規ジェスチャ記憶部は、前記新規ジェスチャの累積入力回数を前記入力情報として前記新規ジェスチャに対応付けて記憶し、前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記累積入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることが好ましい。 In the gesture command processing apparatus, the new gesture storage unit stores the cumulative input count of the new gesture as the input information in association with the new gesture, and the gesture command allocation unit stores the new gesture. It is preferable that the command is associated with the new gesture and stored in the gesture command storage unit in response to the cumulative number of times of reaching the predetermined number.
これにより、例えばユーザーが自分にとって分かり易いあるいは簡単なジェスチャを所定回数入力することで、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。 Accordingly, for example, when a user inputs a gesture that is easy to understand or simple for the user a predetermined number of times, a new command can be assigned to the gesture and stored.
また、上記ジェスチャ・コマンド処理装置において、前記新規ジェスチャ記憶部は、前記新規ジェスチャの連続入力回数を前記入力情報として前記新規ジェスチャに対応付けて記憶し、前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記連続入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることが好ましい。 In the gesture / command processing device, the new gesture storage unit stores the number of continuous inputs of the new gesture as the input information in association with the new gesture, and the gesture / command allocation unit stores the new gesture. It is preferable that the command is associated with the new gesture and stored in the gesture command storage unit when the number of continuous inputs reaches a predetermined number.
これにより、例えばユーザーが自分にとって分かり易いあるいは簡単なジェスチャを連続で所定回数入力することで、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。 As a result, for example, when the user inputs a gesture that is easy to understand or is easy to understand for a predetermined number of times in succession, a new command can be assigned to the gesture and stored.
また、上記ジェスチャ・コマンド処理装置は、いずれの前記ジェスチャにも対応付けられていない未登録の前記コマンドを記憶する未登録コマンド記憶部を更に備え、前記ジェスチャ・コマンド割当部は、前記コマンド割当条件を満たした前記新規ジェスチャに対して、未登録の前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることが好ましい。 The gesture command processing device further includes an unregistered command storage unit that stores the unregistered command that is not associated with any of the gestures, and the gesture command allocation unit includes the command allocation condition It is preferable that the unregistered command is associated with the new gesture satisfying the above and stored in the gesture command storage unit.
これにより、予め設定されたコマンド割当条件を満たして入力された新規なジェスチャに対して、ジェスチャが割り当てられていないコマンドを割り当てて記憶させることができる。 As a result, a command to which no gesture is assigned can be assigned and stored for a new gesture that is input while satisfying a preset command assignment condition.
また、上記ジェスチャ・コマンド処理装置において、前記ジェスチャ・コマンド割当部は、入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されている前記ジェスチャである場合に、当該ジェスチャとともに所定の前記コマンド変更要求が入力されたことに応じて、当該ジェスチャと対応付けて前記ジェスチャ・コマンド記憶部に記憶されている前記コマンドを他の前記コマンドに変更することが好ましい。 In the gesture command processing device, the gesture command assigning unit may change the predetermined command together with the gesture when the input gesture is the gesture stored in the gesture command storage unit. It is preferable that the command stored in the gesture command storage unit in association with the gesture is changed to another command in response to the input of the request.
これにより、すでにコマンドが割り当てられているジェスチャであっても、所定のコマンド変更要求が入力されたことを条件として、当該ジェスチャに対応付けられているコマンドを変更することができる。 As a result, even if a gesture is already assigned to a command, the command associated with the gesture can be changed on condition that a predetermined command change request is input.
また、本発明は、他の形態として、ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶し、ユーザーにより入力されるジェスチャを特定し、入力される前記ジェスチャに対応する前記コマンドを実行し、入力される前記ジェスチャが記憶していない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶し、前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて記憶することを特徴とするジェスチャ・コマンド処理方法を提供する。 As another embodiment, the present invention stores a gesture and a command executed by the gesture in association with each other, specifies a gesture input by a user, and executes the command corresponding to the input gesture When the input gesture is a new gesture that is not stored, the input information of the new gesture is stored in association with the new gesture, and the input information satisfies the predetermined command allocation condition. Provided is a gesture command processing method characterized in that the command is stored in association with a gesture.
また、本発明は、さらに他の形態として、コンピューターを、
ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶するジェスチャ・コマンド記憶部と、ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、入力される前記ジェスチャに対応する前記コマンドを前記ジェスチャ・コマンド記憶部から読み出して実行するコマンド実行部と、入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、を備えることを特徴とするジェスチャ・コマンド処理装置として機能させるプログラムを提供する。
In addition, the present invention, as yet another form,
A gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other, an input gesture specifying unit that specifies a gesture input by a user, and the command corresponding to the gesture input A command execution unit that reads out and executes from a gesture command storage unit, and if the input gesture is a new gesture that is not stored in the gesture command storage unit, input information of the new gesture to the new gesture A new gesture storage unit that stores the associated command, and a gesture command allocation unit that stores the command in the gesture command storage unit in association with the new gesture in which the input information satisfies a predetermined command allocation condition And having Providing a program to function as a gesture command processing apparatus according to symptoms.
以下、添付図面に基づいて本発明の一実施形態について説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また、実施形態における特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. However, the following embodiment does not limit the invention according to the claims, and all combinations of features in the embodiment are based on the invention. It is not always essential to the solution.
図1は、本発明の実施形態に係るジェスチャ入力システム10の機能ブロック図である。本実施形態のジェスチャ入力システム10は、図1に示すように、ジェスチャ入力装置100、ジェスチャ・コマンド処理装置200、表示装置300、および操作対象機器400で構成され、ジェスチャ入力装置100を通じてユーザーが予め登録されているジェスチャを入力すると、ジェスチャ・コマンド処理装置200において入力されたジェスチャに対応するコマンドが実行されて、例えばテレビ、ゲーム機、あるいはオーディオ装置などの操作対象機器400に対して当該コマンドの内容に応じた操作を行うことができるシステムである。
FIG. 1 is a functional block diagram of a
図2は、ジェスチャ入力システム10を構成するジェスチャ入力装置100の機能ブロック図である。ジェスチャ入力装置100は、本例では動画を撮影可能なカメラであり、図2に示すように、撮像部110、撮像データ処理部120、記憶部130、および制御部140を備える。
FIG. 2 is a functional block diagram of the
なお、ジェスチャ入力装置100は、例えばジェスチャ・コマンド処理装置200に無線または有線により接続されたマウスやペンデバイスであってもよく、この場合は、ユーザーはマウスやペンデバイスを動かすことでジェスチャ・コマンド処理装置200に対してジェスチャを入力する。また、これに替えて、ジェスチャ入力装置100は、表示装置300がLCDなどの表示画面を有するデバイスである場合は、当該表示画面上に設けられたタッチパネルなどであってもよい。この場合は、ユーザーは例えば表示画面を指でなぞることでジェスチャ・コマンド処理装置200に対してジェスチャを入力する。
The
撮像部110は、光学レンズなどの光学系およびイメージセンサーを有し、撮像範囲内の動画あるいは静止画の撮像信号を撮像データ処理部120に出力する。イメージセンサーには、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子アレイが用いられる。
The
撮像データ処理部120は、信号増幅回路、ノイズ補正回路、および各種の信号処理回路を有し、撮像部110からの撮像信号から所定のフレームレートで撮像データを生成する。また、撮像データ処理部120は、生成した撮像データからユーザーの顔検出処理および顔向き判定処理を実行する。具体的には、撮像データ処理部120は、例えば、生成した撮像データから肌色領域を抽出して当該領域の形状を特定し、その形状と予め記憶されたパターンデータとの比較演算を行うことにより、撮像データにユーザーの顔が存在するか否かを判別する。
The imaging
そして、撮像データ処理部120は、ユーザーの顔が検出された場合、その顔領域内の特徴点を抽出して上記パターンデータに対応付けて記憶された特徴点との比較演算を行うことにより、ユーザーの顔の向きを検出する。そして、撮像データ処理部120は、ユーザーの顔が撮像部110側(正面)を一定時間以上向いていることが検出された場合、ユーザーの手の位置およびその動きを検出する。
Then, when the user's face is detected, the imaging
例えば、撮像データ処理部120は、撮像データから抽出した肌色領域におけるユーザーの顔以外の領域の形状を特定し、その形状と予め記憶されたパターンデータとの比較演算を行うことにより、撮像データからユーザーの手が存在する領域を検出する。より具体的には、撮像データ処理部120は、例えば生成した撮像データが図3に示すようなものである場合、当該撮像データから抽出される肌色領域のうち、形状特徴などからユーザーの手が存在する領域として、図3に「H1」および「H2」で示す領域を特定する。
For example, the imaging
図4は、図3の撮像データにおけるユーザーの手が存在する領域から特定される当該領域の重心位置の移動方向・移動速度をベクトルで示した例である。撮像データ処理部120は、図3に示す撮像データから特定した上記「H1」および「H2」で示す領域の特徴量を抽出する。本例では、撮像データ処理部120は、図4に示すように、「H1」および「H2」の各領域の長手方向の長さと重心位置を特定するとともに、直前フレームの撮像データからの重心位置の移動距離を特定する。これにより、上記各領域の重心位置の移動方向および移動速度が特定される(図4では「H1」および「H2」の各領域の移動方向および移動速度をベクトル「V1」および「V2」で示している)。
FIG. 4 is an example in which the moving direction and moving speed of the centroid position of the area identified from the area where the user's hand exists in the imaging data of FIG. 3 are shown by vectors. The imaging
そして、撮像データ処理部120は、上記各領域の重心位置とその移動方向および移動速度をユーザーの手の位置と移動方向および移動速度、すなわちジェスチャの特徴量として記憶部130へと出力する。なお、撮像データ処理部120は、ジェスチャの特徴量を、生成した撮像データの一または複数のフレームに対応付けて記憶部130へと出力してもよい。また、撮像データ処理部120による上記特徴量の特定は、例えばジェスチャ・コマンド処理装置200における後述の入力ジェスチャ特定部220が行ってもよい。
Then, the imaging
制御部140は、ジェスチャ入力装置100の各部の動作状況や設定情報を検出して当該各部を制御する。例えば、制御部140は、撮像データ処理部120による上記の各検出結果に基づいて、撮像データ処理部120で生成された撮像データおよび上記特徴量を記憶部130に記憶させるか否かを制御する。
The
例えば、制御部140は、予め設定された条件に基づいて、撮像データの記憶を開始すべき旨のキャプチャ命令を記憶部130へ出力する。本例では、制御部140は、ユーザーの顔が正面を向いていることを撮像データ処理部120が検出したことを条件として、キャプチャ命令を記憶部130へ出力する。なお、制御部140がキャプチャ命令を出力するための条件はこれに限られず、例えばキャプチャを開始すべき旨のジェスチャを予め設定しておき、ユーザーが当該ジェスチャを行ったことを撮像データ処理部120が検出したことを条件としても良い。
For example, the
そして、制御部140は、予め設定された条件に基づいて、撮像データの記憶を停止すべき旨のキャプチャ停止命令を記憶部130へ出力する。本例では、制御部140は、ユーザーの顔が正面を向かなくなった、または、ユーザーの顔や手が撮像部110の撮像範囲外に出たことを撮像データ処理部120が検出したことを条件として、キャプチャ停止命令を記憶部130へ出力する。また、これに替えて、制御部140は、ユーザーの手の重心位置が所定の領域内に一定時間留まっていること、または記憶部130にキャプチャ命令を出力してから一定時間が経過したことを上記条件としてキャプチャ停止命令を記憶部130へ出力してもよい。
Then, the
記憶部130は、撮像データ処理部120から入力される撮像データおよび上記特徴量を記憶する。本例では、記憶部130は、撮像データ処理部120からの撮像データをフレーム単位で記憶する。そして、記憶部130は、ジェスチャ・コマンド処理装置200からのアクセスに応じて、記憶している撮像データおよび上記特徴量をジェスチャ・コマンド処理装置200へと出力する。本例では、記憶部130は、制御部140からのキャプチャ命令を受け付けたことに応じて、撮像データ処理部120から入力される撮像データおよび上記特徴量の記憶を開始し、制御部140からのキャプチャ停止命令を受け付けたことに応じて、撮像データおよび上記特徴量の記憶を終了する。この記憶部130には、例えばフラッシュメモリーなどの記憶素子やハードディスクなどの記憶媒体が用いられる。
The
図5は、ジェスチャ・コマンド処理装置200の機能ブロック図である。ジェスチャ・コマンド処理装置200は、図2に示すように、ジェスチャ・コマンド記憶部210、入力ジェスチャ特定部220、コマンド実行部230、新規ジェスチャ記憶部240、ジェスチャ・コマンド割当部250、設定条件記憶部260、および未登録コマンド記憶部270を備える。
FIG. 5 is a functional block diagram of the gesture /
ジェスチャ・コマンド記憶部210は、ジェスチャと当該ジェスチャにより実行されるべきコマンドとを対応付けて記憶する。例えば、ジェスチャ・コマンド記憶部210は、「右手(左手)で丸を描く」というジェスチャと「操作対象機器400の電源を入れる」とのコマンド(操作コマンド)とを対応付けて記憶する。なお、ここでいうコマンドは、操作対象機器400に対する特定の操作を指すものである。
The gesture
入力ジェスチャ特定部220は、ジェスチャ入力装置100を通じてユーザーにより入力されるジェスチャを特定する。より具体的には、入力ジェスチャ特定部220は、ジェスチャ入力装置100の記憶部130にアクセスして記憶部130に記憶された撮像データおよび上記特徴量を取り込む。そして、入力ジェスチャ特定部220は、撮像データをおよび上記特徴量に基づいて、ユーザーにより入力されるジェスチャを特定する。
The input
そして、入力ジェスチャ特定部220は、ジェスチャ・コマンド記憶部210にアクセスして特定されたジェスチャに対応するコマンドを読み出して当該コマンドをコマンド実行部230へと出力する。より具体的には、入力ジェスチャ特定部220は、例えば、ユーザーが行ったジェスチャが「右手(左手)で丸を描く」ジェスチャであると特定された場合、当該ジェスチャに対応する「操作対象機器400の電源を入れる」とのコマンドをジェスチャ・コマンド記憶部210から読み出して当該コマンドをコマンド実行部230へと出力する。
Then, the input
なお、入力ジェスチャ特定部220による上記ジェスチャの特定方法は特に限定されないが、例えば、入力ジェスチャ特定部220は、ジェスチャ・コマンド記憶部210にアクセスして、コマンドと対応して記憶されている全てのジェスチャを読み出し、その特徴量と入力されたジェスチャの特徴量との類似度を算出し、当該類似度が最も高いジェスチャをユーザーが行ったジェスチャとしてもよい。
The gesture specifying method by the input
コマンド実行部230は、入力ジェスチャ特定部220において特定されたジェスチャに対応付けてジェスチャ・コマンド記憶部210に記憶されているコマンドを実行する。より具体的には、コマンド実行部230は、例えば、入力ジェスチャ特定部220から「操作対象機器400の電源を入れる」とのコマンドが入力された場合、操作対象機器400に対して電源をオンすべき旨の信号を出力する。
The
新規ジェスチャ記憶部240は、入力ジェスチャ特定部220に入力されるジェスチャがジェスチャ・コマンド記憶部210に記憶されていないジェスチャ(以下、「新規ジェスチャ」と称する)である場合に、当該新規ジェスチャの入力情報を記憶する。本例では、新規ジェスチャ記憶部240は、入力ジェスチャ特定部220に新規ジェスチャが入力される度に、その入力情報を当該新規ジェスチャに対応付けて記憶する。ここで、入力情報には、上記新規ジェスチャが入力されたタイミング(時間)、累積入力回数、連続入力回数、および最後に入力されてからの経過時間などが含まれる。
The new
ジェスチャ・コマンド割当部250は、上記入力情報が所定のコマンド割当条件を満たした新規ジェスチャに対して、操作対象機器400に対する特定の操作などを行うためのコマンドを対応付けてジェスチャ・コマンド記憶部210に記憶させる。より具体的には、ジェスチャ・コマンド割当部250は、例えば新規ジェスチャの累積入力回数が予め設定した回数に達した場合、あるいは、新規ジェスチャの連続入力回数が予め設定した回数に達した場合に、上記コマンド割当条件を満たしたとして、当該新規ジェスチャに対して上記コマンドを対応付けてジェスチャ・コマンド記憶部210に記憶させる。
The gesture
なお、本例では、上記コマンド割当条件は、設定条件記憶部260に記憶されている。したがって、ジェスチャ・コマンド割当部250は、新規ジェスチャ記憶部240に記憶されている各新規ジェスチャの入力情報のいずれかが更新されると、設定条件記憶部260に記憶された上記コマンド割当条件を読み出して更新された新規ジェスチャの入力情報と比較する。なお、設定条件記憶部260を、外部からの操作入力あるいは内部プログラムによって記憶内容を書換え可能な記憶素子で構成してもよい。
In the present example, the command assignment condition is stored in the setting
未登録コマンド記憶部270は、いずれのジェスチャにも対応付けられていない未登録のコマンドを記憶する。例えば、未登録コマンド記憶部270は、ジェスチャ・コマンド記憶部210に記憶されていない全てのコマンドを記憶してもよいが、それら全てのコマンドのうち、ジェスチャの入力に応じて実行されるべきコマンドのみを記憶してもよい。
The unregistered
本例では、ジェスチャ・コマンド割当部250は、上記コマンド割当条件を満たした新規ジェスチャに対して、未登録の全てのコマンドを未登録コマンド記憶部270から読み出す。そして、未登録の全てのコマンドの一覧を表示装置300へと出力する。そして、表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、新規ジェスチャに対して選択されたコマンドを対応付けてジェスチャ・コマンド記憶部210に記憶させる。
In this example, the gesture /
なお、新たにコマンドと対応付けてジェスチャ・コマンド記憶部210に記憶されたジェスチャを次にユーザーが行った場合は、そのコマンドがコマンド実行部230により実行される。
When the user next performs a gesture newly associated with a command and stored in the gesture
また、ジェスチャ・コマンド割当部250は、ユーザーにより入力されるジェスチャが、ジェスチャ・コマンド記憶部210において既にいずれかのコマンドと対応付けて記憶されているジェスチャ(既登録ジェスチャ)である場合は、通常は、そのコマンドが実行される。しかしながら、既登録ジェスチャとともに所定のコマンド割当条件が入力されたことに応じて、当該ジェスチャと対応付けてジェスチャ・コマンド記憶部210に記憶されているコマンドを他のコマンドに変更する。
In addition, the gesture /
具体的には、本例では、特定のジェスチャを、続けて入力される既登録ジェスチャに割り当てられているコマンドを他のコマンドへ変更するための変更操作を開始すべき旨を示すコマンド変更ジェスチャとして予めジェスチャ・コマンド記憶部210に記憶させておく。そして、ジェスチャ・コマンド割当部250は、コマンド変更ジェスチャに続けて既登録ジェスチャが入力されたことに応じて、未登録の全てのコマンドを未登録コマンド記憶部270から読み出して、その一覧を表示装置300へと出力する。そして、表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、上記既登録ジェスチャに対応付けられていたコマンドを選択されたコマンドに変更してジェスチャ・コマンド記憶部210に記憶させる。なお、上記変更操作を開始するためのコマンド割当条件は、上記のコマンド変更ジェスチャの入力に限られず、他のインターフェイスによる特定のコマンド入力を、上記変更操作を開始するためのコマンド割当条件としてもよい。
Specifically, in this example, a specific gesture is used as a command change gesture indicating that a change operation to change a command assigned to a previously registered gesture to another command should be started. It is stored in advance in the gesture
以下において、本システムを用いてジェスチャ入力により操作対象機器400を操作する際の具体的なフローを説明する。図6は、ユーザーによりジェスチャが入力されたときのジェスチャ入力装置100における処理フローの一例を示す。本フローでは、まず、ジェスチャ入力装置100の撮像部110により動画の撮像を開始する(ステップS500)。
Below, the specific flow at the time of operating the
そして、撮像データ処理部120において、撮像部110からの撮像信号に基づいて生成された撮像データからユーザーの顔検出処理および顔向き判定処理が行われる(ステップS505)。そして、ユーザーの顔が撮像部110側(正面)を向いていることが検出されると(ステップS510:YES)、記憶部130によって撮像データが記憶される(ステップS515)。また、このとき、撮像データ処理部120でジェスチャの特徴量が抽出されて撮像データとともに記憶部130に記憶される(ステップS520)。なお、上記顔検出処理および顔向き判定処理の結果、ユーザーの顔が正面を向いていない場合は(ステップS510:NO)、引き続き顔検出処理および顔向き判定処理が行われる(ステップS505)。
Then, in the imaging
そして、記憶部130による撮像データおよびジェスチャの特徴量のキャプチャを停止すべきか否かが制御部140によって判定される(ステップS525)。本例では、ユーザーの手の重心位置が所定の領域内に一定時間留まっているか、または制御部140から記憶部130にキャプチャ命令が出力されてからの経過時間が予め設定した時間に達した場合に、記憶部130によるキャプチャを停止すべき条件が満たされたものと判定され(ステップS530:YES)、制御部140から記憶部130にキャプチャ停止命令が出力される。
Then, it is determined by the
これにより、記憶部130による撮像データおよびジェスチャの特徴量のキャプチャが終了し(ステップS535)、当該撮像データおよびジェスチャの特徴量がジェスチャ・コマンド処理装置200へと出力される(ステップS540)。以上により、本フローは終了する。なお、上記の条件を満たしていない状態では(ステップS530:NO)、引き続き撮像データ処理部120でジェスチャの特徴量が抽出されて撮像データとともに記憶部130に記憶される(ステップS520)。
As a result, the capture of the image data and the feature amount of the gesture by the
図7は、ユーザーによりジェスチャが入力されたときのジェスチャ・コマンド処理装置200における処理フローの一例を示す。本フローでは、まず、入力ジェスチャ特定部220によって、ユーザーがジェスチャを行った際の撮像データおよび当該ジェスチャの特徴量がジェスチャ入力装置100から取得される(ステップS600)。そして、入力ジェスチャ特定部220によって、既にコマンドが割当られてジェスチャ・コマンド記憶部210に記憶されているジェスチャが検索される(ステップS605)。ここでは、各ジェスチャの特徴量と入力されたジェスチャの特徴量とが比較される(ステップS610)。なお、ジェスチャの比較は、例えばDPマッチングが用いられる。また、ジェスチャ・コマンド記憶部210に記憶されているジェスチャのデータについてハッシュ値で索引付けを行うことで、ジェスチャの検索を高速化することができる。
FIG. 7 shows an example of a processing flow in the gesture
そして、入力されたジェスチャと一致するジェスチャがあれば(ステップS610:YES)、既登録ジェスチャに割り当てられているコマンドを他のコマンドへ変更するための変更操作を開始すべき旨のコマンド割当条件(コマンド変更要求)が併せて入力されているか否かがジェスチャ・コマンド割当部250によって確認される(ステップS615)。 Then, if there is a gesture that matches the input gesture (step S610: YES), a command assignment condition that a change operation for changing a command assigned to the registered gesture to another command should be started ( Whether or not a command change request) is also input is confirmed by the gesture / command assignment unit 250 (step S615).
そして、既登録ジェスチャとともにコマンド変更要求が併せて入力されていれば(ステップS615:YES)、ジェスチャ・コマンド割当部250は、未登録の全てのコマンドを変更後に割り当てるべき候補コマンドとして、表示装置300の表示画面に表示させる(ステップS650)。
If a command change request is input together with the already registered gesture (step S615: YES), the gesture
図8は、表示装置300の表示画面に表示される候補コマンド一覧の一例である。図8に示すように、上記候補コマンドは、例えば、当該候補コマンドを選択するために行うべきジェスチャと対応させた一覧表として表示装置300の表示画面に表示される。図8に示す一覧において、例えば、候補コマンド「A」、「B」、「C」は、それぞれ、「電源を入れる」、「電源を切る」、「入力を切り替える」である。
FIG. 8 is an example of a list of candidate commands displayed on the display screen of the
表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、既登録ジェスチャに対応付けられていたコマンドを選択されたコマンドに変更してジェスチャ・コマンド記憶部210に記憶させる(ステップS655)。
When the user performs a gesture for selecting a specific command from the list of commands displayed on the
これに対し、コマンド変更要求が併せて入力されていなければ(ステップS615:NO)、特定されたジェスチャに対応付けてジェスチャ・コマンド記憶部210に記憶されているコマンドがコマンド実行部230によって実行される(ステップS620)。
On the other hand, if the command change request is not input together (step S615: NO), the
一方、上記ステップS610において、入力されたジェスチャと一致するジェスチャがなければ(ステップS610:NO)、入力ジェスチャ特定部220によって新規ジェスチャ記憶部240に入力情報とともに記憶されているジェスチャが検索される。すなわち、入力されたジェスチャが以前に入力されたことのあるジェスチャか否か判別される(ステップS625)。
On the other hand, in step S610, if there is no gesture that matches the input gesture (step S610: NO), the gesture stored together with the input information in the new
そして、入力されたジェスチャが新規ジェスチャ記憶部240に入力情報とともに記憶されているジェスチャであれば(ステップS625:YES)、当該入力情報が更新される(ステップS635)。そして、ジェスチャ・コマンド割当部250は、設定条件記憶部260に記憶されたコマンド割当条件を読み出し、上記ステップS635において更新された入力情報と比較する(ステップS640)。
If the input gesture is a gesture stored together with the input information in the new gesture storage unit 240 (step S625: YES), the input information is updated (step S635). Then, the gesture /
そして、入力されたジェスチャに対応する入力情報がコマンド割当条件を満たせば(ステップS645:YES)、ジェスチャ・コマンド割当部250は、未登録の全てのコマンドを変更後に割り当てるべき候補コマンドとして、その一覧を表示装置300に表示させる(ステップS650)。そして、表示装置300に表示されたコマンドの一覧からユーザーが特定のコマンドを選択するためのジェスチャを行うと、ジェスチャ・コマンド割当部250は、既登録ジェスチャに対応付けられていたコマンドを選択されたコマンドに変更してジェスチャ・コマンド記憶部210に記憶させる(ステップS655)。
If the input information corresponding to the input gesture satisfies the command allocation condition (step S645: YES), the gesture
一方、上記ステップS625において、入力されたジェスチャが新規ジェスチャ記憶部240に記憶されていない新しいジェスチャであれば(ステップS625:NO)、新規ジェスチャ記憶部240は、当該ジェスチャの入力時間および入力回数などの入力情報を記憶する(ステップS630)。以上により本フローは終了する。
On the other hand, in step S625, if the input gesture is a new gesture that is not stored in the new gesture storage unit 240 (step S625: NO), the new
以上のように、本実施形態に係るジェスチャ入力システム10によれば、コマンドに対応付けて記憶されていない新規なジェスチャが入力された場合でも、当該ジェスチャに新たにコマンドを割り当てて記憶させることができる。また、新規なジェスチャに対してコマンドを割り当てる条件を設定することができるので、例えばユーザーが自分にとって分かり易いあるいは簡単なジェスチャを連続であるいは累積で所定回数入力することで、当該ジェスチャに新たにコマンドを割り当てて記憶させておくことができる。
As described above, according to the
また、本システムによれば、新規に入力されたジェスチャに対してコマンドを割り当てるためのコマンド割当条件を設定しておくことで、当該コマンド割当条件を満たして入力された新規なジェスチャに対して、ジェスチャが割り当てられていないコマンドを割り当てて記憶させることができる。また、本システムによれば、すでにコマンドが割り当てられている既登録ジェスチャについても、既登録ジェスチャに割り当てられているコマンドを変更するためのコマンド変更要求として特定のジェスチャ入力などを設定しておくことにより、既登録ジェスチャに対応付けられているコマンドを変更することができる。 Further, according to the present system, by setting a command allocation condition for allocating a command to a newly input gesture, for a new gesture input satisfying the command allocation condition, Commands to which no gesture is assigned can be assigned and stored. In addition, according to the present system, for a registered gesture to which a command has already been assigned, a specific gesture input or the like is set as a command change request for changing the command assigned to the registered gesture. Thus, the command associated with the registered gesture can be changed.
また、本システムにおけるジェスチャ入力装置100のようにユーザーのジェスチャを撮像して特定する形態に替えて、例えば、加速度センサーやGPSセンサーを内蔵したコントローラーをジェスチャ入力装置100として備え、ユーザーがこれらのコントローラーを介してジェスチャを入力しても良い。また、ジェスチャ入力装置100は、ユーザーが入力したジェスチャの確認および修正などを行うことのできるコントローラーを含んでも良い。
Further, instead of a mode in which a user's gesture is imaged and specified as in the
また、本システムにおけるジェスチャ入力装置100、ジェスチャ・コマンド処理装置200、および表示装置300は、一体の装置であっても良く、また、操作対象機器400に組み込まれても良い。
Further, the
図9は、コンピューター1000のハードウェア構成の一例を示す。コンピューター1000は、与えられるプログラムに基づいて、図1から図8を参照して説明したジェスチャ入力システム10のジェスチャ・コマンド処理装置200として機能する。例えば、コンピューター1000がジェスチャ・コマンド処理装置200として機能する場合、プログラムは、コンピューター1000を、ジェスチャ・コマンド処理装置200のジェスチャ・コマンド記憶部210、入力ジェスチャ特定部220、コマンド実行部230、新規ジェスチャ記憶部240、ジェスチャ・コマンド割当部250、設定条件記憶部260、および未登録コマンド記憶部270として機能させてよい。
FIG. 9 shows an exemplary hardware configuration of the
コンピューター1000は、CPU周辺部、入出力部、およびレガシー入出力部を備える。CPU周辺部は、ホスト・コントローラー1082により相互に接続されるCPU1005、RAM1020、グラフィック・コントローラー1075、および表示装置1080を有する。入出力部は、入出力コントローラー1084によりホスト・コントローラー1082に接続される通信インターフェイス1030、ハードディスクドライブ1040、およびCD−ROMドライブ1060を有する。レガシー入出力部は、入出力コントローラー1084に接続されるROM1010、フレキシブルディスク・ドライブ1050、および入出力チップ1070を有する。
The
ホスト・コントローラー1082は、RAM1020と、高い転送レートでRAM1020をアクセスするCPU1005およびグラフィック・コントローラー1075とを接続する。CPU1005は、ROM1010およびRAM1020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラー1075は、CPU1005等がRAM1020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置1080上に表示させる。これに代えて、グラフィック・コントローラー1075は、CPU1005等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラー1084は、ホスト・コントローラー1082と、比較的高速な入出力装置である通信インターフェイス1030、ハードディスクドライブ1040、CD−ROMドライブ1060を接続する。通信インターフェイス1030は、ネットワークを介してジェスチャ入力装置100、表示装置300、および操作対象機器400などと通信する。ハードディスクドライブ1040は、コンピューター1000内のCPU1005が使用するプログラムおよびデータを格納する。CD−ROMドライブ1060は、CD−ROM1095からプログラム又はデータを読み取り、RAM1020を介してハードディスクドライブ1040に提供する。
The input /
また、入出力コントローラー1084には、ROM1010と、フレキシブルディスク・ドライブ1050、および入出力チップ1070の比較的低速な入出力装置とが接続される。ROM1010は、コンピューター1000が起動時に実行するブート・プログラムや、コンピューター1000のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1050は、フレキシブルディスク1090からプログラム又はデータを読み取り、RAM1020を介してハードディスクドライブ1040に提供する。入出力チップ1070は、フレキシブルディスク・ドライブ1050や、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して、ジェスチャ入力装置100、表示装置300、および操作対象機器400などの各種の入出力装置との間でデータの入出力を行う。
The input /
RAM1020を介してハードディスクドライブ1040に提供されるプログラムは、フレキシブルディスク1090、CD−ROM1095、又はICカード等の記録媒体に格納されてユーザーによって提供される。プログラムは、記録媒体から読み出され、RAM1020を介してコンピューター1000内のハードディスクドライブ1040にインストールされ、CPU1005において実行される。
A program provided to the
当該プログラムは、コンピューター1000にインストールされる。当該プログラムは、CPU1005等に働きかけて、コンピューター1000を、前述したジェスチャ・コマンド記憶部210、入力ジェスチャ特定部220、コマンド実行部230、新規ジェスチャ記憶部240、ジェスチャ・コマンド割当部250、設定条件記憶部260、および未登録コマンド記憶部270として機能させる。
The program is installed in the
以上に示したプログラムは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク1090、CD−ROM1095の他に、DVDやCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピューター1000に提供してもよい。
The program shown above may be stored in an external recording medium. As the recording medium, in addition to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることができることは当業者に明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment.
10…ジェスチャ入力システム、100…ジェスチャ入力装置、110…撮像部、120…撮像データ処理部、130…記憶部、140…制御部、200…ジェスチャ・コマンド処理装置、210…ジェスチャ・コマンド記憶部、220…入力ジェスチャ特定部、230…コマンド実行部、240…新規ジェスチャ記憶部、250…ジェスチャ・コマンド割当部、260…設定条件記憶部、270…未登録コマンド記憶部、300…表示装置、400…操作対象機器、1000…コンピューター、1005…CPU、1010…ROM、1020…RAM、1030…通信インターフェイス、1040…ハードディスクドライブ、1050…フレキシブルディスク・ドライブ、1060…CD−ROMドライブ、1070…入出力チップ、1075…グラフィック・コントローラー、1080…表示装置、1082…ホスト・コントローラー、1084…入出力コントローラー、1090…フレキシブルディスク、1095…CD−ROM
DESCRIPTION OF
Claims (7)
ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、
入力される前記ジェスチャに対応付けて前記ジェスチャ・コマンド記憶部に記憶されている前記コマンドを実行するコマンド実行部と、
入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、
前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、
を備えることを特徴とするジェスチャ・コマンド処理装置。 A gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other;
An input gesture specifying unit for specifying a gesture input by the user;
A command execution unit that executes the command stored in the gesture command storage unit in association with the input gesture;
A new gesture storage unit that stores input information of the new gesture in association with the new gesture when the input gesture is a new gesture that is not stored in the gesture command storage unit;
A gesture command allocation unit that associates a command with the new gesture in which the input information satisfies a predetermined command allocation condition and stores the command in the gesture command storage unit;
A gesture command processing apparatus comprising:
前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記累積入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることを特徴とする請求項1に記載のジェスチャ・コマンド処理装置。 The new gesture storage unit stores the accumulated input count of the new gesture in association with the new gesture as the input information,
The gesture command allocating unit associates the command with the new gesture and stores the command in the gesture command storage unit in response to the cumulative input count of the new gesture reaching a predetermined number of times. The gesture command processing apparatus according to claim 1, characterized in that:
前記ジェスチャ・コマンド割当部は、前記新規ジェスチャの前記連続入力回数が所定回数に達したことに応じて、前記新規ジェスチャに対して前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることを特徴とする請求項1または2に記載のジェスチャ・コマンド処理装置。 The new gesture storage unit stores the number of continuous inputs of the new gesture in association with the new gesture as the input information,
The gesture command assigning unit associates the command with the new gesture and stores it in the gesture command storage unit in response to the number of continuous inputs of the new gesture reaching a predetermined number of times. The gesture command processing apparatus according to claim 1, wherein the gesture command processing apparatus is characterized.
前記ジェスチャ・コマンド割当部は、前記コマンド割当条件を満たした前記新規ジェスチャに対して、未登録の前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させることを特徴とする請求項1から3のいずれか1項に記載のジェスチャ・コマンド処理装置。 An unregistered command storage unit that stores the unregistered command that is not associated with any of the gestures;
The gesture command allocation unit stores the unregistered command in the gesture command storage unit in association with the new gesture that satisfies the command allocation condition. The gesture command processing device according to any one of the above.
入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されている前記ジェスチャである場合に、当該ジェスチャとともに前記コマンド変更要求が入力されたことに応じて、当該ジェスチャと対応付けて前記ジェスチャ・コマンド記憶部に記憶されている前記コマンドを他の前記コマンドに変更することを特徴とする請求項1から4のいずれか1項に記載のジェスチャ・コマンド処理装置。 The gesture command allocation unit
When the input gesture is the gesture stored in the gesture command storage unit, the gesture command is associated with the gesture in response to the input of the command change request together with the gesture. 5. The gesture command processing apparatus according to claim 1, wherein the command stored in the storage unit is changed to another command. 6.
ユーザーにより入力されるジェスチャを特定し、
入力される前記ジェスチャに対応する前記コマンドを実行し、
入力される前記ジェスチャが記憶していない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶し、
前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて記憶することを特徴とするジェスチャ・コマンド処理方法。 Storing the gesture and the command executed by the gesture in association with each other;
Identify gestures entered by the user,
Execute the command corresponding to the input gesture,
When the input gesture is a new gesture that is not stored, the input information of the new gesture is stored in association with the new gesture,
A gesture command processing method characterized by storing the command in association with the new gesture in which the input information satisfies a predetermined command allocation condition.
ジェスチャと当該ジェスチャにより実行されるコマンドとを対応付けて記憶するジェスチャ・コマンド記憶部と、
ユーザーにより入力されるジェスチャを特定する入力ジェスチャ特定部と、
入力される前記ジェスチャに対応する前記コマンドを前記ジェスチャ・コマンド記憶部から読み出して実行するコマンド実行部と、
入力される前記ジェスチャが前記ジェスチャ・コマンド記憶部に記憶されていない新規ジェスチャである場合に、前記新規ジェスチャの入力情報を当該新規ジェスチャに対応付けて記憶する新規ジェスチャ記憶部と、
前記入力情報が所定のコマンド割当条件を満たした前記新規ジェスチャに対して、前記コマンドを対応付けて前記ジェスチャ・コマンド記憶部に記憶させるジェスチャ・コマンド割当部と、
を備えることを特徴とするジェスチャ・コマンド処理装置として機能させるプログラム。 Computer
A gesture command storage unit that stores a gesture and a command executed by the gesture in association with each other;
An input gesture specifying unit for specifying a gesture input by the user;
A command execution unit that reads and executes the command corresponding to the input gesture from the gesture command storage unit;
A new gesture storage unit that stores input information of the new gesture in association with the new gesture when the input gesture is a new gesture that is not stored in the gesture command storage unit;
A gesture command allocating unit that associates the command with the new gesture in which the input information satisfies a predetermined command allocation condition and stores the command in the gesture command storage unit;
A program that functions as a gesture command processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010073816A JP2011209773A (en) | 2010-03-26 | 2010-03-26 | Apparatus and method for processing of gesture command, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010073816A JP2011209773A (en) | 2010-03-26 | 2010-03-26 | Apparatus and method for processing of gesture command, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011209773A true JP2011209773A (en) | 2011-10-20 |
Family
ID=44940805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010073816A Pending JP2011209773A (en) | 2010-03-26 | 2010-03-26 | Apparatus and method for processing of gesture command, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011209773A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012175282A (en) * | 2011-02-18 | 2012-09-10 | Sharp Corp | Manipulation apparatus, playback device and television receiver |
CN102778952A (en) * | 2012-06-20 | 2012-11-14 | 深圳Tcl新技术有限公司 | Method and device for acceleration control by gesture |
JP2013097798A (en) * | 2011-10-27 | 2013-05-20 | Samsung Electronics Co Ltd | System and method for identifying type of input to mobile device with touch panel |
WO2013146862A1 (en) * | 2012-03-29 | 2013-10-03 | ブラザー工業株式会社 | Head-mounted display and computer program |
JP2014033857A (en) * | 2012-08-09 | 2014-02-24 | Panasonic Corp | Massage machine operation program, portable electronic information terminal, massage machine, and massage system |
JP2014102697A (en) * | 2012-11-20 | 2014-06-05 | Canon Inc | Gesture recognition apparatus, control method and program thereof |
EP2781990A1 (en) | 2013-03-21 | 2014-09-24 | Fujitsu Limited | Signal processing device and signal processing method |
EP2781991A2 (en) | 2013-03-21 | 2014-09-24 | Fujitsu Limited | Signal processing device and signal processing method |
JP2015011106A (en) * | 2013-06-27 | 2015-01-19 | カシオ計算機株式会社 | Projection device, projection method, and program |
JP2015195020A (en) * | 2014-03-20 | 2015-11-05 | 国立研究開発法人産業技術総合研究所 | Gesture recognition device, system, and program for the same |
WO2017022852A1 (en) * | 2015-08-06 | 2017-02-09 | 株式会社ニコン | Electronic control device and electronic control program |
CN110850982A (en) * | 2019-11-11 | 2020-02-28 | 南方科技大学 | AR-based human-computer interaction learning method, system, device and storage medium |
KR20210019725A (en) * | 2019-08-13 | 2021-02-23 | 박종태 | Method of command generation according to six-axis motion analysis of feet and legs |
JP2021510012A (en) * | 2018-11-26 | 2021-04-08 | 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. | Speaker control method and speaker control device |
-
2010
- 2010-03-26 JP JP2010073816A patent/JP2011209773A/en active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012175282A (en) * | 2011-02-18 | 2012-09-10 | Sharp Corp | Manipulation apparatus, playback device and television receiver |
JP2013097798A (en) * | 2011-10-27 | 2013-05-20 | Samsung Electronics Co Ltd | System and method for identifying type of input to mobile device with touch panel |
US9495095B2 (en) | 2011-10-27 | 2016-11-15 | Samsung Electronics Co., Ltd. | System and method for identifying inputs input to mobile device with touch panel |
WO2013146862A1 (en) * | 2012-03-29 | 2013-10-03 | ブラザー工業株式会社 | Head-mounted display and computer program |
JP2013206412A (en) * | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | Head-mounted display and computer program |
CN102778952A (en) * | 2012-06-20 | 2012-11-14 | 深圳Tcl新技术有限公司 | Method and device for acceleration control by gesture |
JP2014033857A (en) * | 2012-08-09 | 2014-02-24 | Panasonic Corp | Massage machine operation program, portable electronic information terminal, massage machine, and massage system |
JP2014102697A (en) * | 2012-11-20 | 2014-06-05 | Canon Inc | Gesture recognition apparatus, control method and program thereof |
US9342152B2 (en) | 2013-03-21 | 2016-05-17 | Fujitsu Limited | Signal processing device and signal processing method |
EP2781990A1 (en) | 2013-03-21 | 2014-09-24 | Fujitsu Limited | Signal processing device and signal processing method |
EP2781991A2 (en) | 2013-03-21 | 2014-09-24 | Fujitsu Limited | Signal processing device and signal processing method |
JP2014182749A (en) * | 2013-03-21 | 2014-09-29 | Fujitsu Ltd | Signal processing apparatus, signal processing method, and signal processing program |
JP2015011106A (en) * | 2013-06-27 | 2015-01-19 | カシオ計算機株式会社 | Projection device, projection method, and program |
JP2015195020A (en) * | 2014-03-20 | 2015-11-05 | 国立研究開発法人産業技術総合研究所 | Gesture recognition device, system, and program for the same |
WO2017022852A1 (en) * | 2015-08-06 | 2017-02-09 | 株式会社ニコン | Electronic control device and electronic control program |
JPWO2017022852A1 (en) * | 2015-08-06 | 2018-04-26 | 株式会社ニコン | Electronic control device and electronic control program |
JP2021510012A (en) * | 2018-11-26 | 2021-04-08 | 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. | Speaker control method and speaker control device |
JP7203735B2 (en) | 2018-11-26 | 2023-01-13 | 北京小米移動軟件有限公司 | Speaker control method and speaker control device |
US11614540B2 (en) | 2018-11-26 | 2023-03-28 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and apparatus for controlling sound box |
KR20210019725A (en) * | 2019-08-13 | 2021-02-23 | 박종태 | Method of command generation according to six-axis motion analysis of feet and legs |
KR102274781B1 (en) * | 2019-08-13 | 2021-07-07 | 박종태 | Method of command generation according to six-axis motion analysis of feet and legs |
CN110850982A (en) * | 2019-11-11 | 2020-02-28 | 南方科技大学 | AR-based human-computer interaction learning method, system, device and storage medium |
CN110850982B (en) * | 2019-11-11 | 2024-03-29 | 南方科技大学 | AR-based man-machine interaction learning method, system, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011209773A (en) | Apparatus and method for processing of gesture command, and program | |
US20210096651A1 (en) | Vehicle systems and methods for interaction detection | |
US9128526B2 (en) | Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control | |
EP3754542B1 (en) | Method and apparatus for recognizing handwriting in air, and device and computer-readable storage medium | |
TWI543018B (en) | An input device, an input method, and storage medium | |
KR102230630B1 (en) | Rapid gesture re-engagement | |
JP5991041B2 (en) | Virtual touch screen system and bidirectional mode automatic switching method | |
KR101341737B1 (en) | Apparatus and method for controlling terminal using touch the back of the terminal | |
WO2014045953A1 (en) | Information processing device and method, and program | |
JP5604279B2 (en) | Gesture recognition apparatus, method, program, and computer-readable medium storing the program | |
JP2020067999A (en) | Method of virtual user interface interaction based on gesture recognition and related device | |
JP2013037499A (en) | Gesture recognition device, gesture recognition method, and gesture recognition program | |
JP6349800B2 (en) | Gesture recognition device and method for controlling gesture recognition device | |
EP3839702B1 (en) | Electronic device and method for processing letter input in electronic device | |
CN108733302B (en) | Gesture triggering method | |
EP3547107A1 (en) | Method for providing information mapped between a plurality of inputs and electronic device for supporting the same | |
KR101365083B1 (en) | Interface device using motion recognition and control method thereof | |
WO2018076720A1 (en) | One-hand operation method and control system | |
JP2016099643A (en) | Image processing device, image processing method, and image processing program | |
CN114360047A (en) | Hand-lifting gesture recognition method and device, electronic equipment and storage medium | |
US10379678B2 (en) | Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram | |
CN106598422A (en) | Directivity-based control and hybrid control methods, control system and electronic equipment | |
US20180032142A1 (en) | Information processing apparatus, control method thereof, and storage medium | |
JP2017215842A (en) | Electronic apparatus | |
JP2017059201A (en) | Electronic equipment and its control method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120817 |