JP5701714B2 - ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム - Google Patents
ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム Download PDFInfo
- Publication number
- JP5701714B2 JP5701714B2 JP2011172410A JP2011172410A JP5701714B2 JP 5701714 B2 JP5701714 B2 JP 5701714B2 JP 2011172410 A JP2011172410 A JP 2011172410A JP 2011172410 A JP2011172410 A JP 2011172410A JP 5701714 B2 JP5701714 B2 JP 5701714B2
- Authority
- JP
- Japan
- Prior art keywords
- operation section
- series information
- time
- gesture recognition
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Description
第1の実施形態にかかるジェスチャ認識装置は、ユーザの手の動きによって画面表示を操作する装置であり、ユーザの送り動作を認識して対応する方向に画面を遷移させる機能を有する。例えば、本実施形態にかかるジェスチャ認識装置を、カメラを搭載したテレビ受像機に内蔵することにより、ユーザの送り動作を認識してテレビ受像機に表示されたオブジェクト(送り動作による制御対象物)の位置を遷移させることができる。ここで、「送り動作」とは、上下左右前後およびこれらの方向の組み合わせなど予め定められた方向への手の動きである。ユーザの手の動きには、ユーザが画面を遷移させたい方向への送り動作以外に、送り動作の直前に発生する逆方向の動きである「振りかぶり」および送り動作の後に手を元の位置に戻そうとする「振り戻し」が存在する。
図1は、第1の実施形態にかかるジェスチャ認識装置を示すブロック図である。本実施形態のジェスチャ認識装置は、ユーザの手の位置に関する時系列情報を取得する時系列情報取得部101と、この時系列情報から手の移動方向を検出し、時系列情報の開始点、移動方向が転換する転換点、時系列情報の終了点の何れか2つの組み合わせで区分される複数の操作区間を検出する操作区間検出部102と、検出された複数の操作区間のうち認識対象となる第1の操作区間、第1の操作区間に後続する第2の操作区間、第1の操作区間に先行する第3の操作区間を特定し、第1の操作区間における手の移動速さが、第2および第3の操作区間にける手の移動速さよりも高速である場合、第1の操作区間に対応する手の動きを送り動作として認識する認識部103と、この認識結果に応じたコマンドを発生させるコマンド発生部104と、前記コマンドによる制御対象物の形態を表示する表示制御部105を備える。
本実施形態のジェスチャ認識装置は、図2に示すような通常のコンピュータを利用したハードウェアで構成されており、装置全体を制御するCPU(Central Processing Unit)等の制御部201と、各種データや各種プログラムを記憶するROM(Read Only Memory)やRAM(Random Access Memory)等の記憶部202と、各種データや各種プログラムを記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の外部記憶部203と、ユーザの指示入力を受け付けるキーボードやマウスなどの操作部204と、外部装置との通信を制御する通信部205と、映像を取得するカメラ206と、映像を表示するディスプレイ207と、これらを接続するバス208を備えている。
時系列情報取得部101は、ユーザの手の位置に関する時系列情報を取得する。手の位置に関する時系列情報は、カメラ206の撮像素子(イメージセンサなど)を用いて撮像された画像から特許文献1に記載の手法を用いて取得できる。手の位置は、撮像素子から得られる手領域の重心としてよく、撮像された画像上のx、y座標に限らず、距離センサや複数の撮像素子から推定された奥行き情報を用いてもよい。時系列情報は撮像した画像の各フレームについて取得でき、開始点は手が最初に検出された位置、終了点は手が最後に検出された位置あるいは現時点で検出された最新の手の位置とすることができる。例えば、ユーザの手の位置を画像上のx、y座標で表現する場合、時系列情報取得部101は、i番目のフレームでの位置(xi,yi)とともに取得時刻Tiを取得する。取得時刻Tiは、ジェスチャ認識装置の起動時、又は時系列情報取得部101による時系列情報の取得開始時を基準とした経過時間、経過クロック数、経過フレーム数などで表現できる。
操作区間検出部102は、時系列情報から手の移動方向、移動速さ、移動距離を検出し、時系列情報の開始点、移動方向が転換する転換点、時系列情報の終了点の何れか2つの組み合わせで区分される複数の操作区間を検出する。
認識部103は、操作区間検出部102で検出された複数の操作区間のうち認識対象となる第1の操作区間が送り動作に該当するか否かを認識する。ここで、本実施形態の認識部103は、第2および第3の操作区間における時系列情報から抽出した特徴量(手の移動速さ)を用いて第1の操作区間の動きを認識する。具体的には、以下の2つの条件を満たす際に、第1の操作区間に対応する手の動きを送り動作として認識する。
第2条件:第2の操作区間が存在しない、あるいは、第1の操作区間における手の移動速さVc(第1の特徴量)が第2の操作区間における手の移動速さVa(第2の特徴量)より高速
ここで、操作区間における手の移動速さは、それぞれの区間の各フレームで計算された移動速さの最大値とすることができる。
コマンド発生部104は、認識部103での認識結果に応じたコマンドを発生させる。認識された送り動作が「右から左」への動きであった場合は、コマンド発生部104は、ジェスチャでの遷移対象となるオブジェクトを「右から左」へ移動させるようなコマンドを発生させる。その際、コマンドを発生したときは、その第1の操作区間の始端が同じうちは再度コマンドを発生させる必要はない。
表示制御部105は、コマンド発生部104で発生したコマンドに応じて、ディスプレイ207に表示するオブジェクト(コマンドによる制御対象物)の形態を変更する。例えば、オブジェクトを「右から左」へ移動させるようなコマンドを受理した場合は、図4のように、301の画面に表示されるオブジェクト303〜305の位置を302の画面に表示されるように一つ左に遷移させる。つまり、中央にあったオブジェクト303は左側に、右側にあったオブジェクト304が中央に来るように遷移し、オブジェクト303の左側にあったオブジェクト305は画面から消え、オブジェクト304の右側にあったオブジェクト306が画面302に現れる。
図5のフローチャートを利用して、本実施形態にかかるジェスチャ認識装置の処理を説明する。まず、ステップS401では、時系列情報取得部101は、ユーザの手の位置に関する時系列情報を取得する。
図6のフローチャートを利用して、ステップS404の処理を説明する。まず、ステップS501では、認識部103は、認識対象となる第1の操作区間を特定する。
このように本実施形態のジェスチャ認識装置は、認識対象となる操作区間だけでなく前後の操作区間における手の位置に関する時系列情報を利用して送り動作を認識する。これにより、ユーザの振りかぶりおよび振り戻しを送り動作として誤認識することを防止することができる。
本実施形態における操作区間検出102では、リアルタイム処理で操作区間を検出する際、所定時間T0aの遅延が生じているが、所定時間T0a経過する前に操作区間を検出することもできる。例えば、図3において、第1の操作区間の終端をT3(P3が取得された時刻)とし、T3から所定時間T0aが経過するまでにP8までの時系列情報が取得されるものとする。この場合、本変形例の操作区間検出部102は、所定時間T0aの経過を待つことなく、P6が転換点として検出された時点でP3からP6までの区間を第2の操作区間として確定し、その情報を認識部103に出力することができる。これにより、認識に必要なタイムラグを減らすことができる。
本実施形態にかかるジェスチャ認識装置は、送り動作における手の移動速さが振りかぶりと振り戻しにおける手の移動速さよりも高速であるとして送り動作を検出したが、送り動作における手の移動速さが振りかぶりと振り戻しにおける手の移動速さよりも低速であるとして送り動作を検出することもできる。例えば、図4のような画面表示を変更するアプリケーションにおいて、ユーザに対して意図する方向にゆっくり手を動かすよう指示した場合、本変形例のジェスチャ認識装置を用いることができる。
第2条件:第2の操作区間が存在しない、あるいは、第1の操作区間における手の移動速さVcが第2の操作区間における手の移動速さVaより低速
また、図6のステップS504およびS506おける条件は、それぞれVc<VbおよびVc<Vaになる。
本実施形態の認識部103は、第1〜第3の操作区間における時系列情報から抽出した特徴量として手の移動速さを利用したが、手の移動距離を特徴量として用いることもできる。送り動作の移動距離が振りかぶりおよび振り戻しの移動距離よりも長いとみなしたときは、第1の操作区間の移動距離Lcが第2および第3の操作区間の移動距離より長い場合、第1の操作区間に対応する手の動きを送り動作として認識することができる。
評価値E = V×exp{α×(Q−P)×F(dir)} …(数式1)
ここで、Vは各操作区間における手の移動速さの最大値、αは正の係数、Qは操作区間の終端の位置、Pは基準位置、F(dir)は所定の関数である。Pは、例えば手を最初に検出した位置(時系列情報の開始点)とすることができる。F(dir)は、+1もしくは−1の値をとる関数である。例えば、左右方向の手の動きに着目する場合、F(dir)は、操作区間の移動方向がPを原点とする座標軸上で見たときに正の方向なら1、負の方向なら−1となる。つまり、基準位置Pよりも各操作区間の終点が右側にある場合において、移動方向が右である操作区間の評価値Eは、Vに1.0より大きな倍率をかけた値となり、移動方向が左である操作区間の評価値Eは、Vに1.0未満の倍率をかけた値となる。つまり、基準位置Pよりも右側の領域において同じ移動速さで左右に手を動かした場合、右方向へ移動する操作区間の評価値Eの方が高い値となる。これにより、手の移動速さに差がない場合でも、ユーザの振りかぶりおよび振り戻しを送り動作として誤認識することを防止することができる。なお、Pを肘の位置としてもよい。
ジェスチャ認識装置が、カメラ206に正対する方向に手のひらを押し引きする動きを送り動作として認識するようにすることもできる。この場合、時系列情報取得部101は、手の大きさ(例えば、手を囲む矩形領域の面積)を時系列情報として取得し、その時系列情報の変化方向(増大方向、減少方向)を手の移動方向とすることができる。手の移動速さは手の大きさの変化の速度(単位時間あたりの変化量の最大値)、手の移動距離は手の大きさの変化量でそれぞれ代替できる。
本実施形態のジェスチャ認識装置は、認識対象となる操作区間(第1の操作区間)だけでなく前後の操作区間(第2および第3の操作区間)における手の位置に関する時系列情報を利用して送り動作を認識したが、認識対象および後続の操作区間における手の位置に関する時系列情報のみを利用して送り動作を認識してもよい。これにより、送り動作の前に発生する振りかぶりを送り動作として誤認識することを防止することができる。
本実施形態においてリアルタイムで認識する場合は、操作区間検出部102は、時系列情報取得部101で点を取得するたびに第1から第3の操作区間の情報を検出/更新していたが、特にそれに限られることはなく、特定の時刻についてのみ操作区間の検出を開始してもよい。本変形例では、操作区間の検出にかかる演算量を削減するため、前のフレームでの認識部103の結果に応じて操作区間の検出を開始する時刻を定める。具体的には、以下の過程で操作区間を検出する。
図7は、第2の実施形態にかかるジェスチャ認識装置の構成を示すブロック図である。第2の実施形態が第1の実施形態と異なるのは、表示制御部701が、操作区間検出部102における操作区間の検出状況および認識部103における認識状況に応じて、ユーザの送り動作によって制御される対象物の形態を変更する点である。ここで、対象物の形態は、対象物の外観だけでなく、対象物がディスプレイ207に表示される位置を意味する。
図10のフローチャートを利用して、本実施形態にかかるジェスチャ認識装置の表示制御部701の処理を説明する。表示制御部701は、操作区間検出部102における操作区間の検出状況および認識部103から取得した認識状況に関する情報を利用して、ユーザに提示する情報を制御する。ここでは、変形例6の場合で説明する。つまり、第1の操作区間が第2の操作区間よりも特徴量が大きくなった瞬間の時刻を検出開始時刻TCとし、時刻TCから認識部103の認識結果が確定する時刻TC+T0aまでの表示について説明する。
このように、本実施形態のジェスチャ認識装置は、第1の操作区間の認識状況に応じてユーザに提示する画面表示を逐次更新する。これにより、認識状況をユーザに逐次フィードバックすることができ、ユーザが体感する操作性を向上させることができる。
表示制御部701による表示の制御は、オブジェクトをゆっくり動かすというものに限定されない。例えば、図11に示すように、オブジェクトを移動方向に傾けるように動かしたり(1101)、移動方向に回転するように動かしたり(1102)、移動方向に矢印を表示したり(1103)することで、認識部103における認識状況をユーザに逐次フィードバックすることができる。この他にも、図12〜14に示すような例が考えられる。
進捗率 =(T−Tc)/T0a …(数式2)
進捗率が0.33以下である場合は1201、進捗率が0.33より大きく0.66以下である場合は1202、進捗率が0.66より大きい場合は1203、進捗率が1になった場合は1204をそれぞれ表示する。なお、T0a経過する前に第1の操作区間における手の動きが送り動作として認識されることが確定した場合は、強制的に進捗率を1にすることができる。また、第1の操作区間が送り動作ではないことが確定した場合は、後続する第2の操作区間における手の移動方向にゲージを表示することができる。
進捗率 = MIN(移動距離、L0)×MIN(移動速さ、V0) …(数式3)
(変形例7)
図10のステップS1005、S1008およびS1009におけるオブジェクトの移動速さを各操作区間における時系列情報に応じて変化させてもよい。例えば、第1の操作区間における手の移動速さや加速度の絶対値に応じてオブジェクトの移動速さを変えたりすることができる。例えば、図12において、素早く手を振ったらゲージの増え方が素早くなるようにしてもよい。
本実施形態のジェスチャ認識装置を電子書籍端末に内蔵した場合、ユーザのジェスチャで本をめくるよう制御することもできる。図15のように本をめくる途中であるかのような表示をすることにより、本をめくっているかのような効果を与えることができる。つまり、第1の操作区間の移動方向が左であると検出されたとき、進捗率が0のときには1501に、進捗率が0.33のときはめくる対象となるページ1502が1/3ほど左にめくられた状態を示す1503に、進捗率が0.66のときはページ1502が2/3ほど左にめくられた状態を示す1504に、進捗率が1になったらページが完全に左にめくられた状態にする。
以上述べた少なくとも一つの実施形態のジェスチャ認識装置によれば、認識対象となる操作区間だけでなく前後の操作区間における手の位置に関する時系列情報を利用して送り動作を認識する。これにより、ユーザの振りかぶりおよび振り戻しを送り動作として誤認識することを防止することができる。
102 操作区間検出部
103 認識部
104 コマンド発生部
105、701 表示制御部
201 制御部
202 記憶部
203 外部記憶部
204 操作部
205 通信部
206 カメラ
207 ディスプレイ
208 バス
301、302、801〜804、901〜903、1101〜1103、1501、1053、1504 画面表示
303〜306、805 オブジェクト
1201〜1203、1402、1403 ゲージ
1301、1302 模様
1401 カーソル
1502 ページ
Claims (11)
- 物体あるいはユーザの体の特定部位の動きを認識するジェスチャ認識装置であって、
前記特定部位の位置あるいは大きさに関する時系列情報を取得する時系列情報取得手段と、前記時系列情報から前記特定部位の移動方向を検出し、前記時系列情報の開始点、前記移動方向が転換する転換点、前記時系列情報の終了点の何れか2つの組み合わせで区分される複数の操作区間を検出する操作区間検出手段と、
前記複数の操作区間のうち認識対象となる第1の操作区間およびこの第1の操作区間に後続する第2の操作区間を特定し、この第1の操作区間における前記時系列情報から抽出した第1の特徴量および前記第2の操作区間における前記時系列情報から抽出した第2の特徴量を用いて、前記第1の操作区間に対応する前記特定部位の動きを認識する認識手段と、を備え、
前記認識手段が、前記第1の操作区間に先行する第3の操作区間を特定し、前記第1および第2の特徴量に加え、前記第3の操作区間における前記時系列情報から抽出した第3の特徴量を用い、前記第1の特徴量と前記第2の特徴量及び第3の特徴量の大きさを比較して、前記特定部位の動きを送り動作として認識するジェスチャ認識装置。 - 前記認識手段が、前記第1の特徴量が前記第2および第3の特徴量より大きい場合、前記第1の操作区間に対応する前記特定部位の動きを送り動作として認識する請求項1記載のジェスチャ認識装置。
- 前記認識手段が、前記第1の特徴量が前記第2および第3の特徴量より小さい場合、前記第1の操作区間に対応する前記特定部位の動きを送り動作として認識する請求項1記載のジェスチャ認識装置。
- 前記送り動作によって制御される対象物の形態を表示する表示制御手段を更に備え、
前記表示制御手段が、前記第1の特徴量と前記第2の特徴量の大きさの比較結果に応じて、前記対象物の形態を変更する請求項1記載のジェスチャ認識装置。 - 前記送り動作によって制御される対象物の形態を表示する表示制御手段を更に備え、前記表示制御手段が、前記第1の特徴量と前記第2の特徴量の大きさの比較結果および前記第1の特徴量と前記第3の特徴量の大きさの比較結果に応じて、前記対象物の形態を変更する請求項2または3記載のジェスチャ認識装置。
- 前記表示制御手段が、前記第1および第2の特徴量の大きさに応じて、前記対象物の形態を変更する請求項4記載のジェスチャ認識装置。
- 前記表示制御手段が、前記第1から第3の特徴量の大きさに応じて、前記対象物の形態を変更する請求項5記載のジェスチャ認識装置。
- 前記第1から第3の特徴量が、前記特定部位の移動速さ、移動距離、加速度の絶対値のうちの少なくとも1つを表す値である請求項1から請求項7の何れか1項に記載のジェスチャ認識装置。
- 前記第1から第3の特徴量が、予め設定した基準位置からの前記特定部位の相対的な位置および前記特定部位の移動方向に応じて変化する値である請求項1から請求項8の何れか1項に記載のジェスチャ認識装置。
- 物体あるいはユーザの体の特定部位の動きを認識するジェスチャ認識方法であって、
前記特定部位の位置あるいは大きさに関する時系列情報を取得するステップと、
前記時系列情報から前記特定部位の移動方向を検出し、前記時系列情報の開始点、前記移動方向が転換する転換点、前記時系列情報の終了点の何れか2つの組み合わせで区分される複数の操作区間を検出するステップと、
前記複数の操作区間のうち認識対象となる第1の操作区間およびこの第1の操作区間に後続する第2の操作区間を特定し、この第1の操作区間における前記時系列情報から抽出した第1の特徴量および前記第2の操作区間における前記時系列情報から抽出した第2の特徴量を用いて、前記第1の操作区間に対応する前記特定部位の動きを認識するステップと、を備え、
前記認識するステップが、前記第1の操作区間に先行する第3の操作区間を特定し、前記第1および第2の特徴量に加え、前記第3の操作区間における前記時系列情報から抽出した第3の特徴量を用い、前記第1の特徴量と前記第2の特徴量及び第3の特徴量の大きさを比較して、前記特定部位の動きを送り動作として認識するジェスチャ認識方法。 - 物体あるいはユーザの体の特定部位の動きを認識するジェスチャ認識装置に、
前記特定部位の位置あるいは大きさに関する時系列情報を取得する機能と、
前記時系列情報から前記特定部位の移動方向を検出し、前記時系列情報の開始点、前記移動方向が転換する転換点、前記時系列情報の終了点の何れか2つの組み合わせで区分される複数の操作区間を検出する機能と、
前記複数の操作区間のうち認識対象となる第1の操作区間およびこの第1の操作区間に後続する第2の操作区間を特定し、この第1の操作区間における前記時系列情報から抽出した第1の特徴量および前記第2の操作区間における前記時系列情報から抽出した第2の特徴量を用いて、前記第1の操作区間に対応する前記特定部位の動きを認識する機能と、を備え、
前記認識する機能が、前記第1の操作区間に先行する第3の操作区間を特定し、前記第1および第2の特徴量に加え、前記第3の操作区間における前記時系列情報から抽出した第3の特徴量を用い、前記第1の特徴量と前記第2の特徴量及び第3の特徴量の大きさを比較して、前記特定部位の動きを送り動作として認識すること
を実現させるためのジェスチャ認識プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011172410A JP5701714B2 (ja) | 2011-08-05 | 2011-08-05 | ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム |
US13/421,711 US8837775B2 (en) | 2011-08-05 | 2012-03-15 | Apparatus and method for recognizing gesture, and non-transitory computer readable medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011172410A JP5701714B2 (ja) | 2011-08-05 | 2011-08-05 | ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013037499A JP2013037499A (ja) | 2013-02-21 |
JP5701714B2 true JP5701714B2 (ja) | 2015-04-15 |
Family
ID=47626975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011172410A Expired - Fee Related JP5701714B2 (ja) | 2011-08-05 | 2011-08-05 | ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8837775B2 (ja) |
JP (1) | JP5701714B2 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9025022B2 (en) * | 2012-10-25 | 2015-05-05 | Sony Corporation | Method and apparatus for gesture recognition using a two dimensional imaging device |
US9720504B2 (en) * | 2013-02-05 | 2017-08-01 | Qualcomm Incorporated | Methods for system engagement via 3D object detection |
US9921648B2 (en) * | 2013-02-22 | 2018-03-20 | University Of Seoul Industry Cooperation Foundation | Apparatuses, methods and recording medium for control portable communication terminal and its smart watch |
US20140282280A1 (en) * | 2013-03-14 | 2014-09-18 | Samsung Electronics Co., Ltd. | Gesture detection based on time difference of movements |
CN104217192B (zh) * | 2013-06-03 | 2018-04-17 | 株式会社理光 | 基于深度图像的手定位方法和设备 |
US9367137B2 (en) | 2013-07-01 | 2016-06-14 | Blackberry Limited | Alarm operation by touch-less gesture |
US9323336B2 (en) | 2013-07-01 | 2016-04-26 | Blackberry Limited | Gesture detection using ambient light sensors |
US9489051B2 (en) | 2013-07-01 | 2016-11-08 | Blackberry Limited | Display navigation using touch-less gestures |
US9423913B2 (en) | 2013-07-01 | 2016-08-23 | Blackberry Limited | Performance control of ambient light sensors |
US9256290B2 (en) | 2013-07-01 | 2016-02-09 | Blackberry Limited | Gesture detection using ambient light sensors |
US9342671B2 (en) | 2013-07-01 | 2016-05-17 | Blackberry Limited | Password by touch-less gesture |
US9398221B2 (en) | 2013-07-01 | 2016-07-19 | Blackberry Limited | Camera control using ambient light sensors |
US9405461B2 (en) | 2013-07-09 | 2016-08-02 | Blackberry Limited | Operating a device using touchless and touchscreen gestures |
US9304596B2 (en) | 2013-07-24 | 2016-04-05 | Blackberry Limited | Backlight for touchless gesture detection |
US9465448B2 (en) | 2013-07-24 | 2016-10-11 | Blackberry Limited | Backlight for touchless gesture detection |
US9194741B2 (en) | 2013-09-06 | 2015-11-24 | Blackberry Limited | Device having light intensity measurement in presence of shadows |
JP6225612B2 (ja) * | 2013-09-30 | 2017-11-08 | 富士通株式会社 | プログラム、情報処理装置、および方法 |
JP6270495B2 (ja) * | 2014-01-16 | 2018-01-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体 |
US20160078287A1 (en) | 2014-08-29 | 2016-03-17 | Konica Minola Laboratory U.S.A., Inc. | Method and system of temporal segmentation for gesture analysis |
WO2017065051A1 (ja) * | 2015-10-16 | 2017-04-20 | コニカミノルタ株式会社 | 入力装置、電子機器、電子機器の入力方法及びその入力プログラム |
JPWO2017065050A1 (ja) * | 2015-10-16 | 2018-08-02 | コニカミノルタ株式会社 | 入力装置、電子機器、電子機器の入力方法及びその入力プログラム |
JP6551941B2 (ja) * | 2016-04-19 | 2019-07-31 | 株式会社東海理化電機製作所 | ジェスチャ判定装置 |
JP6173625B1 (ja) * | 2017-01-04 | 2017-08-02 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
CN109643372A (zh) * | 2017-02-28 | 2019-04-16 | 深圳市大疆创新科技有限公司 | 一种识别方法、设备以及可移动平台 |
CN108734066B (zh) * | 2017-04-20 | 2021-09-07 | 奥克斯空调股份有限公司 | 一种手势图像获取设备及方法 |
CN108989553A (zh) | 2018-06-29 | 2018-12-11 | 北京微播视界科技有限公司 | 场景操控的方法、装置及电子设备 |
CN109062401B (zh) * | 2018-07-11 | 2020-12-15 | 北京理工大学 | 一种基于肌电信号的实时手势识别系统 |
JP7350670B2 (ja) * | 2020-02-13 | 2023-09-26 | キヤノン株式会社 | 装置、その制御方法、及びプログラム |
CN111753771B (zh) * | 2020-06-29 | 2024-09-20 | 武汉虹信技术服务有限责任公司 | 一种手势事件的识别方法、系统及介质 |
CN113515202B (zh) * | 2021-07-27 | 2023-12-12 | 北京字节跳动网络技术有限公司 | 光标移动方法、装置和电子设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1185369A (ja) | 1997-09-11 | 1999-03-30 | Toshiba Corp | 命令指示装置、命令指示方法、自動取引装置、自動取引方法 |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP2004070688A (ja) * | 2002-08-07 | 2004-03-04 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力装置、方法、プログラム、及びそのプログラムを記録した記録媒体 |
JP2006209563A (ja) * | 2005-01-31 | 2006-08-10 | Victor Co Of Japan Ltd | インターフェース装置 |
JP2009093291A (ja) * | 2007-10-04 | 2009-04-30 | Toshiba Corp | ジェスチャー判定装置及び方法 |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
JP5183398B2 (ja) * | 2008-09-29 | 2013-04-17 | 株式会社日立製作所 | 入力装置 |
JP5175755B2 (ja) * | 2009-02-04 | 2013-04-03 | 株式会社東芝 | ジェスチャ認識装置、その方法及びそのプログラム |
JP5187280B2 (ja) * | 2009-06-22 | 2013-04-24 | ソニー株式会社 | 操作制御装置および操作制御方法 |
JP5161182B2 (ja) | 2009-09-28 | 2013-03-13 | 任天堂株式会社 | 情報処理プログラム及び情報処理装置 |
IL204436A (en) * | 2010-03-11 | 2016-03-31 | Deutsche Telekom Ag | A system and method for remote control of online TV by waving hands |
US8457353B2 (en) * | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
-
2011
- 2011-08-05 JP JP2011172410A patent/JP5701714B2/ja not_active Expired - Fee Related
-
2012
- 2012-03-15 US US13/421,711 patent/US8837775B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8837775B2 (en) | 2014-09-16 |
JP2013037499A (ja) | 2013-02-21 |
US20130034265A1 (en) | 2013-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5701714B2 (ja) | ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム | |
US11093045B2 (en) | Systems and methods to augment user interaction with the environment outside of a vehicle | |
US10761610B2 (en) | Vehicle systems and methods for interaction detection | |
JP5547139B2 (ja) | 認識装置、方法及びプログラム | |
US9940507B2 (en) | Image processing device and method for moving gesture recognition using difference images | |
JP6292867B2 (ja) | 合成イメージを撮影する撮影装置及びその方法 | |
JP4725526B2 (ja) | 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム | |
US20200364897A1 (en) | Method and device for detecting planes and/or quadtrees for use as a virtual substrate | |
US9323339B2 (en) | Input device, input method and recording medium | |
US11941764B2 (en) | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments | |
WO2018048510A1 (en) | Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices | |
US20130113829A1 (en) | Information processing apparatus, display control method, and program | |
TW201418072A (zh) | 車用影像系統及其影像之顯示控制方法 | |
JP6739847B2 (ja) | 画像表示制御装置および画像表示制御用プログラム | |
US20240153219A1 (en) | Systems, Methods, and Graphical User Interfaces for Adding Effects in Augmented Reality Environments | |
EP2831701B1 (en) | Display control device, display control method, and program | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
CN104793736A (zh) | 电子装置及其控制方法 | |
TWI447619B (zh) | 提供引導軌跡以輔助手勢輸入之系統及其方法 | |
CN114419290A (zh) | 用于ar设备的内容显示方法、装置以及ar设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150218 |
|
LAPS | Cancellation because of no payment of annual fees |