JP5174492B2 - 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム - Google Patents

画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム Download PDF

Info

Publication number
JP5174492B2
JP5174492B2 JP2008055564A JP2008055564A JP5174492B2 JP 5174492 B2 JP5174492 B2 JP 5174492B2 JP 2008055564 A JP2008055564 A JP 2008055564A JP 2008055564 A JP2008055564 A JP 2008055564A JP 5174492 B2 JP5174492 B2 JP 5174492B2
Authority
JP
Japan
Prior art keywords
region
camera
subject
gesture
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008055564A
Other languages
English (en)
Other versions
JP2009211563A (ja
Inventor
亨 山口
翔一朗 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan University
Original Assignee
Tokyo Metropolitan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan University filed Critical Tokyo Metropolitan University
Priority to JP2008055564A priority Critical patent/JP5174492B2/ja
Publication of JP2009211563A publication Critical patent/JP2009211563A/ja
Application granted granted Critical
Publication of JP5174492B2 publication Critical patent/JP5174492B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラムに関する。
我々は、様々な情報ツールを使用して日々、様々な情報を取得している。しかし、そのようなツールは機能が多すぎるため、使いこなすことが難しい場合がある。そのため、可能な限り直感的に理解できるインターフェースが必要とされている。そこで、自然なコミュニケーションであるジェスチャインターフェースの一つである指差し動作をロボット等の機械に読み取らせるための研究が行われている(例えば、非特許文献1,2参照。)。
これらの画像処理では、2つのカメラにより得た画像に対し線形変換を行い、人の形状の特徴点をすべて抽出して、人間の3次元情報と動作とを取得している。また、特別な道具を使用しないで人のジェスチャをシステム側が理解できるよう、小型デジタルカメラから得られる人の頭及び手の色情報を利用する研究も行われている(例えば、非特許文献3参照。)。
Takahiro Suzuki and Akihisa Ohya andShin’ichi Yuta, "Operation Direction to aMobile Robot by Projection Lights," Proc. 2005 IEEE Workshop on AdvancedRobotics and its Social Impacts.2005 David J.Cannon, Geb Thomas, Collin Wangand T. Kesavadas, "A Virtual Reality BasedPointe-and-direct Robotics System with Instrumented Glove." InternationalJournal of Industrial Engineering vol.1, no.2, pp.139-148,1994 Toru Yamaguchi et al. "Intelligent Spaceand Human centered Robotics" IEEE Transactions on Industrial electronics, Vol.50, No. 5, pp.881-889, 2003
しかしながら、上記従来のジェスチャ動作認識装置では、RGB情報をもとに被写体を追跡しているので、ジェスチャを判別するためには、予め所定の色の帽子と手袋を着用した上で頭と手の位置を特定しなければならないという問題がある。また、時間を異ならせて取得した画像情報の変化を利用するため、処理時間がかかる。
本発明は上記事情に鑑みて成されたものであり、ジェスチャの識別精度を向上するとともに短時間で処理を行うことができる画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラムを提供することを目的とする。
本発明は、上記課題を解決するため、以下の手段を採用する。
本発明に係る画像認識装置は、異なる位置に配された第一カメラ及び第二カメラと接続され、前記第一カメラ及び前記第二カメラにより同一被写体の画像を撮像する撮像手段と、同一時刻における前記第一カメラ及び前記第二カメラの画像情報を対比して被写体領域と背景領域とを識別する検出手段と、識別された前記被写体領域からさらに被写体の頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する特定手段と、を備えていることを特徴とする。
また、本発明に係る画像認識方法は、異なる位置に配された第一カメラ及び第二カメラと接続され、前記第一カメラ及び前記第二カメラにより同一被写体の画像を撮像する撮像ステップと、同一時刻における前記第一カメラ及び前記第二カメラの画像情報を対比して被写体領域と背景領域とを識別する検出ステップと、識別された前記被写体領域からさらに被写体の頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する特定ステップと、を備えていることを特徴とする。
また、本発明に係る画像認識プログラムは、コンピュータを、異なる位置に配された第一カメラ及び第二カメラと接続され、前記第一カメラ及び前記第二カメラにより同一被写体の画像を撮像する撮像手段と、同一時刻における前記第一カメラ及び前記第二カメラの画像情報を対比して被写体領域と背景領域とを識別する検出手段と、識別された前記被写体領域からさらに被写体の頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する特定手段と、して機能させることを特徴とする。
この発明は、従来のように、被写体の特徴点として算出する頭と手とに、背景とは異なる色情報を予め付与しておかなくても、被写体の頭と手との3次元情報をそれぞれ得ることができる。
また、本発明に係る画像認識装置は、前記画像認識装置であって、前記検出手段が、前記第一カメラ及び前記第二カメラにおけるそれぞれの画素値の差の相対的に大きい領域を被写体領域とし、かつ、画素値の差の相対的に小さい領域を背景領域とすることを特徴とする。
また、本発明に係る画像認識方法は、前記画像認識方法であって、前記検出ステップが、前記第一カメラ及び前記第二カメラにおけるそれぞれの画素値の差の相対的に大きい領域を被写体領域とし、かつ、画素値の差の相対的に小さい領域を背景領域とすることを特徴とする。
また、本発明に係る画像認識プログラムは、前記画像認識プログラムであって、前記検出手段が、前記第一カメラ及び前記第二カメラにおけるそれぞれの画素値の差の相対的に大きい領域を被写体領域とし、かつ、画素値の差の相対的に小さい領域を背景領域とする処理を行うことを特徴とする。
この発明は、第一カメラ及び第二カメラからともに近い物体は視差が大きく、第一カメラ及び第二カメラからともに離れた物体は視差が小さいので、第一カメラ及び第二カメラの近くの被写体を背景から識別させることができる。
また、本発明に係る画像認識装置は、前記画像認識装置であって、前記特定手段が、前記被写体領域の頂部を前記頭領域、かつ該頂部よりも尖った領域を前記手先領域と特定することを特徴とする。
また、本発明に係る画像認識方法は、前記画像認識方法であって、前記特定ステップが、被写体領域の頂部を前記頭領域、かつ該頂部よりも尖った領域を前記手先領域と特定することを特徴とする。
また、本発明に係る画像認識プログラムは、前記画像認識プログラムであって、前記特定手段が、前記被写体領域の頂部を前記頭領域、かつ該頂部よりも尖った領域を前記手先領域と特定する処理を行うことを特徴とする。
この発明は、三次元座標で算出された特徴点の動きから手先の指す方向を特定することができる。
本発明に係るジェスチャ動作認識システムは、本発明に係る画像認識装置と、特定された前記特徴点を追跡して被写体のジェスチャを判別するジェスチャ判別手段と、備えていることを特徴とする。
また、本発明に係るジェスチャ動作認識方法は、本発明に係る画像認識方法と、特定された前記特徴点を追跡して被写体のジェスチャを判別するジェスチャ判別ステップと、を備えていることを特徴とする。
また、本発明に係るジェスチャ動作認識プログラムは、本発明に係る画像認識プログラムと、特定された前記特徴点を追跡して被写体のジェスチャを判別するジェスチャ判別手段と、を備えていることを特徴とする。
この発明は、被写体の意志とジェスチャとの関係を予め決めておくことによって、カメラが撮像した手の動きによりジェスチャを特定することができ、さらにこのジェスチャから被写体の意志を読み取ることができる。
本発明によれば、ジェスチャの識別精度を向上するとともに短時間で処理を行うことができる。
本発明に係る一実施形態について、図1から図3を参照して説明する。
本実施形態に係るジェスチャ動作認識システム1は、3次元情報算出用画像認識モジュール(画像認識装置)2と、3次元情報算出用画像認識モジュール2に接続された第一デジタルカメラ(第一カメラ)3A及び第二デジタルカメラ(第二カメラ)3Bと、結果確認用ディスプレイ5と、コマンド入力用コンピュータ6と、ジェスチャ判定処理用コンピュータ7と、を備えている。
3次元情報算出用画像認識モジュール2は、画像認識プログラムIP及び必要な処理を行うためのデータ等が記憶されたROM(リードオンリーメモリ)、必要なデータを一時的に保存するためのRAM(ランダムアクセスメモリー)、ROM等に記憶されたプログラムに応じた処理を行うCPU(中央演算処理装置)、を備えている。なお、3次元情報算出用画像認識モジュール2は、市販のトラッキングビジョン(富士通株式会社製)のハードウエア構成を利用してもよい。
第一デジタルカメラ3A及び第二デジタルカメラ3Bは、被写体の三次元位置を算出できるようにキャリブレーションがかけられ、互いの位置関係がずれないように固定されている。コマンド入力用コンピュータ6は、3次元情報算出用画像認識モジュール2を動作させるプログラムが収容されるユーザアプリケーション用記憶領域8を備えている。
ジェスチャ判定処理用コンピュータ7も、ROM、RAM、CPUを備えている。このジェスチャ判定処理用コンピュータ7には、ジェスチャ動作認識プログラムJPの後述するジェスチャ判別手段13部分やジェスチャとユーザー(被写体)の意思表示との対応テーブルが保存されている。
ジェスチャ動作認識プログラムJPは、機能手段(プログラムモジュール)として、第一デジタルカメラ3A及び第二デジタルカメラ3Bにより同一ユーザーの画像を撮像する撮像手段10と、同一時刻における第一デジタルカメラ3A及び第二デジタルカメラ3Bの画像情報を対比してユーザー領域(被写体領域)UAと背景領域BAとを識別する検出手段11と、識別されたユーザー領域UAからさらにユーザーの頭領域A1及び手先領域A2を検出するとともに、領域A1,A2の各々の特徴点P1,P2を三次元座標算出する特定手段12と、を有する画像認識プログラムIPと、特定された特徴点P1,P2を追跡してユーザーのジェスチャを判別するジェスチャ判別手段13を有するジェスチャ判別プログラムRPと、を備えている。
検出手段11は、自乗誤差の計算を行うことにより、第一デジタルカメラ3A及び第二デジタルカメラ3Bにおけるそれぞれの画素値の差の相対的に大きい領域をユーザー領域UAとし、かつ、画素値の差の相対的に小さい領域を背景領域BAとする処理を行う。
特定手段12は、ユーザー領域UAの頂部を頭領域A1、かつ該頂部よりも尖った領域を手先領域A2、として特定する処理を行う。ジェスチャ判別手段13は、特定された特徴点を追跡して得られた3次元的な挙動をジェスチャと判別する。そして、予め決められたジェスチャとユーザーの意思表示との対応テーブルに基づき、ユーザーの意思を認識する。
次に、本実施形態に係る画像認識方法及びジェスチャ動作認識方法について、ジェスチャ動作認識プログラムJPの処理の流れと合わせて説明する。
この画像認識方法、ジェスチャ動作認識方法及びそのプログラムによる処理は、3次元情報算出用画像認識モジュール2、第一デジタルカメラ3A及び第二デジタルカメラ3B、コマンド入力用コンピュータ6、ジェスチャ判定処理用コンピュータ7の間で行われる。
そして、第一デジタルカメラ3A及び第二デジタルカメラ3Bにより同一ユーザーの画像を撮像する撮像ステップ(ST1)と、同一時刻における第一デジタルカメラ3A及び第二デジタルカメラ3Bの画像情報を対比してユーザー領域UAと背景領域BAとを識別する検出ステップ(ST2)と、識別されたユーザー領域UAからさらにユーザーの頭領域A1及び手先領域A2を検出するとともに、領域A1,A2の各々の特徴点P1,P2を三次元座標算出する特定ステップ(ST3)と、特定された特徴点P1,P2を追跡して被写体のジェスチャを判別するジェスチャ判別ステップ(ST4)と、を備えている。なお、これらの処理は、各種処理と並行してマルチタスクで実行される。
撮像ステップ(ST1)では、まず、所定のコマンドをコマンド入力用コンピュータ6に入力することにより、第一デジタルカメラ3A及び第二デジタルカメラ3Bから撮像データ3a,3bを取得する。
ここで、同時刻の二つのデジタルカメラ3A,3Bから得た撮像データ3a,3bを対比したとき、デジタルカメラ3A,3Bの近くの物体は視差が大きく、またデジタルカメラ3A,3Bから離れている物体は視差が小さい。そこで、検出ステップ(ST2)では、自乗誤差の計算を行い、ユーザー領域UAを背景領域BAから抽出する。
特定ステップ(ST3)では、ユーザー領域UAの肌色部分のうち、頂部の頭領域A1から特徴点P1を算出し、頂部よりも尖った領域の手先領域A2から特徴点P2を算出して、その2点のみを追跡して画像解析を行う。
ジェスチャ判別ステップ(ST4)では、ジェスチャとユーザーの意思表示との対応テーブルに基づき、得られた特徴点P1,P2の動きと、ジェスチャとの対応付けの処理が行われる。
この3次元情報算出用画像認識モジュール2、画像認識方法及び画像認識プログラムIPによれば、検出手段11と特定手段12とを備えているので、従来のように予めユーザーに所定の色の帽子を被らせ、手には所定の色の手袋をはめさせて背景とは異なる色情報を付与しておかなくても、ユーザーの頭と手との3次元情報を得ることができる。したがって、ジェスチャとしての識別精度を向上するとともに短時間で処理を行うことができる。
また、検出手段11によって、第一デジタルカメラ3A及び第二デジタルカメラ3Bにおける視差を利用してそれぞれの画素値の差の相対的に大きい領域(視差大)をユーザー領域UAとし、かつ、画素値の差の相対的に小さい領域(視差小)を背景領域BAとすることができる。
さらに、特定手段12によって、ユーザー領域UAのうち、頭領域A1及び手先領域A2のそれぞれの三次元座標で算出された特徴点P1,P2の動きから手先の指す方向を特定することができる。
また、ジェスチャ動作認識システム1は、3次元情報算出用画像認識モジュール2に加えてジャスチャ判定処理用コンピュータ7を備えている。そして、特定された特徴点P1,P2を追跡してユーザーのジェスチャを判別するジェスチャ判別手段13を備えている。したがって、ユーザーの意志とジェスチャとの関係を予め決めておくことによって、カメラ3A,3Bが撮像した手の動きによりユーザーのジェスチャを特定することができ、さらにこのジェスチャからユーザーの意志を読み取ることができる。
なお、本発明の技術範囲は上記実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
例えば、上記実施形態ではカメラを2台としているが、3台以上のカメラを使用するものでも構わない。
また、図4に示すように、ロボットのような移動体15にジェスチャ動作認識システム1が搭載されていてもよい。この場合、ジェスチャによってロボットとコミュニケーションを図ることができる。
さらに、図5に示すように、明るさが調節可能な照明Lと、開閉可能な窓Wと、チャンネル変更及び音量調節が可能なテレビTVと、再生・停止、巻き戻し、早送りが可能なビデオVと、が操作制御機器Cと接続された部屋の中で、これらの機器を操作する際にジェスチャ動作認識システム1が適用されてもよい。この場合、図6に示すように、機器の選択のためのジェスチャ及び選択した機器の操作のためのジェスチャとユーザーの意思表示との対応テーブルを予め用意しておく。これにより、ユーザーのジェスチャによって各機器の操作を自動的に行うことができる。
従来の画像処理技術では人の頭と手の位置の画像処理に200ms要していたが、本願の手法であげた画像認識モジュール2等を用いることにより、50msと処理の高速化を行うことができた。ここで、図7は、人を上から見たときの頭と手の位置の画像処理結果を示す。図7に示すように、精度比較においても従来の画像処理技術では、point1〜3における自乗誤差平均が16.3cmなのに対し、本願手法では13.4cmとなり、より良い精度を得ることができた。
本発明の一実施形態に係るジェスチャ動作認識システムを示す全体構成機能ブロック図である。 本発明の一実施形態に係るジェスチャ動作認識方法を示すフロー図である。 本発明の一実施形態に係るジェスチャ動作認識処理の流れを示す説明図である。 本発明の一実施形態に係るジェスチャ動作認識システムを移動体に搭載した応用例を示す図である。 本発明の一実施形態に係るジェスチャ動作認識システムの他の応用例を示す全体概要図である。 図6に示す応用例におけるジェスチャ対応テーブルを示す図である。 本発明の一実施形態に係るジェスチャ動作認識システムと従来例との処理結果の比較を示すグラフである。
符号の説明
1 ジェスチャ動作認識システム
2 3次元情報算出用画像認識モジュール(画像処理装置)
3A 第一デジタルカメラ(第一カメラ)
3B 第二デジタルカメラ(第二カメラ)
10 撮像手段
11 検出手段
12 特定手段
13 ジェスチャ判別手段
A1 頭領域
A2 手先領域
BA 背景領域
IP 画像認識プログラム
JP ジェスチャ認識プログラム
UA ユーザー領域(被写体領域)
P1,P2 特徴点

Claims (12)

  1. 異なる位置に配された第一カメラ及び第二カメラと接続され、
    前記第一カメラ及び前記第二カメラにより同一被写体の画像を撮像する撮像手段と、
    同一時刻における前記第一カメラ及び前記第二カメラの画像情報を対比して被写体領域と背景領域とを識別する検出手段と、
    識別された前記被写体領域からさらに被写体の頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する特定手段と、
    を備え
    前記特定手段における頭領域及び手先領域の検出は、前記被写体領域の頂部を前記頭領域、かつ該頂部よりも尖った領域を前記手先領域と特定することにより行う
    ことを特徴とする画像認識装置。
  2. 前記検出手段が、前記第一カメラ及び前記第二カメラにおけるそれぞれの画素値の差の相対的に大きい領域を被写体領域とし、かつ、画素値の差の相対的に小さい領域を背景領域とすることを特徴とする請求項1に記載の画像認識装置。
  3. 前記特定手段において、前記頭領域から算出される特徴点と、前記手先領域から算出される特徴点との2点のみを特定し、これら2点のみ画像解析を行うことにより画像の認識を行う
    請求項1又は2記載の画像認識装置。
  4. 請求項3に記載の画像認識装置と、
    特定された前記頭領域から算出される特徴点と、前記手先領域から算出される特徴点との2点のみを追跡して、ジェスチャとユーザーの意思表示との対応テーブルに基づき、得られた特徴点P1,P2の動きと、ジェスチャとの対応付けの処理を行うことにより、被写体のジェスチャを判別するジェスチャ判別手段と、
    を備えていることを特徴とするジェスチャ動作認識システム。
  5. 異なる位置に配された第一カメラ及び第二カメラと接続され、
    前記第一カメラ及び前記第二カメラにより同一被写体の画像を撮像する撮像ステップと、
    同一時刻における前記第一カメラ及び前記第二カメラの画像情報を対比して被写体領域と背景領域とを識別する検出ステップと、
    識別された前記被写体領域からさらに被写体の頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する特定ステップと、
    を備え
    前記特定ステップが、被写体領域の頂部を前記頭領域、かつ該頂部よりも尖った領域を前記手先領域と特定する
    ことを特徴とする画像認識方法。
  6. 前記検出ステップが、前記第一カメラ及び前記第二カメラにおけるそれぞれの画素値の差の相対的に大きい領域を被写体領域とし、かつ、画素値の差の相対的に小さい領域を背景領域とすることを特徴とする請求項5に記載の画像認識方法。
  7. 前記特定ステップが、前記頭領域から算出される特徴点と、前記手先領域から算出される特徴点との2点のみを特定し、これら2点のみ画像解析を行うことにより画像の認識を行うことを特徴とする請求項5又は6に記載の画像認識方法。
  8. 請求項7記載の画像認識方法と、
    前記特定手段において、前記頭領域から算出される特徴点と、前記手先領域から算出される特徴点との2点のみを特定し、これら2点のみを追跡して、ジェスチャとユーザーの意思表示との対応テーブルに基づき、得られた特徴点P1,P2の動きと、ジェスチャとの対応付けの処理を行うことにより被写体のジェスチャを判別するジェスチャ判別ステップと、
    を備えていることを特徴とするジェスチャ動作認識方法。
  9. コンピュータを、
    異なる位置に配された第一カメラ及び第二カメラと接続され、
    前記第一カメラ及び前記第二カメラにより同一被写体の画像を撮像する撮像手段と、
    同一時刻における前記第一カメラ及び前記第二カメラの画像情報を対比して被写体領域と背景領域とを識別する検出手段と、
    識別された前記被写体領域からさらに被写体の頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する特定手段と、
    して機能させ
    前記特定手段が、前記被写体領域の頂部を前記頭領域、かつ該頂部よりも尖った領域を前記手先領域と特定する処理を行うことを特徴とする画像認識プログラム。
  10. 前記検出手段が、前記第一カメラ及び前記第二カメラにおけるそれぞれの画素値の差の相対的に大きい領域を被写体領域とし、かつ、画素値の差の相対的に小さい領域を背景領域とする処理を行うことを特徴とする請求項9に記載の画像認識プログラム。
  11. 前記特定手段が、前記頭領域から算出される特徴点と、前記手先領域から算出される特徴点との2点のみを特定し、これら2点のみ画像解析を行うことにより画像の認識を行うことを特徴とする請求項9又は10に記載の画像認識プログラム。
  12. 請求項11記載の画像認識プログラムと、前記頭領域から算出される特徴点と、前記手先領域から算出される特徴点との2点のみを特定し、これら2点のみを追跡して、ジェスチャとユーザーの意思表示との対応テーブルに基づき、得られた特徴点P1,P2の動きと、ジェスチャとの対応付けの処理を行うことにより被写体のジェスチャを判別するジェスチャ判別手段と、
    を備えていることを特徴とするジェスチャ動作認識プログラム。
JP2008055564A 2008-03-05 2008-03-05 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム Expired - Fee Related JP5174492B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008055564A JP5174492B2 (ja) 2008-03-05 2008-03-05 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008055564A JP5174492B2 (ja) 2008-03-05 2008-03-05 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム

Publications (2)

Publication Number Publication Date
JP2009211563A JP2009211563A (ja) 2009-09-17
JP5174492B2 true JP5174492B2 (ja) 2013-04-03

Family

ID=41184622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008055564A Expired - Fee Related JP5174492B2 (ja) 2008-03-05 2008-03-05 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム

Country Status (1)

Country Link
JP (1) JP5174492B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5438601B2 (ja) * 2010-06-15 2014-03-12 日本放送協会 人物動作判定装置およびそのプログラム
JP5997699B2 (ja) 2010-11-01 2016-09-28 トムソン ライセンシングThomson Licensing ジェスチャ入力を検知する方法と装置
JP5645646B2 (ja) * 2010-12-22 2014-12-24 綜合警備保障株式会社 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム
JP5718632B2 (ja) * 2010-12-22 2015-05-13 綜合警備保障株式会社 部位認識装置、部位認識方法、及び部位認識プログラム
CN103135756B (zh) * 2011-12-02 2016-05-11 深圳泰山体育科技股份有限公司 生成控制指令的方法和系统
CN103713738B (zh) * 2013-12-17 2016-06-29 武汉拓宝科技股份有限公司 一种基于视觉跟踪和手势识别的人机交互方法
CN104050859A (zh) * 2014-05-08 2014-09-17 南京大学 可交互数字化立体沙盘系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05196425A (ja) * 1992-01-21 1993-08-06 Ezel Inc 人間の3次元位置検出方法
JP2967086B1 (ja) * 1998-09-25 1999-10-25 株式会社エイ・ティ・アール知能映像通信研究所 多眼画像処理による人物の三次元姿勢推定方法
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置
JP2004265222A (ja) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP4153819B2 (ja) * 2003-03-31 2008-09-24 本田技研工業株式会社 ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP4275171B2 (ja) * 2006-02-03 2009-06-10 オリンパスイメージング株式会社 カメラ

Also Published As

Publication number Publication date
JP2009211563A (ja) 2009-09-17

Similar Documents

Publication Publication Date Title
JP5174492B2 (ja) 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
Lee et al. Handy AR: Markerless inspection of augmented reality objects using fingertip tracking
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP2344983B1 (en) Method, apparatus and computer program product for providing adaptive gesture analysis
US9256324B2 (en) Interactive operation method of electronic apparatus
JP5205187B2 (ja) 入力システム及び入力方法
US8897490B2 (en) Vision-based user interface and related method
US20130279756A1 (en) Computer vision based hand identification
KR101551576B1 (ko) 로봇 청소기, 제스쳐 인식 장치 및 방법
US9836130B2 (en) Operation input device, operation input method, and program
CN112506340B (zh) 设备控制方法、装置、电子设备及存储介质
TW201123031A (en) Robot and method for recognizing human faces and gestures thereof
KR20150055543A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
KR101745651B1 (ko) 손 제스처 인식 시스템 및 방법
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
JP2012238293A (ja) 入力装置
KR101396488B1 (ko) 신호 입력 장치 및 신호 입력 방법
JP2021000694A (ja) ロボット教示装置及びロボットシステム
Kopinski et al. A time-of-flight-based hand posture database for human-machine interaction
Siam et al. Human computer interaction using marker based hand gesture recognition
Hannuksela et al. Face tracking for spatially aware mobile user interfaces
JP2832333B2 (ja) 物体の形状・姿勢検出装置
CN113192127A (zh) 一种图像处理方法、装置、电子设备和存储介质
Xie et al. Hand posture recognition using kinect

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080310

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20101213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120106

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121228

R150 Certificate of patent or registration of utility model

Ref document number: 5174492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees