JP4153819B2 - ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム - Google Patents
ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム Download PDFInfo
- Publication number
- JP4153819B2 JP4153819B2 JP2003096520A JP2003096520A JP4153819B2 JP 4153819 B2 JP4153819 B2 JP 4153819B2 JP 2003096520 A JP2003096520 A JP 2003096520A JP 2003096520 A JP2003096520 A JP 2003096520A JP 4153819 B2 JP4153819 B2 JP 4153819B2
- Authority
- JP
- Japan
- Prior art keywords
- posture
- gesture
- hand
- face
- hand position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、カメラによって対象人物を撮像した画像から、対象人物のポスチャ(姿勢)又はジェスチャ(動作)を認識するための装置、方法及びプログラムに関する。
【0002】
【従来の技術】
従来、カメラによって対象人物を撮像した画像から、対象人物の動きの特徴を示す点(特徴点)を検出し、その特徴点に基づいて対象人物のジェスチャを推定するジェスチャ認識手法が数多く提案されている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2000−149025号公報(第3−6頁、第1図)
【0004】
【発明が解決しようとする課題】
しかし、従来のジェスチャ認識手法では、対象人物のジェスチャを認識する際に、前記特徴点を一々検出する必要があるため、計算量が多くなり演算処理の負担が増加するという問題があった。
【0005】
本発明は、以上のような問題点に鑑みてなされたものであり、ポスチャ認識又はジェスチャ認識を行う際の演算処理を軽減することができるジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラムを提供することを目的とする。
【0006】
【課題を解決するための手段】
請求項1に記載のジェスチャ認識装置は、カメラによってポスチャ認識又はジェスチャ認識の対象人物を撮像した撮像画像から、前記対象人物のポスチャ又はジェスチャを認識するための装置であって、前記撮像画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段と、前記顔位置と前記手先位置から、前記顔位置を基準とした際の前記手先位置の所定数フレームにおける平均及び分散を特徴ベクトルとして求め、前記特徴ベクトルに基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の事後分布の確率密度を計算し、各フレームにおける前記事後分布の確率密度が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識するポスチャ・ジェスチャ認識手段と、を備え、前記顔・手先位置検出手段は、対象人物の頭頂部の位置を前記輪郭情報に基づいて検出する頭位置検出部と、この頭位置検出部により検出した頭頂部の位置と前記肌色領域情報から顔の位置を検出する顔位置検出部と、この顔位置検出部により検出した顔の位置の周辺を除いた領域に予め設定される手位置検索領域、前記肌色領域情報、前記輪郭情報に基づいて手位置を検出する手位置検出部と、検出した手位置と前記肌色領域情報に基づいて、肌色領域の上下左右の端点を検索すると共に、上下端点の垂直方向距離と左右端点の水平方向距離とを比較して距離が長いほうを手先の伸びている方向と判断し、かつ、検出した前記顔位置と前記手位置との位置関係に基づいて、前記上下端点あるいは前記左右端点のどの端点が手先位置であるかを判断する手先位置検出部と、を有することを特徴とする。
【0007】
この装置は、まず、顔・手先位置検出手段によって、画像から生成した対象人物の輪郭情報と肌色領域情報に基づいて、対象人物の実空間上における顔位置と手先位置を検出する。次に、ポスチャ・ジェスチャ認識手段によって、顔位置と手先位置から、顔位置を基準とした際の手先位置の所定数フレーム(例えば5フレーム)における平均及び分散を「特徴ベクトル」として求める。そして、求めた「特徴ベクトル」に基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の「事後分布の確率密度」を計算し、各フレームにおける「事後分布の確率密度」が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識する。
【0008】
なお、ポスチャ・ジェスチャ認識手段は、所定数フレームにおいて、同一のポスチャ又はジェスチャを所定回数以上認識できた場合にのみ、前記同一のポスチャ又はジェスチャを認識できたと判断する(請求項2)。
【0009】
請求項3に記載のジェスチャ認識方法は、カメラによってポスチャ認識又はジェスチャ認識の対象人物を撮像した撮像画像から、生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出し、前記顔位置および前記手先位置から前記対象人物のポスチャ又はジェスチャを認識するための方法であって、前記対象人物の頭頂部の位置を頭部位置検出部により前記輪郭情報に基づいて検出するステップと、前記頭位置検出部により検出した頭頂部の位置と前記肌色領域情報から顔位置検出部により顔の位置を検出するステップと、前記顔位置検出部により検出した顔の位置の周辺を除いた領域に予め設定される手位置検索領域、前記肌色領域情報、前記輪郭情報に基づいて、手位置検出部により手位置を検出するステップと、検出した手位置と前記肌色領域情報に基づいて、肌色領域の上下左右の端点を検索すると共に、上下端点の垂直方向距離と左右端点の水平方向距離とを比較して距離が長いほうを手先の伸びている方向と判断し、かつ、検出した前記顔位置と前記手位置との位置関係に基づいて、前記上下端点あるいは前記左右端点のどの端点が手先位置であるかを、手先位置検出部により判断するステップと、前記顔位置と前記手先位置から、ポスチャ・ジェスチャ認識手段により、前記顔位置を基準とした際の前記手先位置の所定数フレームにおける平均及び分散を特徴ベクトルとして求め、前記特徴ベクトルに基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の事後分布の確率密度を計算し、各フレームにおける前記事後分布の確率密度が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識するポスチャ・ジェスチャ認識ステップと、を含むことを特徴とする。
【0010】
この方法は、まず、顔・手先位置検出ステップにおいて、画像から生成した対象人物の輪郭情報と肌色領域情報に基づいて、対象人物の実空間上における顔位置と手先位置を検出する。次に、ポスチャ・ジェスチャ認識ステップにおいて、顔位置と手先位置から、顔位置を基準とした際の手先位置の所定数フレームにおける平均及び分散を「特徴ベクトル」として求める。そして、求めた「特徴ベクトル」に基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の「事後分布の確率密度」を計算し、各フレームにおける「事後分布の確率密度」が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識する。
【0011】
請求項4に記載のジェスチャ認識プログラムは、カメラによってポスチャ認識又はジェスチャ認識の対象人物を撮像した撮像画像から、前記対象人物のポスチャ又はジェスチャを認識するために、コンピュータを、前記撮像画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段、前記顔位置と前記手先位置から、前記顔位置を基準とした際の前記手先位置の所定数フレームにおける平均及び分散を特徴ベクトルとして求め、前記特徴ベクトルに基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の事後分布の確率密度を計算し、各フレームにおける前記事後分布の確率密度が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識するポスチャ・ジェスチャ認識手段、として機能させ、前記顔・手先位置検出手段は、対象人物の頭頂部の位置を前記輪郭情報に基づいて検出する頭位置検出部と、この頭位置検出部により検出した頭頂部の位置と前記肌色情報から顔の位置を検出する顔位置検出部と、この顔位置検出部により検出した顔の位置の周辺を除いた領域に予め設定される手位置検索領域、前記肌色領域情報、前記輪郭情報に基づいて手位置を検出する手位置検出部と、検出した手位置と前記肌色領域情報に基づいて、肌色領域の上下左右の端点を検索すると共に、上下端点の垂直方向距離と左右端点の水平方向距離とを比較して距離が長いほうを手先の伸びている方向と判断し、かつ、検出した前記顔位置と前記手位置との位置関係に基づいて、前記上下端点あるいは前記左右端点のどの端点が手先位置であるかを判断する手先位置検出部とすることを特徴とする。
【0012】
このプログラムは、まず、顔・手先位置検出手段によって、画像から生成した対象人物の輪郭情報と肌色領域情報に基づいて、対象人物の実空間上における顔位置と手先位置を検出するする。次に、ポスチャ・ジェスチャ認識手段によって、顔位置と手先位置から、顔位置を基準とした際の手先位置の所定数フレーム(例えば5フレーム)における平均及び分散を「特徴ベクトル」として求める。そして、求めた「特徴ベクトル」に基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の「事後分布の確率密度」を計算し、各フレームにおける「事後分布の確率密度」が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識する。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態について、適宜図面を参照して詳細に説明する。ここでは、まず、本発明に係るジェスチャ認識装置を含むジェスチャ認識システムの構成について図1〜図13を参照して説明し、その後、ジェスチャ認識システムの動作について図14及び図15を参照して説明する。
【0014】
(ジェスチャ認識システムAの構成)
まず、本発明に係るジェスチャ認識装置4を含むジェスチャ認識システムAの全体構成について図1を参照して説明する。図1はジェスチャ認識システムAの全体構成を示すブロック図である。
【0015】
図1に示すように、ジェスチャ認識システムAは、図示しない対象人物を撮像する2台のカメラ1(1a,1b)と、カメラ1で撮像された画像(撮像画像)を解析して各種情報を生成する撮像画像解析装置2と、撮像画像解析装置2で生成された各種情報に基づいて対象人物の輪郭を抽出する輪郭抽出装置3と、撮像画像解析装置2で生成された各種情報及び輪郭抽出装置3で抽出された対象人物の輪郭(輪郭情報)に基づいて、対象人物のポスチャ(姿勢)又はジェスチャ(動作)を認識するジェスチャ認識装置4とから構成されている。以下、カメラ1、撮像画像解析装置2、輪郭抽出装置3、ジェスチャ認識装置4について、順に説明する。
【0016】
(カメラ1)
カメラ1(1a,1b)はカラーCCDカメラであり、右カメラ1aと左カメラ1bは、左右に距離Bだけ離れて並設されている。ここでは、右カメラ1aを基準カメラとしている。カメラ1a,1bで撮像された画像(撮像画像)は、フレーム毎に図示しないフレームグラバに記憶された後、撮像画像解析装置2に同期して入力される。
【0017】
なお、カメラ1a,1bで撮像した画像(撮像画像)は、図示しない補正機器によりキャリブレーション処理とレクティフィケーション処理を行い、画像補正した後に撮像画像解析装置2に入力される。
【0018】
(撮像画像解析装置2)
撮像画像解析装置2は、カメラ1a,1bから入力された画像(撮像画像)を解析して、「距離情報」、「動き情報」、「エッジ情報」、「肌色領域情報」を生成する装置である(図1参照)。
【0019】
図2は、図1に示したジェスチャ認識システムAに含まれる撮像画像解析装置2と輪郭抽出装置3の構成を示すブロック図である。図2に示すように、撮像画像解析装置2は、「距離情報」を生成する距離情報生成部21と、「動き情報」を生成する動き情報生成部22と、「エッジ情報」を生成するエッジ情報生成部23と、「肌色領域情報」を生成する肌色領域情報生成部24とから構成されている。
【0020】
(距離情報生成部21)
距離情報生成部21は、同時刻にカメラ1a,1bで撮像された2枚の撮像画像の視差に基づいて、各画素についてカメラ1a,1bからの距離を検出する。具体的には、基準カメラであるカメラ1aで撮像された第1の撮像画像と、カメラ1bで撮像された第2の撮像画像とからブロック相関法を用いて視差を求め、その視差から三角法を用いて、カメラ1から「各画素に撮像された物」までの距離を求める。そして、求めた距離を第1の撮像画像の各画素に対応付けて、距離を画素値で表現した距離画像D1(図3(a)参照)を生成する。この距離画像D1が距離情報となる。図3(a)の例では、同一の距離に対象人物Cが存在している。
【0021】
なお、ブロック相関法とは、第1の撮像画像と第2の撮像画像とで特定の大きさの同一ブロック(例えば8×3画素)を比較し、第1の撮像画像と第2の撮像画像とでブロック内の被写体が何画素分ずれているかを調べることにより視差を検出する方法である。
【0022】
(動き情報生成部22)
動き情報生成部22は、基準カメラであるカメラ1aで時系列に撮像した「時刻t」における「撮像画像(t)」と、「時刻t+Δt」における「撮像画像(t+Δt)」との差分に基づいて、対象人物の動きを検出する。具体的には、「撮像画像(t)」と「撮像画像(t+Δt)」との差分をとり、各画素の変位を調べる。そして、調べた変位に基づいて変位ベクトルを求め、求めた変位ベクトルを画素値で表わした差分画像D2(図3(b)参照)を生成する。この差分画像D2が動き情報となる。図3(b)の例では、対象人物Cの左腕に動きが検出されている。
【0023】
(エッジ情報生成部23)
エッジ情報生成部23は、基準カメラであるカメラ1aで撮像された画像(撮像画像)における各画素の濃淡情報又は色情報に基づいて、その撮像画像内に存在するエッジを抽出したエッジ画像を生成する。具体的には、撮像画像における各画素の輝度に基づいて、輝度が大きく変化する部分をエッジとして検出し、そのエッジのみからなるエッジ画像D3(図3(c)参照)を生成する。このエッジ画像D3がエッジ情報となる。
【0024】
エッジの検出は、例えばSobelオペレータを画素毎に乗算し、行又は列単位で、隣の線分と所定の差がある線分をエッジ(横エッジ又は縦エッジ)として検出する。なお、Sobelオペレータとは、ある画素の近傍領域の画素に対して重み係数を持つ係数行例のことである。
【0025】
(肌色領域情報生成部24)
肌色領域情報生成部24は、基準カメラであるカメラ1aで撮像された画像(撮像画像)から、その撮像画像内に存在する対象人物の肌色領域を抽出する。具体的には、撮像画像における全画素のRGB値を、色相、明度、彩度からなるHLS空間に変換し、色相、明度、彩度が予め設定された閾値の範囲内にある画素を肌色領域として抽出する(図3(d)参照)。図3(d)の例では、対象人物Cの顔が肌色領域R1として抽出され、手が肌色領域R2として抽出されている。この肌色領域R1,R2が肌色領域情報となる。
【0026】
撮像画像解析装置2で生成された「距離情報(距離画像D1)」、「動き情報(差分画像D2)」、「エッジ情報(エッジ画像D3)」は、輪郭抽出装置3に入力される。また、撮像画像解析装置2で生成された「距離情報(距離画像D1)」と「肌色領域情報(肌色領域R1,R2)」は、ジェスチャ認識装置4に入力される。
【0027】
(輪郭抽出装置3)
輪郭抽出装置3は、撮像画像解析装置2で生成された「距離情報(距離画像D1)」、「動き情報(差分画像D2)」、「エッジ情報(エッジ画像D3)」に基づいて、対象人物の輪郭を抽出する装置である(図1参照)。
【0028】
図2に示すように、輪郭抽出装置3は、対象人物が存在する距離である「対象距離」を設定する対象距離設定部31と、「対象距離」に基づいた「対象距離画像」を生成する対象距離画像生成部32と、「対象距離画像内」における「対象領域」を設定する対象領域設定部33と、「対象領域内」から「対象人物の輪郭」を抽出する輪郭抽出部34とから構成されている。
【0029】
(対象距離設定部31)
対象距離設定部31は、撮像画像解析装置2で生成された距離画像D1(図3(a)参照)と、差分画像D2(図3(b)参照)とに基づいて、対象人物が存在する距離である「対象距離」を設定する。具体的には、距離画像D1における同一の画素値を有する画素を一群(画素群)として、差分画像D2における前記画素群の画素値を累計する。そして、画素値の累計値が所定値よりも大きい、かつ、カメラ1に最も近い距離にある領域に、最も動き量の多い移動物体、即ち対象人物が存在しているとみなし、その距離を対象距離とする(図4(a)参照)。図4(a)の例では、対象距離は2.2mに設定されている。対象距離設定部31で設定された対象距離は、対象距離画像生成部32に入力される。
【0030】
(対象距離画像生成部32)
対象距離画像生成部32は、撮像画像解析装置2で生成された距離画像D1(図3(a)参照)を参照し、対象距離設定部31で設定された対象距離±αmに存在する画素に対応する画素をエッジ画像D3(図3(c)参照)から抽出した「対象距離画像」を生成する。具体的には、距離画像D1における対象距離設定部31から入力された対象距離±αmに対応する画素を求める。そして、求められた画素のみをエッジ情報生成部23で生成されたエッジ画像D3から抽出し、対象距離画像D4(図4(b)参照)を生成する。したがって、対象距離画像D4は、対象距離に存在する対象人物をエッジで表現した画像になる。対象距離画像生成部32で生成された対象距離画像D4は、対象領域設定部33と輪郭抽出部34に入力される。
【0031】
(対象領域設定部33)
対象領域設定部33は、対象距離画像生成部32で生成された対象距離画像D4(図3(b)参照)内における「対象領域」を設定する。具体的には、対象距離画像D4の縦方向の画素値を累計したヒストグラムHを生成し、ヒストグラムHにおける度数が最大となる位置を、対象人物Cの水平方向における中心位置として特定する(図5(a)参照)。そして、特定された中心位置の左右に特定の大きさ(例えば0.5m)の範囲を対象領域Tとして設定する(図5(b)参照)。なお、対象領域Tの縦方向の範囲は、特定の大きさ(例えば2m)に設定される。また、対象領域Tを設定する際は、カメラ1のチルト角や高さ等のカメラパラメータを参照して、対象領域Tの設定範囲を補正する。対象領域設定部33で設定された対象領域Tは、輪郭抽出部34に入力される。
【0032】
(輪郭抽出部34)
輪郭抽出部34は、対象距離画像生成部32で生成された対象距離画像D4(図4(b)参照)において、対象領域設定部33で設定された対象領域T内から対象人物Cの輪郭Oを抽出する(図5(c)参照)。具体的には、対象人物Cの輪郭Oを抽出する際は、「Snakes」と呼ばれる閉曲線からなる動的輪郭モデルを用いた手法(以下、「スネーク手法」という)を用いる。なお、スネーク手法とは、動的輪郭モデルである「Snakes」を、予め定義されたエネルギ関数が最小となるように収縮変形させることにより、対象物の輪郭を抽出する手法である。輪郭抽出部34で抽出された対象人物Cの輪郭Oは、「輪郭情報」としてジェスチャ認識装置4に入力される(図1参照)。
【0033】
(ジェスチャ認識装置4)
ジェスチャ認識装置4は、撮像画像解析装置2で生成された「距離情報」及び「肌色領域情報」と、輪郭抽出装置3で生成された「輪郭情報」とに基づいて、対象人物のポスチャ又はジェスチャを認識し、その認識結果を出力する装置である(図1参照)。
【0034】
図6は、図1に示したジェスチャ認識システムAに含まれるジェスチャ認識装置4の構成を示すブロック図である。図6に示すように、ジェスチャ認識装置4は、対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段41と、顔・手先位置検出手段41によって検出された顔位置と手先位置に基づいて、対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識手段42とを備えている。
【0035】
(顔・手先位置検出手段41)
顔・手先位置検出手段41は、実空間上における対象人物の「頭頂部の位置(頭頂部位置)」を検出する頭位置検出部41Aと、対象人物の「顔の位置(顔位置)」を検出する顔位置検出部41Bと、対象人物の「手の位置(手位置)」を検出する手位置検出部41Cと、対象人物の「手先の位置(手先位置)」を検出する手先位置検出部41Dとから構成されている。なお、ここでいう「手」とは、腕(arm)と手(Hand)とからなる部位のことであり、「手先」とは、手(Hand)の指先のことである。
【0036】
(頭位置検出部41A)
頭位置検出部41Aは、輪郭抽出装置3で生成された輪郭情報に基づいて、対象人物Cの「頭頂部位置」を検出する。頭頂部位置の検出方法について図7(a)を参照して説明すると、まず、輪郭Oで囲まれた領域における重心Gを求める(1)。次に、頭頂部位置を探索するための領域(頭頂部位置探索領域)F1を設定する(2)。頭頂部位置探索領域F1の横幅(X軸方向の幅)は、重心GのX座標を中心にして、予め設定されている人間の平均肩幅Wとなるようにする。なお、人間の平均肩幅Wは、撮像画像解析装置2で生成された距離情報を参照して設定される。また、頭頂部位置探索領域F1の縦幅(Y軸方向の幅)は、輪郭Oを覆うことができるような幅に設定される。そして、頭頂部位置探索領域F1内における輪郭Oの上端点を、頭頂部位置m1とする(3)。頭位置検出部41Aで検出された頭頂部位置m1は、顔位置検出部41Bに入力される。
【0037】
(顔位置検出部41B)
顔位置検出部41Bは、頭位置検出部41Aで検出された頭頂部位置m1と、撮像画像解析装置2で生成された肌色領域情報とに基づいて、対象人物Cの「顔位置」を検出する。顔位置の検出方法について図7(b)を参照して説明すると、まず、顔位置を探索するための領域(顔位置探索領域)F2を設定する(4)。顔位置探索領域F2の範囲は、頭頂部位置m1を基準にして、予め設定されている「おおよそ人間の頭部を覆う大きさ」となるようにする。なお、顔位置探索領域F2の範囲は、撮像画像解析装置2で生成された距離情報を参照して設定される。
【0038】
次に、顔位置探索領域F2内における肌色領域R1の重心を、画像上における顔位置m2とする(5)。肌色領域R1については、撮像画像解析装置2で生成された肌色領域情報を参照する。そして、画像上における顔位置m2(Xf,Yf)から、撮像画像解析装置2で生成された距離情報を参照して、実空間上における顔位置m2t(Xft,Yft,Zft)を求める。
【0039】
顔位置検出部41Bで検出された「画像上における顔位置m2」は、手位置検出部41Cと手先位置検出部41Dに入力される。また、顔位置検出部41Bで検出された「実空間上における顔位置m2t」は、図示しない記憶手段に記憶され、ポスチャ・ジェスチャ認識手段42のポスチャ・ジェスチャ認識部42B(図6参照)において対象人物Cのポスチャ又はジェスチャを認識する際に使用される。
【0040】
(手位置検出部41C)
手位置検出部41Cは、撮像画像解析装置2で生成された肌色領域情報と、輪郭抽出装置3で生成された輪郭情報とに基づいて、対象人物Cの「手位置」を検出する。なお、ここでは、肌色領域情報は、顔位置m2周辺を除いた領域の情報を用いる。手位置の検出方法について図8(a)を参照して説明すると、まず、手位置を探索するための領域(手位置探索領域)F3(F3R,F3L)を設定する(6)。手位置探索領域F3は、顔位置検出部41Bで検出された顔位置m2を基準にして、予め設定されている「手が届く範囲(左右の手の届く範囲)」となるようにする。なお、手位置探索領域F3の大きさは、撮像画像解析装置2で生成された距離情報を参照して設定される。
【0041】
次に、手位置探索領域F3内における肌色領域R2の重心を、画像上における手位置m3とする(7)。肌色領域R2については、撮像画像解析装置2で生成された肌色領域情報を参照する。なお、ここでは、肌色領域情報は、顔位置m2周辺を除いた領域の情報を用いる。図8(a)の例では、肌色領域は手位置探索領域F3(L)においてのみ存在しているので、手位置m3は手位置探索領域F3(L)においてのみ検出される。また、図8(a)の例では、対象人物は長袖の服を着ており、手首より先しか露出していないので、手(HAND)の位置が手位置m3となる。手位置検出部41Cで検出された「画像上における手位置m3」は、手先位置検出部41Dに入力される。
【0042】
(手先位置検出部41D)
手先位置検出部41Dは、顔位置検出部41Bで検出された顔位置m2と、手位置検出部41Cで検出された手位置m3とに基づいて、対象人物Cの「手先位置」を検出する。手先位置の検出方法について図8(b)を参照して説明すると、まず、手位置探索領域F3L内において、手先位置を探索するための領域(手先位置探索範囲)F4を設定する(8)。手先位置探索範囲F4は、手位置m3を中心にして、予め設定されている「おおよそ手を覆う大きさ」となるようにする。なお、手先位置探索範囲F4の範囲は、撮像画像解析装置2で生成された距離情報を参照して設定される。
【0043】
続いて、手先位置探索範囲F4における肌色領域R2の上下左右の端点m4a〜m4dを検出する(9)。肌色領域R2については、撮像画像解析装置2で生成された肌色領域情報を参照する。そして、上下端点間(m4a、m4b間)の垂直方向距離d1と、左右端点間(m4c、m4d間)の水平方向距離d2とを比較し、距離が長い方を手が伸びている方向と判断する(10)。図8(b)の例では、垂直方向距離d1の方が水平方向距離d2よりも距離が長いので、手先は上下方向に伸びていると判断される。
【0044】
次に、画像上における顔位置m2と、画像上における手位置m3との位置関係に基づいて、上下端点m4a,m4bのどちら(もしくは左右端点m4c,m4dのどちらか)が手先位置であるかを判断する。具体的には、手位置m3が顔位置m2から遠い場合は、手は伸びているとみなし、顔位置m2から遠い方の端点を手先位置(画像上における手先位置)m4と判断する。逆に、手位置m3が顔位置m2に近い場合は、肘を曲げているとみなし、顔位置m2に近い方の端点を手先位置m4と判断する。図8(b)の例では、手位置m3が顔位置m2から遠く、上端点m4aが下端点m4bよりも顔位置m2から遠いので、上端点m4aが手先位置m4であると判断する(11)。
【0045】
そして、画像上における手先位置m4(Xh,Yh)から、撮像画像解析装置2で生成された距離情報を参照して、実空間上における手先位置m4t(Xht,Yht,Zht)を求める。手先位置検出部41Dで検出された「実空間上における手先位置m4t」は、図示しない記憶手段に記憶され、ポスチャ・ジェスチャ認識手段42のポスチャ・ジェスチャ認識部42B(図6参照)において対象人物Cのポスチャ又はジェスチャを認識する際に使用される。
【0046】
(ポスチャ・ジェスチャ認識手段42)
ポスチャ・ジェスチャ認識手段42は、ポスチャデータとジェスチャデータを記憶するポスチャ・ジェスチャデータ記憶部42Aと、顔・手先位置検出手段41によって検出された「実空間上における顔位置m2t」と「実空間上における手先位置m4t」に基づいて、対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識部42Bとから構成されている(図6参照)。
【0047】
(ポスチャ・ジェスチャデータ記憶部42A)
ポスチャ・ジェスチャデータ記憶部42Aは、ポスチャデータp1〜p4(図9参照)とジェスチャデータj1〜j4(図10参照)を記憶している。ポスチャデータp1〜p4とジェスチャデータj1〜j4は、「顔位置を基準とした際の手先位置と、その手先位置の変動」に対応するポスチャ又はジェスチャを記したデータである。ポスチャデータp1〜p4とジェスチャデータj1〜j4は、ポスチャ・ジェスチャ認識部42Bにおいて対象人物のポスチャ又はジェスチャを認識する際に使用される。
【0048】
ポスチャデータp1〜p4について図9を参照して説明すると、図9(a)に示す「ポスチャP1:FACE SIDE」は「こんにちは」、図9(b)に示す「ポスチャP2:HIGH HAND」は「追従開始」、図9(c)に示す「ポスチャP3:SIDE HAND」は「手の方向を見よ」、図9(d)に示す「ポスチャP4:LOW HAND」は「手の方向に曲がれ」を意味するポスチャである。
【0049】
また、ジェスチャデータj1〜j4について図10を参照して説明すると、図10(a)に示す「ジェスチャJ1:HAND SWING」は「注意せよ」、図10(b)に示す「ジェスチャJ2:BYE BYE」は「さようなら」、図10(c)に示す「ジェスチャJ3:COME HERE」は「接近せよ」、図10(d)に示す「ジェスチャJ4:HAND CIRCLING」は「旋回せよ」を意味するジェスチャである。
【0050】
なお、本実施の形態では、ポスチャ・ジェスチャデータ記憶部42A(図6参照)は、ポスチャデータp1〜p4(図9参照)とジェスチャデータj1〜j4(図10参照)を記憶しているが、ポスチャ・ジェスチャデータ記憶部42Aに記憶させるポスチャデータとジェスチャデータは任意に設定することができる。また、各ポスチャと各ジェスチャの意味も任意に設定することができる。
【0051】
ポスチャ・ジェスチャ認識部42Bは、統計的手法の一つである「ベイズの手法」を用いて、対象人物のポスチャ又はジェスチャを認識する。具体的には、まず、顔・手先位置検出手段41によって検出された「実空間上における顔位置m2t」と「実空間上における手先位置m4t」から、「顔位置m2tを基準とした際の手先位置の所定数フレーム(例えば5フレーム)における平均及び分散」を特徴ベクトルxとして求める。そして、求めた特徴ベクトルxに基づいて、ベイズの手法を用いて、全てのポスチャ及びジェスチャiの確率変数ωiの「事後分布の確率密度」を計算し、各フレームにおける「事後分布の確率密度」が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識する。
【0052】
次に、図11及び図12に示すフローチャートを参照して、ポスチャ・ジェスチャ認識部42Bにおけるポスチャ又はジェスチャの認識方法について詳しく説明する。ここでは、まず、図11に示すフローチャートを参照してポスチャ・ジェスチャ認識部42Bでの処理の概略について説明し、その後、図12に示すフローチャートを参照して図11に示したフローチャートにおける「ステップS1:ポスチャ・ジェスチャ認識処理」について説明する。
【0053】
(ポスチャ・ジェスチャ認識部42Bでの処理の概略)
図11は、ポスチャ・ジェスチャ認識部42Bでの処理の概略を説明するためのフローチャートである。図11に示すフローチャートを参照して、まず、ステップS1では、ポスチャ又はジェスチャの認識を試みる。次に、ステップS2では、ステップS1においてポスチャ又はジェスチャを認識できたかどうかを判断する。ここで、ポスチャ又はジェスチャを認識できたと判断された場合はステップS3に進み、ポスチャ又はジェスチャを認識できなかったと判断された場合はステップS5に進む。
【0054】
ステップS3では、過去の所定数のフレーム(例えば10フレーム)において、同一のポスチャ又はジェスチャを所定回数(例えば5回)以上認識できたかどうかを判断する。ここで、同一のポスチャ又はジェスチャを所定回数以上認識できたと判断された場合はステップS4に進み、同一のポスチャ又はジェスチャを所定回数以上認識できなかったと判断された場合はステップS5に進む。
【0055】
そして、ステップS4では、ステップS1において認識されたポスチャ又はジェスチャを認識結果として出力し、処理を終了する。また、ステップS5では、ポスチャ又はジェスチャを認識できなかった、即ち認識不能であると出力し、処理を終了する。
【0056】
(ステップS1:ポスチャ・ジェスチャ認識処理)
図12は、図11に示したフローチャートにおける「ステップS1:ポスチャ・ジェスチャ認識処理」について説明するためのフローチャートである。図12に示すフローチャートを参照して、まず、ステップS11では、顔・手先位置検出手段41によって検出された「実空間上における顔位置m2t(Xft,Yft,Zft)」と「実空間上における手先位置m4t(Xht,Yht,Zht)」から、「顔位置m2tを基準とした際の手先位置の所定数フレーム(例えば5フレーム)における平均及び分散」を
として求める。
【0057】
次のステップS12では、ステップS11で求めた特徴ベクトルxに基づいて、ベイズの手法を用いて、全てのポスチャ及びジェスチャiの確率変数ωiの「事後分布の確率密度」を計算する。
【0058】
ステップS12における「事後分布の確率密度」の求め方について詳しく説明すると、まず、特徴ベクトルxが与えられたときに、それがポスチャ又はジェスチャiである確率密度p(ω i |x)は、下記の「ベイズの定理」と呼ばれる式(1)により求められる。なお、確率変数ω i は各ポスチャ及び各ジェスチャ毎に予め設定されている。
【0059】
【数1】
【0060】
式(1)におけるp(x|ω i )は、ポスチャ又はジェスチャiが与えられたときに、画像が特徴ベクトルxを含む「条件付き確率密度」であり、下記の式(2)で表わされる。なお、特徴ベクトルxは、共分散行列Σを持ち、
の正規分布に従うものとする。
【0061】
【数2】
【0062】
また、式(1)におけるp(ω i )は、確率変数ω i の「事前分布の確率密度」であり、下記の式(3)で表わされる。なお、p(ω i )は、期待値ω i0 、分散V[ω i0 ]の正規分布であるとする。
【0063】
【数3】
【0064】
式(1)の右項の分母はω i に依存しないので、式(2),式(3)より、確率変数ω i の「事後分布の確率密度」は、下記の式(4)で表わされる。
【0065】
【数4】
【0066】
図12のフローチャートに戻り、次のステップS13では、各フレームにおける「事後分布の確率密度」が最大であるポスチャ又はジェスチャを求め、続くテップS14では、ステップS13で求められたポスチャ又はジェスチャが各フレームにおけるポスチャ又はジェスチャであるという認識結果を出力し、処理を終了する。
【0067】
図13は、フレーム1〜100における、ポスチャP1〜P4及びジェスチャJ1〜J4についての確率変数ω i の「事後分布の確率密度」を示すグラフである。なお、ここでは、ポスチャP1〜P4及びジェスチャJ1〜J4を、「i(i=1〜8)」としている。
【0068】
図13に示すように、フレーム1〜26では「ジェスチャJ2:BYE BYE」の確率密度が最大となるので、フレーム1〜26では、対象人物のポスチャ又はジェスチャは「ジェスチャJ2:BYE BYE」(図10(b)参照)であると認識される。また、フレーム27〜43では「ポスチャP1:FACE SIDE」の確率密度が最大となるので、フレーム27〜43では対象人物のポスチャ又はジェスチャは「ポスチャP1:FACE SIDE」(図9(a)参照)であると認識される。
【0069】
また、フレーム44〜76では「ジェスチャJ3:COME HERE」の確率密度が最大となるので、フレーム44〜76では対象人物のポスチャ又はジェスチャは「ジェスチャJ3:COME HERE」(図10(c)参照)であると認識される。そして、フレーム80〜100では「ジェスチャJ1:HANDSWING」の確率密度が最大となるので、フレーム80〜100では対象人物のポスチャ又はジェスチャは「ジェスチャJ1:HAND SWING」図10(a)参照)であると認識される。
【0070】
なお、フレーム77〜79では「ジェスチャJ4:HAND CIRCLING」の確率密度が最大となるが、「ジェスチャJ4:HAND CIRCLING」は3回しか認識されていないため、対象人物のポスチャ又はジェスチャは「ジェスチャJ4:HAND CIRCLING」であるとは認識されない。これは、前記したように、ポスチャ・ジェスチャ認識部42Bでは、過去の所定数のフレーム(例えば10フレーム)において、同一のポスチャ又はジェスチャを所定回数(例えば5回)以上認識できた場合にのみ、前記同一のポスチャ又はジェスチャを認識できたと判断するためである(図11に示すフローチャートのステップS3〜ステップS5参照)。
【0071】
以上のようにして、ポスチャ・ジェスチャ認識部42Bは、ベイズの手法を用いて、全てのポスチャ及びジェスチャi(i=1〜8)の確率変数ω i の「事後分布の確率密度」を計算し、各フレームにおける「事後分布の確率密度」が最大であるポスチャ又はジェスチャを調べることにより、対象人物のポスチャ又はジェスチャを認識することができる。
【0072】
(ジェスチャ認識システムAの動作)
次に、ジェスチャ認識システムAの動作について図1に示すジェスチャ認識システムAの全体構成を示すブロック図と、図14及び図15に示すフローチャートを参照して説明する。図14は、ジェスチャ認識システムAの動作における「撮像画像解析ステップ」と「輪郭抽出ステップ」を説明するために示すフローチャートであり、図15は、ジェスチャ認識システムAの動作における「顔・手先位置検出ステップ」と「ポスチャ・ジェスチャ認識ステップ」を説明するために示すフローチャートである。
【0073】
<撮像画像解析ステップ>
図14に示すフローチャートを参照して、撮像画像解析装置2では、カメラ1a,1bから撮像画像が入力されると(ステップS101)、距離情報生成部21において、撮像画像から距離情報である距離画像D1(図3(a)参照)を生成し(ステップS102)、動き情報生成部22において、撮像画像から動き情報である差分画像D2(図3(b)参照)を生成する(ステップS103)。また、エッジ情報生成部23において、撮像画像からエッジ情報であるエッジ画像D3(図3(c)参照)を生成し(ステップS104)、肌色領域情報生成部24において、撮像画像から肌色領域情報である肌色領域R1,R2(図3(d)参照)を抽出する(ステップS105)。
【0074】
<輪郭抽出ステップ>
引き続き図14に示すフローチャートを参照して、輪郭抽出装置3では、まず、対象距離設定部31において、ステップS102とステップS103で生成された距離画像D1と差分画像D2から、対象人物が存在する距離である対象距離を設定する(ステップS106)。続いて、対象距離画像生成部32において、ステップS104で生成されたエッジ画像D3からステップS106で設定された対象距離に存在する画素を抽出した対象距離画像D4(図4(b)参照)を生成する(ステップS107)。
【0075】
次に、対象領域設定部33において、ステップS107で生成された対象距離画像D4内における対象領域T(図5(b)参照)を設定する(ステップS108)。そして、輪郭抽出部34において、ステップS108で設定された対象領域T内から、対象人物Cの輪郭O(図5(c)参照)を抽出する(ステップS109)。
【0076】
<顔・手先位置検出ステップ>
図15に示すフローチャートを参照して、ジェスチャ認識装置4の顔・手先位置検出手段41では、まず、頭位置検出部41Aにおいて、ステップS109で生成された輪郭情報に基づいて、対象人物Cの頭頂部位置m1(図7(a)参照)を検出する(ステップS110)。
【0077】
続いて、顔位置検出部41Bにおいて、ステップS110で検出された頭頂部位置m1と、ステップS105で生成された肌色領域情報とに基づいて、「画像上における顔位置m2」(図7(b)参照)を検出し、検出された「画像上における顔位置m2(Xf,Yf)」から、ステップS102で生成された距離情報を参照して、「実空間上における顔位置m2t(Xft,Yft,Zft)」を求める(ステップS111)。
【0078】
次に、手位置検出部41Cにおいて、ステップS111で検出された「画像上における顔位置m2」から、「画像上における手位置m3」(図8(a)参照)を検出する(ステップS112)。
【0079】
そして、手先位置検出部41Dにおいて、顔位置検出部41Bで検出された「画像上における顔位置m2」と、手位置検出部41Cで検出された手位置m3とに基づいて、「画像上における手先位置m4」(図8(b)参照)を検出し、検出された「画像上における手先位置m4(Xh,Yh)」から、ステップS102で生成された距離情報を参照して、「実空間上における手先位置m4t(Xht,Yht,Zht)」を求める(ステップS113)。
【0080】
<ポスチャ・ジェスチャ認識ステップ>
引き続き図15に示すフローチャートを参照して、ジェスチャ認識装置4のポスチャ・ジェスチャ認識部42Bでは、統計的手法の一つである「ベイズの手法」を用いて、対象人物のポスチャ又はジェスチャを認識する。ポスチャ・ジェスチャ認識部42Bにおけるポスチャ又はジェスチャの認識方法の詳細については、前記したのでここでは省略する。
【0081】
以上、ジェスチャ認識システムAについて説明したが、このジェスチャ認識システムAに含まれるジェスチャ認識装置4は、コンピュータにおいて各手段を各機能プログラムとして実現することも可能であり、各機能プログラムを結合してジェスチャ認識プログラムとして動作させることも可能である。
【0082】
また、このジェスチャ認識システムAは、例えば自律ロボットに適用することができる。その場合、自律ロボットは、例えば人が手を上げるとそのポスチャ「ポスチャP2:HIGH HAND」(図9(b)参照)と認識することや、人が手を振るとそのジェスチャを「ジェスチャJ1:HAND SWING」(図10(a)参照)と認識することが可能となる。
【0083】
なお、ポスチャやジェスチャによる指示は、音声による指示と比べて、周囲の騒音により左右されない、音声が届かないような状況でも指示が可能である、言葉では表現が難しい(又は冗長になる)指示を簡潔に行うことができる、という利点がある。
【0084】
【発明の効果】
以上、詳細に説明したように、本発明によれば、対象人物のジェスチャを認識する際に、特徴点(対象人物の動きの特徴を示す点)を一々検出する必要が無いため、従来のジェスチャ認識手法と比べて、ポスチャ認識又はジェスチャ認識を行う際の演算処理を軽減することができる。
【図面の簡単な説明】
【図1】ジェスチャ認識システムAの全体構成を示すブロック図である。
【図2】図1に示したジェスチャ認識システムAに含まれる撮像画像解析装置2と輪郭抽出装置3の構成を示すブロック図である。
【図3】(a)は距離画像D1、(b)は差分画像D2、(c)はエッジ画像D3、(d)は肌色領域R1,R2を示す図である。
【図4】対象距離を設定する方法を説明するための図である。
【図5】対象領域Tを設定する方法と、対象領域T内から対象人物Cの輪郭Oを抽出する方法を説明するための図である。
【図6】図1に示したジェスチャ認識システムAに含まれるジェスチャ認識装置4の構成を示すブロック図である。
【図7】(a)は頭頂部位置m1の検出方法を説明するための図であり、(b)は顔位置m2の検出方法を説明するための図である。
【図8】(a)は手位置m3の検出方法を説明するための図であり、(b)は手先位置m4の検出方法を説明するための図である。
【図9】ポスチャデータp1〜p4を示す図である。
【図10】ジェスチャデータj1〜j4を示す図である。
【図11】ポスチャ・ジェスチャ認識部42Bでの処理の概略を説明するためのフローチャートである。
【図12】図11に示したフローチャートにおける「ステップS1:ポスチャ・ジェスチャ認識処理」について説明するためのフローチャートである。
【図13】フレーム1〜100における、ポスチャP1〜P4及びジェスチャJ1〜J4についての確率変数ωiの「事後分布の確率密度」を示すグラフである。
【図14】ジェスチャ認識システムAの動作における「撮像画像解析ステップ」と「輪郭抽出ステップ」を説明するために示すフローチャートである。
【図15】ジェスチャ認識システムAの動作における「顔・手先位置検出ステップ」と「ポスチャ・ジェスチャ認識ステップ」を説明するために示すフローチャートである。
【符号の説明】
A ジェスチャ認識システム
1 カメラ
2 撮像画像解析装置
3 輪郭抽出装置
4 ジェスチャ認識装置
41 顔・手先位置検出手段
41A 頭位置検出部
41B 顔位置検出部
41C 手位置検出部
41D 手先位置検出部
42 ポスチャ・ジェスチャ認識手段
42A ポスチャ・ジェスチャデータ記憶部
42B ポスチャ・ジェスチャ認識部
Claims (4)
- カメラによってポスチャ認識又はジェスチャ認識の対象人物を撮像した撮像画像から、前記対象人物のポスチャ又はジェスチャを認識するための装置であって、
前記撮像画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段と、
前記顔位置と前記手先位置から、前記顔位置を基準とした際の前記手先位置の所定数フレームにおける平均及び分散を特徴ベクトルとして求め、前記特徴ベクトルに基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の事後分布の確率密度を計算し、各フレームにおける前記事後分布の確率密度が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識するポスチャ・ジェスチャ認識手段と、を備え、
前記顔・手先位置検出手段は、前記対象人物の頭頂部の位置を前記輪郭情報に基づいて検出する頭位置検出部と、この頭位置検出部により検出した頭頂部の位置と前記肌色領域情報から顔の位置を検出する顔位置検出部と、この顔位置検出部により検出した顔の位置の周辺を除いた領域に予め設定される手位置検索領域、前記肌色領域情報、前記輪郭情報に基づいて手位置を検出する手位置検出部と、検出した手位置と前記肌色領域情報に基づいて、肌色領域の上下左右の端点を検索すると共に、上下端点の垂直方向距離と左右端点の水平方向距離とを比較して距離が長いほうを手先の伸びている方向と判断し、かつ、検出した前記顔位置と前記手位置との位置関係に基づいて、前記上下端点あるいは前記左右端点のどの端点が手先位置であるかを判断する手先位置検出部と、を有することを特徴とするジェスチャ認識装置。 - 前記ポスチャ・ジェスチャ認識手段は、所定数フレームにおいて、同一のポスチャ又はジェスチャを所定回数以上認識できた場合にのみ、前記同一のポスチャ又はジェスチャを認識できたと判断することを特徴とする請求項1に記載のジェスチャ認識装置。
- カメラによってポスチャ認識又はジェスチャ認識の対象人物を撮像した撮像画像から、生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出し、前記顔位置および前記手先位置から前記対象人物のポスチャ又はジェスチャを認識するための方法であって、
前記対象人物の頭頂部の位置を頭部位置検出部により前記輪郭情報に基づいて検出するステップと、
前記頭位置検出部により検出した頭頂部の位置と前記肌色領域情報から顔位置検出部により顔の位置を検出するステップと、
前記顔位置検出部により検出した顔の位置の周辺を除いた領域に予め設定される手位置検索領域、前記肌色領域情報、前記輪郭情報に基づいて、手位置検出部により手位置を検出するステップと、
検出した手位置と前記肌色領域情報に基づいて、肌色領域の上下左右の端点を検索すると共に、上下端点の垂直方向距離と左右端点の水平方向距離とを比較して距離が長いほうを手先の伸びている方向と判断し、かつ、検出した前記顔位置と前記手位置との位置関係に基づいて、前記上下端点あるいは前記左右端点のどの端点が手先位置であるかを、手先位置検出部により判断するステップと、
前記顔位置と前記手先位置から、ポスチャ・ジェスチャ認識手段により、前記顔位置を基準とした際の前記手先位置の所定数フレームにおける平均及び分散を特徴ベクトルとして求め、前記特徴ベクトルに基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の事後分布の確率密度を計算し、各フレームにおける前記事後分布の確率密度が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識するポスチャ・ジェスチャ認識ステップと、
を含むことを特徴とするジェスチャ認識方法。 - カメラによってポスチャ認識又はジェスチャ認識の対象人物を撮像した撮像画像から、前記対象人物のポスチャ又はジェスチャを認識するために、コンピュータを、
前記撮像画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段、
前記顔位置と前記手先位置から、前記顔位置を基準とした際の前記手先位置の所定数フレームにおける平均及び分散を特徴ベクトルとして求め、前記特徴ベクトルに基づいて、統計的手法を用いて、全てのポスチャ及びジェスチャの確率変数の事後分布の確率密度を計算し、各フレームにおける前記事後分布の確率密度が最大であるポスチャ又はジェスチャを、そのフレームにおけるポスチャ又はジェスチャと認識するポスチャ・ジェスチャ認識手段、として機能させ、
前記顔・手先位置検出手段は、対象人物の頭頂部の位置を前記輪郭情報に基づいて検出する頭位置検出部と、この頭位置検出部により検出した頭頂部の位置と前記肌色領域情報から顔の位置を検出する顔位置検出部と、この顔位置検出部により検出した顔の位置の周辺を除いた領域に予め設定される手位置検索領域、前記肌色領域情報、前記輪郭情報に基づいて手位置を検出する手位置検出部と、検出した手位置と前記肌色領域情報に基づいて、肌色領域の上下左右の端点を検索すると共に、上下端点の垂直方向距離と左右端点の水平方向距離とを比較して距離が長いほうを手先の伸びている方向と判断し、かつ、検出した前記顔位置と前記手位置との位置関係に基づいて、前記上下端点あるいは前記左右端点のどの端点が手先位置であるかを判断する手先位置検出部とすることを特徴とするジェスチャ認識プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096520A JP4153819B2 (ja) | 2003-03-31 | 2003-03-31 | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
DE602004006190T DE602004006190T8 (de) | 2003-03-31 | 2004-03-19 | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
EP04006728A EP1477924B1 (en) | 2003-03-31 | 2004-03-19 | Gesture recognition apparatus, method and program |
US10/805,392 US7593552B2 (en) | 2003-03-31 | 2004-03-22 | Gesture recognition apparatus, gesture recognition method, and gesture recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096520A JP4153819B2 (ja) | 2003-03-31 | 2003-03-31 | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004303014A JP2004303014A (ja) | 2004-10-28 |
JP4153819B2 true JP4153819B2 (ja) | 2008-09-24 |
Family
ID=33408575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003096520A Expired - Fee Related JP4153819B2 (ja) | 2003-03-31 | 2003-03-31 | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4153819B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004302905A (ja) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | 移動体の検出装置 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4328286B2 (ja) | 2004-12-14 | 2009-09-09 | 本田技研工業株式会社 | 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム |
JP4654773B2 (ja) | 2005-05-31 | 2011-03-23 | 富士フイルム株式会社 | 情報処理装置、動画像符号化装置、情報処理方法及び情報処理プログラム |
JP2007122218A (ja) * | 2005-10-26 | 2007-05-17 | Fuji Xerox Co Ltd | 画像分析装置 |
JP2007257088A (ja) * | 2006-03-20 | 2007-10-04 | Univ Of Electro-Communications | ロボット装置及びそのコミュニケーション方法 |
JP4970861B2 (ja) * | 2006-07-07 | 2012-07-11 | 本田技研工業株式会社 | 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム |
JP2008263422A (ja) * | 2007-04-12 | 2008-10-30 | Yasumasa Muto | 画像撮像装置および画像撮像方法 |
JP4929109B2 (ja) * | 2007-09-25 | 2012-05-09 | 株式会社東芝 | ジェスチャ認識装置及びその方法 |
JP5174492B2 (ja) * | 2008-03-05 | 2013-04-03 | 公立大学法人首都大学東京 | 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム |
JP5448468B2 (ja) * | 2009-01-21 | 2014-03-19 | セコム株式会社 | 取引監視装置 |
JP5360406B2 (ja) * | 2009-10-29 | 2013-12-04 | 株式会社ニコン | 画像表示装置 |
JP5800175B2 (ja) * | 2010-02-05 | 2015-10-28 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、及び電子機器 |
JP5051671B2 (ja) * | 2010-02-23 | 2012-10-17 | Necシステムテクノロジー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP5438601B2 (ja) * | 2010-06-15 | 2014-03-12 | 日本放送協会 | 人物動作判定装置およびそのプログラム |
JP6030617B2 (ja) * | 2014-10-15 | 2016-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置および画像処理方法 |
-
2003
- 2003-03-31 JP JP2003096520A patent/JP4153819B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004302905A (ja) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | 移動体の検出装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2004303014A (ja) | 2004-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4153818B2 (ja) | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム | |
US7593552B2 (en) | Gesture recognition apparatus, gesture recognition method, and gesture recognition program | |
JP4153819B2 (ja) | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム | |
JP4317465B2 (ja) | 顔識別装置、顔識別方法及び顔識別プログラム | |
US7756293B2 (en) | Movement capture and analysis apparatus and method | |
JP4318465B2 (ja) | 人物検出装置および人物検出方法 | |
JP4372051B2 (ja) | 手形状認識装置及びその方法 | |
JP5159950B2 (ja) | 画像処理装置、方法、プログラム | |
KR101612605B1 (ko) | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP6579950B2 (ja) | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 | |
JP6728865B2 (ja) | 手上げ検出装置及び手上げ検出プログラム | |
JP4235018B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP3952460B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP7106296B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2005351814A (ja) | 検出装置および検出方法 | |
JP5791373B2 (ja) | 特徴点位置決定装置、特徴点位置決定方法及びプログラム | |
JP4523915B2 (ja) | 輪郭抽出装置、輪郭抽出方法及び輪郭抽出プログラム | |
KR102216124B1 (ko) | 영상 처리 방법 및 영상 처리 장치 | |
JP2005196359A (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP7491380B2 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
JP6810442B2 (ja) | カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体 | |
JP7270304B2 (ja) | ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置 | |
JP4272539B2 (ja) | 移動物体検出装置、移動物体検出方法、および移動物体検出プログラム | |
JP2021043914A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080408 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080701 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4153819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130711 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140711 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |