JP2004302992A - ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム - Google Patents
ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム Download PDFInfo
- Publication number
- JP2004302992A JP2004302992A JP2003096271A JP2003096271A JP2004302992A JP 2004302992 A JP2004302992 A JP 2004302992A JP 2003096271 A JP2003096271 A JP 2003096271A JP 2003096271 A JP2003096271 A JP 2003096271A JP 2004302992 A JP2004302992 A JP 2004302992A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- posture
- hand
- face
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】ジェスチャ認識装置4は、対象人物の実空間上における顔位置及び手先位置を検出する顔・手先位置検出手段41と、顔・手先位置検出手段41によって検出された顔位置と手先位置に基づいて、対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識手段42とを備えている。ポスチャ・ジェスチャ認識手段42は、「実空間上における顔位置」及び「実空間上における手先位置」から、「顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変位」を検出し、その検出結果と、ポスチャ・ジェスチャデータ記憶部12Aに記憶されているポスチャデータ又はジェスチャデータとを比較することにより、対象人物のポスチャ又はジェスチャを認識する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、カメラによって対象人物を撮像した画像から、対象人物のポスチャ(姿勢)又はジェスチャ(動作)を認識するための装置、方法及びプログラムに関する。
【0002】
【従来の技術】
従来、カメラによって対象人物を撮像した画像から、対象人物の動きの特徴を示す点(特徴点)を検出し、その特徴点に基づいて対象人物のジェスチャを推定するジェスチャ認識手法が数多く提案されている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2000−149025号公報(第3−6頁、第1図)
【0004】
【発明が解決しようとする課題】
しかし、従来のジェスチャ認識手法では、対象人物のジェスチャを認識する際に、前記特徴点を一々検出する必要があるため、ポスチャ認識処理又はジェスチャ認識処理に要する計算量が多くなるという問題があった。
【0005】
本発明は、以上のような問題点に鑑みてなされたものであり、ポスチャ認識処理又はジェスチャ認識処理に要する計算量を減らすことのできるジェスチャ認識装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
請求項1に記載のジェスチャ認識装置は、カメラによって対象人物を撮像した画像から、前記対象人物のポスチャ又はジェスチャを認識するための装置であって、前記画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段と、前記顔位置と手先位置から、前記顔位置と前記手先位置との相対的な位置関係及び前記顔位置を基準とした際の前記手先位置の変動を検出し、その検出結果と、顔位置と手先位置との相対的な位置関係及び顔位置を基準とした際の手先位置の変動に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、前記対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識手段とを備えたことを特徴とする。
【0007】
この装置は、まず、顔・手先位置検出手段によって、画像から生成した対象人物の輪郭情報と肌色領域情報に基づいて、対象人物の実空間上における顔位置と手先位置とを検出する。次に、ポスチャ・ジェスチャ認識手段によって、「顔位置及び手先位置から、顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変動」を検出する。そして、その検出結果と、「顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変動」に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、対象人物のポスチャ又はジェスチャを認識する。
【0008】
なお、ポスチャ・ジェスチャ認識手段が調べる「顔位置と手先位置との相対的な位置関係」とは、具体的には、「顔位置及び手先位置の高さ」及び「顔位置及び手先位置のカメラからの距離」のことである(請求項2)。このように構成すると、「顔位置の高さ」と「手先位置の高さ」との比較、及び「顔位置のカメラからの距離」と「手先位置のカメラからの距離」との比較により、「顔位置と手先位置との相対的な位置関係」を容易に検出することができる。また、ポスチャ・ジェスチャ認識手段は、「画像上における顔位置及び手先位置の水平方向のずれ」を調べることにより、「顔位置と手先位置との相対的な位置関係」を検出することもできる。
【0009】
また、ポスチャ・ジェスチャ認識手段は、対象人物のポスチャ又はジェスチャを認識する際に、パターンマッチング法を用いることもできる(請求項3)。このように構成すると、「顔位置と手先位置との相対的な位置関係」と「顔位置を基準とした際の手先位置の変動」とからなる「入力パターン」を、予め記憶しておいたポスチャデータ又はジェスチャデータと重ね合わせて、最も似ているパターンを探すことにより、対象人物のポスチャ又はジェスチャを容易に認識することができる。
【0010】
また、ポスチャ・ジェスチャ認識手段は、対象人物の手が入る大きさの判定領域を設定し、手の面積と判定領域の面積とを比較することにより、顔位置と手先位置との相対的な位置関係が類似しているポスチャ又はジェスチャを区別することができる(請求項4)。このように構成すると、例えば、共に手先位置の高さが顔位置の高さよりも低く、カメラから手先位置までの距離がカメラから顔位置までの距離よりも短いため、互いに区別しづらい、「HANDSHAKE」というポスチャ(図9(d)参照)と、「COME HERE」というジェスチャ(図10(c)参照)とを区別することが可能となる。具体的には、手先の面積が判定領域である判定円の面積の1/2よりも大きい場合は「COME HERE」であると判定し、手先の面積が判定円の面積の1/2以下である場合は「HANDSHAKE」であると判定することにより、両者を区別する。
【0011】
請求項5に記載のジェスチャ認識方法は、カメラによって対象人物を撮像した画像から、前記対象人物のポスチャ又はジェスチャを認識するための方法であって、前記画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出ステップと、前記顔位置と手先位置から、前記顔位置と前記手先位置との相対的な位置関係及び前記顔位置を基準とした際の前記手先位置の変動を検出し、その検出結果と、顔位置と手先位置との相対的な位置関係及び顔位置を基準とした際の手先位置の変動に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、前記対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識ステップとを含むことを特徴とする。
【0012】
この方法は、まず、顔・手先位置検出ステップにおいて、画像から生成した対象人物の輪郭情報と肌色領域情報とに基づいて、対象人物の実空間上における顔位置と手先位置とを検出する。次に、ポスチャ・ジェスチャ認識ステップにおいて、「顔位置及び手先位置から顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変動」検出する。そして、その検出結果と、「顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変動」に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、対象人物のポスチャ又はジェスチャを認識する。
【0013】
請求項6に記載のジェスチャ認識プログラムは、カメラによって対象人物を撮像した画像から、前記対象人物のポスチャ又はジェスチャを認識するために、コンピュータを、前記画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段、前記顔位置と手先位置から、前記顔位置と前記手先位置との相対的な位置関係及び前記顔位置を基準とした際の前記手先位置の変動を検出し、その検出結果と、顔位置と手先位置との相対的な位置関係及び顔位置を基準とした際の手先位置の変動に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、前記対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識手段、として機能させることを特徴とする。
【0014】
このプログラムは、まず、顔・手先位置検出手段によって、画像から生成した対象人物の輪郭情報と肌色領域情報に基づいて、対象人物の実空間上における顔位置と手先位置を検出する。次に、ポスチャ・ジェスチャ認識手段によって、「顔位置及び手先位置から顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変動」を検出する。そして、その検出結果と、「顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変動」に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、対象人物のポスチャ又はジェスチャを認識する。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態について、適宜図面を参照して詳細に説明する。ここでは、まず、本発明に係るジェスチャ認識装置を含むジェスチャ認識システムの構成について図1〜図19を参照して説明し、その後、ジェスチャ認識システムの動作について図20及び図21を参照して説明する。
【0016】
(ジェスチャ認識システムAの構成)
まず、本発明に係るジェスチャ認識装置4を含むジェスチャ認識システムAの全体構成について図1を参照して説明する。図1はジェスチャ認識システムAの全体構成を示すブロック図である。
【0017】
図1に示すように、ジェスチャ認識システムAは、図示しない対象人物を撮像する2台のカメラ1(1a,1b)と、カメラ1で撮像された画像(撮像画像)を解析して各種情報を生成する撮像画像解析装置2と、撮像画像解析装置2で生成された各種情報に基づいて対象人物の輪郭を抽出する輪郭抽出装置3と、撮像画像解析装置2で生成された各種情報と、輪郭抽出装置3で抽出された対象人物の輪郭(輪郭情報)に基づいて、対象人物のポスチャ(姿勢)又はジェスチャ(動作)を認識するジェスチャ認識装置4とから構成されている。以下、カメラ1、撮像画像解析装置2、輪郭抽出装置3、ジェスチャ認識装置4について、順に説明する。
【0018】
(カメラ1)
カメラ1(1a,1b)はカラーCCDカメラであり、右カメラ1aと左カメラ1bは、左右に距離Bだけ離れて並設されている。ここでは、右カメラ1aを基準カメラとしている。カメラ1a,1bで撮像された画像(撮像画像)は、フレーム毎に図示しないフレームグラバに記憶された後、撮像画像解析装置2に同期して入力される。
【0019】
なお、カメラ1a,1bで撮像した画像(撮像画像)は、図示しない補正機器によりキャリブレーション処理とレクティフィケーション処理を行い、画像補正した後に撮像画像解析装置2に入力される。
【0020】
(撮像画像解析装置2)
撮像画像解析装置2は、カメラ1a,1bから入力された画像(撮像画像)を解析して、「距離情報」、「動き情報」、「エッジ情報」、「肌色領域情報」を生成する装置である(図1参照)。
【0021】
図2は、図1に示したジェスチャ認識システムAに含まれる撮像画像解析装置2と輪郭抽出装置3の構成を示すブロック図である。図2に示すように、撮像画像解析装置2は、「距離情報」を生成する距離情報生成部21と、「動き情報」を生成する動き情報生成部22と、「エッジ情報」を生成するエッジ情報生成部23と、「肌色領域情報」を生成する肌色領域情報生成部24とから構成されている。
【0022】
(距離情報生成部21)
距離情報生成部21は、同時刻にカメラ1a,1bで撮像された2枚の撮像画像の視差に基づいて、各画素についてカメラ1からの距離を検出する。具体的には、基準カメラであるカメラ1aで撮像された第1の撮像画像と、カメラ1bで撮像された第2の撮像画像とからブロック相関法を用いて視差を求め、その視差から三角法を用いて、カメラ1から「各画素に撮像された物」までの距離を求める。そして、求めた距離を第1の撮像画像の各画素に対応付けて、距離を画素値で表現した距離画像D1(図3(a)参照)を生成する。この距離画像D1が距離情報となる。図3(a)の例では、同一の距離に対象人物Cが存在している。
【0023】
なお、ブロック相関法とは、第1の撮像画像と第2の撮像画像とで特定の大きさの同一ブロック(例えば8×3画素)を比較し、第1の撮像画像と第2の撮像画像とでブロック内の被写体が何画素分ずれているかを調べることにより視差を検出する方法である。
【0024】
(動き情報生成部22)
動き情報生成部22は、基準カメラであるカメラ1aで時系列に撮像した「時刻t」における「撮像画像(t)」と、「時刻t+Δt」における「撮像画像(t+Δt)」との差分に基づいて、対象人物の動きを検出する。具体的には、「撮像画像(t)」と「撮像画像(t+Δt)」との差分をとり、各画素の変位を調べる。そして、調べた変位に基づいて変位ベクトルを求め、求めた変位ベクトルを画素値で表わした差分画像D2(図3(b)参照)を生成する。この差分画像D2が動き情報となる。図3(b)の例では、対象人物Cの左腕に動きが検出されている。
【0025】
(エッジ情報生成部23)
エッジ情報生成部23は、基準カメラであるカメラ1aで撮像された画像(撮像画像)における各画素の濃淡情報又は色情報に基づいて、その撮像画像内に存在するエッジを抽出したエッジ画像を生成する。具体的には、撮像画像における各画素の輝度に基づいて、輝度が大きく変化する部分をエッジとして検出し、そのエッジのみからなるエッジ画像D3(図3(c)参照)を生成する。このエッジ画像D3がエッジ情報となる。
【0026】
エッジの検出は、例えばSobelオペレータを画素毎に乗算し、行又は列単位で、隣の線分と所定の差がある線分をエッジ(横エッジ又は縦エッジ)として検出する。なお、Sobelオペレータとは、ある画素の近傍領域の画素に対して重み係数を持つ係数行例のことである。
【0027】
(肌色領域情報生成部24)
肌色領域情報生成部24は、基準カメラであるカメラ1aで撮像された画像(撮像画像)から、その撮像画像内に存在する対象人物の肌色領域を抽出する。具体的には、撮像画像における全画素のRGB値を、色相、明度、彩度からなるHLS空間に変換し、色相、明度、彩度が予め設定された閾値の範囲内にある画素を肌色領域として抽出する(図3(d)参照)。図3(d)の例では、対象人物Cの顔が肌色領域R1として抽出され、手が肌色領域R2として抽出されている。この肌色領域R1,R2が肌色領域情報となる。
【0028】
撮像画像解析装置2で生成された「距離情報(距離画像D1)」、「動き情報(差分画像D2)」、「エッジ情報(エッジ画像D3)」は、輪郭抽出装置3に入力される。また、撮像画像解析装置2で生成された「距離情報(距離画像D1)」と「肌色領域情報(肌色領域R1,R2)」は、ジェスチャ認識装置4に入力される。
【0029】
(輪郭抽出装置3)
輪郭抽出装置3は、撮像画像解析装置2で生成された「距離情報(距離画像D1)」、「動き情報(差分画像D2)」、「エッジ情報(エッジ画像D3)」に基づいて、対象人物の輪郭を抽出する装置である(図1参照)。
【0030】
図2に示すように、輪郭抽出装置3は、対象人物が存在する距離である「対象距離」を設定する対象距離設定部31と、「対象距離」に基づいた「対象距離画像」を生成する対象距離画像生成部32と、「対象距離画像内」における「対象領域」を設定する対象領域設定部33と、「対象領域内」から「対象人物の輪郭」を抽出する輪郭抽出部34とから構成されている。
【0031】
(対象距離設定部31)
対象距離設定部31は、撮像画像解析装置2で生成された距離画像D1(図3(a)参照)と、差分画像D2(図3(b)参照)とに基づいて、対象人物が存在する距離である「対象距離」を設定する。具体的には、距離画像D1における同一の画素値を有する画素を一群(画素群)として、差分画像D2における前記画素群の画素値を累計する。そして、画素値の累計値が所定値よりも大きい、かつ、カメラ1に最も近い距離にある領域に、最も動き量の多い移動物体、即ち対象人物が存在しているとみなし、その距離を対象距離とする(図4(a)参照)。図4(a)の例では、対象距離は2.2mに設定されている。対象距離設定部31で設定された対象距離は、対象距離画像生成部32に入力される。
【0032】
(対象距離画像生成部32)
対象距離画像生成部32は、撮像画像解析装置2で生成された距離画像D1(図3(a)参照)を参照し、対象距離設定部31で設定された対象距離±αmに存在する画素に対応する画素をエッジ画像D3(図3(c)参照)から抽出した「対象距離画像」を生成する。具体的には、距離画像D1における対象距離設定部31から入力された対象距離±αmに対応する画素を求める。そして、求められた画素のみをエッジ情報生成部23で生成されたエッジ画像D3から抽出し、対象距離画像D4(図4(b)参照)を生成する。したがって、対象距離画像D4は、対象距離に存在する対象人物をエッジで表現した画像になる。対象距離画像生成部32で生成された対象距離画像D4は、対象領域設定部33と輪郭抽出部34に入力される。
【0033】
(対象領域設定部33)
対象領域設定部33は、対象距離画像生成部32で生成された対象距離画像D4(図3(b)参照)内における「対象領域」を設定する。具体的には、対象距離画像D4の縦方向の画素値を累計したヒストグラムHを生成し、ヒストグラムHにおける度数が最大となる位置を、対象人物Cの水平方向における中心位置として特定する(図5(a)参照)。そして、特定された中心位置の左右に特定の大きさ(例えば0.5m)の範囲を対象領域Tとして設定する(図5(b)参照)。なお、対象領域Tの縦方向の範囲は、特定の大きさ(例えば2m)に設定される。また、対象領域Tを設定する際は、カメラ1のチルト角や高さ等のカメラパラメータを参照して、対象領域Tの設定範囲を補正する。対象領域設定部33で設定された対象領域Tは、輪郭抽出部34に入力される。
【0034】
(輪郭抽出部34)
輪郭抽出部34は、対象距離画像生成部32で生成された対象領域画像D4(図4(b)参照)において、対象領域設定部33で設定された対象領域T内から対象人物Cの輪郭Oを抽出する(図5(c)参照)。具体的には、対象人物Cの輪郭Oを抽出する際は、「Snakes」と呼ばれる閉曲線からなる動的輪郭モデルを用いた手法(以下、「スネーク手法」という)を用いる。なお、スネーク手法とは、動的輪郭モデルである「Snakes」を、予め定義されたエネルギ関数が最小となるように収縮変形させることにより、対象物の輪郭を抽出する手法である。輪郭抽出部34で抽出された対象人物Cの輪郭Oは、「輪郭情報」としてジェスチャ認識装置4に入力される(図1参照)。
【0035】
ジェスチャ認識装置4は、撮像画像解析装置2で生成された「距離情報」及び「肌色領域情報」と、輪郭抽出装置3で生成された「輪郭情報」とに基づいて、対象人物のポスチャ又はジェスチャを認識し、その認識結果を出力する装置である(図1参照)。
【0036】
図6は、図1に示したジェスチャ認識システムAに含まれるジェスチャ認識装置4の構成を示すブロック図である。図6に示すように、ジェスチャ認識装置4は、対象人物Cの実空間上における顔位置と手先位置を検出する顔・手先位置検出手段41と、顔・手先位置検出手段41によって検出された顔位置と手先位置に基づいて、対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識手段42とを備えている。
【0037】
顔・手先位置検出手段41は、実空間上における対象人物の「頭頂部の位置(頭頂部位置)」を検出する頭位置検出部41Aと、対象人物の「顔の位置(顔位置)」を検出する顔位置検出部41Bと、対象人物の「手の位置(手位置)」を検出する手位置検出部41Cと、対象人物の「手先の位置(手先位置)」を検出する手先位置検出部41Dとから構成されている。なお、ここでいう「手」とは、腕(arm)と手(Hand)とからなる部位のことであり、「手先」とは、手(Hand)の指先のことである。
【0038】
(頭位置検出部41A)
頭位置検出部41Aは、輪郭抽出装置3で生成された輪郭情報に基づいて、対象人物Cの「頭頂部位置」を検出する。頭頂部位置の検出方法について図7(a)を参照して説明すると、まず、輪郭Oで囲まれた領域における重心Gを求める(1)。次に、頭頂部位置を探索するための領域(頭頂部位置探索領域)F1を設定する(2)。頭頂部位置探索領域F1の横幅(X軸方向の幅)は、重心GのX座標を中心にして、予め設定されている人間の平均肩幅Wとなるようにする。なお、人間の平均肩幅Wは、撮像画像解析装置2で生成された距離情報を参照して設定される。また、頭頂部位置探索領域F1の縦幅(Y軸方向の幅)は、輪郭Oを覆うことができるような幅に設定される。そして、頭頂部位置探索領域F1内における輪郭Oの上端点を、頭頂部位置m1とする(3)。頭位置検出部41Aで検出された頭頂部位置m1は、顔位置検出部41Bに入力される。
【0039】
(顔位置検出部41B)
顔位置検出部41Bは、頭位置検出部41Aで検出された頭頂部位置m1と、撮像画像解析装置2で生成された肌色領域情報とに基づいて、対象人物Cの「顔位置」を検出する。顔位置の検出方法について図7(b)を参照して説明すると、まず、顔位置を探索するための領域(顔位置探索領域)F2を設定する(4)。顔位置探索領域F2の範囲は、頭頂部位置m1を基準にして、予め設定されている「おおよそ人間の頭部を覆う大きさ」となるようにする。なお、顔位置探索領域F2の範囲は、撮像画像解析装置2で生成された距離情報を参照して設定される。
【0040】
次に、顔位置探索領域F2内における肌色領域R1の重心を、画像上における顔位置m2とする(5)。肌色領域R1については、撮像画像解析装置2で生成された肌色領域情報を参照する。そして、画像上における顔位置m2(Xf,Yf)から、撮像画像解析装置2で生成された距離情報を参照して、実空間上における顔位置m2t(Xft,Yft,Zft)を求める。
【0041】
顔位置検出部41Bで検出された「画像上における顔位置m2」は、手位置検出部41Cと手先位置検出部41Dに入力される。また、顔位置検出部41Bで検出された「実空間上における顔位置m2t」は、図示しない記憶手段に記憶され、ポスチャ・ジェスチャ認識手段42のポスチャ・ジェスチャ認識部42B(図6参照)において対象人物Cのポスチャ又はジェスチャを認識する際に使用される。
【0042】
(手位置検出部41C)
手位置検出部41Cは、撮像画像解析装置2で生成された肌色領域情報と、輪郭抽出装置3で生成された輪郭情報とに基づいて、対象人物Cの「手位置」を検出する。なお、ここでは、肌色領域情報は、顔位置m2周辺を除いた領域の情報を用いる。手位置の検出方法について図8(a)を参照して説明すると、まず、手位置を探索するための領域(手位置探索領域)F3(F3R,F3L)を設定する(6)。手位置探索領域F3は、顔位置検出部41Bで検出された顔位置m2を基準にして、予め設定されている「手が届く範囲(左右の手の届く範囲)」となるようにする。なお、手位置探索領域F3の大きさは、撮像画像解析装置2で生成された距離情報を参照して設定される。
【0043】
次に、手位置探索領域F3内における肌色領域R2の重心を、画像上における手位置m3とする(7)。肌色領域R2については、撮像画像解析装置2で生成された肌色領域情報を参照する。なお、ここでは、肌色領域情報は、顔位置m2周辺を除いた領域の情報を用いる。図8(a)の例では、肌色領域は手位置探索領域F3(L)においてのみ存在しているので、手位置m3は手位置探索領域F3(L)においてのみ検出される。また、図8(a)の例では、対象人物は長袖の服を着ており、手首より先しか露出していないので、手(HAND)の位置が手位置m3となる。手位置検出部41Cで検出された「画像上における手位置m3」は、手先位置検出部41Dに入力される。
【0044】
(手先位置検出部41D)
手先位置検出部41Dは、顔位置検出部41Bで検出された顔位置m2と、手位置検出部41Cで検出された手位置m3とに基づいて、対象人物Cの「手先位置」を検出する。手先位置の検出方法について図8(b)を参照して説明すると、まず、手位置探索領域F3L内において、手先位置を探索するための領域(手先位置探索範囲)F4を設定する(8)。手先位置探索範囲F4は、手位置m3を中心にして、予め設定されている「おおよそ手を覆う大きさ」となるようにする。なお、手先位置探索範囲F4の範囲は、撮像画像解析装置2で生成された距離情報を参照して設定される。
【0045】
続いて、手先位置探索範囲F4における肌色領域R2の上下左右の端点m4a〜m4dを検出する(9)。肌色領域R2については、撮像画像解析装置2で生成された肌色領域情報を参照する。そして、上下端点間(m4a、m4b間)の垂直方向距離d1と、左右端点間(m4c、m4d間)の水平方向距離d2とを比較し、距離が長い方を手が伸びている方向と判断する(10)。図8(b)の例では、垂直方向距離d1の方が水平方向距離d2よりも距離が長いので、手先は上下方向に伸びていると判断される。
【0046】
次に、画像上における顔位置m2と、画像上における手位置m3との位置関係に基づいて、上下端点m4a,m4bのどちら(もしくは左右端点m4c,m4dのどちらか)が手先位置であるかを判断する。具体的には、手位置m3が顔位置m2から遠い場合は、手は伸びているとみなし、顔位置m2から遠い方の端点を手先位置(画像上における手先位置)m4と判断する。逆に、手位置m3が顔位置m2に近い場合は、肘を曲げているとみなし、顔位置m2に近い方の端点を手先位置m4と判断する。図8(b)の例では、手位置m3が顔位置m2から遠く、上端点m4aが下端点m4bよりも顔位置m2から遠いので、上端点m4aが手先位置m4であると判断する(11)。
【0047】
そして、画像上における手先位置m4(Xh,Yh)から、撮像画像解析装置2で生成された距離情報を参照して、実空間上における手先位置m4t(Xht,Yht,Zht)を求める。手先位置検出部41Dで検出された「実空間上における手先位置m4t」は、図示しない記憶手段に記憶され、ポスチャ・ジェスチャ認識手段42のポスチャ・ジェスチャ認識部42B(図6参照)において対象人物Cのポスチャ又はジェスチャを認識する際に使用される。
【0048】
(ポスチャ・ジェスチャ認識手段42)
ポスチャ・ジェスチャ認識手段42は、ポスチャデータ及びジェスチャデータを記憶するポスチャ・ジェスチャデータ記憶部42Aと、顔・手先位置検出手段41によって検出された「実空間上における顔位置m2t」及び「実空間上における手先位置m4t」に基づいて、対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識部42Bとから構成されている(図6参照)。
【0049】
(ポスチャ・ジェスチャデータ記憶部42A)
ポスチャ・ジェスチャデータ記憶部42Aは、ポスチャデータP1〜P6(図9参照)とジェスチャデータJ1〜J4(図10参照)を記憶している。ポスチャデータP1〜P6とジェスチャデータJ1〜J4は、「実空間上における顔位置と手先位置との相対的な位置関係」及び「顔位置を基準とした際の手先位置の変動」に対応するポスチャ又はジェスチャを記したデータである。なお、「顔位置と手先位置との相対的な位置関係」とは、具体的には、「顔位置及び手先位置の高さ」と、「顔位置及び手先位置のカメラ1からの距離」とのことである。また、ポスチャ・ジェスチャ認識手段42Aは、「画像上における顔位置及び手先位置の水平方向のずれ」を調べることにより、「顔位置と手先位置との相対的な位置関係」を検出することもできる。ポスチャデータP1〜P6とジェスチャデータJ1〜J4は、ポスチャ・ジェスチャ認識部42Bにおいて対象人物のポスチャ又はジェスチャを認識する際に使用される。
【0050】
ポスチャデータP1〜P6について図9を参照して説明すると、図9(a)に示す「ポスチャP1:FACE SIDE」は「こんにちは」、図9(b)に示す「ポスチャP2:HIGH HAND」は「追従開始」、図9(c)に示す「ポスチャP3:STOP」は「止まれ」、図9(d)に示す「ポスチャP4:HANDSHAKE」は「握手」、図9(e)に示す「ポスチャP5:SIDE HAND」は「手の方向を見よ」、図9(f)に示す「ポスチャP6:LOW HAND」は「手の方向に曲がれ」を意味するポスチャである。
【0051】
また、ジェスチャJ1〜J4について図10を参照して説明すると、図10(a)に示す「ジェスチャJ1:HAND SWING」は「注意せよ」、図10(b)に示す「ジェスチャJ2:BYE BYE」は「さようなら」、図10(c)に示す「ジェスチャJ3:COME HERE」は「接近せよ」、図10(d)に示す「ジェスチャJ4:HAND CIRCLING」は「旋回せよ」を意味するジェスチャである。
【0052】
なお、本実施の形態では、ポスチャ・ジェスチャデータ記憶部42A(図6参照)は、ポスチャデータP1〜P6(図9参照)とジェスチャデータJ1〜J4(図10参照)を記憶しているが、ポスチャ・ジェスチャデータ記憶部42Aに記憶させるポスチャデータとジェスチャデータは任意に設定することができる。また、各ポスチャと各ジェスチャの意味も任意に設定することができる。
【0053】
ポスチャ・ジェスチャ認識部42Bは、顔・手先位置検出手段41によって検出された「実空間上における顔位置m2t」及び「実空間上における手先位置m4t」から、「顔位置m2tと手先位置m4tとの相対的な位置関係」及び「顔位置m2tを基準とした際の手先位置m4tの変動」を検出し、その検出結果と、ポスチャ・ジェスチャデータ記憶部42Aに記憶されているポスチャデータP1〜P6(図9参照)又はジェスチャデータJ1〜J4(図10参照)とを比較することにより、対象人物のポスチャ又はジェスチャを認識する。なお、ポスチャ・ジェスチャ認識部42Bでの認識結果は履歴として保存される。
【0054】
次に、図11〜図14に示すフローチャートを参照して、ポスチャ・ジェスチャ認識部42Bにおけるポスチャ又はジェスチャの認識方法について詳しく説明する。ここでは、まず、図11に示すフローチャートを参照してポスチャ・ジェスチャ認識部42Bでの処理の概略について説明し、その後、図12に示すフローチャートを参照して図11に示したフローチャートにおける「ステップS1:ポスチャ認識処理」について説明し、図13及び図14に示すフローチャートを参照して図11に示したフローチャートにおける「ステップS4:ポスチャ・ジェスチャ認識処理」について説明する。
【0055】
(ポスチャ・ジェスチャ認識部42Bでの処理の概略)
図11は、ポスチャ・ジェスチャ認識部42Bでの処理の概略を説明するためのフローチャートである。図11に示すフローチャートを参照して、まず、ステップS1では、ポスチャP1〜P4(図9参照)の認識を試みる。続いて、ステップS2では、ステップS1においてポスチャを認識できたかどうかを判断する。ここで、ポスチャを認識できたと判断された場合はステップS3に進み、ポスチャを認識できなかったと判断された場合はステップS4に進む。そして、ステップS3では、ステップS1において認識されたポスチャを認識結果として出力し、処理を終了する。
【0056】
ステップS4では、ポスチャP5,P6(図9参照)又はジェスチャJ1〜J4(図10参照)の認識を試みる。次に、ステップS5では、ステップS4においてポスチャ又はジェスチャを認識できたかどうかを判断する。ここで、ポスチャ又はジェスチャを認識できたと判断された場合はステップS6に進み、ポスチャ又はジェスチャを認識できなかったと判断された場合はステップS8に進む。
【0057】
ステップS6では、過去の所定数のフレーム(例えば10フレーム)において、同一のポスチャ又はジェスチャを所定回数(例えば5回)以上認識できたかどうかを判断する。ここで、同一のポスチャ又はジェスチャを所定回数以上認識できたと判断された場合はステップS7に進み、同一のポスチャ又はジェスチャを所定回数以上認識できなかったと判断された場合はステップS8に進む。
【0058】
そして、ステップS7では、ステップS4において認識されたポスチャ又はジェスチャを認識結果として出力し、処理を終了する。また、ステップS8では、ポスチャ又はジェスチャを認識できなかった、即ち認識不能であると出力し、処理を終了する。
【0059】
(ステップS1:ポスチャ認識処理)
図12は、図11に示したフローチャートにおける「ステップS1:ポスチャ認識処理」について説明するためのフローチャートである。図12に示すフローチャートを参照して、まず、ステップS11では、顔・手先位置検出手段41から対象人物の実空間上における顔位置m2t及び手先位置m4t(以降、「入力情報」という)が入力される。続いて、ステップS12では、顔位置m2t及び手先位置m4tに基づいて、カメラ1から手先までの距離(以降、「手先距離」という)と、カメラ1から顔までの距離(以降、「顔距離」という)とを比較し、手先距離と顔距離とがほぼ同じであるかどうか、つまり手先距離と顔距離との差が所定値以下であるかどうかを判断する。ここで、両者がほぼ同じ距離であると判断された場合はステップS13に進み、両者がほぼ同じではないと判断された場合はステップS18に進む。
【0060】
ステップS13では、手先の高さ(以降、「手先高さ」という)と、顔の高さ(以降、「顔高さ」という)とを比較し、手先高さと顔高さとがほぼ同じであるかどうか、つまり手先高さと顔高さとの差が所定値以下であるかどうかを判断する。ここで、両者がほぼ同じであると判断された場合はステップS14に進み、両者がほぼ同じではないと判断された場合はステップS15に進む。ステップS14では、入力情報に対応するポスチャは、「ポスチャP1:FACE SIDE」(図9(a)参照)であるという認識結果を出力し、処理を終了する。
【0061】
ステップS15では、手先高さと顔高さとを比較し、手先高さが顔高さよりも高いかどうかを判断する。ここで、手先高さが顔高さよりも高いと判断された場合はステップS16に進み、手先高さが顔高さよりも高くはないと判断された場合はステップS17に進む。そして、ステップS16では、入力情報に対応するポスチャは、「ポスチャP2:HIGH HAND」(図9(b)参照)であるという認識結果を出力し、処理を終了する。また、ステップS17では、入力情報に対応するポスチャは「無し」という認識結果を出力し、処理を終了する。
【0062】
ステップS18では、手先高さと顔高さとを比較し、手先高さと顔高さとがほぼ同じであるかどうか、つまり手先高さと顔高さとの差が所定値以下であるかどうかを判断する。ここで、両者がほぼ同じであると判断された場合はステップS19に進み、両者がほぼ同じではないと判断された場合はステップS20に進む。そして、ステップS19では、入力情報に対応するポスチャは、「ポスチャP3:STOP」(図9(c)参照)であるという認識結果を出力し、処理を終了する。
【0063】
ステップS20では、手先高さと顔高さとを比較し、手先高さが顔高さよりも低いかどうかを判断する。ここで、手先高さが顔高さよりも低くはないと判断された場合はステップS21に進み、手先高さが顔高さよりも高いと判断された場合はステップS22に進む。そして、ステップS21では、入力情報に対応するポスチャは「ポスチャP4:HANDSHAKE」(図9(d)参照)であるという認識結果を出力し、処理を終了する。また、ステップS22では、入力情報に対応するポスチャは「無し」という認識結果を出力し、処理を終了する。
【0064】
(ステップS4:ポスチャ・ジェスチャ認識処理)
図13は、図11に示したフローチャートにおける「ステップS4:ポスチャ・ジェスチャ認識処理」について説明するための第1のフローチャートである。図13に示すフローチャートを参照して、まず、ステップS31では、入力情報(対象人物の実空間上における顔位置m2t及び手先位置m4t)が入力される。続いて、ステップS32では、顔位置m2tを基準とした場合の手先位置m4tの標準偏差を求め、求めた標準偏差に基づいて、手の動きの有無を判断する。具体的には、手先位置m4tの標準偏差が所定値以下の場合は手の動きが無いと判断し、所定値よりも大きい場合は手の動きが有ると判断する。ここで、手の動きが無いと判断された場合はステップS33に進み、手の動きが有ると判断された場合はステップS36に進む。
【0065】
ステップS33では、手先高さが顔高さのすぐ下であるかどうかを判断する。ここで、手先高さが顔高さのすぐ下であると判断された場合はステップS34に進み、手先高さが顔高さのすぐ下ではないと判断された場合はステップS35に進む。そして、ステップS34では、入力情報に対応するポスチャ又はジェスチャは、「ポスチャP5:SIDE HAND」(図9(e)参照)であるという認識結果を出力し、処理を終了する。また、ステップS35では、入力情報に対応するポスチャ又はジェスチャは、「ポスチャP6:LOW HAND」(図9(f)参照)であるという認識結果を出力し、処理を終了する。
【0066】
ステップS36では、手先高さと顔高さとを比較し、手先高さが顔高さよりも高いかどうかを判断する。ここで、手先高さが顔高さよりも高いと判断された場合はステップS37に進み、手先高さが顔高さよりも高くはないと判断された場合はステップS41(図14参照)に進む。そして、ステップS37では、手先距離と顔距離とを比較し、手先距離と顔距離とがほぼ同じであるかどうか、つまり手先距離と顔距離との差が所定値以下であるかどうかを判断する。ここで、両者がほぼ同じであると判断された場合はステップS38に進み、両者がほぼ同じではないと判断された場合はステップS40に進む。
【0067】
ステップS38では、手先が左右に振れているかどうかを判断する。ここで、2フレーム間における左右方向のずれから、手先が左右に振れていると判断された場合はステップS39に進み、手先が左右に振れていないと判断された場合はステップS40に進む。そして、ステップS39では、入力情報に対応するポスチャ又はジェスチャは、「ジェスチャJ1:HAND SWING」(図10(a)参照)であるという認識結果を出力し、処理を終了する。また、ステップS41では、入力情報に対応するポスチャ又はジェスチャは「無し」という認識結果を出力して処理を終了する。
【0068】
図14は、図11に示したフローチャートにおける「ステップS4:ポスチャ・ジェスチャ認識処理」について説明するための第2のフローチャートである。図14に示すフローチャートを参照して、ステップS41では、手先距離と顔距離とを比較し、手先距離が顔距離よりも短いかどうかを判断する。ここで、手先距離が顔距離よりも短いと判断された場合はステップS42に進み、手先距離が顔距離よりも短くはないと判断された場合はステップS47に進む。
【0069】
ステップS42では、手先が左右に振れているかどうかを判断する。ここで、2フレーム間における左右方向のずれから、手先が左右に振れていると判断された場合はステップS43に進み、手先が左右に振れていないと判断された場合はステップS44に進む。そして、ステップS43では、入力情報に対応するポスチャ又はジェスチャは、「ジェスチャJ2:BYE BYE」(図10(b)参照)であるという認識結果を出力し、処理を終了する。
【0070】
ステップS44では、手先が上下に振れているかどうかを判断する。ここで、2フレーム間における上下方向のずれから、手先が上下に振れていると判断された場合はステップS45に進み、手先が上下に振れていないと判断された場合はステップS46に進む。そして、ステップS45では、入力情報に対応するポスチャ又はジェスチャは、「ジェスチャJ3:COME HERE」(図10(c)参照)であるという認識結果を出力し、処理を終了する。また、ステップS46では、入力情報に対応するポスチャ又はジェスチャは「無し」という認識結果を出力して処理を終了する。
【0071】
ステップS47では、手先距離と顔距離とを比較し、手先距離と顔距離とがほぼ同じであるかどうか、つまり手先距離と顔距離との差が所定値以下であるかどうかを判断する。ここで、両者がほぼ同じであると判断された場合はステップS48に進み、両者がほぼ同じではないと判断された場合はステップS50に進む。ステップS48では、手先が左右に振れているかどうかを判断する。ここで、手先が左右に振れていると判断された場合はステップS49に進み、手先が左右に振れていないと判断された場合はステップS50に進む。
【0072】
そして、ステップS49では、入力情報に対応するポスチャ又はジェスチャは、「ジェスチャJ4:HAND CIRCLING」(図10(d)参照)であるという認識結果を出力し、処理を終了する。また、ステップS50では、入力情報に対応するポスチャ又はジェスチャは「無し」という認識結果を出力して処理を終了する。
【0073】
以上のようにして、ポスチャ・ジェスチャ認識部42Bは、顔・手先位置検出手段41から入力された入力情報(対象人物の実空間上における顔位置m2t及び手先位置m4t)から、「顔位置m2tと手先位置m4tとの相対的な位置関係」及び「顔位置m2tを基準とした際の手先位置m4tの変動」を検出し、その検出結果と、ポスチャ・ジェスチャ記憶部42Aに記憶されたポスチャP1〜P6(図9参照)及びジェスチャデータJ1〜J4(図10参照)とを比較することにより、対象人物のポスチャ又はジェスチャを認識することができる。
【0074】
なお、ポスチャ・ジェスチャ認識部42Bでは前記した方法以外にも、次の変形例1及び変形例2の方法によっても対象人物のポスチャ又はジェスチャを認識することができる。以下、図15〜図17を参照して「ポスチャ・ジェスチャ認識部42Bでの処理の変形例1」について説明し、図18及び図19を参照して「ポスチャ・ジェスチャ認識部42Bでの処理の変形例2」について説明する。
【0075】
(ポスチャ・ジェスチャ認識部42Bでの処理の変形例1)
変形例1では、対象人物のポスチャ又はジェスチャを認識する際に、パターンマッチング法を用いている。図15は、「ポスチャ・ジェスチャ認識部42Bでの処理の変形例1」について説明するためのフローチャートである。図15に示すフローチャートを参照して、まず、ステップS61では、ポスチャ又はジェスチャの認識を試みる。このとき、ポスチャ・ジェスチャ認識部42Bは、顔・手先位置検出手段41から入力された入力情報(対象人物の実空間上における顔位置m2t及び手先位置m4t)と「顔位置m2tを基準とした際の手先位置m4tの変動」とからなる「入力パターン」を、ポスチャ・ジェスチャ記憶部42Aに記憶されているポスチャP11〜P16(図16参照)又はジェスチャデータJ11〜J14(図17参照)と重ね合わせて、最も似ているパターンを探すことにより、対象人物のポスチャ又はジェスチャを認識する。なお、ポスチャ・ジェスチャ記憶部42Aには、予めパターンマッチング用のポスチャデータP11〜P16(図16参照)とジェスチャデータJ11〜J14(図17参照)とを記憶させておく。
【0076】
続いて、ステップS62では、ステップS61においてポスチャ又はジェスチャを認識できたかどうかを判断する。ここで、ポスチャ又はジェスチャを認識できたと判断された場合はステップS63に進み、ポスチャ又はジェスチャを認識できなかったと判断された場合はステップS65に進む。
【0077】
ステップS63では、過去の所定数のフレーム(例えば10フレーム)において、同一のポスチャ又はジェスチャを所定回数(例えば5回)以上認識できたかどうかを判断する。ここで、同一のポスチャ又はジェスチャを所定回数以上認識できたと判断された場合はステップS64に進み、同一のポスチャ又はジェスチャを所定回数以上認識できなかったと判断された場合はステップS65に進む。
【0078】
そして、ステップS64では、ステップS61において認識されたポスチャ又はジェスチャを認識結果として出力し、処理を終了する。また、ステップS65では、ポスチャ又はジェスチャを認識することができなかった、即ち認識不能であると出力し、処理を終了する。
【0079】
以上のようにして、ポスチャ・ジェスチャ認識部42Bは、パターンマッチング法を用いて、顔・手先位置検出手段41から入力された入力情報と「顔位置m2tを基準とした際の手先位置m4tの変動」とからなる「入力パターン」を、ポスチャ・ジェスチャ記憶部42Aに記憶されたポスチャP11〜P16(図16参照)及びジェスチャデータJ11〜J14(図17参照)とパターンマッチングさせることにより、対象人物のポスチャ又はジェスチャを認識することができる。
【0080】
(ポスチャ・ジェスチャ認識部42Bでの処理の変形例2)
変形例2では、対象人物の手先が入る大きさの判定円Eを設定し、手先の面積と判定円の面積とを比較することにより、顔位置m2tと手先位置m4tとの相対的な位置関係が類似している「ポスチャP4:HANDSHAKE」(図9(d)参照)と「ジェスチャJ3:COME HERE」(図10(c)参照)とを区別している。なお、「ポスチャP4:HANDSHAKE」と「ジェスチャJ3:COME HERE」は、共に手先位置の高さが顔位置の高さよりも低く、カメラから手先位置までの距離がカメラから顔位置までの距離よりも短いため、互いに区別しづらい。
【0081】
図18は、ポスチャ・ジェスチャ認識部42Bでの処理の変形例2について説明するためのフローチャートである。図18に示すフローチャートを参照して、まず、ステップS71では、手位置m3を中心とする判定円(判定領域)Eを設定する(図19参照)。判定円Eの大きさは、判定円E内に手が入るような大きさに設定される。なお、判定円Eの大きさ(直径)は、撮像画像解析装置2で生成された距離情報を参照して設定される。図19の例では、判定円Eの直径は20cmに設定されている。
【0082】
続いて、ステップS72では、判定円E内における肌色領域R2の面積Shが判定円Eの面積Sの1/2以上かどうかを判断する。なお、肌色領域R2については、撮像画像解析装置2で生成された肌色領域情報を参照する。ここで、肌色領域R2の面積Shが判定円Eの面積Sの1/2以上と判断された場合(図19(b)参照)はステップS73に進み、肌色領域R2の面積Shが判定円Eの面積Sの1/2以上ではない、即ち1/2よりも小さいと判断された場合(図19(c)参照)はステップS74に進む。
【0083】
ステップS73では、入力情報に対応するポスチャ又はジェスチャは、「ジェスチャJ3:COME HERE」(図10(c)参照)であるという判定結果を出力し、処理を終了する。また、ステップS73では、入力情報に対応するポスチャ又はジェスチャは、「ポスチャP4:HANDSHAKE」(図9(d)参照)であるという判定結果を出力し、処理を終了する。
【0084】
以上のようにして、ポスチャ・ジェスチャ認識部42Bは、対象人物の手先が入る大きさの判定円Eを設定し、判定円E内における肌色領域R2の面積Shと判定円Eの面積とを比較し、手先の面積が判定円の面積の1/2よりも大きい場合は「COME HERE」であると判定し、手先の面積が判定円の面積の1/2以下である場合は「HANDSHAKE」であると判定することにより、「ジェスチャJ3:COME HERE」と「ポスチャP4:HANDSHAKE」とを区別することができる。
【0085】
(ジェスチャ認識システムAの動作)
次に、ジェスチャ認識システムAの動作について図1に示すジェスチャ認識システムAの全体構成を示すブロック図と、図20及び図21に示すフローチャートを参照して説明する。図20は、ジェスチャ認識システムAの動作における「撮像画像解析ステップ」と「輪郭抽出ステップ」を説明するために示すフローチャートであり、図21は、ジェスチャ認識システムAの動作における「顔・手先位置検出ステップ」と「ポスチャ・ジェスチャ認識ステップ」を説明するために示すフローチャートである。
【0086】
<撮像画像解析ステップ>
図20に示すフローチャートを参照して、撮像画像解析装置2では、カメラ1a,1bから撮像画像が入力されると(ステップS101)、距離情報生成部21において、撮像画像から距離情報である距離画像D1(図3(a)参照)を生成し(ステップS102)、動き情報生成部22において、撮像画像から動き情報である差分画像D2(図3(b)参照)を生成する(ステップS103)。また、エッジ情報生成部23において、撮像画像からエッジ情報であるエッジ画像D3(図3(c)参照)を生成し(ステップS104)、肌色領域情報生成部24において、撮像画像から肌色領域情報である肌色領域R1,R2(図3(d)参照)を抽出する(ステップS105)。
【0087】
<輪郭抽出ステップ>
引き続き図20に示すフローチャートを参照して、輪郭抽出装置3では、まず、対象距離設定部31において、ステップS102とステップS103で生成された距離画像D1と差分画像D2から、対象人物が存在する距離である対象距離を設定する(ステップS106)。続いて、対象距離画像生成部32において、ステップS104で生成されたエッジ画像D3からステップS106で設定された対象距離に存在する画素を抽出した対象距離画像D4(図4(b)参照)を生成する(ステップS107)。
【0088】
次に、対象領域設定部33において、ステップS107で生成された対象距離画像D4内における対象領域T(図5(b)参照)を設定する(ステップS108)。そして、輪郭抽出部34において、ステップS108で設定された対象領域T内から、対象人物Cの輪郭O(図5(c)参照)を抽出する(ステップS109)。
【0089】
<顔・手先位置検出ステップ>
図21に示すフローチャートを参照して、ジェスチャ認識装置4の顔・手先位置検出手段41では、まず、頭位置検出部41Aにおいて、ステップS109で生成された輪郭情報に基づいて、対象人物Cの頭頂部位置m1(図7(a)参照)を検出する(ステップS110)。
【0090】
続いて、顔位置検出部41Bにおいて、ステップS110で検出された頭頂部位置m1と、ステップS105で生成された肌色領域情報とに基づいて、「画像上における顔位置m2」(図7(b)参照)を検出し、検出された「画像上における顔位置m2(Xf,Yf)」から、ステップS102で生成された距離情報を参照して、「実空間上における顔位置m2t(Xft,Yft,Zft)」を求める(ステップS111)。
【0091】
次に、手位置検出部41Cにおいて、ステップS111で検出された「画像上における顔位置m2」から、「画像上における手位置m3」(図8(a)参照)を検出する(ステップS112)。
【0092】
そして、手先位置検出部41Dにおいて、顔位置検出部41Bで検出された「画像上における顔位置m2」と、手位置検出部41Cで検出された手位置m3とに基づいて、「画像上における手先位置m4」(図8(b)参照)を検出し、検出された「画像上における手先位置m4(Xh,Yh)」から、ステップS102で生成された距離情報を参照して、「実空間上における手先位置m4t(Xht,Yht,Zht)」を求める(ステップS113)。
【0093】
<ポスチャ・ジェスチャ認識ステップ>
引き続き図18に示すフローチャートを参照して、ジェスチャ認識装置4のポスチャ・ジェスチャ認識手段42では、ポスチャ・ジェスチャ認識部42Bにおいて、ステップS111及びステップS113で求められた「実空間上における顔位置m2t(Xft,Yft,Zft)」と「実空間上における手先位置m4t(Xht,Yht,Zht)」とから、「顔位置m2tと手先位置m4tとの相対的な位置関係」及び「顔位置m2tを基準とした際の手先位置m4tの変動」を検出し、その検出結果と、ポスチャ・ジェスチャ記憶部42Aに記憶されたポスチャP1〜P6(図9参照)及びジェスチャデータJ1〜J4(図10参照)とを比較することにより、対象人物のポスチャ又はジェスチャを認識する(ステップS114)。ポスチャ・ジェスチャ認識部42Bにおけるポスチャ又はジェスチャの認識方法の詳細については、前記したのでここでは省略する。
【0094】
以上、ジェスチャ認識システムAについて説明したが、このジェスチャ認識システムAに含まれるジェスチャ認識装置4は、コンピュータにおいて各手段を各機能プログラムとして実現することも可能であり、各機能プログラムを結合してジェスチャ認識プログラムとして動作させることも可能である。
【0095】
また、このジェスチャ認識システムAは、例えば自律ロボットに適用することができる。その場合、自律ロボットは、例えば人が手を差し出すとそのポスチャ「ポスチャP4:HANDSHAKE」(図9(d)参照)と認識することや、人が手を振るとそのジェスチャを「ジェスチャJ1:HAND SWING」(図10(a)参照)と認識することが可能となる。
【0096】
なお、ポスチャやジェスチャによる指示は、音声による指示と比べて、周囲の騒音により左右されない、音声が届かないような状況でも指示が可能である、言葉では表現が難しい(又は冗長になる)指示を簡潔に行うことができる、という利点がある。
【0097】
【発明の効果】
以上、詳細に説明したように、本発明によれば、対象人物のジェスチャを認識する際に、特徴点(対象人物の動きの特徴を示す点)を一々検出する必要が無いため、ポスチャ認識処理又はジェスチャ認識処理に要する計算量を減らすことができる。
【図面の簡単な説明】
【図1】ジェスチャ認識システムAの全体構成を示すブロック図である。
【図2】図1に示したジェスチャ認識システムAに含まれる撮像画像解析装置2と輪郭抽出装置3の構成を示すブロック図である。
【図3】(a)は距離画像D1、(b)は差分画像D2、(c)はエッジ画像D3、(d)は肌色領域R1,R2を示す図である。
【図4】対象距離を設定する方法を説明するための図である。
【図5】対象領域Tを設定する方法と、対象領域T内から対象人物Cの輪郭Oを抽出する方法を説明するための図である。
【図6】図1に示したジェスチャ認識システムAに含まれるジェスチャ認識装置4の構成を示すブロック図である。
【図7】(a)は頭頂部位置m1の検出方法を説明するための図であり、(b)は顔位置m2の検出方法を説明するための図である。
【図8】(a)は手位置m3の検出方法を説明するための図であり、(b)は手先位置m4の検出方法を説明するための図である。
【図9】ポスチャデータP1〜P6を示す図である。
【図10】ジェスチャデータJ1〜J4を示す図である。
【図11】ポスチャ・ジェスチャ認識部42Bでの処理の概略を説明するためのフローチャートである。
【図12】図11に示したフローチャートにおける「ステップS1:ポスチャ認識処理」について説明するためのフローチャートである。
【図13】図11に示したフローチャートにおける「ステップS4:ポスチャ・ジェスチャ認識処理」について説明するための第1のフローチャートである。
【図14】図11に示したフローチャートにおける「ステップS4:ポスチャ・ジェスチャ認識処理」について説明するための第2のフローチャートである。
【図15】ポスチャ・ジェスチャ認識部42Bでの処理の変形例1について説明するためのフローチャートである。
【図16】ポスチャデータP11〜P16を示す図である。
【図17】ジェスチャデータJ11〜J14を示す図である。
【図18】ポスチャ・ジェスチャ認識部42Bでの処理の変形例2について説明するためのフローチャートである。
【図19】(a)は判定円Eの設定方法を説明するための図である。また、(b)は肌色領域R2の面積Shが判定円Eの面積Sの1/2よりも大きい場合を示す図であり、(c)は肌色領域R2の面積S2が判定円Eの面積2の1/2以下である場合を示す図である。
【図20】ジェスチャ認識システムAの動作における「撮像画像解析ステップ」と「輪郭抽出ステップ」を説明するために示すフローチャートである。
【図21】ジェスチャ認識システムAの動作における「顔・手先位置検出ステップ」と「ポスチャ・ジェスチャ認識ステップ」を説明するために示すフローチャートである。
【符号の説明】
A ジェスチャ認識システム
1 カメラ
2 撮像画像解析装置
3 輪郭抽出装置
4 ジェスチャ認識装置
41 顔・手先位置検出手段
41A 頭位置検出部
41B 顔位置検出部
41C 手位置検出部
41D 手先位置検出部
42 ポスチャ・ジェスチャ認識手段
42A ポスチャ・ジェスチャデータ記憶部
42B ポスチャ・ジェスチャ認識部
Claims (6)
- カメラによって対象人物を撮像した画像から、前記対象人物のポスチャ又はジェスチャを認識するための装置であって、
前記撮像画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段と、
前記顔位置と手先位置から、前記顔位置と前記手先位置との相対的な位置関係及び前記顔位置を基準とした際の前記手先位置の変動を検出し、その検出結果と、顔位置と手先位置との相対的な位置関係及び顔位置を基準とした際の手先位置の変動に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、前記対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識手段と
を備えたことを特徴とするジェスチャ認識装置。 - 前記顔位置と前記手先位置との相対的な位置関係は、高さ及び前記カメラからの距離を比較することより検出することを特徴とする請求項1に記載のジェスチャ認識装置。
- 前記ポスチャ・ジェスチャ認識手段は、パターンマッチング法を用いて前記対象人物のポスチャ又はジェスチャを認識することを特徴とする請求項1又は請求項2に記載のジェスチャ認識装置。
- 前記ポスチャ・ジェスチャ認識手段は、前記対象人物の手が入る大きさの判定領域を設定し、前記手の面積と前記判定領域の面積とを比較することにより、前記顔位置と前記手先位置との相対的な位置関係が類似しているポスチャ又はジェスチャを区別することを特徴とする請求項1又は請求項2に記載のジェスチャ認識装置。
- カメラによって対象人物を撮像した画像から、前記対象人物のポスチャ又はジェスチャを認識するための方法であって、
前記画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出ステップと、
前記顔位置と手先位置から、前記顔位置と前記手先位置との相対的な位置関係及び前記顔位置を基準とした際の前記手先位置の変動を検出し、その検出結果と、顔位置と手先位置との相対的な位置関係及び顔位置を基準とした際の手先位置の変動に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、前記対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識ステップと
を含むことを特徴とするジェスチャ認識方法。 - カメラによって対象人物を撮像した画像から、前記対象人物のポスチャ又はジェスチャを認識するために、コンピュータを、
前記画像から生成した前記対象人物の輪郭情報と肌色領域情報に基づいて、前記対象人物の実空間上における顔位置と手先位置を検出する顔・手先位置検出手段、
前記顔位置と手先位置から、前記顔位置と前記手先位置との相対的な位置関係及び前記顔位置を基準とした際の前記手先位置の変動を検出し、その検出結果と、顔位置と手先位置との相対的な位置関係及び顔位置を基準とした際の手先位置の変動に対応するポスチャ又はジェスチャを記したポスチャデータ又はジェスチャデータとを比較することにより、前記対象人物のポスチャ又はジェスチャを認識するポスチャ・ジェスチャ認識手段、
として機能させることを特徴とするジェスチャ認識プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096271A JP4153818B2 (ja) | 2003-03-31 | 2003-03-31 | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
DE602004006190T DE602004006190T8 (de) | 2003-03-31 | 2004-03-19 | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
EP04006728A EP1477924B1 (en) | 2003-03-31 | 2004-03-19 | Gesture recognition apparatus, method and program |
US10/805,392 US7593552B2 (en) | 2003-03-31 | 2004-03-22 | Gesture recognition apparatus, gesture recognition method, and gesture recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096271A JP4153818B2 (ja) | 2003-03-31 | 2003-03-31 | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004302992A true JP2004302992A (ja) | 2004-10-28 |
JP4153818B2 JP4153818B2 (ja) | 2008-09-24 |
Family
ID=33408391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003096271A Expired - Fee Related JP4153818B2 (ja) | 2003-03-31 | 2003-03-31 | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4153818B2 (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007316882A (ja) * | 2006-05-25 | 2007-12-06 | Mitsubishi Electric Corp | 遠隔操作装置及び方法 |
KR100826878B1 (ko) * | 2006-09-28 | 2008-05-06 | 한국전자통신연구원 | 손 모양을 인식하는 방법 및 이를 위한 장치 |
JP2010238145A (ja) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | 情報出力装置、遠隔制御方法、及びプログラム |
JP2011103561A (ja) * | 2009-11-11 | 2011-05-26 | Sony Corp | 画像処理システム、画像処理装置、画像処理方法、およびプログラム |
JP2011192090A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
JP2012058884A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、および情報処理方法 |
JP2012058928A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、および情報処理方法 |
JP2012123608A (ja) * | 2010-12-08 | 2012-06-28 | Nippon Syst Wear Kk | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
JP2012516507A (ja) * | 2009-01-30 | 2012-07-19 | マイクロソフト コーポレーション | 標準的なジェスチャー |
JP2012137899A (ja) * | 2010-12-27 | 2012-07-19 | Hitachi Consumer Electronics Co Ltd | 映像処理装置及び映像表示装置 |
JP2013012158A (ja) * | 2011-06-30 | 2013-01-17 | Toshiba Corp | 電子機器および制御方法 |
JP2013034168A (ja) * | 2011-08-01 | 2013-02-14 | Fuji Xerox Co Ltd | 画像投影装置ならびに画像投影制御装置およびプログラム |
JP2013137822A (ja) * | 2013-03-07 | 2013-07-11 | Fujitsu Ten Ltd | ディスプレイ装置 |
JP2013242844A (ja) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器およびプログラム |
WO2014030442A1 (ja) * | 2012-08-22 | 2014-02-27 | 日本電気株式会社 | 入力装置、入力方法、プログラム、及び、電子看板 |
JP2014505949A (ja) * | 2011-02-04 | 2014-03-06 | コーニンクレッカ フィリップス エヌ ヴェ | 絶対的な基準系を作成するのに固有受容性を使用するジェスチャ制御可能システム |
JP2014512060A (ja) * | 2011-04-20 | 2014-05-19 | コーニンクレッカ フィリップス エヌ ヴェ | ジェスチャーに基づく要素又はアイテムの制御 |
JP2014164695A (ja) * | 2013-02-27 | 2014-09-08 | Casio Comput Co Ltd | データ処理装置及びプログラム |
JP2015195020A (ja) * | 2014-03-20 | 2015-11-05 | 国立研究開発法人産業技術総合研究所 | ジェスチャ認識装置、システム及びそのプログラム |
JPWO2021186710A1 (ja) * | 2020-03-19 | 2021-09-23 | ||
CN114245542A (zh) * | 2021-12-17 | 2022-03-25 | 深圳市恒佳盛电子有限公司 | 一种雷达感应灯及其控制方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4231320B2 (ja) * | 2003-03-31 | 2009-02-25 | 本田技研工業株式会社 | 移動体の検出装置 |
-
2003
- 2003-03-31 JP JP2003096271A patent/JP4153818B2/ja not_active Expired - Fee Related
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4711885B2 (ja) * | 2006-05-25 | 2011-06-29 | 三菱電機株式会社 | 遠隔操作装置及び方法 |
JP2007316882A (ja) * | 2006-05-25 | 2007-12-06 | Mitsubishi Electric Corp | 遠隔操作装置及び方法 |
KR100826878B1 (ko) * | 2006-09-28 | 2008-05-06 | 한국전자통신연구원 | 손 모양을 인식하는 방법 및 이를 위한 장치 |
KR101679442B1 (ko) * | 2009-01-30 | 2016-11-24 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 표준 제스처 |
JP2012516507A (ja) * | 2009-01-30 | 2012-07-19 | マイクロソフト コーポレーション | 標準的なジェスチャー |
JP2010238145A (ja) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | 情報出力装置、遠隔制御方法、及びプログラム |
JP2011103561A (ja) * | 2009-11-11 | 2011-05-26 | Sony Corp | 画像処理システム、画像処理装置、画像処理方法、およびプログラム |
US9547791B2 (en) | 2009-11-11 | 2017-01-17 | Sony Corporation | Image processing system, image processing apparatus, image processing method, and program |
US9020210B2 (en) | 2009-11-11 | 2015-04-28 | Sony Corporation | Image processing system, image processing apparatus, image processing method, and program |
JP2011192090A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
JP2012058884A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、および情報処理方法 |
JP2012058928A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、および情報処理方法 |
US9513712B2 (en) | 2010-09-07 | 2016-12-06 | Sony Corporation | Information processing device and information processing method |
US8744137B2 (en) | 2010-09-07 | 2014-06-03 | Sony Corporation | Information processing device and information processing method |
US8842890B2 (en) | 2010-09-07 | 2014-09-23 | Sony Corporation | Method and device for detecting a gesture from a user and for performing desired processing in accordance with the detected gesture |
JP2012123608A (ja) * | 2010-12-08 | 2012-06-28 | Nippon Syst Wear Kk | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
US9086726B2 (en) | 2010-12-27 | 2015-07-21 | Hitachi Maxell, Ltd. | Image processing device and image display device |
US9746931B2 (en) | 2010-12-27 | 2017-08-29 | Hitachi Maxell, Ltd. | Image processing device and image display device |
JP2012137899A (ja) * | 2010-12-27 | 2012-07-19 | Hitachi Consumer Electronics Co Ltd | 映像処理装置及び映像表示装置 |
JP2014505949A (ja) * | 2011-02-04 | 2014-03-06 | コーニンクレッカ フィリップス エヌ ヴェ | 絶対的な基準系を作成するのに固有受容性を使用するジェスチャ制御可能システム |
JP2014512060A (ja) * | 2011-04-20 | 2014-05-19 | コーニンクレッカ フィリップス エヌ ヴェ | ジェスチャーに基づく要素又はアイテムの制御 |
JP2013012158A (ja) * | 2011-06-30 | 2013-01-17 | Toshiba Corp | 電子機器および制御方法 |
JP2013034168A (ja) * | 2011-08-01 | 2013-02-14 | Fuji Xerox Co Ltd | 画像投影装置ならびに画像投影制御装置およびプログラム |
JP2014032646A (ja) * | 2012-04-26 | 2014-02-20 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器およびプログラム |
JP2013242845A (ja) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器およびプログラム |
JP2013242844A (ja) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器およびプログラム |
WO2014030442A1 (ja) * | 2012-08-22 | 2014-02-27 | 日本電気株式会社 | 入力装置、入力方法、プログラム、及び、電子看板 |
JP2014164695A (ja) * | 2013-02-27 | 2014-09-08 | Casio Comput Co Ltd | データ処理装置及びプログラム |
JP2013137822A (ja) * | 2013-03-07 | 2013-07-11 | Fujitsu Ten Ltd | ディスプレイ装置 |
JP2015195020A (ja) * | 2014-03-20 | 2015-11-05 | 国立研究開発法人産業技術総合研究所 | ジェスチャ認識装置、システム及びそのプログラム |
JPWO2021186710A1 (ja) * | 2020-03-19 | 2021-09-23 | ||
WO2021186710A1 (ja) * | 2020-03-19 | 2021-09-23 | 三菱電機株式会社 | ジェスチャ検出装置及びジェスチャ検出方法 |
JP7106031B2 (ja) | 2020-03-19 | 2022-07-25 | 三菱電機株式会社 | ジェスチャ検出装置及びジェスチャ検出方法 |
CN114245542A (zh) * | 2021-12-17 | 2022-03-25 | 深圳市恒佳盛电子有限公司 | 一种雷达感应灯及其控制方法 |
CN114245542B (zh) * | 2021-12-17 | 2024-03-22 | 深圳市恒佳盛电子有限公司 | 一种雷达感应灯及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4153818B2 (ja) | 2008-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4153818B2 (ja) | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム | |
EP1477924B1 (en) | Gesture recognition apparatus, method and program | |
JP4317465B2 (ja) | 顔識別装置、顔識別方法及び顔識別プログラム | |
JP4516516B2 (ja) | 人物検出装置、人物検出方法及び人物検出プログラム | |
JP4153819B2 (ja) | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム | |
WO2013180151A1 (ja) | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム | |
JP4008282B2 (ja) | 瞳孔・虹彩円検出装置 | |
JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
JP2004094288A (ja) | 指示位置検出装置及び自律ロボット | |
JPH0944685A (ja) | 顔画像処理装置 | |
JP2006155563A (ja) | 動作分析装置 | |
JP6579950B2 (ja) | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP4235018B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP5174492B2 (ja) | 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム | |
JP3952460B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP2017191426A (ja) | 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体 | |
KR102216124B1 (ko) | 영상 처리 방법 및 영상 처리 장치 | |
JP3025133B2 (ja) | 人物認識装置 | |
JP6810442B2 (ja) | カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体 | |
JP2005196359A (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP7426922B2 (ja) | 人の顔に装着物が着用された新たな教師画像を人工的に生成するプログラム、装置及び方法 | |
WO2021192295A1 (ja) | 画像処理システム、撮像システム、画像処理方法および非一時的なコンピュータ可読媒体 | |
JP2021043914A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080408 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080701 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4153818 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130711 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140711 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |