JP2006190195A - 対象物姿勢推定装置 - Google Patents

対象物姿勢推定装置 Download PDF

Info

Publication number
JP2006190195A
JP2006190195A JP2005002998A JP2005002998A JP2006190195A JP 2006190195 A JP2006190195 A JP 2006190195A JP 2005002998 A JP2005002998 A JP 2005002998A JP 2005002998 A JP2005002998 A JP 2005002998A JP 2006190195 A JP2006190195 A JP 2006190195A
Authority
JP
Japan
Prior art keywords
dimensional position
user
spot
position distribution
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005002998A
Other languages
English (en)
Other versions
JP4319628B2 (ja
Inventor
Akira Uchiumi
章 内海
Daisuke Kanbara
大輔 神原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005002998A priority Critical patent/JP4319628B2/ja
Publication of JP2006190195A publication Critical patent/JP2006190195A/ja
Application granted granted Critical
Publication of JP4319628B2 publication Critical patent/JP4319628B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 対象物の負担を軽減することができるとともに、シーンに依存した要因に過度に影響されることなく、対象物の姿勢を安定的且つ高精度に推定することができる対象物姿勢推定装置を提供する。
【解決手段】 プロジェクタ11は、ユーザに対して複数のスポット赤外光を投影し、ビデオカメラ21aは、ユーザの表面に投影された複数の赤外光点を撮影し、3次元位置検出部22及び3次元位置復元部23は、撮影された複数の赤外光点の位置を基にユーザの表面の3次元位置分布を検出し、姿勢推定部24は、検出された3次元位置分布と、姿勢データベース25にユーザの姿勢毎に予め記憶されている基準3次元位置分布とを比較してユーザの姿勢を推定する。
【選択図】 図1

Description

本発明は、複数のスポット光を投影して対象物の姿勢を推定する対象物姿勢推定装置に関するものである。
高次脳機能障害や痴呆症を持つ被介護者のコミュニケーションを活性化し、介護者である家族を支援するためのインターフェースが研究されており、例えば、非特許文献1には、ネットワークを利用した情報セラピーインターフェースが開示されている。このような情報セラピーインターフェースは、ユーザである被介護者の状態及び意図に応じた情報提供を行い、ネットワークを介した被介護者と介護者とのコミュニケーションの場を提供することにより、介護者の負担を軽減するシステムである。
上記のようなシステムでは、室内で自由に行動する被介護者の行動パターンを抽出して被介護者の状態及び意図を推定する必要があり、人の動き、特に姿勢を高精度に検出する必要がある。人の姿勢を検出する方法として、人を含む画像を撮影して画像処理により人の姿勢を検出する受動的な観測方法がある。この受動的な観測方法では、非装着及び非接触の検出方法である画像処理を用いることができるため、被介護者の負担を軽減することができる。
鉄谷信二他、「ネットワークを利用した情報セラピーインターフェース」、信学技報、2003年、No.103−747、p.31−p.36
しかしながら、上記のような受動的な観測方法では、被介護者の服装、室内の照明条件等の環境条件の変化、及び人同士のオクルージョン等のシーンに依存した要因により、検出処理が不安定となって人の姿勢を正確に推定することができない場合がある。
本発明の目的は、対象物の負担を軽減することができるとともに、シーンに依存した要因に過度に影響されることなく、対象物の姿勢を安定的且つ高精度に推定することができる対象物姿勢推定装置を提供することである。
本発明に係る対象物姿勢推定装置は、対象物に対して複数のスポット光を所定パターンで投影する投影手段と、投影手段により対象物の表面に投影された複数の光点を撮影する撮影手段と、撮影手段により撮影された複数の光点の位置を基に対象物の表面の3次元位置分布を検出する検出手段と、対象物の姿勢毎に対象物の表面の基準3次元位置分布を予め記憶している記憶手段と、検出手段により検出された3次元位置分布と記憶手段に記憶されている基準3次元位置分布とを比較して対象物の現在の姿勢を推定する推定手段とを備えるものである。
本発明に係る対象物姿勢推定装置において、対象物に対して複数のスポット光が所定パターンで投影され、対象物の表面に投影された複数の光点が撮影される。このとき、撮影された複数の光点の位置を基に対象物の表面の3次元位置分布が検出され、検出された3次元位置分布と対象物の姿勢毎に予め記憶されている基準3次元位置分布とを比較して対象物の姿勢が推定される。このように、撮影された複数の光点の位置から画像処理により対象物の姿勢を推定しているので、対象物に対して観測機器を非装着及び非接触の状態で対象物の姿勢を推定することができ、対象物の負担を軽減することができる。また、複数のスポット光を照射して各光点の位置を能動的に観測しているので、シーンに依存した要因に過度に影響されることなく、対象物の姿勢を安定的に推定することができる。さらに、対象物の姿勢毎に予め記憶されている基準3次元位置分布と比較して対象物の現在の姿勢を推定しているので、対象物の姿勢を高精度に推定することができる。
検出手段は、検出された3次元位置分布を基に対象物の観測位置を検出し、投影手段は、検出手段により検出された対象物の観測位置に応じてスポット光の位置を補正することが好ましい。
この場合、3次元位置分布を基に対象物の観測位置が検出され、検出された対象物の観測位置に応じてスポット光の位置が補正されるので、3次元位置分布を高精度に検出することができる。したがって、この3次元位置分布と基準3次元位置分布とを比較して対象物の姿勢を推定しているので、対象物が移動しても、対象物の姿勢を高精度に推定することができる。
撮影手段は、投影手段により対象物の表面に投影された複数の光点を互いに異なる撮影方向から撮影する第1及び第2の撮影手段を含み、検出手段は、第1及び第2の撮影手段により撮影された複数の光点の位置を基に対象物の異なる表面の3次元位置分布を検出し、対象物姿勢推定装置は、検出手段により検出された対象物の異なる表面の3次元位置分布を保持する保持手段と、検出手段により検出された対象物の異なる表面の3次元位置分布と保持手段に保持されている所定時刻前の対象物の異なる表面の3次元位置分布とを比較して対象物の表面に変化が生じた部位を検出する部位検出手段と、対象物が装着する衣服毎に当該衣服の着脱により変化が生じる部位を予め記憶している衣服記憶手段と、部位検出手段により検出された部位と衣服記憶手段に記憶されている部位とを比較して変化が生じた衣服の種類を識別する識別手段とをさらに備えることが好ましい。
この場合、第1及び第2の撮影手段により撮影された複数の光点の位置を基に対象物の異なる表面の3次元位置分布が検出され、検出された対象物の異なる表面の3次元位置分布と所定時間前の対象物の異なる表面の3次元位置分布とを比較して変化が生じた部位が検出され、検出された部位と対象物が装着する衣服毎に予め記録されている当該衣服の着脱により変化が生じる部位とを比較して変化が生じた衣服の種類を識別することができるので、対象物の着替えの状態を高精度に検出することができる。
投影手段は、複数のスポット光を撮影画像上で互いに干渉しないスポット光群に分割する分割手段と、分割手段により分割されたスポット光群毎にスポット光を対象物に対して投影する分割投影手段とを含み、撮影手段は、分割投影手段によりスポット光群毎に対象物の表面に投影された複数の光点を撮影し、検出手段は、撮影手段によりスポット光群毎に撮影された光点の位置を基に対象物の表面の3次元位置分布を検出することが好ましい。
この場合、複数のスポット光が撮影画像上で互いに干渉しないスポット光群に分割され、分割されたスポット光群毎にスポット光が対象物に対して投影され、スポット光群毎に対象物の表面に投影された複数の光点が撮影され、スポット光群毎に撮影された光点の位置を基に対象物の表面の3次元位置分布を検出しているので、対象物の表面の3次元位置分布を高速かつ効率的に検出することができる。
投影手段は、赤外光を用いて対象物に対して複数のスポット光を所定パターンで投影し、撮影手段は、投影手段により対象物の表面に投影された複数の赤外光点を撮影することが好ましい。
この場合、対象物に見えない赤外光を用いて対象物の表面の3次元位置分布を検出しているので、照明条件等の環境変化に対してロバストな検出を行うことができるとともに、対象物のプライバシーを確保することができる。
本発明によれば、撮影された複数の光点の位置から画像処理により対象物の姿勢を推定しているので、対象物に対して観測機器を非装着及び非接触の状態で対象物の姿勢を推定することができ、対象物の負担を軽減することができるとともに、複数のスポット光を照射して各光点を能動的に観測しているので、シーンに依存した要因に過度に影響されることなく、対象物の姿勢を安定的に推定することができ、さらに、対象物の姿勢毎に予め記憶されている基準3次元位置分布と比較して対象物の姿勢を推定しているので、対象物の姿勢を高精度に推定することができる。
以下、本発明の一実施の形態による対象物姿勢推定装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による対象物姿勢推定装置の構成を示すブロック図である。
図1に示す対象物姿勢推定装置は、プロジェクタ11、投影パターン分割部12、投影パターン生成部13、2台のビデオカメラ21a,21b、3次元位置検出部22、3次元位置復元部23、姿勢推定部24、姿勢データベース25、前回位置保持部26、変化部位検出部27、服装変化識別部28及び服装変化部位データベース29を備える。
プロジェクタ11は、例えば、DLP(デジタル・ライト・プロセッシング)プロジェクタ(解像度800×600画素)から構成され、そのレンズユニットに赤外線フィルタが取り付けられ、赤外光を用いて対象物であるユーザ(例えば、被介護者)に対して複数のスポット赤外光を所定パターンで投影する。ビデオカメラ21a,21bは、例えば、CCDカメラから構成され、そのレンズユニットに赤外線フィルタが取り付けられ、ユーザの表面に投影された複数の赤外光点を撮影する。
図2は、図1に示すプロジェクタ11とビデオカメラ21a,21bとの位置関係を説明するための模式図である。図2に示すように、部屋の上方、例えば、天井の真中又は一方側に設置されたプロジェクタ11は、ユーザに対して複数のスポット赤外光を所定パターンで投影し、部屋の上方、例えば、天井の一方側に設置されたビデオカメラ21aは、ユーザの表面(具体的には、身体又は衣服の表面)に投影された複数の赤外光点を撮影する。また、ビデオカメラ21bは、ビデオカメラ21aの反対側に取り付けられ、ユーザの表面に投影された複数の赤外光点をビデオカメラ21aの撮影方向と異なる撮影方向から撮影する。このようにして、ビデオカメラ21a,21bによりユーザの表面(前面)及び裏面(背面)に投影された複数の赤外光点を撮影することができる。
図3及び図4は、図1に示すプロジェクタ11及びビデオカメラ21aの設置例を示す図である。なお、図3及び図4では、簡略化のためにビデオカメラ21aのみを図示している。例えば、図3に示すように、トイレにプロジェクタ11及びビデオカメラ21aが設置され、この場合、ユーザのトイレの使用状態を観測することができる。また、図4に示すように、洋服ダンスが配置された部屋にプロジェクタ11及びビデオカメラ21aが設置され、この場合、ユーザの着替え状態を観測することができる。
なお、本実施の形態では、1つの部屋に1台のプロジェクタ11及び2台のビデオカメラ21a,21bが設置されている例について説明するが、プロジェクタ及びビデオカメラの台数は、この例に特に限定されず、種々の変更が可能である。例えば、リビングルーム、キッチン及びバスルーム等の部屋毎にユーザの姿勢の推定及び服装変化の識別を行う場合は、部屋毎に少なくとも1台のプロジェクタ及び少なくとも1台のビデオカメラが設置され、また、1台のビデオカメラのみを用いてユーザの姿勢を推定してもよい。より広範囲の観測を要する場合には複数のプロジェクタ及び複数のビデオカメラが設置されてもよい。特に、服装変化の検出を行う場合にはユーザの全周の3次元位置を得るため複数のプロジェクタ及びビデオカメラを組み合わせることが望ましい。
投影パターン生成部13は、ユーザの3次元位置分布を計測するために、複数のスポット赤外光からなる全体赤外線スポットパターン、例えば、マトリックス状にスポット赤外光が配置された赤外線スポットパターンを生成する。投影パターン分割部12は、複数のスポット赤外光を撮影画像上で互いに干渉しないスポット赤外光群に分割する。具体的には、投影パターン分割部12は、ビデオカメラ21a,21bによる観察時に各部分赤外線スポットパターン内でスポット赤外光を独立に観察できるように、各部分赤外線スポットパターン内でのスポット赤外光の位置関係を計算して全体赤外線スポットパターンを複数の部分赤外線スポットパターンに分割する。
投影パターン分割部12は、分割した部分赤外線スポットパターンでスポット赤外光を投影するようにプロジェクタ11を制御するとともに、現在の部分赤外線スポットパターンを3次元位置検出部22に通知する。プロジェクタ11は、分割された部分赤外線スポットパターンで複数のスポット赤外光をユーザに投影する。したがって、複数のスポット赤外光間の混同を避けることができ、スポット赤外光を検出する処理を簡略化及び高速化することができる。
3次元位置検出部22は、現在の部分赤外線スポットパターンを参照してビデオカメラ21a,21bにより撮影された2次元画像上のスポット赤外光の位置からユーザの表面の3次元位置分布を検出する。3次元位置復元部23は、部分赤外線スポットパターン毎に検出されたユーザの表面の3次元位置分布を纏めて全体赤外線スポットパターンに対するユーザの表面の3次元位置分布を復元する。また、3次元位置復元部23は、復元したユーザの表面の3次元位置分布からユーザの観測位置を検出して投影パターン生成部13へ出力するともに、ユーザの観測位置を検出することによりユーザを追跡する。
投影パターン生成部13は、検出された観測位置に応じて全体赤外線スポットパターンの投影位置を補正し、投影パターン分割部12は、補正された全体赤外線スポットパターンを複数の部分赤外線スポットパターンに分割し、プロジェクタ11は、補正された部分赤外線スポットパターンで複数のスポット赤外光をユーザに投影する。このとき、3次元位置検出部22は、補正後の部分赤外線スポットパターンによるスポット赤外光の位置からユーザの表面の3次元位置分布を検出し、3次元位置復元部23は、補正後の部分赤外線スポットパターン毎に検出されたユーザの表面の3次元位置分布を纏めて補正後の全体赤外線スポットパターンに対するユーザの表面の3次元位置分布を復元し、姿勢推定部24へ出力する。
姿勢データベース25には、人間の典型姿勢毎に人間の表面の基準3次元位置分布を予め記憶している。姿勢推定部24は、復元されたユーザの表面の3次元位置分布と姿勢データベース25に記憶されている基準3次元位置分布とを比較してユーザの現在の姿勢を推定する。なお、この姿勢推定処置は、2台のビデオカメラ21a,21bから得られた各画像を用いて実行してもよいし、ビデオカメラ21a,21b毎又は一方のビデオカメラのみを用いて実行してもよい。
一方、ユーザの服装変化の識別を行う場合、3次元位置検出部22は、現在の部分赤外線スポットパターンを参照してビデオカメラ21a,21bにより撮影された2次元画像上のスポット赤外光の位置から各撮影方向のユーザの表面(異なる表面)の3次元位置分布を検出する。3次元位置復元部23は、部分赤外線スポットパターン毎に検出された各撮影方向のユーザの表面の3次元位置分布を纏めて全体赤外線スポットパターンに対する各撮影方向のユーザの表面の3次元位置分布を復元し、前回位置保持部26及び変化部位検出部27へ出力する。
前回位置保持部26は、各撮影方向のユーザの表面の3次元位置分布を保持する。変化部位検出部27は、所定時間前の各撮影方向のユーザの表面の3次元位置分布を前回位置保持部26から読み出し、3次元位置復元部23から出力される各撮影方向のユーザの表面の3次元位置分布と比較してユーザの服装の変化が生じた部位を検出し、この部位の3次元位置の増減方向とともに服装変化識別部28へ出力する。
服装変化部位データベース29には、人間の典型的な服装毎に衣服毎に当該衣服の着脱により変化が生じる部位を予め記憶している。服装変化識別部28は、検出された部位と服装変化部位データベース29に記憶されている部位とを比較して変化が生じた衣服の種類を識別するとともに、3次元位置の増減方向を基準にして、増加している場合は識別した衣服を着ていると判断し、減少している場合は識別した衣服を脱いでいると判断する。
本実施の形態では、プロジェクタ11、投影パターン分割部12及び投影パターン生成部13が投影手段の一例に相当し、ビデオカメラ21a,21bが撮影手段並びに第1及び第2の撮影手段の一例に相当し、3次元位置検出部22及び3次元位置復元部23が検出手段の一例に相当し、姿勢データベース25が記憶手段の一例に相当し、姿勢推定部24が推定手段の一例に相当する。また、前回位置保持部26が保持手段の一例に相当し、変化部位検出部27が部位検出手段の一例に相当し、服装変化部位データベース29が衣服記憶手段の一例に相当し、服装変化識別部28が識別手段の一例に相当し、投影パターン分割部12及び投影パターン生成部13が分割手段の一例に相当し、プロジェクタ11が分割投影手段の一例に相当する。
次に、上記のように構成された対象物姿勢推定装置の各動作について詳細に説明する。まず、赤外線スポットパターンの分割処理について説明する。人間の行動を正確に検出するためには、人間の身体の表面に3次元位置の高密度のマップを得る必要があるが、パターン投影を用いた高密度3次元位置検出を行う場合、複数スポットパターンのカメラ画像上での観測位置間の重なりにより3次元再構成処理において混同が生じる。このため、本実施の形態では、全体赤外線スポットパターンを部分赤外線スポットパターンに分割する赤外線スポットパターンの分割処理により複数スポットパターンのカメラ画像上での観測位置間の重なりを防止している。この赤外線スポットパターンの分割処理では、検出処理を簡略化するために交差判断に基づいて、全体赤外線スポットパターンを複数の部分赤外線スポットパターンに分割する。
まず、一定間隔でプロジェクタ画像面上の投影スポットを選択し、スポット間隔は用途に応じて決定される。次に、カメラ画像上の各点に対する観察可能領域(例えば、エピポーラ線上の有限部分)を計算する。このとき、プロジェクタ平面上の点(Xp,Yp)、カメラ平面上の2次元観察点(Xc,Yc)は、下記の式を満たすことが知られている。
Figure 2006190195
ここで、Xp,Ypは、プロジェクタ画像面上の投影点の位置であり、Xc,Ycは、カメラ座標の観察点を示す。通常、シーン中に投影された対象点の高さは、ある範囲(Z0<Z<Ztop)内にあり、エピポーラ線の一部に観察範囲を制限することができる。ここで、Z=Z0に対する2次元観察点を(SX,SY)、Z=Ztopに対する2次元観察点を(LX,LY)で表すと(例えば、図2の例では、Z0=0,Ztop=200)、これらの間の投影点に対する観察点は、2点(SX,SY)、(LX,LY)を連結したセグメント上にある。
次に、各二つのセグメント間の交差を決定する。ここで、二つのセグメント間の始点及び終点をそれぞれ(SX1,SY1)−(LX1,LY1)、(SX2,SY2)−(LX2,LY2)とすると、((SX1−LX1)*(SY2−SY1)+(SY1−LY1)*(SX1−SX2))*((SX1−LX1)*(LY2−SY1)+(SY1−LY1)*(SX1−LX2))<0且つ((SX2−LX2)*(SY1−SY2)+(SY2−LY2)*(SX2−SX1))*((SX2−LX2)*(LY1−SY2)+(SY2−LY2)*(SX2−LX1))<0であれば、二つのセグメントは交差すると判定される。実際には、各画素の面積を考慮した交差判定を行う必要があるが、ここでは説明は割愛する。
N個のセグメントに対してN×Nの組合せがあり、その結果は2値(0:交差、1:交差無)からなる下記の行列で表される。
Figure 2006190195
M個のビデオカメラがあるとき、上記の行列もM個となり、下記のように、全ての行列Ci(1≦i≦M)の論理積を取ることにより適切な投影を満足する条件を計算することができる。
Figure 2006190195
次に、投影パターンの効率化について説明する。観測が必要な3次元点(スポット赤外光)の数をL個とすると、投影点i,jの(1<i,j<L)の組合せは、L×Lとなる。ここで、投影点i,jを同時に投影しても互いに干渉しない場合はCi,j=1、投影点i,jを同時に投影すると干渉する場合はCi,j=0とし、Ci,j(1<i,j<L)からなる行列Xを準備する。なお、行列Xの対角要素は全て1となる。
投影パターン生成部13は、予め記憶している行列Xを全体赤外線スポットパターンとして投影パターン分割部12へ出力する。投影パターン分割部12は、行列Xに対して下記式(6)により表される手続Pを適用して必要最低限の部分赤外線スポットパターンの数及びそのときの部分赤外線スポットパターンを決定する。
Figure 2006190195
具体的には、任意の行列A(G行H列、行列の各要素A(g,h))に対してG×(G−1)の全組合せ中で、Ai∪Aj=Aiとなるj行目(複数)を行列Aから取り除き、行列B(G’行H列、行列の各要素B(g’,h))を作成する。行列Bの各列の「1」の合計Sを上記式(7)により算出し、Sが最小となる列l(l=l(1),l(2),…,l(p))のそれぞれについてBkl=1となるk行目(k=k(1),k(2),…,k(q))についてBkm=0を満たすm列目のk行目を除いた要素からなる行列Cを作成する。投影パターン分割部12は、上記の処理を繰り返し、手順Pの回数が最小となる行の組合せAk(l),Ak(2),…を選択して部分赤外線スポットパターンを作成する。
図5は、部分赤外線スポットパターンを作成する手順Pの一例を説明するための図であり、図6は、図5の(a)に示す行列Aから図5の(b)に示す行列Cを生成する手順Pを詳細に説明するための図である。図5の(a)に示す行列Aから、手順Pにより行A4が選択されて図5の(b)に示す行列Cが生成される。具体的には、図6の(a)に示すように、行列A(図5の(a)に示す行列A)では、A1∪A5=A5、A2∪A4=A4となるため、行A1,A2が消去され、図6の(b)に示すように、行列Bは、A3,A4,A5行目の要素から生成される。この行列Bの各列(h=1〜5)の「1」の合計Sは、1、1、3、2、2となる。次に、Sが最小となる列に着目する。例えば、Sが最小となる列の一つである第2列(h=2)に着目し、第2列の要素が「1」である行列Bの行B2(元の行列の行A4)を選択する。選択された行B2に注目して、要素が「0」である列を取り出すと、図6の(c)に示す行列が作成される。次に、行B2を取り除くと、図6の(d)に示す行列C(図5の(b)に示す行列C)が生成される。以上の処理により、手順Pが1回実行されたこととなる。
再び図5を参照して、図5の(b)に示す行列Cから、手順Pにより行A5が選択されて図5の(c)に示す行列Cが生成される。この場合、手順Pの回数は2回となり、ルートはA4→A5となる。同様に、図5の(a)に示す行列Aから、手順Pにより図5の(d)に示す行列Cが生成される(行列Bの第1列(h=1)に着目し、行B3(元の行列の行A5)を選択)。さらに、図5の(d)に示す行列Cから、手順Pにより行A4が選択されて図5の(e)に示す行列Cが生成される。この場合、手順Pの回数は2回となり、ルートはA5→A4となる。本例の場合、手順Pの最小回数はいずれも2回であるため、ルートA4→A5又はルートA5→A4を使用して部分赤外線スポットパターンが作成される。
上記の赤外線スポットパターンの分割処理により、複数のスポット赤外光が撮影画像上で互いに干渉しない部分赤外線スポットパターンに分割され、分割された部分赤外線スポットパターンによりスポット赤外光が対象物に対して投影されるので、ユーザの表面の3次元位置分布の検出処理を簡略化することができるともに、ロバストな3次元測定を行うことができる。
図7は、ユーザの輪郭を検出する際に使用するエッジ検出フィルタの一例を示す図であり、図8は、赤外光点の検出結果の一例を示す図である。ビデオカメラ21a,21bは、スポット赤外光が撮影画像上で互いに干渉しない部分赤外線スポットパターン毎にユーザの表面に投影された複数の赤外光点を順次撮影し、3次元位置検出部22は、撮影画像上の図7の(a)に示す注目画素APに対して図7の(b)に示す3×3のシンプルなエッジフィルタを適用して赤外光点を検出し、3次元位置復元部23は、ユーザの表面の3次元位置分布を全体的に復元する。この結果、図8に示す赤外光点を検出することができた。
このように、スポット赤外光が撮影画像上で互いに干渉しない部分赤外線スポットパターン毎にユーザの表面に投影された複数の赤外光点が順次撮影され、部分赤外線スポットパターン毎に撮影された赤外光点の位置を基にユーザの表面の3次元位置分布が順次検出され、最終的に全体的なユーザの表面の3次元位置分布を復元することができるので、ユーザの表面の3次元位置分布を高速かつ効率的に検出することができる。
次に、検出されたユーザの表面の3次元位置分布の観測位置の補正処理について説明する。常に一定の位置に赤外線スポットパターンを投影すると、ユーザの移動に伴って観測対象となるユーザの3次元位置、すなわち観測位置にずれが生じ、投影される赤外光の空間的な解像度が低いほど、一般にずれが大きくなる。このずれにより事前に取得した特定の形状に関する基準座標値(姿勢データベース25に記憶されている姿勢毎のユーザの表面の基準3次元位置分布)との比較や異なる時刻に得られた座標値同士の比較により形状変化に関する評価が困難となり、以下の説明する観測位置の補正処理が必要となる。
本実施の形態では、上記のずれを検出するための解像度の高い部分を有する赤外線スポットパターンを照射して観測を行い、ずれの検出結果に応じて基準3次元位置分布との比較に適した位置に観測位置を補正し、補正した観測位置を中心とする観測領域全体を観測するための赤外線スポットパターンを投影している。
図9は、図1に示す対象物姿勢推定装置の観測時の座標系を説明するための模式図である。図9に示すように、観測装置であるビデオカメラ21a(又は21b)の直下に位置する床面上の位置を世界座標系の原点とし、原点とユーザの前回観測位置を結ぶ水平線をY軸、原点から鉛直上向きをZ軸、Y軸及びZ軸とともに右手系をなす直交軸をX軸とする。
図10は、赤外線スポットパターンの一例を示す模式図であり、図中の黒丸は赤外線スポットパターンを示している。図10の(a)に示すように、赤外線スポットパターンは、人間の外形の特徴的な部分、好ましくは、肩付近を基準とする水平方向領域AR及び中央上方の垂直方向領域BRに空間解像度の高い部分を有する。例えば、高解像度部分の空間解像度が2cm、その他の部分の空間解像度が10cmの赤外線スポットパターンを用いることができる。このとき、ビデオカメラ21a(又は21b)により撮影された画像から得られるのは、空間中の各観測点の3次元位置であり、領域AR,BRのそれぞれにおける奥行きYの変化点(x1,x2,z1)(人体の両肩点及び頭部の頂上点)を基準に人物領域と背景領域との境界位置を定めることができる。
ここで、図10の(b)に示すように、3次元位置復元部23は、復元した3次元位置分布からx1,x2の中点((x1+x2)/2)を人体の中心線、z1を人体の頭部頂上点の高さとして決定し、観測位置となる人体頭部位置((x1+x2)/2,z1)を基準として観測領域全体を観測するための全体赤外線スポットパターンを生成するように投影パターン生成部13を制御し、プロジェクタ11から観測位置に応じた部分赤外線スポットパターンが投影される。
このように、ユーザの表面の3次元位置分布からユーザの3次元位置が検出され、検出されたユーザの3次元位置に応じて補正した観測位置を中心とする観測領域全体を観測するための赤外線スポットパターンを投影するので、ユーザが移動しても、3次元位置分布を高精度に検出することができる。この3次元位置分布と基準3次元位置分布とを比較してユーザの姿勢を推定しているので、常にユーザの姿勢を高精度に推定することができる。
なお、人体は、縦長の形状を有しているため、一時的に人体頭部位置を観測できなくなり、z1の検出が不安定になる場合があるが、肩付近の水平方向領域ARが人体内に留まる限り、人体の中心線を検出することができ、この中心線が得られれば、中央上方の垂直方向領域Bを上下に拡大することで再びz1を検出することができる。例えば、図9に示すように、次回の観測における肩付近の水平方向領域ARの高さをz1−α(ここで、α>0、例えばα=30cm)とすることにより、再びz1を検出することができる。
次に、上記のように補正された赤外線スポットパターンを用いたユーザの動き追跡処理について説明する。動き追跡処理は、ユーザを含む背景を計測し、ユーザの最初の観測位置を取得する前処理と、取得したユーザの3次元位置に適するように補正した観測位置に赤外線スポットパターンを投影し、投影された赤外線スポットパターンを用いてユーザの表面の3次元位置分布を計測し、前回検出されたユーザの位置と比較して次のユーザの位置を決定し、これらの処理を繰り返す追跡処理とから構成される。
図11は、図1に示す対象物姿勢推定装置による前処理を説明するための模式図である。前処理として、図11に白丸で示す赤外線スポットパターンIPがユーザに対して投影され、3次元位置復元部23は、復元した3次元位置分布すなわちユーザを含む背景の3次元形状を観察し、観測領域における各点をランダムに連続して観測して深さが変化する領域においてユーザの観測位置を集中的に検出する。ここでの観測は、注目ブロックABのサイズとして、例えば、25×25画素のブロックを用いることができる。ユーザの観測位置を検出した後、3次元位置復元部23は、ユーザの3次元位置分布を繰り返し計測し、観察領域の中心近傍のブロックにおいてユーザを観察し、この位置の近傍領域(水平方向に配置されたブロック)を集中的にサーチする。
図12は、図1に示す対象物姿勢推定装置による追跡処理を説明するための模式図である。3次元位置復元部23は、前処理により検出されたユーザの観測位置を投影パターン生成部13へ出力し、投影パターン生成部13は、検出された観測位置に応じて赤外線スポットパターンの投影位置を補正し、プロジェクタ11から新たな赤外線スポットパターンで複数のスポット赤外光がユーザに照射される。
このとき、3次元位置復元部23は、この新たな赤外線スポットパターンを用いてユーザの表面の3次元分布を計測し、サーチエリアSAにおける各ブロックの3次元位置と前回検出されたユーザの観測位置PPとを比較し、前回検出されたユーザの観測位置PPに最も近い点を次のユーザの観測位置NPとして選択する。上記の追跡処理を繰り返すことにより、ユーザを正確に追跡することができる。
次に、上記の赤外線スポットパターンを用いたユーザの姿勢推定処理について説明する。姿勢データベース25には、ユーザの典型的な姿勢をモデル化し、姿勢毎にユーザの表面の基準3次元位置分布を予め記憶している。ここで、下記のように、PiをモデルP(基準3次元位置分布)のi番目の3次元位置、Qjを現在の3次元パターン(3次元位置復元部23から出力される3次元位置分布)のj番目の点とすると、3次元位置P,Q間の距離は、下記式(10)により表される。
Figure 2006190195
姿勢推定部24は、上記式(10)を用いて3次元位置復元部23から出力されるユーザの表面の3次元位置分布と姿勢データベース25に記憶されている各姿勢の基準3次元位置分布との距離を算出し、距離差が最も小さい姿勢を現在のユーザの姿勢として選択する。
このように、本実施の形態では、撮影された赤外光点を用いた画像処理によりユーザの姿勢を推定しているので、ユーザに対して観測機器を非装着及び非接触の状態でユーザの姿勢を推定することができ、ユーザの負担を軽減することができる。また、複数のスポット赤外光を照射してその赤外光点を能動的に観測しているので、照明条件等のシーンに依存した要因に影響されることなく、ユーザの姿勢を安定的に推定することができる。さらに、ユーザの姿勢毎に予め記憶されている基準3次元位置分布と比較してユーザの姿勢を推定しているので、ユーザの姿勢を高精度に推定することができる。
次に、赤外線スポットパターンを用いたユーザの服装変化識別処理について説明する。服装変化の識別を行う場合、例えば、ビデオカメラ21aは、ユーザを一方面(例えば、前面)から撮影し、ビデオカメラ21bは、ユーザを他方面(例えば、背面)から撮影する。3次元位置検出部22及び3次元位置復元部23は、各撮影方向のユーザの表面の3次元位置分布を検出して復元し、前回位置保持部26及び変化部位検出部27へ出力する。前回位置保持部26は、各撮影方向のユーザの表面の3次元位置分布を保持し、変化部位検出部27は、所定時間前の各撮影方向のユーザの表面の3次元位置分布を前回位置保持部26から読み出し、3次元位置復元部23から出力される現在の各撮影方向のユーザの表面の3次元位置分布と比較してユーザの服装の変化が生じた部位及びその増減方向を服装変化識別部28へ出力する。
図13は、図1に示す服装変化部位データベース29に記憶されている部位の一例を示す図である。図13の(a)に示す第1部位JAは、人体の上半身を覆う部位であり、上着を特定するために使用され、(b)に示す第2部位PAは、人体の下半身を覆う部位であり、ズボンを特定するために使用され、(c)に示す第3部位SAは、人体の下半身の上半分を覆う部位であり、スカートを特定するために使用される。このように衣服毎に対応する部位が、当該衣服と対応付けられて服装変化部位データベース29に予め記憶されている。
服装変化識別部28は、変化部位検出部27により検出された部位と服装変化部位データベース29に記憶されている各部位とを比較し、重なり合う部分が最も多い部位に対応付けられている衣服を変化の生じた衣服として決定する。また、服装変化識別部28は、変化部位検出部27により検出された3次元位置の増減方向を基準に、増加している場合は検出された部位が膨張しているため、識別した衣服を着ていると認識し、減少している場合は検出された部位が縮小しているため、識別した衣服を脱いでいると認識する。例えば、物体の表面の法線方向の移動量の外向きを正とし、その増減に応じ、すなわち物体の厚みの増減に関し、衣服の着脱を識別することができる。
このように、本実施の形態では、撮影方向の異なる少なくとも2台のビデオカメラ21a,21bにより撮影された赤外光点の位置を基にユーザの前面及び背面の3次元位置分布が検出され、検出されたユーザの前面及び背面の3次元位置分布と所定時間前の当該部分の3次元位置分布とを比較して変化が生じた部位が検出され、検出された部位とユーザが装着する衣服毎に記録されている当該衣服の着脱により変化が生じる部位とを比較して変化が生じた衣服の種類を識別することができるので、ユーザが上着、ズボン、スカート等の衣服を着たり、脱いだりする着替えの状態を高精度に検出することができる。
次に、図1に示す対象物姿勢推定装置の検出精度について説明する。図14は、図1に示す対象物姿勢推定装置の検出精度の測定結果を示す図である。本測定では、図1に示す対象物姿勢推定装置を用いて実際の物体の3次元形状を測定し、実際の形状との誤差の平均値(Ave.)及び標準偏差(S.D.)を測定した。図14から、図1に示す対象物姿勢推定装置では、X方向、Y方向及びZ方向ともに10cm以下の精度で3次元位置を正確に計測できることがわかった。
次に、図1に示す対象物姿勢推定装置を用いて実際の物体の3次元形状を再構築した。図15は、図1に示す対象物姿勢推定装置による3次元形状の再構築例を示す図である。図15の(a)に示す人間の3次元形状を計測し、計測結果から3次元形状の再構築を行った結果、図15の(b)に示す3次元位置分布を得られ、人間の3次元形状を正確に再構築できることがわかった。
次に、図1に示す対象物姿勢推定装置を用いて移動する人間を追跡した。図16は、図1に示す対象物姿勢推定装置を用いて追跡した人間の軌跡を示す図である。図16に示す人間の軌跡から、床上の人間の位置X−Yを正確に追跡できることがわかった。
次に、図1に示す対象物姿勢推定装置を用いて人間の姿勢を推定した。図17は、図1に示す対象物姿勢推定装置を用いて人間の8種類の異なる姿勢に対する3次元位置分布の検出結果を示す図であり、図18は、図1に示す対象物姿勢推定装置を用いて人間の8種類の異なる姿勢を推定した結果を示す図である。
図17の(a)は、人間が直立して前方を向いている状態STFを示し、(b)は、人間が直立して左方を向いている状態STLを示し、(c)は、人間が直立して右方を向いている状態STRを示し、(d)は、人間が着席して前方を向いている状態SIFを示し、(e)は、人間が着席して左方を向いている状態SILを示し、(f)は、人間が着席して右方を向いている状態SIRを示し、(g)は、人間が着替えをしている状態DRを示し、(h)は、人間が手を差し出している状態REを示し、それぞれの上段は人間の各状態を示す画像例であり、下段が各状態に対して検出された3次元位置分布例である。また、図18に示す結果は、48サンプルに対して各姿勢を推定した結果であり、各姿勢に対する認識比(%)を示している。図17及び図18から、各姿勢をほぼ高精度に推定できることがわかった。
最後に、図1に示す対象物姿勢推定装置を用いて人間の行動を連続的に観測した。図19は、図1に示す対象物姿勢推定装置を用いて人間の姿勢を連続的に推定した結果を示す図である。図19の横軸は時間(フレーム)、縦軸は各フレームで推定された姿勢(実線)及び実際の姿勢(破線)を示している。図19から、人間が連続的に行動している場合でも、各姿勢を連続的にほぼ高精度に推定できることがわかった。
このように、本実施の形態では、ユーザである被介護者の動きを追跡し、その行動を認識することができるので、日常生活(着替え、トイレの使用等)におけるユーザの活動を観察してユーザの状態を検出し、検出されたユーザの状態に基づいてユーザに的確な指示を与えることができる。
例えば、脳炎、頭部の傷、くも膜下出血、痴呆、小脳血管障害のような脳障害を受けた人々にはしばしば記憶障害が発生し、この記憶障害又は高度脳障害の人々が通常の生活を送るのは困難であり、これらの人々に対する恒常的なケア及び注意を払うことは家族の重荷となる。このような記憶障害者に対して本対象物姿勢推定装置を用いることにより、記憶障害者の意図を自動的に検出して日常生活をサポートすることができる。また、本対象物姿勢推定装置を用いてネットワーク型インタラクション治療を行う場合、介護者とのコミュニケーションが容易となって家族が適切な情報を得ることができるので、徘徊、失禁、癇癪等の行動的問題を家族が経験する前に、家族に快適な情報を提供することができ、家族のストレスを解放して負担を軽減することができる。
なお、本実施の形態では、対象物として人間の姿勢を推定する場合について説明したが、この例に特に限定されず、他の動物等に適用してもよい。また、投影する光として赤外光を用いたが、この例に特に限定されず、自然光以外の光や他の波長を有する光を用いてもよい。
本発明の一実施の形態による対象物姿勢推定装置の構成を示すブロック図である。 図1に示すプロジェクタとビデオカメラとの位置関係を説明するための模式図である。 図1に示すプロジェクタ及びビデオカメラの設置例を示す図である。 図1に示すプロジェクタ及びビデオカメラの他の設置例を示す図である。 部分赤外線スポットパターンを作成する手順Pの一例を説明するための図である。 図5の(a)に示す行列Aから図5の(b)に示す行列Cを生成する手順Pを詳細に説明するための図である。 ユーザの輪郭を検出する際に使用するエッジ検出フィルタの一例を示す図である。 赤外光点の検出結果の一例を示す図である。 図1に示す対象物姿勢推定装置の観測時の座標系を説明するための模式図である。 赤外線スポットパターンの一例を示す模式図である。 図1に示す対象物姿勢推定装置による前処理を説明するための模式図である。 図1に示す対象物姿勢推定装置による追跡処理を説明するための模式図である。 図1に示す服装変化部位データベースに記憶されている部位の一例を示す図である。 図1に示す対象物姿勢推定装置の検出精度の測定結果を示す図である。 図1に示す対象物姿勢推定装置による3次元形状の再構築例を示す図である。 図1に示す対象物姿勢推定装置を用いて追跡した人間の軌跡を示す図である。 図1に示す対象物姿勢推定装置を用いて人間の8種類の異なる姿勢に対する3次元位置分布の検出結果を示す図である。 図1に示す対象物姿勢推定装置を用いて人間の8種類の異なる姿勢を推定した結果を示す図である。 図1に示す対象物姿勢推定装置を用いて人間の姿勢を連続的に推定した結果を示す図である。
符号の説明
11 プロジェクタ
12 投影パターン分割部
13 投影パターン生成部
21a,21b ビデオカメラ
22 3次元位置検出部
23 3次元位置復元部
24 姿勢推定部
25 姿勢データベース
26 前回位置保持部
27 変化部位検出部
28 服装変化識別部
29 服装変化部位データベース

Claims (5)

  1. 対象物に対して複数のスポット光を所定パターンで投影する投影手段と、
    前記投影手段により対象物の表面に投影された複数の光点を撮影する撮影手段と、
    前記撮影手段により撮影された複数の光点の位置を基に対象物の表面の3次元位置分布を検出する検出手段と、
    対象物の姿勢毎に対象物の表面の基準3次元位置分布を予め記憶している記憶手段と、
    前記検出手段により検出された3次元位置分布と前記記憶手段に記憶されている基準3次元位置分布とを比較して対象物の現在の姿勢を推定する推定手段とを備えることを特徴とする対象物姿勢推定装置。
  2. 前記検出手段は、検出した3次元位置分布を基に対象物の観測位置を検出し、
    前記投影手段は、前記検出手段により検出された対象物の観測位置に応じてスポット光の位置を補正することを特徴とする請求項1記載の対象物姿勢推定装置。
  3. 前記撮影手段は、前記投影手段により対象物の表面に投影された複数の光点を互いに異なる撮影方向から撮影する第1及び第2の撮影手段を含み、
    前記検出手段は、前記第1及び第2の撮影手段により撮影された複数の光点の位置を基に対象物の異なる表面の3次元位置分布を検出し、
    前記検出手段により検出された対象物の異なる表面の3次元位置分布を保持する保持手段と、
    前記検出手段により検出された対象物の異なる表面の3次元位置分布と前記保持手段に保持されている所定時間前の対象物の異なる表面の3次元位置分布とを比較して対象物の表面に変化が生じた部位を検出する部位検出手段と、
    対象物が装着する衣服毎に当該衣服の着脱により対象物の表面に変化が生じる部位を予め記憶している衣服記憶手段と、
    前記部位検出手段により検出された部位と前記衣服記憶手段に記憶されている部位とを比較して変化が生じた衣服の種類を識別する識別手段とをさらに備えることを特徴とする請求項1又は2記載の対象物姿勢推定装置。
  4. 前記投影手段は、
    複数のスポット光を撮影画像上で互いに干渉しないスポット光群に分割する分割手段と、
    前記分割手段により分割されたスポット光群毎にスポット光を対象物に対して投影する分割投影手段とを含み、
    前記撮影手段は、前記分割投影手段によりスポット光群毎に対象物の表面に投影された複数の光点を撮影し、
    前記検出手段は、前記撮影手段によりスポット光群毎に撮影された光点の位置を基に対象物の表面の3次元位置分布を検出することを特徴とする請求項1〜3のいずれかに記載の対象物姿勢推定装置。
  5. 前記投影手段は、赤外光を用いて対象物に対して複数のスポット光を所定パターンで投影し、
    前記撮影手段は、前記投影手段により対象物の表面に投影された複数の赤外光点を撮影することを特徴とする請求項1〜4のいずれかに記載の対象物姿勢推定装置。
JP2005002998A 2005-01-07 2005-01-07 対象物姿勢推定装置 Expired - Fee Related JP4319628B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005002998A JP4319628B2 (ja) 2005-01-07 2005-01-07 対象物姿勢推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005002998A JP4319628B2 (ja) 2005-01-07 2005-01-07 対象物姿勢推定装置

Publications (2)

Publication Number Publication Date
JP2006190195A true JP2006190195A (ja) 2006-07-20
JP4319628B2 JP4319628B2 (ja) 2009-08-26

Family

ID=36797329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005002998A Expired - Fee Related JP4319628B2 (ja) 2005-01-07 2005-01-07 対象物姿勢推定装置

Country Status (1)

Country Link
JP (1) JP4319628B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141174A (ja) * 2010-01-06 2011-07-21 Canon Inc 3次元計測装置及びその制御方法
CN103959805A (zh) * 2013-10-24 2014-07-30 华为终端有限公司 一种显示图像的方法和装置
CN110309787A (zh) * 2019-07-03 2019-10-08 电子科技大学 一种基于深度相机的人体坐姿检测方法
JP2022058471A (ja) * 2016-08-02 2022-04-12 アトラス5ディー, インコーポレイテッド プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141174A (ja) * 2010-01-06 2011-07-21 Canon Inc 3次元計測装置及びその制御方法
CN103959805A (zh) * 2013-10-24 2014-07-30 华为终端有限公司 一种显示图像的方法和装置
US10283005B2 (en) 2013-10-24 2019-05-07 Huawei Device Co., Ltd. Image display method and apparatus
JP2022058471A (ja) * 2016-08-02 2022-04-12 アトラス5ディー, インコーポレイテッド プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
CN110309787A (zh) * 2019-07-03 2019-10-08 电子科技大学 一种基于深度相机的人体坐姿检测方法
CN110309787B (zh) * 2019-07-03 2022-07-29 电子科技大学 一种基于深度相机的人体坐姿检测方法

Also Published As

Publication number Publication date
JP4319628B2 (ja) 2009-08-26

Similar Documents

Publication Publication Date Title
CN107273846B (zh) 一种人体体型参数确定方法及装置
JP6429772B2 (ja) 3d走査および位置決めシステム
JP5132832B1 (ja) 計測装置および情報処理装置
JP5812599B2 (ja) 情報処理方法及びその装置
US20170100089A1 (en) Method and System of Scanner Automation for X-Ray Tube with 3D Camera
WO2015188684A1 (zh) 三维模型重建方法与系统
JP4692526B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
US9905016B2 (en) Robot identification system
JP2008535116A (ja) 3次元レンダリング用の方法及び装置
JP2011254411A (ja) 映像投影システムおよび映像投影プログラム
WO2017187694A1 (ja) 注目領域画像生成装置
JP4319628B2 (ja) 対象物姿勢推定装置
JP2011090702A (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
KR101818005B1 (ko) 얼굴 데이터 관리 시스템 및 그 방법
JP2017194301A (ja) 顔形状測定装置及び方法
JP2018163481A (ja) 顔認識装置
JP4134147B2 (ja) 動作指示装置
JP2010045501A (ja) 画像監視装置
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
US11276184B2 (en) Method and device for determining the amplitude of a movement performed by a member of an articulated body
JP2006215743A (ja) 画像処理装置及び画像処理方法
KR20230011902A (ko) 일반 모델에서 이동 시퀀스를 정의하는 장치
JP2006227739A (ja) 画像処理装置及び画像処理方法
JP3711053B2 (ja) 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体
CN110338835A (zh) 一种智能扫描立体监测方法及系统

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090528

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120605

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees