JP5648443B2 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP5648443B2
JP5648443B2 JP2010263805A JP2010263805A JP5648443B2 JP 5648443 B2 JP5648443 B2 JP 5648443B2 JP 2010263805 A JP2010263805 A JP 2010263805A JP 2010263805 A JP2010263805 A JP 2010263805A JP 5648443 B2 JP5648443 B2 JP 5648443B2
Authority
JP
Japan
Prior art keywords
tip
detected
tracking
convex
convex portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010263805A
Other languages
English (en)
Other versions
JP2012113622A5 (ja
JP2012113622A (ja
Inventor
佳宏 明官
佳宏 明官
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010263805A priority Critical patent/JP5648443B2/ja
Priority to EP11184683.8A priority patent/EP2458528A3/en
Priority to US13/285,432 priority patent/US8644560B2/en
Priority to CN2011103654456A priority patent/CN102479324A/zh
Publication of JP2012113622A publication Critical patent/JP2012113622A/ja
Publication of JP2012113622A5 publication Critical patent/JP2012113622A5/ja
Application granted granted Critical
Publication of JP5648443B2 publication Critical patent/JP5648443B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、撮像された人物のジェスチャを容易に認識できるようにした画像処理装置および方法、並びにプログラムに関する。
人間のジェスチャ動作を画像処理によって認識させるジェスチャ認識装置が知られている。
例えば、フレーム画像を複数の画像ブロックに分割し、画像ブロック毎にフレーム間の変化を算出して、ジェスチャを判別する技術が提案されている(特許文献1参照)。
また、Time-of-flightを用いて奥行き画像を取得し、全体の奥行き分布(ヒストグラム)を算出した上で、奥行き方向の閾値を決定し、注目領域(ROI)である手と腕部分をラベリングし切り出した上で、その中心点を求めて、ジェスチャ操作の座標とする技術が提案されている(非特許文献1参照)。
特開2009−064199号公報
YANG-Keun Ahn, Young-Choong Park, Kwang-Soon Choi, Woo-Chool Park, Hae-Moon Seo, Kwang-Mo Jung, "3D Spatial Touch System Based on Time-of-flight Camera", WSEAS TRANSACTIONS on INFORMATION SCIENCE and APPLICATIONS, Issue 9, Volume 6, September 2009
しかしながら、特許文献1の方法では、認識対象の背後に激しい動きがあると、正常な認識を行うことができない恐れがあった。
また、非特許文献1の技術においては、注目領域を定めるためのラベリング処理が必要であり、処理時間コストが大きい。また、非特許文献1の技術においては、ラベリングを行うにあたって、閾値を設ける必要があり、汎用性に乏しいという問題がある。
本発明はこのような状況に鑑みてなされたものであり、特に、画像内の被写体の画素単位の撮像位置からの距離の情報からなる奥行画像が取得できることを前提として、奥行画像より局所先端部を求め、そのうちフレーム単位で連続的な軌跡を求めて、その軌跡よりジェスチャを認識するようにすることで、処理負荷を低減しつつ、正確にジェスチャを認識できるようにするものである。
本発明の一側面の画像処理装置は、撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得手段と、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出手段と、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出手段と、前記凸部検出手段により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡手段と、前記追跡手段により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出手段と、前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定手段とを含み、前記追跡手段は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する
本発明の一側面の画像処理方法は、撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得手段と、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出手段と、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出手段と、前記凸部検出手段により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡手段と、前記追跡手段により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出手段と、前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定手段とを含み、前記追跡手段は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する画像処理装置の画像処理方法であって、前記奥行画像取得手段における、前記撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得ステップと、前記局所先端部検出手段における、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出ステップと、前記凸部検出手段における、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出ステップと、前記追跡手段における、前記凸部検出ステップの処理により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡ステップと、前記ジェスチャ検出手段における、前記追跡ステップの処理により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出ステップと、前記追跡優先度設定手段における、前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定ステップとを含み、前記追跡ステップの処理は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する
本発明の一側面のプログラムは、撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得手段と、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出手段と、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出手段と、前記凸部検出手段により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡手段と、前記追跡手段により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出手段と、前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定手段とを含み、前記追跡手段は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する画像処理装置を制御するコンピュータに、前記奥行画像取得手段における、前記撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得ステップと、前記局所先端部検出手段における、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出ステップと、前記凸部検出手段における、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出ステップと、前記追跡手段における、前記凸部検出ステップの処理により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡ステップと、前記ジェスチャ検出手段における、前記追跡ステップの処理により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出ステップと、前記追跡優先度設定手段における、前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定ステップとを含む処理を実行させ、前記追跡ステップの処理は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する
本発明の一側面においては、撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像が取得され、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置が局所先端部として検出され、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部が凸部として検出され、検出された凸部の位置連続的追跡が開始され、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置が追跡され、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置が、前記凸部の位置として追跡され、追跡される前記凸部の位置、または前記局所先端部の位置のいずれかが、先端部の位置として追跡され、前記先端部のそれぞれに尤度が設定され、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡が終了され、追跡された前記凸部の位置の軌跡が、前記画像に撮像される被写体の動作として認識され、前記軌跡に基づいて、前記被写体の動作によるジェスチャが検出され、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度が設定され、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度が設定される。
本発明の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本発明の一側面によれば、画像内の被写体の画素単位の撮像位置からの距離に応じた値で構成される奥行画像に基づいて、時間的に連続して検出される局所先端部の位置の軌跡により撮像される画像内の人物によるジェスチャを容易に認識することが可能となる。
本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 図1の画像処理装置による画像処理を説明するフローチャートである。 入力画像および奥行画像を説明する図である。 平滑化された奥行画像を説明する図である。 局所先端部を説明する図である。 凸部情報の検出方法を説明する図である。 凸部情報の検出結果を示す図である。 凸部追跡処理を説明するフローチャートである。 凸部情報の構造を説明する図である。 凸部情報の更新を説明する図である。 先端部追跡処理を説明するフローチャートである。 先端部情報の構造を説明する図である。 先端部情報と追跡IDを説明する図である。 先端部情報の更新を説明する図である。 凸部未検出先端部情報更新処理を説明するフローチャートである。 新規の先端部情報の生成を説明する図である。 重複した先端部情報を説明する図である。 軌跡として検出されるジェスチャを説明する図である。 追跡優先度情報を説明する図である。 追跡優先度の設定方法を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
[画像処理装置の構成例]
図1は、本発明を適用した画像処理装置のハードウェアの一実施の形態の構成例を示している。図1の画像処理装置11は、撮像された画像の供給を受けると、画像内に被写体として含まれている人物のジェスチャを検出し、検出したジェスチャの情報を出力する。
より具体的には、画像処理装置11は、奥行画像生成部101、局所先端検出部102、凸部検出部103、凸部追跡部104、先端追跡部105、軌跡ジェスチャ検出部106、追跡優先度設定部107、および追跡優先度記憶部108を備えている。
奥行画像生成部101は、入力される撮像された画像における画素単位で撮像位置から被写体までの距離に対応する値からなる奥行画像を生成して局所先端検出部102に供給する。
また、奥行画像生成部101は、平滑化部101aを備えており、生成した奥行画像を平滑化する。すなわち、奥行画像は、撮像画像に含まれるイメージセンサのノイズや、視点の違いによる反射具合の違いなど、左右間で相関の無いエラーが多く含まれており、この影響を統計的に小さくするために平滑化される。
局所先端検出部102は、奥行画像生成部101より供給されてくる奥行画像を16ピクセル×16ピクセルなどのブロック単位に分割し、ブロック単位で、撮像位置から近い部分、すなわち、手前である部分の領域情報(座標)を局所先端部として検出する。そして、局所先端検出部102は、検出結果である局所先端部の情報を凸部検出部103、および先端追跡部105に供給する。尚、以降においては、奥行画像は、手前(撮像位置側)へ近づくほど値が大きく、逆に、撮像位置から離れるほど小さくなる値(ディスパリティ値)となる奥行値が画素単位で格納された画像であるものとして説明を進めるものとする。しかしながら、奥行値は、撮像位置から被写体までの距離に応じたものであればよく、撮像位置からの距離が近いほど小さな値となり、遠いほど大きな値となる、いわゆる、距離値を用いるようにしてもよい。
凸部検出部103は、凸部情報更新部111を制御して、局所先端検出部102が出力したブロック領域毎の局所先端部の情報に基づいて、例えば、各ブロックを注目ブロックとするとき、注目ブロックと上下左右および斜め方向に隣接する8ブロックを合わせた3ブロック×3ブロックの領域の各ブロックの局所先端部の値のうち、注目ブロックの局所先端部の値が領域内で最大値となるとき、その注目ブロックの局所先端部を凸部として検出し、その情報を凸部情報として凸部追跡部104に供給する。尚、注目ブロックに対して設定される領域は、上述した9ブロックに限るものではなく、それ以外の数のブロックにより設定される領域であっても良いものである。
凸部追跡部104は、凸部情報更新部111、および凸部情報記憶部112を備えている。凸部追跡部104の凸部情報更新部111は、凸部検出部103で検出した凸部の位置を含む凸部情報が、前フレームの凸部の位置の所定の近傍範囲内であるとき、同一の凸部を連続して検出したものとみなし、連続して検出された回数のカウントすることにより凸部を追跡し、追跡結果を凸部情報として凸部情報記憶部112に記憶させて更新する。
先端追跡部105は、先端部情報更新部121を制御して、凸部追跡部104において検出された、一定フレーム数以上(例えば、8フレーム以上)連続して凸部として検出されたディスパリティが極大となるピクセルの位置、すなわち、局所先端部の位置を、画像内に被写体として含まれている人間のジェスチャ軌跡による先端部と仮定する。そして、先端追跡部105は、この先端部の位置を追跡し、順次更新される先端部の位置の情報を先端部情報として先端部情報記憶部122に順次更新して記憶させる。この際、先端部更新部121は、凸部の追跡開始後は、凸部追跡部104が出力する凸部情報に基づいて、直前のフレームで検出された凸部の位置から所定の近傍範囲内で凸部が検出されるとき、同一の凸部が連続して検出されたものとする。そして、先端部情報更新部121は、その凸部の位置を被写体の動作に応じてジェスチャを構成する先端部の位置として追跡し、追跡結果を先端部情報として先端部情報記憶部122に記憶させる。
また、先端追跡部105は、凸部の追跡開始後は、凸部追跡部104が出力する凸部情報に基づいて、直前のフレームで検出された凸部の位置から所定の近傍範囲内で凸部が検出されないとき、局所先端検出部102により検出されたブロック毎の局所先端部の情報に基づいて、直前のフレームで検出された凸部の位置から所定の近傍範囲内に存在する局所先端部を連続して検出される先端部の位置として追跡し、先端部情報記憶部122に記憶されている先端部情報を順次更新する。また、先端部情報更新部121は、先端部情報として先端部の位置と共に尤度を設定し、凸部の追跡ができず、局所先端部を持って先端部の位置を更新するとき、対応する先端部情報の尤度を減衰させ、尤度が所定の閾値よりも小さくなるとき、対応する先端部情報を先端部情報記憶部122より削除する。さらに、先端部情報更新部121は、追跡優先度記憶部108に格納されている、先端部情報毎に設定される追跡IDに対応づけて設定される追跡優先度の情報に基づいて、追跡IDに対応する先端部情報の尤度を計算する。
軌跡ジェスチャ検出部106は、先端追跡部105の先端部情報記憶部122に記憶されている先端部情報の位置情報(座標情報)を、ジェスチャをする際の手先、または指先などの被写体の動作に応じたジェスチャを構成する先端部の軌跡として用いて、ジェスチャを検出し、検出結果であるジェスチャの情報を出力する。また、軌跡ジェスチャ検出部106は、検出結果であるジェスチャの情報を追跡優先度設定部107にも供給する。軌跡ジェスチャ検出部106は、例えば、先端部情報に含まれる位置情報(座標情報)の軌跡を用いたジェスチャ認識手法の一例として、隠れマルコフモデル(HMM)を用いて、軌跡の時間的な変化量を解析することでジェスチャを認識する。尚、このジェスチャ認識手法についての詳細は、An HMM-Based Threshold Model Approach for Gesture Recognition,Hyeon-Kyu Lee and Jin H. Kimを参照されたい。
追跡優先度設定部107は、軌跡ジェスチャ検出部131によるジェスチャ検出結果に基づいて、軌跡を構成し、追跡対象となる先端部情報を識別する追跡IDに対応付けて優先度を設定し、フレーム単位で追跡優先度記憶部108に記憶させる。追跡優先度設定部107は、例えば、円形の閉路を描くような軌跡を検出したとき、優先度を高く設定する。
[画像処理]
次に、図2のフローチャートを参照して、図1の画像処理装置11による画像処理について説明する。
ステップS11において、奥行画像生成部101は、入力される撮像された画像における画素単位で撮像位置から被写体までの距離に対応する値からなる奥行画像を生成する。より詳細には、奥行画像生成部101は、例えば、異なる位置に設けられた2台以上のカメラを用いて撮像した複数枚の画像間の対応点をステレオマッチングなどのアルゴリズムで探索し、互いに基準画像上の画素と、参照画像上の画素の位置の視差を求め、三角測量の原理により、画素単位で撮像位置から被写体までの距離に応じて、例えば、撮像位置に近いほど大きく、撮像位置から離れるに従って小さくなる値(ディスパリティ)を求め、画素単位に求められた距離に対応した画素値からなる奥行画像を生成する。また、撮像された画像について、奥行画像が求められればよいので、これ以外の方法で奥行画像を生成するようにしてもよく、例えば、奥行画像生成部101は、TOF(Time Of Flight)と呼ばれる、撮像位置から被写体に向けて発光した近赤外線などの測距光が被写体に発射し戻ってくるまでの時間を画素単位で計測することにより、画素単位で撮像位置から被写体までの距離を求めて、これを用いて奥行画像を生成するようにしてもよい。
この結果、例えば、図3の画像P1で示されるように左上部に太陽があり、右上部に雲があり、中央下部に人物が存在するような入力画像が入力されると、図3の画像P2で示されるように、撮像位置から見て、最も手前に存在するであろう人物の手先近傍が最も高い画素値となり、背景となるものが低い画素値となる画像が得られることになる。
ステップS12において、平滑化部101aは、例えば、以下の式(1)で示される演算により、奥行画像の各画素を基準として、例えば、8画素(ピクセル)×8画素(ピクセル)の範囲の画素の画素値の移動平均値に置換することにより、ディスパリティからなる画素値を平滑化する。そして、奥行画像生成部101は、平滑化された奥行画像を局所先端検出部102に供給する。
Figure 0005648443
・・・(1)
ここで、g(x,y)は、平滑化された奥行画像の画素値を表しており、f(x,y)は平滑化される前の奥行画像の画素値を表しており、i,jは、それぞれ奥行画像におけるx方向、およびy方向の範囲を表している。この処理により、例えば、平滑化されるまでの奥行画像が、図3の画像P2であるような場合、図4で示されるような平滑化された奥行画像である画像P11が求められる。画像P11は、画像P2が平滑化されることにより、全体としてぼんやりとしたような画像となる。尚、平滑化する際、各画素について周辺の画素の画素値の移動平均値が求められればよく、各画素について周辺画素の範囲は、近傍の複数の画素から構成できればよいため、8画素×8画素の範囲以外であってもよい。
ステップS13において、局所先端検出部102は、平滑化された奥行画像を、例えば、図5で示される画像P21で示されるように、16画素(ピクセル)×16画素(ピクセル)の単位でブロックに分割し、各ブロック単位で平滑化された奥行画像の画素のうち、画素値が最大となる画素g(umn,vmn)を局所先端部として検出し、その画素の画素値g(umn,vmn)、および位置座標(umn,vmn)を凸部検出部103、および先端追跡部105に供給する。尚、図5における丸印で示される画素は、各ブロックにおける局所先端部を示している。ここで、m,nは、各ブロック内におけるx方向、およびy方向の座標位置(m,n)を表している。また、ブロックのサイズは、16画素(ピクセル)×16画素(ピクセル)に限るものではなく、それ以外のサイズであってもよい。
ステップS14において、凸部検出部103は、各ブロックについて、上下左右、および斜め方向に隣接する8ブロックを含む3ブロック×3ブロックの合計9ブロックの局所先端部のうち、中心となるブロックの局所先端部の画素値が最大となる否かにより凸部を検出し、凸部を検出したとき、凸部の画素位置の位置座標を凸部追跡部104に供給する。
すなわち、例えば、図6の左部で示される画像P31が白線で示されるようにブロックに分割されている場合、画像P31の全ブロックのうち、図6の右上部で示されるブロックB22が注目ブロックであって、ブロックB11乃至B13,B21乃至B23、およびB31乃至B33における9ブロックについては、注目ブロックであるブロックB22の局所先端部の画素値が、9ブロックの局所先端部の画素値のうちの最大値であるので、ブロックB22の局所先端部は凸部として検出される。
一方、画像P31の全ブロックのうち、図6の右下部で示されるブロックB12が注目ブロックであって、ブロックB1乃至B3,B11乃至B13、およびB21乃至B23における9ブロックについては、注目ブロックであるブロックB12の局所先端部の画素値が、9ブロックの局所先端部の画素値のうちの最大値ではなく、ブロックB22の局所先端部が最大値となるので、ブロックB12の局所先端部は凸部として検出されない。
凸部検出部103が、例えば、図7の画像P31の全ブロックに対して上述した処理を実行することにより、図7中の×印で示される局所先端部が、凸部として検出されることになる。尚、図7においては、画像P31に被写体である人物の顔、および左右の手の局所先端部が凸部として検出されると共に、右上部に撮像に際して発生したノイズが凸部として誤検出されている。
ステップS15において、凸部情報更新部111は、凸部追跡処理を実行し、同一の凸部が連続して検出しているか否かを判定し、判定結果に応じて凸部情報記憶部112に記憶されている凸部情報を更新する。
[凸部追跡処理]
ここで、図8のフローチャートを参照して、凸部追跡処理について説明する。
ステップS41において、凸部情報更新部111は、凸部情報記憶部112にアクセスし、1フレーム前の凸部情報が登録されているか否かを判定する。凸部情報記憶部112には、図9で示されるような凸部情報が、凸部として検出された局所先端部毎に登録されており、最初に凸部として検出されたフレームにおける局部先端部毎の情報として登録され、以降のフレームにおいて同一の凸部とみなされる凸部情報が順次更新されていく。すなわち、図9においては、上から最新フレーム凸部座標(x,y)、凸部連続検出回数N、および旧フレーム凸部座標(x',y')が格納されている。最新フレーム凸部座標(x,y)は、最新のフレームにおける凸部として検出された局所先端部の画像内における座標である。また、凸部連続検出回数Nは、連続するフレームで、同一の凸部として検出された局所先端部が連続して検出された回数である。さらに、旧フレーム凸部座標(x',y')は、直前のフレームにおいて凸部として検出された局所先端部の画像内における座標である。
また、凸部情報記憶部112は、図10で示されるように、記憶領域が2面設けられており、フレーム単位で交互に凸部情報を記憶する。すなわち、凸部情報記憶部112に設けられている第1の面St1に直前のフレームの凸部情報として、凸部情報I1乃至I4が登録されているものとする。このような場合、凸部情報記憶部112の第2の面St2に、次のフレームの凸部情報として、例えば、新規の凸部情報が検出されると、凸部情報I1’に登録され、凸部情報I1,I3と同一の凸部が検出されると、それぞれの凸部連続検出回数Nが1インクリメントされて凸部情報I2’,I4’として更新され、凸部情報I3と同一の凸部が検出されないので、凸部情報I3が消去されるといった管理がなされる。そして、さらに次ぎのフレームの凸部情報については、第1の面St1の情報が一旦クリアされて、新たに登録されるといった処理が繰り返される。
すなわち、新たなフレームにおいて、直前のフレームで検出された凸部と同一のものとみられる凸部が検出されると、直前のフレームにおける最新フレーム凸部座標(x,y)が、旧フレーム凸部座標(x',y')に上書きされて、最新のフレームで検出された凸部の座標が最新フレーム凸部座標(x,y)に新たに上書きされ、これが繰り返されることになる。また、連続するフレームで同一の凸部が検出される場合、凸部連続検出回数Nは1インクリメントされることになり、連続するフレームで同一の凸部が検出されない場合、凸部情報は削除される。
そこで、凸部情報更新部111は、凸部情報記憶部112の直前のフレームに対応する第1の面St1、または第2の面St2のいずれかに登録される凸部情報を読み出し、1フレーム前の凸部情報が登録されているか否かを判定する。
ステップS41において、例えば、少なくとも1以上の凸部情報が登録されている場合、処理は、ステップS42に進む。
ステップS42において、凸部情報更新部111は、凸部情報記憶部112に格納されている、1フレーム前の凸部情報の最新フレーム凸部座標(x,y)全てを参照し、検出された凸部検出座標(xn,yn)とのユークリッド距離d(x,y)を以下の式(2)を計算することにより求める。
d(x,y)=√((x−xn2+(y−yn2
・・・(2)
ここで、xn,ynは、それぞれ検出された凸部の画像内におけるx,y座標である。尚、以降においては、ユークリッド距離d(x,y)が最小となる1フレーム前の最新フレーム凸部座標(x,y)を座標(xold,yold)とし、座標(xold,yold)に対応する他の凸部情報の各要素とし、凸部連続検出回数NをNoldとし、旧フレーム凸部座標(x',y')は座標(x'old,y'old)と表すものとする。
ステップS43において、凸部情報更新部111は、新たに検出された凸部と、登録済みの凸部との距離が最小となるユークリッド距離d(xold,yold)が、所定の閾値th1よりも十分に小さく、フレーム間で移動した同一の凸部とみなせるか否かを判定する。すなわち、フレーム間で移動したとみなせる凸部同士であるか否かが判定される。ステップS43において、例えば、ユークリッド距離d(xold,yold)が、所定の閾値th1よりも十分に小さく、フレーム間で移動した同一の凸部とみなせると判定された場合、処理は、ステップS44に進む。
ステップS44において、凸部情報更新部111は、凸部情報記憶部112に記憶されている、凸部情報のうち、直前のフレームから連続して検出される、同一の凸部として認識された凸部情報における、凸部連続検出回数Nの値に1を加算して、凸部連続検出回数N(=Nold+1)を更新する。また、凸部情報更新部111は、同一の凸部として認識された凸部情報における、旧フレーム凸部座標(x'old,y'old)を、最新フレーム凸部座標(xold,yold)で更新する。
ステップS45において、凸部情報更新部111は、凸部情報記憶部112に記憶されている、凸部情報のうち、直前のフレームから連続して検出される、同一の凸部として認識された凸部情報における、最新フレーム凸部座標(xold,yold)を、今現在のフレームの凸部として検出された局所先端部である凸部検出座標(xn,yn)で更新する。凸部情報更新部111は、このように更新された最新フレーム凸部座標(xn,yn)、凸部連続検出回数N、および旧フレーム凸部座標(xold,yold)により凸部情報を更新して、凸部情報記憶部112に記憶させる。
一方、ステップS41において、凸部情報が登録されていない場合、または、ステップS43において、例えば、ユークリッド距離d(xold,yold)が、所定の閾値th1よりも十分に小さくなく、フレーム間で移動した同一の凸部とみなせないと判定された場合、処理は、ステップS46に進む。
ステップS46において、凸部情報更新部111は、凸部連続検出回数NをN=0に初期化し、最新フレーム凸部座標値(x,y)、および旧フレーム凸部座標値(x',y')をいずれも、凸部検出座標(xn,yn)として新規の凸部情報を生成して、凸部情報記憶部112に記憶させる。すなわち、例えば、図10を参照して説明した凸部情報I1’のように新規の凸部情報として記憶される。
尚、旧フレーム凸部座標値(x',y')が、凸部検出座標(xn,yn)により更新されるのは、新規の凸部情報であり、直前のフレームの凸部座標値が存在しないので、ブランクとされるべきところであるが、凸部情報が不安定とならないようにするためである。尚、この際、連続するフレームで、連続して検出されなかった凸部情報は、凸部情報として更新されず、例えば、図10を参照して説明した凸部情報I3のように実質的に削除される。
以上の処理により、局所先端部のうち、凸部として検出されたものが、フレーム間で連続して検出されると、凸部連続検出回数Nが順次カウントされると共に、最新フレーム凸部座標値および旧フレーム凸部座標値が対応して更新されて凸部情報として凸部情報記憶部112に記憶される。また、連続するフレーム間で同一の凸部情報として検出されることのない凸部情報については、削除される。
ここで、図2のフローチャートの説明に戻る。
ステップS15の凸部追跡処理により凸部情報記憶部112に順次検出される凸部の凸部情報が更新されて記憶されると、処理は、ステップS16に進む。
ステップS16において、先端追跡部105の先端部情報更新部121は、先端追跡処理を実行し、先端部情報を順次更新して、先端部情報記憶部122に記憶させる。
[先端部追跡処理]
ここで、図11のフローチャートを参照して、先端部追跡処理について説明する。
ステップS71において、先端部情報更新部121は、先端部情報記憶部122に記憶されている全ての先端部情報の更新フラグfを更新なしを示す0に初期化する。
先端部情報とは、ジェスチャを構成する被写体の動作の先端である、例えば、手先や指先である先端部の位置を追跡する際に管理される情報である。凸部が検出され続けている場合、先端部の追跡は、検出され続けている凸部の位置情報が先端部の位置の追跡に利用される。また、一旦検出された凸部が検出されない状態となった場合、先端部の追跡は、直前に検出された先端部の位置に近い局所先端部の位置が利用される。より具体的には、先端部情報は、先端部の位置を追跡する際に、追跡すべき先端部を識別する情報であり、例えば、図12で示されるように、追跡ID、最新フレーム座標(x,y)、尤度p(0≦p≦1.0)、および更新フラグf(f=0:更新なし,f=1:更新あり)より構成されている。
先端部IDは、例えば、追跡すべき先端部を識別するID、すなわち、先端部の位置の変移により生じる軌跡を識別するIDである。先端部IDは、例えば、図13中の下部で示されるように画像内で追跡すべき先端部の軌跡が軌跡r1,r2の場合、それぞれを識別する追跡IDは、追跡ID=1234,3456といったように付される。先端部情報は、この追跡IDにより識別されて、先端部情報記憶部122に登録される。また、最新フレーム座標(x,y)は、追跡IDにより識別されている軌跡の先端部の最新フレームにおける座標であり、凸部記憶部112に記憶されている凸部の最新フレーム座標、または、局所先端検出部102より供給されてくる局所先端部の最新フレーム座標のいずれかに基づいて設定される。尤度pは、追跡IDにより識別される軌跡の尤もらしさを示す値である。さらに、更新フラグfは、最新フレーム上の凸部情報、または最新フレーム上の局所先端部のいずれかにより更新されたか否かを示すフラグである。すなわち、ステップS71の処理により、いずれの先端部情報も最新のフレーム上の凸部情報、または局所先端部のいずれによっても更新されていない状態に設定される。
ステップS72において、先端部情報更新部121は、先端部情報記憶部122に登録されている先端部情報の最新フレーム座標を順次読み出し、凸部情報記憶部112に記憶されている全ての凸部情報の旧フレーム凸部座標と比較し、一致するものがある場合、先端部情報の最新フレーム座標を、旧フレーム凸部座標と一致した凸部情報の最新フレーム凸部座標で更新し、さらに、更新フラグfを更新したことを示す1に更新する。また、先端部情報更新部121は、尤度pを以下の式(3)で示されるように演算して尤度pを更新する。
p=k0×1.0+(1.0−k0)×p
・・・(3)
ここで、pは、尤度を示し、k0は、凸部として連続的に検出されたときに尤度を高める割合を示す定数であり、例えば、k0=0.2などである。
すなわち、例えば、図14で示される先端部情報Bに含まれる更新前の最新フレーム座標(x,y)と、凸部情報Aに含まれる直前のフレームにおける凸部Pf0の座標位置を示す旧フレーム凸部座標(x',y')とが一致する場合、軌跡として追跡すべき先端部と、その凸部情報で表される凸部とが一致しているものとみなし、最新のフレームにおける凸部Pf1における凸部情報Aの最新フレーム凸部座標に置き換えることで、先端部情報Bの最新フレーム座標(x,y)を更新する。
この処理により、先端部情報のうち、更新前の最新フレーム座標と、いずれかの凸部情報の旧フレーム凸部座標とが一致する、全ての先端部情報については、最新フレーム座標が更新されて、更新フラグfが1に更新されて、尤度pが高められる。したがって、先端部情報のうち、更新前の最新フレーム座標と、いずれの凸部情報の旧フレーム凸部座標とも一致しない先端部情報については、最新フレーム座標も更新されず、更新フラグfは、0のままとされている。
ステップS73において、先端部情報更新部121は、凸部未検出先端部情報更新処理を実行し、先端部情報のうち、更新前の最新フレーム座標と、いずれの凸部情報の旧フレーム凸部座標とも一致しない先端部情報について、局所先端検出部102より供給されてくる局所先端部の情報に基づいて、最新フレーム座標の情報を更新し、更新フラグを1に設定する。
[凸部未検出先端部情報更新処理]
ここで、図15のフローチャートを参照して、凸部未検出先端部情報更新処理について説明する。
ステップS91において、先端部情報更新部121は、更新フラグfが0に設定されている未処理の先端部情報のいずれかを、処理対象となる先端部情報に設定し、その最新フレーム座標(X,Y)について、局所先端検出部102より供給されてくる全ての局所先端部の座標とのユークリッド距離dを求める。そして、先端部情報更新部121は、求められたユークリッド距離dが最小となる局所先端部の座標(u,v)を求める。尚、ユークリッド距離dについては、上述した式(2)と同様の演算により求められる。
ステップS92において、先端部情報更新部121は、最小となるユークリッド距離d(u,v)が所定の閾値th2よりも十分に小さく、ユークリッド距離が最小となる局所先端部が、追跡IDにより識別される軌跡の先端部の最新フレームにおける座標位置であるか否かを判定する。
ステップS92において、例えば、最小となるユークリッド距離d(u,v)が所定の閾値th2よりも十分に小さく、ユークリッド距離が最小となる局所先端部が、追跡IDにより識別される軌跡の先端部の最新フレームにおける座標位置であるとみなされた場合、処理は、ステップS93に進む。
ステップS93において、先端部情報更新部121は、局所先端部の座標(u,v)を、処理対象の先端部情報における最新フレーム座標(X,Y)として反映させる。
ステップS94において、先端部情報更新部121は、以下の式(4)で示される演算により尤度pを減衰させる。この際、先端部情報更新部121は、更新フラグfを更新済みを示す1に設定する。
p=(1.0−k1)×p
・・・(4)
ここで、k1は、凸部未検出時の尤度の減衰割合を定義する定数であり、例えば、k1=0.2などでもよい。
一方、ステップS92において、例えば、最小となるユークリッド距離d(u,v)が所定の閾値th2よりも十分に小さくなく、ユークリッド距離が最小となる局所先端部が、追跡IDにより識別される軌跡の先端部の最新フレームにおける座標位置であるとみなせない場合、処理は、ステップS95に進む。
ステップS95において、先端部情報更新部121は、処理対象となる先端部情報の近傍に局所先端部が検出されていないことになるため、無効な先端部であるものとみなし、尤度p=0にすると共に、更新フラグfを更新済みを示す1に設定する。
ステップS96において、先端部情報更新部121は、更新フラグfが0に設定されている未処理の先端部情報が存在するか否かを判定し、未処理の先端部情報が存在する場合、処理は、ステップS91に戻る。すなわち、更新フラグfが0となっている更新されていない未処理の先端部情報がなくなるまで、ステップS91乃至S96の処理が繰り返される。そして、ステップS96において、更新フラグfが0となっている更新されていない未処理の先端部情報がないと判定された場合、処理は終了する。
すなわち、以上の処理により、凸部情報に一致するものがない先端部情報については、全ての局所先端部のうち、最小となるユークリッド距離が所定閾値th2よりも小さい場合、先端部情報の最新フレームにおける座標とみなせる局所先端部の座標に設定されて更新され、それ以外の場合、尤度pが0に設定される。
ここで、図11のフローチャートの説明に戻る。
ステップS73の処理により、凸部情報により最新フレーム座標を更新できなかった先端部情報について、局所先端部により最新フレーム座標が更新されると、処理は、ステップS74に進む。
ステップS74において、先端部情報更新部121は、凸部情報記憶部112に記憶されている凸部情報のうち、連続検出回数Nが所定回数(例えば、16回)よりも高く、対応する先端部情報が存在しない場合、その連続検出回数Nが所定回数よりも高い凸部情報を用いて、新規の先端部情報を生成する。すなわち、図16の左部で示されるように、凸部情報の最新フレーム凸部が、凸部Pf1,・・・Pf12乃至Pf16のように連続するフレーム間で連続的に検出されて、凸部連続検出回数Nが、所定回数を超えると、先端部情報更新部121は、新規に追跡すべき軌跡、すなわち、先端部が発生したものとみなす。そして、先端部情報更新部121は、新規の追跡IDを設定し、最新フレーム座標として、その連続検出回数Nが所定回数よりも高い凸部情報の最新フレーム凸部座標を用いる。また、先端部情報更新部121は、新規の先端部情報の尤度pを、初期値p=k2(k2は、例えば、0.6など)に設定し、更新フラグfを更新済みを示す1に設定する。そして、先端部情報更新部121は、生成した新規の先端部情報を先端部情報記憶部122に記憶させる。
ステップS75において、先端部情報更新部121は、追跡優先度記憶部108に記憶されている、追跡ID毎に登録されている軌跡ジェスチャ検出部106の検出結果に基づいて設定される優先度qを読み出し、追跡IDに対応する先端部情報の尤度pを以下の式(5)により更新する。このように優先度qに基づいて、尤度pを更新することにより、軌跡ジェスチャ検出部106によりジェスチャ検出された先端部情報の尤度pが高められることとなる。
p=k3×q+(1.0−k3)×p
・・・(5)
ここで、k3は、ジェスチャ検出による優先度qを、フレーム単位で反映させる割合であり、例えば、k3=0.2でもよい。尚、優先度qの設定については、後述する。
ステップS76において、先端部情報更新部121は、先端部情報記憶部122に記憶されている全ての先端部情報のうち、尤度pが所定の閾値k4よりも低いの先端部情報を先端部情報記憶部122より削除する。尚、閾値k4は、有効な先端部であるとみなす尤度の閾値であり、例えば、k4=0.4でもよい。
ステップS77において、先端部情報更新部121は、先端部情報記憶部122に記憶されている先端部情報のうち、最新フレーム座標(X,Y)が重複するものを検索する。そして、先端部情報更新部121は、最新フレーム座標(X,Y)が重複するものが複数に存在する場合(複数の追跡IDが割り当てられている場合)、重複する先端部情報のうち、尤度pが最も高いものを1つ残して、それ以外の先端部情報を先端部情報記憶部122より削除する。
すなわち、例えば、図17で示されるように、追跡ID1234で識別される軌跡r11と、追跡ID3456で識別される軌跡r12とが存在するような場合、図中のバツ印で示される位置において最新フレーム座標が一致することになる。このような場合、追跡すべき軌跡は1でよいため、先端部情報更新部121は、追跡ID1234の先端部情報に含まれる尤度p=0.8と、追跡ID3456の先端部情報に含まれる尤度p=0.7とを比較して、尤度pの高い追跡ID1234の先端部情報のみを残し、追跡ID3456の先端部情報を先端部情報記憶部122より削除する。
以上の処理により、フレーム毎に先端部情報の最新フレーム座標の情報が順次更新されて先端部情報記憶部122に記憶される。
ここで、図2のフローチャートの説明に戻る。
ステップS16の先端部追跡処理により順次先端部情報記憶部122に記憶されている先端部情報がフレーム単位で順次更新されると、処理は、ステップS17に進む。
ステップS17において、軌跡ジェスチャ検出部106は、順次先端部情報記憶部122に記憶されている先端部情報の最新フレーム座標を追跡ID単位で順次読み出すことにより、先端部として認識されている部位の軌跡として検出する。結果として、その軌跡の情報に基づいて、例えば、隠れマルコフモデル(HMM)によりジェスチャを認識することが可能となる。
すなわち、順次先端部情報の最新フレーム座標が、追跡ID毎にフレーム単位で読み出されるので、フレーム単位で読み出された最新フレーム座標の情報を順次記憶して接続することにより、例えば、図18で示されるように、人物の左右の手H1,H2が先端部として認識され、その軌跡が軌跡r101,r102のように求められる。軌跡ジェスチャ検出部106は、この軌跡に基づいて、ジェスチャを検出し、検出したジェスチャの情報を出力すると共に、検出したジェスチャの情報、および、ジェスチャの検出に寄与した先端部情報を識別する追跡IDを追跡優先度設定部107に供給する。尚、ジェスチャの途中などの場合、ジェスチャとしては認識されないことになるが、この場合においても、軌跡ジェスチャ検出部106は、追跡IDに基づいて、軌跡の情報のみを追跡優先度設定部107に供給する。
ステップS18において、追跡優先度設定部107は、軌跡ジェスチャ検出部106の検出結果であるジェスチャと、そのジェスチャの検出に寄与した追跡IDに基づいて、優先度qを設定し、例えば、図19で示されるように、追跡IDに対応付けて、設定した優先度qの情報を追跡優先度記憶部108に記憶させる。尚、優先度qの設定は、例えば、図20の左部で示されるように、始点Sから略円を描き、交差している軌跡r201のようなジェスチャが検出された軌跡を構成する先端部については、優先度qがq=1.0に設定されるようにし、図20の右部で示される、始点Sから円弧状に描かれた軌跡r202のように、ジェスチャが検出されていない軌跡を構成する先端部については、優先度qがq=0.7とするように設定されるようにしてもよい。このようにジェスチャの検出に寄与した先端部に対しては、優先度qが高めに設定されることで、上述したように、尤度pが高めに設定され、逆にジェスチャに寄与しない先端部に対しては、優先度qが低めに設定されることで、尤度が低めに設定される。
ステップS19において、奥行画像生成部101は、入力画像の供給が停止されて処理が終了したか否かを判定し、順次入力画像が供給されてきて、処理が終了していないと判定された場合、処理は、ステップS11に戻る。すなわち、処理の終了が指示されるまで、ステップS11乃至S19の処理が繰り返される。そして、入力画像の供給が停止されるなどして、処理の終了が指示された場合、処理は、終了する。
すなわち、奥行画像より局所先端部を求め、そのうち周辺のブロックの局所先端部の値より高いものが凸部として検出され、直前のフレームで検出された凸部の位置の所定の近傍の範囲内で最新フレームの凸部が検出できれば、フレーム単位で連続的に先端部が検出されたものとみなし、このようにして連続して検出される凸部の位置を先端部の位置として追跡し、その軌跡よりジェスチャを認識するようにすることで、処理負荷を低減しつつ、正確にジェスチャを認識することが可能となる。
さらに、凸部として連続的に検出できない状態になっても、直前のフレームで検出された凸部の位置の所定の近傍の範囲内で最新フレームの局所先端部が検出できれば、フレーム単位で連続的に先端部が検出されたものとみなし、このようにして連続して検出される局所先端部の位置を追跡することにより、例えば、ジェスチャをしている手先が撮像位置に最も近い位置とならなくても追跡することが可能となり、より精度よくジェスチャを認識することが可能となる。
また、先端部の情報には、尤度が設定されているため、連続的に凸部が検出されて、凸部の座標位置の情報により先端部の位置が更新されている場合、または、ジェスチャとして検出される軌跡に寄与している場合には、尤度が高められるので、ジェスチャの検出に必要とされる先端部の情報は継続して追跡され続ける。逆に、連続的に凸部が検出されず、局所先端部の座標位置の情報により先端部の位置が更新されている場合、または、ジェスチャとして検出される軌跡に寄与していない場合には、尤度が減衰されていくので、ジェスチャの検出に必要とされる先端部の情報はやがて消去される。この結果、必要な先端部の情報は追跡が継続されて、不要な先端部の情報は消去されていくので、必要な先端部の情報によって高い精度でジェスチャを認識することが可能となる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図21は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
11 画像処理装置, 101 奥行画像生成部, 101a 平滑化部, 102 局所先端検出部, 103 凸部検出部, 104 凸部追跡部, 105 先端追跡部, 106 軌跡ジェスチャ検出部, 107 追跡優先度設定部, 108 追跡優先度記憶部

Claims (3)

  1. 撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得手段と、
    前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出手段と、
    前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出手段と、
    前記凸部検出手段により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡手段と
    前記追跡手段により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出手段と、
    前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定手段とを含み、
    前記追跡手段は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する
    画像処理装置。
  2. 撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得手段と、
    前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出手段と、
    前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出手段と、
    前記凸部検出手段により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡手段と
    前記追跡手段により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出手段と、
    前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定手段とを含み、
    前記追跡手段は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する画像処理装置の画像処理方法であって、
    前記奥行画像取得手段における、前記撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得ステップと、
    前記局所先端部検出手段における、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出ステップと、
    前記凸部検出手段における、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出ステップと、
    前記追跡手段における、前記凸部検出ステップの処理により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡ステップと、
    前記ジェスチャ検出手段における、前記追跡ステップの処理により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出ステップと、
    前記追跡優先度設定手段における、前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定ステップとを含み、
    前記追跡ステップの処理は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する
    画像処理方法。
  3. 撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得手段と、
    前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出手段と、
    前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出手段と、
    前記凸部検出手段により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡手段と
    前記追跡手段により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出手段と、
    前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定手段とを含み、
    前記追跡手段は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する画像処理装置を制御するコンピュータに、
    前記奥行画像取得手段における、前記撮像される2次元の画像の画素単位の、前記画像内の被写体の撮像位置からの距離の情報からなる奥行画像を取得する奥行画像取得ステップと、
    前記局所先端部検出手段における、前記奥行画像における、隣接する複数の画素毎に構成されるブロック単位で、撮像位置から近い部分の奥行、および位置を局所先端部として検出する局所先端部検出ステップと、
    前記凸部検出手段における、前記ブロックの各々を注目ブロックとする場合、前記注目ブロックを含む、前記注目ブロックに隣接する複数の前記ブロックで構成される領域における前記注目ブロックの前記局所先端部が、前記領域内において最も前記撮像位置から近い局所先端部となるとき、その局所先端部を凸部として検出する凸部検出ステップと、
    前記追跡手段における、前記凸部検出ステップの処理により検出された凸部の位置連続的追跡を開始し、以降においては、直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されるとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される凸部の位置を追跡し、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に前記凸部が検出されないとき、前記直前に検出された凸部の位置から所定近傍範囲内で時間方向に連続的に検出される前記局所先端部の位置を、前記凸部の位置として追跡し、追跡する前記凸部の位置、または前記局所先端部の位置のいずれかを、先端部の位置として追跡し、前記先端部のそれぞれに尤度を設定し、前記尤度が所定の閾値よりも小さくなった前記先端部の追跡を終了する追跡ステップと、
    前記ジェスチャ検出手段における、前記追跡ステップの処理により追跡された前記凸部の位置の軌跡を、前記画像に撮像される被写体の動作として認識し、前記軌跡に基づいて、前記被写体の動作によるジェスチャを検出するジェスチャ検出ステップと、
    前記追跡優先度設定手段における、前記ジェスチャ検出手段により、前記先端部の軌跡に基づいて検出されたジェスチャに応じて、前記先端部の追跡優先度を設定する追跡優先度設定ステップとを含む処理を実行させ、
    前記追跡ステップの処理は、前記先端部のそれぞれの前記追跡優先度に基づいて、それぞれの前記尤度を設定する
    プログラム。
JP2010263805A 2010-11-26 2010-11-26 画像処理装置および方法、並びにプログラム Expired - Fee Related JP5648443B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010263805A JP5648443B2 (ja) 2010-11-26 2010-11-26 画像処理装置および方法、並びにプログラム
EP11184683.8A EP2458528A3 (en) 2010-11-26 2011-10-11 Image processing apparatus and method, and program
US13/285,432 US8644560B2 (en) 2010-11-26 2011-10-31 Image processing apparatus and method, and program
CN2011103654456A CN102479324A (zh) 2010-11-26 2011-11-17 图像处理设备及方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010263805A JP5648443B2 (ja) 2010-11-26 2010-11-26 画像処理装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2012113622A JP2012113622A (ja) 2012-06-14
JP2012113622A5 JP2012113622A5 (ja) 2013-11-21
JP5648443B2 true JP5648443B2 (ja) 2015-01-07

Family

ID=44785589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010263805A Expired - Fee Related JP5648443B2 (ja) 2010-11-26 2010-11-26 画像処理装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US8644560B2 (ja)
EP (1) EP2458528A3 (ja)
JP (1) JP5648443B2 (ja)
CN (1) CN102479324A (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI409717B (zh) * 2009-06-22 2013-09-21 Chunghwa Picture Tubes Ltd 適用於電腦產品與影像顯示裝置的影像轉換方法
EP2680228B1 (en) 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
CN103809738B (zh) * 2012-11-13 2017-03-29 联想(北京)有限公司 一种信息采集方法及电子设备
WO2014129683A1 (ko) * 2013-02-21 2014-08-28 엘지전자 주식회사 원격 포인팅 방법
JP6121776B2 (ja) 2013-03-29 2017-04-26 ソニー株式会社 画像処理装置及び画像処理方法
WO2014178005A1 (en) * 2013-04-29 2014-11-06 The West Pomeranian University Of Technology System and method for probabilistic object tracking over time
CN104318218A (zh) * 2014-10-29 2015-01-28 百度在线网络技术(北京)有限公司 图像识别方法和装置
US10277888B2 (en) * 2015-01-16 2019-04-30 Qualcomm Incorporated Depth triggered event feature
DE102015100927A1 (de) * 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
US10535029B2 (en) 2015-01-23 2020-01-14 Sprinklr, Inc. Multi-dimensional command center
US10942697B2 (en) * 2017-03-07 2021-03-09 Sprinklr, Inc. System for discovering configuration of display wall
CN106990894B (zh) * 2017-03-21 2020-08-11 北京小米移动软件有限公司 智能设备的控制方法及装置
US11386178B2 (en) 2019-06-20 2022-07-12 Sprinklr, Inc. Enhanced notification system for real time control center
US11244363B1 (en) 2018-10-25 2022-02-08 Sprinklr, Inc. Rating and review integration system
CN111260603B (zh) * 2018-11-30 2024-02-02 金风科技股份有限公司 识别风力发电机组叶片尖端的方法及装置
US11397923B1 (en) 2019-10-07 2022-07-26 Sprinklr, Inc. Dynamically adaptive organization mapping system
WO2023013776A1 (ja) 2021-08-05 2023-02-09 株式会社小糸製作所 ゲーティングカメラ、車両用センシングシステム、車両用灯具

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2517531B2 (ja) * 1994-02-28 1996-07-24 株式会社エイ・ティ・アール通信システム研究所 ステレオ画像を用いた姿勢検出装置
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP4149213B2 (ja) * 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
JP4355341B2 (ja) * 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
CN1304931C (zh) * 2005-01-27 2007-03-14 北京理工大学 一种头戴式立体视觉手势识别装置
JP4575829B2 (ja) * 2005-03-30 2010-11-04 財団法人エヌエイチケイエンジニアリングサービス 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP4992618B2 (ja) 2007-09-05 2012-08-08 カシオ計算機株式会社 ジェスチャー認識装置及びジェスチャー認識方法
EP2199949A1 (en) * 2008-12-22 2010-06-23 BRITISH TELECOMMUNICATIONS public limited company Viewpoint determination
US9189670B2 (en) * 2009-02-11 2015-11-17 Cognex Corporation System and method for capturing and detecting symbology features and parameters
JP2010263805A (ja) 2009-05-13 2010-11-25 Mitsubishi Agricult Mach Co Ltd 乗用型田植機
TWI409717B (zh) * 2009-06-22 2013-09-21 Chunghwa Picture Tubes Ltd 適用於電腦產品與影像顯示裝置的影像轉換方法

Also Published As

Publication number Publication date
US8644560B2 (en) 2014-02-04
EP2458528A2 (en) 2012-05-30
US20120134536A1 (en) 2012-05-31
EP2458528A3 (en) 2014-06-11
JP2012113622A (ja) 2012-06-14
CN102479324A (zh) 2012-05-30

Similar Documents

Publication Publication Date Title
JP5648443B2 (ja) 画像処理装置および方法、並びにプログラム
US10990191B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US9141196B2 (en) Robust and efficient learning object tracker
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
EP2344983B1 (en) Method, apparatus and computer program product for providing adaptive gesture analysis
US9811721B2 (en) Three-dimensional hand tracking using depth sequences
Bernardin et al. Multiple object tracking performance metrics and evaluation in a smart room environment
JP5526955B2 (ja) 顔クラスタリング装置、顔クラスタリング方法、及びプログラム
US20110221890A1 (en) Object tracking apparatus, object tracking method, and control program
JP2015138554A (ja) 対象追跡方法及び装置
US20130279756A1 (en) Computer vision based hand identification
CN106780557A (zh) 一种基于光流法和关键点特征的运动目标跟踪方法
US9727776B2 (en) Object orientation estimation
US20160125258A1 (en) Stereo image processing using contours
KR101350387B1 (ko) 깊이 정보를 이용한 손 검출 방법 및 그 장치
JP4559375B2 (ja) 対象物位置追跡方法、装置、およびプログラム
JP4272538B2 (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
WO2020175085A1 (ja) 画像処理装置、及び画像処理方法
Yi et al. A novel hierarchical data association with dynamic viewpoint model for multiple targets tracking
JP2012198877A (ja) 動き検出装置、動き検出方法及び動き検出プログラム
CN117492629A (zh) 指尖分类触控方法、指尖交互系统、装置及存储介质
KR20090113553A (ko) 지식을 결합한 능동적 물체 인식 알고리즘

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

LAPS Cancellation because of no payment of annual fees