JP2010525432A - ボリューム認識方法およびシステム - Google Patents

ボリューム認識方法およびシステム Download PDF

Info

Publication number
JP2010525432A
JP2010525432A JP2010503361A JP2010503361A JP2010525432A JP 2010525432 A JP2010525432 A JP 2010525432A JP 2010503361 A JP2010503361 A JP 2010503361A JP 2010503361 A JP2010503361 A JP 2010503361A JP 2010525432 A JP2010525432 A JP 2010525432A
Authority
JP
Japan
Prior art keywords
clusters
cluster
point
volume recognition
recognition method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010503361A
Other languages
English (en)
Other versions
JP5255623B2 (ja
Inventor
ピノー、ジル
ロイ、ジェレミー
デメフト、ローラン
バエル、ザビエル
Original Assignee
ソフトキネティック エス.エイ.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトキネティック エス.エイ. filed Critical ソフトキネティック エス.エイ.
Publication of JP2010525432A publication Critical patent/JP2010525432A/ja
Application granted granted Critical
Publication of JP5255623B2 publication Critical patent/JP5255623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明はボリューム認識方法に関わり、a)3次元の画像システム(3)を用いて3次元の画像データをキャプチャするステップであって、該画像データは複数の点(5)を示し、各点は少なくとも3次元空間の座標の集合を有するステップと、b)少なくとも前記点(5)のいくつかをクラスター(6)の集合に分類するステップと、c)位置および大きさなどの第1のパラメータの集合に従って、前記画像システム(3)の範囲に配置された興味の対象物(1)に対応するクラスター(6)を選択するステップと、d)選択された前記クラスター(6)の少なくともいくつかの点(5)を、3次元空間における前記点(5)の位置を含んだ第2のパラメータの集合に従ってサブクラスターの集合に分類するステップであって、各サブクラスターは3次元空間における重心(11)を有するステップと、e)大きな塊(12)を前記サブクラスターの少なくともいくつかとそれぞれ関連付けるステップであって、該大きな塊(12)は該サブクラスターの重心(11)に固定されるステップとを含む方法に関わる。本発明はまた本方法を実行するためのボリューム認識システムに関わる。

Description

本発明はボリューム認識方法およびシステムに関し、特に(但し、これに限定されない)、データ処理装置との相互作用のためのボリューム認識方法およびシステムに関する。
データ処理システムとの相互作用、特にデータおよび指令の入力は広く知られた問題である。従来的には、このような相互作用は、物理的な入力装置、例えばキーボード、マウス、スクロールホイール、ペン、タッチスクリーン、ジョイスティック、ゲームパッド等で起こるものであり、これら入力装置は、ユーザの入力装置への物理的行動に反応して信号を生成する。しかしながら、このような物理的入力装置は多くの不利な点を有する。例えば、物理的入力装置は限られた数の異なる入力信号しか提供できず、3次元の「バーチャル・リアリティ(仮想現実)」環境のようなアプリケーションではぎこちなさや現実感の無さを感じてしまう。さらには、物理的入力装置は疲れやすく、連続使用は時として、反復運動過多損傷(Repetitive Strain Injury)のように、ユーザの健康に悪影響を及ぼすことさえある。
代替の入力装置および方法もまた知られている。例えば、音声認識の実用的システムが利用できる。しかしながら、音声認識は、ユーザによる速くて正確な、繰り返しの入力を求められるアクションゲームのような、いくつかのアプリケーションでは実用的な代替とはならない。さらに、入力の効果は周りの雑音に悪影響を受けるし、一般的に入力のためには特定のユーザの音声命令を学習する必要がある。
他の代替としては画像認識がある。最も単純な形式においては、画像認識システムは、対照的な色の2値パターン(例えばバーコード)を認識し、そしてこれらのパターンを計算処理のためにバイナリ信号に変換する。もっと進んだ画像認識システムは画像のより複雑なパターンを認識することができ、応答に多くの種類の信号を提供することができる。このような画像認識システムは、例えば、米国特許6256033号で提供され、そこでは画像システム範囲内でユーザのジェスチャを認識する。
しかしながら、従来の画像システムは奥行き成分を知覚できず、ユーザの2次元投影像しか提供できない。結果として、ユーザのジェスチャの認識は本質的に問題があり、可能な入力の範囲に限定され、認識ミスの可能性で欠陥だらけになる。特に、このようなシステムはユーザを背景と分けてしまう問題がある。
しかしながら、3次元画像認識システムの開発は、例えばより良いジェスチャ認識を可能にする形状認識方法及び装置を発展させる可能性を提供する。このような3次元画像システムのひとつが、G.Yahav、G.J.IddamおよびD.Mandelboum著「ゲームアプリケーションのための3次元画像カメラ(3D Imaging Camera for Gaming Application)に開示されている。この文献で開示されている3次元画像システムはいわゆる「タイム・オブ・フライト(Time−Of−Flight、TOF法)」であり、3次元画像システムの範囲の対象物で反射した光の波面形状から奥行き成分の認識が得られる。しかしながら、他のタイプの画像システム、ステレオカメラやレーザ強度方向探知(LIDAR)、レーダー、ソナーなどもこれまで提案されてきた。
3次元画像システムを使ったジェスチャ認識方法及びシステムは国際特許出願WO00/30023A1号に開示されている。しかしながら、この方法はボリュームを認識せず、興味の対象である領域の物体の存在場所およびそこでの動きに単に搬送するだけであるため、最も単純なジェスチャしか認識せず、もっと複雑なアプリケーションに対して不適当なままである。より基本的な方法も国際特許出願公開公報WO2004/064022A1号に開示されている。
米国特許出願公開公報US2006/023558A1号は、3次元画像システムを使った形状認識方法を開示している。この方法では、3次元画像の点は、認識された奥行き成分によって、クラスター状(言い換えると、「球状の塊」)に集まる。予め定めた対象物の異なる形状の原始的なものは、これら「球状の塊」に係り得る。このボリューム認識方法はより正確な3次元画像システム範囲内での対象物のモデル化を可能にする一方、まだ大きな欠点がある。全ての対象物が「球状の塊」に配分されると、それらの数や複雑さは利用できるデータ処理許容量によって制限される。実際、この方法は形状認識方法を、粗い対象物のモデルのみ必要なアプリケーション、例えば車の衝突警報及び回避システムなどに限定する。その方法は、ジェスチャ認識システムのような、鮮明なボリューム認識を要求するアプリケーションには非実用的なままである。
米国特許出願公開公報US2003/0113018A1号および国際特許出願WO03/071410A2号は、ジェスチャ認識により適した形状認識方法を開示している。
米国特許出願公開公報US2003/0113018A1号に開示の方法では、ユーザは3次元画像システムに最も近い対象物であり、背景を無視するために、既定の奥行き成分の閾値よりも近い3次元画像の点が選択される。選択された点は、いくつかの判定基準と集合アルゴリズムによって、胴、頭、腕および手を表す5つのクラスターに集められる。胴と腕は平面形状に関連し、頭と手は3次元ボリュームに関係する。この方法はより進んだジェスチャ認識を可能にする一方、ボリューム認識はまだ比較的粗いままであり、特に胴と腕は3次元要素というよりむしろ平面として認識されている。
国際特許出願WO03/071410A2号に開示の方法では、米国特許出願公開公報US2006/023558A1号に記載の方法のように、3次元画像の点が、認識された奥行き成分によって、クラスター状に集まる。そして、それらのクラスターのうちの一つで、興味の対象(例えば、手)を示すクラスターが選択される。選択されたクラスターの点の特徴を統計解析し、予め確立されたパターンと比較することによってジェスチャが認識される。この方法は上記の他の先行技術よりもより有効であるけれども、シームレスな認識にはしっかりしたパターンライブラリが必要であろう。
米国特許第6256033号 国際特許出願WO00/30023A1号 国際特許出願公開公報WO2004/064022A1号 米国特許出願公開公報US2006/023558A1号 米国特許出願公開公報US2003/0113018A1号 国際特許出願WO03/071410A2号
G.Yahav、G.J.IddamおよびD.Mandelboum 「ゲームアプリケーションのための3次元画像カメラ(3D Imaging Camera for Gaming Application)」 Sergios Theodoridis、Konstantinos KoutroumbasおよびRicky Smith著「パターン認識(Pattern Recognition)」12章、1998年、Academic Press発行
したがって本発明が取り扱う課題は、3次元画像システムの範囲内で興味の対象物のボリュームを素早く、比較的鮮明で詳細に認識するための方法及びシステムを提供することであり、それにより、より簡単で正確なデータ処理システムとの相互作用を、最終的にはジェスチャ認識を通して可能にすることである。
本発明のボリューム認識方法は、上記課題を次のように解決する。すなわち、少なくとも第1の設定のパラメータ(位置や大きさ)に従って選択され、画像システムの範囲に配置された興味の対象物に対応するクラスターのいくつかの点を、第2の設定のパラメータ(3次元空間の位置を含む)によるサブクラスターの集まりに分類する。各サブクラスターは重心を持つ。また、大きな塊(ボリューム)を少なくともサブクラスターのいくつかと関連させ、その大きな塊は当該サブクラスターの重心に固定される。
これらの方法により、本発明のボリューム認識方法は、大きな処理能力に頼ることなく、前記サブクラスターに関連した大きな塊により形成される比較的正確な、興味の対象物の3次元モデルを提供する。この3次元モデルは、比較的正確でありながら一方、単にサブクラスターの重心の位置と、当該サブクラスターに関連する大きな塊の容積を用いるだけで表現可能であり、そしてデータ処理システムとの相互作用のために、さらなる3次元モデルの処理を、例えばジェスチャ認識を通して促進する。
また有利なことに、選択されたクラスターの前記点を既定のK個のクラスターに分類するためにK−means法のアルゴリズムを使うことができる。K−means法のアルゴリズムを使うことによって早くて効果的に点を集めて既定の数のサブクラスターに分類することができる。
有利なことに、サブクラスターと関連する大きな塊は球形状とすることができ、好ましくは前記サブクラスターの重心に大きな塊の中心を置く。この形は、良好なボリューム認識を可能にする一方、径を唯一のパラメータとして用い、さらに興味の対象物の3次元モデルを表現するデータセットの大きさを減らすことができる。
また有利なことに、複数の点を集めてクラスターに分類することは、次のステップを含む方法により実行できる:
a)第1の点を含む第1のクラスターを生成し、
b)次の操作を他の各点について実行する:
(i)重心が3次元空間の前記他の点に最も近いクラスターを見つけ、
(ii)3次元空間における前記他の点と前記最も近いクラスターの絶対距離が既定の閾値θよりも大きく、かつクラスターの数が既定の最大値qよりも少ない場合、前記他の点を含む追加クラスターを生成する。もしくは、
(iii)前記絶対距離が既定の閾値θよりも大きくないか、クラスターの数が既に既定の最大値qに達している場合、重心が前記他の点と最も近いクラスターに前記他の点を追加する。
この方法は、画像データの点を集めてクラスターの集まり(各々のクラスターが3次元空間で識別可能な対象物に対応する)に分類する早くて効果的な方法を確実に提供する。この方法により、3次元空間における位置に基づいて複数の点をグループ化することにより、先行技術のように、単に奥行き成分に基づいて選択するよりも、より信頼性高く3次元画像に表される対象物を差別化することができる。この方法は、最終的には、追跡エリアに複数の候補が存在するときでさえ、興味の対象物に対応するクラスターを選択することができる。
特に有利なことに、複数の点を集めてクラスターに分類する前記方法が、さらに前記クラスターのうちの二つが接続しているかを判定し、接続していた場合は合体させるステップを含むことである。このステップは一つの興味の対象の点がいくつかのクラスターに分類されて、そのうちの一つのクラスターしか選択されないという問題が起こる可能性を避けるものである。
さらに、より有利なことに、二つの前記クラスターが接続されているかを判定することのあとに、次のステップを続けることができる:
a)前記二つのクラスターの各々の点の投影された二つのクラスターの重心を結ぶ軸に沿った分布の標準偏差を計算し、
b)標準偏差の和に既定の係数S(例えば2)を掛けたものが、二つのクラスターの重心間の絶対距離より大きいかチェックする。
これらのステップにより、接続しているクラスターを最終的に合体させるために、隣同士のクラスターの接続を効果的に判定することができる。
有利なことに、前記画像システムは、TOF3次元カメラ、ステレオカメラ、3次元空間の異なる位置に配置された複数のカメラ、もしくはLIDAR、ソナーもしくはレーダーシステムを含むことができる。これらどの画像システムであってもボリューム認識に適した3次元画像データを提供することができる。
有利なことに、前記画像システムは少なくとも各点の奥行き成分、天頂成分、方位角成分度を含むことができ、さらに少なくともこれらの点のいくつかの奥行き成分、天頂成分、方位角成分度を3次元の直角座標に転換するステップを含む。このことは本ボリューム認識方法における3次元画像システムによって提供される奥行き画像の取り扱いを簡単にする。
有利なことに、前記興味の対象物は、少なくとも人間の体の一部であり得、好ましくは立っている人間である。このことにより人間のユーザが少なくとも体の一部を使ってデータ処理装置と相互作用することができる。
特に有利なことに、前記方法は前記体の胴の質量中心と主軸の近似を計算するステップを含むことができる。ユーザの胴の位置、向き、および動きはデータ処理システムとの相互作用に特に有効であるから、例えば「仮想現実」アプリケーションにとっては、位置および拡張限界の動きとは独立した質量中心、主軸を近似計算することは特に有利となり得る。
さらに有利なことに、胴の質量中心と主軸の近似計算は次のステップによって実行され得る:
a)前記選択されたクラスターの重心及び主軸を計算する。
b)選択されたクラスターの主軸に関し、選択されたクラスターの点同士の距離の分布曲線を計算する。
c)前記分布曲線の変曲点を計算する。
d)選択したクラスターの前記主軸に関する距離がD・sより低い点を選択する。ここで、sは前記変曲点の、選択されたクラスターの前記主軸への距離であり、Dは高くて1.25、好ましくは高くて1の係数である。
e)胴の質量中心および主軸を選択した点の重心及び主軸として計算する。
人間の体に対応するクラスターでは、どの拡張限界に対応する点でも普通は最も点の密度が高い領域(胴に対応するであろう)からははっきり離れているものであるから、胴の質量中心および主軸の計算においては拡張限界に対応する点を考慮に入れずに計算することができる。
特に有利なのは、前記胴の質量中心の位置および/または主軸および/または主軸の向きに基づき信号がデータ処理システムに送信され得ることである。上記でも述べたように、このことは、ユーザの特に自然な相互作用を、例えば「仮想現実」アプリケーションとの間で可能にする。
特に有利なことに、前記方法は体の高さを測定するステップを含むことができる。
さらに有利なことに、特に正確な体の高さの測定は、胴の主軸への既定の距離より近いクラスターの点の高さを計算し、それら高さをフィルタリング(好ましくは、中央値で)し、フィルタリング後の最大値をとる高さを選択することにより得られる。これらのステップにより得られる高さ測定は通常いかなる伸びた腕にも影響を受けず、従ってユーザの頭の位置を判定する目的などに信頼性高く用いることができる。
さらに有利なことに、体の高さ測定は、条件が合ったとき、例えば胴の主軸が実質的に垂直であるという条件のようなときのみだけ妥当であるとみなすことができる。
有利なことに、前記サブクラスターの集まりに関係する大きな塊データ処理システムで生成された仮想環境に表すことができる。これにより選択された仮想環境において、実質的に小さな処理労力で興味の対象物を比較的現実に近い状態で表現することができる。大きな塊は、もしユーザの体が興味の対象物であれば、例えばユーザのアバター(化身)を提供することができる。
さらに有利なことに、前記サブクラスターの集まりである大きな塊の表示と、仮想環境の要素の集まりとの衝突チェックを、当該仮想環境の要素の集まりと相互作用するために行うことができる。こうして、ユーザは、前記表示が前記要素に触れるように動くことにより、例えば仮想環境の要素を押す、握る、動かす、もしくは引っ張ることができる。
有利なことに、サブクラスターの繋がりの集合は、サブクラスターの重心間の絶対距離、サブクラスター間の点の数などの判定基準で形成される。こうして、興味の対象物の潜在的な構造が認識され、最終的な相互作用を促進し、さらに量の減ったデータセットで興味の対象物の正確な3次元モデルを生成することができる。
さらに有利なことに、興味の対象物の端部の集合は前記繋がりによって識別される。異なる信号がこうして端部の動きや位置に割り当てられ、端部間の相対運動や相対位置さえも割り当てられる。そして本ボリューム認識方法を使った入力インターフェイスの融通性を増すことができる。
さらに有利なことに、少なくとも前記端部の一つが、既定のパターン、例えば人間の体のパターンによってラベル付けされる。異なる信号がこうして端部の動きや位置に割り当てられ、端部間の関連する動きや位置さえも割り当てられる。そして本ボリューム認識方法を使った入力インターフェイスの融通性を増すことができる。
さらに有利なことに、少なくとも一つの前記端部の絶対および/または相対の位置および/または動きに従って、データ処理システムに信号が送信される。これは特に融通性のある相互作用方法を提供するであろう。
本発明はまた、複数の点を表示する画像データを3次元キャプチャするための画像システムを含むボリューム認識システムであって、各点は3次元空間の座標の集まりを少なくとも一つ有し、少なくとも前記点のいくつかは前記画像システムの範囲に配置された興味の対象物に対応し、前記画像システムに接続され、前記画像システムと協働して、本発明のボリューム認識方法を実行するボリューム認識システムに関係する。
いくつかの好ましい発明の実施形態が説明されるが、本発明は補助となる以下の図面を参照することによって限定されない
本発明の実施例によるボリューム認識システムおよび方法を用い、データ処理システムと相互作用をするために3次元画像システムの前に立っているユーザがいる部屋を示した図である。 図1と同じ部屋の3次元画像データであり、3次元画像システムによってキャプチャされた、3次元空間における点の分布の形態をとった図である。 それぞれの位置に基づいて、どのように点が集められてクラスターに分類されるかを示した図である。 隣接するクラスターがどのように接続をチェックされるかを示した図である。 図2と同様の3次元画像データであり、点はクラスターに分類され、クラスターのうちの一つはユーザに対応する図である。 ユーザに対応したクラスターの150のサブクラスターの重心を示した図である。 図6aに示した重心に各々が中心を置いた、150の球を示した図である。 仮想環境にいるユーザを表現した150の球を示した図である。 ユーザに対応したクラスターの25のサブクラスターの重心を示した図である。 図7aに示した重心の繋がりネットワークを示した図である。 図7bのネットワークに基づいた仮想ボディ構造を示した図である。 図7cの仮想ボディ構造に基づくユーザのアバター(化身)を示す図である。 右手を伸ばしたユーザを示した図であり、ユーザを表現するクラスターの重心と主軸と共に、ユーザの胴の質量中心および主軸も示した図である。 図8aで示したユーザの点の分布曲線を示した図である。 データ処理装置のスクリーンに顔を向け、両手を伸ばして初期設定の位置にいるユーザを示した図である。
ボリューム認識方法及びシステムの一つの可能性ある実施例が図1に示される。このアプリケーションでは、本システムおよび方法は、興味の対象物(このケースでは人間のユーザ1)のジェスチャを認識し、人間のユーザ1へ表示される仮想環境を生成するデータ処理装置2と相互作用するために用いられる。
ボリューム認識システムは3次元画像システムを含み、特にこの実施例ではTOF(time−of−flight)3次元カメラ3を含む。このTOF3次元カメラ3は人間のユーザ1が相互作用すべきデータ処理装置2に接続されている。本実施例では、データ処理装置2自身が、TOF3次元カメラと協働して、ボリューム認識方法を実行するようプログラムされている。なお、人間のユーザ1がデータ処理装置2と相互作用するために、ボリューム認識方法を実行するためにプログラムされた別のデータ処理装置が、TOF3次元カメラとデータ処理装置2の間に接続されても良い。
TOF3次元カメラ3は、人間のユーザ1が立っている部屋4の3次元画像データをキャプチャし、3次元画像データは複数の画素を有する部屋の2次元画像と、それぞれの画素毎の、当該画素で画像化されたTOF3次元カメラ3との距離に対応した奥行き成分値を含んでいる。2次元画像自体における画素のXおよびY位置は、3次元カメラ3に関して2次元画像が示している複数の点の、天頂成分および方位角成分に対応するので、これら3次元画像データは図2に示すようにTFO3次元カメラ3の範囲内の対象物の可視点に対応した点5の3次元的なクラウド(雲)として示される。処理を簡単にするために、TOF3次元カメラ3に関する各点の奥行き成分、天頂成分および方位角成分は直角座標系に変換出来る。
本発明のボリューム認識方法の次のステップは、点5がクラスター6に分類されることである。クラスター6は、隣接する点5同士を含むであろう。このクラスター化はBSASアルゴリズムを使って実行される。BSASアルゴリズムはSergios Theodoridis、Konstantinos KoutroumbasおよびRicky Smith著「パターン認識」12章(1998年、Academic Press発行)などに記載される。処理速度に優れ、クラスター化の処理に一つのパスで済み、適切な結果を出すのに多くの繰り返しは必要としない。
クラスター化を実行するために、第1の点5を含む第1のクラスター6を生成し、その後他の点5について、次の処理を実行する:
i)重心7が前記他の点5に3次元空間で最も近いクラスター6を探し、
ii)もし3次元空間における前記他の点と前記最も近い重心7の絶対距離が既定の閾値θより大きく、かつクラスター6の数が既定の最大値qより小さい場合、前記他の点5を含む追加クラスター6を生成する、もしくは
iii)もし前記絶対距離が既定の閾値θより大きくないか、クラスターの数が既定の最大値qに達している場合、前記他の点5を重心が該他の点5に最も近いクラスターに該他の点5を追加する。
このクラスター化のステップによって点5を含む複数のクラスター6が生成される。しかしながら、本アルゴリズムを用いることにより、いくつかのクラスターが接続されることもある。図4に示すように、適切に点5をグループ化するために、このような接続されたクラスターを検出して合体させる。
二つのクラスター6が接続されているか判定するために、これら二つのクラスター6の点5が、二つのクラスター6の重心7を繋ぐ軸8にまず投影される。続いてその軸8に沿った投影像の分布の標準偏差が各クラスター6について計算される。もしこれら標準偏差の和に既定の係数S(本実施例では2とするが)を掛けたものが、二つのクラスターの重心間の絶対距離よりも大きい場合、この二つのクラスターは接続されていると判定される。この場合二つのクラスターは合体して一つのクラスターになる。
上記クラスター化と合体によって、図5に示すように、TOF3次元カメラ3内の様々な対象物を示すクラスター6の集合が得られる。これらクラスター6の集合のうち、ひとつは人間のユーザ1を示す。人間のユーザ1を示すクラスター6は様々な手段で識別される。例えば、クラスター6が、人間のユーザ1が立ってデータ処理装置2と相互作用するとして定義された追跡エリア内に存在し、最小限の点5を含む場合、当該クラスター6が人間のユーザ1を示すと認識される。もしいくつかのクラスター6がこれら判定基準を満たす場合、TOF3次元カメラに最も近いクラスター6が人間のユーザ1を表すクラスターとして選ばれる。クラスター6が人間のユーザ1を表すかどうかの識別の他の判定基準は、人間の体で構成される既定のパターンと点5の分布との整合を取ることである。例えば、もし図9に示すように最初に人間のユーザ1が両手を伸ばして立っている場合、人間のユーザ1を示すクラスター6の点5は特徴に従って分布し容易にパターン認識されるだろう。TOF3次元カメラ3が3次元の画像データフレーム列を連続的にキャプチャする動画カメラである場合、クラスター6が人間のユーザ1に対応するかどうかを識別するために、前のフレームで人間のユーザ1を示すと識別されたクラスター6との類似性が他の判定基準として採用可能である。こうして例えば、ボリューム認識システムは、例え人間のユーザ1が人間として認識するのがもっと難しい姿勢を取ったり、他の人が追跡エリアに入ってきたとしても、上記のように初期段階で最初に認識した人間のユーザ1を追跡し続けることができる。
それ故に、例えば下記のものを通して、データ処理装置2との相互作用が可能であろう:
・TOF3次元カメラ3の範囲内に人間のユーザ1がいるかいないか。
・人間のユーザ1に対応すると認識できるクラスター6の数。および/もしくは
・部屋4の全体的な配置。
人間のユーザ1はデータ処理装置2と、人間のユーザ1を表すクラスター6の下記のような特性を通して相互作用することもできるであろう:
・少なくともクラスター6の部分の釣り合い。
・空間における少なくともクラスター6の部分の分布。
・少なくともクラスター6の部分における点5の分布。
・少なくともクラスター6の部分の重心7。および/または
・少なくともクラスター6の部分の主軸。
一旦当該クラスター6が人間のユーザ1を表していると識別されると、クラスター6はK個のサブクラスターの集合に再分割される。クラスター6の点5はK−meansアルゴリズムを用いてK個のサブクラスターにグループ分けされる。
K−meansアルゴリズムは、点5を最初にK個あるサブクラスターに分割することにより開始する。次に、各初期サブクラスターの重心11を計算する。追加のパラメータ、例えば色などを用いることにもなるが、各点5と3次元空間において最も近い重心11とを関連付けることにより、K個のサブクラスター内に新たな区切りを形成する。重心11はその新たなサブクラスターのために再計算される。この処理は点5がもはやサブクラスターに切り替わらなくなるまで、もしくは重心11の位置が固定するまで繰り返される。実際は、良い結果は一回の繰り返しで得られる。
第1の実施例において、K個の初期サブクラスターはランダム、もしくはクラスター6のいくつかのパラメータ、例えばクラスター6の高さやクラスター6内の点5の分布などによって決められ、Kは比較的大きな数、例えば150のような数である。このK−meansアルゴリズムを用いることで、結果として図6aに示すような、各々が重心11を持つ150のサブクラスターの集合が形成される。既定の径を持つ球12を150個のサブクラスターの各々に関連付けることにより、図6bに示すような人間のユーザ1のモデル13が形成される。本モデル13は、人間のユーザ1によって占められるボリュームを良好な精度で示している。
図6cは、データ処理装置2で生成された仮想環境に表されたモデル13を示す図である。人間のユーザ1は、仮想環境の要素14と相互作用することができ、それは単純に要素14とぶつかる、および/もしくは、仮想環境における球12の表示と仮想環境の要素14との近接性のチェックを通じて行うことができる。それ故に、人間のユーザ1は、データ処理装置2と例えば下記のものを通して相互作用することができるであろう:
・データ処理装置2によって生成された仮想環境の少なくとも一つの要素14と少なくとも一つの球12の表示が1次元もしくは複数の次元で衝突もしくは近接しており、そこでは要素14は正確で、1次元、2次元もしくは3次元のものであり得る。
・データ処理装置2によって生成された仮想環境にいる人間のユーザ1の実環境の少なくとも一つの実対象物の表示と少なくとも一つの球12の表示が1次元もしくは複数の次元で衝突ないし近接している事。
・サブクラスター群のひとつないし複数の重心11の位置および/もしくは動き。および/もしくは
・少なくとも一つのサブクラスター(例えば重心11が実質的に動きを見せているもの)と関連した球12によって形成されたボリュームの位置、動きおよび/もしくは形状。
第2の実施例において、人間のユーザ1に対応するクラスター6の形状が、当該ユーザ1の体の特徴(例えば、質量中心、全体の向き、頭の位置、肩の位置および向き、及び高さなど)を抽出するように解析される。これら特徴のいくつか、質量中心や全体の向きなどは、全クラスター6の点5から計算することができる一方、計算結果は、図8aに示すように、人間のユーザ1の腕15の位置に多大な影響を受けるだろう。図8aでは、右腕を伸ばした人間のユーザ1を示すクラスター6の重心7と主軸16が、人間のユーザ1の体に重ねて描かれている。上記の理由から、本実施例においては、人間のユーザ1の胴19の質量中心17と主軸18を計算できるようにするために、最初に腕15に対応する点5を識別し、考慮に入れない。その計算においては、胴19をユーザ1の腕15を除く全ボディとして理解する。この目的のために、次のステップが実行される:
a)選択したクラスター6の重心7と主軸16を計算する。
b)図8bに示すように、選択したクラスター6の点5の、前記主軸16に対する距離を示す分布曲線20を計算する。
c)分布曲線20の変曲点21を計算する。
d)選択したクラスター6の主軸16に対する距離がD・sより小さい点5を選択する。ここでsは、選択したクラスター6の主軸16に対する変曲点21の距離であり、Dは高くて1.5、好ましくは高くて1.25の係数である。
e)胴1の前記質量中心17および主軸18を、選択した点5の重心および主軸として計算する。
上記処理は繰り返し行えるが、通常一回通しで行えば良い結果が得られる。
クラスター6における頭22のおよび肩23の位置は、首25と肩26により形成される特有の角度によって識別され得る。二つの肩26の位置から、二つの肩26の向きもまた推察され得る。図9に示す初期設定段階において、肩26の向きが出力用の表示スクリーンに対して平行であると見做されるように、人間のユーザ1は出力用の表示スクリーンに顔を向けるよう要求され、出力用の表示スクリーンは後の使用のための参照値を提供する。こうして、この初期設定段階は、少なくとも出力用の表示スクリーンの向きの参照値だけでなく、TOF3次元カメラ3に対する人間のユーザ1の初期位置の参照値を提供する。人間のユーザ1とデータ処理装置2との後のいくつかの相互作用は、人間のユーザ1の少なくとも一部と、前記初期位置との相対位置に関係し得る。
また、人間のユーザ1の高さは、選択した点5のみを使って計算される。より良い精度のために、選択された点5が平均値でフィルタリングされ、残った点のうち最も高い点5の高さが人間のユーザ1の高さとして識別される。この高さ測定は、種々の条件が適合する、例えば胴19の主軸18が実質的に垂直であるとか、フィルタリング後に残った最も高い点5が、頭22に相当すると識別されたクラスター26の中もしくは近くにあるなどの場合のみ、妥当であると見做されるであろう。
TOF3次元カメラ3が動画カメラである場合、複数のフレームの高さ測定結果は、ガウス混合モデルに送られ、ノイズの可能性や一時的に人間のユーザ1が低い位置をとることが考慮に入れられる。十分な重みを持つ最大平均値を用いたガウシアン混合モデルは、人間のユーザ1の高さのしっかりした値を提供するであろう。
第2の実施例において、上記クラスター6の形状解析により得られるパラメータ、例えば高さ、胴19の質量中心17および主軸18、頭22の位置、および肩26の位置と向きなどは、K−meansアルゴリズムを用いてクラスター6をK個のサブクラスターに区切るのに用いることができる。例えば、K個の初期サブクラスターの一つは、頭22に対応するとして識別された点5の少なくともいくつかを含むことができる。この場合クラスター6は低めのK値、例えば25など、を持つサブクラスターに区切られ、当該サブクラスターはしかしながら、人間の体の構造に対応するパターンに追随する。25個のサブクラスターの重心11は、図7aに示される。
次に、サブクラスター同士が接続していると判定することが、例えばサブクラスターの重心11間の絶対距離、サブクラスター間の点5の存在などの判定基準を用いることにより可能である。これらサブクラスター間の接続を判定する目的は、図7bに示したような、サブクラスターの重心11間の繋がり28のネットワーク27を生成することである。このようなネットワーク27から、どのサブクラスターが端部29(端部は他のサブクラスターに対する繋がり28がより少ないはずである)を形成するかを類推することができる。
それ故に、人間のユーザ1はデータ処理装置2と、例えば次のものを通して相互作用することができる:
・質量中心17の位置および/または動き。
・主軸18の位置、向きおよび/または動き。
・肩26の位置、向きおよび/または動き。
・頭22の位置および/または動き。
・一つないしいくつかの端部29の位置、向き、動きおよび/または形状。
相対だけでなく絶対の位置および動きをこれら相互作用のために用いることができる。例えば、お互い、主軸18、肩26、頭22に対する端部29の相対的位置および動きを通して、人間のユーザ1はデータ処理装置2と相互作用することができ、そして/またはデータ処理装置2によって生成された仮想環境の少なくとも一つの要素14が相互作用の元となることができる。
図7cに示すように、ネットワーク27を、既定のパターン(例えば人間の体のパターン)に追随する構造28を生成するために用いることができる。こうして、端部2は単に全体の端部として認識されるだけでなく、例えば特定の右腕30や左足31としてラベル付けされる。このことは相互作用の可能性を増加させる。またこのことにより、図7dに示すように、人間のユーザ1を仮想環境で表すために、容積のあるアバター(化身)32を生成することができる。
上記した全ての相互作用は、独立的にもしくは組み合わせて行うことができる。また例えば、150の球12で占められるボリュームと、端部の相対運動の両方を通して人間のユーザ1がデータ処理装置2と相互作用するために、記載した両方の実施例の処理を実行することも可能である。
その上、本発明のボリューム認識システムおよび方法は、単独、もしくはデータ処理装置2との通信のために適した他のユーザインターフェイス、例えば、スイッチ、キーボード、マウス、トラックボール、タブレット、タッチパッド、タッチスクリーン、6DOF(6自由度)タイプの周辺装置、ジョイスティック、ゲームパッド、運動追跡システム、視標追跡システム、データグローブ、3次元マウス、音声認識、生態電気センサ、ニューロンを用いたインターフェイス、踏み車、静止した自転車、漕ぎ機、またはデータ処理装置2への入力を提供するのに適した他のあらゆるセンサやインターフェイスと組み合わせて使うことができる。
本発明のボリューム認識システムおよび方法を通してデータ処理装置2に与えられる命令および入力には、次のようなものがある:
・例えば視点の回転、並進運動、位置取りおよび/または方向付け、さらには見通し、範囲、色、説明などの2次元および/または3次元ナビゲーション。
・メニュー、リスト、パラメータ選択、および/または入力フィールド内のi.a.ナビゲーションを含むインターフェイス要素のナビゲーション。
・i.a.アバターコントロール、アプリケーション対象のパラメータのコントロール(例えば位置、向き、並進運動、回転運動、概観、形など)および/もしくはシステムパラメータの機能および/またはコントロールを含んだ操作。
・例えばi.a.行動命令、パラメータ変更命令および/または状態変更命令、行動命令および/またはアプリケーション対象の状態変更命令、コントロールパラメータおよび/またはその他の妥当性確証処理のような、動作誘引処理(triggering)。
・i.a.インターフェイス要素、アプリケーション対象、実環境の対象などの選択。
・例えば物理シミュレーションにおける力の入力。
・例えば音量、アプリケーション対象物の概観、アプリケーション対象物などのための出力パラメータの調整。
データ処理装置2は、種々の出力装置のどれにでも順に接続することができる。出力装置は、例えば次のようなものである:
・例えば2次元または3次元の表示装置、拡声スピーカー、ヘッドフォン、プリンター、触覚出力装置、換気装置および/または背景の照明などのコンピュータ出力装置。
・仮想現実(virtual reality)の出力装置、例えば仮想現実の目玉、携帯型表示装置、Cave(登録商標)のようなマルチ表示装置、Reality Center(登録商標)のような大きな表示装置、立体スクリーン、力を返す装置、3次元表示装置、スモークマシン、および/またはスプリンクラーなど。
・家庭での自動化装置、例えば窓シャッター制御装置、暖房制御装置、および/または調光制御装置など。
・家庭の娯楽用装置、例えばテレビおよび/または音楽システム。
・携帯型装置、例えば携帯音楽および/またはビデオプレーヤー、位置検索システム、PDA(personal digital assistants)、携帯コンピュータ、および/または携帯電話など。
・バルブや踏み車など、データ処理装置2に接続可能な他の装置。
本発明を上記特定の実施例を参照しながら記載したが、請求項に係る発明の目的の範囲から逸脱せずに、実施例の種々の修正および変更を施すことができることは明らかである。従って、明細書や図面は本発明を限定するものではなく、例証としてみなされるべきである。

Claims (22)

  1. a)3次元の画像システム(3)を用いて3次元の画像データをキャプチャするステップであって、該画像データは複数の点(5)を示し、各点は少なくとも3次元空間の座標の集合を有するステップと、
    b)少なくとも前記点(5)のいくつかをクラスター(6)の集合に分類するステップと、
    c)位置および大きさなどの第1のパラメータの集合に従って、前記画像システム(3)の範囲に配置された興味の対象物(1)に対応するクラスター(6)を選択するステップと
    を含むボリューム認識方法であって、
    さらに前記方法は、
    d)選択された前記クラスター(6)の少なくともいくつかの点(5)を、3次元空間における前記点(5)の位置を含んだ第2のパラメータの集合に従ってサブクラスターの集合に分類するステップであって、各サブクラスターは3次元空間における重心(11)を有するステップと、
    e)大きな塊(12)を前記サブクラスターの少なくともいくつかにそれぞれ関連付けるステップであって、該大きな塊(12)は該サブクラスターの重心(11)に固定されるステップと
    をさらに含むことを特徴とする前記方法。
  2. 請求項1に記載のボリューム認識方法であって、K−means法のアルゴリズムが、前記選択されたクラスター(6)の前記点を既定のK個の数のサブクラスターに分類するために用いられる前記方法。
  3. 請求項1または2に記載のボリューム認識方法であって、サブクラスターに関連した前記大きな塊(12)は球であり、好ましくは中心が前記サブクラスターの重心(11)にある前記方法。
  4. 請求項1から3のいずれか1項記載のボリューム認識方法であって、前記点(5)をクラスター(6)に分類するステップは、次のステップ:
    a)最初の点(5)を含む最初のクラスター(6)を作成するステップと、
    b)各他の点(5)について次の処理:
    i)3次元空間において重心(7)が前記他の点に最も近いクラスター(6)を発見する処理;
    ii)前記他の点(5)と前記最も近いクラスターの重心(7)間の3次元空間における絶対距離が既定の閾値θより大きく、かつクラスター(6)の数がまだ既定の最大値qより小さい場合、前記他の点を含む追加のクラスター(6)を作成する処理、もしくは
    iii)前記絶対距離が前記既定の閾値θよりも大きくない、またはクラスターの数が既に前記既定の最大値qに達している場合、前記他の点(5)を重心(7)が前記他の点(5)に最も近いクラスター(6)に追加する処理
    を実行するステップと
    を含む方法に従って実行される前記方法。
  5. 請求項4に記載のボリューム認識方法であって、前記点(5)をクラスター(6)に分類するステップは、さらに、
    a)前記クラスター(6)のうちの二つが接続されているかを判定するステップと、
    b)接続されているクラスター(6)を合体させるステップと
    を含む前記方法。
  6. 請求項5に記載のボリューム認識方法であって、前記クラスター(6)のうちの二つが接続されているかを判定するステップが、
    a)前記二つのクラスター(6)の重心(7)を繋ぐ軸(8)に沿った該二つのクラスター(6)の各々の点(5)の投影の分布に関する標準偏差を計算するステップと、
    b)既定の係数S、例えば2、が掛けられた前期標準偏差の和が前記二つのクラスター(6)の重心(7)間の絶対距離より大きいかどうかをチェックするステップとを含む前記方法。
  7. 請求項1から6のいずれか1項に記載のボリューム認識方法であって、前記画像システム(3)はTOF3次元カメラ、ステレオカメラ、3次元空間の異なる位置に配置された複数のカメラ、またはLIDAR、ソナーもしくはレーダーシステムを含む前記方法。
  8. 請求項1から7のいずれか1項に記載のボリューム認識方法であって、前記画像データは、少なくとも各点(5)の奥行き成分、天頂成分、および方位角成分を含み、さらにこれら点(5)のうちの少なくともいくつかの奥行き成分、天頂成分、および方位角成分を3次元の直交座標系に変換するステップを含む前記方法。
  9. 請求項1から8のいずれか1項記載のボリューム認識方法であって、前記興味の対象物(1)は、少なくとも人間の体の部分であり、好ましくは立っている体の部分である前記方法。
  10. 請求項9に記載のボリューム認識方法であって、さらに、
    前記体の胴(19)の近似された質量中心(17)と主軸(18)を計算するステップ
    を含む前記方法。
  11. 請求項10に記載のボリューム認識方法であって、前記胴(19)の近似された質量中心(17)と主軸(18)は、以下に示す、
    a)前記選択されたクラスター(6)の重心(7)と主軸(16)を計算するステップ、
    b)前記選択されたクラスター(6)の点(5)の、該選択されたクラスター(6)の前記主軸(16)に対する距離の分布曲線(20)を計算するステップ、
    c)前記分布曲線(20)における変曲点(21)を計算するステップ、
    d)前記選択されたクラスター(6)の前記主軸(16)に対する距離がD・sより小さい点(5)を選択するステップであって、sは前記変曲点(21)から前記選択されたクラスター(6)の前記主軸(16)への距離であり、Dは高くて1.25、好ましくは高くて1の係数であるステップ、
    e)前記胴(19)の前記質量中心(17)および主軸(18)を、前記選択された点(5)の重心および主軸として計算するステップ
    を実行することにより計算される前記方法。
  12. 請求項10または11に記載のボリューム認識方法であって、前記胴(19)の質量中心(17)および/または主軸(18)の位置および/または前記胴(1)の主軸(18)の向きに従ってデータ処理システム(2)に信号が送られる前記方法。
  13. 請求項10から12のいずれか1項に記載のボリューム認識方法であって、さらに、前記体の高さを測定するステップを含む前記方法。
  14. 請求項13に記載のボリューム認識方法であって、前記体の高さは、前記胴(19)の主軸に対して既定の距離より近い前記選択されたクラスター(6)内の点(5)の高さを計算し、前記点の高さを、好ましくは中央値でフィルタリングし、フィルタリング後の前記点の高さの最大値を選択することにより測定される前記方法。
  15. 請求項14に記載のボリューム認識方法であって、前記体の高さの測定は、前記胴(19)の主軸(18)が実質的に垂直であるなど、条件が合っている場合のみ妥当であると見做される前記方法。
  16. 請求項1から15のいずれか1項に記載のボリューム認識方法であって、前記サブクラスターの集合に関わる前記大きな塊(12)は、データ処理システム(2)によって生成される仮想環境で表示される前記方法。
  17. 請求項16に記載のボリューム認識方法であって、前記仮想環境の要素(14)の集合と相互作用できるように、前記サブクラスターに関わる大きな塊(12)の表示と、該仮想環境の要素(14)の集合との衝突および/または近接のチェックを行う前記方法。
  18. 請求項1から17のいずれか1項に記載のボリューム認識方法であって、前記サブクラスター間の繋がり(28)の集合は、例えば該サブクラスターの重心(11)間の絶対距離、該サブクラスター間の点(5)の存在などの判定基準により形成される前記方法。
  19. 請求項18に記載のボリューム認識方法であって、前記興味の対象物(1)の端部(29)の集合は、前記繋がり(28)に従って識別される前記方法。
  20. 請求項19に記載のボリューム認識方法であって、少なくとも前記端部(29)のうちの一つが、既定のパターン、例えば人間の体のパターンに従ってラベル付けされる前記方法。
  21. 請求項19または20に記載のボリューム認識方法であって、前記端部(29)のうちの少なくとも一つの絶対および/または相対位置ならびに/もしくは動きに従ってデータ処理システム(2)に信号が送られる前記方法。
  22. 複数の点(5)を表示する3次元の画像データをキャプチャするための画像システム(3)を含むボリューム認識システムであって、
    各点(5)は少なくとも3次元空間の座標の集合を有し、前記点(5)の少なくともいくつかは前記画像システム(3)の範囲内に配置された興味の対象物(1)に対応し、
    データ処理システム(2)が、前記画像システム(3)に接続され、かつ該画像システム(3)と協働して、請求項1から21に記載のボリューム認識方法を実行するためにプログラムされている前記システム。
JP2010503361A 2007-04-20 2007-04-20 ボリューム認識方法およびシステム Active JP5255623B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2007/053895 WO2008128568A1 (en) 2007-04-20 2007-04-20 Volume recognition method and system

Publications (2)

Publication Number Publication Date
JP2010525432A true JP2010525432A (ja) 2010-07-22
JP5255623B2 JP5255623B2 (ja) 2013-08-07

Family

ID=38862109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010503361A Active JP5255623B2 (ja) 2007-04-20 2007-04-20 ボリューム認識方法およびシステム

Country Status (13)

Country Link
US (1) US8175374B2 (ja)
EP (1) EP2095296B1 (ja)
JP (1) JP5255623B2 (ja)
KR (1) KR101184170B1 (ja)
CN (1) CN101715581B (ja)
AU (1) AU2007351713B2 (ja)
BR (1) BRPI0721562A2 (ja)
CA (1) CA2684523A1 (ja)
HK (1) HK1143229A1 (ja)
IL (1) IL201499A (ja)
MX (1) MX2009011251A (ja)
NO (1) NO20093390L (ja)
WO (1) WO2008128568A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137989A (ja) * 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
JP2014501415A (ja) * 2011-01-05 2014-01-20 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
JP2014524016A (ja) * 2011-06-24 2014-09-18 ソフトキネティック ソフトウェア 深度測定の品質の向上
JP2015109111A (ja) * 2015-03-09 2015-06-11 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法
JP2015212942A (ja) * 2014-04-25 2015-11-26 グーグル インコーポレイテッド レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2017004158A (ja) * 2015-06-08 2017-01-05 シャープ株式会社 自律走行装置
JP2017530433A (ja) * 2014-10-02 2017-10-12 グーグル インコーポレイテッド 見通し外レーダ型ジェスチャ認識
WO2022091706A1 (ja) * 2020-10-28 2022-05-05 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5085573B2 (ja) * 2009-01-13 2012-11-28 新日本製鐵株式会社 欠陥検査方法および欠陥検査装置
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
KR101651568B1 (ko) * 2009-10-27 2016-09-06 삼성전자주식회사 3차원 공간 인터페이스 장치 및 방법
GB2475104A (en) * 2009-11-09 2011-05-11 Alpha Vision Design Res Ltd Detecting movement of 3D objects using a TOF camera
CN102103696A (zh) * 2009-12-21 2011-06-22 鸿富锦精密工业(深圳)有限公司 人脸辨识系统、方法及具有该系统的身份识别装置
EP2339507B1 (en) 2009-12-28 2013-07-17 Softkinetic Software Head detection and localisation method
EP2357608B1 (en) 2009-12-28 2012-11-21 Softkinetic Software Tracking method
EP2357605B1 (en) 2009-12-28 2013-01-16 Softkinetic Software Stabilisation method and computer system
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8396252B2 (en) * 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8933886B2 (en) 2010-06-17 2015-01-13 Panasonic Intellectual Property Corporation Of America Instruction input device, instruction input method, program, recording medium, and integrated circuit
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8928659B2 (en) * 2010-06-23 2015-01-06 Microsoft Corporation Telepresence systems with viewer perspective adjustment
US8381976B2 (en) * 2010-08-10 2013-02-26 Honeywell International Inc. System and method for object metrology
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US9304592B2 (en) 2010-11-12 2016-04-05 At&T Intellectual Property I, L.P. Electronic device control based on gestures
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
MY163422A (en) * 2011-03-02 2017-09-15 Genscape Intangible Holding Inc Method and system for determining an amount of a liquid energy commodity in storage in an underground cavern
DE102011102038A1 (de) 2011-05-19 2012-11-22 Rwe Effizienz Gmbh Heimautomatisierungssteuerungssystem sowie Verfahren zum Steuern einer Einrichtung eines Heimautomatisierungssteuerungssystems
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US8913821B1 (en) * 2011-09-26 2014-12-16 Google Inc. Preconditioner for solving linear equations for reconstructing three-dimensional structure of a scene
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
KR101901588B1 (ko) * 2012-01-02 2018-09-28 삼성전자주식회사 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자 생성 장치
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
EP2674913B1 (en) * 2012-06-14 2014-07-23 Softkinetic Software Three-dimensional object modelling fitting & tracking.
KR101387892B1 (ko) * 2012-06-29 2014-04-21 인텔렉추얼디스커버리 주식회사 온도 정보를 사용한 동작 인식 장치 및 방법
CN103577789B (zh) * 2012-07-26 2018-02-13 中兴通讯股份有限公司 检测方法和装置
JP5934070B2 (ja) * 2012-09-26 2016-06-15 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9709990B2 (en) * 2012-12-21 2017-07-18 Toyota Jidosha Kabushiki Kaisha Autonomous navigation through obstacles
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20140267611A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Runtime engine for analyzing user motion in 3d images
US9633483B1 (en) * 2014-03-27 2017-04-25 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
DE102014107683B3 (de) * 2014-06-02 2015-10-01 Insta Elektro Gmbh Verfahren zum Betreiben einer Gebäudeinstallation mit einem Situationswächter sowie Gebäudeinstallation mit einem Situationswächter
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10311638B2 (en) * 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US20160178991A1 (en) * 2014-12-22 2016-06-23 Google Inc. Smart illumination time of flight system and method
US10207185B2 (en) * 2015-03-07 2019-02-19 Sony Interactive Entertainment America Llc Using connection quality history to optimize user experience
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US10282177B2 (en) * 2015-03-24 2019-05-07 Vmware, Inc. Application user interface overlays for application lifecycle management
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
JP6427279B2 (ja) 2015-04-30 2018-11-21 グーグル エルエルシー ジェスチャの追跡および認識のための、rfに基づいた微細動作追跡
CN107430443B (zh) 2015-04-30 2020-07-10 谷歌有限责任公司 基于宽场雷达的手势识别
KR102011992B1 (ko) 2015-04-30 2019-08-19 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
CN104778718B (zh) * 2015-05-07 2017-11-21 西安电子科技大学 基于3d模型的单幅图像卡车体积测量方法
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10074191B1 (en) 2015-07-05 2018-09-11 Cognex Corporation System and method for determination of object volume with multiple three-dimensional sensors
US9922244B2 (en) * 2015-09-03 2018-03-20 Gestigon Gmbh Fast and robust identification of extremities of an object within a scene
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
EP3371855A1 (en) 2015-11-04 2018-09-12 Google LLC Connectors for connecting electronics embedded in garments to external devices
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10902560B2 (en) 2016-03-31 2021-01-26 Sony Depthsensing Solutions Sa/Nv Or relating to filters
US10262222B2 (en) 2016-04-13 2019-04-16 Sick Inc. Method and system for measuring dimensions of a target object
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
US10175781B2 (en) 2016-05-16 2019-01-08 Google Llc Interactive object with multiple electronics modules
CN107583276B (zh) * 2016-07-07 2020-01-24 苏州狗尾草智能科技有限公司 游戏参数控制方法、装置及游戏控制方法、装置
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
US10677905B2 (en) * 2017-09-26 2020-06-09 Infineon Technologies Ag System and method for occupancy detection using a millimeter-wave radar sensor
US10842412B2 (en) 2017-10-31 2020-11-24 Pixa4 Llc Systems and methods to estimate human length
CN108280443A (zh) * 2018-02-23 2018-07-13 深圳市唯特视科技有限公司 一种基于深特征提取异步融合网络的动作识别方法
US11967149B2 (en) * 2021-06-09 2024-04-23 International Business Machines Corporation Increasing capabilities of wearable devices using big data and video feed analysis

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282459A (ja) * 1992-04-02 1993-10-29 Mitsubishi Electric Corp カラー画像の限定色表示装置
JP2001160077A (ja) * 1999-12-02 2001-06-12 Osaka Gas Co Ltd 行動シミュレーション装置及び空間評価装置
JP2002056392A (ja) * 2000-05-11 2002-02-20 Toshiba Corp 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム
US20020050924A1 (en) * 2000-06-15 2002-05-02 Naveed Mahbub Occupant sensor
US6771818B1 (en) * 2000-04-04 2004-08-03 Microsoft Corporation System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU1916100A (en) 1998-11-17 2000-06-05 Holoplex, Inc. Stereo-vision for gesture recognition
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2002352200A (ja) 2001-05-29 2002-12-06 Dainippon Printing Co Ltd Rfidタグ交信用の手袋
US7274800B2 (en) 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US20040193313A1 (en) 2003-01-14 2004-09-30 Benoit Cornet Kiosk system
KR100553712B1 (ko) 2004-05-04 2006-02-24 삼성전자주식회사 리세스 채널을 가지는 선택 트랜지스터가 구비된 비휘발성메모리 소자 및 그 제조방법
US7646902B2 (en) * 2005-02-08 2010-01-12 Regents Of The University Of Michigan Computerized detection of breast cancer on digital tomosynthesis mammograms
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282459A (ja) * 1992-04-02 1993-10-29 Mitsubishi Electric Corp カラー画像の限定色表示装置
JP2001160077A (ja) * 1999-12-02 2001-06-12 Osaka Gas Co Ltd 行動シミュレーション装置及び空間評価装置
US6771818B1 (en) * 2000-04-04 2004-08-03 Microsoft Corporation System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions
JP2002056392A (ja) * 2000-05-11 2002-02-20 Toshiba Corp 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム
US20020050924A1 (en) * 2000-06-15 2002-05-02 Naveed Mahbub Occupant sensor
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199700279009; 苗村 健 Takeshi Naemura: '3次元画像情報技術' 画像情報工学と放送技術 第50巻 第9号 THE JOURNAL OF THE INSTITUTE OF TELEVISION ENGINEERS OF JA 第50巻第9号, 19960920, 1335〜1344ページ, 社団法人テレビジョン学会 THE INSTITUTE OF TELEVIS *
JPN6011046492; 苗村 健 Takeshi Naemura: '3次元画像情報技術' 画像情報工学と放送技術 第50巻 第9号 THE JOURNAL OF THE INSTITUTE OF TELEVISION ENGINEERS OF JA 第50巻第9号, 19960920, 1335〜1344ページ, 社団法人テレビジョン学会 THE INSTITUTE OF TELEVIS *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137989A (ja) * 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
US9465443B2 (en) 2010-12-27 2016-10-11 Sony Corporation Gesture operation input processing apparatus and gesture operation input processing method
JP2014501415A (ja) * 2011-01-05 2014-01-20 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
JP2014225288A (ja) * 2011-01-05 2014-12-04 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
US9081419B2 (en) 2011-01-05 2015-07-14 Softkinetic Software Natural gesture based user interface methods and systems
KR101554082B1 (ko) * 2011-01-05 2015-09-17 소프트키네틱 소프트웨어 자연스러운 제스처 기반 사용자 인터페이스 방법 및 시스템
JP2014524016A (ja) * 2011-06-24 2014-09-18 ソフトキネティック ソフトウェア 深度測定の品質の向上
JP2015212942A (ja) * 2014-04-25 2015-11-26 グーグル インコーポレイテッド レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2017530433A (ja) * 2014-10-02 2017-10-12 グーグル インコーポレイテッド 見通し外レーダ型ジェスチャ認識
JP2015109111A (ja) * 2015-03-09 2015-06-11 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法
JP2017004158A (ja) * 2015-06-08 2017-01-05 シャープ株式会社 自律走行装置
WO2022091706A1 (ja) * 2020-10-28 2022-05-05 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム

Also Published As

Publication number Publication date
MX2009011251A (es) 2009-12-14
IL201499A0 (en) 2010-05-31
EP2095296B1 (en) 2014-01-01
CN101715581A (zh) 2010-05-26
AU2007351713A1 (en) 2008-10-30
US20100208035A1 (en) 2010-08-19
KR20100017212A (ko) 2010-02-16
US8175374B2 (en) 2012-05-08
KR101184170B1 (ko) 2012-09-19
AU2007351713B2 (en) 2011-11-17
CN101715581B (zh) 2014-07-23
NO20093390L (no) 2010-01-20
IL201499A (en) 2013-12-31
CA2684523A1 (en) 2008-10-30
BRPI0721562A2 (pt) 2013-01-22
EP2095296A1 (en) 2009-09-02
JP5255623B2 (ja) 2013-08-07
HK1143229A1 (en) 2010-12-24
WO2008128568A1 (en) 2008-10-30

Similar Documents

Publication Publication Date Title
JP5255623B2 (ja) ボリューム認識方法およびシステム
US8223147B1 (en) Method and system for vision-based interaction in a virtual environment
KR101141087B1 (ko) 제스처-기반 사용자 상호작용의 프로세싱
US8630457B2 (en) Problem states for pose tracking pipeline
US9344707B2 (en) Probabilistic and constraint based articulated model fitting
CN102222431A (zh) 基于机器的手语翻译器
KR20110139694A (ko) 제스쳐 인식 방법 및 시스템
TWI413018B (zh) 體積識別方法及系統
JP6817770B2 (ja) 画像処理装置、画像処理方法
JP2015053025A (ja) 動的画像分析システム及び動的画像分析方法
Schlattmann Real-time markerless tracking the human hands for 3D interaction.

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110902

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111202

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120808

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120815

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120823

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130419

R150 Certificate of patent or registration of utility model

Ref document number: 5255623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S631 Written request for registration of reclamation of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313631

S633 Written request for registration of reclamation of name

Free format text: JAPANESE INTERMEDIATE CODE: R313633

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250