JP4355341B2 - 深度データを用いたビジュアルトラッキング - Google Patents

深度データを用いたビジュアルトラッキング Download PDF

Info

Publication number
JP4355341B2
JP4355341B2 JP2006530715A JP2006530715A JP4355341B2 JP 4355341 B2 JP4355341 B2 JP 4355341B2 JP 2006530715 A JP2006530715 A JP 2006530715A JP 2006530715 A JP2006530715 A JP 2006530715A JP 4355341 B2 JP4355341 B2 JP 4355341B2
Authority
JP
Japan
Prior art keywords
depth
contour
segment
target object
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006530715A
Other languages
English (en)
Other versions
JP2007514211A5 (ja
JP2007514211A (ja
Inventor
希久雄 藤村
ハーシュ,ナンダ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2007514211A publication Critical patent/JP2007514211A/ja
Publication of JP2007514211A5 publication Critical patent/JP2007514211A5/ja
Application granted granted Critical
Publication of JP4355341B2 publication Critical patent/JP4355341B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Air Bags (AREA)
  • Image Processing (AREA)

Description

本発明は一般にリアルタイムのコンピュータビジョンに関し、特にコンピュータを用いた移動する対象物のコンピュータビジュアルトラッキングに関する。
人間とコンピュータとの相互関係「HCI(Human-Computer Interaction)」等のリアルのタイムコンピュータビジョンの多くの分野において、トラッキングは重要な構成要素である。HCIの一応用例としては、運転者のモニタが挙げられる。この分野では、頭部の向きや身体の傾斜を測定するために様々な技術が用いられてきた。この情報は、例えばエアバッグ展開システムや安全システムにおける注意喚起や疲労監視に用いることができる。運転者の頭部およびその他の身体部分の空間位置のトラッキングすることで、これら及びその他のHCIシステムの操作が容易となっている。
従来のトラッキングシステムは、通常、二次元(2D)のグレーまたはカラー画像に基づく。テンプレートあるいは確率論的画像フレームワークを用いる方法が、十分に機能しない状況がある。従来のトラッキングアルゴリズムは、周囲環境が混乱していると失敗することが多い。その失敗の原因は、検証されている仮定が真の目標の物体を識別できないからである。目標の物体が周囲(例えば背景)と比べて明らかに深度が異なる場合でも、目標の物体ではない周囲の環境物体に起因する周縁部の不確定性により、この問題が主に起こっている。この影響は、例えば頭部トラッキング、人体トラッキング、手の動きのトラッキングなどを含む、多くの重要なトラッキング用途に共通している。従って従来のシステムを用い、前景の目標の物体を背景物体と区別することは簡単な作業ではない。
従来のトラッキング法に共通するこの問題は、基本的には、目標の物体の周囲環境の背景が乱れている時に目標の物体が失われてしまうことである。トラッキングアルゴリズムの基礎となる輪郭またはパターンを乱す照明条件が変化する時にも類似の問題が生じる。このトラッキング問題を解決するため多くの種々の手法が採られている。ある従来システムは輪郭情報を用い、他の手法では立体画像システムからの深度、強度および色分布やこれらの特徴の組み合わせを用いている。
いくつかのシステムは、トラッキング機能を支援するために目標の物体の深度の特徴を用いることを試みている。例えば、立体(デュアルカメラ)システムをモデルフィッティング手法によって頭部をトラッキングするために用いている。これらの中のいくつかは、立体画像を用いているが、依然として他の強度を基本とする情報に依存しているか、あるいは、立体画像だけを用いるのであれば、計算を多用したアルゴリズムと共に用いられている。
このように、(1)リアルタイムの画像データと、(2)計算を多用しないアルゴリズムの使用と、(3)簡単で、かつ単一のカメラシステムの使用と、に基づくトラッキング方法およびシステムが求められている。
深度感知カメラを用いて目標の物体のリアルタイムトラッキングを行うためのコンピュータ処理を用いた方法が記載されている。この方法は、リアルタイムで映像イメージストリームの深度情報を受信することを含んでいる。この映像深度情報は、トラッキングする目標の物体の画像を含んでいる。深度情報に基づいて深度画像における目標の物体の外周縁部が見出される。次に目標の物体の形状をモデリングする数学的に表わされる輪郭をその画像中の異なる位置に合わせ、目標の物体の縁部に最適合するものを見つける。この画像内の輪郭と位置から目標の物体のトラッキングが行われる。
これらの動作原理に基づく人間とコンピュータとの相互関係システムは、コンピュータ制御入力として人間の運動を視覚的にトラッキングすることができる。このシステムは、人間の深度画像を取り込むための能動深度センサを備える。演算装置は、深度画像を受取って制御入力情報を取り出す。このため演算装置は、どの光電素子(ピクセル)がトラッキングする人物の周縁部に相当するかを画像データから決定するように構成された周縁部検出モジュールを備える。次に、トラッキングする人物(または人物の身体の部分)を描いている輪郭を用いて、トラッキングモジュールは、画像内の周縁部に対してその輪郭を最も良く適合する方法を決定する。最適合部分に基づいて、取り込まれた深度画像内の目標の物体の位置が与えられる。この位置情報は、次いで例えば手振り、腕の運動等をコンピュータの命令に応じて認識する他の機械的視認技術を用いるために使用することができる。
さらに、この人間とコンピュータとの相互関係システムは、胴体の傾斜を決定するモジュールを備え、位置情報を得て、能動センサに関する一つまたはそれ以上の胴体部分の平均距離をそれぞれ計算する。その後にそれぞれの胴体部分の平均距離を他の胴体部分に関連させることによって、モジュールは胴体の傾斜情報を決定する。この胴体の傾斜情報は、例えばエアバッグの展開を制御する車両制御装置に用いることができる。
一実施形態では、自動車は様々な目的のために、搭乗者の胴体の傾斜情報をトラッキングするよう構成されている。自動車は搭乗者の深度画像を取り込むために能動深度センサを装備している。上記のモジュールと類似の周縁部検出モジュールとトラッキングモジュールとを備えた演算装置は、車両の他の制御ロジックにトラッキングデータを提供することができる。このトラッキングデータは、運転者支援技術、エアバッグ展開等に用いることができる。
本明細書に記載された特徴および利点はすべてを包括しているわけではなく、特に、他の多くの特徴および利点が、図面、明細書および特許請求の範囲より当業者にとって自明であろう。さらに本明細書で用いた用語は、原則として読みやすさと教示を目的として選択されたものであり、本発明の主題を叙述または制限するため選択されたものではない事に留意されたい。
図面と以下の記述は、単に例示による本発明の好ましい実施形態に関する。以下の考察から本明細書で開示されている構造ならびに方法についての代替の実施形態は、本願が請求する原理から逸脱することなしに用いることのできる実施可能な代替であるとして容易に認識されよう。
図1Aを参照すると、上半身の位置が異なる運転者の深度画像が、楕円トラッキングシステムの出力によって示されている。深度画像は、深度値に基づくピクセル強度の変化を用いてビジュアル的に示されている。すなわち、カメラに近い物体は明るく、順次暗くなり、最後に深度ウィンドウより外側の背景は黒色として示される。特定の距離範囲、もしくは深度ウィンドウ内の物体についての深度情報を取り込む、または感知するため、深度センサを取り付けることができる。この深度情報の取り込み、または感知がリアルタイムで行われ、深度画像または画像フレームのストリームが生成される。この深度センサは、例えばビデオ、フィルム、デジタルビデオ等の映画用カメラとして機能するが、これは複合画像情報を出力する。この複合画像情報にはそれぞれのピクセルの深度情報が含まれている。例えば、複合画像または深度画像は一般にピクセルの座標、色度、深度値およびその他の一般的な画像データを含んでいる。深度感知型カメラを用いる利点は、シャッタ速度を制御して深度ウィンドウを設定可能なことある。例えば図1Bは、人物の右手をトラッキングするトラッキング装置の一実施形態の出力画像を示している。画像に示すように、トラッキング目標の右手101がトラッキングされる一方で、人物の胴体102と頭部103は距離範囲の周縁部にあり、トラッキングされていない物体によって深度情報が乱れることを避けるために背景は除外している。別の例として、運転者の姿勢トラッキングの(例えば図1Aに示すような)応用例では、カメラの深度ウィンドウを、ハンドルの領域から(Dmin)運転者のヘッドレスト110(Dmax)までの範囲に設定することができ、これにより例えば後部座席の乗員の動きに基づく深度データによって深度情報が乱れることを避けている。
図2は、深度感知カメラを用いたトラッキングシステムの一例を示す。深度感知カメラ202は飛行時間(time-of-flight)の原理に従って動作するため、タイムオブフライトカメラと呼ばれる。トラッキングシステム200の一実施形態は、例えば3DV Systems社(イスラエル、Yokneam)、またはCanesta株式会社(カリフォルニア州、San Jose)により製造された1台の深度感知カメラ202を備える。タイムオブフライトカメラ202は、トラッキングされている目標の物体206が動き回るDminからDmaxの領域を含む深度ウィンドウ204に撮像設定される。この手法の利点の一つは、トラッキングしない物体208、例えば、背景物体の深度画像情報を作らないことである。深度感知カメラ202はトラッキングコンピュータ210に接続される。一実施形態において、トラッキングコンピュータ210は、例えばIntel社(カリフォルニア州、Santa Clara)のIntel画像処理ライブラリーのような画像処理ライブラリーを含み、Intel社製の1.2GHz、ペンティアム(登録商標)IIIプロセッサ上で毎秒14フレーム(320×240ピクセル)で動作する。別の実施形態においては、深度感知カメラ202はロボットの視覚装置の一部であって、トラッキングコンピュータはロボット、例えば本田技研工業株式会社(日本、東京)の人間型ロボットASIMO(登録商標)の制御ロジック内のモジュールである。さらに車両内のデータプロセス制御におけるトラッキングモジュール210に接続された、例えばエアバッグ展開制御用の車両室内のタイムオブフライトカメラ202を含む。
飛行時間の原理に従って動作する深度感知カメラ202は、同じ光学軸を用いてリアルタイムで深度と色の情報を同時に取得することができる。さらに、タイムオブフライトカメラは深度情報が記録される作動範囲(Dmin〜Dmax)に相当する深度ウィンドウ204を設定するという有利な特徴を備えている。この独特な特徴は、Dmaxを画像化される主題または目標の物体206の背後に設定することによって取り込む画像から所定深度を超えている目的物体を取り除き、背景の乱れを除去する。
画像取得方法は深度感知カメラ202による能動感知に基づくもので、赤外線発光パルスが目標の物体206に投影され、センサが目標の物体206から反射されたエコー信号を読み取る。さらにこの装置は高速シャッタを備え、それによりそのエコー信号がセンサに入力される目的物体に対する感知範囲、すなわち深度ウィンドウ204を制御する。遠方の物体208に対しては、エコーはシャッタが閉じた後に装置に達するので、この物体に対しては信号が記録されない。すなわち背景となる物体208の殆どは、記録場面には現われない。
立体システムと比較して深度感知トラッキングシステム200はいくつかの改良された特徴を備えている。例えば、室内の周囲環境にセンサが用いるパルスと同じ波長の光が含れていない限り、画像は照明によって変化しない。任意の設定範囲における性能も立体システムより改善されている。すなわち、距離の誤差は、0.5〜3mの範囲の深度ウィンドウ204で5〜15mm程度である。別々に対応する深度画像(例えば、それぞれのピクセルに対し8個の追加ビット)において、リアルタイムで深度情報を記録することができる。この定義により、例えば身振り認識に用いられるシステム200における手と胴体の他の部分などの画像要素の間の十分な間隔が得られる。更に深度情報と色情報とがリアルタイム速度(例えば30フレーム/秒)で取り込まれ、事実上同一場面の深度と色の画像を生成する。(壁のような)テクスチャーを用いずに目的物体の距離を感知する性能は、それぞれのカメラの画像間の違いを区別できない立体システムより遥かに優れている。これら総ての改良された特徴およびその他の特徴は、従来の立体システムの複数のカメラではなく、単一カメラトラッキングシステム200によって得られる。また、単一カメラシステム200を用いることによって、2台もしくはそれ以上の従来の立体式システムにおける複数のカメラ間の校正が不要になるという、更なる利点が得られる。
(ポテンシャル領域)
図3は、サンプルエッジポテンシャル変換マップを伴う深度画像を示す。変換マップ300はポテンシャル領域中でアトラクタとして描かれている、トラッキングする目標の物体206を含む。目標の物体の周縁から外側のそれぞれの点302は、その点が、基準値(例えばポテンシャル「0」)を与えている目標の物体の周縁部301からどれだけ離れているかを示す値と関連している。アトラクタの正確な位置は分からないが、すなわち、これがトラッキングされているので、画像の周縁部を用いて近似的なポテンシャル領域を作成する。(ポテンシャル領域として表わされた)「風景」の形状を定義するポテンシャル関数には多少のばらつきがある。一実施形態においては計算を速めるため距離変換を用いる。特に点pと一連の点Yの間の距離Dは、pとpに最も近いYの中の点(すなわち、距離Dが計算される外側の点302に最も近い目標の物体の周縁部301の外郭線上の点)との間のマンハッタン距離として定義される。
Figure 0004355341
この基準を用いて、目標の物体の周縁部のそれぞれの点301が基準値、例えば値「0」ポテンシャルであり、目標の物体の周縁部外の各点302が、例えば図3に示すような最も接近している周縁部の点301までのマンハッタン距離に対応する値Dであるポテンシャル領域を決定することができる。一連のポテンシャル値によって定義された輪郭の目視表示を図4Aに示す。
図4Aは、目標の物体の深度画像に対応するポテンシャル領域のプロファイル、すなわち「景色」を示している。最も低い点すなわち谷間402は対応する深度画像における目標の物体の周縁部301に対応している。この輪郭のその他の点は深度画像における隣接点のポテンシャル値(例えばD)をグラフ表示してある。従って、「丘」404は完全に「谷間」によって囲まれているので、例えば目標の物体の頭部404の表示を検出し、目標の物体の胴部406と判別することができる。点の同心状等距離線は、縁部の点301から最も遠い点302に対応している「丘」の頂きで局地的最大値に到達するよう定義することができる。反対方向では、点302は一般に画像の周縁部に向かって緩い傾斜402の形で増大する。「谷間」402は、周縁部の点301によって形成され、最もポテンシャルの低い領域408を形成する。この領域は、本参考実施形態では楕円形の数学的に表示可能な輪郭410に合わせることができる。以下にさらに詳述するような画像データ解析をすると、目標の物体を含んでいそうな画像(調査領域S)の座標軸が得られる。このようにして例えば図4Aにおいて、胴部の反対側にある人物の頭部をトラッキングするのであれば(すなわち頭部が目標の物体となる)、調査領域Sは輪郭400の右側を含まないようになる。このようにして、一般的な調査領域Sに制限を加えることによって、ポテンシャルの低い領域408aだけがこの制限に適合し、胴部に対応するポテンシャルの低い領域408bを無視することができる。
ポテンシャル領域を計算する場合、輪郭410とポテンシャルの低い領域408aとの近接度合は距離の関数によって与えられる。例えば数学的に表現可能な輪郭410(X)の点は、全体として目標とするポテンシャルの低い領域408aを構成する一連の点301(Y)と比較されるべきものであるとすると、一実施形態において、二組の点X(例えば輪郭410)とY(例えば目標の物体周縁部408a)との間の距離は、面取り距離と呼ばれる式で定義される。
Figure 0004355341
この場合、集合Xの各点xと、集合Yとの間のマンハッタン距離Dを、集合Xの一連の点にわたって加算する。この尺度は、以下に記載する最良の適合を決定するための、いくつかの「最も妥当な」輪郭410の位置または状態の比較に用いることができる。
一実施形態によれば、目標の物体をトラッキングするアルゴリズムは次の基準を含んでいる。
Figure 0004355341
この実施形態において、sは輪郭410の状態に対応し、一方、Sは総ての想定される状態を含む輪郭sの調査スペースで、sは現在の状態の近傍を取り込むことができる。符号Iは特別な深度画像またはフレームに対応する周縁部マップ400を表すために用いられる。最初のフレームに対して目標位置sが推定され、以降のフレームに対しては、画像位置sの近傍におけるt+1における次の目標の状態s、すなわちst+1を見つけるための調査領域を画定するため、先行する画像sからの最終位置が用いられる。
それぞれの目標状態sの候補に対し、現実の目標の物体周縁部408aとの輪郭410の全体的な適合性が査定され、最も小さい全体的整合値(ポテンシャル値)を有するものが最も適合性の高い輪郭として選択される。例えば、この適合値は周縁部の点408a(Y)から輪郭410(X)までのポイント距離dist()の合計とすることができる。輪郭410としては、多くの数学的に示すことのできる形状または曲線は、いずれのものでも用いることができ、例えば楕円、矩型、正方形、卵型、自由形状の曲線などが挙げられる。一実施形態においては、軸に対する一定のアスペクト比率を用いることでその位置とサイズを容易に変化させることができるため、楕円を用いている。
(楕円形の頭部トラッキング)
頭部の検出とトラッキングの一実施形態において、人物の頭部の二次元投影を一定のアスペクト比率1.2の垂直楕円としてモデリングする。これは長軸がh、短軸がh/1.2のことである。そして、所定の瞬間における頭部(楕円)sの状態は三重項(x,y,h)で表わされる。ここでは、(x,y)は画像座標システムにおける頭部の中心位置で、hは画像における頭部の投影モデルを描くため用いた楕円の長軸の長さである。他の実施形態においては、トラッキングされた目標の物体は、例えば中心位置と半径、すなわち円形(x、y、c)と、中心位置と側部の長さ、すなわち正方形(x,y,l)、または別の位置と、一連の点の間に関連する数学的な関係(すなわち輪郭410)等の数学的に表わすことのできる状態sにより、そのモデリングをすることができる。以下に論じるように、この実施形態においては、予想される頭部の状態の近傍の調査領域Sで楕円測定の最適化を試みることにより頭部トラッキングが行われる。
図4Bは、楕円形頭部のトラッキングの実施形態を示している。楕円410の状態s=(x,y,h)および深度画像Dに対応する勾配画像Iが408であるとして、Iに関するsの測定を行なうと、画像Iの位置(x,y)において、サイズhの楕円計測がなされる。一実施形態では、この楕円に対する計測は、ニシハラ氏等が「Real-time Tracking of People Using Stereo and Motion」と言う題目で、SPIE ProceedingsのVol.2183(1994)に提案したものであり、参照することにより本明細書に援用する。このため状態sの楕円計測は次式により行なわれる。
Figure 0004355341
式中、Is(i)は、画像Iにおける状態sの楕円のi番目の周辺ピクセルにおける距離勾配である。Nはサイズhの楕円の外周上のピクセルの数である。n(i)は、同じi番目の周辺ピクセルにおけるサイズhの楕円に対する標準的なユニットベクトルであり、「・」はドット積を表わす。この計測は、勾配の方向と距離との不連続性の大きさを考慮している。iとjの2点について図4Bに示すように、この計測値EMは、ドット積で求められているような距離の勾配の大きさと、楕円周縁との整列状態に比例する。例えば、楕円の状態sが目標頭部Iの輪郭と一致すると(すなわち点j)、そのような楕円の周縁の点でユニットベクトルn(j)は距離勾配ベクトルIs(j)(すなわちcos0゜=1)と同じ方向となり、このためこの計測値EMは距離勾配ベクトルの大きさに比例する(すなわち、
Figure 0004355341
)。さらに、完全な整合点であればあるほど、すなわち、輪郭と目標の物体周縁部との間の適合が良くなるほど、EM値は大きくなる。なぜなら、背景に対して深度が大きく変化するために、距離勾配の大きさが目標の物体周縁部で最大になるからである。したがって、可能な一連の状態の内で最も適合性の高いものを、得られたEM値と比較して決定することができる。これについては以下に述べる。
トラッキングを行なう目的で、時刻tおよびt−1における頭部の状態をそれぞれ、s=(x,y,h)、st−1=(xt−1,yt−1,ht−1)とすると、時刻t+1における頭部の位置は、速度が一定と仮定して予測される。頭部のサイズは変わらないものとして予測する。
Figure 0004355341
この簡単な運動モデルは、頭部の側方への速度についての制限を取り除くことにより、トラッキングシステムの性能を大きく向上させる。一定速度のモデルは加速量を制限するが、強固な入力特徴と、十分な調査ウィンドウがこれを補っている。頭部のサイズについては、実施してみると徐々に変化し、定量変化モデルには従わないことが分かった。調査スペースSは徐々に時々頭部サイズが変化することを考慮している。
楕円計測EMは時刻t+1における勾配画像Iについて、調査スペースSの総ての状態について計算する。(Sは予測される状態st+1の内の幾つかの範囲についてはその総てを含んでいる。)この調査における最大の楕円計測に対応する状態が、フレームt+1における頭部の状態として選択される。
Figure 0004355341
図4Bにおいて、輪郭410は最適合のもの(max.EM)が輪郭410から周縁部408までの距離計測が最小になる状態に対応しているため、目標の物体404の周縁部に対応するポテンシャルの低い谷間408に「落ち込んでいる」。これは輪郭410の周囲が目標の物体周縁部408と一致している時に起こる。
さらに本発明の一実施形態においては、例えば、トラッキングシステムを停止させたり、検出モジュールを始動させて新たな目標の物体頭部の予測位置を得たりするための基礎として、ドリフトティングを防止するための信頼性指標(CM)を計算する。画像Iについての状態sの信頼性指標は次のように定義される。
Figure 0004355341
式中、max.EM(ht+1)とmin.EM(ht+1)は、サイズht+1の楕円に対してこれまで観察されているEMの最大値と最小値である。信頼性指標が所定のしきい値より低くなると、適切な行動(例えばトラッキング装置の停止や検出モジュールのスタート等)をとる。
(画像構成成分に基づくポテンシャル領域のトラッキング)
特に深度情報を用いる物体のトラッキングに適した別の実施形態において、画像構成成分に基づくトラッキング法が実行される。構成成分を用いない実施形態とは異なり、目標の物体周縁部の「側面」が判別される、すなわち輪郭410のどちら側が高く(カメラから遠いか)またはどちら側が低いか(カメラに近いか)によって、輪郭410は目標の物体周縁部408の縁部断片に引き寄せられる。深度分布図における周縁部は、その向きが「どちらの側の周縁部480の深度値が大きいか」ということに基づいて自然に定義される。すなわち深度値が高いと外側の周縁部であり、他方で深度値が低いと内側、つまり目標の物体自身の部分である。
例えば、輪郭410(例えば楕円、矩型、正方形、円などを画定する一連の点X)をk個の部分に分割する(例えば、k側の楕円)。ここにkは通常は偶数(例えば2、4、6、8等)である。k個の部分は同じ部分に在るピクセルが同方向に配列されているように、それぞれ外側(深度値の高い部分)と内側(深度値の低い部分)とに画定され、各部分は配列方向が一致している時にだけ目標の物体の周縁部408の縁部セグメントに適合する。つまり縁部セグメントの外側の深度値が内側の深度値よりの大きい時にだけ輪郭の部分に適合する。このようにして、特に目標の物体の近くに真のものではない縁部が多数存在する時には、適合を修正する可能性が大きくなる。
dist()の計算はそれぞれの方向に対して1回、計k回行なわれる。例えば一実施形態においては、Iとsはそれぞれ、i番目の方向に対する周縁部画像と、i番目の方向のsの部分である。これは画像I(と部分s)が相互に関連していない(I=UI、同様にs=US)ということである。この実施形態によるトラッキング法は以下のように表わされる。
Figure 0004355341
さらに一実施形態においては、k個の部分または構成成分に、特定の目標の物体への方向に対する重要性を表わすために重み付けを行うことができる。例えば、人体トラッキングは水平側より垂直側に大きい重み付けが行われる。
図5は、単に二つの領域(上部の遠い領域と下部の近い領域)を含む単純な場面を示している。位置aにおける輪郭510(510aとして示す)が正しくトラッキング目標の物体508に適合しているとする。位置bにおける輪郭510(510bとして示される)は適合ミスであるが、周縁部の方向を区分しない実施形態では適合していると考えてもよい。位置cにおける輪郭510(510cとして示す)もまた適合ミスであるが、st+1がその一般的領域にあると予測する調査領域Sの評価が位置(a)にあるよりも低い局所的最低限度と考えられる。画像構成成分に基づかない実施形態では、位置(a)における輪郭510aと(位置(b)における)輪郭510bは殆ど等しい「適合点数」を得るだろう。しかし、この実施形態によれば輪郭510bは輪郭sの部分のそれぞれに対する適切な方向に合致していないため切り捨てられると考えられる。例えば、間違った方向で目標の物体に適合した輪郭の部分に対応する適合点に対してより大きい重み付けを与えて位置(a)で輪郭510aを形成したとしても、全体では、示された3個の輪郭の中で最も低い適合点を得ることになる。
図6は、トラッキング法の一実施形態を示す。この実施形態によれば、入力としてビデオ深度画像ストリームを受信する(ステップ601)。処理の対象となるストリーム中の最初のフレームを選択する(ステップ602)。最初のフレームに対しトラッキングされる目標の物体の周縁部が決定される(ステップ603)。決定された周縁部に基づいて目標の物体の全体的な調査領域を決定する(ステップ604)。調査領域内で対応するポテンシャル領域に基づいて、輪郭を目標の物体周縁部に重ねて適合させる(ステップ605)。例えば対応する楕円に適合する6個の代替する状態が得られ、これら6個の状態の中から最も適合性の良いものが選択される。「最適合」すなわち光学的な適合性が輪郭と目標の物体との間で決定すると、例えば光学座標値(x,y)ならびに関連する描画輪郭(例えば楕円輪郭のh)をトラッキングデータとして出力する(ステップ606)。推測される次のフレームの調査領域を決定する(ステップ607)。調査領域Sは次のフレームにおける予測される目標位置の近傍で確率的あるいは確定的に選択される。予測位置は、例えばカルマンフィルタを用いる定速仮定に基づくものである。停止命令が与えられないと(ステップ608)、次のフレームが選択され、適合ステップが繰り返される(ステップ609)。後続フレームを伴う調査領域の画定ステップ604は、この予測された調査領域と当面の画像フレームとをマッチングさせることを含む。ステップ608で停止命令を受け取ると、トラッキングは終了する(ステップ610)。
一実施形態において、ポテンシャル領域は輪郭適合プロセスを単純化するために用いられる。図7は、深度映像画像ストリームの所定のフレームのポテンシャル領域決定プロセス(700)の実施形態を示している。図3に示した例のように、フレーム画像をセグメント(例えばピクセル、ピクセルのセットなど)に分解する(ステップ702)。深度データ値をセグメント内で比較し、目標の物体の周縁部に対応するセグメントを決定する(ステップ704)。例えば隣接するセグメントと比較した時に深度差分が最大しきい値以上になるセグメントを、周縁部セグメントとみなす。これら周縁部セグメントに基準値が割り当て(ステップ706)、周縁部セグメント以外の他のセグメントに値を割り当てるためには、ある種の変換(一例として、ピクセル値に基づくマンハッタン距離変換)を用いる(ステップ708)。結果として得られる深度画像のポテンシャル領域は、数学的に表わされる輪郭に適合させるために用いることが出来る。例えば一実施形態では勾配ベクトルをポテンシャル領域に基づいて計算することができる。
図8を参照して、一実施形態においては、任意のフレームの輪郭適合プロセス(800)は、数学的に表わされる輪郭を、方向が固定された多数の部分に分割することを含む(ステップ802)。例えば、楕円は中心方向に対向し、凹面側に向く4個のアーチに分割することができる。まず、上述したような目標の物体の深度ビデオ画像フレームに対応する深度データまたはポテンシャル領域データを用いて、一部分を適合させる(ステップ804)。次に輪郭の部分が残っている限り次の部分を選択し(ステップ808)、上記のように目標の物体と重ねて適合する(ステップ804)。そして、適合する部分が他に残っていないと(ステップ806)、次の部分を選択し(ステップ808)、上記同様に目標の物体と重ねて適合する(ステップ804)。適合する部分が他に残っていないと(ステップ806)、第1予測状態における輪郭部分の組み合わせに対する適合値を計算する(ステップ810)。チェックすべき状態のある限り(ステップ812)、同じステップをそれぞれの状態において繰り返す。それぞれの状態に対する適合値は、調査領域S内の他の場所または状態における別の適合値と比較して、それらの中から目標の物体をトラッキングするための「最適合」を決定する(ステップ814)ために用いる。トラッキングデータを出力し(ステップ816)、このステップをストリームの後続フレームで繰り返す。
一実施形態においては、トラッキングシステムは部分的、かつ一時的な遮閉に対しても強固性を示している。図9はトラッキングされている目標の物体の手が完全に遮閉状態にあるフレームを示している。このフレーム900において、目標の物体の手101は完全にトラッキングされていない腕104の背後にある。トラッキング装置は目標の物体101の位置(例えば106で囲んだ位置)を予測し、再び手101が少し見えるようになると直ちに捕捉している(例えば図1B参照)。トラッキング装置は手101の部分的な遮閉に対しても強固性があることを証明している。他の実施形態ではトラッキング装置は、乗客の頭部が運転者によって遮ぎられてもトラッキング動作を継続し、また乗客が運転者の肩の上で眠っていて、長期にわたって頭部を覆い隠すような極端な場合の後にも動作している。この実施形態ではトラッキング装置は深度データからの形状だけに頼っているために、遮閉物体が全体的に同じ形状でないと、捕捉した目標の物体から動かなくする(部分的に遮られた場合)か、または完全に遮られた後に目標の物体を検出することができる。さらに上述のように、一実施形態において、本トラッキングシステムによって楕円計測に基づいて例えば信頼性指標CMが得られる。この実施形態においては、トラッキング装置は完全に遮閉されている間は追い払われてしまうのではなく、その代わりに遮閉の終了するまでトラッキング性能の信頼性指標CMの値を下げる(すなわち、更に高い信頼性指標値が得られる)。
(胴体の傾斜予測)
頭部トラッキングシステムの一実施形態は胴体傾斜予測装置を含む。胴体傾斜の予測は、例えばエアバッグ展開システムを補助するものとして用いられる。エアバッグは世界中で毎年何千人もの生命を救っているが、ある例ではエアバッグの展開は傷害を起こす危険がある。胴体傾斜の予測は、エアバッグ展開制御用に使われる乗員の位置についての有用な情報提供である。
胴体傾斜の予測システムにおいては、トラッキング装置の出力は車両乗員の頭部(複数)の平均距離(カメラからの距離)を計算するために用いられる。頭部の位置は深度画像中の身体の全体的な位置を決定するために用いられる。身体に対応する深度データは、さらにカメラからの胴体の平均距離を計算するために用いられる。これら2個の平均深度値は胴体の傾斜(前方、後方または傾斜していない)を決定するために用いられる。カメラからの頭部の距離(平均距離)とカメラからの胴体の距離の差の絶対値が一定のしきい値よりも大きいと、人物は後方または前方に傾斜しており、そのいずれかは差の符号に基づいて決めることができる(より奥に頭部がある時は後方に傾斜していることを意味し、より奥に胴体がある時は前方に傾斜していることを意味している)。ピクセルの強度は実際の距離に直すことができ、しきい値の選択は実際の深度差に基づくもので、この値が身体の傾斜を定義するため用いられる。
タイムオブフライト式深度感知カメラを備えた深度計測ウィンドウを用いる利点は、単一のカメラを運転者および後部座席の乗客の胴体傾斜トラッキングに用いることができることを含む。例えば車両の片側(すなわち運転者側)に対し一台のカメラが2個の距離計測装置を交互に操作して、二本の深度画像ストリームを、一本は運転者(距離の近い方の深度計測ウィンドウ)、そして他方は後部座席の乗客(乗客のいる場合、遠い方の深度計測ウィンドウ)について提供する。これに加えて調査領域Sの解析は、運転者側の乗員と前部乗客側の乗員をトラッキングする深度情報を、例えば画像を縦方向中心線に沿って分割することによって分離するため、深度画像フレームを縦方向に分割することを含むことが出来る。このようにして単一の深度感知カメラからの深度画像ストリームを、少なくとも車両の4領域に対してそれぞれ独立してトラッキングを行なうために用いることができる。
図10は胴体傾斜予測方法を示している。この方法(1000)の一実施形態によると、頭部の深度、すなわち頭部からカメラまでの距離を予測するために、トラッキング装置はそれぞれのフレーム毎に、適合された輪郭に対応する頭部の現在の状態sを出力として提供する。例えばsに対応する楕円は深度分布図に重畳される。この出力が胴体傾斜予測方法(1000)に対する入力となる(ステップ1002)。輪郭内部のピクセル値の中央値を頭部からカメラまでの深度あるいは距離として選択する。平均深度値を用いることはできるけれども、ノイズや異常値に対する強固性のため中央値を選ぶ。何らかの理由、例えば急な加速によってトラッキング装置が目標の物体を正常に捕捉しないか、あるいは輪郭モデルが頭部の実際の形に正確に適合しないような場合でも、輪郭内の少なくとも半分のピクセルがトラッキングされている頭部に属しているのであれば、中央値は正しい深度を示す値である。これにより、距離予測システムを、トラッキング装置の偶発的な不正確さに対して極めて強固となる。
基準として頭部の位置に基づいて、胴体の深度、すなわち胴体からカメラまでの距離を推定するためには、深度分布図の上で連結された成分の解析が用いられ、頭部がトラッキングされている人、すなわち目標の物体の胴体に対応する画像領域を決定する(ステップ1006)。この領域の深度値の中央値を計算し(ステップ1008)、胴体の深度、すなわち胴体からカメラまでの距離として用いられる。上述の理由から、中央値を選択することによってシステムがノイズ、遮閉、および不完全な輪郭の分割に対して強固になる。
上述のように、人物の傾斜(前方、後方あるいは方向無し)を決定するために頭部深度中央値と胴体深度中央値を用いる(ステップ1010)。胴体傾斜情報を出力する(ステップ1012)。例えば、一実施形態において、胴体傾斜データは車両の制御装置に出力される。この出力は所定の発生頻度に基づく特定の時刻、または連続ベースで、必要に応じて制御装置が使用するために送信される。乗員の身体の傾斜と全体的なトラッキング情報は、自動車の制御ロジックあるいは制御装置により、例えばエアバッグの展開、衝突防止、運転者支援、注意、検出等のいくつかの用途に用いられる。
(手および身体のトラッキング)
その他のトラッキングシステムの用途には、手のトラッキングとコンピュータに基づく手話認識を含む認識、コンピュータによる身振りの理解等が含まれる。身振り認識システムの一実施形態には、上述した人間型ロボットASIMO(登録商標)のようなロボットにおける指示視認用モジュールが含まれる。その他の機械的な視覚技術をトラッキング目標の物体画像に応用して、手ぶり、腕の運動等を認識することができる。画像認識技術は、人間の行動とコンピュータの命令の間の応答を決めることができる。この実施形態によって、使用者が例えばロボットの行動制御用の手ぶり命令を与えて、方向転換、運動、追従、待機などを行うことできる。
手およびその他の胴体部分も人間とコンピュータの相互関係の他の用途(例えば、コンピュータゲーム、歩行者検出など)に用いることが出来る。この用途ならびに類似の用途についてのこれらの技術は、本発明の範囲で実施されるものである。
本発明の特定の実施形態ならびにその用途は本明細書に例示され、記載されているが、本発明は本明細書に開示されている詳細な構成と構成要素に限定されるものではなく、添付の特許請求の範囲に定義されている本発明の精神と範囲を逸脱することなしに、本願発明の構成、操作、ならびに方法と装置の詳細における様々な変更、変形が可能なことは理解されるであろう。
上体が異なる位置にある運転者の深度画像を示す図である。 トラッキング装置の一実施形態の出力画像を示す図で、人間の右手がトラッキング目標である。 深度感知カメラを用いるサンプルトラッキングシステムの一実施形態を示す図である。 対応する周縁部のポテンシャル変換マップを備えた深度画像を示す図である。 一連のポテンシャル値により定義された可視像を示す図である。 楕円形の頭部トラッキングの実施形態に対応する一連のポテンシャル値で定義された像を可視像で示した図である。 2個の領域だけ(上部の遠方領域と下部の近接領域)を含む簡単な場面と、一連の交互に入れ替わるトラッキング出力を示す図である。 トラッキング法の実施形態を示す図である。 目標の物体のポテンシャル領域画定手順の実施形態を示す図である。 輪郭適合手順の実施形態を示す図である。 トラッキング中の目標の物体の手を完全に取り囲んだ画像フレームを示す図である。 身体の傾斜推定方法の一実施形態を示す図である。

Claims (22)

  1. 深度感知カメラを用いて目標物体をトラッキングするためのコンピュータを使用した方法であって、
    前記方法は、
    トラッキングする目標物体を含んだ領域の深度画像を受信するステップと、
    前記深度画像中の前記目標物体の周縁部を決定するステップと、
    前記トラッキングする前記目標物体に対応する前記決定された周縁部に最適合する、数学的に表わされる輪郭を決定するステップと、
    を含み、
    前記最適合する輪郭の決定は、
    前記数学的に表される輪郭を、それぞれが低い深度値に対応する内側及び高い深度値に対応する外側を含む複数の輪郭セグメントに分割し、
    各輪郭セグメントの向きを、前記深度画像中の前記決定された周縁部の対応する周縁部セグメントに対して一致させることを含み、
    前記一致させることは、
    前記決定された周縁部セグメントの各側の深度値を比較し、前記一致した輪郭セグメントの前記内側と重なり合う前記決定された周縁部セグメントの1つの側の深度値が、前記一致した輪郭セグメントの前記外側と重なり合う前記決定された周縁部セグメントの1つの側の深度値よりも小さいことを決定することによって行われること、
    を特徴とする方法。
  2. 前記周縁部を決定するステップは、複数の深度画像部分の深度値をそれぞれ比較して、隣接する深度画像部分と比べて最大のしきい値を越える深度変化を有する周縁深度画像部分を見出すステップを含むことを特徴とする請求項1に記載のコンピュータを使用した方法。
  3. 前記周縁部を決定するステップは、
    前記周縁深度画像部分に基準値を割り当てるステップと、
    最も近接している周縁深度画像部分の基準値を求めるために変換方式を適用することにより、前記隣接する深度画像部分に値を割り当てるステップと、
    をさらに含むことを特徴とする請求項2に記載のコンピュータを使用した方法。
  4. 前記深度画像部分は、深度画像ピクセルであることを特徴とする請求項3に記載の方法。
  5. 前記周縁部を決定するステップは、深度勾配ベクトルを求めるステップを含むことを特徴とする請求項1に記載の方法。
  6. 前記数学的に表わされる輪郭は、グラフ表示の可能な数学関数であることを特徴とする請求項1に記載の方法。
  7. 前記数学的に表わされる輪郭は、平行四辺形、卵型、楕円、円、曲線からなるグループの一つであることを特徴とする請求項6に記載の方法。
  8. 前記目標物体は、1以上の身体部分を含むことを特徴とする請求項1に記載の方法。
  9. 前記1以上の身体部分は、人間の頭部を含むことを特徴とする請求項8に記載の方法。
  10. 前記最適合する輪郭を決定するステップは、
    複数の適合値を算出するステップであって、前記適合値は、想定される状態のそれぞれに対応し、かつ前記数学的に表わされる輪郭の各輪郭セグメントと前記深度画像の前記目標物体の前記決定された周縁部の前記対応するセグメントとの間の距離標準値の全体に相当する、算出するステップと、
    前記複数の適合値を一致した向きと比較するステップと、
    前記輪郭と前記目標物体の前記周縁部との間の前記距離標準値が最小を示す前記適合値を有する前記状態を選択するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  11. 前記最適合する輪郭を決定するステップにおいて、前記輪郭に対する異なる位置を試みることにより、前記深度画像の調査領域を決定するステップをさらに含むことを特徴とする請求項1に記載の方法。
  12. 前記調査領域の決定するステップは、前記目標物体の運動が定速であることを前提として、次の画像フレームの目標物体の位置を予測するステップを含むことを特徴とする請求項11に記載の方法。
  13. 深度感知カメラを用いて目標物体をトラッキングするためのコンピュータ可読媒体であって、コンピュータプロセッサによって実行されると、
    トラッキングする目標物体を含んだ領域の深度画像を受信するステップと、
    前記深度画像中の前記目標物体の周縁部を決定するステップと、
    前記トラッキングする前記目標物体に対応する前記決定された周縁部に最適合する、数学的に表わされる輪郭を決定するステップと、
    を実施し、
    前記最適合する輪郭を決定するステップは、
    前記数学的に表される輪郭を、それぞれが低い深度値に対応する内側及び高い深度値に対応する外側を含む複数の輪郭セグメントに分割し、
    各輪郭セグメントの向きを、前記深度画像中の前記決定された周縁部の対応する周縁部セグメントに対して一致させるステップを含み、
    前記一致させるステップは、
    前記決定された周縁部セグメントの各側の深度値を比較し、前記一致した輪郭セグメントの前記内側と重なり合う前記決定された周縁部セグメントの1つの側の深度値が、前記一致した輪郭セグメントの前記外側と重なり合う前記決定された周縁部セグメントの1つの側の深度値よりも小さいことを決定することによって行われる、
    コンピュータプログラムを備えたことを特徴とするコンピュータ可読媒体。
  14. 深度感知カメラを用いた目標物体をトラッキングするシステムであって、
    トラッキングする前記目標物体を含んだ領域の深度画像を受信する手段と、
    前記深度画像中の前記目標物体の周縁部を決定する手段と、
    前記トラッキングする目標物体に対応する前記決定された周縁部に最適合する、数学的に表わされる輪郭を決定する手段と、
    を備え、
    前記最適合する輪郭を決定する手段は、
    前記数学的に表される輪郭を、それぞれが低い深度値に対応する内側及び高い深度値に対応する外側を含む複数の輪郭セグメントに分割し、
    各輪郭セグメントの向きを、前記深度画像中の前記決定された周縁部の対応する周縁部セグメントに対して一致させることを含み、
    前記一致させることは、
    前記決定された周縁部セグメントの各側の深度値を比較し、前記一致した輪郭セグメントの前記内側と重なり合う前記決定された周縁部セグメントの1つの側の深度値が、前記一致した輪郭セグメントの前記外側と重なり合う前記決定された周縁部セグメントの1つの側の深度値よりも小さいことを決定することによって行われること、
    を特徴とするシステム。
  15. 視覚的に人間の移動をトラッキングする人間とコンピュータとの相互関係システムであって、
    人間の身体部分の深度画像を取り込む能動深度センサと、
    前記能動深度センサに接続され、前記深度画像を受信する処理装置と、を備え、この処理装置は、
    周縁部検出モジュールと、
    前記周縁部検出モジュールに接続され、1以上の身体部分に対して最適合する、数学的に表わされる輪郭を決定し、前記取り込んだ深度画像内の前記1以上の身体部分の位置を決定するトラッキングモジュールと、
    を備え、
    前記トラッキングモジュールは、
    前記数学的に表される輪郭を、それぞれが低い深度値に対応する内側及び高い深度値に対応する外側を含む複数の輪郭セグメントに分割し、
    各輪郭セグメントの向きを、前記深度画像中の前記決定された周縁部の対応する周縁部セグメントに対して一致させるためのコンピュータ指示を含み、
    前記一致は、
    前記決定された周縁部セグメントの各側の深度値を比較し、前記一致した輪郭セグメントの前記内側と重なり合う前記決定された周縁部セグメントの1つの側の深度値が、前記一致した輪郭セグメントの前記外側と重なり合う前記決定された周縁部セグメントの1つの側の深度値よりも小さいことを決定することによって行われること、
    を特徴とする人間とコンピュータとの相互関係システム。
  16. 視覚的に人間の移動をトラッキングする人間とコンピュータとの相互関係システムであって、
    人間の身体部分の深度画像を取り込む能動深度センサと、
    前記能動深度センサに接続され、前記深度画像を受信する処理装置と、を備え、この処理装置は、
    前記深度画像中の目標物体の周縁部を決定するように構成されている周縁部検出モジュールと、
    前記周縁部検出モジュールに接続され、
    少なくとも、
    数学的に表される輪郭を、それぞれが低い深度値に対応する内側及び高い深度値に対応する外側を含む複数の輪郭セグメントに分割し、
    各輪郭セグメントの向きを、前記深度画像中の前記決定された周縁部の対応する周縁部セグメントに対して一致させることによって、1以上の身体部分に対して最適合する、前記数学的に表わされる輪郭を決定し、前記取り込んだ深度画像内の前記1以上の身体部分の位置を決定するトラッキングモジュールであって、
    前記一致させることは、
    前記決定された周縁部セグメントの各側の深度値を比較し、前記一致した輪郭セグメントの前記内側と重なり合う前記決定された周縁部セグメントの1つの側の深度値が、前記一致した輪郭セグメントの前記外側と重なり合う前記決定された周縁部セグメントの1つの側の深度値よりも小さいことを決定することによって行われる前記トラッキングモジュールと、
    記トラッキングモジュールに接続され
    記1以上の身体部分の前記決定された位置を受け取り、かつ前記能動センサに対する前記1以上の身体部分それぞれの距離を求め、他の身体部分について前記1以上の身体部分の前記距離を関連させ、前記身体部分の相互位置を含む傾斜データを決定するように構成されている胴体傾斜決定モジュールと、
    を備えることを特徴とする人間とコンピュータとの相互関係システム。
  17. 車両のエアバッグを展開するかどうかを決定するように構成された制御ロジックに、前記傾斜データを送ることを特徴とする請求項16に記載の人間とコンピュータとの相互関係システム。
  18. 前記1以上の身体部分の前記位置を、ソフトウエアアプリケーションに対するユーザ制御入力として提供することを特徴とする請求項16に記載の人間とコンピュータとの相互関係システム。
  19. 前記ソフトウエアアプリケーションはコンピュータゲームであることを特徴とする請求項18記載の人間とコンピュータとの相互関係システム。
  20. 乗員の胴体傾斜情報をトラッキングするように構成された自動車であって、
    人間の身体部分の深度画像を取り込む能動深度センサと、
    前記能動深度センサに接続され、前記深度画像を受信する処理装置と、を備え、この処理装置は、
    前記深度画像中の目標物体の周縁部を決定するように構成されている周縁部検出モジュールと、
    前記周縁部検出モジュールに接続され、
    少なくとも、
    数学的に表される輪郭を、それぞれが低い深度値に対応する内側及び高い深度値に対応する外側を含む複数の輪郭セグメントに分割し、
    各輪郭セグメントの向きを、前記深度画像中の前記決定された周縁部の対応する周縁部セグメントに対して一致させることによって、1以上の身体部分に対して最適合する、前記数学的に表わされる輪郭を決定し、前記取り込んだ深度画像内の前記1以上の身体部分の位置を決定するトラッキングモジュールであって、
    前記一致させることは、
    前記決定された周縁部セグメントの各側の深度値を比較し、前記一致した輪郭セグメントの前記内側と重なり合う前記決定された周縁部セグメントの1つの側の深度値が、前記一致した輪郭セグメントの前記外側と重なり合う前記決定された周縁部セグメントの1つの側の深度値よりも小さいことを決定することによって行われる前記トラッキングモジュールと、
    を備えることを特徴とする自動車。
  21. 前記トラッキングモジュールに接続された胴体傾斜決定モジュールをさらに備え、この胴体傾斜画定モジュールは、前記1以上の身体部分の前記決定された位置を受け取り、かつ前記能動センサに対する前記1以上の身体部分それぞれの距離を求め、他の身体部分について前記1以上の身体部分の前記距離を関連させ、前記身体部分の相互位置を含む傾斜データを決定するように構成されていることを特徴とする請求項20に記載の自動車。
  22. エアバッグを展開するかどうかを決定するように構成された制御ロジックに、傾斜データを送信することを特徴とする請求項21に記載の自動車。
JP2006530715A 2003-05-29 2004-05-28 深度データを用いたビジュアルトラッキング Expired - Fee Related JP4355341B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US47479503P 2003-05-29 2003-05-29
US49702603P 2003-08-20 2003-08-20
PCT/IB2004/002128 WO2004107266A1 (en) 2003-05-29 2004-05-28 Visual tracking using depth data

Publications (3)

Publication Number Publication Date
JP2007514211A JP2007514211A (ja) 2007-05-31
JP2007514211A5 JP2007514211A5 (ja) 2009-08-20
JP4355341B2 true JP4355341B2 (ja) 2009-10-28

Family

ID=33493391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006530715A Expired - Fee Related JP4355341B2 (ja) 2003-05-29 2004-05-28 深度データを用いたビジュアルトラッキング

Country Status (3)

Country Link
US (2) US7372977B2 (ja)
JP (1) JP4355341B2 (ja)
WO (1) WO2004107266A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210016309A (ko) * 2019-08-02 2021-02-15 모셔널 에이디 엘엘씨 센서 데이터 필터링을 위한 병합-분할 기술

Families Citing this family (499)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
GB2352076B (en) * 1999-07-15 2003-12-17 Mitsubishi Electric Inf Tech Method and apparatus for representing and searching for an object in an image
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7760248B2 (en) * 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE10321506B4 (de) * 2003-05-13 2006-10-05 Siemens Ag Verfahren zur Bestimmung der aktuellen Kopfposition von Fahrzeuginsassen
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
EP1654884A1 (en) * 2003-08-05 2006-05-10 Koninklijke Philips Electronics N.V. Multi-view image generation
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
KR100519781B1 (ko) * 2004-02-18 2005-10-07 삼성전자주식회사 객체 추적 방법 및 그 장치
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
JP3937414B2 (ja) * 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
CN101322155B (zh) * 2005-12-02 2013-03-27 皇家飞利浦电子股份有限公司 立体图像显示方法和设备、从2d图像数据输入产生3d图像数据的方法以及从2d图像数据输入产生3d图像数据的设备
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
CN103778635B (zh) * 2006-05-11 2016-09-28 苹果公司 用于处理数据的方法和装置
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
JP4789745B2 (ja) * 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles
KR100776805B1 (ko) * 2006-09-29 2007-11-19 한국전자통신연구원 스테레오 비전 처리를 통해 지능형 서비스 로봇 시스템에서효율적인 영상 정보의 전송을 위한 장치 및 그 방법
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7412077B2 (en) * 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
KR101545360B1 (ko) 2007-04-24 2015-08-19 오블롱 인더스트리즈, 인크 프로세싱 환경에서의 프로틴, 풀 및 슬럭스
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045835B4 (de) * 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US8200011B2 (en) 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
KR101344490B1 (ko) * 2007-11-06 2013-12-24 삼성전자주식회사 영상 생성 방법 및 장치
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
TWI351001B (en) * 2007-11-21 2011-10-21 Ind Tech Res Inst Method and apparatus for adaptive object detection
EP2071515A1 (en) 2007-12-11 2009-06-17 Honda Research Institute Europe GmbH Visually tracking an object in real world using 2D appearance and multicue depth estimations
JP5126666B2 (ja) * 2007-12-13 2013-01-23 株式会社デンソー 車両用操作入力装置
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
KR101652535B1 (ko) * 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
US9253416B2 (en) * 2008-06-19 2016-02-02 Motorola Solutions, Inc. Modulation of background substitution based on camera attitude and motion
TWM347881U (en) * 2008-06-19 2009-01-01 Chia-Ching Lee Structure of elastic cloth cushion body
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
KR20100000671A (ko) * 2008-06-25 2010-01-06 삼성전자주식회사 영상 처리 방법
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8411080B1 (en) * 2008-06-26 2013-04-02 Disney Enterprises, Inc. Apparatus and method for editing three dimensional objects
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8098245B2 (en) * 2008-09-30 2012-01-17 Microsoft Corporation Smart navigation for 3D maps
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
KR101497659B1 (ko) 2008-12-04 2015-03-02 삼성전자주식회사 깊이 영상을 보정하는 방법 및 장치
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US20120202569A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Three-Dimensional User Interface for Game Applications
US8294767B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8565477B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565476B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
KR101738569B1 (ko) * 2009-02-17 2017-05-22 인텔 코포레이션 제스쳐 인식 방법 및 시스템
WO2010099035A1 (en) * 2009-02-25 2010-09-02 Honda Motor Co., Ltd. Body feature detection and human pose estimation using inner distance shape contexts
US20100235078A1 (en) * 2009-03-12 2010-09-16 Microsoft Corporation Driving directions with maps and videos
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8135511B2 (en) * 2009-03-20 2012-03-13 Toyota Motor Engineering & Manufacturing North America (Tema) Electronic control system, electronic control unit and associated methodology of adapting a vehicle system based on visually detected vehicle occupant information
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8942428B2 (en) * 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
JP5214533B2 (ja) * 2009-05-21 2013-06-19 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
JP5227888B2 (ja) * 2009-05-21 2013-07-03 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US20100302253A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
DE102009037316A1 (de) * 2009-08-14 2011-02-17 Karl Storz Gmbh & Co. Kg Steuerung und Verfahren zum Betreiben einer Operationsleuchte
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
KR101565969B1 (ko) * 2009-09-01 2015-11-05 삼성전자주식회사 깊이 정보를 추정할 수 있는 방법과 장치, 및 상기 장치를 포함하는 신호 처리 장치
JP5290915B2 (ja) * 2009-09-03 2013-09-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8244402B2 (en) * 2009-09-22 2012-08-14 GM Global Technology Operations LLC Visual perception system and method for a humanoid robot
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US20110083108A1 (en) * 2009-10-05 2011-04-07 Microsoft Corporation Providing user interface feedback regarding cursor position on a display screen
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8913783B2 (en) * 2009-10-29 2014-12-16 Sri International 3-D model based method for detecting and classifying vehicles in aerial imagery
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
EP2339507B1 (en) 2009-12-28 2013-07-17 Softkinetic Software Head detection and localisation method
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
CN102122343A (zh) * 2010-01-07 2011-07-13 索尼公司 躯干倾斜角度确定及姿势估计方法和装置
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8334842B2 (en) * 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8284157B2 (en) 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8873798B2 (en) 2010-02-05 2014-10-28 Rochester Institue Of Technology Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US9400695B2 (en) * 2010-02-26 2016-07-26 Microsoft Technology Licensing, Llc Low latency rendering of objects
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
JP5087101B2 (ja) * 2010-03-31 2012-11-28 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
RU2534892C2 (ru) * 2010-04-08 2014-12-10 Самсунг Электроникс Ко., Лтд. Устройство и способ для захвата безмаркерных движений человека
US8351651B2 (en) * 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US9539510B2 (en) 2010-04-30 2017-01-10 Microsoft Technology Licensing, Llc Reshapable connector with variable rigidity
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US9008355B2 (en) * 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US11640672B2 (en) 2010-06-08 2023-05-02 Styku Llc Method and system for wireless ultra-low footprint body scanning
US10628729B2 (en) 2010-06-08 2020-04-21 Styku, LLC System and method for body scanning and avatar creation
US11244223B2 (en) 2010-06-08 2022-02-08 Iva Sareen Online garment design and collaboration system and method
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US10628666B2 (en) 2010-06-08 2020-04-21 Styku, LLC Cloud server body scan data system
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
JP2012000165A (ja) * 2010-06-14 2012-01-05 Sega Corp ビデオゲーム装置
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8878656B2 (en) 2010-06-22 2014-11-04 Microsoft Corporation Providing directional force feedback in free space
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US9086727B2 (en) 2010-06-22 2015-07-21 Microsoft Technology Licensing, Llc Free space directional force feedback apparatus
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
CN102959616B (zh) 2010-07-20 2015-06-10 苹果公司 自然交互的交互真实性增强
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
US8417058B2 (en) 2010-09-15 2013-04-09 Microsoft Corporation Array of scanning sensors
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) * 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
KR101733131B1 (ko) 2010-12-14 2017-05-10 한국전자통신연구원 3차원 제스처 처리 방법 및 장치
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8448056B2 (en) * 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
CN102074018B (zh) * 2010-12-22 2013-03-20 Tcl集团股份有限公司 一种基于深度信息的轮廓跟踪方法
US9123316B2 (en) * 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
CN102063725B (zh) * 2010-12-30 2013-05-08 Tcl集团股份有限公司 一种基于深度信息的多目标跟踪方法
KR101758058B1 (ko) * 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
EP3527121B1 (en) 2011-02-09 2023-08-23 Apple Inc. Gesture detection in a 3d mapping environment
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) * 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US11372391B2 (en) 2011-04-06 2022-06-28 Koninklijke Philips N.V. Safety in dynamic 3D healthcare environment
CN103477352A (zh) * 2011-04-11 2013-12-25 英特尔公司 使用深度图像的姿势识别
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9582707B2 (en) 2011-05-17 2017-02-28 Qualcomm Incorporated Head pose estimation using RGBD camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
JP5670255B2 (ja) * 2011-05-27 2015-02-18 京セラ株式会社 表示機器
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) * 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) * 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US8897491B2 (en) * 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
JP5636102B2 (ja) * 2011-06-17 2014-12-03 本田技研工業株式会社 乗員検知装置
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
JP5864144B2 (ja) 2011-06-28 2016-02-17 京セラ株式会社 表示機器
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9001190B2 (en) 2011-07-05 2015-04-07 Microsoft Technology Licensing, Llc Computer vision system and method using a depth sensor
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9002099B2 (en) * 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US9072929B1 (en) * 2011-12-01 2015-07-07 Nebraska Global Investment Company, LLC Image capture system
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US9111351B2 (en) * 2011-12-15 2015-08-18 Sony Corporation Minimizing drift using depth camera images
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9070019B2 (en) * 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US8989455B2 (en) * 2012-02-05 2015-03-24 Apple Inc. Enhanced face detection using depth information
US9529426B2 (en) * 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9584806B2 (en) * 2012-04-19 2017-02-28 Futurewei Technologies, Inc. Using depth information to assist motion compensation-based video coding
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
EP2853097B1 (en) * 2012-05-23 2018-07-11 Intel Corporation Depth gradient based tracking
US20130329985A1 (en) * 2012-06-07 2013-12-12 Microsoft Corporation Generating a three-dimensional image
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
EP2680228B1 (en) * 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
EP2872967B1 (en) 2012-07-13 2018-11-21 Sony Depthsensing Solutions SA/NV Method and system for detecting hand-related parameters for human-to-computer gesture-based interaction
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
TWI496090B (zh) 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
FR2996334B1 (fr) * 2012-10-03 2015-09-25 Quantaflow Procede de comptage de personnes pour appareil stereoscopique et appareil stereoscopique de comptage de personnes correspondant
TWI466062B (zh) 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
KR101909630B1 (ko) 2012-10-30 2018-10-18 삼성전자주식회사 동작 인식 방법 및 동작 인식 장치
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
US9571816B2 (en) * 2012-11-16 2017-02-14 Microsoft Technology Licensing, Llc Associating an object with a subject
US9152234B2 (en) * 2012-12-02 2015-10-06 Apple Inc. Detecting user intent to remove a pluggable peripheral device
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9323346B2 (en) 2012-12-31 2016-04-26 Futurewei Technologies, Inc. Accurate 3D finger tracking with a single camera
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9251701B2 (en) 2013-02-14 2016-02-02 Microsoft Technology Licensing, Llc Control device with passive reflector
US9052746B2 (en) * 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
KR101994319B1 (ko) * 2013-02-20 2019-06-28 삼성전자주식회사 깊이 영상을 이용하는 객체 인식 장치 및 그 장치를 이용한 방법
US20140240343A1 (en) * 2013-02-22 2014-08-28 Corel Corporation Color adjustment control in a digital graphics system using a vision system
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9563955B1 (en) 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
CN103268480B (zh) * 2013-05-30 2016-07-06 重庆大学 一种视觉跟踪系统及方法
CN104217192B (zh) * 2013-06-03 2018-04-17 株式会社理光 基于深度图像的手定位方法和设备
US9818040B2 (en) 2013-06-20 2017-11-14 Thomson Licensing Method and device for detecting an object
TWI503756B (zh) * 2013-08-15 2015-10-11 Univ Nat Taiwan 人型影像追蹤系統及其人型影像偵測方法與追蹤方法
JP6253311B2 (ja) * 2013-08-28 2017-12-27 キヤノン株式会社 画像処理装置、画像処理方法
TWI488071B (zh) * 2013-08-30 2015-06-11 Nat Univ Tsing Hua 非接觸式三度空間人體資料擷取系統及方法
US9934611B2 (en) * 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
KR102085180B1 (ko) 2013-10-08 2020-03-05 삼성전자주식회사 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치.
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9501693B2 (en) 2013-10-09 2016-11-22 Honda Motor Co., Ltd. Real-time multiclass driver action recognition using random forests
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9336440B2 (en) * 2013-11-25 2016-05-10 Qualcomm Incorporated Power efficient use of a depth sensor on a mobile device
CN103593857A (zh) * 2013-11-26 2014-02-19 上海电机学院 基于模糊算法的多传感器数据融合跟踪系统及方法
KR101511450B1 (ko) * 2013-12-09 2015-04-10 포항공과대학교 산학협력단 산등성이 데이터를 이용한 객체의 움직임 추적 장치 및 방법
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
EP3120294A1 (en) 2014-03-20 2017-01-25 Telecom Italia S.p.A. System and method for motion capture
US9400924B2 (en) 2014-05-23 2016-07-26 Industrial Technology Research Institute Object recognition method and object recognition apparatus using the same
US9541415B2 (en) 2014-08-28 2017-01-10 Telenav, Inc. Navigation system with touchless command mechanism and method of operation thereof
US9384396B2 (en) * 2014-09-29 2016-07-05 Xerox Corporation System and method for detecting settle down time using computer vision techniques
US9773155B2 (en) 2014-10-14 2017-09-26 Microsoft Technology Licensing, Llc Depth from time of flight camera
JP6030617B2 (ja) * 2014-10-15 2016-11-24 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
US9361524B2 (en) * 2014-10-20 2016-06-07 King Abdullah University Of Science & Technology System and method for crowd counting and tracking
US10110881B2 (en) 2014-10-30 2018-10-23 Microsoft Technology Licensing, Llc Model fitting from raw time-of-flight images
CN105607253B (zh) 2014-11-17 2020-05-12 精工爱普生株式会社 头部佩戴型显示装置以及控制方法、显示系统
JP6582403B2 (ja) 2014-12-10 2019-10-02 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
CN104834913B (zh) * 2015-05-14 2018-04-03 中国人民解放军理工大学 基于深度图像的旗语识别方法及装置
CN104952221B (zh) * 2015-07-09 2017-06-13 深圳大学 智能防近视台灯
US9898869B2 (en) 2015-09-09 2018-02-20 Microsoft Technology Licensing, Llc Tactile interaction in virtual environments
WO2017061890A1 (en) * 2015-10-08 2017-04-13 3Divi Company Wireless full body motion control sensor
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
CN105628951B (zh) 2015-12-31 2019-11-19 北京迈格威科技有限公司 用于测量对象的速度的方法和装置
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
WO2017164835A1 (en) * 2016-03-21 2017-09-28 Ford Global Technologies, Llc Virtual vehicle occupant rendering
US11009963B2 (en) 2016-05-20 2021-05-18 Ford Global Technologies, Llc Sign language inputs to a vehicle user interface
US11068730B1 (en) * 2016-06-14 2021-07-20 State Farm Mutual Automobile Insurance Company Apparatuses, systems, and methods for determining vehicle operator distractions at particular geographic locations
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US10318831B2 (en) * 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle
CN106250850B (zh) * 2016-07-29 2020-02-21 深圳市优必选科技有限公司 人脸检测跟踪方法及装置、机器人头部转动控制方法及系统
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
CN107958446B (zh) * 2016-10-17 2023-04-07 索尼公司 信息处理设备和信息处理方法
US11308350B2 (en) * 2016-11-07 2022-04-19 Qualcomm Incorporated Deep cross-correlation learning for object tracking
US10536684B2 (en) 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
GB201621879D0 (en) * 2016-12-21 2017-02-01 Branston Ltd A crop monitoring system and method
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
CN107229903B (zh) * 2017-04-17 2020-11-03 深圳奥比中光科技有限公司 机器人避障的方法、装置及存储装置
CN107230226A (zh) * 2017-05-15 2017-10-03 深圳奥比中光科技有限公司 人体关联关系的判断方法、装置及存储装置
CN110832349B (zh) * 2017-05-15 2023-10-10 奥斯特公司 全景彩色lidar系统和用于lidar系统的方法
US11948057B2 (en) * 2017-06-22 2024-04-02 Iva Sareen Online garment design and collaboration system and method
KR102472767B1 (ko) 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
US10484667B2 (en) * 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
EP3496037A1 (en) 2017-12-06 2019-06-12 Koninklijke Philips N.V. Device, system and method for detecting body movement of a patient
CN109155067A (zh) * 2018-01-23 2019-01-04 深圳市大疆创新科技有限公司 可移动平台的控制方法、设备、计算机可读存储介质
US10489639B2 (en) * 2018-02-12 2019-11-26 Avodah Labs, Inc. Automated sign language translation and communication using multiple input and output modalities
US10565714B2 (en) 2018-05-25 2020-02-18 Denso Corporation Feature tracking for visual odometry
US10692230B2 (en) * 2018-05-30 2020-06-23 Ncr Corporation Document imaging using depth sensing camera
US10679369B2 (en) 2018-06-12 2020-06-09 Chiral Software, Inc. System and method for object recognition using depth mapping
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
CN110291771B (zh) * 2018-07-23 2021-11-16 深圳市大疆创新科技有限公司 一种目标对象的深度信息获取方法及可移动平台
CN109165609B (zh) * 2018-08-31 2023-05-05 上海悠络客电子科技股份有限公司 一种基于关键点分析的头肩模式判定系统
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
WO2020136658A1 (en) * 2018-12-28 2020-07-02 Guardian Optical Technologies Ltd Systems, devices and methods for vehicle post-crash support
US10929982B2 (en) 2019-01-25 2021-02-23 Google Llc Face pose correction based on depth information
US11103748B1 (en) 2019-03-05 2021-08-31 Physmodo, Inc. System and method for human motion detection and tracking
US11331006B2 (en) 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
US11497962B2 (en) 2019-03-05 2022-11-15 Physmodo, Inc. System and method for human motion detection and tracking
US11883963B2 (en) * 2019-06-03 2024-01-30 Cushybots Corporation Robotic platform for interactive play using a telepresence robot surrogate
WO2020251534A1 (en) * 2019-06-10 2020-12-17 Halliburton Energy Services, Inc. Cutter analysis and mapping
CN111652110A (zh) * 2020-05-28 2020-09-11 北京市商汤科技开发有限公司 一种图像处理方法、装置、电子设备及存储介质
US11200458B1 (en) 2020-06-15 2021-12-14 Bank Of America Corporation System for integration of a hexagonal image processing framework within a technical environment
CN112050828B (zh) * 2020-09-13 2022-06-10 常州沃翌智能科技有限公司 一种基于深度学习的视觉里程计及里程方法
CN112702481B (zh) * 2020-11-30 2024-04-16 杭州电子科技大学 一种基于深度学习的乒乓球轨迹跟踪装置及方法
CN113689400B (zh) * 2021-08-24 2024-04-19 凌云光技术股份有限公司 一种深度图像截面轮廓边沿的检测方法及装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415126B2 (en) * 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6278798B1 (en) * 1993-08-09 2001-08-21 Texas Instruments Incorporated Image object recognition system and method
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
CN1101056C (zh) 1995-06-22 2003-02-05 3Dv系统有限公司 生成距景物距离的图象的方法和装置
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
JP2000003445A (ja) * 1998-06-15 2000-01-07 Toshiba Corp 情報抽出方法および情報抽出装置および記録媒体
AU1916100A (en) 1998-11-17 2000-06-05 Holoplex, Inc. Stereo-vision for gesture recognition
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
JP3751467B2 (ja) * 1999-03-30 2006-03-01 株式会社東芝 車載機器制御装置および方法
JP4332649B2 (ja) 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US6674904B1 (en) * 1999-12-14 2004-01-06 Intel Corporation Contour tracing and boundary detection for object identification in a digital image
JP4584405B2 (ja) * 2000-05-08 2010-11-24 富士通株式会社 3次元物体検出装置と3次元物体検出方法及び記録媒体
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2002071309A (ja) * 2000-08-24 2002-03-08 Asahi Optical Co Ltd 3次元画像検出装置
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
JP3732757B2 (ja) * 2001-06-08 2006-01-11 株式会社東芝 画像認識方法および画像認識装置
JP3420221B2 (ja) * 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US7274800B2 (en) 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7224830B2 (en) 2003-02-04 2007-05-29 Intel Corporation Gesture detection from digital video images
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20070098250A1 (en) 2003-05-01 2007-05-03 Delta Dansk Elektronik, Lys Og Akustik Man-machine interface based on 3-D positions of the human body

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210016309A (ko) * 2019-08-02 2021-02-15 모셔널 에이디 엘엘씨 센서 데이터 필터링을 위한 병합-분할 기술
KR102298644B1 (ko) 2019-08-02 2021-09-07 모셔널 에이디 엘엘씨 센서 데이터 필터링을 위한 병합-분할 기술

Also Published As

Publication number Publication date
WO2004107266A1 (en) 2004-12-09
US7372977B2 (en) 2008-05-13
US20050031166A1 (en) 2005-02-10
US7590262B2 (en) 2009-09-15
JP2007514211A (ja) 2007-05-31
US20080212836A1 (en) 2008-09-04

Similar Documents

Publication Publication Date Title
JP4355341B2 (ja) 深度データを用いたビジュアルトラッキング
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
JP4899424B2 (ja) 物体検出装置
JP4612635B2 (ja) 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出
US20170098123A1 (en) Detection device, detection program, detection method, vehicle equipped with detection device, parameter calculation device, parameter calculating parameters, parameter calculation program, and method of calculating parameters
US9129154B2 (en) Gesture recognition apparatus, robot system including the same and gesture recognition method using the same
JP5251800B2 (ja) 対象物追跡装置及びプログラム
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
JP5001930B2 (ja) 動作認識装置及び方法
EP2293588A1 (en) Method for using a stereovision camera arrangement
JP5737399B2 (ja) 赤目判定装置
US20180208201A1 (en) System and method for a full lane change aid system with augmented reality technology
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP2011070593A (ja) 車両周辺監視装置
JP2022502757A (ja) 運転者注意状態推定
JP2010191793A (ja) 警告表示装置及び警告表示方法
KR102031635B1 (ko) 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법
Martin et al. Real time driver body pose estimation for novel assistance systems
JP4967758B2 (ja) 物体移動の検出方法及び検出装置
JP5251814B2 (ja) 運転支援装置
JP2021092996A (ja) 計測システム、車両、計測方法、計測装置及び計測プログラム
JP5785515B2 (ja) 歩行者検出装置及び方法、並びに車両用衝突判定装置
KR101531313B1 (ko) 차량 하부의 물체 탐지장치 및 방법
JP4847303B2 (ja) 障害物検出方法、障害物検出プログラムおよび障害物検出装置
JP2007272461A (ja) 運動推定装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090706

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090706

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090731

R150 Certificate of patent or registration of utility model

Ref document number: 4355341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees