JP2009500709A - 物体の動きのパターンを認識する方法 - Google Patents

物体の動きのパターンを認識する方法 Download PDF

Info

Publication number
JP2009500709A
JP2009500709A JP2008519040A JP2008519040A JP2009500709A JP 2009500709 A JP2009500709 A JP 2009500709A JP 2008519040 A JP2008519040 A JP 2008519040A JP 2008519040 A JP2008519040 A JP 2008519040A JP 2009500709 A JP2009500709 A JP 2009500709A
Authority
JP
Japan
Prior art keywords
image
motion
motion blur
blur
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008519040A
Other languages
English (en)
Inventor
ピートカン,オリヴィエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009500709A publication Critical patent/JP2009500709A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

少なくとも一つの物体の連続画像または画像における当該物体の周囲の動きぶれの相対的な変化を測定することによって、当該物体の動きのパターンを認識する方法および動き認識装置を開示する。画像における動きぶれから動きぶれのパラメータが抽出され、これに基づいて、ぶれのパラメータ間の変化を測定することによって、動きぶれの変化が測定される。

Description

本発明は、少なくとも一つの物体の画像または連続画像における当該物体の周囲の動きぶれの相対的な変化を測定することによって、当該物体の動きのパターンを認識する方法および動き認識装置に関する。
静止したカメラによって物体を撮影した画像においては、その画像の撮影時にその物体が動いている場合、画像中においてその物体の周囲に動きぶれ(モーションブラー(motion blur))が生じることは良く知られている。一例として、物体が水平軸に沿って歩いている人間である場合、その人の周囲のぶれは、その人の右側と左側の両方で生じるであろう。したがって、その人が左から右に歩いているのか、右から左に歩いているのかを言い当てることはできない。
米国特許6766036号公報
米国特許6766036号公報は、車両の機能的デバイスを制御する方法を開示している。これは、種々の位置および方向に関連した機能を通して、例えば、光源を使用して指を上下に動かし、カメラで光源の種々の位置を検出することによって、車両とインタラクティブに交信する方法である。検出に基づいて、車両の所望の制御関数が決定される。この発明は、物体のターゲットのデータを特定し、かつ/または追跡するために強度変化を使用することを開示している。LEDや再帰反射器などの明るいターゲットが使用される。ターゲットに動きが生じると、ぶれが特定の方向に認識可能となる。ぶれの方向は軸方向運動をも示している。
この開示の問題点は、その方法がユーザにとって使い勝手の良いものでないという点である。これは、この発明が、カメラに容易に認識され得る明るい光源を身に着けることをユーザに要求しているからである。また、米国特許6766036号公報では、ぶれから方向パラメータのみを抽出しているため、ぶれを非常に限定した方法で使用している。
本発明の目的は、動きぶれに備わる情報を拡大使用し、物体の動きのパターンを認識することに適用することによって、上述の問題点を解決することにある。
一の態様によれば、本発明は、少なくとも一つの物体の連続画像または画像における当該物体の周囲の動きぶれの相対的な変化を測定することによって、当該物体の動きのパターンを認識する方法および動き認識装置に関し、
・連続画像および画像における動きぶれから動きぶれのパラメータを抽出するステップと、
・上記の動きぶれのパラメータの間の変化を決定するステップと、
を有する。
したがって、動きぶれの変化に基づいて物体の動きのパターンを認識するための非常に簡単で使い勝手の良い方法が提供される。物体は、人間、人の手、指などである。この方法は、騒音の激しい環境で好ましいように単に指で指し示すか、ある種のサイン言語を使用するかによって、ユーザがジェスチャー認識システム、例えば擬人化システムとインタラクティブに交信することを可能とするジェスチャー認識に実施することができる。この方法を実施する他の例としては、サイン言語認識がある。コンピュータと、例えばウェブカムや他のタイプのカメラとを使用することにより、先行技術で使用されたような位置センサはもはや不要である。これは、現在の方法をより安価にし、先行技術よりも実施し易くする。
一の実施形態においては、ぶれのパラメータは、動きぶれの範囲を含み、この範囲が物体の速度を示す指標として使用される。したがって、物体の相対速度の指標が得られる。ここで、狭い範囲が遅い速度を示し、広い範囲が早い速度を示す。
一の実施形態においては、検出された物体の動きぶれの範囲の時間展開を使用して、その物体の動きのパターンを認識する。したがって、異なる時刻に撮影された多数の画像について、検出された動きぶれの範囲を検出することによって、それらの画像から、その物体が加速しているのか、一定の速度で移動しているのか、を測定することができ、すなわち、物体の一次元運動が得られる。
一の実施形態においては、同一画像内の2または3以上の物体間で検出された動きぶれの相対範囲を使用して、その画像内のそれらの物体の相対速度を認識する。したがって、検出された動きぶれの相対範囲に基づいて、その同一画像内の2または3以上の物体のいずれが最も早く移動し、いずれが2番目に早く移動しているか、などを測定することができる。
一の実施形態においては、動きぶれのパラメータはぶれの方向を含み、その方向の変化を測定することによって、その物体の軌道が得られる。例えば、ある室内の人間の軌道を追跡することができ、これにより、例えば、ジェスチャー認識を向上させることができる。さらに、方向と幅のパラメータを結合することにより、その物体の3次元的運動が得られる。
一の実施形態においては、画像または連続画像は、静止したカメラで撮影した静止画像を含む。他の実施形態においては、連続画像は、移動するカメラで撮影した画像を含む。ここで、画像中の少なくとも一つの物体の周囲のカメラの動きによる動きぶれは、ぶれから差し引かれる。前者の撮像システムは、ウェブカムカメラであって良く、2番目の撮像システムは、監視カメラであって良い。ここで、背景のぶれは、画像中のぶれから差し引かれる。
他の態様では、本発明は、プロセスユニットにその方法を実施させる命令を格納したコンピュータ可読媒体に関する。
他の態様によれば、本発明は、少なくとも一つの物体の連続画像または画像における当該物体の周囲の動きぶれの相対的な変化を測定することによって、当該物体の動きのパターンを認識する動き認識装置に関する。この動き認識装置は、
・連続画像または画像における動きぶれから動きぶれのパラメータを抽出するプロセッサと、
・動きぶれのパラメータの間の変化を測定するプロセッサと、
を備える。
本発明のこれらの態様および他の態様は、以下に説明する実施形態を参照することにより、明らかになる。以下、本発明の好適な実施形態を、図面を参照しながら説明する。
図1から図3は、3つの異なる移動条件の下での人物100の静止画像を示す。これらは、例えばデジタルカメラ、ウェブカムカメラ、監視カメラなどのカメラによって撮影された画像である。図1では人物100は静止しており、図2では人物100は矢印103で示すように右から左へ動いており、図3では人物は矢印104で示すように左から右へ動いている。本発明によれば、ぶれ101、102が物体の動きのパターン、すなわち、この場合は人物100の動きのパターンを認識するための情報源として使用される。したがって、ぶれを消去すべきノイズとみなす代わりに、ぶれのパラメータを抽出するために使用し、そして、ぶれのパラメータを使用して、物体のカメラに対する動きのパターンを認識する。ここで、カメラはある位置に固定されていると仮定し、そのため、画像の背景のぶれは存在しない。ただし、画像を撮像する際にカメラが動いているとすれば、この限りでない。カメラが動いている場合、カメラの動きによる背景のぶれは、画像を処理するときに差し引かれる。
図1においてぶれが示されていないという事実は、人物が静止していることを示している。図2および図3に示すとおり、動きぶれ101、102は、人物100が右から左へ、または左から右へのいずれかに動いていることを示している。矢印103、104で与えられる現実の方向は、ぶれ101、102が人物100の両側で生じているため、測定することができない。
一の実施形態では、人物100(物体)の動きのパターンは、人物100の軌道を含んでいる。ここで、軌道は、人物100の連続画像について、動きぶれ101、102の位置が時間の関数としてどのように変化するかを測定することにより測定される。
他の実施形態では、人物100(物体)の動きのパターンは、人物100が一定の速度で動いているか、加速しているかを測定することを含んでいる。これは、人物100の連続画像について、動きぶれの範囲が時間の関数として変化することに基づいて測定される。図2及び図3に示すとおり、2つの画像間でのぶれの範囲はほぼ等しいため、これら2つの図における人物100はほぼ等しい速度で動いている。この動きのパターンを人物100の軌道と組み合わせることにより、人物100(物体)の詳細な運動が得られる。
本発明のまた別の実施形態では、動きぶれの範囲が、物体の絶対速度を決定するために使用される。たとえば一つの物体のただ一つの画像を考慮することにより、物体の速度の絶対値を決定するため、動きぶれの範囲が使用される。ぶれの範囲「ext」を物体の側とV(ext)とリンクさせる較正を実施する必要がある。ここで、例えばV(ext)〜extである。本発明の一例は、速度検出器のために実施することができる。ここで、物体の速度は、動きぶれの範囲「ext」に比例する。この単純な例においては、較正パラメータは一定、すなわち、V(ext)=定数×extである。物体はたとえば車両であり、カメラは速度検出カメラである。最も単純な実施形態においては、カメラと物体との距離は常に一定、たとえば、カメラは道路の上または横に置かれている、と仮定される。較正は、もちろん、物体とカメラの距離を含んでよい。
図4(a)から4(d)は、本発明の一例として、4つの連続画像の間での局所的な動きぶれの範囲の時間変化を示している。ここで、これらの変化は、その物体が一定の速度で動いているか、または加速しているかを測定するために、処理され使用される。ここに示すように、物体は図1に示す人物100である。人物の動きのパターンは、異なる4つの時点t1〜t4においてカメラによって撮像された連続画像(a)〜(d)に基づいて認識される。ここで、t1<t2<t3<t4である。401a〜401dにおける動きぶれの範囲に関連する動きぶれのパラメータは、これらの画像から抽出される。そして、これらは、カメラの位置に対する動きのパターンを認識するために使用される。局所的なぶれ401a〜401dの範囲の増大は、人物が正の加速度で加速していることを示す。
また、図4(a)から4(d)は、4名の異なる人物の単一画像とみなすこともできる。これら4名の人物の間の相対的な範囲を決定することにより、4名の人物の間の相対速度を決定することができる。したがって、人物(a)のぶれの範囲が最小であり、人物(b)が2番目に小さく、人物(c)が2番目に大きく、人物(d)が最大であるから、人物(a)の速度が最小であり、人物(b)の速度が2番目に小さく、人物(c)の速度が2番目に大きく、人物(d)の速度が最大、すなわち、V(a)<V(b)<V(c)<V(d)である。ここで、Vは物体の速度である。速度較正(速度を測定し、速度を一定の間隔に関して動きぶれの範囲と関連付けること)をしない場合、速度V(a、b、c、d)がどのくらいの速度であるかを予測することはできない。ただ相対的な速度差が得られるだけである。
図5は、図4の領域401a〜401dにおける動きぶれの拡大図である。ここでは、図4の4名は同一人物と仮定する。グラフ500では、等間隔の時間値t1〜t4について、局所的なぶれ401a〜401dの範囲d1〜d4(502〜505)が縦軸に対してプロットされている。ここに示すとおり、ぶれの範囲d1(任意単位で得られる)は、時間値t1において最小であるが、一定に増加し、時間値t4において最大となる。時間と共に範囲が増大するということは、人物100の右から左への又は左から右への動きのパターンが、加速する動きであることを示している。また、直線506により加速度は一定である。
先述のとおり、動きぶれの位置を示す動きぶれのパラメータが、図4(a)〜4(d)における連続画像において時間に対してどのように変化するかを追加的に測定することにより、人物100の軌道を追加的に使用することができる。
本発明を実施する一の方法は、例えば人物102が近づいているか遠ざかっているかをモニターすることと、または、擬人化システムとのインタラクティブな交信を中止する、待機する、戻る、継続する、ヘルプを求めるなど、会話システム中に共通に生じる幾つかの基本コマンドと、ジェスチャーを関連付けることである。これにより、例えば、非常に騒音の激しい環境においてはシステムとの音声対話を回避することができる。人物102が音声とジェスチャーの双方で相補的な情報を提供する現実的な多様対話もまた可能である。例えば、人物102が、画像ソースにある方向に動いて欲しいと思った場合、「こちらの方向を見てください」と言うことができるし、腕をその方向に動かすことにより、その方向を示すこともできる。
本発明を実施する他の方法は、位置センサの代わりにコンピュータとウェブカムを使用することによりサイン言語を解釈することである。普通のパーソナルコンピュータを持っているユーザは、したがって、その前でサイン言語をテキストに書き換えることができ、また、テキストから音声への変換ソフトウェアを使用してテキストを音声に変換することもできる。
図6は、物体の少なくとも一つの画像に基づいて物体の動きのパターンを認識するための本発明による方法を示す。まず、ステップ601において複数の静止画像(C_A)が例えばデジタルビデオカメラによって撮影される。ステップ602において、それらの画像からぶれが検出され(B_D)、ステップ603において、その検出に基づいて動きぶれのパラメータが抽出される(E)。動きぶれの検出は、例えば、リプシッツ係数(Lipschitz coefficients)を計算することにより画像の縁の連続性を測定することにより行うことができる。ここで、縁が明瞭なら、それは画像の勾配の方向の強い非連続性に対応する。また、縁が不明瞭なら、それは、スムーズな非連続性に対応する。動きぶれのパラメータを抽出する方法が幾つか存在する。例えば、マレット(Mallet)らにより開示される方法がある。これは、S.Mallet、W.L.Hwangによる「ウェーブレットによる特異点の検出および処理(Singularity Detection and Processing with wavelets)」、IEEE Transactions on Information Theory、第32巻第2号、1992年3月、に開示され、リファレンスとしてここに援用される。
画像の撮像中にカメラが動いている場合は、「背景」のぶれが、カメラの動きにより生じるため、ステップ604において、画像から差し引かれるか、キャンセルされる(S)。
検出されたぶれから動きぶれのパラメータを抽出した後、ステップ605において、連続する画像間の動きについて、変分計算(variation computation)が行われる(V_C)。これは、例えば、動きぶれのパラメータの位置が2つの連続する画像間で変化したか否か、ぶれの範囲(例えば、物体のある範囲内で)が変化したか否かを計算し、物体が一定の速度で動いているか、加速しているかを測定することを含む。これらの変分は、ステップ606のアルゴリズムにおいて、例えば、ジェスチャー分類/認識(G_C)に対する入力パラメータまたは特徴として機能する。
一例として、ユーザが頭で(頭を振ることにより)「いいえ」を示すと、ぶれのパラメータはユーザの顔のあたりで、次のように変化するだろう。
・まず、顔の明瞭な画像が示され(ぶれ無し)
・次いで、一連の水平な動きぶれが異なる幅で検出され(頭が中央から横へ加速され、そして減速し、一方の側で停止し、そこから他方の側へ加速され、これが数回繰り返されるためである)、
・最後に、顔の明瞭な新たな画像が示される。
図7は、物体の動きのパターンを認識するための本発明の実施形態に係る動き認識装置700を示す。認識装置700は、カメラ(C)701と、物体の画像704からぶれのパラメータを抽出するように成されたプロセッサ(P)702と、認識ソフトウェアを格納したメモリ(M)703とを備える。カメラ(C)701は、物体の画像、好ましくはデジタル画像704を提供するために使用され、動き認識装置700に組み込まれてよいし、外部に置いて無線通信ネットワーク706を介して動き認識装置700と相互に連結されてもよい。これは、たとえば、画像ソースが監視カメラで、動き認識装置が他の場所に、たとえば、セントラルサーバや警察署などに置かれている場合である。メモリ703は、動きぶれのパラメータとともに、物体の動きのパターンを認識する一組の予め格納されたルールを有することができる。
上述の実施形態は、本発明を限定するのではなく説明するものであり、当業者であれば、添付の特許請求の範囲の要旨から逸脱することなく、他の実施形態を設計することができることに留意すべきである。特許請求の範囲において、括弧付きの参照符号は、請求項を制限すると解釈してはならない。「備える」との用語は、請求項に掲げた要素やステップのほかの要素やステップの存在を排除するものではない。本発明は、他の幾つかの要素を備えるハードウェアによって、また、適切にプログラムされたコンピュータによって実施され得る。幾つかの手段に相当するデバイスクレームにおいては、それらの手段の幾つかは、ハードウェアの一つの及び同一の項目として具現され得る。ある方策が相互に異なる従属請求項に記載されるという単なる事実は、これらの方策の組み合わせが有利に使用され得ないことを示すものではない。
一の移動条件における人物の静止画像である。 他の移動条件における人物の静止画像である。 更に別の移動条件における人物の静止画像である。 図4(a)から4(d)は、物体の動きのパターンを認識するため、連続する画像間の局所的な動きぶれの幅の時間変化を示す、本発明の一例を示す。 図4(a)から4(d)のぶれ領域の拡大図である。 物体の少なくとも一つの画像に基づいて、物体の動きのパターンを認識するための本発明による方法を示す図である。 物体の動きのパターンを認識するための本発明による動き認識装置を示す図である。

Claims (9)

  1. 少なくとも一つの物体の連続画像または画像における当該物体の周囲の動きぶれの相対的な変化を測定することによって、当該物体の動きのパターンを認識する方法であって:
    前記連続画像または前記画像における動きぶれから動きぶれのパラメータを抽出するステップと、
    上記の動きぶれのパラメータの間の変化を測定するステップと、
    を有する方法。
  2. 前記ぶれのパラメータが、動きぶれの範囲を含み、この範囲が当該物体の速度を示す指標として使用される、請求項1に記載の方法。
  3. 前記連続画像において検出された前記物体の前記動きぶれの前記範囲の時間展開が、その物体の動きのパターンを認識するために使用される、請求項1または2に記載の方法。
  4. 同一画像内で2または3以上の物体の間について検出された前記動きぶれの相対的範囲が、当該画像内の当該物体の相対速度を認識するために使用される、請求項1から3のいずれか一項に記載の方法。
  5. 前記動きぶれパラメータが、前記ぶれの方向を含み、この方向の変化を測定することによって当該物体の軌道を得る、請求項1から4のいずれか一項に記載の方法。
  6. 前記連続画像または前記画像が、静止したカメラで撮影した静止画像を含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記連続画像または前記画像が、移動するカメラで撮影した画像を含み、その移動による、前記連続画像または前記画像における前記少なくとも一つの物体の周囲の動きぶれが、前記ぶれから差し引かれる、請求項1から6のいずれか一項に記載の方法。
  8. 請求項1から7のいずれか一項の方法をプロセスユニットに実施させる命令を格納したコンピュータ可読媒体。
  9. 少なくとも一つの物体の連続画像または画像における当該物体の周囲の動きぶれの相対的な変化を測定することによって、当該物体の動きのパターンを認識する動き認識装置であって:
    前記連続画像または前記画像における前記動きぶれから動きぶれのパラメータを抽出するプロセッサと、
    前記動きぶれのパラメータの間の変化を測定するプロセッサと、
    を備える動き認識装置。
JP2008519040A 2005-06-30 2006-06-23 物体の動きのパターンを認識する方法 Withdrawn JP2009500709A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05105941 2005-06-30
PCT/IB2006/052052 WO2007004100A1 (en) 2005-06-30 2006-06-23 A method of recognizing a motion pattern of an obejct

Publications (1)

Publication Number Publication Date
JP2009500709A true JP2009500709A (ja) 2009-01-08

Family

ID=37074247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008519040A Withdrawn JP2009500709A (ja) 2005-06-30 2006-06-23 物体の動きのパターンを認識する方法

Country Status (6)

Country Link
US (1) US20100046796A1 (ja)
EP (1) EP1904951A1 (ja)
JP (1) JP2009500709A (ja)
CN (1) CN101213563A (ja)
TW (1) TW200719244A (ja)
WO (1) WO2007004100A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017512327A (ja) * 2014-02-07 2017-05-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 制御システム及び制御システムの動作方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008139399A2 (en) * 2007-05-15 2008-11-20 Philips Intellectual Property & Standards Gmbh Method of determining motion-related features and method of performing motion classification
US20100082990A1 (en) * 2008-09-29 2010-04-01 Microsoft Corporation Establishment of a relationship between wireless devices
US8310547B2 (en) * 2008-12-05 2012-11-13 Electronics And Telecommunications Research Institue Device for recognizing motion and method of recognizing motion using the same
TWI469101B (zh) * 2009-12-23 2015-01-11 Chi Mei Comm Systems Inc 手語識別系統及方法
JP5569062B2 (ja) * 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5895720B2 (ja) * 2012-06-06 2016-03-30 富士通株式会社 被写体追跡装置、被写体追跡方法及び被写体追跡用コンピュータプログラム
US11190738B2 (en) * 2012-12-28 2021-11-30 Robert Bosch Gmbh Vehicle standstill recognition
JP5782061B2 (ja) * 2013-03-11 2015-09-24 レノボ・シンガポール・プライベート・リミテッド 移動物体の動作を認識する方法および携帯式コンピュータ
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
TWI501205B (zh) 2014-07-04 2015-09-21 Sabuz Tech Co Ltd 手語圖像輸入方法及裝置
US10373458B2 (en) * 2017-04-20 2019-08-06 Deep Sentinel Corp. Automatic threat detection based on video frame delta information in compressed video streams

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6154558A (en) * 1998-04-22 2000-11-28 Hsieh; Kuan-Hong Intention identification method
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US7440634B2 (en) * 2003-06-17 2008-10-21 The Trustees Of Columbia University In The City Of New York Method for de-blurring images of moving objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017512327A (ja) * 2014-02-07 2017-05-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 制御システム及び制御システムの動作方法

Also Published As

Publication number Publication date
TW200719244A (en) 2007-05-16
WO2007004100A1 (en) 2007-01-11
EP1904951A1 (en) 2008-04-02
US20100046796A1 (en) 2010-02-25
CN101213563A (zh) 2008-07-02

Similar Documents

Publication Publication Date Title
JP2009500709A (ja) 物体の動きのパターンを認識する方法
JP7163945B2 (ja) 移動状況推定装置、移動状況推定方法およびプログラム記録媒体
US10970558B2 (en) People flow estimation device, people flow estimation method, and recording medium
Cheng et al. Illumination-sensitive background modeling approach for accurate moving object detection
JP4966820B2 (ja) 混雑推定装置および方法
JP2021513235A (ja) イベントベースセンサからの信号を処理する方法および装置
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP5576937B2 (ja) 車両の周辺監視装置
JP6331785B2 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
JP5904069B2 (ja) 画像処理装置、オブジェクト検出方法、およびオブジェクト検出プログラム
KR101634355B1 (ko) 동작 검출 장치 및 방법
KR20160058449A (ko) 이벤트에 기반하여 객체의 이동을 감지하는 장치 및 방법
KR20180020123A (ko) 비동기 신호 처리 방법
KR20150038877A (ko) 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
JP6448005B2 (ja) 対象物の視覚追跡
JP2020109644A (ja) 転倒検出方法、転倒検出装置及び電子機器
JP2014149716A (ja) 物体追跡装置及びその方法
JP2004109009A (ja) 目標角速度計測装置および目標角速度計測方法
JP2002366958A (ja) 画像認識方法および画像認識装置
JP2007114885A (ja) 画像の類似性による分類方法及び装置
WO2020141588A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2005157134A (ja) 情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体
JP2005128815A (ja) 人物検出装置及び人物検出方法
US20210304417A1 (en) Observation device and observation method
Macaš et al. Camera based real time fall detection using pattern classification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090622

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100318