JP2016518664A - 対象物の視覚追跡 - Google Patents

対象物の視覚追跡 Download PDF

Info

Publication number
JP2016518664A
JP2016518664A JP2016509481A JP2016509481A JP2016518664A JP 2016518664 A JP2016518664 A JP 2016518664A JP 2016509481 A JP2016509481 A JP 2016509481A JP 2016509481 A JP2016509481 A JP 2016509481A JP 2016518664 A JP2016518664 A JP 2016518664A
Authority
JP
Japan
Prior art keywords
event
point cluster
series
space
time events
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016509481A
Other languages
English (en)
Other versions
JP6448005B2 (ja
Inventor
レニエ、ステファン
ブノマン、リャド
パコレ、セシル
シオオイ、レン
ニ チェンジャン
ニ チェンジャン
Original Assignee
ユニヴエルシテ・ピエール・エ・マリー・キウリー・パリ・シス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニヴエルシテ・ピエール・エ・マリー・キウリー・パリ・シス filed Critical ユニヴエルシテ・ピエール・エ・マリー・キウリー・パリ・シス
Publication of JP2016518664A publication Critical patent/JP2016518664A/ja
Application granted granted Critical
Publication of JP6448005B2 publication Critical patent/JP6448005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

情報と関連付けられたポイントクラスタによって表わされた少なくとも1つの対象物を視覚追跡する方法であって、一連の時空事象を表わすデータを受け取る段階(E1)と、前記受け取った一連の時空事象内の各事象に対して、前記一連の時空事象内の事象が前記少なくとも1つの対象物を表わすポイントクラスタに属する確率を決定する段階(E2)と、前記受け取った一連の時空事象内の各事象に対して、事象が前記ポイントクラスタに属するかどうかを、当該事象の前記決定された確率の関数として決定する段階(E3)と、前の段階で前記ポイントクラスタに属すると決定された各事象に対して、前記少なくとも1つの対象物の前記ポイントクラスタと関連付けられた情報を更新する段階(E4)と、前記少なくとも1つの対象物の位置、サイズ及び向きを、前記更新された情報の関数として計算する段階(E4,E5)とを含む。【選択図】図1

Description

本発明は、対象物の視覚追跡、より詳細には高速かつ実時間での対象物の追跡に関する。
対象物追跡は、ビデオ監視、交通監視、運動解析、強化現実、ロボット工学及び人間機械インタフェースなどの多くの分野に用途を有する。
実時間で高速(典型的には1kHz以上の周波数)の対象物追跡は、より詳細にはマイクロロボット工学、微生物挙動及び触覚学の研究に適用される。
従来のカメラによるデータ収集は、約数十キロヘルツときわめて高速で行うことができるが、連続画像内の類似情報の繰り返しは、この情報の処理速度を制限する。したがって、処理される情報の量を制限しなければならない。実際には、この結果、画像の二段抽出や画像の範囲の縮小などの制限が生じる。
更に、処理が、きわめて単純でなければならず、多くの場合ソフトウェアではなくハードウェアによって実施される。
非特許文献1は、アドレス事象表現を使用した人の追跡を開示しており、当該開示された方法は、事象を収集し、データを10ミリ秒ごとに更新する。したがって、満足な結果を提供できるほど高速ではない。
"Spatiotemporal multiple persons tracking using dynamic vision sensor" by Piatkowska, Belbachir and Gelautz, Computer vision and pattern recognition workshops, 2012 IEEE Computer society conference on, IEEE
本発明は、情報と関連付けられたポイントクラスタによって表わされる少なくとも1つの対象物を視覚追跡する方法を提供することによって、先行技術における問題を解決することを目的とし、当該方法は、
一連の時空事象を表わすデータを受け取る段階と、
前記受け取った一連の時空事象内の各事象に対して、前記一連の時空事象内の事象が、前記少なくとも1つの対象物を表わす前記ポイントクラスタに属する確率を決定する段階と、
前記受け取った一連の時空事象内の各事象に対して、事象が前記ポイントクラスタに属するかどうかを、当該事象の前記決定された確率の関数として決定する段階と、
前の段階で前記ポイントクラスタに属すると決定された各事象に対して、前記少なくとも1つの対象物の前記ポイントクラスタと関連付けられた情報を更新する段階と、
前記少なくとも1つの対象物の位置、サイズ及び向きを、前記更新された情報の関数として計算する段階と、
を含む
本発明により、対象物の視覚追跡は、高速で、範囲の縮小なしに、即ち範囲全体で可能である。対象物追跡は、頑強である。
本発明は、いかなる事象最小化又は蓄積手順も必要としない。プロセスは、純粋に事象ベースである。
本発明は、非構造化されたシーンにおいて対象物を検出し追跡するために使用される。
本発明は、単一シーン内で移動する幾つかの対象物を同時に追跡することができる。この場合、選択された形状関数が事象によって互いに独立に更新されるので追跡はきわめて高速のままである。
本発明は、二次元又は三次元で適用可能である。
1つの好ましい特徴によれば、一連の時空事象が、非同期センサによって提供される。このタイプのセンサは、従来のセンサより少ない待ち持間と高い時間的ダイナミクスで、データを事象の形で提供し、情報冗長性をなくす。
1つの好ましい特徴によれば、事象がポイントクラスタに属するかどうかを決定する段階は、当該事象に対して決定された確率と所定のしきい値との比較を含む。
実行される計算は、単純であり、結果を迅速に提供する。
1つの好ましい特性によれば、前記対象物を楕円によってモデル化して、当該楕円の半軸とその向きを計算することにより、前記少なくとも1つの対象物のサイズと向きが計算されるこの場合も、計算は、高速で単純であり、正確な結果を提供する。
ひとつの好ましい特徴によれば、当該方法は、少なくとも1つの対象物の速度を決定する段階をさらに含む。
1つの好ましい特徴によれば、前記受け取る段階、決定する段階、更新する段階及び計算する段階は、繰り返し行なわれる。
1つの好ましい特徴によれば、当該方法は、前記更新された情報の関数として計算された前記少なくとも1つの対象物の位置、サイズ及び向きを表すデータを表示する段階をさらに含む。
本発明は、また、情報と関連付けられたポイントクラスタによって表わされる少なくとも1つの対象物を視覚追跡する装置であって、当該装置は、
一連の時空事象を表わすデータを受け取る手段と、
前記受け取り手段によって受け取られた一連の時空事象内の各事象に対して、前記一連の時空事象内の事象が、前記少なくとも1つの対象物を表わす前記ポイントクラスタに属する確率を決定する手段と、
前記受け取り手段によって受け取られた一連の時空事象内の各事象に対して、事象が前記ポイントクラスタに属するかどうかを、当該事象に関して決定された前記確率の関数として決定する手段と、
前記ポイントクラスタに属することが決定された各事象に対して、前記少なくとも1つの対象物の前記ポイントクラスタと関連付けられた情報を更新する手段と、
前記少なくとも1つの対象物の位置、サイズ及び向きを、前記更新された情報により計算する手段と、を含む。
装置は、前述のものと類似の利点を有する。
1つの特定の実施形態では、本発明による方法の段階は、コンピュータプログラム命令によって実行される。
その結果、本発明は、情報媒体上のコンピュータプログラムに適用され、当該コンピュータプログラムは、コンピュータ内で使用されてもよく、前述のような方法の段階を実施することができる命令を含む。
このプログラムは、任意のプログラミング言語を使用することができ、部分的にコンパイルされた形や他の望ましい形など、ソースコード、オブジェクトコード、又はソースコードとオブジェクトコードの間のコード中間物の形でよい。
本発明は、また、コンピュータによって読み取ることができ、前述の方法と似た方法の段階を実施するのに適したコンピュータプログラム命令を含む情報媒体に関する。
情報媒体は、プログラムを記憶することができる任意のエンティティ又は装置でよい。例えば、媒体は、ROM(例えば、CD ROMや超小形電子回路ROM)、又は磁気記録手段(例えば、ディスケットやハードディスク)などの記憶手段を含むことができる。
更に、情報媒体は、無線や他の手段によって、電気又は光ケーブルを介して伝送されることがある、電気信号や光信号などの伝送可能な媒体でよい。本発明によるプログラムは、詳細には、インターネット型ネットワーク上でダウンロードされてもよい。
あるいは、情報媒体は、プログラムが組み込まれた集積回路でよく、回路は、本発明による方法を実行するかその方法を実施する際に使用されるように適応される。
他の特徴と利点は、図を参照して述べる非限定的な例として示される好ましい実施形態の以下の記述を読んだ後で明らかになるであろう。
本発明の一実施形態による少なくとも1つの対象物を視覚追跡する方法を示す図である。 本発明の一実施形態で使用される非同期センサによる信号の出力を示す図である。 本発明の一実施形態による対象物のモデルを示す図である。 本発明の一実施形態による少なくとも1つの対象物を視覚追跡する装置を示す図である。
図1に示された1つの好ましい実施形態によれば、少なくとも1つの対象物を視覚追跡するための方法は、段階E1〜E6を含む。
段階E1は、一連の時空事象を表わすデータの受け取りである。
これらのデータは、非同期センサによって提供される。このタイプのセンサは、例えば光、電界、磁界などの少なくとも1つの物理的規模と関連付けられた情報を収集することができる。非同期センサは、データを事象の形で提供し、従来のセンサより少ない待ち持間と高い時間的ダイナミクスによって、情報冗長性をなくす。
非同期センサは、従来のビデオ信号のフレームのクロックのような、時間的に所定のクロック周波数でサンプリングされない信号を出力する。非同期センサは、表示されるシーンのアドレス事象表現(AER)を提供する。各画素は、この画素に対応する光強度の変化による事象ベース信号シーケンスに対応する。例えば、画素の事象ベース非同期信号シーケンスは、画素と関係する光などの少なくとも1つの物理的規模の変化の関数として時間的に位置決めされた一連の正又は負パルスを含む。
図2に示されたように、個々に検討される各画素に関して、センサは、前の事象に関連した強度に対するしきい値より大きい対数強度の変化を検出する。そのような変化が検出されたとき、対数強度が増大するか減少するかにより、+1又は−1事象が生成される。
センサが非同期なので、事象は、きわめて細かい時間分解能(例えば、1μs)で提供されうる。
各事象と時間が関連付けられる。したがって、事象は、数学的にe(x,t)によって表わされ、ここで、xは、空間座標系における事象の位置を表わす座標のベクトルであり、tは、事象の時間を表す。
前述のように、値e(x,t)は、+1又は−1である。
少なくとも1つの対象物を表わすデータが入手できると仮定する。そのようなデータは、ポイントクラスタ(ポイント群)の形であり、各ポイントは、前述したような事象である。
少なくとも1つの対象物を表わすデータが、一連のガウストラッカを使用して焦点面にメッシュをかけることによって初期化されることに注意されたい。
後述するように、指数iを有する対象物のポイントクラスタ(ポイント群)は、平均μ(t)が座標系内の対象物の位置を示し、また分散行列Σ(t)がそのサイズと位置と関連する二次元ガウス分布によってモデル化されうる。
次の段階E2は、段階E1で受け取った一連の時空事象内の事象が、受け取った一連の時空事象内の各事象に対して、対象物を表わすポイントクラスタに属する確率を決定する。
i番目のポイントクラスタと関連付けられたi番目の対象物が検討され、ここで、平均μ(t)=[μi1,μi2は、所定の二次元座標系内の時間tにおける対象物の位置を表わすベクトルであり、指数1は横軸に割り当てられ、指数2は縦軸に割り当てられる。対象物の位置は、この対象物をモデル化する楕円の中心の位置である。
i番目のポイントクラスタの分散行列Σ(t)は、次の通りである。
Figure 2016518664
一連の時空事象内の事象e(x,t)がi番目のポイントクラスタに属する確率は、次の通りである。
Figure 2016518664
この式において、ベクトルx=[x,xは、同じ二次元の座標系内で検討された事象の時間tにおける位置であり、|Σ(t)|は、分散行列の決定因子である。
確率p(x)は、非同期センサによって1つ以上の事象e(x,t)が生成される所定の時間tに生じる全ての事象に関して、また全ての対象物に関して計算される。1つの確率p(x)は、所定の時間tに、その時間における各対象物事象ペアに関して計算される。
次の段階E3は、前の段階で確率p(x)が計算された各事象に関して、事象がポイントクラスタに属するかどうかを、決定された確率の関数として決定する。
これを達成するため、確率p(x)は、照明に依存する所定のしきい値Sと比較される。しきい値Sは、例えば確率2.5%である。
確率p(x)が、しきい値Sより小さい場合、事象e(x,t)は、検討される対象物に属さない。
確率p(x)がしきい値Sより大きい場合、事象e(x,t)は検討する対象物に属する。事象e(x,t)に関して計算された幾つかの確率が、しきい値Sより大きい場合、事象e(x,t)は、最も高い確率を有する対象物に属する。
次の段階E4は、前の段階で少なくとも1つの事象が検討されるポイントクラスタに属することが決定されたときに、少なくとも1つの対象物のポイントクラスタと関連した情報を更新することである。
利得又は重付け係数α、α及びαが検討される。時間tにおいて、所定の対象物に関して、対象物の位置μ(t)は、次のように、この対象物の時間(t−1)における位置と、この対象物を表わすポイントクラスタに属するとして段階E3で決定された事象e(x,t)との関数として更新される。
μ(t)=α・μ(t−1)+(1−α)・x
検討される時間tにおけるポイントクラスタの分散行列Σ(t)は、時間(t−1)における分散行列Σ(t−1)の関数として次のように更新される。
Σ(t)=α・Σ(t−1)+(1−α)・ΔΣ
この式で、ΔΣは、ポイントクラスタの現在位置μ(t)と、段階E3でポイントクラスタに属するように決定された事象e(x,t)の位置とから計算された共分散の差である。
Figure 2016518664
1つの変形実施形態によれば、検討されるポイントクラスタの速度も決定され更新される。これは、画像平面における1秒当たりの画素数で表した速度である。
時間tで、速度ベクトルv(t)=[vi1(t),vi2(t)]は、次の式により決定される。
(t)=α・v(t−1)+(1−α)(μ(t)−μ(t−1))/Δt
ここで、Δtは、時間tと(t−1)の差である。
ポイントクラスタの位置、分散行列、及び場合によっては速度を決定するこれらの計算は、段階E3でポイントクラスタに属するように決定された全ての事象に関して繰り返される。これらの計算は、また、段階E3で事象が属することが決定された各ポイントクラスタに関して繰り返される。
次の段階E5は、最新の情報の関数として少なくとも1つの対象物のサイズと向きを計算する。この計算は、段階E4で情報が更新された全ての対象物に関して行われる。
対象物は、楕円によってモデル化される。楕円の半軸aとb及び向きαは、段階E4で計算された分散行列Σ(t)の関数として決定される。
最初に、2つの大きさλmax及びλminが、以下のように決定される。
Figure 2016518664
Figure 2016518664
楕円の半軸aとb及び向きαは、以下の式を用いて計算される。
Figure 2016518664
Figure 2016518664
Figure 2016518664
次の段階E6は、位置、サイズ及び向きが決定された対象物を表示画面に表示する。前の段階の処理が、時間(t−1)とtの間で修正されたデータに基づいて行われた場合、表示は、前の処理によって修正されなかった対象物も、全ての対象物の表示であることが好ましい。
段階E6は、任意である。
対象物追跡が、二次元系に関して開示されたことに注意されたい。しかしながら、本発明による対象物追跡は、三次元で行われてもよい。
これは、ガウス分布のサイズの修正を対象物のサイズに関連付ける較正を使用して行うことができる。追跡されている対象物のサイズが分かっているので、その深さを、ガウスパラメータの変化に基づいて推定することができ、換言すると、センサから遠ざかっているか近づいているかを推定することができる。
前述の全ての処理は、非同期センサが、この対象物に影響を及ぼす一連の時空事象を表わすデータを提供するとすぐに、対象物の位置、サイズ及び向きが計算され更新されるように繰り返し行われる。
事象が、非同期センサによってきわめて細かい時間分解能(例えば、1μs)で提供されることが分かっている。したがって、前述の処理の周波数は1kHzを超える。
図4は、本発明による少なくとも1つの対象物を視覚追跡する装置の特定の実施形態を示す。
情報が関連付けられたポイントクラスタによって表わされる少なくとも1つの対象物を視覚追跡する装置は、
一連の時空事象を表わすデータを受け取る手段と、
前記受け取り手段によって受け取られた一連の時空事象内の各事象に対して、前記一連の時空事象内の事象が、前記少なくとも1つの対象物を表わす前記ポイントクラスタに属する確率を決定する手段と、
前記受け取り手段によって受け取られた一連の時空事象内の各事象に対して、事象が前記ポイントクラスタに属するかどうかを、当該事象に関して決定された前記確率の関数として決定する手段と、
前記ポイントクラスタに属することが決定された各事象に対して、前記少なくとも1つの対象物の前記ポイントクラスタと関連付けられた情報を更新する手段と、
前記少なくとも1つの対象物の位置、サイズ及び向きを、前記更新された情報により計算する手段と、を含む。
少なくとも1つの対象物を視覚追跡する装置が、コンピュータの一般的構造を有する。詳細には、本発明による方法を実施するコンピュータプログラムを実行するプロセッサ100、メモリ101、入力インタフェース102及び出力インタフェース103を含む。
これらの様々な要素は、従来通りバス105を介して接続される。
入力インタフェース102は、非同期センサ90に接続され、一連の時空事象を表わすデータを受け取る。
プロセッサ100は、前述の処理を実行する。この処理は、プロセッサ100によって実行される前に、メモリ101に記憶されたコンピュータプログラムのコード命令の形で行われる。
メモリ101は、また、本発明により処理されたポイントクラスタに関する情報を記憶する。
出力インタフェース103は、表示画面104に接続されて対象物を表示する。
任意のタイプの確率密度が、本発明の枠組みにガウス形の代わりに使用されてもよいと注意されたい。例えば、全ての可能な向きを考慮する、ランダム分布と任意のガウス和及び累乗の次数と導関数に限定されないガウス分布の導関数を使用することが想定できる。
本発明の潜在的用途には、小規模で利用される光学ピンセット、マイクロアセンブリ、マイクロロボット及び遠隔操作が挙げられる。同様に、潜在的用途には、移動、飛行又はヒューマノイドロボット、及び粒子フィルタリングが挙げられる。
90:非同期センサ
100:プロセッサ
101:メモリ
102:入力インタフェース
103:出力インタフェース
104:表示画面
105:バス

Claims (10)

  1. 情報と関連付けられたポイントクラスタによって表わされた少なくとも1つの対象物を視覚追跡する方法であって、
    一連の時空事象を表わすデータを受け取る段階(E1)と、
    前記受け取った一連の時空事象内の各事象に対して、前記一連の時空事象内の事象が、前記少なくとも1つの対象物を表わす前記ポイントクラスタに属する確率を決定する段階(E2)と、
    前記受け取った一連の時空事象内の各事象に対して、事象が前記ポイントクラスタに属するかどうかを、当該事象の前記決定された確率の関数として決定する段階(E3)と、
    前の段階で前記ポイントクラスタに属すると決定された各事象に対して、前記少なくとも1つの対象物の前記ポイントクラスタと関連付けられた情報を更新する段階(E4)と、
    前記少なくとも1つの対象物の位置、サイズ及び向きを、前記更新された情報の関数として計算する段階(E4,E5)と、
    を含む方法。
  2. 前記一連の時空事象は、非同期センサ(90)によって提供される、請求項1に記載の方法。
  3. 事象が前記ポイントクラスタに属するかどうかを決定する段階(E3)は、
    前記事象の前記決定された確率を所定のしきい値と比較する段階を含む、請求項1又は2に記載の方法。
  4. 前記対象物を楕円によってモデル化して、当該楕円の半軸とその向きを計算することにより、前記少なくとも1つの対象物のサイズと向きが計算される(E5)、請求項1〜3のうちいずれか一項に記載の方法。
  5. 前記少なくとも1つの対象物の速度を決定する段階をさらに含む、請求項1〜4のうちいずれか一項に記載の方法。
  6. 前記受け取る段階、決定する段階、更新する段階及び計算する段階は、繰り返し行なわれる、請求項1〜5のうちいずれか一項に記載の方法。
  7. 前記更新された情報の関数として計算された前記少なくとも1つの対象物の位置、サイズ及び向きを表すデータを表示する段階(E6)をさらに含む、請求項1〜6のうちいずれか一項に記載の方法。
  8. 情報と関連付けられたポイントクラスタによって表わされる少なくとも1つの対象物を視覚追跡する装置であって、
    一連の時空事象を表わすデータを受け取る手段と、
    前記受け取り手段によって受け取られた一連の時空事象内の各事象に対して、前記一連の時空事象内の事象が、前記少なくとも1つの対象物を表わす前記ポイントクラスタに属する確率を決定する手段と、
    前記受け取り手段によって受け取られた一連の時空事象内の各事象に対して、事象が前記ポイントクラスタに属するかどうかを、当該事象に関して決定された前記確率の関数として決定する手段と、
    前記ポイントクラスタに属することが決定された各事象に対して、前記少なくとも1つの対象物の前記ポイントクラスタと関連付けられた情報を更新する手段と、
    前記少なくとも1つの対象物の位置、サイズ及び向きを、前記更新された情報により計算する手段と、を含む装置。
  9. 請求項1〜7のうちいずれか一項による方法の段階を実施するための命令を含み、コンピュータ上で実行されるコンピュータプログラム。
  10. 請求項1〜7のうちいずれか一項による方法の段階を実施するのに適した命令を含むコンピュータプログラムが記憶された、コンピュータにより読取可能な記憶媒体。
JP2016509481A 2013-04-26 2014-04-25 対象物の視覚追跡 Active JP6448005B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1353838A FR3005188A1 (fr) 2013-04-26 2013-04-26 Suivi visuel d'objet
FR1353838 2013-04-26
PCT/EP2014/058423 WO2014174061A1 (fr) 2013-04-26 2014-04-25 Suivi visuel d'objet

Publications (2)

Publication Number Publication Date
JP2016518664A true JP2016518664A (ja) 2016-06-23
JP6448005B2 JP6448005B2 (ja) 2019-01-09

Family

ID=48906322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016509481A Active JP6448005B2 (ja) 2013-04-26 2014-04-25 対象物の視覚追跡

Country Status (6)

Country Link
US (2) US9886768B2 (ja)
EP (1) EP2989612B1 (ja)
JP (1) JP6448005B2 (ja)
ES (1) ES2851374T3 (ja)
FR (1) FR3005188A1 (ja)
WO (1) WO2014174061A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3020699A1 (fr) * 2014-04-30 2015-11-06 Centre Nat Rech Scient Procede de suivi de forme dans une scene observee par un capteur asynchrone de lumiere
US10812778B1 (en) * 2015-11-09 2020-10-20 Cognex Corporation System and method for calibrating one or more 3D sensors mounted on a moving manipulator
US11562502B2 (en) 2015-11-09 2023-01-24 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
US10757394B1 (en) 2015-11-09 2020-08-25 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
CN112003813A (zh) * 2019-05-27 2020-11-27 中国信息通信研究院 一种工业控制系统威胁态势感知方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
JP2010049296A (ja) * 2008-08-19 2010-03-04 Secom Co Ltd 移動物体追跡装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766035B1 (en) * 2000-05-03 2004-07-20 Koninklijke Philips Electronics N.V. Method and apparatus for adaptive position determination video conferencing and other applications
US7054850B2 (en) * 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
US7711149B2 (en) * 2003-05-06 2010-05-04 Primordial, Inc Indicating positions of and directions to battlefield entities in a soldier's head-mounted display
WO2008034434A1 (de) * 2006-09-19 2008-03-27 Displaycom Track Technologies Gmbh Anordnung und verfahren zum erkennen und klassifizieren von vorzugsweise verdeckten gegenständen in objekt- und/oder personenströmen
US20080232688A1 (en) * 2007-03-20 2008-09-25 Senior Andrew W Event detection in visual surveillance systems
US8358834B2 (en) * 2009-08-18 2013-01-22 Behavioral Recognition Systems Background model for complex and dynamic scenes
US8218818B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object tracking
GB2483168B (en) * 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
JP2010049296A (ja) * 2008-08-19 2010-03-04 Secom Co Ltd 移動物体追跡装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EWA PIATKOWSKA ET AL: "Spatiotemporal Multiple Persons Tracking Using Dynamic Vision Sensor", COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), 2012 IEEE COMPUTER SOCIETY CONFERENCE ON, JPN6018003529, June 2012 (2012-06-01), pages 35 - 40, XP032206755, ISSN: 0003732347, DOI: 10.1109/CVPRW.2012.6238892 *
MATTHIAS HOFSTETTER: "Temporal Pattern-Based Active Marker Identification and Tracking Using a Dynamic Vision Sensor", スイス連邦工科大学チューリッヒ校修士論文, JPN6018003526, January 2012 (2012-01-01), pages 1 - 3, ISSN: 0003732346 *

Also Published As

Publication number Publication date
US20160086344A1 (en) 2016-03-24
ES2851374T3 (es) 2021-09-06
US9886768B2 (en) 2018-02-06
EP2989612A1 (fr) 2016-03-02
FR3005188A1 (fr) 2014-10-31
JP6448005B2 (ja) 2019-01-09
WO2014174061A1 (fr) 2014-10-30
EP2989612B1 (fr) 2020-11-18
US20180122085A1 (en) 2018-05-03
US10275893B2 (en) 2019-04-30

Similar Documents

Publication Publication Date Title
EP3131311B1 (en) Monitoring
JP6448005B2 (ja) 対象物の視覚追跡
KR102032070B1 (ko) 깊이 맵 샘플링을 위한 시스템 및 방법
JP2022051761A (ja) 3次元空間内の姿勢推定
CN110793544B (zh) 路侧感知传感器参数标定方法、装置、设备及存储介质
KR102357680B1 (ko) 이벤트에 기반하여 객체의 이동을 감지하는 장치 및 방법
CN113610889B (zh) 一种人体三维模型获取方法、装置、智能终端及存储介质
US20180286056A1 (en) Information processing device, information processing method, and program
JP2016502712A (ja) 単眼視覚slamのための高速初期化
CN106774862B (zh) 基于视线的vr显示方法及vr设备
CN104811660A (zh) 控制装置及控制方法
CN106960473B (zh) 一种行为感知系统及方法
WO2011013281A1 (ja) 移動体検出方法及び移動体検出装置
JP7103357B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20210129043A (ko) 이벤트 기반 센서로부터의 정보를 처리하는 방법
CN109035307B (zh) 基于自然光双目视觉的设定区域目标追踪方法及系统
CN112330746A (zh) 一种基于tx2的移动底盘障碍物检测方法
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113910224A (zh) 机器人跟随的方法、装置及电子设备
CN106651921B (zh) 运动检测方法及躲避和跟踪运动目标的方法
JP2016170603A (ja) 移動物体追跡装置
JP2018197945A (ja) 障害物検出装置および障害物検出方法
US20230266818A1 (en) Eye tracking device, eye tracking method, and computer-readable medium
CN111754543B (zh) 图像处理方法、装置及系统
Wu et al. 3d semantic vslam of dynamic environment based on yolact

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180620

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180914

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181127

R150 Certificate of patent or registration of utility model

Ref document number: 6448005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250