JP2013516014A - 追跡方法 - Google Patents
追跡方法 Download PDFInfo
- Publication number
- JP2013516014A JP2013516014A JP2012546440A JP2012546440A JP2013516014A JP 2013516014 A JP2013516014 A JP 2013516014A JP 2012546440 A JP2012546440 A JP 2012546440A JP 2012546440 A JP2012546440 A JP 2012546440A JP 2013516014 A JP2013516014 A JP 2013516014A
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- pixel
- activation
- frame
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
−画素深さ情報を備えるフレーム・シーケンスの各フレームの画素の少なくともいくつかを複数の領域にグループ分けするステップと、
−前記領域を、相互接続された領域のクラスタにグループ分けするステップと、
−2次元投影で別のクラスタに隣接する少なくとも1つのクラスタが前記別のクラスタの深さ値よりも高い深さ値を有する場合に、前記少なくとも1つのクラスタが前記別のクラスタによって部分的に遮蔽されている物体に属すると判断するステップと
を含む。
−第1のフレームにおいて、leader−followerアルゴリズムを使用して画素をK個の領域にグループ分けすることができ、
−後続のフレームにおいて、
・制約付きK−meansアルゴリズムを使用して、画素を前のフレームの領域にグループ分けし、距離制約を使用して、これらの領域のうちの任意の領域の重心から所定の距離Qよりも離れている画素を排除し、
・leader−followerアルゴリズムを使用して、残っている画素があればそれを新たな領域にグループ分けし、
・最後に、この後続のフレームにおいて、前のフレームの領域にいかなる画素も割り当てられていない場合には、その領域を削除することができ、数値Kを1だけ減分する。
・画素が領域重心から前記距離Qよりも離れている場合には、新たな領域が生成され、数値Kが1だけ増分され、また
・画素が領域重心から前記距離Q以内にある場合には、その画素は対応する領域に割り当てられ、それに従って重心の位置が更新される。
−それら2つの領域の一方での少なくとも1つの画素とそれら2つの領域の他方での別の画素が2次元投影で隣接する場合、及び
−これら2つの領域の隣接する画素の各対における深さの平均差が、前記所定の距離Δd1未満である場合
に、2つの領域が3次元空間内で接続されていると判断することができる。
−アクティブ化又は非アクティブ化することができる物体の最大数、
−物体の位置、
−物体のサイズ、
−物体の動き、
−物体の形状、
−物体の色、
−物体が非アクティブ状態を保っている、連続する前のフレームの最大数、又は
−ユーザ選択
のうちの少なくとも1つの基準を含むことができる。
−第2の組のアクティブ化基準を満たす全ての予備アクティブ状態の物体をアクティブ化する強制アクティブ化規則、
−アクティブ状態の物体が非アクティブ化される場合にのみ、前記第2の組のアクティブ化基準を満たす物体をアクティブ化するランク付きアクティブ化規則、
−前記第2の組のアクティブ化基準を最も良く満たす物体をアクティブ化する単純アクティブ化規則、
−関連し合う別のアクティブ状態の物体が非アクティブ化された場合に物体をアクティブ化する単純交換アクティブ化規則、
−別の物体によって遮蔽される又は遮蔽されている場合に物体をアクティブ化する遮蔽アクティブ化規則、又は
−別のアクティブ状態の物体に接触する場合に物体をアクティブ化する接触交換アクティブ化規則
からなる1組のアクティブ化規則のうちの1つでよい。
−アクティブ化又は非アクティブ化することができる物体の最大数、
−物体の位置、
−物体の形状、
−物体の色、
−物体ランキング、
−物体がアクティブ状態を保っている、連続する前のフレームの最大数及び/又は最小数、或いは
−ユーザ選択
のうちの少なくとも1つの基準を備えることができる。
−前記非アクティブ化基準の組を満たす全てのアクティブ状態の物体を非アクティブ化する強制非アクティブ化規則、
−非アクティブ状態の物体がアクティブ化される場合にのみ、前記非アクティブ化基準の組を満たす物体を非アクティブ化するランク付き非アクティブ化規則、
−前記非アクティブ化基準の組を最も良く満たす物体を非アクティブ化する単純非アクティブ化規則、
−関連し合う別の非アクティブ状態の物体がアクティブ化された場合に物体を非アクティブ化する単純交換非アクティブ化規則、又は
−別の非アクティブ状態であるが予備アクティブ化されている物体に接触する場合に物体を非アクティブ化する接触交換非アクティブ化規則
の中から選択することができる。
−領域Ra内の少なくとも1つの画素と領域Rb内の別の画素とが、X−Z平面上への2次元投影で隣接する場合、及び
−これら2つの領域Ra、Rbの隣接する画素の各対におけるY軸での深さの平均差が、所定の距離Δd1未満である場合に、
2つの領域Ra、Rb(ここでaとbは、0〜Kの間の2つの異なる数)が3次元空間内で接続されていると判断する。
−領域Riが前のフレームで存在していた場合、したがって既存のクラスタB0に関連付けられる場合には、時間コヒーレンスを考慮して、Riが属するクラスタに対するRiの距離のインジケータ「distance(Ri)」はゼロに設定され、インジケータ「object(Ri)」は「B0」に設定され、「distance(Ri)」の値に関して昇順でソートされたリストH内にRiが記憶される。
−そうでない場合には、「distance(Ri)」が「INFINITE(無限)」に設定され、「object(Ri)」が「NULL(ゼロ)」に設定される。
−リストHから、最小のインジケータ「distance(Rh)」の値を有する領域Rhを抽出する。
−領域Rhに隣接する各領域Rvに関して、
・d=distance(Rh)+distanceRAG(Rh,Rv)を計算する。ここで、RhとRvが接続されている場合、distanceRAG(Rh,Rv)=0であり、RhとRvが接続されていない場合、distanceRAG(Rh,Rv)=INFINITEであり、並びに
・d<distance(Rv)である場合、
・「distance(Rv)」の値を値dに設定し、
・「object(Rv)」の値を「object(Rh)」の値に設定し、及び
・領域RvがリストH内にない場合には、それをリストHに挿入し、
・領域Rvが既にリストH内にある場合には、それをHから抽出する。
Claims (19)
- フレーム・シーケンス内の少なくとも1つの物体を追跡する方法であって、各フレームが画素アレイを有し、深さ値が各画素(5)に関連付けられ、また前記方法が、
a)各フレームの前記画素(5)の少なくともいくつかを複数の領域(R1,…,R17)にグループ分けするステップと、
b)前記領域(R1,…,R17)を、相互接続された領域のクラスタ(B1,…,B5)にグループ分けするステップと
を含む方法において、
c)2次元投影で別のクラスタ(B1)に隣接する少なくとも1つのクラスタ(B2,…,B5)が前記別のクラスタ(B1)の深さ値よりも高い深さ値を有する場合に、前記少なくとも1つのクラスタ(B2,…,B5)が前記別のクラスタ(B1)によって部分的に遮蔽されている物体(U2)に属すると判断するステップ
をさらに含むことを特徴とする方法。 - ステップc)は、前記2次元投影で前記別のクラスタ(B1)への隣接性を共に有し且つ前記別のクラスタ(B1)よりも高い深さ値を有する2つのクラスタ(B2,…,B5)が、前記別のクラスタ(B1)によって部分的に遮蔽されている単一の物体(U2)に属するかどうかを、前記より高い深さ値が互いに所定の範囲Δd1内にあるかどうかに応じて判断するステップを含む請求項1に記載の方法。
- 前記2次元投影で前記別のクラスタ(B1)への隣接性を共に有し且つ前記別のクラスタ(B1)よりも高い深さ値を有する2つのクラスタ(B2,…,B5)が、前記別のクラスタ(B1)によって部分的に遮蔽されている単一の物体に属するかどうかが、前記2次元投影の少なくとも1つの軸線において前記2つのクラスタ(B2,…,B5)のそれぞれが前記2つのクラスタ(B2,…,B5)の他方と重畳しているかどうかに応じて判断される請求項1又は2に記載の方法。
- 前記画素(5)の少なくともいくつかが、データ処理装置によって、ベクトル量子化アルゴリズムを使用して領域(R1,…,R17)にグループ分けされる請求項1から3までのいずれか一項に記載のコンピュータ方法。
- 前記ベクトル量子化アルゴリズムにおいて、
−第1のフレームにおいて、leader−followerアルゴリズムを使用して、前記画素(5)がK個の領域(R1,…,R11)にグループ分けされ、
−後続のフレームにおいて、
・画素(5)を前のフレームの領域(R1,…,R11)にグループ分けするように制約付きK−meansアルゴリズムが使用され、領域重心(C1,…,C6)から所定の距離Qよりも離れている画素(5)を排除するように距離制約が使用され、
・残っている画素(5)があればそれを新たな領域(R12,…,R17)にグループ分けするようにleader−followerアルゴリズムが使用され、また
・最後に、この後続のフレームにおいて、前のフレームの領域(R7)にいかなる画素(5)も割り当てられていない場合には、その領域(R7)が削除され、数値Kが1だけ減分される
請求項4に記載の方法。 - 前記leader−followerアルゴリズムにおいて、
・画素(5)が領域重心(C1,…,C6)から前記距離Qよりも離れている場合には、新たな領域(R12,…,R17)が生成され、数値Kが1だけ増分され、また
・画素(5)が領域重心(C1,…,C6)から前記距離Q以内にある場合には、前記画素(5)が対応する領域(R1,…,R11)に割り当てられ、それに従って重心の位置が更新される
請求項5に記載の方法。 - −前記2つの領域(R1,…,R17)の一方での少なくとも1つの画素(5)と前記2つの領域(R1,…,R17)の他方での別の画素(5)が2次元投影で隣接する場合、及び
−前記2つの領域(R1,…,R17)の隣接する画素(5)の各対における深さの平均差が前記所定の距離Δd1未満である場合に、
2つの領域(R1,…,R17)が3次元空間内で接続されていると判断する請求項1から6までのいずれか一項に記載の方法。 - 後続のフレームにおいて、前のフレームには存在しなかった新たな領域(R12、R13、R14)が前記3次元空間内で直接又は少なくとも1つの別の領域(R13)を介して既存のクラスタの領域(R6、R11)に接続されている場合に、前記新たな領域(R12、R13、R14)が、前記前のフレームに既に存在していた相互接続された領域の前記既存のクラスタに属すると判断される請求項4から7までのいずれか一項に記載の方法。
- 前記画素(5)を領域(R1,…,R17)にグループ分けする前に、基準フレーム内の対応する画素(5)の深さ値と所定量Δd2未満しか異ならない各画素(5)を前記シリーズ内の各フレームから削除する別のステップを含む請求項1から8までのいずれか一項に記載の方法。
- 前記フレーム・シーケンスが、実世界シーンを捕捉する3D撮像デバイスからのビデオ・シーケンスである請求項1から9までのいずれか一項に記載の方法。
- 前記画素を領域(R1,…,R17)にグループ分けするステップの前に、撮像デバイスにリンクされた座標系から、前記実世界シーンでの点にリンクされた別の座標系に座標変換が行われる請求項10に記載の方法。
- 前記シーケンスの少なくとも1つのフレームに関して、
−前記フレーム内の物体(U1、U2)が第1の組のアクティブ化基準を満たす場合に、前記物体(U1、U2)を予備アクティブ化するステップと、
−予備アクティブ状態の物体(U1、U2)が所定のアクティブ化規則の下で第2の組のアクティブ化基準を満たす場合に、前記予備アクティブ状態の物体(U1、U2)をアクティブ化するステップと
をさらに含む請求項1から11までのいずれか一項に記載の方法。 - 前記第1の組のアクティブ化基準及び/又は前記第2の組のアクティブ化基準が、
−アクティブ化することができる物体の最大数、
−物体の位置、
−物体のサイズ、
−物体の動き、
−物体の形状、
−物体の色、
−物体がアクティブ状態又は非アクティブ状態を保っている、連続する前のフレームの最小数及び/又は最大数、或いは
−ユーザ選択
のうちの少なくとも1つの基準を含む請求項12に記載の方法。 - 前記アクティブ化規則が、
−第2の組のアクティブ化基準を満たす全ての予備アクティブ状態の物体をアクティブ化する強制アクティブ化規則、
−アクティブ状態の物体が非アクティブ化される場合にのみ、前記第2の組のアクティブ化基準を満たす物体をアクティブ化するランク付きアクティブ化規則、
−前記第2の組のアクティブ化基準を最も良く満たす1つ又は複数の物体をアクティブ化する単純アクティブ化規則、
−関連し合う別のアクティブ状態の物体が非アクティブ化された場合に物体をアクティブ化する単純交換アクティブ化規則、
−別の物体によって遮蔽される又は遮蔽されている場合に物体をアクティブ化する遮蔽アクティブ化規則、又は
−別のアクティブ状態の物体に接触する場合に物体をアクティブ化する接触交換アクティブ化規則
からなる1組のアクティブ化規則のうちの1つである請求項12又は13に記載の方法。 - 前記シーケンスの少なくとも1つの後続のフレームに関して、所定の非アクティブ化規則の下で物体が1組の非アクティブ化基準を満たす場合に、事前にアクティブ化されている物体を非アクティブ化するステップをさらに含む請求項12から14までのいずれか一項に記載の方法。
- 非アクティブ化基準の前記組が、
−アクティブ化又は非アクティブ化することができる物体の最大数、
−物体の位置、
−物体のサイズ、
−物体の形状、
−物体の色、
−物体ランキング、
−物体がアクティブ状態を保っている、連続する前のフレームの最大数及び/又は最小数、又は
−ユーザ選択
のうちの少なくとも1つの基準を含む請求項15に記載の方法。 - 前記非アクティブ化規則が、
−前記非アクティブ化基準の組を満たす全てのアクティブ状態の物体を非アクティブ化する強制非アクティブ化規則、
−非アクティブ状態の物体がアクティブ化される場合にのみ、前記非アクティブ化基準の組を満たす物体を非アクティブ化するランク付き非アクティブ化規則、
−前記非アクティブ化基準の組を最も良く満たす物体を非アクティブ化する単純非アクティブ化規則、
−関連し合う別の非アクティブ状態の物体がアクティブ化された場合に物体を非アクティブ化する単純交換非アクティブ化規則、又は
−別の非アクティブ状態であるが予備アクティブ化されている物体に接触する場合に物体を非アクティブ化する接触交換非アクティブ化規則
からなる1組の非アクティブ化規則のうちの1つである請求項16に記載の方法。 - 請求項1から17までのいずれか一項に記載の方法を実施するためのコンピュータ実行可能命令を有するコンピュータ可読データ記憶媒体。
- 請求項1から17までのいずれか一項に記載の方法を実施するようにプログラムされたコンピュータ・システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09180785.9 | 2009-12-28 | ||
EP09180785A EP2357608B1 (en) | 2009-12-28 | 2009-12-28 | Tracking method |
PCT/EP2010/070821 WO2011080282A1 (en) | 2009-12-28 | 2010-12-28 | Tracking method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013516014A true JP2013516014A (ja) | 2013-05-09 |
JP5462956B2 JP5462956B2 (ja) | 2014-04-02 |
Family
ID=42124238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012546440A Active JP5462956B2 (ja) | 2009-12-28 | 2010-12-28 | 追跡方法 |
Country Status (13)
Country | Link |
---|---|
US (1) | US8891825B2 (ja) |
EP (1) | EP2357608B1 (ja) |
JP (1) | JP5462956B2 (ja) |
KR (1) | KR101415479B1 (ja) |
CN (1) | CN102812491B (ja) |
AU (1) | AU2010338192B2 (ja) |
BR (1) | BR112012015971A2 (ja) |
CA (1) | CA2784558C (ja) |
MX (1) | MX2012007595A (ja) |
SG (1) | SG181596A1 (ja) |
TW (1) | TWI520102B (ja) |
WO (1) | WO2011080282A1 (ja) |
ZA (1) | ZA201204260B (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8705860B2 (en) * | 2011-03-14 | 2014-04-22 | Microsoft Corporation | Grouping variables for fast image labeling |
US9072929B1 (en) * | 2011-12-01 | 2015-07-07 | Nebraska Global Investment Company, LLC | Image capture system |
US9111351B2 (en) * | 2011-12-15 | 2015-08-18 | Sony Corporation | Minimizing drift using depth camera images |
KR101909544B1 (ko) * | 2012-01-19 | 2018-10-18 | 삼성전자주식회사 | 평면 검출 장치 및 방법 |
WO2013172491A1 (ko) * | 2012-05-16 | 2013-11-21 | 전자부품연구원 | 깊이 정보를 이용한 물체 인식 방법 및 장치 |
TW201349027A (zh) * | 2012-05-25 | 2013-12-01 | Univ Ming Chuan | 遙控辨識方法及其裝置 |
EP2674913B1 (en) | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
US20140210950A1 (en) * | 2013-01-31 | 2014-07-31 | Qualcomm Incorporated | Systems and methods for multiview metrology |
US9052746B2 (en) * | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
EP2790152B1 (en) | 2013-04-12 | 2015-12-02 | Alcatel Lucent | Method and device for automatic detection and tracking of one or multiple objects of interest in a video |
KR101439037B1 (ko) * | 2013-06-25 | 2014-09-15 | 주식회사 에스원 | 영상에서 객체를 추적하는 방법 및 장치 |
US9436872B2 (en) | 2014-02-24 | 2016-09-06 | Hong Kong Applied Science and Technology Research Institute Company Limited | System and method for detecting and tracking multiple parts of an object |
US9836635B2 (en) * | 2014-10-09 | 2017-12-05 | Cognex Corporation | Systems and methods for tracking optical codes |
US9361524B2 (en) | 2014-10-20 | 2016-06-07 | King Abdullah University Of Science & Technology | System and method for crowd counting and tracking |
CN106295287B (zh) * | 2015-06-10 | 2019-04-09 | 阿里巴巴集团控股有限公司 | 活体检测方法和装置以及身份认证方法和装置 |
US9726501B2 (en) * | 2015-08-06 | 2017-08-08 | Gabriel Oren Benel | Path guidance system for the visually impaired |
US9922244B2 (en) * | 2015-09-03 | 2018-03-20 | Gestigon Gmbh | Fast and robust identification of extremities of an object within a scene |
US10614578B2 (en) * | 2016-03-23 | 2020-04-07 | Akcelita, LLC | System and method for tracking people, animals and objects using a volumetric representation and artificial intelligence |
JP7122815B2 (ja) * | 2017-11-15 | 2022-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
KR102424664B1 (ko) * | 2018-01-08 | 2022-07-25 | 현대모비스 주식회사 | 3차원 영상정보 기반 객체 추적 장치 및 방법 |
KR102569437B1 (ko) * | 2018-01-08 | 2023-08-24 | 현대모비스 주식회사 | 3차원 영상정보 기반 객체 추적 장치 및 방법 |
KR101936673B1 (ko) | 2018-07-09 | 2019-04-03 | (주) 대현목재 | 클립 유니트로 결합되는 데크 |
US10970519B2 (en) | 2019-04-16 | 2021-04-06 | At&T Intellectual Property I, L.P. | Validating objects in volumetric video presentations |
US11153492B2 (en) | 2019-04-16 | 2021-10-19 | At&T Intellectual Property I, L.P. | Selecting spectator viewpoints in volumetric video presentations of live events |
US11012675B2 (en) | 2019-04-16 | 2021-05-18 | At&T Intellectual Property I, L.P. | Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations |
CN112493928B (zh) * | 2020-11-26 | 2021-12-17 | 广东盈峰智能环卫科技有限公司 | 一种机器人智能自跟随方法、装置、介质、电子设备 |
CN112666973B (zh) * | 2020-12-15 | 2022-04-29 | 四川长虹电器股份有限公司 | 基于tof的无人机群在飞行中队形保持和变队的方法 |
KR102451797B1 (ko) * | 2021-06-01 | 2022-10-12 | 씨드로닉스(주) | 타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템 |
CN116935074B (zh) * | 2023-07-25 | 2024-03-26 | 苏州驾驶宝智能科技有限公司 | 基于深度亲和网络自适应关联的多目标跟踪方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000357233A (ja) * | 1999-06-16 | 2000-12-26 | Honda Motor Co Ltd | 物体認識装置 |
JP2008165595A (ja) * | 2006-12-28 | 2008-07-17 | Sumitomo Electric Ind Ltd | 障害物検出方法、障害物検出装置、障害物検出システム |
WO2008128568A1 (en) * | 2007-04-20 | 2008-10-30 | Softkinetic S.A. | Volume recognition method and system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771818B1 (en) * | 2000-04-04 | 2004-08-03 | Microsoft Corporation | System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions |
US8009871B2 (en) * | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
-
2009
- 2009-12-28 EP EP09180785A patent/EP2357608B1/en active Active
-
2010
- 2010-12-27 TW TW099146096A patent/TWI520102B/zh active
- 2010-12-28 MX MX2012007595A patent/MX2012007595A/es active IP Right Grant
- 2010-12-28 BR BR112012015971A patent/BR112012015971A2/pt not_active IP Right Cessation
- 2010-12-28 AU AU2010338192A patent/AU2010338192B2/en not_active Ceased
- 2010-12-28 SG SG2012042404A patent/SG181596A1/en unknown
- 2010-12-28 US US13/518,989 patent/US8891825B2/en active Active
- 2010-12-28 JP JP2012546440A patent/JP5462956B2/ja active Active
- 2010-12-28 WO PCT/EP2010/070821 patent/WO2011080282A1/en active Application Filing
- 2010-12-28 KR KR1020127019660A patent/KR101415479B1/ko active IP Right Grant
- 2010-12-28 CA CA2784558A patent/CA2784558C/en active Active
- 2010-12-28 CN CN201080059711.6A patent/CN102812491B/zh active Active
-
2012
- 2012-06-11 ZA ZA2012/04260A patent/ZA201204260B/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000357233A (ja) * | 1999-06-16 | 2000-12-26 | Honda Motor Co Ltd | 物体認識装置 |
JP2008165595A (ja) * | 2006-12-28 | 2008-07-17 | Sumitomo Electric Ind Ltd | 障害物検出方法、障害物検出装置、障害物検出システム |
WO2008128568A1 (en) * | 2007-04-20 | 2008-10-30 | Softkinetic S.A. | Volume recognition method and system |
Also Published As
Publication number | Publication date |
---|---|
AU2010338192A2 (en) | 2012-08-23 |
TW201142752A (en) | 2011-12-01 |
KR101415479B1 (ko) | 2014-07-04 |
AU2010338192B2 (en) | 2014-06-19 |
US8891825B2 (en) | 2014-11-18 |
CN102812491B (zh) | 2015-07-08 |
TWI520102B (zh) | 2016-02-01 |
JP5462956B2 (ja) | 2014-04-02 |
ZA201204260B (en) | 2013-08-28 |
CA2784558C (en) | 2016-10-11 |
EP2357608A1 (en) | 2011-08-17 |
US20130016879A1 (en) | 2013-01-17 |
SG181596A1 (en) | 2012-07-30 |
AU2010338192A1 (en) | 2012-07-26 |
BR112012015971A2 (pt) | 2016-04-19 |
MX2012007595A (es) | 2012-11-29 |
KR20130000374A (ko) | 2013-01-02 |
EP2357608B1 (en) | 2012-11-21 |
WO2011080282A1 (en) | 2011-07-07 |
CA2784558A1 (en) | 2011-07-07 |
CN102812491A (zh) | 2012-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5462956B2 (ja) | 追跡方法 | |
Gabriel et al. | The state of the art in multiple object tracking under occlusion in video sequences | |
Azad et al. | 6-DoF model-based tracking of arbitrarily shaped 3D objects | |
CN115393386B (zh) | 三维场景图的生成方法、装置、设备及可读存储介质 | |
CN113240678B (zh) | 平面信息检测方法及系统 | |
Mason et al. | Object disappearance for object discovery | |
Liu et al. | Accelerating vanishing point-based line sampling scheme for real-time people localization | |
CN112528781A (zh) | 一种障碍物检测方法、装置、设备和计算机可读存储介质 | |
Savitha et al. | Motion detection in video surviellance: A systematic survey | |
Seer et al. | Kinects and human kinetics: a new approach for studying crowd behavior | |
Spurlock et al. | Dynamic subset selection for multi-camera tracking | |
Canton-Ferrer et al. | Multi-person tracking strategies based on voxel analysis | |
CN111191524A (zh) | 运动人群计数方法 | |
Noyvirt et al. | Human detection and tracking in an assistive living service robot through multimodal data fusion | |
Pawar et al. | Survey on Object Detection from Video Sequence | |
Bradski et al. | Robot-vision signal processing primitives [applications corner] | |
Elons et al. | Occlusion resolving inside public crowded scenes based on social deep learning model | |
Jungmann et al. | Automatic feature classification for object detection based on motion analysis | |
CN115683109A (zh) | 基于cuda和三维栅格地图的视觉动态障碍物检测方法 | |
CN116503940A (zh) | 多视角多人三维人体姿态估计与追踪方法、系统及设备 | |
CN118072013A (zh) | 一种基于区域划分的BoT-SORT多目标跟踪方法 | |
Seth | An image processing Algorithm For Vehicle Detection And Tracking | |
van Beusekom | Geospatial Video Tracking for Enhanced Situational Awareness | |
Seera et al. | Kinects and Human Kinetics: A New Approach for Studying Crowd Behavior | |
Canton-Ferrer et al. | Real-time 3D multi-person tracking using Monte Carlo surface sampling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5462956 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |