JP2021514498A - 目標追跡方法及び装置、記憶媒体 - Google Patents
目標追跡方法及び装置、記憶媒体 Download PDFInfo
- Publication number
- JP2021514498A JP2021514498A JP2020533117A JP2020533117A JP2021514498A JP 2021514498 A JP2021514498 A JP 2021514498A JP 2020533117 A JP2020533117 A JP 2020533117A JP 2020533117 A JP2020533117 A JP 2020533117A JP 2021514498 A JP2021514498 A JP 2021514498A
- Authority
- JP
- Japan
- Prior art keywords
- target
- blocking
- position information
- similarity
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
Description
本願は、出願番号が201910045247.8で、出願日が2019年1月17日である中国特許出願に基づいて提出され、且つこの中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
現在画像フレームに隣接する履歴画像フレームに基づいて、第1目標対象に対応する予測目標位置情報、及びび遮断対象に対応する予測遮断対象位置情報を決定するステップであって、前記遮断対象は前記第1目標対象に最も近い目標であるステップと、
前記現在画像フレームの前の履歴画像フレームシーケンスに基づいて、前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定するステップと、
前記現在画像フレームに基づいて、第2目標対象に対応する現在目標位置情報及び現在目標外観特徴を決定するステップと、
前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定するステップと、
前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定するステップと、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定するステップと、を含む。
前記予測目標位置情報及び前記現在目標位置情報に基づいて、前記目標位置類似度を決定するステップと、
前記履歴目標外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記目標外観類似度シーケンスを決定するステップと、
前記目標位置類似度及び前記目標外観類似度シーケンスを前記目標類似度情報として決定するステップと、を含む。
前記予測遮断対象位置情報及び前記現在目標位置情報に基づいて、前記遮断対象位置類似度を決定するステップと、
前記履歴遮断対象外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記遮断対象外観類似度を決定するステップと、
前記遮断対象位置類似度及び前記遮断対象外観類似度を前記遮断対象類似度情報として決定するステップと、を含む。
単一目標追跡を実現可能なニューラルネットワークを用いて、前記予測目標位置情報及び前記予測遮断対象位置情報を決定するステップを含む。
歩行者再識別を実現可能なニューラルネットワークを用いて、前記履歴目標外観特徴シーケンス及び前記履歴遮断対象外観特徴シーケンスを決定するステップを含む。
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定するステップと、
前記目標軌跡関連関係によって、前記第2目標対象から前記第1目標対象に関連する目標を検索して、前記第1目標対象の追跡軌跡を決定するステップと、を含む。
前記目標類似度情報及び前記遮断対象類似度情報を事前設定された分類器に入力するステップと、
前記事前設定された分類器を用いて、前記第1目標対象と前記第2目標対象に対して軌跡を関連付けて得られた多種の軌跡関連関係の複数の判定得点を決定するステップと、
前記多種の軌跡関連関係から判定得点が最も高い軌跡関連関係を決定して、前記目標軌跡関連関係とするステップと、を含む。
前記目標関連関係の前記第1目標対象から前記第2目標対象と関連しない第3目標対象が決定された時に、前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得するステップと、
前記目標関連関係及び前記予測目標位置情報によって、前記第1目標対象の追跡軌跡を決定するステップと、を更に含む。
前記目標関連関係の前記第2目標対象から前記第1目標対象と関連しない第4目標対象が決定された時に、次のラウンドの関連関係に前記第4目標対象を加えるステップを更に含み、前記次のラウンドの関連関係は前記現在画像フレームを履歴画像フレームとして生成される関連関係である。
前記単一目標追跡を実現可能なニューラルネットワークを用いて、前記第1目標対象に対応する信頼度値を決定するステップを更に含む。
前記第3目標対象の信頼度値が所定の信頼度値を満たした時に、前記予測目標位置情報を取得するステップを含む。
現在画像フレームに隣接する履歴画像フレームに基づいて、第1目標対象に対応する予測目標位置情報、及び遮断対象に対応する予測遮断対象位置情報を決定し、前記遮断対象は前記第1目標対象に最も近い目標であり、前記現在画像フレームの前の履歴画像フレームシーケンスに基づいて、前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定し、前記現在画像フレームに基づいて、第2目標対象に対応する現在目標位置情報及び現在目標外観特徴を決定するように構成される第1決定モジュールと、
前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定し、前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定するように構成される第2決定モジュールと、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定するように構成される軌跡追跡モジュールと、を含む。
前記目標類似度情報及び前記遮断対象類似度情報を事前設定された分類器に入力するように構成される入力サブモジュールと、
更に、前記事前設定された分類器を用いて、前記第1目標対象と前記第2目標対象に対して軌跡を関連付けて得られた多種の軌跡関連関係の複数の判定得点を決定し、前記多種の軌跡関連関係から判定得点が最も高い軌跡関連関係を決定して前記目標軌跡関連関係とするように構成される第3決定サブモジュールと、を含む。
更に、前記目標関連関係の前記第1目標対象から前記第2目標対象と関連しない第3目標対象が決定された時に、前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得するように構成される取得サブモジュールを更に含み、
前記第3決定サブモジュールは、更に、前記目標関連関係及び前記予測目標位置情報によって、前記第1目標対象の追跡軌跡を決定するように構成される。
更に、前記目標関連関係の前記第2目標対象から前記第1目標対象と関連しない第4目標対象が決定された時に、次のラウンドの関連関係に前記第4目標対象を加えるように構成される添加モジュールを更に含み、前記次のラウンドの関連関係は前記現在画像フレームを履歴画像フレームとして生成される関連関係である。
前記目標類似度情報及び前記遮断対象類似度情報を事前設定された分類器に入力するように構成される入力サブモジュール120と、
更に、前記事前設定された分類器を用いて、前記第1目標対象と前記第2目標対象に対して軌跡を関連付けて得られた多種の軌跡関連関係の複数の判定得点を決定し、前記多種の軌跡関連関係から判定得点が最も高い軌跡関連関係を決定して前記目標軌跡関連関係とするように構成される第3決定サブモジュール121と、を含む。
更に、前記目標関連関係の前記第1目標対象から前記第2目標対象と関連しない第3目標対象が決定された時に、前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得するように構成される取得サブモジュール122を更に含み、
前記第3決定サブモジュール121は、更に、前記目標関連関係及び前記予測目標位置情報によって、前記第1目標対象の追跡軌跡を決定するように構成される。
更に、前記目標関連関係の前記第2目標対象から前記第1目標対象と関連しない第4目標対象が決定された時に、次のラウンドの関連関係に前記第4目標対象を加えるように構成される添加モジュール13であって、前記次のラウンドの関連関係は前記現在画像フレームを履歴画像フレームとして生成される関連関係である添加モジュール13を更に含む。
例えば、本願は以下の項目を提供する。
(項目1)
現在画像フレームに隣接する履歴画像フレームに基づいて、第1目標対象に対応する予測目標位置情報、及び遮断対象に対応する予測遮断対象位置情報を決定するステップであって、前記遮断対象は前記第1目標対象に最も近い目標であるステップと、
前記現在画像フレームの前の履歴画像フレームシーケンスに基づいて、前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定するステップと、
前記現在画像フレームに基づいて、第2目標対象に対応する現在目標位置情報及び現在目標外観特徴を決定するステップと、
前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定するステップと、
前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定するステップと、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定するステップと、を含む目標追跡方法。
(項目2)
前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定する前記ステップは、
前記予測目標位置情報及び前記現在目標位置情報に基づいて、前記目標位置類似度を決定するステップと、
前記履歴目標外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記目標外観類似度シーケンスを決定するステップと、
前記目標位置類似度及び前記目標外観類似度シーケンスを前記目標類似度情報として決定するステップと、を含む項目1に記載の方法。
(項目3)
前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定する前記ステップは、
前記予測遮断対象位置情報及び前記現在目標位置情報に基づいて、前記遮断対象位置類似度を決定するステップと、
前記履歴遮断対象外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記遮断対象外観類似度を決定するステップと、
前記遮断対象位置類似度及び前記遮断対象外観類似度を前記遮断対象類似度情報として決定するステップと、を含む項目1に記載の方法。
(項目4)
第1目標対象に対応する予測目標位置情報及び遮断対象に対応する予測遮断対象位置情報を決定する前記ステップは、
単一目標追跡を実現可能なニューラルネットワークを用いて、前記予測目標位置情報及び前記予測遮断対象位置情報を決定するステップを含む項目1に記載の方法。
(項目5)
前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定する前記ステップは、
歩行者再識別を実現可能なニューラルネットワークを用いて、前記履歴目標外観特徴シーケンス及び前記履歴遮断対象外観特徴シーケンスを決定するステップを含む項目1に記載の方法。
(項目6)
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定する前記ステップは、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定するステップと、
前記目標軌跡関連関係によって、前記第2目標対象から前記第1目標対象に関連する目標を検索して、前記第1目標対象の追跡軌跡を決定するステップと、を含む項目1に記載の方法。
(項目7)
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定する前記ステップは、
前記目標類似度情報及び前記遮断対象類似度情報を事前設定された分類器に入力するステップと、
前記事前設定された分類器を用いて、前記第1目標対象と前記第2目標対象に対して軌跡を関連付けて得られた多種の軌跡関連関係の複数の判定得点を決定するステップと、
前記多種の軌跡関連関係から判定得点が最も高い軌跡関連関係を決定して、前記目標軌跡関連関係とするステップと、を含む項目6に記載の方法。
(項目8)
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定する前記ステップの後、
前記目標関連関係の前記第1目標対象から前記第2目標対象と関連しない第3目標対象が決定された場合に、前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得するステップと、
前記目標関連関係及び前記予測目標位置情報によって、前記第1目標対象の追跡軌跡を決定するステップと、を更に含む項目6に記載の方法。
(項目9)
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定する前記ステップの後、
前記目標関連関係の前記第2目標対象から前記第1目標対象と関連しない第4目標対象が決定された場合に、次のラウンドの関連関係に前記第4目標対象を加えるステップであって、前記次のラウンドの関連関係は前記現在画像フレームを履歴画像フレームとして生成される関連関係であるステップと、を更に含む項目6に記載の方法。
(項目10)
前記単一目標追跡を実現可能なニューラルネットワークを用いて、前記第1目標対象に対応する信頼度値を決定するステップを更に含む項目4に記載の方法。
(項目11)
前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得する前記ステップは、
前記第3目標対象の信頼度値が所定の信頼度値を満たした場合に、前記予測目標位置情報を取得するステップを含む項目8に記載の方法。
(項目12)
前記第1目標対象の個数及び前記第2目標対象の個数はいずれも複数である項目1〜11のいずれか一項に記載の方法。
(項目13)
現在画像フレームに隣接する履歴画像フレームに基づいて、第1目標対象に対応する予測目標位置情報、及び遮断対象に対応する予測遮断対象位置情報を決定し、前記遮断対象は前記第1目標対象に最も近い目標であり、前記現在画像フレームの前の履歴画像フレームシーケンスに基づいて、前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定し、前記現在画像フレームに基づいて、第2目標対象に対応する現在目標位置情報及び現在目標外観特徴を決定するように構成される第1決定モジュールと、
前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定し、前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定するための第2決定モジュールと、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定するための軌跡追跡モジュールと、を含む目標追跡装置。
(項目14)
前記第1決定モジュールは、更に、前記予測目標位置情報及び前記現在目標位置情報に基づいて、前記目標位置類似度を決定し、前記履歴目標外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記目標外観類似度シーケンスを決定し、前記目標位置類似度及び前記目標外観類似度シーケンスを前記目標類似度情報として決定するために用いられる項目13に記載の装置。
(項目15)
前記第1決定モジュールは、更に、前記予測遮断対象位置情報及び前記現在目標位置情報に基づいて、前記遮断対象位置類似度を決定し、前記履歴遮断対象外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記遮断対象外観類似度を決定し、前記遮断対象位置類似度及び前記遮断対象外観類似度を前記遮断対象類似度情報として決定するために用いられる項目13に記載の装置。
(項目16)
前記第1決定モジュールは、更に、単一目標追跡を実現可能なニューラルネットワークを用いて、前記予測目標位置情報及び前記予測遮断対象位置情報を決定するために用いられる項目13に記載の装置。
(項目17)
前記第1決定モジュールは、更に、歩行者再識別を実現可能なニューラルネットワークを用いて、前記履歴目標外観特徴シーケンス及び前記履歴遮断対象外観特徴シーケンスを決定するために用いられる項目13に記載の装置。
(項目18)
前記軌跡追跡モジュールは、更に、前記目標類似度情報及び前記遮断対象類似度情報に基づいて前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定し、前記目標軌跡関連関係によって前記第2目標対象から前記第1目標対象に関連する目標を検索して前記第1目標対象の追跡軌跡を決定するために用いられる項目13に記載の装置。
(項目19)
前記軌跡追跡モジュールは、
前記目標類似度情報及び前記遮断対象類似度情報を事前設定された分類器に入力するための入力サブモジュールと、
更に、前記事前設定された分類器を用いて、前記第1目標対象と前記第2目標対象に対して軌跡を関連付けて得られた多種の軌跡関連関係の複数の判定得点を決定し、前記多種の軌跡関連関係から判定得点が最も高い軌跡関連関係を決定して前記目標軌跡関連関係とするための第3決定サブモジュールと、を含む項目18に記載の装置。
(項目20)
前記軌跡追跡モジュールは、
更に、前記目標関連関係の前記第1目標対象から前記第2目標対象と関連しない第3目標対象が決定された時に、前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得するための取得サブモジュールを更に含み、
前記第3決定サブモジュールは、更に、前記目標関連関係及び前記予測目標位置情報によって、前記第1目標対象の追跡軌跡を決定するために用いられる項目19に記載の装置。
(項目21)
更に、前記目標関連関係の前記第2目標対象から前記第1目標対象と関連しない第4目標対象が決定された時に、次のラウンドの関連関係に前記第4目標対象を加えるための添加モジュールを更に含み、前記次のラウンドの関連関係は前記現在画像フレームを履歴画像フレームとして生成される関連関係である項目18に記載の装置。
(項目22)
前記第2決定モジュールは、更に、前記単一目標追跡を実現可能なニューラルネットワークを用いて、前記第1目標対象に対応する信頼度値を決定するために用いられる項目16に記載の装置。
(項目23)
前記取得サブモジュールは、更に、前記第3目標対象の信頼度値が所定の信頼度値を満たした時に、前記予測目標位置情報を取得するために用いられる項目20に記載の装置。
(項目24)
前記第1目標対象の個数及び前記第2目標対象の個数はいずれも複数である項目13〜23のいずれか一項に記載の装置。
(項目25)
プロセッサ、メモリ及び通信バスを含み、前記プロセッサが前記メモリに記憶された動作プログラムを実行する時に項目1〜12のいずれか一項に記載の方法を実現する目標追跡装置。
(項目26)
プロセッサにより実行される時に項目1〜12のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶されており、目標追跡装置に用いられるコンピュータ読取可能記憶媒体。
(項目27)
プロセッサにより実行される時に、項目1〜12のいずれか一項に記載の方法を実現できるコンピュータプログラム製品。
Claims (27)
- 現在画像フレームに隣接する履歴画像フレームに基づいて、第1目標対象に対応する予測目標位置情報、及び遮断対象に対応する予測遮断対象位置情報を決定するステップであって、前記遮断対象は前記第1目標対象に最も近い目標であるステップと、
前記現在画像フレームの前の履歴画像フレームシーケンスに基づいて、前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定するステップと、
前記現在画像フレームに基づいて、第2目標対象に対応する現在目標位置情報及び現在目標外観特徴を決定するステップと、
前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定するステップと、
前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定するステップと、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定するステップと、を含む目標追跡方法。 - 前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定する前記ステップは、
前記予測目標位置情報及び前記現在目標位置情報に基づいて、前記目標位置類似度を決定するステップと、
前記履歴目標外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記目標外観類似度シーケンスを決定するステップと、
前記目標位置類似度及び前記目標外観類似度シーケンスを前記目標類似度情報として決定するステップと、を含む請求項1に記載の方法。 - 前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定する前記ステップは、
前記予測遮断対象位置情報及び前記現在目標位置情報に基づいて、前記遮断対象位置類似度を決定するステップと、
前記履歴遮断対象外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記遮断対象外観類似度を決定するステップと、
前記遮断対象位置類似度及び前記遮断対象外観類似度を前記遮断対象類似度情報として決定するステップと、を含む請求項1に記載の方法。 - 第1目標対象に対応する予測目標位置情報及び遮断対象に対応する予測遮断対象位置情報を決定する前記ステップは、
単一目標追跡を実現可能なニューラルネットワークを用いて、前記予測目標位置情報及び前記予測遮断対象位置情報を決定するステップを含む請求項1に記載の方法。 - 前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定する前記ステップは、
歩行者再識別を実現可能なニューラルネットワークを用いて、前記履歴目標外観特徴シーケンス及び前記履歴遮断対象外観特徴シーケンスを決定するステップを含む請求項1に記載の方法。 - 前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定する前記ステップは、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定するステップと、
前記目標軌跡関連関係によって、前記第2目標対象から前記第1目標対象に関連する目標を検索して、前記第1目標対象の追跡軌跡を決定するステップと、を含む請求項1に記載の方法。 - 前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定する前記ステップは、
前記目標類似度情報及び前記遮断対象類似度情報を事前設定された分類器に入力するステップと、
前記事前設定された分類器を用いて、前記第1目標対象と前記第2目標対象に対して軌跡を関連付けて得られた多種の軌跡関連関係の複数の判定得点を決定するステップと、
前記多種の軌跡関連関係から判定得点が最も高い軌跡関連関係を決定して、前記目標軌跡関連関係とするステップと、を含む請求項6に記載の方法。 - 前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定する前記ステップの後、
前記目標関連関係の前記第1目標対象から前記第2目標対象と関連しない第3目標対象が決定された場合に、前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得するステップと、
前記目標関連関係及び前記予測目標位置情報によって、前記第1目標対象の追跡軌跡を決定するステップと、を更に含む請求項6に記載の方法。 - 前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定する前記ステップの後、
前記目標関連関係の前記第2目標対象から前記第1目標対象と関連しない第4目標対象が決定された場合に、次のラウンドの関連関係に前記第4目標対象を加えるステップであって、前記次のラウンドの関連関係は前記現在画像フレームを履歴画像フレームとして生成される関連関係であるステップと、を更に含む請求項6に記載の方法。 - 前記単一目標追跡を実現可能なニューラルネットワークを用いて、前記第1目標対象に対応する信頼度値を決定するステップを更に含む請求項4に記載の方法。
- 前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得する前記ステップは、
前記第3目標対象の信頼度値が所定の信頼度値を満たした場合に、前記予測目標位置情報を取得するステップを含む請求項8に記載の方法。 - 前記第1目標対象の個数及び前記第2目標対象の個数はいずれも複数である請求項1〜11のいずれか一項に記載の方法。
- 現在画像フレームに隣接する履歴画像フレームに基づいて、第1目標対象に対応する予測目標位置情報、及び遮断対象に対応する予測遮断対象位置情報を決定し、前記遮断対象は前記第1目標対象に最も近い目標であり、前記現在画像フレームの前の履歴画像フレームシーケンスに基づいて、前記第1目標対象に対応する履歴目標外観特徴シーケンス及び遮断対象に対応する履歴遮断対象外観特徴シーケンスを決定し、前記現在画像フレームに基づいて、第2目標対象に対応する現在目標位置情報及び現在目標外観特徴を決定するように構成される第1決定モジュールと、
前記予測目標位置情報、前記履歴目標外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、前記第1目標対象と前記第2目標対象との間の目標類似度情報を決定し、前記予測遮断対象位置情報、前記履歴遮断対象外観特徴シーケンス、前記現在目標位置情報及び前記現在目標外観特徴に基づいて、遮断対象類似度情報を決定するための第2決定モジュールと、
前記目標類似度情報及び前記遮断対象類似度情報に基づいて、前記第1目標対象の追跡軌跡を決定するための軌跡追跡モジュールと、を含む目標追跡装置。 - 前記第1決定モジュールは、更に、前記予測目標位置情報及び前記現在目標位置情報に基づいて、前記目標位置類似度を決定し、前記履歴目標外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記目標外観類似度シーケンスを決定し、前記目標位置類似度及び前記目標外観類似度シーケンスを前記目標類似度情報として決定するために用いられる請求項13に記載の装置。
- 前記第1決定モジュールは、更に、前記予測遮断対象位置情報及び前記現在目標位置情報に基づいて、前記遮断対象位置類似度を決定し、前記履歴遮断対象外観特徴シーケンス及び前記現在目標外観特徴に基づいて、前記遮断対象外観類似度を決定し、前記遮断対象位置類似度及び前記遮断対象外観類似度を前記遮断対象類似度情報として決定するために用いられる請求項13に記載の装置。
- 前記第1決定モジュールは、更に、単一目標追跡を実現可能なニューラルネットワークを用いて、前記予測目標位置情報及び前記予測遮断対象位置情報を決定するために用いられる請求項13に記載の装置。
- 前記第1決定モジュールは、更に、歩行者再識別を実現可能なニューラルネットワークを用いて、前記履歴目標外観特徴シーケンス及び前記履歴遮断対象外観特徴シーケンスを決定するために用いられる請求項13に記載の装置。
- 前記軌跡追跡モジュールは、更に、前記目標類似度情報及び前記遮断対象類似度情報に基づいて前記第1目標対象と前記第2目標対象との間の目標軌跡関連関係を決定し、前記目標軌跡関連関係によって前記第2目標対象から前記第1目標対象に関連する目標を検索して前記第1目標対象の追跡軌跡を決定するために用いられる請求項13に記載の装置。
- 前記軌跡追跡モジュールは、
前記目標類似度情報及び前記遮断対象類似度情報を事前設定された分類器に入力するための入力サブモジュールと、
更に、前記事前設定された分類器を用いて、前記第1目標対象と前記第2目標対象に対して軌跡を関連付けて得られた多種の軌跡関連関係の複数の判定得点を決定し、前記多種の軌跡関連関係から判定得点が最も高い軌跡関連関係を決定して前記目標軌跡関連関係とするための第3決定サブモジュールと、を含む請求項18に記載の装置。 - 前記軌跡追跡モジュールは、
更に、前記目標関連関係の前記第1目標対象から前記第2目標対象と関連しない第3目標対象が決定された時に、前記第3目標対象の信頼度値に基づいて、前記予測目標位置情報を取得するための取得サブモジュールを更に含み、
前記第3決定サブモジュールは、更に、前記目標関連関係及び前記予測目標位置情報によって、前記第1目標対象の追跡軌跡を決定するために用いられる請求項19に記載の装置。 - 更に、前記目標関連関係の前記第2目標対象から前記第1目標対象と関連しない第4目標対象が決定された時に、次のラウンドの関連関係に前記第4目標対象を加えるための添加モジュールを更に含み、前記次のラウンドの関連関係は前記現在画像フレームを履歴画像フレームとして生成される関連関係である請求項18に記載の装置。
- 前記第2決定モジュールは、更に、前記単一目標追跡を実現可能なニューラルネットワークを用いて、前記第1目標対象に対応する信頼度値を決定するために用いられる請求項16に記載の装置。
- 前記取得サブモジュールは、更に、前記第3目標対象の信頼度値が所定の信頼度値を満たした時に、前記予測目標位置情報を取得するために用いられる請求項20に記載の装置。
- 前記第1目標対象の個数及び前記第2目標対象の個数はいずれも複数である請求項13〜23のいずれか一項に記載の装置。
- プロセッサ、メモリ及び通信バスを含み、前記プロセッサが前記メモリに記憶された動作プログラムを実行する時に請求項1〜12のいずれか一項に記載の方法を実現する目標追跡装置。
- プロセッサにより実行される時に請求項1〜12のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶されており、目標追跡装置に用いられるコンピュータ読取可能記憶媒体。
- プロセッサにより実行される時に、請求項1〜12のいずれか一項に記載の方法を実現できるコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910045247.8 | 2019-01-17 | ||
CN201910045247.8A CN109816701B (zh) | 2019-01-17 | 2019-01-17 | 一种目标跟踪方法及装置、存储介质 |
PCT/CN2019/111038 WO2020147348A1 (zh) | 2019-01-17 | 2019-10-14 | 一种目标跟踪方法及装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021514498A true JP2021514498A (ja) | 2021-06-10 |
JP6944598B2 JP6944598B2 (ja) | 2021-10-06 |
Family
ID=66604404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020533117A Active JP6944598B2 (ja) | 2019-01-17 | 2019-10-14 | 目標追跡方法及び装置、記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200364882A1 (ja) |
JP (1) | JP6944598B2 (ja) |
KR (1) | KR102444769B1 (ja) |
CN (1) | CN109816701B (ja) |
SG (1) | SG11202007604XA (ja) |
TW (1) | TWI715320B (ja) |
WO (1) | WO2020147348A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816701B (zh) * | 2019-01-17 | 2021-07-27 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法及装置、存储介质 |
CN110197502B (zh) * | 2019-06-06 | 2021-01-22 | 山东工商学院 | 一种基于身份再识别的多目标跟踪方法及系统 |
US11679764B2 (en) * | 2019-06-28 | 2023-06-20 | Baidu Usa Llc | Method for autonomously driving a vehicle based on moving trails of obstacles surrounding the vehicle |
CN110414443A (zh) * | 2019-07-31 | 2019-11-05 | 苏州市科远软件技术开发有限公司 | 一种目标跟踪方法、装置及枪球联动跟踪方法 |
CN110647818A (zh) * | 2019-08-27 | 2020-01-03 | 北京易华录信息技术股份有限公司 | 一种遮挡目标物体的识别方法及装置 |
CN110517293A (zh) * | 2019-08-29 | 2019-11-29 | 京东方科技集团股份有限公司 | 目标跟踪方法、装置、系统和计算机可读存储介质 |
CN110533685B (zh) * | 2019-08-30 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 对象跟踪方法和装置、存储介质及电子装置 |
CN110751205A (zh) * | 2019-10-17 | 2020-02-04 | 北京百度网讯科技有限公司 | 物体关联方法、装置、设备和介质 |
US11043003B2 (en) * | 2019-11-18 | 2021-06-22 | Waymo Llc | Interacted object detection neural network |
KR102311798B1 (ko) * | 2019-12-12 | 2021-10-08 | 포항공과대학교 산학협력단 | 다중 객체 추적 방법 및 장치 |
CN111402293B (zh) * | 2020-03-10 | 2023-11-14 | 北京邮电大学 | 面向智能交通的一种车辆跟踪方法及装置 |
CN112084914B (zh) * | 2020-08-31 | 2024-04-26 | 的卢技术有限公司 | 一种融合空间运动和表观特征学习的多目标跟踪方法 |
CN112288775B (zh) * | 2020-10-23 | 2022-04-15 | 武汉大学 | 一种基于长短期预测模型的多目标遮挡跟踪方法 |
CN112507949A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、路侧设备以及云控平台 |
CN112528932B (zh) * | 2020-12-22 | 2023-12-08 | 阿波罗智联(北京)科技有限公司 | 用于优化位置信息的方法、装置、路侧设备和云控平台 |
KR102405955B1 (ko) * | 2020-12-29 | 2022-06-08 | 현대위아 주식회사 | 다수의 모바일 로봇 경로 분석 시스템 및 방법 |
CN112734802B (zh) * | 2020-12-31 | 2024-02-09 | 杭州海康威视系统技术有限公司 | 一种轨迹获取方法及装置 |
CN112837349A (zh) * | 2021-02-09 | 2021-05-25 | 普联技术有限公司 | 一种目标跟踪方法、设备及计算机可读存储介质 |
TWI758162B (zh) * | 2021-04-15 | 2022-03-11 | 和碩聯合科技股份有限公司 | 生物形體的追蹤系統及方法 |
CN113420697B (zh) * | 2021-07-01 | 2022-12-09 | 中科人工智能创新技术研究院(青岛)有限公司 | 基于表观和形状特征的换装视频行人重识别方法及系统 |
CN113689465B (zh) * | 2021-07-16 | 2024-08-02 | 地平线(上海)人工智能技术有限公司 | 对目标对象进行预测的方法及装置、存储介质及电子设备 |
CN113674317B (zh) * | 2021-08-10 | 2024-04-26 | 深圳市捷顺科技实业股份有限公司 | 一种高位视频的车辆跟踪方法及装置 |
CN113808162B (zh) * | 2021-08-26 | 2024-01-23 | 中国人民解放军军事科学院军事医学研究院 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113793031B (zh) * | 2021-09-15 | 2023-09-29 | 中海油安全技术服务有限公司 | 海底管线风险预测方法及装置 |
CN113870312B (zh) * | 2021-09-30 | 2023-09-22 | 四川大学 | 基于孪生网络的单目标跟踪方法 |
CN114740855A (zh) * | 2022-04-11 | 2022-07-12 | 沛远智能科技(厦门)有限公司 | 一种人物跟随识别确定方法及设备 |
CN115035158B (zh) * | 2022-06-05 | 2023-11-17 | 东北石油大学 | 目标跟踪的方法及装置、电子设备和存储介质 |
CN114882425B (zh) * | 2022-06-13 | 2024-09-10 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种图像处理方法及装置 |
CN115641359B (zh) * | 2022-10-17 | 2023-10-31 | 北京百度网讯科技有限公司 | 确定对象的运动轨迹的方法、装置、电子设备和介质 |
CN117409044B (zh) * | 2023-12-14 | 2024-06-14 | 深圳卡思科电子有限公司 | 一种基于机器学习的智能对象动态跟随方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015198592A (ja) * | 2014-04-07 | 2015-11-12 | コニカミノルタ株式会社 | 細胞配列チップおよび細胞の配列方法 |
JP2017182295A (ja) * | 2016-03-29 | 2017-10-05 | Kddi株式会社 | 画像処理装置 |
JP2017199840A (ja) * | 2016-04-28 | 2017-11-02 | 株式会社村田製作所 | コイル部品 |
JP2018005839A (ja) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | 画像処理装置および画像処理方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE487201T1 (de) * | 2005-03-17 | 2010-11-15 | British Telecomm | Verfolgen von objekten in einer videosequenz |
GB2452512B (en) * | 2007-09-05 | 2012-02-29 | Sony Corp | Apparatus and method of object tracking |
US8374388B2 (en) * | 2007-12-28 | 2013-02-12 | Rustam Stolkin | Real-time tracking of non-rigid objects in image sequences for which the background may be changing |
WO2011060385A1 (en) * | 2009-11-13 | 2011-05-19 | Pixel Velocity, Inc. | Method for tracking an object through an environment across multiple cameras |
US8600106B1 (en) * | 2010-08-31 | 2013-12-03 | Adobe Systems Incorporated | Method and apparatus for tracking objects within a video frame sequence |
US9390328B2 (en) * | 2014-04-25 | 2016-07-12 | Xerox Corporation | Static occlusion handling using directional pixel replication in regularized motion environments |
JP6474126B2 (ja) * | 2015-02-27 | 2019-02-27 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
CN105631896B (zh) * | 2015-12-18 | 2018-03-02 | 武汉大学 | 一种基于混合分类器决策的压缩感知跟踪方法 |
CN105678808A (zh) * | 2016-01-08 | 2016-06-15 | 浙江宇视科技有限公司 | 运动目标跟踪方法及装置 |
JP6614611B2 (ja) * | 2016-02-29 | 2019-12-04 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
CN107346538A (zh) * | 2016-05-06 | 2017-11-14 | 株式会社理光 | 对象跟踪方法及设备 |
CN106355604B (zh) * | 2016-08-22 | 2019-10-18 | 杭州保新科技有限公司 | 图像目标跟踪方法与系统 |
WO2018081156A1 (en) * | 2016-10-25 | 2018-05-03 | Vmaxx Inc. | Vision based target tracking using tracklets |
CN106846373B (zh) * | 2016-11-16 | 2019-07-05 | 浙江工业大学 | 一种融合目标外观模型和博弈论的视频目标互遮挡处理方法 |
CN106845385A (zh) * | 2017-01-17 | 2017-06-13 | 腾讯科技(上海)有限公司 | 视频目标跟踪的方法和装置 |
KR101866338B1 (ko) * | 2017-01-23 | 2018-06-11 | 광주과학기술원 | 상대적 외형 특징 및 모션 패턴을 통한 다중 객체 추적 방법 및 이에 관한 컴퓨터 판독가능 저장 매체 |
US10373369B2 (en) * | 2017-03-16 | 2019-08-06 | Qualcomm Technologies, Inc. | Three-dimensional pose estimation of symmetrical objects |
CN108875465B (zh) * | 2017-05-26 | 2020-12-11 | 北京旷视科技有限公司 | 多目标跟踪方法、多目标跟踪装置以及非易失性存储介质 |
CN108470353A (zh) * | 2018-03-01 | 2018-08-31 | 腾讯科技(深圳)有限公司 | 一种目标跟踪方法、装置和存储介质 |
US10977827B2 (en) * | 2018-03-27 | 2021-04-13 | J. William Mauchly | Multiview estimation of 6D pose |
CN108573496B (zh) * | 2018-03-29 | 2020-08-11 | 淮阴工学院 | 基于lstm网络和深度增强学习的多目标跟踪方法 |
CN108986138A (zh) * | 2018-05-24 | 2018-12-11 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
US11749124B2 (en) * | 2018-06-12 | 2023-09-05 | Skydio, Inc. | User interaction with an autonomous unmanned aerial vehicle |
CN109145781B (zh) * | 2018-08-03 | 2021-05-04 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法和装置 |
CN109816701B (zh) * | 2019-01-17 | 2021-07-27 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法及装置、存储介质 |
US11948312B2 (en) * | 2019-04-17 | 2024-04-02 | Nec Corporation | Object detection/tracking device, method, and program recording medium |
-
2019
- 2019-01-17 CN CN201910045247.8A patent/CN109816701B/zh active Active
- 2019-10-14 SG SG11202007604XA patent/SG11202007604XA/en unknown
- 2019-10-14 WO PCT/CN2019/111038 patent/WO2020147348A1/zh active Application Filing
- 2019-10-14 KR KR1020207021162A patent/KR102444769B1/ko active IP Right Grant
- 2019-10-14 JP JP2020533117A patent/JP6944598B2/ja active Active
- 2019-11-29 TW TW108143794A patent/TWI715320B/zh active
-
2020
- 2020-08-06 US US16/986,740 patent/US20200364882A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015198592A (ja) * | 2014-04-07 | 2015-11-12 | コニカミノルタ株式会社 | 細胞配列チップおよび細胞の配列方法 |
JP2017182295A (ja) * | 2016-03-29 | 2017-10-05 | Kddi株式会社 | 画像処理装置 |
JP2017199840A (ja) * | 2016-04-28 | 2017-11-02 | 株式会社村田製作所 | コイル部品 |
JP2018005839A (ja) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | 画像処理装置および画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109816701A (zh) | 2019-05-28 |
WO2020147348A1 (zh) | 2020-07-23 |
SG11202007604XA (en) | 2020-09-29 |
KR102444769B1 (ko) | 2022-09-19 |
CN109816701B (zh) | 2021-07-27 |
US20200364882A1 (en) | 2020-11-19 |
JP6944598B2 (ja) | 2021-10-06 |
TW202029129A (zh) | 2020-08-01 |
KR20200100792A (ko) | 2020-08-26 |
TWI715320B (zh) | 2021-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6944598B2 (ja) | 目標追跡方法及び装置、記憶媒体 | |
CN110516556B (zh) | 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质 | |
Sharma et al. | Beyond pixels: Leveraging geometry and shape cues for online multi-object tracking | |
EP3338248B1 (en) | Systems and methods for object tracking | |
CN106934817B (zh) | 基于多属性的多目标跟踪方法及装置 | |
CN110288627B (zh) | 一种基于深度学习和数据关联的在线多目标跟踪方法 | |
Tan et al. | Multi-camera vehicle tracking and re-identification based on visual and spatial-temporal features. | |
JP2021026644A (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
KR101326943B1 (ko) | 추월차량 경고 시스템 및 추월차량 경고 방법 | |
CN112037257B (zh) | 一种目标跟踪方法、终端及其计算机可读存储介质 | |
Baig et al. | A robust motion detection technique for dynamic environment monitoring: A framework for grid-based monitoring of the dynamic environment | |
CN117242489A (zh) | 目标跟踪方法及装置、电子设备、计算机可读介质 | |
CN111275737A (zh) | 一种目标跟踪方法、装置、设备及存储介质 | |
Yang et al. | Network flow labeling for extended target tracking PHD filters | |
CN115984320A (zh) | 基于长短期运动预测和有序数据关联的多目标跟踪方法 | |
Liu et al. | Multi-camera vehicle tracking based on occlusion-aware and inter-vehicle information | |
CN112800841A (zh) | 一种行人计数方法、装置、系统及计算机可读存储介质 | |
CN111986231A (zh) | 一种多目标跟踪方法及系统 | |
JP2013069045A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
CN110781730A (zh) | 智能驾驶感知方法及感知装置 | |
CN115249407B (zh) | 指示灯状态识别方法、装置、电子设备、存储介质及产品 | |
CN109800685A (zh) | 一种视频中对象的确定方法及装置 | |
CN115171185A (zh) | 基于时空相关性的跨摄像头人脸跟踪方法、设备及介质 | |
Taalimi et al. | Robust multi-object tracking using confident detections and safe tracklets | |
CN114445787A (zh) | 非机动车重识别方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210910 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6944598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |