JP2022552772A - 目標追跡方法及び装置、電子デバイスと記憶媒体 - Google Patents
目標追跡方法及び装置、電子デバイスと記憶媒体 Download PDFInfo
- Publication number
- JP2022552772A JP2022552772A JP2022506434A JP2022506434A JP2022552772A JP 2022552772 A JP2022552772 A JP 2022552772A JP 2022506434 A JP2022506434 A JP 2022506434A JP 2022506434 A JP2022506434 A JP 2022506434A JP 2022552772 A JP2022552772 A JP 2022552772A
- Authority
- JP
- Japan
- Prior art keywords
- target
- target object
- camera
- current
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本開示は、出願番号が202011256801.6であり、出願日が2020年11月11日である中国特許出願に基づいて提出され、当該中国特許出願に基づいて優先権を主張し、ここで当該中国特許の全内容が参照として本開示に組み込まれる。
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定することと、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなかったことに応答して、当該目標対象の現在の特徴を抽出することと、
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することであって、前記複数の基準特徴は、前記複数の目標対象が互いに衝突する前に、前記複数の目標対象に対してそれぞれ抽出された特徴であることと、
当該目標対象の現在の特徴とマッチングする基準特徴に対応する識別子情報を当該目標対象の識別子情報として決定することと、を含む。
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出することは、
前記複数の目標対象のうちのいずれかの目標対象に対して、当該目標対象と前記複数の目標対象のうちの他の目標対象との間の距離がいずれも前記距離閾値よりも大きいことに応答して、当該目標対象の現在の特徴を抽出することを含む。
いずれかの目標対象に対して、当該目標対象の複数のカメラに対応する第1座標を決定することであって、当該目標対象のいずれかのカメラに対応する第1座標は、当該カメラによって収集された画像に基づいて得られた当該目標対象の第1座標を表すために用いられることと、
当該目標対象の前記複数のカメラに対応する第1座標に基づいて、前記追跡領域における当該目標対象が位置するサブ領域を決定することであって、前記追跡領域には複数のサブ領域が含まれることと、
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の前記複数のカメラに対応する第1座標を融合して、当該目標対象の融合座標を得ることと、をさらに含み、
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定することの前に、
前記追跡領域における目標対象の融合座標に基づいて、前記追跡領域における目標対象同士間の距離を決定することをさらに含む。
前記追跡領域における当該目標対象が位置するサブ領域を決定することと、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することと、
当該目標対象の現在の特徴を抽出するためのカメラによって収集されたビデオフレームに基づいて、当該目標対象の現在の特徴を抽出することと、を含む。
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することを含む。
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することは、
オーバーラップ条件を満たすカメラから、当該目標対象が位置するサブ領域に対する信頼度の最も高いカメラを当該目標対象の現在の特徴を抽出するためのカメラとして決定することであって、前記オーバーラップ条件は、前記現在の収集されているビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンがいずれもプリセット閾値未満であることを示すことを含む。
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラと前記追跡領域の複数のサブ領域との間の距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を決定することをさらに含む。
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラによって収集されたビデオフレームにおける目標対象同士間の平均距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を調整することをさらに含む。
前記複数の目標対象に対応する複数の基準特徴から、当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定することと、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値以上であることに応答して、当該類似度の最も高い基準特徴を当該目標対象の現在の特徴とマッチングする基準特徴として決定することと、を含む。
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値未満であることに応答して、当該目標対象と衝突しなく、且ついずれの他の目標対象と衝突する目標対象に対応する基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することをさらに含む。
いずれかの目標対象に対して、当該目標対象が現在の時刻及び前記現在の時刻の直前の時刻に他の目標対象と衝突しないことに応答して、前記直前の時刻に他の目標対象と衝突しなかった、且つ前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定し、又は、当該目標対象が現在の時刻及び前記直前の時刻に同じ他の目標対象と衝突することに応答して、前記直前の時刻に当該目標対象の属した衝突領域における、前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定することと、
前記直前の時刻の残りの目標対象から、前記現在の時刻の当該目標対象に最も近い目標対象を、前記現在の時刻の当該目標対象とマッチングする目標対象として決定し、当該マッチングする目標対象の識別子情報を当該目標対象の識別子情報とすることと、をさらに含む。
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定するように構成される第1決定部と、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出するように構成される抽出部と、
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定するように構成され、前記複数の基準特徴は、前記複数の目標対象が互いに衝突する前に、前記複数の目標対象に対してそれぞれ抽出された特徴である第2決定部と、
当該目標対象の現在の特徴とマッチングする基準特徴に対応する識別子情報を当該目標対象の識別子情報として決定するように構成される第3決定部とを備える。
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定するように構成される第1決定部61と、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出するように構成される抽出部62と、
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定するように構成され、前記複数の基準特徴は、前記複数の目標対象が互いに衝突する前に、前記複数の目標対象に対してそれぞれ抽出された特徴である第2決定部63と、
当該目標対象の現在の特徴とマッチングする基準特徴に対応する識別子情報を当該目標対象の識別子情報として決定するように構成される第3決定部64とを備える。
前記抽出部62は、
前記複数の目標対象のうちのいずれかの目標対象に対して、当該目標対象と前記複数の目標対象のうちの他の目標対象との間の距離がいずれも前記距離閾値よりも大きいことに応答して、当該目標対象の現在の特徴を抽出するように構成される。
いずれかの目標対象に対して、当該目標対象の複数のカメラに対応する第1座標を決定するように構成され、当該目標対象のいずれかのカメラに対応する第1座標は、当該カメラによって収集された画像に基づいて得られた当該目標対象の第1座標を表すために用いられる第3決定部64と、
当該目標対象の前記複数のカメラに対応する第1座標に基づいて、前記追跡領域における当該目標対象が位置するサブ領域を決定するように構成され、前記追跡領域には複数のサブ領域が含まれる第4決定部と、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の前記複数のカメラに対応する第1座標を融合して、当該目標対象の融合座標を得るように構成される融合部と、
前記追跡領域における目標対象の融合座標に基づいて、前記追跡領域における目標対象同士間の距離を決定するように構成される第5決定部と、をさらに備える。
前記追跡領域における当該目標対象が位置するサブ領域を決定し、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定し、
当該目標対象の現在の特徴を抽出するためのカメラによって収集されたビデオフレームに基づいて、当該目標対象の現在の特徴を抽出するように構成される。
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定するように構成される。
前記抽出部62は、
オーバーラップ条件を満たすカメラから、当該目標対象が位置するサブ領域に対する信頼度の最も高いカメラを当該目標対象の現在の特徴を抽出するためのカメラとして決定するように構成され、前記オーバーラップ条件は、前記現在の収集されているビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンがいずれもプリセット閾値未満であることを示す。
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラと前記追跡領域の複数のサブ領域との間の距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を決定するように構成される第6決定部をさらに備える。
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラによって収集されたビデオフレームにおける目標対象同士間の平均距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を調整するように構成される調整部をさらに備える。
前記複数の目標対象に対応する複数の基準特徴から、当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定し、
当該類似度が最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値以上であることに応答して、当該類似度が最も高い基準特徴を当該目標対象の現在の特徴とマッチングする基準特徴として決定するように構成される。
当該類似度が最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値未満であることに応答して、当該目標対象と衝突しなく、且ついずれの他の目標対象と衝突する目標対象に対応する基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定するように構成される第7決定部をさらに備える。
いずれかの目標対象に対して、当該目標対象が現在の時刻及び前記現在の時刻の直前の時刻に他の目標対象と衝突しないことに応答して、前記直前の時刻に他の目標対象と衝突しなく、且つ前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定し、又は、当該目標対象が前記現在の時刻及び前記直前の時刻に同じ他の目標対象と衝突することに応答して、前記直前の時刻に当該目標対象の属した衝突領域における、前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定するように構成される第8決定部と、
前記直前の時刻の残りの目標対象から、前記現在の時刻の当該目標対象に最も近い目標対象を、前記現在の時刻の当該目標対象とマッチングする目標対象として決定し、当該マッチングする目標対象の識別子情報を当該目標対象の識別子情報とするように構成される第9決定部と、をさらに備える。
例えば、本願は以下の項目を提供する。
(項目1)
目標追跡方法であって、
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定することと、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出することと、
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することであって、前記複数の基準特徴は、前記複数の目標対象が互いに衝突する前に、前記複数の目標対象に対してそれぞれ抽出された特徴であることと、
当該目標対象の現在の特徴とマッチングする基準特徴に対応する識別子情報を当該目標対象の識別子情報として決定することと、を含む、目標追跡方法。
(項目2)
互いに衝突する複数の目標対象のうちのいずれかの目標対象と、前記複数の目標対象のうちの他の少なくとも1つの目標対象との間の距離は、距離閾値以下であり、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出することは、
前記複数の目標対象のうちのいずれかの目標対象に対して、当該目標対象と前記複数の目標対象のうちの他の目標対象との間の距離がいずれも前記距離閾値よりも大きいことに応答して、当該目標対象の現在の特徴を抽出することを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記方法は、
いずれかの目標対象に対して、当該目標対象の複数のカメラに対応する第1座標を決定することであって、当該目標対象の、いずれかのカメラに対応する第1座標は、当該カメラによって収集された画像に基づいて得られた当該目標対象の第1座標を表すために用いられることと、
当該目標対象の前記複数のカメラに対応する第1座標に基づいて、前記追跡領域における当該目標対象が位置するサブ領域を決定することであって、前記追跡領域には複数のサブ領域が含まれることと、
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の前記複数のカメラに対応する第1座標を融合して、当該目標対象の融合座標を得ることと、をさらに含み、
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定することの前に、
前記追跡領域における目標対象の融合座標に基づいて、前記追跡領域における目標対象同士間の距離を決定することをさらに含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
当該目標対象の現在の特徴を抽出することは、
前記追跡領域における当該目標対象が位置するサブ領域を決定することと、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することと、
当該目標対象の現在の特徴を抽出するためのカメラによって収集されたビデオフレームに基づいて、当該目標対象の現在の特徴を抽出することと、を含むことを特徴とする
項目1乃至3のいずれか一項に記載の方法。
(項目5)
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することは、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することを含むことを特徴とする
項目4に記載の方法。
(項目6)
前記オーバーラップ情報は、当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンを含み、
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することは、
オーバーラップ条件を満たすカメラから、当該目標対象が位置するサブ領域に対する信頼度の最も高いカメラを当該目標対象の現在の特徴を抽出するためのカメラとして決定することであって、前記オーバーラップ条件は、前記現在の収集されているビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンがいずれもプリセット閾値未満であることを示すことを含むことを特徴とする
項目5に記載の方法。
(項目7)
前記方法は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラと前記追跡領域の複数のサブ領域との間の距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を決定することをさらに含むことを特徴とする
項目3乃至6のいずれか一項に記載の方法。
(項目8)
前記複数のカメラの前記複数のサブ領域に対する信頼度を決定することの後、前記方法は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラによって収集されたビデオフレームにおける目標対象同士間の平均距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を調整することをさらに含むことを特徴とする
項目7に記載の方法。
(項目9)
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することは、
前記複数の目標対象に対応する複数の基準特徴から、当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定することと、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値以上であることに応答して、当該類似度の最も高い基準特徴を当該目標対象の現在の特徴とマッチングする基準特徴として決定することと、を含むことを特徴とする
項目1乃至8のいずれか一項に記載の方法。
(項目10)
当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定することの後、前記方法は、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値未満であることに応答して、当該目標対象と衝突しなく、且ついずれの他の目標対象と衝突する目標対象に対応する基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することをさらに含むことを特徴とする
項目9に記載の方法。
(項目11)
前記方法は、
いずれかの目標対象に対して、当該目標対象が現在の時刻及び前記現在の時刻の直前の時刻に他の目標対象と衝突しないことに応答して、前記直前の時刻に他の目標対象と衝突しなかった、且つ前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定し、又は、当該目標対象が前記現在の時刻及び前記直前の時刻に同じ他の目標対象と衝突することに応答して、前記直前の時刻に当該目標対象の属した衝突領域における、前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定することと、
前記直前の時刻の残りの目標対象から、前記現在の時刻の当該目標対象に最も近い目標対象を、前記現在の時刻の当該目標対象とマッチングする目標対象として決定し、当該マッチングする目標対象の識別子情報を当該目標対象の識別子情報とすることと、をさらに含むことを特徴とする
項目1乃至10のいずれか一項に記載の方法。
(項目12)
目標追跡装置であって、
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定するように構成される第1決定部と、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出するように構成される抽出部と、
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定するように構成され、前記複数の基準特徴は、前記複数の目標対象が互いに衝突する前に、前記複数の目標対象に対してそれぞれ抽出された特徴である第2決定部と、
当該目標対象の現在の特徴とマッチングする基準特徴に対応する識別子情報を当該目標対象の識別子情報として決定するように構成される第3決定部とを備える、目標追跡装置。
(項目13)
前記抽出部は、
前記複数の目標対象のうちのいずれかの目標対象に対して、当該目標対象と前記複数の目標対象のうちの他の目標対象との間の距離がいずれも前記距離閾値よりも大きいことに応答して、当該目標対象の現在の特徴を抽出するように構成されることを特徴とする
項目12に記載の装置。
(項目14)
前記装置は、
いずれかの目標対象に対して、当該目標対象の複数のカメラに対応する第1座標を決定するように構成され、当該目標対象の、いずれかのカメラに対応する第1座標は、当該カメラによって収集された画像に基づいて得られた当該目標対象の第1座標を表すために用いられる第3決定部と、
当該目標対象の前記複数のカメラに対応する第1座標に基づいて、前記追跡領域における当該目標対象が位置するサブ領域を決定するように構成され、前記追跡領域には複数のサブ領域が含まれる第4決定部と、
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の前記複数のカメラに対応する第1座標を融合して、当該目標対象の融合座標を得るように構成される融合部と、
前記追跡領域における目標対象の融合座標に基づいて、前記追跡領域における目標対象同士間の距離を決定するように構成される第5決定部と、をさらに備えることを特徴とする
項目12又は13に記載の装置。
(項目15)
前記抽出部は、
前記追跡領域における当該目標対象が位置するサブ領域を決定し、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定し、
当該目標対象の現在の特徴を抽出するためのカメラによって収集されたビデオフレームに基づいて、当該目標対象の現在の特徴を抽出するように構成されることを特徴とする
項目12乃至14のいずれか一項に記載の装置。
(項目16)
前記抽出部は、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定するように構成されることを特徴とする
項目15に記載の装置。
(項目17)
前記オーバーラップ情報は、当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンを含み、
前記抽出部は、
オーバーラップ条件を満たすカメラから、当該目標対象が位置するサブ領域に対する信頼度の最も高いカメラを当該目標対象の現在の特徴を抽出するためのカメラとして決定するように構成され、前記オーバーラップ条件は、前記現在の収集されているビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンがいずれもプリセット閾値未満であることを示すことを特徴とする
項目16に記載の装置。
(項目18)
前記装置は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラと前記追跡領域の複数のサブ領域との間の距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を決定するように構成される第6決定部をさらに備えることを特徴とする
項目14乃至17のいずれか一項に記載の装置。
(項目19)
前記装置は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラによって収集されたビデオフレームにおける目標対象同士間の平均距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を調整するように構成される調整部をさらに備えることを特徴とする
項目18に記載の装置。
(項目20)
前記第2決定部は、
前記複数の目標対象に対応する複数の基準特徴から、当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定し、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値以上であることに応答して、当該類似度の最も高い基準特徴を当該目標対象の現在の特徴とマッチングする基準特徴として決定するように構成されることを特徴とする
項目12乃至18のいずれか一項に記載の装置。
(項目21)
前記装置は、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値未満であることに応答して、当該目標対象と衝突しなく、且ついずれの他の目標対象と衝突する目標対象に対応する基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定するように構成される第7決定部をさらに備えることを特徴とする
項目20に記載の装置。
(項目22)
前記装置は、
いずれかの目標対象に対して、当該目標対象が現在の時刻及び前記現在の時刻の直前の時刻に他の目標対象と衝突しないことに応答して、前記直前の時刻に他の目標対象と衝突しなかった、且つ前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定し、又は、当該目標対象が前記現在の時刻及び前記直前の時刻に同じ他の目標対象と衝突することに応答して、前記直前の時刻に当該目標対象の属した衝突領域における、前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定するように構成される第8決定部と、
前記直前の時刻の残りの目標対象から、前記現在の時刻の当該目標対象に最も近い目標対象を、前記現在の時刻の当該目標対象とマッチングする目標対象として決定し、当該マッチングする目標対象の識別子情報を当該目標対象の識別子情報とするように構成される第9決定部と、をさらに備えることを特徴とする
項目12乃至21のいずれか一項に記載の装置。
(項目23)
電子デバイスであって、
1つ又は複数のプロセッサと、
実行可能な命令を記憶するように構成されるメモリとを備え、
ここで、前記1つ又は複数のプロセッサは、前記メモリに記憶されている実行可能な命令を呼び出して、項目1乃至11のいずれか一項に記載の方法を実行するように構成される、電子デバイス。
(項目24)
コンピュータプログラム命令が記憶されているコンピュータ可読記憶媒体であって、
前記コンピュータプログラム命令がプロセッサに実行される場合、項目1乃至11のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。
(項目25)
コンピュータ可読コードが含まれているコンピュータプログラムであって、
前記コンピュータ可読コードが電子デバイスで実行される場合、項目1乃至11のいずれか一項に記載の方法を実現するように前記電子デバイスにおけるプロセッサによって実行される、コンピュータプログラム。
いずれかの目標対象に対して、当該目標対象の複数のカメラに対応する第1座標を決定するように構成され、当該目標対象のいずれかのカメラに対応する第1座標は、当該カメラによって収集された画像に基づいて得られた当該目標対象の第1座標を表すために用いられる第1座標決定部と、
当該目標対象の前記複数のカメラに対応する第1座標に基づいて、前記追跡領域における当該目標対象が位置するサブ領域を決定するように構成され、前記追跡領域には複数のサブ領域が含まれる第4決定部と、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の前記複数のカメラに対応する第1座標を融合して、当該目標対象の融合座標を得るように構成される融合部と、
前記追跡領域における目標対象の融合座標に基づいて、前記追跡領域における目標対象同士間の距離を決定するように構成される第5決定部と、をさらに備える。
Claims (25)
- 目標追跡方法であって、
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定することと、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出することと、
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することであって、前記複数の基準特徴は、前記複数の目標対象が互いに衝突する前に、前記複数の目標対象に対してそれぞれ抽出された特徴であることと、
当該目標対象の現在の特徴とマッチングする基準特徴に対応する識別子情報を当該目標対象の識別子情報として決定することと、を含む、目標追跡方法。 - 互いに衝突する複数の目標対象のうちのいずれかの目標対象と、前記複数の目標対象のうちの他の少なくとも1つの目標対象との間の距離は、距離閾値以下であり、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出することは、
前記複数の目標対象のうちのいずれかの目標対象に対して、当該目標対象と前記複数の目標対象のうちの他の目標対象との間の距離がいずれも前記距離閾値よりも大きいことに応答して、当該目標対象の現在の特徴を抽出することを含むことを特徴とする
請求項1に記載の方法。 - 前記方法は、
いずれかの目標対象に対して、当該目標対象の複数のカメラに対応する第1座標を決定することであって、当該目標対象の、いずれかのカメラに対応する第1座標は、当該カメラによって収集された画像に基づいて得られた当該目標対象の第1座標を表すために用いられることと、
当該目標対象の前記複数のカメラに対応する第1座標に基づいて、前記追跡領域における当該目標対象が位置するサブ領域を決定することであって、前記追跡領域には複数のサブ領域が含まれることと、
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の前記複数のカメラに対応する第1座標を融合して、当該目標対象の融合座標を得ることと、をさらに含み、
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定することの前に、
前記追跡領域における目標対象の融合座標に基づいて、前記追跡領域における目標対象同士間の距離を決定することをさらに含むことを特徴とする
請求項1又は2に記載の方法。 - 当該目標対象の現在の特徴を抽出することは、
前記追跡領域における当該目標対象が位置するサブ領域を決定することと、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することと、
当該目標対象の現在の特徴を抽出するためのカメラによって収集されたビデオフレームに基づいて、当該目標対象の現在の特徴を抽出することと、を含むことを特徴とする
請求項1乃至3のいずれか一項に記載の方法。 - 前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することは、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することを含むことを特徴とする
請求項4に記載の方法。 - 前記オーバーラップ情報は、当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンを含み、
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定することは、
オーバーラップ条件を満たすカメラから、当該目標対象が位置するサブ領域に対する信頼度の最も高いカメラを当該目標対象の現在の特徴を抽出するためのカメラとして決定することであって、前記オーバーラップ条件は、前記現在の収集されているビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンがいずれもプリセット閾値未満であることを示すことを含むことを特徴とする
請求項5に記載の方法。 - 前記方法は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラと前記追跡領域の複数のサブ領域との間の距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を決定することをさらに含むことを特徴とする
請求項3乃至6のいずれか一項に記載の方法。 - 前記複数のカメラの前記複数のサブ領域に対する信頼度を決定することの後、前記方法は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラによって収集されたビデオフレームにおける目標対象同士間の平均距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を調整することをさらに含むことを特徴とする
請求項7に記載の方法。 - 前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することは、
前記複数の目標対象に対応する複数の基準特徴から、当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定することと、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値以上であることに応答して、当該類似度の最も高い基準特徴を当該目標対象の現在の特徴とマッチングする基準特徴として決定することと、を含むことを特徴とする
請求項1乃至8のいずれか一項に記載の方法。 - 当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定することの後、前記方法は、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値未満であることに応答して、当該目標対象と衝突しなく、且ついずれの他の目標対象と衝突する目標対象に対応する基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定することをさらに含むことを特徴とする
請求項9に記載の方法。 - 前記方法は、
いずれかの目標対象に対して、当該目標対象が現在の時刻及び前記現在の時刻の直前の時刻に他の目標対象と衝突しないことに応答して、前記直前の時刻に他の目標対象と衝突しなかった、且つ前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定し、又は、当該目標対象が前記現在の時刻及び前記直前の時刻に同じ他の目標対象と衝突することに応答して、前記直前の時刻に当該目標対象の属した衝突領域における、前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定することと、
前記直前の時刻の残りの目標対象から、前記現在の時刻の当該目標対象に最も近い目標対象を、前記現在の時刻の当該目標対象とマッチングする目標対象として決定し、当該マッチングする目標対象の識別子情報を当該目標対象の識別子情報とすることと、をさらに含むことを特徴とする
請求項1乃至10のいずれか一項に記載の方法。 - 目標追跡装置であって、
追跡領域における目標対象同士間の距離に基づいて、互いに衝突する複数の目標対象を決定するように構成される第1決定部と、
前記複数の目標対象のうちのいずれかの目標対象が複数の目標対象のうちの他の目標対象と衝突しなくなったことに応答して、当該目標対象の現在の特徴を抽出するように構成される抽出部と、
前記複数の目標対象に対応する複数の基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定するように構成され、前記複数の基準特徴は、前記複数の目標対象が互いに衝突する前に、前記複数の目標対象に対してそれぞれ抽出された特徴である第2決定部と、
当該目標対象の現在の特徴とマッチングする基準特徴に対応する識別子情報を当該目標対象の識別子情報として決定するように構成される第3決定部とを備える、目標追跡装置。 - 前記抽出部は、
前記複数の目標対象のうちのいずれかの目標対象に対して、当該目標対象と前記複数の目標対象のうちの他の目標対象との間の距離がいずれも前記距離閾値よりも大きいことに応答して、当該目標対象の現在の特徴を抽出するように構成されることを特徴とする
請求項12に記載の装置。 - 前記装置は、
いずれかの目標対象に対して、当該目標対象の複数のカメラに対応する第1座標を決定するように構成され、当該目標対象の、いずれかのカメラに対応する第1座標は、当該カメラによって収集された画像に基づいて得られた当該目標対象の第1座標を表すために用いられる第3決定部と、
当該目標対象の前記複数のカメラに対応する第1座標に基づいて、前記追跡領域における当該目標対象が位置するサブ領域を決定するように構成され、前記追跡領域には複数のサブ領域が含まれる第4決定部と、
前記複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の前記複数のカメラに対応する第1座標を融合して、当該目標対象の融合座標を得るように構成される融合部と、
前記追跡領域における目標対象の融合座標に基づいて、前記追跡領域における目標対象同士間の距離を決定するように構成される第5決定部と、をさらに備えることを特徴とする
請求項12又は13に記載の装置。 - 前記抽出部は、
前記追跡領域における当該目標対象が位置するサブ領域を決定し、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定し、
当該目標対象の現在の特徴を抽出するためのカメラによって収集されたビデオフレームに基づいて、当該目標対象の現在の特徴を抽出するように構成されることを特徴とする
請求項12乃至14のいずれか一項に記載の装置。 - 前記抽出部は、
複数のカメラの当該目標対象が位置するサブ領域に対する信頼度、及び前記複数のカメラによって収集されたビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとの間のオーバーラップ情報に基づいて、当該目標対象の現在の特徴を抽出するためのカメラを決定するように構成されることを特徴とする
請求項15に記載の装置。 - 前記オーバーラップ情報は、当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンを含み、
前記抽出部は、
オーバーラップ条件を満たすカメラから、当該目標対象が位置するサブ領域に対する信頼度の最も高いカメラを当該目標対象の現在の特徴を抽出するためのカメラとして決定するように構成され、前記オーバーラップ条件は、前記現在の収集されているビデオフレームにおける当該目標対象の検出ボックスと他の目標対象の検出ボックスとのインターセクションオーバーユニオンがいずれもプリセット閾値未満であることを示すことを特徴とする
請求項16に記載の装置。 - 前記装置は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラと前記追跡領域の複数のサブ領域との間の距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を決定するように構成される第6決定部をさらに備えることを特徴とする
請求項14乃至17のいずれか一項に記載の装置。 - 前記装置は、
前記複数のカメラのうちのいずれかのカメラに対して、当該カメラによって収集されたビデオフレームにおける目標対象同士間の平均距離に基づいて、当該カメラの前記複数のサブ領域に対する信頼度を調整するように構成される調整部をさらに備えることを特徴とする
請求項18に記載の装置。 - 前記第2決定部は、
前記複数の目標対象に対応する複数の基準特徴から、当該目標対象の現在の特徴との類似度が最も高い基準特徴を決定し、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値以上であることに応答して、当該類似度の最も高い基準特徴を当該目標対象の現在の特徴とマッチングする基準特徴として決定するように構成されることを特徴とする
請求項12乃至18のいずれか一項に記載の装置。 - 前記装置は、
当該類似度の最も高い基準特徴と当該目標対象の現在の特徴との類似度が類似度閾値未満であることに応答して、当該目標対象と衝突しなく、且ついずれの他の目標対象と衝突する目標対象に対応する基準特徴に基づいて、当該目標対象の現在の特徴とマッチングする基準特徴を決定するように構成される第7決定部をさらに備えることを特徴とする
請求項20に記載の装置。 - 前記装置は、
いずれかの目標対象に対して、当該目標対象が現在の時刻及び前記現在の時刻の直前の時刻に他の目標対象と衝突しないことに応答して、前記直前の時刻に他の目標対象と衝突しなかった、且つ前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定し、又は、当該目標対象が前記現在の時刻及び前記直前の時刻に同じ他の目標対象と衝突することに応答して、前記直前の時刻に当該目標対象の属した衝突領域における、前記現在の時刻の他の目標対象とマッチングしない目標対象を、前記直前の時刻の残りの目標対象として決定するように構成される第8決定部と、
前記直前の時刻の残りの目標対象から、前記現在の時刻の当該目標対象に最も近い目標対象を、前記現在の時刻の当該目標対象とマッチングする目標対象として決定し、当該マッチングする目標対象の識別子情報を当該目標対象の識別子情報とするように構成される第9決定部と、をさらに備えることを特徴とする
請求項12乃至21のいずれか一項に記載の装置。 - 電子デバイスであって、
1つ又は複数のプロセッサと、
実行可能な命令を記憶するように構成されるメモリとを備え、
ここで、前記1つ又は複数のプロセッサは、前記メモリに記憶されている実行可能な命令を呼び出して、請求項1乃至11のいずれか一項に記載の方法を実行するように構成される、電子デバイス。 - コンピュータプログラム命令が記憶されているコンピュータ可読記憶媒体であって、
前記コンピュータプログラム命令がプロセッサに実行される場合、請求項1乃至11のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。 - コンピュータ可読コードが含まれているコンピュータプログラムであって、
前記コンピュータ可読コードが電子デバイスで実行される場合、請求項1乃至11のいずれか一項に記載の方法を実現するように前記電子デバイスにおけるプロセッサによって実行される、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011256801.6A CN112330717B (zh) | 2020-11-11 | 2020-11-11 | 目标跟踪方法及装置、电子设备和存储介质 |
CN202011256801.6 | 2020-11-11 | ||
PCT/CN2021/086020 WO2022099988A1 (zh) | 2020-11-11 | 2021-04-08 | 目标跟踪方法及装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022552772A true JP2022552772A (ja) | 2022-12-20 |
Family
ID=74318993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022506434A Pending JP2022552772A (ja) | 2020-11-11 | 2021-04-08 | 目標追跡方法及び装置、電子デバイスと記憶媒体 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022552772A (ja) |
KR (1) | KR102446688B1 (ja) |
CN (1) | CN112330717B (ja) |
WO (1) | WO2022099988A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112330717B (zh) * | 2020-11-11 | 2023-03-10 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
CN113129339B (zh) * | 2021-04-28 | 2023-03-10 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342762A (ja) * | 2001-05-22 | 2002-11-29 | Matsushita Electric Ind Co Ltd | 物体追跡方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101355974B1 (ko) * | 2010-08-24 | 2014-01-29 | 한국전자통신연구원 | 복수의 객체를 추적하는 객체 추적 방법 및 장치 |
US9147260B2 (en) * | 2010-12-20 | 2015-09-29 | International Business Machines Corporation | Detection and tracking of moving objects |
KR101406334B1 (ko) * | 2013-04-18 | 2014-06-19 | 전북대학교산학협력단 | 신뢰도와 지연된 결정을 활용한 다중 객체 추적 시스템 및 방법 |
JP6439757B2 (ja) * | 2016-07-08 | 2018-12-19 | オムロン株式会社 | 画像処理装置および画像処理方法 |
KR101868103B1 (ko) * | 2017-07-12 | 2018-06-18 | 군산대학교 산학협력단 | 다중 이동 물체의 식별 및 추적을 위한 영상 감시 장치 및 방법 |
CN107831490A (zh) * | 2017-12-01 | 2018-03-23 | 南京理工大学 | 一种改进的多扩展目标跟踪方法 |
CN110827325B (zh) * | 2019-11-13 | 2022-08-09 | 阿波罗智联(北京)科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN111275737B (zh) * | 2020-01-14 | 2023-09-12 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN111369590A (zh) * | 2020-02-27 | 2020-07-03 | 北京三快在线科技有限公司 | 多目标跟踪方法、装置、存储介质及电子设备 |
CN111860373B (zh) * | 2020-07-24 | 2022-05-20 | 浙江商汤科技开发有限公司 | 目标检测方法及装置、电子设备和存储介质 |
CN112330717B (zh) * | 2020-11-11 | 2023-03-10 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
-
2020
- 2020-11-11 CN CN202011256801.6A patent/CN112330717B/zh active Active
-
2021
- 2021-04-08 KR KR1020227002278A patent/KR102446688B1/ko active IP Right Grant
- 2021-04-08 WO PCT/CN2021/086020 patent/WO2022099988A1/zh active Application Filing
- 2021-04-08 JP JP2022506434A patent/JP2022552772A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342762A (ja) * | 2001-05-22 | 2002-11-29 | Matsushita Electric Ind Co Ltd | 物体追跡方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102446688B1 (ko) | 2022-09-23 |
WO2022099988A1 (zh) | 2022-05-19 |
KR20220066245A (ko) | 2022-05-24 |
CN112330717A (zh) | 2021-02-05 |
CN112330717B (zh) | 2023-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102593020B1 (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 | |
CN106651955B (zh) | 图片中目标物的定位方法及装置 | |
JP7171884B2 (ja) | 歩行者認識方法及び装置 | |
KR102421819B1 (ko) | 이미지에서의 시퀀스를 인식하는 방법 및 장치, 전자 기기 및 기억 매체 | |
KR20210047336A (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 | |
KR20210102180A (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 | |
JP7061191B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN105654039B (zh) | 图像处理的方法和装置 | |
CN111104920B (zh) | 视频处理方法及装置、电子设备和存储介质 | |
CN110969115B (zh) | 行人事件的检测方法及装置、电子设备和存储介质 | |
JP2022514726A (ja) | 同行人を検出する方法および装置、システム、電子機器、記憶媒体及びコンピュータプログラム | |
JP2022522551A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN109145150B (zh) | 目标匹配方法及装置、电子设备和存储介质 | |
CN109344703B (zh) | 对象检测方法及装置、电子设备和存储介质 | |
CN112906484B (zh) | 一种视频帧处理方法及装置、电子设备和存储介质 | |
JP2022552772A (ja) | 目標追跡方法及び装置、電子デバイスと記憶媒体 | |
CN105335714B (zh) | 照片处理方法、装置和设备 | |
CN111259967A (zh) | 图像分类及神经网络训练方法、装置、设备及存储介质 | |
CN109034150A (zh) | 图像处理方法及装置 | |
KR20220123218A (ko) | 타깃 포지셔닝 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP2023514762A (ja) | 通行検出方法及びその装置、電子デバイス並びにコンピュータ可読記憶媒体 | |
CN112101216A (zh) | 人脸识别方法、装置、设备及存储介质 | |
CN111680646A (zh) | 动作检测方法及装置、电子设备和存储介质 | |
CN110781975B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
JP2022511151A (ja) | 積み重ね物体を認識する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220131 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230602 |