JP7375192B2 - ターゲット追跡方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラムプロダクト - Google Patents
ターゲット追跡方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラムプロダクト Download PDFInfo
- Publication number
- JP7375192B2 JP7375192B2 JP2022527078A JP2022527078A JP7375192B2 JP 7375192 B2 JP7375192 B2 JP 7375192B2 JP 2022527078 A JP2022527078 A JP 2022527078A JP 2022527078 A JP2022527078 A JP 2022527078A JP 7375192 B2 JP7375192 B2 JP 7375192B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- frame
- image
- current frame
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 238000004590 computer program Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims description 123
- 239000011159 matrix material Substances 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 25
- 238000012937 correction Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Description
本開示は、2020年5月22日に中国で提出された中国特許出願番号No.202010443892.8の優先権を主張し、その全ての内容が援用によりここに取り込まれる。
現在のフレームの画像に対してターゲット検出を行い、前記現在のフレームの画像におけるターゲット検出枠の、第1の位置及び第1のサイズを表すための第1の情報を得ることと、
カルマンフィルタを利用してターゲット追跡を行い、前記現在のフレームの画像におけるターゲット追跡枠の、第2の位置及び第2のサイズを表すための第2の情報を得ることと、
カルマンフィルタにおける予測誤差共分散行列に対してフォールトトレランス補正を行い、補正後の共分散行列を得ることと、
前記第1の情報、前記第2の情報及び前記補正後の共分散行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出することと、
前記マハラノビス距離に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うことと、
を含むターゲット追跡方法を提供する。
現在のフレームの画像に対してターゲット検出を行い、前記現在のフレームの画像におけるターゲット検出枠の、第1の位置及び第1のサイズを表すための第1の情報を得るための検出モジュールと、
カルマンフィルタを利用してターゲット追跡を行い、前記現在のフレームの画像におけるターゲット追跡枠の、第2の位置及び第2のサイズを表すための第2の情報を得るための追跡モジュールと、
カルマンフィルタにおける予測誤差共分散行列に対してフォールトトレランス補正を行い、補正後の共分散行列を得るための補正モジュールと、
前記第1の情報、前記第2の情報及び前記補正後の共分散行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出するための第1の算出モジュールと、
前記マハラノビス距離に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うためのマッチングモジュールと、
を含むターゲット追跡装置を提供する。
少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサにより実行可能で、前記少なくとも1つのプロセッサにより実行されることにより、前記少なくとも1つのプロセッサに前記ターゲット追跡方法を実行させる命令が記憶され、前記少なくとも1つのプロセッサと通信接続されたメモリと、
を含む電子機器を提供する。
α>0の場合、常に、以下の不等式(1)~(3)がある。
前記現在のフレームの画像のトポロジー関係行列MT1を取得し、かつ前記現在のフレームの画像の前のフレームの画像のトポロジー関係行列MT2を取得することと、
MT1とMT2を要素ごとに乗算して、トポロジー変化行列M0を得ることと、
M0を利用して、現在のフレームの画像におけるターゲット検出枠のマッチング結果に対して補正処理を行うことと、をさらに含む。
現在のフレームの画像に対してターゲット検出を行い、前記現在のフレームの画像におけるターゲット検出枠の、第1の位置及び第1のサイズを表すための第1の情報を得るための検出モジュール31と、
カルマンフィルタを利用してターゲット追跡を行い、前記現在のフレームの画像におけるターゲット追跡枠の、第2の位置及び第2のサイズを表すための第2の情報を得るための追跡モジュール32と、
カルマンフィルタにおける予測誤差共分散行列に対してフォールトトレランス補正を行い、補正後の共分散行列を得るための補正モジュール33と、
前記第1の情報、前記第2の情報及び前記補正後の共分散行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出するための第1の算出モジュール34と、
前記マハラノビス距離に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うためのマッチングモジュール35と、
を含む。
前記現在のフレームの画像のトポロジー関係行列MT1を取得し、かつ前記現在のフレームの画像の前のフレームの画像のトポロジー関係行列MT2を取得するための取得モジュールと、
前記MT1と前記MT2を要素ごとに乗算して、トポロジー変化行列M0を得るための第2の算出モジュールと、
前記M0を利用して、前記現在のフレームの画像におけるターゲット検出枠のマッチング結果に対して補正処理を行うための処理モジュールと、をさらに含み、
ここで、前記MT1における第i行第j列の値は、前記現在のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係を表し、前記MT2における第i行第j列の値は、前記前のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係を表し、前記M0における第i行第j列の値は、前記前のフレームの画像に比べて、前記現在のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係が変化したか否かを表す。
前記マハラノビス距離に基づいて、第i行第j列の値が前記現在のフレームの画像における第i個のターゲット追跡枠と第j個のターゲット検出枠との間の距離類似度を表す距離類似度行列MDを算出するための第3の算出モジュールと、
第i行第j列の値が第i個のターゲット追跡枠に対応する前のフレームの画像における外観深度特徴と第j個のターゲット検出枠の外観深度特徴とのコサイン類似度を表す外観深度特徴類似度行列MAを算出するための第4の算出モジュールと、
前記MD及び前記MAに基づいて、類似度マッチング行列を決定するための決定モジュールと、
を含む。
Claims (11)
- 現在のフレームの画像に対してターゲット検出を行い、前記現在のフレームの画像におけるターゲット検出枠の、第1の位置及び第1のサイズを表すための第1の情報を得ることと、
カルマンフィルタを利用してターゲット追跡を行い、前記現在のフレームの画像におけるターゲット追跡枠の、第2の位置及び第2のサイズを表すための第2の情報を得ることと、
カルマンフィルタにおける予測誤差共分散行列に対してフォールトトレランス補正を行い、補正後の共分散行列を得ることと、
前記第1の情報、前記第2の情報及び前記補正後の共分散行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出することと、
前記マハラノビス距離に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うことと、
前記現在のフレームの画像のトポロジー関係行列M T1 を取得し、かつ前記現在のフレームの画像の前のフレームの画像のトポロジー関係行列M T2 を取得することと、
前記M T1 と前記M T2 を要素ごとに乗算して、トポロジー変化行列M 0 を得ることと、
前記M 0 を利用して、前記現在のフレームの画像におけるターゲット検出枠のマッチング結果に対して補正処理を行うことと、
を含み、
前記M T1 における第i行第j列の値は、前記現在のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係を表し、前記M T2 における第i行第j列の値は、前記前のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係を表し、前記M 0 における第i行第j列の値は、前記前のフレームの画像に比べて、前記現在のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係が変化したか否かを表す、ターゲット追跡方法。 - 前記の前記第1の情報、前記第2の情報及び前記補正後の共分散行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出することが、
以下の式を利用して、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出することを含み、
- 前記の前記マハラノビス距離に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うことが、
前記マハラノビス距離が予め設定された閾値以下である場合、該当ターゲット検出枠とターゲット追跡枠との間のマッチングを確定するか、又は前記マハラノビス距離が前記予め設定された閾値より大きい場合、該当ターゲット検出枠とターゲット追跡枠との間のミスマッチングを確定することを含む請求項1に記載の方法。 - 前記の前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出することの後、
前記マハラノビス距離に基づいて、第i行第j列の値が前記現在のフレームの画像における第i個のターゲット追跡枠と第j個のターゲット検出枠との間の距離類似度を表す距離類似度行列MDを算出することと、
第i行第j列の値が第i個のターゲット追跡枠に対応する前のフレームの画像における外観深度特徴と第j個のターゲット検出枠の外観深度特徴とのコサイン類似度を表す外観深度特徴類似度行列MAを算出することと、
前記MD及び前記MAに基づいて、類似度マッチング行列を決定することと、
を含み、
前記の前記マハラノビス距離に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うことが、
前記類似度マッチング行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うことを含む請求項1に記載の方法。 - 現在のフレームの画像に対してターゲット検出を行い、前記現在のフレームの画像におけるターゲット検出枠の、第1の位置及び第1のサイズを表すための第1の情報を得るための検出モジュールと、
カルマンフィルタを利用してターゲット追跡を行い、前記現在のフレームの画像におけるターゲット追跡枠の、第2の位置及び第2のサイズを表すための第2の情報を得るための追跡モジュールと、
カルマンフィルタにおける予測誤差共分散行列に対してフォールトトレランス補正を行い、補正後の共分散行列を得るための補正モジュールと、
前記第1の情報、前記第2の情報及び前記補正後の共分散行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出するための第1の算出モジュールと、
前記マハラノビス距離に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うためのマッチングモジュールと、
前記現在のフレームの画像のトポロジー関係行列M T1 を取得し、かつ前記現在のフレームの画像の前のフレームの画像のトポロジー関係行列M T2 を取得するための取得モジュールと、
前記M T1 と前記M T2 を要素ごとに乗算して、トポロジー変化行列M 0 を得るための第2の算出モジュールと、
前記M 0 を利用して、前記現在のフレームの画像におけるターゲット検出枠のマッチング結果に対して補正処理を行うための処理モジュールと、
を含み、
前記M T1 における第i行第j列の値は、前記現在のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係を表し、前記M T2 における第i行第j列の値は、前記前のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係を表し、前記M 0 における第i行第j列の値は、前記前のフレームの画像に比べて、前記現在のフレームの画像における第i個のターゲットと第j個のターゲットとの前後関係が変化したか否かを表す、ターゲット追跡装置。 - 前記第1の算出モジュールが、以下の式を利用して、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠との間のマハラノビス距離を算出することに用いられ、
- 前記マッチングモジュールが、前記マハラノビス距離が予め設定された閾値以下である場合、該当ターゲット検出枠とターゲット追跡枠との間のマッチングを確定するか、又は前記マハラノビス距離が前記予め設定された閾値より大きい場合、該当ターゲット検出枠とターゲット追跡枠との間のミスマッチングを確定することに用いられる請求項5に記載の装置。
- 前記マハラノビス距離に基づいて、第i行第j列の値が前記現在のフレームの画像における第i個のターゲット追跡枠と第j個のターゲット検出枠との間の距離類似度を表す距離類似度行列MDを算出するための第3の算出モジュールと、
第i行第j列の値が第i個のターゲット追跡枠に対応する前のフレームの画像における外観深度特徴と第j個のターゲット検出枠の外観深度特徴とのコサイン類似度を表す外観深度特徴類似度行列MAを算出するための第4の算出モジュールと、
前記MD及び前記MAに基づいて、類似度マッチング行列を決定するための決定モジュールと、
を含み、
前記マッチングモジュールが、
前記類似度マッチング行列に基づいて、前記現在のフレームの画像におけるターゲット検出枠とターゲット追跡枠に対して関連マッチングを行うことに用いられる請求項5に記載の装置。 - 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサにより実行可能で、前記少なくとも1つのプロセッサにより実行されることにより、前記少なくとも1つのプロセッサに請求項1から4のいずれか一項に記載の方法を実行させる命令が記憶され、前記少なくとも1つのプロセッサと通信接続されたメモリと、
を含む電子機器。 - コンピュータに請求項1から4のいずれか一項に記載の方法を実行させるためのコンピュータ命令が格納されている非一時的なコンピュータ読み取り可能な記憶媒体。
- プロセッサによって実行されると、請求項1から4のいずれか一項に記載の方法を実現させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010443892.8 | 2020-05-22 | ||
CN202010443892.8A CN111640140B (zh) | 2020-05-22 | 2020-05-22 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
PCT/CN2020/117751 WO2021232652A1 (zh) | 2020-05-22 | 2020-09-25 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023500969A JP2023500969A (ja) | 2023-01-11 |
JP7375192B2 true JP7375192B2 (ja) | 2023-11-07 |
Family
ID=72331521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022527078A Active JP7375192B2 (ja) | 2020-05-22 | 2020-09-25 | ターゲット追跡方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラムプロダクト |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220383535A1 (ja) |
EP (1) | EP4044117A4 (ja) |
JP (1) | JP7375192B2 (ja) |
KR (1) | KR20220110320A (ja) |
CN (1) | CN111640140B (ja) |
WO (1) | WO2021232652A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111640140B (zh) * | 2020-05-22 | 2022-11-25 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
CN112257502A (zh) * | 2020-09-16 | 2021-01-22 | 深圳微步信息股份有限公司 | 一种监控视频行人识别与跟踪方法、装置及存储介质 |
CN112270302A (zh) * | 2020-11-17 | 2021-01-26 | 支付宝(杭州)信息技术有限公司 | 肢体控制方法、装置和电子设备 |
CN112419368A (zh) * | 2020-12-03 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 运动目标的轨迹跟踪方法、装置、设备及存储介质 |
CN112488058A (zh) * | 2020-12-17 | 2021-03-12 | 北京比特大陆科技有限公司 | 面部跟踪方法、装置、设备和存储介质 |
CN112528932B (zh) * | 2020-12-22 | 2023-12-08 | 阿波罗智联(北京)科技有限公司 | 用于优化位置信息的方法、装置、路侧设备和云控平台 |
CN112800864B (zh) * | 2021-01-12 | 2024-05-07 | 北京地平线信息技术有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
CN114764814A (zh) * | 2021-01-12 | 2022-07-19 | 富泰华工业(深圳)有限公司 | 植物高度确定方法、装置、电子设备及介质 |
CN112785625B (zh) * | 2021-01-20 | 2023-09-22 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN112785630A (zh) * | 2021-02-02 | 2021-05-11 | 宁波智能装备研究院有限公司 | 一种显微操作中多目标轨迹异常处理方法及系统 |
CN112836684B (zh) * | 2021-03-09 | 2023-03-10 | 上海高德威智能交通系统有限公司 | 基于辅助驾驶的目标尺度变化率计算方法、装置及设备 |
CN112907636B (zh) * | 2021-03-30 | 2023-01-31 | 深圳市优必选科技股份有限公司 | 多目标跟踪方法、装置、电子设备及可读存储介质 |
CN113177968A (zh) * | 2021-04-27 | 2021-07-27 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113223083B (zh) * | 2021-05-27 | 2023-08-15 | 北京奇艺世纪科技有限公司 | 一种位置确定方法、装置、电子设备及存储介质 |
CN113326773A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
JP7482090B2 (ja) * | 2021-08-27 | 2024-05-13 | 株式会社東芝 | 推定装置、推定方法及びプログラム |
CN114004876A (zh) * | 2021-09-14 | 2022-02-01 | 浙江大华技术股份有限公司 | 一种尺寸标定方法、尺寸标定装置和计算机可读存储介质 |
CN113763431B (zh) * | 2021-09-15 | 2023-12-12 | 深圳大学 | 一种目标跟踪方法、系统、电子装置及存储介质 |
CN114001976B (zh) * | 2021-10-19 | 2024-03-12 | 杭州飞步科技有限公司 | 控制误差的确定方法、装置、设备及存储介质 |
CN114549584A (zh) * | 2022-01-28 | 2022-05-27 | 北京百度网讯科技有限公司 | 信息处理的方法、装置、电子设备及存储介质 |
CN115223135B (zh) * | 2022-04-12 | 2023-11-21 | 广州汽车集团股份有限公司 | 车位跟踪方法、装置、车辆及存储介质 |
CN114881982A (zh) * | 2022-05-19 | 2022-08-09 | 广州敏视数码科技有限公司 | 一种减少adas目标检测误检的方法、装置及介质 |
CN115063452B (zh) * | 2022-06-13 | 2024-03-26 | 中国船舶重工集团公司第七0七研究所九江分部 | 一种针对海上目标的云台摄像头跟踪方法 |
CN115082713B (zh) * | 2022-08-24 | 2022-11-25 | 中国科学院自动化研究所 | 引入空间对比信息的目标检测框提取方法、系统及设备 |
CN116129350B (zh) * | 2022-12-26 | 2024-01-16 | 广东高士德电子科技有限公司 | 数据中心安全作业的智能监控方法、装置、设备及介质 |
CN115908498B (zh) * | 2022-12-27 | 2024-01-02 | 清华大学 | 一种基于类别最优匹配的多目标跟踪方法及装置 |
CN115995062B (zh) * | 2023-03-22 | 2023-08-04 | 西南交通大学 | 一种接触网电联接线线夹螺母异常识别方法及系统 |
CN116563769B (zh) * | 2023-07-07 | 2023-10-20 | 南昌工程学院 | 一种视频目标识别追踪方法、系统、计算机及存储介质 |
CN117351039B (zh) * | 2023-12-06 | 2024-02-02 | 广州紫为云科技有限公司 | 一种基于特征查询的非线性多目标跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011002266A (ja) | 2009-06-17 | 2011-01-06 | Nec Corp | 目標追尾処理器及びそれに用いる誤差共分散行列の補正方法 |
CN103281476A (zh) | 2013-04-22 | 2013-09-04 | 中山大学 | 基于电视图像运动目标的自动跟踪方法 |
US20150055829A1 (en) | 2013-08-23 | 2015-02-26 | Ricoh Company, Ltd. | Method and apparatus for tracking object |
CN107516303A (zh) | 2017-09-01 | 2017-12-26 | 成都通甲优博科技有限责任公司 | 多目标跟踪方法及系统 |
CN109635657A (zh) | 2018-11-12 | 2019-04-16 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN109816690A (zh) | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN110348332A (zh) | 2019-06-24 | 2019-10-18 | 长沙理工大学 | 一种交通视频场景下机非人多目标实时轨迹提取方法 |
CN111192296A (zh) | 2019-12-30 | 2020-05-22 | 长沙品先信息技术有限公司 | 一种基于视频监控的行人多目标检测与跟踪方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5114514B2 (ja) * | 2010-02-25 | 2013-01-09 | 株式会社日立製作所 | 位置推定装置 |
US9552648B1 (en) * | 2012-01-23 | 2017-01-24 | Hrl Laboratories, Llc | Object tracking with integrated motion-based object detection (MogS) and enhanced kalman-type filtering |
CN109785368B (zh) * | 2017-11-13 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 一种目标跟踪方法和装置 |
CN110544272B (zh) * | 2019-09-06 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 脸部跟踪方法、装置、计算机设备及存储介质 |
CN111640140B (zh) * | 2020-05-22 | 2022-11-25 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
-
2020
- 2020-05-22 CN CN202010443892.8A patent/CN111640140B/zh active Active
- 2020-09-25 JP JP2022527078A patent/JP7375192B2/ja active Active
- 2020-09-25 US US17/776,155 patent/US20220383535A1/en active Pending
- 2020-09-25 EP EP20936648.3A patent/EP4044117A4/en not_active Withdrawn
- 2020-09-25 KR KR1020227025087A patent/KR20220110320A/ko not_active Application Discontinuation
- 2020-09-25 WO PCT/CN2020/117751 patent/WO2021232652A1/zh unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011002266A (ja) | 2009-06-17 | 2011-01-06 | Nec Corp | 目標追尾処理器及びそれに用いる誤差共分散行列の補正方法 |
CN103281476A (zh) | 2013-04-22 | 2013-09-04 | 中山大学 | 基于电视图像运动目标的自动跟踪方法 |
US20150055829A1 (en) | 2013-08-23 | 2015-02-26 | Ricoh Company, Ltd. | Method and apparatus for tracking object |
CN107516303A (zh) | 2017-09-01 | 2017-12-26 | 成都通甲优博科技有限责任公司 | 多目标跟踪方法及系统 |
CN109635657A (zh) | 2018-11-12 | 2019-04-16 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN109816690A (zh) | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN110348332A (zh) | 2019-06-24 | 2019-10-18 | 长沙理工大学 | 一种交通视频场景下机非人多目标实时轨迹提取方法 |
CN111192296A (zh) | 2019-12-30 | 2020-05-22 | 长沙品先信息技术有限公司 | 一种基于视频监控的行人多目标检测与跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
EP4044117A4 (en) | 2023-11-29 |
US20220383535A1 (en) | 2022-12-01 |
CN111640140B (zh) | 2022-11-25 |
EP4044117A1 (en) | 2022-08-17 |
KR20220110320A (ko) | 2022-08-05 |
JP2023500969A (ja) | 2023-01-11 |
WO2021232652A1 (zh) | 2021-11-25 |
CN111640140A (zh) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7375192B2 (ja) | ターゲット追跡方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラムプロダクト | |
US20230186486A1 (en) | Vehicle tracking method and apparatus, and electronic device | |
CN111753961B (zh) | 模型训练方法和装置、预测方法和装置 | |
EP3822857B1 (en) | Target tracking method, device, electronic apparatus and storage medium | |
Boniardi et al. | Robot localization in floor plans using a room layout edge extraction network | |
US11694436B2 (en) | Vehicle re-identification method, apparatus, device and storage medium | |
CN112528786B (zh) | 车辆跟踪方法、装置及电子设备 | |
CN111612820A (zh) | 多目标跟踪方法、特征提取模型的训练方法和装置 | |
US11915439B2 (en) | Method and apparatus of training depth estimation network, and method and apparatus of estimating depth of image | |
US11514676B2 (en) | Method and apparatus for detecting region of interest in video, device and medium | |
CN110070578B (zh) | 一种回环检测方法 | |
CN112364865A (zh) | 一种复杂场景中运动小目标的检测方法 | |
CN111815595A (zh) | 图像语义分割方法、装置、设备和可读存储介质 | |
Hua et al. | Light-weight UAV object tracking network based on strategy gradient and attention mechanism | |
CN114707611B (zh) | 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备 | |
Wang et al. | Improving RGB-D SLAM accuracy in dynamic environments based on semantic and geometric constraints | |
CN112749701B (zh) | 车牌污损分类模型的生成方法和车牌污损分类方法 | |
CN110849380B (zh) | 一种基于协同vslam的地图对齐方法及系统 | |
Wan et al. | Automatic moving object segmentation for freely moving cameras | |
Liu et al. | [Retracted] Mean Shift Fusion Color Histogram Algorithm for Nonrigid Complex Target Tracking in Sports Video | |
CN111832459A (zh) | 目标检测方法、装置、设备以及存储介质 | |
Chen et al. | SLDF: A semantic line detection framework for robot guidance | |
Zhao et al. | Adaptive visual tracking based on key frame selection and reinforcement learning | |
CN113496160B (zh) | 三维物体检测方法、装置、电子设备和存储介质 | |
Zabbah et al. | Visual tracking using learning histogram of oriented gradients by svm on mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220511 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375192 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |