JP2020534610A - 目標トラッキング方法及び装置、電子機器並びに記憶媒体 - Google Patents
目標トラッキング方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP2020534610A JP2020534610A JP2020516429A JP2020516429A JP2020534610A JP 2020534610 A JP2020534610 A JP 2020534610A JP 2020516429 A JP2020516429 A JP 2020516429A JP 2020516429 A JP2020516429 A JP 2020516429A JP 2020534610 A JP2020534610 A JP 2020534610A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- target image
- tracking
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2017年3月6日に中国特許局に提出された、出願番号CN201810182797.X、発明の名称「目標トラッキング方法及び装置、電子機器、プログラム、記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
目標画像の複数の基準画像の特徴を取得することと、
前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を決定することと、
前記複数の初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することと、を含む。
前記目標画像に対して特徴抽出を行い、前記目標画像の複数の特徴を得ることと、
前記目標画像の複数の特徴と前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得ることと、を含む。
前記目標画像の複数の特徴をそれぞれ前記複数の基準画像の特徴中の対応特徴と接続し、複数の接続特徴を得ることと、
前記複数の接続特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得ることと、を含む。
前記目標画像に対して畳み込み操作を実行し、中間特徴を得ることと、
前記複数の基準画像のうちの少なくとも一つの基準画像におけるトラッキング目標の位置に基づいて、前記中間特徴に対して複数の関心領域のアライメント操作を実行し、前記目標画像の複数の特徴を得ることと、を含む。
前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標の位置に基づいて、前記中間特徴に対して関心領域のアライメント操作を実行し、前記目標画像の特徴を得ることを含む。
前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標に対応する位置限定枠の前記基準画像での位置を関心領域として関心領域アライメント操作を行い、前記目標画像の特徴を得ることを含む。
前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標の位置限定枠を第1の所定の倍数拡大し、前記少なくとも1つの基準画像におけるトラッキング目標に対応する位置限定枠を得ることを更に含む。
前記目標画像に対して切り抜き処理を行い、切り抜き画像を得ることを更に含み、
前記目標画像に対して畳み込み操作を実行し、中間特徴を得ることは、
前記切り抜き画像に対して畳み込み操作を実行し、中間特徴を得ることを含む。
前記目標画像の前に位置する少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記目標画像に対して切り抜き処理を行い、切り抜き画像を得ることを含む。
前記少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記切り抜き画像の中心点を決定することと、
前記切り抜き画像の中心点に基づいて前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得ることと、を含む。
前記目標画像を第2の所定の倍数拡大し、拡大処理後の前記目標画像を得ることと、
前記切り抜き画像の中心点に基づいて、前記拡大処理後の前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得ることと、を含む。
前記複数の初期予測位置のうちの少なくとも1つの初期予測位置と前記トラッキング目標の外観基準位置との類似度をそれぞれ決定し、類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置を得ることと、
前記類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置に基づいて、前記目標画像に対応する最終位置を決定することと、を含む。
前記類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置に対して加重平均を行い、前記目標画像に対応する最終位置を得ることを含む。
前記初期予測位置に対応する位置限定枠と前記トラッキング目標の外観基準位置に対応する位置限定枠との交差合併比に基づいて、少なくとも1つの前記初期予測位置と前記トラッキング目標の外観基準位置との類似度を決定することを含む。
前記複数の初期予測位置のうちの少なくとも1つの初期予測位置の信頼度を決定することと、
前記信頼度が第2の所定の閾値より大きい少なくとも1つの前記初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することと、を含む。
前記信頼度が第2の所定の閾値より大きい少なくとも1つの前記初期予測位置に対して加重平均を行い、前記目標画像におけるトラッキング目標の最終位置を得ることを含む。
信頼度スコアリングネットワークを用いて前記少なくとも1つの初期予測位置をそれぞれ処理し、前記少なくとも1つの初期予測位置に対応する信頼度を得ることを含む。
前記信頼度スコアリングネットワークを用いてサンプル画像の少なくとも1つの初期予測位置を処理し、対応する少なくとも1つの前記初期予測位置の予測信頼度を得ることと、
前記サンプル画像の標識位置に基づいて、前記少なくとも1つの初期予測位置の真実信頼度を決定することと、
前記少なくとも1つの初期予測位置の予測信頼度と真実信頼度に基づいて、前記信頼度スコアリングネットワークをトレーニングすることと、を更に含む。
第2のバッファ領域から目標画像の複数の基準画像の特徴を取得することを含む。
前記複数の基準画像は隣接する少なくとも2つの画像フレームを含み、又は
前記複数の基準画像中の任意2つの基準画像は隣接しない。
前記目標画像におけるトラッキング目標の最終位置及び前記複数の基準画像におけるトラッキング目標の位置に基づいて、前記目標画像を基準画像リストに加えるか否かを決定することを更に含む。
前記目標画像におけるトラッキング目標の位置限定枠と前記複数の基準画像におけるトラッキング目標の位置限定枠との交差合併比に基づいて、前記目標画像を基準画像リストに加えるか否かを決定することを含む。
目標画像におけるトラッキング目標の位置限定枠と前記複数の基準画像のトラッキング目標の位置限定枠との交差合併比をそれぞれ決定することと、
決定された複数の交差合併比に基づいて、平均の交差合併比を得ることと、
前記平均の交差合併比が交差合併比閾値以上であることに応答して、前記目標画像を基準画像リストに加えることと、を含む。
前記目標画像と前記複数の基準画像のうちの前記目標画像に最も近い基準画像との間に所定の個数の画像フレームの間隔がある場合に、前記目標画像を基準画像リストに加えることを更に含む。
前記目標画像を基準画像リストに加えると決定したことに応答して、前記第2のバッファ領域に前記目標画像の特徴をバッファすることを更に含む。
目標画像の複数の基準画像の特徴を取得するための基準取得ユニットと、
前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を決定するための初期予測ユニットと、
前記複数の初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定するための最終位置ユニットと、を含む。
前記目標画像に対して特徴抽出を行い、前記目標画像の複数の特徴を得るための特徴抽出モジュールと、
前記目標画像の複数の特徴と前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得るための位置予測モジュールと、を含む。
前記目標画像に対して畳み込み操作を実行し、中間特徴を得るための畳み込みモジュールと、
前記中間特徴に対して複数の関心領域のアライメント操作を実行し、前記目標画像の複数の特徴を得るためのアライメントモジュールと、を含む。
前記目標画像に対して切り抜き処理を行い、切り抜き画像を得るための切り抜きモジュールと、
前記切り抜き画像に対して畳み込み操作を実行し、中間特徴を得るための前記畳み込みモジュールと、を更に含む。
前記少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記切り抜き画像の中心点を決定するための中心決定モジュールと、
前記切り抜き画像の中心点に基づいて前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得るための切り抜き処理モジュールと、を含む。
前記複数の初期予測位置のうちの少なくとも1つの初期予測位置と前記トラッキング目標の外観基準位置との類似度をそれぞれ決定し、類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置を得るための類似度決定モジュールと、
前記類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置に基づいて、前記目標画像に対応する最終位置を決定するための第1の位置計算モジュールと、を含む。
前記決定された目標画像におけるトラッキング目標の最終位置を前記トラッキング目標の外観基準位置を記憶するための第1のバッファ領域に格納するための位置記憶モジュールを更に含む。
前記複数の初期予測位置のうちの少なくとも1つの初期予測位置の信頼度を決定するための信頼度決定モジュールと、
前記信頼度が第2の所定の閾値より大きい少なくとも1つの前記初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定するための第2の位置計算モジュールと、を含む。
前記信頼度スコアリングネットワークを用いてサンプル画像の少なくとも1つの初期予測位置を処理し、対応する少なくとも1つの前記初期予測位置の予測信頼度を得ることと、
前記サンプル画像の標識位置に基づいて、前記少なくとも1つの初期予測位置の真実信頼度を決定することと、
前記少なくとも1つの初期予測位置の予測信頼度と真実信頼度に基づいて、前記信頼度スコアリングネットワークをトレーニングすることとに用いられる。
前記複数の基準画像は隣接する少なくとも2つの画像フレームを含み、又は
前記複数の基準画像中の任意2つの基準画像は隣接しない。
前記目標画像におけるトラッキング目標の最終位置及び前記複数の基準画像におけるトラッキング目標の位置に基づいて、前記目標画像を基準画像リストに加えるか否かを決定するための基準画像決定ユニットを更に含む。
目標画像におけるトラッキング目標の位置限定枠と前記複数の基準画像のトラッキング目標の位置限定枠との交差合併比をそれぞれ決定し、決定された複数の交差合併比に基づいて、平均の交差合併比を得るための交差合併比決定モジュールと、
前記平均の交差合併比が交差合併比閾値以上であることに応答して、前記目標画像を基準画像リストに加えるための添加決定モジュールと、を含む。
前記目標画像と前記複数の基準画像のうちの前記目標画像に最も近い基準画像との間に所定の個数の画像フレームの間隔がある場合に、前記目標画像を基準画像リストに加えるための基準リスト更新ユニットを更に含む。
前記目標画像を基準画像リストに加えると決定したことに応答して、前記第2のバッファ領域に前記目標画像の特徴をバッファするための特徴バッファユニットを更に含む。
前記メモリと通信して前記実行可能コマンドを実行して上記のような目標トラッキング方法を完成するためのプロセッサと、を含む。
目標画像に対して特徴抽出を行い、目標画像の複数の特徴を得ることと、
目標画像の複数の特徴と複数の基準画像の特徴に基づいて、目標画像におけるトラッキング目標の複数の初期予測位置を得ることと、を含んでよい。
目標画像に対して畳み込み操作を実行し、中間特徴を得ることと、
中間特徴に対して複数の関心領域のアライメント操作を実行し、目標画像の複数の特徴を得ることと、を含む。
少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、切り抜き画像の中心点を決定することと、
切り抜き画像の中心点に基づいて目標画像に対して切り抜き処理を行い、切り抜き画像を得ることと、を含む。
信頼度スコアリングネットワークを利用して複数の初期予測位置をそれぞれ処理し、複数の初期予測位置に対応する信頼度を得ることを含む。
信頼度スコアリングネットワークを用いてサンプル画像の少なくとも1つの初期予測位置を処理し、少なくとも1つの初期予測位置に対応する予測信頼度を得ることと、
サンプル画像の標識位置に基づいて、少なくとも1つの初期予測位置の真実信頼度を決定することと、
少なくとも1つの初期予測位置の予測信頼度と真実信頼度に基づいて、信頼度スコアリングネットワークをトレーニングすることと、ことを更に含む。
目標画像におけるトラッキング目標の位置限定枠(bounding box)と複数の基準画像におけるトラッキング目標の位置限定枠(bounding box)との交差合併比に基づいて、目標画像を基準画像リストに加えるか否かを決定することを含む。
目標画像の複数の基準画像の特徴を取得するための基準取得ユニット41を含む。
目標画像に対して特徴抽出を行い、目標画像の複数の特徴を得るための特徴抽出モジュールと、
目標画像の複数の特徴と複数の基準画像の特徴に基づいて、目標画像におけるトラッキング目標の複数の初期予測位置を得るための位置予測モジュールと、を含む。
目標画像に対して畳み込み操作を実行し、中間特徴を得るための畳み込みモジュールと、
中間特徴に対して複数の関心領域のアライメント操作を実行し、目標画像の複数の特徴を得るためのアライメントモジュールとを含む。
目標画像に対して切り抜き処理を行い、切り抜き画像を得るための切り抜きモジュールと、
この時に、切り抜き画像に対して畳み込み操作を実行し、中間特徴を得るための畳み込みモジュールと、を更に含む。
少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、切り抜き画像の中心点を決定するための中心決定モジュールと、
切り抜き画像の中心点に基づいて目標画像に対して切り抜き処理を行い、切り抜き画像を得るための切り抜き処理モジュールと、を含む。
複数の初期予測位置のうちの少なくとも1つの初期予測位置とトラッキング目標の外観基準位置との類似度をそれぞれ決定し、類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置を得るための類似度決定モジュールと、
類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置に基づいて、目標画像に対応する最終位置を決定するための第1の位置計算モジュールと、を含む。
決定された目標画像におけるトラッキング目標の最終位置をトラッキング目標の外観基準位置を記憶するための第1のバッファ領域に格納するための位置記憶モジュールを更に含む。
複数の初期予測位置のうちの少なくとも1つの初期予測位置の信頼度を決定するための信頼度決定モジュールと、
信頼度が第2の所定の閾値より大きい少なくとも1つの初期予測位置に基づいて、目標画像におけるトラッキング目標の最終位置を決定するための第2の位置計算モジュールと、を含む。
信頼度スコアリングネットワークを用いてサンプル画像の少なくとも1つの初期予測位置を処理し、少なくとも1つの初期予測位置に対応する予測信頼度を得ることと、
サンプル画像の標識位置に基づいて、少なくとも1つの初期予測位置の真実信頼度を決定することと、
少なくとも1つの初期予測位置の予測信頼度と真実信頼度に基づいて、信頼度スコアリングネットワークをトレーニングすることとに用いられる。
目標画像におけるトラッキング目標の最終位置及び複数の基準画像におけるトラッキング目標の位置に基づいて、目標画像を基準画像リストに加えるか否かを決定するための基準画像決定ユニットを更に含む。
目標画像におけるトラッキング目標の位置限定枠と複数の基準画像のトラッキング目標の位置限定枠との交差合併比をそれぞれ決定し、決定された複数の交差合併比に基づいて、平均の交差合併比を得るための交差合併比決定モジュールと、
平均の交差合併比が交差合併比閾値以上であることに応答して、目標画像を基準画像リストに加えるための添加決定モジュールと、を含む。
目標画像と複数の基準画像のうちの目標画像に近い(例えば、最も近い)基準画像の間に所定の個数の画像フレームの間隔があれば、目標画像を基準画像リストに加えるための基準リスト更新ユニットを更に含む。
メモリと通信して実行可能コマンドを実行して本願で提供される目標トラッキング方法の上記のいずれか1つの実施例を完成するためのプロセッサと、を含む。
Claims (58)
- 目標トラッキング方法であって、
目標画像の複数の基準画像の特徴を取得することと、
前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を決定することと、
前記複数の初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することと、を含むことを特徴とする目標トラッキング方法。 - 前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を決定することは、
前記目標画像に対して特徴抽出を行い、前記目標画像の複数の特徴を得ることと、
前記目標画像の複数の特徴と前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得ることと、を含むことを特徴とする請求項1に記載の方法。 - 前記目標画像の複数の特徴と前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得ることは、
前記目標画像の複数の特徴をそれぞれ前記複数の基準画像の特徴中の対応特徴と接続し、複数の接続特徴を得ることと、
前記複数の接続特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得ることと、を含むことを特徴とする請求項2に記載の方法。 - 前記目標画像に対して特徴抽出を行い、前記目標画像の複数の特徴を得ることは、
前記目標画像に対して畳み込み操作を実行し、中間特徴を得ることと、
前記中間特徴に対して複数の関心領域のアライメント操作を実行し、前記目標画像の複数の特徴を得ることと、を含むことを特徴とする請求項2又は3に記載の方法。 - 前記中間特徴に対して複数の関心領域のアライメント操作を実行し、前記目標画像の複数の特徴を得ることは、
前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標の位置に基づいて、前記中間特徴に対して関心領域のアライメント操作を実行し、前記目標画像の特徴を得ることを含むことを特徴とする請求項4に記載の方法。 - 前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標の位置に基づいて、前記中間特徴に対して関心領域のアライメント操作を実行し、前記目標画像の特徴を得ることは、
前記少なくとも1つの基準画像のうちのそれぞれの基準画像におけるトラッキング目標に対応する位置限定枠の前記各基準画像での位置を関心領域として関心領域アライメント操作を行い、前記目標画像の特徴を得ることを含むことを特徴とする請求項5に記載の方法。 - 前記少なくとも1つの基準画像のうちのそれぞれの基準画像におけるトラッキング目標に対応する位置限定枠の前記各基準画像での位置を関心領域として関心領域アライメント操作を行い、前記目標画像の特徴を得ることの前に、
前記少なくとも1つの基準画像のうちのそれぞれの基準画像におけるトラッキング目標の位置限定枠を第1の所定の倍数拡大し、前記各基準画像におけるトラッキング目標に対応する位置限定枠を得ることを更に含むことを特徴とする請求項6に記載の方法。 - 前記目標画像に対して畳み込み操作を実行し、中間特徴を得ることの前に、
前記目標画像に対して切り抜き処理を行い、切り抜き画像を得ることを更に含み、
前記目標画像に対して畳み込み操作を実行し、中間特徴を得ることは、
前記切り抜き画像に対して畳み込み操作を実行し、中間特徴を得ることを含むことを特徴とする請求項4〜7のいずれか一項に記載の方法。 - 前記目標画像に対して切り抜き処理を行い、切り抜き画像を得ることは、
前記目標画像の前に位置する少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記目標画像に対して切り抜き処理を行い、切り抜き画像を得ることを含むことを特徴とする請求項8に記載の方法。 - 前記少なくとも1つの第1の画像は前記目標画像の少なくとも1つの前記基準画像を含むことを特徴とする請求項9に記載の方法。
- 前記の少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記目標画像に対して切り抜き処理を行い、切り抜き画像を得ることは、
前記少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記切り抜き画像の中心点を決定することと、
前記切り抜き画像の中心点に基づいて前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得ることと、を含むことを特徴とする請求項9又は10に記載の方法。 - 前記切り抜き画像の中心点に基づいて前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得ることは、
前記目標画像を第2の所定の倍数拡大し、拡大処理後の前記目標画像を得ることと、
前記切り抜き画像の中心点に基づいて、前記拡大処理後の前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得ることと、を含むことを特徴とする請求項11に記載の方法。 - 前記複数の初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することは、
前記複数の初期予測位置から少なくとも1つの初期予測位置を選択することと、
前記少なくとも1つの初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することと、を含むことを特徴とする請求項1〜12のいずれか一項に記載の方法。 - 前記複数の初期予測位置から少なくとも1つの初期予測位置を選択することは、
前記複数の初期予測位置から前記トラッキング目標の外観基準位置との類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置を選択することを含むことを特徴とする請求項13に記載の方法。 - 前記初期予測位置に対応する位置限定枠と前記トラッキング目標の外観基準位置に対応する位置限定枠との交差合併比に基づいて、前記初期予測位置と前記トラッキング目標の外観基準位置との類似度を決定することを更に含むことを特徴とする請求項14に記載の方法。
- 前記決定された目標画像におけるトラッキング目標の最終位置を前記トラッキング目標の外観基準位置を記憶するための第1のバッファ領域に格納することを更に含むことを特徴とする請求項14又は15に記載の方法。
- 前記複数の初期予測位置から少なくとも1つの初期予測位置を選択することは、
前記複数の初期予測位置から信頼度が第2の所定の閾値より大きい少なくとも1つの初期予測位置を選択することを含むことを特徴とする請求項13に記載の方法。 - 信頼度スコアリングネットワークを用いて前記初期予測位置を処理し、前記初期予測位置に対応する信頼度を得ることを更に含むことを特徴とする請求項17に記載の方法。
- 前記信頼度スコアリングネットワークを用いてサンプル画像の少なくとも1つの初期予測位置を処理し、対応する少なくとも1つの前記初期予測位置の予測信頼度を得ることと、
前記サンプル画像の標識位置情報に基づいて、前記少なくとも1つの初期予測位置の真実信頼度を決定することと、
前記少なくとも1つの初期予測位置の予測信頼度と真実信頼度に基づいて、前記信頼度スコアリングネットワークをトレーニングすることを更に含むことを特徴とする請求項18に記載の方法。 - 前記少なくとも1つの初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することは、
前記少なくとも1つの初期予測位置に対して加重平均を行い、前記目標画像におけるトラッキング目標の最終位置を得ることを含むことを特徴とする請求項13〜19のいずれか一項に記載の方法。 - 前記の目標画像の複数の基準画像の特徴を取得することは、
第2のバッファ領域から目標画像の複数の基準画像の特徴を取得することを含むことを特徴とする請求項1〜20のいずれか一項に記載の方法。 - 前記目標画像と複数の前記基準画像の間に少なくとも1つの第2の画像の間隔があり、又は、
前記複数の基準画像は隣接する少なくとも2つの画像フレームを含み、又は、
前記複数の基準画像中の任意2つの基準画像は隣接しないことを特徴とする請求項1〜21のいずれか一項に記載の方法。 - 前記複数の初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することの後に、
前記目標画像におけるトラッキング目標の最終位置及び前記複数の基準画像におけるトラッキング目標の位置に基づいて、前記目標画像を基準画像リストに加えるか否かを決定することを更に含むことを特徴とする請求項1〜22のいずれか一項に記載の方法。 - 前記目標画像におけるトラッキング目標の最終位置及び前記複数の基準画像におけるトラッキング目標の位置に基づいて、前記目標画像を基準画像リストに加えるか否かを決定する前記目標画像を新しく加えられる基準画像とするか否かを決定することは、
前記目標画像におけるトラッキング目標の位置限定枠と前記複数の基準画像におけるトラッキング目標の位置限定枠との交差合併比に基づいて、前記目標画像を基準画像リストに加えるか否かを決定することを含むことを特徴とする請求項23に記載の方法。 - 前記目標画像フレーム中のトラッキング目標の位置限定枠と前記複数の基準画像におけるトラッキング目標の各位置限定枠との交差合併比に基づいて、前記目標画像を基準画像リストに加えるか否かを決定することは、
目標画像におけるトラッキング目標の位置限定枠と前記複数の基準画像のトラッキング目標の位置限定枠との交差合併比をそれぞれ決定することと、
決定された複数の交差合併比に基づいて、平均の交差合併比を得ることと、
前記平均の交差合併比が交差合併比閾値以上であることに応答して、前記目標画像を基準画像リストに加えることと、を含むことを特徴とする請求項24に記載の方法。 - 前記複数の初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定することの後に、
前記目標画像と前記複数の基準画像のうちの前記目標画像に最も近い基準画像との間に所定の個数の画像フレームに間隔があることに応答して、前記目標画像を基準画像リストに加えることを更に含むことを特徴とする請求項1〜22のいずれか一項に記載の方法。 - 前記目標画像を基準画像リストに加えると決定したことに応答して、前記第2のバッファ領域に前記目標画像の特徴をバッファすることを更に含むことを特徴とする請求項23〜26のいずれか一項に記載の方法。
- 目標トラッキング装置であって、
目標画像の複数の基準画像の特徴を取得するための基準取得ユニットと、
前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を決定するための初期予測ユニットと、
前記複数の初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定するための最終位置ユニットと、を含むことを特徴とする目標トラッキング装置。 - 前記初期予測ユニットは、
前記目標画像に対して特徴抽出を行い、前記目標画像の複数の特徴を得るための特徴抽出モジュールと、
前記目標画像の複数の特徴と前記複数の基準画像の特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得るための位置予測モジュールと、を含むことを特徴とする請求項28に記載の装置。 - 前記位置予測モジュールは、前記目標画像の複数の特徴をそれぞれ前記複数の基準画像の特徴中の対応特徴と接続し、複数の接続特徴を得、前記複数の接続特徴に基づいて、前記目標画像におけるトラッキング目標の複数の初期予測位置を得るために用いられることを特徴とする請求項29に記載の装置。
- 前記特徴抽出モジュールは、
前記目標画像に対して畳み込み操作を実行し、中間特徴を得るための畳み込みモジュールと、
前記中間特徴に対して複数の関心領域のアライメント操作を実行し、前記目標画像の複数の特徴を得るためのアライメントモジュールと、を含むことを特徴とする請求項29又は30に記載の装置。 - 前記アライメントモジュールは、前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標の位置に基づいて、前記中間特徴に対して関心領域のアライメント操作を実行し、前記目標画像の特徴を得るために用いられることを特徴とする請求項31に記載の装置。
- 前記アライメントモジュールは、前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標に対応する位置限定枠の前記基準画像での位置を関心領域として関心領域アライメント操作を行い、前記目標画像の特徴を得るために用いられることを特徴とする請求項32に記載の装置。
- 前記アライメントモジュールは、更に前記複数の基準画像のうちの少なくとも1つの基準画像におけるトラッキング目標の位置限定枠を第1の所定の倍数拡大し、前記少なくとも1つの基準画像におけるトラッキング目標に対応する位置限定枠を得るために用いられることを特徴とする請求項33に記載の装置。
- 前記特徴抽出モジュールは、
前記目標画像に対して切り抜き処理を行い、切り抜き画像を得るための切り抜きモジュールと、
前記切り抜き画像に対して畳み込み操作を実行し、中間特徴を得るための前記畳み込みモジュールと、を更に含むことを特徴とする請求項31〜34のいずれか一項に記載の装置。 - 前記切り抜きモジュールは、前記目標画像の前に位置する少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記目標画像に対して切り抜き処理を行い、切り抜き画像を得るために用いられることを特徴とする請求項35に記載の装置。
- 前記少なくとも1つの第1の画像は前記目標画像の少なくとも1つの前記基準画像を含むことを特徴とする請求項36に記載の装置。
- 前記切り抜きモジュールは、
前記少なくとも1つの第1の画像におけるトラッキング目標の位置情報に基づいて、前記切り抜き画像の中心点を決定するための中心決定モジュールと、
前記切り抜き画像の中心点に基づいて前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得るための切り抜き処理モジュールと、を含むことを特徴とする請求項36又は37に記載の装置。 - 前記切り抜き処理モジュールは、前記目標画像を第2の所定の倍数拡大し、拡大処理後の前記目標画像を得ることと、前記切り抜き画像の中心点に基づいて、前記拡大処理後の前記目標画像に対して切り抜き処理を行い、前記切り抜き画像を得ることとに用いられることを特徴とする請求項38に記載の装置。
- 前記最終位置ユニットは、
前記複数の初期予測位置のうちの少なくとも1つの初期予測位置と前記トラッキング目標の外観基準位置との類似度をそれぞれ決定し、類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置を得るための類似度決定モジュールと、
前記類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置に基づいて、前記目標画像に対応する最終位置を決定するための第1の位置計算モジュールと、を含むことを特徴とする請求項28〜39のいずれか一項に記載の装置。 - 前記第1の位置計算モジュールは、前記類似度が第1の所定の閾値より大きい少なくとも1つの初期予測位置に対して加重平均を行い、前記目標画像に対応する最終位置を得るために用いられることを特徴とする請求項40に記載の装置。
- 前記類似度決定モジュールは、前記初期予測位置に対応する位置限定枠と前記トラッキング目標の外観基準位置に対応する位置限定枠との交差合併比に基づいて、少なくとも1つの前記初期予測位置と前記トラッキング目標の外観基準位置との類似度を決定するために用いられることを特徴とする請求項40又は41に記載の装置。
- 前記最終位置ユニットは、
前記決定された目標画像におけるトラッキング目標の最終位置を前記トラッキング目標の外観基準位置を記憶するための第1のバッファ領域に格納するための位置記憶モジュールを更に含むことを特徴とする請求項40〜42のいずれか一項に記載の装置。 - 前記最終位置ユニットは、
前記複数の初期予測位置のうちの少なくとも1つの初期予測位置の信頼度を決定するための信頼度決定モジュールと、
前記信頼度が第2の所定の閾値より大きい少なくとも1つの前記初期予測位置に基づいて、前記目標画像におけるトラッキング目標の最終位置を決定するための第2の位置計算モジュールと、を含むことを特徴とする請求項28〜39のいずれか一項に記載の装置。 - 前記信頼度決定モジュールは、前記信頼度が第2の所定の閾値より大きい少なくとも1つの前記初期予測位置に対して加重平均を行い、前記目標画像におけるトラッキング目標の最終位置を得るために用いられることを特徴とする請求項44に記載の装置。
- 前記信頼度決定モジュールは、信頼度スコアリングネットワークを用いて前記少なくとも1つの初期予測位置をそれぞれ処理し、前記少なくとも1つの初期予測位置に対応する信頼度を得るために用いられることを特徴とする請求項44又は45に記載の装置。
- 前記信頼度決定モジュールは、更に、
前記信頼度スコアリングネットワークを用いてサンプル画像の少なくとも1つの初期予測位置を処理し、対応する少なくとも1つの前記初期予測位置の予測信頼度を得ることと、
前記サンプル画像の標識位置に基づいて、前記少なくとも1つの初期予測位置の真実信頼度を決定することと、
前記少なくとも1つの初期予測位置の予測信頼度と真実信頼度に基づいて、前記信頼度スコアリングネットワークをトレーニングすることとに用いられることを特徴とする請求項46に記載の装置。 - 前記基準取得ユニットは、第2のバッファ領域から目標画像の複数の基準画像の特徴を取得するために用いられることを特徴とする請求項28〜47のいずれか一項に記載の装置。
- 前記目標画像と複数の前記基準画像の間に少なくとも1つの第2の画像の間隔があり、又は
前記複数の基準画像は隣接する少なくとも2つの画像フレームを含み、又は
前記複数の基準画像中の任意2つの基準画像は隣接しないことを特徴とする請求項28〜48のいずれか一項に記載の装置。 - 前記目標画像におけるトラッキング目標の最終位置及び前記複数の基準画像におけるトラッキング目標の位置に基づいて、前記目標画像を基準画像リストに加えるか否かを決定するための基準画像決定ユニットを更に含むことを特徴とする請求項28〜49のいずれか一項に記載の装置。
- 前記基準画像決定ユニットは、前記目標画像におけるトラッキング目標の位置限定枠と前記複数の基準画像におけるトラッキング目標の位置限定枠との交差合併比に基づいて、前記目標画像を基準画像リストに加えるか否かを決定するために用いられることを特徴とする請求項50に記載の装置。
- 前記基準画像決定ユニットは、
目標画像におけるトラッキング目標の位置限定枠と前記複数の基準画像のトラッキング目標の位置限定枠との交差合併比をそれぞれ決定し、決定された複数の交差合併比に基づいて、平均の交差合併比を得るための交差合併比決定モジュールと、
前記平均の交差合併比が交差合併比閾値以上であることに応答して、前記目標画像を基準画像リストに加えるための添加決定モジュールと、を含むことを特徴とする請求項51に記載の装置。 - 前記目標画像と前記複数の基準画像のうちの前記目標画像に最も近い基準画像との間に所定の個数の画像フレームの間隔がある場合に、前記目標画像を基準画像リストに加えるための基準リスト更新ユニットを更に含むことを特徴とする請求項28〜49のいずれか一項に記載の装置。
- 前記目標画像を基準画像リストに加えると決定したことに応答して、前記第2のバッファ領域に前記目標画像の特徴をバッファするための特徴バッファユニットを更に含むことを特徴とする請求項50〜53のいずれか一項に記載の装置。
- 電子機器であって、
請求項28〜54のいずれか一項に記載の目標トラッキング装置を備えるプロセッサを含むことを特徴とする電子機器。 - 電子機器であって、
実行可能コマンドを記憶するためのメモリと、
前記メモリと通信して前記実行可能コマンドを実行して請求項1〜27のいずれか一項に記載の目標トラッキング方法を完成するためのプロセッサと、を含むことを特徴とする電子機器。 - コンピューター可読コマンドを記憶するためのコンピューター記憶媒体であって、
前記コマンドがプロセッサにより実行される時に、前記プロセッサに請求項1〜27のいずれか一項に記載の目標トラッキング方法を実行させることを特徴とするコンピューター記憶媒体。 - コンピューター可読コードを備えるコンピュータープログラム製品であって、
前記コンピューター可読コードが機器上で動作する時に、前記機器中のプロセッサに請求項1〜27のいずれか一項に記載の目標トラッキング方法を実行させることを特徴とするコンピュータープログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810182797.XA CN108460787B (zh) | 2018-03-06 | 2018-03-06 | 目标跟踪方法和装置、电子设备、程序、存储介质 |
CN201810182797.X | 2018-03-06 | ||
PCT/CN2019/076354 WO2019170023A1 (zh) | 2018-03-06 | 2019-02-27 | 目标跟踪方法和装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020534610A true JP2020534610A (ja) | 2020-11-26 |
JP6999028B2 JP6999028B2 (ja) | 2022-01-18 |
Family
ID=63217237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020516429A Active JP6999028B2 (ja) | 2018-03-06 | 2019-02-27 | 目標トラッキング方法及び装置、電子機器並びに記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11216955B2 (ja) |
JP (1) | JP6999028B2 (ja) |
KR (1) | KR102366733B1 (ja) |
CN (1) | CN108460787B (ja) |
SG (1) | SG11202002622QA (ja) |
WO (1) | WO2019170023A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304758B (zh) * | 2017-06-21 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 人脸特征点跟踪方法及装置 |
WO2019170024A1 (zh) * | 2018-03-06 | 2019-09-12 | 北京市商汤科技开发有限公司 | 目标跟踪方法和装置、电子设备、存储介质 |
CN108460787B (zh) | 2018-03-06 | 2020-11-27 | 北京市商汤科技开发有限公司 | 目标跟踪方法和装置、电子设备、程序、存储介质 |
US11436717B2 (en) * | 2018-04-04 | 2022-09-06 | Panasonic Intellectual Property Management Co., Ltd. | Image processing device and image processing method |
WO2019232099A1 (en) * | 2018-05-29 | 2019-12-05 | Google Llc | Neural architecture search for dense image prediction tasks |
CN109034136B (zh) * | 2018-09-06 | 2021-07-20 | 湖北亿咖通科技有限公司 | 图像处理方法、装置、摄像设备及存储介质 |
US11514585B2 (en) * | 2018-09-17 | 2022-11-29 | Nokia Solutions And Networks Oy | Object tracking |
CN110163889A (zh) * | 2018-10-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、目标跟踪装置、目标跟踪设备 |
CN109711241B (zh) * | 2018-10-30 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 物体检测方法、装置与电子设备 |
US10929986B2 (en) * | 2018-12-19 | 2021-02-23 | Fca Us Llc | Techniques for using a simple neural network model and standard camera for image detection in autonomous driving |
CN111414904B (zh) * | 2019-01-08 | 2023-12-01 | 北京地平线机器人技术研发有限公司 | 处理感兴趣区域数据的方法和装置 |
CN109785385B (zh) * | 2019-01-22 | 2021-01-29 | 中国科学院自动化研究所 | 视觉目标跟踪方法及系统 |
CN110335313B (zh) * | 2019-06-17 | 2022-12-09 | 腾讯科技(深圳)有限公司 | 音频采集设备定位方法及装置、说话人识别方法及系统 |
CN115311330B (zh) * | 2019-10-11 | 2023-04-07 | 杭州云栖智慧视通科技有限公司 | 一种基于位置预测的视频多目标跟踪方法 |
CN112668377A (zh) * | 2019-10-16 | 2021-04-16 | 清华大学 | 信息识别系统及其方法 |
KR102301239B1 (ko) * | 2020-05-07 | 2021-09-09 | 에스케이텔레콤 주식회사 | 지능형 카메라 영상에 대한 프라이버시 마스킹장치 및 방법 |
CN111738133A (zh) * | 2020-06-17 | 2020-10-02 | 北京奇艺世纪科技有限公司 | 模型训练方法、目标检测方法、装置、电子设备及可读存储介质 |
CN111931844B (zh) * | 2020-08-07 | 2023-11-28 | 商汤集团有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN112037257B (zh) * | 2020-08-20 | 2023-09-29 | 浙江大华技术股份有限公司 | 一种目标跟踪方法、终端及其计算机可读存储介质 |
CN112053384B (zh) * | 2020-08-28 | 2022-12-02 | 西安电子科技大学 | 基于边界框回归模型的目标跟踪方法 |
US20220172386A1 (en) * | 2020-11-27 | 2022-06-02 | Samsung Electronics Co., Ltd. | Method and device for simultaneous localization and mapping (slam) |
CN112734938A (zh) * | 2021-01-12 | 2021-04-30 | 北京爱笔科技有限公司 | 行人位置预测方法、装置、计算机设备和存储介质 |
KR102308752B1 (ko) * | 2021-02-22 | 2021-10-05 | 주식회사 에스아이에이 | 객체 추적 방법 및 장치 |
CN113139985B (zh) * | 2021-03-16 | 2022-09-16 | 北京理工大学 | 消除无人机与地面站通信延迟影响的跟踪目标框选方法 |
CN112950675A (zh) * | 2021-03-18 | 2021-06-11 | 深圳市商汤科技有限公司 | 一种目标跟踪的方法、装置、电子设备及存储介质 |
CN113470079A (zh) * | 2021-07-15 | 2021-10-01 | 浙江大华技术股份有限公司 | 一种落脚区域的输出方法、装置及电子设备 |
US20230154139A1 (en) * | 2021-11-16 | 2023-05-18 | Salesforce.Com, Inc. | Systems and methods for contrastive pretraining with video tracking supervision |
KR102615378B1 (ko) * | 2021-12-16 | 2023-12-19 | 숭실대학교 산학협력단 | 행동인식 기반 위험 상황 감지 시스템 및 방법 |
KR102512360B1 (ko) * | 2022-03-25 | 2023-03-22 | 국방과학연구소 | 이동 표적 추적 시 오포착 방지를 위한 필터 정보 제공 방법 및 이를 이용한 전자 장치 |
CN116030397B (zh) * | 2023-03-27 | 2023-08-01 | 湖南大学 | 一种基于时序信息交互的腔镜手术视频分割方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010145965A (ja) * | 2008-12-22 | 2010-07-01 | Fujinon Corp | オートフォーカスシステム |
JP2012159958A (ja) * | 2011-01-31 | 2012-08-23 | Secom Co Ltd | 移動物体追跡装置 |
WO2013001940A1 (ja) * | 2011-06-29 | 2013-01-03 | オリンパスイメージング株式会社 | 追尾装置及び追尾方法 |
JP2013021726A (ja) * | 2012-10-18 | 2013-01-31 | Canon Inc | 被写体追跡装置及びその制御方法 |
JP2017156886A (ja) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000113158A (ja) | 1998-10-01 | 2000-04-21 | Toshiba Corp | 物体追跡装置及びその方法 |
CN101169827B (zh) * | 2007-12-03 | 2010-06-02 | 北京中星微电子有限公司 | 一种对图像中的特征点进行跟踪的方法及装置 |
JP5208893B2 (ja) | 2009-09-14 | 2013-06-12 | セコム株式会社 | 移動物体追跡装置 |
JP5476955B2 (ja) | 2009-12-04 | 2014-04-23 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
JP5528151B2 (ja) * | 2010-02-19 | 2014-06-25 | パナソニック株式会社 | 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム |
US9135514B2 (en) * | 2010-05-21 | 2015-09-15 | Qualcomm Incorporated | Real time tracking/detection of multiple targets |
GB2485390A (en) | 2010-11-12 | 2012-05-16 | Sony Corp | Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image |
JP2014241505A (ja) | 2013-06-11 | 2014-12-25 | ソニー株式会社 | 撮影装置および撮影方法、テンプレート生成装置およびテンプレート生成方法、並びにプログラム |
US10283162B2 (en) * | 2014-02-05 | 2019-05-07 | Avatar Merger Sub II, LLC | Method for triggering events in a video |
US20150369918A1 (en) * | 2014-06-20 | 2015-12-24 | Syntronics, Llc | Laser alignment and tracking system |
JP6525545B2 (ja) | 2014-10-22 | 2019-06-05 | キヤノン株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
US9791541B2 (en) * | 2014-12-19 | 2017-10-17 | The Boeing Company | System and method to improve object tracking using multiple tracking systems |
TWI557691B (zh) | 2015-09-23 | 2016-11-11 | 睿緻科技股份有限公司 | 監視攝影裝置及其使用的區域式移動偵測方法 |
CN106709932B (zh) | 2015-11-12 | 2020-12-04 | 创新先进技术有限公司 | 一种人脸位置跟踪方法、装置和电子设备 |
CN113589833A (zh) | 2016-02-26 | 2021-11-02 | 深圳市大疆创新科技有限公司 | 用于视觉目标跟踪的方法 |
JP6832504B2 (ja) | 2016-08-08 | 2021-02-24 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
CN106326837B (zh) * | 2016-08-09 | 2019-09-17 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
CN106529587B (zh) | 2016-08-26 | 2019-06-25 | 北京航空航天大学 | 基于目标点识别的视觉航向识别方法 |
CN106909909B (zh) * | 2017-03-08 | 2021-02-02 | 王华锋 | 一种基于共享卷积特征的人脸检测与对齐方法 |
CN107169939A (zh) * | 2017-05-31 | 2017-09-15 | 广东欧珀移动通信有限公司 | 图像处理方法及相关产品 |
CN107562805B (zh) * | 2017-08-08 | 2020-04-03 | 浙江大华技术股份有限公司 | 一种以图搜图的方法及装置 |
CN108090916B (zh) * | 2017-12-21 | 2019-05-07 | 百度在线网络技术(北京)有限公司 | 用于跟踪视频中的目标图形的方法和装置 |
US11068741B2 (en) | 2017-12-28 | 2021-07-20 | Qualcomm Incorporated | Multi-resolution feature description for object recognition |
CN108416799A (zh) | 2018-03-06 | 2018-08-17 | 北京市商汤科技开发有限公司 | 目标跟踪方法和装置、电子设备、程序、存储介质 |
CN108460787B (zh) * | 2018-03-06 | 2020-11-27 | 北京市商汤科技开发有限公司 | 目标跟踪方法和装置、电子设备、程序、存储介质 |
-
2018
- 2018-03-06 CN CN201810182797.XA patent/CN108460787B/zh active Active
-
2019
- 2019-02-27 WO PCT/CN2019/076354 patent/WO2019170023A1/zh active Application Filing
- 2019-02-27 JP JP2020516429A patent/JP6999028B2/ja active Active
- 2019-02-27 SG SG11202002622QA patent/SG11202002622QA/en unknown
- 2019-02-27 KR KR1020207008885A patent/KR102366733B1/ko active IP Right Grant
-
2020
- 2020-03-18 US US16/822,177 patent/US11216955B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010145965A (ja) * | 2008-12-22 | 2010-07-01 | Fujinon Corp | オートフォーカスシステム |
JP2012159958A (ja) * | 2011-01-31 | 2012-08-23 | Secom Co Ltd | 移動物体追跡装置 |
WO2013001940A1 (ja) * | 2011-06-29 | 2013-01-03 | オリンパスイメージング株式会社 | 追尾装置及び追尾方法 |
US20130113941A1 (en) * | 2011-06-29 | 2013-05-09 | Olympus Imaging Corp. | Tracking apparatus and tracking method |
JP2013021726A (ja) * | 2012-10-18 | 2013-01-31 | Canon Inc | 被写体追跡装置及びその制御方法 |
JP2017156886A (ja) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102366733B1 (ko) | 2022-02-23 |
US11216955B2 (en) | 2022-01-04 |
CN108460787B (zh) | 2020-11-27 |
WO2019170023A1 (zh) | 2019-09-12 |
JP6999028B2 (ja) | 2022-01-18 |
CN108460787A (zh) | 2018-08-28 |
US20200219268A1 (en) | 2020-07-09 |
SG11202002622QA (en) | 2020-04-29 |
KR20200040885A (ko) | 2020-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6999028B2 (ja) | 目標トラッキング方法及び装置、電子機器並びに記憶媒体 | |
US11783496B2 (en) | Scalable real-time hand tracking | |
JP7165731B2 (ja) | 目標検出方法及び装置、トレーニング方法、電子機器並びに媒体 | |
JP7147078B2 (ja) | ビデオフレームの情報ラベリング方法、装置、機器及びコンピュータプログラム | |
US11270158B2 (en) | Instance segmentation methods and apparatuses, electronic devices, programs, and media | |
CN111860479A (zh) | 光学字符识别方法、装置、电子设备及存储介质 | |
JP7163372B2 (ja) | 目標トラッキング方法及び装置、電子機器並びに記憶媒体 | |
JP2023509953A (ja) | ターゲット追跡方法、装置、電子機器及び記憶媒体 | |
CN110881109B (zh) | 用于增强现实应用的视频中的实时叠加放置 | |
CN108416799A (zh) | 目标跟踪方法和装置、电子设备、程序、存储介质 | |
US20200125898A1 (en) | Methods and systems of segmentation of a document | |
CN114063858B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Xiong et al. | Snap angle prediction for 360 panoramas | |
US11741611B2 (en) | Cyclical object segmentation neural networks | |
CN114066814A (zh) | 一种ar设备的手势3d关键点检测方法、电子设备 | |
Fan et al. | High-speed tracking based on multi-CF filters and attention mechanism | |
US20230394875A1 (en) | Method and device for multi-dnn-based face recognition using parallel-processing pipelines | |
CN111968030B (zh) | 信息生成方法、装置、电子设备和计算机可读介质 | |
Huang et al. | Mtd: Multi-timestep detector for delayed streaming perception | |
CN113379794A (zh) | 基于注意力-关键点预测模型的单目标跟踪系统及方法 | |
Liu et al. | Fingertip in the eye: An attention-based method for real-time hand tracking and fingertip detection in egocentric videos | |
US20240161364A1 (en) | Generating image mattes without trimap segmenetations via a multi-branch neural network | |
Zhang et al. | Learning adaptive weighted response consistency correlation filters for real-time UAV tracking | |
Hayat et al. | An improved spatial–temporal regularization method for visual object tracking | |
Jeon et al. | Mondrian: On-Device High-Performance Video Analytics with Compressive Packed Inference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200318 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6999028 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |