JP2021526269A - オブジェクト追跡方法および装置、電子設備並びに記憶媒体 - Google Patents
オブジェクト追跡方法および装置、電子設備並びに記憶媒体 Download PDFInfo
- Publication number
- JP2021526269A JP2021526269A JP2020567591A JP2020567591A JP2021526269A JP 2021526269 A JP2021526269 A JP 2021526269A JP 2020567591 A JP2020567591 A JP 2020567591A JP 2020567591 A JP2020567591 A JP 2020567591A JP 2021526269 A JP2021526269 A JP 2021526269A
- Authority
- JP
- Japan
- Prior art keywords
- frame image
- current frame
- target object
- selection information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
Description
本発明は、2018年08月07日に中国専利局に提出した中国特許出願号が第CN201810893022.3号であり、発明の名称が「オブジェクト追跡方法および装置、電子設備並びに記憶媒体」の優先権を主張するものであり、当該出願の内容を全て取り込んで本文に結合させる。
検出ユニット510は、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出する。
Claims (44)
- オブジェクト追跡方法であって、
ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することと、
前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得することと、
取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整することと、
前記現在フレーム画像における目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定することと、を含む
ことを特徴とするオブジェクト追跡方法である。 - 前記ビデオ中の前記現在フレーム画像は、前記参考フレーム画像の後に位置しており、
前記前のフレーム画像は、前記参考フレーム画像、及び/又は、前記参考フレーム画像と前記現在フレーム画像との間に位置する少なくとも1つの中間フレーム画像を含む
ことを特徴とする請求項1に記載の前記オブジェクト追跡方法。 - 前記現在フレーム画像における干渉オブジェクトとして、前記少なくとも1つの候補オブジェクトのうちの目標オブジェクトに確定されなかった1つまたは複数の候補オブジェクトを確定することをさらに含む
ことを特徴とする請求項1または2に記載の前記オブジェクト追跡方法。 - 前記取得された干渉オブジェクトに基づいて前記少なくとも1つの候補オブジェクトの選別情報を調整することは、
前記少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定することと、
前記第1類似度に基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整することと、を含む
ことを特徴とする請求項1ないし3のいずれか1項に記載の前記オブジェクト追跡方法。 - 前記少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定することは、
前記少なくとも1つの候補オブジェクトの特徴および取得された干渉オブジェクトの特徴に基づいて、前記第1類似度を確定することを含む
ことを特徴とする請求項4に記載の前記オブジェクト追跡方法。 - 前記ビデオ中の前記参考フレーム画像と前記現在フレーム画像との間の少なくとも1つの中間フレーム画像における目標オブジェクトを取得することと、
前記少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を最適化することと、をさらに含む
ことを特徴とする請求項1ないし5のいずれか1項に記載の前記オブジェクト追跡方法。 - 前記少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて前記少なくとも1つの候補オブジェクトの選別情報を最適化することは、
前記少なくとも1つの候補オブジェクトと前記少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定することと、
前記第2類似度に基づいて、前記少なくとも1つの候補オブジェクトの選別情報を最適化することと、を含む
ことを特徴とする請求項6に記載の前記オブジェクト追跡方法。 - 前記少なくとも1つの候補オブジェクトと前記少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定することは、
前記少なくとも1つの候補オブジェクトの特徴および前記少なくとも1つの中間フレーム画像における目標オブジェクトの特徴に基づいて、前記第2類似度を確定することを含む
ことを特徴とする請求項7に記載の前記オブジェクト追跡方法。 - ビデオ中の参考フレーム画像における目標オブジェクトに基づいて前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することは、
前記参考フレーム画像における目標オブジェクトの画像と前記現在フレーム画像との相関性を確定することと、
前記相関性に基づいて、前記現在フレーム画像における少なくとも1つの候補オブジェクトの検出枠および前記選別情報を取得することと、を含む
ことを特徴とする請求項1ないし8のいずれか1項に記載の前記オブジェクト追跡方法。 - 前記参考フレーム画像における目標オブジェクトの画像と前記現在フレーム画像との相関性を確定することは、
前記参考フレーム画像における目標オブジェクトの画像の第1特徴および前記現在フレーム画像の第2特徴に基づいて、前記相関性を確定することを含む
ことを特徴とする請求項9に記載の前記オブジェクト追跡方法。 - 前記現在フレーム画像における目標オブジェクトとして選別情報が所定の条件を満たす候補オブジェクトを確定することは、
前記現在フレーム画像の目標オブジェクトの検出枠として、選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定することを含む
ことを特徴とする請求項9または10に記載の前記オブジェクト追跡方法。 - 前記現在フレーム画像の目標オブジェクトの検出枠として選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定することの後に、
前記現在フレーム画像において前記目標オブジェクトの検出枠を表示することをさらに含む
ことを特徴とする請求項11に記載の前記オブジェクト追跡方法。 - ビデオ中の参考フレーム画像における目標オブジェクトに基づいて前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することの前に、
前記現在フレーム画像における検索領域を取得することをさらに含み、
前記ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することは、
前記現在フレーム画像における検索領域において、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することを含む
ことを特徴とする請求項1ないし12のいずれか1項に記載の前記オブジェクト追跡方法。 - 現在フレーム画像の目標オブジェクトとして前記選別情報が所定の条件を満たす候補オブジェクトを確定することの後に、
前記現在フレーム画像における目標オブジェクトの選別情報に基づいて、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像における検索領域を確定することをさらに含む
ことを特徴とする請求項1ないし13のいずれか1項に記載の前記オブジェクト追跡方法。 - 前記現在フレーム画像における目標オブジェクトの選別情報に基づいて前記ビデオ中の前記現在フレーム画像の次の1フレーム画像における検索領域を確定することは、
前記目標オブジェクトの選別情報が第1所定閾値未満であるか否かを検出することと、
前記目標オブジェクトの選別情報が第1所定閾値未満である場合、予め設定されたステップ幅に基づいて、前記検索領域を、前記検索領域が前記現在フレーム画像を覆うまで次第に拡張し、前記拡張された検索領域を前記現在フレーム画像の次の1フレーム画像における検索領域とすること、及び/又は、
前記目標オブジェクトの選別情報が第1所定閾値以上である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域を取得することと、を含む
ことを特徴とする請求項14に記載の前記オブジェクト追跡方法。 - 予め設定されたステップ幅に基づいて前記検索領域を前記検索領域が前記現在フレーム画像を覆うまで次第に拡張することの後に、
前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像とすることと、
前記拡張された検索領域において前記現在フレーム画像の目標オブジェクトを確定することと、
前記目標オブジェクトの選別情報が、前記第1所定閾値よりも大きい第2所定閾値より大きいか否かを検出することと、
前記目標オブジェクトの選別情報が第2所定閾値より大きい場合、前記現在フレーム画像における検索領域を取得すること、及び/又は、
前記目標オブジェクトの選別情報が第2所定閾値以下である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域として前記拡張された検索領域を取得することと、をさらに含む
ことを特徴とする請求項15に記載の前記オブジェクト追跡方法。 - 現在フレーム画像の目標オブジェクトとして前記選別情報が所定の条件を満たす候補オブジェクトを確定することの後に、
前記現在フレーム画像における目標オブジェクトの種類を認識することをさらに含む
ことを特徴とする請求項1ないし16のいずれか1項に記載の前記オブジェクト追跡方法。 - サンブル画像訓練に基づいて取得されたニューラルネットワークによって、前記オブジェクト追跡方法が実行され、前記サンブル画像は、ポジティブサンプルおよびネガティブサンプルを含み、前記ポジティブサンプルは、予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像を含む
ことを特徴とする請求項1ないし17のいずれか1項に記載の前記オブジェクト追跡方法。 - 前記ポジティブサンプルは、さらに、前記予め設定されたテストデータセット中のポジティブサンプル画像のデータ強調処理によって取得されたポジティブサンプル画像を含む
ことを特徴とする請求項18に記載の前記オブジェクト追跡方法。 - 前記ネガティブサンプルは、前記目標オブジェクトと同じ種類のオブジェクトを含むネガティブサンプル画像、及び/又は、前記目標オブジェクトと異なる種類のオブジェクトを含むネガティブサンプル画像を含む
ことを特徴とする請求項18または19に記載の前記オブジェクト追跡方法。 - オブジェクト追跡装置であって、
ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出するための検出ユニットと、
前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得するための取得ユニットと、
取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整するための調整ユニットと、
前記現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定するための確定ユニットと、を備える
ことを特徴とするオブジェクト追跡装置である。 - 前記ビデオ中の前記現在フレーム画像は、前記参考フレーム画像の後に位置しており、
前記前のフレーム画像は、前記参考フレーム画像、及び/又は、前記参考フレーム画像と前記現在フレーム画像との間に位置する少なくとも1つの中間フレーム画像を含む
ことを特徴とする請求項21に記載の前記オブジェクト追跡装置。 - 前記確定ユニットは、さらに、前記現在フレーム画像における干渉オブジェクトとして、前記少なくとも1つの候補オブジェクトのうちの目標オブジェクトに確定されなかった1つまたは複数の候補オブジェクトを確定する
ことを特徴とする請求項21または22に記載の前記オブジェクト追跡装置。 - 前記調整ユニットは、前記少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定し、前記第1類似度に基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整する
ことを特徴とする請求項21ないし23のいずれか1項に記載の前記オブジェクト追跡装置。 - 前記調整ユニットは、前記少なくとも1つの候補オブジェクトの特徴および取得された干渉オブジェクトの特徴に基づいて、前記第1類似度を確定する
ことを特徴とする請求項24に記載の前記オブジェクト追跡装置。 - 前記取得ユニットは、さらに、前記ビデオの前記参考フレーム画像と前記現在フレーム画像との間の少なくとも1つの中間フレーム画像における目標オブジェクトを取得し、
前記装置は、
前記少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を最適化するための最適化ユニットをさらに備える
ことを特徴とする請求項21ないし25のいずれか1項に記載の前記オブジェクト追跡装置。 - 前記最適化ユニットは、前記少なくとも1つの候補オブジェクトと前記少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定し、前記第2類似度に基づいて前記少なくとも1つの候補オブジェクトの選別情報を最適化する
ことを特徴とする請求項26に記載の前記オブジェクト追跡装置。 - 前記最適化ユニットは、前記少なくとも1つの候補オブジェクトの特徴および前記少なくとも1つの中間フレーム画像における目標オブジェクトの特徴に基づいて、前記第2類似度を確定する
ことを特徴とする請求項27に記載の前記オブジェクト追跡装置。 - 前記検出ユニットは、前記参考フレーム画像における目標オブジェクトの画像と前記現在フレーム画像との相関性を確定し、前記相関性に基づいて、前記現在フレーム画像における少なくとも1つの候補オブジェクトの検出枠および前記選別情報を取得する
ことを特徴とする請求項21ないし28のいずれか1項に記載の前記オブジェクト追跡装置。 - 前記検出ユニットは、前記参考フレーム画像における目標オブジェクトの画像の第1特徴および前記現在フレーム画像の第2特徴に基づいて、前記相関性を確定する
ことを特徴とする請求項29に記載の前記オブジェクト追跡装置。 - 前記確定ユニットは、前記現在フレーム画像の目標オブジェクトの検出枠として、選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定する
ことを特徴とする請求項29または30に記載の前記オブジェクト追跡装置。 - 前記現在フレーム画像において前記目標オブジェクトの検出枠を表示するための表示ユニットを、さらに含む
ことを特徴とする請求項31に記載の前記オブジェクト追跡装置。 - 前記現在フレーム画像における検索領域を取得するための検索ユニットをさらに含み、
前記検出ユニットは、前記現在フレーム画像における検索領域において、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出する
ことを特徴とする請求項21ないし32のいずれか1項に記載の前記オブジェクト追跡装置。 - 前記検索ユニットは、さらに、前記現在フレーム画像における目標オブジェクトの選別情報に基づいて、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像における検索領域を確定する
ことを特徴とする請求項21ないし33のいずれか1項に記載の前記オブジェクト追跡装置。 - 前記検索ユニットは、前記目標オブジェクトの選別情報が第1所定閾値未満であるか否かを検出し、前記目標オブジェクトの選別情報が第1所定閾値未満である場合、予め設定されたステップ幅に基づいて、前記検索領域を、前記検索領域が前記現在フレーム画像を覆うまで次第に拡張し、前記拡張された検索領域を前記現在フレーム画像の次の1フレーム画像における検索領域とし、及び/又は、前記目標オブジェクトの選別情報が第1所定閾値以上である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域を取得する
ことを特徴とする請求項21ないし34のいずれか1項に記載の前記オブジェクト追跡装置。 - 前記検索ユニットは、さらに、前記拡張された検索領域において、前記現在フレーム画像の目標オブジェクトを確定した後、前記目標オブジェクトの選別情報がが、前記第1所定閾値よりも大きい第2所定閾値より大きいか否かを検出し、前記目標オブジェクトの選別情報が第2所定閾値より大きい場合、前記現在フレーム画像における検索領域を取得し、及び/又は、前記目標オブジェクトの選別情報が第2所定閾値以下である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域として前記拡張された検索領域を取得する
ことを特徴とする請求項35に記載の前記オブジェクト追跡装置。 - 前記現在フレーム画像における目標オブジェクトの種類を認識するための認識ユニットをさらに備える
ことを特徴とする請求項21ないし36のいずれか1項に記載の前記オブジェクト追跡装置。 - サンブル画像訓練に基づいて取得された、オブジェクト追跡方法を実行するためのニューラルネットワークを含み、前記サンブル画像にはポジティブサンプルおよびネガティブサンプルが含まれ、前記ポジティブサンプルには予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像が含まれる
ことを特徴とする請求項21ないし37のいずれか1項に記載の前記オブジェクト追跡装置。 - 前記ポジティブサンプルには、前記予め設定されたテストデータセット中のポジティブサンプル画像のデータ強調処理によって取得されたポジティブサンプル画像が含まれる
ことを特徴とする請求項38に記載の前記オブジェクト追跡装置。 - 前記ネガティブサンプルには、前記目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像、及び/又は、前記目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像が含まれる
ことを特徴とする請求項38または39に記載の前記オブジェクト追跡装置。 - 電子設備であって、
請求項21ないし40のいずれかの前記装置を含む
こと特徴とする前記電子設備。 - 電子設備であって、
実行可能命令を記憶するメモリと、
前記実行可能命令を実行して、請求項1ないし20のいずれかの前記方法を実現するためのプロセッサとを含む
ことを特徴とする前記電子設備。 - コンピュータ可読命令を記憶するコンピュータ記憶媒体であって、
前記命令が実行されて、請求項1ないし20のいずれかの前記方法が実現られる
ことを特徴とする前記コンピュータ記憶媒体。 - コンピュータ可読コードを含むコンピュータプログラムであって、
前記コンピュータ可読コードが設備によって実行されて、請求項1ないし20のいずれかの前記方法を実現するための命令が前記設備におけるプロセッサによって実行される
ことを特徴とする前記コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810893022.3 | 2018-08-07 | ||
CN201810893022.3A CN109284673B (zh) | 2018-08-07 | 2018-08-07 | 对象跟踪方法及装置、电子设备及存储介质 |
PCT/CN2019/099001 WO2020029874A1 (zh) | 2018-08-07 | 2019-08-02 | 对象跟踪方法及装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021526269A true JP2021526269A (ja) | 2021-09-30 |
JP7093427B2 JP7093427B2 (ja) | 2022-06-29 |
Family
ID=65182985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020567591A Active JP7093427B2 (ja) | 2018-08-07 | 2019-08-02 | オブジェクト追跡方法および装置、電子設備並びに記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210124928A1 (ja) |
JP (1) | JP7093427B2 (ja) |
KR (1) | KR20210012012A (ja) |
CN (1) | CN109284673B (ja) |
SG (1) | SG11202011644XA (ja) |
WO (1) | WO2020029874A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109284673B (zh) * | 2018-08-07 | 2022-02-22 | 北京市商汤科技开发有限公司 | 对象跟踪方法及装置、电子设备及存储介质 |
CN109726683B (zh) | 2018-12-29 | 2021-06-22 | 北京市商汤科技开发有限公司 | 目标对象检测方法和装置、电子设备和存储介质 |
CN110223325B (zh) * | 2019-06-18 | 2021-04-27 | 北京字节跳动网络技术有限公司 | 对象跟踪方法、装置及设备 |
CN111797728A (zh) * | 2020-06-19 | 2020-10-20 | 浙江大华技术股份有限公司 | 一种运动物体的检测方法、装置、计算设备及存储介质 |
CN112037255A (zh) * | 2020-08-12 | 2020-12-04 | 深圳市道通智能航空技术有限公司 | 目标跟踪方法和装置 |
CN112085769A (zh) * | 2020-09-09 | 2020-12-15 | 武汉融氢科技有限公司 | 对象追踪方法及装置、电子设备 |
CN115393616A (zh) * | 2022-07-11 | 2022-11-25 | 影石创新科技股份有限公司 | 目标跟踪方法、装置、设备以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342762A (ja) * | 2001-05-22 | 2002-11-29 | Matsushita Electric Ind Co Ltd | 物体追跡方法 |
JP2006172023A (ja) * | 2004-12-14 | 2006-06-29 | Matsushita Electric Works Ltd | 人体検知装置 |
JP2006331347A (ja) * | 2005-05-30 | 2006-12-07 | Olympus Corp | 画像処理装置及び対象領域追跡プログラム |
JP2013012940A (ja) * | 2011-06-29 | 2013-01-17 | Olympus Imaging Corp | 追尾装置及び追尾方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10222678A (ja) * | 1997-02-05 | 1998-08-21 | Toshiba Corp | 物体検出装置および物体検出方法 |
JP5024116B2 (ja) * | 2007-05-02 | 2012-09-12 | 株式会社ニコン | 被写体追跡プログラム、および被写体追跡装置 |
GB2471036B (en) * | 2008-03-03 | 2012-08-22 | Videoiq Inc | Object matching for tracking, indexing, and search |
CN102136147B (zh) * | 2011-03-22 | 2012-08-22 | 深圳英飞拓科技股份有限公司 | 一种目标检测与跟踪方法、系统及视频监控设备 |
US9495591B2 (en) * | 2012-04-13 | 2016-11-15 | Qualcomm Incorporated | Object recognition using multi-modal matching scheme |
CN103593641B (zh) * | 2012-08-16 | 2017-08-11 | 株式会社理光 | 基于立体摄像机的物体检测方法和装置 |
CN106355188B (zh) * | 2015-07-13 | 2020-01-21 | 阿里巴巴集团控股有限公司 | 图像检测方法及装置 |
CN105654510A (zh) * | 2015-12-29 | 2016-06-08 | 江苏精湛光电仪器股份有限公司 | 适用于夜间场景下的基于特征融合的自适应目标跟踪方法 |
CN105760854B (zh) * | 2016-03-11 | 2019-07-26 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
US10395385B2 (en) * | 2017-06-27 | 2019-08-27 | Qualcomm Incorporated | Using object re-identification in video surveillance |
CN107633220A (zh) * | 2017-09-13 | 2018-01-26 | 吉林大学 | 一种基于卷积神经网络的车辆前方目标识别方法 |
CN107748873B (zh) * | 2017-10-31 | 2019-11-26 | 河北工业大学 | 一种融合背景信息的多峰目标跟踪方法 |
CN108009494A (zh) * | 2017-11-30 | 2018-05-08 | 中山大学 | 一种基于无人机的道路交叉口车辆跟踪方法 |
CN109284673B (zh) * | 2018-08-07 | 2022-02-22 | 北京市商汤科技开发有限公司 | 对象跟踪方法及装置、电子设备及存储介质 |
-
2018
- 2018-08-07 CN CN201810893022.3A patent/CN109284673B/zh active Active
-
2019
- 2019-08-02 KR KR1020207037347A patent/KR20210012012A/ko not_active Application Discontinuation
- 2019-08-02 WO PCT/CN2019/099001 patent/WO2020029874A1/zh active Application Filing
- 2019-08-02 SG SG11202011644XA patent/SG11202011644XA/en unknown
- 2019-08-02 JP JP2020567591A patent/JP7093427B2/ja active Active
-
2020
- 2020-11-24 US US17/102,579 patent/US20210124928A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342762A (ja) * | 2001-05-22 | 2002-11-29 | Matsushita Electric Ind Co Ltd | 物体追跡方法 |
JP2006172023A (ja) * | 2004-12-14 | 2006-06-29 | Matsushita Electric Works Ltd | 人体検知装置 |
JP2006331347A (ja) * | 2005-05-30 | 2006-12-07 | Olympus Corp | 画像処理装置及び対象領域追跡プログラム |
JP2013012940A (ja) * | 2011-06-29 | 2013-01-17 | Olympus Imaging Corp | 追尾装置及び追尾方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020029874A1 (zh) | 2020-02-13 |
US20210124928A1 (en) | 2021-04-29 |
KR20210012012A (ko) | 2021-02-02 |
CN109284673B (zh) | 2022-02-22 |
CN109284673A (zh) | 2019-01-29 |
JP7093427B2 (ja) | 2022-06-29 |
SG11202011644XA (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7093427B2 (ja) | オブジェクト追跡方法および装置、電子設備並びに記憶媒体 | |
US11170210B2 (en) | Gesture identification, control, and neural network training methods and apparatuses, and electronic devices | |
JP7236545B2 (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
JP7165731B2 (ja) | 目標検出方法及び装置、トレーニング方法、電子機器並びに媒体 | |
US10885365B2 (en) | Method and apparatus for detecting object keypoint, and electronic device | |
US11321593B2 (en) | Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device | |
US10198823B1 (en) | Segmentation of object image data from background image data | |
US11182592B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
WO2019218824A1 (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
CN108229324B (zh) | 手势追踪方法和装置、电子设备、计算机存储介质 | |
RU2479037C2 (ru) | Устройство и способ обработки изображения, обучающееся устройство и способ обучения и программа | |
CN108427927B (zh) | 目标再识别方法和装置、电子设备、程序和存储介质 | |
US7148913B2 (en) | Vision-based pointer tracking and object classification method and apparatus | |
CN106971401B (zh) | 多目标跟踪装置和方法 | |
EP2965262A1 (en) | Method for detecting and tracking objects in sequence of images of scene acquired by stationary camera | |
CN110298297A (zh) | 火焰识别方法和装置 | |
US20230334235A1 (en) | Detecting occlusion of digital ink | |
JP6932254B2 (ja) | キーフレームスケジューリング方法及び装置、電子機器、プログラム並びに媒体 | |
CN108229281B (zh) | 神经网络的生成方法和人脸检测方法、装置及电子设备 | |
CN110909685A (zh) | 姿势估计方法、装置、设备及存储介质 | |
CN108805004B (zh) | 功能区域检测方法和装置、电子设备、存储介质 | |
Padole et al. | Wigner distribution based motion tracking of human beings using thermal imaging | |
KR20190125702A (ko) | 딥러닝 기반의 추적 모듈에서 코사인 거리와 교차 영역을 활용한 추적 최적화 방법 | |
CN111219940B (zh) | 冰箱内灯光控制的方法及装置、冰箱 | |
Elahi et al. | Webcam-based accurate eye-central localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7093427 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |