JP7178386B2 - 目標追跡方法、装置、電子デバイス、記憶媒体、及びプログラム - Google Patents

目標追跡方法、装置、電子デバイス、記憶媒体、及びプログラム Download PDF

Info

Publication number
JP7178386B2
JP7178386B2 JP2020104949A JP2020104949A JP7178386B2 JP 7178386 B2 JP7178386 B2 JP 7178386B2 JP 2020104949 A JP2020104949 A JP 2020104949A JP 2020104949 A JP2020104949 A JP 2020104949A JP 7178386 B2 JP7178386 B2 JP 7178386B2
Authority
JP
Japan
Prior art keywords
detection
video frame
frame
distance
current video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020104949A
Other languages
English (en)
Other versions
JP2021077334A (ja
Inventor
シアオシン ジュー
ヨンイー スン
チョンファー ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2021077334A publication Critical patent/JP2021077334A/ja
Application granted granted Critical
Publication of JP7178386B2 publication Critical patent/JP7178386B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Description

本発明は、自動運転分野に関し、特に目標追跡方法、装置、電子デバイス、記憶媒体、及びプログラムに関する。
追跡とは、物体の一意認識を解決する方法である。検出によって、ビデオフレームにおける検出枠を得ることができ、検出枠ごとに1つの障害対象が含まれている。そこで、1つ前のビデオフレームにおける検出枠が、後のビデオフレームにおけるどの検出枠との間にマッチング関係が存在しているかについては、追跡の解決すべき問題である。前後2つのビデオフレームにおける一対の検出枠の間にマッチング関係が存在することが確認された場合、この一対の検出枠に含まれる障害対象が同一の障害対象であると決定することができる。
従来技術では、通常、検出枠間のマッチング関係が単一の情報に基づいて決定されるため、追跡の正確性が高くない。特に、検出枠が重なる場合に、視差の問題による追跡エラーを起こしやすい。
本発明は、従来技術における1つ又は複数の技術的課題を解決するための目標追跡方法、装置、電子デバイス、及び記憶媒体を提供する。
本発明の第1様態は、目標追跡方法を提供する。当該目標追跡方法は、
現在のビデオフレーム及び1つ前のビデオフレームにおける各検出枠の特徴情報であって、検出枠の位置情報と検出枠内の障害対象の外観特徴とを含む特徴情報を取得することと、
現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行うことと、
マッチング検出結果に基づいて、現在のビデオフレームにおける各検出枠の追跡軌跡を決定することと、を含み、
外観特徴は、テクスチャ特徴とセマンティック特徴とを含む。
本発明の実施形態では、現在のビデオフレームと1つ前のビデオフレームにおける検出枠の位置情報及び外観特徴を用いて検出枠に対しマッチング検出を行い、マッチング検出結果に基づいて追跡を行う。マッチング検出が位置情報と外観特徴との両者に基づいて行われるため、より豊富なデータを用いてマッチング検出を行うことができる。そのため、マッチング検出の正確率がより高くなり、追跡の正確性を向上させることができる。
1つの実施形態において、検出枠内の障害対象の外観特徴を取得することは、
ニューラルネットワークモデルを用いて障害対象の外観特徴を取得することを含み、
ニューラルネットワークモデルの下位層部分を用いて障害対象のテクスチャ特徴を取得し、ニューラルネットワークモデルの上位層部分を用いて障害対象のセマンティック特徴を取得する。
本発明の実施形態によれば、ニューラルネットワークモデルの異なる階層を用いて障害対象の上位層の特徴と下位層の特徴を取得することにより、より豊富な外観特徴を収集し、マッチング検出の正確率を向上させ、追跡の正確性を向上させることができる。
1つの実施形態において、検出枠の位置情報を取得することは、
検出枠の形状が矩形である場合、検出枠の中心点及び4つの隅点の位置情報を取得することを含む。
本発明の実施形態によれば、中心点と4つの隅点を用いて検出枠を位置決めすることにより、検出枠の位置を簡潔かつ効率的に決めることができ、マッチング検出を容易に行うことができる。
1つの実施形態において、現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行うことは、
現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報との間の相違度をそれぞれ計算することと、
相違度に基づいて、予め設定されたマッチングアルゴリズムを用いてマッチング検出を行うことと、を含む。
本発明の実施形態によれば、予め設定されたマッチングアルゴリズムを用いてマッチング検出を行うことにより、検出枠間のマッチング検出を迅速かつ正確に実現することができる。
1つの実施形態において、相違度を計算することは、
現在のビデオフレームにおける検出枠の中心点と1つ前のビデオフレームにおける検出枠の中心点との間の第1距離を計算し、現在のビデオフレームにおける検出枠の各隅点と1つ前のビデオフレームにおける検出枠の対応する隅点との間の第2距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴と1つ前のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴との間の第3距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のセマンティック特徴と1つ前のビデオフレームにおける検出枠内の障害対象のセマンティック特徴との間の第4距離を計算することと、
第1距離、第2距離、第3距離、第4距離及び各距離に対応する重みを用いて相違度を計算することと、を含む。
本発明の実施形態では、2つの検出枠の各特徴間の距離を計算し、距離及びその対応する重みを用いて2つの検出枠間の相違度を計算する。重みが調整可能であるため、相違度を計算する際の各特徴の割合を調整することができる。
本発明の第2様態は、目標追跡装置を提供する。当該目標追跡装置は、
現在のビデオフレーム及び1つ前のビデオフレームにおける各検出枠の特徴情報であって、検出枠の位置情報と検出枠内の障害対象の外観特徴とを含む前記特徴情報を取得するための取得モジュールと、
現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行うためのマッチング検出モジュールと、
マッチング検出結果に基づいて、現在のビデオフレームにおける各検出枠の追跡軌跡を決定するための追跡モジュールと、を備え、
外観特徴には、テクスチャ特徴とセマンティック特徴とが含まれる。
1つの実施形態において、取得モジュールは、
ニューラルネットワークモデルを用いて障害対象の外観特徴を取得するための外観特徴取得サブモジュールを備え、
ニューラルネットワークモデルの下位層部分を用いて障害対象のテクスチャ特徴を取得し、ニューラルネットワークモデルの上位層部分を用いて障害対象のセマンティック特徴を取得する。
1つの実施形態において、取得モジュールは、
検出枠の形状が矩形である場合、検出枠の中心点及び4つの隅点の位置情報を取得するための位置情報取得サブモジュールを備える。
1つの実施形態において、マッチング検出モジュールは、
現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報との間の相違度をそれぞれ計算するための相違度計算サブモジュールと、
相違度に基づいて、予め設定されたマッチングアルゴリズムを用いてマッチング検出を行うための検出サブモジュールと、を備える。
1つの実施形態において、相違度計算サブモジュールは、
現在のビデオフレームにおける検出枠の中心点と1つ前のビデオフレームにおける検出枠の中心点との間の第1距離を計算し、現在のビデオフレームにおける検出枠の各隅点と1つ前のビデオフレームにおける検出枠の対応する隅点との間の第2距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴と1つ前のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴との間の第3距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のセマンティック特徴と1つ前のビデオフレームにおける検出枠内の障害対象のセマンティック特徴との間の第4距離を計算し、
第1距離、第2距離、第3距離、第4距離及び各距離に対応する重みを用いて相違度を計算するために用いられる。
本発明の第3様態は、電子設備を提供する。当該電子設備は、
1つ又は複数のプロセッサと、
前記1つ又は複数のプロセッサに通信接続されるメモリとを含み、
前記メモリには、前記1つ又は複数のプロセッサにより実行可能なコマンドを記憶しており、
前記1つ又は複数のプロセッサは、前記1つ又は複数のコマンドを実行する場合、第1態様のいずれか1項に記載の目標追跡方法を実行させる。
本発明の第4態様は、コンピュータコマンドが記憶された非一過性のコンピュータ可読記憶媒体を提供し、コンピュータコマンドが第1態様のいずれか1項に記載の目標追跡方法を実行させる。
上記本発明の実施形態のうちの少なくとも1つの実施形態は、下記のメリット及び有益な効果を有する。
本発明の実施形態では、現在のビデオフレームと1つ前のビデオフレームにおける検出枠の位置情報及び外観特徴を用いて検出枠に対しマッチング検出を行い、マッチング検出結果に基づいて追跡を行う。マッチング検出が位置情報と外観特徴の両者に基づいて行われるため、より豊富なデータを用いてマッチング検出を行うことができる。そのため、マッチング検出の正確率がより高くなり、追跡の正確性を向上させることができる。
上記の選択可能な実施形態によるその他の効果は、具体的な実施形態とあわせて後述する。
添付図面は、本開示の理解を促すためのものであり、いかなる限定を目的としない。
本発明による目標追跡方法の実現のフローチャートである。 本発明による目標追跡方法におけるステップS102の実現のフローチャートである。 本発明による目標追跡方法における2つの検出枠間の相違度の計算のフローチャートである。 本発明による目標追跡装置の構成を示す模式図である。 本発明による目標追跡装置の構成を示す模式図である。 本発明の実施形態による目標追跡方法を実現するための電子デバイスのブロック図である。
以下、図面を参照しながら本発明の例示的な実施形態を説明するが、本発明の実施形態の様々な詳細が理解を容易にするために含まれており、それらは単なる例示的と考えられるべきである。したがって、当業者は、本発明の範囲及び旨から逸脱することなく、本発明明細書に記載された実施形態に対して様々な変更及び修正を行うことができることを理解すべきである。同様に、以下の説明では、公知な機能及び構造についての説明は、明瞭かつ簡明のために省略される。
本発明の実施形態は、目標追跡方法を提供する。図1は、本発明による目標追跡方法の実現のフローチャートであり、当該目標追跡方法は、以下のステップS101~S103を含む。
ステップS101において、現在のビデオフレーム及び1つ前のビデオフレームにおける各検出枠の特徴情報を取得し、当該特徴情報は、検出枠の位置情報と検出枠内の障害対象の外観特徴とを含み、外観特徴は、テクスチャ特徴とセマンティック特徴とを含む。
ステップS102において、現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行う。
ステップS103において、マッチング検出結果に基づいて、現在のビデオフレームにおける各検出枠の追跡軌跡を決定する。
本発明の実施形態では、現在のビデオフレームと1つ前のビデオフレームにおける検出枠の位置情報及び外観特徴を用いて検出枠に対しマッチング検出を行い、マッチング検出結果に基づいて追跡を行う。マッチング検出が位置情報と外観特徴の両者に基づいて行われるため、より豊富なデータを用いてマッチング検出を行うことができる。そのため、マッチング検出の正確率がより高くなり、追跡の正確性を向上させることができる。
1つの可能な実施形態では、上記の現在のビデオフレーム及び1つ前のビデオフレームとは、カメラによって収集されたビデオデータから抽出された2つの連続するまたは隣接するビデオフレームであってもよく、1つのビデオフレームに1つまたは複数の検出枠が含まれてもよく、各検出枠に1つの障害対象が含まれる。上記の障害対象とは、車両、歩行者などであってもよい。
1つの可能な実施形態では、マッチング検出結果として、マッチングした場合と、或いはマッチングしなかった場合とがある。現在のビデオフレームにおける検出枠Aと1つ前のビデオフレームにおける検出枠A’とがマッチングした場合、検出枠Aが検出枠A’に類似する特徴情報を有することを表しており、検出枠A内の障害対象と検出枠A’ 内の障害対象とが同一の障害対象であるとみなされてもよく、この場合、現在のビデオフレームにおける検出枠Aを、1つ前のビデオフレームにおける検出枠A’の所在する追跡軌跡に追加してもよい。現在のビデオフレームにおける検出枠Bが1つ前のビデオフレームにおけるいずれの検出枠にもマッチングしなかった場合、1つ前のビデオフレームにおいて検出枠Bの特徴情報と類似する検出枠が存在しないことを表しており、検出枠B内の障害対象が現在のビデオフレームにおいて現れたばかりの障害対象であるとみなされてもよく、この場合、現在のビデオフレームにおける検出枠Bを新たな追跡軌跡の始点としてもよい。
1つの可能な実施形態では、ステップS101において検出枠内の障害対象の外観特徴を取得することは、ニューラルネットワークモデルを用いて障害対象の外観特徴を取得することを含む。
ここで、ニューラルネットワークモデルの下位層部分を用いて障害対象のテクスチャ特徴を取得し、ニューラルネットワークモデルの上位層部分を用いて障害対象のセマンティック特徴を取得する。
上記のニューラルネットワークモデルは、コンボリューションニューラルネットワーク(Convolutional Neural Networks、CNN)を採用してもよい。ニューラルネットワークモデルには、複数の層が含まれている。本発明の実施形態では、ニューラルネットワークモデルの下位層部分を用いて検出枠内の障害対象のテクスチャ特徴を取得し、ニューラルネットワークモデルの上位層部分を用いて検出枠内の障害対象のセマンティック特徴を取得することができる。テクスチャ特徴は、障害対象の下位層の外観特徴であるとみなされてもよく、セマンティック特徴は、障害対象の上位層の外観特徴であるとみなされてもよい。本発明の実施形態では、テクスチャ特徴とセマンティック特徴とがベクトルで表現されてもよい。実際の応用において、異なるタイプの障害対象に対し、異なるニューラルネットワークモデルを用いて障害対象の外観特徴を取得してもよい。例えば、車両を追跡する必要がある場合、車両識別のためのニューラルネットワークモデルを用いて、車両の外観特徴を抽出してもよく、歩行者を追跡する必要がある場合、歩行者識別のためのニューラルネットワークモデルを用いて、歩行者の外観特徴を抽出してもよい。
1つの可能な実施形態では、ステップS101において検出枠の位置情報を取得することは、検出枠の形状が矩形である場合、検出枠の中心点及び4つの隅点の位置情報を取得することを含む。
図2は、本発明による目標追跡方法におけるステップS102の実現のフローチャートであり、当該目標追跡方法は、以下のステップS201~S202を含む。
ステップS201において、現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報との間の相違度をそれぞれ計算する。
ステップS202において、相違度に基づいて、予め設定されたマッチングアルゴリズムを用いてマッチング検出を行う。
上記ステップS202において、本発明の実施形態では、ハンガリーのアルゴリズムなどの2部グラフマッチングアルゴリズムを用いてマッチング検出を行ってもよい。
例えば、現在のビデオフレームは、検出枠11、検出枠12、検出枠13、検出枠14を含む4つの検出枠があり、1つ前のビデオフレームは、検出枠21、検出枠22、検出枠23を含む3つの検出枠がある。
検出枠11と検出枠21と、検出枠11と検出枠22と、検出枠11と検出枠23との相違度は、それぞれD11、D12、D13であり、検出枠12と検出枠21と、検出枠12と検出枠22と、検出枠12と検出枠23との相違度は、それぞれD21、D22、D23であり、検出枠13と検出枠21と、検出枠13と検出枠22と、検出枠13と検出枠23との相違度は、それぞれD31、D32、D33であり、検出枠14と検出枠21と、検出枠14と検出枠22と、検出枠14と検出枠23との相違度は、それぞれD41、D42、D43であることを算出する。
マッチングが行われる時、現在のビデオフレームにおける1つの検出枠は、多くとも1つ前のビデオフレームにおける1つの検出枠とマッチング関係が存在する。2部グラフマッチングアルゴリズムを用いて、相違度の和が最小となるマッチング方案を決定する。
上記のマッチング方案では、現在のビデオフレームにおけるある検出枠に、対応する検出枠が割り当てられていない場合、当該現在のビデオフレームにおける検出枠に対するマッチング検出結果が「マッチングせず」となり、この検出枠内の障害対象が新たに現れた障害対象であり、新たな標識(ID)を割り当てる必要があることを表している。
現在のビデオフレームにおけるある検出枠に、対応する検出枠が割り当てられている場合にも、その検出枠と割り当てられた検出枠との相違度が閾値条件を満たすか否かを判定する必要があり、満たさない場合、両者の差異が大きすぎることを表すため、この現在のビデオフレームにおける検出枠に対するマッチング検出結果も「マッチングせず」となり、新たな標識(ID)を割り当てる必要があり、満たす場合、この現在のビデオフレームにおける検出枠に対するマッチング検出結果が「マッチングしている」となり、この現在のビデオフレームにおける検出枠を、マッチングした検出枠の所在する追跡軌跡に追加してもよい。
図3は、本発明による目標追跡方法における2つの検出枠間の相違度の計算のフローチャートであり、当該目標追跡方法は、以下のステップS301~S302を含む。
ステップS301において、現在のビデオフレームにおける検出枠の中心点と1つ前のビデオフレームにおける検出枠の中心点との間の第1距離を計算し、現在のビデオフレームにおける検出枠の各隅点と1つ前のビデオフレームにおける検出枠の対応する隅点との間の第2距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴と1つ前のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴との間の第3距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のセマンティック特徴と1つ前のビデオフレームにおける検出枠内の障害対象のセマンティック特徴との間の第4距離を計算する。
ステップS302において、第1距離、第2距離、第3距離、第4距離及び各距離に対応する重みを用いて相違度を計算する。
例えば、現在のビデオフレームにおける1つの検出枠Xと1つ前のビデオフレームにおける1つの検出枠Yについて、計算による2つの検出枠の各特徴間の距離は、以下のとおりである。
検出枠Xの中心点の位置と検出枠Yの中心点の位置との間の距離をd1とし、
検出枠Xの左上隅点の位置と検出枠Yの左上隅点の位置との間の距離をd2とし、
検出枠Xの右上隅点の位置と検出枠Yの右上隅点の位置との間の距離をd3とし、
検出枠Xの左下隅点の位置と検出枠Yの左下隅点の位置との間の距離をd4とし、
検出枠Xの右下隅点の位置と検出枠Yの右下隅点の位置との間の距離をd5とし、
検出枠X内の障害対象のテクスチャ特徴と検出枠Y内の障害対象のテクスチャ特徴との間の距離をd6とし、
検出枠X内の障害対象のセマンティック特徴と検出枠Y内の障害対象のセマンティック特徴との間の距離をd7とする。
ここで、上記の中心点の位置及び各隅点の位置とは、対応する点のビデオフレームにおける座標位置を指してもよく、上記のd1~d5は、幾何学的に計算されてもよく、d2~d5は、上記の第2距離を構成する。
テクスチャ特徴はベクトルで表されることができるため、上記のテクスチャ特徴間の距離d6は、具体的にテクスチャ特徴ベクトルの夾角の余弦値とされてもよく、余弦値が1に近いほど、角度は0度に近く、すなわち、2つのテクスチャ特徴ベクトルが似ていることが表される。同様に、セマンティック特徴間の距離d7もセマンティック特徴ベクトルの夾角の余弦値である。
上記の各距離の計算が完了した後、検出枠Xと検出枠Yとの相違度は、次式で計算することができる。
D=w1*d1+w2*d2+w3*d3+w4*d4+w5*d5+w6*d6+w7*d7
ただし、w1~w7は、それぞれ各距離に対応する重みである。
上記の各重みは、実際の状況に応じて設定・調整可能であるため、検出枠間の相違度を算出する際の上記各距離の重要度を調整することができる。
本発明の実施形態は、目標追跡装置をさらに提供する。図4は、本発明による目標追跡装置の構成を示す模式図である。図4に示すように、目標追跡装置400は、
現在のビデオフレーム及び1つ前のビデオフレームにおける各検出枠の特徴情報であって、検出枠の位置情報と検出枠内の障害対象の外観特徴とを含む前記特徴情報を取得するための取得モジュール410と、
現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行うためのマッチング検出モジュール420と、
マッチング検出結果に基づいて、現在のビデオフレームにおける各検出枠の追跡軌跡を決定するための追跡モジュール430と、を備え、
外観特徴には、テクスチャ特徴とセマンティック特徴とが含まれる。
本発明の実施形態は、目標追跡装置をさらに提案する。図5は、本発明による目標追跡装置の構成を示す模式図である。図5に示すように、目標追跡装置500は、取得モジュール410と、マッチング検出モジュール420と、追跡モジュール430と、を備える。
ここで、取得モジュール410は、ニューラルネットワークモデルを用いて障害対象の外観特徴を取得するための外観特徴取得サブモジュール411を備え、ニューラルネットワークモデルの下位層部分を用いて障害対象のテクスチャ特徴を取得し、ニューラルネットワークモデルの上位層部分を用いて障害対象のセマンティック特徴を取得する。
取得モジュール410は、検出枠の形状が矩形である場合、検出枠の中心点及び4つの隅点の位置情報を取得するための位置情報取得サブモジュール412をさらに備える。
1つの実施形態では、マッチング検出モジュール420は、
現在のビデオフレームにおける各検出枠の特徴情報と、1つ前のビデオフレームにおける各検出枠の特徴情報との間の相違度をそれぞれ計算するための相違度計算サブモジュール421と、
相違度に基づいて、予め設定されたマッチングアルゴリズムを用いてマッチング検出を行うための検出サブモジュール422と、を備える。
1つの実施形態では、相違度計算サブモジュール421は、
現在のビデオフレームにおける検出枠の中心点と1つ前のビデオフレームにおける検出枠の中心点との間の第1距離を計算し、現在のビデオフレームにおける検出枠の各隅点と1つ前のビデオフレームにおける検出枠の対応する隅点との間の第2距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴と1つ前のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴との間の第3距離を計算し、現在のビデオフレームにおける検出枠内の障害対象のセマンティック特徴と1つ前のビデオフレームにおける検出枠内の障害対象のセマンティック特徴との間の第4距離を計算し、
第1距離、第2距離、第3距離、第4距離及び各距離に対応する重みを用いて相違度を計算するために用いられる。
本発明の実施形態に係る各装置における各モジュールの機能は、上記の方法における対応説明を参照することができるので、ここでは説明を省略する。
本発明に係る実施形態では、電子デバイスと非一過性のコンピュータ可読取記録媒体をさらに提供する。
図6は、本発明の実施形態による目標追跡方法を実現する電子デバイスのブロック図である。電子デバイスは、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータのような様々な形態のデジタルコンピュータを表すことができる。また、電子デバイスはパーソナルデジタル処理、携帯電話、スマートフォン、装着可能デバイス、及びその他の類似のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すことができる。ここで示した構成要素、それらの接続と関係、及びそれらの機能は例示的なものに過ぎず、本発明で説明されたもの及び/または要求される本発明の実施を制限することは意図されない。
図6に示すように、当該電子デバイスは、1つ又は複数のプロセッサ601と、メモリ602と、高速インターフェースと低速インターフェースとを含む各構成要素を接続するためのインターフェースとを含む。各構成要素は、異なるバスを利用して互いに接続し、共通のマザーボードに取り付けられてもよいし、必要に応じて他の方法で取り付けられてもよい。プロセッサは、電子デバイス内で実行される命令を処理してもよく、また、外部入出力デバイス(例えば、インターフェースに接続された表示デバイス)にグラフィックユーザインターフェース(Graphical User Interface,GUI)を表示するための、メモリまたはメモリ上に記憶されたグラフィカル情報の命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/または複数のバスを複数のメモリ及び複数のメモリとともに使用することができる。同様に、複数の電子デバイスを接続してもよく、各デバイスは、部分的に必要な動作(例えば、サーバアレイ、ブレードサーバのセット、またはマルチプロセッサシステムとして)を提供する。図6においてプロセッサ601を例とする。
メモリ602は、本発明にて提供された非一過性のコンピュータ可読記憶媒体である。メモリは、本発明で提供される目標追跡方法を少なくとも1つのプロセッサに実行させるように、少なくとも1つのプロセッサによって実行されることができる命令を記憶する。本発明における非一過性のコンピュータ可読記憶媒体は、本発明で提供された目標追跡方法をコンピュータに実行させるためのコンピュータ命令を記憶する。
メモリ602は、非一過性のコンピュータ可読記憶媒体として、非一過性のソフトウェアプログラム、非一過性のコンピュータ実行可能なプログラム及びモジュールを記憶するために使用されてもよく、本発明の実施形態における目標追跡方法に対応するプログラム命令/モジュール(例えば、図4に示される取得モジュール410、マッチング検出モジュール420、及び追跡モジュール430)のようなものである。プロセッサ601は、メモリ602に記憶されている非一過性のソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能アプリケーション及びデータ処理、すなわち上述した方法に関する実施形態に係る目標追跡方法を実行する。
メモリ602は、オペレーティングシステムや少なくとも1つの機能に必要なアプリケーションを記憶することができるプログラムの記憶領域と、目標追跡方法に係る電子デバイスの使用によって生成されたデータなどを記憶することができるデータの記憶領域と、を含むことができる。さらに、メモリ602は、高速ランダムアクセスメモリを含んでもよく、非一過性の固体記憶装置を含んでもよい。例えば、少なくとも1つの磁気ディスク記憶装置、フラッシュメモリ装置、または他の非一過性の固体記憶装置を含むことができる。いくつかの実施形態では、メモリ602はオプションとして、プロセッサ601に対して遠隔的に設定されたメモリを含み、これらの遠隔メモリは、ネットワークを介して目標追跡方法に係る電子デバイスに接続されてもよい。上記のネットワークの例は、インターネット、企業内ネットワーク、ローカルネットワーク、モバイル通信ネットワーク及びその組み合わせを含むが、これらに限定されない。
目標追跡方法に係る電子デバイスは、入力装置603と出力装置604とをさらに含むことができる。プロセッサ601、メモリ602、入力装置603、及び出力装置604は、バスまたは他の方法で接続されてもよく、図6ではバスを介して接続されている。
入力装置603は、入力された数字または文字を受信し、目標追跡方法に係る電子デバイスのユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチパネル、キーパッド、マウス、トラックボード、タッチパッド、指示棒、1つまたは複数のマウスボタン、トラックボール、ジョイスティックなどを含むことができる。出力装置604は、表示装置、補助照明装置(例えばLED)、及び触覚フィードバック装置(例えば、振動モータ)などを含むことができる。この表示装置は、液晶ディスプレイ(Liquid Crystal Display、LCD)、発光ダイオード(Light Emitting Diode、LED)ディスプレイ及びプラズマディスプレイを含むことができるがこれらに限定されない。いくつかの実施形態では、表示装置はタッチパネルであってもよい。
本発明におけるシステム及び技術に係る様々な実施形態は、デジタル電子回路システム、集積回路システム、専用集積回路(Application Specific Integrated Circuits、ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/またはこれらの組み合わせによって実現されることができる。これらの様々な実施形態は、1つまたは複数のコンピュータプログラムにおいて実装されてもよく、この1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステム上で実行されてもよく、及び/または解釈されてもよく、このプログラマブルプロセッサは、専用または汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置より、データと命令を受信し、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置に、データと命令を送信する。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードともいう)は、プログラマブルプロセッサのマシン命令を含み、プロセス指向及び/またはオブジェクト指向プログラミング言語、及び/またはアセンブリ/マシン言語を用いてこれらの計算プログラムを実施することができる。本発明で使用されるように、「機械可読媒体」及び「コンピュータ可読媒体」という用語は、マシン命令及び/またはデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、デバイス、及び/または装置(例えば、磁気ディスク、光ディスク、メモリ、編集可能論理デバイス(programmable logic device、PLD)を意味し、機械読み取り可能な信号としてのマシン命令を受信する機械可読媒体を含む。「機械読み取り可能な信号」という用語は、マシン命令及び/またはデータをプログラマブルプロセッサに提供するための任意の信号を意味する。
ユーザとのイントラクションを提供するために、本発明で説明されているシステムや技術は、コンピュータ上で実施されてもよく、また、ユーザに情報を表示するための表示装置(例えば、CRT(Cathode Ray Tube、ブラウン管)またはLCD(液晶ディスプレイ)モニタ)と、入力をコンピュータに提供するためのキーボード及びポインティングデバイス(例えば、マウスまたはトラックボール)とを備えてもよい。他の種類の装置も、ユーザとのイントラクションを提供するために使用され得る。例えば、ユーザに提供されたフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、いかなる形式(音響入力、音声入力、または触覚入力を含む)で受信されてもよい。
本発明で説明されているシステム及び技術は、バックグラウンド構成要素を含む計算システム(例えば、データサーバとして)、または中間部構成要素を含む計算システム(例えば、アプリケーションサーバ)、または、フロントエンド構成要素を含む計算システム(例えば、グラフィカルユーザインタフェースまたはネットワークブラウザを備えたユーザコンピュータであって、ユーザがこのグラフィカルユーザインタフェースまたはネットワークブラウザを介して本発明で説明されたシステム及び技術に係る実施形態とインタラクションを行うことができるユーザコンピュータ)に実行されてもよく、または、このようなバックグラウンド構成要素、中間部構成要素、またはフロントエンド構成要素の任意の組合せを含む計算システムにおいて実行されてもよい。システムの構成要素は、任意の形態または媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されてもよい。通信ネットワークの例えとして、ローカルネットワーク(Local Area Network,LAN)、広域ネットワーク(Wide Area Network,WAN)及びインターネットを含む。
コンピュータシステムは、クライアント及びサーバを含むことができる。クライアントとサーバは一般的に相互に離れており、通信ネットワークを介してインタラクションを行う。クライアントとサーバとの関係を持つコンピュータプログラムがそれぞれのコンピュータ上で実行されることによって、クライアントとサーバとの関係は構築される。
本発明の実施形態に係る発明によれば、前後2つのフレームにおける検出枠の位置情報及び外観特徴を用いて、検出枠に対しマッチング検出を行い、マッチング検出結果に基づいて追跡する。マッチング検出が位置情報と外観特徴の両者に基づいて行われるため、より豊富なデータを用いてマッチング検出を行うことができ、そのため、マッチング検出の確率がより高くなり、追跡の正確性を向上させることができる。
上記の様々な態様のフローを使用して、ステップを新たに順序付け、追加、または削除することが可能であることを理解すべきである。例えば、本発明で記載された各ステップは、並列に実行しても良いし、順次に実行しても良いし、異なる順序で実行しても良い。本発明で開示された技術案が所望する結果を実現することができる限り、本発明ではこれに限定されない。
上記具体的な実施形態は、本発明の保護範囲に対する限定を構成するものではない。当業者は、設計事項やその他の要因によって、様々な修正、組み合わせ、サブ組み合わせ、及び代替が可能であることを理解するべきである。本発明の要旨及び原則内における変更、均等な置換及び改善等は、いずれも本発明の保護範囲に含まれるべきである。

Claims (13)

  1. 現在のビデオフレーム及び1つ前のビデオフレームにおける各検出枠の特徴情報であって、前記検出枠の位置情報と前記検出枠内の障害対象の外観特徴とを含む特徴情報を取得することと、
    前記現在のビデオフレームにおける各検出枠の特徴情報と、前記1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行うことと、
    マッチング検出結果に基づいて、前記現在のビデオフレームにおける各検出枠の追跡軌跡を決定することと、を含み、
    前記外観特徴は、テクスチャ特徴とセマンティック特徴とを含む、
    ことを特徴とする目標追跡方法。
  2. 前記検出枠内の障害対象の外観特徴を取得することは、
    ニューラルネットワークモデルを用いて前記障害対象の外観特徴を取得することを含み、
    前記ニューラルネットワークモデルの下位層部分を用いて前記障害対象のテクスチャ特徴を取得し、前記ニューラルネットワークモデルの上位層部分を用いて前記障害対象のセマンティック特徴を取得する、
    ことを特徴とする請求項1に記載の目標追跡方法。
  3. 前記検出枠の位置情報を取得することは、
    前記検出枠の形状が矩形である場合、前記検出枠の中心点及び4つの隅点の位置情報を取得することを含む、
    ことを特徴とする請求項1または2に記載の目標追跡方法。
  4. 前記現在のビデオフレームにおける各検出枠の特徴情報と、前記1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行うことは、
    前記現在のビデオフレームにおける各検出枠の特徴情報と、前記1つ前のビデオフレームにおける各検出枠の特徴情報との間の相違度をそれぞれ計算することと、
    前記相違度に基づいて、予め設定されたマッチングアルゴリズムを用いてマッチング検出を行うことと、を含む、
    ことを特徴とする請求項3に記載の目標追跡方法。
  5. 前記相違度を計算することは、
    前記現在のビデオフレームにおける検出枠の中心点と前記1つ前のビデオフレームにおける検出枠の中心点との間の第1距離を計算し、前記現在のビデオフレームにおける検出枠の各隅点と前記1つ前のビデオフレームにおける検出枠の対応する隅点との間の第2距離を計算し、前記現在のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴と前記1つ前のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴との間の第3距離を計算し、前記現在のビデオフレームにおける検出枠内の障害対象のセマンティック特徴と前記1つ前のビデオフレームにおける検出枠内の障害対象のセマンティック特徴との間の第4距離を計算することと、
    前記第1距離、前記第2距離、前記第3距離、前記第4距離及び各距離に対応する重みを用いて前記相違度を計算することと、を含む、
    ことを特徴とする請求項4に記載の目標追跡方法。
  6. 現在のビデオフレーム及び1つ前のビデオフレームにおける各検出枠の特徴情報であって、前記検出枠の位置情報と前記検出枠内の障害対象の外観特徴とを含む特徴情報を取得する取得モジュールと、
    前記現在のビデオフレームにおける各検出枠の特徴情報と、前記1つ前のビデオフレームにおける各検出枠の特徴情報とのマッチング検出をそれぞれ行うマッチング検出モジュールと、
    マッチング検出結果に基づいて、前記現在のビデオフレームにおける各検出枠の追跡軌跡を決定する追跡モジュールと、を備え、
    前記外観特徴は、テクスチャ特徴とセマンティック特徴とを含む、
    ことを特徴とする目標追跡装置。
  7. 前記取得モジュールは、
    ニューラルネットワークモデルを用いて前記障害対象の外観特徴を取得するための外観特徴取得サブモジュールを備え、
    前記ニューラルネットワークモデルの下位層部分を用いて前記障害対象のテクスチャ特徴を取得し、前記ニューラルネットワークモデルの上位層部分を用いて前記障害対象のセマンティック特徴を取得する、
    ことを特徴とする請求項6に記載の目標追跡装置。
  8. 前記取得モジュールは、
    前記検出枠の形状が矩形である場合、前記検出枠の中心点及び4つの隅点の位置情報を取得するための位置情報取得サブモジュールを備える、
    ことを特徴とする請求項6または7に記載の目標追跡装置。
  9. 前記マッチング検出モジュールは、
    前記現在のビデオフレームにおける各検出枠の特徴情報と、前記1つ前のビデオフレームにおける各検出枠の特徴情報との間の相違度をそれぞれ計算するための相違度計算サブモジュールと、
    前記相違度に基づいて、予め設定されたマッチングアルゴリズムを用いてマッチング検出を行うための検出サブモジュールと、を備える、
    ことを特徴とする請求項8に記載の目標追跡装置。
  10. 前記相違度計算サブモジュールは、
    前記現在のビデオフレームにおける検出枠の中心点と前記1つ前のビデオフレームにおける検出枠の中心点との間の第1距離を計算し、前記現在のビデオフレームにおける検出枠の各隅点と前記1つ前のビデオフレームにおける検出枠の対応する隅点との間の第2距離を計算し、前記現在のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴と前記1つ前のビデオフレームにおける検出枠内の障害対象のテクスチャ特徴との間の第3距離を計算し、前記現在のビデオフレームにおける検出枠内の障害対象のセマンティック特徴と前記1つ前のビデオフレームにおける検出枠内の障害対象のセマンティック特徴との間の第4距離を計算し、
    前記第1距離、前記第2距離、前記第3距離、前記第4距離及び各距離に対応する重みを用いて前記相違度を計算する、
    ことを特徴とする請求項9に記載の目標追跡装置。
  11. 1つ又は複数のプロセッサと、
    前記1つ又は複数のプロセッサに通信接続されるメモリとを備え、
    前記メモリには、前記1つ又は複数のプロセッサにより実行可能なコマンドを記憶しており、
    前記1つ又は複数のプロセッサは、前記1つ又は複数のコマンドを実行する場合、請求項1~5のいずれか1項に記載の目標追跡方法を実行させる、
    ことを特徴とする電子デバイス。
  12. 請求項1~5のいずれか1項に記載の目標追跡方法をコンピュータに実行させるためのコンピュータコマンドを記憶した非一過性のコンピュータ可読記憶媒体。
  13. コンピュータにおいて、プロセッサにより実行される場合、請求項1~5のいずれか1項に記載の目標追跡方法を実現することを特徴とするプログラム。
JP2020104949A 2019-11-13 2020-06-18 目標追跡方法、装置、電子デバイス、記憶媒体、及びプログラム Active JP7178386B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911106568.0A CN110827325B (zh) 2019-11-13 2019-11-13 目标跟踪方法、装置、电子设备及存储介质
CN201911106568.0 2019-11-13

Publications (2)

Publication Number Publication Date
JP2021077334A JP2021077334A (ja) 2021-05-20
JP7178386B2 true JP7178386B2 (ja) 2022-11-25

Family

ID=69554948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020104949A Active JP7178386B2 (ja) 2019-11-13 2020-06-18 目標追跡方法、装置、電子デバイス、記憶媒体、及びプログラム

Country Status (4)

Country Link
US (1) US11282212B2 (ja)
EP (1) EP3822857A1 (ja)
JP (1) JP7178386B2 (ja)
CN (1) CN110827325B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462174B (zh) * 2020-03-06 2023-10-31 北京百度网讯科技有限公司 多目标跟踪方法、装置以及电子设备
CN111709975B (zh) * 2020-06-22 2023-11-03 上海高德威智能交通系统有限公司 多目标跟踪方法、装置、电子设备及存储介质
CN112330717B (zh) * 2020-11-11 2023-03-10 北京市商汤科技开发有限公司 目标跟踪方法及装置、电子设备和存储介质
CN113313011A (zh) * 2021-05-26 2021-08-27 上海商汤临港智能科技有限公司 视频帧处理方法、装置、计算机设备及存储介质
CN113780058A (zh) * 2021-07-23 2021-12-10 北京旷视科技有限公司 用于确定视频中多目标轨迹的方法、装置、系统及存储介质
CN113409361B (zh) * 2021-08-12 2023-04-18 深圳市城市交通规划设计研究中心股份有限公司 一种多目标跟踪方法、装置、计算机及存储介质
CN114359579A (zh) * 2022-01-10 2022-04-15 杭州巨岩欣成科技有限公司 泳池防溺水人体目标跟踪方法、装置、计算机设备及存储介质
CN115063741B (zh) * 2022-06-10 2023-08-18 嘉洋智慧安全科技(北京)股份有限公司 目标检测方法、装置、设备、介质及产品
CN117011335B (zh) * 2023-07-26 2024-04-09 山东大学 一种基于自适应双解码器的多目标跟踪方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230353A (zh) * 2017-03-03 2018-06-29 北京市商汤科技开发有限公司 目标跟踪方法、系统及电子设备
US20190080207A1 (en) * 2017-07-06 2019-03-14 Frenzy Labs, Inc. Deep neural network visual product recognition system
CN108229456B (zh) * 2017-11-22 2021-05-18 深圳市商汤科技有限公司 目标跟踪方法和装置、电子设备、计算机存储介质
WO2019140699A1 (en) * 2018-01-22 2019-07-25 SZ DJI Technology Co., Ltd. Methods and system for multi-target tracking
US11670001B2 (en) * 2019-05-17 2023-06-06 Nvidia Corporation Object pose estimation
WO2020247265A1 (en) * 2019-06-03 2020-12-10 Nvidia Corporation Multi-object tracking using correlation filters in video analytics applications

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Ismail Haritaogula et al.,W4:Who? When? Where? What? A Real Time System for Detecting and Tracking People,Proceeding Third IEEE International Conference on Automatic Face and Gesture Recognition ,米国,IEEE,1998年04月14日,222-227
Jonghoon Jin et al.,Tracking with Deep Neural Networks,2013 47th annual Conference on Information Sciences and Systems(CISS),米国,IEEE,2013年03月20日,1-5
Valtteri Takala et al.,Multi-Object Tracking Using Color, Texture and Motion,2007 IEEE Conference on Computer Vision and Pattern Recognition,米国,IEEE,2007年06月17日,1-7

Also Published As

Publication number Publication date
CN110827325B (zh) 2022-08-09
US11282212B2 (en) 2022-03-22
JP2021077334A (ja) 2021-05-20
CN110827325A (zh) 2020-02-21
EP3822857A1 (en) 2021-05-19
US20210142489A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7178386B2 (ja) 目標追跡方法、装置、電子デバイス、記憶媒体、及びプログラム
WO2021232652A1 (zh) 目标跟踪方法、装置、电子设备及计算机可读存储介质
JP7242738B2 (ja) 点群を更新するための方法、点群を更新するための装置、電子機器、非一時的コンピュータ可読記憶媒体及びコンピュータプログラム
CN110879395B (zh) 障碍物位置预测方法、装置和电子设备
CN110852321B (zh) 候选框过滤方法、装置以及电子设备
US20210374439A1 (en) Obstacle detection method and device, apparatus, and storage medium
CN111462174B (zh) 多目标跟踪方法、装置以及电子设备
JP7337121B2 (ja) 環状交差点のナビゲーション方法、装置、デバイス及び記憶媒体
US20210383120A1 (en) Method and Apparatus for Detecting Region of Interest in Video, Device and Medium
US20220101540A1 (en) Cross-camera obstacle tracking method, system and medium
US11574414B2 (en) Edge-based three-dimensional tracking and registration method and apparatus for augmented reality, and storage medium
JP7221920B2 (ja) 目標検出方法、装置、電子デバイス、記憶媒体、及びプログラム
KR102568948B1 (ko) 장애물 속도를 결정하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
KR102531389B1 (ko) 자율주행차량의 커브 주행을 제어하는 방법, 장치, 기기 및 매체
KR20220093382A (ko) 장애물 검출 방법 및 장치
CN111260722B (zh) 车辆定位方法、设备及存储介质
CN114355332A (zh) 确定目标轨迹的方法及装置
CN111340222B (zh) 神经网络模型搜索方法、装置以及电子设备
CN111353581B (zh) 轻量模型获取方法、装置、电子设备及存储介质
CN111402333B (zh) 参数估计方法、装置、设备和介质
US11488384B2 (en) Method and device for recognizing product
CN111126596B (zh) 神经网络训练中的信息处理方法、设备与存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220907

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7178386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150