JP6893249B2 - ターゲット追跡方法、装置、電子機器及び記憶媒体 - Google Patents
ターゲット追跡方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP6893249B2 JP6893249B2 JP2019547413A JP2019547413A JP6893249B2 JP 6893249 B2 JP6893249 B2 JP 6893249B2 JP 2019547413 A JP2019547413 A JP 2019547413A JP 2019547413 A JP2019547413 A JP 2019547413A JP 6893249 B2 JP6893249 B2 JP 6893249B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- track segment
- feature information
- tracking
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Mathematics (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
Description
Claims (11)
- サーバによって実行されるターゲット追跡方法であって、
画像データを取得し、前記画像データに対してターゲット検出を行って、追跡ターゲットに一対一で対応する少なくとも1つのターゲットインスタンスを取得するステップと、
少なくとも1つの前記ターゲットインスタンスから、同じ追跡ターゲットを含むターゲットインスタンスを検索し、同じ追跡ターゲットを含むターゲットインスタンスを連結してトラックセグメントを形成するステップと、
前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得するステップと、
前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得するステップと、
前記トラックセグメントのカテゴリ分布において、同一のカテゴリのトラックセグメントを連結してターゲット追跡結果を形成するステップと、を含み、
前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得するステップは、
前記トラックセグメント中のターゲットインスタンスに対してターゲット特徴構築を行って、ターゲット特徴情報を取得するステップと、
前記ターゲット特徴情報に応じて、前記トラックセグメントに対して局所的特徴構築と大局的特徴構築をそれぞれ行って、局所的特徴情報と大局的特徴情報を取得するステップと、
前記局所的特徴情報と大局的特徴情報に基づいて、前記トラックセグメント特徴情報を生成するステップと、を含み、
前記画像データに対してターゲット検出を行って、少なくとも1つのターゲットインスタンスを取得するステップは、
予め作成された変形可能部品モデルにより、前記画像データ中の追跡ターゲットの複数の変形可能部品に対して表記情報による識別を行って、表記情報によって識別された追跡ターゲットの変形可能部品に対応する少なくとも1つの前記ターゲットインスタンスを取得するステップを含み、
それに応じて、前記トラックセグメント中のターゲットインスタンスに対してターゲット特徴構築を行って、ターゲット特徴情報を取得するステップは、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルを取得するステップと、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルに基づいて、前記ターゲットインスタンスに対応するターゲット特徴情報を生成するステップと、を含み、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルを取得するステップは、
複数の表記情報に対してヒストグラム特徴ベクトルの抽出を行い、抽出されたヒストグラム特徴ベクトルを前記追跡ターゲットの視覚特徴ベクトルとするステップと、
そのうちの一つの表記情報によって識別された変形可能部品をアンカー点として、残りの表記情報によって識別された変形可能部品と前記アンカー点との間の位置ずれを算出して、算出されたずれ値を前記追跡ターゲットの構造特徴ベクトルとするステップと、を含むターゲット追跡方法。 - 前記ターゲット特徴情報に応じて、前記トラックセグメントに対して局所的特徴構築と大局的特徴構築をそれぞれ行って、局所的特徴情報と大局的特徴情報を取得するステップは、
前記トラックセグメントから少なくとも1つのターゲットインスタンスを抽出し、当該少なくとも1つのターゲットインスタンスに対応するターゲット特徴情報中の視覚特徴ベクトルを前記トラックセグメントに対応する局所的特徴情報とするステップと、
前記トラックセグメント中のターゲットインスタンスに対して、対応するターゲット特徴情報中の構造特徴ベクトルの平均値を算出し、当該構造特徴ベクトルに基づいて共分散演算を行って共分散行列を取得するステップと、
前記平均値と共分散行列を前記トラックセグメントに対応する大局的特徴情報とするステップと、を含む請求項1に記載の方法。 - サーバによって実行されるターゲット追跡方法であって、
画像データを取得し、前記画像データに対してターゲット検出を行って、追跡ターゲットに一対一で対応する少なくとも1つのターゲットインスタンスを取得するステップと、
少なくとも1つの前記ターゲットインスタンスから、同じ追跡ターゲットを含むターゲットインスタンスを検索し、同じ追跡ターゲットを含むターゲットインスタンスを連結してトラックセグメントを形成するステップと、
前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得するステップと、
前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得するステップと、
前記トラックセグメントのカテゴリ分布において、同一のカテゴリのトラックセグメントを連結してターゲット追跡結果を形成するステップと、を含み、
前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得するステップは、
予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出するステップと、
前記尤度に基づいて、前記指定されたトラックセグメントの少なくとも1つのカテゴリにおける一様分布に従う確率を算出するステップと、
前記指定されたトラックセグメントを最大確率に対応するカテゴリに分類するステップと、
指定されたトラックセグメントのクラスタ化が完了されると、前記トラックセグメントのカテゴリ分布を形成するステップと、を含む方法。 - 予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出する前に、さらに、
そのうちの一つのカテゴリ中のトラックセグメントに含まれるターゲットインスタンスに対して、前記そのうちの一つのカテゴリ中のトラックセグメントには、前記指定されたトラックセグメントと時間的にお互いに重なるターゲットインスタンスを含むトラックセグメントが存在するか否かを判断するステップと、
存在する場合、前記指定されたトラックセグメントと前記そのうちの一つのカテゴリとの尤度をゼロに設定するステップと、を含む請求項3に記載の方法。 - 予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出するステップは、
前記指定されたトラックセグメント中の少なくとも1つのターゲットインスタンスに対して、そのうちの一つのカテゴリから当該少なくとも1つのターゲットインスタンスとの時間的距離が最も近いターゲットインスタンスの所在するトラックセグメントを取得するステップと、
これらのトラックセグメントにそれぞれ対応する局所的特徴情報に基づいて、前記指定されたトラックセグメントと、取得されたトラックセグメントとの局所的類似度を算出するステップと、
前記指定されたトラックセグメントに対応する大局的特徴情報と前記そのうちの一つのカテゴリのカテゴリパラメータに基づいて、前記指定されたトラックセグメントと前記そのうちの一つのカテゴリとの大局的類似度を算出するステップと、
前記局所的類似度と大局的類似度により、前記指定されたトラックセグメントと前記そのうちの一つのカテゴリとの尤度を算出して取得するステップと、を含む請求項3に記載の方法。 - 指定されたトラックセグメントのクラスタ化が完了されると、前記トラックセグメントのカテゴリ分布を形成する前に、さらに、
前記クラスタ化の反復回数が予め設定された反復閾値を満たすか否かを判断するステップと、
満たさない場合、カテゴリパラメータの更新をトリガし、かつカテゴリパラメータが更新された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出するステップと、を含む請求項5に記載の方法。 - サーバに設置されたターゲット追跡装置であって、
画像データを取得し、前記画像データに対してターゲット検出を行って、追跡ターゲットに一対一で対応する少なくとも1つのターゲットインスタンスを取得するためのターゲットインスタンス取得モジュールと、
少なくとも1つの前記ターゲットインスタンスから、同じ追跡ターゲットを含むターゲットインスタンスを検索し、同じ追跡ターゲットを含むターゲットインスタンスを連結してトラックセグメントを形成するためのトラックセグメント取得モジュールと、
前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得するための特徴情報取得モジュールと、
前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得するためのカテゴリ分布取得モジュールと、
前記トラックセグメントのカテゴリ分布において、同一のカテゴリのトラックセグメントを連結してターゲット追跡結果を形成するための追跡結果取得モジュールと、を含み、
前記特徴情報取得モジュールは、
前記トラックセグメント中のターゲットインスタンスに対してターゲット特徴構築を行って、ターゲット特徴情報を取得するためのターゲット特徴構築ユニットと、
前記ターゲット特徴情報に応じて、前記トラックセグメントに対して局所的特徴構築と大局的特徴構築をそれぞれ行って、局所的特徴情報と大局的特徴情報を取得するためのトラックセグメント特徴構築ユニットと、
前記局所的特徴情報と大局的特徴情報に基づいて、前記トラックセグメント特徴情報を生成するための特徴情報定義ユニットと、を含み、
前記ターゲットインスタンス取得モジュールは、
予め作成された変形可能部品モデルにより、前記画像データ中の追跡ターゲットの複数の変形可能部品に対して表記情報による識別を行って、表記情報によって識別された追跡ターゲットの変形可能部品に対応する少なくとも1つの前記ターゲットインスタンスを取得するための表記情報識別ユニットを含み、
それに応じて、前記ターゲット特徴構築ユニットは、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルを取得するための特徴ベクトル取得サブユニットと、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルに基づいて、前記ターゲットインスタンスに対応するターゲット特徴情報を生成するための特徴情報構成サブユニットと、を含み、
前記特徴ベクトル取得サブユニットは、
複数の表記情報に対してヒストグラム特徴ベクトルの抽出を行い、抽出されたヒストグラム特徴ベクトルを前記追跡ターゲットの視覚特徴ベクトルとし、且つ、
そのうちの一つの表記情報によって識別された変形可能部品をアンカー点として、残りの表記情報によって識別された変形可能部品と前記アンカー点との間の位置ずれを算出して、算出されたずれ値を前記追跡ターゲットの構造特徴ベクトルとするターゲット追跡装置。 - 前記トラックセグメント特徴構築ユニットは、
前記トラックセグメントから少なくとも1つのターゲットインスタンスを抽出し、当該少なくとも1つのターゲットインスタンスに対応するターゲット特徴情報中の視覚特徴ベクトルを前記トラックセグメントに対応する局所的特徴情報とするための局所的特徴情報定義サブユニットと、
前記トラックセグメント中のターゲットインスタンスに対して、対応するターゲット特徴情報中の構造特徴ベクトルの平均値を算出し、当該構造特徴ベクトルに基づいて共分散演算を行って共分散行列を取得するための構造特徴ベクトル算出サブユニットと、
前記平均値と共分散行列を前記トラックセグメントに対応する大局的特徴情報とするための大局的特徴情報定義サブユニットと、を含む請求項7に記載の装置。 - サーバに設置されたターゲット追跡装置であって、
画像データを取得し、前記画像データに対してターゲット検出を行って、追跡ターゲットに一対一で対応する少なくとも1つのターゲットインスタンスを取得するためのターゲットインスタンス取得モジュールと、
少なくとも1つの前記ターゲットインスタンスから、同じ追跡ターゲットを含むターゲットインスタンスを検索し、同じ追跡ターゲットを含むターゲットインスタンスを連結してトラックセグメントを形成するためのトラックセグメント取得モジュールと、
前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得するための特徴情報取得モジュールと、
前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得するためのカテゴリ分布取得モジュールと、
前記トラックセグメントのカテゴリ分布において、同一のカテゴリのトラックセグメントを連結してターゲット追跡結果を形成するための追跡結果取得モジュールと、を含み、
前記カテゴリ分布取得モジュールは、
予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出するための第1の尤度算出ユニットと、
前記尤度に基づいて、前記指定されたトラックセグメントの少なくとも1つのカテゴリにおける一様分布に従う確率を算出するための確率算出ユニットと、
前記指定されたトラックセグメントを最大確率に対応するカテゴリに分類するためのクラスタ化ユニットと、
指定されたトラックセグメントのクラスタ化が完了されると、前記トラックセグメントのカテゴリ分布を形成するためのカテゴリ分布形成ユニットと、を含む装置。 - 1つ又は複数のプロセッサと、
前記プロセッサによって実行されると、請求項1〜6のいずれか1項に記載のターゲット追跡方法を実現するコンピュータ読み取り可能な命令が記憶されている1つ又は複数のメモリと、を含む電子機器。 - プロセッサによって実行されると、請求項1〜6のいずれか1項に記載のターゲット追跡方法を実現するコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710573025.4A CN107392937B (zh) | 2017-07-14 | 2017-07-14 | 目标跟踪方法、装置及电子设备 |
CN201710573025.4 | 2017-07-14 | ||
PCT/CN2018/095473 WO2019011298A1 (zh) | 2017-07-14 | 2018-07-12 | 目标跟踪方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020509499A JP2020509499A (ja) | 2020-03-26 |
JP6893249B2 true JP6893249B2 (ja) | 2021-06-23 |
Family
ID=60339766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019547413A Active JP6893249B2 (ja) | 2017-07-14 | 2018-07-12 | ターゲット追跡方法、装置、電子機器及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11145069B2 (ja) |
EP (1) | EP3654284A4 (ja) |
JP (1) | JP6893249B2 (ja) |
KR (1) | KR102340626B1 (ja) |
CN (2) | CN110473232B (ja) |
WO (1) | WO2019011298A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110473232B (zh) * | 2017-07-14 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、存储介质及电子设备 |
CN108009498A (zh) * | 2017-11-30 | 2018-05-08 | 天津天地基业科技有限公司 | 一种基于视频的人员状态检测方法 |
CN108596944B (zh) * | 2018-04-25 | 2021-05-07 | 普联技术有限公司 | 一种提取运动目标的方法、装置及终端设备 |
CN108596945A (zh) * | 2018-04-26 | 2018-09-28 | 深圳市唯特视科技有限公司 | 一种基于微分算子的视频重复次数估计方法 |
CN109447121B (zh) * | 2018-09-27 | 2020-11-06 | 清华大学 | 一种视觉传感器网络多目标跟踪方法、装置及系统 |
CN110210304B (zh) * | 2019-04-29 | 2021-06-11 | 北京百度网讯科技有限公司 | 用于目标检测和跟踪的方法及系统 |
CN110443190B (zh) * | 2019-07-31 | 2024-02-02 | 腾讯科技(成都)有限公司 | 一种对象识别方法和装置 |
CN110781796B (zh) * | 2019-10-22 | 2022-03-25 | 杭州宇泛智能科技有限公司 | 一种标注方法、装置及电子设备 |
CN111246090A (zh) * | 2020-01-14 | 2020-06-05 | 上海摩象网络科技有限公司 | 跟踪拍摄方法、装置、电子设备及计算机存储介质 |
CN111524164B (zh) * | 2020-04-21 | 2023-10-13 | 北京爱笔科技有限公司 | 一种目标跟踪方法、装置及电子设备 |
CN113536862A (zh) * | 2020-04-21 | 2021-10-22 | 北京爱笔科技有限公司 | 一种聚类方法、装置、设备及存储介质 |
CN111524165B (zh) * | 2020-04-22 | 2023-08-25 | 北京百度网讯科技有限公司 | 目标跟踪方法和装置 |
CN113515982B (zh) * | 2020-05-22 | 2022-06-14 | 阿里巴巴集团控股有限公司 | 轨迹还原方法及设备、设备管理方法及管理设备 |
CN111694913B (zh) * | 2020-06-05 | 2023-07-11 | 海南大学 | 一种基于卷积自编码器的船舶ais轨迹聚类方法和装置 |
CN113808409B (zh) * | 2020-06-17 | 2023-02-10 | 华为技术有限公司 | 一种道路安全监控的方法、系统和计算机设备 |
CN112037245B (zh) * | 2020-07-22 | 2023-09-01 | 杭州海康威视数字技术股份有限公司 | 一种确定追踪目标相似度的方法和系统 |
CN112529939A (zh) * | 2020-12-15 | 2021-03-19 | 广州云从鼎望科技有限公司 | 一种目标轨迹匹配方法、装置、机器可读介质及设备 |
CN112818771A (zh) * | 2021-01-19 | 2021-05-18 | 江苏大学 | 一种基于特征聚合的多目标跟踪算法 |
CN112819859B (zh) * | 2021-02-02 | 2023-06-02 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
CN113256686B (zh) * | 2021-06-28 | 2021-10-08 | 上海齐感电子信息科技有限公司 | 视觉准确目标跟踪系统及方法 |
CN117395085B (zh) * | 2023-12-12 | 2024-03-22 | 天津医康互联科技有限公司 | 全局协方差矩阵计算方法、装置、电子设备及存储介质 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0877356A (ja) * | 1994-09-09 | 1996-03-22 | Fujitsu Ltd | 三次元多眼画像の処理方法及び処理装置 |
US6754389B1 (en) * | 1999-12-01 | 2004-06-22 | Koninklijke Philips Electronics N.V. | Program classification using object tracking |
US20040130546A1 (en) * | 2003-01-06 | 2004-07-08 | Porikli Fatih M. | Region growing with adaptive thresholds and distance function parameters |
US7236121B2 (en) * | 2005-06-13 | 2007-06-26 | Raytheon Company | Pattern classifier and method for associating tracks from different sensors |
US7620204B2 (en) * | 2006-02-09 | 2009-11-17 | Mitsubishi Electric Research Laboratories, Inc. | Method for tracking objects in videos using covariance matrices |
KR101001559B1 (ko) * | 2008-10-09 | 2010-12-17 | 아주대학교산학협력단 | 무선 센서 네트워크에서 다중 표적 추적을 위한 하이브리드클러스터링 기반 데이터 통합 방법 |
US8705793B2 (en) | 2009-10-08 | 2014-04-22 | University Of Southern California | Object tracking by hierarchical association of detection responses |
GB2515926B (en) | 2010-07-19 | 2015-02-11 | Ipsotek Ltd | Apparatus, system and method |
CN102741884B (zh) * | 2010-07-27 | 2016-06-08 | 松下知识产权经营株式会社 | 移动体检测装置及移动体检测方法 |
US9147260B2 (en) * | 2010-12-20 | 2015-09-29 | International Business Machines Corporation | Detection and tracking of moving objects |
WO2012149624A1 (en) * | 2011-05-04 | 2012-11-08 | Jacques Georgy | Two-stage filtering based method for multiple target tracking |
US10018703B2 (en) * | 2012-09-13 | 2018-07-10 | Conduent Business Services, Llc | Method for stop sign law enforcement using motion vectors in video streams |
US9462160B2 (en) * | 2012-11-22 | 2016-10-04 | Nec Corporation | Color correction device, method, and program |
US9342759B1 (en) * | 2013-03-14 | 2016-05-17 | Hrl Laboratories, Llc | Object recognition consistency improvement using a pseudo-tracklet approach |
CN103268480B (zh) * | 2013-05-30 | 2016-07-06 | 重庆大学 | 一种视觉跟踪系统及方法 |
US9158971B2 (en) * | 2014-03-03 | 2015-10-13 | Xerox Corporation | Self-learning object detectors for unlabeled videos using multi-task learning |
WO2015165092A1 (zh) * | 2014-04-30 | 2015-11-05 | 中国科学院自动化研究所 | 大范围优先的跨摄像机视觉目标再识别方法 |
CN104376576B (zh) * | 2014-09-04 | 2018-06-05 | 华为技术有限公司 | 一种目标跟踪方法及装置 |
JP6520218B2 (ja) * | 2015-03-03 | 2019-05-29 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
JP6664163B2 (ja) * | 2015-08-05 | 2020-03-13 | キヤノン株式会社 | 画像識別方法、画像識別装置及びプログラム |
CN105224912B (zh) * | 2015-08-31 | 2018-10-16 | 电子科技大学 | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 |
KR101731461B1 (ko) * | 2015-12-09 | 2017-05-11 | 고려대학교 산학협력단 | 객체에 대한 행동 탐지 장치 및 이를 이용한 행동 탐지 방법 |
JP6515039B2 (ja) * | 2016-01-08 | 2019-05-15 | Kddi株式会社 | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 |
CN106023262B (zh) * | 2016-06-06 | 2018-10-12 | 深圳市深网视界科技有限公司 | 一种人群流动主方向估计方法和装置 |
CN106934339B (zh) * | 2017-01-19 | 2021-06-11 | 上海博康智能信息技术有限公司 | 一种目标跟踪、跟踪目标识别特征的提取方法和装置 |
CN106875421A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司北京海淀分公司 | 一种多目标跟踪方法及装置 |
CN110473232B (zh) * | 2017-07-14 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、存储介质及电子设备 |
-
2017
- 2017-07-14 CN CN201910849463.8A patent/CN110473232B/zh active Active
- 2017-07-14 CN CN201710573025.4A patent/CN107392937B/zh active Active
-
2018
- 2018-07-12 WO PCT/CN2018/095473 patent/WO2019011298A1/zh unknown
- 2018-07-12 JP JP2019547413A patent/JP6893249B2/ja active Active
- 2018-07-12 EP EP18832895.9A patent/EP3654284A4/en active Pending
- 2018-07-12 KR KR1020197028566A patent/KR102340626B1/ko active IP Right Grant
-
2019
- 2019-08-12 US US16/538,310 patent/US11145069B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190362503A1 (en) | 2019-11-28 |
KR20190120335A (ko) | 2019-10-23 |
JP2020509499A (ja) | 2020-03-26 |
EP3654284A1 (en) | 2020-05-20 |
WO2019011298A1 (zh) | 2019-01-17 |
CN110473232A (zh) | 2019-11-19 |
US11145069B2 (en) | 2021-10-12 |
KR102340626B1 (ko) | 2021-12-16 |
CN107392937A (zh) | 2017-11-24 |
CN110473232B (zh) | 2024-02-09 |
CN107392937B (zh) | 2023-03-14 |
EP3654284A4 (en) | 2021-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6893249B2 (ja) | ターゲット追跡方法、装置、電子機器及び記憶媒体 | |
CN108234927B (zh) | 视频追踪方法和系统 | |
Satta et al. | Real-time Appearance-based Person Re-identification Over Multiple KinectTM Cameras. | |
Liu et al. | Normal estimation for pointcloud using GPU based sparse tensor voting | |
Liang et al. | Image-based positioning of mobile devices in indoor environments | |
CN112784873A (zh) | 一种语义地图的构建方法及设备 | |
CN112967341A (zh) | 基于实景图像的室内视觉定位方法、系统、设备及存储介质 | |
WO2022087916A1 (zh) | 定位方法、装置、电子设备和存储介质 | |
US20230351794A1 (en) | Pedestrian tracking method and device, and computer-readable storage medium | |
JP2013210843A (ja) | 画像処理装置 | |
TWI745818B (zh) | 視覺定位方法、電子設備及電腦可讀儲存介質 | |
Cosma et al. | Camloc: Pedestrian location estimation through body pose estimation on smart cameras | |
WO2023284358A1 (zh) | 相机标定方法、装置、电子设备及存储介质 | |
Liang et al. | Reduced-complexity data acquisition system for image-based localization in indoor environments | |
Haggui et al. | Human detection in moving fisheye camera using an improved YOLOv3 framework | |
JP2017054493A (ja) | 情報処理装置及びその制御方法及びプログラム | |
CN110111364B (zh) | 运动检测方法、装置、电子设备及存储介质 | |
Sun et al. | See-your-room: Indoor localization with camera vision | |
JP2020071876A (ja) | 人員捜索方法と装置及び画像処理装置 | |
Gao et al. | Occluded person re-identification based on feature fusion and sparse reconstruction | |
Sui et al. | An accurate indoor localization approach using cellphone camera | |
KR102426594B1 (ko) | 크라우드소싱 환경에서 객체의 위치를 추정하는 시스템 및 방법 | |
CN113495490A (zh) | 设备控制方法、装置、电子设备及存储介质 | |
CN113048950A (zh) | 基站天线倾角测量方法、装置、存储介质和计算机设备 | |
Chen et al. | Edge artificial intelligence camera network: an efficient object detection and tracking framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6893249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |