JP2020509499A - ターゲット追跡方法、装置、電子機器及び記憶媒体 - Google Patents
ターゲット追跡方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2020509499A JP2020509499A JP2019547413A JP2019547413A JP2020509499A JP 2020509499 A JP2020509499 A JP 2020509499A JP 2019547413 A JP2019547413 A JP 2019547413A JP 2019547413 A JP2019547413 A JP 2019547413A JP 2020509499 A JP2020509499 A JP 2020509499A
- Authority
- JP
- Japan
- Prior art keywords
- target
- track segment
- feature information
- category
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000010276 construction Methods 0.000 claims abstract description 41
- 238000009826 distribution Methods 0.000 claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 239000013598 vector Substances 0.000 claims description 96
- 230000000007 visual effect Effects 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 4
- 230000015654 memory Effects 0.000 claims description 4
- 238000009827 uniform distribution Methods 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims 2
- 230000008569 process Effects 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (15)
- サーバによって実行されるターゲット追跡方法であって、
画像データを取得し、前記画像データに対してターゲット検出を行って、追跡ターゲットに一対一で対応する少なくとも1つのターゲットインスタンスを取得することと、
少なくとも1つの前記ターゲットインスタンスから、同じ追跡ターゲットを含むターゲットインスタンスを検索し、同じ追跡ターゲットを含むターゲットインスタンスを連結してトラックセグメントを形成することと、
前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得することと、
前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得することと、
前記トラックセグメントのカテゴリ分布において、同一のカテゴリのトラックセグメントを連結してターゲット追跡結果を形成することと、を含むターゲット追跡方法。 - 前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得することは、
前記トラックセグメント中のターゲットインスタンスに対してターゲット特徴構築を行って、ターゲット特徴情報を取得することと、
前記ターゲット特徴情報に応じて、前記トラックセグメントに対して局所的特徴構築と大局的特徴構築をそれぞれ行って、局所的特徴情報と大局的特徴情報を取得することと、
前記局所的特徴情報と大局的特徴情報に基づいて、前記トラックセグメント特徴情報を生成することと、を含む請求項1に記載の方法。 - 前記画像データに対してターゲット検出を行って、少なくとも1つのターゲットインスタンスを取得することは、
予め作成された変形可能部品モデルにより、前記画像データ中の追跡ターゲットの複数の変形可能部品に対して表記情報による識別を行って、表記情報によって識別された追跡ターゲットの変形可能部品に対応する少なくとも1つの前記ターゲットインスタンスを取得することを含み、
それに応じて、前記トラックセグメント中のターゲットインスタンスに対してターゲット特徴構築を行って、ターゲット特徴情報を取得することは、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルを取得することと、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルに基づいて、前記ターゲットインスタンスに対応するターゲット特徴情報を生成することと、を含み、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルを取得することは、
複数の表記情報に対してヒストグラム特徴ベクトルの抽出を行い、抽出されたヒストグラム特徴ベクトルを前記追跡ターゲットの視覚特徴ベクトルとし、且つ、
そのうちの一つの表記情報によって識別された変形可能部品をアンカー点として、残りの表記情報によって識別された変形可能部品と前記アンカー点との間の位置ずれを算出して、算出されたずれ値を前記追跡ターゲットの構造特徴ベクトルとする請求項2に記載の方法。 - 前記ターゲット特徴情報に応じて、前記トラックセグメントに対して局所的特徴構築と大局的特徴構築をそれぞれ行って、局所的特徴情報と大局的特徴情報を取得することは、
前記トラックセグメントから少なくとも1つのターゲットインスタンスを抽出し、当該少なくとも1つのターゲットインスタンスに対応するターゲット特徴情報中の視覚特徴ベクトルを前記トラックセグメントに対応する局所的特徴情報とすることと、
前記トラックセグメント中のターゲットインスタンスに対して、対応するターゲット特徴情報中の構造特徴ベクトルの平均値を算出し、当該構造特徴ベクトルに基づいて共分散演算を行って共分散行列を取得することと、
前記平均値と共分散行列を前記トラックセグメントに対応する大局的特徴情報とすることと、を含む請求項3に記載の方法。 - 前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得することは、
予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出することと、
前記尤度に基づいて、前記指定されたトラックセグメントの少なくとも1つのカテゴリにおける一様分布に従う確率を算出することと、
前記指定されたトラックセグメントを最大確率に対応するカテゴリに分類することと、
指定されたトラックセグメントのクラスタ化が完了されると、前記トラックセグメントのカテゴリ分布を形成することと、を含む請求項2に記載の方法。 - 予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出する前に、さらに、
そのうちの一つのカテゴリ中のトラックセグメントに含まれるターゲットインスタンスに対して、前記そのうちの一つのカテゴリ中のトラックセグメントには、前記指定されたトラックセグメントと時間的にお互いに重なるターゲットインスタンスを含むトラックセグメントが存在するか否かを判断することと、
存在する場合、前記指定されたトラックセグメントと前記そのうちの一つのカテゴリとの尤度をゼロに設定することと、を含む請求項5に記載の方法。 - 予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出することは、
前記指定されたトラックセグメント中の少なくとも1つのターゲットインスタンスに対して、そのうちの一つのカテゴリから当該少なくとも1つのターゲットインスタンスとの時間的距離が最も近いターゲットインスタンスの所在するトラックセグメントを取得することと、
これらのトラックセグメントにそれぞれ対応する局所的特徴情報に基づいて、前記指定されたトラックセグメントと、取得されたトラックセグメントとの局所的類似度を算出することと、
前記指定されたトラックセグメントに対応する大局的特徴情報と前記そのうちの一つのカテゴリのカテゴリパラメータに基づいて、前記指定されたトラックセグメントと前記そのうちの一つのカテゴリとの大局的類似度を算出することと、
前記局所的類似度と大局的類似度により、前記指定されたトラックセグメントと前記そのうちの一つのカテゴリとの尤度を算出して取得することと、を含む請求項5に記載の方法。 - 指定されたトラックセグメントのクラスタ化が完了されると、前記トラックセグメントのカテゴリ分布を形成する前に、さらに、
前記クラスタ化の反復回数が予め設定された反復閾値を満たすか否かを判断することと、
満たさない場合、カテゴリパラメータの更新をトリガし、かつカテゴリパラメータが更新された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出することと、を含む請求項7に記載の方法。 - サーバに設置されたターゲット追跡装置であって、
画像データを取得し、前記画像データに対してターゲット検出を行って、追跡ターゲットに一対一で対応する少なくとも1つのターゲットインスタンスを取得するためのターゲットインスタンス取得モジュールと、
少なくとも1つの前記ターゲットインスタンスから、同じ追跡ターゲットを含むターゲットインスタンスを検索し、同じ追跡ターゲットを含むターゲットインスタンスを連結してトラックセグメントを形成するためのトラックセグメント取得モジュールと、
前記トラックセグメント中のターゲットインスタンスにより、前記トラックセグメントに対して特徴構築を行って、トラックセグメント特徴情報を取得するための特徴情報取得モジュールと、
前記トラックセグメント特徴情報に基づいて、指定されたトラックセグメントに対してクラスタ化を行って、トラックセグメントのカテゴリ分布を取得するためのカテゴリ分布取得モジュールと、
前記トラックセグメントのカテゴリ分布において、同一のカテゴリのトラックセグメントを連結してターゲット追跡結果を形成するための追跡結果取得モジュールと、を含むターゲット追跡装置。 - 前記特徴情報取得モジュールは、
前記トラックセグメント中のターゲットインスタンスに対してターゲット特徴構築を行って、ターゲット特徴情報を取得するためのターゲット特徴構築ユニットと、
前記ターゲット特徴情報に応じて、前記トラックセグメントに対して局所的特徴構築と大局的特徴構築をそれぞれ行って、局所的特徴情報と大局的特徴情報を取得するためのトラックセグメント特徴構築ユニットと、
前記局所的特徴情報と大局的特徴情報に基づいて、前記トラックセグメント特徴情報を生成するための特徴情報定義ユニットと、を含む請求項9に記載の装置。 - 前記ターゲットインスタンス取得モジュールは、
予め作成された変形可能部品モデルにより、前記画像データ中の追跡ターゲットの複数の変形可能部品に対して表記情報による識別を行って、表記情報によって識別された追跡ターゲットの変形可能部品に対応する少なくとも1つの前記ターゲットインスタンスを取得するための表記情報識別ユニットを含み、
それに応じて、前記ターゲット特徴構築ユニットは、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルを取得するための特徴ベクトル取得サブユニットと、
前記追跡ターゲットの視覚特徴ベクトルと構造特徴ベクトルに基づいて、前記ターゲットインスタンスに対応するターゲット特徴情報を生成するための特徴情報構成サブユニットと、を含み、
前記特徴ベクトル取得サブユニットは、
複数の表記情報に対してヒストグラム特徴ベクトルの抽出を行い、抽出されたヒストグラム特徴ベクトルを前記追跡ターゲットの視覚特徴ベクトルとし、且つ、
そのうちの一つの表記情報によって識別された変形可能部品をアンカー点として、残りの表記情報によって識別された変形可能部品と前記アンカー点との間の位置ずれを算出して、算出されたずれ値を前記追跡ターゲットの構造特徴ベクトルとする請求項10に記載の装置。 - 前記トラックセグメント特徴構築ユニットは、
前記トラックセグメントから少なくとも1つのターゲットインスタンスを抽出し、当該少なくとも1つのターゲットインスタンスに対応するターゲット特徴情報中の視覚特徴ベクトルを前記トラックセグメントに対応する局所的特徴情報とするための局所的特徴情報定義サブユニットと、
前記トラックセグメント中のターゲットインスタンスに対して、対応するターゲット特徴情報中の構造特徴ベクトルの平均値を算出し、当該構造特徴ベクトルに基づいて共分散演算を行って共分散行列を取得するための構造特徴ベクトル算出サブユニットと、
前記平均値と共分散行列を前記トラックセグメントに対応する大局的特徴情報とするための大局的特徴情報定義サブユニットと、を含む請求項11に記載の装置。 - 前記カテゴリ分布取得モジュールは、
予め定義された少なくとも1つのカテゴリに対して、前記トラックセグメント特徴情報に基づいて、前記指定されたトラックセグメントと少なくとも1つのカテゴリとの尤度を算出するための第1の尤度算出ユニットと、
前記尤度に基づいて、前記指定されたトラックセグメントの少なくとも1つのカテゴリにおける一様分布に従う確率を算出するための確率算出ユニットと、
前記指定されたトラックセグメントを最大確率に対応するカテゴリに分類するためのクラスタ化ユニットと、
指定されたトラックセグメントのクラスタ化が完了されると、前記トラックセグメントのカテゴリ分布を形成するためのカテゴリ分布形成ユニットと、を含む請求項10に記載の装置。 - 1つ又は複数のプロセッサと、
前記プロセッサによって実行されると、請求項1〜8のいずれか1項に記載のターゲット追跡方法を実現するコンピュータ読み取り可能な命令が記憶されている1つ又は複数のメモリと、を含む電子機器。 - プロセッサによって実行されると、請求項1〜8のいずれか1項に記載のターゲット追跡方法を実現するコンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710573025.4 | 2017-07-14 | ||
CN201710573025.4A CN107392937B (zh) | 2017-07-14 | 2017-07-14 | 目标跟踪方法、装置及电子设备 |
PCT/CN2018/095473 WO2019011298A1 (zh) | 2017-07-14 | 2018-07-12 | 目标跟踪方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020509499A true JP2020509499A (ja) | 2020-03-26 |
JP6893249B2 JP6893249B2 (ja) | 2021-06-23 |
Family
ID=60339766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019547413A Active JP6893249B2 (ja) | 2017-07-14 | 2018-07-12 | ターゲット追跡方法、装置、電子機器及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11145069B2 (ja) |
EP (1) | EP3654284A4 (ja) |
JP (1) | JP6893249B2 (ja) |
KR (1) | KR102340626B1 (ja) |
CN (2) | CN107392937B (ja) |
WO (1) | WO2019011298A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392937B (zh) | 2017-07-14 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置及电子设备 |
CN108009498A (zh) * | 2017-11-30 | 2018-05-08 | 天津天地基业科技有限公司 | 一种基于视频的人员状态检测方法 |
CN108596944B (zh) * | 2018-04-25 | 2021-05-07 | 普联技术有限公司 | 一种提取运动目标的方法、装置及终端设备 |
CN108596945A (zh) * | 2018-04-26 | 2018-09-28 | 深圳市唯特视科技有限公司 | 一种基于微分算子的视频重复次数估计方法 |
CN109447121B (zh) * | 2018-09-27 | 2020-11-06 | 清华大学 | 一种视觉传感器网络多目标跟踪方法、装置及系统 |
CN110210304B (zh) * | 2019-04-29 | 2021-06-11 | 北京百度网讯科技有限公司 | 用于目标检测和跟踪的方法及系统 |
CN110443190B (zh) * | 2019-07-31 | 2024-02-02 | 腾讯科技(成都)有限公司 | 一种对象识别方法和装置 |
CN110781796B (zh) * | 2019-10-22 | 2022-03-25 | 杭州宇泛智能科技有限公司 | 一种标注方法、装置及电子设备 |
CN111246090A (zh) * | 2020-01-14 | 2020-06-05 | 上海摩象网络科技有限公司 | 跟踪拍摄方法、装置、电子设备及计算机存储介质 |
CN113536862A (zh) * | 2020-04-21 | 2021-10-22 | 北京爱笔科技有限公司 | 一种聚类方法、装置、设备及存储介质 |
CN111524164B (zh) * | 2020-04-21 | 2023-10-13 | 北京爱笔科技有限公司 | 一种目标跟踪方法、装置及电子设备 |
CN111524165B (zh) * | 2020-04-22 | 2023-08-25 | 北京百度网讯科技有限公司 | 目标跟踪方法和装置 |
CN113515982B (zh) * | 2020-05-22 | 2022-06-14 | 阿里巴巴集团控股有限公司 | 轨迹还原方法及设备、设备管理方法及管理设备 |
CN111694913B (zh) * | 2020-06-05 | 2023-07-11 | 海南大学 | 一种基于卷积自编码器的船舶ais轨迹聚类方法和装置 |
CN113808409B (zh) * | 2020-06-17 | 2023-02-10 | 华为技术有限公司 | 一种道路安全监控的方法、系统和计算机设备 |
CN112037245B (zh) * | 2020-07-22 | 2023-09-01 | 杭州海康威视数字技术股份有限公司 | 一种确定追踪目标相似度的方法和系统 |
CN112529939A (zh) * | 2020-12-15 | 2021-03-19 | 广州云从鼎望科技有限公司 | 一种目标轨迹匹配方法、装置、机器可读介质及设备 |
CN112818771B (zh) * | 2021-01-19 | 2024-06-11 | 江苏大学 | 一种基于特征聚合的多目标跟踪算法 |
CN112819859B (zh) * | 2021-02-02 | 2023-06-02 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
CN113256686B (zh) * | 2021-06-28 | 2021-10-08 | 上海齐感电子信息科技有限公司 | 视觉准确目标跟踪系统及方法 |
CN117395085B (zh) * | 2023-12-12 | 2024-03-22 | 天津医康互联科技有限公司 | 全局协方差矩阵计算方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513468A (ja) * | 2003-01-06 | 2006-04-20 | 三菱電機株式会社 | 画像内のピクセルをセグメント化する方法 |
JP2014504410A (ja) * | 2010-12-20 | 2014-02-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 移動オブジェクトの検出及び追跡 |
WO2014080613A1 (ja) * | 2012-11-22 | 2014-05-30 | 日本電気株式会社 | 色補正装置、色補正方法および色補正用プログラム |
JP2015167017A (ja) * | 2014-03-03 | 2015-09-24 | ゼロックス コーポレイションXerox Corporation | マルチタスク学習を使用したラベル付けされていないビデオのための自己学習オブジェクト検出器 |
JP2016162256A (ja) * | 2015-03-03 | 2016-09-05 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
JP2017123087A (ja) * | 2016-01-08 | 2017-07-13 | Kddi株式会社 | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0877356A (ja) * | 1994-09-09 | 1996-03-22 | Fujitsu Ltd | 三次元多眼画像の処理方法及び処理装置 |
US6754389B1 (en) * | 1999-12-01 | 2004-06-22 | Koninklijke Philips Electronics N.V. | Program classification using object tracking |
US7236121B2 (en) * | 2005-06-13 | 2007-06-26 | Raytheon Company | Pattern classifier and method for associating tracks from different sensors |
US7620204B2 (en) * | 2006-02-09 | 2009-11-17 | Mitsubishi Electric Research Laboratories, Inc. | Method for tracking objects in videos using covariance matrices |
KR101001559B1 (ko) * | 2008-10-09 | 2010-12-17 | 아주대학교산학협력단 | 무선 센서 네트워크에서 다중 표적 추적을 위한 하이브리드클러스터링 기반 데이터 통합 방법 |
US8705793B2 (en) * | 2009-10-08 | 2014-04-22 | University Of Southern California | Object tracking by hierarchical association of detection responses |
GB2515926B (en) * | 2010-07-19 | 2015-02-11 | Ipsotek Ltd | Apparatus, system and method |
CN102741884B (zh) * | 2010-07-27 | 2016-06-08 | 松下知识产权经营株式会社 | 移动体检测装置及移动体检测方法 |
US9562965B2 (en) * | 2011-05-04 | 2017-02-07 | Jacques Georgy | Two-stage filtering based method for multiple target tracking |
US10018703B2 (en) * | 2012-09-13 | 2018-07-10 | Conduent Business Services, Llc | Method for stop sign law enforcement using motion vectors in video streams |
US9342759B1 (en) * | 2013-03-14 | 2016-05-17 | Hrl Laboratories, Llc | Object recognition consistency improvement using a pseudo-tracklet approach |
CN103268480B (zh) * | 2013-05-30 | 2016-07-06 | 重庆大学 | 一种视觉跟踪系统及方法 |
WO2015165092A1 (zh) * | 2014-04-30 | 2015-11-05 | 中国科学院自动化研究所 | 大范围优先的跨摄像机视觉目标再识别方法 |
CN104376576B (zh) * | 2014-09-04 | 2018-06-05 | 华为技术有限公司 | 一种目标跟踪方法及装置 |
JP6664163B2 (ja) * | 2015-08-05 | 2020-03-13 | キヤノン株式会社 | 画像識別方法、画像識別装置及びプログラム |
CN105224912B (zh) * | 2015-08-31 | 2018-10-16 | 电子科技大学 | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 |
KR101731461B1 (ko) * | 2015-12-09 | 2017-05-11 | 고려대학교 산학협력단 | 객체에 대한 행동 탐지 장치 및 이를 이용한 행동 탐지 방법 |
CN106023262B (zh) * | 2016-06-06 | 2018-10-12 | 深圳市深网视界科技有限公司 | 一种人群流动主方向估计方法和装置 |
CN106875421A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司北京海淀分公司 | 一种多目标跟踪方法及装置 |
CN106934339B (zh) * | 2017-01-19 | 2021-06-11 | 上海博康智能信息技术有限公司 | 一种目标跟踪、跟踪目标识别特征的提取方法和装置 |
CN107392937B (zh) * | 2017-07-14 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置及电子设备 |
-
2017
- 2017-07-14 CN CN201710573025.4A patent/CN107392937B/zh active Active
- 2017-07-14 CN CN201910849463.8A patent/CN110473232B/zh active Active
-
2018
- 2018-07-12 WO PCT/CN2018/095473 patent/WO2019011298A1/zh unknown
- 2018-07-12 EP EP18832895.9A patent/EP3654284A4/en active Pending
- 2018-07-12 JP JP2019547413A patent/JP6893249B2/ja active Active
- 2018-07-12 KR KR1020197028566A patent/KR102340626B1/ko active IP Right Grant
-
2019
- 2019-08-12 US US16/538,310 patent/US11145069B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513468A (ja) * | 2003-01-06 | 2006-04-20 | 三菱電機株式会社 | 画像内のピクセルをセグメント化する方法 |
JP2014504410A (ja) * | 2010-12-20 | 2014-02-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 移動オブジェクトの検出及び追跡 |
WO2014080613A1 (ja) * | 2012-11-22 | 2014-05-30 | 日本電気株式会社 | 色補正装置、色補正方法および色補正用プログラム |
JP2015167017A (ja) * | 2014-03-03 | 2015-09-24 | ゼロックス コーポレイションXerox Corporation | マルチタスク学習を使用したラベル付けされていないビデオのための自己学習オブジェクト検出器 |
JP2016162256A (ja) * | 2015-03-03 | 2016-09-05 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
JP2017123087A (ja) * | 2016-01-08 | 2017-07-13 | Kddi株式会社 | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102340626B1 (ko) | 2021-12-16 |
WO2019011298A1 (zh) | 2019-01-17 |
CN107392937B (zh) | 2023-03-14 |
JP6893249B2 (ja) | 2021-06-23 |
CN107392937A (zh) | 2017-11-24 |
EP3654284A4 (en) | 2021-04-14 |
EP3654284A1 (en) | 2020-05-20 |
KR20190120335A (ko) | 2019-10-23 |
CN110473232B (zh) | 2024-02-09 |
CN110473232A (zh) | 2019-11-19 |
US20190362503A1 (en) | 2019-11-28 |
US11145069B2 (en) | 2021-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6893249B2 (ja) | ターゲット追跡方法、装置、電子機器及び記憶媒体 | |
Huang et al. | A systematic approach for cross-source point cloud registration by preserving macro and micro structures | |
CN108234927B (zh) | 视频追踪方法和系统 | |
Chen et al. | Indoor camera pose estimation via style‐transfer 3D models | |
TWI745818B (zh) | 視覺定位方法、電子設備及電腦可讀儲存介質 | |
Liu et al. | Normal estimation for pointcloud using GPU based sparse tensor voting | |
Liang et al. | Image-based positioning of mobile devices in indoor environments | |
KR20190118619A (ko) | 보행자 추적 방법 및 전자 디바이스 | |
US11501462B2 (en) | Multi-view three-dimensional positioning | |
Wang et al. | Line flow based simultaneous localization and mapping | |
JP2019190974A (ja) | キャリブレーション装置、キャリブレーション方法、及びプログラム | |
US20210304435A1 (en) | Multi-view positioning using reflections | |
JP6662382B2 (ja) | 情報処理装置および方法、並びにプログラム | |
Liang et al. | Reduced-complexity data acquisition system for image-based localization in indoor environments | |
Cosma et al. | Camloc: Pedestrian location estimation through body pose estimation on smart cameras | |
US20210295559A1 (en) | Extrinsic calibration of multi-camera system | |
JP2017054493A (ja) | 情報処理装置及びその制御方法及びプログラム | |
Jiang et al. | Indoor localization with a signal tree | |
Sun et al. | See-your-room: Indoor localization with camera vision | |
Lu et al. | 3D image-based indoor localization joint with WiFi positioning | |
Tal et al. | An accurate method for line detection and manhattan frame estimation | |
KR102426594B1 (ko) | 크라우드소싱 환경에서 객체의 위치를 추정하는 시스템 및 방법 | |
CN112819859B (zh) | 一种应用于智慧安防的多目标跟踪方法及装置 | |
Hu et al. | An improved ORB, gravity-ORB for target detection on mobile devices | |
CN111563922B (zh) | 视觉定位方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6893249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |