JP7364041B2 - 物体追跡装置、物体追跡方法、及び、プログラム - Google Patents
物体追跡装置、物体追跡方法、及び、プログラム Download PDFInfo
- Publication number
- JP7364041B2 JP7364041B2 JP2022508613A JP2022508613A JP7364041B2 JP 7364041 B2 JP7364041 B2 JP 7364041B2 JP 2022508613 A JP2022508613 A JP 2022508613A JP 2022508613 A JP2022508613 A JP 2022508613A JP 7364041 B2 JP7364041 B2 JP 7364041B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- search range
- range
- tracking
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 39
- 239000000284 extract Substances 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
時系列画像からターゲット候補を抽出する抽出手段と、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定する第1設定手段と、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡する追跡手段と、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定する第2設定手段と、
前記第1探索範囲内で抽出されたターゲット候補のうち前記信頼度が第1の値域に属するものをポジティブサンプルとして使用し、前記第2探索範囲内で抽出されたターゲット候補のうち前記信頼度が第2の値域に属するものをネガティブサンプルとして使用して、前記ターゲットモデルを更新するモデル更新手段と、
を備える。
時系列画像からターゲット候補を抽出し、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡し、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補のうち前記信頼度が第1の値域に属するものをポジティブサンプルとして使用し、前記第2探索範囲内で抽出されたターゲット候補のうち前記信頼度が第2の値域に属するものをネガティブサンプルとして使用して、前記ターゲットモデルを更新する。
時系列画像からターゲット候補を抽出し、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡し、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補のうち前記信頼度が第1の値域に属するものをポジティブサンプルとして使用し、前記第2探索範囲内で抽出されたターゲット候補のうち前記信頼度が第2の値域に属するものをネガティブサンプルとして使用して、前記ターゲットモデルを更新する処理をコンピュータに実行させる。
<第1実施形態>
[物体追跡装置の概要]
図1は、第1実施形態に係る物体追跡装置の概要を示す。物体追跡装置100には、追跡の対象となる物体(「ターゲット」と呼ぶ。)を含む画像と、その画像におけるターゲットの位置を示す位置情報とが入力される。なお、入力画像は、カメラやデータベースなどから取得された動画像、即ち、映像を構成する時系列画像(連続画像列)である。物体追跡装置100は、入力画像における位置で指定されたターゲットの特徴を示すターゲットモデルを生成し、各フレーム画像においてターゲットモデルと類似する物体をターゲットとして検出、追跡する。物体追跡装置100は、入力画像におけるターゲットを包含する枠(以下、「ターゲット枠」と呼ぶ。)の位置やサイズを示す枠情報や、元の動画像上にターゲット枠を表示した画像などを追跡結果として出力する。
図2は、物体追跡装置100のハードウェア構成を示すブロック図である。図示のように、物体追跡装置100は、入力IF(InterFace)11と、プロセッサ12と、メモリ13と、記録媒体14と、データベース(DB)15と、入力装置16と、表示装置17と、を備える。
図3は、物体追跡装置100の機能構成を示すブロック図である。物体追跡装置100は、追跡特徴モデル生成部20と、ターゲットモデル生成部30と、追跡部40とを備える。追跡特徴モデル生成部20は、入力画像と、入力画像におけるターゲットの位置情報とに基づいて追跡特徴モデルを生成し、ターゲットモデル生成部30に出力する。ターゲットモデル生成部30は、入力画像と、その画像におけるターゲットの位置情報と、追跡特徴モデルに基づいて、ターゲットの特徴を示すターゲットモデルを生成し、追跡部40に出力する。追跡部40は、ターゲットモデルを用いて、入力画像からターゲットを検出して追跡し、追跡結果を出力する。また、追跡部40は、検出されたターゲット、及び、ターゲットの検出時に得られたターゲット以外の物体に基づいて、ターゲットモデルを更新する。以下、各要素について詳しく説明する。
次に、物体追跡装置100により実行される各処理について説明する。物体追跡装置100は、追跡特徴モデル生成処理と、ターゲットモデル生成処理と、追跡処理を実行する。以下、順に説明する。
追跡特徴モデル生成処理は、追跡特徴モデル生成部20により実行され、入力画像と、ターゲットの位置情報から追跡特徴モデルを生成する処理である。図8は、追跡特徴モデル生成処理のフローチャートである。この処理は、図2に示すプロセッサ12が予め用意されたプログラムを実行することにより実現される。
追跡特徴モデル生成処理に続いて、ターゲットモデル生成処理が実行される。ターゲットモデル生成処理は、ターゲットモデル生成部30により実行され、入力画像と、入力画像におけるターゲットの枠情報と、追跡特徴モデルとに基づいて、ターゲットモデルを生成する処理である。図9は、ターゲットモデル生成処理のフローチャートである。この処理は、図2に示すプロセッサ12が、予め用意されたプログラムを実行することにより実現される。
ターゲットモデル生成処理に続いて、追跡処理が実行される。追跡処理は、追跡部40により実行され、入力画像におけるターゲットを追跡するとともに、ターゲットモデルを更新する処理である。図10は、追跡処理のフローチャートである。この処理は、図2に示すプロセッサ12が予め用意されたプログラムを実行し、図6に示す各要素として動作することにより実現される。
図11は、第2実施形態に係る物体追跡装置50の機能構成を示すブロック図である。物体追跡装置50は、抽出手段51と、第1設定手段52と、追跡手段53と、第2設定手段54と、モデル更新手段55と、を備える。抽出手段51は、時系列画像からターゲット候補を抽出する。第1設定手段52は、時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定する。追跡手段53は、第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡する。第2設定手段54は、第1探索範囲を含み、第1探索範囲よりも大きい第2探索範囲を設定する。モデル更新手段55は、第1探索範囲内で抽出されたターゲット候補、及び、第2探索範囲内で抽出されたターゲット候補を用いて、ターゲットモデルを更新する。
時系列画像からターゲット候補を抽出する抽出手段と、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定する第1設定手段と、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡する追跡手段と、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定する第2設定手段と、
前記第1探索範囲内で抽出されたターゲット候補、及び、前記第2探索範囲内で抽出されたターゲット候補を用いて、前記ターゲットモデルを更新するモデル更新手段と、
を備える物体追跡装置。
前記第2設定手段は、前記第2探索範囲を、前記第1探索範囲よりも前記ターゲット1つ分のサイズ以上大きく設定する付記1に記載の物体追跡装置。
前記第1設定手段は、前記ターゲットの移動方向及び移動速度に基づいて、前記ターゲットの移動先を含むように前記第1探索範囲を設定する付記1又は2に記載の物体追跡装置。
前記追跡手段は、前記第1探索範囲内で抽出された各ターゲット候補について前記信頼度を算出し、前記信頼度が最も高いターゲット候補を前記ターゲットと決定する付記1乃至3のいずれか一項に記載の物体追跡装置。
前記追跡手段は、前記信頼度を、前記ターゲットの移動情報に基づいて重み付けして算出する付記4に記載の物体追跡装置。
前記第1探索範囲内で抽出されたターゲット候補のうち、前記信頼度が第1の値域に属するものをポジティブサンプルとして抽出する第1抽出手段と、
前記第2探索範囲内で抽出されたターゲット候補のうち、前記信頼度が第2の値域に属するものをネガティブサンプルとして抽出する第2抽出手段と、を備え、
前記モデル更新手段は、前記ポジティブサンプル及び前記ネガティブサンプルの少なくとも一方を用いて前記ターゲットモデルを更新する付記4又は5に記載の物体追跡装置。
前記第1の値域と前記第2の値域は部分的に重なっている付記6に記載の物体追跡装置。
前記第2抽出手段は、前記第2探索範囲で抽出されたターゲット候補のうち、前記ターゲット以外で、前記信頼度が前記第2の値域に属し、かつ、前記ターゲットとの重なりが一定以下であるターゲット候補の少なくとも一部を前記ネガティブサンプルとして抽出する付記6又は7に記載の物体追跡装置。
時系列画像からターゲット候補を抽出し、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡し、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補、及び、前記第2探索範囲内で抽出されたターゲット候補を用いて、前記ターゲットモデルを更新する物体追跡方法。
時系列画像からターゲット候補を抽出し、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡し、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補、及び、前記第2探索範囲内で抽出されたターゲット候補を用いて、前記ターゲットモデルを更新する処理をコンピュータに実行させるプログラムを記録した記録媒体。
12 プロセッサ
13 メモリ
14 記録媒体
15 データベース
16 入力装置
17 表示装置
20 追跡特徴モデル生成部
30 ターゲットモデル生成部
40 追跡部
41 ターゲット枠推定部
42 信頼度算出部
43 ターゲットモデル更新部
100 物体追跡装置
Rt ターゲット探索範囲
Rn ネガティブサンプル探索範囲
Claims (9)
- 時系列画像からターゲット候補を抽出する抽出手段と、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定する第1設定手段と、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡する追跡手段と、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定する第2設定手段と、
前記第1探索範囲内で抽出されたターゲット候補のうち前記信頼度が第1の値域に属するものをポジティブサンプルとして使用し、前記第2探索範囲内で抽出されたターゲット候補のうち前記信頼度が第2の値域に属するものをネガティブサンプルとして使用して、前記ターゲットモデルを更新するモデル更新手段と、
を備える物体追跡装置。 - 前記第2設定手段は、前記第2探索範囲を、前記第1探索範囲よりも前記ターゲット1つ分のサイズ以上大きく設定する請求項1に記載の物体追跡装置。
- 前記第1設定手段は、前記ターゲットの移動方向及び移動速度に基づいて、前記ターゲットの移動先を含むように前記第1探索範囲を設定する請求項1又は2に記載の物体追跡装置。
- 前記追跡手段は、前記第1探索範囲内で抽出された各ターゲット候補について前記信頼度を算出し、前記信頼度が最も高いターゲット候補を前記ターゲットと決定する請求項1乃至3のいずれか一項に記載の物体追跡装置。
- 前記追跡手段は、前記信頼度を、前記ターゲットの移動情報に基づいて重み付けして算出する請求項4に記載の物体追跡装置。
- 前記第1の値域と前記第2の値域は部分的に重なっている請求項1に記載の物体追跡装置。
- 前記モデル更新手段は、前記第2探索範囲で抽出されたターゲット候補のうち、前記ターゲット以外で、前記信頼度が前記第2の値域に属し、かつ、前記ターゲットとの重なりが一定以下であるターゲット候補の少なくとも一部を前記ネガティブサンプルとして使用する請求項6に記載の物体追跡装置。
- 時系列画像からターゲット候補を抽出し、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡し、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補のうち前記信頼度が第1の値域に属するものをポジティブサンプルとして使用し、前記第2探索範囲内で抽出されたターゲット候補のうち前記信頼度が第2の値域に属するものをネガティブサンプルとして使用して、前記ターゲットモデルを更新する物体追跡方法。 - 時系列画像からターゲット候補を抽出し、
時系列が1つ前の画像におけるターゲットの枠情報及び信頼度に基づいて、第1探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補から、ターゲットモデルとの類似度を示す信頼度を用いてターゲットを探索し、追跡し、
前記第1探索範囲を含み、前記第1探索範囲よりも大きい第2探索範囲を設定し、
前記第1探索範囲内で抽出されたターゲット候補のうち前記信頼度が第1の値域に属するものをポジティブサンプルとして使用し、前記第2探索範囲内で抽出されたターゲット候補のうち前記信頼度が第2の値域に属するものをネガティブサンプルとして使用して、前記ターゲットモデルを更新する処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/011390 WO2021186494A1 (ja) | 2020-03-16 | 2020-03-16 | 物体追跡装置、物体追跡理方法、及び、記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021186494A1 JPWO2021186494A1 (ja) | 2021-09-23 |
JPWO2021186494A5 JPWO2021186494A5 (ja) | 2022-11-18 |
JP7364041B2 true JP7364041B2 (ja) | 2023-10-18 |
Family
ID=77770736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022508613A Active JP7364041B2 (ja) | 2020-03-16 | 2020-03-16 | 物体追跡装置、物体追跡方法、及び、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230120093A1 (ja) |
JP (1) | JP7364041B2 (ja) |
WO (1) | WO2021186494A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220180633A1 (en) * | 2020-12-04 | 2022-06-09 | Samsung Electronics Co., Ltd. | Video object detection and tracking method and apparatus |
WO2024024090A1 (ja) * | 2022-07-29 | 2024-02-01 | ヤマハ発動機株式会社 | 部品計数装置およびロボットシステム |
CN115375737B (zh) * | 2022-10-25 | 2023-02-03 | 南昌工程学院 | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011059897A (ja) | 2009-09-08 | 2011-03-24 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
JP2017156886A (ja) | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
JP2019075051A (ja) | 2017-10-19 | 2019-05-16 | セコム株式会社 | 画像処理装置 |
-
2020
- 2020-03-16 US US17/910,276 patent/US20230120093A1/en active Pending
- 2020-03-16 JP JP2022508613A patent/JP7364041B2/ja active Active
- 2020-03-16 WO PCT/JP2020/011390 patent/WO2021186494A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011059897A (ja) | 2009-09-08 | 2011-03-24 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
JP2017156886A (ja) | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
JP2019075051A (ja) | 2017-10-19 | 2019-05-16 | セコム株式会社 | 画像処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021186494A1 (ja) | 2021-09-23 |
US20230120093A1 (en) | 2023-04-20 |
WO2021186494A1 (ja) | 2021-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7364041B2 (ja) | 物体追跡装置、物体追跡方法、及び、プログラム | |
CN109598684B (zh) | 结合孪生网络的相关滤波跟踪方法 | |
JP6625220B2 (ja) | シーン内のオブジェクトのアクションを検出する方法及びシステム | |
WO2021139484A1 (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN108027972B (zh) | 用于对象跟踪的系统和方法 | |
CN110211157B (zh) | 一种基于相关滤波的目标长时跟踪方法 | |
CN111144364A (zh) | 一种基于通道注意更新机制的孪生网络目标跟踪方法 | |
JP2007066010A (ja) | 判別器学習方法および対象判別装置ならびにプログラム | |
CN111192294B (zh) | 一种基于目标检测的目标跟踪方法及系统 | |
KR102339727B1 (ko) | 신뢰도 추정을 통한 글로벌 및 로컬 검색을 기반으로 한 견고한 시각적 물체 추적 | |
CN113327272B (zh) | 一种基于相关滤波的鲁棒性长时跟踪方法 | |
JP7444279B2 (ja) | 物体追跡装置、物体追跡方法、及び、プログラム | |
CN111639570B (zh) | 一种基于运动模型和单目标线索的在线多目标跟踪方法 | |
CN110147768B (zh) | 一种目标跟踪方法及装置 | |
Jiang et al. | High speed long-term visual object tracking algorithm for real robot systems | |
CN110503090B (zh) | 基于受限注意力模型的字符检测网络训练方法、字符检测方法和字符检测器 | |
CN115588030B (zh) | 基于孪生网络的视觉目标跟踪方法及设备 | |
KR102485359B1 (ko) | 현장 적응형 인공지능 모델 강화 방법 | |
JP2007058722A (ja) | 判別器の学習方法および対象判別装置ならびにプログラム | |
JP7444278B2 (ja) | 物体追跡装置、物体追跡方法、及び、プログラム | |
CN112508168B (zh) | 基于预测框自动修正的边框回归神经网络构建方法 | |
CN111915648B (zh) | 一种基于常识和记忆网络的长期目标运动跟踪方法 | |
Tang et al. | Evaluation of trackers for pan-tilt-zoom scenarios | |
US20240104891A1 (en) | Object detection device, learning method, and recording medium | |
JP4221681B2 (ja) | ジェスチャ認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220912 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7364041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |