JP7359306B2 - 追跡装置、追跡システム、追跡方法、およびプログラム - Google Patents
追跡装置、追跡システム、追跡方法、およびプログラム Download PDFInfo
- Publication number
- JP7359306B2 JP7359306B2 JP2022529148A JP2022529148A JP7359306B2 JP 7359306 B2 JP7359306 B2 JP 7359306B2 JP 2022529148 A JP2022529148 A JP 2022529148A JP 2022529148 A JP2022529148 A JP 2022529148A JP 7359306 B2 JP7359306 B2 JP 7359306B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- range
- image
- specified
- image frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 68
- 230000007717 exclusion Effects 0.000 claims description 68
- 238000012795 verification Methods 0.000 claims description 64
- 238000010586 diagram Methods 0.000 description 31
- 239000000284 extract Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
まず、第1の実施形態に係る追跡装置について図面を参照しながら説明する。本実施形態の追跡装置は、監視カメラ等によって撮影された動画を構成する画像(画像フレームとも呼ぶ)から人物等の追跡対象を検出し、検出された追跡対象を追尾する。なお、本実施形態の追跡装置の追跡対象には特に限定を加えない。例えば、本実施形態の追跡装置は、人物のみならず、犬や猫等の動物、自動車や自転車、ロボット等の移動体、任意の物体などを追跡対象としてもよい。本実施形態の追跡装置は、ユーザによって指定された範囲(指定範囲とも呼ぶ)を計算に入れて、画像フレームから検出された追跡対象に対応付けられた照合範囲を設定する。照合範囲は、画像フレームから検出された追跡対象に対応付けられる実空間における範囲であり、連続する画像フレーム間において追跡対象の照合に用いられる。例えば、照合範囲は、追跡対象を中心とする球や円で設定される。例えば、連続する画像フレーム間において、照合範囲の少なくとも一部が重なり合う追跡対象や、照合範囲が近接する追跡対象が照合対象となる。本実施形態の追跡装置は、画像フレーム中の障害物等に対応付けて設定された指定範囲(除外範囲と呼ぶ)を除外するように、追跡対象の照合範囲を設定する。
図1は、本実施形態の追跡システム1の構成の一例を示すブロック図である。追跡システム1は、追跡装置10、監視カメラ110、および端末装置120を備える。図1には、監視カメラ110や端末装置120を一つしか図示していないが、監視カメラ110や端末装置120は複数あってもよい。
次に、本実施形態の追跡装置10の動作について図面を参照しながら説明する。ここでは、検証フレームごとに表示情報を生成する処理(表示情報生成処理)と、ユーザの操作に応じて照合範囲を設定する処理(照合範囲設定処理)について説明する。
図14は、追跡装置10による表示情報生成処理について説明するためのフローチャートである。図14のフローチャートに沿った処理においては、追跡装置10を動作の主体とする。
図15は、追跡装置10による照合範囲設定処理について説明するためのフローチャートである。照合範囲設定処理は、図14のフローチャートのステップS115の照合範囲設定処理である。図15のフローチャートに沿った処理においては、追跡装置10を動作の主体とする。
次に、第2の実施形態に係る追跡装置について図面を参照しながら説明する。本実施形態の追跡装置は、複数の監視カメラによって撮影された映像データを構成する画像フレームを対応付ける点において、第1の実施形態とは異なる。本実施形態においては、異なる監視カメラによって撮影された異なる画像フレームのうち、実空間において距離が近い範囲を含む少なくとも二つの画像フレームに関して、近接範囲に位置する追跡対象に対して共通の照合範囲を設定する。実空間において距離が近い範囲は、ユーザによって指定される指定範囲(近接範囲とも呼ぶ)である。
図16は、本実施形態の追跡システム2の構成の一例を示すブロック図である。追跡システム2は、追跡装置20、複数の監視カメラ210-1~N、および端末装置220を備える(Nは、2以上の自然数)。複数の監視カメラ210-1~Nの各々を区別しない場合は、監視カメラ210と記載する。図16には、端末装置220を一つしか図示していないが、端末装置220は複数あってもよい。
次に、本実施形態の追跡装置20の動作について図面を参照しながら説明する。ここでは、検証フレームごとに表示情報を生成する処理(表示情報生成処理)と、ユーザの操作に応じて照合範囲をする処理(照合範囲設定処理)について説明する。
図22は、追跡装置20による表示情報生成処理について説明するためのフローチャートである。図22のフローチャートに沿った処理においては、追跡装置20を動作の主体とする。
図23は、追跡装置20による照合範囲設定処理について説明するためのフローチャートである。照合範囲設定処理は、図22のフローチャートのステップS215の照合範囲設定処理である。図23のフローチャートに沿った処理においては、追跡装置20を動作の主体とする。
次に、第3の実施形態に係る追跡装置について図面を参照しながら説明する。本実施形態の追跡装置は、第1~第2の実施形態の追跡装置を簡略化した構成である。
ここで、本発明の各実施形態の追跡装置や端末装置を実現するハードウェア構成について、図23のコンピュータ90を一例として挙げて説明する。なお、図23のコンピュータ90は、各実施形態の追跡装置や端末装置を実現するための構成例であって、本発明の範囲を限定するものではない。
10、20 追跡装置
11 映像取得部
12 映像記憶部
13、23 追跡部
14、24 表示情報生成部
15 表示情報出力部
16、26 指定範囲取得部
110 監視カメラ
120 端末装置
121 表示情報取得部
122 表示情報記憶部
123 表示部
124 入力部
127 入力機器
130 表示機器
Claims (10)
- 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、
前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、
前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備え、
前記指定範囲取得手段は、
前記画像フレームを表示する画面上で指定された除外範囲を前記指定範囲として取得し、
前記追跡手段は、
前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移すように設定する追跡装置。 - 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、
前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、
前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備え、
前記追跡手段は、
前記画像フレームから抽出される特徴量に基づいて前記画像フレームに除外範囲を指定し、前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移すように設定する追跡装置。 - 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、
前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、
前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備え、
前記指定範囲取得手段は、
少なくとも二つの前記画像フレームにおいて指定された実空間における近接範囲を前記指定範囲として取得し、
前記追跡手段は、
前記近接範囲の内部における実空間の位置座標を計算に入れて少なくとも二つの前記画像フレームに前記照合範囲を設定し、少なくとも二つの前記画像フレームに設定された前記照合範囲を前記追跡対象に対応付ける追跡装置。 - 請求項1乃至3のいずれか一項に記載の追跡装置と、
監視対象範囲を撮影して前記映像データを生成する少なくとも一つの監視カメラと、
前記追跡装置によって生成される前記追跡画像を表示させる画面を有する表示機器に接続される端末装置と、を備える追跡システム。 - 前記端末装置は、
少なくとも一つの前記追跡画像が表示される画像表示領域を前記表示機器の画面上に設定し、
前記画像表示領域に表示された前記追跡画像において前記指定範囲の指定を受け付け、
前記追跡画像において指定された前記指定範囲を前記追跡装置に出力し、
前記指定範囲の設定に基づいて更新された前記追跡画像を前記追跡装置から取得し、
更新された前記追跡画像を前記表示機器の画面に表示させる請求項4に記載の追跡システム。 - 前記端末装置は、
少なくとも一つの前記追跡画像を前記画像表示領域に表示させ、
前記追跡画像において除外範囲の指定を受け付け、
前記追跡画像において指定された前記除外範囲を前記指定範囲として前記追跡装置に出力する請求項5に記載の追跡システム。 - 前記端末装置は、
少なくとも二つの前記追跡画像を前記画像表示領域に表示させ、
少なくとも二つの前記追跡画像に亘る近接範囲の指定を受け付け、
少なくとも二つの前記追跡画像において指定された前記近接範囲を前記指定範囲として前記追跡装置に出力する請求項5に記載の追跡システム。 - 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備える追跡装置と、
監視対象範囲を撮影して前記映像データを生成する少なくとも一つの監視カメラと、
前記追跡装置によって生成される前記追跡画像を表示させる画面を有する表示機器に接続される端末装置と、を備え、
前記端末装置は、
少なくとも二つの前記追跡画像を画像表示領域に表示させ、
少なくとも二つの前記追跡画像に亘る近接範囲の指定を受け付け、
少なくとも二つの前記追跡画像において指定された前記近接範囲を前記指定範囲として前記追跡装置に出力する追跡システム。 - コンピュータが、
映像データが表示された画面上で指定された除外範囲を取得し、
前記映像データから検証対象の画像フレームを抽出し、
抽出された前記画像フレームごとに追跡対象を検出し、
検出された前記追跡対象に対して照合範囲を設定し、
前記画像フレームごとに設定された前記除外範囲に基づいて前記照合範囲を調整し、
前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移し、
前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する追跡方法。 - 映像データが表示された画面上で指定された除外範囲を取得する処理と、
前記映像データから検証対象の画像フレームを抽出する処理と、
抽出された前記画像フレームごとに追跡対象を検出する処理と、
検出された前記追跡対象に対して照合範囲を設定する処理と、
前記画像フレームごとに設定された前記除外範囲に基づいて前記照合範囲を調整する処理と、
前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移す処理と、
前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する処理と、をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/021605 WO2021245749A1 (ja) | 2020-06-01 | 2020-06-01 | 追跡装置、追跡方法、および記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021245749A1 JPWO2021245749A1 (ja) | 2021-12-09 |
JPWO2021245749A5 JPWO2021245749A5 (ja) | 2023-02-15 |
JP7359306B2 true JP7359306B2 (ja) | 2023-10-11 |
Family
ID=78830979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022529148A Active JP7359306B2 (ja) | 2020-06-01 | 2020-06-01 | 追跡装置、追跡システム、追跡方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230206468A1 (ja) |
JP (1) | JP7359306B2 (ja) |
WO (1) | WO2021245749A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008259161A (ja) | 2007-03-13 | 2008-10-23 | Victor Co Of Japan Ltd | 目標追尾装置 |
WO2011021588A1 (ja) | 2009-08-20 | 2011-02-24 | 日本電気株式会社 | 移動体軌跡識別システム |
JP2012159957A (ja) | 2011-01-31 | 2012-08-23 | Secom Co Ltd | 移動物体追跡装置 |
WO2015098442A1 (ja) | 2013-12-26 | 2015-07-02 | 株式会社日立国際電気 | 映像検索システム及び映像検索方法 |
WO2016098720A1 (ja) | 2014-12-15 | 2016-06-23 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
-
2020
- 2020-06-01 WO PCT/JP2020/021605 patent/WO2021245749A1/ja active Application Filing
- 2020-06-01 US US17/928,394 patent/US20230206468A1/en active Pending
- 2020-06-01 JP JP2022529148A patent/JP7359306B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008259161A (ja) | 2007-03-13 | 2008-10-23 | Victor Co Of Japan Ltd | 目標追尾装置 |
WO2011021588A1 (ja) | 2009-08-20 | 2011-02-24 | 日本電気株式会社 | 移動体軌跡識別システム |
JP2012159957A (ja) | 2011-01-31 | 2012-08-23 | Secom Co Ltd | 移動物体追跡装置 |
WO2015098442A1 (ja) | 2013-12-26 | 2015-07-02 | 株式会社日立国際電気 | 映像検索システム及び映像検索方法 |
WO2016098720A1 (ja) | 2014-12-15 | 2016-06-23 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230206468A1 (en) | 2023-06-29 |
JPWO2021245749A1 (ja) | 2021-12-09 |
WO2021245749A1 (ja) | 2021-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6273685B2 (ja) | 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法 | |
JP5950973B2 (ja) | フレームを選択する方法、装置、及びシステム | |
US7940957B2 (en) | Object tracker for visually tracking object motion | |
JP5688456B2 (ja) | 熱画像座標を用いた保安用カメラ追跡監視システム及び方法 | |
JP5754990B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6364743B2 (ja) | 情報処理装置、制御方法、プログラム、及び情報システム | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
US8571274B2 (en) | Person-judging device, method, and program | |
KR20190005765A (ko) | 화상 처리장치, 화상 처리방법 및 프로그램 | |
KR101530255B1 (ko) | 객체 자동 추적 장치가 구비된 cctv 시스템 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP2017017431A (ja) | 画像処理装置、情報処理方法及びプログラム | |
JP6500500B2 (ja) | 画像判定装置、画像判定方法、及びプログラム | |
JP2019186955A (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6868061B2 (ja) | 人物追跡方法、装置、機器及び記憶媒体 | |
KR20220024494A (ko) | 사람의 단안 깊이 추정을 위한 방법 및 시스템 | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
KR101648786B1 (ko) | 객체 인식 방법 | |
JP2002366958A (ja) | 画像認識方法および画像認識装置 | |
Zhang et al. | Robust multi-view multi-camera face detection inside smart rooms using spatio-temporal dynamic programming | |
JP2006244272A (ja) | 手位置追跡方法、装置、およびプログラム | |
JP7359306B2 (ja) | 追跡装置、追跡システム、追跡方法、およびプログラム | |
JP6819689B2 (ja) | 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 | |
US10482641B2 (en) | Virtual reality display | |
KR20210091033A (ko) | 객체 정보 추정과 가상 객체 생성을 위한 전자 장치 및 전자 장치의 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7359306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |