JP7359306B2 - 追跡装置、追跡システム、追跡方法、およびプログラム - Google Patents

追跡装置、追跡システム、追跡方法、およびプログラム Download PDF

Info

Publication number
JP7359306B2
JP7359306B2 JP2022529148A JP2022529148A JP7359306B2 JP 7359306 B2 JP7359306 B2 JP 7359306B2 JP 2022529148 A JP2022529148 A JP 2022529148A JP 2022529148 A JP2022529148 A JP 2022529148A JP 7359306 B2 JP7359306 B2 JP 7359306B2
Authority
JP
Japan
Prior art keywords
tracking
range
image
specified
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022529148A
Other languages
English (en)
Other versions
JPWO2021245749A1 (ja
JPWO2021245749A5 (ja
Inventor
登 吉田
祥治 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021245749A1 publication Critical patent/JPWO2021245749A1/ja
Publication of JPWO2021245749A5 publication Critical patent/JPWO2021245749A5/ja
Application granted granted Critical
Publication of JP7359306B2 publication Critical patent/JP7359306B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、追跡対象を追跡する追跡装置等に関する。
人物追跡技術は、監視カメラによって撮影された動画を構成する画像フレームから人物を検出し、検出された人物を追跡する技術である。人物追跡技術では、例えば、検出された個々の人物を顔認証等で識別して識別番号を付与し、識別番号が付与された人物を時系列で連続する画像フレームにおいて追尾する。一般的な人物追跡技術では、追跡中の人物(追跡対象人物とも呼ぶ)が遮蔽物等と交差する時点の画像フレームがあると、その後の時点の画像フレームで追跡対象人物が入れ替わってしまったり、追跡対象人物が新たな人物として検出されたりすることがあった。
特許文献1には、動画中の物体が所定の物体であるか判断する頻度を動的に設定する設定装置について開示されている。特許文献1の装置は、動画中の物体が所定の物体であると判断すると、判断する頻度をそれ以前よりも低く設定する。
特開2015-053032号公報
特許文献1の手法によれば、予め指定されたルールに基づいて、動画中の物体が所定の物体であるか判断する頻度を動的に変化させることによって、動画中の物体が所定の物体であるか精度よく判断できる。しかしながら、特許文献1の手法では、動画中の物体が障害物等と交差するような場合、物体が障害物と交際する前後において、同じ物体が別のものとして識別されやすく、追跡の精度が低下しやすかった。また、特許文献1の手法では、複数のカメラによって撮影された画像間において、同じ物体が別のものとして識別されやすく、広範囲に亘った物体の追跡には向いていなかった。
本発明の目的は、実空間のシーンに合わせて精度よく追跡対象を追尾することを可能とする追跡装置等を提供することにある。
本発明の一態様の追跡装置は、映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得部と、映像データから検証対象の画像フレームを抽出し、抽出された画像フレームごとに追跡対象を検出し、検出された追跡対象に対して照合範囲を設定し、画像フレームごとに設定された指定範囲に基づいて照合範囲を調整する追跡部と、追跡対象に照合範囲が対応付けられた追跡画像を画像フレームごとに生成する表示情報生成部と、を備える。
本発明の一態様の追跡方法においては、コンピュータが、映像データを構成する複数の画像フレームごとに指定された指定範囲を取得し、映像データから検証対象の画像フレームを抽出し、抽出された画像フレームごとに追跡対象を検出し、検出された追跡対象に対して照合範囲を設定し、画像フレームごとに設定された指定範囲に基づいて照合範囲を調整し、追跡対象に照合範囲が対応付けられた追跡画像を画像フレームごとに生成する。
本発明の一態様のプログラムは、映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する処理と、映像データから検証対象の画像フレームを抽出する処理と、抽出された画像フレームごとに追跡対象を検出する処理と、検出された追跡対象に対して照合範囲を設定する処理と、画像フレームごとに設定された指定範囲に基づいて照合範囲を調整する処理と、追跡対象に照合範囲が対応付けられた追跡画像を画像フレームごとに生成する処理と、をコンピュータに実行させる。
本発明によれば、実空間のシーンに合わせて精度よく追跡対象を追尾することを可能とする追跡装置等を提供することが可能になる。
第1の実施形態に係る追跡システムの構成の一例を示すブロック図である。 第1の実施形態に係る追跡システムに含まれる端末装置の構成の一例を示すブロック図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に設定される表示領域の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第1の実施形態に係る追跡システムに含まれる追跡装置の動作の一例を示すフローチャートである。 第1の実施形態に係る追跡システムに含まれる追跡装置による照合範囲設定処理の一例を示すフローチャートである。 第2の実施形態に係る追跡システムの構成の一例を示すブロック図である。 第2の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に設定される表示領域の一例を示す概念図である。 第2の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第2の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第2の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第2の実施形態に係る追跡システムに含まれる端末装置に接続された表示機器の画面に表示される表示情報の一例を示す概念図である。 第2の実施形態に係る追跡システムに含まれる追跡装置の動作の一例を示すフローチャートである。 第2の実施形態に係る追跡システムに含まれる追跡装置による照合範囲設定処理の一例を示すフローチャートである。 第3の実施形態に係る追跡装置の構成の一例を示すブロック図である。 各実施形態に係る追跡装置や端末装置等のハードウェア構成の一例を示すブロック図である。
以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。また、図面中の矢印の向きは、一例を示すものであり、ブロック間の信号等の向きを限定するものではない。
(第1の実施形態)
まず、第1の実施形態に係る追跡装置について図面を参照しながら説明する。本実施形態の追跡装置は、監視カメラ等によって撮影された動画を構成する画像(画像フレームとも呼ぶ)から人物等の追跡対象を検出し、検出された追跡対象を追尾する。なお、本実施形態の追跡装置の追跡対象には特に限定を加えない。例えば、本実施形態の追跡装置は、人物のみならず、犬や猫等の動物、自動車や自転車、ロボット等の移動体、任意の物体などを追跡対象としてもよい。本実施形態の追跡装置は、ユーザによって指定された範囲(指定範囲とも呼ぶ)を計算に入れて、画像フレームから検出された追跡対象に対応付けられた照合範囲を設定する。照合範囲は、画像フレームから検出された追跡対象に対応付けられる実空間における範囲であり、連続する画像フレーム間において追跡対象の照合に用いられる。例えば、照合範囲は、追跡対象を中心とする球や円で設定される。例えば、連続する画像フレーム間において、照合範囲の少なくとも一部が重なり合う追跡対象や、照合範囲が近接する追跡対象が照合対象となる。本実施形態の追跡装置は、画像フレーム中の障害物等に対応付けて設定された指定範囲(除外範囲と呼ぶ)を除外するように、追跡対象の照合範囲を設定する。
(構成)
図1は、本実施形態の追跡システム1の構成の一例を示すブロック図である。追跡システム1は、追跡装置10、監視カメラ110、および端末装置120を備える。図1には、監視カメラ110や端末装置120を一つしか図示していないが、監視カメラ110や端末装置120は複数あってもよい。
監視カメラ110は、監視対象範囲を撮影可能な位置に配置される。監視カメラ110は、一般的な監視カメラの機能を有する。監視カメラ110は、可視領域に感度があるカメラであってもよいし、赤外領域に感度がある赤外線カメラであってもよい。例えば、監視カメラ110は、人の多い街頭や室内に配置される。監視カメラ110と追跡装置10の接続方式については、特に限定を加えない。例えば、監視カメラ110は、インターネットやイントラネットなどのネットワークを介して、追跡装置10に接続される。
監視カメラ110は、設定された撮影間隔で監視対象範囲を撮影し、映像データを生成する。監視カメラ110は、生成された映像データを追跡装置10に出力する。映像データは、設定された撮影間隔で撮影された複数の画像データ(画像フレームとも呼ぶ)によって構成される。監視カメラ110が追跡装置10にデータを出力するタイミングには、特に限定を加えない。例えば、監視カメラ110は、複数の画像フレームによって構成される映像データを追跡装置10に出力してもよいし、複数の画像フレームの各々を撮影された時系列順で追跡装置10に出力してもよい。
追跡装置10は、映像取得部11、映像記憶部12、追跡部13、表示情報生成部14、表示情報出力部15、および指定範囲取得部16を有する。例えば、追跡装置10は、サーバやクラウドに配置される。例えば、追跡装置10は、端末装置120にインストールされるアプリケーションとして提供されてもよい。
映像取得部11は、処理対象の映像データを監視カメラ110から取得する。映像取得部11は、取得した映像データを映像記憶部12に記憶させる。追跡装置10が監視カメラ110からデータを取得するタイミングには、特に限定を加えない。例えば、映像取得部11は、複数の画像フレームによって構成される映像データを監視カメラ110から取得してもよいし、複数の画像フレームの各々を撮影順で監視カメラ110から取得してもよい。なお、映像取得部11は、監視カメラ110によって生成された映像データのみならず、図示しない外部のストレージやサーバ等に保存された映像データを取得してもよい。
映像記憶部12は、監視カメラ110によって生成された映像データを記憶する。映像記憶部12に記憶された映像データを構成する画像フレームは、追跡部13によって取得され、追跡対象の追跡に用いられる。
追跡部13は、空間閾値および時間閾値を記憶する。空間閾値は、検証対象の画像フレーム(検証フレームとも呼ぶ)から検出された追跡対象に対応付けて設定される空間的な閾値である。時間閾値は、複数の画像フレームによって構成される映像データから、検証対象である検証フレームと照合される画像フレームを抽出する基準である。空間閾値および時間閾値は、予め設定された値である。なお、空間閾値および時間閾値は、ユーザの操作に応じて変更可能であってもよい。例えば、空間閾値および時間閾値は、映像データを構成する全ての画像フレームに対して共通に設定されてもよいし、画像フレームごとに設定されてもよい。
空間閾値は、追跡対象の照合範囲に関する値である。例えば、照合範囲が円の場合、空間閾値は照合範囲の直径や半径に設定される。空間閾値は、検証フレームにおける追跡対象の大きさに合わせて調整される。例えば、空間閾値は、検証フレームにおける追跡対象の大きさを基準とする値に設定される。例えば、追跡対象が人物である場合、空間閾値は、人物の身長を基準とした比率に設定される。例えば、追跡対象の人物の身長に空間閾値を乗じた値の直径や半径の円が照合範囲として設定される。なお、空間閾値は、人物の身長を基準とした比率ではなく、検証フレームのピクセル数等で設定されてもよい。
時間閾値は、映像データを構成する画像フレームのうち、何フレーム前(何秒前)までの画像フレームを検証フレームと照合するのかを設定する時間的な閾値である。時間閾値は、検証フレームの時刻を基準として、追跡対象を照合する際にさかのぼる時刻の最大値に相当する。時間閾値の時刻に対応する画像フレームから、検証フレームの直前の画像フレームまでが、検証フレームの照合対象になる。例えば、時間閾値は、映像データを構成する画像フレームのうち、何フレーム前(何秒前)までの画像フレームを検証フレームと照合するのかを示すフレーム数で設定される。例えば、時間閾値が10フレームの場合、その画像フレームに対して、1、2、・・・、10フレーム前の合計10フレーム分の画像フレームが、検証フレームと照合される。なお、時間閾値は、フレーム数を時間に変換した値であってもよい。
追跡部13は、検証フレームにおいて検出された追跡対象と、検証フレームの照合対象の画像フレームにおいて検出された追跡対象とを照合することによって、追跡対象を追尾する。
追跡部13は、映像記憶部12から検証フレームを取得する。追跡部13は、取得した検証フレームから追跡対象を検出する。例えば、追跡部13は、背景差分法等の検出技術によって、検証フレームから追跡対象を検出する。例えば、追跡部13は、動きベクトル等の特徴量を用いた検出技術によって、検証フレームから追跡対象を検出してもよい。追跡部13の追跡対象は、人物や、移動する物体(移動体とも呼ぶ)である。例えば、追跡対象が人物である場合、追跡部13は、顔検出等の技術を用いて、検証フレームから追跡対象を検出する。例えば、追跡部13は、人体検出や物体検出等を用いて、検証フレームから追跡対象を検出してもよい。例えば、追跡部13は、移動体ではないものの、一定の位置において、形や模様、色等の特徴量が変化する物体を検出してもよい。例えば、追跡部13は顔認証や歩容認証等の技術を用いて、連続する検証フレームから検出される追跡対象を照合する。
追跡部13は、時間閾値に基づいて抽出される画像フレームにおいて検出された追跡対象に関して、検証フレームから検出された追跡対象と時間的および空間的に近いものを照合する。追跡部13は、それらの追跡対象の一致度が高ければ同一の追跡対象であると判定し、同一の識別番号を付与する。本実施形態において、追跡部13による追跡対象の照合方法には、特に限定を加えない。例えば、追跡部13は、追跡対象が人物である場合、顔認証や歩容認証の技術を用いて追跡対象を照合する。例えば、追跡部13は、検証フレームから検出された人物の全身、衣服の色、姿勢、および持ち物等の特徴に基づいて追跡対象を照合してもよい。例えば、追跡部13は、検証フレームにおいて検出された追跡対象に対して仮の識別番号を付与し、時間閾値に基づいて抽出された画像フレームにおいて検出された追跡対象との照合が取れた後に、検証フレームにおいて検出された追跡対象に対して正式な識別番号を付与する。追跡部13は、時間閾値に基づいて抽出された画像フレームにおいて検出されておらず、検証フレームにおいて新たに検出された追跡対象に対しては、新規の識別番号を付与する。例えば、追跡部13は、時間閾値に基づいて抽出された画像フレームにおける追跡情報に基づいて、検証フレームにおける追跡対象の位置を予測し、予測された画面上の位置の近傍に位置する追跡対象に同じ識別番号を付与する。追跡情報とは、画像フレームから検出された追跡対象に関して、追跡対象の識別番号、画像フレーム内における追跡対象の位置や大きさ、速度等が対応付けられた情報である。
追跡部13は、検証フレームから検出された追跡対象に関して、追跡対象の識別番号、画像フレーム内における追跡対象の位置や大きさ、速度等が対応付けられた追跡情報を生成する。また、追跡部13は、画像フレーム内における追跡対象の大きさに応じて、空間閾値に基づく照合範囲を追跡対象の位置に対応付けて設定する。
画像フレームに除外範囲が設定されている場合、追跡部13は、追跡対象に対応付けられた照合範囲のうち除外範囲と重なる部分を、除外範囲の対向側の位置に移すように設定する。例えば、除外範囲が照合範囲を跨ぐ場合、追跡部13は、除外範囲を挟んで照合範囲を分割する。例えば、除外範囲が照合範囲を跨がない場合、照合範囲のうち除外範囲と重なる部分を、除外範囲の対向側の位置に設定する。例えば、照合範囲が除外範囲の対向側に初めからはみ出している場合、追跡部13は、照合範囲のうち除外範囲と重なっている部分と、はみ出している部分とを結合させた部分を、除外範囲を挟んだ対向側の位置に設定する。例えば、照合範囲が除外範囲の対向側に初めからはみ出している場合、はみ出している部分に基づいて追跡対象を追跡することができるので、その照合範囲をそのまま用いてもよい。
追跡部13は、設定した照合範囲を追跡情報に追加する。例えば、追跡部13は、追跡対象の位置や大きさ、速度等に基づいて、各画像フレームに対応する追跡情報を推定してもよい。追跡部13は、映像データを構成する画像フレームごとの追跡情報を表示情報生成部14に出力する。
表示情報生成部14は、映像データを構成する複数の画像フレームごとの追跡情報を追跡部13から取得する。表示情報生成部14は、取得した追跡情報を用いて、画像フレームにおいて追跡対象に照合範囲を対応付けた追跡画像と、時間閾値および空間閾値を設定するための操作画像とを含む表示情報を生成する。表示情報生成部14が生成する表示情報は、ユーザの参照する端末装置120に表示させるグラフィカルユーザインターフェース(GUI:Graphical User Interface)である。表示情報生成部14は、生成した表示情報を表示情報出力部15に出力する。
表示情報出力部15は、映像データを構成する画像フレームごとのGUIを表示情報生成部14から取得する。表示情報出力部15は、画像フレームごとの表示情報を端末装置120に出力する。画像フレームごとの表示情報は、ユーザが参照する画面にGUIとして表示される。
指定範囲取得部16は、ユーザによって指定された指定範囲(除外範囲)を端末装置120から取得する。指定範囲取得部16は、取得した除外範囲を追跡部13に出力する。
図2は、端末装置120等の構成の一例を示すブロック図である。端末装置120は、表示情報取得部121、表示情報記憶部122、表示部123、および入力部124を有する。図2には、端末装置120に接続される追跡装置10、入力機器127、および表示機器130を併せて図示する。
表示情報取得部121は、映像データを構成する複数の画像フレームごとの追跡情報を追跡装置10から取得する。表示情報取得部121は、画像フレームごとの追跡情報を表示情報記憶部122に記憶させる。
表示情報記憶部122は、表示情報生成部14によって生成された表示情報を記憶する。表示情報記憶部122に記憶された表示情報は、例えばユーザの操作等に応じて、表示部123の画面にGUIとして表示される。
表示部123は、画面を有する表示機器130に接続される。表示部123は、表示情報記憶部122から表示情報を取得する。表示部123は、取得した表示情報を表示機器130の画面に表示させる。なお、端末装置120が表示機器130の機能を含んでいてもよい。
例えば、表示部123は、入力部124を介して、ユーザによる操作を受け付け、受け付けた操作内容に応じた表示情報を表示機器130の画面に表示させる。例えば、表示部123は、ユーザによって指定されたフレーム番号の画像フレームに対応する表示情報を表示機器130の画面に表示させる。例えば、表示部123は、ユーザによって指定されたフレーム番号の画像フレームを含む一連の複数の画像フレームの各々に対応する表示情報を時系列順に表示機器130の画面に表示させる。
例えば、表示部123は、予め設定された表示条件に従って、少なくとも一つの表示情報を表示機器130の画面に表示させてもよい。例えば、予め設定された表示条件とは、予め設定されたフレーム番号を含む連続した所定枚数の画像フレームに対応する複数の表示情報を時系列順に表示させるという条件である。例えば、予め設定された表示条件とは、予め設定された時刻を含む所定時間帯に生成された複数の画像フレームに対応する複数の表示情報を時系列順に表示させるという条件である。なお、表示条件は、予め設定されていれば、ここで挙げた例に限定されない。
入力部124は、ユーザによる操作を受け付ける入力機器127に接続される。例えば、入力機器127は、タッチパネルやマウス等のポインティング機能のあるデバイスによって実現される。入力部124は、入力機器127を介して入力されたユーザによる操作内容を追跡装置10に出力する。また、入力部124は、映像データや画像フレーム、表示情報等の指定をユーザから受け付けた場合、指定された画像を画面に表示させる指示を表示部123に出力する。
図3は、表示機器130の画面に表示される表示情報について説明するための概念図である。表示機器130の画面には、画像表示領域150が設定される。画像表示領域150には、画像フレームごとの追跡画像が表示される。なお、表示機器130の画面には、画像表示領域150以外の表示領域を設定してもよい。また、画像表示領域150の画面上における表示位置は、任意に変更できる。
図4~図6は、表示機器130の画面に設定された表示領域に表示される表示情報の一例を示す概念図である。図4~図6の各々は、フレーム番号t、t+10、およびt+20の各々に関する画像フレームが画像表示領域150に表示される例である。実際には、検証フレーム間の画像フレームに対応する表示情報も表示領域に表示されるが、以下においては検証フレームに対応する画像フレームが表示領域に表示される例を挙げる。
画像表示領域150には、監視カメラ110によって生成された映像データを構成する画像フレームに照合範囲等が重ねられた追跡画像が表示される。図4~図6は、識別番号01が付与された追跡対象Tが、矢印の向きに向けて、いくつかの柱のある空間において移動する例である。識別番号は、追跡対象の位置に対応付けて表示されてもよいし、表示されなくてもよい。破線の人型は、追跡対象Tの移動に伴う軌跡について説明するためのものであり、追跡画像においては表示されない。画像フレームにおける追跡対象Tの周囲には、追跡対象Tを中心として、空間閾値を直径とする円が照合範囲として設定される。画像表示領域150において、追跡対象Tの周囲に設定される照合範囲を示す円は、監視カメラ110の視座や画角等に応じた形状で表示される。なお、照合範囲は、円ではなく、楕円や矩形、正方形、正三角形、正五角形など、任意の形状に変形可能である。図4~図6のように、照合範囲の大きさは、画像フレームにおける追跡対象Tの大きさに合わせて変更される。
図7は、複数の追跡対象(追跡対象A、B、C、D)が検出された画像フレームの追跡画像が画像表示領域150に表示される例である。追跡対象Aには識別番号11が付与され、追跡対象Bには識別番号12が付与され、追跡対象Cには識別番号13が付与され、追跡対象Dには識別番号14が付与される。図7の例では、追跡対象Aの照合範囲が柱と重なっている。このような場合、追跡対象Aが柱の向こう側を通過する前後において、追跡対象Aに異なる識別番号が付与される可能性がある。例えば、追跡対象Aが柱の向こう側を通過する際に、追跡対象Aの照合範囲が柱の陰に途切れると、照合範囲が途切れた段階で追跡対象Aに付与された識別番号が削除される。その後、追跡対象Aが柱の陰から現れ、追跡対象Aに照合範囲が再び設定されると、同じ追跡対象でありながら、追跡対象Aには異なる識別番号は付与される。本実施形態においては、画像フレーム間において照合範囲を追跡することによって、その照合範囲に対応する追跡対象を追跡し続ける。そのため、画像フレーム間で同じ追跡対象に異なる識別番号が付与されると、追跡が途切れてしまう。例えば、顔認証等の認証技術を用いて、画像フレームごとに、いずれかのデータベースに格納された個人情報等に照合すれば、同じ追跡対象に異なる識別番号が付与されても、その追跡対象を追跡し続けることはできる。ただし、その場合、画像フレームごとにデータベースにアクセスする必要があるため、アクセス遅延によって追跡対象を追跡しきれない場合も生じうる。
図8は、ユーザによる操作に応じて、画像表示領域150に表示された追跡画像に除外範囲160が設定される例である。図8において、除外範囲160は、一点鎖線で囲んだ矩形の範囲内である。図8の例では、追跡対象Aに対応付けられた照合範囲の左側の一部が、除外範囲160を挟んで分割されている。除外範囲160と照合範囲が重なると、照合範囲のうち除外範囲160と重なっている部分が、除外範囲160を挟んだ対向側の位置に設定される。なお、除外範囲160が照合範囲を跨がない場合は、照合範囲のうち除外範囲160と重なる部分を、除外範囲160の対向側の位置に設定する。例えば、照合範囲が除外範囲160の対向側に初めからはみ出している場合は、照合範囲のうち除外範囲160と重なっている部分と、はみ出している部分とを結合させた部分が、除外範囲160を挟んだ対向側の位置に設定される。例えば、照合範囲が除外範囲160の対向側に初めからはみ出している場合は、はみ出している部分に基づいて追跡対象を追跡することができるので、除外範囲160を無視して、その照合範囲をそのまま用いてもよい。
除外範囲160の外郭は、矩形ではなく、三角形や五角形などの任意の多角形であってもよい。例えば、除外範囲160の外郭は、円形や楕円形などの任意の閉曲線であってもよい。例えば、除外範囲160は、フリーハンドで指定された領域であってもよい。除外範囲160は、閉じた領域であってもよい、開いた領域であってもよい。
例えば、除外範囲160は、画像表示領域150におけるポインター165の操作に応じて設定される。例えば、画像フレームにおける柱の一部に合わせて、ユーザがポインター165を操作して領域を選択すると、選択された領域が除外範囲160に設定される。なお、ポインター165の操作に応じた領域の選択の方法には、特に限定を加えない。
図9~図10は、追跡対象Eが柱の向こう側を通過して移動する例について説明するための概念図である。図9の画像表示領域150には、フレーム番号tの画像フレームの追跡画像が表示される。フレーム番号tの画像フレームの追跡画像においては、追跡対象Eに識別番号21が付与されている。図10の画像表示領域150には、フレーム番号tの画像フレームに後続するフレーム番号t+10の画像フレームの追跡画像が表示される。フレーム番号t+10の画像フレームにおいては、フレーム番号tの画像フレームとは異なる識別番号22が追跡対象Eに付与されている。このように、異なる画像フレームにおいて、同じ追跡対象であるのに異なる識別番号が付与される一因として、空間的な閾値である空間閾値が小さすぎることがあげられる。空間閾値が小さすぎると、連続する画像フレーム間において照合範囲に基づいて追跡対象を追跡しきれず、同じ追跡対象に異なる識別番号が付与されやすくなる。
図11~図12は、図9~図10の例において、ユーザの設定に応じて、画像表示領域150に表示された追跡画像において除外範囲160が設定される例について説明するための概念図である。
図11の画像表示領域150には、フレーム番号tの画像フレームの追跡画像が表示される。フレーム番号tの画像フレームの追跡画像においては、追跡対象Eに識別番号21が付与されている。図12の画像表示領域150には、フレーム番号tの画像フレームに後続するフレーム番号t+10の画像フレームの追跡画像が表示される。フレーム番号t+10の画像フレームにおいては、追跡対象Eには、フレーム番号tの画像フレームと同じ識別番号21が付与されている。図11の例では、柱を無視して照合範囲が設定されるため、追跡対象Eが柱を通過する前後における照合範囲に基づいて追跡対象を追跡しやすくなる。
このように、一連の画像フレームにおいて、障害物等があるような場合には、障害物等に対応付けて除外範囲を設定すればよい。障害物等に対応付けて除外範囲を設定すれば、障害物等を無視して照合範囲が設定されるため、連続する画像フレーム間で照合範囲に基づいて追跡対象を追跡しやすくなる。その結果、追跡対象の動線をつなげやすくなるため、一連の画像フレームにおいて、同じ追跡対象に異なる識別番号が付与されにくくなる。空間閾値を大きくしすぎると、連続する画像フレーム間において、異なる追跡対象同士の照合範囲が重なり合い、識別番号が入れ替わりやすくなる。そのため、一連の画像フレームにおいて同じ追跡対象に異なる識別番号が付与されることを低減するためには、本実施形態のように、ユーザによる除外範囲の設定に応じて、最適な照合範囲を設定できることが効果的である。
図13は、複数の障害物がある空間を撮影した映像データに含まれる画像フレームにおいて、複数の障害物に対応付けられた除外範囲160を予め設定しておく例について説明するための概念図である。図13の例では、画像表示領域150に表示される追跡画像に含まれる障害物の全てに除外範囲160が設定されている。追跡対象Fに対応付けられた照合範囲は、障害物を挟んで分割される。除外範囲160は、障害物の位置に対応付けられて予め設定されていればよい。除外範囲160は、ユーザによって設定されてもよいし、追跡部13によって自動的に設定するように構成してもよい。例えば、追跡部13は、除外範囲に設定される対象物(障害物等)の特徴量を画像フレームから抽出し、抽出された特徴量に基づいて除外範囲160を自動的に設定するように構成してもよい。例えば、追跡部13は、複数の画像フレームから抽出された障害物の特徴量を、ディープラーニングなどの手法を用いて学習し、任意の画像フレームから障害物の位置を推定するモデルを生成する。例えば、追跡部13は、検証対象フレームをモデルに入力することで出力される障害物の位置に対応付けて除外範囲を設定する。なお、追跡部13が画像フレームから障害物を検出する手法は、ここで挙げた方法に限定されない。例えば、追跡部13は、画像フレームにおける障害物の色や濃淡、輝度、追跡対象との位置関係等に基づいて、障害物を検出してもよい。
(動作)
次に、本実施形態の追跡装置10の動作について図面を参照しながら説明する。ここでは、検証フレームごとに表示情報を生成する処理(表示情報生成処理)と、ユーザの操作に応じて照合範囲を設定する処理(照合範囲設定処理)について説明する。
〔表示情報生成処理〕
図14は、追跡装置10による表示情報生成処理について説明するためのフローチャートである。図14のフローチャートに沿った処理においては、追跡装置10を動作の主体とする。
図14において、まず、追跡装置10は、検証フレームを取得する(ステップS111)。
次に、追跡装置10は、取得した検証フレームにおいて追跡対象の有無を検証する(ステップS112)。検証フレームにおいて追跡対象を検出した場合(ステップS112でYes)、追跡装置10は、検出された追跡対象を識別する(ステップS113)。一方、検証フレームにおいて追跡対象を検出しなかった場合(ステップS112でNo)、ステップS118に進む。
ステップS113の次に、追跡装置10は、識別された追跡対象の追跡情報を生成する(ステップS114)。
次に、追跡装置10は、追跡対象ごとの追跡情報に基づいて、追跡対象に対応付けて照合範囲を設定する照合範囲設定処理を実行する(ステップS115)。照合範囲設定処理の詳細については、図15のフローチャートを用いて説明する。
次に、追跡装置10は、画像フレームごとの表示情報を生成する(ステップS116)。
次に、追跡装置10は、画像フレームごとの表示情報を端末装置120に出力する(ステップS117)。
ここで、次の検証フレームを取得した場合(ステップS118でYes)、ステップS112に戻る。一方、次の検証フレームを取得していない場合(ステップS118でNo)、図14のフローチャートに沿った処理は終了である。図14のフローチャートに沿った処理が終了すると、追跡装置10は、次に検証フレームを取得するまで待機状態になる。
〔照合範囲設定処理〕
図15は、追跡装置10による照合範囲設定処理について説明するためのフローチャートである。照合範囲設定処理は、図14のフローチャートのステップS115の照合範囲設定処理である。図15のフローチャートに沿った処理においては、追跡装置10を動作の主体とする。
図15において、まず、追跡装置10は、除外範囲の設定の有無を確認する(ステップS151)。除外範囲の設定がある場合(ステップS151においてYes)、追跡装置10は、追跡対象の照合範囲のうち除外範囲と重なるものがあるか検証する(ステップS152)。一方、除外範囲の設定がない場合(ステップS151においてNo)、ステップS154に進む。
ステップS152において、追跡対象の照合範囲のうち除外範囲と重なるものがある場合(ステップS152でYes)、追跡装置10は、照合範囲のうち除外範囲と重なる部分を、除外範囲の対向側の位置に設定する(ステップS153)。一方、追跡対象の照合範囲のうち除外範囲と重なるものがない場合(ステップS152においてNo)、ステップS154に進む。
そして、追跡装置10は、追跡対象に対応付けて照合範囲を設定する(ステップS154)。ステップS154の後は、図14のフローチャートのステップS116に進む。
以上のように、本実施形態の追跡システムは、追跡装置、少なくとも一つの監視カメラ、および端末装置を備える。監視カメラは、監視対象範囲を撮影して映像データを生成する。端末装置は、追跡装置によって生成される表示情報を表示させる画面を有する表示機器に接続される。
追跡装置は、映像取得部、映像記憶部、追跡部、表示情報生成部、表示情報出力部、および指定範囲取得部を有する。映像取得部は、映像データを取得する。映像記憶部は、映像取得部によって取得された映像データを記憶する。指定範囲取得部は、映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する。追跡部は、映像データから検証対象の画像フレームを抽出し、抽出された画像フレームごとに追跡対象を検出し、検出された追跡対象に対して照合範囲を設定し、画像フレームごとに設定された指定範囲に基づいて照合範囲を調整する。表示情報生成部は、追跡対象に照合範囲が対応付けられた追跡画像を画像フレームごとに生成する。
本実施形態の一態様において、指定範囲取得部は、画像フレームを表示する画面上で指定された除外範囲を指定範囲として取得する。追跡部は、追跡対象に対して除外範囲の対向側の位置に、除外範囲と重なる照合範囲を移すように設定する。
本実施形態の一態様において、追跡部は、画像フレームから抽出される特徴量に基づいて画像フレームに除外範囲を指定し、追跡対象に対して除外範囲の対向側の位置に、除外範囲と重なる照合範囲を移すように設定する。
本実施形態の一態様において、端末装置は、少なくとも一つの追跡画像が表示される画像表示領域を表示機器の画面上に設定する。端末装置は、画像表示領域に表示された追跡画像において指定範囲の指定を受け付け、追跡画像において指定された指定範囲を追跡装置に出力する。端末装置は、指定範囲の設定に基づいて更新された追跡画像を追跡装置から取得し、更新された追跡画像を表示機器の画面に表示させる。例えば、端末装置は、少なくとも一つの追跡画像を画像表示領域に表示させ、追跡画像において除外範囲の指定を受け付け、追跡画像において指定された除外範囲を指定範囲として追跡装置に出力する。
本実施形態によれば、監視カメラによって撮影された映像において障害物等と重なる照合範囲を実空間のシーンに合わせて調整するので、実空間のシーンに合わせて精度よく追跡対象を追尾することが可能になる。例えば、本実施形態によれば、監視カメラによって撮影された映像において照合範囲が障害物等と重なっている場合、複雑な計算をせずに、映像における除外範囲を直感的に指定できる。
(第2の実施形態)
次に、第2の実施形態に係る追跡装置について図面を参照しながら説明する。本実施形態の追跡装置は、複数の監視カメラによって撮影された映像データを構成する画像フレームを対応付ける点において、第1の実施形態とは異なる。本実施形態においては、異なる監視カメラによって撮影された異なる画像フレームのうち、実空間において距離が近い範囲を含む少なくとも二つの画像フレームに関して、近接範囲に位置する追跡対象に対して共通の照合範囲を設定する。実空間において距離が近い範囲は、ユーザによって指定される指定範囲(近接範囲とも呼ぶ)である。
(構成)
図16は、本実施形態の追跡システム2の構成の一例を示すブロック図である。追跡システム2は、追跡装置20、複数の監視カメラ210-1~N、および端末装置220を備える(Nは、2以上の自然数)。複数の監視カメラ210-1~Nの各々を区別しない場合は、監視カメラ210と記載する。図16には、端末装置220を一つしか図示していないが、端末装置220は複数あってもよい。
複数の監視カメラ210-1~Nの各々は、監視対象範囲を撮影可能な位置に配置される。複数の監視カメラ210-1~Nの各々は、第1の実施形態の監視カメラ110と同様の構成である。複数の監視カメラ210-1~Nのうち少なくとも二つは、実空間において近接範囲を含む監視対象範囲を撮影する。
複数の監視カメラ210-1~Nの各々は、設定された撮影間隔で監視対象範囲を撮影し、映像データを生成する。複数の監視カメラ210-1~Nの各々の撮影タイミングは、任意のタイミングに設定される。ただし、実空間において近接範囲を含む監視対象範囲を撮影する少なくとも二つの監視カメラ210によって撮影された画像フレームを検証する際には、同じタイミングで撮影された画像フレームを用いる。複数の監視カメラ210-1~Nの各々は、生成された映像データを追跡装置20に出力する。映像データは、設定された撮影間隔で撮影された複数の画像データ(画像フレームとも呼ぶ)によって構成される。複数の監視カメラ210-1~Nの各々が追跡装置20にデータを出力するタイミングには、特に限定を加えない。例えば、複数の監視カメラ210-1~Nの各々は、複数の画像フレームによって構成される映像データを追跡装置20に出力する。例えば、複数の監視カメラ210-1~Nの各々は、複数の画像フレームの各々を撮影された時系列順で追跡装置20に出力してもよい。
追跡装置20は、映像取得部21、映像記憶部22、追跡部23、表示情報生成部24、表示情報出力部25、および指定範囲取得部26を有する。例えば、追跡装置20は、サーバやクラウドに配置される。例えば、追跡装置20は、端末装置220にインストールされるアプリケーションとして提供されてもよい。なお、映像取得部21、映像記憶部22、表示情報生成部24、および表示情報出力部25の機能は、第1の実施形態の追跡装置10の対応する構成と同様であるので、詳細な説明は省略する。また、追跡部23の主な機能は、第1の実施形態の追跡装置10の追跡部13と同様であるため、以下においては追跡部13との相違点に焦点を当てて説明する。
追跡部23は、少なくとも二つの監視カメラ210によって撮影された映像データに関して、時間閾値に基づいて抽出された検証フレームを映像記憶部22から取得する。追跡部23は、取得した検証フレームから追跡対象を検出する。追跡部23は、検証フレームから検出された追跡対象に識別番号を付与する。追跡部23は、検証フレームから検出された追跡対象に関して、追跡対象の識別番号、画像フレーム内における追跡対象の位置や大きさ、速度等が対応付けられた追跡情報を生成する。また、追跡部23は、画像フレーム内における追跡対象の大きさに応じて、空間閾値に基づく照合範囲を追跡対象の位置に対応付けて設定する。
画像フレームに近接範囲が設定されている場合、追跡部23は、近接範囲の内部に関して、異なる画像フレーム間において共有される照合範囲を実空間の座標系に基づいて計算する。例えば、追跡部23は、画像フレームごとの相対座標系を実世界における世界座標系に対応付けるテーブルを用いて、近接範囲の内部の相対座標を実世界における世界座標系に変換する。例えば、追跡部23は、異なる画像フレームの近接範囲の内部に関しては、実世界における世界座標系に基づいた位置に応じた照合範囲を計算する。例えば、追跡部23は、その照合範囲を各々の画像フレームの相対座標系に変換して、異なる画像フレームにおいて共有される照合範囲を設定する。
追跡対象に対応付けられた照合範囲が近接範囲に含まれる場合、追跡部23は、その照合範囲の全てを世界座標系に変換し、実世界における距離に基づいて照合範囲を設定する。追跡対象に対応付けられた照合範囲の一部が近接範囲と重なる場合、追跡部23は、近接範囲と重なった照合範囲を世界座標系に変換し、実世界における距離に基づいて照合範囲を設定する。なお、追跡対象に対応付けられた照合範囲の一部が近接範囲と重なる場合、追跡部23は、照合範囲の全てを世界座標系に変換し、実世界における距離に基づいて照合範囲を設定してもよい。
追跡部23は、設定した照合範囲を追跡情報に追加する。追跡部23は、映像データを構成する画像フレームごとの追跡情報を表示情報生成部24に出力する。
指定範囲取得部26は、ユーザによって指定された指定範囲(近接範囲)を端末装置220から取得する。指定範囲取得部26は、取得した近接範囲を追跡部23に出力する。
図17は、端末装置220に接続される表示機器230の画面に表示される表示情報について説明するための概念図である。表示機器230の画面には、画像表示領域250が設定される。画像表示領域250は、第1表示領域251と第2表示領域252を含む。第1表示領域251には、複数の監視カメラ210-1~Nのうちいずれかが撮影した動画データを構成する画像フレームに基づく追跡画像が表示される。第2表示領域252には、第1表示領域251に表示された追跡画像の元となる画像フレームと実空間において共通部分を有する画像フレームの追跡画像が表示される。第1表示領域251および第2表示領域252には、画像フレームごとの追跡画像が表示される。なお、表示機器230の画面には、画像表示領域250以外の表示領域を設定してもよい。また、画像表示領域250の画面上における表示位置は、任意に変更できる。
図18および図19は、実空間における近接範囲を画像フレームに設定しない場合の表示情報の表示例である。図18および図19においては、実空間における近接範囲を有する二つの映像データの各々を構成する画像フレームに対応する追跡画像が、第1表示領域251および第2表示領域252の各々に表示される。これらの二つの映像データは、異なる監視カメラ210によって撮影されたものとする。図18は、フレーム番号tにおける追跡画像が画像表示領域250に表示される例である。図19は、フレーム番号tに後続するフレーム番号t+10における追跡画像が画像表示領域250に表示される例である。第1表示領域251に表示された追跡画像の右側の一部と、第2表示領域252に表示された追跡画像の左側の一部が、実空間における近接範囲である。追跡対象Gは、図18に示す第1表示領域251に表示された追跡画像中の追跡対象Gの位置から、図19に示す第2表示領域252に表示された追跡画像中の追跡対象Gの位置に向けて移動するものとする。
図18のように、フレーム番号tにおいては、第1表示領域251に表示された追跡画像に追跡対象Gが含まれる。追跡対象Gには、第1表示領域251に表示された追跡画像のみにおいて照合範囲が設定される。追跡対象Gには、識別番号21が付与される。図19のように、フレーム番号t+10においては、第2表示領域252に表示された追跡画像に追跡対象Gが含まれる。追跡対象Gには、第2表示領域252に表示された追跡画像のみにおいて照合範囲が設定される。追跡対象Gには、識別番号22が付与される。このように、異なる監視カメラ210によって撮影された実空間に近接部分があっても、画像フレーム間で近接範囲を設定しないと、異なる画像フレームにおいて同じ追跡対象に異なる識別番号が付与されてしまう。例えば、異なる監視カメラ210の間で識別番号が共有されない場合、同じ追跡対象に対して、監視カメラ210ごとに異なる識別番号が付与される。同じ追跡対象に異なる識別番号が付与されると、監視カメラ210間で追跡対象を追跡し続けることが難しくなる。例えば、顔認証等の認証技術を用いて、画像フレームごとに、いずれかのデータベースに格納された個人情報等に照合すれば、同じ追跡対象に異なる識別番号が付与されても、その追跡対象を追跡し続けることはできる。ただし、その場合、画像フレームごとにデータベースにアクセスする必要があるため、アクセス遅延によって追跡対象を追跡しきれない場合も生じうる。
図20および図21は、実空間における近接範囲を画像フレームに設定する場合の表示情報の表示例である。図20および図21においては、実空間における近接範囲を有する二つの映像データの各々を構成する画像フレームに対応する追跡画像が、第1表示領域251および第2表示領域252の各々に表示される。これらの二つの映像データは、異なる監視カメラ210によって撮影されたものとする。図20は、フレーム番号tにおける追跡画像が画像表示領域250に表示される例である。図21は、フレーム番号tに後続するフレーム番号t+10における追跡画像が画像表示領域250に表示される例である。第1表示領域251に表示された追跡画像の右側の一部と、第2表示領域252に表示された追跡画像の左側の一部が、実空間における近接範囲である。追跡対象Gは、図20に示す第1表示領域251に表示された追跡画像中の追跡対象Gの位置から、図21に示す第2表示領域252に表示された追跡画像中の追跡対象Gの位置に向けて移動するものとする。
図20には、画像表示領域250において、ポインター265を用いたユーザの操作に応じて、第1表示領域251と第2表示領域252の近接範囲260が選択される様子を図示する。近接範囲260の内部では、実空間の位置座標が計算に入れられて、追跡対象に対応付けられた照合範囲が設定される。
図20のように、フレーム番号tにおいては、第1表示領域251に表示された追跡画像に追跡対象Gが含まれる。追跡対象Gには、近接範囲260の内部における実空間の位置座標が計算に入れられて、第1表示領域251と第2表示領域252に亘る照合範囲が追跡対象Gに対応付けて設定される。追跡対象Gには、識別番号21が付与される。図21のように、フレーム番号t+10においては、第2表示領域252に表示された追跡画像に追跡対象Gが含まれる。追跡対象Gには、近接範囲260の内部における実空間の位置座標が計算に入れられて、第1表示領域251と第2表示領域252に亘る照合範囲が追跡対象Gに対応付けて設定される。追跡対象Gには、識別番号21が付与される。このように、異なる監視カメラ210によって撮影された実空間に近接部分があり、画像フレーム間で近接範囲を設定すると、異なる画像フレームにおいて同じ追跡対象に同じ識別番号を付与できる。異なる監視カメラ210によって撮影された映像において、同じ追跡対象に同じ識別番号が付与されれば、監視カメラ210間で追跡対象を追跡し続けやすくなる。
(動作)
次に、本実施形態の追跡装置20の動作について図面を参照しながら説明する。ここでは、検証フレームごとに表示情報を生成する処理(表示情報生成処理)と、ユーザの操作に応じて照合範囲をする処理(照合範囲設定処理)について説明する。
〔表示情報生成処理〕
図22は、追跡装置20による表示情報生成処理について説明するためのフローチャートである。図22のフローチャートに沿った処理においては、追跡装置20を動作の主体とする。
図22において、まず、追跡装置20は、異なる監視カメラ210によって同じタイミングで撮影された映像データを構成する少なくとも二つの検証フレームを取得する(ステップS211)。
次に、追跡装置20は、取得した検証フレームにおいて追跡対象の有無を検証する(ステップS212)。検証フレームにおいて追跡対象を検出した場合(ステップS212でYes)、追跡装置20は、検出された追跡対象を識別する(ステップS213)。一方、検証フレームにおいて追跡対象を検出しなかった場合(ステップS212でNo)、ステップS218に進む。
ステップS213の次に、追跡装置20は、識別された追跡対象の追跡情報を生成する(ステップS214)。
次に、追跡装置20は、追跡対象ごとの追跡情報に基づいて、追跡対象に対応付けて照合範囲を設定する照合範囲設定処理を実行する(ステップS215)。照合範囲設定処理の詳細については、図23のフローチャートを用いて説明する。
次に、追跡装置20は、画像フレームごとの表示情報を生成する(ステップS216)。
次に、追跡装置20は、画像フレームごとの表示情報を端末装置220に出力する(ステップS217)。
ここで、次の検証フレームを取得した場合(ステップS218でYes)、ステップS212に戻る。一方、次の検証フレームを取得していない場合(ステップS218でNo)、図22のフローチャートに沿った処理は終了である。図22のフローチャートに沿った処理が終了すると、追跡装置20は、次に検証フレームを取得するまで待機状態になる。
〔照合範囲設定処理〕
図23は、追跡装置20による照合範囲設定処理について説明するためのフローチャートである。照合範囲設定処理は、図22のフローチャートのステップS215の照合範囲設定処理である。図23のフローチャートに沿った処理においては、追跡装置20を動作の主体とする。
図23において、まず、追跡装置20は、近接範囲の設定の有無を確認する(ステップS251)。近接範囲の設定がある場合(ステップS251においてYes)、追跡装置20は、追跡対象の照合範囲のうち近接範囲と重なるものがあるか検証する(ステップS252)。一方、近接範囲の設定がない場合(ステップS251においてNo)、ステップS255に進む。
追跡対象の照合範囲のうち近接範囲と重なるものがある場合(ステップS252でYes)、追跡装置20は、近接範囲の内部に関して、異なる画像フレーム間において共有される照合範囲を実空間の座標系に基づいて計算する(ステップS253)。一方、追跡対象の照合範囲のうち近接範囲と重なるものがない場合(ステップS252においてNo)、ステップS255に進む。
ステップS253の次に、追跡装置20は、異なる画像フレーム間において共有される照合範囲を設定する(ステップS254)。
そして、追跡装置20は、追跡対象に対応付けて照合範囲を設定する(ステップS255)。ステップS255の後は、図22のフローチャートのステップS216に進む。
以上のように、本実施形態の追跡システムは、追跡装置、複数の監視カメラ、および端末装置を備える。複数の監視カメラは、監視対象範囲を撮影して映像データを生成する。端末装置は、追跡装置によって生成される表示情報を表示させる画面を有する表示機器に接続される。
追跡装置は、映像取得部、映像記憶部、追跡部、表示情報生成部、表示情報出力部、および指定範囲取得部を有する。映像取得部は、映像データを取得する。映像記憶部は、映像取得部によって取得された映像データを記憶する。指定範囲取得部は、映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する。追跡部は、映像データから検証対象の画像フレームを抽出し、抽出された画像フレームごとに追跡対象を検出し、検出された追跡対象に対して照合範囲を設定し、画像フレームごとに設定された指定範囲に基づいて照合範囲を調整する。表示情報生成部は、追跡対象に照合範囲が対応付けられた追跡画像を画像フレームごとに生成する。
本実施形態の一態様において、指定範囲取得部は、少なくとも二つの画像フレームにおいて指定された実空間における近接範囲を指定範囲として取得する。追跡部は、近接範囲の内部における実空間の位置座標を計算に入れて少なくとも二つの画像フレームに照合範囲を設定し、少なくとも二つの画像フレームに設定された照合範囲を追跡対象に対応付ける。
本実施形態の一態様において、端末装置は、少なくとも一つの追跡画像が表示される画像表示領域を表示機器の画面上に設定する。端末装置は、画像表示領域に表示された追跡画像において指定範囲の指定を受け付け、追跡画像において指定された指定範囲を追跡装置に出力する。端末装置は、指定範囲の設定に基づいて更新された追跡画像を追跡装置から取得し、更新された追跡画像を表示機器の画面に表示させる。例えば、端末装置は、少なくとも二つの追跡画像を画像表示領域に表示させ、少なくとも二つの追跡画像に亘る近接範囲の指定を受け付け、少なくとも二つの追跡画像において指定された近接範囲を指定範囲として追跡装置に出力する。
本実施形態によれば、異なる監視カメラによって撮影された少なくとも二つの画像フレームに指定された近接範囲と重なる照合範囲を実空間のシーンに合わせて調整するので、実空間のシーンに合わせて精度よく追跡対象を追尾することが可能になる。例えば、本実施形態によれば、異なる監視カメラによって撮影された映像間で視野が重なっている場合、複雑な計算をせずに、異なる映像間の共通部分を直感的に指定できる。
(第3の実施形態)
次に、第3の実施形態に係る追跡装置について図面を参照しながら説明する。本実施形態の追跡装置は、第1~第2の実施形態の追跡装置を簡略化した構成である。
図24は、本実施形態の追跡装置30の構成の一例を示すブロック図である。追跡装置30は、追跡部33、表示情報生成部34、および指定範囲取得部36を有する。
指定範囲取得部36は、映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する。追跡部33は、映像データから検証対象の画像フレームを抽出し、抽出された画像フレームごとに追跡対象を検出し、検出された追跡対象に対して照合範囲を設定し、画像フレームごとに設定された指定範囲に基づいて照合範囲を調整する。表示情報生成部34は、追跡対象に照合範囲が対応付けられた追跡画像を画像フレームごとに生成する。
以上のように、本実施形態の追跡装置は、追跡部、表示情報生成部、および指定範囲取得部を備える。指定範囲取得部は、映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する。追跡部は、映像データから検証対象の画像フレームを抽出し、抽出された画像フレームごとに追跡対象を検出し、検出された追跡対象に対して照合範囲を設定し、画像フレームごとに設定された指定範囲に基づいて照合範囲を調整する。表示情報生成部は、追跡対象に照合範囲が対応付けられた追跡画像を画像フレームごとに生成する。
本実施形態によれば、実空間のシーンに合わせて追跡対象ごとの照合範囲を調整するので、実空間のシーンに合わせて精度よく追跡対象を追尾することが可能になる。
(ハードウェア)
ここで、本発明の各実施形態の追跡装置や端末装置を実現するハードウェア構成について、図23のコンピュータ90を一例として挙げて説明する。なお、図23のコンピュータ90は、各実施形態の追跡装置や端末装置を実現するための構成例であって、本発明の範囲を限定するものではない。
図23のように、コンピュータ90は、プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95、および通信インターフェース96を備える。図23においては、インターフェースをI/F(Interface)と略して表記する。プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95、および通信インターフェース96は、バス98を介して互いにデータ通信可能に接続される。また、プロセッサ91、主記憶装置92、補助記憶装置93および入出力インターフェース95は、通信インターフェース96を介して、インターネットやイントラネットなどのネットワークに接続される。
プロセッサ91は、補助記憶装置93等に格納されたプログラムを主記憶装置92に展開し、展開されたプログラムを実行する。本実施形態においては、コンピュータ90にインストールされたソフトウェアプログラムを用いる構成とすればよい。プロセッサ91は、本実施形態の追跡装置や端末装置による処理を実行する。
主記憶装置92は、プログラムが展開される領域を有する。主記憶装置92は、例えばDRAM(Dynamic Random Access Memory)などの揮発性メモリとすればよい。また、MRAM(Magnetoresistive Random Access Memory)などの不揮発性メモリを主記憶装置92として構成・追加してもよい。
補助記憶装置93は、種々のデータを記憶する。補助記憶装置93は、ハードディスクやフラッシュメモリなどのローカルディスクによって構成される。なお、種々のデータを主記憶装置92に記憶させる構成とし、補助記憶装置93を省略することも可能である。
入出力インターフェース95は、コンピュータ90と周辺機器とを接続するためのインターフェースである。通信インターフェース96は、規格や仕様に基づいて、インターネットやイントラネットなどのネットワークを通じて、外部のシステムや装置に接続するためのインターフェースである。入出力インターフェース95および通信インターフェース96は、外部機器と接続するインターフェースとして共通化してもよい。
コンピュータ90には、必要に応じて、キーボードやマウス、タッチパネルなどの入力機器を接続するように構成してもよい。それらの入力機器は、情報や設定の入力に使用される。なお、タッチパネルを入力機器として用いる場合は、表示機器の画面が入力機器のインターフェースを兼ねる構成とすればよい。プロセッサ91と入力機器との間のデータ通信は、入出力インターフェース95に仲介させればよい。
また、コンピュータ90には、情報を表示するための表示機器を備え付けてもよい。表示機器を備え付ける場合、コンピュータ90には、表示機器の表示を制御するための表示制御装置(図示しない)が備えられていることが好ましい。表示機器は、入出力インターフェース95を介してコンピュータ90に接続すればよい。
以上が、各実施形態の追跡装置や端末装置を可能とするためのハードウェア構成の一例である。なお、図23のハードウェア構成は、各実施形態の追跡装置や端末装置を実現するためのハードウェア構成の一例であって、本発明の範囲を限定するものではない。また、各実施形態の追跡装置や端末装置に関する処理をコンピュータに実行させるプログラムも本発明の範囲に含まれる。さらに、各実施形態に係るプログラムを記録した記録媒体も本発明の範囲に含まれる。記録媒体は、例えば、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光学記録媒体で実現できる。また、記録媒体は、USB(Universal Serial Bus)メモリやSD(Secure Digital)カードなどの半導体記録媒体や、フレキシブルディスクなどの磁気記録媒体、その他の記録媒体によって実現してもよい。プロセッサが実行するプログラムが記録媒体に記録されている場合、その記録媒体が記録媒体に相当する。
各実施形態の追跡装置や端末装置の構成要素は、任意に組み合わせることができる。また、各実施形態の追跡装置や端末装置の構成要素は、ソフトウェアによって実現してもよいし、回路によって実現してもよい。
以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 追跡システム
10、20 追跡装置
11 映像取得部
12 映像記憶部
13、23 追跡部
14、24 表示情報生成部
15 表示情報出力部
16、26 指定範囲取得部
110 監視カメラ
120 端末装置
121 表示情報取得部
122 表示情報記憶部
123 表示部
124 入力部
127 入力機器
130 表示機器

Claims (10)

  1. 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、
    前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、
    前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備え、
    前記指定範囲取得手段は、
    前記画像フレームを表示する画面上で指定された除外範囲を前記指定範囲として取得し、
    前記追跡手段は、
    前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移すように設定する追跡装置。
  2. 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、
    前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、
    前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備え、
    前記追跡手段は、
    前記画像フレームから抽出される特徴量に基づいて前記画像フレームに除外範囲を指定し、前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移すように設定する追跡装置。
  3. 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、
    前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、
    前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備え、
    前記指定範囲取得手段は、
    少なくとも二つの前記画像フレームにおいて指定された実空間における近接範囲を前記指定範囲として取得し、
    前記追跡手段は、
    前記近接範囲の内部における実空間の位置座標を計算に入れて少なくとも二つの前記画像フレームに前記照合範囲を設定し、少なくとも二つの前記画像フレームに設定された前記照合範囲を前記追跡対象に対応付ける追跡装置。
  4. 請求項1乃至のいずれか一項に記載の追跡装置と、
    監視対象範囲を撮影して前記映像データを生成する少なくとも一つの監視カメラと、
    前記追跡装置によって生成される前記追跡画像を表示させる画面を有する表示機器に接続される端末装置と、を備える追跡システム。
  5. 前記端末装置は、
    少なくとも一つの前記追跡画像が表示される画像表示領域を前記表示機器の画面上に設定し、
    前記画像表示領域に表示された前記追跡画像において前記指定範囲の指定を受け付け、
    前記追跡画像において指定された前記指定範囲を前記追跡装置に出力し、
    前記指定範囲の設定に基づいて更新された前記追跡画像を前記追跡装置から取得し、
    更新された前記追跡画像を前記表示機器の画面に表示させる請求項に記載の追跡システム。
  6. 前記端末装置は、
    少なくとも一つの前記追跡画像を前記画像表示領域に表示させ、
    前記追跡画像において除外範囲の指定を受け付け、
    前記追跡画像において指定された前記除外範囲を前記指定範囲として前記追跡装置に出力する請求項に記載の追跡システム。
  7. 前記端末装置は、
    少なくとも二つの前記追跡画像を前記画像表示領域に表示させ、
    少なくとも二つの前記追跡画像に亘る近接範囲の指定を受け付け、
    少なくとも二つの前記追跡画像において指定された前記近接範囲を前記指定範囲として前記追跡装置に出力する請求項に記載の追跡システム。
  8. 映像データを構成する複数の画像フレームごとに指定された指定範囲を取得する指定範囲取得手段と、前記映像データから検証対象の前記画像フレームを抽出し、抽出された前記画像フレームごとに追跡対象を検出し、検出された前記追跡対象に対して照合範囲を設定し、前記画像フレームごとに設定された前記指定範囲に基づいて前記照合範囲を調整する追跡手段と、前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する表示情報生成手段と、を備える追跡装置と、
    監視対象範囲を撮影して前記映像データを生成する少なくとも一つの監視カメラと、
    前記追跡装置によって生成される前記追跡画像を表示させる画面を有する表示機器に接続される端末装置と、を備え、
    前記端末装置は、
    少なくとも二つの前記追跡画像を画像表示領域に表示させ、
    少なくとも二つの前記追跡画像に亘る近接範囲の指定を受け付け、
    少なくとも二つの前記追跡画像において指定された前記近接範囲を前記指定範囲として前記追跡装置に出力する追跡システム。
  9. コンピュータが、
    映像データが表示された画面上で指定された除外範囲を取得し、
    前記映像データから検証対象の画像フレームを抽出し、
    抽出された前記画像フレームごとに追跡対象を検出し、
    検出された前記追跡対象に対して照合範囲を設定し、
    前記画像フレームごとに設定された前記除外範囲に基づいて前記照合範囲を調整し、
    前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移し、
    前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する追跡方法。
  10. 映像データが表示された画面上で指定された除外範囲を取得する処理と、
    前記映像データから検証対象の画像フレームを抽出する処理と、
    抽出された前記画像フレームごとに追跡対象を検出する処理と、
    検出された前記追跡対象に対して照合範囲を設定する処理と、
    前記画像フレームごとに設定された前記除外範囲に基づいて前記照合範囲を調整する処理と、
    前記追跡対象に対して前記除外範囲の対向側の位置に、前記除外範囲と重なる前記照合範囲を移す処理と、
    前記追跡対象に前記照合範囲が対応付けられた追跡画像を前記画像フレームごとに生成する処理と、をコンピュータに実行させるプログラム。
JP2022529148A 2020-06-01 2020-06-01 追跡装置、追跡システム、追跡方法、およびプログラム Active JP7359306B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/021605 WO2021245749A1 (ja) 2020-06-01 2020-06-01 追跡装置、追跡方法、および記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021245749A1 JPWO2021245749A1 (ja) 2021-12-09
JPWO2021245749A5 JPWO2021245749A5 (ja) 2023-02-15
JP7359306B2 true JP7359306B2 (ja) 2023-10-11

Family

ID=78830979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022529148A Active JP7359306B2 (ja) 2020-06-01 2020-06-01 追跡装置、追跡システム、追跡方法、およびプログラム

Country Status (3)

Country Link
US (1) US20230206468A1 (ja)
JP (1) JP7359306B2 (ja)
WO (1) WO2021245749A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008259161A (ja) 2007-03-13 2008-10-23 Victor Co Of Japan Ltd 目標追尾装置
WO2011021588A1 (ja) 2009-08-20 2011-02-24 日本電気株式会社 移動体軌跡識別システム
JP2012159957A (ja) 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
WO2015098442A1 (ja) 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
WO2016098720A1 (ja) 2014-12-15 2016-06-23 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008259161A (ja) 2007-03-13 2008-10-23 Victor Co Of Japan Ltd 目標追尾装置
WO2011021588A1 (ja) 2009-08-20 2011-02-24 日本電気株式会社 移動体軌跡識別システム
JP2012159957A (ja) 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
WO2015098442A1 (ja) 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
WO2016098720A1 (ja) 2014-12-15 2016-06-23 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Also Published As

Publication number Publication date
US20230206468A1 (en) 2023-06-29
JPWO2021245749A1 (ja) 2021-12-09
WO2021245749A1 (ja) 2021-12-09

Similar Documents

Publication Publication Date Title
JP6273685B2 (ja) 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP5950973B2 (ja) フレームを選択する方法、装置、及びシステム
US7940957B2 (en) Object tracker for visually tracking object motion
JP5688456B2 (ja) 熱画像座標を用いた保安用カメラ追跡監視システム及び方法
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6364743B2 (ja) 情報処理装置、制御方法、プログラム、及び情報システム
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
US8571274B2 (en) Person-judging device, method, and program
KR20190005765A (ko) 화상 처리장치, 화상 처리방법 및 프로그램
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
JP5001930B2 (ja) 動作認識装置及び方法
JP2017017431A (ja) 画像処理装置、情報処理方法及びプログラム
JP6500500B2 (ja) 画像判定装置、画像判定方法、及びプログラム
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
JP6868061B2 (ja) 人物追跡方法、装置、機器及び記憶媒体
KR20220024494A (ko) 사람의 단안 깊이 추정을 위한 방법 및 시스템
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
KR101648786B1 (ko) 객체 인식 방법
JP2002366958A (ja) 画像認識方法および画像認識装置
Zhang et al. Robust multi-view multi-camera face detection inside smart rooms using spatio-temporal dynamic programming
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
JP7359306B2 (ja) 追跡装置、追跡システム、追跡方法、およびプログラム
JP6819689B2 (ja) 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体
US10482641B2 (en) Virtual reality display
KR20210091033A (ko) 객체 정보 추정과 가상 객체 생성을 위한 전자 장치 및 전자 장치의 동작 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R151 Written notification of patent or utility model registration

Ref document number: 7359306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151