JP2009098774A - 人物追跡システム及び人物追跡方法及び人物追跡プログラム - Google Patents

人物追跡システム及び人物追跡方法及び人物追跡プログラム Download PDF

Info

Publication number
JP2009098774A
JP2009098774A JP2007267755A JP2007267755A JP2009098774A JP 2009098774 A JP2009098774 A JP 2009098774A JP 2007267755 A JP2007267755 A JP 2007267755A JP 2007267755 A JP2007267755 A JP 2007267755A JP 2009098774 A JP2009098774 A JP 2009098774A
Authority
JP
Japan
Prior art keywords
person
tracking
unit
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007267755A
Other languages
English (en)
Inventor
Yoshiomi Yamashita
善臣 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007267755A priority Critical patent/JP2009098774A/ja
Publication of JP2009098774A publication Critical patent/JP2009098774A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】特定の人物の追跡中に、その人物を見失ったり、誤った人物を追跡したりする、という事態が起こったときに、当該事態に迅速に対処するための手段を提供することを目的とする。
【解決手段】特徴抽出部103は、追跡対象となる人物の特徴を示す第1の特徴データを特徴DB104に記録する。また、特徴抽出部103は、複数の監視カメラのいずれかで撮影された画像に写された少なくとも1人の人物の特徴を示す第2の特徴データを生成する。照合部105は、第2の特徴データを第1の特徴データと照合し、当該照合結果に基づいて上記少なくとも1人の人物が追跡対象の人物である確度を計算する。追跡処理部106は、上記少なくとも1人の人物に、確度が所定の数値範囲内となる人物が含まれる場合、画面上で当該人物を強調表示して当該人物が追跡対象の人物であるか否かをユーザに判断させる。
【選択図】図1

Description

本発明は、人物追跡システム及び人物追跡方法及び人物追跡プログラムに関するものである。本発明は、特に、画像情報を用いて人物を追跡するシステムに関するものである。
従来、複数のカメラで対象空間を監視するシステムにおいて、監視員が任意の映像ウィンドウ内の追跡対象をポインティングデバイスによって選択すると、メインウィンドウに移動経路を表示し、その経路上で追跡対象が通過したカメラを強調表示するものがあった(例えば、特許文献1参照)。
特開2006−146378号公報(図19)
従来のシステムにおいて人物を追跡する場合、的確に追跡対象の人物を追跡できる場合には、上記のように移動経路や通過カメラを表示することにより、監視員の負荷を下げることができる。しかしながら、現実には、追跡対象の人物の隠れや交差、向きや画面上の大きさの変化などが発生した場合には、追跡対象の人物を見失ったり、誤った人物を追跡したりする、という事態が起こりやすい。従来のシステムは、単に追跡対象の人物を指定することはできるが、追跡中に起こる上記のような事態に対処する手段を備えておらず、監視員が上記のような事態に迅速に対処できない、という課題があった。
本発明は、例えば、特定の人物の追跡中に、その人物を見失ったり、誤った人物を追跡したりする、という事態が起こったときに、当該事態に迅速に対処するための手段を提供することを目的とする。そして、そのような事態が起こったときの監視者の負荷を軽減することを目的とする。
本発明の一の態様に係る人物追跡システムは、
複数の監視カメラの各々で撮影された画像を解析して追跡対象の人物の位置を認識し、当該位置を時系列に示す追跡データを記憶装置に記録する人物追跡システムにおいて、
前記追跡対象となる人物を写した第1の画像を入力装置から入力する画像入力部と、
前記画像入力部が入力した第1の画像を処理装置により解析して前記追跡対象となる人物の特徴を抽出し、当該特徴を示す第1の特徴データを記憶装置に記録する特徴抽出部とを備え、
前記画像入力部は、前記複数の監視カメラのいずれかで撮影された画像であって少なくとも1人の人物を写した第2の画像を入力し、
前記特徴抽出部は、前記画像入力部が入力した第2の画像を処理装置により解析して前記少なくとも1人の人物の特徴を抽出し、当該特徴を示す第2の特徴データを生成し、
前記人物追跡システムは、さらに、
前記特徴抽出部が生成した第2の特徴データを前記特徴抽出部が記憶装置に記録した第1の特徴データと照合し、当該照合結果に基づいて前記少なくとも1人の人物が前記追跡対象の人物である確度を処理装置により計算する照合部と、
前記少なくとも1人の人物に、前記照合部が計算した確度が所定の数値範囲の上限値より高い人物が含まれる場合、当該人物が前記追跡対象の人物であると判断し、前記第2の画像が撮影された時点における当該人物の位置を示す位置データを前記追跡データの一部として記憶装置に記録する追跡処理部であって、前記少なくとも1人の人物に、前記照合部が計算した確度が前記所定の数値範囲内となる人物が含まれる場合、前記第2の画像を表示した画面上で当該人物を強調表示して当該人物が前記追跡対象の人物であるか否かをユーザに判断させ、当該人物が前記追跡対象の人物であるとユーザが判断した場合には、前記位置データを前記追跡データの一部として記憶装置に記録する追跡処理部とを備えることを特徴とする。
本発明の一の態様によれば、人物追跡システムにおいて、特徴抽出部が、追跡対象となる人物の特徴を示す第1の特徴データを記録するとともに、複数の監視カメラのいずれかで撮影された画像に写された少なくとも1人の人物の特徴を示す第2の特徴データを生成し、照合部が、第2の特徴データを第1の特徴データと照合し、当該照合結果に基づいて前記少なくとも1人の人物が前記追跡対象の人物である確度を計算し、追跡処理部が、前記少なくとも1人の人物に、確度が所定の数値範囲内となる人物が含まれる場合、画面上で当該人物を強調表示して当該人物が前記追跡対象の人物であるか否かをユーザに判断させることにより、前記追跡対象の人物の追跡中に、その人物を見失ったり、誤った人物を追跡したりする、という事態が起こったときの監視者(ユーザ)の負荷を軽減することが可能となる。
以下、本発明の実施の形態について、図を用いて説明する。
実施の形態1.
図1は、本実施の形態に係る人物追跡システム100の構成を示すブロック図である。
図1において、人物追跡システム100は、画像入力部101、画像切出部102、特徴抽出部103、特徴DB104(特徴データベース)、照合部105、追跡処理部106、追跡対象人物指定MMIF部112(追跡対象人物指定マンマシンインタフェース部)、追跡対象人物指定部113を備える。追跡処理部106は、追跡DB107(追跡データベース)、追跡記録MMIF部108(追跡記録マンマシンインタフェース部)、追跡続行指示MMIF部109(追跡続行指示マンマシンインタフェース部)、追跡記録部110、追跡続行指示部111を有する。
また、人物追跡システム100は、記憶装置151、処理装置152、入力装置153、出力装置154などのハードウェア装置を備える(又はこれらのハードウェア装置が人物追跡システム100に接続される)。ハードウェア装置は人物追跡システム100の各部によって利用される。例えば、処理装置152は、人物追跡システム100の各部でデータや情報の演算、加工、読み取り、書き込みなどを行うために利用される。記憶装置151は、そのデータや情報を記憶するために利用される。また、入力装置153は、そのデータや情報を入力するために、出力装置154は、そのデータや情報を出力するために利用される。
人物追跡システム100は、例えば、ある施設内の監視を行うため、その施設内に設置された複数の監視カメラの各々で撮影された画像を処理装置152により解析する。そして、当該解析結果に基づき、追跡対象の人物P1の位置を認識し、当該位置を時系列に示す追跡データを記憶装置151に実装される追跡DB107に記録する。
まず、追跡対象となる人物P1の追跡が始まる前の各部の動作について説明する。
画像入力部101は、追跡対象となる人物P1を写した画像M1(第1の画像)を入力装置153から入力する。つまり、画像入力部101は、追跡対象人物P1を含む画像M1を入力する。この画像M1は、上記複数の監視カメラのいずれかで撮影された画像であってもよいし、追跡対象となる人物P1を人物追跡システム100に認識させるために予め作成されたものであってもよい。
追跡対象人物指定MMIF部112は、画像入力部101が入力した画像M1を示し、追跡対象となる人物P1の指定の入力をユーザから受け付けるための画面を出力装置154により表示する。
追跡対象人物指定部113は、追跡対象人物指定MMIF部112が表示した画面を介して、追跡対象となる人物P1の指定の入力をユーザから入力装置153により受け付ける。つまり、追跡対象人物指定部113は、追跡対象人物指定MMIF部112が表示した画像M1に写っている人物のうち、追跡対象となる人物P1をユーザに指定させる。
画像切出部102は、画像入力部101が入力した画像M1のうち、追跡対象人物指定部113がユーザに指定させた追跡対象となる人物P1を写した部分画像M1´を処理装置152により切出す。つまり、画像切出部102は、画像入力部101からの入力画像M1から追跡に必要な部分画像M1´を切出す。
特徴抽出部103は、画像切出部102が切出した部分画像M1´を処理装置152により解析して追跡対象となる人物P1の特徴を抽出する。そして、当該特徴を示す特徴データC1(第1の特徴データ)を記憶装置151に実装される特徴DB104に記録する。つまり、特徴抽出部103は、画像切出部102で切出された部分画像M1´から追跡対象人物P1の特徴を抽出し、特徴DB104は、この追跡対象人物P1の特徴を保存する。ここで、特徴抽出部103は、画像入力部101が入力した画像M1をそのまま解析して追跡対象となる人物P1の特徴を抽出してもよい。
次に、追跡対象の人物P1の追跡が始まった後の各部の動作について説明する。
画像入力部101は、複数の監視カメラのいずれかで撮影された画像M2(第2の画像)を入力装置153から入力する。この画像M2は、少なくとも1人の人物を写したものであればよいが、説明の便宜上、ここでは2人の人物を写したものであるとする。そして、そのうちの1人は追跡対象の人物P1、もう1人は別の人物P2であるとする。
画像切出部102は、画像入力部101が入力した画像M2のうち、人物を写した部分画像M2´を処理装置152により切出す。画像M2が2人以上の人物を写したものであれば、画像切出部102は、各人物について部分画像M2´を切出す。よって、画像切出部102は、ここでは追跡対象の人物P1、別の人物P2のそれぞれについて部分画像M2´を切出す。
特徴抽出部103は、画像切出部102が切出した部分画像M2´を処理装置152により解析して追跡対象となる人物P1及び別の人物P2の特徴を抽出する。そして、当該特徴を示す特徴データC2(第2の特徴データ)を、人物ごとに処理装置152により生成する。ここで、特徴抽出部103は、画像入力部101が入力した画像M2をそのまま解析して追跡対象となる人物P1及び別の人物P2の特徴を抽出してもよい。
照合部105は、特徴抽出部103が生成した特徴データC2の各々を特徴抽出部103が特徴DB104に記録した特徴データC1と照合する。そして、当該照合結果に基づいて、画像M2に写された2人の人物の各々が追跡対象の人物P1である確度(確信度)を処理装置152により計算する。照合部105は、この確度として、例えば部分画像M1´と部分画像M2´との特徴量の近似度を求める。通常、照合部105が追跡対象の人物P1についての特徴データC2を特徴データC1と照合した場合に計算される確度は高くなり、照合部105が別の人物P2についての特徴データC2を特徴データC1と照合した場合に計算される確度は低くなる。ここでは、例えば前者の確度S1を0.8、後者の確度S2を0.5とする。
追跡記録部110は、画像M2に写された2人の人物の中に、照合部105が計算した確度が所定の数値範囲の上限値より高い人物が含まれる場合、当該人物が追跡対象の人物P1であると判断する。そして、画像M2が撮影された時点における当該人物の位置を示す位置データを上記追跡データの一部として追跡DB107に記録する。つまり、追跡記録部110は、照合部105の結果を基に追跡状況を追跡DB107に時系列に記録する。例えば上記所定の数値範囲が0.5〜0.7に設定されていれば、確度S1は0.8であるから、上限値0.7より高い。よって、追跡記録部110は、画像M2に写された追跡対象の人物P1が追跡対象の人物P1であると正常に判断する。そして、画像M2が撮影された時点における当該人物P1の位置を示す位置データを追跡DB107に記録する。
追跡記録MMIF部108は、追跡中の状況を示す画面を出力装置154により表示する。例えば、追跡記録MMIF部108は、画像入力部101が入力した画像M2、追跡記録部110が追跡DB107に記録した追跡データから割り出される追跡対象の人物P1の移動経路などを表示する。
追跡続行指示MMIF部109は、画像M2に写された2人の人物の中に、照合部105が計算した確度が上記所定の数値範囲の上限値より高い人物が含まれない場合、画像M2を表示した画面上及び/又はスピーカでユーザに対するアラームを通知する。
追跡続行指示MMIF部109は、画像M2に写された2人の人物の中に、照合部105が計算した確度が上記所定の数値範囲内となる人物が含まれる場合、画像M2を表示した画面上で当該人物を出力装置154により強調表示して、当該人物が追跡対象の人物P1であるか否かの判断をユーザに促す。例えば上記所定の数値範囲が0.6〜0.8に設定されていれば、確度S1は0.8であるから、上記所定の数値範囲内である。よって、追跡続行指示MMIF部109は、追跡記録部110の代わりにユーザに対し、画像M2に写された追跡対象の人物P1が本当に追跡対象の人物P1であるか否かの判断を画面上で促す。また、例えば上記所定の数値範囲が0.5〜0.7に設定されていれば、確度S2は0.5であるから、上記所定の数値範囲内である。よって、追跡続行指示MMIF部109は、追跡記録部110の代わりにユーザに対し、画像M2に写された別の人物P2が追跡対象の人物P1であるか否かの判断を画面上で促す。
追跡続行指示部111は、追跡続行指示MMIF部109が表示した画面を介して、ユーザの判断結果の入力をユーザから入力装置153により受け付ける。そして、当該判断結果において、画面上で強調表示された人物が追跡対象の人物P1であるとユーザが判断している場合には、各部に対し、当該人物を追跡するための処理を続行させる。
追跡記録部110は、追跡続行指示部111が入力を受け付けたユーザの判断結果において、画面上で強調表示された人物が追跡対象の人物P1であるとユーザが判断している場合には、画像M2が撮影された時点における当該人物の位置を示す位置データを上記追跡データの一部として追跡DB107に記録する。
図2は、人物追跡システム100のハードウェア資源の一例を示す図である。
図2において、人物追跡システム100は、CRT(Cathode・Ray・Tube)やLCD(液晶ディスプレイ)の表示画面を有する表示装置901、キーボード902(K/B)、マウス903(ポインティングデバイス)、FDD904(Flexible・Disk・Drive)、CDD905(Compact・Disc・Drive)、プリンタ装置906、スピーカ907などのハードウェア資源を備え、これらはケーブルや信号線で接続されている。人物追跡システム100は、コンピュータ及び周辺機器などの組み合わせで構成されており、LAN(ローカルエリアネットワーク)などのネットワークに接続されている。
人物追跡システム100は、プログラムを実行するCPU911(Central・Processing・Unit)(「演算装置」、「マイクロプロセッサ」、「マイクロコンピュータ」、「プロセッサ」ともいう)を備えている。CPU911は、処理装置152の一例である。CPU911は、バス912を介してROM913(Read・Only・Memory)、RAM914(Random・Access・Memory)、通信ボード915、表示装置901、キーボード902、マウス903、FDD904、CDD905、プリンタ装置906、スピーカ907、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカードリーダライタなどの記憶媒体が用いられてもよい。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶装置151の一例である。通信ボード915、表示装置901(タッチパネルの場合)、キーボード902、マウス903、FDD904、CDD905などは、入力装置153の一例である。また、通信ボード915、表示装置901、プリンタ装置906、スピーカ907などは、出力装置154の一例である。
通信ボード915は、LANなどに接続されている。通信ボード915は、LANに限らず、インターネット、あるいは、IP−VPN(Internet・Protocol・Virtual・Private・Network)、広域LAN、ATM(Asynchronous・Transfer・Mode)ネットワークなどのWAN(ワイドエリアネットワーク)などに接続されていても構わない。
磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。プログラム群923には、本実施の形態の説明において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。また、ファイル群924には、本実施の形態の説明において、「〜データ」、「〜情報」、「〜ID(識別子)」、「〜フラグ」、「〜結果」として説明するデータや情報や信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」や「〜テーブル」の各項目として記憶されている。「〜ファイル」や「〜データベース」や「〜テーブル」は、ディスクやメモリなどの記憶媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶されたデータや情報や信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理(動作)に用いられる。抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理中、データや情報や信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、本実施の形態の説明において用いるブロック図やフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号は、RAM914などのメモリ、FDD904のフレキシブルディスク(FD)、CDD905のコンパクトディスク(CD)、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク(MD)、DVD(Digital・Versatile・Disc)などの記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体により伝送される。
また、本実施の形態の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜工程」、「〜手順」、「〜処理」であってもよい。即ち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。あるいは、ソフトウェアのみ、あるいは、素子・デバイス・基板・配線などのハードウェアのみ、あるいは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実現されていても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどの記録媒体に記憶される。このプログラムはCPU911により読み出され、CPU911により実行される。即ち、プログラムは、本実施の形態の説明で述べる「〜部」としてコンピュータを機能させるものである。あるいは、本実施の形態の説明で述べる「〜部」の手順や方法をコンピュータに実行させるものである。
以下では、説明をより具体的にするため、人物追跡システム100が図2に例示したコンピュータとハードウェア資源により実現されているものとする。
以下、本実施の形態に係る人物追跡システム100の動作(人物追跡方法)について、図3のフローチャートを用いて説明する。
図3のフローチャートに示したフローは、人物追跡システム100を実現するコンピュータ上で実行されるプログラム(人物追跡プログラム)の処理手順に相当する。この処理手順において、人物追跡プログラムは、例えば、以下に示す各処理をコンピュータに実行させる。
人物追跡を開始する前に、追跡対象人物指定部113は、追跡対象となる人物P1をユーザに決定させる。
追跡対象人物指定部113は、画像入力部101をCPU911により制御して画像M1を入力し、追跡対象人物指定MMIF部112により表示装置901の画面に表示する(ステップS101:画像入力処理)。そして、追跡対象人物指定部113は、画面に表示された画像M1を見たユーザに対象人物P1をキーボード902やマウス903で指定させる(ステップS102:追跡対象人物指定処理)。この指定操作を受けて追跡対象人物指定部113は画像切出部102をCPU911により制御して追跡対象人物P1の部分画像M1´を画像M1から切出し、追跡対象人物指定MMIF部112により表示装置901の画面に表示する(ステップS103:画像切出処理)。同時に、追跡対象人物指定部113は特徴抽出部103をCPU911により制御して追跡対象人物P1の特徴情報C1を抽出し、追跡対象人物指定MMIF部112により表示装置901の画面に表示する(ステップS104:特徴抽出処理)。追跡対象人物指定部113は、追跡対象人物指定MMIF部112により表示された情報をユーザに確認させ、対象人物P1が正しくシステム(追跡対象人物指定部113)に認識されていれば人物指定を確認したことをキーボード902やマウス903で入力させる。さらに、追跡対象人物指定部113は、追跡対象人物指定MMIF部112により表示された特徴情報C1から重視すべき特徴をユーザに選択させ、キーボード902やマウス903で入力させる。この後、追跡対象人物指定部113は、ユーザに追跡開始指示をキーボード902やマウス903で入力させる。この入力操作を受けて、追跡対象人物指定部113は画像入力部101、画像切出部102、特徴抽出部103に決定した追跡対象人物P1の情報を設定し、人物追跡処理をCPU911により起動する。特徴抽出部103は、さらに特徴DB104に追跡対象人物P1の特徴情報(特徴データ)C1を記録する。
人物追跡処理が起動されると、画像入力部101は画像M2を入力し(ステップS105:画像入力処理)、画像切出部102は入力画像M2から追跡対象人物P1を含む部分画像M2´を切出す(ステップS106:画像切出処理)。そして、特徴抽出部103は特徴情報C2を抽出し(ステップS107:特徴抽出処理)、照合部105は特徴抽出部103からの特徴情報(特徴データ)C2と特徴DB104内の特徴情報C1とを照合し、追跡対象人物P1の位置と照合の確度S1とをCPU911により計算する(ステップS108:照合処理)。
照合部105が計算した確度S1が規定のレベル(このレベルは、運用前に予め決定しておく)より高い場合には、追跡記録部110は、移動速度、移動方向などの情報をCPU911により算出した後、これらの情報と照合部105が計算した追跡対象人物P1の位置や確度S1をまとめて時系列デ一タ(追跡データ)として追跡DB107に記録する(ステップS109:追跡記録処理)。同時に、追跡記録部110は、時系列デ一タを基に、追跡状況を追跡記録MMIF部108により表示装置901の画面に表示する。追跡続行指示部111は、追跡DB107内の時系列データを基に、次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報(追跡を続行することを示すメッセージなど)を表示装置901の画面に表示する。
照合部105が計算した確度S1が規定のレベルより低い場合には(著しく低い場合には処理を停止してもよい)、追跡続行指示部111は、現在の追跡状況を追跡続行指示MMIF部109により表示装置901の画面に表示し、アラームを同じ画面上及び/又はスピーカ907で出力してユーザの注意を喚起した後、ユーザの判断を待つために停止する。そして、追跡続行指示部111は、ユーザに現在の追跡状況を確認させ、追跡対象人物P1が正しく認識されているかどうか判断させる。追跡続行指示部111は、ユーザに追跡対象人物P1が正しく認識されているかどうかの判断結果として、追跡続行の指示をキーボード902やマウス903で入力させる。追跡対象人物P1が正しく認識されているとユーザが判断し、追跡続行の指示の入力があった場合、この入力操作を受けて、追跡記録部110は、移動速度、移動方向などの情報をCPU911により算出した後、これらの情報と照合部105が計算した追跡対象人物P1の位置や確度S1をまとめて時系列デ一タとして追跡DB107に記録する(ステップS109:追跡記録処理)。追跡続行指示部111は、追跡DB107内の時系列データを基に、次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報を表示装置901の画面に表示する。
人物追跡システム100は、上記ステップS105〜S110の動作を繰り返し実行する。
上記ステップS109では、照合部105が計算した確度S1が規定のレベルより高い場合、あるいは、ユーザによる追跡続行の指示の入力があった場合のみ、追跡記録部110が時系列デ一タを追跡DB107に記録するが、追跡記録部110が常に時系列デ一タを追跡DB107に記録するようにしてもよい。以下、本実施の形態の変形例について説明する。
上記ステップS108の後、追跡記録部110は、移動速度、移動方向などの情報をCPU911により算出し、これらの情報と照合部105が計算した追跡対象人物P1の位置や確度S1をまとめて時系列デ一タとして追跡DB107に記録する(ステップS109:追跡記録処理)。同時に、追跡記録部110は、時系列デ一タを基に、追跡状況を追跡記録MMIF部108により表示装置901の画面に表示する。
追跡DB107内の時系列データの確度S1が規定のレベルより高い場合には、追跡続行指示部111は、追跡DB107内の時系列データを基に、次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報を表示装置901の画面に表示する。
追跡DB107内の時系列データの確度S1が規定のレベルより低い場合には、追跡続行指示部111は、追跡DB107内の時系列データを基に、次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき仮の部分画像領域を指示して切出処理を仮に実行させた後、現在の追跡状況とともに仮の画像切出し結果を追跡続行指示MMIF部109により表示装置901の画面に表示し、アラームを同じ画面上及び/又はスピーカ907で出力してユーザの注意を喚起した後、ユーザの判断を待つために停止する。そして、追跡続行指示部111は、ユーザに現在の追跡状況を確認させ、追跡対象人物P1が正しく認識されているかどうか判断させる。追跡続行指示部111は、ユーザに追跡対象人物P1が正しく認識されているかどうかの判断結果として、追跡続行の指示をキーボード902やマウス903で入力させる。追跡対象人物P1が正しく認識されているとユーザが判断し、追跡続行の指示の入力があった場合、この入力操作を受けて、追跡続行指示部111は、追跡DB107内の時系列データを基に、次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報を表示装置901の画面に表示する。
このように、本実施の形態では、追跡対象人物の照合結果に応じて、人の判断を加えながら人物追跡を実行する。この結果、人物追跡システムにおける誤認識の発生を的確に検出し、人物追跡への影響を未然に防ぎ、効率よくより正確な人物追跡を可能とし、人の負荷の低減を可能にすることができる。
実施の形態2.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態に係る人物追跡システム100の構成は、実施の形態1で図1に示したものと同様である。
図4、図5は、本実施の形態に係る人物追跡システム100の追跡対象人物指定MMIF部112が表示する画面の一例を示す図である。
図4において、追跡対象人物指定MMIF部112が表示する追跡対象人物選択パネル201は、追跡対象の人物P1、別の人物P2、P3を写した画像M1を示している。また、追跡対象人物選択パネル201は、ユーザが追跡対象人物P1を選択するためのマウス903のポインタ202、ユーザが追跡対象人物P1を決定したことを追跡対象人物指定部113に通知するための人物指定確定ボタン203を示している。追跡対象人物選択パネル201は、画像M1の代わりに、部分画像M1´を示していてもよい。
図5において、追跡対象人物指定MMIF部112が表示する追跡対象人物確認パネル301は、追跡対象の人物P1、別の人物P2、P3を写した画像M1を示している。また、追跡対象人物確認パネル301は、選択されている人物を明示するための追跡対象人物切出枠302、特徴抽出部103が抽出した当該人物の特徴情報C1、ユーザが重視する特徴を選択するためのマウス903のポインタ303、ユーザが追跡対象人物P1を確認したことを追跡対象人物指定部113に通知するための人物指定確認ボタン304、追跡対象人物P1の特に重視すべき特徴を決定したことを追跡対象人物指定部113に通知するための特徴指定確認ボタン305、追跡開始を追跡対象人物指定部113に通知するための追跡開始ボタン306を示している。
以下、本実施の形態に係る人物追跡システム100の動作(人物追跡方法)について、実施の形態1と同様に、図3のフローチャートを用いて説明する。
人物追跡を開始する前に、追跡対象人物指定部113は、追跡対象となる人物P1をユーザに決定させる。
追跡対象人物指定部113は、画像入力部101をCPU911により制御して画像M1を入力し、追跡対象人物指定MMIF部112により表示装置901の追跡対象人物選択パネル20lに表示する(ステップS101:画像入力処理)。そして、追跡対象人物指定部113は、追跡対象人物選択パネル20lに表示された画像M1に写された人物P1、P2、P3の中から、追跡対象となる人物P1を、ユーザにマウス903のポインタ202で指定させ、人物指定確定ボタン203をクリックさせる(ステップS102:追跡対象人物指定処理)。この操作を受けて、追跡対象人物指定部113は、画像切出部102をCPU911により制御して追跡対象人物P1の部分画像M1´を画像M1から切出し、追跡対象人物P1のの部分画像M1´を追跡対象人物切出枠302で囲った状態で画像M1を、追跡対象人物指定MMIF部112により表示装置901の追跡対象人物確認パネル301に表示する。同時に、追跡対象人物指定部113は特徴抽出部103をCPU911により制御して追跡対象人物P1の特徴情報C1を抽出し、追跡対象人物指定MMIF部112により表示装置901の画面に表示する(ステップS104:特徴抽出処理)。追跡対象人物指定部113は、追跡対象人物確認パネル301に表示された情報をユーザに確認させ、対象人物P1が正しくシステム(追跡対象人物指定部113)に認識されていれば人物指定確認ボタン304をマウス903でクリックさせる。追跡対象人物指定部113は、さらに、追跡対象人物確認パネル301に表示された特徴情報C1から重視すべき特徴をユーザにマウス903のポインタ303で選択させ、特徴指定確認ボタン305をクリックさせる。この後、追跡対象人物指定部113は、ユーザに追跡開始ボタン306をクリックさせる。この操作を受けて、追跡対象人物指定部113は画像入力部101、画像切出部102、特徴抽出部103に決定した追跡対象人物P1の情報を設定し、人物追跡処理をCPU911により起動する。特徴抽出部103は、さらに特徴DB104に追跡対象人物P1の特徴情報C1を記録する。
このように、本実施の形態では、マウスなどを使って追跡対象人物の設定を容易にすることができる。
実施の形態3.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態に係る人物追跡システム100の構成は、実施の形態1で図1に示したものと同様である。
本実施の形態では、照合部105は、追跡記録部110が追跡DB107に記録した追跡データであって第1の時点における追跡対象の人物P1の位置を示す位置データを含む追跡データを処理装置152により分析して、第1の時点から一定時間経過した第2の時点における追跡対象の人物P1の位置を予測する。そして、照合部105は、当該予測結果と、特徴抽出部103が生成した特徴データC2の各々を特徴抽出部103が特徴DB104に記録した特徴データC1と照合した結果とに基づいて、画像M2に写された人物が追跡対象の人物P1である確度を処理装置152により計算する。
照合部105は、上記予測結果に基づいて、上記複数の監視カメラの中から第2の時点における追跡対象の人物P1の位置を撮影可能な監視カメラを選択し、画像入力部101に通知してもよい。この場合、画像入力部101は、照合部105が選択した監視カメラで第2の時点に撮影された画像M2を入力する。
図6は、本実施の形態に係る人物追跡システム100の追跡記録MMIF部108が表示する画面の一例を示す図である。
図6において、追跡記録MMIF部108が表示する追跡状況表示パネル401は、追跡対象の人物P1を写した画像M2を示している。また、追跡状況表示パネル401は、追跡記録部110が追跡DB107に最後に追跡データを記録した(正確には、画像M2が撮影された)時刻t(第1の時点)より一定時間前の時刻tn−1から、時刻tへの追跡対象人物P1の移動を示すベクトル402、時刻tから、時刻tより一定時間後の時刻tn+1(第2の時点)への追跡対象人物P1の移動を予測したベクトル403を示している。また、追跡状況表示パネル401は、選択されている人物を明示するための追跡対象人物切出枠404を示している。
図7は、追跡DB107に記録される人物追跡の状況を示す時系列情報(追跡データ)の一例を示す図である。
図7において、追跡データは、「ID」、「場所」、「移動方向」、「移動速度」、「確度」、「時刻」の項目からなる。「ID」は、それぞれの追跡データを一意に識別する識別子である。「場所」は、当該追跡データが対象とする人物が画像M2のどこに位置するかを示す情報である。「移動方向」、「移動速度」は、当該追跡データが対象とする人物の移動方向、移動速度を示す情報である。「確度」は、当該追跡データが対象とする人物が追跡対象の人物P1である確度を示す情報である。「時刻」は、当該追跡データが記録された(正確には、画像M2が撮影された)時刻を示す情報である。
以下、本実施の形態に係る人物追跡システム100の動作(人物追跡方法)について、実施の形態1と同様に、図3のフローチャートを用いて説明する。
ステップS104の後、人物追跡処理が起動されると、画像入力部101は時刻tに撮影された画像M2を入力し(ステップS105:画像入力処理)、画像切出部102は入力画像M2から追跡対象人物P1を含む部分画像M2´を切出す(ステップS106:画像切出処理)。そして、特徴抽出部103は特徴情報C2を抽出し(ステップS107:特徴抽出処理)、照合部105は特徴抽出部103からの特徴情報C2と特徴DB104内の特徴情報C1とを照合し、追跡対象人物P1の位置と照合の確度S1とをCPU911により計算する(ステップS108:照合処理)。
追跡記録部110は、移動速度、移動方向などの情報をCPU911により算出した後、これらの情報と照合部105が計算した追跡対象人物P1の位置や確度S1をまとめて時刻tにおける追跡デ一タとして追跡DB107に記録する(ステップS109:追跡記録処理)。同時に、追跡記録部110は、追跡デ一タを基に、追跡状況を追跡記録MMIF部108により表示装置901の追跡状況表示パネル401に表示する。
再度ステップS104の後、人物追跡処理が起動されると、画像入力部101は時刻tn+1に撮影された画像M2を入力し(ステップS105:画像入力処理)、画像切出部102は入力画像M2から追跡対象人物P1を含む部分画像M2´を切出す(ステップS106:画像切出処理)。そして、特徴抽出部103は特徴情報C2を抽出し(ステップS107:特徴抽出処理)、照合部105は特徴抽出部103からの特徴情報C2と特徴DB104内の特徴情報C1とを照合し、追跡対象人物P1の位置と照合の確度S1とをCPU911により計算する(ステップS108:照合処理)。また、照合部105は、追跡記録部110が追跡DB107に記録した時刻tにおける追跡データをCPU911により分析して、時刻tn+1における追跡対象の人物P1の位置を予測する。そして、照合部105は、当該予測結果と実際の追跡対象人物P1の位置とを比較して、照合の確度S1をCPU911により計算する。照合部105は、例えば、予測結果と実際の追跡対象人物P1の位置との距離を、照合の確度S1に対する重み付け係数として利用することができる。この場合、予測結果と実際の追跡対象人物P1の位置とが離れるほど、照合の確度S1が低下することになる。
このように、本実施の形態では、追跡対象人物の移動経路を同一画面上で移動方向・移動速度と同時に確認でき、追跡対象人物の動向を的確に把握することができる。また、照合の確度として、より適切な値を求めることができる。
実施の形態4.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態に係る人物追跡システム100の構成は、実施の形態1で図1に示したものと同様である。
以下、追跡対象の人物P1の追跡が始まった後の各部の動作について説明する。
画像入力部101は、複数の監視カメラのいずれかで撮影された画像M2を入力装置153から入力する。この画像M2は、2人以上の人物を写したものであればよいが、説明の便宜上、ここでは3人の人物を写したものであるとする。そして、そのうちの1人は追跡対象の人物P1、後の2人は別の人物P2、P3であるとする。
画像切出部102、特徴抽出部103、照合部105、追跡記録MMIF部108、追跡続行指示MMIF部109、追跡記録部110の動作は、実施の形態1と同様である。
追跡続行指示部111は、追跡続行指示MMIF部109が表示した画面を介して、ユーザの判断結果の入力をユーザから入力装置153により受け付ける。そして、当該判断結果において、画面上で強調表示された人物が追跡対象の人物P1でないとユーザが判断している場合には、追跡対象人物指定部113に対し、正しい追跡対象の人物P1を指定させる。追跡対象人物指定部113は、画像M2に写された3人の人物の中に追跡対象の人物P1が含まれる場合には、画面上で追跡対象の人物P1をユーザに指定させる。
追跡記録部110は、追跡対象人物指定部113がユーザに指定させた追跡対象の人物P1の画像M2が撮影された時点における位置を示す位置データを上記追跡データの一部として追跡DB107に記録する。
図8、図9は、本実施の形態に係る人物追跡システム100の追跡続行指示MMIF部109が表示する画面の一例を示す図である。
図8において、追跡続行指示MMIF部109が表示する追跡続行指示パネル501は、追跡対象の人物P1、別の人物P2、P3を写した画像M2を示している。また、追跡続行指示パネル501は、選択されている人物を明示するための追跡対象人物切出枠502、ユーザが追跡対象人物P1を選択するためのマウス903のポインタ503、ユーザが追跡対象人物P1を確認したことを追跡続行指示部111に通知するための人物指定確認ボタン504、ユーザが追跡続行を追跡続行指示部111に指示するための追跡続行ボタン505を示している。また、追跡続行指示パネル501は、追跡記録部110が追跡DB107に最後に追跡データを記録した(正確には、画像M2が撮影された)時刻t(第1の時点)より一定時間前の時刻tn−1から、時刻tへの追跡対象人物P1の移動を示すベクトル506、時刻tから、時刻tより一定時間後の時刻tn+1(第2の時点)への追跡対象人物P1の移動を予測したベクトル507のほか、時刻tn−1より一定時間前の時刻tn−2から、時刻tn−1への追跡対象人物P1の移動を示すベクトル508を示している。
図9は、図8とほとんど同様であるが、選択されている人物が追跡対象人物P1ではなく、別の人物P3となっている。
図8、図9の例のいずれにおいても、時刻tにおいて画像M2上で人物P1、P2、P3が重なり合っているため、追跡DB107内の時系列データの確度が規定のレベルより低くなっているものとする。
以下、本実施の形態に係る人物追跡システム100の動作(人物追跡方法)について、実施の形態1と同様に、図3のフローチャートを用いて説明する。
ステップS108の後、照合部105が計算した確度S1が規定のレベルより低い場合には、追跡続行指示部111は、現在の追跡状況を追跡続行指示MMIF部109により表示装置901の追跡続行指示パネル501に表示し、アラームを同じ画面上及び/又はスピーカ907で出力してユーザの注意を喚起した後、ユーザの判断を待つために停止する。そして、追跡続行指示部111は、ユーザに現在の追跡状況を確認させ、追跡対象人物P1が正しく認識されているかどうか判断させる。追跡続行指示部111は、ユーザに追跡対象人物P1が正しく認識されているかどうかの判断結果として、追跡続行の指示をキーボード902やマウス903で入力させる。図8の例では、追跡対象人物P1が正しく認識されているとユーザが判断するため、ユーザは、人物指定確認ボタン504をマウス903でクリックして追跡対象人物P1を確認したことを通知し、追跡続行ボタン505をマウス903でクリックして追跡続行指示部111に追跡続行を指示する。この操作を受けて、追跡続行指示部111は次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報を表示装置901の追跡続行指示パネル501に表示する。一方、図9の例では、追跡対象人物P1が正しく認識されていないとユーザが判断するため、ユーザは、マウス903のポインタ503で正しい人物P1を選択した後、人物指定確認ボタン504をマウス903でクリックして追跡対象人物P1を確認したことを通知し、追跡続行ボタン505をマウス903でクリックして追跡続行指示部111に追跡続行を指示する。図8の例と同様に、この操作を受けて、追跡続行指示部111は次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報を表示装置901の追跡続行指示パネル501に表示する。
実施の形態1と同様に、上記ステップS109で、追跡記録部110が常に時系列デ一タを追跡DB107に記録するようにしてもよい。以下、本実施の形態の変形例について説明する。
ステップS108の後、追跡記録部110は、移動速度、移動方向などの情報をCPU911により算出し、これらの情報と照合部105が計算した追跡対象人物P1の位置や確度S1をまとめて時系列デ一タとして追跡DB107に記録する(ステップS109:追跡記録処理)。同時に、追跡記録部110は、時系列デ一タを基に、追跡状況を追跡記録MMIF部108により表示装置901の画面に表示する。
追跡DB107内の時系列データの確度S1が規定のレベルより低い場合には、追跡続行指示部111は、追跡DB107内の時系列データを基に、次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき仮の部分画像領域を指示して切出処理を仮に実行させた後、現在の追跡状況とともに仮の画像切出し結果(図8、図9では、ベクトル508,506の延長線上にベクトル507を設定して時刻tn+1における人物P1、P3の位置を予測した例を示している)を追跡続行指示MMIF部109により表示装置901の追跡続行指示パネル501に表示し、アラームを同じ画面上及び/又はスピーカ907で出力してユーザの注意を喚起した後、ユーザの判断を待つために停止する。そして、追跡続行指示部111は、ユーザに現在の追跡状況を確認させ、追跡対象人物P1が正しく認識されているかどうか判断させる。追跡続行指示部111は、ユーザに追跡対象人物P1が正しく認識されているかどうかの判断結果として、追跡続行の指示をキーボード902やマウス903で入力させる。図8の例では、追跡対象人物P1が正しく認識されているとユーザが判断するため、ユーザは、人物指定確認ボタン504をマウス903でクリックして追跡対象人物P1を確認したことを通知し、追跡続行ボタン505をマウス903でクリックして追跡続行指示部111に追跡続行を指示する。この操作を受けて、追跡続行指示部111は次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報を表示装置901の追跡続行指示パネル501に表示する。一方、図9の例では、追跡対象人物P1が正しく認識されていないとユーザが判断するため、ユーザは、マウス903のポインタ503で正しい人物P1を選択した後、人物指定確認ボタン504をマウス903でクリックして追跡対象人物P1を確認したことを通知し、追跡続行ボタン505をマウス903でクリックして追跡続行指示部111に追跡続行を指示する。図8の例と同様に、この操作を受けて、追跡続行指示部111は次に取り込むべき画像情報を決定して画像入力部101に指示するとともに、画像切出部102に切出し対象とすべき部分画像領域を指示する(ステップS110:追跡続行指示処理)。同時に、追跡続行指示部111は、追跡続行指示MMIF部109により追跡続行指示情報を表示装置901の追跡続行指示パネル501に表示する。
このように、本実施の形態では、追跡対象人物の照合結果に応じて、人の判断を加えながら人物追跡を実行する。そして、人物追跡システムにおける誤認識の発生を的確に検出し、それを修正可能とすることで、人物追跡への影響を未然に防ぎ、効率よくより正確な人物追跡を可能とし、人の負荷の低減を可能にすることができる。
以上のように、実施の形態1から4までで説明した人物追跡システムは、画像情報を用いた人物追跡システムであって、人が直接画像を指定することで追跡対象の人物を指定できる追跡対象人物指定部、追跡中の人物を見失った場合にシステムが人にアラームで通知するとともに候補となる人物を提示する自動人物追跡部、人が候補の正誤を判断しシステムに対して正しければ追跡続行を、誤っていれば正しい人物を両面から直接指定して追跡続行を指示する追跡続行指示部、を備えたことにより、効率よくより正確な人物追跡を可能とし、人の負荷の低減を可能にするものである。
また、上記人物追跡システムは、人に画像を提示する手段、人が直接画像を指定する手段、指定された結果を人に提示し確認を求める手段、確認された人物の特徴を算出し、人に確認を求める手段とからなる追跡対象人物指定部を備えたことを特徴とする。
また、上記人物追跡システムは、時間的に連続した画像から指定された人物の動きを検出し次動作を予測して自動的に人物追跡を行う手段、追跡中の人物の確度を求め、見失った場合や確度が一定値以下に低下した場合に人にアラームで通知するとともに候補となる人物を提示する手段とからなる自動人物追跡部を備えたことを特徴とする。
また、上記人物追跡システムは、提示された追跡候補人物を確認する手段、追跡続行を指示する手段、追跡対象の人物を指定する手段からなる追跡続行指示部を備えたことを特徴とする。
上記のような特徴により、実施の形態1から4までに係る人物追跡システムによれば、人物追跡中に問題が発生した場合に、その状況を人に提示し、人の判断を加えながら人物追跡を実行することができる。この結果、人物追跡システムにおける誤認識の発生を的確に検出し、人物追跡への影響を未然に防ぎ、効率よくより正確な人物追跡を可能とし、人の負荷の低減を可能にすることができる。
以上、本発明の実施の形態について説明したが、これらのうち、2つ以上の実施の形態を組み合わせて実施しても構わない。あるいは、これらのうち、1つの実施の形態を部分的に実施しても構わない。あるいは、これらのうち、2つ以上の実施の形態を部分的に組み合わせて実施しても構わない。
実施の形態1に係る人物追跡システムの構成を示すブロック図である。 実施の形態1に係る人物追跡システムのハードウェア資源の一例を示す図である。 実施の形態1に係る人物追跡方法を示すフローチャートである。 実施の形態2に係る人物追跡システムの画面の一例を示す図である。 実施の形態2に係る人物追跡システムの画面の一例を示す図である。 実施の形態3に係る人物追跡システムの画面の一例を示す図である。 実施の形態3に係る人物追跡システムの追跡データの一例を示す図である。 実施の形態4に係る人物追跡システムの画面の一例を示す図である。 実施の形態4に係る人物追跡システムの画面の一例を示す図である。
符号の説明
100 人物追跡システム、101 画像入力部、102 画像切出部、103 特徴抽出部、104 特徴DB、105 照合部、106 追跡処理部、107 追跡DB、108 追跡記録MMIF部、109 追跡続行指示MMIF部、110 追跡記録部、111 追跡続行指示部、112 追跡対象人物指定MMIF部、113 追跡対象人物指定部、151 記憶装置、152 処理装置、153 入力装置、154 出力装置、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、907 スピーカ、910 システムユニット、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 オペレーティングシステム、922 ウィンドウシステム、923 プログラム群、924 ファイル群。

Claims (7)

  1. 複数の監視カメラの各々で撮影された画像を解析して追跡対象の人物の位置を認識し、当該位置を時系列に示す追跡データを記憶装置に記録する人物追跡システムにおいて、
    前記追跡対象となる人物を写した第1の画像を入力装置から入力する画像入力部と、
    前記画像入力部が入力した第1の画像を処理装置により解析して前記追跡対象となる人物の特徴を抽出し、当該特徴を示す第1の特徴データを記憶装置に記録する特徴抽出部とを備え、
    前記画像入力部は、前記複数の監視カメラのいずれかで撮影された画像であって少なくとも1人の人物を写した第2の画像を入力し、
    前記特徴抽出部は、前記画像入力部が入力した第2の画像を処理装置により解析して前記少なくとも1人の人物の特徴を抽出し、当該特徴を示す第2の特徴データを生成し、
    前記人物追跡システムは、さらに、
    前記特徴抽出部が生成した第2の特徴データを前記特徴抽出部が記憶装置に記録した第1の特徴データと照合し、当該照合結果に基づいて前記少なくとも1人の人物が前記追跡対象の人物である確度を処理装置により計算する照合部と、
    前記少なくとも1人の人物に、前記照合部が計算した確度が所定の数値範囲の上限値より高い人物が含まれる場合、当該人物が前記追跡対象の人物であると判断し、前記第2の画像が撮影された時点における当該人物の位置を示す位置データを前記追跡データの一部として記憶装置に記録する追跡処理部であって、前記少なくとも1人の人物に、前記照合部が計算した確度が前記所定の数値範囲内となる人物が含まれる場合、前記第2の画像を表示した画面上で当該人物を強調表示して当該人物が前記追跡対象の人物であるか否かをユーザに判断させ、当該人物が前記追跡対象の人物であるとユーザが判断した場合には、前記位置データを前記追跡データの一部として記憶装置に記録する追跡処理部とを備えることを特徴とする人物追跡システム。
  2. 前記画像入力部は、2人以上の人物を写した画像を前記第2の画像として入力し、
    前記追跡処理部は、前記2人以上の人物に、前記照合部が計算した確度が前記所定の数値範囲内となる人物が含まれる場合、前記画面上で当該人物を強調表示して当該人物が前記追跡対象の人物であるか否かをユーザに判断させ、当該人物が前記追跡対象の人物でないとユーザが判断した場合であって前記2人以上の人物に前記追跡対象の人物が含まれる場合には、前記画面上で前記追跡対象の人物をユーザに指定させ、前記第2の画像が撮影された時点におけるユーザ指定の人物の位置を示す位置データを前記追跡データの一部として記憶装置に記録することを特徴とする請求項1に記載の人物追跡システム。
  3. 前記照合部は、前記追跡処理部が記憶装置に記録した追跡データであって第1の時点における前記追跡対象の人物の位置を示す位置データを含む追跡データを処理装置により分析して前記第1の時点から一定時間経過した第2の時点における前記追跡対象の人物の位置を予測し、当該予測結果と前記照合結果とに基づいて前記少なくとも1人の人物が前記追跡対象の人物である確度を処理装置により計算することを特徴とする請求項1又は2に記載の人物追跡システム。
  4. 前記照合部は、前記予測結果に基づいて、前記複数の監視カメラの中から前記第2の時点における前記追跡対象の人物の位置を撮影可能な監視カメラを選択し、
    前記画像入力部は、前記照合部が選択した監視カメラで前記第2の時点に撮影された画像を前記第2の画像として入力することを特徴とする請求項3に記載の人物追跡システム。
  5. 前記追跡処理部は、前記少なくとも1人の人物に、前記照合部が計算した確度が所定の数値範囲の上限値より高い人物が含まれない場合、前記画面上及び/又はスピーカでユーザに対するアラームを通知することを特徴とする請求項1から4までのいずれかに記載の人物追跡システム。
  6. 複数の監視カメラの各々で撮影された画像を解析して追跡対象の人物の位置を認識し、当該位置を時系列に示す追跡データを記憶装置に記録する人物追跡方法において、
    コンピュータの画像入力部が、前記追跡対象となる人物を写した第1の画像を入力装置から入力し、
    コンピュータの特徴抽出部が、前記画像入力部が入力した第1の画像を処理装置により解析して前記追跡対象となる人物の特徴を抽出し、当該特徴を示す第1の特徴データを記憶装置に記録し、
    前記画像入力部が、前記複数の監視カメラのいずれかで撮影された画像であって少なくとも1人の人物を写した第2の画像を入力し、
    前記特徴抽出部が、前記画像入力部が入力した第2の画像を処理装置により解析して前記少なくとも1人の人物の特徴を抽出し、当該特徴を示す第2の特徴データを生成し、
    コンピュータの照合部が、前記特徴抽出部が生成した第2の特徴データを前記特徴抽出部が記憶装置に記録した第1の特徴データと照合し、当該照合結果に基づいて前記少なくとも1人の人物が前記追跡対象の人物である確度を処理装置により計算し、
    コンピュータの追跡処理部が、前記少なくとも1人の人物に、前記照合部が計算した確度が所定の数値範囲の上限値より高い人物が含まれる場合、当該人物が前記追跡対象の人物であると判断し、前記第2の画像が撮影された時点における当該人物の位置を示す位置データを前記追跡データの一部として記憶装置に記録し、
    前記追跡処理部が、前記少なくとも1人の人物に、前記照合部が計算した確度が前記所定の数値範囲内となる人物が含まれる場合、前記第2の画像を表示した画面上で当該人物を強調表示して当該人物が前記追跡対象の人物であるか否かをユーザに判断させ、当該人物が前記追跡対象の人物であるとユーザが判断した場合には、前記位置データを前記追跡データの一部として記憶装置に記録することを特徴とする人物追跡方法。
  7. 複数の監視カメラの各々で撮影された画像を解析して追跡対象の人物の位置を認識し、当該位置を時系列に示す追跡データを記憶装置に記録する人物追跡プログラムにおいて、
    前記追跡対象となる人物を写した第1の画像を入力装置から入力する画像入力手順と、
    前記画像入力手順が入力した第1の画像を処理装置により解析して前記追跡対象となる人物の特徴を抽出し、当該特徴を示す第1の特徴データを記憶装置に記録する特徴抽出手順とをコンピュータに実行させ、
    前記画像入力手順は、前記複数の監視カメラのいずれかで撮影された画像であって少なくとも1人の人物を写した第2の画像を入力し、
    前記特徴抽出手順は、前記画像入力手順が入力した第2の画像を処理装置により解析して前記少なくとも1人の人物の特徴を抽出し、当該特徴を示す第2の特徴データを生成し、
    前記人物追跡プログラムは、さらに、
    前記特徴抽出手順が生成した第2の特徴データを前記特徴抽出手順が記憶装置に記録した第1の特徴データと照合し、当該照合結果に基づいて前記少なくとも1人の人物が前記追跡対象の人物である確度を処理装置により計算する照合手順と、
    前記少なくとも1人の人物に、前記照合手順が計算した確度が所定の数値範囲の上限値より高い人物が含まれる場合、当該人物が前記追跡対象の人物であると判断し、前記第2の画像が撮影された時点における当該人物の位置を示す位置データを前記追跡データの一部として記憶装置に記録する追跡処理手順であって、前記少なくとも1人の人物に、前記照合手順が計算した確度が前記所定の数値範囲内となる人物が含まれる場合、前記第2の画像を表示した画面上で当該人物を強調表示して当該人物が前記追跡対象の人物であるか否かをユーザに判断させ、当該人物が前記追跡対象の人物であるとユーザが判断した場合には、前記位置データを前記追跡データの一部として記憶装置に記録する追跡処理手順とをコンピュータに実行させることを特徴とする人物追跡プログラム。
JP2007267755A 2007-10-15 2007-10-15 人物追跡システム及び人物追跡方法及び人物追跡プログラム Pending JP2009098774A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007267755A JP2009098774A (ja) 2007-10-15 2007-10-15 人物追跡システム及び人物追跡方法及び人物追跡プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007267755A JP2009098774A (ja) 2007-10-15 2007-10-15 人物追跡システム及び人物追跡方法及び人物追跡プログラム

Publications (1)

Publication Number Publication Date
JP2009098774A true JP2009098774A (ja) 2009-05-07

Family

ID=40701743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007267755A Pending JP2009098774A (ja) 2007-10-15 2007-10-15 人物追跡システム及び人物追跡方法及び人物追跡プログラム

Country Status (1)

Country Link
JP (1) JP2009098774A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232822A (ja) * 2010-04-23 2011-11-17 Canon Inc 情報処理装置、情報処理方法及びプログラム
WO2014045843A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2014045670A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2014050432A1 (ja) * 2012-09-27 2014-04-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP5506990B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
GB2516171A (en) * 2013-07-11 2015-01-14 Panasonic Corp A tracking assistance device, a tracking assistance system and a tracking assistance method
JP2015103016A (ja) * 2013-11-25 2015-06-04 キヤノン株式会社 情報表示装置、情報表示方法及びプログラム
JP2015191641A (ja) * 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 監視装置、監視システム、監視方法、及びプログラム
JP2016090831A (ja) * 2014-11-06 2016-05-23 ブラザー工業株式会社 制御装置、プログラム、及び再生システム
WO2016098720A1 (ja) * 2014-12-15 2016-06-23 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理プログラム
WO2016147581A1 (ja) * 2015-03-17 2016-09-22 日本電気株式会社 監視装置、監視方法、監視プログラム、及び監視システム
JP2017163279A (ja) * 2016-03-08 2017-09-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2020107213A (ja) * 2018-12-28 2020-07-09 国立大学法人佐賀大学 分類器生成装置、対象者推定装置及びそれらのプログラム、並びに対象者推定システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309746A (ja) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2006146378A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 複数カメラを用いた監視システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309746A (ja) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2006146378A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 複数カメラを用いた監視システム

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232822A (ja) * 2010-04-23 2011-11-17 Canon Inc 情報処理装置、情報処理方法及びプログラム
WO2014045843A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2014045670A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
US9984300B2 (en) 2012-09-19 2018-05-29 Nec Corporation Image processing system, image processing method, and program
JPWO2014045843A1 (ja) * 2012-09-19 2016-08-18 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
US9396538B2 (en) 2012-09-19 2016-07-19 Nec Corporation Image processing system, image processing method, and program
WO2014050432A1 (ja) * 2012-09-27 2014-04-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US9589192B2 (en) 2012-09-27 2017-03-07 Nec Corporation Information processing system, information processing method, and program
JP2015019250A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5506990B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2015019248A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
DE102014213553B4 (de) * 2013-07-11 2019-07-18 Panasonic Intellectual Property Management Co., Ltd. Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren
JP2015019249A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US9191633B2 (en) 2013-07-11 2015-11-17 Panasonic Intellectual Property Management Co., Ltd. Tracking assistance device, tracking assistance system and tracking assistance method
US9251599B2 (en) 2013-07-11 2016-02-02 Panasonic Intellectual Property Management Co., Ltd. Tracking assistance device, a tracking assistance system and a tracking assistance method that enable a monitoring person to perform a task of correcting tracking information
GB2516171B (en) * 2013-07-11 2016-05-11 Panasonic Corp A tracking assistance device, a tracking assistance system and a tracking assistance method
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US9357181B2 (en) 2013-07-11 2016-05-31 Panasonic Intellectual Management Co., Ltd. Tracking assistance device, a tracking assistance system and a tracking assistance method
GB2516171A (en) * 2013-07-11 2015-01-14 Panasonic Corp A tracking assistance device, a tracking assistance system and a tracking assistance method
DE102014213553A1 (de) * 2013-07-11 2015-01-15 Panasonic Corporation Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren
JP2015103016A (ja) * 2013-11-25 2015-06-04 キヤノン株式会社 情報表示装置、情報表示方法及びプログラム
JP2015191641A (ja) * 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 監視装置、監視システム、監視方法、及びプログラム
JP2016090831A (ja) * 2014-11-06 2016-05-23 ブラザー工業株式会社 制御装置、プログラム、及び再生システム
WO2016098720A1 (ja) * 2014-12-15 2016-06-23 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP6004148B1 (ja) * 2014-12-15 2016-10-05 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US10887526B2 (en) 2015-03-17 2021-01-05 Nec Corporation Monitoring system, monitoring method, and monitoring program
US20180077355A1 (en) * 2015-03-17 2018-03-15 Nec Corporation Monitoring device, monitoring method, monitoring program, and monitoring system
JPWO2016147581A1 (ja) * 2015-03-17 2017-12-28 日本電気株式会社 監視装置、監視方法、監視プログラム、及び監視システム
US10728460B2 (en) 2015-03-17 2020-07-28 Nec Corporation Monitoring system, monitoring method, and monitoring program
JP2020123973A (ja) * 2015-03-17 2020-08-13 日本電気株式会社 監視システム、管理装置および監視方法
WO2016147581A1 (ja) * 2015-03-17 2016-09-22 日本電気株式会社 監視装置、監視方法、監視プログラム、及び監視システム
JP2022040141A (ja) * 2015-03-17 2022-03-10 日本電気株式会社 監視システム、管理装置および監視方法
US11533436B2 (en) 2015-03-17 2022-12-20 Nec Corporation Monitoring system, monitoring method, and monitoring program
JP2017163279A (ja) * 2016-03-08 2017-09-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2020107213A (ja) * 2018-12-28 2020-07-09 国立大学法人佐賀大学 分類器生成装置、対象者推定装置及びそれらのプログラム、並びに対象者推定システム
JP7285536B2 (ja) 2018-12-28 2023-06-02 国立大学法人佐賀大学 分類器生成装置、対象者推定装置及びそれらのプログラム、並びに対象者推定システム

Similar Documents

Publication Publication Date Title
JP2009098774A (ja) 人物追跡システム及び人物追跡方法及び人物追跡プログラム
KR101960667B1 (ko) 저장 영상에서 용의자 추적 장치 및 방법
JP5355446B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP5319260B2 (ja) 作業モニタリング装置
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
KR101484844B1 (ko) 실시간 영상에 프라이버시 마스킹 툴을 제공하는 장치 및 방법
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP5139947B2 (ja) 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法
US11250273B2 (en) Person count apparatus, person count method, and non-transitory computer-readable storage medium
US9396538B2 (en) Image processing system, image processing method, and program
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
WO2010061448A1 (ja) 操作入力装置、情報処理装置及び選択ボタン特定方法
JP6635208B1 (ja) 検索装置、検索方法、およびプログラム
JP2006163527A (ja) 画像検索装置及び方法
JP2018007082A (ja) 画像再生装置およびその制御方法およびプログラム
US11361797B2 (en) Moving image reproduction apparatus, moving image reproduction method, moving image reproduction system, and storage medium
JP2008211534A (ja) 顔検知装置
KR20200073669A (ko) 영상 정보 관리 방법, 영상 정보 관리 장치 및 컴퓨터 프로그램
JP4730059B2 (ja) ビデオストリームにおけるユーザー・アクションを検出するためのシステムおよびコンピュータ・プログラム
WO2022249277A1 (ja) 画像処理装置、画像処理方法、及びプログラム
US20230267727A1 (en) Image analysis apparatus, image analysis method, and storage medium
US11451705B2 (en) Imaging control apparatus, imaging control method, and storage medium
JP6844681B2 (ja) 検索装置、検索方法、およびプログラム
US11095814B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20100702

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111226

A131 Notification of reasons for refusal

Effective date: 20120110

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120710