JP2008085874A - 人物監視システムおよび人物監視方法 - Google Patents
人物監視システムおよび人物監視方法 Download PDFInfo
- Publication number
- JP2008085874A JP2008085874A JP2006265576A JP2006265576A JP2008085874A JP 2008085874 A JP2008085874 A JP 2008085874A JP 2006265576 A JP2006265576 A JP 2006265576A JP 2006265576 A JP2006265576 A JP 2006265576A JP 2008085874 A JP2008085874 A JP 2008085874A
- Authority
- JP
- Japan
- Prior art keywords
- person
- face image
- monitoring
- image
- collation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 各カメラA、B、C、D、E、Fで撮影されている画像から任意のタイミングで監視対象者の顔画像を指定することができ、任意のタイミングで指定された監視対象者を各カメラで撮影された画像に含まれる顔画像との顔照合によって追跡監視することができる。この結果として、監視員の利便性が向上し、効率的な人物追跡機能を実現できる。
【解決手段】 人物監視システムは、監視領域内の各所に設置された複数のカメラA、B、C、D、E、Fで撮影された画像を監視装置20の表示部に表示し、その表示部に表示されている画像から特定の人物の顔画像が監視装置20の操作部で指定された場合、指定された人物の顔画像を監視対象者の顔画像として設定し、設定された監視対象者の顔画像と各カメラにより撮影された画像に含まれる顔画像とを照合処理装置10で照合し、その照合結果を監視装置20の表示部に表示する。
【選択図】 図1
【解決手段】 人物監視システムは、監視領域内の各所に設置された複数のカメラA、B、C、D、E、Fで撮影された画像を監視装置20の表示部に表示し、その表示部に表示されている画像から特定の人物の顔画像が監視装置20の操作部で指定された場合、指定された人物の顔画像を監視対象者の顔画像として設定し、設定された監視対象者の顔画像と各カメラにより撮影された画像に含まれる顔画像とを照合処理装置10で照合し、その照合結果を監視装置20の表示部に表示する。
【選択図】 図1
Description
この発明は、例えば、施設内などの監視領域内において特定の人物を監視する人物監視システム及び人物監視方法に関する。
従来、人物監視システムでは、監視用のカメラで撮影した画像から特定の人物の顔画像を検出し、その検出結果を表示装置に表示するものが提案されている。従来の人物監視システムには、監視カメラによる人物検出と、特定人物の表示画面上におけるハイライト表示方法について提案されているものもある(たとえば、特許文献1)。
しかしながら、上述した人物監視システムでは、予め監視対象とする特定の人物の顔画像と登録しておておく必要がある。このため、従来の人物監視システムでは、運用中に、監視対象となる人物を、適宜、登録するのが難しいという問題がある。また、上述した人物監視システムでは、複数のカメラで撮影した全ての画像に対して予め登録した特定の人物の顔画像を検出する処理を実施する必要がある。このため、上述した従来の通行制御システムでは、監視カメラの数が多くなると、システムの負荷が大きくなり、効率的な処理ができないという問題点がある。
特開2004−128615号公報
しかしながら、上述した人物監視システムでは、予め監視対象とする特定の人物の顔画像と登録しておておく必要がある。このため、従来の人物監視システムでは、運用中に、監視対象となる人物を、適宜、登録するのが難しいという問題がある。また、上述した人物監視システムでは、複数のカメラで撮影した全ての画像に対して予め登録した特定の人物の顔画像を検出する処理を実施する必要がある。このため、上述した従来の通行制御システムでは、監視カメラの数が多くなると、システムの負荷が大きくなり、効率的な処理ができないという問題点がある。
この発明の一形態では、所望の人物を効率的に監視できる人物監視システムおよび人物監視方法を提供することを目的とする。
この発明の一形態としての人物監視システムは、監視領域内の各所における画像を撮影する複数の撮影手段と、これらの撮影手段により撮影された画像を表示する表示手段と、この表示手段により表示された各撮影手段により撮影された画像から特定の人物の顔画像を指定するための指定手段と、この指定手段により指定された人物の顔画像を記憶する記憶手段と、前記各撮影手段により撮影された画像に含まれる顔画像と前記記憶手段に記憶されている顔画像とを照合する照合手段と、この照合手段による照合結果を報知する報知手段とを有する。
この発明の一形態としての人物監視システムは、監視領域内の各所における画像を撮影する複数の撮影手段と、これらの撮影手段により撮影された画像を表示する表示手段と、各撮影手段ごとに設定され、監視対象者の顔画像を記憶する複数の記憶手段と、前記撮影手段により撮影された画像に含まれる顔画像と当該画像を撮影した撮影手段に対応する記憶手段に記憶されている監視対象者の顔画像とを照合する照合手段と、この照合手段による照合結果を報知する報知手段と、前記照合手段による照合結果に基づいて監視対象者の顔画像を記憶すべき記憶手段を判断する判断手段と、この判断手段による判断結果に基づいて各記憶手段を更新する更新手段とを有する。
この発明の一形態によれば、所望の人物を効率的に監視できる人物監視システムおよび人物監視方法を提供できる。
以下、本発明の実施の形態について図面を参照して説明する。
図1は、この発明の実施の形態に係る人物監視システムの全体構成を模式的に示すものである。
図1に示すように、人物監視システムは、複数のカメラ、照合処理装置、および、監視装置などにより構成されている。なお、図1に示す例は、施設などの通路内を監視領域とし、通路内における人物を監視するシステムに当該人物監視システムを適用した例である。以下、図1に示すような通路において人物を監視するシステムを想定して説明するものとする。但し、本人物監視システムは、複数の箇所に複数のカメラを設置し、それらのカメラにより撮影した画像を監視するものであれば、種々の運用形態に適用可能なものである。
図1は、この発明の実施の形態に係る人物監視システムの全体構成を模式的に示すものである。
図1に示すように、人物監視システムは、複数のカメラ、照合処理装置、および、監視装置などにより構成されている。なお、図1に示す例は、施設などの通路内を監視領域とし、通路内における人物を監視するシステムに当該人物監視システムを適用した例である。以下、図1に示すような通路において人物を監視するシステムを想定して説明するものとする。但し、本人物監視システムは、複数の箇所に複数のカメラを設置し、それらのカメラにより撮影した画像を監視するものであれば、種々の運用形態に適用可能なものである。
上記各カメラA、B、C、D、E、Fは、通路内の各所に設置されている。各カメラA、B、C、D、E、Fでは、通路内の所定の領域(撮影領域)における画像を撮影している。また、上記各カメラA、B、C、D、E、Fは、照合処理装置10に接続されている。上記各カメラA、B、C、D、E、Fは、撮影した画像(撮影画像)を照合処理装置10へ供給するようになっている。なお、上記各カメラA、B、C、D、E、Fは、上記監視装置20へも供給するようにしても良い。
図1に示す例では、カメラAが撮影する領域はカメラBが撮影する領域に隣接する。カメラBが撮影する領域は、カメラA、C、Eが撮影する各領域に隣接する。カメラCが撮影する領域はカメラB、D、Eが撮影する各領域に隣接する。カメラDが撮影する領域はカメラCが撮影する領域に隣接する。カメラEが撮影する領域は、カメラB、C、Fが撮影する各領域に隣接する。カメラFが撮影する領域はカメラEが撮影する領域に隣接する。なお、カメラは、1つの領域を複数の角度から撮影可能なように、1つの領域に対して複数設置するようにしても良い。
上記照合処理装置10は、各カメラA、B、C、D、E、Fで撮影した画像を処理するための装置である。すなわち、上記照合処理装置10は、各カメラA、B、C、D、E、Fで撮影した画像から人物の顔画像を検出し、検出した顔画像と特定の人物の顔画像との照合を行い、その顔画像の検出結果および照合結果を上記監視装置20へ送信するようになっている。また、上記照合処理装置10では、各カメラごとに照合対象となる人物の顔画像を記憶する照合データベースを有している。
上記監視装置20は、監視員が通路内の人物を監視するための装置である。すなわち、上記監視装置20では、各カメラにより撮影した画像とともに、上記照合処理装置10による特定の人物の検出結果などを表示装置に表示するようになっている。また、上記監視装置20では、監視員(操作員)により操作される。たとえば、上記監視装置20では、監視員による操作に応じて監視対象とする人物(監視対象者)を特定する。監視対象者を特定した場合、上記監視装置20では、所定のルールに従って、監視対象者を撮影する可能性のあるカメラに応じて上記照合データベースの更新を照合処理装置10に対して要求するようになっている。
図2、図3、図4は、当該人物監視システムの機器構成の例を示す図である。
図2、図3、図4では、複数のカメラA、B、C、D、E、Fに対する照合処理装置の構成が異なっている。
たとえば、図2は、全てのカメラA、B、C、D、E、Fに対して1つの照合処理装置が設置されているシステム構成例を示している。図2に示す構成例では、全てのカメラA、B、C、D、E、Fにより撮影した各画像について1つの照合処理装置10が人物の検出処理を実行する。このため、図2に示す照合処理装置10は、各カメラA、B、C、D、E、Fに対応する照合データベース11a、11b、11c、11d、11e、11fを有している。図2に示す構成では、各カメラを1つの照合処理装置10に接続させれば良い。このため、図2に示す構成は、各カメラを設置する際の自由度が高く、たとえば、小型のカメラであっても容易に実現できる。なお、図2に示す構成では、照合処理装置10と監視装置20との機能を併せ持つ1つの装置で実現するようにしても良い。
図2、図3、図4では、複数のカメラA、B、C、D、E、Fに対する照合処理装置の構成が異なっている。
たとえば、図2は、全てのカメラA、B、C、D、E、Fに対して1つの照合処理装置が設置されているシステム構成例を示している。図2に示す構成例では、全てのカメラA、B、C、D、E、Fにより撮影した各画像について1つの照合処理装置10が人物の検出処理を実行する。このため、図2に示す照合処理装置10は、各カメラA、B、C、D、E、Fに対応する照合データベース11a、11b、11c、11d、11e、11fを有している。図2に示す構成では、各カメラを1つの照合処理装置10に接続させれば良い。このため、図2に示す構成は、各カメラを設置する際の自由度が高く、たとえば、小型のカメラであっても容易に実現できる。なお、図2に示す構成では、照合処理装置10と監視装置20との機能を併せ持つ1つの装置で実現するようにしても良い。
図3は、各カメラA、B、C、D、E、Fに対してそれぞれに照合処理装置が設置されているシステム構成例を示している。図3に示す構成例では、各カメラA、B、C、D、E、Fにより撮影した各画像について各照合処理装置10(10a、10b、10c、10d、10e、10f)が人物の検出処理を実行する。このため、図3に示す各照合処理装置10(10a、10b、10c、10d、10e、10f)では、ぞれぞれが各カメラA、B、C、D、E、Fに対応する照合データベース11a、11b、11c、11d、11e、11fを有している。図3に示す構成では、各カメラにより撮影された画像に対する処理(顔画像の検出処理、照合処理など)を各装置で実行できる。これにより、図3に示す構成では、各照合処理装置が実行する処理が単純で、処理速度を向上させたり、高度な処理(処理負荷の大きい処理)を容易に実施できる。
図4は、グループ分けされた複数のカメラ(AとB、CとD、EとF)ごとに照合処理装置が設置されているシステム構成例を示している。図4に示す構成例では、全てのカメラA及びBにより撮影した各画像について照合処理装置10abが人物の検出処理を実行し、カメラC及びDにより撮影した各画像について照合処理装置10cdが人物の検出処理を実行し、カメラE及びFにより撮影した各画像について照合処理装置10efが人物の検出処理を実行する。
このため、図4に示す照合処理装置10abは、カメラA及びBに対応する照合データベース11a及び11bを有し、照合処理装置10cdは、カメラC及びDに対応する照合データベース11c及び11dを有し、照合処理装置10efは、カメラE及びFに対応する照合データベース11e及び11fを有している。図4に示す構成では、照合処理装置に処理能力等に応じて、各照合処理装置が処理対象するカメラをグループ分けすることが可能である。これにより、図4に示す構成では、各機器の処理能力、処理量あるいは運用形態などに応じて最適なシステムを設計しやすい。たとえば、1つの領域を複数のカメラで撮影する場合などの各グループごとに照合データベースを共通とするような運用形態では、効率的なシステム設計が可能となる。
次に、上記照合処理装置10の構成について説明する。
図5は、上記照合処理装置10の構成例を示すブロック図である。
図5に示すように、上記照合処理装置10は、主制御部12、画像インターフェース(I/F)部13、通信インターフェース(I/F)部14、顔検出部15、顔照合部16、および、記憶部17などを有している。また、上記記憶部17には、照合データベース11が設けられている。
図5は、上記照合処理装置10の構成例を示すブロック図である。
図5に示すように、上記照合処理装置10は、主制御部12、画像インターフェース(I/F)部13、通信インターフェース(I/F)部14、顔検出部15、顔照合部16、および、記憶部17などを有している。また、上記記憶部17には、照合データベース11が設けられている。
上記主制御部12は、当該照合処理装置10全体の制御を司るものである。上記主制御部12は、CPU、プログラムメモリ、ワーキングメモリなどにより構成される。上記主制御部12では、CPUがプログラムメモリあるいは記憶部17に記憶されているプログラムを実行することにより種々の機能を実現している。
上記画像インターフェース部13は、各カメラA、B、C、D、E、Fにより撮影された画像を入力するためのインターフェースである。上記画像インターフェース部13は、システム構成、および、各カメラの構成に応じた構成を有している。たとえば、図2あるいは図4に示すようなシステム構成である場合、上記画像インターフェース部13は、各カメラA、B、C、D、E、Fからの各画像を各カメラを識別するための情報とともに管理する。
上記通信インターフェース部14は、上記監視装置20との通信を行うためのインターフェースである。たとえば、上記照合処理装置10では、上記通信インターフェース部14を介して顔検出処理及び照合処理などの処理結果と各カメラが撮影した画像とを上記監視装置20へ供給するようになっている。
上記通信インターフェース部14は、上記監視装置20との通信を行うためのインターフェースである。たとえば、上記照合処理装置10では、上記通信インターフェース部14を介して顔検出処理及び照合処理などの処理結果と各カメラが撮影した画像とを上記監視装置20へ供給するようになっている。
上記顔検出部15は、カメラにより撮影された画像から人物の顔画像を検出する処理を行うものである。上記顔検出部15では、顔画像が検出された場合、たとえば、各カメラで撮影した画像全体における座標値などで顔画像の領域を示す。
上記顔照合部16は、上記顔検出部15によりカメラで撮影した画像から検出した顔画像と上記記憶部17内の照合データベース11に記憶されている特定の人物の顔画像との照合処理を行うものである。たとえば、上記顔照合部16では、上記顔検出部15により検出された顔画像と上記照合データベース11に記憶されている顔画像とからそれぞれ顔の特徴量を抽出する。上記顔照合部16では、上記顔検出部15により検出された顔画像から抽出した顔の特徴量と上記照合データベース11に記憶されている顔画像から抽出した顔の特徴量との類似度を判定する。上記顔照合部16では、判定した類似度が所定の閾値以上であるか否かにより上記顔検出部15により検出した顔画像と上記照合データベース11に記憶されている顔画像とが一致するか否かを判定する。
上記記憶部17内の照合データベース11は、当該照合処理装置10が照合対象とする特定の人物の顔画像(あるいは顔の特徴量)が記憶される。また、上述したように、照合データベース11としては、当該照合処理装置10が処理対象とする各カメラごとに照合データベースが設けられる。たとえば、当該照合処理装置10が複数のカメラA、B、C、D、E、Fにより撮影された画像を処理対象とする場合、上記記憶部17には、照合データベース11として、それらの各カメラA、B、C、D、E、Fに対応した照合データベース11a、11b、11c、11d、11e、11fが設けられる。また、上記照合データベース11に記憶される特定の人物の顔画像(あるいは顔の特徴量)は、上記主制御部12の制御により顔画像(あるいは顔の特徴量)の追加及び削除が行われる。つまり、上記照合データベース11は、上記主制御部12の制御によって常時更新可能な状態となっている。
次に、上記監視装置20の構成について説明する。
図6は、上記監視装置20の構成例を示すブロック図である。
図6に示すように、上記監視装置20は、主制御部21、通信インターフェース部22、表示部23、操作部24、および、記憶部25などを有している。また、上記記憶部25には、監視設定データテーブル26および監視対象者データベース27が設けられている。
図6は、上記監視装置20の構成例を示すブロック図である。
図6に示すように、上記監視装置20は、主制御部21、通信インターフェース部22、表示部23、操作部24、および、記憶部25などを有している。また、上記記憶部25には、監視設定データテーブル26および監視対象者データベース27が設けられている。
上記主制御部21は、当該監視装置20全体の制御を司るものである。上記主制御部21は、CPU、プログラムメモリ、ワーキングメモリなどにより構成される。上記主制御部21では、CPUがプログラムメモリあるいは記憶部25に記憶されているプログラムを実行することにより種々の機能を実現している。また、上記主制御部21は、時間を計時するためのタイマ21aを有している。上記主制御部21では、上記タイマ21aにより所望のタイミングでリセットしてからの経過時間tを計時するようになっている。また、後述する処理において、複数の監視対象者が同時期に存在する場合、各監視対象者に対してそれぞれ経過時間を計時するため、上記主制御部21は、複数の経過時間を計時することも可能となっている。
上記通信インターフェース部22は、上記照合処理装置10との通信を行うためのインターフェースである。上記監視装置20では、上記通信インターフェース部22を介して上記照合処理装置10による処理結果および各カメラA、B、C、D、E、Fが撮影した画像などを受信するようになっている。なお、上記通信インターフェース部22では、各カメラA、B、C、D、E、Fに直接的に接続し、各カメラA、B、C、D、E、Fが撮影した画像を上記照合処理装置10を介さずに直接受信するようにしても良い。この場合、後述する監視画面では、各カメラA、B、C、D、E、Fからの画像と上記照合処理装置10からの顔検出および顔照合の結果とを重ね合わせて上記表示部23に表示するようにすれば良い。
上記表示部23は、監視員による監視画面などが表示される表示装置である。上記表示部23には、監視画面として、各カメラで撮影した画像とともに、上記照合処理装置10による処理結果が表示される。なお、上記表示部23による監視画面の表示例については、後で詳細に説明する。
上記操作部24は、監視員により操作されるものである。上記操作部24は、キーボードや上記監視画面上の特定の位置を指定するためのポインティングデバイスなどにより構成される。なお、上記表示部23と上記操作部24とは、タッチパネル内蔵の表示装置により構成するようにしても良い。
上記操作部24は、監視員により操作されるものである。上記操作部24は、キーボードや上記監視画面上の特定の位置を指定するためのポインティングデバイスなどにより構成される。なお、上記表示部23と上記操作部24とは、タッチパネル内蔵の表示装置により構成するようにしても良い。
上記記憶部25内の監視設定データテーブル26には、監視対象者の顔画像を各照合データベース11a、11b、11c、11d、11e、11fに設定するための情報が記憶されている。上記監視装置20では、上記監視設定データテーブル26による設定内容に基づいて各照合データベース11a、11b、11c、11d、11e、11fに記憶する監視対象者の顔画像(あるいは顔の特徴量)を設定するようになっている。
上記記憶部25内の監視対象者データベース27には、当該人物監視システムにおける全ての監視対象者の顔画像(あるいは顔の特徴量)が記憶される。すなわち、各照合データベースに記憶される監視対象者の顔画像(あるいは顔の特徴量)は、全て監視対象者データベース27に記憶されているようになっている。
上記記憶部25内の監視対象者データベース27には、当該人物監視システムにおける全ての監視対象者の顔画像(あるいは顔の特徴量)が記憶される。すなわち、各照合データベースに記憶される監視対象者の顔画像(あるいは顔の特徴量)は、全て監視対象者データベース27に記憶されているようになっている。
次に、上記監視設定データテーブル26について説明する。
ここでは、上述したように、各カメラA、B、C、D、E、Fが図1に示すように配置されているものとする。すなわち、ここでは、図1に示すように、カメラAに撮影された人物は、カメラAの撮影領域に隣接するカメラBの撮影領域のみに移動可能であるものとする。また、カメラBに撮影された人物は、カメラBの撮影領域に隣接するカメラA、C、Eの各撮影領域のみ移動可能であるものとする。また、カメラCに撮影された人物は、カメラCの撮影領域に隣接するカメラB、D、Eの各撮影領域にのみ移動可能であるものとする。また、カメラDに撮影された人物は、カメラDの撮影領域に隣接するカメラCの撮影領域にのみ移動可能であるものとする。また、カメラEに撮影された人物は、カメラEの撮影領域に隣接するカメラB、C、Fの各撮影領域にのみ移動可能であるものとする。また、カメラFに撮影された人物は、カメラFの撮影領域に隣接するカメラEの撮影領域にのみ移動可能であるものとする。
ここでは、上述したように、各カメラA、B、C、D、E、Fが図1に示すように配置されているものとする。すなわち、ここでは、図1に示すように、カメラAに撮影された人物は、カメラAの撮影領域に隣接するカメラBの撮影領域のみに移動可能であるものとする。また、カメラBに撮影された人物は、カメラBの撮影領域に隣接するカメラA、C、Eの各撮影領域のみ移動可能であるものとする。また、カメラCに撮影された人物は、カメラCの撮影領域に隣接するカメラB、D、Eの各撮影領域にのみ移動可能であるものとする。また、カメラDに撮影された人物は、カメラDの撮影領域に隣接するカメラCの撮影領域にのみ移動可能であるものとする。また、カメラEに撮影された人物は、カメラEの撮影領域に隣接するカメラB、C、Fの各撮影領域にのみ移動可能であるものとする。また、カメラFに撮影された人物は、カメラFの撮影領域に隣接するカメラEの撮影領域にのみ移動可能であるものとする。
図7は、上記監視設定データテーブル26の構成例を示す図である。
図7に示す監視設定データテーブルの例は、上述したような各カメラA、B、C、D、E、Fの設置位置を考慮して設定されたものである。上述したように、各カメラA、B、C、D、E、Fにより撮影された各画像には、それぞれ照合処理用の照合データベース11a、11b、11c、11d、11e、11fが設けられている。このため、各カメラA、B、C、D、E、Fにより撮影された各画像に対して効率的に顔検出及び顔照合を実行するには、各照合データベース11に必要な顔画像(もしくは顔の特徴量)のみを記憶しておくようにすれば良い。図1のような運用形態では、通路の形状と各カメラの設置とに基づいて人物が移動する領域を予測できる。このような予測に従って各照合データベースの更新(顔画像の追加あるいは削除)を行うようにすれば、効率的な顔検出および顔照合を実現できる。
図7に示す監視設定データテーブルの例は、上述したような各カメラA、B、C、D、E、Fの設置位置を考慮して設定されたものである。上述したように、各カメラA、B、C、D、E、Fにより撮影された各画像には、それぞれ照合処理用の照合データベース11a、11b、11c、11d、11e、11fが設けられている。このため、各カメラA、B、C、D、E、Fにより撮影された各画像に対して効率的に顔検出及び顔照合を実行するには、各照合データベース11に必要な顔画像(もしくは顔の特徴量)のみを記憶しておくようにすれば良い。図1のような運用形態では、通路の形状と各カメラの設置とに基づいて人物が移動する領域を予測できる。このような予測に従って各照合データベースの更新(顔画像の追加あるいは削除)を行うようにすれば、効率的な顔検出および顔照合を実現できる。
ここでは、上述したように、人物の移動が、隣接する領域に限定されるものとしている。このため、監視設定データテーブル26では、あるカメラで撮影されていた監視対象者が移動してから所定の第1の時間(T1)が経過すると、当該カメラの撮影領域に隣接する撮影領域の別のカメラに対応する照合データベースに当該監視対象者の顔画像(もしくは顔の特徴量)を追記し、さらに、所定の第2の時間(T2)が経過すると、当該カメラの撮影領域に隣接する撮影領域の別のカメラ以外のカメラに対応する各照合データベースから当該監視対象者の顔画像(もしくは顔の特徴量)を削除するように設定されている。
たとえば、図7に示す例では、カメラAで撮影されていた監視対象者がカメラAで撮影された画像から検出されなくなった場合(カメラAで撮影されていた監視対象者がカメラAの撮影領域から移動した場合)、当該監視対象者の顔画像(あるいは顔の特徴量)は、当該監視対象者がカメラAの撮影領域から移動して時間T1が経過すると、カメラAの撮影領域に隣接する撮影領域のカメラBに対応する照合データベース11bに追加される。さらに、当該監視対象者がカメラAの撮影領域から移動して時間T2が経過すると、カメラB以外のカメラA、C、D、E、Fに対応する照合データベース11a、11c、11d、11e、11fから削除される。
また、図7に示す例では、カメラBで撮影されていた監視対象者がカメラBで撮影された画像から検出されなくなった場合(カメラBで撮影されていた監視対象者がカメラBの撮影領域から移動した場合)、当該監視対象者の顔画像は、当該監視対象者がカメラBの撮影領域から移動して時間T1が経過すると、カメラBの撮影領域に隣接する撮影領域のカメラA、C、Eに対応する各照合データベース11a、11c、11eに追加される。さらに、当該監視対象者がカメラBの撮影領域から移動して時間T2が経過すると、当該監視対象者の顔画像は、カメラA、C、E以外のカメラB、D、Fに対応する照合データベース11b、11d、11fから削除される。
また、図7に示す例では、カメラCで撮影されていた監視対象者がカメラCで撮影された画像から検出されなくなった場合(カメラCで撮影されていた監視対象者がカメラCの撮影領域から移動した場合)、当該監視対象者の顔画像は、当該監視対象者がカメラCの撮影領域から移動して時間T1が経過すると、カメラCの撮影領域に隣接する撮影領域のカメラB、D、Eに対応する各照合データベース11b、11d、11eに追加される。さらに、当該監視対象者がカメラCの撮影領域から移動して時間T2が経過すると、当該監視対象者の顔画像は、カメラB、D、E以外のカメラA、C、Fに対応する照合データベース11a、11c、11fから削除される。
また、図7に示す例では、カメラDで撮影されていた監視対象者がカメラDで撮影された画像から検出されなくなった場合(カメラDで撮影されていた監視対象者がカメラDの撮影領域から移動した場合)、当該監視対象者の顔画像(あるいは顔の特徴量)は、当該監視対象者がカメラDの撮影領域から移動して時間T1が経過すると、カメラDの撮影領域に隣接する撮影領域のカメラCに対応する照合データベース11cに追加される。さらに、当該監視対象者がカメラDの撮影領域から移動して時間T2が経過すると、カメラC以外のカメラA、B、D、E、Fに対応する照合データベース11a、11b、11d、11e、11fから削除される。
また、図7に示す例では、カメラEで撮影されていた監視対象者がカメラEで撮影された画像から検出されなくなった場合(カメラEで撮影されていた監視対象者がカメラEの撮影領域から移動した場合)、当該監視対象者の顔画像は、当該監視対象者がカメラEの撮影領域から移動して時間T1が経過すると、カメラEの撮影領域に隣接する撮影領域のカメラB、C、Fに対応する各照合データベース11b、11c、11fに追加される。さらに、当該監視対象者がカメラEの撮影領域から移動して時間T2が経過すると、当該監視対象者の顔画像は、カメラB、C、F以外のカメラA、D、Eに対応する照合データベース11a、11d、11eから削除される。
また、図7に示す例では、カメラFで撮影されていた監視対象者がカメラFで撮影された画像から検出されなくなった場合(カメラFで撮影されていた監視対象者がカメラFの撮影領域から移動した場合)、当該監視対象者の顔画像(あるいは顔の特徴量)は、当該監視対象者がカメラFの撮影領域から移動して時間T1が経過すると、カメラFの撮影領域に隣接する撮影領域のカメラEに対応する照合データベース11eに追加される。さらに、当該監視対象者がカメラFの撮影領域から移動して時間T2が経過すると、カメラE以外のカメラA、B、C、D、Fに対応する照合データベース11a、11b、11c、11d、11fから削除される。
また、上記監視設定データテーブル26において設定される所定の第1の時間(T1)は、「0」以上の時間(T1≧0)であれば良い。このT1の値は、各カメラの設定状況や運用状況に応じて設定するのが好ましい。たとえば、T1=0とすれば、当該監視対象者を検出していた画像を撮影していたカメラに隣接するカメラで撮影した画像から即座に当該監視対象者が検出可能となる。また、上記監視設定データテーブル26において設定される所定の第2の時間(T2)は、T1以上の時間(T2≧T1)であれば良い。これは、あるカメラで撮影した画像から検出できなくなった監視対象者が再び同じカメラで撮影した画像から検出される可能性を考慮したものである。上記T2の値も、各カメラの設定状況や運用状況に応じて設定するのが好ましい。
また、監視装置20では、あるカメラで撮影されていた監視対象者が当該カメラで撮影されている画像から検出されなくなってからの時間(カメラで撮影されていた監視対象者が当該カメラの撮影領域から移動してからの時間)tをタイマ21aに用いてカウントする。ただし、運用形態によっては、時間T2が経過する前に、監視対象者がさらに移動してしまうこともありうる。このような場合であっても、当該監視対象者を確実に追跡できるように、上記監視装置20では、当該監視対象者が移動するごとに時間tをリセットするようになっている。
さらに、上記監視設定データテーブル26は、各照合処理装置10の記憶部17に設けるようにしても良い。この場合、各照合処理装置10が監視設定データテーブル26の設定内容に基づいて監視対象者の顔画像の追加及び削除を実行することが可能となる。
さらに、上記監視設定データテーブル26は、各照合処理装置10の記憶部17に設けるようにしても良い。この場合、各照合処理装置10が監視設定データテーブル26の設定内容に基づいて監視対象者の顔画像の追加及び削除を実行することが可能となる。
次に、監視画面の表示例について説明する。
図8および図9は、上記監視装置20の表示部23による監視画面の表示例を示す図である。なお、図9は、図8に示すような監視画面を表示してからある時間が経過した後の監視画面の表示例を示している。
図8および図9に示す表示例において、上記監視装置20の表示部23により表示される監視画面では、各カメラで撮影された画像が並べて表示される。また、各カメラで撮影された各画像には、それぞれ上記照合処理装置10で検出された顔画像の領域を示す点線Rdあるいは実線Rsが表示されている。これらの点線Rdあるいは実線Rsは、上記照合処理装置10で検出された全ての顔画像の領域に対して表示されている。これにより、図8および図9に示す監視画面では、上記照合処理装置10で検出された全ての顔画像を容易に視認できるようになっている。
図8および図9は、上記監視装置20の表示部23による監視画面の表示例を示す図である。なお、図9は、図8に示すような監視画面を表示してからある時間が経過した後の監視画面の表示例を示している。
図8および図9に示す表示例において、上記監視装置20の表示部23により表示される監視画面では、各カメラで撮影された画像が並べて表示される。また、各カメラで撮影された各画像には、それぞれ上記照合処理装置10で検出された顔画像の領域を示す点線Rdあるいは実線Rsが表示されている。これらの点線Rdあるいは実線Rsは、上記照合処理装置10で検出された全ての顔画像の領域に対して表示されている。これにより、図8および図9に示す監視画面では、上記照合処理装置10で検出された全ての顔画像を容易に視認できるようになっている。
図8あるいは図9に示す監視画面において実線Rsで領域が示される顔画像は、監視対象者となっている人物の顔画像を示している。さらに、実線Rs(あるいは実線Rsで囲まれる領域全体)は、ハイライト表示され、視覚的に強調されて表示されている。さらに、監視画面における下部の領域には、監視対象者がどのカメラで表示されているかを文字で表示している。
図8に示す表示例においてカメラAで撮影されていた画像内に存在した監視対象者の顔画像は、図9に示す表示例ではカメラBで撮影されている画像内に存在している。これは、当該監視対象者がカメラAの撮影領域からカメラBの撮影領域に移動したことを示している。このように、図8および図9に示すような監視画面では、監視対象者の現在位置が容易に視認できるようになっている。
図8に示す表示例においてカメラAで撮影されていた画像内に存在した監視対象者の顔画像は、図9に示す表示例ではカメラBで撮影されている画像内に存在している。これは、当該監視対象者がカメラAの撮影領域からカメラBの撮影領域に移動したことを示している。このように、図8および図9に示すような監視画面では、監視対象者の現在位置が容易に視認できるようになっている。
また、図8あるいは図9に示すような監視画面を表示している監視装置20では、監視員が監視対象者を指定できるようになっている。すなわち、監視画面において、監視対象者の顔画像(顔画像の領域を示す点線Rd)を操作部24により指示すると、上記監視装置20では、指定された領域の顔画像を監視対象者の顔画像として登録する処理を行うようになっている。監視対象者の指定方法は、たとえば、操作部24としてのポインティングデバイスにより監視画面上に表示されている点線Rdで囲まれた領域を指定するようにすれば良い。このような指定方法によれば、監視対象者の顔画像と当該監視対象者の現在位置とを直感的かつ直接的に指定できる。さらに、上記のような指定方法では、予め監視対象者の顔画像を登録する必要がなく、監視画面上に表示された任意の人物をリアルタイムで監視対象者として指定することが可能となる。
次に、当該人物監視システムにおける特定人物の監視処理の手順について説明する。
まず、照合処理装置10における処理について説明する。
図10は、上記照合処理装置10における処理例を説明するためのフローチャートである。
上記各カメラA、B、C、D、E、Fでは、それぞれの撮影領域の画像を常時撮影している。上記各カメラA、B、C、D、E、Fで撮影された画像は、それぞれ対応する照合処理装置10に供給される。なお、上記照合処理装置10では、上記各カメラA、B、C、D、E、Fで撮影された画像を所定の間隔で取得するようにしても良いし、任意のタイミングで各カメラから取得するようにしても良い。
まず、照合処理装置10における処理について説明する。
図10は、上記照合処理装置10における処理例を説明するためのフローチャートである。
上記各カメラA、B、C、D、E、Fでは、それぞれの撮影領域の画像を常時撮影している。上記各カメラA、B、C、D、E、Fで撮影された画像は、それぞれ対応する照合処理装置10に供給される。なお、上記照合処理装置10では、上記各カメラA、B、C、D、E、Fで撮影された画像を所定の間隔で取得するようにしても良いし、任意のタイミングで各カメラから取得するようにしても良い。
上記照合処理装置10では、各カメラで撮影された画像を画像インターフェース部13により受信し、当該画像に対する顔検出処理、顔照合処理および画像転送処理などの画像処理を行う(ステップS1〜S4)。
すなわち、カメラA(B、C、D、EあるいはF)で撮影された画像を画像インターフェース部13により受信すると(ステップS1)、上記照合処理装置10の主制御部12は、上記顔検出部15により当該画像から顔画像を検出する顔検出処理を行う(ステップS2)。上記顔検出部15では、カメラA(B、C、D、EあるいはF)から取得した画像に含まれる全ての顔画像を検出し、検出された各顔画像の領域を示す座標値(当該画像における座標値)を顔検出処理の処理結果とする。
すなわち、カメラA(B、C、D、EあるいはF)で撮影された画像を画像インターフェース部13により受信すると(ステップS1)、上記照合処理装置10の主制御部12は、上記顔検出部15により当該画像から顔画像を検出する顔検出処理を行う(ステップS2)。上記顔検出部15では、カメラA(B、C、D、EあるいはF)から取得した画像に含まれる全ての顔画像を検出し、検出された各顔画像の領域を示す座標値(当該画像における座標値)を顔検出処理の処理結果とする。
上記顔検出処理によりカメラA(B、C、D、EあるいはF)で撮影した画像に含まれる顔画像を検出すると、上記主制御部12は、検出された各顔画像について上記顔照合部16により顔照合処理を行う(ステップS3)。なお、顔画像が検出されなかった場合には上記ステップS3は省略される。上記ステップS3の顔照合処理では、カメラA(B、C、D、EあるいはF)で撮影された画像から検出された各顔画像と当該画像を撮影したカメラA(B、C、D、EあるいはF)に対応する照合データベース11a(11b、11c、11d、11eあるいは11f)に記憶されている顔画像との照合処理を行う。
すなわち、上記顔照合部16では、まず、上記顔検出部15により検出した各顔画像について顔の特徴量を抽出する。上記顔検出部15により検出した顔画像から顔の特徴量を抽出すると、上記顔照合部16では、抽出した顔の特徴量と当該画像を撮影したカメラに対応する照合データベースに記憶されている顔画像から抽出された顔の特徴量との類似度を算出する。両者の類似度を算出すると、上記顔照合部16は、類似度が所定の閾値以上である否かにより上記顔検出部15により検出した顔画像が照合データベースに記憶されている顔画像と一致するか否かを判定する。
上記顔照合処理による照合結果が得られると、上記主制御部12は、上記通信インターフェース部14によりカメラA(B、C、D、EあるいはF)で撮影された画像とともに、当該画像に対する顔検出処理の結果と当該画像に対する顔照合処理の結果とを監視装置20へ転送する処理を行う(ステップS4)。この場合、たとえば、顔検出処理の結果としては、検出された各顔画像の領域を示す座標値などが含まれる。また、顔照合処理の結果としては、照合データベース11a(11b、11c、11d、11eあるいは11f)に記憶されている顔画像(監視対象者の顔画像)と一致した顔画像を示す情報などである。なお、上記主制御部12は、図8あるいは図9に示すような表示画面となるように、当該画像に、当該画像から検出された各顔画像の領域を示す点線、照合データベースに記憶されている顔画像と一致した顔画像の領域を示す実線などを合成した画像情報を監視装置20へ転送するようにしても良い。
また、上記照合処理装置10の主制御部12では、上記監視装置20からの更新要求に応じて、照合データベース11a(11b、11c、11d、11eあるいは11f)の更新処理を行うようになっている。すなわち、上記監視装置20から照合データベースの更新要求を受けると(ステップS11、YES)、上記主制御部12は、当該要求に応じて照合データベースの更新処理を行う(ステップS12)。
たとえば、照合データベースに顔画像を追加(追記)する旨の要求が供給された照合処理装置10の主制御部12は、上記監視装置20からの追記要求に従って照合データベースに顔画像を追記する処理を行う。この場合、上記監視装置20からは、顔画像の追記要求とともに、追記すべき顔画像と当該顔画像を追記すべき照合データベースを示す情報とが照合処理装置10に与えられる。これにより、上記主制御部12は、追記すべき顔画像と照合データベースとを判別し、当該照合データベースに当該顔画像を追記する。
また、照合データベースに記憶されている顔画像を削除する旨の要求が供給された照合処理装置10の主制御部12は、上記監視装置20からの削除要求に従って照合データベースに記憶されている顔画像を削除する処理を行う。この場合、上記監視装置20からは、顔画像の削除要求とともに、削除すべき顔画像を指定する情報と削除すべき顔画像が記憶されている照合データベースとが与えられる。これにより、上記主制御部12は、削除すべき顔画像と照合データベーととを判別し、当該照合データベースから当該顔画像を削除する。
なお、1つの照合処理装置10に複数のカメラが接続されている形態では、照合処理装置10は、各カメラで撮影された各画像および各照合データベースについて、それぞれ上記ステップS1〜S12の処理を実行するようにすれば良い。また、ステップS1〜S4の処理とステップS11及びS12の処理とは、並列的に実施するようにしても良い。つまり、上記照合処理装置10では、できるだけリアルタイムで監視装置20に顔検出結果、顔照合結果および各カメラで撮影された画像を供給するため、カメラで撮影された画像に対する画像処理を継続的に実行するとともに、照合データベースの更新要求を受けた場合には上記画像処理と並行して照合データベースの更新処理を行うことが可能である。
次に、上記監視装置20における処理について説明する。
図11は、上記監視装置20における処理例を説明するためのフローチャートである。
図11は、上記監視装置20における処理例を説明するためのフローチャートである。
まず、上記監視装置20の主制御部21では、照合処理装置10から供給されるカメラA(B、C、D、EあるいはF)が撮影した画像、当該画像に対する顔検出処理の結果および当該画像に対する顔照合処理の結果などに基づいて監視画面の表示処理を行う(ステップS21、S22)。すなわち、上記照合処理装置10から供給されるカメラA(B、C、D、EあるいはF)が撮影した画像と当該画像に対する処理結果(顔検出処理の結果および顔照合処理の結果など)とを受信すると(ステップS21)、上記監視装置20の主制御部21は、図8あるいは図9に示すような監視画面を表示部23に表示する監視画面の表示処理を行う(ステップS22)。
図8あるいは図9に示すように、監視画面では、カメラA(B、C、D、EあるいはF)が撮影した画像に、当該画像から検出された顔画像の領域を示す点線Rdと当該画像から検出された顔画像のうち照合データベース11a(11b、11c、11d、11eあるいは11f)に記憶されている顔画像(監視対象者の顔画像)と一致した顔画像の領域を示す実線Rsとを重ね合わせたものが表示されている。従って、上記主制御部12は、カメラが撮影した画像と上記点線Rdと上記実線Rsとを合成させた画像を表示データとして生成し、当該カメラA(B、C、D、EあるいはF)による監視映像として表示するようになっている。上記点線Rdは、顔検出処理の結果に基づいて設定され、上記実線Rsは、顔検出処理の結果と顔照合処理の結果とに基づいて設定される。
また、上述したように、上記監視装置20では、上記監視画面を表示部23に表示している状態において、監視員による監視対象者の指定を受け付けるようになっている。例えば、上記表示部23に表示されている監視画面に監視対象とすべき人物が表示されていることを発見した場合、監視員は、上記操作部24により当該人物を監視対象者として指定する。ここでは、監視対象者の顔画像の領域(点線Rdで囲まれている領域)を操作部24としてのポインティングデバイスにより指定するものとする。上記操作部24により監視対象者とする人物の顔画像が指定された場合、上記主制御部21は、指定された監視対象者の顔画像を登録する処理を行う(ステップS31〜S33)。
すなわち、上記表示部23に監視画面を表示している状態において上記操作部24により監視対象者とする人物の顔画像が指定された場合(ステップS31、YES)、上記主制御部21は、指定された顔画像を監視対象者の顔画像として記憶部25内の監視対象者データベース27に記憶(登録)する(ステップS32)。この際、監視対象者データベース27には、当該監視対象者の顔画像から抽出した顔の特徴量を記憶するようにしても良い。
さらに、上記主制御部21では、指定された人物の顔画像を撮影しているカメラ、つまり、指定された顔画像が表示されているカメラに対応する照合処理装置10の照合データベース11に記憶(登録)する処理を行う(ステップS33)。この場合、上記主制御部21は、当該照合データベース11を有している照合処理装置10に対して顔画像(あるいは顔の特徴量)と当該顔画像を照合データベース11に登録する旨の要求(更新要求)を行う。これにより、照合処理装置10では、監視装置20からの更新要求に応じて照合データベース11に当該顔画像を監視対象者の顔画像として記憶する。
例えば、カメラAの撮影画像を表示している画面内において監視対象者の顔画像が指定された場合、上記主制御部21は、照合データベース11aを有している照合処理装置10に対して当該顔画像を照合データベース11aへ登録する旨を要求する。これにより、照合処理装置10では、監視装置20からの更新要求に応じて照合データベース11aに当該顔画像を監視対象者の顔画像として記憶する。
上記ステップS31〜S33の処理により、監視員が指定した人物の顔画像が監視対象者の顔画像として、当該監視対象者を撮影しているカメラに対応する照合データベースに登録される。これにより、監視員は、各カメラが撮影している画像から監視対象者を適宜指定することができ、事前に顔画像を登録していない人物であっても、適宜監視対象者として当該人物監視システムで監視することができる。
また、監視対象者が存在する場合(ステップS40、YES)、上記主制御部21では、適宜、各監視対象者の移動に応じた照合データベース11の更新要求処理を行う(ステップS41〜S46)。なお、監視対象者が存在しない場合(ステップS40、NO)、上記主制御部21は、上記ステップS41〜S46の処理は省略される。
すなわち、監視対象者が存在する場合(ステップS40、YES)、上記主制御部21は、各監視対象者に対してそれぞれ時間tを設定する。上記時間tは、監視対象者が各カメラの撮影領域から移動するごと、つまり、各カメラの撮影画像から検出されなくなるごとに(ステップS41、YES)、リセットされる(ステップS42)。言い換えると、上記主制御部21は、照合処理装置10から供給される照合結果に基づいて、各監視対象者が検出されている画像を撮影しているカメラを認識している。これにより、上記主制御部21は、あるカメラの撮影画像から検出されていた監視対象者が当該カメラの撮影画像から検出されなくなった際(ステップS41、NO)、当該監視対象者に対応する時間tをリセット(時間tの計時を開始)する(ステップS42)。たとえば、カメラAの撮影画像に対する照合結果に基づいてカメラAの撮影画像から検出されていた監視対象者がカメラAの撮影画像に対する照合処理で検出されなくなったことを判別した場合、上記主制御部21は、当該監視対象者に対応する時間tをリセットする。
また、上記主制御部21は、上記のような時間tが設定されている場合、つまり、監視対象者が存在する場合、時間tが所定の第1の時間T1あるいは所定の第2の時間T2となったか否かを監視している(ステップS43、S45)。なお、図11において、上記ステップS43では、t=T1であるか否かを判断するものとしたが、tがT1を経過したか否かを判断すれば良く、同様に、上記ステップS45では、t=T2であるか否かを判断するものとしたが、tがT2を経過したか否かを判断すれば良い。
すなわち、上記時間tが所定の第1の時間T1となったと判断した場合(ステップS43、YES)、上記主制御部21は、上記監視設定データテーブル26に記憶されている設定内容に基づいて、照合データベース11を更新する旨を照合処理装置10に要求する処理を行う(ステップS44)。たとえば、図7に示すような監視設定データテーブル26では、時間tが第1の時間T1となった場合、当該監視対象者を撮影していたカメラの撮影領域に隣接する撮影領域のカメラに対応する照合データベース11に当該監視対象者の顔画像を追加(追記)するように設定されている。
上記監視設定データテーブル26が図7に示すような設定内容であれば、上記時間tが所定の第1の時間T1となったと判断した場合、上記主制御部21は、照合処理装置10に対して、上記監視設定データテーブル26で指定されている各照合データベース11に当該監視対象者の顔画像を追記する旨を要求する。たとえば、図7に示す設定内容であれば、カメラAで撮影されていた監視対象者が移動してから時間T1が経過すると、上記主制御部21は、照合処理装置10に対して、カメラBに対応する照合データベース11bに当該監視対象者の顔画像を追記する旨を要求する。このような監視装置20からの要求に応じて、上記照合処理装置10では、上述した処理手順によって照合データベース11を更新(追記)する処理を行うようになっている。
また、上記時間tが所定の第2の時間T2となったと判断した場合(ステップS45、YES)、上記主制御部21は、上記監視設定データテーブル26に記憶されている設定内容に基づいて、照合データベース11を更新する旨を照合処理装置10に要求する処理を行う(ステップS46)。たとえば、図7に示すような監視設定データテーブル26では、時間tが第2の時間T2となった場合、当該監視対象者を撮影していたカメラの撮影領域に隣接する撮影領域のカメラ以外のカメラに対応する照合データベース11から当該監視対象者の顔画像を削除するように設定されている。
上記監視設定データテーブル26が図7に示すような設定内容であれば、上記時間tが所定の第2の時間T2となったと判断した場合、上記主制御部21は、照合処理装置10に対して、上記監視設定データテーブル26で指定されている各照合データベースに当該監視対象者の顔画像を削除する旨を要求する。たとえば、図7に示す設定内容であれば、カメラAで撮影されていた監視対象者が移動してから時間T2が経過すると、上記主制御部21は、照合処理装置10に対して、カメラBに対応する照合データベース11b以外の照合データベース11a、11c、11d、11e、11fから当該監視対象者の顔画像を削除する旨を要求する。このような監視装置20からの要求に応じて、上記照合処理装置10では、上述した処理手順によって照合データベース11を更新(削除)する処理を行うようになっている。
なお、上述したように、第1の時間T1および第2の時間T2は、T1≧0かつT1≧T1であれば、それぞれシステム構成や運用状況などによって適宜設定可能である。たとえば、T1=T2=0と設定することも可能である。ただし、監視対象者を見失わないようにするため、第1の時間T1は、少なくとも監視対象者が隣接する撮影領域からさらに移動してしまう前に各照合データベースを更新できるような時間に設定する必要がある。なお、この場合であっても、時間T2は、監視対象者が移動するごとに時間tをリセットするようにすることにより、任意の時間に設定可能である。
また、ステップS21及びS22の監視画面の表示処理と、ステップS31〜S33の監視対象者の登録処理と、ステップS41〜S46の照合データベースの更新要求処理とは、並列的に実施しても良い。つまり、上記監視装置20では、できるだけリアルタイムで監視画面を表示するため、監視画面の表示処理を継続的に実行するとともに、監視対象者の顔画像の指定があった場合には上記監視画面の表示処理と並行して監視対象者の登録処理を行ったり、監視対象者の移動が検出された場合には上記監視画面の表示処理と並行して照合データベースの更新要求処理を行ったりすることが可能である。
上記のように、本実施の形態の人物監視システムでは、監視領域内の各所に設置された複数のカメラで撮影された画像を監視装置の表示部に表示し、その表示部に表示されている画像から特定の人物の顔画像が監視装置の操作部で指定された場合、指定された人物の顔画像を監視対象者の顔画像として登録し、その登録された監視対象者の顔画像と各カメラにより撮影された画像に含まれる顔画像とを照合処理装置で照合し、その照合結果が上記監視装置の表示部に表示されるようになっている。
これにより、上記人物監視システムでは、各カメラで撮影されている画像から任意のタイミングで監視対象者の顔画像を指定することができ、任意のタイミングで指定された監視対象者を各カメラで撮影された画像に含まれる顔画像との顔照合によって追跡監視することができる。この結果として、監視員の利便性が向上し、効率的な人物追跡機能を実現できる。
また、上記人物監視システムでは、監視領域内の各所に設置された複数のカメラと各カメラに対応する照合データベースとを設定しておき、上記各カメラで撮影された画像に含まれる顔画像と上記各カメラに対応する照合データベースに記憶されている監視対象者の顔画像とを照合し、各カメラで撮影された画像と上記照合結果とを監視装置の表示部に表示するとともに、所定の設定内容と上記照合結果とに基づいて監視対象者の顔画像を記憶すべき記憶手段を判断し、その判断結果に基づいて各照合データベースを更新するようにしている。
これにより、上記人物監視システムでは、各カメラで撮影されている画像に含まれる顔画像と照合する顔画像を記憶するための各照合データベースを効率的に更新でき、さらに、照合データベースに必要性のある顔画像だけを記憶するようにできる。この結果、上記人物監視システムでは各カメラで撮影されている画像に含まれる顔画像と照合データベースに記憶されている顔画像との顔照合処理を効率的に実施でき、さらには、各カメラで撮影された画像に含まれる顔画像に対する顔照合処理の誤りを低減させたり、処理速度を向上させるたりすることができる。
A、B、C、D、E、F…カメラ(撮影手段)、Rd…点線、Rs…実線、t…時間、T1…第1の時間、T2…第2の時間、10(10a、10b、10c、10d、10e、10f、10ab、10cd、10ef)…照合処理装置、11(11a、11b、11c、11d、11e、11f)…照合データベース(記憶手段)、12…主制御部、13…画像インターフェース部、14…通信インターフェース部、15…顔検出部(顔検出手段)、16…顔照合部(照合手段)、17…記憶部、20…監視装置、21…主制御部(判断手段)、21a…タイマ、22…通信インターフェース部、23…表示部(表示手段)、24…操作部(指定手段)、25…記憶部、26…監視設定データテーブル(設定情報記憶手段)、27…監視対象者データベース
Claims (10)
- 監視領域内の各所における画像を撮影する複数の撮影手段と、
これらの撮影手段により撮影された画像を表示する表示手段と、
この表示手段により表示された各撮影手段により撮影された画像から特定の人物の顔画像を指定するための指定手段と、
この指定手段により指定された人物の顔画像を記憶する記憶手段と、
前記各撮影手段により撮影された画像に含まれる顔画像と前記記憶手段に記憶されている顔画像とを照合する照合手段と、
この照合手段による照合結果を報知する報知手段と、
を有することを特徴とする人物監視システム。 - さらに、前記各撮影手段により撮影された画像から人物の顔画像を検出する顔検出手段を有し、
前記照合手段は、前記顔検出手段により検出された顔画像と前記記憶手段により記憶されている顔画像との照合を行う、
ことを特徴とする前記請求項1に記載の人物監視システム。 - 前記報知手段は、前記表示手段により表示される各撮影手段で撮影された画像とともに、前記照合手段による照合結果を表示する、
ことを特徴とする前記請求項2に記載の人物監視システム。 - 前記報知手段は、前記表示手段により表示される各撮影手段で撮影された画像とともに、前記顔検出手段により顔画像として検出された領域を示す情報を表示し、さらに、前記顔検出手段により検出された顔画像のうち前記照合手段により前記記憶手段により記憶されている顔画像と一致した顔画像を強調表示する、
ことを特徴とする前記請求項3に記載の人物監視システム。 - 監視領域内の各所における画像を撮影する複数の撮影手段と、
これらの撮影手段により撮影された画像を表示する表示手段と、
各撮影手段ごとに設定され、監視対象者の顔画像を記憶する複数の記憶手段と、
前記撮影手段により撮影された画像に含まれる顔画像と当該画像を撮影した撮影手段に対応する記憶手段に記憶されている監視対象者の顔画像とを照合する照合手段と、
この照合手段による照合結果を報知する報知手段と、
前記照合手段による照合結果に基づいて監視対象者の顔画像を記憶すべき記憶手段を判断する判断手段と、
この判断手段による判断結果に基づいて各記憶手段を更新する更新手段と、
を有することを特徴とする人物監視システム。 - さらに、監視対象者の顔画像を記憶すべき記憶手段を判断するための設定情報を記憶する設定情報記憶手段を有し、
前記判断手段は、前記設定情報記憶手段に記憶されている設定内容と前記照合手段による照合結果とに基づいて監視対象者の顔画像を記憶すべき記憶手段を判断する、
ことを特徴とする前記請求項5に記載の人物監視システム。 - 前記設定情報記憶手段は、特定の撮影手段により撮影された画像から監視対象者の顔画像が検出されなくなってからの時間に応じて監視対象者の顔画像を記憶すべき記憶手段を示す設定情報が記憶されている、
ことを特徴とする前記請求項6に記載の人物監視システム。 - 前記設定情報記憶手段は、特定の撮影手段により撮影された画像から監視対象者の顔画像が検出されなくなってからの第1の時間に応じて監視対象者の顔画像を追記すべき記憶手段を示す情報と、前記第1の時間以上の第2の時間に応じて監視対象者の顔画像を削除すべき記憶手段を示す情報とが設定情報として記憶されている、
ことを特徴とする前記請求項6に記載の人物監視システム。 - 監視領域内の各所における画像を複数の撮影手段により撮影し、
前記各撮影手段により撮影された画像を表示手段に表示し、
前記表示手段に表示されている各撮影手段で撮影された画像における特定の人物の顔画像が指定された場合、指定された顔画像を監視対象者の顔画像として記憶手段に記憶し、
前記各撮影手段により撮影された画像に含まれる顔画像と前記記憶手段に記憶されている顔画像とを照合し、
この照合結果を報知する、
ことを特徴とする人物監視方法。 - 監視領域内の各所における画像を複数の撮影手段により撮影し、
これらの撮影手段により撮影された画像を表示手段に表示し、
前記各撮影手段により撮影された画像に含まれる顔画像と各撮影手段ごとに設定されている複数の記憶手段のうち当該画像を撮影した撮影手段に対応する記憶手段に記憶されている監視対象者の顔画像とを照合し、
この照合結果を報知し、
前記照合結果に基づいて監視対象者の顔画像を記憶すべき記憶手段を判断し、
この判断結果に基づいて各記憶手段を更新する、
ことを特徴とする人物監視方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006265576A JP2008085874A (ja) | 2006-09-28 | 2006-09-28 | 人物監視システムおよび人物監視方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006265576A JP2008085874A (ja) | 2006-09-28 | 2006-09-28 | 人物監視システムおよび人物監視方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008085874A true JP2008085874A (ja) | 2008-04-10 |
Family
ID=39356222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006265576A Pending JP2008085874A (ja) | 2006-09-28 | 2006-09-28 | 人物監視システムおよび人物監視方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008085874A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010063001A (ja) * | 2008-09-05 | 2010-03-18 | Mitsubishi Electric Corp | 人物追跡装置および人物追跡プログラム |
JP2011066797A (ja) * | 2009-09-18 | 2011-03-31 | Canon Inc | 画像照合システム、撮像装置、送信装置、及びプログラム |
JP2013196043A (ja) * | 2012-03-15 | 2013-09-30 | Glory Ltd | 特定人物監視システム |
JP5500303B1 (ja) * | 2013-10-08 | 2014-05-21 | オムロン株式会社 | 監視システム、監視方法、監視プログラム、ならびに該プログラムを記録した記録媒体 |
JP2014516222A (ja) * | 2011-05-18 | 2014-07-07 | インテレクチュアル ベンチャーズ ファンド 83 エルエルシー | 興味の特徴を含むビデオサマリー |
JP2014179830A (ja) * | 2013-03-15 | 2014-09-25 | Panasonic Corp | 画像符号化装置、撮影システム、撮影記録システム、画質符号化方法、及び画像符号化制御プログラム |
JP2015186113A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社日立国際電気 | 情報通信システム及び情報通信方法 |
JP2017081708A (ja) * | 2015-10-29 | 2017-05-18 | 日本電気株式会社 | 検品処理装置、検品システム、検品処理方法及びプログラム |
JP2019087824A (ja) * | 2017-11-02 | 2019-06-06 | 日本信号株式会社 | 監視システム |
JP2019153286A (ja) * | 2018-03-02 | 2019-09-12 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US10841501B2 (en) | 2016-05-23 | 2020-11-17 | Fujitsu Limited | Photographing control apparatus and photographing control method |
JP2021013188A (ja) * | 2018-09-06 | 2021-02-04 | 日本電気株式会社 | 方法、装置およびプログラム |
-
2006
- 2006-09-28 JP JP2006265576A patent/JP2008085874A/ja active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010063001A (ja) * | 2008-09-05 | 2010-03-18 | Mitsubishi Electric Corp | 人物追跡装置および人物追跡プログラム |
JP2011066797A (ja) * | 2009-09-18 | 2011-03-31 | Canon Inc | 画像照合システム、撮像装置、送信装置、及びプログラム |
JP2014516222A (ja) * | 2011-05-18 | 2014-07-07 | インテレクチュアル ベンチャーズ ファンド 83 エルエルシー | 興味の特徴を含むビデオサマリー |
JP2013196043A (ja) * | 2012-03-15 | 2013-09-30 | Glory Ltd | 特定人物監視システム |
JP2014179830A (ja) * | 2013-03-15 | 2014-09-25 | Panasonic Corp | 画像符号化装置、撮影システム、撮影記録システム、画質符号化方法、及び画像符号化制御プログラム |
JP5500303B1 (ja) * | 2013-10-08 | 2014-05-21 | オムロン株式会社 | 監視システム、監視方法、監視プログラム、ならびに該プログラムを記録した記録媒体 |
JP2015076687A (ja) * | 2013-10-08 | 2015-04-20 | オムロン株式会社 | 監視システム、監視方法、監視プログラム、ならびに該プログラムを記録した記録媒体 |
JP2015186113A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社日立国際電気 | 情報通信システム及び情報通信方法 |
JP2017081708A (ja) * | 2015-10-29 | 2017-05-18 | 日本電気株式会社 | 検品処理装置、検品システム、検品処理方法及びプログラム |
US10841501B2 (en) | 2016-05-23 | 2020-11-17 | Fujitsu Limited | Photographing control apparatus and photographing control method |
JP2019087824A (ja) * | 2017-11-02 | 2019-06-06 | 日本信号株式会社 | 監視システム |
JP7149063B2 (ja) | 2017-11-02 | 2022-10-06 | 日本信号株式会社 | 監視システム |
JP2019153286A (ja) * | 2018-03-02 | 2019-09-12 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP7286328B2 (ja) | 2018-03-02 | 2023-06-05 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2021013188A (ja) * | 2018-09-06 | 2021-02-04 | 日本電気株式会社 | 方法、装置およびプログラム |
JP7302566B2 (ja) | 2018-09-06 | 2023-07-04 | 日本電気株式会社 | 方法、装置およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008085874A (ja) | 人物監視システムおよび人物監視方法 | |
US11343575B2 (en) | Image processing system, image processing method, and program | |
RU2551128C1 (ru) | Устройство содействия в отслеживании, система содействия в отслеживании и способ содействия в отслеживании | |
KR102164863B1 (ko) | 정보 처리장치 및 그 방법과, 컴퓨터 판독가능한 기억매체 | |
JP6399356B2 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
JP6465600B2 (ja) | 映像処理装置および映像処理方法 | |
JP6618644B2 (ja) | 制御装置及び制御方法、プログラム | |
CN111770306B (zh) | 场景监控方法、装置、计算机设备和存储介质 | |
JP2008040781A (ja) | 被写体照合装置および被写体照合方法 | |
JP2008172427A (ja) | カメラ制御装置及びその制御方法、並びにカメラ制御システム | |
US20230353711A1 (en) | Image processing system, image processing method, and program | |
WO2020065852A1 (ja) | 認証システム、認証方法、及び、記憶媒体 | |
JP6812976B2 (ja) | 監視システム、監視ネットワーク構築方法、およびプログラム | |
KR101840300B1 (ko) | Cctv 영상의 검색 장치 및 방법 | |
JP6593922B2 (ja) | 画像監視システム | |
JP5677055B2 (ja) | 監視映像表示装置 | |
JP6004148B1 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2015228564A (ja) | 監視カメラシステム | |
JP6705102B2 (ja) | 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置 | |
JP6979643B2 (ja) | 監視映像表示システム、監視映像表示装置、監視情報管理サーバ、および、監視映像表示方法 | |
JP2019153986A (ja) | 監視システム、管理装置、監視方法、コンピュータプログラム、及び記憶媒体 | |
JP2013247461A (ja) | カメラ制御装置及びカメラ制御方法 | |
JP6941458B2 (ja) | 監視システム | |
JP2011199800A (ja) | 情報提供装置、携帯端末、情報提供システム、情報提供方法、及び情報提供プログラム | |
JP7329967B2 (ja) | 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム |