JP2018148402A - 映像監視装置および映像監視方法 - Google Patents
映像監視装置および映像監視方法 Download PDFInfo
- Publication number
- JP2018148402A JP2018148402A JP2017041586A JP2017041586A JP2018148402A JP 2018148402 A JP2018148402 A JP 2018148402A JP 2017041586 A JP2017041586 A JP 2017041586A JP 2017041586 A JP2017041586 A JP 2017041586A JP 2018148402 A JP2018148402 A JP 2018148402A
- Authority
- JP
- Japan
- Prior art keywords
- person
- information
- monitoring
- video
- occurrence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】映像監視者の映像目視の負担を低減するとともに、設備コストを増大することなく広いエリアを監視できる映像監視装置を提供する。【解決手段】映像監視装置3は、監視映像情報を取得するカメラ映像取得手段4と、監視映像情報から複数の人物領域を抽出して、人物領域のそれぞれについて人物の視線方向を求め、複数の人物の視線方向が特定位置に向いていることを判別して注目事象の発生を検知する障害検知手段5と、注目事象の発生を通知する出力装置10と、を備える。【選択図】図1
Description
本発明は、映像監視装置および映像監視方法に関する。
施設やエリア内に監視カメラを設置し、監視カメラで撮影した映像を監視者が遠隔地で監視する映像監視システムがある。この映像監視システムでは、監視者の映像目視により状況を把握し、監視者が危険と判断した場合に、発生した状況に応じて措置することで、犯罪やテロの防止などのセキュリティ対応を行っている。
上記の映像監視システムでは、撮影エリア内の監視しかできないため、広いエリアの監視を行う場合には、監視カメラを死角がないように網羅的に設置するか、監視者が状況変化の見逃しがないよう常にカメラを操作・監視する必要がある。
このため、映像監視システムの設備コストや監視者の負担が非常に大きくなる問題がある。
上記の映像監視システムでは、撮影エリア内の監視しかできないため、広いエリアの監視を行う場合には、監視カメラを死角がないように網羅的に設置するか、監視者が状況変化の見逃しがないよう常にカメラを操作・監視する必要がある。
このため、映像監視システムの設備コストや監視者の負担が非常に大きくなる問題がある。
監視者の負担を低減する技術として、特許文献1には、人物を撮影する撮影装置と、画像を送信する送信装置と、撮影装置によって撮影された画像の中から人物の顔表情の変化を認識し、顔表情の変化があった人物を特定し、特定した人物に関連付けられる宛先に、変化した顔情報を含む画像を、送信装置を介して送信する、処理を行う処理装置と、を備える監視システムが開示されている。
上記の先行技術によれば、監視者の映像目視の負担を低減することができる。
しかし、ある特定の被監視者のみの監視を目的としており、公共施設や商業施設の監視など被監視者を特定できない場合には適用することができない。
また、広いエリアの映像監視について考慮されておらず、映像監視システムの設備コストを低減できない。
しかし、ある特定の被監視者のみの監視を目的としており、公共施設や商業施設の監視など被監視者を特定できない場合には適用することができない。
また、広いエリアの映像監視について考慮されておらず、映像監視システムの設備コストを低減できない。
本発明の目的は、映像監視者の映像目視の負担を低減するとともに、設備コストを増大することなく広いエリアを監視できる映像監視装置を提供することにある。
前記課題を解決するため、本発明の映像監視装置は、監視映像情報を取得する監視映像取得手段と、前記監視映像情報から複数の人物領域を抽出して、前記人物領域のそれぞれについて人物の視線方向を求め、複数の人物の視線方向が特定位置に向いていることを判別して注目事象の発生を検知する障害検知手段と、前記注目事象の発生を通知する表示手段と、を備えるようにした。
本発明によれば、監視者の作業負担を低減するとともに、コスト負担が増加することなく広いエリアの映像監視を行える。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
≪第1実施形態≫
図1は、第1実施形態の映像監視装置を適用した映像監視システムの構成図である。
第1実施形態の映像監視装置3は、ネットワーク2に接続する複数の監視カメラ1から監視映像を取得し、監視カメラ1が設置されたエリアの映像監視を行う。
≪第1実施形態≫
図1は、第1実施形態の映像監視装置を適用した映像監視システムの構成図である。
第1実施形態の映像監視装置3は、ネットワーク2に接続する複数の監視カメラ1から監視映像を取得し、監視カメラ1が設置されたエリアの映像監視を行う。
つぎに、実施形態の映像監視装置3の内部構成を説明する。
カメラ映像取得手段4は、ネットワーク2との接続を制御し、監視カメラ1の監視映像情報を取得し、主記憶装置9に記憶する制御部である。
障害検知手段5は、主記憶装置9に記憶する監視映像情報と、補助記憶装置8の詳細を後述する情報に基づいて障害判定を行う。
カメラ映像取得手段4は、ネットワーク2との接続を制御し、監視カメラ1の監視映像情報を取得し、主記憶装置9に記憶する制御部である。
障害検知手段5は、主記憶装置9に記憶する監視映像情報と、補助記憶装置8の詳細を後述する情報に基づいて障害判定を行う。
この障害検知手段5は、例えば、DLL(Dynamic Link Library)のようなソフトウェア形態でシステムにアドオンしても良いし、LSI(Large Scale Integration)のような電子回路にアルゴリズムを組み込んでハードウェア形態でシステムにアドオンしても良い。
警告画像生成手段6は、障害検知手段5で障害を検知した際に、出力装置10に重畳表示する警告画像を生成する。
警報発報手段7は、障害検知手段5で障害を検知した際に、映像監視装置3の外部に接続され、監視者に障害を検知したことを通知する発報装置11を駆動する。
発報装置11は、USB(Universal Serial Bus)やネットワーク2を介して、映像監視装置3に接続している。例えば、パトランプ等の信号灯を適用する。
警報発報手段7は、障害検知手段5で障害を検知した際に、映像監視装置3の外部に接続され、監視者に障害を検知したことを通知する発報装置11を駆動する。
発報装置11は、USB(Universal Serial Bus)やネットワーク2を介して、映像監視装置3に接続している。例えば、パトランプ等の信号灯を適用する。
障害検知手段5には、監視映像情報の中から人物画像を検出する人物検出部51と、人物検出部51で検出した人物画像の顔表情を検出する表情検出部52と、人物検出部51で検出した人物画像の視線方向を検出する視線検出部53と、表情検出部52で検出した人物画像の顔表情と視線検出部53で検出した人物画像の視線方向から、障害の有無を判定する障害判定部54と、が設けられている。
補助記憶装置8には、人物検出部51で検出した人物画像それぞれの検出情報を記憶する人物情報81と、監視カメラ1の仕様や設置情報を記憶するカメラ情報82と、表情検出部52で検出する表情種別を示す表情情報83と、障害判定部54で障害と判定した事象の情報を記憶する障害情報84と、が設けられている。
つぎに、人物情報81とカメラ情報82と表情情報83と障害情報84の構成を説明する。
図2は、人物情報81のデータ構造を示す図である。人物情報81は、時刻情報811と、カメラID812と、人物ID813と、表情ID814と、視線位置815と、人物座標816とを、人物検出部51(図1参照)で監視映像情報の中から検出した人物画像毎に記憶する。
図2は、人物情報81のデータ構造を示す図である。人物情報81は、時刻情報811と、カメラID812と、人物ID813と、表情ID814と、視線位置815と、人物座標816とを、人物検出部51(図1参照)で監視映像情報の中から検出した人物画像毎に記憶する。
時刻情報811は、監視映像の取得時刻であり、Exif(Exchangeable image file formatの略で写真用のメタデータを含む画像ファイルフォーマットの一つ)情報などの画像メタデータから抽出して記憶される。
カメラID812は、人物を検出した監視映像情報を撮像した監視カメラ1のIDである。このカメラID812は、映像送信元のカメラIPアドレスをキーに、後述するカメラ情報82を参照して求める。
カメラID812は、人物を検出した監視映像情報を撮像した監視カメラ1のIDである。このカメラID812は、映像送信元のカメラIPアドレスをキーに、後述するカメラ情報82を参照して求める。
人物ID813は、人物検出部51(図1参照)で、監視映像情報の中から検出した人物画像毎に割り振られたIDである。例えば、監視映像情報の一枚の画像内に4人の人物画像を検出できた場合、順にH1、H2、H3、H4のようにIDを割り振る。この際割り振るIDは、画像の左から順に番号を割り振るでも良いし、ランダムに割り振るようにしても良い。複数フレームの監視映像情報の中から同一の人物画像が検出された場合には、同じIDを割り振ることが望ましい。
表情ID814は、表情検出部52により検出された人物画像の表情のIDを示している。後述する表情情報83に、人物画像の表情の表情名とIDが対応付けられている。
視線位置815は、視線検出部53で検出した人物画像の視線方向を示している。詳しくは、視線検出部53で検出した視線ベクトルと監視映像情報の俯瞰画像の画像端との交点のXY座標値が記憶される。
人物座標816は、人物検出部51で検出した人物画像毎の、監視映像情報における人物画像の中心XY座標値を示している。詳しくは、この座標値は、視カメラ1の監視映像情報をアフィン変換により俯瞰画像に変換した際の、人物画像の中心座標とする。
視線位置815は、視線検出部53で検出した人物画像の視線方向を示している。詳しくは、視線検出部53で検出した視線ベクトルと監視映像情報の俯瞰画像の画像端との交点のXY座標値が記憶される。
人物座標816は、人物検出部51で検出した人物画像毎の、監視映像情報における人物画像の中心XY座標値を示している。詳しくは、この座標値は、視カメラ1の監視映像情報をアフィン変換により俯瞰画像に変換した際の、人物画像の中心座標とする。
図3は、カメラ情報82のデータ構造を示す図である。カメラ情報82は、カメラID821と、IPアドレス822と、設置位置情報823、カメラ内部パラメータ824と、水平方位825と、垂直角度826とから構成され、映像監視装置3が取得する監視映像情報を撮像する監視カメラ1毎に記憶されている。
カメラID821は、監視カメラ1のIDである。
IPアドレス822は、ネットワーク2における監視カメラ1のIDである。
設置位置情報823は、監視カメラ1が設置されている緯度・経度・高さの設置位置情報である。
カメラ内部パラメータ824は、監視カメラ1の幅・高さの画像サイズ、焦点距離、ズーム倍率等のカメラ仕様を示す情報である。
水平方位825は、監視カメラ1の撮像方位を示す設置情報である。
垂直角度826は、監視カメラ1の傾き角を示す設置情報である。
IPアドレス822は、ネットワーク2における監視カメラ1のIDである。
設置位置情報823は、監視カメラ1が設置されている緯度・経度・高さの設置位置情報である。
カメラ内部パラメータ824は、監視カメラ1の幅・高さの画像サイズ、焦点距離、ズーム倍率等のカメラ仕様を示す情報である。
水平方位825は、監視カメラ1の撮像方位を示す設置情報である。
垂直角度826は、監視カメラ1の傾き角を示す設置情報である。
図4は、表情情報83のデータ構造を示す図である。表情情報83は、表情ID831と、表情種類832と、特徴量範囲833と、を記憶する。
人物の表情は、例えば、目尻や口角がある閾値以上さがった場合は「悲しみ」、口角がある閾値以上あがった場合には「喜び」、などの、表情毎に顔器官の特徴量の範囲が異なる。そこで、表情情報83に、表情毎の表情ID831と表情種類832と特徴量範囲833を記憶しておく。
人物の表情は、例えば、目尻や口角がある閾値以上さがった場合は「悲しみ」、口角がある閾値以上あがった場合には「喜び」、などの、表情毎に顔器官の特徴量の範囲が異なる。そこで、表情情報83に、表情毎の表情ID831と表情種類832と特徴量範囲833を記憶しておく。
表情検出部52は、人物画像の目、鼻、口などの顔器官検出を行い、眉の位置、目尻の角度や口角の変化を捉えて、特徴量を算出する。そして、表情情報83を参照して、算出した特徴量に対応する表情ID831を求める。
図5は、障害情報84のデータ構造を示す図である。障害情報84は、日時情報841と、カメラID842と、最多表情843と、障害発生位置844と、から構成される。
日時情報841は、障害判定部54で障害と判定した監視映像情報の取得時刻が記録され、障害発生時刻を示している。
カメラID842は、障害判定部54で障害と判定した監視映像情報を撮像した監視カメラ1のIDを記憶する。
日時情報841は、障害判定部54で障害と判定した監視映像情報の取得時刻が記録され、障害発生時刻を示している。
カメラID842は、障害判定部54で障害と判定した監視映像情報を撮像した監視カメラ1のIDを記憶する。
最多表情843は、障害判定部54で障害と判定した監視映像情報の人物画像で、最も多かった表情IDを記憶する。
障害発生位置844は、障害判定部54が障害と判定した監視映像情報の人物画像の視線が集中している位置を記憶する。詳細は後述するが、この位置が障害発生位置と推定する。
障害発生位置844は、障害判定部54が障害と判定した監視映像情報の人物画像の視線が集中している位置を記憶する。詳細は後述するが、この位置が障害発生位置と推定する。
つぎに、実施形態の映像監視装置3(図1参照)の処理フローを図6により説明する。
図6の処理フローは、1台の監視カメラ1のフレーム単位の監視映像情報について、所定周期で行われる処理である。
図6の処理フローは、1台の監視カメラ1のフレーム単位の監視映像情報について、所定周期で行われる処理である。
ステップS601のカメラ映像取得では、カメラ映像取得手段4が、ネットワーク2を介して、監視カメラ1から監視映像情報を取得し、主記憶装置9に記憶する。
ステップS602の人物検出処理では、人物検出部51が、主記憶装置9の監視映像情報からのHOG特徴量などを算出して人物領域の検出し、人物画像の抽出を行う。
HOG特徴量とは、Histograms of Oriented Gradientsの略で局所領域の輝度の勾配方向をヒストグラム化したものである。
ステップS602の人物検出処理では、人物検出部51が、主記憶装置9の監視映像情報からのHOG特徴量などを算出して人物領域の検出し、人物画像の抽出を行う。
HOG特徴量とは、Histograms of Oriented Gradientsの略で局所領域の輝度の勾配方向をヒストグラム化したものである。
人物検出部51は、抽出した人物画像の数を検出した人数とし、人物情報81(図2参照)に、人数分のエントリを追加する。
そして、人物検出部51は、時刻情報811とカメラID812と人物ID813と人物座標816を登録する。この際、人物座標816には、監視映像情報を俯瞰画像にアフィン変換した際の座標値を登録する。
そして、人物検出部51は、時刻情報811とカメラID812と人物ID813と人物座標816を登録する。この際、人物座標816には、監視映像情報を俯瞰画像にアフィン変換した際の座標値を登録する。
ステップS603では、人物検出部51で検出した人物が2人以上であるか否かを判定する。これは、映像監視装置3の障害検知手段5が、複数の人物の視線方向(顔向き方向)により、障害の有無を判定していることによる。
人物検出部51で検出した人数が0人または1人の場合(S603のNo)、処理を終了する。
人物検出部51で検出した人数が2人以上の場合(S603のYes)、ステップS604に進む。
人物検出部51で検出した人数が0人または1人の場合(S603のNo)、処理を終了する。
人物検出部51で検出した人数が2人以上の場合(S603のYes)、ステップS604に進む。
ステップS604の表情検出処理では、表情検出部52が、人物検出部51で抽出した人物画像のそれぞれについて、目、鼻、口などの顔器官検出を行い、眉の位置、目尻の角度や口角を捉えて、特徴量を算出する。そして、表情情報83を参照して、算出した特徴量を含む特徴量範囲833をもつ表情種類832を特定し、その表情種類をその人物画像の人の表情とする。
表情検出部52は、人物検出部51で抽出した人物画像のそれぞれについて、求めた表情種類832に対応する表情ID831の値を人物情報81の表情ID814に登録する。
表情検出部52は、人物検出部51で抽出した人物画像のそれぞれについて、求めた表情種類832に対応する表情ID831の値を人物情報81の表情ID814に登録する。
ステップS605の視線検出処理では、視線検出部53が、人物検出部51で抽出した人物画像のそれぞれについて、人物の頭部全体と目や鼻などの顔器官の位置を検出し、これらの位置関係から顔の向きを求め、これを視線方向とする。
顔の向きを視線方向とすることにより、高解像度の監視映像情報でなくても、視線方向を求めることができる。もちろん、眼球映像情報から視線方向を検出してもよい。
顔の向きを視線方向とすることにより、高解像度の監視映像情報でなくても、視線方向を求めることができる。もちろん、眼球映像情報から視線方向を検出してもよい。
さらに、視線検出部53は、監視カメラ1の監視映像情報を俯瞰画像にアフィン変換し、顔の向きから決めた視線ベクトルについて、俯瞰画像の画像端の位置座標を算出する。視線検出部53は、この位置座標を、人物情報81の視線位置815に登録する。
ステップS606の障害有無判定処理では、障害判定部54が、表情検出部52で検出した表情ID814と視線検出部53で検出した視線位置815により障害有無判定を行う。
以下、図7により、ステップS606の障害判定部54の処理フローを説明する。
以下、図7により、ステップS606の障害判定部54の処理フローを説明する。
ステップS71で、障害判定部54は、人物情報81(図2参照)を参照して、時刻情報811とカメラID812が同値のエントリを抽出する。
ステップS72で、障害判定部54は、抽出したエントリのうちで、表情ID814がE2(驚き)、E3(怒り)、E4(悲しみ)の“負の表情”のエントリの占める割合を求め、この割合が所定の閾値(例えば、8割)以上か否かを判定する。
“負の表情”の割合が所定の閾値以上でない場合(S72のNo)、障害無と判定(S75)し、処理を終了する。
ステップS72で、障害判定部54は、抽出したエントリのうちで、表情ID814がE2(驚き)、E3(怒り)、E4(悲しみ)の“負の表情”のエントリの占める割合を求め、この割合が所定の閾値(例えば、8割)以上か否かを判定する。
“負の表情”の割合が所定の閾値以上でない場合(S72のNo)、障害無と判定(S75)し、処理を終了する。
“負の表情”の割合が所定の閾値以上の場合(S72のYes)、障害判定部54は、S71で抽出したエントリの視線位置815と人物座標816から視線ベクトルを算出し、複数の視線ベクトルが特定の位置に向いているか否かを判定する。
詳しくは、人物座標816を始点とする視線位置815とを含む直線の交点を障害の発生点とする。障害の発生点は、監視映像情報の撮像範囲内となる場合も、撮像範囲外となる場合もある。
これは、周囲で事故や事件等の危険事象等の障害が発生すると、人物は障害の発生点を注視するとともに、顔が“負の表情”に成る。したがって、複数の人物が“負の表情”であり、特定の位置を注視していれば、障害有と判定できる。
そこで、複数の視線ベクトルが特定の位置に向いていれば(S73のYes)、障害有と判定して、障害情報84の日時情報841と、カメラID842と、最多表情843と、を記憶するとともに、障害発生位置844として複数の視線ベクトルが向いている点の平均座標値を記録する(S74)。
図6に戻り、ステップS607で、ステップS606の障害有無判定処理の処理結果が障害有となったか否かを判定する。
ステップS607で、障害無であった場合には(S607のNo)、映像監視装置3の処理を終了する。ステップS607で、障害有であった場合には(S607のYes)、ステップS608に進む。
ステップS607で、障害無であった場合には(S607のNo)、映像監視装置3の処理を終了する。ステップS607で、障害有であった場合には(S607のYes)、ステップS608に進む。
ステップS608の障害判定結果画像生成処理で、警告画像生成手段6の表示画像生成部61は、出力装置10に画像表示するための障害発生を通知する警告画像を生成し、出力装置10に通知する。
ステップS609の障害判定結果画像表示で、出力装置10は、ディスプレイ等に警告画像を表示し、監視者に障害の発生を知らせる。
この際、出力装置10は、障害発生位置844の方向が判るように方向画像を監視映像に重畳表示する。
ステップS609の障害判定結果画像表示で、出力装置10は、ディスプレイ等に警告画像を表示し、監視者に障害の発生を知らせる。
この際、出力装置10は、障害発生位置844の方向が判るように方向画像を監視映像に重畳表示する。
ステップS610の障害発報処理で、警報発報手段7は、発報装置11を動作させて、障害の発生を通知する。
ステップS611の障害発生位置のカメラ映像取得処理では、カメラ映像取得手段4が、障害情報84を参照して障害発生位置844に基づいて、監視カメラ1の撮像方向が障害発生位置になるように制御する。
障害情報84のカメラID842に指定される監視カメラ1が固定カメラの場合には、映像監視装置3が制御する他の監視カメラ1の撮像方向を変更するように制御してもよい。
ステップS611の障害発生位置のカメラ映像取得処理では、カメラ映像取得手段4が、障害情報84を参照して障害発生位置844に基づいて、監視カメラ1の撮像方向が障害発生位置になるように制御する。
障害情報84のカメラID842に指定される監視カメラ1が固定カメラの場合には、映像監視装置3が制御する他の監視カメラ1の撮像方向を変更するように制御してもよい。
図6と図7の処理フローでは、1台の監視カメラ1の監視映像情報に基づいて処理するフローを説明したが、障害発生を複数の監視カメラ1により同時に検出できる場合もある。
このため、図7の障害判定部54の処理フローにおいて、ステップS71で、時刻情報が同じ複数の監視カメラ1の表情ID814と視線位置815により、障害有無の判定を行うようにしてもよい。
この場合には、図6のステップS603の検出人数の判定は不要となる。
このため、図7の障害判定部54の処理フローにおいて、ステップS71で、時刻情報が同じ複数の監視カメラ1の表情ID814と視線位置815により、障害有無の判定を行うようにしてもよい。
この場合には、図6のステップS603の検出人数の判定は不要となる。
図6と図7の処理フローでは、ステップS604で表情検出処理を行い、ステップS72で“負の表情”の割合が閾値以上か判定したが、複数の人物画像の視線方向が特定位置に向いている場合に、障害有と判定するようにしてもよい。
この場合には、危険事象だけでなく、多くの人が注視する注目事象を監視対象とすることができる。つまり、複数の人物画像の視線方向が略同一方向であれば、監視対象の注目事象が発生したと判定する。
この場合には、危険事象だけでなく、多くの人が注視する注目事象を監視対象とすることができる。つまり、複数の人物画像の視線方向が略同一方向であれば、監視対象の注目事象が発生したと判定する。
つぎに、図8A〜図11により、実施形態の映像監視装置3の動作を説明する。
図8Aは、監視カメラ1の視野範囲の監視映像情報の一例を示す図である。
監視カメラ1は、車道の端に設けられた歩道を、人物A〜人物Dの4名が歩行しているようすを撮像している。
図8Aは、監視カメラ1の視野範囲の監視映像情報の一例を示す図である。
監視カメラ1は、車道の端に設けられた歩道を、人物A〜人物Dの4名が歩行しているようすを撮像している。
図8Bは、障害検知手段5により検出した人物A〜人物Dの視線方向(顔向き方向)を、図8Aの監視映像情報の俯瞰画像に視線ベクトルとして示した図である。
図8Bの視線ベクトルは、人物A〜人物Dの視線の方位を示している。
人物情報81の人物座標816には、俯瞰画像上の各人の視線ベクトルの始点座標が記憶され、視線位置815には視線ベクトルの終点座標が記憶されている。
図8Bの視線ベクトルは、人物A〜人物Dの視線の方位を示している。
人物情報81の人物座標816には、俯瞰画像上の各人の視線ベクトルの始点座標が記憶され、視線位置815には視線ベクトルの終点座標が記憶されている。
図9Aは、監視カメラ1の監視映像情報の視野範囲外の車道を車が走行している状況を示している。車は、監視カメラ1のカメラ死角を走行しているため、図9Aのような監視映像情報を取得することはできないが、説明のために、監視映像情報を取得した状況として示している。
図9Bは、視野範囲の監視映像情報の俯瞰画像に人物A〜人物Dの視線ベクトルを表示した図である。
図9Aや図9Bの状況では、人物A〜人物Dの周囲で事故や事件等の危険事象が発生していないので、人物A〜人物Dが同じ方向を注視することがない。このため、図9Bの視線ベクトルが一点を向くことはない。
図9Aや図9Bの状況では、人物A〜人物Dの周囲で事故や事件等の危険事象が発生していないので、人物A〜人物Dが同じ方向を注視することがない。このため、図9Bの視線ベクトルが一点を向くことはない。
図10Aは、監視カメラ1の監視映像情報の取得範囲外の車道を走行している車に、事故が発生した状況を示している。
このとき、監視カメラ1の視野範囲の人物A〜人物Dは、事故発生により車を注視する。人物A〜人物Cは、車の状況を認識して、驚き・怒り・悲しみ等の表情に変わる。人物Dは、車を注視しているが、車から離れているため、状況までは認識できず顔の表情が変わっていない。
このとき、監視カメラ1の視野範囲の人物A〜人物Dは、事故発生により車を注視する。人物A〜人物Cは、車の状況を認識して、驚き・怒り・悲しみ等の表情に変わる。人物Dは、車を注視しているが、車から離れているため、状況までは認識できず顔の表情が変わっていない。
図10Bは、障害検知手段5により検出した人物A〜人物Dの視線方向(顔向き方向)を、図10Aの監視映像情報の俯瞰画像に視線ベクトルとして示した図である。
人物A〜人物Dの視線ベクトルは、視野範囲外のカメラ死角の領域の一点を指しており、この点を事故発生点(障害発生点)とすることができる。
詳しくは、俯瞰画像上の各人の視線ベクトルは、人物情報81の人物座標816と視線位置815により与えられるので、視線ベクトルの交点を算出することで、障害発生点の座標を取得できる。
人物A〜人物Dの視線ベクトルは、視野範囲外のカメラ死角の領域の一点を指しており、この点を事故発生点(障害発生点)とすることができる。
詳しくは、俯瞰画像上の各人の視線ベクトルは、人物情報81の人物座標816と視線位置815により与えられるので、視線ベクトルの交点を算出することで、障害発生点の座標を取得できる。
図11は、監視情報を出力する出力装置10(図1参照)の表示の一例を示す図である。監視映像情報に重畳して、警告画像生成手段6の表示画像生成部61により生成した「危険発生」の警告画像を表示するとともに、障害発生点の方向を示す矢印マークを表示する。
監視者は、警告画像の表示により、映像目視の負担を低減が低減できるとともに、監視カメラ1の視野外の危険事象等の障害発生を知ることができるので、監視カメラ1を増やすことなく、広い範囲を監視できる。
監視者は、警告画像の表示により、映像目視の負担を低減が低減できるとともに、監視カメラ1の視野外の危険事象等の障害発生を知ることができるので、監視カメラ1を増やすことなく、広い範囲を監視できる。
上記の実施形態の映像監視装置3では、複数の人物が“負の表情”であり、かつ、複数の人物が特定の位置を注視していれば、障害有と判定する例を説明したが、これに限定されるもではない。“恐怖”や“嫌悪”の表情を“負の表情”に加えてもよい。
また、“喜び”の表情を示す“正の表情”を判定してもよい。
また、“喜び”の表情を示す“正の表情”を判定してもよい。
さらに、人物表情に関係なく、所定数以上の人物の視線方向(顔向き方向)が一致することを検出した際に、注目事象が発生したと判定する。そして、注目事象の発生と発生点を出力装置10に表示する。その後、人物画像の顔表情から注目事象を種別を判定して出力装置10に表示するようにしてもよい。
つまり、図7のフロー図において、ステップS72とステップS73の手順を逆にして、ステップS73の判定を先に行い、視線が特定位置に向いていたときに、表情IDの“負の表情”以外の他の表情とも比較して、注目事象の種類を特定するようにしてもよい。
つまり、図7のフロー図において、ステップS72とステップS73の手順を逆にして、ステップS73の判定を先に行い、視線が特定位置に向いていたときに、表情IDの“負の表情”以外の他の表情とも比較して、注目事象の種類を特定するようにしてもよい。
また、図8A〜図11では、視線ベクトルが視野範囲外のカメラ死角の領域の一点を指す場合について説明したが、視線ベクトルが視野範囲内であってもよいことは言うまでもない。
この場合には、視線位置815には、視線ベクトルの交点座標を記憶してもよい。
この場合には、視線位置815には、視線ベクトルの交点座標を記憶してもよい。
≪第2実施形態≫
図12は、第2実施形態の映像監視装置を適用した映像監視システムの構成図である。
実施形態の映像監視装置3は、図1の映像監視装置3に、不審人物検出手段12を追加する構成となっている。これにより、障害状態検出した際に、障害事象の関係者である不審者の特定情報を提供するものである。
図12は、第2実施形態の映像監視装置を適用した映像監視システムの構成図である。
実施形態の映像監視装置3は、図1の映像監視装置3に、不審人物検出手段12を追加する構成となっている。これにより、障害状態検出した際に、障害事象の関係者である不審者の特定情報を提供するものである。
不審人物検出手段12は、障害検知手段5で検出された情報を用いて不審者の検出を行う。具体的な検出方法については後述する。
警報画像生成手段6は、障害検知手段5で障害を検知した際に、出力装置10に重畳表示する警告画像を生成するとともに、不審人物検出手段12が検出した不審者の指示画像を生成する。
他の構成は、図1の映像監視装置3と同じであるため、説明を省略する。
警報画像生成手段6は、障害検知手段5で障害を検知した際に、出力装置10に重畳表示する警告画像を生成するとともに、不審人物検出手段12が検出した不審者の指示画像を生成する。
他の構成は、図1の映像監視装置3と同じであるため、説明を省略する。
図13は、人物情報81のデータ構造を示す図である。図2の人物情報81に、不審人物フラグ817が追加された構成となっている。
不審人物フラグ817に“1”が設定されたデータが、不審人物検出手段12によって不審者と判定されたことを示している。
不審人物フラグ817に“1”が設定されたデータが、不審人物検出手段12によって不審者と判定されたことを示している。
図14は、実施形態の映像監視装置3(図12参照)の処理フローを示す図である。
図6で説明した映像監視装置3の処理フローのステップS607とステップS608の間に、不審者検出の処理を追加したものとなっている。
ステップS601からステップS611は、図6と同じため、説明は省略する。
図6で説明した映像監視装置3の処理フローのステップS607とステップS608の間に、不審者検出の処理を追加したものとなっている。
ステップS601からステップS611は、図6と同じため、説明は省略する。
ステップS607で、障害判定部54が障害有と判定した場合に(S607のYes)、不審人物検出手段12が、不審人物の有無の判定を行う(S141)。
ステップS141の処理は、図15により詳細に説明する。
ステップS141の処理は、図15により詳細に説明する。
ステップS141の処理で不審人物無と判定した場合には(S142のNo)、ステップS608に進む。
ステップS141の処理で不審人物有と判定した場合には(S142のYes)、ステップS143の不審人物判定結果画像生成処理で、表示画像生成部61が不審人物を特定する画像情報を生成する。この画像情報は、ステップS609の障害判定結果画像表示で、出力装置10が、警告画像と不審人物を特定する画像情報として、監視映像に重畳表示する。
ステップS141の処理で不審人物有と判定した場合には(S142のYes)、ステップS143の不審人物判定結果画像生成処理で、表示画像生成部61が不審人物を特定する画像情報を生成する。この画像情報は、ステップS609の障害判定結果画像表示で、出力装置10が、警告画像と不審人物を特定する画像情報として、監視映像に重畳表示する。
つぎに、図15により、ステップS141の不審人物有無判定処理の詳細を説明する。
不審人物検出手段12は、ステップS151で、障害情報84(図5参照)の日時情報841とカメラID842の値をキーに人物情報81(図13を参照)を検索して、障害発生時の人物情報を検索する。
ステップS152で、検索した人物数分、ステップS153からステップS156の処理を繰り返す。
不審人物検出手段12は、ステップS151で、障害情報84(図5参照)の日時情報841とカメラID842の値をキーに人物情報81(図13を参照)を検索して、障害発生時の人物情報を検索する。
ステップS152で、検索した人物数分、ステップS153からステップS156の処理を繰り返す。
ステップS153では、検索した人物情報の表情ID814が、“喜び”の表情である“正の表情”であるか否かを判定する。
表情ID814が“負の表情”であれば(S153のNo)、ステップS156に進む。ステップS156では、検索した人物情報の不審人物フラグ817に“0”を設定して、繰り返し処理を継続する(S152)。
表情ID814が“負の表情”であれば(S153のNo)、ステップS156に進む。ステップS156では、検索した人物情報の不審人物フラグ817に“0”を設定して、繰り返し処理を継続する(S152)。
表情ID814が“正の表情”であれば(S153のYes)、障害発生位置844と人物座標816を参照して、2点の距離を算出する。そして、この距離が、閾値以内か否か判定する(S154)。
距離が閾値以内であれば(S154のYes)、ステップS155に進む。ステップS155では、検索した人物情報の不審人物フラグ817に“1”を設定して、繰り返し処理を継続する(S152)。
距離が閾値以内であれば(S154のYes)、ステップS155に進む。ステップS155では、検索した人物情報の不審人物フラグ817に“1”を設定して、繰り返し処理を継続する(S152)。
距離が閾値以内でなければ(S154のNo)、ステップS156に進む。ステップS156では、検索した人物情報の不審人物フラグ817に“0”を設定して、繰り返し処理を継続する(S152)。
ステップS152で、検索した人物数分、ステップS153からステップS156の処理を行うと、不審人物有無判定処理を終了する。
ステップS152で、検索した人物数分、ステップS153からステップS156の処理を行うと、不審人物有無判定処理を終了する。
図16は、監視情報を出力する出力装置10(図12参照)の表示の一例を示す図である。監視映像情報に重畳して、警告画像生成手段6の表示画像生成部61により生成した「危険発生」の警告画像を表示するとともに、障害発生点の方向を示す矢印マークを表示し、さらに、表示画像生成部61により生成した不審人物を特定する画像情報を、重畳表示する。この不審人物を特定する画像情報は、図16の“人物D”を囲む矩形図形である。
監視者は、警告画像の表示により、映像目視の負担を低減できるとともに、上記の不審人物有無判定処理により、“正の表情”をして現場を観察している放火等の愉快犯を検知することができる。
また、監視カメラ1の視野外の危険事象等の障害発生を知ることができるので、監視カメラ1を増やすことなく、広い範囲を監視できる。
また、監視カメラ1の視野外の危険事象等の障害発生を知ることができるので、監視カメラ1を増やすことなく、広い範囲を監視できる。
上記の実施形態の映像監視装置3は、監視カメラ1の監視映像情報に基づいて、人物画像の視線方向と顔表情から障害検知しているが、監視カメラ1で取得した環境音を加えて障害有無判定を行ってもよい。これにより、障害検出の精度を向上することができる。
詳細には、環境音が所定のピーク音圧を超えた時刻を検出する。そして、この時刻から所定時間の間に、障害検知手段5により複数人物の人物表情が所定条件を満たし、かつ、複数人物が同一点を注視している場合に、障害有と判定する。
これにより、例えば、車の追突事故等を精度よく検出することができる。
これにより、例えば、車の追突事故等を精度よく検出することができる。
また、環境音が通常状態からの変化を判定し、変化した時刻から所定時間の間の監視映像情報を障害有無判定するようにしてもよい。
さらに、環境音が所定のピーク音圧を超えた際の、ピーク音の発生方向を検出する。そして、このピーク音の発生方向と、監視映像情報の複数の人物画像の視線方向とが、略一致する場合に、障害有と判定してもよい。
上記の実施形態の映像監視装置3では、監視映像情報の複数の人物画像の視線方向を検出する例を説明したが、ひとりの人物画像の視線方向の時間変化を検出し、同一の視線方向を所定時間維持していた場合に、障害有と判定してもよい。
本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。上記の実施例は本発明で分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。
1 監視カメラ
2 ネットワーク
3 映像監視装置
4 カメラ映像取得手段(監視映像取得手段)
5 障害検知手段
51 人物検出部
52 表情検出部
53 視線検出部
54 障害判定部
6 警告画像生成手段
61 表示画像生成部
7 警報発報手段
8 補助記憶装置
81 人物情報
82 カメラ情報
83 表情情報
84 障害情報
9 主記憶装置
10 出力装置(表示手段)
11 発報装置
2 ネットワーク
3 映像監視装置
4 カメラ映像取得手段(監視映像取得手段)
5 障害検知手段
51 人物検出部
52 表情検出部
53 視線検出部
54 障害判定部
6 警告画像生成手段
61 表示画像生成部
7 警報発報手段
8 補助記憶装置
81 人物情報
82 カメラ情報
83 表情情報
84 障害情報
9 主記憶装置
10 出力装置(表示手段)
11 発報装置
Claims (10)
- 監視映像情報を取得する監視映像取得手段と、
前記監視映像情報から複数の人物領域を抽出して、前記人物領域のそれぞれについて人物の視線方向を求め、複数の人物の視線方向が特定位置に向いていることを判別して注目事象の発生を検知する障害検知手段と、
前記注目事象の発生を通知する表示手段と、
を備えたことを特徴とする映像監視装置。 - 請求項1に記載の映像監視装置において、
前記障害検知手段は、
前記人物領域のそれぞれについて顔器官検出して表情を求めて前記人物領域のそれぞれの人物の表情とし、
前記複数の人物の視線方向が特定位置に向いていることを検知するとともに、前記複数の人物の表情の割合を判別して注目事象の発生を検知する
ことを特徴とする映像監視装置。 - 請求項2に記載の映像監視装置において、
前記障害検知手段は、
前記人物領域のそれぞれの人物の表情が“驚き”または“怒り”または“悲しみ”を表す“負の表情”である割合が所定の閾値以上であることを判別して、危険事象の発生を検知する
ことを特徴とする映像監視装置。 - 請求項3に記載の映像監視装置において、
前記表示手段は、前記障害検知手段が危険事象の発生を検知した際に、
危険事象の発生を知らせる警告画像と、前記複数の人物の視線方向が向いている特定点を危険事象の発生位置としてその方向を示す画像と、を監視映像情報に重畳して表示する
ことを特徴とする映像監視装置。 - 請求項3に記載の映像監視装置において、さらに、
前記障害検知手段により危険事象の発生が検知された際に、前記人物領域のそれぞれの人物について、顔の表情が“喜び”を表す“正の表情”であることを判別し、“正の表情”の人物の位置を示す人物座標と危険事象発生位置である前記複数の人物の視線方向が向いている特定点の座標との間の距離が所定の閾値以内であることを判別して、不審人物を判定する不審人物検出手段と、
を備えることを特徴とする映像監視装置。 - 請求項5に記載の映像監視装置において、
前記表示手段、前記障害検知手段が危険事象の発生を検知した際に、
危険事象の発生を知らせる警告画像と、前記複数の人物の視線方向が向いている特定点を危険事象の発生位置としてその方向を示す画像と、前記不審人物検出手段により判定された不審人物を指示する特定画像情報とを、監視映像情報に重畳して表示する
ことを特徴とする映像監視装置。 - 請求項2に記載の映像監視装置において、
前記障害検知手段は、
前記人物領域の情報を顔器官検出して顔器官の位置を求め、頭部全体と顔器官の位置関係から顔の向きを求め、これを人物の視線方向とする
ことを特徴とする映像監視装置。 - 請求項2に記載の映像監視装置において、
前記複数の人物の視線方向は、前記監視映像情報の撮像範囲外の特定位置に向いている
ことを特徴とする映像監視装置。 - 監視映像情報を取得するステップと、
前記監視映像情報から複数の人物領域を抽出し、前記人物領域のそれぞれについて前記人物領域の情報に基づいて顔器官検出して顔器官の位置を求め、頭部全体と顔器官の位置関係から顔の向きを求め、これを人物の視線方向とするステップと、
前記人物領域のそれぞれについて、前記人物領域の情報に基づいて顔器官検出して表情を求めて前記人物領域の人物の表情とするステップと、
前記監視映像情報の複数の人物の視線方向が特定位置に向いているとともに、前記監視映像情報の人物の表情が“驚き”または“怒り”または“悲しみ”を表す“負の表情”である割合が所定の閾値以上であることを判別して、危険事象の発生を検知するステップと、
前記危険事象の発生を通知するステップと、
を含むことを特徴とする映像監視装置の映像監視方法。 - 請求項9に記載の映像監視方法において、さらに、
危険事象の発生を検知した際に、前記人物領域のそれぞれの人物について、顔の表情が“喜び”を表す“正の表情”であることを判別するとともに、“正の表情”の人物の位置を示す人物座標と危険事象発生位置である前記複数の人物の視線方向が向いている特定点の座標との間の距離が所定の閾値以内であることを判別して、不審人物と判定するステップ、とを含み、
前記危険事象の発生を通知するステップにおいて、判定した不審人物を通知する
ことを特徴とする映像監視装置の映像監視方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041586A JP2018148402A (ja) | 2017-03-06 | 2017-03-06 | 映像監視装置および映像監視方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041586A JP2018148402A (ja) | 2017-03-06 | 2017-03-06 | 映像監視装置および映像監視方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018148402A true JP2018148402A (ja) | 2018-09-20 |
Family
ID=63588866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017041586A Pending JP2018148402A (ja) | 2017-03-06 | 2017-03-06 | 映像監視装置および映像監視方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018148402A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110996060A (zh) * | 2019-12-10 | 2020-04-10 | 安徽银河物联通信技术有限公司 | 一种工业自动化智能联动系统及方法 |
WO2022085291A1 (ja) * | 2020-10-21 | 2022-04-28 | シャープ株式会社 | 画像選択装置、画像選択プログラム、および画像選択方法、ならびに、通信端末、通信プログラム、および通信方法 |
JP2022166158A (ja) * | 2019-12-23 | 2022-11-01 | キヤノンマーケティングジャパン株式会社 | 記録媒体 |
WO2023002563A1 (ja) * | 2021-07-20 | 2023-01-26 | 日本電気株式会社 | 監視装置、監視システム、監視方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092396A (ja) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | 単独行動者及びグループ行動者検知装置 |
JP2008040758A (ja) * | 2006-08-04 | 2008-02-21 | Sogo Keibi Hosho Co Ltd | 警備装置、監視システム、異常判定方法および異常判定プログラム |
-
2017
- 2017-03-06 JP JP2017041586A patent/JP2018148402A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092396A (ja) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | 単独行動者及びグループ行動者検知装置 |
JP2008040758A (ja) * | 2006-08-04 | 2008-02-21 | Sogo Keibi Hosho Co Ltd | 警備装置、監視システム、異常判定方法および異常判定プログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110996060A (zh) * | 2019-12-10 | 2020-04-10 | 安徽银河物联通信技术有限公司 | 一种工业自动化智能联动系统及方法 |
JP2022166158A (ja) * | 2019-12-23 | 2022-11-01 | キヤノンマーケティングジャパン株式会社 | 記録媒体 |
JP7464871B2 (ja) | 2019-12-23 | 2024-04-10 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理方法、プログラム |
WO2022085291A1 (ja) * | 2020-10-21 | 2022-04-28 | シャープ株式会社 | 画像選択装置、画像選択プログラム、および画像選択方法、ならびに、通信端末、通信プログラム、および通信方法 |
WO2023002563A1 (ja) * | 2021-07-20 | 2023-01-26 | 日本電気株式会社 | 監視装置、監視システム、監視方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230300466A1 (en) | Video surveillance system and video surveillance method | |
JP7444228B2 (ja) | プログラム | |
US20200175838A1 (en) | Eyeglasses-type wearable terminal, control method thereof, and control program | |
JP2018148402A (ja) | 映像監視装置および映像監視方法 | |
KR101937272B1 (ko) | 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법 | |
US20090128632A1 (en) | Camera and image processor | |
JPWO2012169232A1 (ja) | 分散画像処理システム | |
JP6712778B2 (ja) | 物体検知装置、物体検知システムおよび物体検知方法 | |
JP5370009B2 (ja) | 監視システム | |
JP2023126352A (ja) | プログラム、映像監視方法及び映像監視システム | |
JP5787485B2 (ja) | 監視装置、及びプログラム | |
JP5693147B2 (ja) | 撮影妨害検知方法、妨害検知装置及び監視カメラシステム | |
JP2019008474A (ja) | 監視支援システム及び監視支援方法 | |
JP2010124028A (ja) | 監視装置 | |
TW201205506A (en) | System and method for managing security of a roof | |
KR101926510B1 (ko) | 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템 | |
JP7062879B2 (ja) | 表示制御装置及び表示制御方法 | |
TWI606426B (zh) | 個人週遭環境安全通報系統與方法 | |
JP2007166036A (ja) | 映像生成プログラム、映像生成サポートプログラム、イベント映像生成方法 | |
WO2018179394A1 (ja) | 地域安全システム及びサーバ及び端末装置 | |
WO2020145255A1 (ja) | 監視装置、監視方法、および記録媒体 | |
JP2007129668A (ja) | 四次元画像生成システム、四次元画像生成方法、およびプログラム | |
JP2015089031A (ja) | 監視カメラシステム及び監視カメラ | |
JP2023020307A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JPWO2014097699A1 (ja) | 情報処理システム、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200728 |