JP2015185896A - 画像監視システム - Google Patents

画像監視システム Download PDF

Info

Publication number
JP2015185896A
JP2015185896A JP2014058279A JP2014058279A JP2015185896A JP 2015185896 A JP2015185896 A JP 2015185896A JP 2014058279 A JP2014058279 A JP 2014058279A JP 2014058279 A JP2014058279 A JP 2014058279A JP 2015185896 A JP2015185896 A JP 2015185896A
Authority
JP
Japan
Prior art keywords
image
camera
person
face
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014058279A
Other languages
English (en)
Other versions
JP2015185896A5 (ja
JP6484402B2 (ja
Inventor
豊彦 林
Toyohiko Hayashi
豊彦 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2014058279A priority Critical patent/JP6484402B2/ja
Publication of JP2015185896A publication Critical patent/JP2015185896A/ja
Publication of JP2015185896A5 publication Critical patent/JP2015185896A5/ja
Application granted granted Critical
Publication of JP6484402B2 publication Critical patent/JP6484402B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】本発明の目的は、複数のカメラにより撮影した画像に映った人物の中で同一人物を特定することにある。【解決手段】本発明の画像監視システムは、複数のカメラと、画像処理装置を有する画像監視システムであって、画像処理装置は第1のカメラで撮影した画像の中から所定人物の顔の位置情報をグローバル座標に変換し、該変換した位置情報から第2のカメラで撮影した画像の中心からの水平距離と垂直距離を算出し、該算出した位置の人物が所定人物と同一人物であると特定することを特徴とする画像監視システム。【選択図】 図1

Description

本発明は、画像監視システムに関するものである。
従来、2台のステレオカメラにより対象物の位置を判別するシステムは存在する。
また、複数台のカメラ映像を手動または自動でシーケンシャルに切り替え表示することで監視空間全体を一定周期で監視していた。
また、他の先行技術としては、可視光カメラと遠赤外線カメラで撮像した人物の画像を合成する技術が開示されている。具体的には、遠赤外線カメラから取得した遠赤外線画像と可視光カメラから取得した可視光画像を比較し、比較結果に基づいて映り込み部分の補正を行うことで、入射光量の少ない暗い領域、つまり可視光カメラで直接捉えることが困難である非可視領域であっても被写体となる対象物を逃すことなく検出することができる(例えば、特許文献1参照。)。
特開2011−243037号公報
本発明の目的は、複数のカメラにより撮影した画像に映った人物の中で同一人物を特定することにある。
また、複数のカメラにより撮影した画像で同一と判断された人物の顔画像をより正面に近い映像として合成表示することも目的である。
本発明の画像監視システムは、複数のカメラと、画像処理装置を有する画像監視システムであって、画像処理装置は第1のカメラで撮影した画像の中から所定人物の顔の位置情報をグローバル座標に変換し、該変換した位置情報から第2のカメラで撮影した画像の中心からの水平距離と垂直距離を算出し、該算出した位置の人物が所定人物と同一人物であると特定することを特徴とする画像監視システム。
また、本発明の画像監視システムは、上記の画像監視システムであって、画像監視システムはさらにシステム管理サーバを有し、システム管理サーバは所定人物の顔が正面以外であった場合に、複数のカメラで撮影した所定人物の顔画像の中で正面に近い顔画像を選択し、該選択した顔画像を顔画像が正面以外の所定人物の画像と合成することを特徴とする。
さらに、本発明の画像監視システムは、複数のカメラと、操作端末を有する画像監視システムであって、操作端末はカメラごとに監視空間を割当て、該割当てられた監視空間に障害物による死角があるカメラの映像をモニタに出力する場合、死角の空間を撮影している別のカメラの映像を死角部分に合成することを特徴とする。
本発明によれば、複数のカメラにより撮影した画像に映った人物の中で同一人物を特定することができる。
また、複数のカメラにより撮影した画像で同一と判断された人物の顔画像をより正面に近い映像として合成表示することができる。
本発明の一実施例である画像監視システムを説明するためのブロック図である。 対向に配置されたカメラの設置図と表示画面図である。 本発明の一実施例を説明するための図である。 モニタAとモニタBの表示内容について説明するための図である。 人物の顔部分の正面を向いた図と斜めを向いた図である。 本発明の一実施例であるカメラ4台を配置した監視空間における人物の顔の向きと対応カメラの図である。 本発明の一実施例である連続した時間ごとのカメラ4台で撮像された映像を説明するための図である。 監視空間を説明するための平面図である。 平面図上のカメラ割当エリアを説明するための図である。 本発明の一実施例である操作端末の監視画面を説明するための図である。 本発明の他の一実施例である鏡を利用した左右監視カメラを説明するための図である。 本発明の一実施例である画像監視システムの他のブロック構成図である。
以下、本発明の一実施例について図を用いて説明する。
図1は、本発明の一実施例である画像監視システムを説明するためのブロック図である。
図1において、画像監視システムは、カメラ101−1〜101−n、画像処理装置102−1〜102−n(代表する場合は画像処理装置102と称する)、IPエンコーダ103−1〜103−n、ネットワーク104、システム管理サーバ105、操作端末106−1〜106−n(代表する場合は操作端末106と称する)である構成されている。
なお、図12に示すように画像処理装置102は、カメラ101とIPエンコーダ103の間に入れずにネットワーク104と直接に接続する構成であってもよい。
カメラ101−1〜101−nで撮像された映像は、画像処理装置102−1〜102−nで動体検知を行い、検出物の大きさや形状から人物を判別し、映像内の人物位置や人物の大きさを特定する。映像はIPエンコーダ103−1〜103−nでデジタル化されネットワーク104に配信する。
システム管理サーバ105は、監視空間全体を3次元のグローバル座標で管理し、予めカメラの位置情報や監視空間の中の構造物情報をデータベース上に登録するものとする。システム管理サーバ105は、検知された人物の位置座標情報をリアルタイムに管理し、監視平面図上に人物位置をプロットする。
また、システム管理サーバ105は、複数の画像処理装置から送られる人物の位置情報、大きさ情報を元に、それらが同一人物であるか否かを判別する。同一人物である場合、複数のカメラで撮像された映像の中から当該人物の顔画像を全て切り出し、同一人物の顔画像として管理する。システム管理サーバ105は、操作端末106−1〜106−nへブラウザ上から監視操作を行うための監視画面を提供するWEBサーバ機能を有している。
操作端末106−1〜106−nは、上述の監視操作画面で人物が表示された映像を閲覧する。監視者からの要求に応じてシステム管理サーバは正面を向いた人物の顔画像を提供したり、人物の位置情報や軌跡がプロットされた平面図を提供する。または、自動的に人物が正面を向いた映像を提供したり、人物が死角に隠れない映像を提供することも可能である。
なお、操作端末106−1〜106−nは、PC(Personal Computer)であってもよい。
図2は、対向に配置されたカメラの設置図と表示画面図である。
以降、対向に設置された2台のカメラにより撮像された映像から同一人物を特定し、位置情報をグローバル座標に展開する方法について説明する。
図2(A)のカメラの設置において、211はカメラA、212はカメラAの垂直画角、213はカメラAの設置高さZA、221はカメラB、222はカメラBの垂直画角、223はカメラBの設置高さZB、231は地面、241は対象物(人物)である。
なお、ここでは、ZA=ZBとする。
図2(B)はカメラAの撮影画像であり、251はカメラAで撮像された撮影画像を表示するモニタA、252はカメラAの画面の中の人物である。
図2(C)はカメラBの撮影画像であり、261はカメラBで撮像された撮影画像を表示するモニタB、262はカメラBの画面の中の人物である。
図3は、本発明の一実施例を説明するための図である。
xyz座標軸において、カメラAを原点とし、人物の顔の位置を(x、y、z)とする。
図3(A)はカメラのx−y座標の設置図であり、211はカメラA、θHAはカメラAの水平画角、221はカメラB、θHBはカメラBの水平画角、241は対象物(人物)、xはカメラAから人物までの水平距離、yはカメラAから人物までの垂直距離、xbはカメラBから人物までの水平距離、YAは人物がいる地点でのカメラAの水平撮像範囲、YBは人物がいる地点でのカメラBの水平撮像範囲である。
図3(B)はカメラのx−z座標の設置図であり、θVAはカメラAの垂直画角、hAはカメラAの高さ、θVBはカメラBの垂直画角、hBはカメラBの高さ、zは人物の高さ、ZAは人物がいる地点でのカメラAの垂直撮像範囲、ZBは人物がいる地点でのカメラBの垂直撮像範囲、231は地面である。
図3(C)はカメラAの撮影画像であり、251はカメラAで撮像された撮影画像を表示するモニタA、252はモニタAの映像の中の人物、HMAはモニタAの画面水平寸法、VMAはモニタAの画面垂直寸法、HACはモニタAの中心から人物252までの水平距離、VACはモニタAの中心から人物の顔中心までの垂直距離、VAはモニタAにおける人物の高さ、VAFはモニタAにおける人物の顔の高さである。
図3(D)はカメラBの撮影画像であり、261はカメラBで撮像された撮影画像を表示するモニタB、262はモニタBの映像の中の人物、HBCはモニタBの中心から人物までの水平距離、VBCはモニタBの中心から人物の顔中心までの垂直距離、VBはモニタBにおける人物の高さ、VBFはモニタBにおける人物の顔の高さである。
次に、本発明の一実施例である異なるカメラA、Bで撮像された映像から同一人物を特定する方法について図3を用いて説明する。
ここでは、hA=hB、θHA=θHB、θVA=θVBとする。
カメラAとカメラBの水平距離をLとする。
人物までの距離の比と画面内の人物の大きさの比は相似関係であることから、以下の等式が成り立つ。
カメラAから人物までの水平距離xは、(式1)の関係から(式2)で求まる。
VA:VB=(L-x):x ・・・・ (式1)
x=LVB/(VA+VB) ・・・・ (式2)
カメラAから人物までの垂直距離yは、(式3)の関係から(式4)で求まる。
y:HAC=YA/2:HM/2 ・・・・ (式3)
y=xtan(θHA/2)×2HAC/HM
=(2LHACVBtan(θHA/2))/(HM(VA+VB))
・・・ (式4)
人物の高さzは、(式5)の関係から(式6)で求まる。
(z−hA):VAC=z:VA ・・・・ (式5)
z=hAVA/(VA−VAC) ・・・・ (式6)
モニタBの中心から人物までの水平距離HBCは(式7)の関係から(式8)で求まる。
HBC:HM/2=y:(L−x)tan(θHB/2) ・・・・ (式7)
HBC= HACVB/VA ・・・・ (式8)
モニタBの中心から人物の顔中心までの垂直距離VBCは、(式9)の関係から(式10)で求まる。
VBC:VM/2=(z−hB):ZB/2 ・・・・ (式9)
VBC=(hAVMVAC(VA+VB))/(4LVA(VA−VAC)
tan(θVA/2)) ・・・・ (式10)
上式において、hA、HM、VM、L、θHA、θVAは定数であり、HAC、VAC、VA、VBは人物の画面内の位置情報であり、画像処理装置102にて算出された値である。
つまり、(式8)、(式10)によりHBC、VBCを上記の値にて求めることができ、カメラA211で撮像された人物の位置情報から、別のカメラ(ここではカメラB221)の映像でどの人物が同一人物であるかを特定することができる。
そして、(式2)、(式4)(式6)により監視空間における人物の顔の3次元位置座標x、y、zを求めることができる。
なお、上記の説明は、モニタA251とモニタB261に表示した結果から所定人物の位置情報を求めたが、カメラA211およびカメラB221で撮像した撮影画像から所定人物の位置情報を求めてもよい。
次に、複数のカメラにより撮影した画像で同一と判断された人物の顔画像をより正面に近い映像として合成表示する動作について図4〜図7を用いて説明する。
図4はモニタAとモニタBの表示内容について説明するための図である。
図4において、251はモニタA、252はモニタAの映像の中の人物、411は画像処理装置102で検出された人物の顔、261はモニタB、262はモニタBの映像の中の人物、421は画像処理装置102で検出された人物の顔である。
モニタAには人物の顔の正面、モニタBには人物の顔の背面が映っているものとする。
画像処理装置102は顔の特徴点、例えば、目、鼻、口の情報を元に顔の向きを判別する。
モニタBの人物の顔は背面を向いているため、モニタAの人物の顔画像を切り出してモニタBの映像に合成する。この時、モニタAの人物の顔画像をモニタBの顔画像の大きさに変換して合成するものとする。変換する際の拡大・縮小率はVBF/VAFとする。
図5は、人物の顔部分の正面を向いた図と斜めを向いた図である。
図5において、501は正面を向いた人物の顔部分の検出エリア、502は正面を向いた人物の顔、503は人物の右目α、504は人物の左目β、505は右目と左目の中心点を含む線分2R、506は直線505を直径とする円であり頭を上方向から見た図、507は人物の右目α、508は人物の左目β、509は半径R、510は右目の中心点と左目の中心点を端とした線分、511は線分510の中心点と円の中心点を含む直線、512は直線511と円の左端までの距離Lα、513は直線511と円の右端までの距離Lβ、14は斜めを向いた人物の顔部分の検出エリア、515は斜めを向いた人物の顔、516は人物の右目α、517は人物の左目β、518は右目と左目の中心点を含む線分2R、519は直線518を直径とする円であり頭を上方向から見た図、520は人物の右目α、521は人物の左目β、522は半径R、523は右目の中心点と左目の中心点を端とした線分、524は線分523の中心点と円の中心点を含む直線、525は顔が正面を向いた図の線分510の中心点と円の中心点を含む直線、526は直線524と直線525を含む扇型の中心角度θ、527は直線524と円の左端までの距離Lα、528は直線524と円の右端までの距離Lβである。
次に、人物の顔が正面を向いた図のθ、Lα、Lβは下式となる。
θ=0° ・・・・ (式11)
Lα=Lβ ・・・・ (式12)
また、人物の顔が斜めを向いた図のθ(この場合θ´とする)、Lα、Lβは下式となる。
θ=θ´ ・・・・ (式13)
Lα=R−Rsinθ´ ・・・・ (式14)
Lβ=R+Rsinθ´ ・・・・ (式15)
よって、θ´は下式より求めることができる。
Lα:Lβ=(R−Rsinθ´):(R+Rsinθ´) ・・・ (式16)
sinθ´=(Lβ−Lα)/(Lα+Lβ) ・・・ (式17)
θ´=sin−1((Lβ−Lα)/(Lα+Lβ)) ・・・ (式18)
画像処理装置102は、顔の大きさ及び右目、左目の位置を特定すると、距離Lα、距離Lβが得られる。
θ´は、(式18)の距離Lαと距離Lβにより算出可能であり、人物の顔の向きを角度で表現することができる。θ´が0°に近い程、人物は正面方向を向いていると判定できる。
次に、カメラ4台を使用した場合、人物の顔を正面方向にカメラで捕えるための方法について説明する。
図6は本発明の一実施例であるカメラ4台を配置した監視空間における人物の顔の向きと対応カメラの図である。
図6はxy座標軸における俯瞰図である。
カメラA602とカメラB603は直線上に対向に設置されるものとする。
図6は、602はカメラA、603はカメラB、604はカメラC、605はカメラD、606は上方から見た人物の頭、607は人物の顔の向き、608はx軸に対する顔の向きの角度θ、609は対向設置されたカメラA602とカメラB603を含む直線、610は直線609のカメラA602とカメラB603間の中心点とカメラC604を含む直線、611は直線609のカメラA602とカメラB603間の中心点とカメラD605を含む直線、612は直線609と直線610の中心線、613は直線609と直線610の中心線、614は直線609と直線611の中心線、615は直線609と直線611の中心線、616は直線612のx軸に対する角度θ1、617は直線610と直線613の角度θ2、618は直線614のx軸に対する角度θ3、619は直線611と直線615の角度θ4である。
人物の顔の向きθは上述の方法で画像処理装置102により得られる。
人物の顔を正面方向にカメラで捕えるためには、人物の顔の向きθと割り当てカメラの関係は以下となる。
カメラA602を割り当てる場合のθの範囲は(式19)となる。
0≦θ<θ1、2(θ1+θ2+θ3)+θ4≦θ<360 ・・・ (式19)
カメラB603を割り当てる場合のθの範囲は(式20)となる。
θ1≦θ<2θ1+θ2 ・・・ (式20)
カメラC604を割り当てる場合のθの範囲は(式21)となる。
2θ1+θ2≦θ<2(θ1+θ2)+θ3 ・・・ (式21)
カメラD605を割り当てる場合のθの範囲は(式22)となる。
2(θ1+θ2)+θ3≦θ<2(θ1+θ2+θ3)+θ4 ・・・(式22)
システム管理サーバ105は、周期的に現在の人物の顔の向きと割り当てカメラを管理する。例えば、カメラA602の映像等、特定の映像の中の顔画像を時間ごとに変化する顔の向きに応じて、図4の一実施例の説明で記載の方法で求められる拡大・縮小率で変換された割り当てカメラの顔画像に合成して置き換えることができる。監視者は同一映像を見ながら、人物の行動に依存せずに正面方向を捕えた顔画像を得ることが可能になる。
次に、図7を用いて連続した時間ごとのカメラ4台で撮像された映像について説明する。
システム管理サーバ105は、カメラA602、カメラB603、カメラC604、カメラD605で撮影した特定の映像の中の顔画像を管理している。
図7において、701は時間t=1におけるカメラA602の映像、702は映像701における人物の顔、703は時間t=1におけるカメラB603の映像、704は映像703における人物の顔、705は時間t=1におけるカメラC604の映像、706は映像705における人物の顔、707は時間t=1におけるカメラD605の映像、708は映像707における人物の顔、709は映像5をベースにした合成映像、710は映像709における人物の顔である。
また、711は時間t=2におけるカメラA602の映像、712は映像711における人物の顔、713は時間t=2におけるカメラB603の映像、714は映像713における人物の顔、715は時間t=2におけるカメラC604の映像、716は映像715における人物の顔、717は時間t=2におけるカメラD605の映像、718は映像717における人物の顔、719は映像715をベースにした合成映像、720は映像719における人物の顔である。
さらに、721は時間t=3におけるカメラA602の映像、722は映像721における人物の顔、723は時間t=3におけるカメラB603の映像、724は映像723における人物の顔、725は時間t=3におけるカメラC604の映像、726は映像725における人物の顔、727は時間t=3におけるカメラD605の映像、728は映像727における人物の顔、729は映像725をベースにした合成映像、730は映像729における人物の顔である。
監視者は、例えば、カメラC604で撮像した映像705を操作端末106で見ているものとする。
時間t=1の時、正面を向いている映像はカメラA602で撮像した映像701である。この時、監視者が見ている映像705の人物は背面を向いているため、システム管理サーバ105は、映像701の人物の顔画像を切り出して画像サイズを変換して映像705の顔画像に合成して映像709を生成する。
時間t=2の時、正面を向いている映像はカメラD605で撮像した映像717である。この時、監視者が見ている映像715の人物は横を向いているため、システム管理サーバ105は、映像717の人物の顔画像を切り出して画像サイズを変換して映像715の顔画像に合成して映像719を生成する。
時間t=3の時、正面を向いている映像はカメラB603で撮像した映像723である。この時、監視者が見ている映像725の人物は横を向いているため、システム管理サーバ105は、映像723の人物の顔画像を切り出して画像サイズを変換して映像725の顔画像に合成して映像729を生成する。
なお、上述の合成映像は、画像処理装置102または操作端末106で生成してもよい。
このように、本発明では、人物の動きに左右されずに、常に顔の正面画像が表示された映像を監視することが可能になる。
また、例えば、本発明の画像監視システムと類似顔画像認証システムを融合したシステムを構築する場合、システム管理サーバ105は、検知された人物ごとに固有のIDを付与すると共に、ID情報と正面方向に向いた顔画像に合成した映像を類似顔画像検索サーバへ提供することで、顔認証処理の精度向上、処理負荷軽減が可能となる。
次に、本発明の一実施例である画像監視システムにおける監視対象物(人物)の現在の位置情報および軌跡情報について説明する。
図8は監視空間を説明するためのxy座標軸における平面図である。
図8において、802は平面図、803から809は監視空間に設置された監視カメラ、810は人物、811は人物の軌跡である。
システム管理サーバ105は、図3の一実施例の説明で記載の人物座標の算出を定周期で実行することで、時間ごとの人物の位置座標を管理可能であり、現在の位置座標を丸マーク810で表現し、時間ごとの人物の位置を直線でつなげて平面図上に軌跡を生成することができる。本発明では人物位置を特定するためのセンサ等を必要とせず、監視カメラのみで位置を特定し、現在の位置情報や軌跡情報を平面図で提供することが可能である。
次に、対象人物の軌跡の生成方法について図8を用いて説明する。
例えば、カメラ803は対象の人物810を含む所定の監視領域を撮影し、撮影した画像を画像処理装置102に伝送する。
画像処理装置102は、監視領域画像に映った複数の人物の中で人物810の位置を上述の方法でグローバル座標に変換する。
次に、カメラ806が対象の人物810を含む所定の監視領域撮影し、撮影した画像を画像処理装置102に伝送する。
画像処理装置102は、カメラ806が撮影した画像に映った複数の人物の中で人物810の位置を上述の方法でグローバル座標に変換する。
画像処理装置102は、ある特定の時刻において、カメラ803が撮影した人物810のグローバル座標の位置情報と、カメラ806が撮影した人物810のグローバル座標の位置情報が略同じであれば、人物810が同一人物であると特定することができる。
同様に、画像処理装置102は、カメラ804およびカメラ806が対象の人物810を含む所定の監視領域を撮影した画像の中から人物810の位置を上述の方法でグローバル座標に変換し、変換した位置情報が略同じであれば、人物810が同一人物であると特定する。
そして、画像処理装置102は、人物810のグローバル座標の位置情報をつなげることにより、人物810の軌跡811を生成することができる。
次に、本発明の一実施例であるxy座標軸における平面図上のカメラ割当エリアについて図1および図9を用いて説明する。
図9は平面図上のカメラ割当エリアを説明するための図である。
図9において、802は平面図、803から809は監視空間に設置された監視カメラ、910は障害物、911はカメラ803の割当エリア、912はカメラ804の割当エリア、913はカメラ805の割当エリア、914はカメラ806の割当エリア、915はカメラ807の割当エリア、916はカメラ808の割当エリア、917はカメラ809の割当エリアである。
操作端末106は、xy平面図802上に予めカメラごとの割当エリアを登録する。割当エリアとは監視空間を複数に分割したものであり、各エリアで最も視認可能なカメラを割り当てる。
操作端末106は、監視空間の割当エリアに障害物910が存在すると、この障害物付近はカメラ807が最も近いがカメラ807から見て障害物910の影は視認不可能であるため、図9に示すようにこの部分はカメラ808の割当エリアとして登録する。このように、操作端末106が監視空間の割当エリアを設定してエリアごとにカメラを登録することで、検知された人物座標の位置に応じて対応するカメラを選択することが可能になる。
例えば、操作端末106は、障害物910の左側に人物が存在した場合はカメラ807で撮像された映像を選択し、障害物910の右側に人物が存在した場合はカメラ808で撮像された映像を選択する。
また、操作端末106は、カメラ807の映像を出力中に障害物910の裏側も表示したい場合に、障害物910の裏側を撮影しているカメラ808または809の映像を障害物910に合成することができる。なお、カメラ807の映像とカメラ808または809の映像の合成は、画像処理装置102で行い、合成した映像を操作端末106で表示してもよい。
次に、本発明の一実施例である操作端末の監視画面について図10を用いて説明する。
図10において、1001は監視画面、1002は映像表示部、1003は映像の中の人物、1004は平面図、1005は平面図の中の人物位置、1006は映像表示部の映像を撮像しているカメラ、1007は人物の顔画像を提供しているカメラである。
システム管理サーバ105は、操作端末へブラウザ上から監視操作を行うための監視画面を提供するWEBサーバ機能を有しており、図10に示す画面を提供する。
映像表示部の映像を提供するカメラと顔画像を提供するカメラを平面図上のカメラアイコンで色分けして表示することで、どのカメラの映像が表示されているか監視者は視覚的に把握することが可能である。顔画像は正面を撮像可能なカメラの画像に自動的に合成表示したり、映像表示部の顔の部分を指でタッチしたり、スライドしたタイミングで正面を向いた顔画像に切替えてもよい。
また、電動雲台、電動ズームレンズを搭載したカメラの場合は、人物座標に対して割当カメラをPTZ(パン・チルト・ズーム)動作させることで、人物の視認性をより向上させることが可能である。PTZ動作は、自動的に動作させたり、平面図の人物をタッチしたタイミングでPTZ動作させてもよい。
次に、本発明の他の一実施例である鏡を利用した左右監視カメラについて図11を
用いて説明する。
図11(A)において、1101はカメラ、1102はカメラハウジング、1103はカメラの水平画角θ、1104は左側の鏡、1105は右側の鏡、1106左右の鏡の設置角度、1107は左右の鏡境界とカメラのレンズまでの距離x、1108は鏡の長さL、1109は直線1108を斜辺とした直角三角形の余弦、1110は直線1108を斜辺とした直角三角形の正弦、1111は左側のガラス面、1112は右側のガラス面、1113は両方の鏡を撮像したカメラ映像である。
図11(B)において、1114は映像1113の左半分の映像、1115は映像1113の右半分の映像、1116は映像1114を切り出した映像、1117は映像1115を切り出した映像である。
図11(A)において、左側の鏡1104と右側の鏡1105の設置角度は90°とする。カメラの水平画角は左右の鏡の端までを捕えた画角とする。
カメラ1101の設置条件として、カメラ1101と鏡との距離xは以下の方法で求められる。
tan(θ/2)=(L/2^(1/2))/((x+L)/2^(1/2))
・・・(式23)
x=(L/2^(1/2))×(1/(tan(θ/2)−1) ・・・(式24)
カメラ1101は左右の鏡に投影された映像を撮像することで、左右方向の映像を1つの映像1113として得ることができる。画像処理装置102にて、この映像を左右に2分割することで、左方向の映像1116、右方向の映像1117の2つの映像を提供することが可能になる。
本発明の一実施例である位置情報算出は、図2に示すような対向設置カメラにより行うことが可能であるが、図11のような鏡を利用した左右監視カメラを使用することで1台で左右両方の映像を得ることができるため、カメラの設置台数を半分にすることができる。
以上本発明について詳細に説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変形して実施することができる。
101−1〜101−n:カメラ、102−1〜102−n:画像処理装置、103−1〜103−n:IPエンコーダ、104:ネットワーク、105:システム管理サーバ、106−1〜106−n:操作端末、211:カメラA,221:カメラB、251:モニタA、261:モニタB、602:カメラA、603:カメラB、605:カメラC、610:カメラD、802:平面図、803,804,806,808,809:カメラ、1001:モニタ、1101:カメラ、1102:カメラハウジング、1104:左側の鏡、1105:右側の鏡、1111:左側のガラス面、1112:右側のガラス面。

Claims (3)

  1. 複数のカメラと、画像処理装置を有する画像監視システムにおいて、
    前記画像処理装置は、第1のカメラで撮影した画像の中から所定人物の顔の位置情報をグローバル座標に変換し、該変換した位置情報から第2のカメラで撮影した画像の中心からの水平距離と垂直距離を算出し、該算出した位置の人物が前記所定人物と同一人物であると特定することを特徴とする画像監視システム。
  2. 請求項1に記載の画像監視システムにおいて、
    前記画像監視システムは、さらにシステム管理サーバを有し、
    前記システム管理サーバは、前記所定人物の顔が正面以外であった場合に、前記複数のカメラで撮影した前記所定人物の顔画像の中で正面に近い顔画像を選択し、該選択した顔画像を前記顔画像が正面以外の所定人物の画像と合成することを特徴とする画像監視システム。
  3. 複数のカメラと、操作端末を有する画像監視システムにおいて、
    前記操作端末は、前記カメラごとに監視空間を割当て、該割当てられた監視空間に障害物による死角があるカメラの映像をモニタに出力する場合、前記死角の空間を撮影している別のカメラの映像を前記死角部分に合成することを特徴とする画像監視システム。
JP2014058279A 2014-03-20 2014-03-20 画像監視システム Active JP6484402B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014058279A JP6484402B2 (ja) 2014-03-20 2014-03-20 画像監視システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014058279A JP6484402B2 (ja) 2014-03-20 2014-03-20 画像監視システム

Publications (3)

Publication Number Publication Date
JP2015185896A true JP2015185896A (ja) 2015-10-22
JP2015185896A5 JP2015185896A5 (ja) 2017-04-13
JP6484402B2 JP6484402B2 (ja) 2019-03-13

Family

ID=54352041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014058279A Active JP6484402B2 (ja) 2014-03-20 2014-03-20 画像監視システム

Country Status (1)

Country Link
JP (1) JP6484402B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062262A (ja) * 2017-09-25 2019-04-18 キヤノンマーケティングジャパン株式会社 情報処理装置、システム、およびそれらの制御方法、プログラム
WO2023276128A1 (ja) * 2021-07-01 2023-01-05 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004146924A (ja) * 2002-10-22 2004-05-20 Matsushita Electric Ind Co Ltd 画像出力装置及び撮像装置並びに映像監視装置
JP2010206405A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2011193187A (ja) * 2010-03-15 2011-09-29 Omron Corp 監視カメラ端末
JP2013206140A (ja) * 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
JP2014036414A (ja) * 2012-08-10 2014-02-24 Hitachi Kokusai Electric Inc 監視システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004146924A (ja) * 2002-10-22 2004-05-20 Matsushita Electric Ind Co Ltd 画像出力装置及び撮像装置並びに映像監視装置
JP2010206405A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2011193187A (ja) * 2010-03-15 2011-09-29 Omron Corp 監視カメラ端末
JP2013206140A (ja) * 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
JP2014036414A (ja) * 2012-08-10 2014-02-24 Hitachi Kokusai Electric Inc 監視システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062262A (ja) * 2017-09-25 2019-04-18 キヤノンマーケティングジャパン株式会社 情報処理装置、システム、およびそれらの制御方法、プログラム
WO2023276128A1 (ja) * 2021-07-01 2023-01-05 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
JP6484402B2 (ja) 2019-03-13

Similar Documents

Publication Publication Date Title
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
KR102111935B1 (ko) 표시 제어장치, 표시 제어방법 및 프로그램
WO2013179335A1 (ja) 監視カメラ制御装置及び映像監視システム
US20150062314A1 (en) Calibration for directional display device
JP6062039B2 (ja) 画像処理システムおよび画像処理用プログラム
JP6249248B2 (ja) 投影装置
KR20150043463A (ko) 다수의 심도 카메라들로부터의 데이터를 결합하기 위한 시스템 및 방법
US9442561B2 (en) Display direction control for directional display device
JP2008140271A (ja) 対話装置及びその方法
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
WO2013014872A1 (ja) 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体
KR102176963B1 (ko) 수평 시차 스테레오 파노라마를 캡쳐하는 시스템 및 방법
JP6484402B2 (ja) 画像監視システム
US20210183092A1 (en) Measuring apparatus, measuring method and microscope system
KR20130088654A (ko) 다중 카메라 기반 시선 추적 장치 및 방법
JP2005015094A (ja) エレベータのかご内監視装置
JP2020088840A (ja) 監視装置、監視システム、監視方法、監視プログラム
TW201205506A (en) System and method for managing security of a roof
JP2007172509A (ja) 顔検出照合装置
WO2017057426A1 (ja) 投影装置、コンテンツ決定装置、投影方法、および、プログラム
JP6483326B2 (ja) 監視システムおよび端末装置
JP2017011598A (ja) 監視システム
JP2021197572A (ja) カメラ制御装置及びプログラム
JP7012983B2 (ja) 顔画像処理装置
JP7333559B2 (ja) 位置検出システム、位置検出装置、位置検出方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6484402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250