JP2005027023A - Camera system and monitoring method - Google Patents

Camera system and monitoring method Download PDF

Info

Publication number
JP2005027023A
JP2005027023A JP2003190215A JP2003190215A JP2005027023A JP 2005027023 A JP2005027023 A JP 2005027023A JP 2003190215 A JP2003190215 A JP 2003190215A JP 2003190215 A JP2003190215 A JP 2003190215A JP 2005027023 A JP2005027023 A JP 2005027023A
Authority
JP
Japan
Prior art keywords
camera
state change
detection
occurrence
camera system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003190215A
Other languages
Japanese (ja)
Inventor
Tomoyuki Terada
知之 寺田
Masaru Sawada
勝 沢田
Naotaka Kishida
直高 岸田
Ayumi Ito
歩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003190215A priority Critical patent/JP2005027023A/en
Publication of JP2005027023A publication Critical patent/JP2005027023A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of more correctly determining the existence/absence of the occurrence of a certain event (existence of invader, etc., ) in a camera system in which a plurality of cameras are connected. <P>SOLUTION: This camera system is provided with the plurality of cameras 1a and 1b. Also, an external input device 2a such as a passive sensor is connected to the camera 1a and detects a state change. The camera 1b includes a trigger detecting part 11 by image processing and detects a state change by image processing, etc., due to moving body detection. The existence/absence of the occurrence of a prescribed event is determined on the basis of not only one state change but both of these two state changes. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、複数のカメラが接続されるカメラシステム(例えば、監視カメラシステム)、およびそれに関連する技術に関する。
【0002】
【従来の技術】
複数のカメラが接続されたカメラシステムが存在する(例えば、特許文献1参照)。このようなカメラシステムは、侵入者等を検知する監視カメラシステムなどとして利用される。
【0003】
特許文献1においては、このようなシステムの一例が示されている。具体的には、侵入者が検知された場合に、複数のカメラのうちの少なくとも1台のカメラの向きを操作して対象物の画像を捕捉するシステムが記載されている。
【0004】
【特許文献1】
特開2002−150441号公報
【0005】
【発明が解決しようとする課題】
一般に、侵入者等の検知に関しては、各種の検知手段が存在する。たとえば、カメラの撮影画像を用いて人物検知を行うものや、音検知センサあるいは赤外線感知センサなどを用いて人物検知を行うものなどが存在する。
【0006】
しかしながら、1つの検知手段で、どのような環境下においても正確な検知を行うことは困難である。たとえば、カメラの撮影画像を用いた動体検知を行う場合であっても、照明が暗いなどの事情の下では、検知結果が不正確なものになることがある。また、音検知センサを用いる場合には、騒音による誤検知がなされることもある。同様に、赤外線感知センサーを用いる場合にも、小動物あるいはファクシミリ通信機器などを誤検知することもある。
【0007】
そこで、本発明は前記問題点に鑑み、複数のカメラが接続されたカメラシステムにおいて、或る事象(侵入者の存在等)の発生の有無をより正確に判定することが可能な技術を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するため、請求項1の発明は、第1および第2のカメラを含む複数のカメラが接続されるカメラシステムであって、前記第1のカメラに関連付けられており、所定事象の発生に対応する第1の状態変化を検知する第1検知手段と、前記第2のカメラに関連付けられており、前記所定事象の発生に対応する第2の状態変化を検知する第2検知手段と、前記第1の状態変化と前記第2の状態変化とに基づいて、前記所定事象の発生の有無を判定する判定手段と、を備える。
【0009】
請求項2の発明は、請求項1の発明に係るカメラシステムにおいて、前記第2のカメラは、前記第1検知手段によって前記第1の状態変化が検知されたときには、前記第1のカメラの撮影領域の少なくとも一部を含む領域を撮影し、前記第2検知手段は、前記第2のカメラによる撮影内容に基づいて前記第2の状態変化を検知する。
【0010】
請求項3の発明は、請求項2の発明に係るカメラシステムにおいて、前記第1のカメラは、前記第1の状態変化が検知されると、当該第1のカメラに関連付けられた照明ユニットに点灯指示信号を出力する。
【0011】
請求項4の発明は、請求項1から請求項3のいずれかの発明に係るカメラシステムにおいて、前記第2の検知手段は、前記第2のカメラによる撮影内容に基づく動体検知または輝度差検知によって前記第2の状態変化を検知する。
【0012】
請求項5の発明は、請求項1から請求項4のいずれかの発明に係るカメラシステムにおいて、前記第1のカメラおよび前記第2のカメラの双方に接続されるサーバコンピュータ、をさらに備え、前記判定手段は、前記サーバコンピュータに設けられる。
【0013】
請求項6の発明は、請求項1から請求項4のいずれかの発明に係るカメラシステムにおいて、前記判定手段は、前記第2のカメラに設けられ、前記第1の状態変化は、前記第1のカメラの出力端子と前記第2のカメラの入力端子との接続を介して、前記第1のカメラから前記第2のカメラに通知される。
【0014】
請求項7の発明は、第1および第2のカメラを含む複数のカメラが接続されるカメラシステムを用いた監視方法であって、a)前記第1のカメラに関連付けられた第1検知手段を用いて、所定事象の発生に対応する第1の状態変化を検知するステップと、b)前記第2のカメラに関連付けられた第2検知手段を用いて、前記所定事象の発生に対応する第2の状態変化を検知するステップと、c)前記第1の状態変化と前記第2の状態変化とに基づいて、前記所定事象の発生の有無を判定するステップと、を含む。
【0015】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0016】
<A.第1実施形態>
<全体構成>
図1は、本発明の第1実施形態に係るカメラシステム100Aの構成を示す図である。このカメラシステム100Aは、監視用途などに利用される。
【0017】
カメラシステム100Aは、複数のネットワークカメラ(以下、単にカメラとも称する)1(ここでは、2台のカメラ1a,1b)とサーバコンピュータ(以下、単にサーバとも称する)5とを備える。
【0018】
これらの複数のカメラ1a,1bおよびサーバ5は、ネットワーク接続線NLを用いてネットワーク接続される。より詳細には、カメラ1a,1bおよびサーバ5は、それぞれ、LAN(ローカルエリアネットワーク)ケーブル、無線LAN機器、ネットワークハブ(不図示)等を介して相互に接続される。また、サーバ5を遠隔地に配置する場合には、複数のカメラ1a,1bとサーバ5とをインターネットあるいは専用回線等を介して接続するようにしてもよい。
【0019】
サーバ5は、カメラ1a〜1eの映像を表示すると共に、カメラの制御用のGUI(グラフィカル・ユーザ・インターフェース)等を提供するものである。サーバ5は、カメラの異常通知を受信すると、どのカメラに異常が発生したか、および、その異常内容等を、サーバ5のモニタ画面上に表示する。また、カメラ1a,1bは、サーバ5を介して相互に情報を授受することによって、協動して監視処理を行う。
【0020】
また、このカメラシステム100Aは、2つのサブシステム10a,10bを有している。サブシステム10aは、カメラ1a、外部入力機器2a、および外部出力機器3aを有しており、サブシステム10bは、カメラ1b、外部入力機器2b、および外部出力機器3bを有している。このように各サブシステム10aは、カメラおよびその入出力機器によって構成されている。
【0021】
これらの2つのサブシステム10a,10bは、ほぼ同様の構成を有しているので、説明の簡略化のため、一方のサブシステム10aを中心に説明する。
【0022】
サブシステム10aのカメラ1aは、CPU(中央演算処理部)およびメモリ(記憶部)を有している。カメラ1aは、そのメモリに記憶されている所定のプログラムを実行することによって、上記のネットワーク通信機能および後述する各種の処理を行うことができる。
【0023】
また、カメラ1aは、画像の撮影および記録を行うことが可能であるとともに、さらにマイク等による音声入力を行うことも可能である。また、画像の撮影等に際して、カメラにおけるパン、チルト、ズームの各駆動動作を行うための各種の駆動機構を有している。
【0024】
このカメラ1aの内部には、画像処理によるトリガ検知部11と、音声処理によるトリガ検知部12と、各種のトリガを制御するトリガ制御部13とが設けられている。
【0025】
トリガ検知部11は、カメラ1aによって撮影された画像データに基づいて、画像内での被写体の状態変化を検知する。具体的には、動体検知および/または輝度差検知を行う。動体検知は、2つフレーム間での変化の有無に応じて動きの有無を検知するものである。動体検知によって動きが検知されれば、動きが検知されたことに応答してトリガ情報(トリガ信号とも称する)が、トリガ制御部13に対して出力される。また、輝度差検知は、2つフレーム間での輝度変化の有無に応じて被写体の変化の有無を検知するものである。輝度差検知によって輝度差が検知されれば、輝度差が検知されたことに応答してトリガ情報が、トリガ制御部13に対して出力される。
【0026】
トリガ検知部12は、カメラ1aによって録音された音声データに基づいて、周囲での音の状態変化を検知する。具体的には、マイクから入力された音声信号をA/D変換によりデジタル化し、予め設定されたレベルよりも大きなレベルの音圧が検知されると、異常音として検知する。このとき、トリガ検知部12は、異常音が検知されたことに応答して、トリガ情報をトリガ制御部13に対して出力する。
【0027】
さらに、カメラ1aには、複数の外部入力機器2aが接続されている。具体的には、カメラ1aのI/O端子(入出力端子)のうちの入力端子TIと、各外部入力機器2aの出力端子TOとが、信号線SLを介して接続される。外部入力機器2aは、所定の状態変化等を検知すると、その検知結果をトリガ情報としてカメラ1aに対して出力する。
【0028】
外部入力機器2aとしては、例えば、マグネットスイッチ、押しボタン、パッシブセンサ、コンビネーションセンサ、赤外線センサ、炎センサ、煙センサ、ガス漏れセンサ、ガラス破損センサ、漏水検知センサ、マットスイッチ、テープスイッチ、ロードスイッチなどの各種のセンサを用いることができる。また、外部入力機器2aは、状態変化を検知して、カメラ1aに対してトリガ情報として出力できるものであればよく、これらの各種の機器に限定されない。
【0029】
トリガ制御部13は、上記のトリガ検知部11,12からのトリガ情報を受信することが可能であるとともに、外部入力機器2aからの各種のトリガ情報を受信することも可能である。
【0030】
また、カメラ1aには、複数の外部出力機器3aが接続されている。具体的には、カメラ1aのI/O端子(入出力端子)のうちの出力端子TOに、各外部出力機器3aの入力端子TIが接続される。外部出力機器3aは、カメラ1aからの出力指示に基づいて所定の出力を行う。外部出力機器3aとしては、例えば、ライトなどの照明ユニット、および、ブザー、ベルなどの音声出力機器を用いることができる。
【0031】
トリガ制御部13は、トリガ検知部11,12、外部入力機器2aなどからの各種のトリガ情報に基づいて、サーバ5および/または外部出力機器3aへの各種の出力指示を送信する。また、トリガ制御部13は、トリガ検知部11に対する検知開始指示をも送信することができる。
【0032】
このように、カメラ1aには、トリガ検知部11,12が内蔵されるとともに、トリガ検知機能を有する外部入力機器2aが接続されている。言い換えれば、カメラ1aには、トリガ検知部11,12および外部入力機器2aが関連付けられているものとも表現できる。なお、カメラ1bについても同様である。
【0033】
<レイアウト例>
図2は、カメラシステム100Aの各要素のレイアウト例を示す平面図である。ここでは、居室RM内への不審人物の侵入の有無を監視するシステムを想定している。
【0034】
図2に示すように、この居室RM内には、2台のカメラ1a,1bが配置されている。詳細には、カメラ1a,1bは、天井の互いに異なる位置に設置されている。
【0035】
原則として、一方のカメラ1aは、窓41およびその周辺を撮影しており、他方のカメラ1bは、ドア42およびその周辺を撮影している。すなわち、各カメラは、互いに異なる領域を分担して撮影することにより、協調して監視動作を行う。
【0036】
また、窓41の周辺には、赤外線を検知するパッシブセンサ21が設けられている。このパッシブセンサ21は、カメラ1aに接続されており、カメラ1aに関連付けられた外部入力機器2aとして機能する。
【0037】
図2の点線で描かれた細長い楕円領域は、パッシブセンサ21の検知対象領域R1を示している。パッシブセンサ21は、赤外線を受光して検知対象領域R1内の発熱体の有無を検知することができる。なお、ここでは、窓41だけでなく窓41の周辺に配置されているファクシミリ通信機器43も検知対象領域R1内に存在している。したがって、パッシブセンサ21は、検知対象領域R1内の不審者だけでなく、例えば夜中に受信動作を開始したファクシミリ通信機器43にも反応する可能性がある。
【0038】
さらに、ライト31が窓41に向けて配置されている。このライト31は、カメラ1aに接続されており、カメラ1aに関連付けられた外部出力機器3aとして機能する。ライト31は、通常オフ状態(非点灯状態)とされており、カメラ1aのトリガ制御部13からの出力指示(点灯指示)に応じて点灯する。ライト31が点灯すれば窓41の周辺が照明される。
【0039】
一方、ドア42の近傍には、マットスイッチ26が配置されている。このマットスイッチ26は、カメラ1bに接続されており、カメラ1bに関連付けられた外部入力機器2bとして機能する。マットスイッチ26は、その表面に所定重量以上の人や物が存在することを検知して、カメラ1aに伝達する。
【0040】
また、サーバ5は、この居室RM内には配置されておらず、その他の居室等(たとえば、監視室等)に配置される。なお、サーバ5は、この居室を含む建物から遠く離れた場所(離隔地)に配置されてもよい。
【0041】
<動作>
図3は、不審者侵入時において、カメラ1bの撮影範囲が変更された状態を示す図である。また、図4は、このカメラシステム100Aにおける動作例を示すフローチャートである。以下では、これらの図を参照しながら、異常事象の発生を検知する動作について説明する。より詳細には、不審者等の発見動作について説明する。
【0042】
図4のステップS1において、カメラ1aに関連する所定のトリガ情報TG1が検知される場合を想定する。具体的には、パッシブセンサ21(図2,図3)が所定の状態変化を検知してカメラ1aに通知すると、カメラ1aは、所定の状態変化、言い換えれば、トリガの発生を認識(トリガ検知とも称する)してトリガ情報TG1を生成する。
【0043】
ここで、パッシブセンサ21によって検知されたこの状態変化は、不審者の侵入という異常事象の発生に対応するものである。ただし、パッシブセンサ21による検知信号のみに基づいて異常事象の発生の有無を判定することは、必ずしも十分な信頼性を有するものであるとはいえない。上述したように、パッシブセンサ21は、図3に示すような不審者44に対してだけでなく、近辺に配置されているファクシミリ通信機器43にも反応して、状態変化を検知する可能性があるからである。
【0044】
次に、カメラ1aは、パッシブセンサ21により検知されたトリガ情報TG1を、LANなどを用いたネットワーク通信によってサーバ5に通知する(ステップS2)。
【0045】
サーバ5は、カメラ1aからのトリガ情報TG1を受信すると、そのカメラ1aに対して受信確認を返信する(ステップS3)。
【0046】
カメラ1aは、この受信確認を受領すると、トリガ制御部13によってライト31に対して点灯指示を送信する(ステップS4)。ライト点灯により、窓41付近を照明するとともに、不審者44への警告を行うことができる。
【0047】
また、サーバ5は、カメラ1aからのトリガ情報TG1を受信すると、このトリガ情報TG1に応答して、別のカメラ1bに対してそのカメラ1bの撮影領域を変更するための動作指示を送信(通知)する(ステップS5)。具体的には、サーバ5は、カメラ1bに対して、そのパン角度、チルト角度、ズーム倍率(視野角)の新たな目標値を与え、その目標値を実現するように動作することを指示する。カメラ1bは、その撮影角度を変更することによって、窓41付近の対象物をカメラ1aとは異なる角度から撮影することができる。
【0048】
目標値としては、図3に示すように、カメラ1bの新たな撮影範囲がカメラ1aの撮影範囲との重複範囲を含むような範囲として実現される値を設定する。なお、図3の新たな撮影範囲は、カメラ1a自体をも撮影するようなものともなっている。
【0049】
この目標値は、サーバ5の記憶手段(ハードディスクおよび/またはメモリなど)に格納されたデータテーブルTBL(図5参照)に予め格納されている。サーバ5は、このデータテーブルに格納された目標値に基づいて指示を送出する。
【0050】
図5の概念図には、カメラ1aからの様々なトリガ情報TG11,TG12,...のそれぞれに対する、他方のカメラ1bのパン角度、チルト角度、ズーム倍率(視野角)に関する目標値が格納された状態が示されている。また、図5には、カメラ1bからの様々なトリガ情報TG21,TG22,...のそれぞれに対する、他方のカメラ1aのパン角度、チルト角度、ズーム倍率(視野角)に関する目標値も示されている。ここで、トリガ情報TG11,TG12,...は、トリガ情報TG1に包含される個々のトリガ情報を示しており、トリガ情報TG21,TG22,...は、トリガ情報TG2に包含される個々のトリガ情報を示している。なお、図5では、同一カメラに対するカメラの姿勢角等は、トリガ情報の種類に依らず一定の場合を例示しているが、トリガ情報の種類に応じて異なる姿勢を指示するようにしてもよい。たとえば、窓41に設けられたマグネットスイッチ(外部入力機器2a)からのトリガ情報に対しては、窓41の近辺を拡大して撮影するようなズーム倍率を設定するようにしてもよい。
【0051】
カメラ1bは、ステップS5の動作指示に応答して駆動動作を行い、カメラ1bのパン角度、チルト角度、ズーム倍率を目標値に変更する(ステップS6)。
【0052】
これにより、2台のカメラ1a,1bによって、不審者44が存在する可能性が高い領域を重点的に監視することができる。特に、カメラ1a,1bの撮影領域が非重複領域を有する場合には、その非重複領域に存在する不審者44を発見することも可能になる。たとえば、図3に示すように、不審者44はカメラ1aの撮影範囲から外れた領域に存在しているため、カメラ1aによっては捕捉できない。しかしながら、カメラ1bの変更後の撮影範囲内には存在しているため、カメラ1bによって不審者44を捕捉することが可能になる。
【0053】
つぎに、カメラ1bは、動体検知処理を行う(ステップS7)。そして、動体が検知されなかったときには、サーバ5に動体検知をトリガ情報を通知することなくこの処理を終了する。一方、動体が検知されたときには、その動体検知情報を2つ目のトリガ情報TG2としてサーバ5に対して通知する(ステップS8,S9)。
【0054】
ここで、カメラ1bの撮影画像に基づく動体検知によって検知される状態変化も、不審者の侵入という異常事象の発生に対応するものである。
【0055】
そして、サーバ5は、カメラ1aからのトリガ情報TG1とカメラ1bからのトリガ情報(動体検知)TG2との両方を受信すると、ステップS10において、異常事象が発生したと判定する。言い換えれば、カメラ1aからのトリガ情報TG1が異常事象の発生を正しく反映したものであることを、トリガ情報TG2によって確認する。そして、サーバ5は異常情報を出力する。
【0056】
具体的には、サーバ5の表示部(ディスプレイ等)に、警告出力(「異常発生」を文字、図形等を用いて示す警告表示)を出力する。また、サーバ5は、スピーカから音声等を用いて警告出力を行うようにしてもよい。なお、これに限定されず、サーバ5は、同様の警告出力を含む電子メールを、指定された携帯電話等のメールアドレスに対して、異常情報として出力するようにしてもよい。
【0057】
以上のように、このカメラシステム100Aによれば、異常事象の発生に対応するトリガ情報TG1がカメラ1aによって検知されたことだけでなく、その異常事象の発生に対応する別のトリガ情報TG2もがカメラ1bによってさらに検知されたときに、その異常事象が発生したと判定される。言い換えれば、2つのトリガ情報TG1,TG2の両方が検知されたときに、異常事象が発生したと判定され、一方のトリガ情報のみが検知されたときには異常事象は発生していないと判定される。したがって、カメラ1aからのトリガ情報TG1だけで異常事象の発生を判定する場合に比べて、事象発生に関する判定の正確さを向上させることができる。すなわち、誤判定を防止できる。
【0058】
具体的には、カメラ1bは、パッシブセンサ21によってトリガ情報が検知されたときにはカメラ1aの撮影領域を撮影し、動体検知によって動体の存在を検知する。そして、サーバ5は、カメラ1bによる動体検知結果に基づいて、もう1つのトリガ情報TG2を検知する。トリガ情報TG2は、多くの情報を含むカメラ1bの撮影内容(撮影画像)に基づいて検知されるので、事象発生に関する判定の正確さを特に向上させることができる。
【0059】
また、カメラ1aは、トリガ情報TG1が検知されると、カメラ1aに関連するライト31(照明ユニット)に点灯指示信号を出力するので、カメラ1bによる撮影時の明るさを確保できる。これによれば、より明るい画像に基づいて動体検知処理を行うことができるので、カメラ1bの撮影内容に基づく状態変化の検知結果(動体検知結果)の正確さが向上する。したがって、事象発生に関する判定の正確さを向上させることができる。
【0060】
このように、事象発生に関する判定の正確さを向上させることによれば、システム自体の信頼性を向上させることができる。また、所定の事象発生を電子メールで通知する場合には、誤った判定結果を通知するメールを減少させることができるので、メール通信費を削減することも可能である。
【0061】
<B.第2実施形態>
<構成>
図6は、本発明の第2実施形態に係るカメラシステム100Bの構成を示す図である。カメラシステム100Bは、カメラシステム100Aと類似の構成を有している。以下では、相違点を中心に説明する。
【0062】
まず、カメラシステム100Bは、サーバ5を備えない点でカメラシステム100Aと相違する。そして、異常事象等の発生は、サーバではなく、或るカメラ(例えばカメラ1a)からのトリガ情報を受信した別のカメラ(例えばカメラ1b)によって判定される。言い換えれば、カメラシステム100Bにおいては、所定事象の発生の有無を判定する判定機能が、サーバに備えられるのではなく、相互に接続された2台のカメラの少なくとも一方のカメラに備えられている。
【0063】
また、カメラ1aは、いわゆるネットワーク接続ではなく、外部入出力機器等を介して直接的または間接的に他のカメラ1bと接続されている。
【0064】
具体的には、カメラ1aの少なくとも1つの外部出力機器3aの出力端子TOとカメラ1bの少なくとも1つの外部入力機器2bの入力端子TIとが信号線SLを介して接続される。また、その外部出力機器3aの入力端子TIはカメラ1aの出力端子TOに信号線SLを介して接続されており、その外部入力機器2bの出力端子TOは信号線SLを介してカメラ1bの入力端子TIに接続されている。したがって、カメラ1aの出力端子TOとカメラ1bの入力端子TIとが外部出力機器3aおよび外部入力機器2bを介して接続されていることになる。
【0065】
そして、カメラ1aは、検知されたトリガ情報の種類に応じて、対応する外部出力機器3aの出力端子における出力信号の状態を制御する。カメラ1aは、この出力信号において、ハイ(High)レベルとロー(Low)レベルとを切り替えることによって、トリガ情報TG1をカメラ1bの外部入力機器2bおよびカメラ1bのトリガ制御部13に伝達する。例えば、カメラ1aは、この出力信号を、正常時にはハイレベルに維持し、異常時にローレベルに変化させるように制御することによって、トリガ情報TG1を伝達する。あるいは、ハイレベルとローレベルとを逆に用いるようにしてもよい。
【0066】
このような接続によれば、サーバを用いずに且つネットワーク接続を用いずに、各種の情報(状態変化に関する情報等)の授受を行うことができる。なお、この接続は、信号線SL等を用いた有線接続に限定されることなく、各種の無線通信手段等による無線接続で実現されてもよい。
【0067】
あるいは、カメラ1aの出力端子とカメラ1bの入力端子とを接続することなく、情報の授受を行うことも可能である。たとえば、外部出力機器3aおよび外部入力機器2bを用いて、両カメラ1a,1b相互間での情報の授受を行うようにしてもよい。
【0068】
具体的には、カメラ1aは、トリガ情報TG1が検知されると、カメラ1aに関連付けられた外部出力機器3aに対して出力信号を送出し、カメラ1bは、カメラ1bに関連付けられた外部入力機器2bからの入力信号を受信するようにすればよい。たとえば、所定の音を発するブザー(あるいはベル)などの音出力機器を外部出力機器3aとして用い、その音を検知する音検知機器を外部入力機器2bとして用いる。そして、外部入力機器2bは、外部出力機器3aによって発せられたブザー音を検知すると、カメラ1bに対してトリガ情報TG1を送信する。これによれば、カメラ1bは、カメラ1aからのトリガ情報TG1を受信することができる。すなわち、カメラ1a,1bを相互に接続することなく、カメラ1a,1bの相互間での各種の情報の授受を行うことができる。
【0069】
<動作>
図7は、カメラシステム100Bにおける動作例を示すフローチャートである。以下では、この第2実施形態における異常事象の発生を検知する動作について説明する。
【0070】
まず、ステップS21において、第1実施形態と同様、パッシブセンサ21(外部入力機器2a)が、所定の状態変化を検知してカメラ1aに通知する場合を想定する。
【0071】
次に、カメラ1aは、パッシブセンサ21等によるトリガ情報TG1をカメラ1bに発信する(ステップS22)。具体的には、カメラ1aは、或る外部出力機器3aの出力端子TOと、対応する外部入力機器2bの入力端子TIとの間の信号線接続を用いて、トリガ情報TG1を外部入力機器2bを介してカメラ1bに通知する。外部入力機器2bに接続されたカメラ1bのトリガ制御部13は、信号線接続を介してトリガ情報TG1を受信することによって、カメラ1aに関連する状態変化を認識する。このようにして、カメラ1aに関連する状態変化は、カメラ1aの出力端子とカメラ1bの入力端子との接続を介して、トリガ信号TG1として、カメラ1aからカメラ1bのトリガ制御部13に通知される。
【0072】
また、カメラ1aは、トリガ制御部13によってライト31(外部出力機器3a)に対して点灯指示を送信する(ステップS24)。ライト点灯によって、窓41付近を照明するとともに、不審者44への警告が行われる。
【0073】
他方のカメラ1bは、ステップS22でのトリガ情報TG1の通知に応答して、そのカメラ1bの撮影領域を変更するための動作制御を行う(ステップS25)。具体的には、カメラ1bは、そのパン角度、チルト角度、ズーム倍率(視野角)の新たな目標値を実現するように制御する。新たな目標値は、カメラ1b内部の記憶手段(メモリなど)に格納しておいたデータテーブルTBLを用いて定めれば良い。データテーブルTBLとしては、図5と同様のものを用いることができる。ただし、他のカメラ1aの角度設定に関する情報は不要である。
【0074】
つぎに、カメラ1bは、動体検知処理を行う(ステップS27)。そして、その結果に応じて分岐処理を行う(ステップS28)。動体が検知されなかったときにはこの処理を終了する。一方、動体が検知されたときには、異常事象が発生していると判定する(ステップS29)。
【0075】
詳細には、カメラ1bのトリガ制御部13は、カメラ1bのトリガ検知部11からのトリガ情報(動体検知)TG2を受信することによって、カメラ1aに関連する状態変化を認識する。
【0076】
そして、カメラ1bのトリガ制御部13は、カメラ1aからのトリガ情報TG1と、カメラ1bのトリガ検知部11からのトリガ情報(動体検知)TG2との両方を受信すると、異常事象が発生したと判定する。言い換えれば、トリガ情報TG2をも用いて、カメラ1aからのトリガ情報TG1が異常事象の発生を正しく反映したものであることを確定させる。
【0077】
そして、カメラ1bは異常情報を出力する(ステップS30)。
【0078】
具体的には、カメラ1bの外部出力機器3bの1つに所定の警報出力を行わせる。たとえば、ブザー音、サイレン音等を発生させる。なお、カメラ1bがネットワーク接続機能を有する場合には、文字等による警告出力を含む電子メールを、指定された携帯電話等のメールアドレスに対して、異常情報として出力するようにしてもよい。
【0079】
以上のように、このカメラシステム100Bによれば、カメラシステム100Aと同様の利点を得ることができる。
【0080】
また、このカメラシステム100Bによれば、サーバを用いることなく簡易なシステムを用いて、異常状態の発生を正確に判定することができる。
【0081】
<C.変形例>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
【0082】
たとえば、上記各実施形態においては、2台のカメラ1a,1bを用いる場合について説明しているが、これに限定されず、3台以上のカメラを用いるようにしてもよい。また、3台以上のカメラ1a,1b,1c,1d,1e,...を用いる場合には、1台のカメラ1aからのトリガ情報TG1を受信した他のカメラ1b,1c,1d,1e,...のうちの複数の他のカメラ(たとえば、3台のカメラ1b,1c,1d)によって、トリガ情報TG1の信頼性を高めるための確認動作を行うようにしてもよい。具体的には、カメラ1aからのトリガ情報TG1を受信した他の3台のカメラ1b,1c,1dの全てにおいて動体検知処理を行い、その検知結果に関する多数決によって異常状態が発生しているか否かを判定するようにしてもよい。あるいは、設置された各カメラ1b,1c,1dの位置に応じて、各カメラによる動体検知結果に対して重み付けをした上で、異常状態の発生の有無を判定するようにしてもよい。
【0083】
また、上記各実施形態においては、カメラ1aがライト31に出力指示を与える場合について説明したが、カメラ1aがブザー、サイレン等の外部出力機器3aに対して音声出力指示を与えるようにしてもよい。さらに、この場合には、干渉による誤検知を回避するため、カメラ1aによって音声出力指示が送出されている間は、カメラ1bの外部入力機器2bのうちの音声感知機器がこの音を検知しないようにするか、或いはその音声感知機器からの検知信号を無効化することが好ましい。たとえば、サーバ5は、図4のステップS3において、カメラ1aからのトリガ情報TG1を受信した直後に、カメラ1bに接続された音声感知機器からの検知信号を無効化し、その後に受領確認をカメラ1aに返信するようにしてもよい。
【0084】
さらに、上記各実施形態においては、或る状態変化がパッシブセンサ21により検知される場合について説明したが、状態変化には様々な種類のものが存在し、また、各状態変化は、それぞれ、様々な要素によって検知される。
【0085】
たとえば、カメラ1aの撮影内容に基づく動体検知によって状態変化を検知するとともに、カメラ1bの撮影内容に基づく動体検知によって状態変化を検知するようにしてもよい。そして、これら2つの状態変化の両方が検出されるときに異常事象が発生していると判定すればよい。この場合でも、カメラ1a,1bによる2つの検知結果の論理和によって異常事象の発生を判定するので、判定結果の信頼性を向上させることができる。また、カメラ1bは、窓41付近の対象物をカメラ1aとは異なる角度から撮影することができるので、1つの角度からの画像のみで判定する場合の誤検知を回避できる。
【0086】
また、状態変化を検知する他の例としては、カメラ自体の破壊等を検知するものが挙げられる。カメラ自体が侵入者等によって破壊される場合に、カメラ自体の状態を把握することは、非常に有用である。
【0087】
具体的には、第1実施形態において、各カメラ1a,1bが正常に動作していることを各カメラ1a,1bがポーリング動作によってサーバ5に送信するようにしてもよい。サーバ5は、カメラ1a,1bのいずれかからの送信が所定期間内に受領されないことを検知することによって、そのカメラに異常が発生したことを検知できる。たとえば、カメラ1aの異常を検知したサーバ5は、トリガ情報TG1をカメラ1bに送信すればよい。
【0088】
あるいは、第2実施形態において、複数の出力信号のうちの1つの出力信号において、カメラ1aの正常時にはハイレベルに維持し、異常時にローレベルに変化させるように制御するようにして、カメラ1aのカメラ異常を示すトリガ情報TG1をカメラ1bに伝達するようにしてもよい。
【0089】
なお、ここでは、カメラ自体が異常状態であることを、単に「カメラ異常」とも称するものとし、このカメラ異常を示すトリガ情報を「カメラ異常トリガ」とも称するものとする。
【0090】
そして、各変形例において、一方のカメラ(たとえばカメラ1a)に異常が発生した場合には、別のカメラ1bは、異常状態のカメラ1aを撮影するようにカメラ1b自身の撮影範囲を変更して、カメラ1a自体の損壊状態等を確認する。具体的には、カメラ1bは、新たな撮影画像を、予め格納しておいたカメラ1aの正常時の画像と比較することによって、カメラ1aの存否および外形の損壊状態を確認することなどが可能である。そして、カメラ1aが存在しないかあるいは損壊していると判定するときに、カメラ1bのトリガ検知部11はトリガ情報TG2を出力する。
【0091】
このように、カメラ1aに関連する異常事象(より詳細にはカメラ1aの外形上の損壊等)の発生の有無を、カメラ異常トリガTG1と、画像処理によるトリガ情報TG2との両方に基づいて判断するようにしてもよい。
【0092】
【発明の効果】
以上のように、請求項1ないし請求項8に記載の発明によれば、事象発生の判定における正確さを向上させることができる。
【0093】
特に、請求項2に記載の発明によれば、事象発生に関する判定の正確さをさらに向上させることができる。
【0094】
また、請求項3に記載の発明によれば、撮影時の明るさを確保できるので、事象発生に関する判定の正確さを向上させることができる。
【0095】
さらに、請求項4に記載の発明によれば、第2のカメラによる撮影内容に基づく動体検知または輝度差検知によって第2の状態変化が検知されるので、より正確に事象発生に関する判定を行うことが可能である。
【0096】
また、請求項6に記載の発明によれば、サーバコンピュータを用いずに、状態変化に関する情報を伝達することができる。
【図面の簡単な説明】
【図1】第1実施形態に係るカメラシステム100Aの構成を示す図である。
【図2】カメラシステム100Aの各要素のレイアウト例を示す図である。
【図3】カメラ1bの撮影範囲が変更された状態を示す図である。
【図4】カメラシステム100Aにおける動作例を示すフローチャートである。
【図5】データテーブルTBLの概要を示す図である。
【図6】第2実施形態に係るカメラシステム100Bの構成を示す図である。
【図7】カメラシステム100Bにおける動作例を示すフローチャートである。
【符号の説明】
100A,100B カメラシステム
11,12 トリガ検知部
13 トリガ制御部
1a〜1e カメラ
21 パッシブセンサ
26 マットスイッチ
41 窓
43 ファクシミリ通信機器
44 不審者
NL ネットワーク接続線
R1 検知対象領域
RM 居室
SL 信号線
TG1,TG2 トリガ情報
TI 入力端子
TO 出力端子
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera system (for example, a surveillance camera system) to which a plurality of cameras are connected, and a technology related thereto.
[0002]
[Prior art]
There is a camera system in which a plurality of cameras are connected (for example, see Patent Document 1). Such a camera system is used as a surveillance camera system for detecting an intruder or the like.
[0003]
In Patent Document 1, an example of such a system is shown. Specifically, there is described a system that captures an image of an object by operating the orientation of at least one of a plurality of cameras when an intruder is detected.
[0004]
[Patent Document 1]
JP 2002-150441 A
[0005]
[Problems to be solved by the invention]
In general, various detection means exist for detecting an intruder or the like. For example, there are those that detect a person using a photographed image of a camera, and those that detect a person using a sound detection sensor or an infrared detection sensor.
[0006]
However, it is difficult to perform accurate detection under any environment with one detection means. For example, even when moving object detection using a captured image of a camera is performed, the detection result may be inaccurate under circumstances such as dark lighting. Further, when a sound detection sensor is used, erroneous detection due to noise may be performed. Similarly, when an infrared sensor is used, a small animal or a facsimile communication device may be erroneously detected.
[0007]
In view of the above problems, the present invention provides a technique capable of more accurately determining whether or not a certain event (the presence of an intruder, etc.) has occurred in a camera system in which a plurality of cameras are connected. For the purpose.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention of claim 1 is a camera system to which a plurality of cameras including a first camera and a second camera are connected, and is associated with the first camera. First detection means for detecting a first state change corresponding to the occurrence, and second detection means associated with the second camera and detecting a second state change corresponding to the occurrence of the predetermined event; Determining means for determining whether or not the predetermined event has occurred based on the first state change and the second state change.
[0009]
According to a second aspect of the present invention, in the camera system according to the first aspect of the present invention, the second camera captures the first camera when the first state change is detected by the first detection means. An area including at least a part of the area is imaged, and the second detection unit detects the second state change based on the content captured by the second camera.
[0010]
According to a third aspect of the present invention, in the camera system according to the second aspect of the present invention, when the first state change is detected, the first camera is turned on to an illumination unit associated with the first camera. An instruction signal is output.
[0011]
According to a fourth aspect of the present invention, in the camera system according to any one of the first to third aspects of the present invention, the second detection means is based on moving object detection or luminance difference detection based on the content captured by the second camera. The second state change is detected.
[0012]
A fifth aspect of the present invention is the camera system according to any one of the first to fourth aspects, further comprising a server computer connected to both the first camera and the second camera, The determination means is provided in the server computer.
[0013]
According to a sixth aspect of the present invention, in the camera system according to any one of the first to fourth aspects, the determination unit is provided in the second camera, and the first state change is the first state change. The second camera is notified from the first camera through a connection between the output terminal of the camera and the input terminal of the second camera.
[0014]
The invention of claim 7 is a monitoring method using a camera system in which a plurality of cameras including a first camera and a second camera are connected, wherein a) a first detection means associated with the first camera is provided. And detecting a first state change corresponding to the occurrence of the predetermined event, and b) using a second detecting means associated with the second camera, the second corresponding to the occurrence of the predetermined event. And c) determining whether or not the predetermined event has occurred based on the first state change and the second state change.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0016]
<A. First Embodiment>
<Overall configuration>
FIG. 1 is a diagram showing a configuration of a camera system 100A according to the first embodiment of the present invention. The camera system 100A is used for monitoring purposes.
[0017]
The camera system 100A includes a plurality of network cameras (hereinafter simply referred to as cameras) 1 (here, two cameras 1a and 1b) and a server computer (hereinafter also simply referred to as a server) 5.
[0018]
The plurality of cameras 1a and 1b and the server 5 are network-connected using a network connection line NL. More specifically, the cameras 1a and 1b and the server 5 are connected to each other via a LAN (local area network) cable, a wireless LAN device, a network hub (not shown), or the like. When the server 5 is located at a remote place, the plurality of cameras 1a, 1b and the server 5 may be connected via the Internet or a dedicated line.
[0019]
The server 5 displays the images of the cameras 1a to 1e and provides a GUI (graphical user interface) for controlling the camera. When the server 5 receives the camera abnormality notification, the server 5 displays on the monitor screen of the server 5 which camera abnormality has occurred and the content of the abnormality. The cameras 1 a and 1 b perform monitoring processing in cooperation by exchanging information with each other via the server 5.
[0020]
The camera system 100A has two subsystems 10a and 10b. The subsystem 10a has a camera 1a, an external input device 2a, and an external output device 3a, and the subsystem 10b has a camera 1b, an external input device 2b, and an external output device 3b. As described above, each subsystem 10a is constituted by a camera and its input / output devices.
[0021]
Since these two subsystems 10a and 10b have almost the same configuration, for the sake of simplification of description, description will be given focusing on one subsystem 10a.
[0022]
The camera 1a of the subsystem 10a has a CPU (central processing unit) and a memory (storage unit). The camera 1a can perform the network communication function and various processes described later by executing a predetermined program stored in the memory.
[0023]
The camera 1a can capture and record an image, and can also perform voice input using a microphone or the like. In addition, the camera has various drive mechanisms for performing pan, tilt, and zoom drive operations of the camera when taking an image.
[0024]
Inside the camera 1a, there are provided a trigger detection unit 11 based on image processing, a trigger detection unit 12 based on audio processing, and a trigger control unit 13 that controls various triggers.
[0025]
The trigger detection unit 11 detects a change in the state of the subject in the image based on the image data captured by the camera 1a. Specifically, moving object detection and / or luminance difference detection is performed. The moving object detection is to detect the presence or absence of movement according to the presence or absence of a change between two frames. If a motion is detected by the moving body detection, trigger information (also referred to as a trigger signal) is output to the trigger control unit 13 in response to the detection of the motion. The luminance difference detection is for detecting the presence or absence of a subject change according to the presence or absence of a luminance change between two frames. If a luminance difference is detected by the luminance difference detection, trigger information is output to the trigger control unit 13 in response to the detection of the luminance difference.
[0026]
The trigger detection unit 12 detects a change in the state of sound around the sound data recorded by the camera 1a. Specifically, an audio signal input from a microphone is digitized by A / D conversion, and when a sound pressure with a level higher than a preset level is detected, it is detected as an abnormal sound. At this time, the trigger detection unit 12 outputs trigger information to the trigger control unit 13 in response to the detection of the abnormal sound.
[0027]
Furthermore, a plurality of external input devices 2a are connected to the camera 1a. Specifically, an input terminal TI among I / O terminals (input / output terminals) of the camera 1a and an output terminal TO of each external input device 2a are connected via a signal line SL. When the external input device 2a detects a predetermined state change or the like, the external input device 2a outputs the detection result to the camera 1a as trigger information.
[0028]
Examples of the external input device 2a include a magnet switch, a push button, a passive sensor, a combination sensor, an infrared sensor, a flame sensor, a smoke sensor, a gas leak sensor, a glass break sensor, a water leak detection sensor, a mat switch, a tape switch, and a load switch. Various sensors such as can be used. The external input device 2a is not limited to these various devices as long as it can detect a change in state and output it as trigger information to the camera 1a.
[0029]
The trigger control unit 13 can receive trigger information from the trigger detection units 11 and 12 described above, and can also receive various trigger information from the external input device 2a.
[0030]
A plurality of external output devices 3a are connected to the camera 1a. Specifically, the input terminal TI of each external output device 3a is connected to the output terminal TO of the I / O terminals (input / output terminals) of the camera 1a. The external output device 3a performs a predetermined output based on an output instruction from the camera 1a. As the external output device 3a, for example, an illumination unit such as a light and an audio output device such as a buzzer or a bell can be used.
[0031]
The trigger control unit 13 transmits various output instructions to the server 5 and / or the external output device 3a based on various trigger information from the trigger detection units 11 and 12 and the external input device 2a. The trigger control unit 13 can also transmit a detection start instruction to the trigger detection unit 11.
[0032]
Thus, the camera 1a includes the trigger detection units 11 and 12 and is connected to the external input device 2a having a trigger detection function. In other words, it can be expressed that the camera 1a is associated with the trigger detection units 11 and 12 and the external input device 2a. The same applies to the camera 1b.
[0033]
<Example layout>
FIG. 2 is a plan view showing a layout example of each element of the camera system 100A. Here, a system for monitoring whether or not a suspicious person has entered the living room RM is assumed.
[0034]
As shown in FIG. 2, two cameras 1a and 1b are arranged in the room RM. Specifically, the cameras 1a and 1b are installed at different positions on the ceiling.
[0035]
In principle, one camera 1a photographs the window 41 and its surroundings, and the other camera 1b photographs the door 42 and its surroundings. That is, each camera performs a monitoring operation in cooperation by sharing a different area and shooting.
[0036]
In addition, a passive sensor 21 that detects infrared rays is provided around the window 41. The passive sensor 21 is connected to the camera 1a and functions as an external input device 2a associated with the camera 1a.
[0037]
A long and narrow elliptical region drawn by a dotted line in FIG. 2 indicates a detection target region R1 of the passive sensor 21. The passive sensor 21 can detect the presence or absence of a heating element within the detection target region R1 by receiving infrared rays. Here, not only the window 41 but also the facsimile communication device 43 arranged around the window 41 exists in the detection target region R1. Therefore, the passive sensor 21 may react not only to the suspicious person in the detection target region R1, but also to the facsimile communication device 43 that has started the reception operation at night, for example.
[0038]
Further, a light 31 is arranged toward the window 41. The light 31 is connected to the camera 1a and functions as an external output device 3a associated with the camera 1a. The light 31 is normally in an off state (non-lighting state), and lights up in response to an output instruction (lighting instruction) from the trigger control unit 13 of the camera 1a. When the light 31 is turned on, the area around the window 41 is illuminated.
[0039]
On the other hand, a mat switch 26 is disposed in the vicinity of the door 42. The mat switch 26 is connected to the camera 1b and functions as an external input device 2b associated with the camera 1b. The mat switch 26 detects the presence of a person or an object having a predetermined weight or more on the surface, and transmits it to the camera 1a.
[0040]
In addition, the server 5 is not disposed in the living room RM, but is disposed in another living room or the like (for example, a monitoring room or the like). In addition, the server 5 may be arrange | positioned in the place (remote) far away from the building containing this living room.
[0041]
<Operation>
FIG. 3 is a diagram illustrating a state in which the shooting range of the camera 1b is changed when a suspicious person enters. FIG. 4 is a flowchart showing an operation example in the camera system 100A. Hereinafter, an operation for detecting the occurrence of an abnormal event will be described with reference to these drawings. More specifically, the discovery operation for a suspicious person or the like will be described.
[0042]
Assume that predetermined trigger information TG1 related to the camera 1a is detected in step S1 of FIG. Specifically, when the passive sensor 21 (FIGS. 2 and 3) detects a predetermined state change and notifies the camera 1a, the camera 1a recognizes the predetermined state change, in other words, the occurrence of a trigger (trigger detection). Trigger information TG1 is also generated.
[0043]
Here, this state change detected by the passive sensor 21 corresponds to the occurrence of an abnormal event such as the entry of a suspicious person. However, determining whether or not an abnormal event has occurred based only on the detection signal from the passive sensor 21 does not necessarily have sufficient reliability. As described above, the passive sensor 21 may react not only to the suspicious person 44 as shown in FIG. 3 but also to the facsimile communication device 43 arranged in the vicinity to detect a change in state. Because there is.
[0044]
Next, the camera 1a notifies the server 5 of trigger information TG1 detected by the passive sensor 21 through network communication using a LAN or the like (step S2).
[0045]
When receiving the trigger information TG1 from the camera 1a, the server 5 returns a reception confirmation to the camera 1a (step S3).
[0046]
Upon receipt of this reception confirmation, the camera 1a transmits a lighting instruction to the light 31 by the trigger control unit 13 (step S4). By lighting the light, the vicinity of the window 41 can be illuminated and a warning to the suspicious person 44 can be given.
[0047]
Further, when the server 5 receives the trigger information TG1 from the camera 1a, in response to the trigger information TG1, the server 5 transmits (notifies) an operation instruction for changing the shooting area of the camera 1b to another camera 1b. (Step S5). Specifically, the server 5 gives a new target value of the pan angle, tilt angle, and zoom magnification (viewing angle) to the camera 1b and instructs to operate so as to realize the target value. . The camera 1b can photograph the object near the window 41 from an angle different from that of the camera 1a by changing the photographing angle.
[0048]
As the target value, as shown in FIG. 3, a value that is realized as a range in which the new shooting range of the camera 1b includes an overlapping range with the shooting range of the camera 1a is set. Note that the new shooting range in FIG. 3 is such that the camera 1a itself can also be shot.
[0049]
This target value is stored in advance in a data table TBL (see FIG. 5) stored in storage means (hard disk and / or memory, etc.) of the server 5. The server 5 sends out an instruction based on the target value stored in this data table.
[0050]
In the conceptual diagram of FIG. 5, various trigger information TG11, TG12,. . . A state in which target values related to the pan angle, tilt angle, and zoom magnification (viewing angle) of the other camera 1b are stored is shown. FIG. 5 also shows various trigger information TG21, TG22,. . . Also shown are target values for the pan angle, tilt angle, and zoom magnification (viewing angle) of the other camera 1a. Here, the trigger information TG11, TG12,. . . Indicates individual trigger information included in the trigger information TG1, and the trigger information TG21, TG22,. . . Indicates individual trigger information included in the trigger information TG2. Note that FIG. 5 illustrates the case where the posture angle of the camera with respect to the same camera is constant regardless of the type of trigger information, but a different posture may be indicated according to the type of trigger information. . For example, with respect to trigger information from a magnet switch (external input device 2a) provided in the window 41, a zoom magnification may be set so that the vicinity of the window 41 is enlarged and photographed.
[0051]
The camera 1b performs a driving operation in response to the operation instruction in step S5, and changes the pan angle, tilt angle, and zoom magnification of the camera 1b to target values (step S6).
[0052]
Thereby, the area | region where possibility that the suspicious person 44 exists is high can be intensively monitored by the two cameras 1a and 1b. In particular, when the imaging areas of the cameras 1a and 1b have non-overlapping areas, it becomes possible to find a suspicious person 44 existing in the non-overlapping areas. For example, as shown in FIG. 3, since the suspicious person 44 exists in an area outside the imaging range of the camera 1a, it cannot be captured by the camera 1a. However, since it exists in the imaging range after the change of the camera 1b, it becomes possible to capture the suspicious person 44 by the camera 1b.
[0053]
Next, the camera 1b performs a moving body detection process (step S7). When no moving object is detected, this process ends without notifying the server 5 of the trigger information for detecting the moving object. On the other hand, when a moving object is detected, the moving object detection information is notified to the server 5 as second trigger information TG2 (steps S8 and S9).
[0054]
Here, the state change detected by the moving object detection based on the photographed image of the camera 1b also corresponds to the occurrence of an abnormal event called intrusion of a suspicious person.
[0055]
Then, when receiving both the trigger information TG1 from the camera 1a and the trigger information (moving object detection) TG2 from the camera 1b, the server 5 determines in step S10 that an abnormal event has occurred. In other words, it is confirmed by the trigger information TG2 that the trigger information TG1 from the camera 1a correctly reflects the occurrence of the abnormal event. Then, the server 5 outputs abnormality information.
[0056]
Specifically, a warning output (warning display indicating “abnormality occurrence” using characters, graphics, or the like) is output to the display unit (display or the like) of the server 5. In addition, the server 5 may output a warning using sound or the like from a speaker. However, the present invention is not limited to this, and the server 5 may output an electronic mail including a similar warning output as abnormality information to a mail address of a designated mobile phone or the like.
[0057]
As described above, according to the camera system 100A, not only the trigger information TG1 corresponding to the occurrence of the abnormal event is detected by the camera 1a, but also the other trigger information TG2 corresponding to the occurrence of the abnormal event is generated. When further detected by the camera 1b, it is determined that the abnormal event has occurred. In other words, when both of the two trigger information TG1 and TG2 are detected, it is determined that an abnormal event has occurred, and when only one trigger information is detected, it is determined that no abnormal event has occurred. Therefore, the accuracy of the determination regarding the occurrence of the event can be improved as compared with the case where the occurrence of the abnormal event is determined only by the trigger information TG1 from the camera 1a. That is, erroneous determination can be prevented.
[0058]
Specifically, when the trigger information is detected by the passive sensor 21, the camera 1b captures an imaging region of the camera 1a and detects the presence of a moving object by moving object detection. Then, the server 5 detects another trigger information TG2 based on the moving object detection result by the camera 1b. Since the trigger information TG2 is detected based on the captured content (captured image) of the camera 1b including a lot of information, it is possible to particularly improve the accuracy of determination regarding the occurrence of an event.
[0059]
Further, when the trigger information TG1 is detected, the camera 1a outputs a lighting instruction signal to the light 31 (illumination unit) related to the camera 1a, so that it is possible to ensure the brightness at the time of shooting by the camera 1b. According to this, since the moving body detection process can be performed based on a brighter image, the accuracy of the detection result (moving body detection result) of the state change based on the photographing content of the camera 1b is improved. Therefore, it is possible to improve the accuracy of determination regarding event occurrence.
[0060]
Thus, by improving the accuracy of the determination regarding the occurrence of an event, the reliability of the system itself can be improved. Further, when notifying the occurrence of a predetermined event by e-mail, it is possible to reduce the number of e-mails notifying the erroneous determination result, and it is possible to reduce the e-mail communication cost.
[0061]
<B. Second Embodiment>
<Configuration>
FIG. 6 is a diagram showing a configuration of a camera system 100B according to the second embodiment of the present invention. The camera system 100B has a configuration similar to that of the camera system 100A. Below, it demonstrates centering around difference.
[0062]
First, the camera system 100B is different from the camera system 100A in that the server 5 is not provided. The occurrence of an abnormal event or the like is determined not by the server but by another camera (for example, camera 1b) that has received trigger information from a certain camera (for example, camera 1a). In other words, in the camera system 100B, a determination function for determining whether a predetermined event has occurred is not provided in the server, but is provided in at least one of the two cameras connected to each other.
[0063]
The camera 1a is not directly connected to the network, but is connected directly or indirectly to another camera 1b via an external input / output device or the like.
[0064]
Specifically, the output terminal TO of at least one external output device 3a of the camera 1a and the input terminal TI of at least one external input device 2b of the camera 1b are connected via a signal line SL. The input terminal TI of the external output device 3a is connected to the output terminal TO of the camera 1a via the signal line SL, and the output terminal TO of the external input device 2b is input to the camera 1b via the signal line SL. Connected to terminal TI. Therefore, the output terminal TO of the camera 1a and the input terminal TI of the camera 1b are connected via the external output device 3a and the external input device 2b.
[0065]
Then, the camera 1a controls the state of the output signal at the output terminal of the corresponding external output device 3a according to the type of the detected trigger information. The camera 1a transmits the trigger information TG1 to the external input device 2b of the camera 1b and the trigger control unit 13 of the camera 1b by switching between a high level and a low level in the output signal. For example, the camera 1a transmits the trigger information TG1 by controlling the output signal so that it is maintained at a high level when it is normal and is changed to a low level when it is abnormal. Alternatively, the high level and the low level may be used in reverse.
[0066]
According to such connection, various types of information (such as information on state change) can be exchanged without using a server and without using a network connection. This connection is not limited to a wired connection using the signal line SL or the like, and may be realized by a wireless connection by various wireless communication means.
[0067]
Alternatively, information can be exchanged without connecting the output terminal of the camera 1a and the input terminal of the camera 1b. For example, information may be exchanged between the cameras 1a and 1b using the external output device 3a and the external input device 2b.
[0068]
Specifically, when the trigger information TG1 is detected, the camera 1a sends an output signal to the external output device 3a associated with the camera 1a, and the camera 1b transmits the external input device associated with the camera 1b. The input signal from 2b may be received. For example, a sound output device such as a buzzer (or bell) that emits a predetermined sound is used as the external output device 3a, and a sound detection device that detects the sound is used as the external input device 2b. When the external input device 2b detects a buzzer sound generated by the external output device 3a, the external input device 2b transmits trigger information TG1 to the camera 1b. According to this, the camera 1b can receive the trigger information TG1 from the camera 1a. That is, various information can be exchanged between the cameras 1a and 1b without connecting the cameras 1a and 1b to each other.
[0069]
<Operation>
FIG. 7 is a flowchart showing an operation example in the camera system 100B. Below, the operation | movement which detects generation | occurrence | production of the abnormal event in this 2nd Embodiment is demonstrated.
[0070]
First, in step S21, as in the first embodiment, it is assumed that the passive sensor 21 (external input device 2a) detects a predetermined state change and notifies the camera 1a.
[0071]
Next, the camera 1a transmits trigger information TG1 from the passive sensor 21 or the like to the camera 1b (step S22). Specifically, the camera 1a uses the signal line connection between the output terminal TO of a certain external output device 3a and the input terminal TI of the corresponding external input device 2b to transmit the trigger information TG1 to the external input device 2b. To the camera 1b. The trigger control unit 13 of the camera 1b connected to the external input device 2b recognizes the state change related to the camera 1a by receiving the trigger information TG1 through the signal line connection. Thus, the state change related to the camera 1a is notified from the camera 1a to the trigger control unit 13 of the camera 1b as the trigger signal TG1 through the connection between the output terminal of the camera 1a and the input terminal of the camera 1b. The
[0072]
Further, the camera 1a transmits a lighting instruction to the light 31 (external output device 3a) by the trigger control unit 13 (step S24). By lighting the light, the vicinity of the window 41 is illuminated and a warning to the suspicious person 44 is given.
[0073]
In response to the notification of the trigger information TG1 in step S22, the other camera 1b performs operation control for changing the shooting area of the camera 1b (step S25). Specifically, the camera 1b performs control so as to realize new target values of the pan angle, tilt angle, and zoom magnification (viewing angle). The new target value may be determined using the data table TBL stored in the storage means (memory or the like) inside the camera 1b. A data table TBL similar to that shown in FIG. 5 can be used. However, the information regarding the angle setting of the other camera 1a is unnecessary.
[0074]
Next, the camera 1b performs a moving body detection process (step S27). Then, branch processing is performed according to the result (step S28). If no moving object is detected, this process ends. On the other hand, when a moving object is detected, it is determined that an abnormal event has occurred (step S29).
[0075]
Specifically, the trigger control unit 13 of the camera 1b recognizes a state change related to the camera 1a by receiving trigger information (moving object detection) TG2 from the trigger detection unit 11 of the camera 1b.
[0076]
When the trigger control unit 13 of the camera 1b receives both the trigger information TG1 from the camera 1a and the trigger information (moving object detection) TG2 from the trigger detection unit 11 of the camera 1b, the trigger control unit 13 determines that an abnormal event has occurred. To do. In other words, the trigger information TG2 is also used to determine that the trigger information TG1 from the camera 1a correctly reflects the occurrence of the abnormal event.
[0077]
Then, the camera 1b outputs abnormality information (step S30).
[0078]
Specifically, a predetermined alarm is output to one of the external output devices 3b of the camera 1b. For example, a buzzer sound, a siren sound, etc. are generated. In the case where the camera 1b has a network connection function, an e-mail including a warning output by characters or the like may be output as abnormality information to a mail address of a designated mobile phone or the like.
[0079]
As described above, according to the camera system 100B, advantages similar to those of the camera system 100A can be obtained.
[0080]
Further, according to the camera system 100B, it is possible to accurately determine the occurrence of an abnormal state using a simple system without using a server.
[0081]
<C. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.
[0082]
For example, in each of the above embodiments, the case where two cameras 1a and 1b are used has been described. However, the present invention is not limited to this, and three or more cameras may be used. Three or more cameras 1a, 1b, 1c, 1d, 1e,. . . , The other cameras 1b, 1c, 1d, 1e,... That have received the trigger information TG1 from one camera 1a. . . A plurality of other cameras (for example, three cameras 1b, 1c, and 1d) may perform a confirmation operation for improving the reliability of the trigger information TG1. Specifically, all three other cameras 1b, 1c, and 1d that have received the trigger information TG1 from the camera 1a perform moving object detection processing, and whether or not an abnormal state has occurred due to a majority decision regarding the detection result. May be determined. Or you may make it determine the presence or absence of generation | occurrence | production of an abnormal state, after weighting with respect to the moving body detection result by each camera according to the position of each installed camera 1b, 1c, 1d.
[0083]
In each of the above embodiments, the case where the camera 1a gives an output instruction to the light 31 has been described. However, the camera 1a may give an audio output instruction to an external output device 3a such as a buzzer or a siren. . Furthermore, in this case, in order to avoid erroneous detection due to interference, the sound sensing device of the external input device 2b of the camera 1b does not detect this sound while the sound output instruction is transmitted by the camera 1a. It is preferable that the detection signal from the voice sensing device is invalidated. For example, immediately after receiving the trigger information TG1 from the camera 1a in step S3 in FIG. 4, the server 5 invalidates the detection signal from the voice sensing device connected to the camera 1b, and then confirms the receipt of the camera 1a. You may make it reply to.
[0084]
Further, in each of the embodiments described above, the case where a certain state change is detected by the passive sensor 21 has been described. However, there are various types of state changes, and each state change has various types. Detected by various elements.
[0085]
For example, the state change may be detected by moving object detection based on the photographing content of the camera 1a, and the state change may be detected by moving body detection based on the photographing content of the camera 1b. Then, it may be determined that an abnormal event has occurred when both of these two state changes are detected. Even in this case, since the occurrence of the abnormal event is determined by the logical sum of the two detection results by the cameras 1a and 1b, the reliability of the determination result can be improved. In addition, since the camera 1b can capture an object near the window 41 from an angle different from that of the camera 1a, it is possible to avoid erroneous detection in the case of determining with only an image from one angle.
[0086]
Another example of detecting a change in state is one that detects the destruction of the camera itself. It is very useful to grasp the state of the camera itself when the camera itself is destroyed by an intruder or the like.
[0087]
Specifically, in the first embodiment, each camera 1a, 1b may transmit to the server 5 by a polling operation that each camera 1a, 1b is operating normally. The server 5 can detect that an abnormality has occurred in the camera by detecting that the transmission from either one of the cameras 1a and 1b is not received within a predetermined period. For example, the server 5 that has detected the abnormality of the camera 1a may transmit the trigger information TG1 to the camera 1b.
[0088]
Alternatively, in the second embodiment, one of the plurality of output signals is controlled to be maintained at a high level when the camera 1a is normal and to be changed to a low level when the camera 1a is abnormal. Trigger information TG1 indicating camera abnormality may be transmitted to the camera 1b.
[0089]
Here, the fact that the camera itself is in an abnormal state is simply referred to as “camera abnormality”, and the trigger information indicating the camera abnormality is also referred to as “camera abnormality trigger”.
[0090]
In each modification, when an abnormality occurs in one camera (for example, the camera 1a), the other camera 1b changes the shooting range of the camera 1b itself so as to shoot the camera 1a in an abnormal state. Then, the damaged state of the camera 1a itself is confirmed. Specifically, the camera 1b can check the presence / absence of the camera 1a and the appearance of the outer shape by comparing a new photographed image with a normal image stored in the camera 1a. It is. When determining that the camera 1a does not exist or is damaged, the trigger detection unit 11 of the camera 1b outputs trigger information TG2.
[0091]
In this way, the presence / absence of occurrence of an abnormal event related to the camera 1a (more specifically, damage on the outer shape of the camera 1a) is determined based on both the camera abnormal trigger TG1 and the trigger information TG2 by image processing. You may make it do.
[0092]
【The invention's effect】
As described above, according to the first to eighth aspects of the invention, the accuracy in determining the occurrence of an event can be improved.
[0093]
In particular, according to the second aspect of the present invention, it is possible to further improve the accuracy of determination relating to the occurrence of an event.
[0094]
According to the third aspect of the present invention, the brightness at the time of shooting can be ensured, so that the accuracy of determination regarding the occurrence of an event can be improved.
[0095]
Furthermore, according to the fourth aspect of the present invention, since the second state change is detected by the moving object detection or the luminance difference detection based on the content captured by the second camera, the determination regarding the occurrence of the event can be performed more accurately. Is possible.
[0096]
According to the sixth aspect of the present invention, it is possible to transmit information relating to a state change without using a server computer.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a camera system 100A according to a first embodiment.
FIG. 2 is a diagram illustrating a layout example of each element of the camera system 100A.
FIG. 3 is a diagram illustrating a state in which a shooting range of the camera 1b is changed.
FIG. 4 is a flowchart showing an operation example in the camera system 100A.
FIG. 5 is a diagram showing an outline of a data table TBL.
FIG. 6 is a diagram showing a configuration of a camera system 100B according to a second embodiment.
FIG. 7 is a flowchart showing an operation example in the camera system 100B.
[Explanation of symbols]
100A, 100B camera system
11, 12 Trigger detection unit
13 Trigger control unit
1a-1e camera
21 Passive sensor
26 Matt switch
41 windows
43 Facsimile communication equipment
44 Suspicious person
NL network connection line
R1 detection target area
RM living room
SL signal line
TG1, TG2 Trigger information
TI input terminal
TO output terminal

Claims (8)

第1および第2のカメラを含む複数のカメラが接続されるカメラシステムであって、
前記第1のカメラに関連付けられており、所定事象の発生に対応する第1の状態変化を検知する第1検知手段と、
前記第2のカメラに関連付けられており、前記所定事象の発生に対応する第2の状態変化を検知する第2検知手段と、
前記第1の状態変化と前記第2の状態変化とに基づいて、前記所定事象の発生の有無を判定する判定手段と、
を備えることを特徴とするカメラシステム。
A camera system to which a plurality of cameras including a first camera and a second camera are connected,
First detection means associated with the first camera and detecting a first state change corresponding to the occurrence of a predetermined event;
Second detection means associated with the second camera and detecting a second state change corresponding to the occurrence of the predetermined event;
Determination means for determining whether or not the predetermined event has occurred based on the first state change and the second state change;
A camera system comprising:
請求項1に記載のカメラシステムにおいて、
前記第2のカメラは、前記第1検知手段によって前記第1の状態変化が検知されたときには、前記第1のカメラの撮影領域の少なくとも一部を含む領域を撮影し、
前記第2検知手段は、前記第2のカメラによる撮影内容に基づいて前記第2の状態変化を検知することを特徴とするカメラシステム。
The camera system according to claim 1,
The second camera captures an area including at least a part of an imaging area of the first camera when the first state change is detected by the first detection unit;
The camera system characterized in that the second detection means detects the second state change on the basis of the content of the image taken by the second camera.
請求項2に記載のカメラシステムにおいて、
前記第1のカメラは、前記第1の状態変化が検知されると、当該第1のカメラに関連付けられた照明ユニットに点灯指示信号を出力することを特徴とするカメラシステム。
The camera system according to claim 2,
When the first state change is detected, the first camera outputs a lighting instruction signal to an illumination unit associated with the first camera.
請求項1から請求項3のいずれかに記載のカメラシステムにおいて、
前記第2の検知手段は、前記第2のカメラによる撮影内容に基づく動体検知または輝度差検知によって前記第2の状態変化を検知することを特徴とするカメラシステム。
The camera system according to any one of claims 1 to 3,
The camera system according to claim 2, wherein the second detection means detects the second state change by moving object detection or luminance difference detection based on the content captured by the second camera.
請求項1から請求項4のいずれかに記載のカメラシステムにおいて、
前記第1のカメラおよび前記第2のカメラの双方に接続されるサーバコンピュータ、
をさらに備え、
前記判定手段は、前記サーバコンピュータに設けられることを特徴とするカメラシステム。
The camera system according to any one of claims 1 to 4,
A server computer connected to both the first camera and the second camera;
Further comprising
The determination system is provided in the server computer.
請求項1から請求項4のいずれかに記載のカメラシステムにおいて、
前記判定手段は、前記第2のカメラに設けられ、
前記第1の状態変化は、前記第1のカメラの出力端子と前記第2のカメラの入力端子との接続を介して、前記第1のカメラから前記第2のカメラに通知されることを特徴とするカメラシステム。
The camera system according to any one of claims 1 to 4,
The determination means is provided in the second camera,
The first state change is notified from the first camera to the second camera via a connection between an output terminal of the first camera and an input terminal of the second camera. Camera system.
第1および第2のカメラを含む複数のカメラが接続されるカメラシステムを用いた監視方法であって、
a)前記第1のカメラに関連付けられた第1検知手段を用いて、所定事象の発生に対応する第1の状態変化を検知するステップと、
b)前記第2のカメラに関連付けられた第2検知手段を用いて、前記所定事象の発生に対応する第2の状態変化を検知するステップと、
c)前記第1の状態変化と前記第2の状態変化とに基づいて、前記所定事象の発生の有無を判定するステップと、
を含むことを特徴とする監視方法。
A monitoring method using a camera system to which a plurality of cameras including a first camera and a second camera are connected,
a) detecting a first state change corresponding to the occurrence of a predetermined event using first detection means associated with the first camera;
b) detecting a second state change corresponding to the occurrence of the predetermined event using second detection means associated with the second camera;
c) determining whether or not the predetermined event has occurred based on the first state change and the second state change;
The monitoring method characterized by including.
第1および第2のカメラを含む複数のカメラが接続されるカメラシステムであって、
前記第1のカメラに関連する所定事象の発生に対応する第1の状態変化を検知する第1検知手段と、
前記第2のカメラに内蔵または接続されており、前記所定事象の発生に対応する第2の状態変化を検知する第2検知手段と、
前記第1の状態変化と前記第2の状態変化とに基づいて、前記所定事象の発生の有無を判定する判定手段と、
を備えることを特徴とするカメラシステム。
A camera system to which a plurality of cameras including a first camera and a second camera are connected,
First detecting means for detecting a first state change corresponding to occurrence of a predetermined event related to the first camera;
A second detection means built in or connected to the second camera for detecting a second state change corresponding to the occurrence of the predetermined event;
Determination means for determining whether or not the predetermined event has occurred based on the first state change and the second state change;
A camera system comprising:
JP2003190215A 2003-07-02 2003-07-02 Camera system and monitoring method Pending JP2005027023A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003190215A JP2005027023A (en) 2003-07-02 2003-07-02 Camera system and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003190215A JP2005027023A (en) 2003-07-02 2003-07-02 Camera system and monitoring method

Publications (1)

Publication Number Publication Date
JP2005027023A true JP2005027023A (en) 2005-01-27

Family

ID=34188176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003190215A Pending JP2005027023A (en) 2003-07-02 2003-07-02 Camera system and monitoring method

Country Status (1)

Country Link
JP (1) JP2005027023A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122801A (en) * 2008-11-18 2010-06-03 Denso Corp Suspicious person imaging system
JP2013248381A (en) * 2012-05-01 2013-12-12 Maruyoshi Setsubi Service Kk Hole-in-one confirmation system and camera of the same
JP2016057848A (en) * 2014-09-10 2016-04-21 日本電気株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2017204825A (en) * 2016-05-13 2017-11-16 パナソニックIpマネジメント株式会社 Camera system and camera device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122801A (en) * 2008-11-18 2010-06-03 Denso Corp Suspicious person imaging system
JP2013248381A (en) * 2012-05-01 2013-12-12 Maruyoshi Setsubi Service Kk Hole-in-one confirmation system and camera of the same
JP2016057848A (en) * 2014-09-10 2016-04-21 日本電気株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2017204825A (en) * 2016-05-13 2017-11-16 パナソニックIpマネジメント株式会社 Camera system and camera device

Similar Documents

Publication Publication Date Title
JP4750927B2 (en) Remote monitoring method and monitoring control server
JP3698420B2 (en) Image monitoring apparatus, image monitoring method, and image monitoring processing program
JP4805991B2 (en) Security system using laser distance measuring device and intruder detection method using laser distance measuring device
US9311794B2 (en) System and method for infrared intruder detection
EP1341382A2 (en) Omnidirectional monitoring control system, method and program
JP2006279927A (en) Supervisory and control apparatus, monitoring system, monitoring method, program and recording medium
JP2007179555A (en) Monitoring system
KR101637007B1 (en) System for viewer emergency situation monitoring
KR20100091758A (en) Mobile communication termnial with surveillance function and method for executing the surveillance function
JP4514631B2 (en) Security information notification system and notification method
KR20060096909A (en) Monitoring control apparatus, monitoring system, monitoring method, wireless communication apparatus, and wireless communication system
JP2006245829A (en) Apparatus, system, method and program for controlling electric appliance, and recording medium
JP5047361B2 (en) Monitoring system
JP2006279926A (en) Wireless communication apparatus, wireless communication system, wireless communication method, program, and recording medium with the program recorded thereon
KR101726315B1 (en) Network based monitoring system and network based monitoring camera having event notifying function
JP2006331388A (en) Crime prevention system
JP2005071064A (en) Home security system
KR100760209B1 (en) Crime prevention System In Use Of Tile Sensing
JP2009015536A (en) Suspicious person report device, suspicious person monitoring device and remote monitoring system using the same
JP2005092622A (en) Burglar prevention monitoring system, burglar prevention monitoring method, and burglar prevention monitoring program
KR20090125608A (en) Image security system
JP2017211929A (en) Security system, management device, security method, and program
JP2005027023A (en) Camera system and monitoring method
JP2002230654A (en) Remote monitoring system
KR200382262Y1 (en) System for home security

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Effective date: 20050613

Free format text: JAPANESE INTERMEDIATE CODE: A712