JP4141716B2 - Television monitoring system - Google Patents

Television monitoring system Download PDF

Info

Publication number
JP4141716B2
JP4141716B2 JP2002083856A JP2002083856A JP4141716B2 JP 4141716 B2 JP4141716 B2 JP 4141716B2 JP 2002083856 A JP2002083856 A JP 2002083856A JP 2002083856 A JP2002083856 A JP 2002083856A JP 4141716 B2 JP4141716 B2 JP 4141716B2
Authority
JP
Japan
Prior art keywords
operation mode
signal
image
imaging device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002083856A
Other languages
Japanese (ja)
Other versions
JP2003284050A (en
Inventor
仁史 城寶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2002083856A priority Critical patent/JP4141716B2/en
Publication of JP2003284050A publication Critical patent/JP2003284050A/en
Application granted granted Critical
Publication of JP4141716B2 publication Critical patent/JP4141716B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、モーションディテクト機能を持つネットワークカメラの改良に関するものである。
【0002】
【従来の技術】
従来の技術では、モーションディテクター機能を持つネットワークカメラは、指定時間に画像を任意の場所に送信する機能をもつことで、外部のwebサイトへ画像を自動的にアップロードできる機能を有する。または、モーションディテクター機能を持つネットワークカメラが、雲台と組み合わされている場合でも、大別すると次の2タイプのいずれかの動作をする。
【0003】
(1)モーションディテクター機能により生成された信号(以後これをトリガ信号と呼ぶ。)と雲台のプリセット機能とが連動して、ズーム比、フォーカス値、パンチルト座標、記録部分の動作モード等が動作する。
【0004】
(2)wwwブラウザからのコントロールによってネットワークカメラと雲台の機能とが連動して、ズーム比、フォーカス値、パンチルト座標、記録部分の動作モード等が動作する。
【0005】
【発明が解決しようとする課題】
上述の従来技術では、モーションディテクター機能を持つネットワークカメラは、指定時間に画像を任意の場所に送信する機能をもつことでは、外部のwebサイトへ画像を自動的にアップロードできるだけであり、それにより監視の状態を変化させてはない。
【0006】
また、上記(1)のトリガ信号と雲台のプリセット機能とが連動して、ズーム比、フォーカス値、パンチルト座標、記録部分の動作モード等が動作する場合と、上記(2)のwwwブラウザからのコントロールによってネットワークカメラと雲台の機能とが連動して、ズーム比、フォーカス値、パンチルト座標、記録部分の動作モード等が動作する場合も同様に、個々のカメラや雲台に対しては、上記のようなカメラの動作モードを変えているが、接続されているカメラ全数がトリガ信号で捕らえた対象物の方向を向いたり、全数のカメラが対象物を追従している訳ではない。
【0007】
本発明の目的は、あるネットワークカメラがトリガ信号を検出した時に、各動作モード信号を生成し、接続されている各ネットワークカメラに各動作モード信号を配信して、前記の動作モードの初期値を計算、設定させ、ある動作アルゴリズムを確定し、これを実行することで自動的に各カメラが同期して動作する機能を有することを特徴とするテレビジョン監視システムを実現することである。
【0008】
【課題を解決するための手段】
本発明は、上述の課題を解決するために、テレビジョン監視システムにおいて、複数の撮像装置を有し、該撮像装置により撮像して得られた複数画像どうしを比較することによって、少なくとも複数の前記撮像装置のいずれか一つで撮像された画像に変化が生じたとする場合に、その変化に応じたトリガ信号を生成し、該トリガ信号の生成時点の前記撮像装置の動作モードに応じた動作モード信号を生成して、前記撮像装置から外の撮像装置へその動作モード信号を出力すると共に、前記動作モード信号を受信した撮像装置が、該受信した動作モード信号に関わる動作モードを判定し、該判定された動作モードでもって各撮像装置が撮像動作するものである。
【0009】
さらに、本発明は、前記動作モード信号が、前記撮像装置における、前記トリガ信号を生成した時点のレンズのアイリス値、ズーム比、およびフォーカス値と、ライトのコントロールモード、雲台のパンチルト座標位置、記録部の記録動作モード、画像認識部の認識動作時のデータ属性モードのうち少なくともいずれか1つのデータから生成するとしてもよい。
【0010】
さらに、本発明は、前記判定された動作モードに応じて前記撮像装置の動作アルゴリズムを計算する手段を有し、該計算された動作アルゴリズムに応じて、撮像装置のアイリス制御、ズーム比制御、フォーカス値制御、ライトコントロールモード選択、パンチルト座標制御を行う。
【0011】
また、本発明は、前記計算された動作アルゴリズムに応じて、あらかじめ設定した各制御に関わる所定値選択、例えば、記録部分の動作モードや画像認識(または、画像処理)しているデータの動作モードの開始位置や終了位置、また、オートパン動作、オートチルト動作、プリセット動作の実行するか否かを示す値、実施時回数を選択して動作させるとしてもよい。
【0012】
【発明の実施の形態】
本発明のテレビジョンカメラのブロック構成例を図1に示す。また、図2にCPU14の詳細ブロック構成例を示す。なお、この実施例では、カメラ30は、トリガ信号、動作モード信号を発生させるカメラであり、カメラ31はトリガ信号、動作モード信号を受け取って動作アルゴリズムで動作するカメラとする。
【0013】
図1において、ズームレンズ1を通過した光が、固体撮像素子(CCD)2で映像信号に変換された後にA/Dコンバータ3へ入力されアナログの映像信号からデジタルの映像信号へ変換される。A/Dコンバータ3から出力された映像信号は、デジタル・シグナル・プロセサ(DSP)4へ入力され、入力された映像信号に応じた色分離、白バランス制御、輪郭補正、ガンマ補正などの信号処理が施される。DSP4から出力された映像信号は、メモリ5に入力して、フレーム変換、受け渡しデータ量の調整がなされた後、CODEC6に出力される。CODEC6は、入力された映像信号をJPEGデータに変換して、メモリ7に出力する。メモリ7は入力されたJPEGデータのタイミング、データ量の調整をしながら後段のCPU8にJPEGデータを受け渡していく。
【0014】
CPU8は、受け取ったJPEGデータをCPU8内にあるエンコーダ/デコーダ部9でTCP/IP(パケット)信号に変換して、イーサーネット・コントローラ10に出力し、このコントローラ10は、IEEE802.3に準拠したデータに変換してイーサーネット・ドライバ11に出力する。このドライバ11により、映像信号がイーサーネット用のパケット信号に変換された上で、イーサーネット回線12を通じてサーバ13に信号を伝送する。
【0015】
次にDSP4は、前述の白バランス制御を行う上で、固体撮像素子2が撮像している画面内の輝度を検出している。この輝度検出データは、
CPU14に出力され、図2に示すようにCPU14内のトリガ信号発生器15で輝度検出データをフィールド単位でもって読みこまれ、ここで一つ前のフィールドと比較されて、その比較によって得られた差が設定値をこえた場合、トリガ信号発生器15はトリガ信号を生成する。トリガ信号発生器15から出力されたトリガ信号は、CPU14内にある動作モード信号発生器16に入力する。動作モード信号発生器16は、ネットワークカメラのアイリス、ズーム比、フォーカス値、ライトコントロールモード、パンチルト座標、記録部分の動作モード、画像認識(または、画像処理)しているデータの動作モード等のデータの設定値をもつコントロール部17(CPU14内にある)から、トリガ信号が発生した瞬間の各動作モードの設定値を読んだ上で、各パラメータの動作モード信号を生成する。
【0016】
一方、雲台のCPU18は、図1に示すように、CPU14内にある動作モード信号発生器16にトリガ信号が発生した瞬間のパンチルトの座標をパンコントローラ19とチルトコントローラ20から受け取り、そのデータをCPU14のコントロール部17に出力している。
【0017】
このようにして生成された動作モード信号は、ネットワークカメラ30のエンコーダ/デコーダ部9に出力され、前記のJPEGデータに重畳されるようにしてTCP/IP(パケット)信号に変換されて、イーサーネット・コントローラ10に出力され、前記のようにサーバ13と、さらに、カメラ31に信号が伝送されていく。
【0018】
ここでカメラ31は、イーサーネット回線12を通し、図示していないが、カメラ30と同様にtepy12と接続されているドライバ11でカメラ30から配信された動作モード信号を受け取る。ドライバ11は、イーサーネット用のパケット信号をIEEE802.3に準拠したデータにし、イーサーネット・コントローラ10に出力する。コントローラ10はドライバ11からのデータをTCP/IP(パケット)信号に変換して、CPU8内のエンコーダ/デコーダ部9に出力する。
【0019】
エンコーダ/デコーダ部9はTCP/IP(パケット)信号の中から動作モード信号を抽出し、CPU14内の動作モード信号用のデコード回路21に出力する。
【0020】
デコード回路21は、各パラメータごとの動作を示す信号をデコードして、そのデコードされた動作モード信号を動作アルゴリズム部22(CPU14内にある)へ出力する。
【0021】
動作アルゴリズム部22は、デコード回路21からの各パラメータの動作モード信号を差分コンパレータ23で受け取り、デコード回路21から受け取った各パラメータの動作モード信号とコントロール部17にある各動作モードのデータの設定値を比較して、その差分を動作アルゴリズム判断回路部24に出力する。
【0022】
ここで、動作アルゴリズムの設定値の例としては、ズーム比:テレ端、ワイド端のいずれかに設定する値、中間パン座標:0度,60度,120度,...360度のいずれかに設定する値、また、ネットワークカメラに、記録部分があった場合はそのメモリのライトスタート,エンド点,メモリのリードスタート,エンド点を設定する値、また、ネットワークカメラに、画像認識(または、画像処理)している部分があった場合はその画像データそのもの、又は、画像認識している物の外形部分のデータ、画像認識している物の色部分のデータ等がある。
【0023】
また、動作アルゴリズムの例としては、オートパン、オートチルト、プリセット又は、オートパンN回+オートチルトM回(N≧M)等の組合せモードなどがある。
【0024】
動作アルゴリズム判断回路部24は、テーブルデータ部25に設定されている各パラメータの動作モードの設定値と動作のアルゴリズムを入力してきた差分を使って、動作アルゴリズムとしての設定値と動作アルゴリズムとを決定し、コントロール部17に出力する。
【0025】
一方、図示していないが雲台32と同様に、雲台33のCPU18は、CPU14内にある動作モード信号発生器16にトリガ信号が入力した時にその時のパンチルトの座標をパンコントローラ19とチルトコントローラ20から受け取り、そのデータをコントロール部17が差分コンパレータ23に送る前にコントロール部17に出力する。
【0026】
なお、CPU14のコントロール部17から差分コンパレータ23へ入力してきた各動作モードのデータの設定値は、設定値ストア部26にも入力し、動作アルゴリズム判断回路部24で判断の上設定されたデータ及び動作が終了した時、あるいは、サーバ13から割り込み処理が入力した時を示すデータをコントロール部17から受け取り、コントロール部17に元の設定値を出力する。
【0027】
これにより、カメラ31は、ズーム比をテレからワイドにしたり、パンチルトの座標を、右に20度、下に10度ずらす、又はアイリスをひと絞り開く、フォーカスを無限遠にする等の動作をして、トリガ信号を発生させた被写体を捕らえるべく、サーバからのコマンドなしに、自動的にカメラ30の動作にカメラ31(あるいは、図示していないがカメラ31以外の複数カメラ)が同期して動作する。
【0028】
カメラ30やカメラ31の動作ブロックにメモリ等の記憶素子や画像認識(または、画像処理)している部分がある場合には、エンコーダ/デコーダ部9はTCP/IP(パケット)信号の中から動作モード信号だけを抽出するのでなく、JPEGデータも抽出して各ブロックに送り返すとしてもよい。
【0029】
上述の様に、トリガ信号、動作モード信号の設定値と動作アルゴリズムは、前記の例以外にも、ネットワークカメラ内にある構成ブロックに応じて色々な設定が可能である。
【0030】
次に、本発明を部屋に人物が進入した様子を監視するシステムに使用した場合の動作について、図3〜図5を用いて説明する。図3は、本発明の一実施例が設置された部屋の様子を説明する図である。この図の右側に設けられた入り口の扉41が開けられ、人物40がその入り口を通してこの部屋の中に進入しようとしている様子を表している。この部屋の中には、本発明の監視システムを構成するための撮像装置30,31,32が設置され、それらはサーバ13に接続されている。
【0031】
図4は、図3に示す進入状態となった場合に、その人物40が先ず撮像装置30で撮像される様子を示している。このため、撮像装置30で撮像された映像は、図5の(a)のようになる。ここで、図示していないが人物40が進入する前のこの人物40が存しない映像と、この図5の(a)に示す映像とが比較されることによって、人物40の撮像されているか否かの違いにより、撮像装置30でトリガ信号が生成される。そして、そのトリガ信号に応じて、所定の動作モード信号が撮像装置30からサーバ13を介して撮像装置31に送られると、撮像装置31は、点線で示した位置にあった状態から、その撮像装置31の雲台33が制御されることで、実線に示す方向に撮像方向が変化されるように制御される。そうすることで、撮像装置31からは、図5の(b)に示すような映像がられる。この映像からは、ちょうど人物40の横からの撮像映像が得られる。
【0032】
以上のように、撮像装置30と撮像装置31とで、共通に人物40の映像が関連して即座に撮像することができるため、より監視対象となる事物を詳しく監視することが可能となる。
【0033】
【発明の効果】
以上説明したように本発明によれば、あるネットワークカメラがトリガ信号を検出した時に、各動作モード信号を生成し、接続されている各ネットワークカメラに各動作モード信号を配信して、前記の動作モードの初期値を計算、設定させ、ある動作アルゴリズムを確定し、これを実行して、サーバからのコマンドなしで、自動的に各カメラが同期して動作する機能を有することを特徴とするテレビジョン監視システムを実現できる。これにより、接続されているカメラ全数がトリガ信号で捕らえた対象物の方向を向いたり、全数のカメラが対象物を追従することが可能となる。
【図面の簡単な説明】
【図1】本発明のテレビジョン監視システムのブロック構成例を示す図。
【図2】本発明のテレビジョン監視システムのCPU14の詳細ブロック構成例を示す図。
【図3】本発明の一実施例のテレビジョン監視システムが設置された部屋の様子を説明する図。
【図4】図3の部屋の平面図。
【図5】人物40が撮像された映像を示す図。
【符号の説明】
1:ズームレンズ、
2:固体撮像素子(CCD)、
3:A/Dコンバータ、
4:デジタル・シグナル・プロセッサ(DSP)、
5:メモリ、
6:CODEC、
7:メモリ、
8:CPU、
9:エンコーダ/デコーダ部、
10:イーサーネット・コントローラ、
11:イーサーネット・ドライバー、
12:イーサーネット回線、
13:サーバ、
14:CPU、
15:トリガ信号発生器、
16:動作モード信号発生器、
17:コントロール部、
18:CPU、
19:パンコントローラ、
20:チルトコントローラ、
21:動作モード信号デコード回路、
22:動作アルゴリズム部、
23:差分コンパレータ、
24:判断回路部、
25:テーブルデータ部、
26:設定値ストア部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an improvement of a network camera having a motion detect function.
[0002]
[Prior art]
In the conventional technology, a network camera having a motion detector function has a function of automatically uploading an image to an external web site by having a function of transmitting an image to an arbitrary place at a specified time. Or, even when a network camera having a motion detector function is combined with a pan / tilt head, one of the following two types of operations is performed.
[0003]
(1) The signal generated by the motion detector function (hereinafter referred to as the trigger signal) and the pan head preset function work together to operate the zoom ratio, focus value, pan / tilt coordinates, recording part operation mode, etc. To do.
[0004]
(2) The zoom ratio, focus value, pan / tilt coordinates, operation mode of the recording portion, etc. operate in conjunction with the network camera and the pan / tilt head function under the control of the www browser.
[0005]
[Problems to be solved by the invention]
In the above-described prior art, a network camera having a motion detector function can automatically upload an image to an external web site by having a function of transmitting an image to an arbitrary place at a specified time, thereby monitoring. The state of is not changed.
[0006]
Also, when the trigger signal of (1) above and the pan head preset function are linked to operate the zoom ratio, focus value, pan / tilt coordinates, operation mode of the recording portion, etc., from the above (2) www browser Similarly, when the network camera and pan head function are linked by controlling the zoom ratio, focus value, pan / tilt coordinates, operation mode of the recording part, etc., for each camera and pan head, Although the operation modes of the cameras are changed as described above, not all the connected cameras are directed toward the object captured by the trigger signal, or all the cameras are not following the object.
[0007]
An object of the present invention is to generate each operation mode signal when a certain network camera detects a trigger signal, distribute each operation mode signal to each connected network camera, and obtain an initial value of the operation mode. It is to realize a television monitoring system characterized in that each camera has a function of automatically operating in synchronization by calculating and setting, determining an operation algorithm and executing the algorithm.
[0008]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention has a plurality of imaging devices in a television monitoring system, and compares at least a plurality of images obtained by imaging with the imaging devices. When a change occurs in an image picked up by any one of the image pickup devices, a trigger signal is generated according to the change, and an operation mode according to the operation mode of the image pickup device at the time of generation of the trigger signal A signal is generated and the operation mode signal is output from the imaging apparatus to an external imaging apparatus, and the imaging apparatus that has received the operation mode signal determines an operation mode related to the received operation mode signal; Each imaging apparatus performs an imaging operation in the determined operation mode.
[0009]
Further, the present invention provides a lens iris value, a zoom ratio, and a focus value at the time when the operation mode signal is generated in the imaging apparatus, and a light control mode, a pan / tilt coordinate position of a pan / tilt head, It may be generated from at least one of the recording operation mode of the recording unit and the data attribute mode during the recognition operation of the image recognition unit.
[0010]
The present invention further includes means for calculating an operation algorithm of the imaging apparatus according to the determined operation mode, and the iris control, zoom ratio control, and focus of the imaging apparatus are calculated according to the calculated operation algorithm. Performs value control, light control mode selection, and pan / tilt coordinate control.
[0011]
Further, the present invention provides a predetermined value selection related to each control set in advance according to the calculated operation algorithm, for example, an operation mode of a recording portion or an operation mode of data that is image recognition (or image processing). It is also possible to select and operate the start position and end position, the value indicating whether or not to execute the auto pan operation, auto tilt operation, and preset operation, and the number of times of execution.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a block configuration example of the television camera of the present invention. FIG. 2 shows a detailed block configuration example of the CPU 14. In this embodiment, the camera 30 is a camera that generates a trigger signal and an operation mode signal, and the camera 31 is a camera that receives the trigger signal and the operation mode signal and operates according to an operation algorithm.
[0013]
In FIG. 1, light that has passed through a zoom lens 1 is converted into a video signal by a solid-state imaging device (CCD) 2 and then input to an A / D converter 3 where it is converted from an analog video signal to a digital video signal. The video signal output from the A / D converter 3 is input to a digital signal processor (DSP) 4 and signal processing such as color separation, white balance control, contour correction, and gamma correction according to the input video signal. Is given. The video signal output from the DSP 4 is input to the memory 5, subjected to frame conversion and adjustment of the transfer data amount, and then output to the CODEC 6. The CODEC 6 converts the input video signal into JPEG data and outputs it to the memory 7. The memory 7 delivers the JPEG data to the subsequent CPU 8 while adjusting the timing and data amount of the input JPEG data.
[0014]
The CPU 8 converts the received JPEG data into a TCP / IP (packet) signal by the encoder / decoder unit 9 in the CPU 8 and outputs the TCP / IP (packet) signal to the Ethernet controller 10. This controller 10 conforms to IEEE 802.3. The data is converted and output to the Ethernet driver 11. The driver 11 converts the video signal into an Ethernet packet signal and transmits the signal to the server 13 through the Ethernet line 12.
[0015]
Next, the DSP 4 detects the luminance in the screen imaged by the solid-state imaging device 2 when performing the white balance control described above. This brightness detection data is
As shown in FIG. 2, the trigger signal generator 15 in the CPU 14 reads the luminance detection data in field units and compares it with the previous field. As shown in FIG. When the difference exceeds the set value, the trigger signal generator 15 generates a trigger signal. The trigger signal output from the trigger signal generator 15 is input to the operation mode signal generator 16 in the CPU 14. The operation mode signal generator 16 includes data such as the network camera iris, zoom ratio, focus value, light control mode, pan / tilt coordinates, operation mode of the recording portion, and the operation mode of the data being image recognized (or image processed). After reading the setting value of each operation mode at the moment when the trigger signal is generated, from the control unit 17 (within the CPU 14) having the setting value, the operation mode signal of each parameter is generated.
[0016]
On the other hand, as shown in FIG. 1, the pan-head CPU 18 receives the pan-tilt coordinates at the moment when the trigger signal is generated in the operation mode signal generator 16 in the CPU 14 from the pan controller 19 and the tilt controller 20, and receives the data. The data is output to the control unit 17 of the CPU 14.
[0017]
The operation mode signal generated in this way is output to the encoder / decoder unit 9 of the network camera 30 and converted into a TCP / IP (packet) signal so as to be superimposed on the JPEG data. The signal is output to the controller 10 and the signal is transmitted to the server 13 and further to the camera 31 as described above.
[0018]
Here, the camera 31 receives the operation mode signal distributed from the camera 30 by the driver 11 connected to the tepy 12 like the camera 30, though not shown, through the Ethernet line 12. The driver 11 converts the packet signal for Ethernet into data conforming to IEEE 802.3, and outputs the data to the Ethernet controller 10. The controller 10 converts the data from the driver 11 into a TCP / IP (packet) signal and outputs it to the encoder / decoder unit 9 in the CPU 8.
[0019]
The encoder / decoder unit 9 extracts an operation mode signal from the TCP / IP (packet) signal and outputs it to the decoding circuit 21 for the operation mode signal in the CPU 14.
[0020]
The decode circuit 21 decodes a signal indicating an operation for each parameter, and outputs the decoded operation mode signal to the operation algorithm unit 22 (in the CPU 14).
[0021]
The operation algorithm unit 22 receives the operation mode signal of each parameter from the decode circuit 21 by the difference comparator 23, and sets the operation mode signal of each parameter received from the decode circuit 21 and the data of each operation mode in the control unit 17. And the difference is output to the operation algorithm determination circuit unit 24.
[0022]
Here, as examples of setting values of the operation algorithm, zoom ratios: values set at either the tele end or the wide end, intermediate pan coordinates: 0 degrees, 60 degrees, 120 degrees,. . . The value to be set to any of 360 degrees, and if there is a recording part in the network camera, the value to set the memory write start / end point, memory read start / end point, and the network camera If there is a part that has been image-recognized (or image-processed), the image data itself, data of the outer part of the object being image-recognized, data of the color part of the object being image-recognized, etc. .
[0023]
Examples of the operation algorithm include auto pan, auto tilt, preset, or a combination mode such as auto pan N times + auto tilt M times (N ≧ M).
[0024]
The operation algorithm determination circuit unit 24 determines a setting value and an operation algorithm as an operation algorithm by using the setting value of the operation mode of each parameter set in the table data unit 25 and the difference input with the operation algorithm. And output to the control unit 17.
[0025]
On the other hand, although not shown, the CPU 18 of the camera platform 33 uses the pan controller 19 and the tilt controller when the trigger signal is input to the operation mode signal generator 16 in the CPU 14. 20, and the data is output to the control unit 17 before the control unit 17 sends the data to the difference comparator 23.
[0026]
The set values of the data for each operation mode input from the control unit 17 of the CPU 14 to the differential comparator 23 are also input to the set value store unit 26, and the data set upon determination by the operation algorithm determination circuit unit 24 and Data indicating when the operation is completed or when an interrupt process is input from the server 13 is received from the control unit 17 and the original set value is output to the control unit 17.
[0027]
As a result, the camera 31 performs operations such as increasing the zoom ratio from tele to wide, shifting the pan / tilt coordinates 20 degrees to the right, and 10 degrees downward, opening the iris one time, or setting the focus to infinity. Thus, the camera 31 (or a plurality of cameras other than the camera 31 (not shown)) is automatically operated in synchronization with the operation of the camera 30 without a command from the server, in order to capture the subject that has generated the trigger signal. To do.
[0028]
When the operation block of the camera 30 or the camera 31 includes a storage element such as a memory or a part that performs image recognition (or image processing), the encoder / decoder unit 9 operates from a TCP / IP (packet) signal. Not only the mode signal but also JPEG data may be extracted and sent back to each block.
[0029]
As described above, the setting values and operation algorithms of the trigger signal and operation mode signal can be set in various ways according to the configuration blocks in the network camera other than the above example.
[0030]
Next, the operation when the present invention is used in a system for monitoring the appearance of a person entering a room will be described with reference to FIGS. FIG. 3 is a diagram for explaining a state of a room in which one embodiment of the present invention is installed. The entrance door 41 provided on the right side of the figure is opened, and the person 40 is about to enter the room through the entrance. In this room, imaging devices 30, 31, and 32 for configuring the monitoring system of the present invention are installed and connected to the server 13.
[0031]
FIG. 4 shows a state in which the person 40 is first imaged by the imaging device 30 in the approach state shown in FIG. For this reason, the video imaged by the imaging device 30 is as shown in FIG. Here, although not shown in the figure, the image of the person 40 before the person 40 enters does not exist and the image shown in (a) of FIG. Due to these differences, the imaging device 30 generates a trigger signal. Then, in response to the trigger signal, when a predetermined operation mode signal is sent from the imaging device 30 to the imaging device 31 via the server 13, the imaging device 31 takes the imaging from the state indicated by the dotted line. By controlling the pan / tilt head 33 of the apparatus 31, the imaging direction is controlled to be changed in the direction indicated by the solid line. By doing so, an image as shown in (b) of FIG. From this image, a captured image from the side of the person 40 is obtained.
[0032]
As described above, since the image capturing apparatus 30 and the image capturing apparatus 31 can capture an image of the person 40 in common and immediately capture an image, it becomes possible to more closely monitor an object to be monitored.
[0033]
【The invention's effect】
As described above, according to the present invention, when a network camera detects a trigger signal, each operation mode signal is generated, and each operation mode signal is distributed to each connected network camera. A TV having a function of calculating and setting an initial value of a mode, determining an operation algorithm, executing the algorithm, and automatically operating each camera in synchronization without a command from the server. John monitoring system can be realized. This makes it possible for all the connected cameras to face the direction of the object captured by the trigger signal, or for all the cameras to follow the object.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a television monitoring system according to the present invention.
FIG. 2 is a diagram showing a detailed block configuration example of a CPU 14 of the television monitoring system of the present invention.
FIG. 3 is a diagram illustrating a room in which a television monitoring system according to an embodiment of the present invention is installed.
4 is a plan view of the room in FIG. 3. FIG.
FIG. 5 is a diagram showing an image in which a person 40 is captured.
[Explanation of symbols]
1: Zoom lens,
2: Solid-state image sensor (CCD),
3: A / D converter,
4: Digital signal processor (DSP),
5: Memory
6: CODEC,
7: Memory,
8: CPU,
9: Encoder / decoder part
10: Ethernet controller,
11: Ethernet driver,
12: Ethernet line,
13: server,
14: CPU,
15: Trigger signal generator,
16: Operation mode signal generator,
17: Control part,
18: CPU,
19: Pan controller
20: Tilt controller,
21: Operation mode signal decoding circuit,
22: Operation algorithm part,
23: differential comparator,
24: Judgment circuit unit,
25: Table data part,
26: Set value store section.

Claims (1)

複数の撮像装置を有し、該撮像装置により撮像して得られた複数画像どうしを比較することによって、少なくとも複数の前記撮像装置のうちいずれか一つで撮像された画像に変化が生じたとする場合に、その変化に応じたトリガ信号を生成し、該トリガ信号の生成時点の前記撮像装置の動作モードに応じた動作モード信号を生成して、前記撮像装置から外の撮像装置へその動作モード信号を出力すると共に、前記動作モード信号を受信した撮像装置が、該受信した動作モード信号に関わる動作モードを判定し、該判定された動作モードでもって各撮像装置が撮像動作するテレビジョン監視システムであって、
前記動作モード信号は、前記撮像装置における、前記トリガ信号を生成した時点の被写体を前記外の撮像装置でも撮像するため、レンズのアイリス値から生成することを特徴とするテレビジョン監視システム。
It is assumed that a change has occurred in an image captured by at least one of the plurality of imaging devices by having a plurality of imaging devices and comparing the plurality of images obtained by imaging with the imaging device. A trigger signal corresponding to the change is generated, an operation mode signal corresponding to the operation mode of the imaging device at the time of generation of the trigger signal is generated, and the operation mode is transferred from the imaging device to an external imaging device. A television monitoring system in which an imaging device that outputs a signal and receives the operation mode signal determines an operation mode related to the received operation mode signal, and each imaging device performs an imaging operation in the determined operation mode Because
The television monitoring system according to claim 1, wherein the operation mode signal is generated from an iris value of a lens in order to capture an image of the subject at the time when the trigger signal is generated in the imaging device .
JP2002083856A 2002-03-25 2002-03-25 Television monitoring system Expired - Fee Related JP4141716B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002083856A JP4141716B2 (en) 2002-03-25 2002-03-25 Television monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002083856A JP4141716B2 (en) 2002-03-25 2002-03-25 Television monitoring system

Publications (2)

Publication Number Publication Date
JP2003284050A JP2003284050A (en) 2003-10-03
JP4141716B2 true JP4141716B2 (en) 2008-08-27

Family

ID=29231450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002083856A Expired - Fee Related JP4141716B2 (en) 2002-03-25 2002-03-25 Television monitoring system

Country Status (1)

Country Link
JP (1) JP4141716B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104539877A (en) * 2014-10-31 2015-04-22 苏州市吴江区公安局 Police electronic compass monitoring system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4419759B2 (en) * 2004-09-01 2010-02-24 株式会社ニコン Electronic camera system
WO2006028247A1 (en) * 2004-09-10 2006-03-16 Pioneer Corporation Video shooting system, video shooting device and video shooting method
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP5041757B2 (en) 2006-08-02 2012-10-03 パナソニック株式会社 Camera control device and camera control system
JP5888172B2 (en) * 2012-08-02 2016-03-16 ソニー株式会社 Data storage device and program
CN103369307A (en) * 2013-06-30 2013-10-23 安科智慧城市技术(中国)有限公司 Method, camera and system for linkage monitoring
WO2021087919A1 (en) * 2019-11-07 2021-05-14 南京阿凡达机器人科技有限公司 Intelligent monitoring system, monitoring method, monitoring terminal, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104539877A (en) * 2014-10-31 2015-04-22 苏州市吴江区公安局 Police electronic compass monitoring system

Also Published As

Publication number Publication date
JP2003284050A (en) 2003-10-03

Similar Documents

Publication Publication Date Title
JP4942185B2 (en) Imaging apparatus, pan head control method, program, and storage medium
US8243156B2 (en) Image-capturing apparatus and image-capturing control method
JP2009021880A (en) Remote imaging system
CN108810400B (en) Control device, control method, and recording medium
JP2001358984A (en) Moving picture processing camera
JP4141716B2 (en) Television monitoring system
KR20060135545A (en) Imaging apparatus
JP2006087083A (en) Imaging device, and control method of imaging device
JP5790858B2 (en) Image composition apparatus, image composition method, and program
JP3730630B2 (en) Imaging apparatus and imaging method
JP4442571B2 (en) Imaging apparatus and control method thereof
JP2005020565A (en) Image pickup device and information processing method for the image pickup device
KR101273013B1 (en) Network camera using dual lens
JP2005117635A (en) Camera system, camera control method, and program
JPH10290412A (en) Image pickup, storage, processing, display, reproduction transmitter and recording medium
JP2006345400A (en) Video camera apparatus
JP2021148984A (en) Imaging apparatus, imaging system, information processing apparatus, control method, program, and storage medium
KR980007698A (en) Digital multi video surveillance system
JP4148251B2 (en) Imaging device and display device
JP4461649B2 (en) Surveillance camera and security system using surveillance camera
JP4512188B2 (en) Television camera device
JP2004304556A (en) Imaging device, system for the same, and imaging method
JP7471251B2 (en) Electric zoom camera and control method thereof
JPH09153138A (en) Camera controller
JP2004129002A (en) Camera control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees