JP2016178542A - Imaging apparatus control method, management apparatus control method, imaging apparatus, and management apparatus - Google Patents
Imaging apparatus control method, management apparatus control method, imaging apparatus, and management apparatus Download PDFInfo
- Publication number
- JP2016178542A JP2016178542A JP2015058408A JP2015058408A JP2016178542A JP 2016178542 A JP2016178542 A JP 2016178542A JP 2015058408 A JP2015058408 A JP 2015058408A JP 2015058408 A JP2015058408 A JP 2015058408A JP 2016178542 A JP2016178542 A JP 2016178542A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- camera
- determination
- predetermined range
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000005286 illumination Methods 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 17
- 238000012544 monitoring process Methods 0.000 abstract description 34
- 238000007726 management method Methods 0.000 description 30
- 238000013500 data storage Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Accessories Of Cameras (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は撮像装置の制御方法、管理装置の制御方法、撮像装置及び管理装置に関し、特に、ネットワークを介して複数の撮像装置を接続して構成された撮像システムで用いられる照明を制御するための技術に関するものである。 The present invention relates to an imaging apparatus control method, a management apparatus control method, an imaging apparatus, and a management apparatus, and more particularly to controlling illumination used in an imaging system configured by connecting a plurality of imaging apparatuses via a network. It is about technology.
従来から、監視映像を録画するとともに、監視映像のライブ表示や録画再生表示を行なう監視システムがある。このような監視システムでは、監視カメラとしてネットワークカメラを使用することが一般的である。ネットワークカメラにより構成される一般的な監視システムの構成例を図8に示す。 2. Description of the Related Art Conventionally, there is a monitoring system that records a monitoring video and performs live display or recording reproduction display of the monitoring video. In such a surveillance system, it is common to use a network camera as a surveillance camera. FIG. 8 shows a configuration example of a general monitoring system constituted by network cameras.
図8において、801は監視カメラであり、一般的には一台あるいは複数台の監視カメラがLAN(Local Area Network)802などのネットワークを介して録画装置803および表示制御装置804に接続されている。
録画装置803は、各監視カメラから監視映像を受信し録画する。表示制御装置804は、各監視カメラから監視映像を受信し監視映像をライブ表示するほか、過去の録画映像を受信することで、録画再生表示を行なうシステムが一般的である。
また、表示制御装置804は、録画装置803と通信し、録画やシステム全体に関する各種設定画面を提供する。図8の例では、録画装置803と表示制御装置804を分けているが、同一装置内に両方の機能を配置する構成もある。
In FIG. 8,
The
The
また、近年では、撮影された不審者を常に監視映像内に納めるため、不審者の動きに合わせてカメラ自らが撮影方向を変化させる自動追尾機能を有したネットワークカメラも一般的になりつつある。このようなカメラでは、撮像部と可動雲台が一体化されているものが一般的である(特許文献1)。 In recent years, a network camera having an automatic tracking function in which the camera itself changes the shooting direction in accordance with the movement of the suspicious person in order to always keep the photographed suspicious person in the monitoring video is becoming common. In such a camera, an image pickup unit and a movable pan head are generally integrated (Patent Document 1).
また一方で、監視システムでは、監視用途として暗所や夜間撮影を撮影する必要があるため、赤外照明を搭載したネットワークカメラも一般的である。このようなカメラを持つシステムでは、図8における監視カメラ801が赤外照明を搭載しており、監視者の操作により赤外照明の照射有無を制御することが可能である。
On the other hand, in a monitoring system, since it is necessary to take a picture in a dark place or at night for monitoring purposes, a network camera equipped with infrared illumination is also common. In a system having such a camera, the
次に、図9を用いて動物体を自動追尾する自動追尾機能を有するネットワークカメラを用いた従来の監視システムにおける課題を説明する。
図9(a)、(b)は、赤外照明を搭載した2台のネットワークカメラが不審者を自動追尾している状態を示している。図9(a)では、不審者905がカメラ901の左側にいる状態である。この状態でカメラ901、902の赤外照明から照射された赤外光をそれぞれ903および904で示す。
Next, a problem in a conventional monitoring system using a network camera having an automatic tracking function for automatically tracking a moving object will be described with reference to FIG.
FIGS. 9A and 9B show a state where two network cameras equipped with infrared illumination are automatically tracking a suspicious person. In FIG. 9A, the
一方で、図9(b)は、不審者910が2台のカメラの間にいる状態を示している。この状態でカメラ906、907の赤外照明から照射された赤外光をそれぞれ908および909で示す。不審者910が2台のカメラの間にいる場合、カメラの撮像方向が向き合うため、それぞれのカメラから照射された赤外光が、もう一方のカメラの撮像部に入射する場合がある。図9(b)の場合、赤外光909がカメラ906に入射する。このような場合、撮像された画像は、瞬間的な光量の上昇によって監視に不向きな画像になってしまう恐れがある。
本発明は前述の問題点に鑑み、照明を搭載した複数のカメラが向き合う状態においても監視に適した画像を提供できるようにすることを目的とする。
On the other hand, FIG. 9B shows a state where the
In view of the above-described problems, an object of the present invention is to provide an image suitable for monitoring even in a state where a plurality of cameras equipped with illumination face each other.
本発明の撮像装置の制御方法は、ネットワークを介して接続された照明を有する複数の撮像装置を備えた撮像システムにおける撮像装置の制御方法であって、各々の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断工程と、前記判断工程において所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像から優先する撮像装置を決定する決定工程と、前記決定工程における決定に基づき各々の照明を調整する調整工程とを有することを特徴とする。 An imaging apparatus control method according to the present invention is an imaging apparatus control method in an imaging system including a plurality of imaging apparatuses having illuminations connected via a network, and the imaging direction of each imaging apparatus is within a predetermined range. A determination step for determining whether or not the image pickup device is within a predetermined range, and a determination step for determining a priority image pickup device from images captured by the respective image pickup devices when the determination step determines that the image pickup device is within a predetermined range. And an adjustment step of adjusting each illumination based on the determination in the determination step.
本発明によれば、照明を搭載した複数のカメラが向き合う状態においても監視に適した画像を提供することができる。 According to the present invention, it is possible to provide an image suitable for monitoring even in a state where a plurality of cameras equipped with illumination face each other.
以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係るネットワーク監視システムの構成の一例を示す図である。図1に示すネットワーク監視システム100は、ネットワークカメラ110および120を構成する2台の撮像装置と、録画装置130と、表示制御装置140と、LANなどのネットワーク150によって撮像システムが構成されている。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[First Embodiment]
FIG. 1 is a diagram showing an example of the configuration of a network monitoring system according to the first embodiment of the present invention. In the
ネットワークカメラ110、120は、撮像した画像データをネットワーク150に配信する。第1の実施形態では、ネットワークカメラ110を親カメラ、ネットワークカメラ120を子カメラとする。
録画装置130は、ネットワークカメラ110、120からネットワーク150を介して配信された各種データを、ハードディスクなどの記録媒体に記録する。記録媒体は、録画装置内のハードディスクや外部接続された記録媒体のほか、ネットワークに別途接続されたNAS(Network Attached Storage)であってもよい。
The
The
表示制御装置140は、ネットワークカメラ110、120から配信された映像データをライブ表示し、また、録画装置130によって記録媒体に記録されたデータを再生表示する装置である。さらに、表示制御装置140は、録画装置130と通信し、録画やシステム全体に関する各種設定画面を提供する。表示制御装置140は、この例のように独立してネットワーク150に接続されてもよいし、録画装置130に同様の機能を持たせて録画・表示装置としてもよい。
The
ネットワーク150は、ネットワークカメラ110、120と、録画装置130と、表示制御装置140とが相互に通信可能に接続される。また、この例ではLANとしたがケーブルの耐久性を考慮し、無線あるいは専用ケーブルを使用したネットワークを構築してもよい。以上のネットワークカメラと、録画装置と、表示制御装置と、ネットワークは、それぞれが複数の構成をとってもよい。
In the
続いて、ネットワークカメラ110、120の構成について、図1を用いて説明する。
まず、親カメラと子カメラの共通部分に関して、親カメラであるネットワークカメラ110を用いて説明する。
ネットワークカメラ110は、通信制御部119を介してネットワーク150に接続された他の機器から受信したコマンドに応じて、画像データやその他各種データを配信する。受信したコマンドはデータ処理部115に渡され、内容が解釈される。画像入力部112は、ビデオカメラ111による撮影画像(動画および静止画)を取り込む。取り込まれた撮影画像は、画像処理部113によってMotion・JPEG圧縮処理やh.264圧縮処理といった圧縮処理がなされる。
Next, the configuration of the
First, the common part of the parent camera and the child camera will be described using the
The
さらに、画像処理部113では、撮影画像を解析して動体の検出処理を行うほか、顔の検出処理や動物体の自動追尾用データ生成処理を行う。ビデオカメラ111が取り付けられた可動雲台は、受信したコマンドをデータ処理部115が解釈した後、コマンドで指定された制御内容に応じて撮像方向制御部118によってパン・チルト角度が制御される。また、動物体の自動追尾機能が有効な場合、画像処理部113によって変更すべきパン・チルト角度が決定され、データ処理部115を介して撮像方向制御部118によって撮像方向が随時変更される。
カメラ制御部114は、通信制御部119を介してデータ処理部115で解釈されたコマンドに応じて赤外照明117の制御をする。データ保存部116は、カメラの各種設定値が保存される。
子カメラ120のビデオカメラ121〜通信制御部129は、親カメラ110におけるビデオカメラ111〜通信制御部119と対応する。
Further, the
The
The
次に、親カメラと子カメラの異なる部分に関して説明する。
親カメラ110のデータ処理部115は、撮像方向制御部118から取得した現在のパン・チルト値と、データ保存部116に保存された所定の設定値とを逐次比較する。比較の結果、親カメラ110が所定の撮像方向を向いていると判断した場合は、通信制御部119を介して子カメラ120にパン・チルト値取得のためのリクエストを送信する。子カメラ120からのレスポンスとして得た子カメラのパン・チルト値は、データ保存部116に保存された所定の設定値と比較される。
Next, different parts of the parent camera and the child camera will be described.
The
比較の結果、子カメラ120が所定の撮像方向を向いていると判断した場合、通信制御部119を介して子カメラ120に顔検出データ取得のためのリクエストを送信する。子カメラ120からのレスポンスとして得た顔検出データは、データ処理部115において親カメラ110の顔検出データと比較され、どちらのカメラが顔を検出しているかを判定する。判定結果に応じて、親カメラ110のカメラ制御部114、あるいはネットワーク150を介して子カメラ120のカメラ制御部124に赤外照明を切る要求を出す。
As a result of the comparison, when it is determined that the
次に、図2に、赤外照明制御のための所定のパン・チルト値の一例を示す。
図2において、201および202は天井に設置された2台のネットワークカメラを示している。
図2(a)は、各カメラを真上から見た状態を表し、図2(b)は、各カメラを真横から見た状態を表している。カメラ201のパン値の所定範囲203は225°〜315°であり、カメラ202のパン値の所定範囲は45°〜135°である。
Next, FIG. 2 shows an example of predetermined pan / tilt values for infrared illumination control.
In FIG. 2,
FIG. 2A shows a state in which each camera is seen from directly above, and FIG. 2B shows a state in which each camera is seen from the side. The
同様に、カメラ201のチルト値の所定範囲205は135°〜180°であり、カメラ202のチルト値の所定範囲は0°〜45°である。2台のカメラのパン・チルト値がともにこの所定範囲内である場合は、各々のカメラから発せられた赤外光がもう一方のカメラに入射する。これら所定範囲は、カメラの開口部の形状や赤外照明の種類によってさまざまに変化するため、あらかじめ設定することも可能である。
Similarly, the
次に、図3に自動追尾時の赤外照明調整の手順を説明するフローチャートを示す。
まず、S301において、親カメラは、自らのパン・チルト値と所定パン・チルト範囲とを逐次比較し、所定範囲内か否かを判定する。
所定範囲内であった場合は、S302において、親カメラは、子カメラに対して、子カメラのパン・チルト値をリクエストする。
Next, FIG. 3 shows a flowchart for explaining the procedure of infrared illumination adjustment during automatic tracking.
First, in S301, the parent camera sequentially compares its own pan / tilt value with a predetermined pan / tilt range to determine whether or not it is within the predetermined range.
If it is within the predetermined range, in S302, the parent camera requests a pan / tilt value of the child camera from the child camera.
次に、S303において、親カメラは、取得した子カメラのパン・チルト値と、子カメラの所定パン・チルト範囲を比較する。子カメラのパン・チルト値が所定範囲外であった場合は、再度S301に戻る。
一方で、子カメラのパン・チルト値が所定範囲内であった場合は、S304において、親カメラがメインカメラを決定する処理を行う。メインカメラ決定の詳細な手順については後述する。この時点において、各々カメラのパン・チルト値はともに所定範囲内にあるので、各々のカメラから発せられた赤外光はもう一方のカメラに入射してしまう。それを防ぐため、メインカメラが決定されたら、S305において、親カメラはメインカメラでないほうのカメラの赤外照明をオフにする処理を行う。
In step S303, the parent camera compares the acquired pan / tilt value of the child camera with a predetermined pan / tilt range of the child camera. If the pan / tilt value of the child camera is out of the predetermined range, the process returns to S301 again.
On the other hand, when the pan / tilt value of the child camera is within the predetermined range, in S304, the parent camera performs processing for determining the main camera. The detailed procedure for determining the main camera will be described later. At this time, since the pan / tilt values of the respective cameras are within a predetermined range, the infrared light emitted from each camera is incident on the other camera. In order to prevent this, when the main camera is determined, in S305, the parent camera performs processing for turning off the infrared illumination of the camera that is not the main camera.
その後は、S306において、親カメラは、子カメラのパン・チルト値を逐次取得し、S307において、各々カメラのパン・チルト値が所定範囲外に出たかを確認する。所定範囲内にある間は、S304〜S307の処理を繰り返し行い、逐次親カメラがメインカメラを決定し、赤外照明の調整を実行する。どちらかのカメラが所定範囲外に出た場合は、S308において、その時点でメインカメラでないほうの赤外照明をオンにする。 Thereafter, in S306, the parent camera sequentially acquires the pan / tilt values of the child cameras, and in S307, confirms whether the pan / tilt values of the respective cameras are out of a predetermined range. While it is within the predetermined range, the processes of S304 to S307 are repeated, and the parent camera sequentially determines the main camera and performs infrared illumination adjustment. If either camera goes out of the predetermined range, in S308, the infrared illumination that is not the main camera at that time is turned on.
続いて、図4のフローチャートを参照しながらメインカメラの決定の詳細な手順を説明する。
まず、S401において、親カメラは、子カメラに対し画像解析情報をリクエストし顔検出結果を取得する。
次に、S402において、親カメラは、自らの顔検出結果から親カメラで顔を撮影しているか否か、顔の有無を判断する。
親カメラの画像に顔が映っている場合は、S403において、子カメラで顔を撮影しているか否かを判断する。顔が映っている場合はS404において、親カメラは、親カメラと子カメラの顔検出状況に応じて、撮影対象の撮影サイズをより大きく撮影しているカメラをメインカメラに決定する。子カメラの画像に顔が映っていない場合は、S405において、親カメラをメインカメラに決定する。
Next, a detailed procedure for determining the main camera will be described with reference to the flowchart of FIG.
First, in S401, the parent camera requests image analysis information from the child camera and acquires a face detection result.
In step S <b> 402, the parent camera determines whether or not a face is photographed by the parent camera from the result of detecting its own face, and whether or not there is a face.
If the face is reflected in the image of the parent camera, it is determined in S403 whether or not the face is photographed by the child camera. If the face is reflected, in S404, the parent camera determines the camera that is shooting a larger shooting size as the main camera in accordance with the face detection status of the parent camera and the child camera. If no face is shown in the image of the child camera, the parent camera is determined as the main camera in S405.
S402において、親カメラで顔を撮影していない場合は、S403において、子カメラで顔を撮影しているか否かを判断する。顔が映っている場合はS406において、子カメラをメインカメラに決定する。子カメラの画像に顔が映っていない場合は、S407において、親カメラと子カメラの顔検出状況に応じて、撮影対象をより大きく撮影しているカメラをメインカメラに決定する。 If the face is not photographed by the parent camera in S402, it is determined in S403 whether or not the face is photographed by the child camera. If the face is reflected, the child camera is determined to be the main camera in S406. If no face appears in the image of the child camera, in S407, the camera that is shooting a larger subject is determined as the main camera according to the face detection status of the parent camera and the child camera.
これにより、第1の実施形態のネットワーク監視システムにおいては、親カメラのみが顔を検出している場合は、親カメラがメインカメラとなり、子カメラのみが顔を検出している場合は、子カメラがメインカメラになる。どちらも顔を検出した場合、あるいはどちらも検出しなかった場合は、追尾する撮影対象の撮影サイズをより大きく撮影しているカメラをメインカメラとする。以上のフローにより、親カメラは、撮影に適したメインカメラを優先する撮像装置として決定することができる。 Thereby, in the network monitoring system of the first embodiment, when only the parent camera detects the face, the parent camera becomes the main camera, and when only the child camera detects the face, the child camera Becomes the main camera. If neither face is detected or neither is detected, the camera that is shooting a larger shooting size of the shooting target to be tracked is set as the main camera. With the above flow, the parent camera can be determined as the imaging device that prioritizes the main camera suitable for shooting.
以上の構成により、撮影に適したメインカメラを決定し、メインカメラでない方のカメラの赤外照明をオフにすることによって、撮像方向が向き合っている状況においても監視に適した撮影が可能となる。
なお、第1の実施形態では、子カメラが所定範囲内か否かの判定を親カメラが行っているが、判定は子カメラが行い、結果のみ親カメラに通知する構成も可能である。
With the above configuration, by determining the main camera suitable for shooting and turning off the infrared illumination of the camera that is not the main camera, shooting suitable for monitoring can be performed even in the situation where the imaging directions are facing each other. .
In the first embodiment, the parent camera determines whether or not the child camera is within a predetermined range. However, the child camera can perform the determination, and only the result can be notified to the parent camera.
[第2の実施形態]
本発明の第2の実施形態に係るネットワーク監視システムついて、添付の図面に基づいて説明する。
図5は、本発明の第2の実施形態に係るネットワーク監視システムの構成の一例を示す図である。図5に示すネットワーク監視システム500は、ネットワークカメラ510、520などの2台の撮像装置と、録画装置530と、表示制御装置540と、LANなどのネットワーク550と、管理装置560によって構成される。
[Second Embodiment]
A network monitoring system according to a second embodiment of the present invention will be described with reference to the accompanying drawings.
FIG. 5 is a diagram showing an example of the configuration of a network monitoring system according to the second embodiment of the present invention. A
ネットワークカメラ510、520は、撮像した画像データをネットワーク550に配信する。第2の実施形態では、510をカメラA、520をカメラBとする。
録画装置530は、第1の実施形態と同様、ネットワークカメラ510、520からネットワークを介して配信された各種データを、ハードディスクなどの記録媒体に記録する。
表示制御装置540は、第1の実施形態と同様、ネットワークカメラ510、520から配信された映像データをライブ表示し、また、録画装置530によって記録媒体に記録されたデータを再生表示する装置である。
As in the first embodiment, the
As in the first embodiment, the
管理装置560は、録画装置530、表示制御装置540およびネットワークカメラ510、520と通信し、録画設定やカメラ情報の登録など、システム全体に関する各種設定環境を提供する。
録画装置530、表示制御装置540、管理装置560は、この例のように独立してネットワーク550に接続されてもよいし、それぞれの機能を併せ持つ一台の装置として構成してもよい。
The
The
ネットワーク550は、ネットワークカメラ510、520と、録画装置530と、表示制御装置540と、管理装置560が相互に通信可能に接続される。また第1の実施形態と同様、LANではなく無線あるいは専用ケーブルを使用したネットワークを構築してもよい。以上のネットワークカメラと、録画装置と、表示制御装置と、管理装置と、ネットワークは、それぞれが複数の構成をとってもよい。
In the
続いて、ネットワークカメラの構成について、図5を用いて説明する。ネットワークカメラ510(カメラA)は、通信制御部519を介してネットワーク550に接続された他の機器から受信したコマンドに応じて、画像データや撮像方向を示すパン・チルト値やその他各種データを配信する。受信したコマンドはデータ処理部515に渡され、内容が解釈される。
Next, the configuration of the network camera will be described with reference to FIG. The network camera 510 (camera A) distributes image data, pan / tilt values indicating the imaging direction, and various other data in accordance with commands received from other devices connected to the
画像入力部512は、ビデオカメラ511による撮影画像(動画および静止画)を取り込む。取り込まれた撮影画像は、画像処理部513によってMotion・JPEG圧縮処理やh.264圧縮処理といった圧縮処理がなされる。さらに画像処理部513では、撮影画像を解析して動物体の検出処理を行うほか、顔検出処理や動物体の自動追尾用データ生成処理を行う。ビデオカメラ511が取り付けられた可動雲台は、受信したコマンドをデータ処理部515が解釈した後、コマンドで指定された制御内容に応じて撮像方向制御部518によってパン・チルト角度が制御される。
The
また、動物体の自動追尾機能が有効な場合、画像処理部513によって変更すべきパン・チルト角度が決定され、データ処理部515を介して撮像方向制御部518によって撮像方向が随時変更される。カメラ制御部514は、通信制御部519を介してデータ処理部515で解釈されたコマンドに応じて赤外照明517の制御をする。データ保存部516は、カメラの各種設定値が保存される。第2の実施形態において、カメラA(510)とカメラB(520)は同様の構成であり、カメラBのビデオカメラ521〜通信制御部529が、カメラAのビデオカメラ511〜通信制御部519に対応している。
When the automatic tracking function of the moving object is effective, the pan / tilt angle to be changed is determined by the
続いて、図5を用いて、管理装置560の構成について説明する。
管理装置560は、データ処理部562で生成されたコマンドに応じて、通信制御部565を介し外部の機器と通信する。
データ処理部562は、カメラAおよびBの撮像方向を常に取得するため、カメラAおよびBに対してのパン・チルト値の要求コマンドを逐次生成し、通信制御部565を介して送信する。
Next, the configuration of the
The
The
カメラAおよびBからのレスポンスとして得たパン・チルト値は、データ保存部563に保存された、カメラA、B各々の所定の設定値と逐次比較される。比較の結果、データ処理部562は、カメラAおよびBがともに所定の撮像方向を向いていると判断した場合、通信制御部565を介してカメラAおよびBに顔検出データ取得のためのリクエストを送信する。各々のカメラからのレスポンスとして得た顔検出データは、データ処理部562において顔を検出しているカメラがあるか否かを判定する。判定結果に応じて、カメラAあるいはカメラBに赤外照明を切る要求コマンドを送信する。
The pan / tilt values obtained as responses from the cameras A and B are sequentially compared with predetermined set values of the cameras A and B stored in the
次に、図6に、自動追尾時において管理装置560が赤外照明を調整する手順を説明するフローチャートを示す。
まず、S601において、管理装置560は各々のカメラからパン・チルト値を取得する。
次に、S602において、管理装置560は、カメラAから取得したパン・チルト値と、カメラAの所定パン・チルト範囲とを比較し、所定範囲内か否かを判定する。所定範囲内であった場合は、S603において、管理装置560は、カメラBから取得したパン・チルト値と、カメラBの所定パン・チルト範囲を比較する。カメラAあるいはカメラBのいずれかが所定範囲外である場合はS601に戻る。
Next, FIG. 6 shows a flowchart for explaining the procedure for the
First, in S601, the
In step S <b> 602, the
カメラAおよびカメラBがともに所定範囲内であった場合は、S604に移行して、管理装置560は、メインカメラ決定処理を実行する。メインカメラ決定のフローについては後述する。この時点において、各々カメラのパン・チルト値はともに所定範囲内にあるので、各々のカメラから発せられた赤外光はもう一方のカメラに入射してしまう。それを防ぐため、メインカメラが決定されたら、S605において、管理装置560はメインカメラでないほうのカメラの赤外照明をオフにするコマンドを送信する。
When both the camera A and the camera B are within the predetermined range, the process proceeds to S604, and the
その後は、S606において、各々のカメラのパン・チルト値を逐次取得し、S607において、各々カメラのパン・チルト値が所定範囲外に出たかを確認する。所定範囲内である場合はS604に戻り、所定範囲内にある間は、管理装置560がメインカメラを逐次決定し、赤外照明の調整を実行する。どちらかのカメラが所定範囲外に出た場合は、S608において、その時点でメインカメラでないほうの赤外照明をオンにするコマンドを送信する。
After that, in S606, the pan / tilt values of the respective cameras are sequentially acquired, and in S607, it is confirmed whether the pan / tilt values of the respective cameras are out of a predetermined range. If it is within the predetermined range, the process returns to S604, and while it is within the predetermined range, the
続いて、図7に、メインカメラの決定処理手順を説明するフローチャートを示す。
まず、S701において、管理装置560は、各々のカメラに対し画像情報をリクエストし顔検出結果を取得する。
S702において、管理装置560は、カメラAから取得した顔検出結果からカメラAで顔を撮影しているか、顔の有無を判断する。カメラAで撮影した画像に顔が映っている場合は、S703において、管理装置560は、カメラBで顔を撮影しているか、顔の有無を判断する。
FIG. 7 is a flowchart for explaining the main camera determination processing procedure.
First, in S701, the
In step S <b> 702, the
カメラBで撮影した画像に顔が映っている場合はS704に進み、管理装置560は、対象物体をより大きく撮影しているカメラをメインカメラとする。映っていない場合はS705に進み、管理装置560は、カメラAをメインカメラに決定する。
S702において、カメラAで撮影した画像に顔が映っていない場合は、S703において、管理装置560は、カメラBで顔を撮影しているか、顔の有無を判断する。
カメラBで撮影した画像に顔が映っている場合はS706に進み、管理装置560は、カメラBをメインカメラに決定する。映っていない場合はS707に進み、管理装置560は、対象物体をより大きく撮影しているカメラをメインカメラとする。
If a face appears in the image captured by the camera B, the process advances to step S704, and the
In S702, when the face is not reflected in the image captured by the camera A, in S703, the
If a face appears in the image captured by the camera B, the process advances to step S706, and the
このようにしてメインカメラを決定することにより、管理装置560は、各々のカメラの顔検出状況に応じて、撮影に適したメインカメラを決定する。具体的には、カメラAのみが顔を検出している場合は、カメラAがメインカメラになる。カメラBのみが顔を検出している場合は、カメラBがメインカメラになる。どちらも顔を検出した場合、あるいはどちらも検出しなかった場合は、追尾する撮影対象の撮影サイズをより大きく撮影しているカメラを、撮影に適したメインカメラを優先する撮像装置として決定することができる。
以上のフローにより管理装置560は撮影に適したメインカメラを決定する。
By determining the main camera in this way, the
With the above flow, the
以上の構成によって、撮影に適したメインカメラを決定し、メインカメラでないほうのカメラの赤外照明をオフにすることによって、撮像方向が向き合っている状況においても監視に適した撮影が可能となる。 With the above configuration, by determining a main camera suitable for shooting and turning off the infrared illumination of the camera that is not the main camera, shooting suitable for monitoring can be performed even in a situation where the imaging directions are facing each other. .
以上の例に挙げた第2の実施形態では、各々のカメラが顔検出を実施した結果を管理装置560に送信しているが、管理装置560が画像解析部を有し、各々のカメラから画像データを逐次受信し、管理装置560側で顔検出を実行する構成も可能である。
In the second embodiment described in the above example, each camera transmits the result of face detection to the
以上、第1および第2の実施形態の例では、どちらのカメラが顔を撮影しているか、どちらが対象をより大きく撮影しているか、をメインカメラの決定基準としている。しかし、あらかじめ決められたサイズで対象を撮影しているか(監視に適したサイズ)等、メインカメラの決定方法は様々変更可能である。 As described above, in the examples of the first and second embodiments, which camera is photographing the face and which is photographing the object larger is the determination criterion of the main camera. However, the method for determining the main camera can be variously changed, such as whether the subject is photographed at a predetermined size (a size suitable for monitoring).
さらに、前述の例では、メインカメラの撮影に適した照明調整の方法として、メインでないほうのカメラの赤外照明をオフにしているが、赤外照明の調整方法はこれに限定されず、メインカメラとメインでないカメラ双方が照明を強弱して調整する方法でもよい。さらに、前述の例では赤外照明を調整対象としているが、照明の種類はこれに限定されない。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
Furthermore, in the above-described example, the infrared illumination of the camera other than the main camera is turned off as the illumination adjustment method suitable for the main camera shooting. However, the infrared illumination adjustment method is not limited to this, A method may be used in which both the camera and the non-main camera adjust the lighting intensity. Furthermore, in the above-described example, infrared illumination is an adjustment target, but the type of illumination is not limited to this.
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 ネットワーク監視システム
110 親カメラ
111 ビデオカメラ
112 画像入力部
113 画像処理部
114 カメラ制御部
115 データ処理部
116 データ保存部
117 赤外照明
118 撮像方向制御部
119 通信制御部
120 子カメラ
121 ビデオカメラ
122 画像入力部
123 画像処理部
124 カメラ制御部
125 データ処理部
126 データ保存部
127 赤外照明
128 撮像方向制御部
129 通信制御部
130 録画装置
140 表示制御装置
150 ネットワーク
100
Claims (11)
各々の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断工程と、
前記判断工程において所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像から優先する撮像装置を決定する決定工程と、
前記決定工程における決定に基づき各々の照明を調整する調整工程と、
を有することを特徴とする撮像装置の制御方法。 An imaging apparatus control method in an imaging system including a plurality of imaging apparatuses having illuminations connected via a network,
A determination step of determining whether or not the imaging direction of each imaging device is within a predetermined range;
A determination step of determining an imaging device to be prioritized from an image captured by each imaging device when it is determined in the determination step that it is within a predetermined range;
An adjustment step of adjusting each illumination based on the determination in the determination step;
A method for controlling an imaging apparatus, comprising:
動体を追尾する追尾工程とを有し、
前記決定工程において、顔検出の有無、追尾する動体の撮影サイズのうち、少なくとも一方により前記優先する撮像装置を決定することを特徴とする請求項1に記載の撮像装置の制御方法。 A detection step for detecting a face;
A tracking process for tracking moving objects,
The method of controlling an imaging apparatus according to claim 1, wherein, in the determination step, the priority imaging apparatus is determined based on at least one of presence / absence of face detection and a shooting size of a moving object to be tracked.
各々の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断手段と、
前記判断手段により所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像から優先する撮像装置を決定する決定手段と、
前記決定手段による決定に基づき各々の照明を調整する調整手段と、
を有することを特徴とする撮像装置。 An imaging device that constitutes an imaging system including a plurality of imaging devices having illuminations connected via a network,
Determining means for determining whether or not the imaging direction of each imaging device is within a predetermined range;
A determination unit that determines a priority imaging device from an image captured by each imaging device when the determination unit determines that the image is within a predetermined range;
Adjusting means for adjusting each illumination based on the determination by the determining means;
An imaging device comprising:
動体を追尾する追尾手段とを有し、
前記決定手段は、顔検出の有無、追尾する動体の撮影サイズのうち、少なくとも一方により前記優先する撮像装置を決定することを特徴とする請求項3に記載の撮像装置。 Detecting means for detecting a face;
Tracking means for tracking moving objects,
4. The imaging apparatus according to claim 3, wherein the determination unit determines the priority imaging apparatus based on at least one of presence / absence of face detection and a shooting size of a moving object to be tracked.
前記複数の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断工程と、
前記判断工程において所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像情報に基づいて優先する撮像装置を決定する決定工程と、
前記決定工程における決定に基づき各々の照明を調整する調整工程と、
を有することを特徴とする管理装置の制御方法。 A management device control method in an imaging system comprising a plurality of imaging devices having lighting connected via a network, and a management device communicating with the plurality of imaging devices,
A determination step of determining whether or not the imaging directions of the plurality of imaging devices are within a predetermined range;
A determination step of determining a priority imaging device based on image information captured by each imaging device when it is determined in the determination step that the value is within a predetermined range;
An adjustment step of adjusting each illumination based on the determination in the determination step;
A control method for a management apparatus, comprising:
前記複数の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断手段と、
前記判断手段により所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像情報に基づいて優先する撮像装置を決定する決定手段と、
前記決定手段の決定に基づき各々の照明を調整する調整手段と、
を有することを特徴とする管理装置。 A management device in an imaging system comprising a plurality of imaging devices having lighting connected via a network and a management device communicating with the plurality of imaging devices,
Determining means for determining whether or not the imaging directions of the plurality of imaging devices are within a predetermined range;
A determination unit that determines an imaging device to be prioritized based on image information captured by each imaging device when the determination unit determines that it is within a predetermined range;
Adjusting means for adjusting each illumination based on the determination by the determining means;
A management apparatus comprising:
前記通信手段により前記複数の撮像装置から各々の画像情報を取得手段と、
前記決定手段は、前記取得手段により取得した画像情報において、顔検出の有無、追尾する動体の撮影サイズのうち、少なくとも一方により前記優先する撮像装置を決定することを特徴とする請求項7に記載の管理装置。 Communication means for communicating with the plurality of imaging devices;
Means for acquiring each image information from the plurality of imaging devices by the communication means;
The said determination means determines the said imaging device to give priority with at least one among the presence or absence of face detection and the imaging | photography size of the moving body to track in the image information acquired by the said acquisition means. Management device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015058408A JP6436823B2 (en) | 2015-03-20 | 2015-03-20 | Imaging device control method, management device control method, imaging device, and management device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015058408A JP6436823B2 (en) | 2015-03-20 | 2015-03-20 | Imaging device control method, management device control method, imaging device, and management device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016178542A true JP2016178542A (en) | 2016-10-06 |
JP6436823B2 JP6436823B2 (en) | 2018-12-12 |
Family
ID=57071432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015058408A Active JP6436823B2 (en) | 2015-03-20 | 2015-03-20 | Imaging device control method, management device control method, imaging device, and management device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6436823B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004235786A (en) * | 2003-01-29 | 2004-08-19 | Nikon Gijutsu Kobo:Kk | Digital camera |
JP2007264932A (en) * | 2006-03-28 | 2007-10-11 | Kyocera Corp | Vehicular communication system and on-vehicle imaging device |
JP2010124140A (en) * | 2008-11-18 | 2010-06-03 | Honda Motor Co Ltd | Photographic system, photographic device, and photography control program |
WO2013179335A1 (en) * | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | Monitoring camera control device and visual monitoring system |
-
2015
- 2015-03-20 JP JP2015058408A patent/JP6436823B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004235786A (en) * | 2003-01-29 | 2004-08-19 | Nikon Gijutsu Kobo:Kk | Digital camera |
JP2007264932A (en) * | 2006-03-28 | 2007-10-11 | Kyocera Corp | Vehicular communication system and on-vehicle imaging device |
JP2010124140A (en) * | 2008-11-18 | 2010-06-03 | Honda Motor Co Ltd | Photographic system, photographic device, and photography control program |
WO2013179335A1 (en) * | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | Monitoring camera control device and visual monitoring system |
Also Published As
Publication number | Publication date |
---|---|
JP6436823B2 (en) | 2018-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10958820B2 (en) | Intelligent interface for interchangeable sensors | |
US9374529B1 (en) | Enabling multiple field of view image capture within a surround image mode for multi-LENS mobile devices | |
JP5790761B2 (en) | Distributed image processing system | |
US20190082112A1 (en) | Intelligent object tracking | |
US20110181729A1 (en) | Network camera and system and method for operating the same | |
JP2007158860A (en) | Photographing system, photographing device, image switching device, and data storage device | |
JP6914007B2 (en) | Information processing device and information processing method | |
US10462346B2 (en) | Control apparatus, control method, and recording medium | |
US20210152750A1 (en) | Information processing apparatus and method for controlling the same | |
EP3567844B1 (en) | Control apparatus and control method | |
JP7146416B2 (en) | Information processing device, information processing system, information processing method, and program | |
JP2018093401A (en) | Video monitoring device, video monitoring method, and video monitoring system | |
KR20180138529A (en) | Information processing apparatus, information processing method, and recording medium | |
JP2013223104A (en) | Camera and camera system | |
JP2012063575A (en) | Digital camera | |
JP6436823B2 (en) | Imaging device control method, management device control method, imaging device, and management device | |
JP2021132292A (en) | Imaging device, control method thereof, system, and program | |
JP4855662B2 (en) | Camera system, camera control method, and program | |
KR101848320B1 (en) | Method for gun sound detection and taking photograph | |
JP2008219452A (en) | Camera surveillance device | |
KR100761817B1 (en) | A ccd camera system for effectively tracking a motion of objects and a method thereof | |
JPWO2018020769A1 (en) | Video system equipment | |
KR20220165449A (en) | Object tracking method using multi-camera based drone and object tracking system using the same | |
JP2015133020A (en) | Management client device, management system, management method, and program | |
WO2017212796A1 (en) | Control device, communication device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181016 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181113 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6436823 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |