JP2016178542A - Imaging apparatus control method, management apparatus control method, imaging apparatus, and management apparatus - Google Patents

Imaging apparatus control method, management apparatus control method, imaging apparatus, and management apparatus Download PDF

Info

Publication number
JP2016178542A
JP2016178542A JP2015058408A JP2015058408A JP2016178542A JP 2016178542 A JP2016178542 A JP 2016178542A JP 2015058408 A JP2015058408 A JP 2015058408A JP 2015058408 A JP2015058408 A JP 2015058408A JP 2016178542 A JP2016178542 A JP 2016178542A
Authority
JP
Japan
Prior art keywords
imaging
camera
determination
predetermined range
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015058408A
Other languages
Japanese (ja)
Other versions
JP6436823B2 (en
Inventor
倫彦 小野
Tomohiko Ono
倫彦 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015058408A priority Critical patent/JP6436823B2/en
Publication of JP2016178542A publication Critical patent/JP2016178542A/en
Application granted granted Critical
Publication of JP6436823B2 publication Critical patent/JP6436823B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image suitable for monitoring even while plural cameras equipped with illuminators face each other.SOLUTION: A method to control imaging apparatuses in an imaging system with the imaging apparatuses having illuminators and connected via a network comprises steps of: determining whether or not the imaging direction of each imaging apparatus is within a predetermined range; determining an imaging apparatus of high priority out of images captured by each imaging apparatus, when it is determined that the imaging direction is within the predetermined range; and adjusting each illuminator on the basis of the determination of determining an imaging apparatus of high-priority.SELECTED DRAWING: Figure 1

Description

本発明は撮像装置の制御方法、管理装置の制御方法、撮像装置及び管理装置に関し、特に、ネットワークを介して複数の撮像装置を接続して構成された撮像システムで用いられる照明を制御するための技術に関するものである。   The present invention relates to an imaging apparatus control method, a management apparatus control method, an imaging apparatus, and a management apparatus, and more particularly to controlling illumination used in an imaging system configured by connecting a plurality of imaging apparatuses via a network. It is about technology.

従来から、監視映像を録画するとともに、監視映像のライブ表示や録画再生表示を行なう監視システムがある。このような監視システムでは、監視カメラとしてネットワークカメラを使用することが一般的である。ネットワークカメラにより構成される一般的な監視システムの構成例を図8に示す。   2. Description of the Related Art Conventionally, there is a monitoring system that records a monitoring video and performs live display or recording reproduction display of the monitoring video. In such a surveillance system, it is common to use a network camera as a surveillance camera. FIG. 8 shows a configuration example of a general monitoring system constituted by network cameras.

図8において、801は監視カメラであり、一般的には一台あるいは複数台の監視カメラがLAN(Local Area Network)802などのネットワークを介して録画装置803および表示制御装置804に接続されている。
録画装置803は、各監視カメラから監視映像を受信し録画する。表示制御装置804は、各監視カメラから監視映像を受信し監視映像をライブ表示するほか、過去の録画映像を受信することで、録画再生表示を行なうシステムが一般的である。
また、表示制御装置804は、録画装置803と通信し、録画やシステム全体に関する各種設定画面を提供する。図8の例では、録画装置803と表示制御装置804を分けているが、同一装置内に両方の機能を配置する構成もある。
In FIG. 8, reference numeral 801 denotes a monitoring camera. Generally, one or a plurality of monitoring cameras are connected to a recording device 803 and a display control device 804 via a network such as a LAN (Local Area Network) 802. .
The recording device 803 receives and records the monitoring video from each monitoring camera. In general, the display control device 804 receives a monitoring video from each monitoring camera, displays the monitoring video live, and receives a past recorded video to perform a recording / playback display.
The display control device 804 communicates with the recording device 803 and provides various setting screens related to recording and the entire system. In the example of FIG. 8, the recording device 803 and the display control device 804 are separated, but there is a configuration in which both functions are arranged in the same device.

また、近年では、撮影された不審者を常に監視映像内に納めるため、不審者の動きに合わせてカメラ自らが撮影方向を変化させる自動追尾機能を有したネットワークカメラも一般的になりつつある。このようなカメラでは、撮像部と可動雲台が一体化されているものが一般的である(特許文献1)。   In recent years, a network camera having an automatic tracking function in which the camera itself changes the shooting direction in accordance with the movement of the suspicious person in order to always keep the photographed suspicious person in the monitoring video is becoming common. In such a camera, an image pickup unit and a movable pan head are generally integrated (Patent Document 1).

また一方で、監視システムでは、監視用途として暗所や夜間撮影を撮影する必要があるため、赤外照明を搭載したネットワークカメラも一般的である。このようなカメラを持つシステムでは、図8における監視カメラ801が赤外照明を搭載しており、監視者の操作により赤外照明の照射有無を制御することが可能である。   On the other hand, in a monitoring system, since it is necessary to take a picture in a dark place or at night for monitoring purposes, a network camera equipped with infrared illumination is also common. In a system having such a camera, the monitoring camera 801 in FIG. 8 is equipped with infrared illumination, and it is possible to control the presence or absence of infrared illumination by the operation of the supervisor.

特開2008−199390号公報JP 2008-199390 A

次に、図9を用いて動物体を自動追尾する自動追尾機能を有するネットワークカメラを用いた従来の監視システムにおける課題を説明する。
図9(a)、(b)は、赤外照明を搭載した2台のネットワークカメラが不審者を自動追尾している状態を示している。図9(a)では、不審者905がカメラ901の左側にいる状態である。この状態でカメラ901、902の赤外照明から照射された赤外光をそれぞれ903および904で示す。
Next, a problem in a conventional monitoring system using a network camera having an automatic tracking function for automatically tracking a moving object will be described with reference to FIG.
FIGS. 9A and 9B show a state where two network cameras equipped with infrared illumination are automatically tracking a suspicious person. In FIG. 9A, the suspicious person 905 is on the left side of the camera 901. In this state, infrared light irradiated from the infrared illumination of the cameras 901 and 902 is indicated by 903 and 904, respectively.

一方で、図9(b)は、不審者910が2台のカメラの間にいる状態を示している。この状態でカメラ906、907の赤外照明から照射された赤外光をそれぞれ908および909で示す。不審者910が2台のカメラの間にいる場合、カメラの撮像方向が向き合うため、それぞれのカメラから照射された赤外光が、もう一方のカメラの撮像部に入射する場合がある。図9(b)の場合、赤外光909がカメラ906に入射する。このような場合、撮像された画像は、瞬間的な光量の上昇によって監視に不向きな画像になってしまう恐れがある。
本発明は前述の問題点に鑑み、照明を搭載した複数のカメラが向き合う状態においても監視に適した画像を提供できるようにすることを目的とする。
On the other hand, FIG. 9B shows a state where the suspicious person 910 is between two cameras. In this state, infrared light irradiated from the infrared illumination of the cameras 906 and 907 is indicated by 908 and 909, respectively. When the suspicious person 910 is between the two cameras, the imaging directions of the cameras face each other, so that the infrared light emitted from each camera may enter the imaging unit of the other camera. In the case of FIG. 9B, infrared light 909 enters the camera 906. In such a case, the captured image may be unsuitable for monitoring due to a momentary increase in the amount of light.
In view of the above-described problems, an object of the present invention is to provide an image suitable for monitoring even in a state where a plurality of cameras equipped with illumination face each other.

本発明の撮像装置の制御方法は、ネットワークを介して接続された照明を有する複数の撮像装置を備えた撮像システムにおける撮像装置の制御方法であって、各々の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断工程と、前記判断工程において所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像から優先する撮像装置を決定する決定工程と、前記決定工程における決定に基づき各々の照明を調整する調整工程とを有することを特徴とする。   An imaging apparatus control method according to the present invention is an imaging apparatus control method in an imaging system including a plurality of imaging apparatuses having illuminations connected via a network, and the imaging direction of each imaging apparatus is within a predetermined range. A determination step for determining whether or not the image pickup device is within a predetermined range, and a determination step for determining a priority image pickup device from images captured by the respective image pickup devices when the determination step determines that the image pickup device is within a predetermined range. And an adjustment step of adjusting each illumination based on the determination in the determination step.

本発明によれば、照明を搭載した複数のカメラが向き合う状態においても監視に適した画像を提供することができる。   According to the present invention, it is possible to provide an image suitable for monitoring even in a state where a plurality of cameras equipped with illumination face each other.

第1の実施形態に係るネットワーク監視システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the network monitoring system which concerns on 1st Embodiment. 所定のパン・チルト値の一例を説明する図である。It is a figure explaining an example of a predetermined pan / tilt value. 第1の実施形態に係る赤外照明調整の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the infrared illumination adjustment which concerns on 1st Embodiment. 第1の実施形態に係るメインカメラの決定処理手順を説明するフローチャートである。It is a flowchart explaining the determination process procedure of the main camera which concerns on 1st Embodiment. 第2の実施形態に係るネットワーク監視システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the network monitoring system which concerns on 2nd Embodiment. 第2の実施形態に係る管理装置が赤外照明を調整する手順を説明するフローチャートである。It is a flowchart explaining the procedure in which the management apparatus which concerns on 2nd Embodiment adjusts infrared illumination. 第2の実施形態に係るメインカメラの決定処理手順を説明するフローチャートである。It is a flowchart explaining the determination process procedure of the main camera which concerns on 2nd Embodiment. 一般的な監視システムの構成例を説明する図である。It is a figure explaining the structural example of a general monitoring system. 従来の監視システムにおける課題を説明する図である。It is a figure explaining the subject in the conventional monitoring system.

以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係るネットワーク監視システムの構成の一例を示す図である。図1に示すネットワーク監視システム100は、ネットワークカメラ110および120を構成する2台の撮像装置と、録画装置130と、表示制御装置140と、LANなどのネットワーク150によって撮像システムが構成されている。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[First Embodiment]
FIG. 1 is a diagram showing an example of the configuration of a network monitoring system according to the first embodiment of the present invention. In the network monitoring system 100 illustrated in FIG. 1, an imaging system is configured by two imaging devices constituting the network cameras 110 and 120, a recording device 130, a display control device 140, and a network 150 such as a LAN.

ネットワークカメラ110、120は、撮像した画像データをネットワーク150に配信する。第1の実施形態では、ネットワークカメラ110を親カメラ、ネットワークカメラ120を子カメラとする。
録画装置130は、ネットワークカメラ110、120からネットワーク150を介して配信された各種データを、ハードディスクなどの記録媒体に記録する。記録媒体は、録画装置内のハードディスクや外部接続された記録媒体のほか、ネットワークに別途接続されたNAS(Network Attached Storage)であってもよい。
The network cameras 110 and 120 distribute the captured image data to the network 150. In the first embodiment, the network camera 110 is a parent camera, and the network camera 120 is a child camera.
The recording device 130 records various data distributed from the network cameras 110 and 120 via the network 150 on a recording medium such as a hard disk. The recording medium may be a hard disk in the recording device or an externally connected recording medium, or a NAS (Network Attached Storage) separately connected to the network.

表示制御装置140は、ネットワークカメラ110、120から配信された映像データをライブ表示し、また、録画装置130によって記録媒体に記録されたデータを再生表示する装置である。さらに、表示制御装置140は、録画装置130と通信し、録画やシステム全体に関する各種設定画面を提供する。表示制御装置140は、この例のように独立してネットワーク150に接続されてもよいし、録画装置130に同様の機能を持たせて録画・表示装置としてもよい。   The display control device 140 is a device that displays live video data distributed from the network cameras 110 and 120 and reproduces and displays the data recorded on the recording medium by the recording device 130. Furthermore, the display control device 140 communicates with the recording device 130 and provides various setting screens related to recording and the entire system. The display control device 140 may be independently connected to the network 150 as in this example, or the recording device 130 may have a similar function as a recording / display device.

ネットワーク150は、ネットワークカメラ110、120と、録画装置130と、表示制御装置140とが相互に通信可能に接続される。また、この例ではLANとしたがケーブルの耐久性を考慮し、無線あるいは専用ケーブルを使用したネットワークを構築してもよい。以上のネットワークカメラと、録画装置と、表示制御装置と、ネットワークは、それぞれが複数の構成をとってもよい。   In the network 150, the network cameras 110 and 120, the recording device 130, and the display control device 140 are connected to be able to communicate with each other. In this example, the LAN is used, but a network using a wireless or dedicated cable may be constructed in consideration of cable durability. Each of the network camera, the recording device, the display control device, and the network may have a plurality of configurations.

続いて、ネットワークカメラ110、120の構成について、図1を用いて説明する。
まず、親カメラと子カメラの共通部分に関して、親カメラであるネットワークカメラ110を用いて説明する。
ネットワークカメラ110は、通信制御部119を介してネットワーク150に接続された他の機器から受信したコマンドに応じて、画像データやその他各種データを配信する。受信したコマンドはデータ処理部115に渡され、内容が解釈される。画像入力部112は、ビデオカメラ111による撮影画像(動画および静止画)を取り込む。取り込まれた撮影画像は、画像処理部113によってMotion・JPEG圧縮処理やh.264圧縮処理といった圧縮処理がなされる。
Next, the configuration of the network cameras 110 and 120 will be described with reference to FIG.
First, the common part of the parent camera and the child camera will be described using the network camera 110 that is the parent camera.
The network camera 110 distributes image data and other various data in accordance with commands received from other devices connected to the network 150 via the communication control unit 119. The received command is passed to the data processing unit 115 and the contents are interpreted. The image input unit 112 captures images captured by the video camera 111 (moving images and still images). The captured image is subjected to compression processing such as Motion / JPEG compression processing and h.264 compression processing by the image processing unit 113.

さらに、画像処理部113では、撮影画像を解析して動体の検出処理を行うほか、顔の検出処理や動物体の自動追尾用データ生成処理を行う。ビデオカメラ111が取り付けられた可動雲台は、受信したコマンドをデータ処理部115が解釈した後、コマンドで指定された制御内容に応じて撮像方向制御部118によってパン・チルト角度が制御される。また、動物体の自動追尾機能が有効な場合、画像処理部113によって変更すべきパン・チルト角度が決定され、データ処理部115を介して撮像方向制御部118によって撮像方向が随時変更される。
カメラ制御部114は、通信制御部119を介してデータ処理部115で解釈されたコマンドに応じて赤外照明117の制御をする。データ保存部116は、カメラの各種設定値が保存される。
子カメラ120のビデオカメラ121〜通信制御部129は、親カメラ110におけるビデオカメラ111〜通信制御部119と対応する。
Further, the image processing unit 113 analyzes the captured image and performs a moving object detection process, and also performs a face detection process and a moving object automatic tracking data generation process. The movable pan / tilt head to which the video camera 111 is attached, after the received command is interpreted by the data processing unit 115, the pan / tilt angle is controlled by the imaging direction control unit 118 according to the control content specified by the command. When the automatic tracking function of the moving object is effective, the pan / tilt angle to be changed is determined by the image processing unit 113, and the imaging direction is changed by the imaging direction control unit 118 through the data processing unit 115 as needed.
The camera control unit 114 controls the infrared illumination 117 according to the command interpreted by the data processing unit 115 via the communication control unit 119. The data storage unit 116 stores various setting values of the camera.
The video camera 121 to the communication control unit 129 of the child camera 120 correspond to the video camera 111 to the communication control unit 119 in the parent camera 110.

次に、親カメラと子カメラの異なる部分に関して説明する。
親カメラ110のデータ処理部115は、撮像方向制御部118から取得した現在のパン・チルト値と、データ保存部116に保存された所定の設定値とを逐次比較する。比較の結果、親カメラ110が所定の撮像方向を向いていると判断した場合は、通信制御部119を介して子カメラ120にパン・チルト値取得のためのリクエストを送信する。子カメラ120からのレスポンスとして得た子カメラのパン・チルト値は、データ保存部116に保存された所定の設定値と比較される。
Next, different parts of the parent camera and the child camera will be described.
The data processing unit 115 of the parent camera 110 sequentially compares the current pan / tilt value acquired from the imaging direction control unit 118 and a predetermined set value stored in the data storage unit 116. As a result of the comparison, when it is determined that the parent camera 110 is facing the predetermined imaging direction, a request for acquiring a pan / tilt value is transmitted to the child camera 120 via the communication control unit 119. The pan / tilt value of the child camera obtained as a response from the child camera 120 is compared with a predetermined set value stored in the data storage unit 116.

比較の結果、子カメラ120が所定の撮像方向を向いていると判断した場合、通信制御部119を介して子カメラ120に顔検出データ取得のためのリクエストを送信する。子カメラ120からのレスポンスとして得た顔検出データは、データ処理部115において親カメラ110の顔検出データと比較され、どちらのカメラが顔を検出しているかを判定する。判定結果に応じて、親カメラ110のカメラ制御部114、あるいはネットワーク150を介して子カメラ120のカメラ制御部124に赤外照明を切る要求を出す。   As a result of the comparison, when it is determined that the child camera 120 is facing a predetermined imaging direction, a request for acquiring face detection data is transmitted to the child camera 120 via the communication control unit 119. The face detection data obtained as a response from the child camera 120 is compared with the face detection data of the parent camera 110 in the data processing unit 115 to determine which camera has detected the face. In response to the determination result, a request to turn off the infrared illumination is issued to the camera control unit 114 of the parent camera 110 or the camera control unit 124 of the child camera 120 via the network 150.

次に、図2に、赤外照明制御のための所定のパン・チルト値の一例を示す。
図2において、201および202は天井に設置された2台のネットワークカメラを示している。
図2(a)は、各カメラを真上から見た状態を表し、図2(b)は、各カメラを真横から見た状態を表している。カメラ201のパン値の所定範囲203は225°〜315°であり、カメラ202のパン値の所定範囲は45°〜135°である。
Next, FIG. 2 shows an example of predetermined pan / tilt values for infrared illumination control.
In FIG. 2, reference numerals 201 and 202 denote two network cameras installed on the ceiling.
FIG. 2A shows a state in which each camera is seen from directly above, and FIG. 2B shows a state in which each camera is seen from the side. The predetermined range 203 of the pan value of the camera 201 is 225 ° to 315 °, and the predetermined range of the pan value of the camera 202 is 45 ° to 135 °.

同様に、カメラ201のチルト値の所定範囲205は135°〜180°であり、カメラ202のチルト値の所定範囲は0°〜45°である。2台のカメラのパン・チルト値がともにこの所定範囲内である場合は、各々のカメラから発せられた赤外光がもう一方のカメラに入射する。これら所定範囲は、カメラの開口部の形状や赤外照明の種類によってさまざまに変化するため、あらかじめ設定することも可能である。   Similarly, the predetermined range 205 of the tilt value of the camera 201 is 135 ° to 180 °, and the predetermined range of the tilt value of the camera 202 is 0 ° to 45 °. When the pan / tilt values of the two cameras are both within this predetermined range, the infrared light emitted from each camera is incident on the other camera. These predetermined ranges vary depending on the shape of the opening of the camera and the type of infrared illumination, and can be set in advance.

次に、図3に自動追尾時の赤外照明調整の手順を説明するフローチャートを示す。
まず、S301において、親カメラは、自らのパン・チルト値と所定パン・チルト範囲とを逐次比較し、所定範囲内か否かを判定する。
所定範囲内であった場合は、S302において、親カメラは、子カメラに対して、子カメラのパン・チルト値をリクエストする。
Next, FIG. 3 shows a flowchart for explaining the procedure of infrared illumination adjustment during automatic tracking.
First, in S301, the parent camera sequentially compares its own pan / tilt value with a predetermined pan / tilt range to determine whether or not it is within the predetermined range.
If it is within the predetermined range, in S302, the parent camera requests a pan / tilt value of the child camera from the child camera.

次に、S303において、親カメラは、取得した子カメラのパン・チルト値と、子カメラの所定パン・チルト範囲を比較する。子カメラのパン・チルト値が所定範囲外であった場合は、再度S301に戻る。
一方で、子カメラのパン・チルト値が所定範囲内であった場合は、S304において、親カメラがメインカメラを決定する処理を行う。メインカメラ決定の詳細な手順については後述する。この時点において、各々カメラのパン・チルト値はともに所定範囲内にあるので、各々のカメラから発せられた赤外光はもう一方のカメラに入射してしまう。それを防ぐため、メインカメラが決定されたら、S305において、親カメラはメインカメラでないほうのカメラの赤外照明をオフにする処理を行う。
In step S303, the parent camera compares the acquired pan / tilt value of the child camera with a predetermined pan / tilt range of the child camera. If the pan / tilt value of the child camera is out of the predetermined range, the process returns to S301 again.
On the other hand, when the pan / tilt value of the child camera is within the predetermined range, in S304, the parent camera performs processing for determining the main camera. The detailed procedure for determining the main camera will be described later. At this time, since the pan / tilt values of the respective cameras are within a predetermined range, the infrared light emitted from each camera is incident on the other camera. In order to prevent this, when the main camera is determined, in S305, the parent camera performs processing for turning off the infrared illumination of the camera that is not the main camera.

その後は、S306において、親カメラは、子カメラのパン・チルト値を逐次取得し、S307において、各々カメラのパン・チルト値が所定範囲外に出たかを確認する。所定範囲内にある間は、S304〜S307の処理を繰り返し行い、逐次親カメラがメインカメラを決定し、赤外照明の調整を実行する。どちらかのカメラが所定範囲外に出た場合は、S308において、その時点でメインカメラでないほうの赤外照明をオンにする。   Thereafter, in S306, the parent camera sequentially acquires the pan / tilt values of the child cameras, and in S307, confirms whether the pan / tilt values of the respective cameras are out of a predetermined range. While it is within the predetermined range, the processes of S304 to S307 are repeated, and the parent camera sequentially determines the main camera and performs infrared illumination adjustment. If either camera goes out of the predetermined range, in S308, the infrared illumination that is not the main camera at that time is turned on.

続いて、図4のフローチャートを参照しながらメインカメラの決定の詳細な手順を説明する。
まず、S401において、親カメラは、子カメラに対し画像解析情報をリクエストし顔検出結果を取得する。
次に、S402において、親カメラは、自らの顔検出結果から親カメラで顔を撮影しているか否か、顔の有無を判断する。
親カメラの画像に顔が映っている場合は、S403において、子カメラで顔を撮影しているか否かを判断する。顔が映っている場合はS404において、親カメラは、親カメラと子カメラの顔検出状況に応じて、撮影対象の撮影サイズをより大きく撮影しているカメラをメインカメラに決定する。子カメラの画像に顔が映っていない場合は、S405において、親カメラをメインカメラに決定する。
Next, a detailed procedure for determining the main camera will be described with reference to the flowchart of FIG.
First, in S401, the parent camera requests image analysis information from the child camera and acquires a face detection result.
In step S <b> 402, the parent camera determines whether or not a face is photographed by the parent camera from the result of detecting its own face, and whether or not there is a face.
If the face is reflected in the image of the parent camera, it is determined in S403 whether or not the face is photographed by the child camera. If the face is reflected, in S404, the parent camera determines the camera that is shooting a larger shooting size as the main camera in accordance with the face detection status of the parent camera and the child camera. If no face is shown in the image of the child camera, the parent camera is determined as the main camera in S405.

S402において、親カメラで顔を撮影していない場合は、S403において、子カメラで顔を撮影しているか否かを判断する。顔が映っている場合はS406において、子カメラをメインカメラに決定する。子カメラの画像に顔が映っていない場合は、S407において、親カメラと子カメラの顔検出状況に応じて、撮影対象をより大きく撮影しているカメラをメインカメラに決定する。   If the face is not photographed by the parent camera in S402, it is determined in S403 whether or not the face is photographed by the child camera. If the face is reflected, the child camera is determined to be the main camera in S406. If no face appears in the image of the child camera, in S407, the camera that is shooting a larger subject is determined as the main camera according to the face detection status of the parent camera and the child camera.

これにより、第1の実施形態のネットワーク監視システムにおいては、親カメラのみが顔を検出している場合は、親カメラがメインカメラとなり、子カメラのみが顔を検出している場合は、子カメラがメインカメラになる。どちらも顔を検出した場合、あるいはどちらも検出しなかった場合は、追尾する撮影対象の撮影サイズをより大きく撮影しているカメラをメインカメラとする。以上のフローにより、親カメラは、撮影に適したメインカメラを優先する撮像装置として決定することができる。   Thereby, in the network monitoring system of the first embodiment, when only the parent camera detects the face, the parent camera becomes the main camera, and when only the child camera detects the face, the child camera Becomes the main camera. If neither face is detected or neither is detected, the camera that is shooting a larger shooting size of the shooting target to be tracked is set as the main camera. With the above flow, the parent camera can be determined as the imaging device that prioritizes the main camera suitable for shooting.

以上の構成により、撮影に適したメインカメラを決定し、メインカメラでない方のカメラの赤外照明をオフにすることによって、撮像方向が向き合っている状況においても監視に適した撮影が可能となる。
なお、第1の実施形態では、子カメラが所定範囲内か否かの判定を親カメラが行っているが、判定は子カメラが行い、結果のみ親カメラに通知する構成も可能である。
With the above configuration, by determining the main camera suitable for shooting and turning off the infrared illumination of the camera that is not the main camera, shooting suitable for monitoring can be performed even in the situation where the imaging directions are facing each other. .
In the first embodiment, the parent camera determines whether or not the child camera is within a predetermined range. However, the child camera can perform the determination, and only the result can be notified to the parent camera.

[第2の実施形態]
本発明の第2の実施形態に係るネットワーク監視システムついて、添付の図面に基づいて説明する。
図5は、本発明の第2の実施形態に係るネットワーク監視システムの構成の一例を示す図である。図5に示すネットワーク監視システム500は、ネットワークカメラ510、520などの2台の撮像装置と、録画装置530と、表示制御装置540と、LANなどのネットワーク550と、管理装置560によって構成される。
[Second Embodiment]
A network monitoring system according to a second embodiment of the present invention will be described with reference to the accompanying drawings.
FIG. 5 is a diagram showing an example of the configuration of a network monitoring system according to the second embodiment of the present invention. A network monitoring system 500 illustrated in FIG. 5 includes two imaging devices such as network cameras 510 and 520, a recording device 530, a display control device 540, a network 550 such as a LAN, and a management device 560.

ネットワークカメラ510、520は、撮像した画像データをネットワーク550に配信する。第2の実施形態では、510をカメラA、520をカメラBとする。
録画装置530は、第1の実施形態と同様、ネットワークカメラ510、520からネットワークを介して配信された各種データを、ハードディスクなどの記録媒体に記録する。
表示制御装置540は、第1の実施形態と同様、ネットワークカメラ510、520から配信された映像データをライブ表示し、また、録画装置530によって記録媒体に記録されたデータを再生表示する装置である。
Network cameras 510 and 520 distribute the captured image data to network 550. In the second embodiment, 510 is camera A, and 520 is camera B.
As in the first embodiment, the recording device 530 records various data distributed from the network cameras 510 and 520 via the network on a recording medium such as a hard disk.
As in the first embodiment, the display control device 540 is a device that displays live video data distributed from the network cameras 510 and 520 and reproduces and displays the data recorded on the recording medium by the recording device 530. .

管理装置560は、録画装置530、表示制御装置540およびネットワークカメラ510、520と通信し、録画設定やカメラ情報の登録など、システム全体に関する各種設定環境を提供する。
録画装置530、表示制御装置540、管理装置560は、この例のように独立してネットワーク550に接続されてもよいし、それぞれの機能を併せ持つ一台の装置として構成してもよい。
The management device 560 communicates with the recording device 530, the display control device 540, and the network cameras 510 and 520, and provides various setting environments related to the entire system, such as recording settings and camera information registration.
The recording device 530, the display control device 540, and the management device 560 may be independently connected to the network 550 as in this example, or may be configured as a single device having both functions.

ネットワーク550は、ネットワークカメラ510、520と、録画装置530と、表示制御装置540と、管理装置560が相互に通信可能に接続される。また第1の実施形態と同様、LANではなく無線あるいは専用ケーブルを使用したネットワークを構築してもよい。以上のネットワークカメラと、録画装置と、表示制御装置と、管理装置と、ネットワークは、それぞれが複数の構成をとってもよい。   In the network 550, network cameras 510 and 520, a recording device 530, a display control device 540, and a management device 560 are connected to be communicable with each other. Further, as in the first embodiment, a network using a wireless or dedicated cable instead of a LAN may be constructed. Each of the above network camera, recording device, display control device, management device, and network may take a plurality of configurations.

続いて、ネットワークカメラの構成について、図5を用いて説明する。ネットワークカメラ510(カメラA)は、通信制御部519を介してネットワーク550に接続された他の機器から受信したコマンドに応じて、画像データや撮像方向を示すパン・チルト値やその他各種データを配信する。受信したコマンドはデータ処理部515に渡され、内容が解釈される。   Next, the configuration of the network camera will be described with reference to FIG. The network camera 510 (camera A) distributes image data, pan / tilt values indicating the imaging direction, and various other data in accordance with commands received from other devices connected to the network 550 via the communication control unit 519. To do. The received command is passed to the data processing unit 515 and the content is interpreted.

画像入力部512は、ビデオカメラ511による撮影画像(動画および静止画)を取り込む。取り込まれた撮影画像は、画像処理部513によってMotion・JPEG圧縮処理やh.264圧縮処理といった圧縮処理がなされる。さらに画像処理部513では、撮影画像を解析して動物体の検出処理を行うほか、顔検出処理や動物体の自動追尾用データ生成処理を行う。ビデオカメラ511が取り付けられた可動雲台は、受信したコマンドをデータ処理部515が解釈した後、コマンドで指定された制御内容に応じて撮像方向制御部518によってパン・チルト角度が制御される。   The image input unit 512 captures images captured by the video camera 511 (moving images and still images). The captured image is subjected to compression processing such as Motion / JPEG compression processing and h.264 compression processing by the image processing unit 513. Further, the image processing unit 513 analyzes the captured image to perform the moving object detection process, and also performs the face detection process and the moving object automatic tracking data generation process. The movable pan / tilt head to which the video camera 511 is attached has its pan / tilt angle controlled by the imaging direction control unit 518 according to the control content specified by the command after the received command is interpreted by the data processing unit 515.

また、動物体の自動追尾機能が有効な場合、画像処理部513によって変更すべきパン・チルト角度が決定され、データ処理部515を介して撮像方向制御部518によって撮像方向が随時変更される。カメラ制御部514は、通信制御部519を介してデータ処理部515で解釈されたコマンドに応じて赤外照明517の制御をする。データ保存部516は、カメラの各種設定値が保存される。第2の実施形態において、カメラA(510)とカメラB(520)は同様の構成であり、カメラBのビデオカメラ521〜通信制御部529が、カメラAのビデオカメラ511〜通信制御部519に対応している。   When the automatic tracking function of the moving object is effective, the pan / tilt angle to be changed is determined by the image processing unit 513, and the imaging direction is changed by the imaging direction control unit 518 through the data processing unit 515 as needed. The camera control unit 514 controls the infrared illumination 517 according to the command interpreted by the data processing unit 515 via the communication control unit 519. The data storage unit 516 stores various setting values of the camera. In the second embodiment, the camera A (510) and the camera B (520) have the same configuration, and the video camera 521 to the communication control unit 529 of the camera B are replaced with the video camera 511 to the communication control unit 519 of the camera A. It corresponds.

続いて、図5を用いて、管理装置560の構成について説明する。
管理装置560は、データ処理部562で生成されたコマンドに応じて、通信制御部565を介し外部の機器と通信する。
データ処理部562は、カメラAおよびBの撮像方向を常に取得するため、カメラAおよびBに対してのパン・チルト値の要求コマンドを逐次生成し、通信制御部565を介して送信する。
Next, the configuration of the management device 560 will be described with reference to FIG.
The management device 560 communicates with an external device via the communication control unit 565 according to the command generated by the data processing unit 562.
The data processing unit 562 sequentially generates pan / tilt value request commands for the cameras A and B in order to always acquire the imaging directions of the cameras A and B, and transmits the commands via the communication control unit 565.

カメラAおよびBからのレスポンスとして得たパン・チルト値は、データ保存部563に保存された、カメラA、B各々の所定の設定値と逐次比較される。比較の結果、データ処理部562は、カメラAおよびBがともに所定の撮像方向を向いていると判断した場合、通信制御部565を介してカメラAおよびBに顔検出データ取得のためのリクエストを送信する。各々のカメラからのレスポンスとして得た顔検出データは、データ処理部562において顔を検出しているカメラがあるか否かを判定する。判定結果に応じて、カメラAあるいはカメラBに赤外照明を切る要求コマンドを送信する。   The pan / tilt values obtained as responses from the cameras A and B are sequentially compared with predetermined set values of the cameras A and B stored in the data storage unit 563. As a result of the comparison, if the data processing unit 562 determines that both the cameras A and B are facing the predetermined imaging direction, the data processing unit 562 sends a request for acquiring face detection data to the cameras A and B via the communication control unit 565. Send. The face detection data obtained as a response from each camera determines whether or not there is a camera detecting a face in the data processing unit 562. Depending on the determination result, a request command to turn off infrared illumination is transmitted to camera A or camera B.

次に、図6に、自動追尾時において管理装置560が赤外照明を調整する手順を説明するフローチャートを示す。
まず、S601において、管理装置560は各々のカメラからパン・チルト値を取得する。
次に、S602において、管理装置560は、カメラAから取得したパン・チルト値と、カメラAの所定パン・チルト範囲とを比較し、所定範囲内か否かを判定する。所定範囲内であった場合は、S603において、管理装置560は、カメラBから取得したパン・チルト値と、カメラBの所定パン・チルト範囲を比較する。カメラAあるいはカメラBのいずれかが所定範囲外である場合はS601に戻る。
Next, FIG. 6 shows a flowchart for explaining the procedure for the management device 560 to adjust the infrared illumination during automatic tracking.
First, in S601, the management apparatus 560 acquires pan / tilt values from each camera.
In step S <b> 602, the management apparatus 560 compares the pan / tilt value acquired from the camera A with the predetermined pan / tilt range of the camera A, and determines whether or not the predetermined range. If it is within the predetermined range, the management apparatus 560 compares the pan / tilt value acquired from the camera B with the predetermined pan / tilt range of the camera B in S603. If either camera A or camera B is outside the predetermined range, the process returns to S601.

カメラAおよびカメラBがともに所定範囲内であった場合は、S604に移行して、管理装置560は、メインカメラ決定処理を実行する。メインカメラ決定のフローについては後述する。この時点において、各々カメラのパン・チルト値はともに所定範囲内にあるので、各々のカメラから発せられた赤外光はもう一方のカメラに入射してしまう。それを防ぐため、メインカメラが決定されたら、S605において、管理装置560はメインカメラでないほうのカメラの赤外照明をオフにするコマンドを送信する。   When both the camera A and the camera B are within the predetermined range, the process proceeds to S604, and the management apparatus 560 executes main camera determination processing. The flow for determining the main camera will be described later. At this time, since the pan / tilt values of the respective cameras are within a predetermined range, the infrared light emitted from each camera is incident on the other camera. In order to prevent this, when the main camera is determined, in S605, the management apparatus 560 transmits a command to turn off the infrared illumination of the camera that is not the main camera.

その後は、S606において、各々のカメラのパン・チルト値を逐次取得し、S607において、各々カメラのパン・チルト値が所定範囲外に出たかを確認する。所定範囲内である場合はS604に戻り、所定範囲内にある間は、管理装置560がメインカメラを逐次決定し、赤外照明の調整を実行する。どちらかのカメラが所定範囲外に出た場合は、S608において、その時点でメインカメラでないほうの赤外照明をオンにするコマンドを送信する。   After that, in S606, the pan / tilt values of the respective cameras are sequentially acquired, and in S607, it is confirmed whether the pan / tilt values of the respective cameras are out of a predetermined range. If it is within the predetermined range, the process returns to S604, and while it is within the predetermined range, the management device 560 sequentially determines the main camera and executes infrared illumination adjustment. If either camera is out of the predetermined range, a command to turn on the infrared illumination that is not the main camera at that time is transmitted in S608.

続いて、図7に、メインカメラの決定処理手順を説明するフローチャートを示す。
まず、S701において、管理装置560は、各々のカメラに対し画像情報をリクエストし顔検出結果を取得する。
S702において、管理装置560は、カメラAから取得した顔検出結果からカメラAで顔を撮影しているか、顔の有無を判断する。カメラAで撮影した画像に顔が映っている場合は、S703において、管理装置560は、カメラBで顔を撮影しているか、顔の有無を判断する。
FIG. 7 is a flowchart for explaining the main camera determination processing procedure.
First, in S701, the management device 560 requests image information from each camera and acquires a face detection result.
In step S <b> 702, the management apparatus 560 determines from the face detection result acquired from the camera A whether the face is captured by the camera A or whether there is a face. If a face is reflected in the image captured by the camera A, the management apparatus 560 determines whether a face is captured by the camera B or whether there is a face in S703.

カメラBで撮影した画像に顔が映っている場合はS704に進み、管理装置560は、対象物体をより大きく撮影しているカメラをメインカメラとする。映っていない場合はS705に進み、管理装置560は、カメラAをメインカメラに決定する。
S702において、カメラAで撮影した画像に顔が映っていない場合は、S703において、管理装置560は、カメラBで顔を撮影しているか、顔の有無を判断する。
カメラBで撮影した画像に顔が映っている場合はS706に進み、管理装置560は、カメラBをメインカメラに決定する。映っていない場合はS707に進み、管理装置560は、対象物体をより大きく撮影しているカメラをメインカメラとする。
If a face appears in the image captured by the camera B, the process advances to step S704, and the management apparatus 560 sets the camera that is capturing a larger target object as the main camera. If not, the process advances to step S705, and the management apparatus 560 determines camera A as the main camera.
In S702, when the face is not reflected in the image captured by the camera A, in S703, the management device 560 determines whether the face is captured by the camera B or whether there is a face.
If a face appears in the image captured by the camera B, the process advances to step S706, and the management apparatus 560 determines the camera B as the main camera. If not, the process advances to step S707, and the management apparatus 560 sets the camera that is shooting the target object larger as the main camera.

このようにしてメインカメラを決定することにより、管理装置560は、各々のカメラの顔検出状況に応じて、撮影に適したメインカメラを決定する。具体的には、カメラAのみが顔を検出している場合は、カメラAがメインカメラになる。カメラBのみが顔を検出している場合は、カメラBがメインカメラになる。どちらも顔を検出した場合、あるいはどちらも検出しなかった場合は、追尾する撮影対象の撮影サイズをより大きく撮影しているカメラを、撮影に適したメインカメラを優先する撮像装置として決定することができる。
以上のフローにより管理装置560は撮影に適したメインカメラを決定する。
By determining the main camera in this way, the management apparatus 560 determines a main camera suitable for shooting according to the face detection status of each camera. Specifically, when only camera A detects a face, camera A becomes the main camera. When only the camera B detects the face, the camera B becomes the main camera. If either face is detected or neither is detected, the camera that is shooting the shooting size of the shooting target to be tracked is determined as the imaging device that prioritizes the main camera suitable for shooting. Can do.
With the above flow, the management apparatus 560 determines a main camera suitable for shooting.

以上の構成によって、撮影に適したメインカメラを決定し、メインカメラでないほうのカメラの赤外照明をオフにすることによって、撮像方向が向き合っている状況においても監視に適した撮影が可能となる。   With the above configuration, by determining a main camera suitable for shooting and turning off the infrared illumination of the camera that is not the main camera, shooting suitable for monitoring can be performed even in a situation where the imaging directions are facing each other. .

以上の例に挙げた第2の実施形態では、各々のカメラが顔検出を実施した結果を管理装置560に送信しているが、管理装置560が画像解析部を有し、各々のカメラから画像データを逐次受信し、管理装置560側で顔検出を実行する構成も可能である。   In the second embodiment described in the above example, each camera transmits the result of face detection to the management apparatus 560. However, the management apparatus 560 includes an image analysis unit, and images from each camera. A configuration in which data is sequentially received and face detection is performed on the management device 560 side is also possible.

以上、第1および第2の実施形態の例では、どちらのカメラが顔を撮影しているか、どちらが対象をより大きく撮影しているか、をメインカメラの決定基準としている。しかし、あらかじめ決められたサイズで対象を撮影しているか(監視に適したサイズ)等、メインカメラの決定方法は様々変更可能である。   As described above, in the examples of the first and second embodiments, which camera is photographing the face and which is photographing the object larger is the determination criterion of the main camera. However, the method for determining the main camera can be variously changed, such as whether the subject is photographed at a predetermined size (a size suitable for monitoring).

さらに、前述の例では、メインカメラの撮影に適した照明調整の方法として、メインでないほうのカメラの赤外照明をオフにしているが、赤外照明の調整方法はこれに限定されず、メインカメラとメインでないカメラ双方が照明を強弱して調整する方法でもよい。さらに、前述の例では赤外照明を調整対象としているが、照明の種類はこれに限定されない。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
Furthermore, in the above-described example, the infrared illumination of the camera other than the main camera is turned off as the illumination adjustment method suitable for the main camera shooting. However, the infrared illumination adjustment method is not limited to this, A method may be used in which both the camera and the non-main camera adjust the lighting intensity. Furthermore, in the above-described example, infrared illumination is an adjustment target, but the type of illumination is not limited to this.
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 ネットワーク監視システム
110 親カメラ
111 ビデオカメラ
112 画像入力部
113 画像処理部
114 カメラ制御部
115 データ処理部
116 データ保存部
117 赤外照明
118 撮像方向制御部
119 通信制御部
120 子カメラ
121 ビデオカメラ
122 画像入力部
123 画像処理部
124 カメラ制御部
125 データ処理部
126 データ保存部
127 赤外照明
128 撮像方向制御部
129 通信制御部
130 録画装置
140 表示制御装置
150 ネットワーク
100 Network Monitoring System 110 Parent Camera 111 Video Camera 112 Image Input Unit 113 Image Processing Unit 114 Camera Control Unit 115 Data Processing Unit 116 Data Storage Unit 117 Infrared Illumination 118 Imaging Direction Control Unit 119 Communication Control Unit 120 Child Camera 121 Video Camera 122 Image input unit 123 Image processing unit 124 Camera control unit 125 Data processing unit 126 Data storage unit 127 Infrared illumination 128 Imaging direction control unit 129 Communication control unit 130 Recording device 140 Display control device 150 Network

Claims (11)

ネットワークを介して接続された照明を有する複数の撮像装置を備えた撮像システムにおける撮像装置の制御方法であって、
各々の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断工程と、
前記判断工程において所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像から優先する撮像装置を決定する決定工程と、
前記決定工程における決定に基づき各々の照明を調整する調整工程と、
を有することを特徴とする撮像装置の制御方法。
An imaging apparatus control method in an imaging system including a plurality of imaging apparatuses having illuminations connected via a network,
A determination step of determining whether or not the imaging direction of each imaging device is within a predetermined range;
A determination step of determining an imaging device to be prioritized from an image captured by each imaging device when it is determined in the determination step that it is within a predetermined range;
An adjustment step of adjusting each illumination based on the determination in the determination step;
A method for controlling an imaging apparatus, comprising:
顔を検出する検出工程と、
動体を追尾する追尾工程とを有し、
前記決定工程において、顔検出の有無、追尾する動体の撮影サイズのうち、少なくとも一方により前記優先する撮像装置を決定することを特徴とする請求項1に記載の撮像装置の制御方法。
A detection step for detecting a face;
A tracking process for tracking moving objects,
The method of controlling an imaging apparatus according to claim 1, wherein, in the determination step, the priority imaging apparatus is determined based on at least one of presence / absence of face detection and a shooting size of a moving object to be tracked.
ネットワークを介して接続された照明を有する複数の撮像装置を備えた撮像システムを構成する撮像装置であって、
各々の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断手段と、
前記判断手段により所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像から優先する撮像装置を決定する決定手段と、
前記決定手段による決定に基づき各々の照明を調整する調整手段と、
を有することを特徴とする撮像装置。
An imaging device that constitutes an imaging system including a plurality of imaging devices having illuminations connected via a network,
Determining means for determining whether or not the imaging direction of each imaging device is within a predetermined range;
A determination unit that determines a priority imaging device from an image captured by each imaging device when the determination unit determines that the image is within a predetermined range;
Adjusting means for adjusting each illumination based on the determination by the determining means;
An imaging device comprising:
顔を検出する検出手段と、
動体を追尾する追尾手段とを有し、
前記決定手段は、顔検出の有無、追尾する動体の撮影サイズのうち、少なくとも一方により前記優先する撮像装置を決定することを特徴とする請求項3に記載の撮像装置。
Detecting means for detecting a face;
Tracking means for tracking moving objects,
4. The imaging apparatus according to claim 3, wherein the determination unit determines the priority imaging apparatus based on at least one of presence / absence of face detection and a shooting size of a moving object to be tracked.
前記調整手段が調整する照明は赤外光であることを特徴とする請求項3または4に記載の撮像装置。   The imaging apparatus according to claim 3 or 4, wherein the illumination adjusted by the adjusting means is infrared light. ネットワークを介して接続された照明を有する複数の撮像装置と、前記複数の撮像装置と通信する管理装置を備えた撮像システムにおける管理装置の制御方法であって、
前記複数の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断工程と、
前記判断工程において所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像情報に基づいて優先する撮像装置を決定する決定工程と、
前記決定工程における決定に基づき各々の照明を調整する調整工程と、
を有することを特徴とする管理装置の制御方法。
A management device control method in an imaging system comprising a plurality of imaging devices having lighting connected via a network, and a management device communicating with the plurality of imaging devices,
A determination step of determining whether or not the imaging directions of the plurality of imaging devices are within a predetermined range;
A determination step of determining a priority imaging device based on image information captured by each imaging device when it is determined in the determination step that the value is within a predetermined range;
An adjustment step of adjusting each illumination based on the determination in the determination step;
A control method for a management apparatus, comprising:
ネットワークを介して接続された照明を有する複数の撮像装置と、前記複数の撮像装置と通信する管理装置を備えた撮像システムにおける管理装置であって、
前記複数の撮像装置の撮像方向が所定の範囲内であるか否かを判断する判断手段と、
前記判断手段により所定の範囲内であると判断された場合に、各々の撮像装置で撮影された画像情報に基づいて優先する撮像装置を決定する決定手段と、
前記決定手段の決定に基づき各々の照明を調整する調整手段と、
を有することを特徴とする管理装置。
A management device in an imaging system comprising a plurality of imaging devices having lighting connected via a network and a management device communicating with the plurality of imaging devices,
Determining means for determining whether or not the imaging directions of the plurality of imaging devices are within a predetermined range;
A determination unit that determines an imaging device to be prioritized based on image information captured by each imaging device when the determination unit determines that it is within a predetermined range;
Adjusting means for adjusting each illumination based on the determination by the determining means;
A management apparatus comprising:
前記複数の撮像装置と通信するための通信手段と、
前記通信手段により前記複数の撮像装置から各々の画像情報を取得手段と、
前記決定手段は、前記取得手段により取得した画像情報において、顔検出の有無、追尾する動体の撮影サイズのうち、少なくとも一方により前記優先する撮像装置を決定することを特徴とする請求項7に記載の管理装置。
Communication means for communicating with the plurality of imaging devices;
Means for acquiring each image information from the plurality of imaging devices by the communication means;
The said determination means determines the said imaging device to give priority with at least one among the presence or absence of face detection and the imaging | photography size of the moving body to track in the image information acquired by the said acquisition means. Management device.
前記調整手段が調整する照明は赤外光であることを特徴とする請求項7または8に記載の管理装置。   9. The management apparatus according to claim 7, wherein the illumination that is adjusted by the adjustment unit is infrared light. コンピュータを、請求項3〜5の何れか1項に記載の撮像装置の各手段として実行させることを特徴とするプログラム。   A program that causes a computer to be executed as each unit of the imaging apparatus according to any one of claims 3 to 5. コンピュータを、請求項7〜9の何れか1項に記載の管理装置の各手段として実行させることを特徴とするプログラム。   A program that causes a computer to be executed as each unit of the management device according to any one of claims 7 to 9.
JP2015058408A 2015-03-20 2015-03-20 Imaging device control method, management device control method, imaging device, and management device Active JP6436823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015058408A JP6436823B2 (en) 2015-03-20 2015-03-20 Imaging device control method, management device control method, imaging device, and management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015058408A JP6436823B2 (en) 2015-03-20 2015-03-20 Imaging device control method, management device control method, imaging device, and management device

Publications (2)

Publication Number Publication Date
JP2016178542A true JP2016178542A (en) 2016-10-06
JP6436823B2 JP6436823B2 (en) 2018-12-12

Family

ID=57071432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015058408A Active JP6436823B2 (en) 2015-03-20 2015-03-20 Imaging device control method, management device control method, imaging device, and management device

Country Status (1)

Country Link
JP (1) JP6436823B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004235786A (en) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk Digital camera
JP2007264932A (en) * 2006-03-28 2007-10-11 Kyocera Corp Vehicular communication system and on-vehicle imaging device
JP2010124140A (en) * 2008-11-18 2010-06-03 Honda Motor Co Ltd Photographic system, photographic device, and photography control program
WO2013179335A1 (en) * 2012-05-30 2013-12-05 株式会社 日立製作所 Monitoring camera control device and visual monitoring system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004235786A (en) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk Digital camera
JP2007264932A (en) * 2006-03-28 2007-10-11 Kyocera Corp Vehicular communication system and on-vehicle imaging device
JP2010124140A (en) * 2008-11-18 2010-06-03 Honda Motor Co Ltd Photographic system, photographic device, and photography control program
WO2013179335A1 (en) * 2012-05-30 2013-12-05 株式会社 日立製作所 Monitoring camera control device and visual monitoring system

Also Published As

Publication number Publication date
JP6436823B2 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
US10958820B2 (en) Intelligent interface for interchangeable sensors
US9374529B1 (en) Enabling multiple field of view image capture within a surround image mode for multi-LENS mobile devices
JP5790761B2 (en) Distributed image processing system
US20190082112A1 (en) Intelligent object tracking
US20110181729A1 (en) Network camera and system and method for operating the same
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
JP6914007B2 (en) Information processing device and information processing method
US10462346B2 (en) Control apparatus, control method, and recording medium
US20210152750A1 (en) Information processing apparatus and method for controlling the same
EP3567844B1 (en) Control apparatus and control method
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
JP2018093401A (en) Video monitoring device, video monitoring method, and video monitoring system
KR20180138529A (en) Information processing apparatus, information processing method, and recording medium
JP2013223104A (en) Camera and camera system
JP2012063575A (en) Digital camera
JP6436823B2 (en) Imaging device control method, management device control method, imaging device, and management device
JP2021132292A (en) Imaging device, control method thereof, system, and program
JP4855662B2 (en) Camera system, camera control method, and program
KR101848320B1 (en) Method for gun sound detection and taking photograph
JP2008219452A (en) Camera surveillance device
KR100761817B1 (en) A ccd camera system for effectively tracking a motion of objects and a method thereof
JPWO2018020769A1 (en) Video system equipment
KR20220165449A (en) Object tracking method using multi-camera based drone and object tracking system using the same
JP2015133020A (en) Management client device, management system, management method, and program
WO2017212796A1 (en) Control device, communication device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181113

R151 Written notification of patent or utility model registration

Ref document number: 6436823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151