JP2017076923A - Imaging device, and control method and control program of the same - Google Patents

Imaging device, and control method and control program of the same Download PDF

Info

Publication number
JP2017076923A
JP2017076923A JP2015204616A JP2015204616A JP2017076923A JP 2017076923 A JP2017076923 A JP 2017076923A JP 2015204616 A JP2015204616 A JP 2015204616A JP 2015204616 A JP2015204616 A JP 2015204616A JP 2017076923 A JP2017076923 A JP 2017076923A
Authority
JP
Japan
Prior art keywords
unit
irradiation intensity
subject
imaging
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015204616A
Other languages
Japanese (ja)
Other versions
JP6632314B2 (en
Inventor
健太朗 福永
Kentaro Fukunaga
健太朗 福永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015204616A priority Critical patent/JP6632314B2/en
Publication of JP2017076923A publication Critical patent/JP2017076923A/en
Application granted granted Critical
Publication of JP6632314B2 publication Critical patent/JP6632314B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to consider safety of a subject while maintaining irradiation intensity necessary for monitoring without grasping a distance to the subject.SOLUTION: A moving body detecting unit 111 detects a moving body in an image obtained with an image processing unit 103, and a face detecting unit 112 detects a face of the moving body. When a system controller 104 controls an infrared illumination unit 110 to detect the moving body with the moving body detection unit in the image obtained when an imaging area is illuminated with first irradiation intensity by the infrared illumination unit, the infrared illumination unit illuminates with second irradiation intensity higher than the first irradiation intensity.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、赤外照明装置などの照明装置を備えた撮像装置で行われる照明強度の調整手法に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly, to an illumination intensity adjustment technique performed by an imaging apparatus including an illumination apparatus such as an infrared illumination apparatus.

撮像装置の1つとして建物などの周囲の状況を監視するための監視カメラがある。そして、夜間又は暗所における監視を行うため、赤外照明装置などの照明装置を備えた監視カメラがある。このような監視カメラを用いれば、赤外照明装置を点灯させることによって全く光のない状況においても、人に気づかれることなく監視を行うことができる。   As one of the imaging devices, there is a monitoring camera for monitoring a surrounding situation such as a building. In order to perform monitoring at night or in a dark place, there is a monitoring camera provided with an illumination device such as an infrared illumination device. By using such a monitoring camera, it is possible to perform monitoring without being noticed by a person even when there is no light by turning on the infrared illumination device.

ところで、近年、より遠方の被写体を監視するため、照明強度を強くした赤外照明装置を搭載した監視カメラに対する需要が高まっている。なお、赤外照明は人間が認識できる波長ではないものの、人体(特に目)に対するリスクを考慮すると、一定以上の光量を長時間直視することは好ましくないとされている。このため、人が直視可能な赤外照明装置においては、その照明強度が制限されることがある。   By the way, in recent years, in order to monitor a farther subject, there is an increasing demand for a monitoring camera equipped with an infrared illumination device with increased illumination intensity. In addition, although infrared illumination is not a wavelength that can be recognized by humans, it is considered unpreferable to look directly at a certain amount of light for a long time in consideration of the risk to the human body (particularly the eyes). For this reason, in an infrared illumination device that can be directly viewed by a person, the illumination intensity may be limited.

例えば、撮像部と被写体との距離を検出して、照明装置の照射強度を調整するようにした監視カメラがある(特許文献1参照)。また、徐々に照射強度を上げて、顔検出が完了した時点における照射強度を保つようにした監視カメラがある(特許文献2参照)。   For example, there is a monitoring camera that detects the distance between an imaging unit and a subject and adjusts the irradiation intensity of a lighting device (see Patent Document 1). There is also a monitoring camera that gradually increases the irradiation intensity and maintains the irradiation intensity at the time when face detection is completed (see Patent Document 2).

特開2010−178112号公報JP 2010-178112 A 特開2011−176780号公報JP 2011-176780 A

しかしながら、上述の特許文献1に記載の監視カメラでは、照射強度を調整するために被写体との距離(被写体距離)を把握する必要があるばかりでなく、当該被写体距離に応じた照明強度が記録されたテーブルを予め記憶領域に保存しておく必要がある。   However, the monitoring camera described in Patent Document 1 described above not only needs to grasp the distance to the subject (subject distance) in order to adjust the irradiation intensity, but also records the illumination intensity according to the subject distance. The table must be stored in the storage area in advance.

また、特許文献2に記載の監視カメラでは、顔検出が完了した時点における照射強度で照明を継続するので、顔検出処理の際に被写体が監視カメラの方向ではなく別の方向を向いていた場合などには、必要以上の照射強度で照明が継続されてしまうことになる。   Further, in the surveillance camera described in Patent Document 2, since illumination is continued with the irradiation intensity at the time when face detection is completed, the subject is pointing in a different direction instead of the direction of the surveillance camera during the face detection process. For example, illumination is continued with an irradiation intensity higher than necessary.

そこで、本発明の目的は、被写体との距離を把握する必要がなく、監視に必要な照射強度を維持しつつ被写体の安全性を考慮した撮像装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide an imaging apparatus that takes into account the safety of a subject while maintaining the irradiation intensity necessary for monitoring without having to grasp the distance to the subject, a control method thereof, and a control program It is in.

上記の目的を達成するため、本発明による撮像装置は、被写体を照明する照明手段と、前記照明手段で前記被写体を照明しつつ前記被写体を撮像して画像を得る撮像手段とを有する撮像装置であって、前記画像において前記被写体を検出する第1の検出手段と、前記画像において前記被写体の特定の領域を検出する第2の検出手段と、前記照明手段を制御して、前記照明手段によって前記撮像手段によって撮像される撮像領域を第1の照射強度で照明して得られた画像において前記第1の検出手段によって前記被写体が検出されると、前記照明手段によって前記撮像領域を前記第1の照射強度よりも高い第2の照射強度で照明する制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus that includes an illuminating unit that illuminates a subject, and an imaging unit that captures an image of the subject while illuminating the subject with the illuminating unit. A first detection unit that detects the subject in the image; a second detection unit that detects a specific area of the subject in the image; and the illumination unit that controls the illumination unit to When the subject is detected by the first detection unit in the image obtained by illuminating the imaging region imaged by the imaging unit with the first irradiation intensity, the imaging region is defined by the illumination unit. And control means for illuminating with a second irradiation intensity higher than the irradiation intensity.

本発明による制御方法は、被写体を照明する照明手段と、前記照明手段で前記被写体を照明しつつ前記被写体を撮像して画像を得る撮像手段とを有する撮像装置の制御方法であって、前記画像において前記被写体を検出する第1の検出ステップと、前記画像において前記被写体の特定の領域を検出する第2の検出ステップと、前記照明手段を制御して、前記照明手段によって前記撮像手段によって撮像される撮像領域を第1の照射強度で照明して得られた画像において前記第1の検出ステップで前記被写体が検出されると、前記照明手段によって前記撮像領域を前記第1の照射強度よりも高い第2の照射強度で照明する制御ステップと、を有することを特徴とする。   The control method according to the present invention is a control method for an imaging apparatus comprising: an illuminating unit that illuminates a subject; and an imaging unit that captures an image of the subject while illuminating the subject with the illuminating unit. In the first detection step of detecting the subject in the image, a second detection step of detecting a specific area of the subject in the image, and the illumination unit is controlled to be imaged by the imaging unit by the illumination unit. When the subject is detected in the first detection step in an image obtained by illuminating the imaging region to be illuminated with the first irradiation intensity, the illuminating means causes the imaging region to be higher than the first irradiation intensity. And a control step of illuminating with the second irradiation intensity.

本発明による制御プログラムは、被写体を照明する照明手段と、前記照明手段で前記被写体を照明しつつ前記被写体を撮像して画像を得る撮像手段とを有する撮像装置で用いられる制御プログラムであって、前記撮像装置が備えるコンピュータに、前記画像において前記被写体を検出する第1の検出ステップと、前記画像において前記被写体の特定の領域を検出する第2の検出ステップと、前記照明手段を制御して、前記照明手段によって前記撮像手段によって撮像される撮像領域を第1の照射強度で照明して得られた画像において前記第1の検出ステップで前記被写体が検出されると、前記照明手段によって前記撮像領域を前記第1の照射強度よりも高い第2の照射強度で照明する制御ステップと、を実行させることを特徴とする。   A control program according to the present invention is a control program used in an imaging apparatus including an illumination unit that illuminates a subject, and an imaging unit that captures an image of the subject while illuminating the subject with the illumination unit. Controlling a first detection step of detecting the subject in the image, a second detection step of detecting a specific region of the subject in the image, and the illumination unit in a computer included in the imaging device; When the subject is detected in the first detection step in an image obtained by illuminating an imaging region imaged by the imaging unit with the first irradiation intensity by the illumination unit, the imaging region is detected by the illumination unit. And a control step of illuminating with a second irradiation intensity higher than the first irradiation intensity.

本発明によれば、被写体が検出されると、照射強度を第1の照射強度から第2の照射強度に高くする。これによって、被写体との距離を把握することなく、監視に必要な照射強度を維持しつつ被写体の安全性を考慮することができる。   According to the present invention, when the subject is detected, the irradiation intensity is increased from the first irradiation intensity to the second irradiation intensity. This makes it possible to consider the safety of the subject while maintaining the irradiation intensity necessary for monitoring without grasping the distance to the subject.

本発明の第1の実施形態に係る撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示す監視カメラにおける赤外照明部の照射強度切替制御を説明するためのフローチャートである。It is a flowchart for demonstrating irradiation intensity switching control of the infrared illumination part in the surveillance camera shown in FIG. 図2に示す動体が単体の場合の照射制御を説明するためのフローチャートである。It is a flowchart for demonstrating irradiation control in case the moving body shown in FIG. 2 is single. 図2に示す動体が複数の場合の照射制御を説明するためのフローチャートである。It is a flowchart for demonstrating irradiation control in case the moving body shown in FIG. 2 is multiple. 本発明の第2の実施形態による監視カメラにおける赤外照明部の照射制御を説明するためのフローチャートである。It is a flowchart for demonstrating irradiation control of the infrared illumination part in the surveillance camera by the 2nd Embodiment of this invention. 本発明の第3の実施形態における監視カメラで行われる画像表示制御を説明するためのフローチャートである。It is a flowchart for demonstrating the image display control performed with the surveillance camera in the 3rd Embodiment of this invention. 本発明の第3の実施形態における監視カメラで行われる画像表示制御の一例を説明するための図である(その1)。It is a figure for demonstrating an example of the image display control performed with the surveillance camera in the 3rd Embodiment of this invention (the 1). 本発明の第3の実施形態における監視カメラで行われる画像表示制御の一例を説明するための図である(その2)。It is a figure for demonstrating an example of the image display control performed with the surveillance camera in the 3rd Embodiment of this invention (the 2). 本発明の第3の実施形態における監視カメラで行われる画像表示制御の一例を説明するための図である(その3)。It is a figure for demonstrating an example of the image display control performed with the surveillance camera in the 3rd Embodiment of this invention (the 3).

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention.

図示の撮像装置は、例えば、建物などの周囲の状況を監視するための監視カメラである。監視カメラは撮像光学系100を有しており、撮像光学系100および赤外線フィルタ(以下赤外フィルタという)を介して被写体像(光学像)がCCD又はCMOSセンサなどの撮像素子102に結像する。   The illustrated imaging apparatus is, for example, a monitoring camera for monitoring a surrounding situation such as a building. The surveillance camera has an imaging optical system 100, and a subject image (optical image) is formed on an imaging element 102 such as a CCD or CMOS sensor via the imaging optical system 100 and an infrared filter (hereinafter referred to as an infrared filter). .

なお、図1に示す例では、撮像光学系100を1枚のレンズで示しているが、撮像光学系100を複数枚のレンズによって構成するようにしてもよい。また、赤外フィルタ101は、光学ローパスフィルタおよび光学バンドパスフィルタなど複数のフィルタを有しており、その一つ又は複数を任意に選択することができる。   In the example illustrated in FIG. 1, the imaging optical system 100 is illustrated with a single lens, but the imaging optical system 100 may be configured with a plurality of lenses. The infrared filter 101 has a plurality of filters such as an optical low-pass filter and an optical band-pass filter, and one or more of them can be arbitrarily selected.

撮像光学系制御部105は、システムコントローラ104の制御下で、撮像光学系100の合焦制御、ズーム制御、および露出制御などに関する制御を行う。撮像素子102は光学像に応じた電気信号(アナログ信号)を生成し、当該アナログ信号をA/D変換してデジタル画像信号として画像処理部103に送る。   The imaging optical system control unit 105 performs control related to focusing control, zoom control, exposure control, and the like of the imaging optical system 100 under the control of the system controller 104. The image sensor 102 generates an electrical signal (analog signal) corresponding to the optical image, A / D converts the analog signal, and sends it to the image processing unit 103 as a digital image signal.

画像処理部103は、デジタル画像信号に対して、ガンマ補正およびカラーバランス調整などの所定の画像処理を行ってJPEGなどの画像ファイル(以下画像データともいう)を生成する。システムコントローラ104は、画像処理部103で生成された画像ファイルをLAN113を介してクライアント装置114に送る。一方、クライアント装置114はLAN113を介してシステムコントローラ104に制御指示を送って、監視カメラを制御する。   The image processing unit 103 performs predetermined image processing such as gamma correction and color balance adjustment on the digital image signal to generate an image file such as JPEG (hereinafter also referred to as image data). The system controller 104 sends the image file generated by the image processing unit 103 to the client device 114 via the LAN 113. On the other hand, the client device 114 sends a control instruction to the system controller 104 via the LAN 113 to control the surveillance camera.

画像処理部103で生成された画像データは被写体検出部106に入力される。被写体検出部106は画像データにおいて被写体(例えば、人物)を検出して、その検出結果をシステムコントローラ104に出力する。   The image data generated by the image processing unit 103 is input to the subject detection unit 106. The subject detection unit 106 detects a subject (for example, a person) in the image data and outputs the detection result to the system controller 104.

図示のように、被写体検出部106は、動体検出部111および顔検出部112を備えている。動体検出部111は、撮像の結果得られた画像データにおいてフレーム間の差分に基づいて動体検出(被写体の検出)を行う。顔検出部112は、予め設定された顔の特徴点情報に基づいて画像データにおいて顔領域(特定の領域)を検出する。そして、動体検出部111および顔検出部112はそれぞれ動体検出結果および顔領域検出結果をシステムコントローラ104に出力する。   As illustrated, the subject detection unit 106 includes a moving object detection unit 111 and a face detection unit 112. The moving object detection unit 111 performs moving object detection (subject detection) based on the difference between frames in the image data obtained as a result of imaging. The face detection unit 112 detects a face area (specific area) in the image data based on preset facial feature point information. Then, the moving object detection unit 111 and the face detection unit 112 output the moving object detection result and the face area detection result to the system controller 104, respectively.

システムコントローラ104は、検出結果(つまり、動体検出結果および顔領域検出結果)に基づいて赤外機器制御部107を動作させる。例えば、システムコントローラ104は、検出結果に応じて赤外機器制御部107に照明強度を設定する。さらに、システムコントローラ104は、検出結果に応じて使用するフィルタを設定する。   The system controller 104 operates the infrared device control unit 107 based on the detection results (that is, the moving object detection result and the face area detection result). For example, the system controller 104 sets the illumination intensity in the infrared device control unit 107 according to the detection result. Further, the system controller 104 sets a filter to be used according to the detection result.

なお、被写体検出部106は、上述の構成に限定されるものではなく、例えば、動体検出と車両ナンバー検出とを組み合わせるなど様々な検出処理を組み合わせて構成するようにしてもよい。   The subject detection unit 106 is not limited to the above-described configuration, and may be configured by combining various detection processes such as a combination of moving object detection and vehicle number detection.

赤外機器制御部107は、システムコントローラ104によって設定された照射強度に基づいて赤外照明調整部108を制御する。そして、赤外照明調整部108は赤外照明部110における照射強度を切り換える。   The infrared device control unit 107 controls the infrared illumination adjustment unit 108 based on the irradiation intensity set by the system controller 104. The infrared illumination adjustment unit 108 switches the irradiation intensity in the infrared illumination unit 110.

さらに、赤外機器制御部107は、システムコントローラ104によって設定されたフィルタを適用するように赤外フィルタ駆動部109を制御する。赤外フィルタ駆動部109は、赤外フィルタ101を駆動して、設定されたフィルタを適用する。   Furthermore, the infrared device control unit 107 controls the infrared filter driving unit 109 to apply the filter set by the system controller 104. The infrared filter driving unit 109 drives the infrared filter 101 and applies the set filter.

なお、図1に示す例では、説明の便宜上、赤外機器制御部107を備える例が示されているが、システムコントローラ104が直接、赤外照明調整部108および赤外フィルタ駆動部109を制御するようにしてもよい。   In the example shown in FIG. 1, for convenience of explanation, an example including the infrared device control unit 107 is shown, but the system controller 104 directly controls the infrared illumination adjustment unit 108 and the infrared filter driving unit 109. You may make it do.

図2は、図1に示す監視カメラにおける赤外照明部110の照射強度切替制御を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システムコントローラ104の制御下で行われる。   FIG. 2 is a flowchart for explaining irradiation intensity switching control of the infrared illumination unit 110 in the monitoring camera shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the system controller 104.

照明強度切替制御を開始すると、システムコントローラ104の制御下で、動体検出部111は画像処理部103の出力である画像データにおいて動体を検知する(ステップS201)。なお、この際には、赤外照明部110の照射強度は動体検出部111が画像データにおいて動体を検出可能な最低限の強度に設定されているものとする。   When the illumination intensity switching control is started, the moving object detection unit 111 detects a moving object in the image data output from the image processing unit 103 under the control of the system controller 104 (step S201). In this case, it is assumed that the irradiation intensity of the infrared illumination unit 110 is set to a minimum intensity at which the moving object detection unit 111 can detect a moving object in the image data.

動体検出部111は動体検出結果をシステムコントローラ104に出力し、システムコントローラ104は動体検出結果に基づいて動体が複数存在するか否かを判定する(ステップS202)。動体が複数存在しない場合には(ステップS202において、NO)、システムコントローラ104は、後述するようにして、動体が単体の場合の照射制御(第1の照射制御)を行う(ステップS203)。そして、システムコントローラ104は照明強度切替制御を終了する。   The moving object detection unit 111 outputs the moving object detection result to the system controller 104, and the system controller 104 determines whether or not there are a plurality of moving objects based on the moving object detection result (step S202). When there are not a plurality of moving bodies (NO in step S202), the system controller 104 performs irradiation control (first irradiation control) when the moving body is a single body as described later (step S203). Then, the system controller 104 ends the illumination intensity switching control.

一方、動体が複数存在する場合には(ステップS202において、YES)、システムコントローラ104は、後述するようにして、動体が複数の場合の照射制御(第2の照射制御)を行う(ステップS204)。そして、システムコントローラ104は動体検出結果および顔検出結果に基づいて全ての動体について顔検出が完了した否かを判定する(ステップS205)。   On the other hand, when there are a plurality of moving objects (YES in step S202), the system controller 104 performs irradiation control (second irradiation control) when there are a plurality of moving objects as described later (step S204). . Then, the system controller 104 determines whether face detection has been completed for all moving objects based on the moving object detection result and the face detection result (step S205).

全ての動体について顔検出が完了していないと(ステップS205において、NO)、システムコントローラ104は所定の時間が経過するまで待つ(ステップS206)。そして、システムコントローラ104はステップS204の処理に戻る。なお、上記の所定の時間は予め設定するようにしてもよく、動体の移動速度が速い場合には設定時間(待ち時間)を短くし、動体の移動速度が遅い場合には設定時間を長くするようにしてもよい。   If face detection has not been completed for all moving objects (NO in step S205), system controller 104 waits until a predetermined time elapses (step S206). Then, the system controller 104 returns to the process of step S204. The predetermined time may be set in advance. If the moving speed of the moving object is fast, the set time (waiting time) is shortened, and if the moving speed of the moving object is slow, the set time is lengthened. You may do it.

全ての動体について顔検出が完了すると(ステップS205において、YES)、システムコントローラ104は照明強度切替制御を終了する。   When face detection is completed for all moving objects (YES in step S205), system controller 104 ends the illumination intensity switching control.

図3は、図2に示す動体が単体の場合の照射制御(第1の照射制御)を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining irradiation control (first irradiation control) when the moving body shown in FIG. 2 is a single body.

第1の照射制御を開始すると、システムコントローラ104は、顔検出のために赤外機器制御部107を制御して赤外照明部110の照射強度を上げて、第1の照明強度とする(ステップS301)。続いて、システムコントローラ104は、顔検出結果に基づいて動体の顔検出が可能であるか否かを判定する(ステップS302)。動体の顔検出が可能でないと(ステップS302において、NO)、システムコントローラ104は第1の照射制御を終了する。そして、システムコントローラ104は照明強度を第1の照明強度に保持する。   When the first irradiation control is started, the system controller 104 controls the infrared device control unit 107 for face detection to increase the irradiation intensity of the infrared illumination unit 110 to obtain the first illumination intensity (step). S301). Subsequently, the system controller 104 determines whether or not the moving object's face can be detected based on the face detection result (step S302). If the moving body face cannot be detected (NO in step S302), the system controller 104 ends the first irradiation control. Then, the system controller 104 holds the illumination intensity at the first illumination intensity.

一方、動体の顔検出が可能であると(ステップS302において、YES)、システムコントローラ104は照射強度を下げて、第2の照明強度とする(ステップS303)。そして、システムコントローラ104は、ステップS302の処理に戻って再度顔検出が可能であるか否かを判定する。   On the other hand, if the moving object's face can be detected (YES in step S302), the system controller 104 reduces the irradiation intensity to the second illumination intensity (step S303). Then, the system controller 104 returns to the process of step S302 and determines whether face detection is possible again.

このようにして、システムコントローラ104は動体において顔検出が可能であると、順次照明強度を下げて、再度動体において顔検出が可能であるか否かを判定する。そして、動体において顔検出が可能でないと、システムコントローラ104は第1の照射制御を終了し、その時点の照明強度を保持する。   In this manner, when the face detection is possible for the moving object, the system controller 104 sequentially decreases the illumination intensity and determines again whether the face detection is possible for the moving object. If the face cannot be detected in the moving object, the system controller 104 ends the first irradiation control and maintains the illumination intensity at that time.

なお、上述の例では、動体において顔検出ができなくなった時点における照射強度を保持するようにしたが、これに限定されない。例えば、動体において顔検出が可能な最も低い照射強度を保持するようにしてもよく、さらには、動体検出が可能な最も低い照射強度を保持するようにしてもよい。また、動体において顔検出が可能な最も低い照射強度と動体検出が可能な最も低い照射強度との平均照明強度を保持するようにしてもよい。   In the above example, the irradiation intensity at the time when the face cannot be detected in the moving object is held, but the present invention is not limited to this. For example, the lowest irradiation intensity at which a face can be detected in a moving object may be held, and further, the lowest irradiation intensity at which a moving object can be detected may be held. Moreover, you may make it hold | maintain the average illumination intensity of the lowest irradiation intensity | strength which can detect a face in a moving body, and the lowest irradiation intensity | strength which can detect a moving body.

図4は、図2に示す動体が複数の場合の照射制御(第2の照射制御)を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining irradiation control (second irradiation control) when there are a plurality of moving bodies shown in FIG.

第2の照射制御を開始すると、システムコントローラ104は動体検出結果および顔検出結果に基づいて、少なくとも1つの顔検出が完了した動体が存在するか否かを判定する(ステップS401)。顔検出が完了した動体が存在しないと(ステップS401において、NO)、システムコントローラ104は、赤外機器制御部107を制御して、赤外照明部110による照射強度を段階的に上げて最大値に設定する(ステップS402)。そして、システムコントローラ104は第2の照射制御を終了する。   When the second irradiation control is started, the system controller 104 determines whether or not there is a moving body for which at least one face detection has been completed based on the moving body detection result and the face detection result (step S401). If there is no moving object for which face detection has been completed (NO in step S401), the system controller 104 controls the infrared device control unit 107 to increase the irradiation intensity by the infrared illumination unit 110 in a stepwise manner to the maximum value. (Step S402). Then, the system controller 104 ends the second irradiation control.

一方、顔検出が完了した動体が存在すると(ステップS401において、YES)、システムコントローラ104は、赤外機器制御部107を制御して赤外照明部110による照射強度を顔検出用の照射強度とする(ステップS403)。なお、顔検出用の照射強度は、例えば、予め設定値としてシステムコントローラ104の内蔵メモリに記憶する。また、前回の顔検出の際に、顔検出が可能であった最低限の照射強度を内蔵メモリに記憶して、当該最低限の照射強度を顔検出用の照射強度としてもよい。   On the other hand, if there is a moving object for which face detection has been completed (YES in step S401), the system controller 104 controls the infrared device control unit 107 so that the irradiation intensity by the infrared illumination unit 110 is set as the irradiation intensity for face detection. (Step S403). Note that the irradiation intensity for face detection is stored in advance in a built-in memory of the system controller 104 as a set value, for example. Further, the minimum irradiation intensity at which face detection was possible in the previous face detection may be stored in the built-in memory, and the minimum irradiation intensity may be used as the face detection irradiation intensity.

続いて、システムコントローラ104は、顔検出結果に応じて全ての動体について顔検出が完了したか否かを判定する(ステップS404)。全ての動体について顔検出が完了していないと(ステップS404において、NO)、システムコントローラ104は、赤外照明部110の照射強度を上げる。そして、システムコントローラ104は、赤外照明部110の照射強度を上げた後、一定時間(所定の時間)が経過したか否かを判定する(ステップS405)。   Subsequently, the system controller 104 determines whether face detection has been completed for all moving objects according to the face detection result (step S404). If face detection has not been completed for all moving objects (NO in step S404), system controller 104 increases the irradiation intensity of infrared illumination unit 110. Then, the system controller 104 determines whether or not a predetermined time (predetermined time) has elapsed after increasing the irradiation intensity of the infrared illumination unit 110 (step S405).

赤外照明部110の照射強度を上げてから一定時間が経過していないと(ステップS405において、NO)、システムコントローラ104は、さらに赤外照明部110の照射強度を上げる(ステップS406)。その後、システムコントローラ104は、ステップS404の処理に戻って、再度全ての動体について顔検出が完了したか否かを判定する。   If the predetermined time has not elapsed since the irradiation intensity of the infrared illumination unit 110 was increased (NO in step S405), the system controller 104 further increases the irradiation intensity of the infrared illumination unit 110 (step S406). Thereafter, the system controller 104 returns to the process of step S404 and determines again whether face detection has been completed for all moving objects.

一方、赤外照明部110の照射強度を上げてから一定時間が経過すると(ステップS405において、YES)、システムコントローラ104は、赤外照明部110の照射強度を顔検出用の照射強度よりも下げる(ステップS407)。そして、システムコントローラ104は第2の照射制御を終了する。   On the other hand, when a certain time has elapsed since the irradiation intensity of infrared illumination unit 110 was increased (YES in step S405), system controller 104 lowers the irradiation intensity of infrared illumination unit 110 below the irradiation intensity for face detection. (Step S407). Then, the system controller 104 ends the second irradiation control.

全ての動体について顔検出が完了すると(ステップS404において、YES)、システムコントローラ104は、ステップS407の処理に進む。なお、ステップS407において設定される照射強度は動体が単体である場合の照明強度と同様の照明強度である。   When face detection is completed for all moving objects (YES in step S404), system controller 104 proceeds to the process of step S407. Note that the irradiation intensity set in step S407 is the same illumination intensity as that when the moving body is a single body.

このようにして、第2の照射制御では、動体が複数存在する場合においても、顔検出が完了している動体の安全性を考慮して照射制御を行うことができる。   In this way, in the second irradiation control, even when there are a plurality of moving objects, the irradiation control can be performed in consideration of the safety of the moving object for which face detection has been completed.

なお、上述の第1の実施形態では、動体検出結果および顔検出結果に基づいて、システムコントローラ104が赤外照明部110を制御する手法について説明したが、赤外照明部110の制御を行うか否かをクライアント装置114から設定するようにしてもよい。   In the first embodiment described above, the method in which the system controller 104 controls the infrared illumination unit 110 based on the moving object detection result and the face detection result has been described, but is the infrared illumination unit 110 controlled? Whether or not may be set from the client device 114.

以上のように、本発明の第1の実施形態では、動体検出結果および顔検出結果に応じて、赤外照明部の照射強度を制御する。これによって、被写体(動体)との距離を把握する必要がなく、監視に必要な照射強度を維持しつつ被写体の安全性を考慮することができる。   As described above, in the first embodiment of the present invention, the irradiation intensity of the infrared illumination unit is controlled according to the moving object detection result and the face detection result. Accordingly, it is not necessary to know the distance to the subject (moving body), and the safety of the subject can be considered while maintaining the irradiation intensity necessary for monitoring.

[第2の実施形態]
続いて、本発明の第2の実施形態による監視カメラの一例について説明する。なお、第2の実施形態による監視カメラの構成は図1に示す監視カメラと同様である。
[Second Embodiment]
Next, an example of a surveillance camera according to the second embodiment of the present invention will be described. The configuration of the surveillance camera according to the second embodiment is the same as that of the surveillance camera shown in FIG.

図5は、本発明の第2の実施形態による監視カメラにおける赤外照明部の照射制御を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining irradiation control of the infrared illumination unit in the surveillance camera according to the second embodiment of the present invention.

照射制御を開始すると、システムコントローラ104の制御下で、動体検出部111は、画像処理部103の出力である画像データにおいて動体を検出して、当該動体検出結果から複数の動体において少なくともその一部が重なり合う状態を検知する(ステップS501)。そして、動体検出部111は動体重なり検出結果をシステムコントローラ104に送る。   When the irradiation control is started, under the control of the system controller 104, the moving object detection unit 111 detects the moving object in the image data that is the output of the image processing unit 103, and at least a part of the plurality of moving objects from the moving object detection result. Is detected (step S501). Then, the moving body detection unit 111 sends the detection result of the moving body weight to the system controller 104.

システムコントローラ104は動体重なり検出結果に基づいて、再度顔検出処理を行うため、赤外機器制御部107を制御して赤外照明部110の照射強度を上げる(ステップS502)。なお、ステップS502において設定される照射強度は、前回の顔検出において動体の顔検出が可能であった最低限の照射強度である。   The system controller 104 increases the irradiation intensity of the infrared illumination unit 110 by controlling the infrared device control unit 107 in order to perform the face detection process again based on the detection result of the moving weight (step S502). Note that the irradiation intensity set in step S502 is the minimum irradiation intensity at which the moving object's face could be detected in the previous face detection.

続いて、システムコントローラ104は顔検出部112の出力である顔検出結果に基づいて全ての動体について顔検出が完了したか否かを判定する(ステップS503)。顔検出が完了していないと(ステップS503において、NO)、システムコントローラ104はステップS502の処理に戻って、再度照射強度を上げる。   Subsequently, the system controller 104 determines whether face detection has been completed for all moving objects based on the face detection result output from the face detection unit 112 (step S503). If face detection is not completed (NO in step S503), the system controller 104 returns to the process in step S502 and increases the irradiation intensity again.

なお、ここでは、顔検出が完了しない場合には照射強度を上げるようにしていたが、顔検出用に設定した照射強度を保持するようにしてもよい。   Here, the irradiation intensity is increased when face detection is not completed, but the irradiation intensity set for face detection may be held.

一方、顔検出が完了すると(ステップS503において、NO)、システムコントローラ104は、照射強度を顔検出が完了した時点の照射強度に保持する(ステップS504)。そして、動体検出部111によって動体の重なりが解除(解消)されたことが検知されると(ステップS505)、システムコントローラ104は赤外照明部110の照射強度を下げる(ステップS406)。その後、システムコントローラ104は照射制御を終了する。   On the other hand, when face detection is completed (NO in step S503), the system controller 104 holds the irradiation intensity at the irradiation intensity at the time when face detection is completed (step S504). When the moving object detection unit 111 detects that the overlapping of the moving objects has been released (removed) (step S505), the system controller 104 reduces the irradiation intensity of the infrared illumination unit 110 (step S406). Thereafter, the system controller 104 ends the irradiation control.

図5に示すフローチャートにおいては、動体の重なりを検知して顔検出処理を再度行うようにしたが、このような処理に限定されない。例えば、顔検出が完了した動体が撮像領域と非撮像領域との境界付近に移動した場合に、再度顔検出処理を行うようにしてもよい。また、クライアント装置114によって赤外照明部110の制御を行うための検出エリアを撮像領域に設定して、当該検出エリアにおいて動体が検知された場合にのみ赤外照明部111の制御を行うようにしてもよい。   In the flowchart shown in FIG. 5, the face detection process is performed again by detecting the overlap of moving objects, but the present invention is not limited to such a process. For example, when a moving object for which face detection has been completed moves to the vicinity of the boundary between the imaging area and the non-imaging area, the face detection process may be performed again. In addition, a detection area for controlling the infrared illumination unit 110 by the client device 114 is set as an imaging region, and the infrared illumination unit 111 is controlled only when a moving object is detected in the detection area. May be.

このように、本発明の第2の実施形態では、動体の重なりを検出して動体の重なりがあると、赤外照明部の照射強度を上げて顔検出を行う。そして、顔検出が完了して、かつ動体の重なりが解除すると、赤外照明部の照射強度を下げる。これによって、精度よく顔検出を行うことができるばかりでなく、被写体(動体)との距離を把握する必要がなく、監視に必要な照射強度を維持しつつ被写体の安全性を考慮することができる。   As described above, in the second embodiment of the present invention, when the overlapping of moving objects is detected and there is an overlapping of moving objects, face detection is performed by increasing the irradiation intensity of the infrared illumination unit. When the face detection is completed and the overlapping of moving objects is released, the irradiation intensity of the infrared illumination unit is lowered. As a result, not only can face detection be performed accurately, but it is not necessary to know the distance to the subject (moving object), and the safety of the subject can be considered while maintaining the irradiation intensity necessary for monitoring. .

[第3の実施形態]
続いて、本発明の第3の実施形態による監視カメラの一例について説明する。なお、第2の実施形態による監視カメラの構成は図1に示す監視カメラと同様である。
[Third Embodiment]
Next, an example of a surveillance camera according to the third embodiment of the present invention will be described. The configuration of the surveillance camera according to the second embodiment is the same as that of the surveillance camera shown in FIG.

前述のように、監視カメラで得られた画像データはLAN113を介してクライアント装置114に送られる。この際、システムコントローラ104は、顔検出部112で得られた顔検出結果を画像データに重畳してクライアント装置114に送る。   As described above, the image data obtained by the monitoring camera is sent to the client device 114 via the LAN 113. At this time, the system controller 104 superimposes the face detection result obtained by the face detection unit 112 on the image data and sends it to the client device 114.

図6は、本発明の第3の実施形態における監視カメラで行われる画像表示制御を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining image display control performed by the surveillance camera according to the third embodiment of the present invention.

画像表示制御を開始すると、システムコントローラ104の制御下で、動体検出部111は、画像処理部103の出力である画像データにおいて動体を検出して、動体検出結果をシステムコントローラ104に送る(ステップS601)。動体検出結果を受けると、システムコントローラ104は顔検出のため、赤外機器制御部107を制御して赤外照明部110の照射強度を上げる(ステップS602)。   When the image display control is started, under the control of the system controller 104, the moving object detection unit 111 detects a moving object in the image data output from the image processing unit 103, and sends the moving object detection result to the system controller 104 (step S601). ). Upon receiving the moving object detection result, the system controller 104 controls the infrared device control unit 107 to increase the irradiation intensity of the infrared illumination unit 110 for face detection (step S602).

次に、システムコントローラ104の制御下で顔検出部112は動体702の顔検出を行う(ステップS603)。そして、顔検出部112はシステムコントローラ104に顔検出結果を送る。   Next, the face detection unit 112 performs face detection of the moving object 702 under the control of the system controller 104 (step S603). Then, the face detection unit 112 sends the face detection result to the system controller 104.

図7〜図9は、本発明の第3の実施形態における監視カメラで行われる画像表示制御の一例を説明するための図である。   7 to 9 are diagrams for explaining an example of image display control performed by the monitoring camera according to the third embodiment of the present invention.

図7〜図9も参照して、前述のように、動体702が検出されると、システムコントローラ104は赤外照明部110から照射される赤外光701の照射強度を上げる。そして、システムコントローラ104は顔検出結果に基づいて、動体検出結果が示す動体検出領域703に顔検出領域704を設定する(図7参照)。   7 to 9, as described above, when the moving body 702 is detected, the system controller 104 increases the irradiation intensity of the infrared light 701 emitted from the infrared illumination unit 110. Then, the system controller 104 sets the face detection area 704 in the moving object detection area 703 indicated by the moving object detection result based on the face detection result (see FIG. 7).

続いて、システムコントローラ104は、赤外機器制御部107を制御して赤外照明部110から照射される赤外光701の照射強度を下げる(ステップS604:図8参照)。そして、システムコントローラ104は、顔検出領域704で得られた顔画像705を動体検出領域703の直近に重畳して合成画像を生成する(ステップS605:図9参照)。そして、システムコントローラ104は当該合成画像をLAN113を介してクライアント装置114に送る。その後、システムコントローラ104は画像表示制御を終了する。クライアント装置114は、監視カメラから送られた合成画像を表示部に表示する。   Subsequently, the system controller 104 controls the infrared device control unit 107 to lower the irradiation intensity of the infrared light 701 emitted from the infrared illumination unit 110 (step S604: see FIG. 8). Then, the system controller 104 generates a composite image by superimposing the face image 705 obtained in the face detection area 704 in the immediate vicinity of the moving object detection area 703 (step S605: see FIG. 9). Then, the system controller 104 sends the composite image to the client device 114 via the LAN 113. Thereafter, the system controller 104 ends the image display control. The client device 114 displays the composite image sent from the monitoring camera on the display unit.

上述の画像表示制御では、顔画像705を重畳する位置を動体検出領域703の直近としたが、顔画像は顔検出領域704に重畳するようにしてもよい。   In the above-described image display control, the position at which the face image 705 is superimposed is the closest to the moving object detection area 703, but the face image may be superimposed on the face detection area 704.

なお、ステップS603において、動体の顔検出が完了しない場合には、顔検出が未完了である旨の情報を顔画像705の代わりに重畳して合成画像を生成するようにしてもよい。   If the face detection of the moving object is not completed in step S603, information indicating that face detection is not completed may be superimposed instead of the face image 705 to generate a composite image.

上述の例では、赤外照明部110の照射強度を下げた後に、顔画像705の重畳を行うようにしたが、これに限定されない。例えば、顔画像705を重畳した後、赤外照明部110の照射強度を下げるようにしてもよい。なお、赤外照明部110の照射強度の制御は第1の実施形態と同様にして行われる。   In the above example, the face image 705 is superimposed after the irradiation intensity of the infrared illumination unit 110 is lowered, but the present invention is not limited to this. For example, after superimposing the face image 705, the irradiation intensity of the infrared illumination unit 110 may be lowered. Note that the control of the irradiation intensity of the infrared illumination unit 110 is performed in the same manner as in the first embodiment.

このように、本発明の第3の実施形態では、照射強度が顔検出を行うために不十分である場合においても、動体と関連付けられた情報を重畳して表示することができる。この結果、ユーザーは監視対象を容易に認識することが可能となる。   As described above, in the third embodiment of the present invention, even when the irradiation intensity is insufficient for performing face detection, information associated with a moving object can be superimposed and displayed. As a result, the user can easily recognize the monitoring target.

第3の実施形態においては、動体検出と顔検出とを組み合わせて、顔検出の際に得られた顔画像を動体検出領域に重畳するが、これに限定されない。例えば、動体検出と車両のナンバー検出とを組み合わせて、車両のナンバーの検出の際に得られた車両ナンバーを動体検出領域に重畳して車両の監視を行うようにしてもよい。   In the third embodiment, the moving image detection and the face detection are combined and the face image obtained in the face detection is superimposed on the moving object detection region, but the present invention is not limited to this. For example, a combination of the moving object detection and the vehicle number detection may superimpose the vehicle number obtained when detecting the vehicle number on the moving object detection area to monitor the vehicle.

上述の説明から明らかなように、図1に示す例では、撮像光学系100、赤外フィルタ101、撮像素子102、および画像処理部103が撮像手段を構成する。また、動体検出部111およびシステムコントローラ104は第1の検出手段として機能し、顔検出部112およびシステムコントローラ104は第2の検出手段として機能する。さらに、システムコントローラ104、赤外機器制御部107、および赤外照明調整部108は制御手段として機能し、システムコントローラ104は送信手段として機能する。   As is apparent from the above description, in the example shown in FIG. 1, the imaging optical system 100, the infrared filter 101, the imaging element 102, and the image processing unit 103 constitute an imaging unit. The moving object detection unit 111 and the system controller 104 function as first detection means, and the face detection unit 112 and the system controller 104 function as second detection means. Furthermore, the system controller 104, the infrared device control unit 107, and the infrared illumination adjustment unit 108 function as control means, and the system controller 104 functions as transmission means.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 撮像光学系
101 赤外フィルタ
102 撮像素子
103 画像処理部
104 システムコントローラ
106 被写体検出部
107 赤外機器制御部
110 赤外照明部
111 動体検出部
112 顔検出部
DESCRIPTION OF SYMBOLS 100 Imaging optical system 101 Infrared filter 102 Imaging element 103 Image processing part 104 System controller 106 Subject detection part 107 Infrared equipment control part 110 Infrared illumination part 111 Moving object detection part 112 Face detection part

Claims (13)

被写体を照明する照明手段と、前記照明手段で前記被写体を照明しつつ前記被写体を撮像して画像を得る撮像手段とを有する撮像装置であって、
前記画像において前記被写体を検出する第1の検出手段と、
前記画像において前記被写体の特定の領域を検出する第2の検出手段と、
前記照明手段を制御して、前記照明手段によって前記撮像手段によって撮像される撮像領域を第1の照射強度で照明して得られた画像において前記第1の検出手段によって前記被写体が検出されると、前記照明手段によって前記撮像領域を前記第1の照射強度よりも高い第2の照射強度で照明する制御手段と、
を有することを特徴とする撮像装置。
An imaging apparatus comprising: an illuminating unit that illuminates a subject; and an imaging unit that captures an image of the subject while illuminating the subject with the illuminating unit;
First detecting means for detecting the subject in the image;
Second detection means for detecting a specific area of the subject in the image;
When the illuminating unit is controlled and the subject is detected by the first detecting unit in an image obtained by illuminating an imaging region captured by the imaging unit with the first irradiating intensity by the illuminating unit. Control means for illuminating the imaging region with a second irradiation intensity higher than the first irradiation intensity by the illumination means;
An imaging device comprising:
前記制御手段は、前記照明手段によって前記撮像領域を前記第2の照射強度で照明して得られた画像において前記第2の検出手段によって前記特定の領域が検出されると、前記照明手段の照射強度を前記第1の照射強度とすることを特徴とする請求項1に記載の撮像装置。   When the specific region is detected by the second detection unit in the image obtained by illuminating the imaging region with the second irradiation intensity by the illumination unit, the control unit irradiates the illumination unit. The imaging apparatus according to claim 1, wherein an intensity is the first irradiation intensity. 前記第2の照射強度は、前記第2の検出手段による前記特定の領域の検出が可能な照射強度のうち最も低い照射強度であることを特徴とする請求項1又は2に記載の撮像装置。   3. The imaging apparatus according to claim 1, wherein the second irradiation intensity is the lowest irradiation intensity among the irradiation intensities in which the specific area can be detected by the second detection unit. 前記第1の検出手段によって複数の被写体が検出された際、前記複数の被写体のいずれにおいても前記第2の検出手段によって前記特定の領域が検出されないと、前記制御手段は前記照明手段の照射強度を段階的に上げることを特徴とする請求項1に記載の撮像装置。   When the plurality of subjects are detected by the first detection unit, if the specific region is not detected by the second detection unit in any of the plurality of subjects, the control unit detects the irradiation intensity of the illumination unit. The image pickup apparatus according to claim 1, wherein the image pickup device is raised step by step. 前記第1の検出手段によって複数の被写体が検出された際、前記複数の被写体のいずれかにおいて前記第2の検出手段によって前記特定の領域が検出されると、前記制御手段は前記照明手段の照射強度を前記第2の照射強度とすることを特徴とする請求項1に記載の撮像装置。   When the plurality of subjects are detected by the first detection unit, and the specific region is detected by the second detection unit in any of the plurality of subjects, the control unit is configured to irradiate the illumination unit. The imaging apparatus according to claim 1, wherein the intensity is the second irradiation intensity. 前記照明手段によって前記撮像領域を前記第2の照射強度で照明して得られた画像において前記第2の検出手段によって前記複数の被写体の全てで前記特定の領域が検出されると、前記制御手段は前記照明手段の照射強度を前記第1の照射強度とすることを特徴とする請求項5に記載の撮像装置。   When the specific area is detected in all of the plurality of subjects by the second detection means in the image obtained by illuminating the imaging area with the second irradiation intensity by the illumination means, the control means The imaging apparatus according to claim 5, wherein the illumination intensity of the illumination unit is the first illumination intensity. 前記照明手段の照射強度を前記第2の照射強度にした後、所定の時間が経過すると、前記制御手段は前記照明手段の照射強度を前記第1の照射強度とすることを特徴とする請求項5又は6に記載の撮像装置。   The control means sets the irradiation intensity of the illumination means as the first irradiation intensity when a predetermined time elapses after the irradiation intensity of the illumination means is set to the second irradiation intensity. The imaging device according to 5 or 6. 前記第1の検出手段によって検出された複数の被写体において少なくともその一部が重なり合った状態であると、前記制御手段は、前記第2の検出手段によって前記複数の被写体の全てで前記特定の領域が検出された後、前記重なり合った状態が解消されると、前記照明手段の照射強度を前記第1の照射強度とすることを特徴とする請求項5に記載の撮像装置。   When the plurality of subjects detected by the first detection means are in a state where at least a part thereof overlaps, the control means determines that the specific region is present in all of the plurality of subjects by the second detection means. The imaging apparatus according to claim 5, wherein after the detection, when the overlapping state is eliminated, the irradiation intensity of the illumination unit is set to the first irradiation intensity. 前記特定の領域を前記画像に重畳した合成画像をクライアント装置に送信する送信手段を有することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a transmission unit configured to transmit a composite image in which the specific area is superimposed on the image to the client apparatus. 前記特定の領域は、人物の顔又は車両のナンバーであることを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the specific area is a human face or a vehicle number. 前記照明手段は、赤外光によって前記撮像領域を照明することを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the illumination unit illuminates the imaging region with infrared light. 被写体を照明する照明手段と、前記照明手段で前記被写体を照明しつつ前記被写体を撮像して画像を得る撮像手段とを有する撮像装置の制御方法であって、
前記画像において前記被写体を検出する第1の検出ステップと、
前記画像において前記被写体の特定の領域を検出する第2の検出ステップと、
前記照明手段を制御して、前記照明手段によって前記撮像手段によって撮像される撮像領域を第1の照射強度で照明して得られた画像において前記第1の検出ステップで前記被写体が検出されると、前記照明手段によって前記撮像領域を前記第1の照射強度よりも高い第2の照射強度で照明する制御ステップと、
を有することを特徴とする制御方法。
An imaging apparatus control method comprising: an illuminating unit that illuminates a subject; and an imaging unit that captures an image of the subject while illuminating the subject with the illuminating unit;
A first detection step of detecting the subject in the image;
A second detection step of detecting a specific area of the subject in the image;
When the subject is detected in the first detection step in an image obtained by controlling the illumination unit and illuminating an imaging region imaged by the imaging unit with the first illumination intensity by the illumination unit. A control step of illuminating the imaging region with a second irradiation intensity higher than the first irradiation intensity by the illumination means;
A control method characterized by comprising:
被写体を照明する照明手段と、前記照明手段で前記被写体を照明しつつ前記被写体を撮像して画像を得る撮像手段とを有する撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記画像において前記被写体を検出する第1の検出ステップと、
前記画像において前記被写体の特定の領域を検出する第2の検出ステップと、
前記照明手段を制御して、前記照明手段によって前記撮像手段によって撮像される撮像領域を第1の照射強度で照明して得られた画像において前記第1の検出ステップで前記被写体が検出されると、前記照明手段によって前記撮像領域を前記第1の照射強度よりも高い第2の照射強度で照明する制御ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an imaging apparatus comprising: an illuminating unit that illuminates a subject; and an imaging unit that images the subject while illuminating the subject with the illuminating unit to obtain an image.
In the computer provided in the imaging device,
A first detection step of detecting the subject in the image;
A second detection step of detecting a specific area of the subject in the image;
When the subject is detected in the first detection step in an image obtained by controlling the illumination unit and illuminating an imaging region imaged by the imaging unit with the first illumination intensity by the illumination unit. A control step of illuminating the imaging region with a second irradiation intensity higher than the first irradiation intensity by the illumination means;
A control program characterized by causing
JP2015204616A 2015-10-16 2015-10-16 Imaging device, control method thereof, and control program Active JP6632314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015204616A JP6632314B2 (en) 2015-10-16 2015-10-16 Imaging device, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015204616A JP6632314B2 (en) 2015-10-16 2015-10-16 Imaging device, control method thereof, and control program

Publications (2)

Publication Number Publication Date
JP2017076923A true JP2017076923A (en) 2017-04-20
JP6632314B2 JP6632314B2 (en) 2020-01-22

Family

ID=58551534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015204616A Active JP6632314B2 (en) 2015-10-16 2015-10-16 Imaging device, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6632314B2 (en)

Also Published As

Publication number Publication date
JP6632314B2 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
US10965879B2 (en) Imaging device, video signal processing device, and video signal processing method
US9843727B2 (en) Image capturing apparatus and image capturing method
EP3709268A1 (en) An image processing arrangement
US11394866B2 (en) Signal processing device, imaging device, signal processing meihod and program
JP2016082510A (en) Image processing apparatus and image processing method
JP2010117663A (en) Autofocus system
JP2010118984A (en) Photographing apparatus
JP2012015661A (en) Imaging device and imaging method
JP2012160780A (en) Imaging device, image processing device, and image processing program
JP2014146979A (en) Monitor camera system, imaging apparatus, and imaging method
JP2015014672A (en) Camera control device, camera system, camera control method and program
JP2005148662A5 (en)
JP2016143915A (en) Imaging device, imaging system, imaging method and program
JP2011097264A (en) Imaging apparatus
US10560635B2 (en) Control device, control method, and program
JP6632314B2 (en) Imaging device, control method thereof, and control program
JP2012015660A (en) Imaging device and imaging method
JP2011017754A (en) Imaging device, control method of the same, and computer program
JP2016142924A5 (en)
JP2014110607A (en) Imaging apparatus
US11206355B2 (en) Image processing apparatus, image processing method, and image processing program
JP6489876B2 (en) Imaging apparatus and control method thereof
JP2010117487A (en) Autofocus system
JP2007078811A (en) Imaging apparatus
JP2016200742A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R151 Written notification of patent or utility model registration

Ref document number: 6632314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151