JP6525723B2 - Imaging device, control method therefor, program, and storage medium - Google Patents

Imaging device, control method therefor, program, and storage medium Download PDF

Info

Publication number
JP6525723B2
JP6525723B2 JP2015102275A JP2015102275A JP6525723B2 JP 6525723 B2 JP6525723 B2 JP 6525723B2 JP 2015102275 A JP2015102275 A JP 2015102275A JP 2015102275 A JP2015102275 A JP 2015102275A JP 6525723 B2 JP6525723 B2 JP 6525723B2
Authority
JP
Japan
Prior art keywords
image
subject
unit
imaging
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015102275A
Other languages
Japanese (ja)
Other versions
JP2016220002A (en
Inventor
孝男 斉藤
孝男 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015102275A priority Critical patent/JP6525723B2/en
Publication of JP2016220002A publication Critical patent/JP2016220002A/en
Application granted granted Critical
Publication of JP6525723B2 publication Critical patent/JP6525723B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視カメラなどに用いられる撮像装置に関するものである。   The present invention relates to an imaging device used for a surveillance camera or the like.

従来の監視カメラにより夜間の撮影を行う場合、車両のヘッドライトなどの可視光線が監視カメラの視野内に入ることがある。車体の輪郭やナンバープレート、そして車両の運転席などはヘッドライトで照らされる場所ではないため、基本的には暗い領域である。ところが、ヘッドライトは非常に明るい光源となるので、カメラの画角内に入るとその影響で画像の一部が白飛びしてしまう、ハレーション現象が発生する場合がある。   When photographing at night by a conventional surveillance camera, visible light such as headlights of a vehicle may fall within the field of view of the surveillance camera. The outline of the car body, the license plate, and the driver's seat of the vehicle are basically dark areas because they are not illuminated by headlights. However, since the headlights become a very bright light source, a halation phenomenon may occur in which a part of the image is white-out due to the influence of entering the angle of view of the camera.

ハレーションが発生すると、ナンバープレートや運転手の顔などが、ヘッドライトによる白飛び領域に覆われてしまい認識できなくなり、あるいは白飛びしないように制御すると、暗い領域はそのまま暗いままになるので鮮明な画像が得られなくなる。また、明け方や夕方のような時間帯ではイメージセンサから読み出した画像信号を増幅することで、カラー画像を取得することが可能である。しかしながら、ヘッドライトを点灯している車両が存在した場合、夜間の撮影と同様にヘッドライトによる白飛びが発生するか、あるいは白飛びしないように制御してヘッドライト部分以外が暗くなってしまう。このように画像内に高輝度被写体が存在する場合、時間帯や被写体に応じて設定を最適な値に変更する必要がある。   If halation occurs, the license plate and driver's face etc. will be covered by the overexposure area caused by the headlights and become unrecognizable, or if control is made so that overexposure will not occur, the dark area will remain dark as it is, so it will be clear I can not get an image. In addition, it is possible to acquire a color image by amplifying the image signal read from the image sensor in a time zone such as dawn or evening. However, when there is a vehicle in which the headlights are on, as in the case of photographing at night, overexposure occurs due to the headlights, or control is performed so as not to cause overexposure, and parts other than the headlights become dark. As described above, when a high brightness subject is present in the image, it is necessary to change the setting to an optimal value according to the time zone or the subject.

このような課題に対処するため、特許文献1には、画面の一部に急激な輝度変化が生じた際に、複数のシャッタースピードで撮影を行う技術が記載されている。また、特許文献2には、1つの光学レンズにカラー用とモノクロ用の2つのイメージセンサを備え、被写体に応じて個別のシャッター制御を行う技術が記載されている。さらに明るい被写体と暗い被写体それぞれに露出を合わせて撮影し、それらを合成してダイナミックレンジの広い画像を得るハイダイナミックレンジ(HDR)技術なども存在する。   In order to cope with such a problem, Patent Document 1 describes a technique for performing photographing at a plurality of shutter speeds when a sudden change in luminance occurs in part of the screen. Further, Patent Document 2 describes a technology in which one optical lens is provided with two image sensors for color and monochrome, and shutter control is individually performed in accordance with an object. There is also a high dynamic range (HDR) technology, etc., in which images are captured by combining exposures on bright and dark objects and combining them to obtain an image with a wide dynamic range.

特開2009−302763号公報JP, 2009-302763, A 特開2010−250710号公報JP, 2010-250710, A

しかしながら、上記特許文献1ではシャッター速度を変更するだけでは、ハレーションを防ぐことはできず、暗い領域については鮮明な画像を得ることができない。また、上記特許文献2では、所望の画像が得られるものの、複数のイメージセンサが必要となるため、コストの面で不利である。また、HDR技術も構成が複雑になり、メモリなども増加するため同様にコストの面で不利となる。   However, in Patent Document 1 above, halation can not be prevented only by changing the shutter speed, and a clear image can not be obtained for a dark region. Moreover, although the said patent document 2 can obtain a desired image, since several image sensors are needed, it is disadvantageous in terms of cost. In addition, the HDR technology also has a complicated structure and increases memory and the like, which is also disadvantageous in terms of cost.

本発明は、上記課題に鑑みてなされ、その目的は、高輝度被写体による白飛びを防止しつつ時間帯や被写体に応じて最適な画像を自動で撮影できる撮像装置を安価かつ簡易な構成で実現することである。   The present invention has been made in view of the above problems, and an object thereof is to realize an imaging device capable of automatically photographing an optimum image according to a time zone or a subject while preventing overexposure due to a high luminance subject with an inexpensive and simple configuration. It is to be.

上記課題を解決し、目的を達成するために、本発明の撮像装置は、画像を撮像する撮像手段と、前記撮像手段に導かれる被写体像光のうち赤外光成分をカットする第1のフィルタ手段と、前記撮像手段に導かれる被写体像光のうち可視光成分をカットする第2のフィルタ手段と、前記撮像手段により撮像された画像から所定の被写体を検出する被写体検出手段と、前記撮像手段により撮像された画像を複数の領域に分割し、分割された領域ごとに輝度の平均値を算出する算出手段と、前記輝度の平均値が所定の基準値より大きいか否かを判定する判定手段と、前記判定手段の判定結果及び前記被写体検出手段により検出された被写体の検出結果に応じて、被写体像光を前記撮像手段に導く光路上に対して、前記第1のフィルタ手段及び前記第2のフィルタ手段を挿抜させるように制御する制御手段と、を有する。 In order to solve the above problems and achieve the object, an imaging device according to the present invention includes an imaging unit configured to capture an image, and a first filter configured to cut an infrared light component of object image light guided to the imaging unit. Means, second filter means for cutting visible light components of object image light guided to the imaging means, object detection means for detecting a predetermined object from the image taken by the imaging means, the imaging means Calculating means for dividing the image picked up by the image into a plurality of areas and calculating an average value of the brightness for each of the divided areas, and determining means for determining whether the average value of the brightness is larger than a predetermined reference value When, in response to said determining means determining result and the object detected by the object detection unit detected result, with respect to the optical path for guiding the subject image light to the image pickup means, said first filter means and said second And a control means for controlling the filter means so as to insertion.

本発明によれば、高輝度被写体による白飛びを防止しつつ時間帯や被写体に応じて最適な画像を自動で撮影できる撮像装置を安価かつ簡易な構成で実現することができる。   According to the present invention, it is possible to realize an imaging device capable of automatically photographing an optimal image according to a time zone or a subject while preventing overexposure due to a high luminance subject with an inexpensive and simple configuration.

本発明に係る実施形態の装置構成を示すブロック図。FIG. 1 is a block diagram showing an apparatus configuration of an embodiment according to the present invention. 本実施形態の信号処理ユニットの構成を示すブロック図。FIG. 2 is a block diagram showing a configuration of a signal processing unit of the present embodiment. 本実施形態による高輝度被写体検出方法を説明する図。FIG. 6 is a diagram for explaining a high-brightness object detection method according to the present embodiment. 本実施形態による高輝度被写体の移動検出方法を説明する図。FIG. 6 is a view for explaining the movement detection method of the high-brightness subject according to the present embodiment. 実施形態1のフィルタの挿抜制御を示すフローチャート。6 is a flowchart showing insertion and removal control of the filter of the first embodiment. 実施形態2のフィルタの挿抜制御を示すフローチャート。6 is a flowchart showing insertion and removal control of the filter of the second embodiment. 実施形態3のフィルタの挿抜制御を示すフローチャート。7 is a flowchart showing insertion and removal control of the filter of the third embodiment.

以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。   Hereinafter, embodiments of the present invention will be described in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately corrected or changed according to the configuration of the apparatus to which the present invention is applied and various conditions. It is not limited to the embodiment of the invention. Moreover, you may comprise combining suitably one part of each embodiment mentioned later.

以下、本発明の撮像装置を、例えば、静止画や動画を撮影するデジタルビデオカメラ(以下、デジタルカメラ)に適用した実施形態について説明するが、その他の監視カメラにも適用可能である。   The following describes an embodiment in which the imaging device of the present invention is applied to, for example, a digital video camera (hereinafter, digital camera) that captures still images and moving images, but the present invention is also applicable to other surveillance cameras.

<装置構成>図1および図2を参照して、本発明に係る実施形態のデジタルカメラの構成及び機能の概略について説明する。   <Apparatus Arrangement> The outline of the arrangement and functions of the digital camera according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG.

図1において、デジタルカメラ100は、レンズユニット101、イメージセンサ201、信号処理ユニット301、赤外線照明401を備える。   In FIG. 1, a digital camera 100 includes a lens unit 101, an image sensor 201, a signal processing unit 301, and an infrared illumination 401.

レンズユニット101によって結像された被写体像光は、イメージセンサ201によって電気信号に変換された後、信号処理ユニット301によって信号処理が施され、動画や静止画としてネットワークなどを介して逐次外部に出力される。   An object image light formed by the lens unit 101 is converted into an electric signal by the image sensor 201, and then subjected to signal processing by the signal processing unit 301, and sequentially output to the outside as a moving image or a still image through a network or the like. Be done.

レンズユニット101は、光学系としてのズームレンズ102やフォーカスレンズ103、絞り104、フィルタ105などを含み、被写体に応じて最適な画像が得られるように信号処理ユニット301からの制御信号に基づいて制御される。フィルタ105は、レンズユニット101とイメージセンサ201の間の光路上であって、レンズユニット101の光軸106上に挿抜可能に設けられている。フィルタ105は、赤外線カットフィルタ111と可視光線カットフィルタ112を含む。赤外線カットフィルタ111は、レンズユニット101を通過してイメージセンサ201に入射する光のうち主に赤外光成分をカットし、可視光成分を透過する。可視光線カットフィルタ112は、レンズユニット101を通過してイメージセンサ201に入射する光のうち主に可視光成分をカットし、赤外光成分を透過する。これらのフィルタ111、112は、信号処理ユニット301からの制御信号に基づいて、レンズユニット101の光軸106上への挿抜がそれぞれ独立に制御可能である。そして、一方のフィルタが光軸106上に対して挿入位置にあるときは他方のフィルタが待避位置にあるように排他的に制御される。また、いずれのフィルタも光軸106上に位置しない状態にも制御可能である。   The lens unit 101 includes a zoom lens 102 as an optical system, a focus lens 103, an aperture 104, a filter 105, and the like, and is controlled based on a control signal from the signal processing unit 301 so as to obtain an optimum image according to the subject. Be done. The filter 105 is provided on the optical path between the lens unit 101 and the image sensor 201 so as to be insertable into and removable from the optical axis 106 of the lens unit 101. The filter 105 includes an infrared cut filter 111 and a visible ray cut filter 112. The infrared cut filter 111 mainly cuts the infrared light component of the light passing through the lens unit 101 and entering the image sensor 201 and transmits the visible light component. The visible ray cut filter 112 mainly cuts a visible light component of the light passing through the lens unit 101 and entering the image sensor 201, and transmits an infrared light component. The insertion and removal of the lens unit 101 on the optical axis 106 can be independently controlled based on the control signal from the signal processing unit 301. When one of the filters is at the insertion position with respect to the optical axis 106, the other filter is exclusively controlled to be at the withdrawal position. In addition, any filter can be controlled in a state where it is not located on the optical axis 106.

イメージセンサ201は、CCDやCMOSなどの光電変換素子からなる画素がマトリクス状に配列された半導体集積回路チップからなる。イメージセンサ201は、主に可視光線(波長380〜780ナノメートル)に高い感度を有しており、各画素ごとに赤(R)、緑(G)、青(B)のいずれかに高い感度を有するが、赤外線(780ナノメートル以上)にもある程度の感度を有している。そのため、太陽光が存在する時間帯、および赤外線照明によって照らされている場所などの赤外線で明るい被写体については、可視光線カットフィルタ112が挿入された状態でも被写体を鮮明に撮像することができる。本実施形態のデジタルカメラ100はさらに、赤外線を投光するための赤外線照明401を備え、赤外線照明401を被写体に向けて照射して撮像を行うことで被写体の赤外線画像を取得することができる。   The image sensor 201 is formed of a semiconductor integrated circuit chip in which pixels made of photoelectric conversion elements such as CCDs or CMOSs are arranged in a matrix. The image sensor 201 has high sensitivity mainly to visible light (wavelength 380 to 780 nm), and high sensitivity to any of red (R), green (G) and blue (B) for each pixel. However, it also has some sensitivity to infrared light (780 nm or more). Therefore, for an object bright in infrared light such as a time zone in which sunlight is present and a place illuminated by infrared illumination, the object can be clearly imaged even in the state where the visible light cut filter 112 is inserted. The digital camera 100 according to the present embodiment further includes an infrared illumination 401 for projecting an infrared ray, and can emit an infrared illumination 401 toward the subject to capture an infrared image of the subject.

<信号処理ユニットの構成>次に、図2を参照して、信号処理ユニット301の内部構成について説明する。   <Configuration of Signal Processing Unit> Next, the internal configuration of the signal processing unit 301 will be described with reference to FIG.

図2において、イメージセンサ201により被写体像光を撮像して得られた画像信号は、信号処理ユニット301の画像処理部211によって画像処理され、JPEG形式の静止画ファイルやH.264などにより符号化された動画ファイルが生成される。画像処理部211が行う画像処理には、例えば、露出制御、ホワイトバランス制御、ガンマ補正などの処理が含まれ、信号処理ユニット301は、被写体に応じて最適な画像が生成されるように画像処理部211を制御する。また、信号処理ユニット301は、画像処理部211により最適な画像が生成されるように、レンズユニット制御部212によってレンズユニット101のズームレンズ102、フォーカスレンズ103、絞り104、およびフィルタ105を制御する。また、信号処理ユニット301は、撮像制御部213によってイメージセンサ201のゲイン、シャッタースピードの制御を同時に行う。例えば、被写体が明るい場合は絞り104を絞り、シャッタースピードを短く、センサゲインを小さくするように制御を行う。この場合、赤外線カットフィルタ111はレンズユニット101の光軸106上に挿入された位置に制御され、被写体像光のうち赤外線成分をカットすることで、撮像される画像の色再現性が高められる。被写体が暗くなってくると、絞り104を開き、シャッタースピードを長く、センサゲインを大きくするように制御を行う。さらに赤外線カットフィルタ111をレンズユニット101の光軸106上から退避させ、赤外線を含めた光を撮像することでより明るい画像を得ることができる。この場合、赤外線がイメージセンサ201に入射すると画像の色再現性が悪くなるため、通常は画像処理部211によるホワイトバランス制御を変更し、カラー画像ではなく白黒画像を出力する。赤外線カットフィルタ111の挿抜タイミングはレンズユニット101、イメージセンサ201、および画像処理部211での制御結果を用いて被写体の照度を推定演算することで、信号処理ユニット301が決定する。   In FIG. 2, an image signal obtained by capturing an object image light by the image sensor 201 is image-processed by the image processing unit 211 of the signal processing unit 301, and a still image file of JPEG format or H.264 is processed. A moving image file encoded by H.264 or the like is generated. The image processing performed by the image processing unit 211 includes, for example, processing such as exposure control, white balance control, and gamma correction, and the signal processing unit 301 performs image processing so as to generate an optimal image according to the subject. The unit 211 is controlled. Further, the signal processing unit 301 controls the zoom lens 102, the focus lens 103, the diaphragm 104, and the filter 105 of the lens unit 101 by the lens unit control unit 212 such that the image processing unit 211 generates an optimal image. . Further, the signal processing unit 301 simultaneously controls the gain of the image sensor 201 and the shutter speed by the imaging control unit 213. For example, when the subject is bright, control is performed to stop the aperture 104, shorten the shutter speed, and reduce the sensor gain. In this case, the infrared cut filter 111 is controlled to a position inserted on the optical axis 106 of the lens unit 101, and by cutting the infrared component of the object image light, the color reproducibility of the captured image is enhanced. When the subject becomes dark, the aperture 104 is opened, and the shutter speed is controlled so as to increase the sensor gain. Furthermore, a brighter image can be obtained by retracting the infrared cut filter 111 from the optical axis 106 of the lens unit 101 and capturing light including infrared light. In this case, when infrared light is incident on the image sensor 201, the color reproducibility of the image is degraded. Therefore, the white balance control by the image processing unit 211 is usually changed to output a black and white image instead of a color image. The signal processing unit 301 determines the insertion / extraction timing of the infrared cut filter 111 by estimating and calculating the illuminance of the object using the control results of the lens unit 101, the image sensor 201, and the image processing unit 211.

信号処理ユニット301はさらに、領域輝度算出部214と判定部215を備える。領域輝度算出部214は、画像処理部211により生成された画像を所定の大きさの複数の領域に分割し、分割された領域ごとに輝度平均値を算出する。判定部215は、領域輝度算出部214により算出された領域ごとの輝度平均値と基準値L0(例えば、250)を比較し、所定の閾値として定められた基準値L0より大きい場合、その領域内に高輝度被写体が存在すると判定する。これにより、画像内に車両のヘッドライトなどの高輝度被写体が存在するか否かを検出することができる。詳細な動作については後述する。   The signal processing unit 301 further includes an area luminance calculation unit 214 and a determination unit 215. The area luminance calculation unit 214 divides the image generated by the image processing unit 211 into a plurality of areas of a predetermined size, and calculates a luminance average value for each of the divided areas. The determination unit 215 compares the luminance average value for each area calculated by the area luminance calculation unit 214 with the reference value L0 (for example, 250), and if it is larger than the reference value L0 determined as the predetermined threshold, It is determined that a high brightness subject exists in the Thereby, it is possible to detect whether or not a high brightness object such as a headlight of a vehicle is present in the image. Detailed operations will be described later.

信号処理ユニット301はさらに、被写体検出部216を備える。被写体検出部216は、画像処理部211により生成された画像データに対して公知のパターンマッチングなどの方法により被写体検出処理を行って特徴量を抽出し、画像中に存在する所定の被写体を検出する。所定の被写体としては、例えば、車両のナンバープレートや、車両のドライバーあるいは通行人などの人物の顔である。これら被写体検出部216による検出結果は、被写体の特徴量に関する付加情報として画像ファイルに関連付けて格納されたり、あるいは、信号処理ユニット301の内部のメモリ219に記憶される。   The signal processing unit 301 further includes a subject detection unit 216. The subject detection unit 216 performs subject detection processing on the image data generated by the image processing unit 211 by a known method such as pattern matching to extract feature amounts, and detects a predetermined subject present in the image. . The predetermined subject is, for example, a license plate of a vehicle, a face of a person such as a driver of a vehicle or a passerby. The detection results by the subject detection unit 216 are stored as additional information related to the feature amount of the subject in association with the image file, or stored in the memory 219 in the signal processing unit 301.

メモリ219は、デジタルカメラに対して内蔵または外付け可能なハードディスクドライブやメモリーカードなどの記録媒体であってもよい。また、メモリ219に、外部出力される動画や静止画を記憶するように構成してもよい。   The memory 219 may be a recording medium such as a hard disk drive or a memory card which can be built in or externally attached to the digital camera. In addition, the memory 219 may be configured to store a moving image or a still image that is externally output.

信号処理ユニット301はさらに、通信制御部217を備える。通信制御部217は、画像処理部211で生成された画像データを無線や有線などのネットワークを介して外部に出力する。この場合、領域輝度算出部214による算出結果としての輝度平均値、判定部215による判定結果、または被写体検出部216による検出結果としての被写体の特徴量を制御情報として出力してもよい。さらに、デジタルカメラの各ブロックの制御状況として、フィルタ105の挿抜状態等も制御情報として出力してもよい。なお、通信制御部217を介してパソコン等の外部装置からデジタルカメラの各ブロックの制御用信号を受信するようにしてもよい。   The signal processing unit 301 further includes a communication control unit 217. The communication control unit 217 outputs the image data generated by the image processing unit 211 to the outside via a wireless or wired network. In this case, a luminance average value as a calculation result by the area luminance calculation unit 214, a determination result by the determination unit 215, or a feature amount of a subject as a detection result by the subject detection unit 216 may be output as control information. Furthermore, as the control status of each block of the digital camera, the insertion / removal state of the filter 105 may be output as control information. A control signal of each block of the digital camera may be received from an external device such as a personal computer via the communication control unit 217.

信号処理ユニット301はさらに、通信制御部217を備える。通信制御部217は、画像処理部211で生成された画像データを無線や有線などのネットワークを介して外部に出力する。この場合、被写体検出部216による検出結果としての被写体の特徴量を同時に出力してもよい。   The signal processing unit 301 further includes a communication control unit 217. The communication control unit 217 outputs the image data generated by the image processing unit 211 to the outside via a wireless or wired network. In this case, the feature amount of the subject as the detection result of the subject detection unit 216 may be simultaneously output.

信号処理ユニット301はさらに、照明制御部218を備える。照明制御部218は、赤外線照明401の点灯、消灯、および調光制御を行う。赤外線照明401を点灯させる場合は、レンズユニット制御部212により赤外線カットフィルタ111を光軸106上から退避させる。信号処理ユニット301は、上述した各部やメモリ219とバス220で接続されており、各種のデータをやり取りし各部を制御する。   The signal processing unit 301 further includes a lighting control unit 218. The illumination control unit 218 performs on / off control and dimming control of the infrared illumination 401. When the infrared illumination 401 is to be turned on, the infrared cut filter 111 is retracted from the optical axis 106 by the lens unit controller 212. The signal processing unit 301 is connected to the above-described units and the memory 219 via a bus 220, exchanges various data, and controls the units.

なお、図2に示す各部の1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPUなどのプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。よって、以下では、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現され得る。   Note that one or more of the units illustrated in FIG. 2 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by execution of software by a processor such as a CPU or an MPU. Good. Also, it may be realized by a combination of software and hardware. Therefore, in the following, even when different functional blocks are described as the operation subject, the same hardware may be realized as the subject.

<領域輝度算出部および判定部>次に、図3を参照して、信号処理ユニット301の領域輝度算出部214と判定部215による処理について説明する。   <Region Luminance Calculation Unit and Determination Unit> Next, processing by the region brightness calculation unit 214 and the determination unit 215 of the signal processing unit 301 will be described with reference to FIG.

画像処理部211によって生成された画像データの各画素値には、それぞれの画素が受光した光量情報が輝度情報として含まれている。図3(a)は、被写体の1つである車両Vがヘッドライトを点灯させたときの、画像処理部211によって生成された被写体の画像を示している。この画像に対して、領域輝度算出部214がまず図3(b)のようにNxMのマトリクス状に複数の領域に分割し、それぞれの領域について、領域内の画素値から輝度の平均値を算出する。N、Mはそれぞれ正の整数値であり、分割された領域が正方形、あるいは長方形になるように選択される。N、Mの値は画像のサイズによって変わるが、分割された領域の一辺が数十から数百画素程度になるように選択することが望ましい。N、Mの値はカメラの画角によっても異なり、広角で撮影している場合は被写体が画面内で小さく映ることが多いため、数値は小さいほうが好ましい。反対に、望遠側で撮影している場合は被写体が大きく映ることが多いため、数値は大きいほうが好ましい。   Each pixel value of the image data generated by the image processing unit 211 includes light amount information received by each pixel as luminance information. FIG. 3A shows an image of the subject generated by the image processing unit 211 when the vehicle V, which is one of the subjects, turns on the headlights. For this image, the area brightness calculation unit 214 first divides the image into a plurality of areas in an NxM matrix as shown in FIG. 3B, and calculates the average value of the brightness from the pixel values in the areas for each area. Do. N and M are positive integers, respectively, and the divided regions are selected to be square or rectangular. Although the values of N and M vary depending on the size of the image, it is desirable to select one side of the divided area to be several tens to several hundreds of pixels. The values of N and M differ depending on the angle of view of the camera, and when photographing at a wide angle, it is preferable that the numerical value be small because the subject often appears small in the screen. On the other hand, when photographing on the telephoto side, the subject is likely to appear large, so it is preferable that the numerical value be large.

上記のように分割された各領域について、横方向i番目、縦方向j番目の位置(i,j)の輝度平均値をLij(i=1,2,…N、j=1,2,…M)とする。その後、それぞれの領域の輝度平均値Lijに対して、判定部215が予め定められた基準値L0と比較を行い、比較した領域の輝度値が基準値L0よりも明るい場合に、位置(i,j)に高輝度被写体が存在すると判定する。この基準値L0としては、画像内の画素の輝度値が飽和するときの値、もしくはそれに近い値が用いられ、輝度値が8ビットの場合は10進数で200〜255程度の値が用いられるのが好ましい。   For each region divided as described above, the luminance average value of the i-th position in the horizontal direction and the j-th position in the vertical direction (i, j) is Li j (i = 1, 2,... N, j = 1, 2,. M). Thereafter, the determination unit 215 compares the luminance average value Lij of each area with a predetermined reference value L0, and if the luminance value of the compared area is brighter than the reference value L0, the position (i, It is determined that a high brightness subject exists in j). As the reference value L0, a value when the luminance value of the pixel in the image is saturated or a value close thereto is used, and when the luminance value is 8 bits, a value of about 200 to 255 in decimal is used. Is preferred.

判定部215により高輝度被写体が存在すると判定された場合に、信号処理ユニット301はレンズユニット制御部212を制御して可視光線カットフィルタ112をレンズユニット101の光軸106上に挿入する。このようにして、被写体像光のうち可視光成分をカットして赤外線成分のみの画像を得ることができる。なお、本実施形態において、高輝度被写体として想定している車両Vのヘッドライトは近年、消費電力や発光効率の面からLEDやHIDランプなど、可視光線を多く発光するものが多く用いられるようになっている。このような光源は、赤外線波長領域については可視光線ほど明るくないため、画像の白飛びが発生しにくくなる。このような状況で、赤外線カットフィルタ111をレンズユニット101の光軸106上に挿入した場合は、被写体像光のうち赤外線波長領域もイメージセンサ201に入射されない。このため、可視光線カットフィルタ112の挿入タイミングとほぼ同時に赤外線カットフィルタ111を光軸106上から退避させる。   When the determination unit 215 determines that a high brightness object is present, the signal processing unit 301 controls the lens unit control unit 212 to insert the visible ray cut filter 112 on the optical axis 106 of the lens unit 101. In this way, it is possible to obtain the image of only the infrared component by cutting the visible light component of the object image light. In the present embodiment, the headlights of the vehicle V assumed as a high brightness object are often used in recent years from the viewpoint of power consumption and light emission efficiency such as LEDs and HID lamps that emit a large amount of visible light. It has become. Such a light source is not as bright as visible light in the infrared wavelength region, and therefore it is difficult for whiteout of the image to occur. In such a situation, when the infrared cut filter 111 is inserted on the optical axis 106 of the lens unit 101, the infrared wavelength region of the object image light is not incident on the image sensor 201. Therefore, the infrared cut filter 111 is retracted from the optical axis 106 substantially simultaneously with the insertion timing of the visible light cut filter 112.

なお、可視光線カットフィルタ112を頻繁に挿抜させると、輝度やホワイトバランスがその都度変化するため、監視画像の見栄えが悪くなる。そこで、被写体検出部216が所定の被写体を検出している場合のみ挿抜するように制御してもよい。   Note that if the visible ray cut filter 112 is frequently inserted and removed, the brightness and the white balance change each time, and the appearance of the monitoring image is degraded. Therefore, control may be performed so as to insert and remove only when the subject detection unit 216 detects a predetermined subject.

図4(a1)、(a2)は、撮像された画像内に街灯Gなどの光源が存在する場合を例示し、図4(b1)、(b2)は、図4(a1)、(a2)の画像から高輝度被写体を判定する方法を例示している。図4(a1)、(a2)の画像において、判定部215が車両V1、V2のヘッドライトのみについて高輝度被写体と判定することを想定して、複数枚の画像を連続して撮影し、それぞれの画像から検出された被写体の位置情報をメモリ219に記憶する。そして、メモリ219に記憶される被写体の位置情報が変化しているか否かを検出することで、例えば、連続する画像において、図4(a1)の車両V1と図4(a2)の車両V2のように高輝度被写体が移動していることを判定できる。   FIGS. 4 (a1) and 4 (a2) illustrate the case where a light source such as a street lamp G is present in the captured image, and FIGS. 4 (b1) and 4 (b2) illustrate FIGS. 4 (a1) and 4 (a2). A method of determining a high luminance object from the image of FIG. Assuming that the determination unit 215 determines that only the headlights of the vehicles V1 and V2 are high-brightness objects in the images of FIGS. 4 (a1) and 4 (a2), a plurality of images are continuously photographed, The position information of the subject detected from the image of is stored in the memory 219. Then, by detecting whether or not the position information of the subject stored in the memory 219 has changed, for example, in a continuous image, the vehicle V1 of FIG. 4 (a1) and the vehicle V2 of FIG. 4 (a2) Thus, it can be determined that the high brightness subject is moving.

次に、レンズユニット101の光軸106上に可視光線カットフィルタ112が挿入された場合のデジタルカメラ100の動作について説明する。   Next, the operation of the digital camera 100 when the visible ray cut filter 112 is inserted on the optical axis 106 of the lens unit 101 will be described.

可視光線カットフィルタ112がレンズユニット101の光軸106上に挿入されると、被写体像光のうち赤外線成分しか撮像されないため、一般的に暗くなってしまう。そのため、赤外線照明401を点灯させることにより被写体像を明るくすることが望ましい。   When the visible ray cut filter 112 is inserted on the optical axis 106 of the lens unit 101, only the infrared component is imaged in the object image light, and therefore the image is generally dark. Therefore, it is desirable to light the subject image by turning on the infrared light 401.

また、可視光線カットフィルタ112を挿入すると、イメージセンサ201に可視光成分が入射されなくなるため、被写体の可視光線の波長領域での明るさが不明となり、高輝度被写体が存在するか否かを判定できなくなってしまう可能性がある。そこで、本実施形態では、可視光線カットフィルタ112を挿入した後、所定の時間(数秒〜数100秒程度)が経過したら、再度可視光線カットフィルタ112を退避させ、可視光成分がイメージセンサ201に入射するように制御する。また、被写体検出部216により所定の被写体が検出されなくなった後、所定の時間が経過した場合に可視光線カットフィルタ112を退避させるようにしてもよい。また、照度センサのような被写体の照度が検出可能なセンサを用いてもよい。   In addition, when the visible light cut filter 112 is inserted, the visible light component is not incident on the image sensor 201, so the brightness in the wavelength region of the visible light of the subject becomes unknown, and it is determined whether a high brightness subject exists. It may not be possible. Therefore, in the present embodiment, when a predetermined time (about several seconds to several hundred seconds) elapses after the visible light cut filter 112 is inserted, the visible light cut filter 112 is retracted again, and the visible light component is sent to the image sensor 201. Control to be incident. Alternatively, the visible ray cut filter 112 may be retracted when a predetermined time has elapsed after a predetermined subject is not detected by the subject detection unit 216. Alternatively, a sensor such as an illuminance sensor capable of detecting the illuminance of the subject may be used.

<動作説明>次に、図1、図2及び図5を参照して、本実施形態のデジタルカメラ100の監視カメラモードにおけるフィルタの挿抜制御について説明する。本実施形態のデジタルカメラ100は、画像処理部211が1920x1080画素のJPEG形式の画像データを生成し、通信制御部217から逐次外部出力するものとする。   <Description of Operation> Next, filter insertion / removal control in the monitoring camera mode of the digital camera 100 according to the present embodiment will be described with reference to FIGS. 1, 2 and 5. FIG. In the digital camera 100 of the present embodiment, the image processing unit 211 generates image data of JPEG format in 1920 × 1080 pixels, and sequentially outputs the image data from the communication control unit 217 to the outside.

なお、図5の処理は、メモリ219に格納されたプログラムを読み出して信号処理ユニット301の各部が実行することにより実現される。また、図5の処理は、デジタルカメラ100が監視カメラモードに設定され、画像が撮像され、外部出力されるときに実行される。後述する図6及び図7についても同様である。   The process of FIG. 5 is realized by reading out the program stored in the memory 219 and executing each part of the signal processing unit 301. The process in FIG. 5 is executed when the digital camera 100 is set to the surveillance camera mode, an image is captured, and the image is output to the outside. The same applies to FIGS. 6 and 7 described later.

ステップS501では、領域輝度算出部214は、画像処理部211によって生成された画像データを取得する。   In step S501, the area brightness calculation unit 214 acquires the image data generated by the image processing unit 211.

ステップS502では、領域輝度算出部214は、画像処理部211から得た画像データを60x60ピクセルごとの領域に分割し、それぞれの領域の平均輝度値を算出する。また、領域輝度算出部214は、それぞれの領域の輝度平均値をメモリ219に記憶する。   In step S502, the area luminance calculation unit 214 divides the image data obtained from the image processing unit 211 into areas of 60 × 60 pixels, and calculates the average luminance value of each area. In addition, the area luminance calculation unit 214 stores the average luminance value of each area in the memory 219.

ステップS503では、判定部215は、ステップS502にて領域輝度算出部214により算出された領域ごとの輝度平均値を所定の閾値である基準値L0と比較する。比較の結果、基準値L0より大きい領域が1つでもある場合はステップS504に進み、ない場合はステップS501に戻る。   In step S503, the determination unit 215 compares the average brightness value for each area calculated by the area brightness calculation unit 214 in step S502 with a reference value L0 which is a predetermined threshold. As a result of comparison, if there is at least one area larger than the reference value L0, the process proceeds to step S504, and if not, the process returns to step S501.

ステップS504では、判定部215は、ステップS503で平均輝度値が基準値L0より大きい領域の位置を高輝度被写体が存在する位置情報としてメモリ219に記憶する。   In step S504, in step S503, the determination unit 215 stores the position of the area where the average luminance value is larger than the reference value L0 in the memory 219 as position information where the high luminance object is present.

ステップS505では、レンズユニット制御部212は、赤外線カットフィルタ111がレンズユニット101の光軸106上に存在する場合は光軸106上から退避させ、可視光線カットフィルタ112をレンズユニット101の光軸106上に挿入する。   In step S505, when the infrared cut filter 111 is present on the optical axis 106 of the lens unit 101, the lens unit control unit 212 retracts the visible light cut filter 112 from the optical axis 106 of the lens unit 101. Insert on top.

ステップS506、S507では、レンズユニット制御部212は、所定の時間(例えば、30秒)が経過するまで待機した後、可視光線カットフィルタ112を再度レンズユニット101の光軸106上から退避させ、ステップS501に戻る。   In steps S506 and S507, the lens unit control unit 212 stands by until a predetermined time (for example, 30 seconds) elapses, and then retracts the visible ray cut filter 112 from the optical axis 106 of the lens unit 101 again. It returns to S501.

以上のように赤外線カットフィルタと可視光線カットフィルタの挿抜を制御することで、高輝度被写体による白飛びを防止しつつ時間帯や被写体に応じて最適な画像を自動で撮影できる。例えば、監視カメラや車載カメラにより夜間の撮影を行う場合に、ヘッドライトなどの光に含まれる可視光成分は可視光カットフィルタによって減光されるので、ヘッドライトの影響を抑え、ナンバープレートを画像上で認識できるようになる。   As described above, by controlling the insertion and removal of the infrared cut filter and the visible light cut filter, it is possible to automatically shoot an optimal image according to the time zone and the subject while preventing the whiteout due to the high brightness subject. For example, when photographing at night with a surveillance camera or a car-mounted camera, visible light components contained in light such as headlights are reduced by the visible light cut filter, so the influence of the headlights is suppressed and the license plate is It will be recognizable above.

[実施形態2}次に、図1、図2及び図6を参照して、実施形態2のデジタルカメラ100の監視カメラモードにおけるフィルタの挿抜制御について説明する。   Second Embodiment Next, filter insertion / removal control in the monitoring camera mode of the digital camera 100 according to the second embodiment will be described with reference to FIGS. 1, 2 and 6. FIG.

本実施形態を実現するデジタルカメラ100の構成は、実施形態1の図1及び図2と同様であり、画像処理部211が1920x1080画素のJPEGフォーマットの画像データを生成し、通信制御部217から連続して外部出力するものとする。   The configuration of the digital camera 100 for realizing the present embodiment is the same as that of FIG. 1 and FIG. 2 of the first embodiment, and the image processing unit 211 generates image data of JPEG format of 1920 × 1080 pixels. Output externally.

なお、図6のステップS601〜S604は、図5のステップS501〜S504と同様の処理を行うため説明を省略し、相違点を中心に説明する。   Steps S601 to S604 in FIG. 6 are the same as steps S501 to S504 in FIG. 5, so the description thereof is omitted, and differences will be mainly described.

ステップS605では、判定部215は、2以上の連続する画像について、高輝度被写体の位置情報がメモリ219に記憶されているか判定し、記憶されている場合はステップS606に進み、記憶されていない場合はステップS601に戻る。   In step S605, the determination unit 215 determines whether or not the position information of the high-brightness subject is stored in the memory 219 for two or more consecutive images. If it is stored, the process proceeds to step S606, and if it is not stored Returns to step S601.

ステップS606では、判定部215は、メモリ219に記憶されている2以上の画像における高輝度被写体の位置情報を比較する。比較した各画像の高輝度被写体の位置情報が所定の距離の範囲内で隣接している場合は、高輝度被写体が移動していると判定してステップS607に進み、移動していると判定されない場合はステップS601に戻る。   In step S <b> 606, the determination unit 215 compares position information of high-brightness subjects in two or more images stored in the memory 219. If the position information of the high-brightness object of each of the compared images is adjacent within a predetermined distance range, it is determined that the high-brightness subject is moving, and the process proceeds to step S607 and it is not determined that it is moving. In the case, the process returns to step S601.

ステップS607〜S609は、図5のステップS505〜S506と同様の処理を行う。   Steps S607 to S609 perform the same processing as steps S505 to S506 in FIG.

以上のように、本実施形態によれば、実施形態1の効果に加えて、移動している高輝度被写体のみに対してフィルタ制御を実施することができる。   As described above, according to the present embodiment, in addition to the effects of the first embodiment, filter control can be performed only on a moving high-brightness subject.

[実施形態3]次に、図1、図2及び図7を参照して、実施形態3のデジタルカメラ100の監視カメラモードにおけるフィルタの挿抜制御について説明する。   [Third Embodiment] Next, filter insertion / removal control in the monitoring camera mode of the digital camera 100 according to the third embodiment will be described with reference to FIGS. 1, 2 and 7. FIG.

本実施形態を実現するデジタルカメラ100の構成も、実施形態1の図1及び図2と同様であり、画像処理部211が1920x1080画素のJPEGフォーマットの画像データを生成し、通信制御部217から連続して外部出力するものとする。また、被写体検出部216が所定の被写体として車両のナンバープレートを検出するものとする。   The configuration of the digital camera 100 for realizing the present embodiment is also the same as in FIGS. 1 and 2 of the first embodiment, and the image processing unit 211 generates image data of JPEG format of 1920 × 1080 pixels, and the communication control unit 217 continuously Output externally. Further, it is assumed that the subject detection unit 216 detects a license plate of a vehicle as a predetermined subject.

なお、図7のステップS701〜S705は、図5のステップS501〜S505と同様の処理を行うため説明を省略し、相違点を中心に説明する。   Steps S701 to S705 in FIG. 7 are the same as steps S501 to S505 in FIG. 5 and thus the description thereof is omitted, and differences will be mainly described.

ステップS706では、被写体検出部216は、画像処理部211により生成された画像から所定の被写体として車両のナンバープレートが検出されたか否かを判定し、検出された場合はステップS707に進み、検出されない場合はステップS708に進む。   In step S706, the subject detection unit 216 determines whether the license plate of the vehicle is detected as a predetermined subject from the image generated by the image processing unit 211. If it is detected, the process proceeds to step S707 and is not detected. In the case, the process proceeds to step S 708.

ステップS707では、レンズユニット制御部212は、所定の時間(例えば、30秒)が経過するまで待機する。   In step S 707, the lens unit control unit 212 stands by until a predetermined time (for example, 30 seconds) elapses.

ステップS708では、レンズユニット制御部212は、可視光線カットフィルタ112を再度レンズユニット101の光軸106上から退避して、ステップS701に戻る。   In step S708, the lens unit control unit 212 retracts the visible ray cut filter 112 from the optical axis 106 of the lens unit 101 again, and the process returns to step S701.

以上のように、本実施形態によれば、実施形態1の効果に加えて、所定の高輝度被写体を検出している間は、可視光線カットフィルタの挿入を継続し、検出されなくなった場合に退避させることができる。   As described above, according to the present embodiment, in addition to the effects of the first embodiment, the insertion of the visible ray cut filter is continued while the predetermined high-brightness object is detected, and the detection is no longer performed. It can be evacuated.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

101…レンズユニット、111…赤外線カットフィルタ、112…可視光線カットフィルタ、201…イメージセンサ、211…画像処理部、212…レンズユニット制御部、214…領域輝度算出部、215…判定部、216…被写体検出部、219…メモリ、301…信号処理ユニット DESCRIPTION OF SYMBOLS 101 ... Lens unit, 111 ... Infrared cut filter, 112 ... Visible light ray cut filter, 201 ... Image sensor, 211 ... Image processing part, 212 ... Lens unit control part, 214 ... Area brightness calculation part, 215 ... Determination part, 216 ... Subject detection unit, 219 ... memory, 301 ... signal processing unit

Claims (12)

画像を撮像する撮像手段と、
前記撮像手段に導かれる被写体像光のうち赤外光成分をカットする第1のフィルタ手段と、
前記撮像手段に導かれる被写体像光のうち可視光成分をカットする第2のフィルタ手段と、
前記撮像手段により撮像された画像から所定の被写体を検出する被写体検出手段と、
前記撮像手段により撮像された画像を複数の領域に分割し、分割された領域ごとに輝度の平均値を算出する算出手段と、
前記輝度の平均値が所定の基準値より大きいか否かを判定する判定手段と、
前記判定手段の判定結果及び前記被写体検出手段により検出された被写体の検出結果に応じて、被写体像光を前記撮像手段に導く光路上に対して、前記第1のフィルタ手段及び前記第2のフィルタ手段を挿抜させるように制御する制御手段と、を有することを特徴とする撮像装置。
Imaging means for capturing an image;
First filter means for cutting an infrared light component of subject image light guided to the imaging means;
Second filter means for cutting visible light components of subject image light guided to the imaging means;
A subject detection unit that detects a predetermined subject from an image captured by the imaging unit;
Calculating means for dividing an image captured by the imaging means into a plurality of areas and calculating an average value of luminance for each of the divided areas;
A determination unit that determines whether the average value of the brightness is larger than a predetermined reference value;
Depending on the determination means a determination result and the object detected by the object detection unit detected result, with respect to the optical path for guiding the subject image light to the image pickup means, said first filter means and the second filter An image pickup apparatus comprising: control means for controlling the insertion and removal of the means.
前記制御手段は、前記輝の平均値が前記所定の基準値より大きい場合には、前記第1のフィルタ手段を光路上から退避させ、前記第2のフィルタ手段を光路上に挿入させるように制御することを特徴とする請求項1に記載の撮像装置。 Wherein when the average value before Kiteru degree is greater than the predetermined reference value, said first filter means is retracted from the optical path, so as to insert the second filter means in the optical path The image pickup apparatus according to claim 1, wherein the image pickup apparatus is controlled to 前記輝度の平均値が前記所定の基準値よりも大きい領域の位置情報を記憶する記憶手段を更に有し、
前記制御手段は、2以上の連続する画像について、前記判定手段により輝度の平均値が所定の基準値よりも大きいと判定された領域の位置情報が隣接している場合、前記第1のフィルタ手段を光路上から退避させ、前記第2のフィルタ手段を光路上に挿入するように制御することを特徴とする請求項1または2に記載の撮像装置。
It further comprises storage means for storing position information of an area where the average value of the brightness is larger than the predetermined reference value,
The control means is configured to perform the first filter means when position information of an area in which it is determined that the average value of luminance is larger than a predetermined reference value is adjacent to each other for two or more consecutive images. 3. The image pickup apparatus according to claim 1, wherein the second filter means is controlled to be inserted into the optical path.
前記制御手段は、前記第2のフィルタ手段を光路上に挿入してから所定の時間が経過した後に当該第2のフィルタ手段を光路上から退避させるように制御することを特徴とする請求項1ないしのいずれか1項に記載の撮像装置。 The control means is controlled to retract the second filter means from the optical path after a predetermined time has elapsed since the second filter means was inserted into the optical path. The imaging device according to any one of to 3 . 前記制御手段は、前記被写体検出手段により所定の被写体が検出されなくなった場合、前記第2のフィルタ手段を光路上から退避させるように制御することを特徴とする請求項1ないし4のいずれか1項に記載の撮像装置。   5. The control method according to any one of claims 1 to 4, wherein, when the predetermined object is not detected by the object detection unit, the control unit causes the second filter unit to retract from the light path. An imaging device according to item 5. 前記被写体検出手段は、前記所定の被写体として車両のナンバープレートを検出することを特徴とする請求項に記載の撮像装置。 6. The image pickup apparatus according to claim 5 , wherein the subject detection unit detects a license plate of a vehicle as the predetermined subject. 前記被写体検出手段は、前記所定の被写体として人物の顔を検出することを特徴とする請求項に記載の撮像装置。 6. The image pickup apparatus according to claim 5 , wherein the subject detection unit detects a face of a person as the predetermined subject. 前記第1のフィルタ手段及び前記第2のフィルタ手段は、前記撮像手段と被写体像を結像させる光学系との間の光路上に挿抜可能に設けられていることを特徴とする請求項1ないしのいずれか1項に記載の撮像装置。 The first filter means and the second filter means are detachably provided on an optical path between the imaging means and an optical system for forming an image of a subject. The imaging device according to any one of 7 . 前記撮像手段で撮像した画像を外部装置に出力するための通信手段を更に備え、
前記通信手段は、前記判定手段の判定結果または前記被写体検出手段の検出結果を含む制御情報を画像と共に出力することを特徴とする請求項1ないしのいずれか1項に記載の撮像装置。
The apparatus further comprises communication means for outputting an image captured by the imaging means to an external device,
The image pickup apparatus according to any one of claims 1 to 8 , wherein the communication unit outputs control information including a determination result of the determination unit or a detection result of the subject detection unit together with an image.
画像を撮像する撮像手段と、前記撮像手段に導かれる被写体像光のうち赤外光成分をカットする第1のフィルタ手段と、前記撮像手段に導かれる被写体像光のうち可視光成分をカットする第2のフィルタ手段と、を有する撮像装置の制御方法であって、
前記撮像手段により撮像された画像から所定の被写体を検出するステップと、
前記撮像手段により撮像された画像を複数の領域に分割し、分割された領域ごとに輝度の平均値を算出するステップと、
前記輝度の平均値が所定の基準値より大きいか否かを判定するステップと、
前記判定の結果及び記被写体の検出結果に応じて、被写体像光を前記撮像手段に導く光路上に対して、前記第1のフィルタ手段及び前記第2のフィルタ手段を挿抜させるように制御するステップと、を有することを特徴とする撮像装置の制御方法。
An imaging means for picking up an image; a first filter means for cutting an infrared light component of the subject image light guided to the imaging means; and a visible light component for the object image light guided to the imaging means A control method of an image pickup apparatus having a second filter unit,
Detecting a predetermined subject from an image captured by the imaging unit;
Dividing an image captured by the imaging unit into a plurality of regions, and calculating an average value of luminance for each of the divided regions;
Determining whether the average value of the brightness is greater than a predetermined reference value;
Depending on the detection result of the result of the determination and before Symbol the Utsushitai, to light path for guiding the subject image light to the imaging means, so as to insertion of said first filter means and said second filter means And controlling the image pickup apparatus.
請求項10に記載の撮像装置の制御方法をコンピュータに実行させるためのプログラム。 The program for making a computer perform the control method of the imaging device of Claim 10 . 請求項10に記載の撮像装置の制御方法をコンピュータに実行させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer readable storage medium storing a program for causing a computer to execute the method of controlling an imaging device according to claim 10 .
JP2015102275A 2015-05-19 2015-05-19 Imaging device, control method therefor, program, and storage medium Active JP6525723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015102275A JP6525723B2 (en) 2015-05-19 2015-05-19 Imaging device, control method therefor, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015102275A JP6525723B2 (en) 2015-05-19 2015-05-19 Imaging device, control method therefor, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2016220002A JP2016220002A (en) 2016-12-22
JP6525723B2 true JP6525723B2 (en) 2019-06-05

Family

ID=57581769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015102275A Active JP6525723B2 (en) 2015-05-19 2015-05-19 Imaging device, control method therefor, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6525723B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11812158B2 (en) 2020-12-15 2023-11-07 Canon Kabushiki Kaisha Image capture device having control to insert or remove filter, control method, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11240439B2 (en) 2018-12-20 2022-02-01 Canon Kabushiki Kaisha Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158820A (en) * 2005-12-06 2007-06-21 Fujitsu Ten Ltd Photographing control device
JP2007212745A (en) * 2006-02-09 2007-08-23 Canon Inc Light control filter
JP2010073009A (en) * 2008-09-19 2010-04-02 Denso Corp Image processing apparatus
JP2012159658A (en) * 2011-01-31 2012-08-23 Daishinku Corp Optical filter module, and optical filter system
JP6214178B2 (en) * 2013-01-25 2017-10-18 キヤノン株式会社 IMAGING DEVICE, CLIENT DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, CLIENT DEVICE CONTROL METHOD, AND IMAGING SYSTEM CONTROL METHOD

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11812158B2 (en) 2020-12-15 2023-11-07 Canon Kabushiki Kaisha Image capture device having control to insert or remove filter, control method, and storage medium

Also Published As

Publication number Publication date
JP2016220002A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
JP5832855B2 (en) Image processing apparatus, imaging apparatus, and image processing program
KR100698483B1 (en) Image capture apparatus and control method therefor
CN101213828B (en) Method and apparatus for incorporating iris color in red-eye correction
JP2008079143A (en) White balance correction method and imaging apparatus
JP5071198B2 (en) Signal recognition device, signal recognition method, and signal recognition program
WO2012093519A1 (en) Imaging device and light emission amount control method
JP2007124292A (en) Imaging apparatus, imaging method, and imaging program
JP5681589B2 (en) Imaging apparatus and image processing method
JP2017063245A (en) Imaging device
JP5036334B2 (en) Imaging apparatus, imaging method, and program for causing computer to execute the method
JP6525723B2 (en) Imaging device, control method therefor, program, and storage medium
JP7057818B2 (en) Low light imaging system
KR100878491B1 (en) Camera monitor system and method for controling the same
JP2004289786A (en) Imaging apparatus
JP3985005B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD
JP4523629B2 (en) Imaging device
JP5316923B2 (en) Imaging apparatus and program thereof
JP6478138B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2012010282A (en) Imaging device, exposure control method, and exposure control program
KR101615381B1 (en) Image acquisition method and digital camera system
JP2009124309A (en) Image device
JP2009063674A (en) Imaging apparatus and flash control method
TWI629552B (en) Camera device and image management system
JP2015126455A5 (en)
JP2013132065A (en) Imaging apparatus and flash control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151