JP2020101624A - Imaging apparatus, electronic apparatus, and control method and program of imaging apparatus - Google Patents

Imaging apparatus, electronic apparatus, and control method and program of imaging apparatus Download PDF

Info

Publication number
JP2020101624A
JP2020101624A JP2018238629A JP2018238629A JP2020101624A JP 2020101624 A JP2020101624 A JP 2020101624A JP 2018238629 A JP2018238629 A JP 2018238629A JP 2018238629 A JP2018238629 A JP 2018238629A JP 2020101624 A JP2020101624 A JP 2020101624A
Authority
JP
Japan
Prior art keywords
image data
light
halation
image
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018238629A
Other languages
Japanese (ja)
Other versions
JP7278764B2 (en
Inventor
純也 水谷
Junya Mizutani
純也 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018238629A priority Critical patent/JP7278764B2/en
Priority to US16/708,992 priority patent/US11240439B2/en
Priority to EP19217578.4A priority patent/EP3671552A1/en
Publication of JP2020101624A publication Critical patent/JP2020101624A/en
Application granted granted Critical
Publication of JP7278764B2 publication Critical patent/JP7278764B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To effectively suppress influence of halation without depending on a type of a light source.SOLUTION: An imaging apparatus comprises: an imaging element that receives incident light including infrared wavelength light; and control means that performs control to increase an irradiation light amount of infrared light irradiated on a subject when halation generated in image data is detected on the basis of luminance information of the image data obtained from the imaging element.SELECTED DRAWING: Figure 3

Description

本発明は、ハレーションの影響を抑制する制御を行う撮像装置、電子機器、撮像装置の制御方法およびプログラムに関する。 The present invention relates to an image pickup apparatus, an electronic device, a control method for an image pickup apparatus, and a program that perform control for suppressing the influence of halation.

カメラを用いて低照度(低輝度)な環境で被写体を撮像する場合に、高照度な光がカメラに入射すると、光源の撮像位置の周囲に光が漏れ出て撮像されるハレーションという現象が生じる。ハレーションは、高輝度な入射光が撮像素子に結像して撮像素子で電荷が過剰に発生することにより、周囲の画素に伝搬することにより生じる。ハレーションが生じた画像は、被写体の視認性低下といった画像の画質劣化が問題となっている。例えば、夜間において公道を監視するカメラを用いた被写体の撮像を行う場合に、画像にハレーションが発生することがある。夜間においては、車はヘッドライトを点灯していることから、周囲の環境光とヘッドライトの光とで大きなコントラストを生じるため、この状態で被写体を撮像することで、車のヘッドライトの周囲にハレーションが生じた画像が得られる。そして、ハレーションが生じた画像では、車の外観や車番等の視認性が低下する。 When a subject is imaged in a low-illuminance (low-luminance) environment using a camera, if high-illumination light enters the camera, light leaks out around the image capturing position of the light source, causing a phenomenon called halation. .. Halation occurs when high-intensity incident light forms an image on the image sensor and excessive charges are generated in the image sensor, and propagates to surrounding pixels. An image with halation has a problem of deterioration in image quality such as deterioration of visibility of a subject. For example, halation may occur in an image when a subject is imaged using a camera that monitors a public road at night. At night, the headlights of the car are turned on, so there is a large contrast between the ambient light and the light of the headlights. An image with halation is obtained. Then, in the image with halation, the visibility of the appearance of the vehicle, the vehicle number, etc. is reduced.

関連する技術として、赤外線カットフィルタと可視光線カットフィルタの挿抜を制御する技術が提案されている(特許文献1を参照)。 As a related technique, a technique of controlling insertion/removal of an infrared cut filter and a visible light cut filter has been proposed (see Patent Document 1).

特開2016−220002号公報JP, 2016-220002, A

例えば、車のヘッドライトには、赤外波長域の光を多く含む光を照射するハロゲン灯が使用されることが多い。ハロゲン灯が光源となっている場合、カメラの光路に赤外線カットフィルタを挿入したとしても、カメラには赤外波長域の光を多く含む光がカメラに入射する。このため、特許文献1で提案されている技術であっても、上述したような状況では、カメラを用いて被写体を撮像することで得られた画像に対するハレーションの影響を抑制することが難しい。 For example, a halogen lamp that emits light containing a large amount of light in the infrared wavelength range is often used for a vehicle headlight. When a halogen lamp is used as the light source, even if an infrared cut filter is inserted in the optical path of the camera, light containing much light in the infrared wavelength range enters the camera. Therefore, even with the technique proposed in Patent Document 1, it is difficult to suppress the influence of halation on an image obtained by capturing an image of a subject using the camera in the situation described above.

本発明の目的は、光源の種類に依存することなく、ハレーションの影響を効果的に抑制することである。 An object of the present invention is to effectively suppress the effect of halation regardless of the type of light source.

上記目的を達成するために、本発明の撮像装置は、赤外波長の光を含む入射光を受光する撮像素子と、前記撮像素子から得られる画像データの輝度情報に基づいて、当該画像データに生じるハレーションを検出した場合、被写体に照射する赤外光の照射光量を増加させる制御を行う制御手段と、を備えることを特徴とする。 In order to achieve the above object, the image pickup device of the present invention, based on the brightness information of the image data obtained from the image sensor and the image sensor that receives the incident light including the light of the infrared wavelength, to the image data When the generated halation is detected, the control means for controlling the irradiation light amount of the infrared light with which the subject is irradiated is increased.

本発明によれば、光源の種類に依存することなく、ハレーションの影響を効果的に抑制することができる。 According to the present invention, the influence of halation can be effectively suppressed without depending on the type of light source.

第1の実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 1st Embodiment. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging|photography part. 第1の実施形態の処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of a 1st embodiment. ハレーションが発生しているかの判定処理の流れを示すフローチャートである。It is a flow chart which shows the flow of judgment processing whether halation has occurred. 輝度の勾配および画素空間の一例を示す図である。It is a figure which shows an example of a gradient of brightness and a pixel space. 第2の実施形態の処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of a 2nd embodiment. 第3の実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 3rd Embodiment.

以下、本発明の各実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施の形態に記載されている構成によって限定されることはない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in each of the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in each of the embodiments.

<第1の実施形態>
図1は、第1の実施形態に係る撮像装置100の構成例を示す図である。撮像装置100は、撮影部101、補助記憶装置102、照明部103、制御部104、データ通信部105および表示部106を有する。以下、撮像装置100は、公道監視を行うカメラに適用されるものとして説明する。撮像装置100は、無人運用の公道監視カメラであってもよい。ただし、撮像装置100は、公道監視以外の用途に用いられてもよい。また、撮像装置100は、動画撮影を行うものとして説明するが、撮像装置100は、静止画撮影を行ってもよい。撮像装置100が公道監視を行うカメラに適用される場合、被写体としては、車の外観や車番(ナンバープレート)等が想定される。例えば、夜間等の照度(輝度)が低い環境下で、撮像装置100が公道監視を行う場合、ハロゲン灯を光源とする車のヘッドライトにより、撮像装置100が被写体を撮像することで得た画像にハレーションが発生することがある。画像に対してヘッドライトによるハレーションの影響があると、車の外観や車番等の視認性が低下し、画像から車の外観や車番等を判別することが難しくなる。以下、撮像装置100は、赤外波長の照明光の照射量を制御することにより、画像に対するハレーションの発生を抑制する例について説明する。なお、撮像装置100は、公道監視を行うカメラ以外の撮像装置に適用されてもよい。
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of the image pickup apparatus 100 according to the first embodiment. The image pickup apparatus 100 includes a photographing unit 101, an auxiliary storage device 102, an illumination unit 103, a control unit 104, a data communication unit 105, and a display unit 106. Hereinafter, the imaging device 100 will be described as being applied to a camera that performs public road monitoring. The imaging device 100 may be an unmanned public road surveillance camera. However, the imaging device 100 may be used for purposes other than public road monitoring. Further, although the image capturing apparatus 100 is described as performing moving image capturing, the image capturing apparatus 100 may perform still image capturing. When the imaging device 100 is applied to a camera that monitors public roads, the appearance of a vehicle, a vehicle number (license plate), or the like is assumed as a subject. For example, when the image capturing apparatus 100 performs public road monitoring in an environment with low illuminance (luminance) such as at night, an image obtained by the image capturing apparatus 100 capturing a subject with a headlight of a car using a halogen lamp as a light source Halation may occur. If the image is affected by the halation of the headlight, the visibility of the appearance of the car, the vehicle number, etc. is deteriorated, and it becomes difficult to determine the appearance, the vehicle number, etc. of the vehicle from the image. Hereinafter, an example in which the imaging apparatus 100 suppresses the occurrence of halation on an image by controlling the irradiation amount of illumination light having an infrared wavelength will be described. The image capturing apparatus 100 may be applied to an image capturing apparatus other than a camera that monitors public roads.

図1では、撮像装置100が、照明部103、制御部104および表示部106を有している例を示すが、照明部103、制御部104および表示部106は、撮像装置100とは別途の装置として設けられてもよい。例えば、照明部103は、撮像装置100と接続される外部の照明装置であってもよい。また、表示部106は、撮像装置100のデータ通信部105と有線または無線で接続される外部の表示装置であってもよい。また、制御部104も、撮像装置100とは別途の外部装置(例えば、パーソナルコンピュータ等)として設けられてもよい。この場合、制御部104の機能を有する外部装置(電子機器)は、撮像装置100と通信を行い、実施形態の各種の制御を行う。 1 illustrates an example in which the imaging device 100 includes the illumination unit 103, the control unit 104, and the display unit 106, the illumination unit 103, the control unit 104, and the display unit 106 are separate from the imaging device 100. It may be provided as a device. For example, the lighting unit 103 may be an external lighting device connected to the imaging device 100. The display unit 106 may be an external display device that is connected to the data communication unit 105 of the image capturing apparatus 100 by wire or wirelessly. The control unit 104 may also be provided as an external device (for example, a personal computer or the like) separate from the imaging device 100. In this case, an external device (electronic device) having the function of the control unit 104 communicates with the imaging device 100 and performs various controls of the embodiment.

図2は、撮影部101の構成例を示す図である。撮影部101は、制御部104の制御により動作する。撮影部101は、ズームレンズ201、フォーカスレンズ202、絞りユニット203、光学フィルタ204、撮像素子205、AGC206およびA/D変換機207を有する。また、撮影部101は、カメラ信号処理部208、カメラ信号送信部209、ズーム駆動部210、フォーカス駆動部211および撮像制御部212を有する。図2において、点線で示される矢印は光であることを示し、実線で示される矢印は信号線であることを示す。撮影部101には撮像対象からの入射光が入射し、撮影部101は、入射光をデジタル信号として出力する。撮像制御部212は、カメラ信号処理部208、ズーム駆動部210およびフォーカス駆動部211を制御する。 FIG. 2 is a diagram illustrating a configuration example of the image capturing unit 101. The image capturing unit 101 operates under the control of the control unit 104. The image capturing unit 101 includes a zoom lens 201, a focus lens 202, a diaphragm unit 203, an optical filter 204, an image sensor 205, an AGC 206, and an A/D converter 207. The image capturing unit 101 also includes a camera signal processing unit 208, a camera signal transmitting unit 209, a zoom driving unit 210, a focus driving unit 211, and an imaging control unit 212. In FIG. 2, an arrow indicated by a dotted line indicates light, and an arrow indicated by a solid line indicates a signal line. Incident light from the imaging target is incident on the imaging unit 101, and the imaging unit 101 outputs the incident light as a digital signal. The imaging control unit 212 controls the camera signal processing unit 208, the zoom drive unit 210, and the focus drive unit 211.

ズーム駆動部210は、ズームレンズ201を撮像光路上で前後に動かすことで、入射光に対して、光学的な拡大・縮小の制御を行う。フォーカス駆動部211は、フォーカスレンズ202を撮像光路上で前後に動かすことで、入射光に対する合焦制御を行う。ズームレンズ201とフォーカスレンズ202とを透過した光は、絞りユニット203によって露光量が調節される。絞りユニット203により露光量が調節された光は、光学フィルタ204を透過する。そして、光学フィルタ204を透過した光が撮像素子205で撮像される。本実施形態の光学フィルタ204は、可視光の波長域の光をカットする可視光カットフィルタであるものとして説明する。この場合、撮像素子205に入射する光は、赤外波長の光である。ただし、光学フィルタ204は、可視光カットフィルタには限定されない。例えば、光学フィルタ204は、全ての波長域の光を透過するダミーガラスであってもよい。また、光学フィルタ204は、撮像光路に対して挿抜可能であってもよい。この場合、所定の挿抜機構が、撮像光路に対する光学フィルタ204の挿抜制御を行う。例えば、光学フィルタ204が赤外波長の光をカットするIRカットフィルタであってもよく、この場合、挿抜機構は、撮像光路から光学フィルタ204としてのIRカットフィルタを抜去する。 The zoom driving section 210 controls the optical enlargement/reduction of incident light by moving the zoom lens 201 back and forth on the imaging optical path. The focus drive section 211 moves the focus lens 202 back and forth on the image pickup optical path to perform focus control for incident light. The exposure amount of the light transmitted through the zoom lens 201 and the focus lens 202 is adjusted by the diaphragm unit 203. The light whose exposure amount has been adjusted by the diaphragm unit 203 passes through the optical filter 204. Then, the light transmitted through the optical filter 204 is captured by the image sensor 205. The optical filter 204 of this embodiment will be described as a visible light cut filter that cuts light in the visible light wavelength range. In this case, the light incident on the image sensor 205 is light having an infrared wavelength. However, the optical filter 204 is not limited to the visible light cut filter. For example, the optical filter 204 may be dummy glass that transmits light in all wavelength bands. Further, the optical filter 204 may be insertable into and removable from the imaging optical path. In this case, a predetermined insertion/removal mechanism controls insertion/removal of the optical filter 204 with respect to the imaging optical path. For example, the optical filter 204 may be an IR cut filter that cuts light having an infrared wavelength, and in this case, the insertion/removal mechanism removes the IR cut filter as the optical filter 204 from the imaging optical path.

撮像素子205で撮像された光は、アナログ信号に変換されて、AGC(オートゲインコントロール)206によって電気的に増幅処理がされる。A/D変換機207は、増幅処理がされたアナログ信号をデジタル信号に変換する。カメラ信号処理部208は、A/D変換機207が出力したデジタル信号に対して、デモザイキング等の現像処理を施す。これにより、デジタル画像が形成される。カメラ信号送信部209は、形成されたデジタル画像を補助記憶装置102や外部の装置等に送信する。 The light imaged by the image pickup element 205 is converted into an analog signal and electrically amplified by an AGC (auto gain control) 206. The A/D converter 207 converts the amplified analog signal into a digital signal. The camera signal processing unit 208 performs development processing such as demosaicing on the digital signal output by the A/D converter 207. As a result, a digital image is formed. The camera signal transmission unit 209 transmits the formed digital image to the auxiliary storage device 102, an external device, or the like.

補助記憶装置102には、上述したデジタル画像や撮影部101の内部の状態を表す各種評価値、制御部104からの命令等が記憶される。各種評価値は、ズームレンズ201、フォーカスレンズ202、絞りユニット203および光学フィルタ204の状態を表す。補助記憶装置102に記憶される情報は、制御部104のRAM112に記憶されてもよい。また、制御部104からの命令は、画質補正や被写体に対する検出処理等を含む。ここで画質補正は、輝度ヒストグラムの状態に応じてγカーブを変更する処理や推定EV値に応じて彩度を変更する処理等、被写体の画質を良好にするための画像補正処理である。γカーブを変更する処理としては、例えば、輝度ヒストグラムが所定の割合で低輝度側に偏っていた場合に、高輝度側にγカーブをシフトさせる処理を適用できる。推定EV値に応じて彩度を変更する処理としては、推定EV値が所定の値より低い場合に、彩度を落とす処理を適用できる。EV値は、明るさの指標となる値に対応する。一方、検出処理は、少なくともハレーション現象を検出する処理である。照明部103は、撮影部101で撮像される撮影環境の明るさが低照度である場合(所定照度以下の場合)、または制御部104がハレーションを検出した場合、制御部104の制御により、照射光量を増加する。以下、照明部103は、赤外光を照射するものとして説明する。 The auxiliary storage device 102 stores the above-described digital image, various evaluation values indicating the internal state of the photographing unit 101, a command from the control unit 104, and the like. The various evaluation values represent the states of the zoom lens 201, the focus lens 202, the diaphragm unit 203, and the optical filter 204. The information stored in the auxiliary storage device 102 may be stored in the RAM 112 of the control unit 104. The command from the control unit 104 includes image quality correction, detection processing for a subject, and the like. Here, the image quality correction is an image correction process for improving the image quality of the subject such as a process of changing the γ curve according to the state of the luminance histogram and a process of changing the saturation according to the estimated EV value. As the process of changing the γ curve, for example, a process of shifting the γ curve to the high brightness side when the brightness histogram is biased to the low brightness side at a predetermined ratio can be applied. As the process of changing the saturation according to the estimated EV value, a process of reducing the saturation when the estimated EV value is lower than a predetermined value can be applied. The EV value corresponds to a value serving as an index of brightness. On the other hand, the detection process is a process of detecting at least the halation phenomenon. The illumination unit 103 emits light under the control of the control unit 104 when the brightness of the shooting environment imaged by the shooting unit 101 is low illuminance (when the illuminance is equal to or lower than a predetermined illuminance) or when the control unit 104 detects halation. Increase the amount of light. Hereinafter, the illumination unit 103 will be described as irradiating infrared light.

図1に示される制御部104は、各種の制御を行う。制御部104は、CPU111、RAM112およびROM113を有する。制御部104の機能は、ROM1113に格納された制御プログラムがRAM112に展開され、RAM112に展開された制御プログラムCPU111が実行することにより実現されてもよい。本実施形態では、制御部104は、補助記憶装置102に一時記憶された画像データを参照してハレーションを検出した場合に、照明部103の照射光量を制御する。また、制御部104は、撮影部101の状態および補助記憶装置102に一時記憶された画像データを評価して、撮影環境のEV値を推定し、推定結果に応じて、撮影部101の露光量を制御する。また、制御部104は、補助記憶装置102に一時記憶された画像に対して画質補正を施す。データ通信部105は、補助記憶装置102が出力した画像データを入力として、入力された画像データを表示部106に送信する。例えば、表示部106が、撮像装置100に内蔵されておらず、撮像装置100の外部に設置された装置である場合、データ通信部105は、補助記憶装置102と表示部106との間で、有線または無線により通信を行う。表示部106は、データ通信部105から出力された画像データを入力として、画像データを表示する。これにより、表示部106は、ユーザに被写体の画像を提示することができる。表示部106に入力された画像データが制御部104により圧縮されたデータである場合には、表示部106は、表示前に画像データに対して解凍処理を施す。 The control unit 104 shown in FIG. 1 performs various controls. The control unit 104 has a CPU 111, a RAM 112 and a ROM 113. The function of the control unit 104 may be realized by expanding the control program stored in the ROM 1113 in the RAM 112 and executing the control program CPU 111 expanded in the RAM 112. In the present embodiment, the control unit 104 controls the irradiation light amount of the illumination unit 103 when the halation is detected by referring to the image data temporarily stored in the auxiliary storage device 102. Further, the control unit 104 evaluates the state of the photographing unit 101 and the image data temporarily stored in the auxiliary storage device 102 to estimate the EV value of the photographing environment, and according to the estimation result, the exposure amount of the photographing unit 101. To control. The control unit 104 also performs image quality correction on the image temporarily stored in the auxiliary storage device 102. The data communication unit 105 receives the image data output from the auxiliary storage device 102 as an input and transmits the input image data to the display unit 106. For example, when the display unit 106 is a device that is not built in the image pickup apparatus 100 and is installed outside the image pickup apparatus 100, the data communication unit 105 causes the auxiliary storage device 102 and the display unit 106 to perform It communicates by wire or wirelessly. The display unit 106 receives the image data output from the data communication unit 105 and displays the image data. Accordingly, the display unit 106 can present the image of the subject to the user. When the image data input to the display unit 106 is data compressed by the control unit 104, the display unit 106 performs decompression processing on the image data before displaying.

次に、図3のフローチャートを参照して、本実施形態の処理の流れについて説明する。本実施形態では、照明部103が赤外光を照射することによって、撮影環境の照度を高める。上述したように、撮像装置100が、公道監視のために被写体を撮像する場合、車の運転者に対して視覚的に負荷を与えないため、照明部103は、赤外光として、例えば、近赤外波長の光を照射する。最初に、撮像光路上に光学フィルタ204として可視光カットフィルタが設置される(S301)。例えば、撮像装置100が可視光カットフィルタの挿抜機構を有している場合、当該挿抜機構が、光学フィルタ204としての可視光カットフィルタを撮像光路上に挿入する。可視光カットフィルタは、任意の手法により撮像光路上に設置されてよい。可視光カットフィルタが撮像光路上に設置されることで、撮像素子205に入射する光は、赤外波長の光になる。これにより、ハレーションが発生したとしても、ハレーションによる画像データへの影響度が低減される。 Next, the flow of processing according to the present embodiment will be described with reference to the flowchart in FIG. In the present embodiment, the illumination unit 103 emits infrared light to increase the illuminance of the shooting environment. As described above, when the image capturing apparatus 100 captures an image of a subject for monitoring public roads, the illumination unit 103 does not visually impose a load on the driver of the vehicle. Irradiate light of infrared wavelength. First, a visible light cut filter is installed as the optical filter 204 on the imaging optical path (S301). For example, when the imaging device 100 has a visible light cut filter insertion/removal mechanism, the insertion/removal mechanism inserts the visible light cut filter as the optical filter 204 into the imaging optical path. The visible light cut filter may be installed on the imaging optical path by any method. Since the visible light cut filter is installed on the image pickup optical path, the light incident on the image pickup element 205 becomes light having an infrared wavelength. As a result, even if halation occurs, the degree of influence of halation on image data is reduced.

制御部104は、ハレーションが発生していない撮影環境において、撮影環境を良好な明るさで撮像可能となる十分な光量を、第1の光量として照明部103に設定して、照明部103に照射させる(S302)。撮影部101は、制御部104の制御により、所定の測光方式によって、撮影シーンを測光する(S303)。測光方式は、ユーザが任意に設定することができる。撮影部101は、適正露出となる第1のシャッタースピードを設定する(S304)。制御部104は、後述のハレーションの強度を評価するために、ハレーションが発生していないシーンにおける露光量の状態および取得された画像データの輝度情報に基づいて、撮影環境のEV値を推定し、補助記憶装置102に記憶する(S305)。なお、本実施形態では、APEX(ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE)システムに基づいて露出や輝度(照度)の明るさを定義する。例えば、露出に関する1EVと2EVとの差は、APEXシステムにおける露出の1段分の明るさの違いに相当する。そして、制御部104は、ハレーションが発生しているかを判定する(S306)。S306でYesと判定された場合、ハレーションが検出される。S306でNoと判定された場合、ハレーションは検出されない。 The control unit 104 sets, as the first light amount, the illumination unit 103 with a sufficient amount of light that allows the imaging environment to be imaged with good brightness in an imaging environment in which halation does not occur, and irradiates the illumination unit 103. (S302). Under the control of the control unit 104, the photographing unit 101 measures the photographing scene by a predetermined photometric method (S303). The photometric method can be arbitrarily set by the user. The image capturing unit 101 sets the first shutter speed that provides the proper exposure (S304). In order to evaluate the intensity of halation described below, the control unit 104 estimates the EV value of the shooting environment based on the state of the exposure amount in the scene where halation does not occur and the brightness information of the acquired image data, The data is stored in the auxiliary storage device 102 (S305). In this embodiment, the brightness of the exposure and the brightness (illuminance) is defined based on the APEX (ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE) system. For example, the difference between 1EV and 2EV regarding exposure corresponds to the difference in brightness for one step of exposure in the APEX system. Then, the control unit 104 determines whether halation has occurred (S306). If Yes is determined in S306, halation is detected. If the determination in S306 is No, halation is not detected.

ハレーションが発生しているかの判定処理(S306の処理)について、図4のフローチャートを参照して、説明する。制御部104は、推定EV値が所定の閾値以上であるかを判定する(S401)。所定の閾値は、任意に設定されてよい。例えば、所定の閾値は、経験則から予め設定される値であってもよい。また、所定の閾値は、前回に取得された画像データにおける推定EV値からの変化量についての値であってもよい。例えば、一定の推定EV値が連続した場合、制御部104は、所定の閾値に、一定の推定EV値を設定してもよい。 The process of determining whether halation has occurred (the process of S306) will be described with reference to the flowchart of FIG. The control unit 104 determines whether the estimated EV value is greater than or equal to a predetermined threshold value (S401). The predetermined threshold may be set arbitrarily. For example, the predetermined threshold value may be a value preset based on an empirical rule. Further, the predetermined threshold value may be a value regarding the amount of change from the estimated EV value in the image data acquired last time. For example, when the constant estimated EV value continues, the control unit 104 may set the constant estimated EV value to a predetermined threshold value.

S401でYesと判定された場合、制御部104は、取得された画像データに、第1の輝度閾値以上の輝度が存在するかを判定する(S402)。第1の輝度閾値は、白とび等の高輝度な領域をフィルタリングするための閾値である。第1の輝度閾値は、任意の値に設定されてよい。例えば、第1の輝度閾値は、経験則から得られる任意の値であってよい。 When it is determined as Yes in S401, the control unit 104 determines whether or not the acquired image data has a brightness equal to or higher than the first brightness threshold value (S402). The first brightness threshold value is a threshold value for filtering a high brightness area such as blown-out highlights. The first brightness threshold may be set to any value. For example, the first brightness threshold may be any value obtained from a rule of thumb.

S402でYesと判定された場合、画像データに高輝度領域(第1の輝度領域)が存在するため、ハレーションが発生している可能性がある。この場合、制御部104は、第1の輝度領域の周囲に、第2の輝度領域が分布しているかを判定する(S403)。第2の輝度領域は、第1の輝度閾値より低い第2の輝度閾値以上の輝度の領域である。第2の輝度閾値以上の輝度は、ハレーション現象における高輝度領域の周囲に撮像される、撮像素子205での電荷漏れに起因する輝度であることを示す。つまり、第2の輝度閾値は、ハレーションによる電荷漏れを示す輝度である。第2の輝度分布の輝度は、第1の輝度分布の輝度より低い。画像データに、第1の輝度領域に隣接する形で第2の輝度領域が分布している場合、S403でYesと判定される。S403でYesと判定された場合、ハレーションが発生している可能性が高いため、制御部104は、ハレーションが発生していると判定する(S404)。 If Yes is determined in S402, there is a high-luminance region (first luminance region) in the image data, and thus halation may occur. In this case, the control unit 104 determines whether the second luminance area is distributed around the first luminance area (S403). The second brightness area is an area having a brightness equal to or higher than the second brightness threshold value lower than the first brightness threshold value. The brightness equal to or higher than the second brightness threshold indicates that the brightness is due to the charge leakage in the image sensor 205, which is imaged around the high brightness region in the halation phenomenon. That is, the second brightness threshold value is a brightness value indicating charge leakage due to halation. The brightness of the second brightness distribution is lower than the brightness of the first brightness distribution. When the second luminance region is distributed in the image data so as to be adjacent to the first luminance region, the determination in S403 is Yes. If Yes is determined in S403, there is a high possibility that halation is occurring, so the control unit 104 determines that halation is occurring (S404).

一方、S401、S402またはS403の何れかでNoと判定された場合、ハレーションが発生している可能性は低い。この場合、制御部104は、ハレーションが発生していないと判定する(S405)。以上により、画像データの輝度情報に基づいて、ハレーションが発生しているかが判定される。 On the other hand, if No is determined in any of S401, S402, or S403, it is unlikely that halation has occurred. In this case, the control unit 104 determines that halation has not occurred (S405). As described above, whether halation has occurred is determined based on the brightness information of the image data.

図5は、輝度の勾配および画素空間の一例を示す図である。図5(A)は、図5(B)における勾配抽出行の輝度の勾配を示す。図5(B)は、画像データの画素空間を示す。図5(A)に示されるように、輝度の勾配の中心付近における輝度は、第1の輝度閾値以上である。よって、S402でYesと判定される。また、図5(B)に示されるように、第1の輝度領域の近傍に第2の輝度領域が分布している。よって、S403でYesと判定される。従って、推定EV値が所定の閾値以上であれば、制御部104は、ハレーションが発生していると判定する。 FIG. 5 is a diagram showing an example of a brightness gradient and a pixel space. FIG. 5(A) shows the luminance gradient of the gradient extraction row in FIG. 5(B). FIG. 5B shows a pixel space of image data. As shown in FIG. 5A, the brightness near the center of the brightness gradient is equal to or higher than the first brightness threshold value. Therefore, Yes is determined in S402. Further, as shown in FIG. 5B, the second brightness area is distributed in the vicinity of the first brightness area. Therefore, Yes is determined in S403. Therefore, if the estimated EV value is greater than or equal to the predetermined threshold value, the control unit 104 determines that halation has occurred.

上述したハレーションが発生したかの判定処理により、ハレーションが発生したと判定された場合、図3のS306でYesと判定される。この場合、制御部104は、補助記憶装置102に一時記憶された1つ前の画像データ(1つ前のフレーム)を参照する。そして、制御部104は、時間的に異なる1つ前のフレームと、現在のフレーム(取得された画像データ)とを比較することで、動き領域を検出する(S307)。そして、制御部104は、ハレーションの強度を評価する(S308)。S308およびS309の処理は、ハレーションを抑制するために充分な照射光量(第2の光量)を導出する処理である。本実施形態では、制御部104は、以下の数式(1)に示されるように、現在の推定EV値と過去に記憶した推定EV値との差分によって評価する。 When it is determined that the halation has occurred by the above-described processing for determining whether the halation has occurred, it is determined as Yes in S306 of FIG. In this case, the control unit 104 refers to the previous image data (previous frame) temporarily stored in the auxiliary storage device 102. Then, the control unit 104 detects the motion area by comparing the immediately previous frame temporally different from the current frame (acquired image data) (S307). Then, the control unit 104 evaluates the intensity of halation (S308). The processes of S308 and S309 are processes of deriving a sufficient irradiation light amount (second light amount) to suppress halation. In the present embodiment, the control unit 104 evaluates the difference between the current estimated EV value and the estimated EV value stored in the past, as shown in the following mathematical expression (1).

Figure 2020101624
Figure 2020101624

以上の数式(1)において、「dev」は差分である。「ev」は、現在の推定EV値である。「evpre」は、過去の推定EV値である。差分「dev」は、ハレーションの強度を評価する指標である。ハレーションの強度は、上記の手法以外の手法により評価されてもよい。例えば、図5における第1の輝度領域と第2の輝度領域との面積比により、ハレーションの強度が評価されてもよい。 In the above formula (1), “d ev ”is a difference. “Ev” is the current estimated EV value. “Ev pre ” is an estimated EV value in the past. The difference “d ev ”is an index for evaluating the intensity of halation. The intensity of halation may be evaluated by a method other than the above method. For example, the intensity of halation may be evaluated based on the area ratio between the first luminance region and the second luminance region in FIG.

制御部104は、評価されたハレーションの強度に応じた、ハレーションを抑制するための第2の光量を、以下の数式(2)から導出する(S309)。 The control unit 104 derives a second light amount for suppressing halation according to the evaluated intensity of halation from the following mathematical expression (2) (S309).

Figure 2020101624
Figure 2020101624

以上の数式(2)において、「l」は、ハレーションを抑制するための第2の光量である。「mhal」は、ハレーションの判定結果を意味するマスクパラメータであり、0または1の値を取る。「a」は、撮影シーンに応じて調節される調節パラメータで、0以上の値を取る。「dev」は、上述した評価されたハレーションの強度の値である。「lmax」は、照明部103の最大許容照射光量である。「ldef」は、ハレーションの判定がされていないときの照明部103の照射光量であり、第1の光量に対応する。制御部104は、照明部103に上述した第2の光量「l」を設定し、照明部103に当該第2の光量「l」の赤外光を照射させる(S310)。上述した数式(2)により得られる第2の光量は、第1の光量よりも大きい。従って、ハレーションが発生したと判定された場合、照明部103からの照射光量は増加する。 In the above mathematical expression (2), “l 2 ”is the second light amount for suppressing halation. “ M hal ”is a mask parameter that means the result of halation determination, and takes a value of 0 or 1. “A” is an adjustment parameter adjusted according to the shooting scene and takes a value of 0 or more. “D ev ”is a value of the intensity of the evaluated halation described above. “L max ”is the maximum allowable irradiation light amount of the illumination unit 103. “L def ”is the irradiation light amount of the illumination unit 103 when the halation is not determined, and corresponds to the first light amount. The control unit 104 sets the above-described second light amount “l 2 ”to the illumination unit 103 and causes the illumination unit 103 to irradiate the second light amount “l 2 ”infrared light (S310). The second light amount obtained by the above-described mathematical expression (2) is larger than the first light amount. Therefore, when it is determined that halation has occurred, the irradiation light amount from the illumination unit 103 increases.

撮影部101の撮像制御部212は、照明部103からの光の照射に連動して、露出調整を行う。撮像制御部212は、測光する領域をS307で検出された動き領域に限定して、被写体に露出が合うように測光する制御を行う(S311)。また、撮像制御部212は、シャッタースピードを制御して、動き被写体が適正露出となるための第2のシャッタースピードを設定する(S312)。以上の処理でハレーションを抑制した画像データが取得される。S306でYesと判定された場合、S307〜S312の処理が行われることで、照明部103からの照射光量は増加する。一方、S306でNoと判定された場合、ハレーションが発生していないと判定されるため、S307〜S312の処理は行われない。なお、上述したように、S311において、動き領域に限定して、被写体に露出が合うように測光する制御が行われるが、動き領域が検出されなくなった場合、所定の測光方式に自動的に設定されてもよい。所定の測光方式は、中央重点と全体平均とスポット測光との何れかであってよい。また、ユーザは、これらの測光方式から任意の測光方式を設定することができる。 The imaging control unit 212 of the image capturing unit 101 adjusts the exposure in conjunction with the irradiation of light from the illumination unit 103. The imaging control unit 212 limits the photometric region to the moving region detected in S307, and performs photometric control so that the subject is exposed appropriately (S311). In addition, the imaging control unit 212 controls the shutter speed to set the second shutter speed for achieving the proper exposure of the moving subject (S312). Image data in which halation is suppressed is acquired by the above processing. When it is determined to be Yes in S306, the amount of light emitted from the illumination unit 103 is increased by performing the processes of S307 to S312. On the other hand, if it is determined No in S306, it is determined that halation has not occurred, so the processes of S307 to S312 are not performed. As described above, in S311, control is performed so that photometry is performed so that the subject is exposed to light only in the moving area. However, when the moving area is no longer detected, a predetermined metering method is automatically set. May be done. The predetermined photometric method may be any of center-weighted, overall average, and spot metering. Further, the user can set an arbitrary photometric method from these photometric methods.

制御部104は、S312の処理の後、またはS306でNoと判定された場合、画像データに対して、画質を向上させる補正を施す(S313)。これにより、1フレームの画像データの処理が終了する。データ通信部105は、補助記憶装置102に一時記憶された画像データ(現在フレーム)を取得し、表示部106に送信する(S314)。表示部106は、現在フレームを表示する(S315)。これにより、現在フレームをユーザに提示することができる。 After the process of S312 or when the result of determination in S306 is No, the control unit 104 performs correction for improving the image quality of the image data (S313). This completes the processing of one frame of image data. The data communication unit 105 acquires the image data (current frame) temporarily stored in the auxiliary storage device 102 and transmits it to the display unit 106 (S314). The display unit 106 displays the current frame (S315). As a result, the current frame can be presented to the user.

例えば、撮像装置100が被写体を撮像することで得た画像に、ハロゲン灯を光源とする車のヘッドライトが映り込むと、ハロゲン灯は、LEDとは異なり、赤外波長の光を多く含むため、画像データにハレーションによる影響が生じる。画像データにハレーションによる影響が生じていると、ハレーションが発生しているヘッドライトの領域ではなく、車の外観や車番等の領域の視認性が低下する。これにより、ユーザは、表示部106に表示された画像データから車の外観や車番等を判別することが難しくなる。そこで、制御部104は、S306でハレーションが発生していると判定した場合には、照明部103が照射する赤外光の光量を、第1の光量から第2の光量に増加させる。これにより、撮像装置100が、大きな光量の赤外波長の光を受光したことに起因してハレーションが発生したとしても、照明部103が照射する赤外光の光量が増加するため、ハレーションの影響を抑制することができる。従って、画像データを取得する際にハレーションによる影響が生じていたとしても、表示部106に表示される画像データの車の外観や車番等の視認性が向上する。以上により、光源の種類に依存することなく、画像に発生したハレーションの影響を抑制することができるができる。また、S306においてハレーションの発生が検出されない場合、赤外光の光量は増加しない。これにより、常に光量の大きい赤外光を照射している場合と比較して、赤外光の照射のために消費される電力を低減させることができる。 For example, when a headlight of a car that uses a halogen lamp as a light source is reflected in an image obtained by the imaging device 100 capturing an object, the halogen lamp includes a large amount of light having an infrared wavelength, unlike an LED. , Image data is affected by halation. When the image data is affected by halation, the visibility of the area such as the appearance of the car or the vehicle number is reduced, not the area of the headlight where the halation is occurring. This makes it difficult for the user to determine the appearance, vehicle number, etc. of the vehicle from the image data displayed on the display unit 106. Therefore, when the control unit 104 determines that halation has occurred in S306, the control unit 104 increases the amount of infrared light emitted by the illumination unit 103 from the first amount of light to the second amount of light. As a result, even if halation occurs due to the image pickup apparatus 100 receiving a large amount of light having an infrared wavelength, the amount of infrared light emitted by the illumination unit 103 increases, so that the effect of halation occurs. Can be suppressed. Therefore, even if the halation influences when the image data is acquired, the visibility of the vehicle appearance, vehicle number, etc. of the image data displayed on the display unit 106 is improved. As described above, it is possible to suppress the influence of halation generated in the image, regardless of the type of light source. Further, when the occurrence of halation is not detected in S306, the light amount of infrared light does not increase. As a result, it is possible to reduce the power consumed for the irradiation of infrared light, as compared with the case where infrared light having a large amount of light is always irradiated.

ここで、ハレーションが発生しているときには画像データの輝度が高くなるが、ハレーションが発生しているときとハレーションが発生していないときとで、画像データの全体または一部の平均輝度は同等になる可能性もある。第1の実施形態では、制御部104は、単に平均輝度に基づいて照明部103による赤外光の照射光量を増加させているのではなく、S306でYesと判定された場合に、赤外光の照射光量を増加させている。つまり、制御部104は、図4のS403でYesと判定された場合に、赤外光の照射光量を増加させている。この点は、以下の第2の実施形態および第3の実施形態も同様である。 Here, the brightness of the image data increases when halation occurs, but the average brightness of all or part of the image data is the same when halation occurs and when halation does not occur. There is also a possibility. In the first embodiment, the control unit 104 does not increase the irradiation light amount of infrared light by the illumination unit 103 simply based on the average luminance, but if the determination in S306 is Yes, the infrared light is not emitted. The irradiation light amount of is increased. That is, the control unit 104 increases the irradiation light amount of infrared light when it is determined Yes in S403 of FIG. In this respect, the following second and third embodiments are also the same.

<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態の撮像装置100の構成は、第1の実施形態と同様である。第2の実施形態の撮像装置100の制御部104は、所定の被写体を検出する機能を有する。制御部104は、画像データから所定の被写体を検出し、検出された被写体の領域に枠を設定する等の強調処理を施す。制御部104は、所定の被写体の領域に強調領域が施された画像データを、表示部106に表示させる。これにより、ユーザに対して、被写体の視認性の高い画像を提示することができる。例えば、撮像装置100が、公道監視に適用される場合、所定の被写体は、車の外観や車番、人体、顔等であることが想定される。所定の被写体としては、動き被写体であることが想定されるが、静止している被写体であってもよい。車のヘッドライト等により、撮像装置100が撮像した画像データにハレーションの影響が生じている場合、所定の被写体の視認性が低下する。第2の実施形態の撮像装置100は、画像データに含まれる所定の被写体を検出し、所定の被写体の領域を強調表示させる制御を行う。これにより、ユーザの利便性が向上する。
<Second Embodiment>
Next, a second embodiment will be described. The configuration of the imaging device 100 of the second embodiment is the same as that of the first embodiment. The control unit 104 of the image pickup apparatus 100 according to the second embodiment has a function of detecting a predetermined subject. The control unit 104 detects a predetermined subject from the image data and performs an emphasis process such as setting a frame in the detected region of the subject. The control unit 104 causes the display unit 106 to display image data in which a region of a predetermined subject is highlighted. As a result, it is possible to present the user with an image with high visibility of the subject. For example, when the imaging device 100 is applied to public road monitoring, it is assumed that the predetermined subject is the appearance of the vehicle, the vehicle number, the human body, the face, or the like. The predetermined subject is assumed to be a moving subject, but may be a still subject. When the image data captured by the image capturing apparatus 100 is affected by halation due to a vehicle headlight or the like, the visibility of a predetermined subject is reduced. The image capturing apparatus 100 according to the second embodiment performs control to detect a predetermined subject included in image data and highlight a region of the predetermined subject. This improves the convenience for the user.

図6は、第2の実施形態の処理の流れを示すフローチャートである。S601からS612までは、第1の実施形態と同様であるため、説明を省略する。制御部104は、補助記憶装置102に一時記憶された1つ前の画像データ(1つ前のフレーム)を参照する。そして、制御部104は、時間的に異なる1つ前のフレームと、現在のフレーム(取得された画像データ)とを比較することで、動きベクトルを検出する(S613)。動きベクトルの検出手法には、任意の手法を適用できる。例えば、動きベクトルの検出手法として、オプティカルフローやブロックマッチング等を適用できる。これらの動きベクトルの検出手法を適用した場合、制御部104は、画像データを小領域ごとに分割して、画像データ間で同じ画素値を有する小領域を探索し、小領域を対応付けて、小領域間の距離と方向とを検出する。 FIG. 6 is a flowchart showing the flow of processing of the second embodiment. Since steps S601 to S612 are the same as those in the first embodiment, description thereof will be omitted. The control unit 104 refers to the previous image data (previous frame) temporarily stored in the auxiliary storage device 102. Then, the control unit 104 detects a motion vector by comparing the immediately preceding frame that is temporally different from the current frame (acquired image data) (S613). Any method can be applied to the motion vector detection method. For example, optical flow, block matching, or the like can be applied as a motion vector detection method. When these motion vector detection methods are applied, the control unit 104 divides the image data into small areas, searches for small areas having the same pixel value between the image data, and associates the small areas with each other. The distance and direction between the small areas are detected.

制御部104は、S613で得られた動きベクトルから、動きベクトルの大きさを動き被写体の撮像におけるブレ量と仮定して、動きベクトルの大きさに応じて、動きブレを抑制する第3のシャッタースピードを導出する。そして、制御部104は、導出された第3のシャッタースピードを設定する(S614)。第3のシャッタースピードは、以下の数式(3)により導出することができる。 The control unit 104 assumes the magnitude of the motion vector from the motion vector obtained in S613 as the amount of blur in the imaging of the moving subject, and controls the third shutter to suppress the motion blur according to the magnitude of the motion vector. Derive the speed. Then, the control unit 104 sets the derived third shutter speed (S614). The third shutter speed can be derived by the following mathematical expression (3).

Figure 2020101624
Figure 2020101624

以上の数式(3)において、「S」は第3のシャッタースピードである。「f」は、第3のシャッタースピードを導出するときのフレームレートである。「v」は、検出された動きベクトルである。「n」は、許容パラメータである。 In the above formula (3), “S 3 ”is the third shutter speed. “F r ”is a frame rate when deriving the third shutter speed. “V” is the detected motion vector. “N” is an allowable parameter.

制御部104は、S614でシャッタースピードを制御したことに起因して変化した露光量に対して、照明部103からの照射光量(第3の光量)を導出する。S614でシャッタースピードが第3のシャッタースピードに設定されたことで、露光量が低下する。第3の光量は、動き領域が再び適正露出となるような光量である。そして、制御部104は、導出された第3の光量を照明部103の照射光量に設定し、照明部103から第3の光量で赤外光を照射させる制御を行う(S615)。第3の光量の導出は、以下の数式(4)により行われる。 The control unit 104 derives the irradiation light amount (third light amount) from the illumination unit 103 with respect to the exposure amount changed due to the control of the shutter speed in S614. Since the shutter speed is set to the third shutter speed in S614, the exposure amount decreases. The third amount of light is such that the moving area is properly exposed again. Then, the control unit 104 sets the derived third light amount to the irradiation light amount of the illuminating unit 103, and controls the illuminating unit 103 to irradiate the infrared light with the third light amount (S615). Derivation of the third light amount is performed by the following mathematical expression (4).

Figure 2020101624
Figure 2020101624

以上の数式(4)において、「l」は、シャッタースピードが高速になったことで暗くなった動き被写体を適正露出にするための第3の照射光量である。「mhal」は、ハレーションの判定結果を意味するマスクパラメータであり、0または1の値を取る。「r」は、被写体の反射率を考慮した調整パラメータで、0以上の値を取る。「dev」は、露光量が変化したことによる露光量の差分である。「lpre」は、直前の照射光量である。許容パラメータ「n」は、撮影シーンに応じて好適に設定された値であってもよいし、シーンに依存せず設定されたプリセット値であってもよい。「lpre」は、ハレーションが発生した画像データであれば、第2の光量であり、ハレーションが発生してない画像データであれば、第1の光量である。 In the above mathematical expression (4), “l 3 ”is the third irradiation light amount for properly exposing a moving subject that has become dark due to a high shutter speed. “ M hal ”is a mask parameter that means the result of halation determination, and takes a value of 0 or 1. “R” is an adjustment parameter in consideration of the reflectance of the subject, and takes a value of 0 or more. “D ev ”is the difference in the exposure amount due to the change in the exposure amount. "L pre "is the irradiation light amount immediately before. The permissible parameter “n” may be a value that is suitably set according to the shooting scene, or may be a preset value that is set without depending on the scene. “I pre ”is the second light amount if the image data has halation, and the first light amount if the image data has no halation.

制御部104は、所定の被写体の検出精度をより高めるための好適な画質補正を画像データに施す(S616)。制御部104は、S616にて画質補正が施された画像データから所定の被写体を検出する(S617)。制御部104は、現在の画像データに検出データを追加して、補助記憶装置102からデータ通信部105を介して表示部106に送信する制御を行う(S618)。検出データ(以下、ラベルデータとする)は、検出対象の撮像領域、および検出対象が何であるか(検出対象の種別)を表すデータである。例えば、検出対象の被写体が車番である場合には、車番を表すラベルデータが検出データとして画像データに追加される。制御部104は、表示部106が画像データを表示する際に、検出対象の撮像領域の枠を表示させる制御を行うとともに、ラベルデータも表示させる制御を行う。これにより、表示部106には、画像の中の検出対象である所定の被写体の領域に枠が表示されることで、検出された所定の被写体が強調表示される。また、表示部106には、検出された所定の被写体が何であるかを表すデータが表示される。これにより、ユーザは、より良好に、画像データの被写体を視認することができる。 The control unit 104 performs suitable image quality correction on the image data in order to further improve the detection accuracy of the predetermined subject (S616). The control unit 104 detects a predetermined subject from the image data subjected to the image quality correction in S616 (S617). The control unit 104 adds the detection data to the current image data and controls the addition of the detection data to the display unit 106 via the data communication unit 105 from the auxiliary storage device 102 (S618). The detection data (hereinafter, referred to as label data) is data representing the imaging area of the detection target and what the detection target is (type of the detection target). For example, when the subject to be detected is a vehicle number, label data indicating the vehicle number is added to the image data as detection data. When the display unit 106 displays the image data, the control unit 104 controls the display of the frame of the imaging region of the detection target and also the control of displaying the label data. As a result, a frame is displayed on the display unit 106 in the region of the predetermined subject that is the detection target in the image, and the detected predetermined subject is highlighted. The display unit 106 also displays data indicating what the detected predetermined subject is. As a result, the user can visually recognize the subject of the image data more favorably.

<第3の実施形態>
次に、第3の実施形態について説明する。図7は、第3の実施形態に係る撮像装置100の構成例を示す図である。図7の撮像装置700は、図1の撮像装置100に対して、新たに外部記憶装置707、タイマ708および操作部709を有する。撮像装置700におけるその他の構成は、図1と同様であるため、説明を省略する。制御部704は、第2の実施形態で説明した所定の被写体を検出する機能を有する。また、制御部704は、検出された被写体が何であるかを表すラベルデータの他に、被写体を検出した時刻を示す時刻情報をラベルデータに対応付けて外部記憶装置707に記憶させる。
<Third Embodiment>
Next, a third embodiment will be described. FIG. 7 is a diagram illustrating a configuration example of the image pickup apparatus 100 according to the third embodiment. The imaging device 700 of FIG. 7 has an external storage device 707, a timer 708, and an operation unit 709 in addition to the imaging device 100 of FIG. Other configurations of the image pickup apparatus 700 are similar to those of FIG. The control unit 704 has a function of detecting the predetermined subject described in the second embodiment. In addition to the label data indicating what the detected subject is, the control unit 704 stores time information indicating the time when the subject is detected in the external storage device 707 in association with the label data.

例えば、撮像装置700が公道監視に用いられた場合、検問等にも撮像装置700が得た画像データが利用され得る。この場合、撮像装置700は、被写体を撮像することで得た画像データを、外部記憶装置707に記憶させる制御を行う。これにより、外部記憶装置707から画像データを検索することもでき、画像データの解析を行うこともできるため、ユーザの利便性が向上する。ここで、外部記憶装置707に記憶された画像データの解析が行われる場合、外部記憶装置707に記憶された全てのデータを用いなくてもよい場合がある。画像データの解析に必要となるデータは、検出された被写体が映っている画像データや検出された被写体のラベルデータ、画像データが検出された時刻情報等である場合がある。 For example, when the image pickup device 700 is used for public road monitoring, the image data obtained by the image pickup device 700 can be used for inquiries and the like. In this case, the imaging device 700 performs control to store the image data obtained by imaging the subject in the external storage device 707. As a result, the image data can be retrieved from the external storage device 707 and the image data can be analyzed, which improves the convenience of the user. Here, when the image data stored in the external storage device 707 is analyzed, it may not be necessary to use all the data stored in the external storage device 707. The data necessary for analyzing the image data may be image data showing the detected subject, label data of the detected subject, time information when the image data was detected, or the like.

そこで、制御部704は、図6のS617で被写体を検出した際に、データ通信部705を介してタイマ708にアクセスする。タイマ708からは、現在時刻の情報が得られる。制御部704は、タイマ708から取得した現在時刻(被写体が撮像された時刻)を、撮像により得られた画像データおよびラベルデータに対応付けて、外部記憶装置707に記憶させる。これにより、外部記憶装置707には、画像データとラベルデータと時刻情報とが対応付けて記憶される。撮像装置700は、操作部709を有している。ユーザは、操作部709を操作して、外部記憶装置707に記憶された各画像データから画像データを検索する際に、時刻情報を指定して検索を行うことができる。これにより、ユーザは、所望の画像データを容易に検索することができる。 Therefore, the control unit 704 accesses the timer 708 via the data communication unit 705 when the subject is detected in S617 of FIG. Information on the current time is obtained from the timer 708. The control unit 704 stores the current time (the time when the subject is imaged) acquired from the timer 708 in the external storage device 707 in association with the image data and the label data obtained by the imaging. As a result, the external storage device 707 stores the image data, the label data, and the time information in association with each other. The imaging device 700 has an operation unit 709. When the user operates the operation unit 709 to search for image data from the image data stored in the external storage device 707, the user can specify time information and perform the search. This allows the user to easily search for desired image data.

検索された画像データ(所定の被写体に関する画像データ)は、表示部706に表示される。また、ユーザは、操作部709を操作して、データ通信部705に命令を送信することができる。データ通信部705は、受信した命令を制御部704に入力する。これにより、撮影部701および照明部703を逐次的に制御することが可能になる。そのため、ユーザにとって、より好適な条件での撮像が可能となる。第3の実施形態では、画像データとラベルデータと時刻情報とが対応付けられて外部記憶装置707に記憶される例について説明したが、外部記憶装置707には、画像データと時刻情報とが対応付けられて記憶されてもよい。 The searched image data (image data regarding a predetermined subject) is displayed on the display unit 706. The user can also operate the operation unit 709 to send a command to the data communication unit 705. The data communication unit 705 inputs the received command to the control unit 704. This makes it possible to sequentially control the image capturing unit 701 and the illumination unit 703. Therefore, it is possible for the user to image under more preferable conditions. In the third embodiment, an example in which image data, label data, and time information are associated and stored in the external storage device 707 has been described, but the external storage device 707 corresponds to image data and time information. It may be attached and stored.

以上、本発明の好ましい実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made within the scope of the gist thereof. The present invention supplies a program that implements one or more functions of each of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors of a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 撮像装置
101 撮影部
103 照明部
104 制御部
106 表示部
204 光学フィルタ
205 撮像素子
708 タイマ
709 操作部
100 image pickup apparatus 101 image pickup section 103 illumination section 104 control section 106 display section 204 optical filter 205 image pickup element 708 timer 709 operation section

Claims (15)

赤外波長の光を含む入射光を受光する撮像素子と、
前記撮像素子から得られる画像データの輝度情報に基づいて、当該画像データに生じるハレーションを検出した場合、被写体に照射する赤外光の照射光量を増加させる制御を行う制御手段と、
を備えることを特徴とする撮像装置。
An image sensor that receives incident light including light of an infrared wavelength,
Based on the brightness information of the image data obtained from the image pickup device, when detecting the halation that occurs in the image data, a control unit that performs control to increase the irradiation light amount of infrared light that irradiates the subject,
An imaging device comprising:
前記入射光は、可視光カットフィルタにより可視光がカットされた光であることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the incident light is light in which visible light is cut by a visible light cut filter. 前記制御手段は、前記画像データに第1の輝度閾値以上の第1の輝度領域があり、且つ前記第1の輝度閾値より低い第2の輝度閾値より高い第2の輝度領域が前記第1の輝度領域の周囲にある場合を、前記ハレーションが発生している状態として検出する、
ことを特徴とする請求項1または2に記載の撮像装置。
The control means has a first luminance region equal to or higher than a first luminance threshold in the image data, and a second luminance region higher than a second luminance threshold lower than the first luminance threshold is the first luminance region. The case around the brightness area is detected as the state where the halation is occurring,
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is provided.
前記第2の輝度閾値は、ハレーションによる電荷漏れに対応する輝度領域を判定する為の閾値であることを特徴とする請求項3記載の撮像装置。 The image pickup apparatus according to claim 3, wherein the second brightness threshold value is a threshold value for determining a brightness region corresponding to charge leakage due to halation. 前記制御手段は、前記画像データに基づいて、動き領域を検出し、検出された前記動き領域に対して測光を行うように制御する、
ことを特徴とする請求項1乃至4のうち何れか1項に記載の撮像装置。
The control means detects a moving area based on the image data, and controls the detected moving area to perform photometry.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記制御手段は、前記ハレーションを検出した際に、前記動き領域に露出が合うような第2のシャッタースピードに設定する制御を行うことを特徴とする請求項5に記載の撮像装置。 The image pickup apparatus according to claim 5, wherein the control unit performs control to set a second shutter speed such that exposure is matched with the movement region when the halation is detected. 前記制御手段は、前記赤外光の照射光量を増加させた際に取得された画像データに対して、輝度ヒストグラムの状態に応じてγカーブを変更する処理または明るさの指標となる値に応じて彩度を変更する処理を行うことを特徴とする請求項1乃至6のうち何れか1項に記載の撮像装置。 The control means, for the image data acquired when the irradiation light amount of the infrared light is increased, a process of changing the γ curve according to the state of the luminance histogram or a value serving as an index of brightness. The image pickup apparatus according to claim 1, wherein the image pickup apparatus performs a process of changing saturation. 前記制御手段は、前記画像データに基づいて動きベクトルを検出し、検出された前記動きベクトルの大きさに応じた第3のシャッタースピードに変更し、前記動き領域に露出が合うように赤外光の照射光量を制御することを特徴とする請求項6に記載の撮像装置。 The control means detects a motion vector based on the image data, changes the shutter speed to a third shutter speed according to the magnitude of the detected motion vector, and adjusts the infrared light so that the exposure matches the motion area. The image pickup apparatus according to claim 6, wherein the amount of irradiation light is controlled. 前記制御手段は、前記画像データから所定の被写体を検出し、検出された前記所定の被写体に対して強調処理を施すことを特徴とする請求項1乃至8のうち何れか1項に記載の撮像装置。 9. The image pickup according to claim 1, wherein the control unit detects a predetermined subject from the image data and applies enhancement processing to the detected predetermined subject. apparatus. 前記制御手段は、前記所定の被写体の領域に対して枠を表示させる処理を前記強調処理として施すことを特徴とする請求項9に記載の撮像装置。 The image pickup apparatus according to claim 9, wherein the control unit performs a process of displaying a frame for the region of the predetermined subject as the emphasis process. 前記制御手段は、検出された前記所定の被写体の種別を表す検出データを前記画像データに追加し、前記画像データとともに前記検出データを表示させる制御を行うことを特徴とする請求項9または10に記載の撮像装置。 11. The control device according to claim 9, wherein the control unit adds control data indicating the detected type of the predetermined subject to the image data, and controls to display the detection data together with the image data. The imaging device described. 前記制御手段は、前記所定の被写体を検出した時刻情報を前記画像データに対応付けて記憶手段に記憶させる制御を行うことを特徴とする請求項9乃至11のうち何れか1項に記載の撮像装置。 12. The imaging device according to claim 9, wherein the control unit performs control to associate time information when the predetermined subject is detected with the image data and store the time information in the storage unit. apparatus. 赤外波長の光を含む入射光を受光する撮像素子を有する撮像装置と通信を行い、前記撮像素子から得られる画像データの輝度情報に基づいて、当該画像データに生じるハレーションを検出した場合、被写体に照射する赤外光の照射光量を増加させる制御を行う制御部、
を備えることを特徴とする電子機器。
When communicating with an imaging device having an imaging device that receives incident light including light of an infrared wavelength, and detecting halation that occurs in the image data based on the brightness information of the image data obtained from the imaging device, the subject A control unit that controls to increase the amount of infrared light emitted to the
An electronic device comprising:
赤外波長の光を含む入射光を受光する撮像素子を有する撮像装置の制御方法であって、
前記撮像素子から得られる画像データの輝度情報に基づいて、当該画像データに生じるハレーションを検出した場合、被写体に照射する赤外光の照射光量を増加させる制御を行う工程、
を備えることを特徴とする撮像装置の制御方法。
A method of controlling an image pickup apparatus having an image pickup element that receives incident light including light of an infrared wavelength,
Based on the brightness information of the image data obtained from the image sensor, when detecting the halation that occurs in the image data, the step of performing a control to increase the irradiation light amount of infrared light irradiating the subject,
A method for controlling an imaging device, comprising:
請求項14記載の撮像装置の制御方法をコンピュータに実行させるためのコンピュータが読み取り可能なプログラム。 A computer-readable program for causing a computer to execute the method for controlling an imaging device according to claim 14.
JP2018238629A 2018-12-20 2018-12-20 IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM Active JP7278764B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018238629A JP7278764B2 (en) 2018-12-20 2018-12-20 IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM
US16/708,992 US11240439B2 (en) 2018-12-20 2019-12-10 Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium
EP19217578.4A EP3671552A1 (en) 2018-12-20 2019-12-18 Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238629A JP7278764B2 (en) 2018-12-20 2018-12-20 IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020101624A true JP2020101624A (en) 2020-07-02
JP7278764B2 JP7278764B2 (en) 2023-05-22

Family

ID=71139439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238629A Active JP7278764B2 (en) 2018-12-20 2018-12-20 IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7278764B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7452335B2 (en) 2020-08-31 2024-03-19 日本ケミコン株式会社 Method for manufacturing Fe-based nanocrystalline alloy magnetic core

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118788A (en) * 2000-10-11 2002-04-19 Fujitsu Ltd Video monitoring device
JP2011135553A (en) * 2009-11-24 2011-07-07 Ricoh Co Ltd Imaging apparatus, image processing method, and computer program
JP2013031053A (en) * 2011-07-29 2013-02-07 Ricoh Co Ltd Image pickup device and object detection device incorporating the same and optical filter and manufacturing method thereof
JP2014014679A (en) * 2012-07-11 2014-01-30 Toshiba Corp Medical image display device and method
JP2014049863A (en) * 2012-08-30 2014-03-17 Canon Inc Image processing device, control method therefor, control program, and imaging device
JP2014146979A (en) * 2013-01-29 2014-08-14 Hitachi Kokusai Electric Inc Monitor camera system, imaging apparatus, and imaging method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118788A (en) * 2000-10-11 2002-04-19 Fujitsu Ltd Video monitoring device
JP2011135553A (en) * 2009-11-24 2011-07-07 Ricoh Co Ltd Imaging apparatus, image processing method, and computer program
JP2013031053A (en) * 2011-07-29 2013-02-07 Ricoh Co Ltd Image pickup device and object detection device incorporating the same and optical filter and manufacturing method thereof
JP2014014679A (en) * 2012-07-11 2014-01-30 Toshiba Corp Medical image display device and method
JP2014049863A (en) * 2012-08-30 2014-03-17 Canon Inc Image processing device, control method therefor, control program, and imaging device
JP2014146979A (en) * 2013-01-29 2014-08-14 Hitachi Kokusai Electric Inc Monitor camera system, imaging apparatus, and imaging method

Also Published As

Publication number Publication date
JP7278764B2 (en) 2023-05-22

Similar Documents

Publication Publication Date Title
KR100698483B1 (en) Image capture apparatus and control method therefor
EP2946249B1 (en) Imaging apparatus with scene adaptive auto exposure compensation
JP7057221B2 (en) Imaging device, its control method, and control program
JP6049343B2 (en) Image processing apparatus, image processing method, and program
JP5435307B2 (en) In-vehicle camera device
JP2006311311A (en) Imaging apparatus and method
US20120121129A1 (en) Image processing apparatus
US9961269B2 (en) Imaging device, imaging device body, and lens barrel that can prevent an image diaphragm value from frequently changing
JP2006270218A (en) Electronic camera and electronic camera system
JP2013005234A5 (en)
US11240439B2 (en) Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium
JP4300936B2 (en) Imaging device
JP5246590B2 (en) Imaging apparatus, image generation method, and program
JP7278764B2 (en) IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM
JP2015034850A (en) Photographing device and photographing method
CN108259775B (en) Imaging method, imaging device and rearview mirror
KR101971535B1 (en) Apparatus and method for adjusting auto focus in image taking device
KR100978675B1 (en) Method of controlling white balance at flashlight photographing
JP2014098859A (en) Imaging apparatus and imaging method
JP2009063674A (en) Imaging apparatus and flash control method
JP7297441B2 (en) ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE
JP6944350B2 (en) Captured image display system, electronic mirror system and captured image display method
JP2004173251A (en) Camera
JP6300514B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6423669B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R151 Written notification of patent or utility model registration

Ref document number: 7278764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151