JP2020102703A - Electronic device, control method of the same, and program - Google Patents

Electronic device, control method of the same, and program Download PDF

Info

Publication number
JP2020102703A
JP2020102703A JP2018238628A JP2018238628A JP2020102703A JP 2020102703 A JP2020102703 A JP 2020102703A JP 2018238628 A JP2018238628 A JP 2018238628A JP 2018238628 A JP2018238628 A JP 2018238628A JP 2020102703 A JP2020102703 A JP 2020102703A
Authority
JP
Japan
Prior art keywords
brightness
halation
subject
electronic device
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018238628A
Other languages
Japanese (ja)
Other versions
JP7297441B2 (en
Inventor
純也 水谷
Junya Mizutani
純也 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018238628A priority Critical patent/JP7297441B2/en
Priority to US16/708,992 priority patent/US11240439B2/en
Priority to EP19217578.4A priority patent/EP3671552A1/en
Publication of JP2020102703A publication Critical patent/JP2020102703A/en
Application granted granted Critical
Publication of JP7297441B2 publication Critical patent/JP7297441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve detection accuracy of halation in consideration of an influence on visibility of a subject.SOLUTION: The electronic device includes: evaluation means for evaluating brightness of a subject based on an exposure level when image data of the subject is acquired; and detection means for detecting halation based on brightness of the subject, a first brightness region having brightness higher than a first brightness threshold, and a distribution situation of the other brightness regions distributed around the first brightness region, which is a region having lower brightness than the first brightness region.SELECTED DRAWING: Figure 1

Description

本発明は、ハレーションの検出を行う電子機器、電子機器の制御方法およびプログラムに関する。 The present invention relates to an electronic device that detects halation, a method for controlling the electronic device, and a program.

カメラを用いて低照度(低輝度)な環境で被写体を撮像する場合に、高照度な光がカメラに入射すると、光源の撮像位置の周囲に光が漏れ出て撮像されるハレーションという現象が生じる。ハレーションは、高輝度な入射光が撮像素子に結像して撮像素子で電荷が過剰に発生することにより、周囲の画素に伝搬することにより生じる。例えば、公道を監視するカメラを用いた被写体の撮像を行う場合にハレーションが発生することがある。車のヘッドライトが点灯している場合、周囲の環境光とヘッドライトの光とで大きなコントラストを生じるため、この状態で被写体を撮像することで、車のヘッドライトの周囲にハレーションが生じた画像が得られる。そして、ハレーションが生じた画像では、車の外観やナンバープレート等の視認性が低下する。 When a subject is imaged in a low-illuminance (low-luminance) environment using a camera, if high-illumination light enters the camera, light leaks out around the image capturing position of the light source, causing a phenomenon called halation. .. Halation occurs when high-intensity incident light forms an image on the image sensor and excessive charges are generated in the image sensor, and propagates to surrounding pixels. For example, halation may occur when a subject is imaged using a camera that monitors a public road. When the headlights of a car are lit, a large contrast occurs between the ambient light and the light of the headlights. Therefore, by imaging the subject in this state, an image with halation around the headlights of the car is generated. Is obtained. Then, in the image with halation, the appearance of the car and the visibility of the license plate and the like deteriorate.

関連する技術として、ハレーションが発生している場合には、CCDカメラに一般的に備えられている電子シャッターを用いて入射光量を減少させる技術が提案されている(特許文献1を参照)。特許文献1には、入射する過剰な光をマスキングために、カメラのレンズ前方に、液晶板からなる光量調節手段を設けて、光量の調節を行う点が示されている。 As a related technique, there has been proposed a technique for reducing the amount of incident light by using an electronic shutter generally provided in a CCD camera when halation occurs (see Patent Document 1). Patent Document 1 discloses that in order to mask excessive incident light, a light amount adjusting means made of a liquid crystal plate is provided in front of the lens of the camera to adjust the light amount.

特開2004−072415号公報JP, 2004-072415, A

例えば、特許文献1では、ハレーションの影響を排除するために、電子シャッターを高速値に変更することで、入射光量を減少させている。あるいは、ハレーションの影響を排除するために、カメラのレンズ前方に、液晶板を設けて、入射光量を減少させることもできる。ここで、カメラの撮影により得られた画像にハレーションが発生していたとしても、画像の視認性に与える影響が低い場合がある。例えば、画像内に車のヘッドライトによるハレーションが発生していたとしても、ナンバープレートの視認性に与える影響が低い場合がある。 For example, in Patent Document 1, the amount of incident light is reduced by changing the electronic shutter to a high speed value in order to eliminate the effect of halation. Alternatively, in order to eliminate the influence of halation, a liquid crystal plate may be provided in front of the lens of the camera to reduce the amount of incident light. Here, even if halation occurs in the image captured by the camera, the effect on the visibility of the image may be low. For example, even if halation occurs due to the headlights of a car in the image, the effect on the visibility of the license plate may be low.

一方、電子シャッターの制御あるいは液晶板により入射光量が減少して得られる画像は、入射光量が減少することに起因して、画質が低下する。従って、ハレーションの影響を排除するために入射光量を減少させると、ハレーションに起因する被写体の視認性の影響が低いにもかかわらず、画像の画質が低下する。 On the other hand, an image obtained by reducing the amount of incident light by controlling the electronic shutter or the liquid crystal plate has a reduced image quality due to the reduction in the amount of incident light. Therefore, if the amount of incident light is reduced in order to eliminate the effect of halation, the image quality of the image will deteriorate even though the effect of visibility of the subject due to halation is small.

本発明の目的は、被写体の視認性に与える影響を考慮したハレーションの検出精度を向上することにある。 An object of the present invention is to improve the detection accuracy of halation in consideration of the influence on the visibility of a subject.

上記目的を達成するために、本発明の電子機器は、被写体の画像データが取得された際の露出レベルに基づいて、被写体の輝度を評価する評価手段と、前記被写体の輝度と、第1の輝度閾値より高い輝度の第1の輝度領域と、当該第1の輝度領域より低い輝度の領域であり前記第1の輝度領域の周辺に分布する他の輝度領域の分布状況とに基づいて、ハレーションを検出する検出手段と、を備えることを特徴とする。 In order to achieve the above object, an electronic device of the present invention includes an evaluation unit that evaluates the brightness of a subject based on an exposure level when image data of the subject is acquired; a brightness of the subject; The halation is performed based on the first luminance area having a luminance higher than the luminance threshold and the distribution situation of other luminance areas distributed around the first luminance area and having a lower luminance than the first luminance area. And a detection unit for detecting.

本発明によれば、被写体の視認性に与える影響を考慮したハレーションの検出精度を向上することができる。 According to the present invention, it is possible to improve the detection accuracy of halation in consideration of the influence on the visibility of the subject.

第1の実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 1st Embodiment. 第1の実施形態におけるハレーション検出処理の流れを示すフローチャートである。6 is a flowchart showing the flow of halation detection processing in the first embodiment. 輝度の勾配および各輝度領域の一例を示す図である。It is a figure which shows an example of a brightness|luminance gradient and each brightness|luminance area|region. 第2の実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 2nd Embodiment. 第2の実施形態におけるハレーション検出処理の流れを示すフローチャートである。It is a flow chart which shows a flow of halation detection processing in a 2nd embodiment. 静物と動体との区別に用いられる画像データの例を示す図である。It is a figure which shows the example of the image data used for distinction between a still life and a moving body.

以下、本発明の各実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施の形態に記載されている構成によって限定されることはない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in each of the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in each of the embodiments.

<第1の実施形態>
図1は、第1の実施形態に係る撮像装置1の構成例を示す図である。撮像装置1は、撮影レンズ3、撮像センサ4、A/D変換器5、システム制御部6、メモリ7および記憶媒体8を有する。以下、各実施形態において、撮像装置1は、公道監視を行うカメラに適用されるものとして説明する。撮像装置1は、無人運用の公道監視カメラであってもよい。ただし、撮像装置1は、公道監視以外の用途に用いられてもよい。また、撮像装置1は動画撮影を行うものとして説明するが、撮像装置1は静止画撮影を行ってもよい。撮像装置1は、被写体の視認性に影響を及ぼすハレーションの検出を行う。被写体としては、車のナンバープレートや車の外観等が想定される。例えば、夜間等の照度が低い環境下で、撮像装置100が公道監視を行う場合、車のヘッドライトにより、撮像装置100が撮像した画像にハレーションが発生することがある。ただし、画像にハレーションが発生していたとしても、ハレーションによる影響度が低い場合がある。この場合、ハレーションが発生している画像から、被写体としての車番等を判別できることがある。そこで、各実施形態では、被写体の視認性に与える影響を考慮したハレーションの検出が行われる。
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of the image pickup apparatus 1 according to the first embodiment. The image pickup apparatus 1 includes a taking lens 3, an image pickup sensor 4, an A/D converter 5, a system controller 6, a memory 7 and a storage medium 8. Hereinafter, in each embodiment, the imaging device 1 will be described as being applied to a camera that performs public road monitoring. The imaging device 1 may be an unmanned public road surveillance camera. However, the imaging device 1 may be used for purposes other than public road monitoring. Further, although the image capturing apparatus 1 is described as capturing a moving image, the image capturing apparatus 1 may capture a still image. The imaging device 1 detects halation that affects the visibility of the subject. The subject may be a car license plate, a car appearance, or the like. For example, when the image pickup apparatus 100 performs public road monitoring in an environment where the illuminance is low, such as at night, a headlight of a vehicle may cause halation in an image captured by the image pickup apparatus 100. However, even if halation occurs in an image, the degree of influence of halation may be low. In this case, the vehicle number or the like as the subject may be discriminated from the image in which halation has occurred. Therefore, in each embodiment, halation is detected in consideration of the influence on the visibility of the subject.

撮像装置1は、撮像光学系として、被写体の光学像を取り込む光学レンズ群を示す撮影レンズ3を有する。撮像センサ4は撮像光学系を通過した入射光を受光する。撮像センサ4は、受光した入射光を光電変換して、光学像としての被写体像を形成する。撮像センサ4は、光電変換されたアナログ電気信号(アナログ撮像信号)をA/D変換器5に出力する。A/D変換器5は、アナログ電気信号をデジタル信号(デジタル撮像信号)に変換して、システム制御部6に出力する。システム制御部6は、画像処理部10および露出制御部16を有する。画像処理部10は、システム制御部6に入力されたデジタル撮像信号に対して、各種の画像処理を施して、画像データを生成する。これにより、画像データが取得される。露出制御部16は、画像処理部10の画像生成部11で生成された画像データの明るさを判定して、撮像センサ4における電子シャッター、絞りまたは利得の何れかを制御する。これにより、画像データの明るさが補正される。 The image pickup apparatus 1 has, as an image pickup optical system, a taking lens 3 showing an optical lens group for taking in an optical image of a subject. The image sensor 4 receives the incident light that has passed through the image pickup optical system. The image sensor 4 photoelectrically converts the received incident light to form a subject image as an optical image. The image sensor 4 outputs a photoelectrically converted analog electric signal (analog image pickup signal) to the A/D converter 5. The A/D converter 5 converts the analog electric signal into a digital signal (digital image pickup signal) and outputs the digital signal to the system control unit 6. The system control unit 6 has an image processing unit 10 and an exposure control unit 16. The image processing unit 10 performs various kinds of image processing on the digital image pickup signal input to the system control unit 6 to generate image data. Thereby, the image data is acquired. The exposure control unit 16 determines the brightness of the image data generated by the image generation unit 11 of the image processing unit 10 and controls either the electronic shutter, the aperture, or the gain of the image sensor 4. Thereby, the brightness of the image data is corrected.

撮影レンズ3は、光軸方向に移動して焦点距離を変更する変倍レンズ、および光軸方向に移動して焦点調節を行うフォーカスレンズを有するものとする。撮像センサ4は、固体撮像素子(CCD)を用いたセンサである。撮像装置1は、カラーカメラまたはモノクロカメラに適用できる。撮像装置1がカラーカメラである場合には、撮像センサ4よりも撮像装置1の開口部側に、カラーフィルタが設置される。露出制御手段としての露出制御部16は、自動露出制御機能を有しており、画像生成部11で生成された画像データに基づいて、画像の明るさを調整するための命令を撮像センサ4に送る。これにより、露出レベルが制御されるため、撮像装置1が撮像する画像の明るさが調整される。 The taking lens 3 is assumed to have a zoom lens that moves in the optical axis direction to change the focal length, and a focus lens that moves in the optical axis direction to adjust the focus. The image sensor 4 is a sensor using a solid-state image sensor (CCD). The image pickup apparatus 1 can be applied to a color camera or a monochrome camera. When the imaging device 1 is a color camera, a color filter is installed closer to the opening of the imaging device 1 than the imaging sensor 4. The exposure control unit 16 as an exposure control unit has an automatic exposure control function, and instructs the image sensor 4 to adjust the brightness of the image based on the image data generated by the image generation unit 11. send. As a result, the exposure level is controlled, so that the brightness of the image captured by the image capturing apparatus 1 is adjusted.

システム制御部6は、各種の制御を行う。メモリ7は、例えば、RAMである。記憶媒体8は、例えば、ROMである。システム制御部6は、記憶媒体8に記憶されている制御プログラムがメモリ7に展開され、展開された制御プログラムをCPUが実行することにより、実現されてもよい。図1に示される構成の場合、撮像センサ4およびシステム制御部6を有する撮像装置1は、電子機器に対応する。システム制御部6は、撮像装置1とは別途の制御装置(例えば、パーソナルコンピュータ等)として設けられてもよい。この場合、システム制御部6として機能する外部の制御装置は、撮像装置1と通信を行うことにより、各実施形態の処理が実現される。この場合、外部の制御装置が電子機器に対応する。 The system control unit 6 performs various controls. The memory 7 is, for example, a RAM. The storage medium 8 is, for example, a ROM. The system control unit 6 may be realized by a control program stored in the storage medium 8 being expanded in the memory 7 and the CPU executing the expanded control program. In the case of the configuration shown in FIG. 1, the imaging device 1 having the imaging sensor 4 and the system control unit 6 corresponds to an electronic device. The system control unit 6 may be provided as a control device (for example, a personal computer or the like) separate from the imaging device 1. In this case, an external control device that functions as the system control unit 6 communicates with the imaging device 1 to implement the processing of each embodiment. In this case, the external control device corresponds to the electronic device.

画像処理部10は、画像生成部11、第1の評価部12、第2の評価部13、ハレーション評価部14および閾値決定部15を有する。画像生成部11は、デジタル撮像信号に基づいて、画像データを生成する。第1の評価部12は、画像データの輝度を評価して、白とび領域(第1の輝度領域)および白とび領域の周辺に分布する1または複数の他の輝度領域を分類する。第1の評価部12は、分類手段に対応する。評価手段としての第2の評価部13は、露出レベルから被写体の輝度および環境光の輝度を推定して、被写体の輝度および環境光の輝度を評価する。ハレーション評価部14は、第1の評価部12で検出された各輝度領域の分布に基づいて、被写体の視認性に対する影響が低いハレーションが発生しているかの評価を行う。被写体の視認性に対する影響が低いハレーションは、検出不要なハレーションである。なお、本実施形態では、APEX(ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE)システムに基づいて露出や照度(輝度)の明るさを定義する。例えば、被写体の輝度が1BVと2BVである場合の差は、APEXシステムにおける被写体の照度(輝度)の1段分の明るさの違いに相当する。 The image processing unit 10 includes an image generation unit 11, a first evaluation unit 12, a second evaluation unit 13, a halation evaluation unit 14, and a threshold value determination unit 15. The image generation unit 11 generates image data based on the digital image pickup signal. The first evaluation unit 12 evaluates the brightness of the image data, and classifies the whiteout area (first brightness area) and one or more other brightness areas distributed around the whiteout area. The first evaluation unit 12 corresponds to a classification means. The second evaluation unit 13 as an evaluation unit estimates the brightness of the subject and the brightness of the ambient light from the exposure level, and evaluates the brightness of the subject and the brightness of the ambient light. The halation evaluation unit 14 evaluates, based on the distribution of each luminance region detected by the first evaluation unit 12, whether or not halation that has a low influence on the visibility of the subject has occurred. Halation that has a small effect on the visibility of the subject is halation that does not require detection. In the present embodiment, the brightness of the exposure and the illuminance (luminance) is defined based on the APEX (ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE) system. For example, the difference when the brightness of the subject is 1 BV and 2 BV corresponds to the difference in brightness of one level of the illuminance (luminance) of the subject in the APEX system.

ハレーション評価部14は、白とび領域および白とび領域の周囲の高輝度領域の分布状況だけではなく、被写体の輝度も考慮して、被写体の視認性に対する影響を与えるハレーションが発生しているかの評価を行う。検出手段としてのハレーション評価部14の評価結果に応じて、被写体の視認性に対して影響を与えるハレーションが検出される。閾値決定部15は、第2の評価部13が被写体の輝度を評価する際に使用される輝度閾値、およびハレーション評価部14がハレーションを評価する際に使用される輝度閾値を決定する。変更手段としての閾値決定部15は、第2の評価部13により評価された被写体の輝度に応じて、輝度閾値を変更する。 The halation evaluation unit 14 considers not only the distribution of the overexposed areas and the high-intensity areas around the overexposed areas, but also the brightness of the subject and evaluates whether halation that affects the visibility of the subject has occurred. I do. The halation which affects the visibility of the subject is detected according to the evaluation result of the halation evaluation unit 14 as the detection means. The threshold value determining unit 15 determines a brightness threshold value used when the second evaluation unit 13 evaluates the brightness of the subject, and a brightness threshold value used when the halation evaluation unit 14 evaluates halation. The threshold value determining unit 15 as a changing unit changes the brightness threshold value according to the brightness of the subject evaluated by the second evaluation unit 13.

図2を参照して、第1の実施形態におけるハレーション検出処理の流れについて説明する。第2の評価部13は、露出レベルから被写体の輝度を推定して、被写体輝度を評価する(S100)。閾値決定部15は、被写体輝度が所定輝度以上であるかを判定する(S101)。所定輝度は、任意の値に設定することができる。閾値決定部15は、S101でYESと判定した場合、画像データから輝度領域を分類する際に用いられる輝度閾値を高くする(S102)。第1の評価部12は、1または複数の輝度閾値を用いて、画像データから複数の輝度領域を検出し、検出された各輝度領域をラベリングする(S103)。ラベリングは、画像データ中の各輝度領域を分類する処理である。S101でYESと判定された場合、閾値決定部15は、輝度閾値を高い値に設定する。輝度閾値の初期値は、任意の値であってよい。例えば、輝度閾値の初期値は、夜間や明け方、夕刻等の低照度の環境下でハレーションを検出するための輝度閾値であってもよい。S101でYESと判定されると、閾値決定部15は、輝度閾値を初期値から高い値に変更する。 The flow of halation detection processing in the first embodiment will be described with reference to FIG. The second evaluation unit 13 estimates the brightness of the subject from the exposure level and evaluates the subject brightness (S100). The threshold value determination unit 15 determines whether the subject brightness is equal to or higher than a predetermined brightness (S101). The predetermined brightness can be set to any value. If YES in S101, the threshold value determination unit 15 increases the brightness threshold value used when classifying the brightness regions from the image data (S102). The first evaluation unit 12 detects a plurality of luminance areas from the image data using one or a plurality of luminance thresholds, and labels each detected luminance area (S103). Labeling is a process of classifying each luminance region in image data. If YES is determined in S101, the threshold value determination unit 15 sets the brightness threshold value to a high value. The initial value of the brightness threshold may be any value. For example, the initial value of the brightness threshold value may be a brightness threshold value for detecting halation in a low illuminance environment such as night, dawn, and evening. If YES is determined in S101, the threshold value determination unit 15 changes the brightness threshold value from the initial value to a high value.

第1の評価部12は、最も高い輝度レベル(第1の輝度閾値以上の輝度)を有する領域を第1の輝度領域としてラベリングする。そして、第1の評価部12は、第1の輝度領域を中心として、第nの輝度閾値(nは2以上の整数)以上であり、且つ第(n−1)の輝度閾値未満の輝度を有する領域を第nの領域としてラベリングする。「n」の値が大きくなるに応じて、第nの領域の輝度レベルは低くなる。第1の輝度領域は、例えば、白とび領域である。 The first evaluation unit 12 labels the area having the highest brightness level (brightness not less than the first brightness threshold) as the first brightness area. Then, the first evaluation unit 12 sets the brightness that is equal to or higher than the nth brightness threshold value (n is an integer of 2 or more) and is lower than the (n−1)th brightness threshold value with the first brightness region as the center. Label the existing region as the nth region. As the value of “n” increases, the brightness level of the nth region decreases. The first luminance area is, for example, an overexposed area.

図3は、輝度の勾配および各輝度領域の一例を示す図である。図3は「n=3」の場合であり、第1の輝度閾値、第2の輝度閾値および第3の輝度閾値が用いられている。図3(A)は、画像データの輝度の勾配と各輝度閾値との関係を示す。図3(B)は、図3(A)に対応した各輝度領域(ラベリングされた各輝度領域)の分布を示す。第1の輝度領域は、最も高い輝度レベルの領域であり、第1の輝度閾値以上の輝度の領域である。図3(B)に示されるように、第1の輝度領域を中心として、同心円状に第2の輝度領域が分布し、第2の輝度領域の外側に第3の輝度領域が分布している。ハレーション評価部14は、図3(B)のように、第1の輝度領域を中心として、外周方向に向かうに応じて、輝度が低くなる輝度領域が分布している場合に、ハレーションを検出する。 FIG. 3 is a diagram showing an example of the brightness gradient and each brightness region. FIG. 3 shows the case of “n=3”, and the first brightness threshold value, the second brightness threshold value, and the third brightness threshold value are used. FIG. 3A shows the relationship between the brightness gradient of image data and each brightness threshold value. FIG. 3B shows a distribution of each luminance region (each labeled luminance region) corresponding to FIG. The first luminance region is a region having the highest luminance level and a region having a luminance equal to or higher than the first luminance threshold. As shown in FIG. 3B, the second luminance region is distributed concentrically around the first luminance region, and the third luminance region is distributed outside the second luminance region. .. As shown in FIG. 3(B), the halation evaluation unit 14 detects halation when the brightness regions are distributed such that the brightness decreases in the outer peripheral direction around the first brightness region. ..

ここで、S101においてYESと判定された場合、S102の処理が実行される。つまり、被写体輝度が明るい場合、閾値決定部15は、輝度閾値を高くする。これにより、被写体輝度が明るい場合には、白とび領域周辺の輝度の階調性が保たれる。そして、ハレーション評価部14は、検出不要なハレーションを検出しなくなる。 Here, if YES is determined in S101, the process of S102 is executed. That is, when the subject brightness is bright, the threshold determination unit 15 increases the brightness threshold. As a result, when the subject brightness is bright, the gradation of the brightness around the overexposed area is maintained. Then, the halation evaluation unit 14 stops detecting halation that is unnecessary for detection.

ハレーションは輝度が白とび領域の周囲で発生しやすいため、ハレーション評価部14は、ラベリングされた第1の輝度領域を白とび領域として抽出する(S104)。ハレーション評価部14は、白とび領域の周囲の輝度の分布状況に着目して、ハレーション検出の評価を行う。ハレーション評価部14は、第1の輝度領域(白とび領域)を中心として、どの程度の範囲まで参照(または走査)して、ハレーション検出の評価を行うかを、被写体輝度に応じて決定する。これは、環境光と高輝度被写体との輝度比によって被写体の認識性に対するハレーションの影響度が変化するためである。高輝度被写体としては、例えば、ナンバープレート等の白色の被写体が想定される。 Since the halation easily occurs around the overexposed area, the halation evaluation unit 14 extracts the labeled first luminance area as the overexposed area (S104). The halation evaluation unit 14 evaluates halation detection by paying attention to the distribution of luminance around the overexposed area. The halation evaluation unit 14 determines to what extent the halation detection is evaluated by referring to (or scanning) the first brightness area (whitened area) as a center, according to the subject brightness. This is because the degree of influence of halation on the recognizability of the subject changes depending on the luminance ratio between the ambient light and the high-luminance subject. As the high-brightness subject, for example, a white subject such as a license plate is assumed.

高輝度被写体が撮像装置1の画角に侵入した際に明るさ補正のために露光量が変化する。撮像装置1が撮影した動画における前後のフレーム(画像データ)の露光量の変化が大きくなると、環境光と高輝度被写体との輝度比も大きくなる。環境光と高輝度被写体とで輝度比が大きい場合、ハレーションによる被写体の視認性に対する影響度は大きいことが想定される。一方、前後のフレームの露光量の変化が小さい場合、環境光と高輝度被写体とで輝度比は小さい。この場合、ハレーションによる被写体の視認性に対する影響度は小さいことが想定される。ハレーション評価部14は、被写体の視認性に影響を与えない程度のハレーションは検出しない。ハレーションが検出されると、画像データに対するハレーションの影響を抑制する制御が行われる。例えば、撮像装置1が、撮影レンズ3の光路上に特定波長の光をカットするフィルタ(例えば、可視光カットフィルタ)を挿抜する挿抜機構を有している場合、ハレーションが検出されたことに応じて、挿抜機構がフィルタを光路上に挿入する。これにより、ハレーションの影響を抑制することができる。 When a high-luminance subject enters the angle of view of the image pickup apparatus 1, the exposure amount changes for brightness correction. When the change in the exposure amount of the preceding and following frames (image data) in the moving image captured by the imaging device 1 increases, the brightness ratio between the ambient light and the high-brightness subject also increases. When the brightness ratio between the ambient light and the high-luminance subject is large, it is assumed that the degree of influence of halation on the visibility of the subject is large. On the other hand, when the change in the exposure amount between the front and rear frames is small, the brightness ratio between the ambient light and the high brightness subject is small. In this case, it is assumed that the degree of influence of halation on the visibility of the subject is small. The halation evaluation unit 14 does not detect halation that does not affect the visibility of the subject. When halation is detected, control is performed to suppress the effect of halation on image data. For example, when the image pickup apparatus 1 has an insertion/extraction mechanism that inserts/extracts a filter (for example, a visible light cut filter) that cuts light of a specific wavelength on the optical path of the taking lens 3, it is determined that halation is detected. Then, the insertion/removal mechanism inserts the filter into the optical path. Thereby, the influence of halation can be suppressed.

ただし、可視光カットフィルタが光路上に挿入されると、可視光成分の光がカットされるため、画像データの画質が低下する。そこで、ハレーション評価部14は、被写体の視認性に影響を与えない程度のハレーションは、ハレーションとして検出しない。これにより、検出不要なハレーションが検出されることによる画像データの画質の低下が回避される。 However, when the visible light cut filter is inserted in the optical path, the light of the visible light component is cut, so that the image quality of the image data deteriorates. Therefore, the halation evaluation unit 14 does not detect halation that does not affect the visibility of the subject. As a result, it is possible to avoid deterioration of the image quality of the image data due to detection of halation that does not need to be detected.

ここで、白とび領域(第1の輝度領域)の周辺の輝度勾配に着目するハレーション検出では、白とび領域周辺の被写体の輝度によって検出精度が左右される傾向にある。ハレーションの影響度にかかわらず、白とび領域周辺の被写体の輝度が高い場合には、白とび領域周辺の被写体の輝度がフレアによる輝度として検出される。従って、単に、白とび領域の周辺の輝度勾配に着目するハレーション検出では、ハレーション検出の信頼性は低い。そこで、ハレーション評価部14は、環境光と高輝度被写体との輝度比が所定値以下であるかを判定する(S105)。上述したように、環境光と高輝度被写体との輝度比は、前後のフレームの露光量の変化に基づいて取得される。例えば、環境光と高輝度被写体との輝度比は、前後のフレームの露光量の変化を時間で微分した値に基づいて取得される。S105でYESと判定された場合、環境光と高輝度被写体との輝度比は小さい。この場合、ハレーション評価部14は、ハレーション検出を行うための参照範囲を拡大する(S106)。例えば、S105でNOと判定された場合、ハレーション評価部14は、ハレーション検出を行うための参照する輝度領域を、第1の輝度領域および第2の輝度領域としてもよい。一方、S105でYESと判定された場合、ハレーション検出を行うための参照する輝度領域を、第1の輝度領域および第2の輝度領域だけでなく、第3の輝度領域まで拡大する。これにより、環境光と高輝度被写体との輝度比が小さい場合でも、ハレーション検出の信頼性を向上させることができる。 Here, in the halation detection focusing on the brightness gradient around the whiteout region (first brightness region), the detection accuracy tends to depend on the brightness of the subject around the whiteout region. Regardless of the degree of influence of halation, when the brightness of the subject around the overexposed area is high, the brightness of the subject around the overexposed area is detected as the brightness due to flare. Therefore, the reliability of halation detection is low in halation detection that simply focuses on the brightness gradient around the overexposed area. Therefore, the halation evaluation unit 14 determines whether the brightness ratio between the ambient light and the high-brightness subject is a predetermined value or less (S105). As described above, the brightness ratio between the ambient light and the high-brightness subject is acquired based on the change in the exposure amount of the preceding and following frames. For example, the brightness ratio between the ambient light and the high-brightness subject is acquired based on the value obtained by differentiating the change in the exposure amount of the preceding and following frames with respect to time. If YES is determined in S105, the luminance ratio between the ambient light and the high-luminance subject is small. In this case, the halation evaluation unit 14 expands the reference range for detecting halation (S106). For example, when it is determined to be NO in S105, the halation evaluation unit 14 may set the first and second brightness regions as the reference brightness regions for halation detection. On the other hand, if YES is determined in S105, the luminance area to be referred to for halation detection is expanded not only to the first and second luminance areas but also to the third luminance area. As a result, the reliability of halation detection can be improved even when the luminance ratio between the ambient light and the high-luminance subject is small.

ハレーション評価部14は、参照範囲内において、第(n−1)の輝度領域より輝度が小さい第nの輝度領域が外周方向に分布しているかを判定する(S107)。つまり、ハレーション評価部14は、図3に示される第1の輝度領域から外周方向に向かうに従って輝度レベルが小さくなる輝度領域が分布していると評価することで、ハレーションの判定を行う。S107でYESと判定された場合、ハレーションを検出する(S108)。一方、S107でNOと判定された場合、フローは、S100に移行する。この場合、ハレーションは検出されない。つまり、被写体の視認性に対する影響が低いハレーション(検出不要なハレーション)は検出されない。以上が、第1の実施形態におけるハレーション検出処理である。 The halation evaluation unit 14 determines whether or not the nth luminance region whose luminance is smaller than that of the (n-1)th luminance region is distributed in the outer peripheral direction within the reference range (S107). That is, the halation evaluation unit 14 determines the halation by evaluating that the brightness regions in which the brightness level decreases from the first brightness region shown in FIG. 3 toward the outer peripheral direction are distributed. If YES is determined in S107, halation is detected (S108). On the other hand, if NO in S107, the flow moves to S100. In this case, halation is not detected. That is, halation (halation that does not need to be detected) that has a low influence on the visibility of the subject is not detected. The above is the halation detection processing in the first embodiment.

第1の輝度領域と他の輝度領域(第1の輝度領域の周辺に分布している輝度領域)とに基づいてハレーションが検出される場合、被写体の視認性に対する影響が低いハレーションも検出されてしまう。一方、実施形態のシステム制御部6は、画像データが取得された際の露出レベルに基づいて、被写体の輝度を評価する。そして、システム制御部6は、被写体の輝度と第1の輝度領域と他の輝度領域とに基づいて、ハレーションの検出を行う。このため、被写体の視認性に対する影響が低い検出不要なハレーションが検出されることが抑制される。 When halation is detected based on the first luminance area and other luminance areas (luminance areas distributed around the first luminance area), halation that has a low influence on the visibility of the subject is also detected. I will end up. On the other hand, the system control unit 6 of the embodiment evaluates the brightness of the subject based on the exposure level when the image data was acquired. Then, the system control unit 6 detects halation based on the brightness of the subject, the first brightness area, and the other brightness areas. Therefore, it is possible to suppress the detection-unnecessary halation that has a low influence on the visibility of the subject.

S101でYESと判定された場合、被写体輝度は明るい。被写体輝度が明るい場合、車のヘッドライト等に起因するハレーションによる被写体の視認性の影響度は低いことが想定される。この場合、閾値決定部15は、S102において、各輝度領域をラベリングするための輝度閾値を高くする。これにより、被写体の輝度が明るい場合には、S107の判定で用いられる輝度領域の輝度レベルが高くなる。この場合、図3で示されるような輝度領域の分布は検出されなくなる。従って、ハレーション評価部14は、検出不要なハレーションを検出しなくなる。 If YES is determined in S101, the subject brightness is bright. When the subject brightness is bright, it is assumed that the degree of influence on the visibility of the subject due to halation caused by the headlights of the vehicle is low. In this case, the threshold value determination unit 15 increases the brightness threshold value for labeling each brightness region in S102. As a result, when the brightness of the subject is bright, the brightness level of the brightness region used in the determination of S107 becomes high. In this case, the distribution of the brightness area as shown in FIG. 3 is not detected. Therefore, the halation evaluation unit 14 does not detect unnecessary halation.

以上において、ハレーション評価部14は、第1の輝度領域を中心として外周方向に向かうに応じて輝度が低くなる第nの領域があるかに基づいて、被写体の視認性に影響を与えるハレーションを検出する。ハレーション評価部14は、上記以外の方法で、被写体の視認性に影響を与えるハレーションを検出してもよい。例えば、ハレーション評価部14は、第1の輝度領域を白とび領域として、第1の輝度領域以外の輝度領域をフレア領域として、白とび領域とフレア領域との面積比を評価することで、ハレーションの検出を行ってもよい。 In the above, the halation evaluation unit 14 detects the halation that affects the visibility of the subject based on whether or not there is the n-th area in which the brightness decreases in the outer peripheral direction around the first brightness area. To do. The halation evaluation unit 14 may detect the halation that affects the visibility of the subject by a method other than the above. For example, the halation evaluation unit 14 evaluates the area ratio between the overexposed region and the flare region by using the first luminance region as the overexposed region and the luminance region other than the first luminance region as the flare region, thereby evaluating the halation. May be detected.

<第2の実施形態>
次に、第2の実施形態について説明する。ハレーションは、環境光と高輝度被写体との輝度比が大きい場合に発生しやすく、例えば、夜間等に多く発生する。撮像装置1が公道監視のカメラ等に適用される場合、撮像装置1が撮影する画像データには、車のヘッドライトによるハレーションだけでなく、街灯の光によるハレーションも発生し得る。第2実施形態の撮像装置1は、街灯等の静物の光をハレーション検出の対象から除外する。図4は、第2の実施形態に係る撮像装置1の構成例を示す図である。第2の実施形態の撮像装置1は、バンドパスフィルタ9、動体検出部17、赤外照明制御部18、赤外照明部20およびタイマ21を有している点で、図1に示した第1の実施形態の撮像装置1と異なる。第2の実施形態の撮像装置1の他の構成は、第1の実施形態の撮像装置1と同様であるため、説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. Halation tends to occur when the luminance ratio between the ambient light and the high-luminance subject is large, and often occurs, for example, at night. When the imaging device 1 is applied to a public road surveillance camera or the like, image data captured by the imaging device 1 may include not only halation caused by a headlight of a vehicle but also halation caused by streetlight light. The imaging device 1 of the second embodiment excludes the light of a still life such as a street lamp from the target of halation detection. FIG. 4 is a diagram showing a configuration example of the image pickup apparatus 1 according to the second embodiment. The image pickup apparatus 1 of the second embodiment has a bandpass filter 9, a moving body detection unit 17, an infrared illumination control unit 18, an infrared illumination unit 20, and a timer 21, and is the same as that shown in FIG. The imaging device 1 of the first embodiment is different. Other configurations of the image pickup apparatus 1 according to the second embodiment are similar to those of the image pickup apparatus 1 according to the first embodiment, and thus the description thereof will be omitted.

バンドパスフィルタ9は、撮影レンズ3と撮像センサ4との間に挿抜可能に配置される。バンドパスフィルタ9は、特定波長域の光をカットするフィルタである。バンドパスフィルタ9は、所定の挿抜機構により、撮影レンズ3から入射する入射光の光路に対して挿入または抜去される。赤外照明制御部18は、赤外照明部20から赤外光を照射させる制御を行う。タイマ21は、時間をカウントし、所定時間が経過したときに、システム制御部6に通知する。 The bandpass filter 9 is arranged between the taking lens 3 and the image sensor 4 so that it can be inserted and removed. The bandpass filter 9 is a filter that cuts light in a specific wavelength range. The bandpass filter 9 is inserted into or removed from the optical path of incident light entering from the taking lens 3 by a predetermined insertion/removal mechanism. The infrared illumination control unit 18 controls the infrared illumination unit 20 to emit infrared light. The timer 21 counts time and notifies the system control unit 6 when a predetermined time has elapsed.

バンドパスフィルタ9は、赤外光をカットする赤外カットフィルタと可視光をカットする可視光カットフィルタとを有するものとする。例えば、ハレーション評価部14がハレーションの発生を検出した場合、被写体の視認性の回復を目的として、上述した所定の挿抜機構は、撮影レンズ3から入射する入射光の光路にバンドパスフィルタ9の可視光カットフィルタを挿入する。そして、所定の挿抜機構は、撮影レンズ3から入射する入射光の光路にバンドパスフィルタ9の赤外カットフィルタを抜去する。これにより、ハレーションの影響度が低減する。バンドパスフィルタ9の挿抜制御は、例えば、システム制御部6により行われる。システム制御部6が、入射光の光路に可視光カットフィルタを挿入する制御を行った場合、赤外照明制御部18は、赤外照明部20から赤外光を照射させる。このとき、赤外照明制御部18は、軽減されたハレーションの光よりも高い照度の赤外光を照射するように赤外照明部20を制御する。これにより、撮像装置1が取得する画像データの明るさが保証され、ハレーションをより軽減させる。 The bandpass filter 9 has an infrared cut filter that cuts infrared light and a visible light cut filter that cuts visible light. For example, when the halation evaluation unit 14 detects the occurrence of halation, the predetermined insertion/removal mechanism described above is used for the purpose of recovering the visibility of the subject and the visible light of the band-pass filter 9 is visible in the optical path of the incident light incident from the taking lens 3. Insert a light cut filter. Then, the predetermined insertion/removal mechanism removes the infrared cut filter of the bandpass filter 9 from the optical path of the incident light incident from the taking lens 3. This reduces the influence of halation. The insertion/extraction control of the bandpass filter 9 is performed by, for example, the system control unit 6. When the system control unit 6 controls to insert the visible light cut filter in the optical path of the incident light, the infrared illumination control unit 18 causes the infrared illumination unit 20 to emit infrared light. At this time, the infrared illumination control unit 18 controls the infrared illumination unit 20 so that the infrared illumination unit 20 emits infrared light having an illuminance higher than that of the reduced halation light. As a result, the brightness of the image data acquired by the imaging device 1 is guaranteed, and halation is further reduced.

メモリ7には、画像生成部11が生成した画像データが一時的に記憶される。システム制御部6がタイマ21から所定時間の経過を示す通知を受信した際、画像処理部10は、動き検出における背景差分用の基準画像を、通知を受信したタイミングで取得された画像データに更新する。第2の実施形態では、撮像装置1は、静物によるハレーションと動体によるハレーションとを区別し、ハレーションの検出対象を動体に絞る。静物は、動きのない対象物に対応する。動体は、動きのある対象物に対応する。 The image data generated by the image generation unit 11 is temporarily stored in the memory 7. When the system control unit 6 receives the notification indicating that the predetermined time has elapsed from the timer 21, the image processing unit 10 updates the reference image for the background difference in the motion detection with the image data acquired at the timing of receiving the notification. To do. In the second embodiment, the imaging device 1 distinguishes between halation by a still life and halation by a moving body, and narrows down the halation detection target to the moving body. A still life corresponds to a stationary object. The moving body corresponds to a moving object.

図5は、第2の実施形態におけるハレーション検出処理の流れについて説明する。図5のフローチャートは、第1の実施形態における図2のフローチャートに、S207、S208、S209およびS212を追加したフローチャートである。S207、S208、S209およびS212以外の各ステップは、図2のフローチャートと同様であるため、説明を省略する。動体検出部17は、背景差分を想定した動き検出を行い、背景差分における基準画像との差異に基づいて、動体があるかを判定する(S207)。図6は、基準画像および時刻tが経過したときに取得された画像データの例を示す。図6(A)は、基準画像(基準となる画像データ)を示す。図6(B)は、時刻tが経過したときに取得された画像データ(フレームt)を示す。画像データは、複数の格子状の領域に分割されており、基準画像およびフレームtにおける画像データの両者とも、白とび領域(第1の輝度領域)である領域Sを含む。領域Sは、基準画像およびフレームtにおける画像データの両者に含まれている。これにより、領域Sは、街灯等のように静物であると判定することができる。 FIG. 5 illustrates the flow of halation detection processing according to the second embodiment. The flowchart of FIG. 5 is a flowchart in which S207, S208, S209 and S212 are added to the flowchart of FIG. 2 in the first embodiment. The steps other than S207, S208, S209, and S212 are the same as those in the flowchart of FIG. The moving body detection unit 17 performs motion detection assuming the background difference, and determines whether there is a moving body based on the difference between the background difference and the reference image (S207). FIG. 6 shows an example of the reference image and the image data acquired when the time t has elapsed. FIG. 6A shows a reference image (reference image data). FIG. 6B shows image data (frame t) acquired when time t has elapsed. The image data is divided into a plurality of grid-shaped areas, and both the reference image and the image data in the frame t include an area S that is an overexposed area (first luminance area). The area S is included in both the reference image and the image data in the frame t. Thereby, the area S can be determined to be a still life such as a street light.

一方、フレームtにおける白とび領域である領域Mは、フレームtの画像データには含まれているが、基準画像には含まれていない。従って、領域Mは、車のような動体であると判定することができる。以上のように、動体があるか否かは、第1の輝度閾値を用いた二値画像により判定することができる。S207においてYESと判定された場合、動体があるため、フローはS210に移行する。従って、ハレーション評価部14は、被写体の視認性に影響を与えるハレーションを検出する対象物を、動体に絞ることができる。上述したように、静物は、被写体の視認性に影響を与えるハレーションを検出する対象から除外される。 On the other hand, the area M, which is an overexposed area in the frame t, is included in the image data of the frame t, but is not included in the reference image. Therefore, the region M can be determined to be a moving body such as a car. As described above, whether or not there is a moving object can be determined from the binary image using the first brightness threshold. If YES is determined in S207, there is a moving object, so the flow proceeds to S210. Therefore, the halation evaluation unit 14 can narrow down the object that detects the halation that affects the visibility of the subject to the moving body. As described above, the still life is excluded from the target for detecting the halation that affects the visibility of the subject.

S207においてNOと判定された場合、システム制御部6は、所定時間が経過したかを判定する(S208)。タイマ21は、所定時間が経過したときにシステム制御部6に対して通知を行う。従って、システム制御部6が、タイマ21から通知を受信していない間は、S208でNOと判定される。S208でNOと判定された場合、フローは、S200に移行する。S208でYESと判定された場合、所定時間が経過し、且つ動体がないと判定されているため、画像処理部10は、基準画像を更新する(S209)。これにより、所定時間ごとに基準画像を最新の画像データに更新することができる。 If NO is determined in S207, the system control unit 6 determines whether a predetermined time has passed (S208). The timer 21 notifies the system control unit 6 when a predetermined time has elapsed. Therefore, while the system control unit 6 does not receive the notification from the timer 21, it is determined as NO in S208. If NO is determined in S208, the flow moves to S200. If YES is determined in S208, it is determined that the predetermined time has elapsed and that there is no moving object, so the image processing unit 10 updates the reference image (S209). As a result, the reference image can be updated to the latest image data every predetermined time.

図5に示されるように、S211にてハレーションが検出されると、システム制御部6は、ハレーションが検出された後に取得される画像データに対して、画像改善処理を施す(S212)。例えば、露出制御部16は、ワイドダイナミックレンジ処理(WDR処理)等の露出制御を実施することで、ハレーション検出後に取得される画像データの画質を改善させてもよい。また、システム制御部6は、所定の挿抜機構に対して、バンドパスフィルタ9の可視光カットフィルタを入射光の光路に挿入させる制御を行ってもよい。これにより、ハレーションが軽減され、ハレーション検出後に取得される画像データの画質が改善する。S212の処理は、第1の実施形態で実施されてもよい。 As shown in FIG. 5, when the halation is detected in S211, the system control unit 6 performs an image improving process on the image data acquired after the halation is detected (S212). For example, the exposure control unit 16 may improve the image quality of image data acquired after halation detection by performing exposure control such as wide dynamic range processing (WDR processing). Further, the system control unit 6 may control the predetermined insertion/removal mechanism to insert the visible light cut filter of the bandpass filter 9 into the optical path of the incident light. This reduces halation and improves the image quality of image data acquired after halation detection. The process of S212 may be performed in the first embodiment.

以上、本発明の好ましい実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made within the scope of the gist thereof. The present invention supplies a program that implements one or more functions of each of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors of a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1 撮像装置
6 システム制御部
10 画像処理部
12 第1の評価部
13 第2の評価部
14 ハレーション評価部
15 閾値決定部
16 露出制御部
17 動体検出部
DESCRIPTION OF SYMBOLS 1 Imaging device 6 System control part 10 Image processing part 12 1st evaluation part 13 2nd evaluation part 14 Halation evaluation part 15 Threshold value determination part 16 Exposure control part 17 Moving body detection part

Claims (10)

被写体の画像データが取得された際の露出レベルに基づいて、被写体の輝度を評価する評価手段と、
前記被写体の輝度と、第1の輝度閾値より高い輝度の第1の輝度領域と、当該第1の輝度領域より低い輝度の領域であり前記第1の輝度領域の周辺に分布する他の輝度領域の分布状況とに基づいて、ハレーションを検出する検出手段と、
を備えることを特徴とする電子機器。
Based on the exposure level when the image data of the subject was acquired, an evaluation means for evaluating the brightness of the subject,
The brightness of the subject, a first brightness region having a brightness higher than a first brightness threshold, and a brightness region lower than the first brightness region and distributed around the first brightness region. Detection means for detecting halation based on the distribution state of
An electronic device comprising:
単一または複数の輝度閾値を用いて、前記第1の輝度領域および前記他の輝度領域を含む輝度領域を分類する分類手段と、
前記被写体の輝度に応じて、前記輝度閾値を変更する変更手段と、
を備えることを特徴とする請求項1に記載の電子機器。
Classifying means for classifying a brightness area including the first brightness area and the other brightness area using a single or a plurality of brightness threshold values;
Changing means for changing the brightness threshold value according to the brightness of the subject;
The electronic device according to claim 1, further comprising:
前記変更手段は、前記被写体の輝度が所定輝度以上である場合に、輝度閾値を高くすることを特徴とする請求項2に記載の電子機器。 The electronic device according to claim 2, wherein the changing unit increases the brightness threshold when the brightness of the subject is equal to or higher than a predetermined brightness. 前記検出手段は、前記第1の輝度領域を中心として、外周方向に向かうに応じて輝度が低くなる輝度領域を検出した場合に、前記ハレーションを検出することを特徴とする請求項1乃至3のうち何れか1項に記載の電子機器。 4. The halation is detected when the detecting means detects a brightness area in which the brightness decreases with going toward the outer peripheral direction with the first brightness area as the center, and the halation is detected. The electronic device according to any one of the above. 撮像センサの露出レベルを制御する露出制御手段、をさらに備え、
前記評価手段は、前記露出制御手段が検出する露出レベルに基づいて、前記被写体の輝度および環境光の輝度を評価することを特徴とする請求項1乃至4のうち何れか1項に記載の電子機器。
Exposure control means for controlling the exposure level of the image sensor,
The electronic device according to any one of claims 1 to 4, wherein the evaluation unit evaluates the brightness of the subject and the brightness of ambient light based on the exposure level detected by the exposure control unit. machine.
前記検出手段は、前記環境光の輝度と前記被写体の輝度との輝度比が所定値以下である場合、前記ハレーションを検出するために参照する輝度領域の範囲を拡大することを特徴とする請求項5に記載の電子機器。 The detection means expands a range of a brightness region to be referred to for detecting the halation when a brightness ratio between the brightness of the ambient light and the brightness of the subject is a predetermined value or less. The electronic device according to item 5. 前記検出手段は、前記画像データの対象物のうち動きのある対象物について前記ハレーションを検出し、動きのない対象物については前記ハレーションを検出しないことを特徴とする請求項1乃至6のうち何れか1項に記載の電子機器。 7. The detection means detects the halation for a moving object among the objects of the image data, and does not detect the halation for a stationary object. The electronic device according to item 1. 前記電子機器は、撮像素子を有する撮像装置であることを特徴とする請求項1乃至7のうち何れか1項に記載の電子機器。 The electronic device according to claim 1, wherein the electronic device is an imaging device having an imaging element. 被写体の画像データが取得された際の露出レベルに基づいて、被写体の輝度を評価する工程と、
前記被写体の輝度と、第1の輝度閾値より高い輝度の第1の輝度領域と、当該第1の輝度領域より低い輝度の領域であり前記第1の輝度領域の周辺に分布する他の輝度領域の分布状況とに基づいて、ハレーションを検出する工程と、
を備えることを特徴とする電子機器の制御方法。
A step of evaluating the brightness of the subject based on the exposure level when the image data of the subject was acquired;
The brightness of the subject, a first brightness region having a brightness higher than a first brightness threshold, and a brightness region lower than the first brightness region and distributed around the first brightness region. Detecting halation based on the distribution state of
A method of controlling an electronic device, comprising:
請求項9に記載の電子機器の制御方法をコンピュータに実行させるためのコンピュータが読み取り可能なプログラム。 A computer-readable program for causing a computer to execute the method for controlling an electronic device according to claim 9.
JP2018238628A 2018-12-20 2018-12-20 ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE Active JP7297441B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018238628A JP7297441B2 (en) 2018-12-20 2018-12-20 ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE
US16/708,992 US11240439B2 (en) 2018-12-20 2019-12-10 Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium
EP19217578.4A EP3671552A1 (en) 2018-12-20 2019-12-18 Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238628A JP7297441B2 (en) 2018-12-20 2018-12-20 ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE

Publications (2)

Publication Number Publication Date
JP2020102703A true JP2020102703A (en) 2020-07-02
JP7297441B2 JP7297441B2 (en) 2023-06-26

Family

ID=71139957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238628A Active JP7297441B2 (en) 2018-12-20 2018-12-20 ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE

Country Status (1)

Country Link
JP (1) JP7297441B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116540435A (en) * 2023-07-04 2023-08-04 惠科股份有限公司 Halation test method and halation test equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118788A (en) * 2000-10-11 2002-04-19 Fujitsu Ltd Video monitoring device
JP2004072415A (en) * 2002-08-06 2004-03-04 Fuji Heavy Ind Ltd Intruding object detector
JP2005191954A (en) * 2003-12-25 2005-07-14 Niles Co Ltd Image pickup system
WO2005064922A1 (en) * 2003-12-25 2005-07-14 Niles Co., Ltd. Imaging system
JP2007166076A (en) * 2005-12-12 2007-06-28 Nikon Corp Imaging device
JP2017161232A (en) * 2016-03-07 2017-09-14 オムロン株式会社 Image measurement system and controller

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118788A (en) * 2000-10-11 2002-04-19 Fujitsu Ltd Video monitoring device
JP2004072415A (en) * 2002-08-06 2004-03-04 Fuji Heavy Ind Ltd Intruding object detector
JP2005191954A (en) * 2003-12-25 2005-07-14 Niles Co Ltd Image pickup system
WO2005064922A1 (en) * 2003-12-25 2005-07-14 Niles Co., Ltd. Imaging system
JP2007166076A (en) * 2005-12-12 2007-06-28 Nikon Corp Imaging device
JP2017161232A (en) * 2016-03-07 2017-09-14 オムロン株式会社 Image measurement system and controller

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116540435A (en) * 2023-07-04 2023-08-04 惠科股份有限公司 Halation test method and halation test equipment
CN116540435B (en) * 2023-07-04 2023-09-22 惠科股份有限公司 Halation test method and halation test equipment

Also Published As

Publication number Publication date
JP7297441B2 (en) 2023-06-26

Similar Documents

Publication Publication Date Title
JP4738778B2 (en) Image processing device, driving support device, and driving support system
US11758279B2 (en) WDR imaging with LED flicker mitigation
JP5437855B2 (en) Obstacle detection device, obstacle detection system including the same, and obstacle detection method
US9961269B2 (en) Imaging device, imaging device body, and lens barrel that can prevent an image diaphragm value from frequently changing
CN104811593A (en) Imaging apparatus, imaging method, and focus control apparatus
JPWO2011067906A1 (en) Recognizing imaging apparatus and control method thereof
US11240439B2 (en) Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium
JP4400512B2 (en) In-vehicle camera control device
JP2009009072A (en) Dynamic focus zone for camera
JP2017063245A (en) Imaging device
JP7297441B2 (en) ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE
JP6302679B2 (en) IMAGING DEVICE, IMAGING METHOD, FOCUS CONTROL DEVICE
US11190704B2 (en) Imaging apparatus and control method for performing live view display of a tracked object
JP4523629B2 (en) Imaging device
JP2005189634A (en) Focus detector for camera
JP7278764B2 (en) IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM
KR101615381B1 (en) Image acquisition method and digital camera system
JP6525723B2 (en) Imaging device, control method therefor, program, and storage medium
KR101091913B1 (en) Back light compensation method of camera
JP2003143486A (en) Image pickup device
JP2005333248A (en) Method and apparatus for adjusting luminance of picture in camera type vehicle sensor
JP2017011351A (en) Imaging apparatus, control method of the same, and control program
JP2007011199A (en) Imaging apparatus
JP2004072415A (en) Intruding object detector
JP2006033577A (en) Monitoring camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R151 Written notification of patent or utility model registration

Ref document number: 7297441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151