JP2020102703A - Electronic device, control method of the same, and program - Google Patents
Electronic device, control method of the same, and program Download PDFInfo
- Publication number
- JP2020102703A JP2020102703A JP2018238628A JP2018238628A JP2020102703A JP 2020102703 A JP2020102703 A JP 2020102703A JP 2018238628 A JP2018238628 A JP 2018238628A JP 2018238628 A JP2018238628 A JP 2018238628A JP 2020102703 A JP2020102703 A JP 2020102703A
- Authority
- JP
- Japan
- Prior art keywords
- brightness
- halation
- subject
- electronic device
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、ハレーションの検出を行う電子機器、電子機器の制御方法およびプログラムに関する。 The present invention relates to an electronic device that detects halation, a method for controlling the electronic device, and a program.
カメラを用いて低照度(低輝度)な環境で被写体を撮像する場合に、高照度な光がカメラに入射すると、光源の撮像位置の周囲に光が漏れ出て撮像されるハレーションという現象が生じる。ハレーションは、高輝度な入射光が撮像素子に結像して撮像素子で電荷が過剰に発生することにより、周囲の画素に伝搬することにより生じる。例えば、公道を監視するカメラを用いた被写体の撮像を行う場合にハレーションが発生することがある。車のヘッドライトが点灯している場合、周囲の環境光とヘッドライトの光とで大きなコントラストを生じるため、この状態で被写体を撮像することで、車のヘッドライトの周囲にハレーションが生じた画像が得られる。そして、ハレーションが生じた画像では、車の外観やナンバープレート等の視認性が低下する。 When a subject is imaged in a low-illuminance (low-luminance) environment using a camera, if high-illumination light enters the camera, light leaks out around the image capturing position of the light source, causing a phenomenon called halation. .. Halation occurs when high-intensity incident light forms an image on the image sensor and excessive charges are generated in the image sensor, and propagates to surrounding pixels. For example, halation may occur when a subject is imaged using a camera that monitors a public road. When the headlights of a car are lit, a large contrast occurs between the ambient light and the light of the headlights. Therefore, by imaging the subject in this state, an image with halation around the headlights of the car is generated. Is obtained. Then, in the image with halation, the appearance of the car and the visibility of the license plate and the like deteriorate.
関連する技術として、ハレーションが発生している場合には、CCDカメラに一般的に備えられている電子シャッターを用いて入射光量を減少させる技術が提案されている(特許文献1を参照)。特許文献1には、入射する過剰な光をマスキングために、カメラのレンズ前方に、液晶板からなる光量調節手段を設けて、光量の調節を行う点が示されている。 As a related technique, there has been proposed a technique for reducing the amount of incident light by using an electronic shutter generally provided in a CCD camera when halation occurs (see Patent Document 1). Patent Document 1 discloses that in order to mask excessive incident light, a light amount adjusting means made of a liquid crystal plate is provided in front of the lens of the camera to adjust the light amount.
例えば、特許文献1では、ハレーションの影響を排除するために、電子シャッターを高速値に変更することで、入射光量を減少させている。あるいは、ハレーションの影響を排除するために、カメラのレンズ前方に、液晶板を設けて、入射光量を減少させることもできる。ここで、カメラの撮影により得られた画像にハレーションが発生していたとしても、画像の視認性に与える影響が低い場合がある。例えば、画像内に車のヘッドライトによるハレーションが発生していたとしても、ナンバープレートの視認性に与える影響が低い場合がある。 For example, in Patent Document 1, the amount of incident light is reduced by changing the electronic shutter to a high speed value in order to eliminate the effect of halation. Alternatively, in order to eliminate the influence of halation, a liquid crystal plate may be provided in front of the lens of the camera to reduce the amount of incident light. Here, even if halation occurs in the image captured by the camera, the effect on the visibility of the image may be low. For example, even if halation occurs due to the headlights of a car in the image, the effect on the visibility of the license plate may be low.
一方、電子シャッターの制御あるいは液晶板により入射光量が減少して得られる画像は、入射光量が減少することに起因して、画質が低下する。従って、ハレーションの影響を排除するために入射光量を減少させると、ハレーションに起因する被写体の視認性の影響が低いにもかかわらず、画像の画質が低下する。 On the other hand, an image obtained by reducing the amount of incident light by controlling the electronic shutter or the liquid crystal plate has a reduced image quality due to the reduction in the amount of incident light. Therefore, if the amount of incident light is reduced in order to eliminate the effect of halation, the image quality of the image will deteriorate even though the effect of visibility of the subject due to halation is small.
本発明の目的は、被写体の視認性に与える影響を考慮したハレーションの検出精度を向上することにある。 An object of the present invention is to improve the detection accuracy of halation in consideration of the influence on the visibility of a subject.
上記目的を達成するために、本発明の電子機器は、被写体の画像データが取得された際の露出レベルに基づいて、被写体の輝度を評価する評価手段と、前記被写体の輝度と、第1の輝度閾値より高い輝度の第1の輝度領域と、当該第1の輝度領域より低い輝度の領域であり前記第1の輝度領域の周辺に分布する他の輝度領域の分布状況とに基づいて、ハレーションを検出する検出手段と、を備えることを特徴とする。 In order to achieve the above object, an electronic device of the present invention includes an evaluation unit that evaluates the brightness of a subject based on an exposure level when image data of the subject is acquired; a brightness of the subject; The halation is performed based on the first luminance area having a luminance higher than the luminance threshold and the distribution situation of other luminance areas distributed around the first luminance area and having a lower luminance than the first luminance area. And a detection unit for detecting.
本発明によれば、被写体の視認性に与える影響を考慮したハレーションの検出精度を向上することができる。 According to the present invention, it is possible to improve the detection accuracy of halation in consideration of the influence on the visibility of the subject.
以下、本発明の各実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施の形態に記載されている構成によって限定されることはない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in each of the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in each of the embodiments.
<第1の実施形態>
図1は、第1の実施形態に係る撮像装置1の構成例を示す図である。撮像装置1は、撮影レンズ3、撮像センサ4、A/D変換器5、システム制御部6、メモリ7および記憶媒体8を有する。以下、各実施形態において、撮像装置1は、公道監視を行うカメラに適用されるものとして説明する。撮像装置1は、無人運用の公道監視カメラであってもよい。ただし、撮像装置1は、公道監視以外の用途に用いられてもよい。また、撮像装置1は動画撮影を行うものとして説明するが、撮像装置1は静止画撮影を行ってもよい。撮像装置1は、被写体の視認性に影響を及ぼすハレーションの検出を行う。被写体としては、車のナンバープレートや車の外観等が想定される。例えば、夜間等の照度が低い環境下で、撮像装置100が公道監視を行う場合、車のヘッドライトにより、撮像装置100が撮像した画像にハレーションが発生することがある。ただし、画像にハレーションが発生していたとしても、ハレーションによる影響度が低い場合がある。この場合、ハレーションが発生している画像から、被写体としての車番等を判別できることがある。そこで、各実施形態では、被写体の視認性に与える影響を考慮したハレーションの検出が行われる。
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of the image pickup apparatus 1 according to the first embodiment. The image pickup apparatus 1 includes a taking
撮像装置1は、撮像光学系として、被写体の光学像を取り込む光学レンズ群を示す撮影レンズ3を有する。撮像センサ4は撮像光学系を通過した入射光を受光する。撮像センサ4は、受光した入射光を光電変換して、光学像としての被写体像を形成する。撮像センサ4は、光電変換されたアナログ電気信号(アナログ撮像信号)をA/D変換器5に出力する。A/D変換器5は、アナログ電気信号をデジタル信号(デジタル撮像信号)に変換して、システム制御部6に出力する。システム制御部6は、画像処理部10および露出制御部16を有する。画像処理部10は、システム制御部6に入力されたデジタル撮像信号に対して、各種の画像処理を施して、画像データを生成する。これにより、画像データが取得される。露出制御部16は、画像処理部10の画像生成部11で生成された画像データの明るさを判定して、撮像センサ4における電子シャッター、絞りまたは利得の何れかを制御する。これにより、画像データの明るさが補正される。
The image pickup apparatus 1 has, as an image pickup optical system, a taking
撮影レンズ3は、光軸方向に移動して焦点距離を変更する変倍レンズ、および光軸方向に移動して焦点調節を行うフォーカスレンズを有するものとする。撮像センサ4は、固体撮像素子(CCD)を用いたセンサである。撮像装置1は、カラーカメラまたはモノクロカメラに適用できる。撮像装置1がカラーカメラである場合には、撮像センサ4よりも撮像装置1の開口部側に、カラーフィルタが設置される。露出制御手段としての露出制御部16は、自動露出制御機能を有しており、画像生成部11で生成された画像データに基づいて、画像の明るさを調整するための命令を撮像センサ4に送る。これにより、露出レベルが制御されるため、撮像装置1が撮像する画像の明るさが調整される。
The taking
システム制御部6は、各種の制御を行う。メモリ7は、例えば、RAMである。記憶媒体8は、例えば、ROMである。システム制御部6は、記憶媒体8に記憶されている制御プログラムがメモリ7に展開され、展開された制御プログラムをCPUが実行することにより、実現されてもよい。図1に示される構成の場合、撮像センサ4およびシステム制御部6を有する撮像装置1は、電子機器に対応する。システム制御部6は、撮像装置1とは別途の制御装置(例えば、パーソナルコンピュータ等)として設けられてもよい。この場合、システム制御部6として機能する外部の制御装置は、撮像装置1と通信を行うことにより、各実施形態の処理が実現される。この場合、外部の制御装置が電子機器に対応する。
The
画像処理部10は、画像生成部11、第1の評価部12、第2の評価部13、ハレーション評価部14および閾値決定部15を有する。画像生成部11は、デジタル撮像信号に基づいて、画像データを生成する。第1の評価部12は、画像データの輝度を評価して、白とび領域(第1の輝度領域)および白とび領域の周辺に分布する1または複数の他の輝度領域を分類する。第1の評価部12は、分類手段に対応する。評価手段としての第2の評価部13は、露出レベルから被写体の輝度および環境光の輝度を推定して、被写体の輝度および環境光の輝度を評価する。ハレーション評価部14は、第1の評価部12で検出された各輝度領域の分布に基づいて、被写体の視認性に対する影響が低いハレーションが発生しているかの評価を行う。被写体の視認性に対する影響が低いハレーションは、検出不要なハレーションである。なお、本実施形態では、APEX(ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE)システムに基づいて露出や照度(輝度)の明るさを定義する。例えば、被写体の輝度が1BVと2BVである場合の差は、APEXシステムにおける被写体の照度(輝度)の1段分の明るさの違いに相当する。
The
ハレーション評価部14は、白とび領域および白とび領域の周囲の高輝度領域の分布状況だけではなく、被写体の輝度も考慮して、被写体の視認性に対する影響を与えるハレーションが発生しているかの評価を行う。検出手段としてのハレーション評価部14の評価結果に応じて、被写体の視認性に対して影響を与えるハレーションが検出される。閾値決定部15は、第2の評価部13が被写体の輝度を評価する際に使用される輝度閾値、およびハレーション評価部14がハレーションを評価する際に使用される輝度閾値を決定する。変更手段としての閾値決定部15は、第2の評価部13により評価された被写体の輝度に応じて、輝度閾値を変更する。
The
図2を参照して、第1の実施形態におけるハレーション検出処理の流れについて説明する。第2の評価部13は、露出レベルから被写体の輝度を推定して、被写体輝度を評価する(S100)。閾値決定部15は、被写体輝度が所定輝度以上であるかを判定する(S101)。所定輝度は、任意の値に設定することができる。閾値決定部15は、S101でYESと判定した場合、画像データから輝度領域を分類する際に用いられる輝度閾値を高くする(S102)。第1の評価部12は、1または複数の輝度閾値を用いて、画像データから複数の輝度領域を検出し、検出された各輝度領域をラベリングする(S103)。ラベリングは、画像データ中の各輝度領域を分類する処理である。S101でYESと判定された場合、閾値決定部15は、輝度閾値を高い値に設定する。輝度閾値の初期値は、任意の値であってよい。例えば、輝度閾値の初期値は、夜間や明け方、夕刻等の低照度の環境下でハレーションを検出するための輝度閾値であってもよい。S101でYESと判定されると、閾値決定部15は、輝度閾値を初期値から高い値に変更する。
The flow of halation detection processing in the first embodiment will be described with reference to FIG. The
第1の評価部12は、最も高い輝度レベル(第1の輝度閾値以上の輝度)を有する領域を第1の輝度領域としてラベリングする。そして、第1の評価部12は、第1の輝度領域を中心として、第nの輝度閾値(nは2以上の整数)以上であり、且つ第(n−1)の輝度閾値未満の輝度を有する領域を第nの領域としてラベリングする。「n」の値が大きくなるに応じて、第nの領域の輝度レベルは低くなる。第1の輝度領域は、例えば、白とび領域である。
The
図3は、輝度の勾配および各輝度領域の一例を示す図である。図3は「n=3」の場合であり、第1の輝度閾値、第2の輝度閾値および第3の輝度閾値が用いられている。図3(A)は、画像データの輝度の勾配と各輝度閾値との関係を示す。図3(B)は、図3(A)に対応した各輝度領域(ラベリングされた各輝度領域)の分布を示す。第1の輝度領域は、最も高い輝度レベルの領域であり、第1の輝度閾値以上の輝度の領域である。図3(B)に示されるように、第1の輝度領域を中心として、同心円状に第2の輝度領域が分布し、第2の輝度領域の外側に第3の輝度領域が分布している。ハレーション評価部14は、図3(B)のように、第1の輝度領域を中心として、外周方向に向かうに応じて、輝度が低くなる輝度領域が分布している場合に、ハレーションを検出する。
FIG. 3 is a diagram showing an example of the brightness gradient and each brightness region. FIG. 3 shows the case of “n=3”, and the first brightness threshold value, the second brightness threshold value, and the third brightness threshold value are used. FIG. 3A shows the relationship between the brightness gradient of image data and each brightness threshold value. FIG. 3B shows a distribution of each luminance region (each labeled luminance region) corresponding to FIG. The first luminance region is a region having the highest luminance level and a region having a luminance equal to or higher than the first luminance threshold. As shown in FIG. 3B, the second luminance region is distributed concentrically around the first luminance region, and the third luminance region is distributed outside the second luminance region. .. As shown in FIG. 3(B), the
ここで、S101においてYESと判定された場合、S102の処理が実行される。つまり、被写体輝度が明るい場合、閾値決定部15は、輝度閾値を高くする。これにより、被写体輝度が明るい場合には、白とび領域周辺の輝度の階調性が保たれる。そして、ハレーション評価部14は、検出不要なハレーションを検出しなくなる。
Here, if YES is determined in S101, the process of S102 is executed. That is, when the subject brightness is bright, the
ハレーションは輝度が白とび領域の周囲で発生しやすいため、ハレーション評価部14は、ラベリングされた第1の輝度領域を白とび領域として抽出する(S104)。ハレーション評価部14は、白とび領域の周囲の輝度の分布状況に着目して、ハレーション検出の評価を行う。ハレーション評価部14は、第1の輝度領域(白とび領域)を中心として、どの程度の範囲まで参照(または走査)して、ハレーション検出の評価を行うかを、被写体輝度に応じて決定する。これは、環境光と高輝度被写体との輝度比によって被写体の認識性に対するハレーションの影響度が変化するためである。高輝度被写体としては、例えば、ナンバープレート等の白色の被写体が想定される。
Since the halation easily occurs around the overexposed area, the
高輝度被写体が撮像装置1の画角に侵入した際に明るさ補正のために露光量が変化する。撮像装置1が撮影した動画における前後のフレーム(画像データ)の露光量の変化が大きくなると、環境光と高輝度被写体との輝度比も大きくなる。環境光と高輝度被写体とで輝度比が大きい場合、ハレーションによる被写体の視認性に対する影響度は大きいことが想定される。一方、前後のフレームの露光量の変化が小さい場合、環境光と高輝度被写体とで輝度比は小さい。この場合、ハレーションによる被写体の視認性に対する影響度は小さいことが想定される。ハレーション評価部14は、被写体の視認性に影響を与えない程度のハレーションは検出しない。ハレーションが検出されると、画像データに対するハレーションの影響を抑制する制御が行われる。例えば、撮像装置1が、撮影レンズ3の光路上に特定波長の光をカットするフィルタ(例えば、可視光カットフィルタ)を挿抜する挿抜機構を有している場合、ハレーションが検出されたことに応じて、挿抜機構がフィルタを光路上に挿入する。これにより、ハレーションの影響を抑制することができる。
When a high-luminance subject enters the angle of view of the image pickup apparatus 1, the exposure amount changes for brightness correction. When the change in the exposure amount of the preceding and following frames (image data) in the moving image captured by the imaging device 1 increases, the brightness ratio between the ambient light and the high-brightness subject also increases. When the brightness ratio between the ambient light and the high-luminance subject is large, it is assumed that the degree of influence of halation on the visibility of the subject is large. On the other hand, when the change in the exposure amount between the front and rear frames is small, the brightness ratio between the ambient light and the high brightness subject is small. In this case, it is assumed that the degree of influence of halation on the visibility of the subject is small. The
ただし、可視光カットフィルタが光路上に挿入されると、可視光成分の光がカットされるため、画像データの画質が低下する。そこで、ハレーション評価部14は、被写体の視認性に影響を与えない程度のハレーションは、ハレーションとして検出しない。これにより、検出不要なハレーションが検出されることによる画像データの画質の低下が回避される。
However, when the visible light cut filter is inserted in the optical path, the light of the visible light component is cut, so that the image quality of the image data deteriorates. Therefore, the
ここで、白とび領域(第1の輝度領域)の周辺の輝度勾配に着目するハレーション検出では、白とび領域周辺の被写体の輝度によって検出精度が左右される傾向にある。ハレーションの影響度にかかわらず、白とび領域周辺の被写体の輝度が高い場合には、白とび領域周辺の被写体の輝度がフレアによる輝度として検出される。従って、単に、白とび領域の周辺の輝度勾配に着目するハレーション検出では、ハレーション検出の信頼性は低い。そこで、ハレーション評価部14は、環境光と高輝度被写体との輝度比が所定値以下であるかを判定する(S105)。上述したように、環境光と高輝度被写体との輝度比は、前後のフレームの露光量の変化に基づいて取得される。例えば、環境光と高輝度被写体との輝度比は、前後のフレームの露光量の変化を時間で微分した値に基づいて取得される。S105でYESと判定された場合、環境光と高輝度被写体との輝度比は小さい。この場合、ハレーション評価部14は、ハレーション検出を行うための参照範囲を拡大する(S106)。例えば、S105でNOと判定された場合、ハレーション評価部14は、ハレーション検出を行うための参照する輝度領域を、第1の輝度領域および第2の輝度領域としてもよい。一方、S105でYESと判定された場合、ハレーション検出を行うための参照する輝度領域を、第1の輝度領域および第2の輝度領域だけでなく、第3の輝度領域まで拡大する。これにより、環境光と高輝度被写体との輝度比が小さい場合でも、ハレーション検出の信頼性を向上させることができる。
Here, in the halation detection focusing on the brightness gradient around the whiteout region (first brightness region), the detection accuracy tends to depend on the brightness of the subject around the whiteout region. Regardless of the degree of influence of halation, when the brightness of the subject around the overexposed area is high, the brightness of the subject around the overexposed area is detected as the brightness due to flare. Therefore, the reliability of halation detection is low in halation detection that simply focuses on the brightness gradient around the overexposed area. Therefore, the
ハレーション評価部14は、参照範囲内において、第(n−1)の輝度領域より輝度が小さい第nの輝度領域が外周方向に分布しているかを判定する(S107)。つまり、ハレーション評価部14は、図3に示される第1の輝度領域から外周方向に向かうに従って輝度レベルが小さくなる輝度領域が分布していると評価することで、ハレーションの判定を行う。S107でYESと判定された場合、ハレーションを検出する(S108)。一方、S107でNOと判定された場合、フローは、S100に移行する。この場合、ハレーションは検出されない。つまり、被写体の視認性に対する影響が低いハレーション(検出不要なハレーション)は検出されない。以上が、第1の実施形態におけるハレーション検出処理である。
The
第1の輝度領域と他の輝度領域(第1の輝度領域の周辺に分布している輝度領域)とに基づいてハレーションが検出される場合、被写体の視認性に対する影響が低いハレーションも検出されてしまう。一方、実施形態のシステム制御部6は、画像データが取得された際の露出レベルに基づいて、被写体の輝度を評価する。そして、システム制御部6は、被写体の輝度と第1の輝度領域と他の輝度領域とに基づいて、ハレーションの検出を行う。このため、被写体の視認性に対する影響が低い検出不要なハレーションが検出されることが抑制される。
When halation is detected based on the first luminance area and other luminance areas (luminance areas distributed around the first luminance area), halation that has a low influence on the visibility of the subject is also detected. I will end up. On the other hand, the
S101でYESと判定された場合、被写体輝度は明るい。被写体輝度が明るい場合、車のヘッドライト等に起因するハレーションによる被写体の視認性の影響度は低いことが想定される。この場合、閾値決定部15は、S102において、各輝度領域をラベリングするための輝度閾値を高くする。これにより、被写体の輝度が明るい場合には、S107の判定で用いられる輝度領域の輝度レベルが高くなる。この場合、図3で示されるような輝度領域の分布は検出されなくなる。従って、ハレーション評価部14は、検出不要なハレーションを検出しなくなる。
If YES is determined in S101, the subject brightness is bright. When the subject brightness is bright, it is assumed that the degree of influence on the visibility of the subject due to halation caused by the headlights of the vehicle is low. In this case, the threshold
以上において、ハレーション評価部14は、第1の輝度領域を中心として外周方向に向かうに応じて輝度が低くなる第nの領域があるかに基づいて、被写体の視認性に影響を与えるハレーションを検出する。ハレーション評価部14は、上記以外の方法で、被写体の視認性に影響を与えるハレーションを検出してもよい。例えば、ハレーション評価部14は、第1の輝度領域を白とび領域として、第1の輝度領域以外の輝度領域をフレア領域として、白とび領域とフレア領域との面積比を評価することで、ハレーションの検出を行ってもよい。
In the above, the
<第2の実施形態>
次に、第2の実施形態について説明する。ハレーションは、環境光と高輝度被写体との輝度比が大きい場合に発生しやすく、例えば、夜間等に多く発生する。撮像装置1が公道監視のカメラ等に適用される場合、撮像装置1が撮影する画像データには、車のヘッドライトによるハレーションだけでなく、街灯の光によるハレーションも発生し得る。第2実施形態の撮像装置1は、街灯等の静物の光をハレーション検出の対象から除外する。図4は、第2の実施形態に係る撮像装置1の構成例を示す図である。第2の実施形態の撮像装置1は、バンドパスフィルタ9、動体検出部17、赤外照明制御部18、赤外照明部20およびタイマ21を有している点で、図1に示した第1の実施形態の撮像装置1と異なる。第2の実施形態の撮像装置1の他の構成は、第1の実施形態の撮像装置1と同様であるため、説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. Halation tends to occur when the luminance ratio between the ambient light and the high-luminance subject is large, and often occurs, for example, at night. When the imaging device 1 is applied to a public road surveillance camera or the like, image data captured by the imaging device 1 may include not only halation caused by a headlight of a vehicle but also halation caused by streetlight light. The imaging device 1 of the second embodiment excludes the light of a still life such as a street lamp from the target of halation detection. FIG. 4 is a diagram showing a configuration example of the image pickup apparatus 1 according to the second embodiment. The image pickup apparatus 1 of the second embodiment has a bandpass filter 9, a moving
バンドパスフィルタ9は、撮影レンズ3と撮像センサ4との間に挿抜可能に配置される。バンドパスフィルタ9は、特定波長域の光をカットするフィルタである。バンドパスフィルタ9は、所定の挿抜機構により、撮影レンズ3から入射する入射光の光路に対して挿入または抜去される。赤外照明制御部18は、赤外照明部20から赤外光を照射させる制御を行う。タイマ21は、時間をカウントし、所定時間が経過したときに、システム制御部6に通知する。
The bandpass filter 9 is arranged between the taking
バンドパスフィルタ9は、赤外光をカットする赤外カットフィルタと可視光をカットする可視光カットフィルタとを有するものとする。例えば、ハレーション評価部14がハレーションの発生を検出した場合、被写体の視認性の回復を目的として、上述した所定の挿抜機構は、撮影レンズ3から入射する入射光の光路にバンドパスフィルタ9の可視光カットフィルタを挿入する。そして、所定の挿抜機構は、撮影レンズ3から入射する入射光の光路にバンドパスフィルタ9の赤外カットフィルタを抜去する。これにより、ハレーションの影響度が低減する。バンドパスフィルタ9の挿抜制御は、例えば、システム制御部6により行われる。システム制御部6が、入射光の光路に可視光カットフィルタを挿入する制御を行った場合、赤外照明制御部18は、赤外照明部20から赤外光を照射させる。このとき、赤外照明制御部18は、軽減されたハレーションの光よりも高い照度の赤外光を照射するように赤外照明部20を制御する。これにより、撮像装置1が取得する画像データの明るさが保証され、ハレーションをより軽減させる。
The bandpass filter 9 has an infrared cut filter that cuts infrared light and a visible light cut filter that cuts visible light. For example, when the
メモリ7には、画像生成部11が生成した画像データが一時的に記憶される。システム制御部6がタイマ21から所定時間の経過を示す通知を受信した際、画像処理部10は、動き検出における背景差分用の基準画像を、通知を受信したタイミングで取得された画像データに更新する。第2の実施形態では、撮像装置1は、静物によるハレーションと動体によるハレーションとを区別し、ハレーションの検出対象を動体に絞る。静物は、動きのない対象物に対応する。動体は、動きのある対象物に対応する。
The image data generated by the
図5は、第2の実施形態におけるハレーション検出処理の流れについて説明する。図5のフローチャートは、第1の実施形態における図2のフローチャートに、S207、S208、S209およびS212を追加したフローチャートである。S207、S208、S209およびS212以外の各ステップは、図2のフローチャートと同様であるため、説明を省略する。動体検出部17は、背景差分を想定した動き検出を行い、背景差分における基準画像との差異に基づいて、動体があるかを判定する(S207)。図6は、基準画像および時刻tが経過したときに取得された画像データの例を示す。図6(A)は、基準画像(基準となる画像データ)を示す。図6(B)は、時刻tが経過したときに取得された画像データ(フレームt)を示す。画像データは、複数の格子状の領域に分割されており、基準画像およびフレームtにおける画像データの両者とも、白とび領域(第1の輝度領域)である領域Sを含む。領域Sは、基準画像およびフレームtにおける画像データの両者に含まれている。これにより、領域Sは、街灯等のように静物であると判定することができる。
FIG. 5 illustrates the flow of halation detection processing according to the second embodiment. The flowchart of FIG. 5 is a flowchart in which S207, S208, S209 and S212 are added to the flowchart of FIG. 2 in the first embodiment. The steps other than S207, S208, S209, and S212 are the same as those in the flowchart of FIG. The moving
一方、フレームtにおける白とび領域である領域Mは、フレームtの画像データには含まれているが、基準画像には含まれていない。従って、領域Mは、車のような動体であると判定することができる。以上のように、動体があるか否かは、第1の輝度閾値を用いた二値画像により判定することができる。S207においてYESと判定された場合、動体があるため、フローはS210に移行する。従って、ハレーション評価部14は、被写体の視認性に影響を与えるハレーションを検出する対象物を、動体に絞ることができる。上述したように、静物は、被写体の視認性に影響を与えるハレーションを検出する対象から除外される。
On the other hand, the area M, which is an overexposed area in the frame t, is included in the image data of the frame t, but is not included in the reference image. Therefore, the region M can be determined to be a moving body such as a car. As described above, whether or not there is a moving object can be determined from the binary image using the first brightness threshold. If YES is determined in S207, there is a moving object, so the flow proceeds to S210. Therefore, the
S207においてNOと判定された場合、システム制御部6は、所定時間が経過したかを判定する(S208)。タイマ21は、所定時間が経過したときにシステム制御部6に対して通知を行う。従って、システム制御部6が、タイマ21から通知を受信していない間は、S208でNOと判定される。S208でNOと判定された場合、フローは、S200に移行する。S208でYESと判定された場合、所定時間が経過し、且つ動体がないと判定されているため、画像処理部10は、基準画像を更新する(S209)。これにより、所定時間ごとに基準画像を最新の画像データに更新することができる。
If NO is determined in S207, the
図5に示されるように、S211にてハレーションが検出されると、システム制御部6は、ハレーションが検出された後に取得される画像データに対して、画像改善処理を施す(S212)。例えば、露出制御部16は、ワイドダイナミックレンジ処理(WDR処理)等の露出制御を実施することで、ハレーション検出後に取得される画像データの画質を改善させてもよい。また、システム制御部6は、所定の挿抜機構に対して、バンドパスフィルタ9の可視光カットフィルタを入射光の光路に挿入させる制御を行ってもよい。これにより、ハレーションが軽減され、ハレーション検出後に取得される画像データの画質が改善する。S212の処理は、第1の実施形態で実施されてもよい。
As shown in FIG. 5, when the halation is detected in S211, the
以上、本発明の好ましい実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made within the scope of the gist thereof. The present invention supplies a program that implements one or more functions of each of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors of a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1 撮像装置
6 システム制御部
10 画像処理部
12 第1の評価部
13 第2の評価部
14 ハレーション評価部
15 閾値決定部
16 露出制御部
17 動体検出部
DESCRIPTION OF SYMBOLS 1
Claims (10)
前記被写体の輝度と、第1の輝度閾値より高い輝度の第1の輝度領域と、当該第1の輝度領域より低い輝度の領域であり前記第1の輝度領域の周辺に分布する他の輝度領域の分布状況とに基づいて、ハレーションを検出する検出手段と、
を備えることを特徴とする電子機器。 Based on the exposure level when the image data of the subject was acquired, an evaluation means for evaluating the brightness of the subject,
The brightness of the subject, a first brightness region having a brightness higher than a first brightness threshold, and a brightness region lower than the first brightness region and distributed around the first brightness region. Detection means for detecting halation based on the distribution state of
An electronic device comprising:
前記被写体の輝度に応じて、前記輝度閾値を変更する変更手段と、
を備えることを特徴とする請求項1に記載の電子機器。 Classifying means for classifying a brightness area including the first brightness area and the other brightness area using a single or a plurality of brightness threshold values;
Changing means for changing the brightness threshold value according to the brightness of the subject;
The electronic device according to claim 1, further comprising:
前記評価手段は、前記露出制御手段が検出する露出レベルに基づいて、前記被写体の輝度および環境光の輝度を評価することを特徴とする請求項1乃至4のうち何れか1項に記載の電子機器。 Exposure control means for controlling the exposure level of the image sensor,
The electronic device according to any one of claims 1 to 4, wherein the evaluation unit evaluates the brightness of the subject and the brightness of ambient light based on the exposure level detected by the exposure control unit. machine.
前記被写体の輝度と、第1の輝度閾値より高い輝度の第1の輝度領域と、当該第1の輝度領域より低い輝度の領域であり前記第1の輝度領域の周辺に分布する他の輝度領域の分布状況とに基づいて、ハレーションを検出する工程と、
を備えることを特徴とする電子機器の制御方法。 A step of evaluating the brightness of the subject based on the exposure level when the image data of the subject was acquired;
The brightness of the subject, a first brightness region having a brightness higher than a first brightness threshold, and a brightness region lower than the first brightness region and distributed around the first brightness region. Detecting halation based on the distribution state of
A method of controlling an electronic device, comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018238628A JP7297441B2 (en) | 2018-12-20 | 2018-12-20 | ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE |
US16/708,992 US11240439B2 (en) | 2018-12-20 | 2019-12-10 | Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium |
EP19217578.4A EP3671552A1 (en) | 2018-12-20 | 2019-12-18 | Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018238628A JP7297441B2 (en) | 2018-12-20 | 2018-12-20 | ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020102703A true JP2020102703A (en) | 2020-07-02 |
JP7297441B2 JP7297441B2 (en) | 2023-06-26 |
Family
ID=71139957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018238628A Active JP7297441B2 (en) | 2018-12-20 | 2018-12-20 | ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7297441B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116540435A (en) * | 2023-07-04 | 2023-08-04 | 惠科股份有限公司 | Halation test method and halation test equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002118788A (en) * | 2000-10-11 | 2002-04-19 | Fujitsu Ltd | Video monitoring device |
JP2004072415A (en) * | 2002-08-06 | 2004-03-04 | Fuji Heavy Ind Ltd | Intruding object detector |
JP2005191954A (en) * | 2003-12-25 | 2005-07-14 | Niles Co Ltd | Image pickup system |
WO2005064922A1 (en) * | 2003-12-25 | 2005-07-14 | Niles Co., Ltd. | Imaging system |
JP2007166076A (en) * | 2005-12-12 | 2007-06-28 | Nikon Corp | Imaging device |
JP2017161232A (en) * | 2016-03-07 | 2017-09-14 | オムロン株式会社 | Image measurement system and controller |
-
2018
- 2018-12-20 JP JP2018238628A patent/JP7297441B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002118788A (en) * | 2000-10-11 | 2002-04-19 | Fujitsu Ltd | Video monitoring device |
JP2004072415A (en) * | 2002-08-06 | 2004-03-04 | Fuji Heavy Ind Ltd | Intruding object detector |
JP2005191954A (en) * | 2003-12-25 | 2005-07-14 | Niles Co Ltd | Image pickup system |
WO2005064922A1 (en) * | 2003-12-25 | 2005-07-14 | Niles Co., Ltd. | Imaging system |
JP2007166076A (en) * | 2005-12-12 | 2007-06-28 | Nikon Corp | Imaging device |
JP2017161232A (en) * | 2016-03-07 | 2017-09-14 | オムロン株式会社 | Image measurement system and controller |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116540435A (en) * | 2023-07-04 | 2023-08-04 | 惠科股份有限公司 | Halation test method and halation test equipment |
CN116540435B (en) * | 2023-07-04 | 2023-09-22 | 惠科股份有限公司 | Halation test method and halation test equipment |
Also Published As
Publication number | Publication date |
---|---|
JP7297441B2 (en) | 2023-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11758279B2 (en) | WDR imaging with LED flicker mitigation | |
JP4738778B2 (en) | Image processing device, driving support device, and driving support system | |
JP5437855B2 (en) | Obstacle detection device, obstacle detection system including the same, and obstacle detection method | |
CN104811593A (en) | Imaging apparatus, imaging method, and focus control apparatus | |
US9961269B2 (en) | Imaging device, imaging device body, and lens barrel that can prevent an image diaphragm value from frequently changing | |
JPWO2011067906A1 (en) | Recognizing imaging apparatus and control method thereof | |
US11240439B2 (en) | Electronic apparatus and image capture apparatus capable of detecting halation, method of controlling electronic apparatus, method of controlling image capture apparatus, and storage medium | |
JP2017063245A (en) | Imaging device | |
JP2009009072A (en) | Dynamic focus zone for camera | |
JP4523629B2 (en) | Imaging device | |
JP7297441B2 (en) | ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE | |
JP6302679B2 (en) | IMAGING DEVICE, IMAGING METHOD, FOCUS CONTROL DEVICE | |
US11190704B2 (en) | Imaging apparatus and control method for performing live view display of a tracked object | |
JP7278764B2 (en) | IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM | |
KR101615381B1 (en) | Image acquisition method and digital camera system | |
JP4400512B2 (en) | In-vehicle camera control device | |
KR101091913B1 (en) | Back light compensation method of camera | |
JP4304610B2 (en) | Method and apparatus for adjusting screen brightness in camera-type vehicle detector | |
JP6525723B2 (en) | Imaging device, control method therefor, program, and storage medium | |
JP2003143486A (en) | Image pickup device | |
JP2017011351A (en) | Imaging apparatus, control method of the same, and control program | |
JP2004072415A (en) | Intruding object detector | |
JP2006033577A (en) | Monitoring camera | |
JP5546381B2 (en) | Imaging apparatus and control method thereof | |
JP2009053428A (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230614 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7297441 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |