JP2024054762A - Image processing device, control method and program - Google Patents
Image processing device, control method and program Download PDFInfo
- Publication number
- JP2024054762A JP2024054762A JP2022161204A JP2022161204A JP2024054762A JP 2024054762 A JP2024054762 A JP 2024054762A JP 2022161204 A JP2022161204 A JP 2022161204A JP 2022161204 A JP2022161204 A JP 2022161204A JP 2024054762 A JP2024054762 A JP 2024054762A
- Authority
- JP
- Japan
- Prior art keywords
- image
- infrared light
- frame
- light image
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 162
- 238000000034 method Methods 0.000 title claims abstract description 132
- 230000008569 process Effects 0.000 claims abstract description 115
- 238000009795 derivation Methods 0.000 claims abstract description 72
- 238000003384 imaging method Methods 0.000 claims abstract description 68
- 238000012937 correction Methods 0.000 claims abstract description 25
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 7
- 230000000694 effects Effects 0.000 description 39
- 238000011156 evaluation Methods 0.000 description 23
- 238000012986 modification Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 20
- 230000008859 change Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000000443 aerosol Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000003897 fog Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Abstract
【課題】可視光画像における被写体の像の視認性を向上させる画像処理装置、撮像装置、制御方法及びプログラムを提供する。【解決手段】動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させる画像処理装置において、画像処理部が実行する導出処理は、動画像の各フレームについて可視光画像及び赤外光画像を取得し、各フレームについて、赤外光量を取得し、可視光画像及び赤外光画像に基づいて、動画像の各フレームに係るエンハンス処理を実行する対象領域を決定し、決定した対象領域について、エンハンス処理の結果得られる画像の視認性を示す目標値を設定し、動画像の各フレームの可視光画像及び赤外光画像の各々の補正量を導出する。補正量の導出は、基準フレームに係り設定された目標値と、基準フレームと後続するフレームとの間の赤外光量の差分とに基づく。【選択図】図7[Problem] To provide an image processing device, an imaging device, a control method, and a program for improving the visibility of an image of a subject in a visible light image. [Solution] In an image processing device for improving the visibility of an image of a subject by synthesizing a visible light image and an infrared light image for an image of each frame constituting a moving image, a derivation process executed by an image processing unit acquires a visible light image and an infrared light image for each frame of the moving image, acquires an amount of infrared light for each frame, determines a target region for executing an enhancement process for each frame of the moving image based on the visible light image and the infrared light image, sets a target value indicating the visibility of an image obtained as a result of the enhancement process for the determined target region, and derives a correction amount for each of the visible light image and the infrared light image for each frame of the moving image. The derivation of the correction amount is based on the target value set for a reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame. [Selected Figure] Figure 7
Description
本発明は、画像処理装置、撮像装置、制御方法及びプログラムに関し、特に赤外光画像を用いた可視光画像の視認性を向上させる画像処理技術に関する。 The present invention relates to an image processing device, an imaging device, a control method, and a program, and in particular to an image processing technique that improves the visibility of a visible light image using an infrared light image.
霧や煙等のエアロゾルが大気中に存在するシーンを撮影した可視光画像を、レーダー装置を用いて得られた、被写体の奥行き方向の距離及びエアロゾルの強度と、太陽光の明るさを用いて鮮明化する画像補正技術がある(特許文献1)。 There is an image correction technology that uses the depth of the subject and the intensity of the aerosols, obtained using a radar device, and the brightness of sunlight to sharpen visible light images of scenes where aerosols such as fog or smoke are present in the atmosphere (Patent Document 1).
しかしながら、上述のようなシーンを撮影した可視光画像は、大気中の状態によってはそもそも被写体の像が信号値として表れないこともあり、この場合、適切な特許文献1の補正処理技術を用いても好適な補正結果が得られない可能性があった。 However, in visible light images captured of scenes such as those described above, depending on atmospheric conditions, the image of the subject may not appear as a signal value in the first place. In such cases, even if the appropriate correction processing technique of Patent Document 1 is used, it may not be possible to obtain suitable correction results.
本発明は、上述の問題点に鑑みてなされたものであり、可視光画像における被写体の像の視認性を向上させる画像処理装置、撮像装置、制御方法及びプログラムを提供することを目的とする。 The present invention has been made in consideration of the above-mentioned problems, and aims to provide an image processing device, an imaging device, a control method, and a program that improve the visibility of a subject image in a visible light image.
前述の目的を達成するために、本発明の画像処理装置は、動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置であって、動画像の各フレームについて被写体を撮像した可視光画像及び赤外光画像を取得する第1の取得手段と、動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得手段と、可視光画像及び赤外光画像に基づいて、動画像の各フレームに係るエンハンス処理を実行する対象領域を決定する決定手段と、決定手段により決定された対象領域について、エンハンス処理の結果得られる画像における被写体の像の視認性を示す目標値を設定する設定手段と、動画像の各フレームに係るエンハンス処理における、当該フレームに係り取得された可視光画像及び赤外光画像の各々の補正量を導出する導出手段と、を有し、設定手段は、動画像の基準フレームについて取得された可視光画像及び赤外光画像に基づいて目標値を決定し、導出手段は、動画像の基準フレームに後続するフレームについて、基準フレームに係り設定された目標値と、基準フレームと後続するフレームとの間の赤外光量の差分とに基づいて、後続するフレームに係り取得された可視光画像及び赤外光画像の各々の補正量を導出することを特徴とする。 In order to achieve the above-mentioned object, the image processing device of the present invention is an image processing device that performs enhancement processing for each frame image constituting a moving image, by synthesizing a visible light image and an infrared light image to improve the visibility of an image of a subject, and includes a first acquisition means for acquiring a visible light image and an infrared light image of a subject captured for each frame of the moving image, a second acquisition means for acquiring an amount of infrared light related to an image capture scene for each frame of the moving image, a determination means for determining a target area for performing enhancement processing for each frame of the moving image based on the visible light image and the infrared light image, and an enhancement image obtained as a result of the enhancement processing for the target area determined by the determination means. The system has a setting means for setting a target value indicating the visibility of the image of the subject in the image, and a derivation means for deriving a correction amount for each of the visible light image and infrared light image acquired for each frame of the video in the enhancement process for that frame, the setting means determines the target value based on the visible light image and infrared light image acquired for a reference frame of the video, and the derivation means derives a correction amount for each of the visible light image and infrared light image acquired for a subsequent frame of the video based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
このような構成により本発明によれば、可視光画像における被写体の像の視認性を向上させることが可能となる。 With this configuration, the present invention makes it possible to improve the visibility of the subject image in the visible light image.
[実施形態1]
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[Embodiment 1]
Hereinafter, the embodiments will be described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe a number of features, not all of these features are essential to the invention, and the features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicated descriptions are omitted.
以下に説明する一実施形態は、画像処理装置の一例としての、動画像の各フレームに係る可視光画像及び赤外光画像を撮影可能な撮像装置に、本発明を適用した例を説明する。しかし、本発明は、動画像のフレームに係る可視光画像を、赤外光画像を用いて補正することが可能な任意の機器に適用可能である。また、本実施形態において、「エンハンス処理」とは、可視光画像に含まれる被写体の像について、エッジを強調させることで視認性を向上させる処理であるものとして説明する。 The embodiment described below is an example in which the present invention is applied to an imaging device capable of capturing visible light images and infrared light images for each frame of a video, as an example of an image processing device. However, the present invention is applicable to any device that is capable of correcting visible light images for frames of a video using infrared light images. In addition, in this embodiment, "enhancement processing" is described as processing that improves visibility by emphasizing edges of the image of a subject included in a visible light image.
《撮像装置の機能構成》
図1は、本発明の実施形態に係る撮像装置100の機能構成を示したブロック図である。
<Functional configuration of the imaging device>
FIG. 1 is a block diagram showing the functional configuration of an
制御部101は、例えばCPU等の撮像装置100の全体を制御する制御装置である。制御部101は、ROM102から撮像装置100が備える各ブロックの動作プログラムを読み出し、RAM103に展開して実行することにより各ブロックの動作を制御する。
The
ROM102は、電気的に消去・記録可能な不揮発性メモリである。ROM102は、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリである。RAM103は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力されたデータの一時的な記憶領域としても用いられる。
光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成される。光学系104は、撮像シーンに係る光束を撮像部105に導き、被写体の光学像をその撮像面に結像する。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部105は、光学系104により撮像面に結像された光学像を光電変換し、アナログ画像信号をA/D変換部106に出力する。本実施形態では、撮像部105が有する撮像素子は、図2に示されるように、原色RGBのフィルタが適用されたベイヤー配列の画素に加えて、赤外光IRのフィルタが適用された画素が配置されて構成されるものとする。即ち、撮像部105は、撮像により、可視光に係る画像信号と赤外光に係る画像信号を出力することができる。詳細は後述するが、本実施形態の撮像装置100では、物質を透過しやすく、物質の特性に応じて反射態様が変化する近赤外光を被写体に照射して撮影を行うことが可能に構成される。従って、IRの画素は、被写体が反射する光のうち、近赤外光の波長範囲(約0.7~2.5μm)の光を透過して受光し、光電変換する。
The
A/D変換部106は、撮像部105により出力されたアナログ画像信号をデジタル画像信号に変換する。生成されたデジタル画像信号は、例えばRAM103に格納される。本実施形態では撮像部105は、図2に示したように各画素が可視光または赤外光の強度を示すアナログ画像信号を出力するため、A/D変換部106は、A/D変換によって可視光に係るデジタル画像信号と赤外光に係るデジタル画像信号を分離して出力する。以下、可視光に係るデジタル画像信号を可視光画像、赤外光に係るデジタル画像信号を赤外光画像として言及する。
The A/
画像処理部107は、補正処理や現像処理等、画像データに対する各種の画像処理を実行する。詳細は後述するが、本実施形態の画像処理部107は、RAM103に格納された可視光画像及び赤外光画像に対して、当該可視光画像において霞により被写体の視認性(階調)が低下している箇所について、被写体の視認性を改善するエンハンス処理を実行する。
The
記録部108は、例えば着脱可能なメモリカード等、各種の情報を記録するための記憶装置である。記録部108は、画像処理部107による画像処理の結果得られた画像が、RAM103を介し、記録画像として記録される。記録画像は、静止画像に限らず、動画像も含まれる。
The
表示部109は、LCD等の表示デバイスである。表示部109は、RAM103に格納された画像データや記録部108に記録された画像データの表示や、ユーザからの操作入力を受け付けるためのユーザインタフェースを表示に用いられる。
The
〈画像処理部の詳細構成〉
続いて、本実施形態の画像処理部107において実行されるエンハンス処理について、当該処理に関与する機能構成を図3のブロック図を用いて説明する。本実施形態のエンハンス処理は、撮像シーンに含まれる霧、靄、煙等(以下、これら要因を単に「霞」として総称する)によって可視光画像に生じる、被写体の視認性低下を改善するために行われる。
Detailed Configuration of Image Processing Unit
Next, the enhancement process executed in the
霞は、図4(a)に示されるように可視光画像においては例えば白系色の像で表れて被写体を不鮮明にし得るが、図4(b)に示されるように赤外光画像においては、被写体の視認性を低下させていない場合がある。これは、近赤外光が有する物質を透過しやすいとの特性に依るものであり、霞の背後に存在する被写体の表面で反射された近赤外光が、霞に含まれる水分子を透過して撮像素子に至り得るからである。従って、可視光画像において霞によって被写体の階調が失われてしまっている場合であっても、赤外光画像においては霞の影響を受けず被写体の階調が表れている可能性がある。故に、画像処理部107は、エンハンス処理の実行にあたり、同時期に撮像された可視光画像及び赤外光画像を取得する。本実施形態の撮像装置100では、撮像部105の撮像素子が図2に示した態様のフィルタが適用された構造であるため、画像処理部107は、撮像部105が同一のタイミングで撮像した画像信号に係る可視光画像及び赤外光画像を用いてエンハンス処理を行う。
As shown in FIG. 4(a), the haze may appear as a whitish image in a visible light image, making the subject unclear, but as shown in FIG. 4(b), the haze may not reduce the visibility of the subject in an infrared light image. This is due to the property of near-infrared light being easily transmitted through substances, and the near-infrared light reflected on the surface of the subject behind the haze may penetrate the water molecules contained in the haze and reach the image sensor. Therefore, even if the gradation of the subject is lost due to the haze in the visible light image, the gradation of the subject may be displayed in the infrared light image without being affected by the haze. Therefore, when performing the enhancement process, the
第1画像取得部301、第2画像取得部302は、エンハンス処理に必要な情報をRAM103から取得する。エンハンス処理には、処理の適用対象である可視光画像と、その補正(強調)に参照され得る赤外光画像が少なくとも含まれる。従って、第1画像取得部301は可視光画像(ベイヤー画像)を、第2画像取得部302は、主として当該可視光画像と同時期に撮影された赤外光画像をそれぞれ取得する。
The first
本実施形態の撮像装置100が有するエンハンス処理の機能は、静止画像の撮影時に使用が限られるものではなく、動画像の撮影時にも使用することが可能に構成される。図3は、主として撮影された動画像の各フレームに対してエンハンス処理を行う場合の、画像処理部107の機能構成を示している。
The enhancement processing function of the
動画像の各フレームに対してエンハンス処理を行う場合、撮像シーンの環境光の時間変化(より詳しくは、赤外光量の時間変化)によって赤外光画像の状態が変化し得る。このため、各フレームにおける環境光に応じた基準でエンハンス処理を行うと、フレーム間でエンハンス処理による視認性向上の効果(以下、エンハンス効果として言及する場合がある)にばらつきが表れ得る。故に、本実施形態の画像処理部107では、さらにエンハンス処理に必要な情報として、撮像シーンの赤外光量の情報を光量取得部303が取得する。光量取得部303は、例えば、第2画像取得部302により取得された赤外光画像に基づいて、撮像シーンの赤外光量を導出するものとして以下説明する。
When enhancement processing is performed on each frame of a moving image, the state of the infrared light image may change depending on the change over time in the ambient light of the captured scene (more specifically, the change over time in the amount of infrared light). For this reason, if enhancement processing is performed based on a standard according to the ambient light in each frame, the effect of improving visibility due to the enhancement processing (hereinafter, sometimes referred to as the enhancement effect) may vary between frames. Therefore, in the
領域決定部304は、第1画像取得部301により取得された可視光画像及び第2画像取得部302により取得された赤外光画像に基づいて、可視光画像のうちのエンハンス処理の対象とする領域(以下、対象領域として言及)を決定する。
The
目標導出部305は、エンハンス処理の処理結果の目標値(霞による視認性低下を低減させた状態を定義する値)を導出する。詳細は後述するが、目標値は、可視光画像における霞除去の効果を定量化した値であり、エンハンス処理部306の処理の制御に参照される。
The
エンハンス処理部306は、可視光画像の霞による視認性低下がみられる対象領域に対して、これを解消し、被写体の視認性を向上させるエンハンス処理を実行する。本実施形態のエンハンス処理は、対象領域に本来表れる被写体(霞により階調が低下している被写体)の像のエッジを強調することにより実現される。より詳しくは、エンハンス処理は、可視光画像の対象領域の被写体の像のAC成分を強調させるエッジ強調処理を行うことで、視認性の向上を行う。エンハンス処理は、可視光画像の状態によっては、可視光画像のみを用いるか、赤外光画像をさらに合成するかが変化するため、エンハンス処理部306は適宜その動作を制御する。
The
現像処理部307は、エンハンス処理部306による処理結果として得られる可視光画像に対して現像処理を行い、最終的に記録する画像(動画像のフレームまたは静止画像)を生成する。現像処理部307により生成された画像は、例えばRAM103に格納され、その後記録部108に記録される。
The
《エンハンス処理の概要》
以下、本実施形態の画像処理部107において行われる動画撮影時のエンハンス処理について、その概要を説明する。上述したように本実施形態の撮像装置100は、動画撮影が行われる場合にエンハンス処理を行うことも可能に構成されており、画像処理部107は、動画像のフレーム間でエンハンス効果のばらつきを低減するように各種処理を行う。従って、画像処理部107の第1画像取得部301及び第2画像取得部302は、動画像の各フレームについて、当該フレームに係り取得された可視光画像及び赤外光画像を取得する。
Overview of Enhancement Processing
The enhancement process performed by the
〈対象領域の決定〉
まず、領域決定部304により行われる、エンハンス処理の対象領域の決定について説明する。対象領域とすべき領域は、可視光画像において霞により被写体の視認性が低下している領域である。このため領域決定部304は、第1画像取得部301により取得された可視光画像と第2画像取得部302により取得された赤外光画像の階調の差異に基づいて、霞に起因して視認性が低下している領域を特定する。
<Determination of target area>
First, the determination of the target region for the enhancement process performed by the
本実施形態では各画像の階調の多寡を、被写体のエッジ強度に基づいて評価する。被写体のエッジ強度は、画像に対してバンドパスフィルタを適用することで得られたエッジ信号(AC成分の信号)を、所定の領域について積分することで数値化される(評価値が得られる)。領域決定部304は、可視光画像及び赤外光画像について、図5に示されるようなM×Nのブロックを定義し、各ブロックについてそれぞれの画像のエッジ信号の積分値として評価値Eを導出する。評価値Eは、ブロック内の画素位置(i,j)のエッジ信号値e(i,j)を用いて、
により導出することができる。従って、領域決定部304は、可視光画像の階調情報として、バンドパスフィルタが適用された可視光画像の各ブロックのエッジ強度を示す評価値の情報を取得する。また領域決定部304は、赤外光画像の階調情報として、バンドパスフィルタが適用された赤外光画像の各ブロックのエッジ強度を示す評価値の情報を取得する。換言すれば、各画像の階調情報(評価値)は、バンドパスフィルタによりDC成分が分離されたもの、即ち、当該画像のAC成分の量(エッジ信号値の総和)を示す。
In this embodiment, the amount of gradation in each image is evaluated based on the edge strength of the subject. The edge strength of the subject is quantified (an evaluation value is obtained) by integrating the edge signal (AC component signal) obtained by applying a band-pass filter to the image over a specified region. The
The gradation information of each image is obtained by the band-pass filter. The
領域決定部304は、各画像の階調情報を取得すると、当該階調情報に基づいてエンハンス処理の処理対象とする対象領域を決定する。対象領域とするか否かは、階調情報の構成に用いられたブロック単位で行われる。即ち、領域決定部304は、可視光画像に含まれるブロックのうち、エンハンス処理の対象とするブロックを対象領域として決定する。
When the
好適なエンハンス効果が見込めるブロックは、可視光画像においては階調が少ないが、赤外光画像の同位置のブロックにおいては階調が多く表れているものとなる。換言すれば、可視光画像の階調が少ないが、可視光画像と赤外光画像との階調の差が大きいのであれば、赤外光画像側に被写体の像(形状)が表れていると考えられるため、エンハンス処理を実行することにより視認性の向上が見込まれる。従って、領域決定部304は、可視光画像の評価値(ブロックのエッジ強度)が第1閾値より低く、かつ、可視光画像と赤外光画像の評価値の差分(同一位置のブロックのエッジ強度の差分)が第2閾値より大きいブロックを対象領域として決定する。
A block that can be expected to have a favorable enhancement effect is one that has few gradations in the visible light image, but many gradations in the block at the same position in the infrared light image. In other words, if the visible light image has few gradations, but the difference in gradations between the visible light image and the infrared light image is large, it is considered that the image (shape) of the subject is expressed in the infrared light image, and therefore visibility is expected to improve by performing enhancement processing. Therefore, the
〈赤外光画像の使用有無〉
ところで、エンハンス処理には必ずしも赤外光画像を使用せずともよい。例えば、可視光画像の対象領域に階調が残っており、かつ、当該領域の彩度が高い場合には、可視光画像のみを用いてエンハンス処理を行っても、霞除去(視認性向上)の効果を得ることができる。
<Whether or not infrared images are used>
However, the enhancement process does not necessarily have to use an infrared light image. For example, if some gradation remains in the target area of the visible light image and the saturation of the area is high, the enhancement process can be performed using only the visible light image to obtain the effect of removing haze (improving visibility).
対して、可視光画像の対象領域に階調が残っておらず、かつ、当該領域の彩度が低い場合には、可視光画像のみでは視認性の向上が見込まれ難い。即ち、可視光画像の対象領域に、被写体の形状や色を再現するための情報がそもそも含まれていないのであれば、可視光画像のみでエンハンス処理を行ったとしても、被写体の像の視認性を向上させることはできない。このため、可視光画像のみでは視認性の向上が見込まれ難い場合には、赤外光画像をエンハンス処理に使用することで、視認性向上の効果を得られる可能性がある。 In contrast, if there is no gradation remaining in the target area of the visible light image and the saturation of that area is low, it is difficult to expect an improvement in visibility using only the visible light image. In other words, if the target area of the visible light image does not contain any information for reproducing the shape or color of the subject, it is not possible to improve the visibility of the subject image even if enhancement processing is performed using only the visible light image. For this reason, when it is difficult to expect an improvement in visibility using only the visible light image, it is possible to achieve the effect of improving visibility by using an infrared light image for enhancement processing.
あるいは、被写体により反射されて撮像装置100にする赤外光は、その光路に存在する霞の存在により一部吸収され得るため、赤外光画像においてはその特性が表れる。換言すれば、赤外光画像においても近赤外光の波長範囲において、霞の存在による反射赤外光の特性を捉えることもできる。従って、赤外光画像において霞の存在が把握される領域に階調が残っている、即ち、赤外光画像のAC成分の量が多い場合には、赤外光画像を使用することで被写体の視認性向上が期待できる。
Alternatively, the infrared light reflected by the subject and transmitted to the
本実施形態では、赤外光画像の使用有無の判断は、目標導出部305において行われるものとする。従って、目標導出部305は、対象領域と各画像の階調情報とに基づいて、エンハンス処理に赤外光画像を使用するか否かを決定する。当該決定は、具体的には次のいずれかの態様の基準を採用して判断されるものであってよい。
In this embodiment, the determination of whether or not to use an infrared light image is performed by the
1つの態様では、目標導出部305は、可視光画像の階調情報において、対象領域に含まれるいずれかのブロックの評価値が第3閾値(<第1閾値)より高く、かつ、当該ブロックの彩度が第1彩度閾値よりも高い場合に、赤外光画像を使用しないと決定する。即ち、目標導出部305は、当該基準が満たされる場合には可視光画像のみを用いてエンハンス処理を行い、当該基準が満たされない場合には可視光画像と赤外光画像を用いてエンハンス処理を行うと決定する。
In one aspect, the
別の態様では、目標導出部305は、可視光画像の階調情報において、対象領域に含まれるいずれかのブロックの評価値が第4閾値(<第3閾値)より低く、かつ、当該ブロックの彩度が第2彩度閾値よりも低い場合に、赤外光画像を使用すると決定する。即ち、目標導出部305は、当該基準が満たされる場合には可視光画像と赤外光画像を用いてエンハンス処理を行い、当該基準が満たされない場合には可視光画像のみを用いてエンハンス処理を行うと決定する。
In another aspect, the
さらに別の態様では、目標導出部305は、赤外光画像の階調情報において、対象領域に含まれるいずれかのブロックの評価値が第5閾値より高い場合に、赤外光画像を使用すると決定する。即ち、目標導出部305は、当該基準が満たされる場合には可視光画像と赤外光画像を用いてエンハンス処理を行い、当該基準が満たされない場合には可視光画像のみを用いてエンハンス処理を行うと決定する。
In yet another aspect, the
〈補間赤外光画像の生成及び撮像シーンの赤外光量の導出〉
上述したように、本実施形態の撮像部105から出力される画像信号では、図2に示したようにIRの画素は2×2画素に1つの割合で含まれている。従って、第2画像取得部302により取得される赤外光画像は、R、G及びBの画素位置の情報を含んでいない。このため、光量取得部303は、第2画像取得部302により取得された赤外光画像に補間処理を適用することで、当該画素の情報を補った補間赤外光画像を生成する。補間赤外光画像の生成にあたっては、光量取得部303は、第1画像取得部301により取得された可視光画像を参照してもよい。
<Generation of an Interpolated Infrared Image and Derivation of the Infrared Amount of a Captured Scene>
As described above, in the image signal output from the
また光量取得部303は、生成した補間赤外光画像に基づいて、該当のフレームの撮像シーンの赤外光量を導出する。上述したように、撮像シーンの赤外光量は時々刻々と変化し得るものであり、赤外光画像の各画素の信号強度もそれに応じて変化する。故に、動画像の各フレームについて赤外光画像(補間赤外光画像)を可視光画像に合成してエンハンス処理を行う場合、その結果生成される画像に表れるエンハンス効果も変動し得る。このようなエンハンス効果のばらつきは、処理結果として出力された動画像を再生した場合に、観賞者にちらつきとして知覚され得、好適な観賞体験を阻害し得る。
The light
従って、本実施形態の画像処理部107では、フレーム間でのエンハンス効果が均質となるよう、各フレームについて光量取得部303が取得した赤外光量を基準に用いて、エンハンス処理の処理内容を異ならせる制御が行われる。
Therefore, in the
なお、本実施形態では、光量取得部303は補間赤外光画像に基づいて撮像シーンの赤外光量を導出するものとして説明するが、本発明の実施はこれに限られるものではない。赤外光量の導出は、補間前の赤外光画像に基づいて行われるものであってもよいし、撮像部105とは別に設けられた環境光を計測するセンサの出力に基づいて行われるものであってもよい。
In this embodiment, the light
〈目標値導出〉
均質なエンハンス効果が示される動画像の生成にあたり、目標導出部305は、エンハンス処理の結果得られる各フレームの画像(可視光画像)における霞除去の程度を示す目標値を導出する。本実施形態では目標導出部305は、エンハンス処理の結果得られる可視光画像(以下、出力画像として言及)のAC成分の量を目標値として導出する。以下の説明では、「出力画像のAC成分の量」は、処理対象の画像のエッジ強度に対して、エンハンス処理における当該画像のエッジ強調量(強調度合い)を乗じた値の和として定義されるものとする。つまり、本実施形態のエンハンス処理は、可視光画像の対象領域の像のエッジを強調させることによって霞が除去されたエンハンス効果が得るものとし、目標値として強調後のエッジ強度を定量化した数値を用いる。
<Deriving target values>
In generating a moving image showing a homogeneous enhancement effect, the
フレーム間でエンハンス効果を均質にすべく、目標値は、動画像の特定のフレームに対して設定されると、当該フレーム以降のフレームに対して共通して用いられる。即ち、目標値は出力画像に表れるエンハンス効果の目安を絶対的に定めるものであり、一度設定された後は、エンハンス効果を異ならせる必要が生じるまでは維持される。目標値が導出される特定のフレーム(以下、基準フレームとして言及)は、例えば、エンハンス処理を適用した動画像の撮影開始の操作入力に応じて撮影される最初のフレーム(先頭フレーム)であってよい。あるいは、基準フレームは、撮像装置100の画角変更やパンニング等によって撮影シーンに変化が生じたことが検出された場合に、検出後もしくは画角安定後等の最初のフレームであってもよい。
In order to make the enhancement effect uniform between frames, once a target value is set for a specific frame of a video, it is used commonly for the frames that follow that frame. In other words, the target value absolutely determines the guideline for the enhancement effect that appears in the output image, and once set, it is maintained until it becomes necessary to vary the enhancement effect. The specific frame from which the target value is derived (hereinafter referred to as the reference frame) may be, for example, the first frame (leading frame) captured in response to an operation input to start capturing a video to which enhancement processing has been applied. Alternatively, the reference frame may be the first frame after detection or after the angle of view has stabilized when a change in the captured scene is detected due to a change in the angle of view or panning of the
目標値の導出に先立って、目標導出部305はまず、基準フレームに係るエンハンス処理に用いる各画像のエッジ強調量(補正量)を決定する。より詳しくは目標導出部305は、対象領域における可視光画像のAC成分の量に基づいて、基準フレームの可視光画像のエッジ強調量Evsを決定する。また目標導出部305は、対象領域における可視光画像と補間赤外光画像のAC成分の量の差分に基づいて、基準フレームの補間赤外光画像のエッジ強調量Eviを決定する。ここで、本実施形態のエンハンス処理では、対象領域の全体に対して1つの目標値が設定されるため、対象領域における可視光画像のAC成分の量及び補間赤外光画像のAC成分の量は、例えば対象領域に含まれるブロックのAC成分の量の平均値である。
Prior to deriving the target value, the
可視光画像のAC成分の量と可視光画像のエッジ強調量Evとの関係は、図6(a)に太線で示されるグラフのような特性で予め定められるものとする。可視光画像のAC成分の量が小さい場合、即ち、可視光画像の階調が少ない場合には、可視光画像において被写体の像を視認性が低くなる。対して、可視光画像のAC成分の量が大きい場合、即ち、可視光画像の階調が多い場合には、可視光画像において被写体の像の視認性が高くなる。このため、可視光画像のAC成分の量が小さいほど霞除去の効果を強めるよう、エッジ強調量Evが大きくなり、AC成分の量が大きいほど霞除去の効果を弱めるよう、エッジ強調量Evが小さくなる傾向を示す。 The relationship between the amount of AC components of the visible light image and the edge enhancement amount Ev of the visible light image is determined in advance as a characteristic shown in the graph indicated by the thick line in Fig. 6(a). When the amount of AC components of the visible light image is small, i.e., when the visible light image has few gradations, the visibility of the image of the subject in the visible light image is low. On the other hand, when the amount of AC components of the visible light image is large, i.e., when the visible light image has many gradations, the visibility of the image of the subject in the visible light image is high. For this reason, the smaller the amount of AC components of the visible light image, the larger the edge enhancement amount Ev tends to be in order to strengthen the effect of haze removal, and the larger the amount of AC components, the smaller the edge enhancement amount Ev tends to be in order to weaken the effect of haze removal.
対して、可視光画像と補間赤外光画像のAC成分の量の差分と補間赤外光画像のエッジ強調量Eiとの関係は、図6(b)に太線で示されるグラフのような特性で予め定められるものとする。上述したように、赤外光画像がエンハンス処理に用いられる場合には可視光画像のAC成分の量が低いことが前提にある。従って、可視光画像と補間赤外光画像のAC成分の量の差が小さい場合には、補間赤外光画像のAC成分を増幅し、エッジ強度を強めてから合成することで被写体の形状の視認性向上が期待できるため、エッジ強調量Eiが大きく設定される。一方、可視光画像と補間赤外光画像のAC成分の量の差が大きい場合には、補間赤外光画像のエッジ強度がもともと強く、補間赤外光画像のAC成分を増幅せずとも視認性向上が期待できるため、エッジ強調量Eiが小さく設定される。 On the other hand, the relationship between the difference in the amount of AC components between the visible light image and the interpolated infrared light image and the edge enhancement amount E i of the interpolated infrared light image is determined in advance by the characteristic shown in the graph indicated by the thick line in Fig. 6 (b). As described above, when the infrared light image is used for enhancement processing, it is assumed that the amount of AC components of the visible light image is low. Therefore, when the difference in the amount of AC components between the visible light image and the interpolated infrared light image is small, the edge enhancement amount E i is set to be large because it is expected that the visibility of the shape of the subject can be improved by amplifying the AC components of the interpolated infrared light image and strengthening the edge strength before combining. On the other hand, when the difference in the amount of AC components between the visible light image and the interpolated infrared light image is large, the edge strength of the interpolated infrared light image is originally strong, and it is expected that the visibility can be improved without amplifying the AC components of the interpolated infrared light image, so the edge enhancement amount E i is set to be small.
このように、基準フレームについて可視光画像のエッジ強調量Evs及び補間赤外光画像のエッジ強調量Eisを決定すると、目標導出部305は、目標値kを導出する。本実施形態では目標値kは、さらに基準フレームに係る可視光画像のエッジ強度(対象領域に含まれるブロックの平均値)ACvs及び補間赤外光画像のエッジ強度(対象領域に含まれるブロックの平均値)ACisを用いて、
で導出される。即ち、目標値kは、エンハンス処理において合成される、可視光画像及び補間赤外光画像の増幅後のAC成分の量を合算した値(エッジ強度の和)として導出される。
In this way, when the edge enhancement amount E vs of the visible light image and the edge enhancement amount E is of the interpolated infrared light image for the reference frame are determined, the
That is, the target value k is derived as a value (sum of edge strengths) obtained by adding up the amounts of AC components after amplification of the visible light image and the interpolated infrared light image, which are combined in the enhancement process.
なお、対象領域のエンハンス処理に赤外光画像を用いないと判断された場合には、補間赤外光画像のエッジ強調量Eisは0に設定されるものとする。即ち、補間赤外光画像をそもそも合成しないため、強調する必要がないため0に設定される。 If it is determined that the infrared light image will not be used in the enhancement process of the target region, the edge enhancement amount E is of the interpolated infrared light image is set to 0. In other words, since the interpolated infrared light image is not synthesized in the first place, there is no need for enhancement, and therefore the amount is set to 0.
また、目標値kは本来は上述の演算式で導出されるが、以下の説明では発明の理解を容易にすべく、対象領域のエンハンス処理に赤外光画像を用いると判断した場合には、可視光画像のエッジ強調量Evsは0に設定されるものとする。これは、対象領域のエンハンス処理に赤外光画像を用いる場合には、そもそも可視光画像のAC成分の量が少ないためにエッジ強調の効果が見込まれず、補間赤外光画像のAC成分を優先してエッジ強調を行うことが好ましいことに依る。 Furthermore, the target value k is originally derived by the above-mentioned calculation formula, but in the following explanation, in order to facilitate understanding of the invention, when it is determined that an infrared light image is to be used in the enhancement processing of the target region, the edge enhancement amount E vs of the visible light image is set to 0. This is because, when an infrared light image is used in the enhancement processing of the target region, the amount of AC components in the visible light image is small to begin with, and therefore no effect of edge enhancement is to be expected, and it is preferable to perform edge enhancement by giving priority to the AC components of the interpolated infrared light image.
即ち、以下に説明する態様では、エンハンス処理に赤外光画像を用いない場合には、可視光画像のみのエッジ強調により出力画像の対象領域のAC成分が確定し、目標値kも、可視光画像のエッジ強調量Evs及びエッジ強度ACvsのみで導出される。またエンハンス処理に赤外光画像を用いる場合には、補間赤外光画像のみのエッジ強調により出力画像の対象領域のAC成分が確定し、目標値kも、赤外光画像のエッジ強調量Eis及びエッジ強度ACisのみで導出される。 That is, in the aspect described below, when an infrared light image is not used in the enhancement process, the AC components of the target region of the output image are determined by edge enhancement of only the visible light image, and the target value k is derived only from the edge enhancement amount E vs and edge strength AC vs of the visible light image. When an infrared light image is used in the enhancement process, the AC components of the target region of the output image are determined by edge enhancement of only the interpolated infrared light image, and the target value k is derived only from the edge enhancement amount E is and edge strength AC is of the infrared light image.
〈エンハンス処理におけるエッジ強調量〉
エンハンス処理部306により実行されるエンハンス処理では、基本的には各フレームの画像の対象領域のAC成分をエッジ強調量に基づいて増幅したものを、当該フレームの可視光画像のDC成分に加算することにより出力画像が生成される。
<Edge Enhancement Amount in Enhancement Processing>
In the enhancement processing performed by the
より詳しくは、エンハンス処理部306は、エンハンス処理に赤外光画像を用いない場合には、可視光画像のAC成分について、対象領域の画素値にのみエッジ強調量Evを乗じて増幅することで、合成用のAC成分画像を生成する。そしてエンハンス処理部306は、合成用のAC成分画像を、可視光画像のDC成分に加算することで出力画像を生成する。
More specifically, when an infrared light image is not used in the enhancement process, the
またエンハンス処理部306は、エンハンス処理に赤外光画像を用いる場合には、補間赤外光画像のAC成分について、対象領域の画素値にのみエッジ強調量Eiを乗じて増幅することで、合成用のAC成分画像を生成する。そしてエンハンス処理部306は、合成用のAC成分画像を、可視光画像のDC成分に加算することで出力画像を生成する。
Furthermore, when an infrared light image is used for the enhancement process, the
このとき、合成用のAC成分画像の生成に用いられるエッジ強調量は、基準フレームについて定めた目標値kに基づいて決定される。基準フレームである場合には、当該目標値kの導出に用いられたエッジ強調量(EvsまたはEis)をそのまま使用することができる。一方、基準フレーム以降のフレームについては、撮像シーンの赤外光量や霞の状態が時間経過により変化し得る。このため、基準フレーム以降のフレームについて用いるエッジ強調量は、当該フレーム係る各画像のエッジ強度(AC成分の量)と基準フレームに係る目標値kとを用いて以下により導出される。 At this time, the edge enhancement amount used to generate the AC component image for synthesis is determined based on the target value k determined for the reference frame. In the case of the reference frame, the edge enhancement amount (E vs or E is ) used to derive the target value k can be used as is. On the other hand, for frames after the reference frame, the amount of infrared light and the state of haze in the imaging scene may change over time. For this reason, the edge enhancement amount used for frames after the reference frame is derived using the edge strength (amount of AC components) of each image related to the frame and the target value k related to the reference frame as follows.
エンハンス処理に赤外光画像を用いない場合には、可視光画像のエッジ強調量Evは、該当のフレームの可視光画像のエッジ強度ACvと基準フレームについて定めた目標値kとを用いて
で導出される。一方、エンハンス処理に赤外光画像を用いる場合には、補間赤外光画像のエッジ強調量Eiは、該当のフレームの補間赤外光画像のエッジ強度ACiと基準フレームについて定めた目標値kとを用いて
で導出される。ここで、ΔIは、基準フレームにおける赤外光量と該当のフレームにおける赤外光量の差分である。
When the infrared light image is not used in the enhancement process, the edge enhancement amount E v of the visible light image is calculated by using the edge strength AC v of the visible light image of the corresponding frame and the target value k determined for the reference frame.
On the other hand, when an infrared light image is used for the enhancement process, the edge enhancement amount E i of the interpolated infrared light image is calculated by using the edge strength AC i of the interpolated infrared light image of the corresponding frame and the target value k determined for the reference frame as follows:
Here, ΔI is the difference between the amount of infrared light in the reference frame and the amount of infrared light in the corresponding frame.
このようにすることで、基準フレームとそれに続くフレームにおいて、エンハンス処理の結果得られる出力画像を、霞除去効果を実現しながら、対象領域の被写体のエッジ強度が同等になるよう制御することができる。従って、生成される動画像は、フレーム間で対象領域における被写体の像の視認性向上の効果が一定になる。 In this way, the output images obtained as a result of the enhancement process in the reference frame and the subsequent frames can be controlled so that the edge strength of the subject in the target area is equal while achieving a haze removal effect. Therefore, the generated moving image has a consistent effect of improving the visibility of the subject image in the target area from frame to frame.
《導出処理》
以下、本実施形態の画像処理部107で霞による視認性低下を低減した動画像を生成する場合に、各フレームに対して行われるエンハンス処理のエッジ強調量を導出する導出処理について、図7のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより画像処理部107に実行させることができる。本導出処理は、例えば霞による視認性低下を低減した動画像の撮影開始に係る操作入力が検出された際に開始され、当該動画像の各フレームに係る撮像が行われる度に実行されるものとして説明する。
Derivation Processing
Hereinafter, a specific process of deriving an edge enhancement amount of the enhancement process performed on each frame when the
S701で、第1画像取得部301及び第2画像取得部302は、現フレームに係る可視光画像及び赤外光画像を、RAM103から取得する。
In S701, the first
S702で、領域決定部304は、S701において取得された可視光画像及び赤外光画像に基づいて、各画像の階調情報を導出する。
In S702, the
S703で、領域決定部304は、現フレームの可視光画像の対象領域を決定する。より詳しくは領域決定部304は、S702において導出された階調情報に基づいて、現フレームの可視光画像の対象領域を決定する。
In S703, the
S704で、目標導出部305は、現フレームに係るエンハンス処理に赤外光画像を使用するか否か判断する。より詳しくは、目標導出部305は、S702において生成された可視光画像及び赤外光画像の階調情報に基づいて、エンハンス処理に赤外光画像を使用するか否かを判断する。目標導出部305は、エンハンス処理に赤外光画像を使用すると判断した場合は処理をS705に移し、使用しないと判断した場合は処理をS706に移す。
In S704, the
S705で、光量取得部303は、S701において取得された赤外光画像から補間赤外光画像を生成し、また撮像シーンの赤外光量を導出する。
In S705, the light
S706で、目標導出部305は、現フレームが基準フレームであるか否かを判断する。本実施形態では、発明の理解を容易にすべく、基準フレームは霞による視認性低下を低減した動画像の先頭フレームとするため、目標導出部305は、現フレームが先頭フレームであるか否かを判断する。目標導出部305は、現フレームが基準フレームであると判断した場合は処理をS707に移し、基準フレームではないと判断した場合は処理をS709に移す。
In S706, the
S707で、目標導出部305は、現フレームの可視光画像及び補間赤外光画像のエッジ強度に基づいて各画像のエッジ強調量を決定し、現フレームに係るエンハンス処理で用いるエッジ強調量としてエンハンス処理部306に出力する。このとき、目標導出部305は、S704における現フレームに係るエンハンス処理に赤外光画像を用いるか否かの判断結果に基づいて、各画像のエッジ強調量を決定するものとする。上述した簡潔な態様では、目標導出部305は、赤外光画像を用いない場合には補間赤外光画像のエッジ強調量Eiを0に、赤外光画像を用いる場合には可視光画像のエッジ強調量Evを0にする。
In S707, the
S708で、目標導出部305は、基準フレームに係る目標値kを導出して、現フレームに係る本導出処理を完了する。より詳しくは、目標導出部305は、各画像のエッジ強度にS707において導出したエッジ強調量を乗じたものの総和に基づいて目標値kを導出する。導出された基準フレームに係る目標値kの情報は、RAM103に格納される。
In S708, the
一方、S706において現フレームが基準フレームではないと判断した場合、目標導出部305はS709で、基準フレームに係る目標値kを現フレームに係るエンハンス処理の目標値として取得する。即ち、目標導出部305は、S708において基準フレームに係り導出した目標値kをRAM103から取得する。
On the other hand, if it is determined in S706 that the current frame is not the reference frame, the
S710で、目標導出部305は、S709において取得した目標値に基づいて、現フレームの可視光画像及び補間赤外光画像のエッジ強度に基づいて各画像のエッジ強調量を導出する。目標導出部305は、導出した各画像のエッジ強調量を現フレームに係るエンハンス処理で用いるエッジ強調量としてエンハンス処理部306に出力し、本導出処理を完了する。
In S710, the
なお、撮像シーン中の大気の状態は経時変化するものであり、霞による視認性低下の程度も変化し得る。つまり、霞による視認性低下を軽減した動画像の撮影中において、各フレームのエンハンス処理に赤外光画像を用いるか否かは、可視光画像における霞の影響度合いに応じて変化し得る。例えば、霞が順次深くなる場合、可視光画像の階調情報であるエッジ強度が小さくなるため、可視光画像のみをエッジ強調しても、出力画像における視認性の向上が見込めなくなり得、赤外光画像を用いる必要が出てくる。このような場合も、基準フレームについて可視光画像のエッジ強度及びエッジ強調量のみに基づいて導出した目標値kを、霞が深くなったフレームの補間赤外光画像のエッジ強調量の導出に流用すればよい。つまり、基準フレームについて導出した目標値kを後続のフレームに利用するため、撮像シーンの赤外光量の変化だけでなく、霞の状態変化が生じる場合であっても、出力画像における被写体の視認性の向上効果を維持することができる。 Note that the atmospheric conditions during an image capture scene change over time, and the degree of visibility degradation due to haze may also change. In other words, during capture of a moving image in which visibility degradation due to haze is reduced, whether or not to use an infrared light image in the enhancement process for each frame may change depending on the degree of influence of the haze in the visible light image. For example, when the haze becomes gradually deeper, the edge strength, which is the gradation information of the visible light image, becomes smaller, so that even if only the visible light image is edge-enhanced, it may not be possible to improve visibility in the output image, and it becomes necessary to use an infrared light image. In such a case, the target value k derived for the reference frame based only on the edge strength and edge enhancement amount of the visible light image can be used to derive the edge enhancement amount of the interpolated infrared light image for the frame in which the haze has deepened. In other words, since the target value k derived for the reference frame is used for the subsequent frame, the effect of improving the visibility of the subject in the output image can be maintained even when not only the amount of infrared light in the image capture scene changes but also the state of the haze changes.
以上説明したように、本実施形態の画像処理装置によれば、可視光画像における被写体の像の視認性を向上させつつ、動画像のフレーム間で均質な視認性を担保することができる。 As described above, the image processing device of this embodiment can improve the visibility of the subject image in the visible light image while ensuring uniform visibility between frames of a moving image.
[変形例1]
上述した実施形態では、可視光画像と赤外光画像の階調情報に基づいて対象領域を決定するものとして説明したが、本発明の実施はこれに限られるものではない。対象領域の決定にあたっては、階調情報に加えて、さらに撮像シーン中の霞の透過率を示す透過マップを補助情報として用いてもよい。より詳しくは、領域決定部304は、可視光画像と赤外光画像の評価値の差分が第2閾値を上回るブロックのうち、透過マップにおいて霞んでいると特定できるブロック(透過率が所定の閾値を下回る)を対象領域として決定してもよい。
[Modification 1]
In the above embodiment, the target region is determined based on the gradation information of the visible light image and the infrared light image, but the present invention is not limited to this. In determining the target region, in addition to the gradation information, a transmission map indicating the transmittance of the haze in the captured scene may be used as auxiliary information. More specifically, the
なお、透過マップは、その計測手法や被写体の材質等に応じて、時間方向において透過率が変動する場合があり、結果、対象領域が好適に決定されず、出力画像において好適なエンハンス効果にばらつきが生じ得る。このため、フレームごとに取得される透過マップをそのまま使用するのではなく、例えば直近の所定数のフレームについて得られた透過マップを加重加算することで、透過率の情報が安定化された透過マップを生成して用いてもよい。 Note that the transmittance of the transmission map may vary over time depending on the measurement method and the material of the subject, resulting in the target area not being determined appropriately, and the enhancement effect in the output image may vary. For this reason, rather than using the transmission map obtained for each frame as is, a transmission map with stabilized transmittance information may be generated and used, for example by weighted addition of the transmission maps obtained for a certain number of recent frames.
[変形例2]
上述した実施形態では、可視光画像と赤外光画像の階調情報に基づいて対象領域を決定するものとして説明したが、本発明の実施はこれに限られるものではない。対象領域は、例えば動画撮影中に表示部109になされるスルー表示を見ながら、ユーザにより指定されるものであってもよい。指定は、例えば表示部109がタッチパネルディスプレイである場合には、表示領域中へのタッチ操作に応じて行われるものであってよく、この場合、タッチ操作がなされた座標を含むブロックが、対象領域に決定されればよい。
[Modification 2]
In the above-described embodiment, the target area is determined based on the gradation information of the visible light image and the infrared light image, but the present invention is not limited to this. The target area may be specified by the user while viewing the through display on the
[変形例3]
上述した実施形態では、基準フレームに係る可視光画像及び赤外光画像のエッジ強調量を、これらの画像の階調情報(AC成分の量)と図6に示した特性とに基づいて決定するものとして説明したが、本発明の実施はこれに限られるものではない。基準フレームに係る各画像のエッジ強調量は、例えば霞除去の強度を指定するユーザ設定の値に基づいて決定されるものであってもよい。
[Modification 3]
In the above embodiment, the amount of edge enhancement of the visible light image and the infrared light image related to the reference frame is determined based on the gradation information (amount of AC components) of these images and the characteristics shown in Fig. 6, but the embodiment of the present invention is not limited to this. The amount of edge enhancement of each image related to the reference frame may be determined based on a user-set value that specifies the strength of haze removal, for example.
[変形例4]
上述した実施形態では、フレームごとに赤外光量の情報を取得し、当該フレームにおける補間赤外光画像のエッジ強調量の導出に用いるものとして説明したが、本発明の実施はこれに限られるものではない。撮像シーンにおける赤外光量は、導出手法やその他の外的要素等の要因により細かな上下動や急峻な変動が生じ得る。従って、都度、フレームについて得られた赤外光量を用いて補間赤外光画像のエッジ強調量を導出した場合、出力画像における霞による視認性低下の低減効果(エンハンス効果)にばらつきが発生する可能性がある。
[Modification 4]
In the above embodiment, information on the amount of infrared light is acquired for each frame and used to derive the amount of edge enhancement of the interpolated infrared light image for that frame, but the implementation of the present invention is not limited to this. The amount of infrared light in an image capture scene may fluctuate slightly up and down or sharply depending on factors such as the derivation method and other external factors. Therefore, if the amount of edge enhancement of the interpolated infrared light image is derived using the amount of infrared light acquired for each frame, there is a possibility that the effect of reducing the visibility reduction due to haze in the output image (enhancement effect) may vary.
このようなエンハンス効果のばらつきを低減すべく、フレームに係る赤外光量は、例えば直近数フレームの赤外光量の平均値や加重加算値等、過去のフレームに係る赤外光量を利用して補間赤外光画像のエッジ強調量が導出されてもよい。あるいは、例えば現フレームに係る赤外光量と直近のフレームに係る赤外光量との差が閾値を上回る等、現フレームに係る赤外光量がエラー値であると推測される場合には、過去のフレームに係る赤外光量のみで処理に用いる赤外光量を決定してもよい。このようにすることで、エンハンス効果のばらつきをより低減させることができる。 In order to reduce such variation in the enhancement effect, the amount of infrared light pertaining to a frame may be derived as the amount of edge enhancement of the interpolated infrared light image by using the amount of infrared light pertaining to past frames, such as the average or weighted sum of the amounts of infrared light pertaining to the most recent frames. Alternatively, if the amount of infrared light pertaining to the current frame is suspected to be an error value, for example because the difference between the amount of infrared light pertaining to the current frame and the amount of infrared light pertaining to the most recent frame exceeds a threshold, the amount of infrared light used in processing may be determined only from the amount of infrared light pertaining to past frames. In this way, the variation in the enhancement effect can be further reduced.
[変形例5]
上述した実施形態では、フレームに係る可視光画像の対象領域において階調が失われている場合に、同フレームに係る補間赤外光画像のAC成分を合成することによって被写体の像の視認性を向上できるものとして説明した。一方で、フレームに係る補間赤外光画像の対象領域においても階調が失われている場合には、当該補間赤外光画像を用いたとしても好適なエンハンス効果が得られない可能性がある。
[Modification 5]
In the above-described embodiment, when gradation is lost in the target area of the visible light image of a frame, the visibility of the subject image can be improved by synthesizing the AC components of the interpolated infrared light image of the same frame. On the other hand, when gradation is also lost in the target area of the interpolated infrared light image of the frame, a suitable enhancement effect may not be obtained even if the interpolated infrared light image is used.
このような場合、例えば過去のフレームに係る補間赤外光画像を現フレームに係る補間赤外光画像に合成することで得られる画像を、エンハンス処理に用いてもよい。あるいは、現フレームに係る補間赤外光画像に代えて、過去のフレームに係る補間赤外光画像を現フレームに係るエンハンス処理に用いてもよい。 In such a case, for example, an image obtained by combining an interpolated infrared light image relating to a past frame with an interpolated infrared light image relating to the current frame may be used in the enhancement process. Alternatively, instead of the interpolated infrared light image relating to the current frame, an interpolated infrared light image relating to a past frame may be used in the enhancement process relating to the current frame.
[変形例6]
上述した実施形態では、霞による視認性低下を低減させる動画像を撮影する場合のエンハンス処理に用いる各画像のエッジ強調量を、基準フレームに係り導出した目標値kに基づいて得る態様を説明したが、エンハンス処理部306の利用はこれに限られない。例えば、エンハンス処理を適用する動画像の撮像中に静止画像の撮影を可能ならしめる態様では、エンハンス処理部306は、当該静止画像用のエンハンス処理にも利用されるものであってよい。この場合、静止画像については、例えば撮像シーンにおける霞の状態を把握しながら、ユーザが所望するタイミングで撮影指示が受け付けられるものであるため、動画像に係る基準フレームとは各画像の状態が異なっている可能性がある。
[Modification 6]
In the above-described embodiment, the edge enhancement amount of each image used in the enhancement process when capturing a moving image that reduces the visibility degradation due to haze is obtained based on the target value k derived for the reference frame, but the use of the
従って、記録する静止画像の生成用に実行されるエンハンス処理については、基準フレームに係る目標値kを用いずに、該当のフレームに最適な各画像のエッジ強調量を導出して用いればよい。即ち、動画像と静止画像の撮影が同時に行われる場合には、動画像については、基準フレームで得られた目標値に基づいて導出したエッジ強調量が用いられる一方で、静止画像については、これと独立して導出したエッジ強調量が用いられる。このようにすることで、フレーム間で安定したエンハンス効果の動画像を記録しつつ、撮影タイミングに得られた可視光画像及び赤外光画像に最適化されたエンハンス効果の静止画像を記録することができる。 Therefore, for the enhancement process performed to generate the still image to be recorded, it is sufficient to derive and use the amount of edge enhancement for each image that is optimal for the relevant frame, without using the target value k for the reference frame. In other words, when video and still images are captured simultaneously, the amount of edge enhancement derived based on the target value obtained in the reference frame is used for the video, while the amount of edge enhancement derived independently is used for the still image. In this way, it is possible to record video images with a stable enhancement effect between frames, while recording still images with an enhancement effect optimized for the visible light image and infrared light image obtained at the time of capture.
[変形例7]
上述した実施形態では、画角全体に対して、可視光画像及び赤外光画像の階調情報が所定の条件を満たすブロックの全てを1つの対象領域として定義し、当該対象領域(あるいは画角全体)に対して1つの目標値を設定する態様を説明した。一方で、画角内に分布する被写体はその視認性の程度が必ずしも一様ではないため、画角全体に1つ定義された対象領域について導出される各画像のエッジ強調量でエンハンス処理を行っても、一部の領域で好適なエンハンス効果が得られない可能性がある。
[Modification 7]
In the above-described embodiment, all blocks in which the gradation information of the visible light image and the infrared light image satisfies a predetermined condition for the entire angle of view are defined as one target region, and one target value is set for the target region (or the entire angle of view). However, since the degree of visibility of subjects distributed within the angle of view is not necessarily uniform, even if enhancement processing is performed using the edge enhancement amount of each image derived for one target region defined for the entire angle of view, a suitable enhancement effect may not be obtained in some regions.
このため、例えば図4に示した可視光画像及び赤外光画像について、これら画像の階調情報に基づいて図8(a)に示されるような複数の領域を対象領域として定義してもよい。図8(a)の例では、画角全体にEA1~EA6の6つの領域が示されている。ここで、複数の領域は、いずれも実施形態1と同様に可視光画像の評価値が第1閾値より低く、かつ、可視光画像と赤外光画像の評価値の差分が第2閾値より大きいとの条件を満たすブロックで構成される。各領域は、条件を満たすブロックのうち、可視光画像の評価値、及び可視光画像と赤外光画像の評価値の差分の少なくともいずれかの類似度が所定値を上回り(評価値の類似性が高い)、かつ、隣接しているブロックをグルーピングすることで定義される。このようなグルーピングにより、同一被写体の像が表れていると思われるブロックを、1つの領域として定義することができる。 For this reason, for example, for the visible light image and the infrared light image shown in FIG. 4, multiple regions as shown in FIG. 8A may be defined as target regions based on the gradation information of these images. In the example of FIG. 8A, six regions EA 1 to EA 6 are shown in the entire angle of view. Here, the multiple regions are all composed of blocks that satisfy the condition that the evaluation value of the visible light image is lower than a first threshold value and the difference in the evaluation values of the visible light image and the infrared light image is greater than a second threshold value, as in the first embodiment. Each region is defined by grouping adjacent blocks among the blocks that satisfy the condition, in which at least one of the similarity of the evaluation value of the visible light image and the difference in the evaluation value of the visible light image and the infrared light image exceeds a predetermined value (high similarity of the evaluation values). By grouping in this way, blocks that are thought to show an image of the same subject can be defined as one region.
以下、当該複数の領域のそれぞれについての目標値の決定方法について、図8(a)の領域EA1を例に説明する。領域EA1の各ブロックに係る評価値(AC成分の量)が、可視光画像と補間赤外光画像とで図8(b)のように分布しているとする。即ち、可視光画像の領域EA1には、評価値がV1、V2及びV3のブロックが分布し、補間赤外光画像の領域EA1には、評価値がI1及びI2のブロックが分布している。 A method for determining a target value for each of the multiple regions will be described below using region EA1 in Fig. 8(a) as an example. Assume that the evaluation values (amount of AC components) for each block in region EA1 are distributed in the visible light image and the interpolated infrared light image as shown in Fig. 8(b). That is, blocks with evaluation values V1 , V2 , and V3 are distributed in region EA1 of the visible light image, and blocks with evaluation values I1 and I2 are distributed in region EA1 of the interpolated infrared light image.
このとき、目標導出部305は、まずブロックの各々について、各画像の階調情報(評価値)に基づいたエッジ強調量を取得し、目標値を導出する。例えば、図8(b)に示した領域EA1の各ブロックの評価値に対して、図8(c)のように2種類の目標値k1とk2(>k1)が導出されたとする。目標導出部305は、領域EA1中のブロックのうちの最小の目標値(k1)を当該領域の目標値として決定し、後続のフレームにおける当該領域に係るエッジ強調量の導出に用いる。
At this time, the
なお、本変形例では領域中のブロックのうちの最小の目標値を採用するものとして説明したが、本発明の実施はこれに限られるものではなく、領域中の最大の目標値や目標値の平均値等、任意の基準で領域の目標値を決定してもよい。 In this modified example, the smallest target value among the blocks in the region is adopted, but the implementation of the present invention is not limited to this, and the target value of the region may be determined based on any criteria, such as the maximum target value in the region or the average target value.
また、本変形例では対象領域とする1以上の領域の決定を、評価値に基づいたグルーピングにより行うものとして説明したが、本発明の実施はこれに限られるものではない。例えば、補助情報として画角内の深度マップ(各ブロックの被写体の距離情報)を参照することで、同一被写体の像が表れるブロックをより正確に同一の領域としてグルーピングすることもできる。 In addition, in this modified example, the determination of one or more regions to be the target region is described as being performed by grouping based on the evaluation value, but the implementation of the present invention is not limited to this. For example, by referring to a depth map within the field of view (distance information of the subject in each block) as auxiliary information, blocks in which the image of the same subject appears can be grouped more accurately as the same region.
[変形例8]
上述した実施形態では、基準フレームにおいて目標値が導出されると、当該フレームを含む後続のフレームにて、出力画像が当該目標値のエッジ強度を示すようエンハンス処理が実行されるものとして説明したが、本発明の実施はこれに限られるものではない。例えば、霞除去の効果を知らしめるべく、段階的にエッジ強調の程度を異ならせる効果を示すように目標値の制御が行われてもよい。
[Modification 8]
In the above embodiment, when a target value is derived in a reference frame, enhancement processing is performed so that the output image shows the edge strength of the target value in the frames following the reference frame, but the present invention is not limited to this. For example, the target value may be controlled so as to show the effect of gradually varying the degree of edge enhancement in order to inform the effect of haze removal.
この場合、基準フレームにおいて目標導出部305は、実施形態1の手法で導出する目標値kを霞除去の効果が最大化される最終目標値kmaxとしてRAM103に保持させる。当該最終目標値kmaxは、基準フレームから所定のフレームが経過したときの各画像のエッジ強調量の導出のために目標値として設定される。一方、基準フレームから所定のフレームまでは、目標導出部305は図9に示されるように0から段階的に目標値を増加させて決定する。図の例では、0フレームを基準フレームとしてNフレーム目に最終目標値kmaxとなるよう、基準フレームから(N-1)フレーム目までの目標値が線形的に定められている。即ち、基準フレームから(N-1)フレームの間、目標値は、基準フレームからの経過フレーム数に応じて段階的に最終目標値kmaxに至る変動値となっている。
In this case, the
従って、目標導出部305は、導出処理のS706において現フレームが基準フレームであると判断した場合に、最終目標値kmaxを決定する一方で、基準フレームからの経過フレーム数に応じて最終目標値kmax基づく目標値kを導出する。このとき、目標導出部305は、経過フレーム数mがNを下回る場合には目標値kを、
で導出し、各画像のエッジ強調量の導出に用いる。また目標導出部305は、経過フレーム数mがN以上である場合には目標値kとして最終目標値kmaxを用いて、各画像のエッジ強調量を導出する。このようにすることで、動画像の再生時に、霞が徐々に除去されて被写体の像の視認性が向上する(階調が増大する)様を提示することができる。
Therefore, when the
and uses it to derive the edge enhancement amount for each image. Furthermore, when the number of elapsed frames m is equal to or greater than N, the
また、霞除去の効果を段階的に示すように目標値の制御を行う態様は、動画撮影中のエンハンス処理の適用開始時に限られるものではなく、エンハンス処理の適用終了時に行われるものであってもよい。この場合、上述した適用開始時とは反対に、例えば適用終了に係る操作入力がなされてからの経過フレーム数に応じて、最終目標値kmaxから0まで目標値を段階的に減衰させるよう制御すればよい。このようにすることで、動画像の再生時に、霞が徐々に増加し、被写体の像の視認性が本来の可視光画像の状態に戻る(階調が低下する)様を提示することができる。 In addition, the manner in which the target value is controlled to gradually show the effect of haze removal is not limited to when the application of the enhancement process is started during video capture, but may be when the application of the enhancement process is ended. In this case, contrary to the above-mentioned time of the start of application, the target value may be controlled to gradually attenuate from the final target value k max to 0 according to the number of frames that have elapsed since the operation input related to the end of application was made. In this way, it is possible to present the appearance in which the haze gradually increases and the visibility of the subject image returns to the original visible light image state (the gradation decreases) during playback of the video.
[実施形態2]
上述した実施形態及び変形例では、基準フレームに後続するフレームにおけるエンハンス処理において、基準フレームにて決定した目標値となるように各画像のエッジ強調量を導出する態様を説明した。一方で、エッジ強調量が大きすぎる場合には画像中のノイズも強調されてしまうため、補間赤外光画像を合成したとしても好適な画質の出力画像が得られない可能性がある。即ち、実施形態1の導出処理に導出される各画像のエッジ強調量は、あくまでも出力画像が基準フレームについて決定した目標値kとなるように各画像のエッジ強度に基づいてエッジ強調量を導出するものであり、出力画像の画質が担保されない可能性がある。
[Embodiment 2]
In the above-described embodiment and modified example, in the enhancement process for a frame subsequent to the reference frame, the edge enhancement amount of each image is derived so as to be the target value determined for the reference frame. On the other hand, if the edge enhancement amount is too large, noise in the image is also emphasized, so that an output image with suitable image quality may not be obtained even if an interpolated infrared light image is synthesized. In other words, the edge enhancement amount of each image derived in the derivation process of embodiment 1 is derived based on the edge intensity of each image so that the output image will be the target value k determined for the reference frame, and there is a possibility that the image quality of the output image may not be guaranteed.
換言すれば、赤外光画像をエンハンス処理に用いる態様では、補間赤外光画像の対象領域のエッジ強度が出力画像のエッジ強度である目標値kに不足する分を、前者に乗じるエッジ強調量の値を上昇させることによって補うことになる。このため、補間赤外光画像の対象領域のエッジ強度自体が低い場合には、必然的にエッジ強調量が大きくなり、出力画像におけるノイズ発生を顕著にし得る。 In other words, in a mode in which an infrared light image is used for enhancement processing, the shortfall in the edge strength of the target area of the interpolated infrared light image from the target value k, which is the edge strength of the output image, is compensated for by increasing the value of the edge enhancement amount by which the former is multiplied. For this reason, if the edge strength itself of the target area of the interpolated infrared light image is low, the edge enhancement amount will inevitably be large, which can lead to noticeable noise generation in the output image.
撮像シーンの赤外光量は気象条件等の変化によって変わり得るものであり、補間赤外光画像の対象領域のエッジ強度(AC成分の量)も撮像シーンに依存して増減し得る。つまり、補間赤外光画像の対象領域のAC成分の量がそもそも小さくなる撮像シーンでは、当該補間赤外光画像のエッジ強調量として高い値を使用しなければならず、好適な画質の出力画像が得られない可能性がある。 The amount of infrared light in an imaging scene can change due to changes in weather conditions, etc., and the edge strength (amount of AC components) of the target area of the interpolated infrared light image can also increase or decrease depending on the imaging scene. In other words, in imaging scenes where the amount of AC components of the target area of the interpolated infrared light image is small to begin with, a high value must be used as the amount of edge enhancement for the interpolated infrared light image, and there is a possibility that an output image of suitable image quality will not be obtained.
対して、出力画像の画質を担保すべく、補間赤外光画像のエッジ強調量に上限値を設けることも考えられる。この場合、目標導出部305は、補間赤外光画像のエッジ強調量を、目標値k、補間赤外光画像のエッジ強度、及び赤外光量の差分に基づいて導出された値と、予め定められた上限値とのうちのいずれか低い方の値に決定する。しかしながら、このような態様では、エンハンス処理により得られる出力画像のエッジ強度が目標値kに至らない可能性がある。
On the other hand, in order to ensure the image quality of the output image, it is also possible to set an upper limit on the amount of edge enhancement of the interpolated infrared light image. In this case, the
本実施形態では、出力画像の画質低下を回避しつつ、一定のエンハンス効果の出力画像が動画像のフレームとして記録されるよう、撮影される赤外光画像の階調を動的に制御する手法について説明する。より詳しくは、本実施形態の撮像装置100では、各画像のエッジ強調量に上限値を設けるものとし、目標導出部305は、各フレームにおいて上限値以下の値をエッジ強調量として導出する。そして、制御部101は、補間赤外光画像のAC成分の量が少ない場合には、撮像装置100に設けられた、あるいは撮像装置100に接続されて制御可能な不図示の発光装置に、赤外光を照射させる制御を行う。即ち、あるフレームのエンハンス処理の結果得られる出力画像のAC成分の量が目標値kに不足すると判断した場合には、次のフレームの赤外光画像の撮影用に、被写体に対してこれを補う赤外光を照射するよう、発光装置の発光量の制御が行われる。
In this embodiment, a method of dynamically controlling the gradation of the captured infrared light image so that an output image with a certain enhancement effect is recorded as a frame of a moving image while avoiding deterioration in the image quality of the output image will be described. More specifically, in the
《発光制御処理》
以下、本実施形態の撮像装置100において行われる発光制御処理について、図10のフローチャートを参照して説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開することにより実行することができる。本発光制御処理は、例えば導出処理において現フレームに係る補間赤外光画像のエッジ強調量が導出された際に開始され、次のフレームに係る画像信号の撮影が行われるまでに処理が完了するものとして説明する。
<Light Emission Control Processing>
The light emission control process performed in the
S1001で、制御部101は、導出処理において導出された現フレームに係る各画像のエッジ強調量の情報と、現フレームの各画像の階調情報(エッジ強度)、及び基準フレームに係り導出された目標値kの情報をRAM103から取得する。
In S1001, the
S1002で、制御部101は、S1001において取得された情報にて現フレームに係るエンハンス処理が行われた場合に、出力画像のAC成分の量が目標値kに至るか否かを判断する。本ステップの判断は、エンハンス処理と同様にS1001で得られた各画像のエッジ強度にエッジ強調量を乗じたものの総和値を導出し、これを目標値kと比較することにより行われてもい。あるいは、現フレームに係りエンハンス処理部306が生成した出力画像のAC成分の量と目標値kとを比較することにより、本ステップの判断が行われてもよい。制御部101は、出力画像のAC成分の量が目標値kに至ると判断した場合は処理をS1003に移し、至らない(不足する)と判断した場合は処理をS1004に移す。
In S1002, the
S1003で、制御部101は、現フレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量を取得して、次のフレームの発光量EMaとして決定する。即ち、現フレームでの発光量において出力画像のAC成分の量が目標値kとなることを担保できているため、制御部101は、次フレームについても同様の発光量とすべく、現フレームの撮影時の発光量を流用する。
In S1003, the
一方、S1002において出力画像のAC成分の量が目標値kに至らないと判断した場合、制御部101はS1004で、次フレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量を導出する。制御部101は、まず現フレームの補間赤外光画像のエッジ強調量Eiを用いる場合において、出力画像のAC成分の量を目標値kとするために補間赤外光画像に必要なエッジ強度ACnを
にて導出する。ここで、ΔIは、基準フレームと現フレームの撮像シーンの赤外光量の差分を示している。さらに制御部101は、得られたエッジ強度ACnに基づいて、現フレームの補間赤外光画像に不足しているエッジ強度の差分ΔACを
で導出する。ここで、ACiは、現フレームの補間赤外光画像のエッジ強度である。そして制御部101は、得られたΔACを用いて、次のフレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量EMaを
で導出する。ここで、EMは現フレームの撮影時に発光装置の発光量を示す。
On the other hand, if it is determined in S1002 that the amount of AC components in the output image does not reach the target value k, the
Here, ΔI indicates the difference in the amount of infrared light between the captured scenes of the reference frame and the current frame. Furthermore, the
Here, AC i is the edge strength of the interpolated infrared light image of the current frame. Then, the
Here, EM indicates the amount of light emitted by the light emitting device when the current frame is captured.
S1005で、制御部101は、導出した次のフレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量EMaで近赤外光を照射するよう、発光装置を制御する。
In S1005, the
このようにすることで、本実施形態の画像処理装置によれば、現フレームの補間赤外光画像を用いてエンハンス処理を実行しても出力画像のAC成分の量が目標値kに至らない場合に、次フレームで得られる補間赤外光画像を好適な状態にすることができる。即ち、画像処理装置は、次のフレームにおいて被写体に照射される赤外光の発光量を調整することで、次のフレームで得られる補間赤外光画像のエッジ強度を増大させ、基準フレームと同様のエンハンス効果を示す出力画像を生成することができる。 In this way, according to the image processing device of this embodiment, when the amount of AC components in the output image does not reach the target value k even when enhancement processing is performed using the interpolated infrared light image of the current frame, the interpolated infrared light image obtained in the next frame can be made into an appropriate state. In other words, by adjusting the amount of infrared light emitted to the subject in the next frame, the image processing device can increase the edge strength of the interpolated infrared light image obtained in the next frame and generate an output image that exhibits the same enhancement effect as the reference frame.
なお、本実施形態の発光制御処理では、次のフレームにおいて追加の赤外光の照射の要否を判断するために、S1002において出力画像のAC成分の量が目標値kに至るか否かを判断したが、本発明の実施はこれに限られるものではない。S1002における判断は、例えばエッジ強調量に上限値が設けられる態様では、現フレームの補間赤外光画像について導出されたエッジ強調量が上限値であるかを制御部101が判断することによりなされてもよい。あるいは、例えばエッジ強調量に上限値が設けられない態様では、現フレームの補間赤外光画像について導出されたエッジ強調量が、ノイズが許容されないとして定められた閾値を上回るか否かを制御部101が判断することによりなされてもよい。
In the light emission control process of this embodiment, in order to determine whether or not additional infrared light irradiation is required in the next frame, it is determined in S1002 whether the amount of AC components of the output image reaches the target value k, but the implementation of the present invention is not limited to this. For example, in a mode in which an upper limit is set for the amount of edge enhancement, the determination in S1002 may be made by the
また本実施形態では、出力画像のAC成分の量が目標値kに不足する場合の発光制御処理について説明したが、本発明の実施はこれに限られるものではない。例えば、補間赤外光画像のエッジ強調量に下限値が設けられる態様では、補間赤外光画像が十分なエッジ強度を示す場合に、エンハンス処理を行うと出力画像のAC成分の量が目標値kを上回る可能性がある。即ち、発光装置による被写体の赤外光の照射が十分である態様も想定できる。このような場合、制御部101は、上述の発光制御処理のS1004と同様に処理を行うことで、次のフレームの発光装置の発光量を現フレームより低減させることができる。
In addition, in this embodiment, the light emission control process is described when the amount of AC components in the output image is insufficient to the target value k, but the implementation of the present invention is not limited to this. For example, in a mode in which a lower limit is set for the amount of edge enhancement of the interpolated infrared light image, if the interpolated infrared light image shows sufficient edge strength, performing enhancement processing may cause the amount of AC components in the output image to exceed the target value k. In other words, a mode in which the irradiation of the subject with infrared light by the light emitting device is sufficient can also be envisioned. In such a case, the
[変形例9]
上述した実施形態2では、撮像シーンの赤外光量に基づいて、次のフレームの発光装置の発光量を導出する態様を説明したが、本発明の実施はこれに限られるものではない。例えば、撮像装置100がAF等の他の用途で赤外光を被写体に照射する構成を具備する態様では、当該照射に係る赤外光の発光量を撮像シーンの赤外光量に加味し、それを差し引いた発光量とするように発光装置の動作を制御してもよい。
[Modification 9]
In the above-mentioned second embodiment, the light emission amount of the light emitting device for the next frame is derived based on the amount of infrared light in the imaging scene, but the implementation of the present invention is not limited to this. For example, in an embodiment in which the
[変形例10]
上述した実施形態2では、次のフレームにおいて発光装置の発光量を増大させることで、次のフレームにおいて対象領域のエッジ強度が高くなった補間赤外光画像を取得するものとして説明したが、本発明の実施はこれに限られるものではない。撮像装置100に設けられた発光装置の発光量を増やしたとしても、被写体が遠方に存在する場合等、発光装置により照射された赤外光が被写体に到達しないことも想定される。
[Modification 10]
In the above-described second embodiment, an interpolated infrared light image in which the edge intensity of the target area is increased in the next frame is acquired by increasing the amount of light emitted by the light-emitting device in the next frame, but the implementation of the present invention is not limited to this. Even if the amount of light emitted by the light-emitting device provided in the
このため、制御部101は、発光装置と被写体との距離の情報を取得し、当該距離が発光装置の照射可能範囲を示す距離閾値を上回る場合には、発光装置の発光量を増大させる制御を行わないようにしてもよい。なお、発光装置と被写体との距離が距離閾値を上回ることにより発光装置の発光量を増大させない場合には、エッジ強調量を上限値を超えて設定可能にすることで、エンハンス効果の維持を優先してもよい。
For this reason, the
[変形例11]
上述した実施形態2の発光制御処理では、出力画像のAC成分の量が目標値kに至らない場合に、発光装置の発光量を増大させるものとして説明したが、発光装置の発光量には許容限度が存在する。即ち、現フレームにおいて既に発光装置の発光量が最大量である、あるいは、S1004において決定した発光量EMaが最大量を上回る場合には、発光制御を好適に行うことができない。この場合、エッジ強調量を上限値を超えて設定可能にすることで、エンハンス効果の維持を優先してもよい。あるいは、次フレームと撮像条件が類似する過去のフレームにて取得された、AC成分の量が好適である補間赤外光画像を、次のフレームのエンハンス処理に用いるようにしてもよい。
[Modification 11]
In the light emission control process of the second embodiment described above, the amount of light emitted by the light emitting device is increased when the amount of AC components in the output image does not reach the target value k. However, there is an allowable limit to the amount of light emitted by the light emitting device. That is, if the amount of light emitted by the light emitting device in the current frame is already at the maximum amount, or if the amount of light emitted EM a determined in S1004 exceeds the maximum amount, light emission control cannot be performed suitably. In this case, the amount of edge enhancement may be set to exceed the upper limit value, so that the maintenance of the enhancement effect is prioritized. Alternatively, an interpolated infrared light image with a suitable amount of AC components, which is acquired in a past frame under similar imaging conditions to the next frame, may be used for the enhancement process of the next frame.
[変形例12]
上述した実施形態及び変形例では、発明の理解を容易にすべく、エンハンス処理に赤外光画像を用いる場合には可視光画像のエッジ強調量Evを0に設定するものとし、補間赤外光画像のエッジ強調量Eiのみが導出されるものとして説明した。しかしながら、本発明の実施はこれに限られるものではなく、エンハンス処理に赤外光画像を用いる態様において、可視光画像のエッジ強調量Evsを有意な値に設定するものとしてもよい。
[Modification 12]
In the above-described embodiment and modified examples, in order to facilitate understanding of the invention, it has been described that when an infrared light image is used in the enhancement process, the amount of edge enhancement Ev of the visible light image is set to 0, and only the amount of edge enhancement Ei of the interpolated infrared light image is derived. However, the implementation of the present invention is not limited to this, and in an aspect in which an infrared light image is used in the enhancement process, the amount of edge enhancement Ev of the visible light image may be set to a significant value.
例えば、目標導出部305は、図6(a)に示したような、予め定められた特性に基づいて可視光画像のエッジ強調量Evを設定する。この場合、補間赤外光画像のエッジ強調量Eiは、
により導出すればよい。ここで、ACvは、現フレームの可視光画像のエッジ強度である。
For example, the
Here, AC v is the edge strength of the visible light image of the current frame.
[変形例13]
上述した実施形態及び変形例では、エンハンス処理は、霞により視認性(階調や彩度)が低下した被写体の像のエッジを強調させることで、被写体の像の形状を明確にし、霞が除去されたような効果を与える処理であるものとして説明した。しかしながら、可視光画像において被写体の像の視認性が低下する態様は、霞に起因するものに限られるものではない。例えば、図11(a)に示されるような、暗所等の環境光の明るさが不足している撮像シーンにおいても、可視光画像において被写体の像の視認性が低下する。一方で、同被写体を撮像した赤外光画像には、図11(b)に示されるように、階調を残して被写体の像が表れ得る。このように、可視光画像と赤外光画像とで同一の被写体についての階調が異なって表れる撮像シーンでは、エンハンス処理を行うことで被写体の像の視認性を向上させた出力画像を生成することができる。つまり、上述した導出処理は、当該撮像シーンについて適用することができる。
[Modification 13]
In the above-described embodiment and modified example, the enhancement process has been described as a process that clarifies the shape of the image of the subject by emphasizing the edges of the image of the subject whose visibility (gradation and saturation) has been reduced by haze, and gives an effect of removing the haze. However, the manner in which the visibility of the image of the subject is reduced in the visible light image is not limited to that caused by haze. For example, as shown in FIG. 11(a), even in an imaging scene in which the brightness of the environmental light such as a dark place is insufficient, the visibility of the image of the subject is reduced in the visible light image. On the other hand, in an infrared light image obtained by imaging the same subject, the image of the subject may appear with gradation remaining, as shown in FIG. 11(b). In this way, in an imaging scene in which the gradation of the same subject appears differently in the visible light image and the infrared light image, an output image in which the visibility of the image of the subject is improved can be generated by performing the enhancement process. In other words, the above-described derivation process can be applied to the imaging scene.
ところで、撮像シーンが暗すぎる場合や明るすぎる場合には、そもそも可視光画像が被写体の像を識別困難な状態にあり、そのDC成分において被写体の像の情報が失われることもある。故に、エンハンス処理において、補間赤外光画像の対象領域のAC成分を、エッジ強調量に応じて増幅させて可視光画像のDC成分に合成したとしても、好適な出力画像が得られない。このような場合、エンハンス処理において、対象領域に対して補間赤外光画像のDC成分をさらに合成することで、出力画像における被写体の像の視認性を向上させることができる。 However, if the imaging scene is too dark or too bright, the visible light image is in a state in which it is difficult to distinguish the image of the subject, and information about the image of the subject may be lost in the DC component. Therefore, even if the AC component of the target area of the interpolated infrared light image is amplified according to the amount of edge enhancement and combined with the DC component of the visible light image in the enhancement process, a suitable output image cannot be obtained. In such cases, the visibility of the image of the subject in the output image can be improved by further combining the DC component of the interpolated infrared light image with the target area in the enhancement process.
具体的には、エンハンス処理部306は、可視光画像の対象領域の輝度が低輝度と判断する第1輝度閾値を下回り、かつ、撮像シーンのBV値が低輝度と判断する第1BV閾値を下回る場合に、可視光画像が暗すぎると判定する。あるいは、エンハンス処理部306は、可視光画像の対象領域の輝度が高輝度と判断する第2輝度閾値を上回り、かつ、撮像シーンのBV値が高輝度と判断する第2BV閾値を上回る場合に、可視光画像が明るすぎると判定する。そしてエンハンス処理部306は、可視光画像が暗すぎる/明るすぎると判定した場合のエンハンス処理において、可視光画像のDC成分に対して、エッジ強調した可視光画像及び補間赤外光画像のAC成分、及び補間赤外光画像のDC成分を合成する。
Specifically, the
[変形例14]
上述した実施形態及び変形例では、撮像部105が有する撮像素子に適用されるIRフィルタが、近赤外光の波長範囲の光を透過するものとして説明したが、本発明の実施はこれに限られるものではない。IRフィルタが透過させる光の波長範囲は、近赤外光に限らず、中赤外光、遠赤外光等、他の波長範囲を含むものであってもよい。
[Modification 14]
In the above-described embodiment and modified example, the IR filter applied to the imaging element of the
[変形例15]
上述した実施形態及び変形例では、撮像部105が有する撮像素子が、可視光画像と赤外光画像とを同時に取得可能に構成されるものとして説明したが、本発明の実施はこれに限られるものではない。本発明は、同一の被写体について、同時期に撮像された可視光画像と赤外光画像を用いてエンハンス処理を行う態様に適用可能であり、これらの画像は、例えば別の撮像素子から出力されるものであってもよいことは言うまでもない。
[Modification 15]
In the above-described embodiment and modified example, the imaging element of the
[実施形態及び変形例のまとめ]
本明細書の開示は、以下の画像処理装置、制御方法及びプログラムを含む。
(項目1)
動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置であって、
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得手段と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得手段と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定手段と、
前記決定手段により決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定手段と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出手段と、
を有し、
前記設定手段は、前記動画像の基準フレームについて取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値を決定し、
前記導出手段は、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量を導出する
ことを特徴とする画像処理装置。
(項目2)
前記エンハンス処理は、前記被写体の像のエッジを強調する処理であり、
前記導出手段は、前記可視光画像及び前記赤外光画像の各々のエッジ強調量を前記補正量として導出する
ことを特徴とする項目1に記載の画像処理装置。
(項目3)
前記エンハンス処理は、前記可視光画像及び前記赤外光画像の前記対象領域のAC成分を、各画像について導出された前記エッジ強調量に基づいて増幅し、さらに前記可視光画像のDC成分に合成する処理であることを特徴とする項目2に記載の画像処理装置。
(項目4)
前記導出手段は、前記後続するフレームについて、前記エンハンス処理において前記可視光画像及び前記赤外光画像の対象領域のAC成分を増幅して合算した値が、前記目標値となるように各画像の前記エッジ強調量を導出することを特徴とする項目3に記載の画像処理装置。
(項目5)
前記目標値は、前記エンハンス処理の結果に得られる画像のAC成分が示すエッジ強度であることを特徴とする項目2乃至4のいずれか1項目に記載の画像処理装置。
(項目6)
前記エッジ強調量には、上限値が設けられており、
前記画像処理装置は、前記被写体に赤外光を照射する発光装置の制御を行う制御手段をさらに有し、
前記制御手段は、前記後続するフレームのうちの第1のフレームに係る前記エンハンス処理を実行した結果に得られる画像のエッジ強度が前記目標値に不足する場合に、当該第1のフレームに続く第2のフレームにおいて前記発光装置に照射させる赤外光の発光量を増加させる
ことを特徴とする項目5に記載の画像処理装置。
(項目7)
前記発光装置と前記被写体との距離を取得する第3の取得手段をさらに有し、
前記制御手段は、前記対象領域に含まれる前記被写体との距離が距離閾値を上回る場合に、前記発光装置の発光量を増加させない
ことを特徴とする項目6に記載の画像処理装置。
(項目8)
前記画像処理装置は、前記第1のフレームにおいて前記発光装置の発光量が最大量であった場合に、前記第2のフレームの撮像条件と類似する過去のフレームに係り取得された前記赤外光画像を用いて前記エンハンス処理を実行することを特徴とする項目6または7に記載の画像処理装置。
(項目9)
前記第2の取得手段は、前記動画像の各フレームについて、当該フレームに係り取得された前記赤外光画像に基づいて前記赤外光量を取得することを特徴とする項目1乃至8のいずれか1項目に記載の画像処理装置。
(項目10)
前記第2の取得手段は、前記動画像の各フレームについて、当該フレームを含む直近の所定数のフレームに係り取得された前記赤外光画像に基づいて前記赤外光量を取得することを特徴とする項目1乃至8のいずれか1項目に記載の画像処理装置。
(項目11)
前記決定手段は、前記動画像の各フレームにおける前記対象領域を、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の階調情報に基づいて決定することを特徴とする項目1乃至10のいずれか1項目に記載の画像処理装置。
(項目12)
前記動画像の各フレームに係る前記エンハンス処理において、前記可視光画像に前記赤外光画像を合成するか否かを、前記可視光画像または前記赤外光画像の階調情報に基づいて判断する判断手段をさらに有し、
前記導出手段は、前記判断手段により前記可視光画像に前記赤外光画像を合成しないと判断された場合に、前記後続するフレームについて、前記赤外光量に基づかずに前記可視光画像の前記補正量を導出する
ことを特徴とする項目11に記載の画像処理装置。
(項目13)
前記導出手段は、前記基準フレームから所定数のフレームについて、前記設定手段により設定された前記目標値に代えて、前記基準フレームからの経過フレーム数に応じて段階的に前記目標値に至る変動値を用いて、前記可視光画像及び前記赤外光画像の各々の前記補正量を導出することを特徴とする項目1乃至12のいずれか1項目に記載の画像処理装置。
(項目14)
前記決定手段は、前記動画像の各フレームに対して複数の領域を前記対象領域として決定し、
前記設定手段は、前記複数の領域の各々について、前記目標値を設定する
ことを特徴とする項目1乃至13のいずれか1項目に記載の画像処理装置。
(項目15)
前記動画像の各フレームに係る前記被写体の撮像中に、静止画像の撮影指示を受け付ける入力手段をさらに有し、
前記導出手段は、前記入力手段により前記静止画像の撮影指示が受け付けられた場合に、前記目標値に基づかずに、当該撮影指示が受け付けられたフレームに係り取得された前記可視光画像及び前記赤外光画像の各々について、前記エンハンス処理における前記静止画像用の補正量を導出する
ことを特徴とする項目1乃至14のいずれか1項目に記載の画像処理装置。
(項目16)
前記可視光画像及び前記赤外光画像を撮像する撮像手段をさらに有し、
前記第1の取得手段は、前記撮像手段により撮像された前記可視光画像及び前記赤外光画像を取得する
ことを特徴とする項目1乃至15のいずれか1項目に記載の画像処理装置。
(項目17)
前記撮像手段は、可視光を透過するフィルタが適用された画素と赤外光を透過するフィルタが適用された画素が配置された1つの撮像素子を含むことを特徴とする項目16に記載の画像処理装置。
(項目18)
動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置の制御方法であって、
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得工程と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得工程と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定工程と、
前記決定工程において決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定工程と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出工程と、
を有し、
前記設定工程において、前記動画像の基準フレームに係り取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値が決定され、
前記導出工程において、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量が導出される
ことを特徴とする制御方法。
(項目19)
コンピュータを、項目1乃至15のいずれか1項目に記載の画像処理装置の各手段として機能させるためのプログラム。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Summary of the embodiment and modifications]
The disclosure of this specification includes the following image processing device, control method, and program.
(Item 1)
An image processing device that performs enhancement processing for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising:
a first acquisition means for acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
A second acquisition means for acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
a determining means for determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting means for setting a target value indicating visibility of the image of the subject in the image obtained as a result of the enhancement process for the target region determined by the determination means;
a derivation means for deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame of the moving image in the enhancement process for that frame;
having
the setting means determines the target value based on the visible light image and the infrared light image acquired for a reference frame of the moving image;
the derivation means derives, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
(Item 2)
the enhancement processing is processing for emphasizing edges of the image of the subject,
2. The image processing device according to item 1, wherein the deriving means derives an amount of edge enhancement for each of the visible light image and the infrared light image as the amount of correction.
(Item 3)
3. The image processing device according to item 2, wherein the enhancement process is a process of amplifying AC components of the target region of the visible light image and the infrared light image based on the edge enhancement amount derived for each image, and further combining the AC components with a DC component of the visible light image.
(Item 4)
The image processing device described in item 3, characterized in that the derivation means derives the edge enhancement amount for each image so that a value obtained by amplifying and adding up AC components of the target regions of the visible light image and the infrared light image in the enhancement process for the subsequent frame becomes the target value.
(Item 5)
5. The image processing device according to any one of items 2 to 4, wherein the target value is an edge strength indicated by an AC component of an image obtained as a result of the enhancement process.
(Item 6)
The edge enhancement amount has an upper limit,
the image processing device further includes a control unit that controls a light emitting device that irradiates the subject with infrared light;
The image processing device described in item 5 is characterized in that, when the edge strength of the image obtained as a result of executing the enhancement processing on a first frame of the subsequent frames falls short of the target value, the control means increases the amount of infrared light emitted by the light-emitting device in a second frame following the first frame.
(Item 7)
a third acquisition means for acquiring a distance between the light emitting device and the subject,
7. The image processing device according to item 6, wherein the control means does not increase the amount of light emitted by the light emitting device when the distance to the subject included in the target area exceeds a distance threshold.
(Item 8)
The image processing device described in item 6 or 7, characterized in that when the amount of light emitted by the light emitting device in the first frame is at its maximum, the image processing device performs the enhancement process using the infrared light image acquired for a past frame that has imaging conditions similar to those of the second frame.
(Item 9)
The image processing device according to any one of items 1 to 8, wherein the second acquisition means acquires the amount of infrared light for each frame of the moving image based on the infrared light image acquired for that frame.
(Item 10)
The image processing device described in any one of items 1 to 8, characterized in that the second acquisition means acquires the amount of infrared light for each frame of the moving image based on the infrared light images acquired for a predetermined number of frames immediately preceding the frame in question.
(Item 11)
The image processing device described in any one of items 1 to 10, characterized in that the determination means determines the target area in each frame of the moving image based on gradation information of the visible light image and the infrared light image acquired relating to the frame.
(Item 12)
a determining unit that determines whether or not to combine the visible light image with the infrared light image in the enhancement process for each frame of the moving image based on gradation information of the visible light image or the infrared light image,
Item 12. The image processing device according to item 11, wherein the derivation means derives the correction amount of the visible light image for the subsequent frame not based on the amount of infrared light when the determination means determines not to combine the infrared light image with the visible light image.
(Item 13)
The image processing device described in any one of items 1 to 12, characterized in that the derivation means derives the correction amount for each of the visible light image and the infrared light image by using a variable value that gradually reaches the target value in accordance with the number of frames elapsed from the reference frame, instead of the target value set by the setting means, for a predetermined number of frames from the reference frame.
(Item 14)
The determining means determines a plurality of regions as the target regions for each frame of the moving image,
14. The image processing device according to any one of items 1 to 13, wherein the setting means sets the target value for each of the plurality of regions.
(Item 15)
The camera further includes an input unit for receiving an instruction to capture a still image while capturing an image of the subject for each frame of the moving image,
The image processing device described in any one of items 1 to 14, characterized in that when an instruction to capture a still image is accepted by the input means, the derivation means derives a correction amount for the still image in the enhancement processing for each of the visible light image and the infrared light image acquired relating to the frame for which the shooting instruction was accepted, without being based on the target value.
(Item 16)
The present invention further includes an imaging means for capturing the visible light image and the infrared light image,
16. The image processing device according to any one of items 1 to 15, wherein the first acquisition means acquires the visible light image and the infrared light image captured by the imaging means.
(Item 17)
17. The image processing device according to item 16, wherein the imaging means includes one imaging element in which pixels to which a filter that transmits visible light is applied and pixels to which a filter that transmits infrared light is applied are arranged.
(Item 18)
A method for controlling an image processing device that executes an enhancement process for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising the steps of:
a first acquisition step of acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
a second acquisition step of acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting step of setting a target value indicating visibility of an image of the subject in the image obtained as a result of the enhancement process for the target region determined in the determination step;
a derivation step of deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame in the enhancement process of the moving image;
having
In the setting step, the target value is determined based on the visible light image and the infrared light image acquired in relation to a reference frame of the moving image,
a control method characterized in that, in the derivation step, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame is derived based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
(Item 19)
16. A program for causing a computer to function as each of the means of the image processing device according to any one of items 1 to 15.
[Other embodiments]
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above-described embodiment, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.
100:撮像装置、101:制御部、105:撮像部、107:画像処理部、301:第1画像取得部、302:第2画像取得部、303:光量取得部、304:領域決定部、305:目標導出部、306:エンハンス処理部 100: imaging device, 101: control unit, 105: imaging unit, 107: image processing unit, 301: first image acquisition unit, 302: second image acquisition unit, 303: light amount acquisition unit, 304: area determination unit, 305: target derivation unit, 306: enhancement processing unit
Claims (19)
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得手段と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得手段と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定手段と、
前記決定手段により決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定手段と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出手段と、
を有し、
前記設定手段は、前記動画像の基準フレームについて取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値を決定し、
前記導出手段は、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量を導出する
ことを特徴とする画像処理装置。 An image processing device that performs enhancement processing for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising:
a first acquisition means for acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
A second acquisition means for acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
a determining means for determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting means for setting a target value indicating visibility of the image of the subject in the image obtained as a result of the enhancement process for the target region determined by the determination means;
a derivation means for deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame of the moving image in the enhancement process for that frame;
having
the setting means determines the target value based on the visible light image and the infrared light image acquired for a reference frame of the moving image;
the derivation means derives, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
前記導出手段は、前記可視光画像及び前記赤外光画像の各々のエッジ強調量を前記補正量として導出する
ことを特徴とする請求項1に記載の画像処理装置。 the enhancement processing is processing for emphasizing edges of the image of the subject,
2 . The image processing apparatus according to claim 1 , wherein the deriving means derives an amount of edge enhancement for each of the visible light image and the infrared light image as the amount of correction.
前記画像処理装置は、前記被写体に赤外光を照射する発光装置の制御を行う制御手段をさらに有し、
前記制御手段は、前記後続するフレームのうちの第1のフレームに係る前記エンハンス処理を実行した結果に得られる画像のエッジ強度が前記目標値に不足する場合に、当該第1のフレームに続く第2のフレームにおいて前記発光装置に照射させる赤外光の発光量を増加させる
ことを特徴とする請求項5に記載の画像処理装置。 The edge enhancement amount has an upper limit,
the image processing device further includes a control unit that controls a light emitting device that irradiates the subject with infrared light;
The image processing device described in claim 5, characterized in that the control means increases the amount of infrared light emitted by the light-emitting device in a second frame following the first frame when the edge strength of the image obtained as a result of performing the enhancement processing on a first frame of the subsequent frames falls short of the target value.
前記制御手段は、前記対象領域に含まれる前記被写体との距離が距離閾値を上回る場合に、前記発光装置の発光量を増加させない
ことを特徴とする請求項6に記載の画像処理装置。 a third acquisition means for acquiring a distance between the light emitting device and the subject,
7. The image processing device according to claim 6, wherein the control means does not increase the amount of light emitted by the light emitting device when the distance to the subject included in the target area exceeds a distance threshold value.
前記導出手段は、前記判断手段により前記可視光画像に前記赤外光画像を合成しないと判断された場合に、前記後続するフレームについて、前記赤外光量に基づかずに前記可視光画像の前記補正量を導出する
ことを特徴とする請求項11に記載の画像処理装置。 a determining unit that determines whether or not to combine the infrared light image with the visible light image in the enhancement process for each frame of the moving image based on gradation information of the visible light image or the infrared light image,
The image processing device according to claim 11, characterized in that, when the judgment means judges not to combine the infrared light image with the visible light image, the derivation means derives the correction amount of the visible light image for the subsequent frame without being based on the amount of infrared light.
前記設定手段は、前記複数の領域の各々について、前記目標値を設定する
ことを特徴とする請求項1に記載の画像処理装置。 The determining means determines a plurality of regions as the target regions for each frame of the moving image,
2. The image processing apparatus according to claim 1, wherein said setting means sets the target value for each of said plurality of regions.
前記導出手段は、前記入力手段により前記静止画像の撮影指示が受け付けられた場合に、前記目標値に基づかずに、当該撮影指示が受け付けられたフレームに係り取得された前記可視光画像及び前記赤外光画像の各々について、前記エンハンス処理における前記静止画像用の補正量を導出する
ことを特徴とする請求項1に記載の画像処理装置。 The camera further includes an input unit for receiving an instruction to capture a still image while capturing an image of the subject for each frame of the moving image,
The image processing device according to claim 1, characterized in that, when an instruction to capture a still image is accepted by the input means, the derivation means derives a correction amount for the still image in the enhancement processing for each of the visible light image and the infrared light image acquired relating to the frame for which the shooting instruction was accepted, without being based on the target value.
前記第1の取得手段は、前記撮像手段により撮像された前記可視光画像及び前記赤外光画像を取得する
ことを特徴とする請求項1に記載の画像処理装置。 The present invention further includes an imaging means for capturing the visible light image and the infrared light image,
The image processing apparatus according to claim 1 , wherein the first acquisition means acquires the visible light image and the infrared light image captured by the imaging means.
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得工程と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得工程と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定工程と、
前記決定工程において決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定工程と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出工程と、
を有し、
前記設定工程において、前記動画像の基準フレームに係り取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値が決定され、
前記導出工程において、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量が導出される
ことを特徴とする制御方法。 A method for controlling an image processing device that executes an enhancement process for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising the steps of:
a first acquisition step of acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
a second acquisition step of acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting step of setting a target value indicating visibility of an image of the subject in the image obtained as a result of the enhancement process for the target region determined in the determination step;
a derivation step of deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame in the enhancement process of the moving image;
having
In the setting step, the target value is determined based on the visible light image and the infrared light image acquired in relation to a reference frame of the moving image,
a control method characterized in that, in the derivation step, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame is derived based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022161204A JP2024054762A (en) | 2022-10-05 | 2022-10-05 | Image processing device, control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022161204A JP2024054762A (en) | 2022-10-05 | 2022-10-05 | Image processing device, control method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024054762A true JP2024054762A (en) | 2024-04-17 |
Family
ID=90707772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022161204A Pending JP2024054762A (en) | 2022-10-05 | 2022-10-05 | Image processing device, control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024054762A (en) |
-
2022
- 2022-10-05 JP JP2022161204A patent/JP2024054762A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9858666B2 (en) | Medical skin examination device and method for processing and enhancing an image of a skin lesion | |
JP5460173B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
US9412155B2 (en) | Video system with dynamic contrast and detail enhancement | |
US10861136B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US20090096897A1 (en) | Imaging Device, Image Processing Device, and Program | |
CN105960658B (en) | Image processing apparatus, image capturing apparatus, image processing method, and non-transitory storage medium that can be processed by computer | |
CN107533756B (en) | Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
US10091422B2 (en) | Image processing device and recording medium | |
JP2011135563A (en) | Image capturing apparatus, and image processing method | |
US9961319B2 (en) | Image processing apparatus and control method thereof | |
US20120121129A1 (en) | Image processing apparatus | |
JP5911525B2 (en) | Image processing apparatus and method, image processing program, and imaging apparatus | |
US9674427B2 (en) | Image processing method and apparatus | |
JP2011228807A (en) | Image processing program, image processing apparatus, and image processing method | |
JP4775230B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP2011100204A (en) | Image processor, image processing method, image processing program, imaging apparatus, and electronic device | |
JP2002232777A (en) | Imaging system | |
JP2024054762A (en) | Image processing device, control method and program | |
JP6786273B2 (en) | Image processing equipment, image processing methods, and programs | |
KR101360411B1 (en) | Method for image processing using retinex algorithm | |
JP6558935B2 (en) | Image processing apparatus, control method thereof, control program, and imaging apparatus | |
JP5561389B2 (en) | Image processing program, image processing apparatus, electronic camera, and image processing method | |
JP2014098859A (en) | Imaging apparatus and imaging method | |
KR101004623B1 (en) | Apparatus and method for improving image quality using flash device |