JP2024054762A - Image processing device, control method and program - Google Patents

Image processing device, control method and program Download PDF

Info

Publication number
JP2024054762A
JP2024054762A JP2022161204A JP2022161204A JP2024054762A JP 2024054762 A JP2024054762 A JP 2024054762A JP 2022161204 A JP2022161204 A JP 2022161204A JP 2022161204 A JP2022161204 A JP 2022161204A JP 2024054762 A JP2024054762 A JP 2024054762A
Authority
JP
Japan
Prior art keywords
image
infrared light
frame
light image
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022161204A
Other languages
Japanese (ja)
Inventor
裕紀子 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022161204A priority Critical patent/JP2024054762A/en
Publication of JP2024054762A publication Critical patent/JP2024054762A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】可視光画像における被写体の像の視認性を向上させる画像処理装置、撮像装置、制御方法及びプログラムを提供する。【解決手段】動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させる画像処理装置において、画像処理部が実行する導出処理は、動画像の各フレームについて可視光画像及び赤外光画像を取得し、各フレームについて、赤外光量を取得し、可視光画像及び赤外光画像に基づいて、動画像の各フレームに係るエンハンス処理を実行する対象領域を決定し、決定した対象領域について、エンハンス処理の結果得られる画像の視認性を示す目標値を設定し、動画像の各フレームの可視光画像及び赤外光画像の各々の補正量を導出する。補正量の導出は、基準フレームに係り設定された目標値と、基準フレームと後続するフレームとの間の赤外光量の差分とに基づく。【選択図】図7[Problem] To provide an image processing device, an imaging device, a control method, and a program for improving the visibility of an image of a subject in a visible light image. [Solution] In an image processing device for improving the visibility of an image of a subject by synthesizing a visible light image and an infrared light image for an image of each frame constituting a moving image, a derivation process executed by an image processing unit acquires a visible light image and an infrared light image for each frame of the moving image, acquires an amount of infrared light for each frame, determines a target region for executing an enhancement process for each frame of the moving image based on the visible light image and the infrared light image, sets a target value indicating the visibility of an image obtained as a result of the enhancement process for the determined target region, and derives a correction amount for each of the visible light image and the infrared light image for each frame of the moving image. The derivation of the correction amount is based on the target value set for a reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame. [Selected Figure] Figure 7

Description

本発明は、画像処理装置、撮像装置、制御方法及びプログラムに関し、特に赤外光画像を用いた可視光画像の視認性を向上させる画像処理技術に関する。 The present invention relates to an image processing device, an imaging device, a control method, and a program, and in particular to an image processing technique that improves the visibility of a visible light image using an infrared light image.

霧や煙等のエアロゾルが大気中に存在するシーンを撮影した可視光画像を、レーダー装置を用いて得られた、被写体の奥行き方向の距離及びエアロゾルの強度と、太陽光の明るさを用いて鮮明化する画像補正技術がある(特許文献1)。 There is an image correction technology that uses the depth of the subject and the intensity of the aerosols, obtained using a radar device, and the brightness of sunlight to sharpen visible light images of scenes where aerosols such as fog or smoke are present in the atmosphere (Patent Document 1).

特開2016-019201号公報JP 2016-019201 A

しかしながら、上述のようなシーンを撮影した可視光画像は、大気中の状態によってはそもそも被写体の像が信号値として表れないこともあり、この場合、適切な特許文献1の補正処理技術を用いても好適な補正結果が得られない可能性があった。 However, in visible light images captured of scenes such as those described above, depending on atmospheric conditions, the image of the subject may not appear as a signal value in the first place. In such cases, even if the appropriate correction processing technique of Patent Document 1 is used, it may not be possible to obtain suitable correction results.

本発明は、上述の問題点に鑑みてなされたものであり、可視光画像における被写体の像の視認性を向上させる画像処理装置、撮像装置、制御方法及びプログラムを提供することを目的とする。 The present invention has been made in consideration of the above-mentioned problems, and aims to provide an image processing device, an imaging device, a control method, and a program that improve the visibility of a subject image in a visible light image.

前述の目的を達成するために、本発明の画像処理装置は、動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置であって、動画像の各フレームについて被写体を撮像した可視光画像及び赤外光画像を取得する第1の取得手段と、動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得手段と、可視光画像及び赤外光画像に基づいて、動画像の各フレームに係るエンハンス処理を実行する対象領域を決定する決定手段と、決定手段により決定された対象領域について、エンハンス処理の結果得られる画像における被写体の像の視認性を示す目標値を設定する設定手段と、動画像の各フレームに係るエンハンス処理における、当該フレームに係り取得された可視光画像及び赤外光画像の各々の補正量を導出する導出手段と、を有し、設定手段は、動画像の基準フレームについて取得された可視光画像及び赤外光画像に基づいて目標値を決定し、導出手段は、動画像の基準フレームに後続するフレームについて、基準フレームに係り設定された目標値と、基準フレームと後続するフレームとの間の赤外光量の差分とに基づいて、後続するフレームに係り取得された可視光画像及び赤外光画像の各々の補正量を導出することを特徴とする。 In order to achieve the above-mentioned object, the image processing device of the present invention is an image processing device that performs enhancement processing for each frame image constituting a moving image, by synthesizing a visible light image and an infrared light image to improve the visibility of an image of a subject, and includes a first acquisition means for acquiring a visible light image and an infrared light image of a subject captured for each frame of the moving image, a second acquisition means for acquiring an amount of infrared light related to an image capture scene for each frame of the moving image, a determination means for determining a target area for performing enhancement processing for each frame of the moving image based on the visible light image and the infrared light image, and an enhancement image obtained as a result of the enhancement processing for the target area determined by the determination means. The system has a setting means for setting a target value indicating the visibility of the image of the subject in the image, and a derivation means for deriving a correction amount for each of the visible light image and infrared light image acquired for each frame of the video in the enhancement process for that frame, the setting means determines the target value based on the visible light image and infrared light image acquired for a reference frame of the video, and the derivation means derives a correction amount for each of the visible light image and infrared light image acquired for a subsequent frame of the video based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.

このような構成により本発明によれば、可視光画像における被写体の像の視認性を向上させることが可能となる。 With this configuration, the present invention makes it possible to improve the visibility of the subject image in the visible light image.

本発明の実施形態及び変形例に係る撮像装置100の機能構成を例示したブロック図FIG. 1 is a block diagram illustrating a functional configuration of an image capturing apparatus according to an embodiment and a modification of the present invention. 本発明の実施形態及び変形例に係る撮像部105を説明するための図FIG. 1 is a diagram for explaining an image capturing unit 105 according to an embodiment and a modified example of the present invention; 本発明の実施形態及び変形例に係る、エンハンス処理に関与する画像処理部107の機能構成を例示したブロック図FIG. 1 is a block diagram illustrating a functional configuration of an image processing unit 107 involved in enhancement processing according to an embodiment and a modification of the present invention. 本発明が適用される可視光画像と赤外光画像の一例を示した図FIG. 1 shows an example of a visible light image and an infrared light image to which the present invention is applied. 本発明の実施形態及び変形例に係る画像のブロック分割態様を例示した図FIG. 1 is a diagram illustrating an example of image block division according to an embodiment and a modification of the present invention; 本発明の実施形態及び変形例に係る、画像のAC成分の量と当該画像に適用されるエッジ強調量の関係を例示した図FIG. 10 is a diagram illustrating the relationship between the amount of AC components of an image and the amount of edge enhancement applied to the image, according to the embodiment and modified examples of the present invention; 本発明の実施形態1の画像処理部107において実行される導出処理を例示したフローチャート1 is a flowchart illustrating a derivation process executed in the image processing unit 107 according to the first embodiment of the present invention. 本発明の変形例7に係る領域ごとの目標値の決定方法を説明するための図FIG. 13 is a diagram for explaining a method for determining a target value for each region according to a seventh modified example of the present invention 本発明の変形例9に係る段階的に変化する目標値の設定方法を説明するための図FIG. 13 is a diagram for explaining a method for setting a stepwise changing target value according to a ninth modified example of the present invention. 本発明の実施形態2の撮像装置100で実行される発光制御処理を例示したフローチャート11 is a flowchart illustrating a light emission control process executed by the image capture device 100 according to the second embodiment of the present invention. 本発明が適用される可視光画像と赤外光画像の別の例を示した図FIG. 1 shows another example of a visible light image and an infrared light image to which the present invention is applied.

[実施形態1]
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[Embodiment 1]
Hereinafter, the embodiments will be described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe a number of features, not all of these features are essential to the invention, and the features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicated descriptions are omitted.

以下に説明する一実施形態は、画像処理装置の一例としての、動画像の各フレームに係る可視光画像及び赤外光画像を撮影可能な撮像装置に、本発明を適用した例を説明する。しかし、本発明は、動画像のフレームに係る可視光画像を、赤外光画像を用いて補正することが可能な任意の機器に適用可能である。また、本実施形態において、「エンハンス処理」とは、可視光画像に含まれる被写体の像について、エッジを強調させることで視認性を向上させる処理であるものとして説明する。 The embodiment described below is an example in which the present invention is applied to an imaging device capable of capturing visible light images and infrared light images for each frame of a video, as an example of an image processing device. However, the present invention is applicable to any device that is capable of correcting visible light images for frames of a video using infrared light images. In addition, in this embodiment, "enhancement processing" is described as processing that improves visibility by emphasizing edges of the image of a subject included in a visible light image.

《撮像装置の機能構成》
図1は、本発明の実施形態に係る撮像装置100の機能構成を示したブロック図である。
<Functional configuration of the imaging device>
FIG. 1 is a block diagram showing the functional configuration of an image capturing apparatus 100 according to an embodiment of the present invention.

制御部101は、例えばCPU等の撮像装置100の全体を制御する制御装置である。制御部101は、ROM102から撮像装置100が備える各ブロックの動作プログラムを読み出し、RAM103に展開して実行することにより各ブロックの動作を制御する。 The control unit 101 is a control device, such as a CPU, that controls the entire imaging device 100. The control unit 101 reads out the operation programs of each block of the imaging device 100 from the ROM 102, expands them in the RAM 103, and executes them to control the operation of each block.

ROM102は、電気的に消去・記録可能な不揮発性メモリである。ROM102は、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリである。RAM103は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力されたデータの一時的な記憶領域としても用いられる。 ROM 102 is a non-volatile memory that can be electrically erased and recorded. ROM 102 stores the operation programs of each block of imaging device 100 as well as parameters and the like required for the operation of each block. RAM 103 is a rewritable volatile memory. RAM 103 is used not only as an area for expanding the operation programs of each block, but also as a temporary storage area for data output during the operation of each block.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成される。光学系104は、撮像シーンに係る光束を撮像部105に導き、被写体の光学像をその撮像面に結像する。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部105は、光学系104により撮像面に結像された光学像を光電変換し、アナログ画像信号をA/D変換部106に出力する。本実施形態では、撮像部105が有する撮像素子は、図2に示されるように、原色RGBのフィルタが適用されたベイヤー配列の画素に加えて、赤外光IRのフィルタが適用された画素が配置されて構成されるものとする。即ち、撮像部105は、撮像により、可視光に係る画像信号と赤外光に係る画像信号を出力することができる。詳細は後述するが、本実施形態の撮像装置100では、物質を透過しやすく、物質の特性に応じて反射態様が変化する近赤外光を被写体に照射して撮影を行うことが可能に構成される。従って、IRの画素は、被写体が反射する光のうち、近赤外光の波長範囲(約0.7~2.5μm)の光を透過して受光し、光電変換する。 The optical system 104 is composed of a lens group including a zoom lens and a focus lens. The optical system 104 guides a light beam related to the imaging scene to the imaging unit 105 and forms an optical image of the subject on the imaging surface. The imaging unit 105 is, for example, an imaging element such as a CCD or CMOS sensor. The imaging unit 105 photoelectrically converts the optical image formed on the imaging surface by the optical system 104 and outputs an analog image signal to the A/D conversion unit 106. In this embodiment, the imaging element of the imaging unit 105 is configured to be configured by arranging pixels to which an infrared light IR filter is applied in addition to pixels in a Bayer array to which a primary color RGB filter is applied, as shown in FIG. 2. That is, the imaging unit 105 can output an image signal related to visible light and an image signal related to infrared light by imaging. Although details will be described later, the imaging device 100 of this embodiment is configured to be able to perform imaging by irradiating a subject with near-infrared light, which easily passes through materials and changes its reflection mode depending on the characteristics of the material. Therefore, IR pixels receive light reflected from the subject that is in the near-infrared wavelength range (approximately 0.7 to 2.5 μm) and convert it photoelectrically.

A/D変換部106は、撮像部105により出力されたアナログ画像信号をデジタル画像信号に変換する。生成されたデジタル画像信号は、例えばRAM103に格納される。本実施形態では撮像部105は、図2に示したように各画素が可視光または赤外光の強度を示すアナログ画像信号を出力するため、A/D変換部106は、A/D変換によって可視光に係るデジタル画像信号と赤外光に係るデジタル画像信号を分離して出力する。以下、可視光に係るデジタル画像信号を可視光画像、赤外光に係るデジタル画像信号を赤外光画像として言及する。 The A/D conversion unit 106 converts the analog image signal output by the imaging unit 105 into a digital image signal. The generated digital image signal is stored in, for example, the RAM 103. In this embodiment, the imaging unit 105 outputs an analog image signal in which each pixel indicates the intensity of visible light or infrared light as shown in FIG. 2, so the A/D conversion unit 106 separates and outputs a digital image signal relating to visible light and a digital image signal relating to infrared light by A/D conversion. Hereinafter, the digital image signal relating to visible light will be referred to as a visible light image, and the digital image signal relating to infrared light will be referred to as an infrared light image.

画像処理部107は、補正処理や現像処理等、画像データに対する各種の画像処理を実行する。詳細は後述するが、本実施形態の画像処理部107は、RAM103に格納された可視光画像及び赤外光画像に対して、当該可視光画像において霞により被写体の視認性(階調)が低下している箇所について、被写体の視認性を改善するエンハンス処理を実行する。 The image processing unit 107 performs various image processing operations on the image data, such as correction processing and development processing. As will be described in detail later, the image processing unit 107 of this embodiment performs enhancement processing on the visible light image and infrared light image stored in the RAM 103, in order to improve the visibility of the subject in areas in the visible light image where the visibility (gradation) of the subject is reduced due to haze.

記録部108は、例えば着脱可能なメモリカード等、各種の情報を記録するための記憶装置である。記録部108は、画像処理部107による画像処理の結果得られた画像が、RAM103を介し、記録画像として記録される。記録画像は、静止画像に限らず、動画像も含まれる。 The recording unit 108 is a storage device for recording various types of information, such as a removable memory card. The recording unit 108 records the image obtained as a result of image processing by the image processing unit 107 as a recorded image via the RAM 103. The recorded image is not limited to a still image, but also includes a moving image.

表示部109は、LCD等の表示デバイスである。表示部109は、RAM103に格納された画像データや記録部108に記録された画像データの表示や、ユーザからの操作入力を受け付けるためのユーザインタフェースを表示に用いられる。 The display unit 109 is a display device such as an LCD. The display unit 109 is used to display image data stored in the RAM 103 and image data recorded in the recording unit 108, and to display a user interface for receiving operational input from the user.

〈画像処理部の詳細構成〉
続いて、本実施形態の画像処理部107において実行されるエンハンス処理について、当該処理に関与する機能構成を図3のブロック図を用いて説明する。本実施形態のエンハンス処理は、撮像シーンに含まれる霧、靄、煙等(以下、これら要因を単に「霞」として総称する)によって可視光画像に生じる、被写体の視認性低下を改善するために行われる。
Detailed Configuration of Image Processing Unit
Next, the enhancement process executed in the image processing unit 107 of this embodiment will be described with reference to the block diagram of Fig. 3, showing the functional configuration involved in the process. The enhancement process of this embodiment is performed to improve the reduced visibility of the subject in the visible light image caused by fog, mist, smoke, etc. (hereinafter, these factors will be collectively referred to simply as "haze") contained in the imaging scene.

霞は、図4(a)に示されるように可視光画像においては例えば白系色の像で表れて被写体を不鮮明にし得るが、図4(b)に示されるように赤外光画像においては、被写体の視認性を低下させていない場合がある。これは、近赤外光が有する物質を透過しやすいとの特性に依るものであり、霞の背後に存在する被写体の表面で反射された近赤外光が、霞に含まれる水分子を透過して撮像素子に至り得るからである。従って、可視光画像において霞によって被写体の階調が失われてしまっている場合であっても、赤外光画像においては霞の影響を受けず被写体の階調が表れている可能性がある。故に、画像処理部107は、エンハンス処理の実行にあたり、同時期に撮像された可視光画像及び赤外光画像を取得する。本実施形態の撮像装置100では、撮像部105の撮像素子が図2に示した態様のフィルタが適用された構造であるため、画像処理部107は、撮像部105が同一のタイミングで撮像した画像信号に係る可視光画像及び赤外光画像を用いてエンハンス処理を行う。 As shown in FIG. 4(a), the haze may appear as a whitish image in a visible light image, making the subject unclear, but as shown in FIG. 4(b), the haze may not reduce the visibility of the subject in an infrared light image. This is due to the property of near-infrared light being easily transmitted through substances, and the near-infrared light reflected on the surface of the subject behind the haze may penetrate the water molecules contained in the haze and reach the image sensor. Therefore, even if the gradation of the subject is lost due to the haze in the visible light image, the gradation of the subject may be displayed in the infrared light image without being affected by the haze. Therefore, when performing the enhancement process, the image processing unit 107 acquires a visible light image and an infrared light image captured at the same time. In the imaging device 100 of this embodiment, since the image sensor of the imaging unit 105 has a structure to which a filter of the type shown in FIG. 2 is applied, the image processing unit 107 performs the enhancement process using the visible light image and the infrared light image related to the image signal captured by the imaging unit 105 at the same timing.

第1画像取得部301、第2画像取得部302は、エンハンス処理に必要な情報をRAM103から取得する。エンハンス処理には、処理の適用対象である可視光画像と、その補正(強調)に参照され得る赤外光画像が少なくとも含まれる。従って、第1画像取得部301は可視光画像(ベイヤー画像)を、第2画像取得部302は、主として当該可視光画像と同時期に撮影された赤外光画像をそれぞれ取得する。 The first image acquisition unit 301 and the second image acquisition unit 302 acquire information necessary for the enhancement process from the RAM 103. The enhancement process includes at least the visible light image to which the process is applied and an infrared light image that can be referenced for the correction (enhancement) of the visible light image. Therefore, the first image acquisition unit 301 acquires a visible light image (Bayer image), and the second image acquisition unit 302 acquires an infrared light image that was mainly taken at the same time as the visible light image.

本実施形態の撮像装置100が有するエンハンス処理の機能は、静止画像の撮影時に使用が限られるものではなく、動画像の撮影時にも使用することが可能に構成される。図3は、主として撮影された動画像の各フレームに対してエンハンス処理を行う場合の、画像処理部107の機能構成を示している。 The enhancement processing function of the imaging device 100 of this embodiment is not limited to use when capturing still images, but is configured to be usable when capturing moving images as well. Figure 3 shows the functional configuration of the image processing unit 107 when enhancement processing is performed primarily on each frame of a captured moving image.

動画像の各フレームに対してエンハンス処理を行う場合、撮像シーンの環境光の時間変化(より詳しくは、赤外光量の時間変化)によって赤外光画像の状態が変化し得る。このため、各フレームにおける環境光に応じた基準でエンハンス処理を行うと、フレーム間でエンハンス処理による視認性向上の効果(以下、エンハンス効果として言及する場合がある)にばらつきが表れ得る。故に、本実施形態の画像処理部107では、さらにエンハンス処理に必要な情報として、撮像シーンの赤外光量の情報を光量取得部303が取得する。光量取得部303は、例えば、第2画像取得部302により取得された赤外光画像に基づいて、撮像シーンの赤外光量を導出するものとして以下説明する。 When enhancement processing is performed on each frame of a moving image, the state of the infrared light image may change depending on the change over time in the ambient light of the captured scene (more specifically, the change over time in the amount of infrared light). For this reason, if enhancement processing is performed based on a standard according to the ambient light in each frame, the effect of improving visibility due to the enhancement processing (hereinafter, sometimes referred to as the enhancement effect) may vary between frames. Therefore, in the image processing unit 107 of this embodiment, the light amount acquisition unit 303 acquires information on the amount of infrared light in the captured scene as information further necessary for enhancement processing. The light amount acquisition unit 303 will be described below as deriving the amount of infrared light in the captured scene based on, for example, the infrared light image acquired by the second image acquisition unit 302.

領域決定部304は、第1画像取得部301により取得された可視光画像及び第2画像取得部302により取得された赤外光画像に基づいて、可視光画像のうちのエンハンス処理の対象とする領域(以下、対象領域として言及)を決定する。 The area determination unit 304 determines an area of the visible light image to be subjected to enhancement processing (hereinafter referred to as the target area) based on the visible light image acquired by the first image acquisition unit 301 and the infrared light image acquired by the second image acquisition unit 302.

目標導出部305は、エンハンス処理の処理結果の目標値(霞による視認性低下を低減させた状態を定義する値)を導出する。詳細は後述するが、目標値は、可視光画像における霞除去の効果を定量化した値であり、エンハンス処理部306の処理の制御に参照される。 The target derivation unit 305 derives a target value for the result of the enhancement process (a value that defines a state in which the reduction in visibility due to haze has been reduced). The target value is a value that quantifies the effect of haze removal in a visible light image, and is referenced for controlling the processing of the enhancement processing unit 306, as will be described in detail later.

エンハンス処理部306は、可視光画像の霞による視認性低下がみられる対象領域に対して、これを解消し、被写体の視認性を向上させるエンハンス処理を実行する。本実施形態のエンハンス処理は、対象領域に本来表れる被写体(霞により階調が低下している被写体)の像のエッジを強調することにより実現される。より詳しくは、エンハンス処理は、可視光画像の対象領域の被写体の像のAC成分を強調させるエッジ強調処理を行うことで、視認性の向上を行う。エンハンス処理は、可視光画像の状態によっては、可視光画像のみを用いるか、赤外光画像をさらに合成するかが変化するため、エンハンス処理部306は適宜その動作を制御する。 The enhancement processing unit 306 performs enhancement processing on target areas where reduced visibility due to haze in the visible light image is observed, thereby eliminating this reduction and improving the visibility of the subject. The enhancement processing of this embodiment is realized by emphasizing the edges of the image of the subject that would normally appear in the target area (the subject whose gradation has been reduced due to haze). More specifically, the enhancement processing improves visibility by performing edge enhancement processing that emphasizes the AC components of the image of the subject in the target area of the visible light image. Depending on the state of the visible light image, the enhancement processing changes to either use only the visible light image or further synthesize an infrared light image, so the enhancement processing unit 306 controls its operation as appropriate.

現像処理部307は、エンハンス処理部306による処理結果として得られる可視光画像に対して現像処理を行い、最終的に記録する画像(動画像のフレームまたは静止画像)を生成する。現像処理部307により生成された画像は、例えばRAM103に格納され、その後記録部108に記録される。 The development processing unit 307 performs development processing on the visible light image obtained as a result of processing by the enhancement processing unit 306, and generates the final image to be recorded (a frame of a moving image or a still image). The image generated by the development processing unit 307 is stored in, for example, the RAM 103, and then recorded in the recording unit 108.

《エンハンス処理の概要》
以下、本実施形態の画像処理部107において行われる動画撮影時のエンハンス処理について、その概要を説明する。上述したように本実施形態の撮像装置100は、動画撮影が行われる場合にエンハンス処理を行うことも可能に構成されており、画像処理部107は、動画像のフレーム間でエンハンス効果のばらつきを低減するように各種処理を行う。従って、画像処理部107の第1画像取得部301及び第2画像取得部302は、動画像の各フレームについて、当該フレームに係り取得された可視光画像及び赤外光画像を取得する。
Overview of Enhancement Processing
The enhancement process performed by the image processing unit 107 of this embodiment during video shooting will be outlined below. As described above, the imaging device 100 of this embodiment is configured to be capable of performing enhancement processes when video shooting is performed, and the image processing unit 107 performs various processes to reduce variations in the enhancement effect between frames of the video. Therefore, the first image acquisition unit 301 and the second image acquisition unit 302 of the image processing unit 107 acquire, for each frame of the video, a visible light image and an infrared light image acquired in relation to that frame.

〈対象領域の決定〉
まず、領域決定部304により行われる、エンハンス処理の対象領域の決定について説明する。対象領域とすべき領域は、可視光画像において霞により被写体の視認性が低下している領域である。このため領域決定部304は、第1画像取得部301により取得された可視光画像と第2画像取得部302により取得された赤外光画像の階調の差異に基づいて、霞に起因して視認性が低下している領域を特定する。
<Determination of target area>
First, the determination of the target region for the enhancement process performed by the region determination unit 304 will be described. The region to be determined as the target region is a region in the visible light image where the visibility of the subject is reduced due to haze. Therefore, the region determination unit 304 identifies the region where the visibility is reduced due to haze based on the difference in gradation between the visible light image acquired by the first image acquisition unit 301 and the infrared light image acquired by the second image acquisition unit 302.

本実施形態では各画像の階調の多寡を、被写体のエッジ強度に基づいて評価する。被写体のエッジ強度は、画像に対してバンドパスフィルタを適用することで得られたエッジ信号(AC成分の信号)を、所定の領域について積分することで数値化される(評価値が得られる)。領域決定部304は、可視光画像及び赤外光画像について、図5に示されるようなM×Nのブロックを定義し、各ブロックについてそれぞれの画像のエッジ信号の積分値として評価値Eを導出する。評価値Eは、ブロック内の画素位置(i,j)のエッジ信号値e(i,j)を用いて、
により導出することができる。従って、領域決定部304は、可視光画像の階調情報として、バンドパスフィルタが適用された可視光画像の各ブロックのエッジ強度を示す評価値の情報を取得する。また領域決定部304は、赤外光画像の階調情報として、バンドパスフィルタが適用された赤外光画像の各ブロックのエッジ強度を示す評価値の情報を取得する。換言すれば、各画像の階調情報(評価値)は、バンドパスフィルタによりDC成分が分離されたもの、即ち、当該画像のAC成分の量(エッジ信号値の総和)を示す。
In this embodiment, the amount of gradation in each image is evaluated based on the edge strength of the subject. The edge strength of the subject is quantified (an evaluation value is obtained) by integrating the edge signal (AC component signal) obtained by applying a band-pass filter to the image over a specified region. The region determination unit 304 defines M×N blocks as shown in FIG. 5 for the visible light image and infrared light image, and derives an evaluation value E for each block as the integral value of the edge signal of each image. The evaluation value E is calculated by using the edge signal value e(i,j) at pixel position (i,j) in the block, as follows:
The gradation information of each image is obtained by the band-pass filter. The region determining unit 304 obtains, as the gradation information of the visible light image, evaluation value information indicating the edge strength of each block of the visible light image to which the band-pass filter has been applied. The region determining unit 304 also obtains, as the gradation information of the infrared light image, evaluation value information indicating the edge strength of each block of the infrared light image to which the band-pass filter has been applied. In other words, the gradation information (evaluation value) of each image indicates the DC component separated by the band-pass filter, that is, the amount of AC components of the image (the sum of edge signal values).

領域決定部304は、各画像の階調情報を取得すると、当該階調情報に基づいてエンハンス処理の処理対象とする対象領域を決定する。対象領域とするか否かは、階調情報の構成に用いられたブロック単位で行われる。即ち、領域決定部304は、可視光画像に含まれるブロックのうち、エンハンス処理の対象とするブロックを対象領域として決定する。 When the region determination unit 304 acquires the gradation information of each image, it determines the target region to be subjected to the enhancement process based on the gradation information. The decision as to whether or not to designate a region as a target region is made on a block-by-block basis that was used to configure the gradation information. In other words, the region determination unit 304 determines, from among the blocks contained in the visible light image, the blocks to be subjected to the enhancement process as the target region.

好適なエンハンス効果が見込めるブロックは、可視光画像においては階調が少ないが、赤外光画像の同位置のブロックにおいては階調が多く表れているものとなる。換言すれば、可視光画像の階調が少ないが、可視光画像と赤外光画像との階調の差が大きいのであれば、赤外光画像側に被写体の像(形状)が表れていると考えられるため、エンハンス処理を実行することにより視認性の向上が見込まれる。従って、領域決定部304は、可視光画像の評価値(ブロックのエッジ強度)が第1閾値より低く、かつ、可視光画像と赤外光画像の評価値の差分(同一位置のブロックのエッジ強度の差分)が第2閾値より大きいブロックを対象領域として決定する。 A block that can be expected to have a favorable enhancement effect is one that has few gradations in the visible light image, but many gradations in the block at the same position in the infrared light image. In other words, if the visible light image has few gradations, but the difference in gradations between the visible light image and the infrared light image is large, it is considered that the image (shape) of the subject is expressed in the infrared light image, and therefore visibility is expected to improve by performing enhancement processing. Therefore, the region determination unit 304 determines as the target region a block whose evaluation value (edge strength of the block) of the visible light image is lower than the first threshold value and whose difference in evaluation values between the visible light image and the infrared light image (difference in edge strength of blocks at the same position) is greater than the second threshold value.

〈赤外光画像の使用有無〉
ところで、エンハンス処理には必ずしも赤外光画像を使用せずともよい。例えば、可視光画像の対象領域に階調が残っており、かつ、当該領域の彩度が高い場合には、可視光画像のみを用いてエンハンス処理を行っても、霞除去(視認性向上)の効果を得ることができる。
<Whether or not infrared images are used>
However, the enhancement process does not necessarily have to use an infrared light image. For example, if some gradation remains in the target area of the visible light image and the saturation of the area is high, the enhancement process can be performed using only the visible light image to obtain the effect of removing haze (improving visibility).

対して、可視光画像の対象領域に階調が残っておらず、かつ、当該領域の彩度が低い場合には、可視光画像のみでは視認性の向上が見込まれ難い。即ち、可視光画像の対象領域に、被写体の形状や色を再現するための情報がそもそも含まれていないのであれば、可視光画像のみでエンハンス処理を行ったとしても、被写体の像の視認性を向上させることはできない。このため、可視光画像のみでは視認性の向上が見込まれ難い場合には、赤外光画像をエンハンス処理に使用することで、視認性向上の効果を得られる可能性がある。 In contrast, if there is no gradation remaining in the target area of the visible light image and the saturation of that area is low, it is difficult to expect an improvement in visibility using only the visible light image. In other words, if the target area of the visible light image does not contain any information for reproducing the shape or color of the subject, it is not possible to improve the visibility of the subject image even if enhancement processing is performed using only the visible light image. For this reason, when it is difficult to expect an improvement in visibility using only the visible light image, it is possible to achieve the effect of improving visibility by using an infrared light image for enhancement processing.

あるいは、被写体により反射されて撮像装置100にする赤外光は、その光路に存在する霞の存在により一部吸収され得るため、赤外光画像においてはその特性が表れる。換言すれば、赤外光画像においても近赤外光の波長範囲において、霞の存在による反射赤外光の特性を捉えることもできる。従って、赤外光画像において霞の存在が把握される領域に階調が残っている、即ち、赤外光画像のAC成分の量が多い場合には、赤外光画像を使用することで被写体の視認性向上が期待できる。 Alternatively, the infrared light reflected by the subject and transmitted to the imaging device 100 may be partially absorbed by the presence of haze in the optical path, and these characteristics are apparent in the infrared image. In other words, the characteristics of reflected infrared light due to the presence of haze can also be captured in the infrared image in the near-infrared wavelength range. Therefore, when gradation remains in the area in the infrared image where the presence of haze is identified, i.e., when the amount of AC components in the infrared image is large, the use of the infrared image is expected to improve the visibility of the subject.

本実施形態では、赤外光画像の使用有無の判断は、目標導出部305において行われるものとする。従って、目標導出部305は、対象領域と各画像の階調情報とに基づいて、エンハンス処理に赤外光画像を使用するか否かを決定する。当該決定は、具体的には次のいずれかの態様の基準を採用して判断されるものであってよい。 In this embodiment, the determination of whether or not to use an infrared light image is performed by the target derivation unit 305. Therefore, the target derivation unit 305 determines whether or not to use an infrared light image in the enhancement process based on the target region and the gradation information of each image. Specifically, this determination may be made by adopting criteria in any of the following aspects:

1つの態様では、目標導出部305は、可視光画像の階調情報において、対象領域に含まれるいずれかのブロックの評価値が第3閾値(<第1閾値)より高く、かつ、当該ブロックの彩度が第1彩度閾値よりも高い場合に、赤外光画像を使用しないと決定する。即ち、目標導出部305は、当該基準が満たされる場合には可視光画像のみを用いてエンハンス処理を行い、当該基準が満たされない場合には可視光画像と赤外光画像を用いてエンハンス処理を行うと決定する。 In one aspect, the target derivation unit 305 determines not to use the infrared light image when the evaluation value of any block included in the target region in the gradation information of the visible light image is higher than a third threshold (< first threshold) and the saturation of the block is higher than the first saturation threshold. That is, the target derivation unit 305 determines to perform enhancement processing using only the visible light image when the criterion is met, and to perform enhancement processing using the visible light image and the infrared light image when the criterion is not met.

別の態様では、目標導出部305は、可視光画像の階調情報において、対象領域に含まれるいずれかのブロックの評価値が第4閾値(<第3閾値)より低く、かつ、当該ブロックの彩度が第2彩度閾値よりも低い場合に、赤外光画像を使用すると決定する。即ち、目標導出部305は、当該基準が満たされる場合には可視光画像と赤外光画像を用いてエンハンス処理を行い、当該基準が満たされない場合には可視光画像のみを用いてエンハンス処理を行うと決定する。 In another aspect, the target derivation unit 305 determines to use the infrared light image when the evaluation value of any block included in the target region in the gradation information of the visible light image is lower than the fourth threshold (< the third threshold) and the saturation of the block is lower than the second saturation threshold. That is, the target derivation unit 305 determines to perform enhancement processing using the visible light image and the infrared light image when the criterion is met, and to perform enhancement processing using only the visible light image when the criterion is not met.

さらに別の態様では、目標導出部305は、赤外光画像の階調情報において、対象領域に含まれるいずれかのブロックの評価値が第5閾値より高い場合に、赤外光画像を使用すると決定する。即ち、目標導出部305は、当該基準が満たされる場合には可視光画像と赤外光画像を用いてエンハンス処理を行い、当該基準が満たされない場合には可視光画像のみを用いてエンハンス処理を行うと決定する。 In yet another aspect, the target derivation unit 305 determines to use the infrared light image when the evaluation value of any block included in the target region in the gradation information of the infrared light image is higher than a fifth threshold value. That is, the target derivation unit 305 determines to perform enhancement processing using the visible light image and the infrared light image when the criterion is met, and to perform enhancement processing using only the visible light image when the criterion is not met.

〈補間赤外光画像の生成及び撮像シーンの赤外光量の導出〉
上述したように、本実施形態の撮像部105から出力される画像信号では、図2に示したようにIRの画素は2×2画素に1つの割合で含まれている。従って、第2画像取得部302により取得される赤外光画像は、R、G及びBの画素位置の情報を含んでいない。このため、光量取得部303は、第2画像取得部302により取得された赤外光画像に補間処理を適用することで、当該画素の情報を補った補間赤外光画像を生成する。補間赤外光画像の生成にあたっては、光量取得部303は、第1画像取得部301により取得された可視光画像を参照してもよい。
<Generation of an Interpolated Infrared Image and Derivation of the Infrared Amount of a Captured Scene>
As described above, in the image signal output from the imaging unit 105 of this embodiment, IR pixels are included at a ratio of one in every 2×2 pixels as shown in Fig. 2. Therefore, the infrared light image acquired by the second image acquisition unit 302 does not include information on the pixel positions of R, G, and B. For this reason, the light amount acquisition unit 303 applies an interpolation process to the infrared light image acquired by the second image acquisition unit 302 to generate an interpolated infrared light image in which information on the pixels is supplemented. When generating the interpolated infrared light image, the light amount acquisition unit 303 may refer to the visible light image acquired by the first image acquisition unit 301.

また光量取得部303は、生成した補間赤外光画像に基づいて、該当のフレームの撮像シーンの赤外光量を導出する。上述したように、撮像シーンの赤外光量は時々刻々と変化し得るものであり、赤外光画像の各画素の信号強度もそれに応じて変化する。故に、動画像の各フレームについて赤外光画像(補間赤外光画像)を可視光画像に合成してエンハンス処理を行う場合、その結果生成される画像に表れるエンハンス効果も変動し得る。このようなエンハンス効果のばらつきは、処理結果として出力された動画像を再生した場合に、観賞者にちらつきとして知覚され得、好適な観賞体験を阻害し得る。 The light amount acquisition unit 303 also derives the amount of infrared light in the captured scene of the corresponding frame based on the generated interpolated infrared light image. As described above, the amount of infrared light in the captured scene can change from moment to moment, and the signal strength of each pixel in the infrared light image changes accordingly. Therefore, when an infrared light image (interpolated infrared light image) is synthesized with a visible light image for each frame of a moving image to perform enhancement processing, the enhancement effect that appears in the resulting image can also vary. When the moving image output as a result of processing is played back, such variation in the enhancement effect can be perceived by the viewer as flickering, which can hinder a desirable viewing experience.

従って、本実施形態の画像処理部107では、フレーム間でのエンハンス効果が均質となるよう、各フレームについて光量取得部303が取得した赤外光量を基準に用いて、エンハンス処理の処理内容を異ならせる制御が行われる。 Therefore, in the image processing unit 107 of this embodiment, in order to ensure that the enhancement effect is uniform between frames, the infrared light amount acquired by the light amount acquisition unit 303 for each frame is used as a reference to control the processing content of the enhancement process to be different.

なお、本実施形態では、光量取得部303は補間赤外光画像に基づいて撮像シーンの赤外光量を導出するものとして説明するが、本発明の実施はこれに限られるものではない。赤外光量の導出は、補間前の赤外光画像に基づいて行われるものであってもよいし、撮像部105とは別に設けられた環境光を計測するセンサの出力に基づいて行われるものであってもよい。 In this embodiment, the light amount acquisition unit 303 is described as deriving the amount of infrared light in the captured scene based on the interpolated infrared light image, but the implementation of the present invention is not limited to this. The amount of infrared light may be derived based on the infrared light image before interpolation, or based on the output of a sensor that measures ambient light and is provided separately from the imaging unit 105.

〈目標値導出〉
均質なエンハンス効果が示される動画像の生成にあたり、目標導出部305は、エンハンス処理の結果得られる各フレームの画像(可視光画像)における霞除去の程度を示す目標値を導出する。本実施形態では目標導出部305は、エンハンス処理の結果得られる可視光画像(以下、出力画像として言及)のAC成分の量を目標値として導出する。以下の説明では、「出力画像のAC成分の量」は、処理対象の画像のエッジ強度に対して、エンハンス処理における当該画像のエッジ強調量(強調度合い)を乗じた値の和として定義されるものとする。つまり、本実施形態のエンハンス処理は、可視光画像の対象領域の像のエッジを強調させることによって霞が除去されたエンハンス効果が得るものとし、目標値として強調後のエッジ強度を定量化した数値を用いる。
<Deriving target values>
In generating a moving image showing a homogeneous enhancement effect, the target derivation unit 305 derives a target value indicating the degree of haze removal in the image (visible light image) of each frame obtained as a result of the enhancement process. In this embodiment, the target derivation unit 305 derives the amount of AC components of the visible light image (hereinafter referred to as the output image) obtained as a result of the enhancement process as a target value. In the following description, the "amount of AC components of the output image" is defined as the sum of values obtained by multiplying the edge strength of the image to be processed by the edge enhancement amount (enhancement degree) of the image in the enhancement process. In other words, the enhancement process of this embodiment is assumed to obtain an enhancement effect in which haze is removed by emphasizing the edges of the image in the target region of the visible light image, and a numerical value that quantifies the edge strength after enhancement is used as the target value.

フレーム間でエンハンス効果を均質にすべく、目標値は、動画像の特定のフレームに対して設定されると、当該フレーム以降のフレームに対して共通して用いられる。即ち、目標値は出力画像に表れるエンハンス効果の目安を絶対的に定めるものであり、一度設定された後は、エンハンス効果を異ならせる必要が生じるまでは維持される。目標値が導出される特定のフレーム(以下、基準フレームとして言及)は、例えば、エンハンス処理を適用した動画像の撮影開始の操作入力に応じて撮影される最初のフレーム(先頭フレーム)であってよい。あるいは、基準フレームは、撮像装置100の画角変更やパンニング等によって撮影シーンに変化が生じたことが検出された場合に、検出後もしくは画角安定後等の最初のフレームであってもよい。 In order to make the enhancement effect uniform between frames, once a target value is set for a specific frame of a video, it is used commonly for the frames that follow that frame. In other words, the target value absolutely determines the guideline for the enhancement effect that appears in the output image, and once set, it is maintained until it becomes necessary to vary the enhancement effect. The specific frame from which the target value is derived (hereinafter referred to as the reference frame) may be, for example, the first frame (leading frame) captured in response to an operation input to start capturing a video to which enhancement processing has been applied. Alternatively, the reference frame may be the first frame after detection or after the angle of view has stabilized when a change in the captured scene is detected due to a change in the angle of view or panning of the imaging device 100.

目標値の導出に先立って、目標導出部305はまず、基準フレームに係るエンハンス処理に用いる各画像のエッジ強調量(補正量)を決定する。より詳しくは目標導出部305は、対象領域における可視光画像のAC成分の量に基づいて、基準フレームの可視光画像のエッジ強調量Evsを決定する。また目標導出部305は、対象領域における可視光画像と補間赤外光画像のAC成分の量の差分に基づいて、基準フレームの補間赤外光画像のエッジ強調量Eviを決定する。ここで、本実施形態のエンハンス処理では、対象領域の全体に対して1つの目標値が設定されるため、対象領域における可視光画像のAC成分の量及び補間赤外光画像のAC成分の量は、例えば対象領域に含まれるブロックのAC成分の量の平均値である。 Prior to deriving the target value, the target derivation unit 305 first determines the edge enhancement amount (correction amount) of each image used in the enhancement process related to the reference frame. More specifically, the target derivation unit 305 determines the edge enhancement amount E vs of the visible light image of the reference frame based on the amount of AC components of the visible light image in the target region. The target derivation unit 305 also determines the edge enhancement amount E vi of the interpolated infrared light image of the reference frame based on the difference between the amounts of AC components of the visible light image and the interpolated infrared light image in the target region. Here, in the enhancement process of this embodiment, one target value is set for the entire target region, so that the amount of AC components of the visible light image in the target region and the amount of AC components of the interpolated infrared light image are, for example, the average values of the amounts of AC components of blocks included in the target region.

可視光画像のAC成分の量と可視光画像のエッジ強調量Evとの関係は、図6(a)に太線で示されるグラフのような特性で予め定められるものとする。可視光画像のAC成分の量が小さい場合、即ち、可視光画像の階調が少ない場合には、可視光画像において被写体の像を視認性が低くなる。対して、可視光画像のAC成分の量が大きい場合、即ち、可視光画像の階調が多い場合には、可視光画像において被写体の像の視認性が高くなる。このため、可視光画像のAC成分の量が小さいほど霞除去の効果を強めるよう、エッジ強調量Evが大きくなり、AC成分の量が大きいほど霞除去の効果を弱めるよう、エッジ強調量Evが小さくなる傾向を示す。 The relationship between the amount of AC components of the visible light image and the edge enhancement amount Ev of the visible light image is determined in advance as a characteristic shown in the graph indicated by the thick line in Fig. 6(a). When the amount of AC components of the visible light image is small, i.e., when the visible light image has few gradations, the visibility of the image of the subject in the visible light image is low. On the other hand, when the amount of AC components of the visible light image is large, i.e., when the visible light image has many gradations, the visibility of the image of the subject in the visible light image is high. For this reason, the smaller the amount of AC components of the visible light image, the larger the edge enhancement amount Ev tends to be in order to strengthen the effect of haze removal, and the larger the amount of AC components, the smaller the edge enhancement amount Ev tends to be in order to weaken the effect of haze removal.

対して、可視光画像と補間赤外光画像のAC成分の量の差分と補間赤外光画像のエッジ強調量Eiとの関係は、図6(b)に太線で示されるグラフのような特性で予め定められるものとする。上述したように、赤外光画像がエンハンス処理に用いられる場合には可視光画像のAC成分の量が低いことが前提にある。従って、可視光画像と補間赤外光画像のAC成分の量の差が小さい場合には、補間赤外光画像のAC成分を増幅し、エッジ強度を強めてから合成することで被写体の形状の視認性向上が期待できるため、エッジ強調量Eiが大きく設定される。一方、可視光画像と補間赤外光画像のAC成分の量の差が大きい場合には、補間赤外光画像のエッジ強度がもともと強く、補間赤外光画像のAC成分を増幅せずとも視認性向上が期待できるため、エッジ強調量Eiが小さく設定される。 On the other hand, the relationship between the difference in the amount of AC components between the visible light image and the interpolated infrared light image and the edge enhancement amount E i of the interpolated infrared light image is determined in advance by the characteristic shown in the graph indicated by the thick line in Fig. 6 (b). As described above, when the infrared light image is used for enhancement processing, it is assumed that the amount of AC components of the visible light image is low. Therefore, when the difference in the amount of AC components between the visible light image and the interpolated infrared light image is small, the edge enhancement amount E i is set to be large because it is expected that the visibility of the shape of the subject can be improved by amplifying the AC components of the interpolated infrared light image and strengthening the edge strength before combining. On the other hand, when the difference in the amount of AC components between the visible light image and the interpolated infrared light image is large, the edge strength of the interpolated infrared light image is originally strong, and it is expected that the visibility can be improved without amplifying the AC components of the interpolated infrared light image, so the edge enhancement amount E i is set to be small.

このように、基準フレームについて可視光画像のエッジ強調量Evs及び補間赤外光画像のエッジ強調量Eisを決定すると、目標導出部305は、目標値kを導出する。本実施形態では目標値kは、さらに基準フレームに係る可視光画像のエッジ強度(対象領域に含まれるブロックの平均値)ACvs及び補間赤外光画像のエッジ強度(対象領域に含まれるブロックの平均値)ACisを用いて、
で導出される。即ち、目標値kは、エンハンス処理において合成される、可視光画像及び補間赤外光画像の増幅後のAC成分の量を合算した値(エッジ強度の和)として導出される。
In this way, when the edge enhancement amount E vs of the visible light image and the edge enhancement amount E is of the interpolated infrared light image for the reference frame are determined, the target derivation unit 305 derives the target value k. In this embodiment, the target value k is calculated by further using the edge strength AC vs of the visible light image related to the reference frame (average value of blocks included in the target area) and the edge strength AC is of the interpolated infrared light image (average value of blocks included in the target area) as follows:
That is, the target value k is derived as a value (sum of edge strengths) obtained by adding up the amounts of AC components after amplification of the visible light image and the interpolated infrared light image, which are combined in the enhancement process.

なお、対象領域のエンハンス処理に赤外光画像を用いないと判断された場合には、補間赤外光画像のエッジ強調量Eisは0に設定されるものとする。即ち、補間赤外光画像をそもそも合成しないため、強調する必要がないため0に設定される。 If it is determined that the infrared light image will not be used in the enhancement process of the target region, the edge enhancement amount E is of the interpolated infrared light image is set to 0. In other words, since the interpolated infrared light image is not synthesized in the first place, there is no need for enhancement, and therefore the amount is set to 0.

また、目標値kは本来は上述の演算式で導出されるが、以下の説明では発明の理解を容易にすべく、対象領域のエンハンス処理に赤外光画像を用いると判断した場合には、可視光画像のエッジ強調量Evsは0に設定されるものとする。これは、対象領域のエンハンス処理に赤外光画像を用いる場合には、そもそも可視光画像のAC成分の量が少ないためにエッジ強調の効果が見込まれず、補間赤外光画像のAC成分を優先してエッジ強調を行うことが好ましいことに依る。 Furthermore, the target value k is originally derived by the above-mentioned calculation formula, but in the following explanation, in order to facilitate understanding of the invention, when it is determined that an infrared light image is to be used in the enhancement processing of the target region, the edge enhancement amount E vs of the visible light image is set to 0. This is because, when an infrared light image is used in the enhancement processing of the target region, the amount of AC components in the visible light image is small to begin with, and therefore no effect of edge enhancement is to be expected, and it is preferable to perform edge enhancement by giving priority to the AC components of the interpolated infrared light image.

即ち、以下に説明する態様では、エンハンス処理に赤外光画像を用いない場合には、可視光画像のみのエッジ強調により出力画像の対象領域のAC成分が確定し、目標値kも、可視光画像のエッジ強調量Evs及びエッジ強度ACvsのみで導出される。またエンハンス処理に赤外光画像を用いる場合には、補間赤外光画像のみのエッジ強調により出力画像の対象領域のAC成分が確定し、目標値kも、赤外光画像のエッジ強調量Eis及びエッジ強度ACisのみで導出される。 That is, in the aspect described below, when an infrared light image is not used in the enhancement process, the AC components of the target region of the output image are determined by edge enhancement of only the visible light image, and the target value k is derived only from the edge enhancement amount E vs and edge strength AC vs of the visible light image. When an infrared light image is used in the enhancement process, the AC components of the target region of the output image are determined by edge enhancement of only the interpolated infrared light image, and the target value k is derived only from the edge enhancement amount E is and edge strength AC is of the infrared light image.

〈エンハンス処理におけるエッジ強調量〉
エンハンス処理部306により実行されるエンハンス処理では、基本的には各フレームの画像の対象領域のAC成分をエッジ強調量に基づいて増幅したものを、当該フレームの可視光画像のDC成分に加算することにより出力画像が生成される。
<Edge Enhancement Amount in Enhancement Processing>
In the enhancement processing performed by the enhancement processing unit 306, the output image is basically generated by amplifying the AC components of the target region of the image of each frame based on the amount of edge enhancement and adding the amplified AC components to the DC components of the visible light image of that frame.

より詳しくは、エンハンス処理部306は、エンハンス処理に赤外光画像を用いない場合には、可視光画像のAC成分について、対象領域の画素値にのみエッジ強調量Evを乗じて増幅することで、合成用のAC成分画像を生成する。そしてエンハンス処理部306は、合成用のAC成分画像を、可視光画像のDC成分に加算することで出力画像を生成する。 More specifically, when an infrared light image is not used in the enhancement process, the enhancement processing unit 306 generates an AC component image for synthesis by amplifying only the pixel values of the target region for the AC components of the visible light image by the edge enhancement amount E v . Then, the enhancement processing unit 306 generates an output image by adding the AC component image for synthesis to the DC component of the visible light image.

またエンハンス処理部306は、エンハンス処理に赤外光画像を用いる場合には、補間赤外光画像のAC成分について、対象領域の画素値にのみエッジ強調量Eiを乗じて増幅することで、合成用のAC成分画像を生成する。そしてエンハンス処理部306は、合成用のAC成分画像を、可視光画像のDC成分に加算することで出力画像を生成する。 Furthermore, when an infrared light image is used for the enhancement process, the enhancement processing unit 306 generates an AC component image for synthesis by amplifying only the pixel values of the target region for the AC components of the interpolated infrared light image by the edge enhancement amount E i , and then generates an output image by adding the AC component image for synthesis to the DC component of the visible light image.

このとき、合成用のAC成分画像の生成に用いられるエッジ強調量は、基準フレームについて定めた目標値kに基づいて決定される。基準フレームである場合には、当該目標値kの導出に用いられたエッジ強調量(EvsまたはEis)をそのまま使用することができる。一方、基準フレーム以降のフレームについては、撮像シーンの赤外光量や霞の状態が時間経過により変化し得る。このため、基準フレーム以降のフレームについて用いるエッジ強調量は、当該フレーム係る各画像のエッジ強度(AC成分の量)と基準フレームに係る目標値kとを用いて以下により導出される。 At this time, the edge enhancement amount used to generate the AC component image for synthesis is determined based on the target value k determined for the reference frame. In the case of the reference frame, the edge enhancement amount (E vs or E is ) used to derive the target value k can be used as is. On the other hand, for frames after the reference frame, the amount of infrared light and the state of haze in the imaging scene may change over time. For this reason, the edge enhancement amount used for frames after the reference frame is derived using the edge strength (amount of AC components) of each image related to the frame and the target value k related to the reference frame as follows.

エンハンス処理に赤外光画像を用いない場合には、可視光画像のエッジ強調量Evは、該当のフレームの可視光画像のエッジ強度ACvと基準フレームについて定めた目標値kとを用いて
で導出される。一方、エンハンス処理に赤外光画像を用いる場合には、補間赤外光画像のエッジ強調量Eiは、該当のフレームの補間赤外光画像のエッジ強度ACiと基準フレームについて定めた目標値kとを用いて
で導出される。ここで、ΔIは、基準フレームにおける赤外光量と該当のフレームにおける赤外光量の差分である。
When the infrared light image is not used in the enhancement process, the edge enhancement amount E v of the visible light image is calculated by using the edge strength AC v of the visible light image of the corresponding frame and the target value k determined for the reference frame.
On the other hand, when an infrared light image is used for the enhancement process, the edge enhancement amount E i of the interpolated infrared light image is calculated by using the edge strength AC i of the interpolated infrared light image of the corresponding frame and the target value k determined for the reference frame as follows:
Here, ΔI is the difference between the amount of infrared light in the reference frame and the amount of infrared light in the corresponding frame.

このようにすることで、基準フレームとそれに続くフレームにおいて、エンハンス処理の結果得られる出力画像を、霞除去効果を実現しながら、対象領域の被写体のエッジ強度が同等になるよう制御することができる。従って、生成される動画像は、フレーム間で対象領域における被写体の像の視認性向上の効果が一定になる。 In this way, the output images obtained as a result of the enhancement process in the reference frame and the subsequent frames can be controlled so that the edge strength of the subject in the target area is equal while achieving a haze removal effect. Therefore, the generated moving image has a consistent effect of improving the visibility of the subject image in the target area from frame to frame.

《導出処理》
以下、本実施形態の画像処理部107で霞による視認性低下を低減した動画像を生成する場合に、各フレームに対して行われるエンハンス処理のエッジ強調量を導出する導出処理について、図7のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより画像処理部107に実行させることができる。本導出処理は、例えば霞による視認性低下を低減した動画像の撮影開始に係る操作入力が検出された際に開始され、当該動画像の各フレームに係る撮像が行われる度に実行されるものとして説明する。
Derivation Processing
Hereinafter, a specific process of deriving an edge enhancement amount of the enhancement process performed on each frame when the image processing unit 107 of this embodiment generates a moving image in which the decrease in visibility due to haze is reduced will be described with reference to the flowchart in Fig. 7. The control unit 101 can cause the image processing unit 107 to execute the process corresponding to the flowchart by, for example, reading out a corresponding processing program stored in the ROM 102, expanding it in the RAM 103, and executing it. This derivation process will be described as being started, for example, when an operation input related to the start of shooting a moving image in which the decrease in visibility due to haze is reduced is detected, and is executed each time shooting of each frame of the moving image is performed.

S701で、第1画像取得部301及び第2画像取得部302は、現フレームに係る可視光画像及び赤外光画像を、RAM103から取得する。 In S701, the first image acquisition unit 301 and the second image acquisition unit 302 acquire the visible light image and the infrared light image related to the current frame from the RAM 103.

S702で、領域決定部304は、S701において取得された可視光画像及び赤外光画像に基づいて、各画像の階調情報を導出する。 In S702, the region determination unit 304 derives gradation information for each image based on the visible light image and infrared light image acquired in S701.

S703で、領域決定部304は、現フレームの可視光画像の対象領域を決定する。より詳しくは領域決定部304は、S702において導出された階調情報に基づいて、現フレームの可視光画像の対象領域を決定する。 In S703, the region determination unit 304 determines the target region of the visible light image of the current frame. More specifically, the region determination unit 304 determines the target region of the visible light image of the current frame based on the gradation information derived in S702.

S704で、目標導出部305は、現フレームに係るエンハンス処理に赤外光画像を使用するか否か判断する。より詳しくは、目標導出部305は、S702において生成された可視光画像及び赤外光画像の階調情報に基づいて、エンハンス処理に赤外光画像を使用するか否かを判断する。目標導出部305は、エンハンス処理に赤外光画像を使用すると判断した場合は処理をS705に移し、使用しないと判断した場合は処理をS706に移す。 In S704, the target derivation unit 305 determines whether or not to use an infrared light image in the enhancement process related to the current frame. More specifically, the target derivation unit 305 determines whether or not to use an infrared light image in the enhancement process based on the gradation information of the visible light image and the infrared light image generated in S702. If the target derivation unit 305 determines that an infrared light image will be used in the enhancement process, it proceeds to S705, and if it determines that an infrared light image will not be used, it proceeds to S706.

S705で、光量取得部303は、S701において取得された赤外光画像から補間赤外光画像を生成し、また撮像シーンの赤外光量を導出する。 In S705, the light amount acquisition unit 303 generates an interpolated infrared light image from the infrared light image acquired in S701, and also derives the amount of infrared light in the captured scene.

S706で、目標導出部305は、現フレームが基準フレームであるか否かを判断する。本実施形態では、発明の理解を容易にすべく、基準フレームは霞による視認性低下を低減した動画像の先頭フレームとするため、目標導出部305は、現フレームが先頭フレームであるか否かを判断する。目標導出部305は、現フレームが基準フレームであると判断した場合は処理をS707に移し、基準フレームではないと判断した場合は処理をS709に移す。 In S706, the target derivation unit 305 determines whether the current frame is a reference frame. In this embodiment, in order to make the invention easier to understand, the reference frame is the first frame of a moving image in which reduced visibility degradation due to haze is reduced, so the target derivation unit 305 determines whether the current frame is the first frame. If the target derivation unit 305 determines that the current frame is a reference frame, it proceeds to S707, and if it determines that the current frame is not a reference frame, it proceeds to S709.

S707で、目標導出部305は、現フレームの可視光画像及び補間赤外光画像のエッジ強度に基づいて各画像のエッジ強調量を決定し、現フレームに係るエンハンス処理で用いるエッジ強調量としてエンハンス処理部306に出力する。このとき、目標導出部305は、S704における現フレームに係るエンハンス処理に赤外光画像を用いるか否かの判断結果に基づいて、各画像のエッジ強調量を決定するものとする。上述した簡潔な態様では、目標導出部305は、赤外光画像を用いない場合には補間赤外光画像のエッジ強調量Eiを0に、赤外光画像を用いる場合には可視光画像のエッジ強調量Evを0にする。 In S707, the target derivation unit 305 determines the amount of edge enhancement for each image based on the edge strengths of the visible light image and the interpolated infrared light image of the current frame, and outputs the amount of edge enhancement to be used in the enhancement process for the current frame to the enhancement processing unit 306. At this time, the target derivation unit 305 determines the amount of edge enhancement for each image based on the result of the determination in S704 as to whether or not to use an infrared light image in the enhancement process for the current frame. In the above-mentioned simple aspect, the target derivation unit 305 sets the amount of edge enhancement E i of the interpolated infrared light image to 0 when an infrared light image is not used, and sets the amount of edge enhancement E v of the visible light image to 0 when an infrared light image is used.

S708で、目標導出部305は、基準フレームに係る目標値kを導出して、現フレームに係る本導出処理を完了する。より詳しくは、目標導出部305は、各画像のエッジ強度にS707において導出したエッジ強調量を乗じたものの総和に基づいて目標値kを導出する。導出された基準フレームに係る目標値kの情報は、RAM103に格納される。 In S708, the target derivation unit 305 derives the target value k for the reference frame and completes this derivation process for the current frame. More specifically, the target derivation unit 305 derives the target value k based on the sum of the edge strengths of each image multiplied by the edge enhancement amount derived in S707. Information on the derived target value k for the reference frame is stored in RAM 103.

一方、S706において現フレームが基準フレームではないと判断した場合、目標導出部305はS709で、基準フレームに係る目標値kを現フレームに係るエンハンス処理の目標値として取得する。即ち、目標導出部305は、S708において基準フレームに係り導出した目標値kをRAM103から取得する。 On the other hand, if it is determined in S706 that the current frame is not the reference frame, the target derivation unit 305 acquires the target value k for the reference frame as the target value for the enhancement process for the current frame in S709. That is, the target derivation unit 305 acquires the target value k derived for the reference frame in S708 from the RAM 103.

S710で、目標導出部305は、S709において取得した目標値に基づいて、現フレームの可視光画像及び補間赤外光画像のエッジ強度に基づいて各画像のエッジ強調量を導出する。目標導出部305は、導出した各画像のエッジ強調量を現フレームに係るエンハンス処理で用いるエッジ強調量としてエンハンス処理部306に出力し、本導出処理を完了する。 In S710, the target derivation unit 305 derives the edge enhancement amount for each image based on the edge strength of the visible light image and the interpolated infrared light image of the current frame, based on the target value acquired in S709. The target derivation unit 305 outputs the derived edge enhancement amount for each image to the enhancement processing unit 306 as the edge enhancement amount to be used in the enhancement processing for the current frame, and this derivation processing is completed.

なお、撮像シーン中の大気の状態は経時変化するものであり、霞による視認性低下の程度も変化し得る。つまり、霞による視認性低下を軽減した動画像の撮影中において、各フレームのエンハンス処理に赤外光画像を用いるか否かは、可視光画像における霞の影響度合いに応じて変化し得る。例えば、霞が順次深くなる場合、可視光画像の階調情報であるエッジ強度が小さくなるため、可視光画像のみをエッジ強調しても、出力画像における視認性の向上が見込めなくなり得、赤外光画像を用いる必要が出てくる。このような場合も、基準フレームについて可視光画像のエッジ強度及びエッジ強調量のみに基づいて導出した目標値kを、霞が深くなったフレームの補間赤外光画像のエッジ強調量の導出に流用すればよい。つまり、基準フレームについて導出した目標値kを後続のフレームに利用するため、撮像シーンの赤外光量の変化だけでなく、霞の状態変化が生じる場合であっても、出力画像における被写体の視認性の向上効果を維持することができる。 Note that the atmospheric conditions during an image capture scene change over time, and the degree of visibility degradation due to haze may also change. In other words, during capture of a moving image in which visibility degradation due to haze is reduced, whether or not to use an infrared light image in the enhancement process for each frame may change depending on the degree of influence of the haze in the visible light image. For example, when the haze becomes gradually deeper, the edge strength, which is the gradation information of the visible light image, becomes smaller, so that even if only the visible light image is edge-enhanced, it may not be possible to improve visibility in the output image, and it becomes necessary to use an infrared light image. In such a case, the target value k derived for the reference frame based only on the edge strength and edge enhancement amount of the visible light image can be used to derive the edge enhancement amount of the interpolated infrared light image for the frame in which the haze has deepened. In other words, since the target value k derived for the reference frame is used for the subsequent frame, the effect of improving the visibility of the subject in the output image can be maintained even when not only the amount of infrared light in the image capture scene changes but also the state of the haze changes.

以上説明したように、本実施形態の画像処理装置によれば、可視光画像における被写体の像の視認性を向上させつつ、動画像のフレーム間で均質な視認性を担保することができる。 As described above, the image processing device of this embodiment can improve the visibility of the subject image in the visible light image while ensuring uniform visibility between frames of a moving image.

[変形例1]
上述した実施形態では、可視光画像と赤外光画像の階調情報に基づいて対象領域を決定するものとして説明したが、本発明の実施はこれに限られるものではない。対象領域の決定にあたっては、階調情報に加えて、さらに撮像シーン中の霞の透過率を示す透過マップを補助情報として用いてもよい。より詳しくは、領域決定部304は、可視光画像と赤外光画像の評価値の差分が第2閾値を上回るブロックのうち、透過マップにおいて霞んでいると特定できるブロック(透過率が所定の閾値を下回る)を対象領域として決定してもよい。
[Modification 1]
In the above embodiment, the target region is determined based on the gradation information of the visible light image and the infrared light image, but the present invention is not limited to this. In determining the target region, in addition to the gradation information, a transmission map indicating the transmittance of the haze in the captured scene may be used as auxiliary information. More specifically, the region determination unit 304 may determine, as the target region, a block that can be identified as hazy in the transmission map (where the transmittance is below a predetermined threshold) among blocks in which the difference in the evaluation values of the visible light image and the infrared light image exceeds a second threshold.

なお、透過マップは、その計測手法や被写体の材質等に応じて、時間方向において透過率が変動する場合があり、結果、対象領域が好適に決定されず、出力画像において好適なエンハンス効果にばらつきが生じ得る。このため、フレームごとに取得される透過マップをそのまま使用するのではなく、例えば直近の所定数のフレームについて得られた透過マップを加重加算することで、透過率の情報が安定化された透過マップを生成して用いてもよい。 Note that the transmittance of the transmission map may vary over time depending on the measurement method and the material of the subject, resulting in the target area not being determined appropriately, and the enhancement effect in the output image may vary. For this reason, rather than using the transmission map obtained for each frame as is, a transmission map with stabilized transmittance information may be generated and used, for example by weighted addition of the transmission maps obtained for a certain number of recent frames.

[変形例2]
上述した実施形態では、可視光画像と赤外光画像の階調情報に基づいて対象領域を決定するものとして説明したが、本発明の実施はこれに限られるものではない。対象領域は、例えば動画撮影中に表示部109になされるスルー表示を見ながら、ユーザにより指定されるものであってもよい。指定は、例えば表示部109がタッチパネルディスプレイである場合には、表示領域中へのタッチ操作に応じて行われるものであってよく、この場合、タッチ操作がなされた座標を含むブロックが、対象領域に決定されればよい。
[Modification 2]
In the above-described embodiment, the target area is determined based on the gradation information of the visible light image and the infrared light image, but the present invention is not limited to this. The target area may be specified by the user while viewing the through display on the display unit 109 during video shooting, for example. If the display unit 109 is a touch panel display, the specification may be performed in response to a touch operation on the display area, and in this case, the block including the coordinates where the touch operation was performed may be determined as the target area.

[変形例3]
上述した実施形態では、基準フレームに係る可視光画像及び赤外光画像のエッジ強調量を、これらの画像の階調情報(AC成分の量)と図6に示した特性とに基づいて決定するものとして説明したが、本発明の実施はこれに限られるものではない。基準フレームに係る各画像のエッジ強調量は、例えば霞除去の強度を指定するユーザ設定の値に基づいて決定されるものであってもよい。
[Modification 3]
In the above embodiment, the amount of edge enhancement of the visible light image and the infrared light image related to the reference frame is determined based on the gradation information (amount of AC components) of these images and the characteristics shown in Fig. 6, but the embodiment of the present invention is not limited to this. The amount of edge enhancement of each image related to the reference frame may be determined based on a user-set value that specifies the strength of haze removal, for example.

[変形例4]
上述した実施形態では、フレームごとに赤外光量の情報を取得し、当該フレームにおける補間赤外光画像のエッジ強調量の導出に用いるものとして説明したが、本発明の実施はこれに限られるものではない。撮像シーンにおける赤外光量は、導出手法やその他の外的要素等の要因により細かな上下動や急峻な変動が生じ得る。従って、都度、フレームについて得られた赤外光量を用いて補間赤外光画像のエッジ強調量を導出した場合、出力画像における霞による視認性低下の低減効果(エンハンス効果)にばらつきが発生する可能性がある。
[Modification 4]
In the above embodiment, information on the amount of infrared light is acquired for each frame and used to derive the amount of edge enhancement of the interpolated infrared light image for that frame, but the implementation of the present invention is not limited to this. The amount of infrared light in an image capture scene may fluctuate slightly up and down or sharply depending on factors such as the derivation method and other external factors. Therefore, if the amount of edge enhancement of the interpolated infrared light image is derived using the amount of infrared light acquired for each frame, there is a possibility that the effect of reducing the visibility reduction due to haze in the output image (enhancement effect) may vary.

このようなエンハンス効果のばらつきを低減すべく、フレームに係る赤外光量は、例えば直近数フレームの赤外光量の平均値や加重加算値等、過去のフレームに係る赤外光量を利用して補間赤外光画像のエッジ強調量が導出されてもよい。あるいは、例えば現フレームに係る赤外光量と直近のフレームに係る赤外光量との差が閾値を上回る等、現フレームに係る赤外光量がエラー値であると推測される場合には、過去のフレームに係る赤外光量のみで処理に用いる赤外光量を決定してもよい。このようにすることで、エンハンス効果のばらつきをより低減させることができる。 In order to reduce such variation in the enhancement effect, the amount of infrared light pertaining to a frame may be derived as the amount of edge enhancement of the interpolated infrared light image by using the amount of infrared light pertaining to past frames, such as the average or weighted sum of the amounts of infrared light pertaining to the most recent frames. Alternatively, if the amount of infrared light pertaining to the current frame is suspected to be an error value, for example because the difference between the amount of infrared light pertaining to the current frame and the amount of infrared light pertaining to the most recent frame exceeds a threshold, the amount of infrared light used in processing may be determined only from the amount of infrared light pertaining to past frames. In this way, the variation in the enhancement effect can be further reduced.

[変形例5]
上述した実施形態では、フレームに係る可視光画像の対象領域において階調が失われている場合に、同フレームに係る補間赤外光画像のAC成分を合成することによって被写体の像の視認性を向上できるものとして説明した。一方で、フレームに係る補間赤外光画像の対象領域においても階調が失われている場合には、当該補間赤外光画像を用いたとしても好適なエンハンス効果が得られない可能性がある。
[Modification 5]
In the above-described embodiment, when gradation is lost in the target area of the visible light image of a frame, the visibility of the subject image can be improved by synthesizing the AC components of the interpolated infrared light image of the same frame. On the other hand, when gradation is also lost in the target area of the interpolated infrared light image of the frame, a suitable enhancement effect may not be obtained even if the interpolated infrared light image is used.

このような場合、例えば過去のフレームに係る補間赤外光画像を現フレームに係る補間赤外光画像に合成することで得られる画像を、エンハンス処理に用いてもよい。あるいは、現フレームに係る補間赤外光画像に代えて、過去のフレームに係る補間赤外光画像を現フレームに係るエンハンス処理に用いてもよい。 In such a case, for example, an image obtained by combining an interpolated infrared light image relating to a past frame with an interpolated infrared light image relating to the current frame may be used in the enhancement process. Alternatively, instead of the interpolated infrared light image relating to the current frame, an interpolated infrared light image relating to a past frame may be used in the enhancement process relating to the current frame.

[変形例6]
上述した実施形態では、霞による視認性低下を低減させる動画像を撮影する場合のエンハンス処理に用いる各画像のエッジ強調量を、基準フレームに係り導出した目標値kに基づいて得る態様を説明したが、エンハンス処理部306の利用はこれに限られない。例えば、エンハンス処理を適用する動画像の撮像中に静止画像の撮影を可能ならしめる態様では、エンハンス処理部306は、当該静止画像用のエンハンス処理にも利用されるものであってよい。この場合、静止画像については、例えば撮像シーンにおける霞の状態を把握しながら、ユーザが所望するタイミングで撮影指示が受け付けられるものであるため、動画像に係る基準フレームとは各画像の状態が異なっている可能性がある。
[Modification 6]
In the above-described embodiment, the edge enhancement amount of each image used in the enhancement process when capturing a moving image that reduces the visibility degradation due to haze is obtained based on the target value k derived for the reference frame, but the use of the enhancement processing unit 306 is not limited to this. For example, in a mode that enables capturing a still image while capturing a moving image to which the enhancement process is applied, the enhancement processing unit 306 may also be used for the enhancement process for the still image. In this case, for the still image, a capture instruction is accepted at a timing desired by the user while grasping the haze state in the capture scene, for example, so that the state of each image may be different from that of the reference frame for the moving image.

従って、記録する静止画像の生成用に実行されるエンハンス処理については、基準フレームに係る目標値kを用いずに、該当のフレームに最適な各画像のエッジ強調量を導出して用いればよい。即ち、動画像と静止画像の撮影が同時に行われる場合には、動画像については、基準フレームで得られた目標値に基づいて導出したエッジ強調量が用いられる一方で、静止画像については、これと独立して導出したエッジ強調量が用いられる。このようにすることで、フレーム間で安定したエンハンス効果の動画像を記録しつつ、撮影タイミングに得られた可視光画像及び赤外光画像に最適化されたエンハンス効果の静止画像を記録することができる。 Therefore, for the enhancement process performed to generate the still image to be recorded, it is sufficient to derive and use the amount of edge enhancement for each image that is optimal for the relevant frame, without using the target value k for the reference frame. In other words, when video and still images are captured simultaneously, the amount of edge enhancement derived based on the target value obtained in the reference frame is used for the video, while the amount of edge enhancement derived independently is used for the still image. In this way, it is possible to record video images with a stable enhancement effect between frames, while recording still images with an enhancement effect optimized for the visible light image and infrared light image obtained at the time of capture.

[変形例7]
上述した実施形態では、画角全体に対して、可視光画像及び赤外光画像の階調情報が所定の条件を満たすブロックの全てを1つの対象領域として定義し、当該対象領域(あるいは画角全体)に対して1つの目標値を設定する態様を説明した。一方で、画角内に分布する被写体はその視認性の程度が必ずしも一様ではないため、画角全体に1つ定義された対象領域について導出される各画像のエッジ強調量でエンハンス処理を行っても、一部の領域で好適なエンハンス効果が得られない可能性がある。
[Modification 7]
In the above-described embodiment, all blocks in which the gradation information of the visible light image and the infrared light image satisfies a predetermined condition for the entire angle of view are defined as one target region, and one target value is set for the target region (or the entire angle of view). However, since the degree of visibility of subjects distributed within the angle of view is not necessarily uniform, even if enhancement processing is performed using the edge enhancement amount of each image derived for one target region defined for the entire angle of view, a suitable enhancement effect may not be obtained in some regions.

このため、例えば図4に示した可視光画像及び赤外光画像について、これら画像の階調情報に基づいて図8(a)に示されるような複数の領域を対象領域として定義してもよい。図8(a)の例では、画角全体にEA1~EA6の6つの領域が示されている。ここで、複数の領域は、いずれも実施形態1と同様に可視光画像の評価値が第1閾値より低く、かつ、可視光画像と赤外光画像の評価値の差分が第2閾値より大きいとの条件を満たすブロックで構成される。各領域は、条件を満たすブロックのうち、可視光画像の評価値、及び可視光画像と赤外光画像の評価値の差分の少なくともいずれかの類似度が所定値を上回り(評価値の類似性が高い)、かつ、隣接しているブロックをグルーピングすることで定義される。このようなグルーピングにより、同一被写体の像が表れていると思われるブロックを、1つの領域として定義することができる。 For this reason, for example, for the visible light image and the infrared light image shown in FIG. 4, multiple regions as shown in FIG. 8A may be defined as target regions based on the gradation information of these images. In the example of FIG. 8A, six regions EA 1 to EA 6 are shown in the entire angle of view. Here, the multiple regions are all composed of blocks that satisfy the condition that the evaluation value of the visible light image is lower than a first threshold value and the difference in the evaluation values of the visible light image and the infrared light image is greater than a second threshold value, as in the first embodiment. Each region is defined by grouping adjacent blocks among the blocks that satisfy the condition, in which at least one of the similarity of the evaluation value of the visible light image and the difference in the evaluation value of the visible light image and the infrared light image exceeds a predetermined value (high similarity of the evaluation values). By grouping in this way, blocks that are thought to show an image of the same subject can be defined as one region.

以下、当該複数の領域のそれぞれについての目標値の決定方法について、図8(a)の領域EA1を例に説明する。領域EA1の各ブロックに係る評価値(AC成分の量)が、可視光画像と補間赤外光画像とで図8(b)のように分布しているとする。即ち、可視光画像の領域EA1には、評価値がV1、V2及びV3のブロックが分布し、補間赤外光画像の領域EA1には、評価値がI1及びI2のブロックが分布している。 A method for determining a target value for each of the multiple regions will be described below using region EA1 in Fig. 8(a) as an example. Assume that the evaluation values (amount of AC components) for each block in region EA1 are distributed in the visible light image and the interpolated infrared light image as shown in Fig. 8(b). That is, blocks with evaluation values V1 , V2 , and V3 are distributed in region EA1 of the visible light image, and blocks with evaluation values I1 and I2 are distributed in region EA1 of the interpolated infrared light image.

このとき、目標導出部305は、まずブロックの各々について、各画像の階調情報(評価値)に基づいたエッジ強調量を取得し、目標値を導出する。例えば、図8(b)に示した領域EA1の各ブロックの評価値に対して、図8(c)のように2種類の目標値k1とk2(>k1)が導出されたとする。目標導出部305は、領域EA1中のブロックのうちの最小の目標値(k1)を当該領域の目標値として決定し、後続のフレームにおける当該領域に係るエッジ強調量の導出に用いる。 At this time, the target derivation unit 305 first obtains the edge enhancement amount for each block based on the gradation information (evaluation value) of each image, and derives a target value. For example, assume that two target values k1 and k2 (> k1 ) are derived for the evaluation values of each block of the area EA1 shown in Fig. 8(b) as shown in Fig. 8(c). The target derivation unit 305 determines the smallest target value ( k1 ) among the blocks in the area EA1 as the target value for that area, and uses it to derive the edge enhancement amount for that area in the subsequent frame.

なお、本変形例では領域中のブロックのうちの最小の目標値を採用するものとして説明したが、本発明の実施はこれに限られるものではなく、領域中の最大の目標値や目標値の平均値等、任意の基準で領域の目標値を決定してもよい。 In this modified example, the smallest target value among the blocks in the region is adopted, but the implementation of the present invention is not limited to this, and the target value of the region may be determined based on any criteria, such as the maximum target value in the region or the average target value.

また、本変形例では対象領域とする1以上の領域の決定を、評価値に基づいたグルーピングにより行うものとして説明したが、本発明の実施はこれに限られるものではない。例えば、補助情報として画角内の深度マップ(各ブロックの被写体の距離情報)を参照することで、同一被写体の像が表れるブロックをより正確に同一の領域としてグルーピングすることもできる。 In addition, in this modified example, the determination of one or more regions to be the target region is described as being performed by grouping based on the evaluation value, but the implementation of the present invention is not limited to this. For example, by referring to a depth map within the field of view (distance information of the subject in each block) as auxiliary information, blocks in which the image of the same subject appears can be grouped more accurately as the same region.

[変形例8]
上述した実施形態では、基準フレームにおいて目標値が導出されると、当該フレームを含む後続のフレームにて、出力画像が当該目標値のエッジ強度を示すようエンハンス処理が実行されるものとして説明したが、本発明の実施はこれに限られるものではない。例えば、霞除去の効果を知らしめるべく、段階的にエッジ強調の程度を異ならせる効果を示すように目標値の制御が行われてもよい。
[Modification 8]
In the above embodiment, when a target value is derived in a reference frame, enhancement processing is performed so that the output image shows the edge strength of the target value in the frames following the reference frame, but the present invention is not limited to this. For example, the target value may be controlled so as to show the effect of gradually varying the degree of edge enhancement in order to inform the effect of haze removal.

この場合、基準フレームにおいて目標導出部305は、実施形態1の手法で導出する目標値kを霞除去の効果が最大化される最終目標値kmaxとしてRAM103に保持させる。当該最終目標値kmaxは、基準フレームから所定のフレームが経過したときの各画像のエッジ強調量の導出のために目標値として設定される。一方、基準フレームから所定のフレームまでは、目標導出部305は図9に示されるように0から段階的に目標値を増加させて決定する。図の例では、0フレームを基準フレームとしてNフレーム目に最終目標値kmaxとなるよう、基準フレームから(N-1)フレーム目までの目標値が線形的に定められている。即ち、基準フレームから(N-1)フレームの間、目標値は、基準フレームからの経過フレーム数に応じて段階的に最終目標値kmaxに至る変動値となっている。 In this case, the target derivation unit 305 stores the target value k derived by the method of the first embodiment in the reference frame as the final target value k max at which the effect of haze removal is maximized in the RAM 103. The final target value k max is set as a target value for deriving the edge enhancement amount of each image when a predetermined number of frames have passed from the reference frame. On the other hand, from the reference frame to the predetermined frame, the target derivation unit 305 determines the target value by increasing it stepwise from 0 as shown in FIG. 9. In the example shown in the figure, the target value from the reference frame to the (N-1)th frame is linearly determined so that the final target value k max is reached at the Nth frame with the 0th frame being the reference frame. That is, from the reference frame to the (N-1)th frame, the target value is a variable value that gradually reaches the final target value k max according to the number of frames passed from the reference frame.

従って、目標導出部305は、導出処理のS706において現フレームが基準フレームであると判断した場合に、最終目標値kmaxを決定する一方で、基準フレームからの経過フレーム数に応じて最終目標値kmax基づく目標値kを導出する。このとき、目標導出部305は、経過フレーム数mがNを下回る場合には目標値kを、
で導出し、各画像のエッジ強調量の導出に用いる。また目標導出部305は、経過フレーム数mがN以上である場合には目標値kとして最終目標値kmaxを用いて、各画像のエッジ強調量を導出する。このようにすることで、動画像の再生時に、霞が徐々に除去されて被写体の像の視認性が向上する(階調が増大する)様を提示することができる。
Therefore, when the target derivation unit 305 determines that the current frame is the reference frame in S706 of the derivation process, it determines the final target value kmax , and derives the target value k based on the final target value kmax according to the number of frames elapsed from the reference frame.
and uses it to derive the edge enhancement amount for each image. Furthermore, when the number of elapsed frames m is equal to or greater than N, the target derivation unit 305 uses the final target value k max as the target value k to derive the edge enhancement amount for each image. In this way, it is possible to present an appearance in which the haze is gradually removed and the visibility of the subject image is improved (the gradation is increased) during playback of the moving image.

また、霞除去の効果を段階的に示すように目標値の制御を行う態様は、動画撮影中のエンハンス処理の適用開始時に限られるものではなく、エンハンス処理の適用終了時に行われるものであってもよい。この場合、上述した適用開始時とは反対に、例えば適用終了に係る操作入力がなされてからの経過フレーム数に応じて、最終目標値kmaxから0まで目標値を段階的に減衰させるよう制御すればよい。このようにすることで、動画像の再生時に、霞が徐々に増加し、被写体の像の視認性が本来の可視光画像の状態に戻る(階調が低下する)様を提示することができる。 In addition, the manner in which the target value is controlled to gradually show the effect of haze removal is not limited to when the application of the enhancement process is started during video capture, but may be when the application of the enhancement process is ended. In this case, contrary to the above-mentioned time of the start of application, the target value may be controlled to gradually attenuate from the final target value k max to 0 according to the number of frames that have elapsed since the operation input related to the end of application was made. In this way, it is possible to present the appearance in which the haze gradually increases and the visibility of the subject image returns to the original visible light image state (the gradation decreases) during playback of the video.

[実施形態2]
上述した実施形態及び変形例では、基準フレームに後続するフレームにおけるエンハンス処理において、基準フレームにて決定した目標値となるように各画像のエッジ強調量を導出する態様を説明した。一方で、エッジ強調量が大きすぎる場合には画像中のノイズも強調されてしまうため、補間赤外光画像を合成したとしても好適な画質の出力画像が得られない可能性がある。即ち、実施形態1の導出処理に導出される各画像のエッジ強調量は、あくまでも出力画像が基準フレームについて決定した目標値kとなるように各画像のエッジ強度に基づいてエッジ強調量を導出するものであり、出力画像の画質が担保されない可能性がある。
[Embodiment 2]
In the above-described embodiment and modified example, in the enhancement process for a frame subsequent to the reference frame, the edge enhancement amount of each image is derived so as to be the target value determined for the reference frame. On the other hand, if the edge enhancement amount is too large, noise in the image is also emphasized, so that an output image with suitable image quality may not be obtained even if an interpolated infrared light image is synthesized. In other words, the edge enhancement amount of each image derived in the derivation process of embodiment 1 is derived based on the edge intensity of each image so that the output image will be the target value k determined for the reference frame, and there is a possibility that the image quality of the output image may not be guaranteed.

換言すれば、赤外光画像をエンハンス処理に用いる態様では、補間赤外光画像の対象領域のエッジ強度が出力画像のエッジ強度である目標値kに不足する分を、前者に乗じるエッジ強調量の値を上昇させることによって補うことになる。このため、補間赤外光画像の対象領域のエッジ強度自体が低い場合には、必然的にエッジ強調量が大きくなり、出力画像におけるノイズ発生を顕著にし得る。 In other words, in a mode in which an infrared light image is used for enhancement processing, the shortfall in the edge strength of the target area of the interpolated infrared light image from the target value k, which is the edge strength of the output image, is compensated for by increasing the value of the edge enhancement amount by which the former is multiplied. For this reason, if the edge strength itself of the target area of the interpolated infrared light image is low, the edge enhancement amount will inevitably be large, which can lead to noticeable noise generation in the output image.

撮像シーンの赤外光量は気象条件等の変化によって変わり得るものであり、補間赤外光画像の対象領域のエッジ強度(AC成分の量)も撮像シーンに依存して増減し得る。つまり、補間赤外光画像の対象領域のAC成分の量がそもそも小さくなる撮像シーンでは、当該補間赤外光画像のエッジ強調量として高い値を使用しなければならず、好適な画質の出力画像が得られない可能性がある。 The amount of infrared light in an imaging scene can change due to changes in weather conditions, etc., and the edge strength (amount of AC components) of the target area of the interpolated infrared light image can also increase or decrease depending on the imaging scene. In other words, in imaging scenes where the amount of AC components of the target area of the interpolated infrared light image is small to begin with, a high value must be used as the amount of edge enhancement for the interpolated infrared light image, and there is a possibility that an output image of suitable image quality will not be obtained.

対して、出力画像の画質を担保すべく、補間赤外光画像のエッジ強調量に上限値を設けることも考えられる。この場合、目標導出部305は、補間赤外光画像のエッジ強調量を、目標値k、補間赤外光画像のエッジ強度、及び赤外光量の差分に基づいて導出された値と、予め定められた上限値とのうちのいずれか低い方の値に決定する。しかしながら、このような態様では、エンハンス処理により得られる出力画像のエッジ強度が目標値kに至らない可能性がある。 On the other hand, in order to ensure the image quality of the output image, it is also possible to set an upper limit on the amount of edge enhancement of the interpolated infrared light image. In this case, the target derivation unit 305 determines the amount of edge enhancement of the interpolated infrared light image to be the lower of either a value derived based on the target value k, the edge strength of the interpolated infrared light image, and the difference in the amount of infrared light, or a predetermined upper limit. However, in such an embodiment, there is a possibility that the edge strength of the output image obtained by the enhancement process will not reach the target value k.

本実施形態では、出力画像の画質低下を回避しつつ、一定のエンハンス効果の出力画像が動画像のフレームとして記録されるよう、撮影される赤外光画像の階調を動的に制御する手法について説明する。より詳しくは、本実施形態の撮像装置100では、各画像のエッジ強調量に上限値を設けるものとし、目標導出部305は、各フレームにおいて上限値以下の値をエッジ強調量として導出する。そして、制御部101は、補間赤外光画像のAC成分の量が少ない場合には、撮像装置100に設けられた、あるいは撮像装置100に接続されて制御可能な不図示の発光装置に、赤外光を照射させる制御を行う。即ち、あるフレームのエンハンス処理の結果得られる出力画像のAC成分の量が目標値kに不足すると判断した場合には、次のフレームの赤外光画像の撮影用に、被写体に対してこれを補う赤外光を照射するよう、発光装置の発光量の制御が行われる。 In this embodiment, a method of dynamically controlling the gradation of the captured infrared light image so that an output image with a certain enhancement effect is recorded as a frame of a moving image while avoiding deterioration in the image quality of the output image will be described. More specifically, in the imaging device 100 of this embodiment, an upper limit value is set for the edge enhancement amount of each image, and the target derivation unit 305 derives a value equal to or less than the upper limit value as the edge enhancement amount for each frame. Then, when the amount of AC components of the interpolated infrared light image is small, the control unit 101 controls a light emitting device (not shown) provided in the imaging device 100 or connected to the imaging device 100 and controllable to irradiate infrared light. That is, when it is determined that the amount of AC components of the output image obtained as a result of the enhancement process of a certain frame is insufficient to the target value k, the light emission amount of the light emitting device is controlled so that infrared light that compensates for this is irradiated to the subject for capturing the infrared light image of the next frame.

《発光制御処理》
以下、本実施形態の撮像装置100において行われる発光制御処理について、図10のフローチャートを参照して説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開することにより実行することができる。本発光制御処理は、例えば導出処理において現フレームに係る補間赤外光画像のエッジ強調量が導出された際に開始され、次のフレームに係る画像信号の撮影が行われるまでに処理が完了するものとして説明する。
<Light Emission Control Processing>
The light emission control process performed in the imaging device 100 of this embodiment will be described below with reference to the flowchart in Fig. 10. The process corresponding to this flowchart can be executed by the control unit 101 reading out a corresponding processing program stored in, for example, the ROM 102 and loading it in the RAM 103. This light emission control process will be described as being started, for example, when the amount of edge enhancement for the interpolated infrared light image related to the current frame is derived in the derivation process, and the process is completed before the image signal related to the next frame is captured.

S1001で、制御部101は、導出処理において導出された現フレームに係る各画像のエッジ強調量の情報と、現フレームの各画像の階調情報(エッジ強度)、及び基準フレームに係り導出された目標値kの情報をRAM103から取得する。 In S1001, the control unit 101 acquires from the RAM 103 information on the edge enhancement amount for each image related to the current frame derived in the derivation process, gradation information (edge strength) for each image of the current frame, and information on the target value k derived for the reference frame.

S1002で、制御部101は、S1001において取得された情報にて現フレームに係るエンハンス処理が行われた場合に、出力画像のAC成分の量が目標値kに至るか否かを判断する。本ステップの判断は、エンハンス処理と同様にS1001で得られた各画像のエッジ強度にエッジ強調量を乗じたものの総和値を導出し、これを目標値kと比較することにより行われてもい。あるいは、現フレームに係りエンハンス処理部306が生成した出力画像のAC成分の量と目標値kとを比較することにより、本ステップの判断が行われてもよい。制御部101は、出力画像のAC成分の量が目標値kに至ると判断した場合は処理をS1003に移し、至らない(不足する)と判断した場合は処理をS1004に移す。 In S1002, the control unit 101 judges whether the amount of AC components of the output image reaches the target value k when the enhancement process for the current frame is performed using the information acquired in S1001. The judgment in this step may be performed by deriving the sum of the edge strengths of each image obtained in S1001 multiplied by the edge enhancement amount, as in the enhancement process, and comparing this sum with the target value k. Alternatively, the judgment in this step may be performed by comparing the amount of AC components of the output image generated by the enhancement processing unit 306 for the current frame with the target value k. If the control unit 101 judges that the amount of AC components of the output image reaches the target value k, it moves the process to S1003, and if it judges that it does not reach the target value k (it is insufficient), it moves the process to S1004.

S1003で、制御部101は、現フレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量を取得して、次のフレームの発光量EMaとして決定する。即ち、現フレームでの発光量において出力画像のAC成分の量が目標値kとなることを担保できているため、制御部101は、次フレームについても同様の発光量とすべく、現フレームの撮影時の発光量を流用する。 In S1003, the control unit 101 acquires the amount of light emitted by the light emitting device when capturing the visible light image and the infrared light image of the current frame, and determines it as the amount of light emitted EM a for the next frame. That is, since it is guaranteed that the amount of AC components of the output image will be the target value k in the amount of light emitted in the current frame, the control unit 101 reuses the amount of light emitted when capturing the current frame so that the next frame will have the same amount of light emitted.

一方、S1002において出力画像のAC成分の量が目標値kに至らないと判断した場合、制御部101はS1004で、次フレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量を導出する。制御部101は、まず現フレームの補間赤外光画像のエッジ強調量Eiを用いる場合において、出力画像のAC成分の量を目標値kとするために補間赤外光画像に必要なエッジ強度ACn
にて導出する。ここで、ΔIは、基準フレームと現フレームの撮像シーンの赤外光量の差分を示している。さらに制御部101は、得られたエッジ強度ACnに基づいて、現フレームの補間赤外光画像に不足しているエッジ強度の差分ΔACを
で導出する。ここで、ACiは、現フレームの補間赤外光画像のエッジ強度である。そして制御部101は、得られたΔACを用いて、次のフレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量EMa
で導出する。ここで、EMは現フレームの撮影時に発光装置の発光量を示す。
On the other hand, if it is determined in S1002 that the amount of AC components in the output image does not reach the target value k, the control unit 101 derives the amount of light emitted by the light emitting device when capturing the visible light image and the infrared light image of the next frame in S1004. First, when using the edge enhancement amount E i of the interpolated infrared light image of the current frame, the control unit 101 calculates the edge strength AC n required for the interpolated infrared light image to make the amount of AC components in the output image reach the target value k.
Here, ΔI indicates the difference in the amount of infrared light between the captured scenes of the reference frame and the current frame. Furthermore, the control unit 101 calculates the difference ΔAC of the edge strength that is lacking in the interpolated infrared light image of the current frame based on the obtained edge strength ACn .
Here, AC i is the edge strength of the interpolated infrared light image of the current frame. Then, the control unit 101 uses the obtained ΔAC to calculate the light emission amount EM a of the light emitting device when capturing the visible light image and the infrared light image of the next frame.
Here, EM indicates the amount of light emitted by the light emitting device when the current frame is captured.

S1005で、制御部101は、導出した次のフレームの可視光画像及び赤外光画像の撮影時の発光装置の発光量EMaで近赤外光を照射するよう、発光装置を制御する。 In S1005, the control unit 101 controls the light emitting device to irradiate near-infrared light with the light emission amount EM a of the light emitting device when capturing the derived visible light image and infrared light image of the next frame.

このようにすることで、本実施形態の画像処理装置によれば、現フレームの補間赤外光画像を用いてエンハンス処理を実行しても出力画像のAC成分の量が目標値kに至らない場合に、次フレームで得られる補間赤外光画像を好適な状態にすることができる。即ち、画像処理装置は、次のフレームにおいて被写体に照射される赤外光の発光量を調整することで、次のフレームで得られる補間赤外光画像のエッジ強度を増大させ、基準フレームと同様のエンハンス効果を示す出力画像を生成することができる。 In this way, according to the image processing device of this embodiment, when the amount of AC components in the output image does not reach the target value k even when enhancement processing is performed using the interpolated infrared light image of the current frame, the interpolated infrared light image obtained in the next frame can be made into an appropriate state. In other words, by adjusting the amount of infrared light emitted to the subject in the next frame, the image processing device can increase the edge strength of the interpolated infrared light image obtained in the next frame and generate an output image that exhibits the same enhancement effect as the reference frame.

なお、本実施形態の発光制御処理では、次のフレームにおいて追加の赤外光の照射の要否を判断するために、S1002において出力画像のAC成分の量が目標値kに至るか否かを判断したが、本発明の実施はこれに限られるものではない。S1002における判断は、例えばエッジ強調量に上限値が設けられる態様では、現フレームの補間赤外光画像について導出されたエッジ強調量が上限値であるかを制御部101が判断することによりなされてもよい。あるいは、例えばエッジ強調量に上限値が設けられない態様では、現フレームの補間赤外光画像について導出されたエッジ強調量が、ノイズが許容されないとして定められた閾値を上回るか否かを制御部101が判断することによりなされてもよい。 In the light emission control process of this embodiment, in order to determine whether or not additional infrared light irradiation is required in the next frame, it is determined in S1002 whether the amount of AC components of the output image reaches the target value k, but the implementation of the present invention is not limited to this. For example, in a mode in which an upper limit is set for the amount of edge enhancement, the determination in S1002 may be made by the control unit 101 determining whether the amount of edge enhancement derived for the interpolated infrared light image of the current frame is the upper limit. Alternatively, for example, in a mode in which an upper limit is not set for the amount of edge enhancement, the control unit 101 may determine whether the amount of edge enhancement derived for the interpolated infrared light image of the current frame exceeds a threshold value set as a level at which noise is not allowed.

また本実施形態では、出力画像のAC成分の量が目標値kに不足する場合の発光制御処理について説明したが、本発明の実施はこれに限られるものではない。例えば、補間赤外光画像のエッジ強調量に下限値が設けられる態様では、補間赤外光画像が十分なエッジ強度を示す場合に、エンハンス処理を行うと出力画像のAC成分の量が目標値kを上回る可能性がある。即ち、発光装置による被写体の赤外光の照射が十分である態様も想定できる。このような場合、制御部101は、上述の発光制御処理のS1004と同様に処理を行うことで、次のフレームの発光装置の発光量を現フレームより低減させることができる。 In addition, in this embodiment, the light emission control process is described when the amount of AC components in the output image is insufficient to the target value k, but the implementation of the present invention is not limited to this. For example, in a mode in which a lower limit is set for the amount of edge enhancement of the interpolated infrared light image, if the interpolated infrared light image shows sufficient edge strength, performing enhancement processing may cause the amount of AC components in the output image to exceed the target value k. In other words, a mode in which the irradiation of the subject with infrared light by the light emitting device is sufficient can also be envisioned. In such a case, the control unit 101 can reduce the amount of light emitted by the light emitting device in the next frame compared to the current frame by performing processing similar to S1004 of the light emission control process described above.

[変形例9]
上述した実施形態2では、撮像シーンの赤外光量に基づいて、次のフレームの発光装置の発光量を導出する態様を説明したが、本発明の実施はこれに限られるものではない。例えば、撮像装置100がAF等の他の用途で赤外光を被写体に照射する構成を具備する態様では、当該照射に係る赤外光の発光量を撮像シーンの赤外光量に加味し、それを差し引いた発光量とするように発光装置の動作を制御してもよい。
[Modification 9]
In the above-mentioned second embodiment, the light emission amount of the light emitting device for the next frame is derived based on the amount of infrared light in the imaging scene, but the implementation of the present invention is not limited to this. For example, in an embodiment in which the imaging device 100 has a configuration for irradiating a subject with infrared light for other purposes such as AF, the operation of the light emitting device may be controlled so that the amount of infrared light emitted related to the irradiation is added to the amount of infrared light in the imaging scene and the amount of infrared light is subtracted from the amount of infrared light.

[変形例10]
上述した実施形態2では、次のフレームにおいて発光装置の発光量を増大させることで、次のフレームにおいて対象領域のエッジ強度が高くなった補間赤外光画像を取得するものとして説明したが、本発明の実施はこれに限られるものではない。撮像装置100に設けられた発光装置の発光量を増やしたとしても、被写体が遠方に存在する場合等、発光装置により照射された赤外光が被写体に到達しないことも想定される。
[Modification 10]
In the above-described second embodiment, an interpolated infrared light image in which the edge intensity of the target area is increased in the next frame is acquired by increasing the amount of light emitted by the light-emitting device in the next frame, but the implementation of the present invention is not limited to this. Even if the amount of light emitted by the light-emitting device provided in the imaging device 100 is increased, it is possible that the infrared light irradiated by the light-emitting device does not reach the subject, for example, when the subject is located far away.

このため、制御部101は、発光装置と被写体との距離の情報を取得し、当該距離が発光装置の照射可能範囲を示す距離閾値を上回る場合には、発光装置の発光量を増大させる制御を行わないようにしてもよい。なお、発光装置と被写体との距離が距離閾値を上回ることにより発光装置の発光量を増大させない場合には、エッジ強調量を上限値を超えて設定可能にすることで、エンハンス効果の維持を優先してもよい。 For this reason, the control unit 101 may acquire information on the distance between the light emitting device and the subject, and if the distance exceeds a distance threshold indicating the range in which the light emitting device can be irradiated, may not control the light emitting device to increase the amount of light emitted. Note that if the amount of light emitted by the light emitting device is not increased because the distance between the light emitting device and the subject exceeds the distance threshold, the amount of edge enhancement may be set to a value greater than the upper limit, thereby prioritizing the maintenance of the enhancement effect.

[変形例11]
上述した実施形態2の発光制御処理では、出力画像のAC成分の量が目標値kに至らない場合に、発光装置の発光量を増大させるものとして説明したが、発光装置の発光量には許容限度が存在する。即ち、現フレームにおいて既に発光装置の発光量が最大量である、あるいは、S1004において決定した発光量EMaが最大量を上回る場合には、発光制御を好適に行うことができない。この場合、エッジ強調量を上限値を超えて設定可能にすることで、エンハンス効果の維持を優先してもよい。あるいは、次フレームと撮像条件が類似する過去のフレームにて取得された、AC成分の量が好適である補間赤外光画像を、次のフレームのエンハンス処理に用いるようにしてもよい。
[Modification 11]
In the light emission control process of the second embodiment described above, the amount of light emitted by the light emitting device is increased when the amount of AC components in the output image does not reach the target value k. However, there is an allowable limit to the amount of light emitted by the light emitting device. That is, if the amount of light emitted by the light emitting device in the current frame is already at the maximum amount, or if the amount of light emitted EM a determined in S1004 exceeds the maximum amount, light emission control cannot be performed suitably. In this case, the amount of edge enhancement may be set to exceed the upper limit value, so that the maintenance of the enhancement effect is prioritized. Alternatively, an interpolated infrared light image with a suitable amount of AC components, which is acquired in a past frame under similar imaging conditions to the next frame, may be used for the enhancement process of the next frame.

[変形例12]
上述した実施形態及び変形例では、発明の理解を容易にすべく、エンハンス処理に赤外光画像を用いる場合には可視光画像のエッジ強調量Evを0に設定するものとし、補間赤外光画像のエッジ強調量Eiのみが導出されるものとして説明した。しかしながら、本発明の実施はこれに限られるものではなく、エンハンス処理に赤外光画像を用いる態様において、可視光画像のエッジ強調量Evsを有意な値に設定するものとしてもよい。
[Modification 12]
In the above-described embodiment and modified examples, in order to facilitate understanding of the invention, it has been described that when an infrared light image is used in the enhancement process, the amount of edge enhancement Ev of the visible light image is set to 0, and only the amount of edge enhancement Ei of the interpolated infrared light image is derived. However, the implementation of the present invention is not limited to this, and in an aspect in which an infrared light image is used in the enhancement process, the amount of edge enhancement Ev of the visible light image may be set to a significant value.

例えば、目標導出部305は、図6(a)に示したような、予め定められた特性に基づいて可視光画像のエッジ強調量Evを設定する。この場合、補間赤外光画像のエッジ強調量Eiは、
により導出すればよい。ここで、ACvは、現フレームの可視光画像のエッジ強度である。
For example, the target derivation unit 305 sets the edge enhancement amount E v of the visible light image based on a predetermined characteristic as shown in FIG. 6A. In this case, the edge enhancement amount E i of the interpolated infrared light image is expressed as follows:
Here, AC v is the edge strength of the visible light image of the current frame.

[変形例13]
上述した実施形態及び変形例では、エンハンス処理は、霞により視認性(階調や彩度)が低下した被写体の像のエッジを強調させることで、被写体の像の形状を明確にし、霞が除去されたような効果を与える処理であるものとして説明した。しかしながら、可視光画像において被写体の像の視認性が低下する態様は、霞に起因するものに限られるものではない。例えば、図11(a)に示されるような、暗所等の環境光の明るさが不足している撮像シーンにおいても、可視光画像において被写体の像の視認性が低下する。一方で、同被写体を撮像した赤外光画像には、図11(b)に示されるように、階調を残して被写体の像が表れ得る。このように、可視光画像と赤外光画像とで同一の被写体についての階調が異なって表れる撮像シーンでは、エンハンス処理を行うことで被写体の像の視認性を向上させた出力画像を生成することができる。つまり、上述した導出処理は、当該撮像シーンについて適用することができる。
[Modification 13]
In the above-described embodiment and modified example, the enhancement process has been described as a process that clarifies the shape of the image of the subject by emphasizing the edges of the image of the subject whose visibility (gradation and saturation) has been reduced by haze, and gives an effect of removing the haze. However, the manner in which the visibility of the image of the subject is reduced in the visible light image is not limited to that caused by haze. For example, as shown in FIG. 11(a), even in an imaging scene in which the brightness of the environmental light such as a dark place is insufficient, the visibility of the image of the subject is reduced in the visible light image. On the other hand, in an infrared light image obtained by imaging the same subject, the image of the subject may appear with gradation remaining, as shown in FIG. 11(b). In this way, in an imaging scene in which the gradation of the same subject appears differently in the visible light image and the infrared light image, an output image in which the visibility of the image of the subject is improved can be generated by performing the enhancement process. In other words, the above-described derivation process can be applied to the imaging scene.

ところで、撮像シーンが暗すぎる場合や明るすぎる場合には、そもそも可視光画像が被写体の像を識別困難な状態にあり、そのDC成分において被写体の像の情報が失われることもある。故に、エンハンス処理において、補間赤外光画像の対象領域のAC成分を、エッジ強調量に応じて増幅させて可視光画像のDC成分に合成したとしても、好適な出力画像が得られない。このような場合、エンハンス処理において、対象領域に対して補間赤外光画像のDC成分をさらに合成することで、出力画像における被写体の像の視認性を向上させることができる。 However, if the imaging scene is too dark or too bright, the visible light image is in a state in which it is difficult to distinguish the image of the subject, and information about the image of the subject may be lost in the DC component. Therefore, even if the AC component of the target area of the interpolated infrared light image is amplified according to the amount of edge enhancement and combined with the DC component of the visible light image in the enhancement process, a suitable output image cannot be obtained. In such cases, the visibility of the image of the subject in the output image can be improved by further combining the DC component of the interpolated infrared light image with the target area in the enhancement process.

具体的には、エンハンス処理部306は、可視光画像の対象領域の輝度が低輝度と判断する第1輝度閾値を下回り、かつ、撮像シーンのBV値が低輝度と判断する第1BV閾値を下回る場合に、可視光画像が暗すぎると判定する。あるいは、エンハンス処理部306は、可視光画像の対象領域の輝度が高輝度と判断する第2輝度閾値を上回り、かつ、撮像シーンのBV値が高輝度と判断する第2BV閾値を上回る場合に、可視光画像が明るすぎると判定する。そしてエンハンス処理部306は、可視光画像が暗すぎる/明るすぎると判定した場合のエンハンス処理において、可視光画像のDC成分に対して、エッジ強調した可視光画像及び補間赤外光画像のAC成分、及び補間赤外光画像のDC成分を合成する。 Specifically, the enhancement processing unit 306 determines that the visible light image is too dark when the luminance of the target area of the visible light image falls below a first luminance threshold for determining low luminance and the BV value of the captured scene falls below a first BV threshold for determining low luminance. Alternatively, the enhancement processing unit 306 determines that the visible light image is too bright when the luminance of the target area of the visible light image exceeds a second luminance threshold for determining high luminance and the BV value of the captured scene exceeds a second BV threshold for determining high luminance. Then, in the enhancement processing when the enhancement processing unit 306 determines that the visible light image is too dark/too bright, it combines the AC components of the edge-emphasized visible light image and the interpolated infrared light image, and the DC component of the interpolated infrared light image with the DC component of the visible light image.

[変形例14]
上述した実施形態及び変形例では、撮像部105が有する撮像素子に適用されるIRフィルタが、近赤外光の波長範囲の光を透過するものとして説明したが、本発明の実施はこれに限られるものではない。IRフィルタが透過させる光の波長範囲は、近赤外光に限らず、中赤外光、遠赤外光等、他の波長範囲を含むものであってもよい。
[Modification 14]
In the above-described embodiment and modified example, the IR filter applied to the imaging element of the imaging unit 105 is described as transmitting light in the wavelength range of near-infrared light, but the implementation of the present invention is not limited to this. The wavelength range of light transmitted by the IR filter is not limited to near-infrared light, and may include other wavelength ranges such as mid-infrared light and far-infrared light.

[変形例15]
上述した実施形態及び変形例では、撮像部105が有する撮像素子が、可視光画像と赤外光画像とを同時に取得可能に構成されるものとして説明したが、本発明の実施はこれに限られるものではない。本発明は、同一の被写体について、同時期に撮像された可視光画像と赤外光画像を用いてエンハンス処理を行う態様に適用可能であり、これらの画像は、例えば別の撮像素子から出力されるものであってもよいことは言うまでもない。
[Modification 15]
In the above-described embodiment and modified example, the imaging element of the imaging unit 105 is described as being configured to be capable of simultaneously acquiring a visible light image and an infrared light image, but the implementation of the present invention is not limited to this. The present invention is applicable to an aspect in which enhancement processing is performed using a visible light image and an infrared light image captured at the same time for the same subject, and it goes without saying that these images may be output from, for example, different imaging elements.

[実施形態及び変形例のまとめ]
本明細書の開示は、以下の画像処理装置、制御方法及びプログラムを含む。
(項目1)
動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置であって、
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得手段と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得手段と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定手段と、
前記決定手段により決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定手段と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出手段と、
を有し、
前記設定手段は、前記動画像の基準フレームについて取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値を決定し、
前記導出手段は、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量を導出する
ことを特徴とする画像処理装置。
(項目2)
前記エンハンス処理は、前記被写体の像のエッジを強調する処理であり、
前記導出手段は、前記可視光画像及び前記赤外光画像の各々のエッジ強調量を前記補正量として導出する
ことを特徴とする項目1に記載の画像処理装置。
(項目3)
前記エンハンス処理は、前記可視光画像及び前記赤外光画像の前記対象領域のAC成分を、各画像について導出された前記エッジ強調量に基づいて増幅し、さらに前記可視光画像のDC成分に合成する処理であることを特徴とする項目2に記載の画像処理装置。
(項目4)
前記導出手段は、前記後続するフレームについて、前記エンハンス処理において前記可視光画像及び前記赤外光画像の対象領域のAC成分を増幅して合算した値が、前記目標値となるように各画像の前記エッジ強調量を導出することを特徴とする項目3に記載の画像処理装置。
(項目5)
前記目標値は、前記エンハンス処理の結果に得られる画像のAC成分が示すエッジ強度であることを特徴とする項目2乃至4のいずれか1項目に記載の画像処理装置。
(項目6)
前記エッジ強調量には、上限値が設けられており、
前記画像処理装置は、前記被写体に赤外光を照射する発光装置の制御を行う制御手段をさらに有し、
前記制御手段は、前記後続するフレームのうちの第1のフレームに係る前記エンハンス処理を実行した結果に得られる画像のエッジ強度が前記目標値に不足する場合に、当該第1のフレームに続く第2のフレームにおいて前記発光装置に照射させる赤外光の発光量を増加させる
ことを特徴とする項目5に記載の画像処理装置。
(項目7)
前記発光装置と前記被写体との距離を取得する第3の取得手段をさらに有し、
前記制御手段は、前記対象領域に含まれる前記被写体との距離が距離閾値を上回る場合に、前記発光装置の発光量を増加させない
ことを特徴とする項目6に記載の画像処理装置。
(項目8)
前記画像処理装置は、前記第1のフレームにおいて前記発光装置の発光量が最大量であった場合に、前記第2のフレームの撮像条件と類似する過去のフレームに係り取得された前記赤外光画像を用いて前記エンハンス処理を実行することを特徴とする項目6または7に記載の画像処理装置。
(項目9)
前記第2の取得手段は、前記動画像の各フレームについて、当該フレームに係り取得された前記赤外光画像に基づいて前記赤外光量を取得することを特徴とする項目1乃至8のいずれか1項目に記載の画像処理装置。
(項目10)
前記第2の取得手段は、前記動画像の各フレームについて、当該フレームを含む直近の所定数のフレームに係り取得された前記赤外光画像に基づいて前記赤外光量を取得することを特徴とする項目1乃至8のいずれか1項目に記載の画像処理装置。
(項目11)
前記決定手段は、前記動画像の各フレームにおける前記対象領域を、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の階調情報に基づいて決定することを特徴とする項目1乃至10のいずれか1項目に記載の画像処理装置。
(項目12)
前記動画像の各フレームに係る前記エンハンス処理において、前記可視光画像に前記赤外光画像を合成するか否かを、前記可視光画像または前記赤外光画像の階調情報に基づいて判断する判断手段をさらに有し、
前記導出手段は、前記判断手段により前記可視光画像に前記赤外光画像を合成しないと判断された場合に、前記後続するフレームについて、前記赤外光量に基づかずに前記可視光画像の前記補正量を導出する
ことを特徴とする項目11に記載の画像処理装置。
(項目13)
前記導出手段は、前記基準フレームから所定数のフレームについて、前記設定手段により設定された前記目標値に代えて、前記基準フレームからの経過フレーム数に応じて段階的に前記目標値に至る変動値を用いて、前記可視光画像及び前記赤外光画像の各々の前記補正量を導出することを特徴とする項目1乃至12のいずれか1項目に記載の画像処理装置。
(項目14)
前記決定手段は、前記動画像の各フレームに対して複数の領域を前記対象領域として決定し、
前記設定手段は、前記複数の領域の各々について、前記目標値を設定する
ことを特徴とする項目1乃至13のいずれか1項目に記載の画像処理装置。
(項目15)
前記動画像の各フレームに係る前記被写体の撮像中に、静止画像の撮影指示を受け付ける入力手段をさらに有し、
前記導出手段は、前記入力手段により前記静止画像の撮影指示が受け付けられた場合に、前記目標値に基づかずに、当該撮影指示が受け付けられたフレームに係り取得された前記可視光画像及び前記赤外光画像の各々について、前記エンハンス処理における前記静止画像用の補正量を導出する
ことを特徴とする項目1乃至14のいずれか1項目に記載の画像処理装置。
(項目16)
前記可視光画像及び前記赤外光画像を撮像する撮像手段をさらに有し、
前記第1の取得手段は、前記撮像手段により撮像された前記可視光画像及び前記赤外光画像を取得する
ことを特徴とする項目1乃至15のいずれか1項目に記載の画像処理装置。
(項目17)
前記撮像手段は、可視光を透過するフィルタが適用された画素と赤外光を透過するフィルタが適用された画素が配置された1つの撮像素子を含むことを特徴とする項目16に記載の画像処理装置。
(項目18)
動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置の制御方法であって、
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得工程と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得工程と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定工程と、
前記決定工程において決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定工程と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出工程と、
を有し、
前記設定工程において、前記動画像の基準フレームに係り取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値が決定され、
前記導出工程において、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量が導出される
ことを特徴とする制御方法。
(項目19)
コンピュータを、項目1乃至15のいずれか1項目に記載の画像処理装置の各手段として機能させるためのプログラム。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Summary of the embodiment and modifications]
The disclosure of this specification includes the following image processing device, control method, and program.
(Item 1)
An image processing device that performs enhancement processing for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising:
a first acquisition means for acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
A second acquisition means for acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
a determining means for determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting means for setting a target value indicating visibility of the image of the subject in the image obtained as a result of the enhancement process for the target region determined by the determination means;
a derivation means for deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame of the moving image in the enhancement process for that frame;
having
the setting means determines the target value based on the visible light image and the infrared light image acquired for a reference frame of the moving image;
the derivation means derives, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
(Item 2)
the enhancement processing is processing for emphasizing edges of the image of the subject,
2. The image processing device according to item 1, wherein the deriving means derives an amount of edge enhancement for each of the visible light image and the infrared light image as the amount of correction.
(Item 3)
3. The image processing device according to item 2, wherein the enhancement process is a process of amplifying AC components of the target region of the visible light image and the infrared light image based on the edge enhancement amount derived for each image, and further combining the AC components with a DC component of the visible light image.
(Item 4)
The image processing device described in item 3, characterized in that the derivation means derives the edge enhancement amount for each image so that a value obtained by amplifying and adding up AC components of the target regions of the visible light image and the infrared light image in the enhancement process for the subsequent frame becomes the target value.
(Item 5)
5. The image processing device according to any one of items 2 to 4, wherein the target value is an edge strength indicated by an AC component of an image obtained as a result of the enhancement process.
(Item 6)
The edge enhancement amount has an upper limit,
the image processing device further includes a control unit that controls a light emitting device that irradiates the subject with infrared light;
The image processing device described in item 5 is characterized in that, when the edge strength of the image obtained as a result of executing the enhancement processing on a first frame of the subsequent frames falls short of the target value, the control means increases the amount of infrared light emitted by the light-emitting device in a second frame following the first frame.
(Item 7)
a third acquisition means for acquiring a distance between the light emitting device and the subject,
7. The image processing device according to item 6, wherein the control means does not increase the amount of light emitted by the light emitting device when the distance to the subject included in the target area exceeds a distance threshold.
(Item 8)
The image processing device described in item 6 or 7, characterized in that when the amount of light emitted by the light emitting device in the first frame is at its maximum, the image processing device performs the enhancement process using the infrared light image acquired for a past frame that has imaging conditions similar to those of the second frame.
(Item 9)
The image processing device according to any one of items 1 to 8, wherein the second acquisition means acquires the amount of infrared light for each frame of the moving image based on the infrared light image acquired for that frame.
(Item 10)
The image processing device described in any one of items 1 to 8, characterized in that the second acquisition means acquires the amount of infrared light for each frame of the moving image based on the infrared light images acquired for a predetermined number of frames immediately preceding the frame in question.
(Item 11)
The image processing device described in any one of items 1 to 10, characterized in that the determination means determines the target area in each frame of the moving image based on gradation information of the visible light image and the infrared light image acquired relating to the frame.
(Item 12)
a determining unit that determines whether or not to combine the visible light image with the infrared light image in the enhancement process for each frame of the moving image based on gradation information of the visible light image or the infrared light image,
Item 12. The image processing device according to item 11, wherein the derivation means derives the correction amount of the visible light image for the subsequent frame not based on the amount of infrared light when the determination means determines not to combine the infrared light image with the visible light image.
(Item 13)
The image processing device described in any one of items 1 to 12, characterized in that the derivation means derives the correction amount for each of the visible light image and the infrared light image by using a variable value that gradually reaches the target value in accordance with the number of frames elapsed from the reference frame, instead of the target value set by the setting means, for a predetermined number of frames from the reference frame.
(Item 14)
The determining means determines a plurality of regions as the target regions for each frame of the moving image,
14. The image processing device according to any one of items 1 to 13, wherein the setting means sets the target value for each of the plurality of regions.
(Item 15)
The camera further includes an input unit for receiving an instruction to capture a still image while capturing an image of the subject for each frame of the moving image,
The image processing device described in any one of items 1 to 14, characterized in that when an instruction to capture a still image is accepted by the input means, the derivation means derives a correction amount for the still image in the enhancement processing for each of the visible light image and the infrared light image acquired relating to the frame for which the shooting instruction was accepted, without being based on the target value.
(Item 16)
The present invention further includes an imaging means for capturing the visible light image and the infrared light image,
16. The image processing device according to any one of items 1 to 15, wherein the first acquisition means acquires the visible light image and the infrared light image captured by the imaging means.
(Item 17)
17. The image processing device according to item 16, wherein the imaging means includes one imaging element in which pixels to which a filter that transmits visible light is applied and pixels to which a filter that transmits infrared light is applied are arranged.
(Item 18)
A method for controlling an image processing device that executes an enhancement process for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising the steps of:
a first acquisition step of acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
a second acquisition step of acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting step of setting a target value indicating visibility of an image of the subject in the image obtained as a result of the enhancement process for the target region determined in the determination step;
a derivation step of deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame in the enhancement process of the moving image;
having
In the setting step, the target value is determined based on the visible light image and the infrared light image acquired in relation to a reference frame of the moving image,
a control method characterized in that, in the derivation step, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame is derived based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
(Item 19)
16. A program for causing a computer to function as each of the means of the image processing device according to any one of items 1 to 15.
[Other embodiments]
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above-described embodiment, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.

100:撮像装置、101:制御部、105:撮像部、107:画像処理部、301:第1画像取得部、302:第2画像取得部、303:光量取得部、304:領域決定部、305:目標導出部、306:エンハンス処理部 100: imaging device, 101: control unit, 105: imaging unit, 107: image processing unit, 301: first image acquisition unit, 302: second image acquisition unit, 303: light amount acquisition unit, 304: area determination unit, 305: target derivation unit, 306: enhancement processing unit

Claims (19)

動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置であって、
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得手段と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得手段と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定手段と、
前記決定手段により決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定手段と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出手段と、
を有し、
前記設定手段は、前記動画像の基準フレームについて取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値を決定し、
前記導出手段は、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量を導出する
ことを特徴とする画像処理装置。
An image processing device that performs enhancement processing for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising:
a first acquisition means for acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
A second acquisition means for acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
a determining means for determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting means for setting a target value indicating visibility of the image of the subject in the image obtained as a result of the enhancement process for the target region determined by the determination means;
a derivation means for deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame of the moving image in the enhancement process for that frame;
having
the setting means determines the target value based on the visible light image and the infrared light image acquired for a reference frame of the moving image;
the derivation means derives, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
前記エンハンス処理は、前記被写体の像のエッジを強調する処理であり、
前記導出手段は、前記可視光画像及び前記赤外光画像の各々のエッジ強調量を前記補正量として導出する
ことを特徴とする請求項1に記載の画像処理装置。
the enhancement processing is processing for emphasizing edges of the image of the subject,
2 . The image processing apparatus according to claim 1 , wherein the deriving means derives an amount of edge enhancement for each of the visible light image and the infrared light image as the amount of correction.
前記エンハンス処理は、前記可視光画像及び前記赤外光画像の前記対象領域のAC成分を、各画像について導出された前記エッジ強調量に基づいて増幅し、さらに前記可視光画像のDC成分に合成する処理であることを特徴とする請求項2に記載の画像処理装置。 The image processing device according to claim 2, characterized in that the enhancement process amplifies the AC components of the target region of the visible light image and the infrared light image based on the edge enhancement amount derived for each image, and further combines them with the DC components of the visible light image. 前記導出手段は、前記後続するフレームについて、前記エンハンス処理において前記可視光画像及び前記赤外光画像の対象領域のAC成分を増幅して合算した値が、前記目標値となるように各画像の前記エッジ強調量を導出することを特徴とする請求項3に記載の画像処理装置。 The image processing device according to claim 3, characterized in that the derivation means derives the edge enhancement amount for each image such that the sum of the amplified AC components of the target areas of the visible light image and the infrared light image in the enhancement process for the subsequent frame is the target value. 前記目標値は、前記エンハンス処理の結果得られる画像のAC成分が示すエッジ強度であることを特徴とする請求項2に記載の画像処理装置。 The image processing device according to claim 2, characterized in that the target value is the edge strength indicated by the AC components of the image obtained as a result of the enhancement process. 前記エッジ強調量には、上限値が設けられており、
前記画像処理装置は、前記被写体に赤外光を照射する発光装置の制御を行う制御手段をさらに有し、
前記制御手段は、前記後続するフレームのうちの第1のフレームに係る前記エンハンス処理を実行した結果に得られる画像のエッジ強度が前記目標値に不足する場合に、当該第1のフレームに続く第2のフレームにおいて前記発光装置に照射させる赤外光の発光量を増加させる
ことを特徴とする請求項5に記載の画像処理装置。
The edge enhancement amount has an upper limit,
the image processing device further includes a control unit that controls a light emitting device that irradiates the subject with infrared light;
The image processing device described in claim 5, characterized in that the control means increases the amount of infrared light emitted by the light-emitting device in a second frame following the first frame when the edge strength of the image obtained as a result of performing the enhancement processing on a first frame of the subsequent frames falls short of the target value.
前記発光装置と前記被写体との距離を取得する第3の取得手段をさらに有し、
前記制御手段は、前記対象領域に含まれる前記被写体との距離が距離閾値を上回る場合に、前記発光装置の発光量を増加させない
ことを特徴とする請求項6に記載の画像処理装置。
a third acquisition means for acquiring a distance between the light emitting device and the subject,
7. The image processing device according to claim 6, wherein the control means does not increase the amount of light emitted by the light emitting device when the distance to the subject included in the target area exceeds a distance threshold value.
前記画像処理装置は、前記第1のフレームにおいて前記発光装置の発光量が最大量であった場合に、前記第2のフレームの撮像条件と類似する過去のフレームに係り取得された前記赤外光画像を用いて前記エンハンス処理を実行することを特徴とする請求項6に記載の画像処理装置。 The image processing device according to claim 6, characterized in that, when the amount of light emitted by the light emitting device in the first frame is at its maximum, the image processing device executes the enhancement process using the infrared light image acquired in relation to a previous frame that has similar imaging conditions to those of the second frame. 前記第2の取得手段は、前記動画像の各フレームについて、当該フレームに係り取得された前記赤外光画像に基づいて前記赤外光量を取得することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the second acquisition means acquires the amount of infrared light for each frame of the moving image based on the infrared light image acquired for that frame. 前記第2の取得手段は、前記動画像の各フレームについて、当該フレームを含む直近の所定数のフレームに係り取得された前記赤外光画像に基づいて前記赤外光量を取得することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the second acquisition means acquires the amount of infrared light for each frame of the moving image based on the infrared light images acquired for a predetermined number of frames immediately preceding the frame in question. 前記決定手段は、前記動画像の各フレームにおける前記対象領域を、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の階調情報に基づいて決定することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the determining means determines the target area in each frame of the moving image based on gradation information of the visible light image and the infrared light image acquired for that frame. 前記動画像の各フレームに係る前記エンハンス処理において、前記可視光画像に前記赤外光画像を合成するか否かを、前記可視光画像または前記赤外光画像の階調情報に基づいて判断する判断手段をさらに有し、
前記導出手段は、前記判断手段により前記可視光画像に前記赤外光画像を合成しないと判断された場合に、前記後続するフレームについて、前記赤外光量に基づかずに前記可視光画像の前記補正量を導出する
ことを特徴とする請求項11に記載の画像処理装置。
a determining unit that determines whether or not to combine the infrared light image with the visible light image in the enhancement process for each frame of the moving image based on gradation information of the visible light image or the infrared light image,
The image processing device according to claim 11, characterized in that, when the judgment means judges not to combine the infrared light image with the visible light image, the derivation means derives the correction amount of the visible light image for the subsequent frame without being based on the amount of infrared light.
前記導出手段は、前記基準フレームから所定数のフレームについて、前記設定手段により設定された前記目標値に代えて、前記基準フレームからの経過フレーム数に応じて段階的に前記目標値に至る変動値を用いて、前記可視光画像及び前記赤外光画像の各々の前記補正量を導出することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the derivation means derives the correction amount for each of the visible light image and the infrared light image by using a variable value that gradually reaches the target value according to the number of frames elapsed from the reference frame, instead of the target value set by the setting means, for a predetermined number of frames from the reference frame. 前記決定手段は、前記動画像の各フレームに対して複数の領域を前記対象領域として決定し、
前記設定手段は、前記複数の領域の各々について、前記目標値を設定する
ことを特徴とする請求項1に記載の画像処理装置。
The determining means determines a plurality of regions as the target regions for each frame of the moving image,
2. The image processing apparatus according to claim 1, wherein said setting means sets the target value for each of said plurality of regions.
前記動画像の各フレームに係る前記被写体の撮像中に、静止画像の撮影指示を受け付ける入力手段をさらに有し、
前記導出手段は、前記入力手段により前記静止画像の撮影指示が受け付けられた場合に、前記目標値に基づかずに、当該撮影指示が受け付けられたフレームに係り取得された前記可視光画像及び前記赤外光画像の各々について、前記エンハンス処理における前記静止画像用の補正量を導出する
ことを特徴とする請求項1に記載の画像処理装置。
The camera further includes an input unit for receiving an instruction to capture a still image while capturing an image of the subject for each frame of the moving image,
The image processing device according to claim 1, characterized in that, when an instruction to capture a still image is accepted by the input means, the derivation means derives a correction amount for the still image in the enhancement processing for each of the visible light image and the infrared light image acquired relating to the frame for which the shooting instruction was accepted, without being based on the target value.
前記可視光画像及び前記赤外光画像を撮像する撮像手段をさらに有し、
前記第1の取得手段は、前記撮像手段により撮像された前記可視光画像及び前記赤外光画像を取得する
ことを特徴とする請求項1に記載の画像処理装置。
The present invention further includes an imaging means for capturing the visible light image and the infrared light image,
The image processing apparatus according to claim 1 , wherein the first acquisition means acquires the visible light image and the infrared light image captured by the imaging means.
前記撮像手段は、可視光を透過するフィルタが適用された画素と赤外光を透過するフィルタが適用された画素が配置された1つの撮像素子を含むことを特徴とする請求項16に記載の画像処理装置。 The image processing device according to claim 16, characterized in that the imaging means includes one imaging element in which pixels to which a filter that transmits visible light is applied and pixels to which a filter that transmits infrared light is applied are arranged. 動画像を構成する各フレームの画像について、可視光画像と赤外光画像を合成することにより被写体の像の視認性を向上させるエンハンス処理を実行する画像処理装置の制御方法であって、
前記動画像の各フレームについて前記被写体を撮像した前記可視光画像及び前記赤外光画像を取得する第1の取得工程と、
前記動画像の各フレームについて、撮像シーンに係る赤外光量を取得する第2の取得工程と、
前記可視光画像及び前記赤外光画像に基づいて、前記動画像の各フレームに係る前記エンハンス処理を実行する対象領域を決定する決定工程と、
前記決定工程において決定された対象領域について、前記エンハンス処理の結果得られる画像における前記被写体の像の視認性を示す目標値を設定する設定工程と、
前記動画像の各フレームに係る前記エンハンス処理における、当該フレームに係り取得された前記可視光画像及び前記赤外光画像の各々の補正量を導出する導出工程と、
を有し、
前記設定工程において、前記動画像の基準フレームに係り取得された前記可視光画像及び前記赤外光画像に基づいて前記目標値が決定され、
前記導出工程において、前記動画像の前記基準フレームに後続するフレームについて、前記基準フレームに係り設定された前記目標値と、前記基準フレームと前記後続するフレームとの間の前記赤外光量の差分とに基づいて、前記後続するフレームに係り取得された前記可視光画像及び前記赤外光画像の各々の前記補正量が導出される
ことを特徴とする制御方法。
A method for controlling an image processing device that executes an enhancement process for improving visibility of an image of a subject by synthesizing a visible light image and an infrared light image for each frame image constituting a moving image, comprising the steps of:
a first acquisition step of acquiring the visible light image and the infrared light image obtained by capturing an image of the subject for each frame of the moving image;
a second acquisition step of acquiring an amount of infrared light related to an image capture scene for each frame of the moving image;
determining a target region for performing the enhancement process for each frame of the video based on the visible light image and the infrared light image;
a setting step of setting a target value indicating visibility of an image of the subject in the image obtained as a result of the enhancement process for the target region determined in the determination step;
a derivation step of deriving a correction amount for each of the visible light image and the infrared light image acquired for each frame in the enhancement process of the moving image;
having
In the setting step, the target value is determined based on the visible light image and the infrared light image acquired in relation to a reference frame of the moving image,
a control method characterized in that, in the derivation step, for a frame subsequent to the reference frame of the moving image, the correction amount for each of the visible light image and the infrared light image acquired for the subsequent frame is derived based on the target value set for the reference frame and the difference in the amount of infrared light between the reference frame and the subsequent frame.
コンピュータを、請求項1乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of an image processing device according to any one of claims 1 to 15.
JP2022161204A 2022-10-05 2022-10-05 Image processing device, control method and program Pending JP2024054762A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022161204A JP2024054762A (en) 2022-10-05 2022-10-05 Image processing device, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022161204A JP2024054762A (en) 2022-10-05 2022-10-05 Image processing device, control method and program

Publications (1)

Publication Number Publication Date
JP2024054762A true JP2024054762A (en) 2024-04-17

Family

ID=90707772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022161204A Pending JP2024054762A (en) 2022-10-05 2022-10-05 Image processing device, control method and program

Country Status (1)

Country Link
JP (1) JP2024054762A (en)

Similar Documents

Publication Publication Date Title
US9858666B2 (en) Medical skin examination device and method for processing and enhancing an image of a skin lesion
JP5460173B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
US9412155B2 (en) Video system with dynamic contrast and detail enhancement
US10861136B2 (en) Image processing apparatus, image processing method, and storage medium
US20090096897A1 (en) Imaging Device, Image Processing Device, and Program
CN105960658B (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory storage medium that can be processed by computer
CN107533756B (en) Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
US10091422B2 (en) Image processing device and recording medium
JP2011135563A (en) Image capturing apparatus, and image processing method
US9961319B2 (en) Image processing apparatus and control method thereof
US20120121129A1 (en) Image processing apparatus
JP5911525B2 (en) Image processing apparatus and method, image processing program, and imaging apparatus
US9674427B2 (en) Image processing method and apparatus
JP2011228807A (en) Image processing program, image processing apparatus, and image processing method
JP4775230B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2011100204A (en) Image processor, image processing method, image processing program, imaging apparatus, and electronic device
JP2002232777A (en) Imaging system
JP2024054762A (en) Image processing device, control method and program
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
KR101360411B1 (en) Method for image processing using retinex algorithm
JP6558935B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP5561389B2 (en) Image processing program, image processing apparatus, electronic camera, and image processing method
JP2014098859A (en) Imaging apparatus and imaging method
KR101004623B1 (en) Apparatus and method for improving image quality using flash device