JP2023111637A - Image processing device and method and imaging apparatus - Google Patents

Image processing device and method and imaging apparatus Download PDF

Info

Publication number
JP2023111637A
JP2023111637A JP2022013579A JP2022013579A JP2023111637A JP 2023111637 A JP2023111637 A JP 2023111637A JP 2022013579 A JP2022013579 A JP 2022013579A JP 2022013579 A JP2022013579 A JP 2022013579A JP 2023111637 A JP2023111637 A JP 2023111637A
Authority
JP
Japan
Prior art keywords
image
layer
color
color component
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022013579A
Other languages
Japanese (ja)
Inventor
典朗 多和田
Noriaki Tawada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022013579A priority Critical patent/JP2023111637A/en
Publication of JP2023111637A publication Critical patent/JP2023111637A/en
Pending legal-status Critical Current

Links

Images

Abstract

To generate a high-resolution image having high color reproducibility from a plurality of images captured by using a plurality of imaging elements that differ in color reproducibility.SOLUTION: An image processing device includes acquisition means for acquiring a first image having first resolution and first color reproducibility and a second image having second resolution lower than the first resolution and second color reproducibility higher than the first color reproducibility, obtained by imaging one subject by a plurality of imaging means and synthesis means for generating a synthetic image by synthesizing the first image and the second image with a synthesis ratio corresponding to brightness and a frequency component calculated from the first image and the second image. The synthesis ratio of the color component of the second image when the brightness is first brightness is made higher than that when the brightness is second brightness brighter than the first brightness.SELECTED DRAWING: Figure 2

Description

本発明は、異なる種類の複数の撮像素子を用いて撮像された複数の画像を合成する画像処理装置及び方法、及び撮像装置に関する。 The present invention relates to an image processing apparatus and method for synthesizing a plurality of images captured using a plurality of imaging elements of different types, and an imaging apparatus.

低照度環境で撮像した画像の色再現や解像度は、監視等の目的において重要である。撮像センサの一方式であるSPAD(Single Photon Avalanche Diode)センサは、低照度性能(特に色再現)や高速応答といった点で優れている。しかし、SPADセンサで撮像した画像(SPAD画像)は、例えばCMOS(Complementary Metal Oxide Semiconductor)センサで撮像した画像(CMOS画像)に比べて、一般に解像度が低い。 Color reproduction and resolution of an image captured in a low-illuminance environment are important for purposes such as monitoring. A SPAD (Single Photon Avalanche Diode) sensor, which is one type of imaging sensor, is excellent in terms of low-illuminance performance (especially color reproduction) and high-speed response. However, an image captured by a SPAD sensor (SPAD image) generally has a lower resolution than an image captured by, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor (CMOS image).

特許文献1では、可視光画像と非可視光(近赤外光)画像の合成において、シャッタースピード等の撮像条件から低照度環境と判定された場合、可視光輝度成分と非可視光輝度成分の合成を行う際に、後者の比率を高めることが開示されている。 In Patent Document 1, when a visible light image and a non-visible light (near-infrared light) image are combined, when it is determined that the environment is low illumination from imaging conditions such as shutter speed, the visible light luminance component and the non-visible light luminance component It is disclosed to increase the ratio of the latter when conducting the synthesis.

特開2014-135627号公報JP 2014-135627 A

しかしながら、特許文献1の方法は、色情報を有する可視光画像と色情報を有さない非可視光(近赤外光)画像の輝度成分の合成であるため、色再現性の改善には直接寄与しない。 However, the method of Patent Document 1 is a combination of luminance components of a visible light image having color information and an invisible light (near-infrared light) image having no color information. do not contribute.

本発明は上記問題点を鑑みてなされたものであり、色再現性が異なる複数の撮像素子を用いて撮像された複数の画像から、色再現性の高い高解像度の画像を生成することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to generate a high-resolution image with high color reproducibility from a plurality of images captured using a plurality of image sensors with different color reproducibility. and

上記目的を達成するために、本発明の画像処理装置は、複数の撮像手段により同じ被写体を撮像して得られた、第1の解像度と第1の色再現性とを有する第1の画像と、前記第1の解像度よりも低い第2の解像度と前記第1の色再現性よりも高い第2の色再現性とを有する第2の画像を取得する取得手段と、前記第1の画像と前記第2の画像とを、前記第1の画像および前記第2の画像から求めた明るさと周波数成分とに応じた合成比率で合成して、合成画像を生成する合成手段と、を有し、前記明るさが第1の明るさの場合に、前記第1の明るさよりも明るい第2の明るさの場合よりも、前記第2の画像の色成分の合成比率を高くすることを特徴とする。 In order to achieve the above object, an image processing apparatus of the present invention provides a first image having a first resolution and a first color reproducibility obtained by imaging the same subject with a plurality of imaging means; an acquisition means for acquiring a second image having a second resolution lower than the first resolution and a second color reproducibility higher than the first color reproducibility; and the first image; synthesizing means for synthesizing the second image and the second image at a synthesis ratio according to the brightness and frequency components obtained from the first image and the second image to generate a synthesized image; When the brightness is the first brightness, a synthesis ratio of the color components of the second image is set higher than when the brightness is the second brightness, which is brighter than the first brightness. .

以上の構成からなる本発明によれば、色再現性が異なる複数の撮像素子を用いて撮像された複数の画像から、色再現性の高い高解像度の画像を生成することができる。 According to the present invention configured as described above, a high-resolution image with high color reproducibility can be generated from a plurality of images captured using a plurality of imaging elements with different color reproducibility.

実施形態における撮像装置の概略機能構成を示すブロック図。1 is a block diagram showing a schematic functional configuration of an imaging device according to an embodiment; FIG. 第1の実施形態における画像処理部の一部構成及び処理を示すブロック図。FIG. 2 is a block diagram showing a partial configuration and processing of an image processing unit according to the first embodiment; 第1の実施形態における画像処理部における画像合成処理の流れを示すフローチャート。4 is a flowchart showing the flow of image synthesizing processing in an image processing unit according to the first embodiment; 第1の実施形態における色成分の合成比率の説明図。FIG. 4 is an explanatory diagram of a synthesis ratio of color components according to the first embodiment; 第2の実施形態における画像処理部の一部構成及び処理を示すブロック図。FIG. 8 is a block diagram showing the partial configuration and processing of an image processing unit according to the second embodiment; 第3の実施形態における画像処理部の一部構成及び処理を示すブロック図。FIG. 11 is a block diagram showing the partial configuration and processing of an image processing unit according to the third embodiment;

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

<第1の実施形態>
制御部101は、例えばCPUであり、撮像装置100が備える各ブロックの動作プログラムをROM102より読み出し、RAM103に展開して実行することにより、撮像装置100が備える各ブロックの動作を制御する。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
<First Embodiment>
The control unit 101 is, for example, a CPU, and controls the operation of each block included in the image capturing apparatus 100 by reading an operation program for each block included in the image capturing apparatus 100 from the ROM 102, developing it in the RAM 103, and executing it. The ROM 102 is an electrically erasable/recordable non-volatile memory, and stores an operation program for each block included in the imaging apparatus 100 as well as parameters required for the operation of each block. A RAM 103 is a rewritable volatile memory, and is used as a temporary storage area for data output during operation of each block of the imaging apparatus 100 .

撮像部104-1、104-2は、それぞれレンズ等の光学系や撮像素子を含み、各撮像素子に同じ被写体像が結像されるように各光学系が構成されている。撮像部104-1は、入射した光を光電変換して電荷を蓄積し、電荷に応じた電気信号に対してA/D変換を行って画像信号を取得する。本実施形態では、撮像部104-1の撮像素子はCMOSセンサとするが、CCD(Charge Coupled Device)センサ等でもよい。撮像部104-2の撮像素子は、撮像部104-1の撮像素子よりも低解像度だが低照度の色再現性に優れたものとする。本実施形態では、入射した光子の数を計数して画像信号を取得するSPADセンサとするが、低照度の色再現性に優れた他の方式の撮像センサでもよい。撮像部104-1で撮影された第1の画像(以下、便宜的に「CMOS画像」と呼ぶ。)、及び、撮像部104-2で撮影された第2の画像(以下、便宜的に「SPAD画像」と呼ぶ。)は、RAM103に出力され、一時的に記憶される。なお、CMOS画像及びSPAD画像は、いずれもベイヤ―配列の色情報を有する画像とする。 The imaging units 104-1 and 104-2 each include an optical system such as a lens and an imaging element, and each optical system is configured so that the same subject image is formed on each imaging element. The imaging unit 104-1 photoelectrically converts incident light to accumulate charges, and performs A/D conversion on electrical signals corresponding to the charges to obtain image signals. In this embodiment, the imaging device of the imaging unit 104-1 is a CMOS sensor, but may be a CCD (Charge Coupled Device) sensor or the like. It is assumed that the imaging device of the imaging unit 104-2 has lower resolution than the imaging device of the imaging unit 104-1 but has excellent color reproducibility at low illuminance. In the present embodiment, the SPAD sensor that counts the number of incident photons and obtains an image signal is used, but another type of imaging sensor that is excellent in color reproducibility at low illuminance may be used. A first image captured by the imaging unit 104-1 (hereinafter referred to as a “CMOS image” for convenience) and a second image captured by the imaging unit 104-2 (hereinafter referred to as a “ "SPAD image") is output to the RAM 103 and temporarily stored. Note that both the CMOS image and the SPAD image are images having Bayer array color information.

画像処理部105は、RAM103に記憶されているCMOS画像とSPAD画像に対して、デモザイクやホワイトバランス等の現像処理、色輝度変換、CMOS画像とSPAD画像の合成等、様々な画像処理を適用する。 The image processing unit 105 applies various image processing to the CMOS image and SPAD image stored in the RAM 103, such as development processing such as demosaicing and white balance, color luminance conversion, and synthesis of the CMOS image and the SPAD image. .

記録部106は、着脱可能なメモリカード等であり、画像処理部105で処理された画像が、RAM103を介して、記録画像として記録される。
表示部107は、LCD等の表示デバイスであり、RAM103及び記録部106に記録した画像や、ユーザーからの指示を受け付けるための操作ユーザーインターフェイスを表示する。
The recording unit 106 is a detachable memory card or the like, and images processed by the image processing unit 105 are recorded as recording images via the RAM 103 .
A display unit 107 is a display device such as an LCD, and displays images recorded in the RAM 103 and the recording unit 106 and an operation user interface for receiving instructions from the user.

次に、第1の実施形態における画像処理部105で行われる画像合成処理について、図2のブロック図及び図3のフローチャートを参照しながら説明する。 Next, image synthesizing processing performed by the image processing unit 105 according to the first embodiment will be described with reference to the block diagram of FIG. 2 and the flowchart of FIG.

図2は、第1の実施形態の画像処理部105の一部構成及び処理を示すブロック図である。第1の実施形態の画像処理部105は、縮小部220,222~224、ノイズ低減部231~234、同階層色成分合成部243,244、エッジ検出部261~263、拡大部272~274、異階層色成分合成部281~283を備える。各部の機能は、図3のフローチャートを参照しながら後述する。 FIG. 2 is a block diagram showing a partial configuration and processing of the image processing unit 105 of the first embodiment. The image processing unit 105 of the first embodiment includes reduction units 220 and 222 to 224, noise reduction units 231 to 234, same layer color component synthesis units 243 and 244, edge detection units 261 to 263, enlargement units 272 to 274, Different layer color component synthesizing units 281 to 283 are provided. The function of each part will be described later with reference to the flowchart of FIG.

S301では、合成対象とする同時刻に撮像されたCMOS画像とSPAD画像のそれぞれについて、デモザイクを含む現像処理を行ってRGB画像を生成し、さらに色輝度変換を行うことでYUV画像を生成する。以下、輝度成分Yに対応する画像を輝度成分画像、色差成分U、Vに対応する画像を色成分画像と呼ぶ。 In S301, development processing including demosaicing is performed on each of the CMOS image and the SPAD image to be synthesized, which are captured at the same time, to generate an RGB image, and then color luminance conversion is performed to generate a YUV image. Hereinafter, an image corresponding to the luminance component Y will be called a luminance component image, and an image corresponding to the color difference components U and V will be called a color component image.

S302では、S301で生成した色成分画像について、図2に示すようにノイズ低減処理を複数の解像度で階層的に行うために、各階層用の縮小画像を生成する。 In S302, for the color component image generated in S301, a reduced image for each layer is generated in order to hierarchically perform noise reduction processing at a plurality of resolutions as shown in FIG.

一例として、CMOS画像の色成分画像(以下、「CMOS色成分画像」と呼ぶ。)201の解像度が6000×4000であるものとして、4つの解像度(階層)で階層処理を行う。まず縮小部222が、CMOS色成分画像201の解像度を基準として、1/2の解像度である3000×2000のCMOS色成分画像202をCMOS色成分画像201から生成する。次に縮小部223が、1/4の解像度である1500×1000のCMOS色成分画像203をCMOS色成分画像202から、さらに縮小部224が、1/8の解像度である750×500のCMOS色成分画像204をCMOS色成分画像203から生成する。これにより、CMOS色成分画像を段階的に4つの階層に階層化する。 As an example, assuming that the resolution of a color component image of a CMOS image (hereinafter referred to as "CMOS color component image") 201 is 6000×4000, hierarchical processing is performed at four resolutions (hierarchies). First, the reduction unit 222 generates a CMOS color component image 202 of 3000×2000, which is half the resolution of the CMOS color component image 201 , from the CMOS color component image 201 . Next, the reduction unit 223 converts the 1/4 resolution 1500×1000 CMOS color component image 203 from the CMOS color component image 202, and the reduction unit 224 further converts the 1/8 resolution 750×500 CMOS color component image 203 into 1/8 resolution. A component image 204 is generated from the CMOS color component image 203 . As a result, the CMOS color component image is hierarchized into four hierarchies step by step.

一方、SPAD画像の色成分画像(以下、「SPAD色成分画像」と呼ぶ。)210の解像度が、CMOS色成分画像201の解像度より低い1800×1200であるものとする。その場合、色成分情報の有効性を考えて、本実施形態ではこの解像度以下の階層でのみSPAD画像の色成分情報を用いる。ここでは、まず縮小部220が、CMOS色成分画像201の1/4の解像度である、1500×1000のSPAD色成分画像213をSPAD色成分画像210から生成する。次に縮小部224が、CMOS色成分画像201の1/8の解像度である、750×500のSPAD色成分画像214をSPAD色成分画像213から生成する。これにより、SPAD色成分画像を段階的に2つの階層に階層化する。 On the other hand, it is assumed that the resolution of the color component image of the SPAD image (hereinafter referred to as “SPAD color component image”) 210 is 1800×1200, which is lower than the resolution of the CMOS color component image 201 . In that case, considering the effectiveness of the color component information, in this embodiment, the color component information of the SPAD image is used only in the layers below this resolution. Here, first, the reduction unit 220 generates a SPAD color component image 213 of 1500×1000, which is 1/4 the resolution of the CMOS color component image 201, from the SPAD color component image 210. FIG. Next, the reduction unit 224 generates from the SPAD color component image 213 a 750×500 SPAD color component image 214 that is ⅛ the resolution of the CMOS color component image 201 . As a result, the SPAD color component image is layered into two layers step by step.

次に、S303において、まず、最も低い1/8の解像度である第4階層において、ノイズ低減部234が、CMOS色成分画像204のノイズ低減を行う。ノイズ低減には、例えば、エッジ保存型のバイラテラルフィルタ等を用いる。エッジ保存型のバイラテラルフィルタエッジ保存型のバイラテラルフィルタは、縮小画像を用いる階層処理ではフィルタの実質的な参照範囲を広げるという効果がある。なお、一般に、撮像感度が高いほどノイズ低減の強度が強くなるように、ノイズ低減フィルタのパラメータ(カーネルサイズやガウス分布のσ等)を設定する。 Next, in S303, first, the noise reduction unit 234 performs noise reduction on the CMOS color component image 204 in the fourth layer, which is the lowest ⅛ resolution. For noise reduction, for example, an edge-preserving bilateral filter or the like is used. Edge Preserving Bilateral Filter The edge preserving bilateral filter has the effect of widening the effective reference range of the filter in hierarchical processing using reduced images. In general, the parameters of the noise reduction filter (kernel size, σ of Gaussian distribution, etc.) are set so that the noise reduction strength increases as the imaging sensitivity increases.

S304では、処理中の階層にSPAD色成分画像があるかを判定する。第4階層にはS302で生成したSPAD色成分画像214があるため、S305に進む。S305では、ノイズ低減部234が、S303と同様にSPAD色成分画像214のノイズ低減を行う。 In S304, it is determined whether there is a SPAD color component image in the layer being processed. Since the fourth layer contains the SPAD color component image 214 generated in S302, the process proceeds to S305. In S305, the noise reduction unit 234 performs noise reduction on the SPAD color component image 214 as in S303.

S306では、同階層色成分合成部244が、S303とS305でノイズ低減を行った同じ第4階層のCMOS色成分画像204とSPAD色成分画像214の合成比率を算出する。 In S306, the same layer color component synthesizing unit 244 calculates the synthesis ratio of the CMOS color component image 204 and the SPAD color component image 214 of the same fourth layer that have undergone noise reduction in S303 and S305.

このとき、低照度であるほど、低照度色再現性に優れたSPAD色成分の合成比率を大きくする。ここでは、低照度であるほど、色再現性の違いによってCMOS色成分とSPAD色成分との差(絶対差)が大きくなるため、色成分の差が大きいほどSPAD色成分の合成比率αを大きくする。一例として、図4(a)に示すように、色成分の差が閾値thα0以下であればα=0、閾値thα1以上であればα=1、その間は線形に増加するようにしてもよい。なお、撮像感度が低いほど、また縮小で小さくなる下階層ほど、ノイズレベルが低く色成分の差も小さくなると考えて、これらの閾値thα0,閾値thα1を小さくするようにしてもよい。 At this time, the lower the illuminance, the greater the composition ratio of the SPAD color component, which has excellent low-illuminance color reproducibility. Here, the lower the illuminance, the greater the difference (absolute difference) between the CMOS color components and the SPAD color components due to the difference in color reproducibility. do. As an example, as shown in FIG. 4A, α=0 if the color component difference is equal to or less than the threshold thα0, and α=1 if the difference is equal to or greater than the threshold thα1, and linearly increases in between. Note that the lower the imaging sensitivity is, the lower the noise level is, and the smaller the difference in color components is. Therefore, the thresholds thα0 and thα1 may be decreased.

また、合成比率αは画素ごとに算出してもよいし、画像全体の平均を取って、画像全体で同じ合成比率としてもよい。また、色成分の差について、例えば色成分の和で割ることで正規化を行ってもよい。 Further, the composite ratio α may be calculated for each pixel, or may be the same composite ratio for the entire image by taking the average of the entire image. Also, the difference between the color components may be normalized by, for example, dividing by the sum of the color components.

また、色成分の差を取るとき、CMOS色成分とSPAD色成分の残留ノイズレベルが同程度となっているように、S303とS305におけるノイズ低減フィルタのパラメータを設定してもよい。例えば、SPADセンサの低ノイズ特性から、CMOS色成分に対するS303におけるノイズ低減強度をより強くする。 Further, the parameters of the noise reduction filters in S303 and S305 may be set so that the residual noise levels of the CMOS color components and the SPAD color components are approximately the same when the difference between the color components is taken. For example, due to the low noise characteristics of the SPAD sensor, the noise reduction strength in S303 for CMOS color components is increased.

S307では、S306で算出した合成比率αを用いて、同階層色成分合成部244が、ノイズ低減を行った同じ第4階層のCMOS色成分画像204とSPAD色成分画像214を合成した色成分階層画像254を、式(1)に従って生成する。 In S307, using the synthesis ratio α calculated in S306, the same-hierarchy color component synthesizing unit 244 synthesizes the noise-reduced CMOS color component image 204 and the SPAD color component image 214 of the same fourth hierarchy to create a color component hierarchy. Image 254 is generated according to equation (1).

色成分階層画像
=(1-α)×CMOS色成分画像+α×SPAD色成分画像 …(1)
Color component hierarchical image = (1-α) x CMOS color component image + α x SPAD color component image (1)

S308では、処理中の階層が最下位階層であるかを判定する。第4階層は最下位階層であるため、S312に進む。S312では、処理中の階層が最上位階層であるかを判定する。第4階層は最上位階層ではないため、S313に進む。 In S308, it is determined whether the hierarchy being processed is the lowest hierarchy. Since the fourth hierarchy is the lowest hierarchy, the process proceeds to S312. In S312, it is determined whether the layer being processed is the highest layer. Since the fourth layer is not the highest layer, the process proceeds to S313.

S313では、拡大部274が、入力されてくる1/8解像度(750×500)の色成分階層画像254を、一つ上の第3階層の解像度である1/4解像度(1500×1000)まで拡大した色成分階層画像254’を生成して出力する。ここで、拡大処理には、例えば、バイリニア補間等を用いることができる。 In S313, the enlarging unit 274 expands the input 1/8 resolution (750×500) color component layer image 254 to 1/4 resolution (1500×1000), which is the resolution of the third layer one level higher. An enlarged color component layered image 254' is generated and output. Here, for example, bilinear interpolation or the like can be used for the enlargement processing.

以上のようにして第4階層の処理を終えると、S303に戻り、続いて1階層高い1/4解像度の第3階層の処理を行う。 After finishing the processing of the fourth layer as described above, the process returns to S303, and then the processing of the third layer of 1/4 resolution, which is one layer higher, is performed.

S303~S307の処理は、上述した第4階層時の処理と同様であり、ノイズ低減部233がCMOS色成分画像203とSPAD色成分画像213のノイズ低減を行い、同階層色成分合成部243がこれらの画像を合成して色成分階層画像253を生成する。 The processing of S303 to S307 is the same as the processing for the fourth layer described above, the noise reduction unit 233 performs noise reduction on the CMOS color component image 203 and the SPAD color component image 213, and the same layer color component synthesizing unit 243 A color component hierarchical image 253 is generated by synthesizing these images.

S308において、処理中の階層が最下位階層であるかを判定する。第3階層は最下位階層ではないため、S309に進む。 In S308, it is determined whether the hierarchy being processed is the lowest hierarchy. Since the third hierarchy is not the lowest hierarchy, the process proceeds to S309.

S309では、エッジ検出部263が、入力されてくる色成分階層画像253のエッジ検出を行う。エッジ検出には、ソーベルフィルタやラプラシアンフィルタ等、任意のエッジ検出フィルタを用いることができる。 In S<b>309 , the edge detection unit 263 performs edge detection on the input color component hierarchical image 253 . An arbitrary edge detection filter such as a Sobel filter or a Laplacian filter can be used for edge detection.

S310では、異階層色成分合成部283が、S309のエッジ検出結果から、第3階層の色成分階層画像253と、一つ下の第4階層からの色成分階層画像254’との合成比率を算出する。 In S310, the different layer color component synthesizing unit 283 calculates the synthesizing ratio of the color component layer image 253 of the third layer and the color component layer image 254' from the fourth layer one level below from the edge detection result of S309. calculate.

このとき、処理中の階層の色成分のエッジ量(例えば、エッジ検出フィルタの適用結果の絶対値)が大きいほど、処理中の階層の色成分階層画像253の合成比率βを大きくする。これは、エッジ量が大きいほど、画像に含まれている被写体が高周波成分(予め決められた周波数よりも高い周波数成分)をより多く含む被写体である可能性が高いためであり、高周波成分が多い場合には、解像度を優先させた方が良いと考えらえるためである。一例として図4(b)のように、処理中の階層の色成分階層画像のエッジ量が閾値thβ0以下であればβ=0、閾値thβ1以上であればβ=1、その間は線形に増加するようにしてもよい。 At this time, the larger the edge amount (for example, the absolute value of the application result of the edge detection filter) of the color component of the layer under processing, the larger the composition ratio β of the color component layer image 253 of the layer under processing. This is because the larger the edge amount, the higher the possibility that the subject included in the image is a subject that includes more high-frequency components (frequency components higher than a predetermined frequency). This is because it is considered that priority should be given to resolution in some cases. As an example, as shown in FIG. 4B, if the edge amount of the color component layer image in the layer being processed is equal to or less than the threshold thβ0, β=0, and if it is equal to or more than the threshold thβ1, β=1, and increases linearly in between. You may do so.

S311では、S310で算出した合成比率βを用いて、異階層色成分合成部283が、処理中の第3階層の色成分階層画像253と、一つ下の第4階層からの色成分階層画像254’とを合成し、色成分階層画像293を式(2)に従って生成する。 In S311, using the synthesis ratio β calculated in S310, the different layer color component synthesis unit 283 combines the color component layer image 253 of the third layer under processing and the color component layer image from the fourth layer one level below. 254' to generate a color component layered image 293 according to equation (2).

色成分階層画像
=β×処理中の階層の色成分階層画像+(1-β)×一階層下の色成分階層画像
…(2)
Color component layer image = β x Color component layer image of layer being processed + (1-β) x Color component layer image one layer below
…(2)

このとき、エッジ量が多い(βが大きい)場合は、より解像度が高い処理中の階層の合成比率が大きくなるため、解像感が維持される。また、エッジ量が少ない(βが小さい)場合は、より解像度が低い一つ下の階層からの合成比率が大きくなるため、ノイズ低減効果が高くなる。 At this time, when the amount of edges is large (β is large), the composition ratio of the layer being processed with higher resolution increases, so that the sense of resolution is maintained. Also, when the edge amount is small (β is small), the synthesis ratio from the lower layer with lower resolution increases, so the noise reduction effect increases.

S312では、現階層が最上位階層であるかを判定し、第3階層は最上位階層ではないため、S313に進む。 In S312, it is determined whether the current hierarchy is the highest hierarchy, and since the third hierarchy is not the highest hierarchy, the process proceeds to S313.

S313では、拡大部273が、入力されてくる1/4解像度(1500×1000)の色成分階層画像293から、一つ上の第2階層の解像度である1/2解像度(3000×2000)まで拡大した色成分階層画像293’を生成して出力する。 In S313, the enlarging unit 273 enlarges the color component layer image 293 from the input 1/4 resolution (1500×1000) to 1/2 resolution (3000×2000), which is the resolution of the second layer one level above. An enlarged color component hierarchical image 293' is generated and output.

以上のようにして第3階層の処理を終えるとS303に戻り、続いて1/2解像度の第2階層の処理を行う。 When the processing of the third hierarchy is completed as described above, the process returns to S303, and then the processing of the second hierarchy of 1/2 resolution is performed.

S303では、ノイズ低減部232が、CMOS色成分画像202のノイズ低減を行う。S304では、現階層にSPAD色成分画像があるかを判定し、第2階層にはSPAD色成分画像がないため、S309に進む。 In S<b>303 , the noise reduction unit 232 performs noise reduction on the CMOS color component image 202 . In S304, it is determined whether there is a SPAD color component image in the current layer, and since there is no SPAD color component image in the second layer, the process proceeds to S309.

S309では、エッジ検出部262が、S303でノイズ低減を行ったCMOS色成分画像202のエッジ検出を行う。 In S309, the edge detection unit 262 performs edge detection of the CMOS color component image 202 that has undergone noise reduction in S303.

S310~S313は、上述した第3階層時の処理と同様である。異階層色成分合成部282は、ノイズ低減部233でノイズ低減された第2階層のCMOS色成分画像202と、一つ下の第3階層からの色成分階層画像293’を、S309のエッジ検出結果を用いて合成し、色成分階層画像292を生成する。 S310 to S313 are the same as the processing for the third hierarchy described above. The different layer color component synthesizing unit 282 combines the second layer CMOS color component image 202 noise-reduced by the noise reduction unit 233 and the color component layer image 293′ from the third layer one level below, through edge detection in S309. The results are used to synthesize and generate a color component layered image 292 .

そして、拡大部272が、入力されてくる1/2解像度(3000×2000)の色成分階層画像292を、一つ上の第1階層の解像度(6000×4000)まで拡大した色成分階層画像292’を生成して出力する。 Then, the enlarging unit 272 enlarges the input color component hierarchical image 292 of 1/2 resolution (3000×2000) to the first hierarchical resolution (6000×4000), which is one level higher. ' is generated and output.

以上のようにして第2階層の処理を終えるとS303に戻り、続いて第1階層の処理を行う。 After finishing the processing of the second layer as described above, the process returns to S303, and then the processing of the first layer is performed.

S303~S311は、上述した第2階層時の処理と同様である。異階層色成分合成部281は、ノイズ低減部231でノイズ低減された第1階層のCMOS色成分画像201と、一つ下の第2階層からの色成分階層画像292’を、エッジ検出部261のエッジ検出結果を用いて合成し、色成分合成画像291を生成する。 S303 to S311 are the same as the processing for the second layer described above. The different layer color component synthesizing unit 281 combines the CMOS color component image 201 of the first layer whose noise has been reduced by the noise reduction unit 231 and the color component layer image 292' from the second layer one level below to the edge detection unit 261. are synthesized using the edge detection results of , and a color component synthesized image 291 is generated.

S312では、処理中の階層が最上位階層であるかを判定する。第1階層は最上位階層であるため、S314に進む。 In S312, it is determined whether the layer being processed is the highest layer. Since the first hierarchy is the highest hierarchy, the process proceeds to S314.

S314では、色成分合成画像291を同じ解像度(6000×4000)の輝度成分画像と結合する。ここで、結合する輝度成分画像はCMOS輝度成分画像でもよいし、色成分と同様にCMOS輝度成分とSPAD輝度成分の階層合成処理を行って生成した輝度成分合成画像でもよい。 In S314, the color component composite image 291 is combined with the luminance component image of the same resolution (6000×4000). Here, the luminance component image to be combined may be a CMOS luminance component image, or may be a luminance component synthetic image generated by performing hierarchical composition processing of CMOS luminance components and SPAD luminance components in the same manner as the color components.

なお、縮小画像を用いて複数の解像度で階層的に処理を行うことは、周波数帯域別に処理を行っていると考えることもできる。そこで、CMOS画像の解像度でCMOS色成分画像及びSPAD色成分画像を周波数変換し、周波数領域でより細かく周波数別にCMOS色成分とSPAD色成分を合成するようにしてもよい。 Hierarchical processing at a plurality of resolutions using reduced images can also be considered as processing for each frequency band. Therefore, the CMOS color component image and the SPAD color component image may be frequency-converted at the resolution of the CMOS image, and the CMOS color component and the SPAD color component may be combined more finely by frequency in the frequency domain.

図4(c)は、このような場合のCMOS色成分画像とSPAD色成分画像の合成比率のイメージを示したものであり、周波数(階層処理の階層に対応)及び、同じ周波数帯域のCMOS色成分画像の色成分とSPAD色成分画像の色成分との差(照度に対応)を軸に取っている。図4(c)は、周波数が高い(上階層)ほど、また色成分の差が小さい(高照度)ほど、CMOS色成分画像の合成比率が大きく、逆に周波数が低い(下階層)ほど、また色成分の差が大きい(低照度)ほど、SPAD色成分画像の合成比率が大きいことを示している。 FIG. 4(c) shows an image of the composition ratio of the CMOS color component image and the SPAD color component image in such a case. The difference (corresponding to illuminance) between the color component of the component image and the color component of the SPAD color component image is taken as the axis. In FIG. 4C, the higher the frequency (upper hierarchy) and the smaller the difference in color components (high illuminance), the higher the composition ratio of the CMOS color component image. Also, the larger the color component difference (low illuminance), the larger the composition ratio of the SPAD color component image.

上記の通り第1の実施形態によれば、高解像度の画像の色成分画像と、低解像度だが低照度色再現に優れた画像の色成分画像を、解像度の違いを考慮して合成することで、低照度の色再現性と高解像度を両立することができる。 As described above, according to the first embodiment, a color component image of a high-resolution image and a color component image of a low-resolution image excellent in low-illumination color reproduction are combined in consideration of the difference in resolution. , it is possible to achieve both low-illuminance color reproducibility and high resolution.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
上述した第1の実施形態における図2に示す例では、4つの階層のうち、第3階層以下の解像度でのみSPAD画像の色成分を用いることができた。しかし色再現が重要なシーン等、より上の階層(周波数)までSPAD画像の色成分を使えるようにしたいケースもあると考えられる。
<Second embodiment>
Next, a second embodiment of the invention will be described.
In the example shown in FIG. 2 in the first embodiment described above, it was possible to use the color components of the SPAD image only at the resolutions of the third hierarchy and below among the four hierarchies. However, there may be cases where it is desirable to use the color components of the SPAD image up to a higher layer (frequency), such as a scene where color reproduction is important.

ここで、SPADセンサには、高速応答という利点があるため、CMOS画像を1枚撮像する間に、複数のSPAD画像を撮像することも可能である。そこで本実施形態では、複数のSPAD色成分画像を合成して解像度を上げることで、より上の階層までSPAD画像の色成分を使いたいケースに対応できるようにする。 Here, since the SPAD sensor has the advantage of high-speed response, it is possible to capture a plurality of SPAD images while capturing one CMOS image. Therefore, in the present embodiment, a plurality of SPAD color component images are combined to increase the resolution, so that it is possible to cope with a case where it is desired to use the color components of the SPAD images in higher layers.

図5は、第2の実施形態の画像処理部105の一部構成及び処理を示すブロック図である。図2に示す第1の実施形態の画像処理部105との違いは、解像度決定部501、超解像部502、同階層色成分合成部542を更に備えることである。なお、第1の実施形態と同様の部分については同じ参照番号を付し、適宜説明を省略する。 FIG. 5 is a block diagram showing a partial configuration and processing of the image processing unit 105 of the second embodiment. A difference from the image processing unit 105 of the first embodiment shown in FIG. In addition, the same reference numbers are given to the same parts as in the first embodiment, and the description thereof will be omitted as appropriate.

解像度決定部501は、より上の階層までSPAD色成分画像を使いたいケースであるかを判定し、SPAD色成分画像の解像度を決定する。 The resolution determination unit 501 determines whether the SPAD color component image is to be used up to a higher layer, and determines the resolution of the SPAD color component image.

具体的には、例えば、SPAD画像(RGB画像)から画像の平均的な彩度を算出し、彩度が高いほど色再現がより重要なシーンであると考え、より上の階層までSPAD色成分画像を使いたいケースであると判定する。なお、CMOS画像から彩度を算出してもよい。 Specifically, for example, the average saturation of an image is calculated from a SPAD image (RGB image), and the higher the saturation, the more important the color reproduction is considered to be in a scene. It is determined that it is a case where you want to use an image. Note that the saturation may be calculated from the CMOS image.

また、CMOS画像から人物等の被写体を検出し、被写体の画素数が少ないほど、解像度の面で被写体の情報が限定されるため、色情報をより良くしたいと考えられるため、より上の階層までSPAD色成分画像を使いたいケースであると判定してもよい。 In addition, when an object such as a person is detected from a CMOS image, the smaller the number of pixels of the object, the more limited the information of the object in terms of resolution. It may be determined that it is a case in which the user wants to use the SPAD color component image.

また、被写体の動き量(動きボケ)が大きいほど、高速応答の点でSPADセンサが有利であるとして、より上の階層までSPAD色成分画像を使いたいケースであると判定してもよい。 Further, it may be determined that the SPAD sensor is more advantageous in terms of high-speed response as the motion amount (motion blur) of the subject increases, and that the SPAD color component image is desired to be used in higher layers.

また、色成分の階層処理の過程で判定することも可能である。例えば、同階層色成分合成部243,244においてCMOS色成分画像とSPAD色成分画像との差が大きいほど、より上の階層のCMOS色成分画像もあまり良くないと予想される。その場合に、より上の階層までSPAD色成分画像を使いたいケースであると判定してもよい。特に、より上の階層のCMOS色成分画像が大きいほど、より上の階層までSPAD色成分画像を使うことが望ましいと考えられる。 It is also possible to make the determination in the process of hierarchical processing of color components. For example, the larger the difference between the CMOS color component image and the SPAD color component image in the same layer color component synthesizing units 243 and 244, the lower the quality of the CMOS color component image in the upper layer is expected. In that case, it may be determined that the SPAD color component image is desired to be used up to a higher layer. In particular, the larger the CMOS color component image in the higher hierarchy, the more desirable it is to use the SPAD color component image up to the higher hierarchy.

解像度決定部501は、より上の階層までSPAD色成分画像を使いたいケースであると判定したとき、SPAD色成分画像を使用する解像度を、例えば第2階層の解像度である3000×2000のように決定する。なお、判定内容によって、より上の階層の解像度に決定してもよい。 When the resolution determination unit 501 determines that the SPAD color component image is to be used up to the upper layer, the resolution for using the SPAD color component image is set to, for example, 3000×2000, which is the resolution of the second layer. decide. It should be noted that the resolution of a higher layer may be determined depending on the content of determination.

超解像部502は、複数枚のSPAD色成分画像から、解像度決定部501で決定した解像度のSPAD色成分画像を生成する。ここでは具体的に、解像度1800×1200のN枚のSPAD色成分画像510-1~510-Nから、第2階層の解像度3000×2000の合成SPAD色成分画像512を生成する。 A super-resolution unit 502 generates a SPAD color component image having the resolution determined by the resolution determination unit 501 from a plurality of SPAD color component images. Here, specifically, from N SPAD color component images 510-1 to 510-N with a resolution of 1800×1200, a composite SPAD color component image 512 with a resolution of 3000×2000 in the second layer is generated.

複数の画像を合成する超解像処理は、一般に位置合わせ処理と再構成処理で構成され、位置合わせ処理には特徴点マッチングや射影変換モデル、再構成処理にはMAP(Maximum A Posteriori)法やIBP(Iterative Back Projection)法等を用いることができる。 Super-resolution processing, which synthesizes multiple images, generally consists of registration processing and reconstruction processing. An IBP (Iterative Back Projection) method or the like can be used.

超解像に用いるSPAD色成分画像の枚数Nは、1枚のCMOS画像を撮影する間に撮影可能なSPAD画像の枚数M以下で、合成後の解像度の画素数を元の解像度の画素数で割ることにより算出する。例えば、解像度1800×1200のSPAD色成分画像から、第2階層のSPAD色成分画像を生成する場合、3000×2000/(1800×1200)≒2.8を切り上げ、N=3と決定する。 The number N of SPAD color component images used for super-resolution is equal to or less than the number M of SPAD images that can be captured while capturing one CMOS image. Calculated by dividing. For example, when generating a second layer SPAD color component image from a SPAD color component image with a resolution of 1800×1200, round up 3000×2000/(1800×1200)≈2.8 and determine N=3.

N<Mの場合、超解像に使用するSPAD色成分画像を選択する。このとき、単純に先頭N枚としてもよいし、SPAD画像で発生しやすい、アバランシェ発光のクロストークによるクラスタキズが目立たないように選択してもよい。 If N<M, select the SPAD color component image to be used for super-resolution. At this time, it may simply be the top N sheets, or it may be selected so that the cluster flaw due to crosstalk of avalanche light emission, which tends to occur in the SPAD image, is not conspicuous.

例えば、クラスタキズ(所定サイズ以上のキズ画素)が画像のエッジ部に重なると、キズ補正を行っても補正痕が目立つため、エッジ部に重なるクラスタキズが少ない(なるべくクラスタキズが目立たない平坦部に来る)画像を選択する。なお、クラスタキズの位置情報は予め持っているものとする。 For example, if cluster scratches (defective pixels of a predetermined size or larger) overlap the edge of the image, the correction mark will be noticeable even if the scratch correction is performed. ) to select an image. It is assumed that positional information of cluster flaws is already provided.

また、複数枚のSPAD色成分画像を位置合わせして合成する際、各画像のクラスタキズ部分を用いないようにすることで、生成される超解像SPAD色成分画像でクラスタキズが消えていることが期待できる。このとき、位置合わせした状態において全画像でクラスタキズになるような部分が生じないよう、複数のSPAD色成分画像を選択するとよい。 In addition, when aligning and synthesizing a plurality of SPAD color component images, cluster flaws are eliminated in the generated super-resolution SPAD color component image by not using the cluster flawed portions of each image. can be expected. At this time, it is preferable to select a plurality of SPAD color component images so as not to cause cluster flaws in all images in the aligned state.

超解像部502で合成SPAD色成分画像512を生成した後の階層処理については、図3のフローチャートと同様であるが、第2階層の合成SPAD色成分画像512が生成されたことで、第2階層の処理は第3階層と同様になる。 The layer processing after the super-resolution unit 502 generates the synthesized SPAD color component image 512 is the same as the flowchart in FIG. The processing of the 2nd layer is the same as that of the 3rd layer.

すなわち、ノイズ低減部232がCMOS色成分画像202と合成SPAD色成分画像512のノイズ低減を行い、同階層色成分合成部542がこれらの画像を合成して色成分階層画像552を生成する。さらに異階層色成分合成部282が、色成分階層画像552と一つ下の第3階層からの色成分階層画像293’を、エッジ検出部262による色成分階層画像552のエッジ検出結果を用いて合成し、色成分階層画像592を生成する。また拡大部272が、入力されてくる1/2解像度(3000×2000)の色成分階層画像592を、一つ上の第1階層の解像度(6000×4000)まで拡大した色成分階層画像592’を生成して出力する。 That is, the noise reduction unit 232 performs noise reduction on the CMOS color component image 202 and the combined SPAD color component image 512 , and the same layer color component combining unit 542 combines these images to generate the color component layer image 552 . Further, the different layer color component synthesizing unit 282 combines the color component layer image 552 and the color component layer image 293' from the third layer one level below using the edge detection result of the color component layer image 552 by the edge detection unit 262. By synthesizing, a color component hierarchical image 592 is generated. Further, the enlarging unit 272 expands the input color component hierarchical image 592 of 1/2 resolution (3000×2000) to the first hierarchical resolution (6000×4000), which is one level higher, to obtain a color component hierarchical image 592′. is generated and output.

第1階層の異階層色成分合成部281では、ノイズ低減部231でノイズ低減されたCMOS色成分画像201と、一つ下の第2階層からの色成分階層画像592’を、エッジ検出部261のエッジ検出結果を用いて合成し、色成分階層画像591を生成する。 In the different layer color component synthesizing unit 281 of the first layer, the CMOS color component image 201 noise-reduced by the noise reduction unit 231 and the color component layer image 592' from the second layer one level below are combined with the edge detection unit 261. are combined using the edge detection results to generate a color component hierarchical image 591 .

本実施形態では、第2階層でもSPAD色成分画像を使えるようにしたことで、色成分階層画像592、592’、591はそれぞれ第1の実施形態の色成分階層画像292、292’、291よりSPAD画像の色成分が多くなっているため、色再現性が向上する。 In this embodiment, the SPAD color component images can be used even in the second layer, so that the color component layer images 592, 592', and 591 are obtained from the color component layer images 292, 292', and 291 of the first embodiment, respectively. Since the SPAD image has many color components, the color reproducibility is improved.

以上説明したように第2の実施形態によれば、複数枚のSPAD色成分画像を超解像処理して解像度を上げることで、より上の階層までSPAD色成分画像を使用することが可能になる。 As described above, according to the second embodiment, a plurality of SPAD color component images are subjected to super-resolution processing to increase the resolution, making it possible to use the SPAD color component images in higher layers. Become.

なお、複数枚の画像ではなく、1枚の画像から超解像処理を行ってもよい。その場合、バイリニア補間等の古典的な拡大処理ではなく、ディープラーニング等を用いた機学習による超解像処理を行ってもよい。 It should be noted that super-resolution processing may be performed from a single image instead of a plurality of images. In that case, super-resolution processing by machine learning using deep learning or the like may be performed instead of classical enlargement processing such as bilinear interpolation.

<第3実施形態>
次に、本発明の第3の実施形態について説明する。
第3の実施形態では、CMOS画像の現像後にCMOS画像の色成分をSPAD画像の色成分に近づけるような色変換を適用することで、その後のCMOS色成分画像とSPAD色成分画像の合成時における色のなじみをより良くし、色再現をさらに改善する。
<Third Embodiment>
Next, a third embodiment of the invention will be described.
In the third embodiment, by applying color conversion that brings the color components of the CMOS image closer to the color components of the SPAD image after the CMOS image is developed, Improves color familiarity and further improves color reproduction.

本第3の実施形態では、画像処理部105が色変換部600を含み、図6に示すように、色変換前CMOS画像601から色変換後CMOS画像602を生成する。そして、生成された色変換後CMOS画像602の色成分画像を、図2及び図5のCMOS色成分画像201として用いる。 In the third embodiment, the image processing unit 105 includes a color conversion unit 600, and generates a post-color conversion CMOS image 602 from a pre-color conversion CMOS image 601, as shown in FIG. Then, the generated color component image of the post-color conversion CMOS image 602 is used as the CMOS color component image 201 in FIGS.

色変換部600で適用する色変換は、例えば機械学習を利用した場合、以下のようにして行われる。
まず、学習用のCMOS画像群(解像度6000×4000)をSPAD画像の解像度(1800×1200)に合わせて縮小し、そこから小サイズ(例えば128×128)の学習用の画像パッチ群を抽出する。また、学習用のSPAD画像群(解像度1800×1200)から、教師画像パッチ群を抽出する。このとき、教師画像パッチにSPAD画像のクラスタキズが含まれないようパッチ抽出を行う。このような学習用の画像パッチ群及び教師画像パッチ群を用いて、ディープラーニング等により色変換モデルを学習することができる。
The color conversion applied by the color conversion unit 600 is performed as follows when machine learning is used, for example.
First, the CMOS image group for learning (resolution 6000×4000) is reduced to match the resolution of the SPAD image (1800×1200), and a small size (for example, 128×128) image patch group for learning is extracted therefrom. . Also, a teacher image patch group is extracted from the learning SPAD image group (resolution 1800×1200). At this time, patch extraction is performed so that cluster flaws of the SPAD image are not included in the teacher image patch. A color conversion model can be learned by deep learning or the like using such a group of image patches for learning and a group of teacher image patches.

また、マクベスチャート等を色のサンプルとして用い、CMOS側の色を入力、SPAD側の色を出力として、最小二乗法等により色変換マトリクスを算出することもできる。 It is also possible to use a Macbeth chart or the like as a color sample, use the colors on the CMOS side as inputs and the colors on the SPAD side as outputs, and calculate a color conversion matrix by the method of least squares or the like.

色変換後CMOS画像602と、SPAD画像との合成は、第1または第2の実施形態で説明したようにして行うことができるため、ここでは説明を省略する。 Synthesis of the color-converted CMOS image 602 and the SPAD image can be performed as described in the first or second embodiment, so description thereof is omitted here.

上記の通り第3の実施形態によれば、CMOS画像の色成分をSPAD画像の色成分に近づけるような色変換を行うことで、CMOS色成分画像とSPAD色成分画像のの合成における色再現をさらに改善することができる。 As described above, according to the third embodiment, by performing color conversion that brings the color components of the CMOS image closer to the color components of the SPAD image, color reproduction in combining the CMOS color component image and the SPAD color component image is improved. It can be improved further.

<他の実施形態>
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
Further, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device executes the program. It can also be realized by a process of reading and executing. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

100:撮像装置、101:制御部、102:ROM、103:RAM、104-1,104-2:撮像部、105:画像処理部、106:記録部、107:表示部、220,222~224:縮小部、231~234:ノイズ低減部、243,244,542:同階層色成分合成部、261~263:エッジ検出部、272~274:拡大部、281~283:異階層色成分合成部、501:解像度決定部、502:超解像部 100: imaging device, 101: control unit, 102: ROM, 103: RAM, 104-1, 104-2: imaging unit, 105: image processing unit, 106: recording unit, 107: display unit, 220, 222 to 224 243, 244, 542: same layer color component synthesizing unit 261 to 263: edge detecting unit 272 to 274: enlargement unit 281 to 283: different layer color component synthesizing unit , 501: resolution determination unit, 502: super-resolution unit

Claims (25)

複数の撮像手段により同じ被写体を撮像して得られた、第1の解像度と第1の色再現性とを有する第1の画像と、前記第1の解像度よりも低い第2の解像度と前記第1の色再現性よりも高い第2の色再現性とを有する第2の画像を取得する取得手段と、
前記第1の画像と前記第2の画像とを、前記第1の画像および前記第2の画像から求めた明るさと周波数成分とに応じた合成比率で合成して、合成画像を生成する合成手段と、を有し、
前記明るさが第1の明るさの場合に、前記第1の明るさよりも明るい第2の明るさの場合よりも、前記第2の画像の色成分の合成比率を高くすることを特徴とする画像処理装置。
a first image having a first resolution and a first color reproducibility obtained by imaging the same subject with a plurality of imaging means; a second resolution lower than the first resolution; acquisition means for acquiring a second image having a second color reproducibility higher than the first color reproducibility;
Synthesizing means for synthesizing the first image and the second image at a synthesis ratio according to the brightness and frequency components obtained from the first image and the second image to generate a synthesized image. and
When the brightness is the first brightness, a synthesis ratio of the color components of the second image is set higher than when the brightness is the second brightness, which is brighter than the first brightness. Image processing device.
前記合成手段は、
前記第1の画像の色成分を抽出し、得られた第1の色成分画像から、複数の階層の第1の階層画像を生成する第1の階層化手段と、
前記第2の画像の色成分を抽出し、得られた第2の色成分画像から、前記複数の階層のうち、少なくともいずれかの階層の第2の階層画像を生成する第2の階層化手段と、を有し、
前記第1の階層画像と前記第2の階層画像とから、前記複数の階層の各階層の第3の階層画像を生成し、
生成した前記複数の階層の前記第3の階層画像を、前記周波数成分に応じた各階層の合成比率で合成して、前記合成画像の色成分を生成し、
前記周波数成分のうち、予め決められた周波数よりも高い周波数成分の量が第1の量である場合に、前記第1の量よりも少ない第2の量である場合よりも、より上位の階層の前記第3の階層画像の合成比率を高くすることを特徴とする請求項1に記載の画像処理装置。
The synthesizing means is
first layering means for extracting color components of the first image and generating first layer images of a plurality of layers from the obtained first color component image;
second layering means for extracting color components of the second image and generating a second layer image of at least one of the plurality of layers from the obtained second color component image; and
generating a third layer image of each layer of the plurality of layers from the first layer image and the second layer image;
synthesizing the generated third layer images of the plurality of layers at a synthesis ratio of each layer according to the frequency component to generate a color component of the synthesized image;
When the amount of frequency components higher than a predetermined frequency among the frequency components is the first amount, the hierarchy is higher than the case where the amount is the second amount less than the first amount. 2. The image processing apparatus according to claim 1, wherein a composition ratio of said third layer image of is increased.
前記第3の階層画像は、同じ階層に前記第1の階層画像と前記第2の階層画像がある場合に、前記明るさに応じた合成比率で合成して生成し、同じ階層に前記第2の階層画像が無い場合に、前記第1の階層画像をそのまま用いることを特徴とする請求項2に記載の画像処理装置。 When the first layer image and the second layer image exist in the same layer, the third layer image is generated by synthesizing at a composition ratio according to the brightness, and the second layer image is generated in the same layer. 3. The image processing apparatus according to claim 2, wherein the first hierarchical image is used as it is when there is no hierarchical image. 前記第1の階層化手段は、前記第1の色成分画像を段階的に縮小することにより、解像度の異なる前記複数の階層の前記第1の階層画像を生成し、
前記第2の階層化手段は、前記第2の色成分画像を、前記複数の階層の解像度のうち、前記第2の色成分画像の解像度よりも低い、少なくともいずれかの解像度に縮小することにより、前記第2の階層画像を生成する
ことを特徴とする請求項2または3に記載の画像処理装置。
The first layering means generates the first layer images of the plurality of layers with different resolutions by reducing the first color component image step by step,
The second layering means reduces the second color component image to at least one resolution lower than the resolution of the second color component image among the resolutions of the plurality of layers. , to generate the second hierarchical image.
前記第1の階層化手段は、前記第1の色成分画像を、複数の異なる周波数帯域の画像に変換することにより、前記複数の階層の前記第1の階層画像を生成し、
前記第2の階層化手段は、前記第2の色成分画像を、前記複数の異なる周波数帯域に変換することにより、前記複数の階層の前記第2の階層画像を生成する
ことを特徴とする請求項2または3に記載の画像処理装置。
The first layering means converts the first color component image into a plurality of images of different frequency bands to generate the first layer images of the plurality of layers,
The second layering means generates the second layer image of the plurality of layers by converting the second color component image into the plurality of different frequency bands. 4. The image processing device according to item 2 or 3.
前記合成手段は、同じ階層の前記第1の階層画像と前記第2の階層画像を、前記明るさに応じた1つの合成比率を用いて合成することを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。 6. The synthesizing unit according to any one of claims 2 to 5, wherein said synthesizing means synthesizes said first layer image and said second layer image of the same layer using one synthesis ratio according to said brightness. 1. The image processing apparatus according to claim 1. 前記合成手段は、同じ階層の前記第1の階層画像と前記第2の階層画像を、画素ごとに求めた前記明るさに応じた合成比率を用いて合成することを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。 3. The synthesizing means synthesizes the first layer image and the second layer image of the same layer using a synthesis ratio corresponding to the brightness obtained for each pixel. 6. The image processing device according to any one of 5. 前記合成手段は、前記周波数成分の量として、前記第3の階層画像に含まれるエッジの量を検出することを特徴とする請求項2乃至7のいずれか1項に記載の画像処理装置。 8. The image processing apparatus according to any one of claims 2 to 7, wherein said synthesizing means detects an amount of edges included in said third layer image as said amount of frequency components. 前記合成手段は、同じ階層の前記第1の階層画像と前記第2の階層画像との差が大きいほど、前記明るさがより暗いと判定することを特徴とする請求項2乃至8のいずれか1項に記載の画像処理装置。 9. The synthesizing unit determines that the brightness is darker as the difference between the first layer image and the second layer image of the same layer is greater. 2. The image processing device according to item 1. 前記合成手段は、前記第1の画像の色成分を、前記第2の画像の色成分に近づけるように変換する変換手段を更に有し、
前記合成手段は、前記変換後の第1の画像と、前記第2の画像とを合成することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The synthesizing means further includes transforming means for transforming the color components of the first image so as to approximate the color components of the second image,
10. The image processing apparatus according to any one of claims 1 to 9, wherein said synthesizing means synthesizes said converted first image and said second image.
前記変換手段は、機械学習により学習した色変換モデルに基づいて前記変換を行うことを特徴とする請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein said conversion means performs said conversion based on a color conversion model learned by machine learning. 前記変換手段は、前記第1の画像および前記第2の画像から抽出した画像パッチを学習用の画像とし、当該学習用の画像のうち、前記第2の画像から抽出した画像パッチを教師画像として学習することを特徴とする請求項11に記載の画像処理装置。 The conversion means uses image patches extracted from the first image and the second image as images for learning, and among the images for learning, image patches extracted from the second image as teacher images. 12. The image processing apparatus according to claim 11, wherein learning is performed. 前記学習用の画像は、前記第1の画像を前記第2の画像の解像度と同じ解像度に縮小してから抽出することを特徴とする請求項12に記載の画像処理装置。 13. The image processing apparatus according to claim 12, wherein said learning image is extracted after reducing said first image to the same resolution as said second image. 前記教師画像は、予め決められた大きさ以上のキズ画素が含まれないように抽出することを特徴とする請求項12または13に記載の画像処理装置。 14. The image processing apparatus according to claim 12, wherein the teacher image is extracted so as not to include defective pixels of a predetermined size or larger. 前記変換手段は、マクベスチャートを色のサンプルとして用い、前記第1の画像の色成分を入力、前記第2の画像の色成分を出力として、最小二乗法等により算出した色変換マトリクスを用いて前記変換を行うことを特徴とする請求項10に記載の画像処理装置。 The conversion means uses a Macbeth chart as a color sample, inputs the color components of the first image, outputs the color components of the second image, and uses a color conversion matrix calculated by the method of least squares or the like. 11. The image processing apparatus according to claim 10, wherein said conversion is performed. 前記複数の撮像手段は、入射した光に応じた電荷を蓄積して前記第1の画像を生成する第1の撮像手段と、入射した光子の数を計数して前記第2の画像を生成する第2の撮像手段とを含むことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。 The plurality of imaging means includes a first imaging means for accumulating charges according to incident light to generate the first image, and a second imaging means for counting the number of incident photons to generate the second image. 16. The image processing apparatus according to any one of claims 1 to 15, further comprising second imaging means. 前記取得手段は、前記第2の画像を複数枚、取得し、
前記合成手段は、
前記取得手段により取得した複数枚の前記第2の画像のうち、合成に用いる枚数を決定する決定手段と、
前記複数枚の第2の画像のうち、前記決定手段により決定された枚数の前記第2の画像を合成して、より高い解像度の画像に変換する変換手段と、を更に含み、
前記合成手段は、解像度を変換した後の前記第2の画像を、前記第1の画像と合成することを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
The acquiring means acquires a plurality of the second images,
The synthesizing means is
a determining means for determining the number of the plurality of second images acquired by the acquiring means to be used for synthesis;
conversion means for synthesizing the number of the second images determined by the determination means out of the plurality of second images, and converting the second images into an image with a higher resolution;
17. The image processing apparatus according to any one of claims 1 to 16, wherein said synthesizing means synthesizes said second image whose resolution has been converted with said first image.
前記決定手段は、前記第1の画像または前記第2の画像から算出した平均的な彩度が高いほど、または、前記第1の画像に含まれる被写体の領域の画素数が少ないほど、または、被写体の動き量が大きいほど、前記合成に用いる前記第2の画像の枚数を多くすることを特徴とする請求項17に記載の画像処理装置。 The determination means determines that the higher the average saturation calculated from the first image or the second image, or the smaller the number of pixels in the subject area included in the first image, or 18. The image processing apparatus according to claim 17, wherein the number of said second images used for said composition is increased as the amount of motion of a subject increases. 前記合成手段は、
前記第1の画像の色成分を抽出し、得られた第1の色成分画像から、複数の階層の第1の階層画像を生成する第1の階層化手段と、
前記第2の画像の色成分を抽出し、得られた第2の色成分画像から、前記複数の階層のうち、少なくともいずれかの階層の第2の階層画像を生成する第2の階層化手段と、を有し、
前記決定手段は、同じ階層の前記第1の階層画像と前記第2の階層画像との差に基づいて、前記第2の画像を合成する枚数を決定することを特徴とする請求項17または18に記載の画像処理装置。
The synthesizing means is
first layering means for extracting color components of the first image and generating first layer images of a plurality of layers from the obtained first color component image;
second layering means for extracting color components of the second image and generating a second layer image of at least one of the plurality of layers from the obtained second color component image; and
19. The determination means determines the number of images to be combined with the second image based on a difference between the first layer image and the second layer image of the same layer. The image processing device according to .
前記変換手段は、前記複数枚の第2の画像のうち、エッジ部に重なる予め決められたサイズ以上のキズがより少ない第2の画像を選択して合成することを特徴とする請求項17乃至19のいずれか1項に記載の画像処理装置。 17. The converting means selects and synthesizes a second image having fewer scratches of a predetermined size or larger overlapping an edge portion from among the plurality of second images. 20. The image processing device according to any one of 19. 前記変換手段は、前記選択した第2の画像において、予め決められたサイズ以上のキズに対応する領域の画素を用いないようにして合成することを特徴とする請求項20に記載の画像処理装置。 21. The image processing apparatus according to claim 20, wherein said conversion means synthesizes the selected second image without using pixels in an area corresponding to a flaw of a predetermined size or larger. . 請求項17乃至21のいずれか1項に記載の画像処理装置と、
前記第1の画像を撮像する第1の撮像手段と、
前記第2の画像を撮像する第2の撮像手段と、
前記変換手段により複数の前記第2の画像を合成する場合に、前記第1の画像を1枚撮像する間に、前記第2の画像を複数枚、撮像するように前記第1の撮像手段および前記第2の撮像手段を制御する制御手段と
を有することを特徴とする撮像装置。
An image processing device according to any one of claims 17 to 21;
a first imaging means for imaging the first image;
a second imaging means for imaging the second image;
the first image pickup means and the and control means for controlling the second imaging means.
取得手段が、複数の撮像手段により同じ被写体を撮像して得られた、第1の解像度と第1の色再現性とを有する第1の画像と、前記第1の解像度よりも低い第2の解像度と前記第1の色再現性よりも高い第2の色再現性とを有する第2の画像を取得する取得工程と、
合成手段が、前記第1の画像と前記第2の画像とを、前記第1の画像および前記第2の画像から求めた明るさと周波数成分とに応じた合成比率で合成する合成工程と、を有し、
前記明るさが第1の明るさの場合に、前記第1の明るさよりも明るい第2の明るさの場合よりも、前記第2の画像の色成分の合成比率を高くすることを特徴とする画像処理方法。
An acquisition means obtains a first image having a first resolution and a first color reproducibility obtained by imaging the same subject with a plurality of imaging means, and a second image having a first resolution lower than the first resolution. a capturing step of capturing a second image having a resolution and a second color rendition higher than the first color rendition;
a synthesizing step in which synthesizing means synthesizes the first image and the second image at a synthesis ratio according to the brightness and frequency components obtained from the first image and the second image; have
When the brightness is the first brightness, a synthesis ratio of the color components of the second image is set higher than when the brightness is the second brightness, which is brighter than the first brightness. Image processing method.
コンピュータを請求項1乃至21のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 21. 請求項24に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 24.
JP2022013579A 2022-01-31 2022-01-31 Image processing device and method and imaging apparatus Pending JP2023111637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022013579A JP2023111637A (en) 2022-01-31 2022-01-31 Image processing device and method and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022013579A JP2023111637A (en) 2022-01-31 2022-01-31 Image processing device and method and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2023111637A true JP2023111637A (en) 2023-08-10

Family

ID=87551731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022013579A Pending JP2023111637A (en) 2022-01-31 2022-01-31 Image processing device and method and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2023111637A (en)

Similar Documents

Publication Publication Date Title
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
US7940311B2 (en) Multi-exposure pattern for enhancing dynamic range of images
JP5713752B2 (en) Image processing apparatus and control method thereof
US10021313B1 (en) Image adjustment techniques for multiple-frame images
KR101643122B1 (en) Image processing device, image processing method and recording medium
US7791652B2 (en) Image processing apparatus, image capture apparatus, image output apparatus, and method and program for these apparatus
EP2368226B1 (en) High dynamic range image combining
JP5767485B2 (en) Image processing apparatus and control method
TWI542224B (en) Image signal processing method and image signal processor
JP6312487B2 (en) Image processing apparatus, control method therefor, and program
US20120127336A1 (en) Imaging apparatus, imaging method and computer program
JP2011010108A (en) Imaging control apparatus, imaging apparatus, and imaging control method
JP2013106149A (en) Imaging apparatus, control method of the same and program
US8830359B2 (en) Image processing apparatus, imaging apparatus, and computer readable medium
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
JP5882702B2 (en) Imaging device
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP2011100204A (en) Image processor, image processing method, image processing program, imaging apparatus, and electronic device
JP2016111568A (en) Image blur correction control device, imaging apparatus, control method and program thereof
JP2009177508A (en) Imaging apparatus, and image-effect adding program
JP4935665B2 (en) Imaging apparatus and image effect providing program
JP2020058023A (en) Spatial multiple exposure
KR20160001582A (en) Apparatus and method for processing image
JP2023111637A (en) Image processing device and method and imaging apparatus
JP2008211674A (en) Image signal processing method and apparatus