JP2021082212A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2021082212A
JP2021082212A JP2019211710A JP2019211710A JP2021082212A JP 2021082212 A JP2021082212 A JP 2021082212A JP 2019211710 A JP2019211710 A JP 2019211710A JP 2019211710 A JP2019211710 A JP 2019211710A JP 2021082212 A JP2021082212 A JP 2021082212A
Authority
JP
Japan
Prior art keywords
image
pixel
noise reduction
frequency
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019211710A
Other languages
Japanese (ja)
Other versions
JP7365206B2 (en
Inventor
大輝 中川
Daiki Nakagawa
大輝 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019211710A priority Critical patent/JP7365206B2/en
Priority to US17/086,674 priority patent/US11423515B2/en
Publication of JP2021082212A publication Critical patent/JP2021082212A/en
Priority to US17/854,040 priority patent/US11836900B2/en
Priority to US17/854,031 priority patent/US11756165B2/en
Application granted granted Critical
Publication of JP7365206B2 publication Critical patent/JP7365206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To reduce noises on images while suppressing a decrease of sharpness.SOLUTION: A noise-reduced image with reduced noises is generated from an input image. A high frequency emphasis image in which the high-frequency component of the input image is emphasized is generated. On each pixel of high-frequency emphasis image, a series of processing of limiting the pixel value to a range according to the brightness of a subject corresponding to the pixel is performed. An output image is generated based on the processed high-frequency emphasis image and noise-reduced image.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に画像に対するノイズ低減処理に関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and particularly to noise reduction processing for an image.

撮像装置などを用いた撮像により得られたデジタル画像にはノイズが含まれる。このようなノイズを低減するための、画像に対するノイズ低減処理が知られている。特許文献1には、撮像画像からパッチ集合を生成し、パッチ集合に属する全てのパッチに対してノイズ低減処理を行い、ノイズ低減処理したパッチの合成処理を行うことにより、撮像画像のノイズを低減する手法が開示されている。 The digital image obtained by imaging with an imaging device or the like contains noise. Noise reduction processing for images is known to reduce such noise. In Patent Document 1, a patch set is generated from a captured image, noise reduction processing is performed on all patches belonging to the patch set, and noise reduction processing is performed to synthesize patches to reduce noise in the captured image. The method of doing so is disclosed.

特開2013−026669号公報Japanese Unexamined Patent Publication No. 2013-0266669

従来のノイズ低減処理においては、処理の過程で高周波成分が失われることがある。このため、ユーザはノイズ低減処理により画像の鮮鋭性が低下した印象を受ける。 In the conventional noise reduction processing, high frequency components may be lost in the processing process. Therefore, the user receives the impression that the sharpness of the image is reduced by the noise reduction processing.

本発明は、鮮鋭性の低下を抑制しながら画像のノイズを低減することを目的とする。 An object of the present invention is to reduce image noise while suppressing a decrease in sharpness.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
入力画像からノイズが低減されたノイズ低減画像を生成するノイズ低減手段と、
前記入力画像の高周波成分が強調された高周波強調画像を生成する抽出手段と、
前記高周波強調画像の各画素について、前記画素に対応する被写体の明るさに応じた範囲に画素値を制限する処理を行う補正手段と、
前記補正手段による処理後の高周波強調画像と前記ノイズ低減画像とに基づいて出力画像を生成する生成手段と、
を備える。
In order to achieve the object of the present invention, for example, the image processing apparatus of the present invention has the following configurations. That is,
A noise reduction means that generates a noise reduction image with noise reduced from the input image,
An extraction means for generating a high-frequency emphasized image in which the high-frequency component of the input image is emphasized, and
A correction means for limiting the pixel value of each pixel of the high-frequency emphasized image to a range corresponding to the brightness of the subject corresponding to the pixel.
A generation means for generating an output image based on the high-frequency enhanced image after processing by the correction means and the noise reduction image, and
To be equipped.

鮮鋭性の低下を抑制しながら画像のノイズを低減することができる。 Image noise can be reduced while suppressing a decrease in sharpness.

一実施形態に係る画像処理装置のハードウェア構成例を示す図。The figure which shows the hardware configuration example of the image processing apparatus which concerns on one Embodiment. 一実施形態に係る画像処理装置の機能構成例を示す図。The figure which shows the functional structure example of the image processing apparatus which concerns on one Embodiment. 一実施形態に係る画像処理装置の機能構成例を示す図。The figure which shows the functional structure example of the image processing apparatus which concerns on one Embodiment. 一実施形態に係る画像処理方法のフローチャート。The flowchart of the image processing method which concerns on one Embodiment. 一実施形態に係る画像処理方法のフローチャート。The flowchart of the image processing method which concerns on one Embodiment. 一実施形態に係る画像処理装置の機能構成例を示す図。The figure which shows the functional structure example of the image processing apparatus which concerns on one Embodiment. 平滑化処理の一例を説明する図。The figure explaining an example of the smoothing process. 一実施形態に係る画像処理方法のフローチャート。The flowchart of the image processing method which concerns on one Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

[実施形態1]
実施形態1に係る画像処理装置は、入力画像に対してノイズ低減処理を行うことにより得られた画像に対して、入力画像の高周波成分が強調された高周波強調画像を用いた補正を行う。実施形態1では特に、高周波強調画像の各画素について、画素に対応する被写体の明るさに応じた範囲に画素値を制限する処理を行う。このような構成により、鮮鋭性の低下を抑制しながら画像のノイズを低減することができる。
[Embodiment 1]
The image processing apparatus according to the first embodiment corrects the image obtained by performing noise reduction processing on the input image by using the high frequency enhanced image in which the high frequency component of the input image is emphasized. In the first embodiment, in particular, for each pixel of the high-frequency emphasized image, a process of limiting the pixel value to a range corresponding to the brightness of the subject corresponding to the pixel is performed. With such a configuration, it is possible to reduce image noise while suppressing a decrease in sharpness.

本実施形態に係る画像処理装置は、プロセッサとメモリとを備えるコンピュータにより実現することができる。図1は、実施形態1に係る画像処理装置のハードウェア構成例を示すブロック図である。図1に示す画像処理装置は、CPU101、RAM102、記憶部103、汎用I/F(インタフェース)104、及び表示部108を有する。各構成は、メインバス109を介して相互に接続されている。また、画像処理装置には、汎用I/F110を介して、撮像装置105、入力装置106、及び外部メモリ107が接続されている。 The image processing apparatus according to the present embodiment can be realized by a computer including a processor and a memory. FIG. 1 is a block diagram showing a hardware configuration example of the image processing apparatus according to the first embodiment. The image processing device shown in FIG. 1 includes a CPU 101, a RAM 102, a storage unit 103, a general-purpose I / F (interface) 104, and a display unit 108. The configurations are connected to each other via the main bus 109. Further, the image processing device 105, the input device 106, and the external memory 107 are connected to the image processing device via the general-purpose I / F 110.

CPU101は、入力された画像、及び後述の処理を実現するプログラムに従って、各構成を制御する。記憶部103は、HDD又はSSDなどの記憶媒体である。記憶部103には、CPU101が各処理を実行するためのコンピュータプログラムが格納されている。RAM102は、入力された画像データ等を一時的に保持するバッファメモリ、又は、CPU101の作業領域等として働く。CPU101のようなプロセッサが、RAM102又は記憶部103のようなメモリに格納されたプログラムを解釈及び実行し、命令に基づいた動作を行うことにより、後述する図2等に示される各部の機能を実現することができる。 The CPU 101 controls each configuration according to the input image and a program that realizes the processing described later. The storage unit 103 is a storage medium such as an HDD or SSD. The storage unit 103 stores a computer program for the CPU 101 to execute each process. The RAM 102 functions as a buffer memory for temporarily holding the input image data or the like, a work area of the CPU 101, or the like. A processor such as the CPU 101 interprets and executes a program stored in a memory such as the RAM 102 or the storage unit 103, and performs an operation based on an instruction to realize the functions of each unit shown in FIG. 2 and the like described later. can do.

撮像装置105はカメラ等の画像を撮像する装置であり、得られた撮像画像を情報処理装置に入力することができる。入力装置106は指示又はデータを受け取るための装置であり、例えば、ユーザが画像処理装置に指示を行うために用いるマウス又はキーボード等の装置である。外部メモリ107は、例えばメモリカード等の、データを格納する記憶媒体である。表示部108は情報を表示する機能を有するハードウェアであり、例えば液晶ディスプレイ又は有機ELディスプレイ等である。表示部108は、画像を表示することができ、また、ユーザが所望の指示を入力するために用いるユーザインターフェース(UI)を表示することができる。本実施形態に係る画像処理装置は、ユーザインタフェース及び入力装置106を介して入力されるユーザからの指示に従って、RAM102に格納された画像に対して、後述する処理を実行することができる。後述する処理により得られたノイズ低減処理後の画像は、再びRAM102に格納される。RAM102に格納されたノイズ低減処理後の画像は、ユーザからの指示に応じて、表示部108や外部メモリ107に出力することができる。 The image pickup device 105 is a device that captures an image of a camera or the like, and the obtained captured image can be input to an information processing device. The input device 106 is a device for receiving instructions or data, for example, a device such as a mouse or a keyboard used by a user to give an instruction to an image processing device. The external memory 107 is a storage medium for storing data, such as a memory card. The display unit 108 is hardware having a function of displaying information, such as a liquid crystal display or an organic EL display. The display unit 108 can display an image and can display a user interface (UI) used by the user to input a desired instruction. The image processing device according to the present embodiment can execute the processing described later on the image stored in the RAM 102 according to the instruction from the user input via the user interface and the input device 106. The image after the noise reduction processing obtained by the processing described later is stored in the RAM 102 again. The image after the noise reduction processing stored in the RAM 102 can be output to the display unit 108 or the external memory 107 in response to an instruction from the user.

図2は、本実施形態に係る画像処理装置の論理構成例を示すブロック図である。本実施形態に係る画像処理装置は、ノイズ低減部210、抽出部220、及び画像生成部230を備える。 FIG. 2 is a block diagram showing a logical configuration example of the image processing device according to the present embodiment. The image processing apparatus according to the present embodiment includes a noise reduction unit 210, an extraction unit 220, and an image generation unit 230.

ノイズ低減部210は、入力画像200を取得し、入力画像200からノイズが低減されたノイズ低減画像を生成する。本実施形態において、入力画像200は、互いに異なる種類の色情報を表す複数の種類の画素が1つのプレーンに配列されている画像であり、具体的にはRaw形式の画像である。Raw形式の画像とは、1プレーンの画像のことである。プレーンとは、各画素が持つ情報の種類の数を指す。1プレーンの画像は各画素に1種類の情報を持ち、3プレーンの画像は各画素に3種類の情報を持つ。例えば、RGB画像は3プレーンの画像であり、RGBα画像は4プレーンの画像である。本実施形態において、入力画像200はBayer配列の画像、すなわちBayer配列の撮像素子を用いて得られた画像であるが、入力画像200はBayer配列の画像に限定されない。また、本実施形態において、入力画像200がRaw形式の画像であることは必須ではない。 The noise reduction unit 210 acquires the input image 200 and generates a noise reduction image in which noise is reduced from the input image 200. In the present embodiment, the input image 200 is an image in which a plurality of types of pixels representing different types of color information are arranged on one plane, and is specifically a Raw format image. A Raw format image is a one-plane image. The plane refers to the number of types of information that each pixel has. A one-plane image has one type of information in each pixel, and a three-plane image has three types of information in each pixel. For example, an RGB image is a 3-plane image and an RGBα image is a 4-plane image. In the present embodiment, the input image 200 is an image of the Bayer array, that is, an image obtained by using the image sensor of the Bayer array, but the input image 200 is not limited to the image of the Bayer array. Further, in the present embodiment, it is not essential that the input image 200 is a Raw format image.

ノイズ低減部210がノイズ低減のために用いるノイズ低減処理の手法は特に限定されない。例えば、特許文献1に記載の手法を採用してもよい。本実施形態において、ノイズ低減部210は、以下の手法を用いてノイズ低減処理を行う。ノイズ低減部210は、まず、入力画像200中の複数の画素からなる領域を着目パッチとして設定し、その着目パッチ毎に、着目パッチに類似する類似パッチ群を生成する。次に、ノイズ低減部210は、類似パッチ群の各画素の平均値を算出し、各類似パッチの任意の2つの画素値の積の、類似パッチ群の全てについての和をとることにより共分散行列を算出する。ノイズ低減部210は、この平均値と共分散行列とから固有値及び固有ベクトルを求める。また、ノイズ低減部210は、この固有値及び固有ベクトルに基づき、類似パッチ群に対応する基底行列を生成する。ノイズ低減部210は、各画素の平均値及び基底行列に基づいて、類似パッチに対する射影処理を行うことにより、各類似パッチのノイズ除去を行い、ノイズ除去パッチ群を得る。そして、ノイズ低減部210は、ノイズ除去パッチ群を合成することにより、ノイズ低減画像を生成する。このような合成処理はアグリゲーションなどと呼ばれている。具体的には、ノイズ低減部210はノイズ除去パッチ群のそれぞれを入力画像における元のパッチ位置に戻し、複数のパッチが重なる画素については平均又は類似度に基づく加重平均を行うことにより、合成処理を行うことができる。 The noise reduction processing method used by the noise reduction unit 210 for noise reduction is not particularly limited. For example, the method described in Patent Document 1 may be adopted. In the present embodiment, the noise reduction unit 210 performs noise reduction processing by using the following method. First, the noise reduction unit 210 sets a region consisting of a plurality of pixels in the input image 200 as a patch of interest, and generates a similar patch group similar to the patch of interest for each patch of interest. Next, the noise reduction unit 210 calculates the average value of each pixel of the similar patch group, and covariates by taking the sum of the products of any two pixel values of each similar patch group for all the similar patch groups. Calculate the matrix. The noise reduction unit 210 obtains an eigenvalue and an eigenvector from the average value and the covariance matrix. Further, the noise reduction unit 210 generates a basis matrix corresponding to the similar patch group based on the eigenvalues and the eigenvectors. The noise reduction unit 210 removes noise from each similar patch by performing projection processing on similar patches based on the average value of each pixel and the basis matrix, and obtains a noise removal patch group. Then, the noise reduction unit 210 generates a noise reduction image by synthesizing the noise removal patch group. Such a synthesis process is called aggregation or the like. Specifically, the noise reduction unit 210 returns each of the noise removal patch groups to the original patch position in the input image, and performs a weighted average based on averaging or similarity for pixels in which a plurality of patches overlap, thereby performing synthesis processing. It can be performed.

抽出部220は、入力画像200の高周波成分が強調された高周波強調画像を生成する。この高周波強調画像は、ノイズ低減処理により失われやすいエッジ成分を含むことができ、また一定のノイズ成分を含んでいるかもしれない。したがって、高周波強調画像のことを、エッジノイズ混合画像と呼ぶことができる。本実施形態において、抽出部220は、入力画像200とノイズ低減画像とに基づいて高周波強調画像を抽出する。 The extraction unit 220 generates a high-frequency emphasized image in which the high-frequency component of the input image 200 is emphasized. This high frequency enhanced image can contain edge components that are easily lost by noise reduction processing, and may also contain certain noise components. Therefore, the high-frequency emphasized image can be called an edge noise mixed image. In the present embodiment, the extraction unit 220 extracts a high frequency emphasized image based on the input image 200 and the noise reduction image.

本実施形態に係る抽出部220は、図3(A)に示すように、差分画像生成部222と、差分画像処理部223とを備える。 As shown in FIG. 3A, the extraction unit 220 according to the present embodiment includes a difference image generation unit 222 and a difference image processing unit 223.

差分画像生成部222は、入力画像200と、ノイズ低減画像と、の差分画像を生成する。差分画像生成部222は、同じ画素位置にある、入力画像200の画素の画素値から、差分画像の画素の画素値を引くことにより、差分画像を得ることができる。差分画像は、入力画像200と、入力画像200に対してノイズ低減処理を行うことで得られる画像と、の差分を示す。ノイズ低減処理によれば高周波成分(エッジ成分及びノイズ成分)が減弱するため、差分画像は、入力画像200の高周波成分(エッジ成分及びノイズ成分)を示す。こうして得られた差分画像は、入力画像200の高周波成分が強調された高周波強調画像にあたる。このようなエッジ成分を含む高周波強調画像を用いて、後述するようにノイズ低減処理後の画像を補正することにより、得られる出力画像の鮮鋭性を向上させることができる。 The difference image generation unit 222 generates a difference image between the input image 200 and the noise reduction image. The difference image generation unit 222 can obtain a difference image by subtracting the pixel value of the pixel of the difference image from the pixel value of the pixel of the input image 200 at the same pixel position. The difference image shows the difference between the input image 200 and the image obtained by performing noise reduction processing on the input image 200. Since the high frequency component (edge component and noise component) is attenuated by the noise reduction processing, the difference image shows the high frequency component (edge component and noise component) of the input image 200. The difference image thus obtained corresponds to a high-frequency enhanced image in which the high-frequency component of the input image 200 is emphasized. By using a high-frequency enhanced image containing such an edge component and correcting the image after the noise reduction processing as described later, the sharpness of the obtained output image can be improved.

差分画像処理部223は、高周波強調画像の各画素について、画素に対応する被写体の明るさに応じた範囲に画素値を制限する処理を行う。センサを用いて撮像を行う場合、撮像画像には光量に依存したノイズが重畳する。このため、ノイズ量が大きくなる明部において、差分画像に振幅の大きなノイズが混入する可能性がある。差分画像処理部223は、このような被写体の明るさに依存して生じるノイズに対処する機能を有する。 The difference image processing unit 223 performs processing for limiting the pixel value of each pixel of the high-frequency emphasized image to a range corresponding to the brightness of the subject corresponding to the pixel. When imaging is performed using a sensor, noise depending on the amount of light is superimposed on the captured image. Therefore, in the bright part where the amount of noise is large, there is a possibility that noise having a large amplitude is mixed in the difference image. The difference image processing unit 223 has a function of coping with such noise generated depending on the brightness of the subject.

差分画像処理部223は、図3(B)に示すように、クリップ値算出部223a及びクリップ処理部223bを有する。クリップ値算出部223aは、被写体の明るさに応じたクリップ値ClipValueを算出する。上述のように、ノイズ量は、センサに入射した光量、すなわち被写体の明るさに依存すると考えられる。また、被写体の明るさは、ノイズ低減画像又は入力画像200を参照することにより得ることができる。本実施形態においてクリップ値算出部223aは、ノイズ低減画像の対応する画素の画素値Iに対して式(1)(2)を適用することにより、差分画像に適用する画素ごとのクリップ値ClipValueを得ることができる。
σ = √(K×(I−I0)) …(1)
ClipValue = R×σ …(2)
As shown in FIG. 3B, the difference image processing unit 223 includes a clip value calculation unit 223a and a clip processing unit 223b. The clip value calculation unit 223a calculates the clip value ClipValue according to the brightness of the subject. As described above, the amount of noise is considered to depend on the amount of light incident on the sensor, that is, the brightness of the subject. Further, the brightness of the subject can be obtained by referring to the noise reduction image or the input image 200. In the present embodiment, the clip value calculation unit 223a applies the equations (1) and (2) to the pixel values I of the corresponding pixels of the noise reduction image to obtain the clip value ClipValue for each pixel applied to the difference image. Obtainable.
σ = √ (K × (I-I0))… (1)
ClipValue = R × σ… (2)

式(1)において、K及びI0は、入力画像200を撮像したセンサのノイズ特性を表す。これらのノイズ特性を表すパラメータは、ノイズ評価用のチャートを撮影して解析する等の作業(処理)を行うことで、事前に推定することができる。σは、各画素についてのノイズ標準偏差を表す。Rは、クリップ値を調整するためのパラメータであり、事前に決定しておくことができる。 In the formula (1), K and I0 represent the noise characteristics of the sensor that captured the input image 200. The parameters representing these noise characteristics can be estimated in advance by performing work (processing) such as photographing and analyzing a chart for noise evaluation. σ represents the noise standard deviation for each pixel. R is a parameter for adjusting the clip value and can be determined in advance.

クリップ処理部223bは、高周波強調画像の各画素について、画素に対応する被写体の明るさに応じた範囲に画素値を制限する処理を行う。画素値を制限するための具体的な手法は特に限定されないが、例えばクリップ処理部223bは、高周波強調画像の各画素について、画素に対応する被写体の明るさに応じた範囲から外れている画素値を、範囲を定める上限値又は下限値に変更することができる。本実施形態においてクリップ処理部223bは、クリップ値算出部223aが求めたクリップ値ClipValueに基づき、差分画像をクリップすることにより、クリップ後画像dcを得る。こうして得られたクリップ後画像も、入力画像200の高周波成分が強調された高周波強調画像にあたる。本実施形態では、こうして得られたクリップ後画像dcが、高周波成分画像として画像生成部230に入力される。クリップ処理部223bは、式(3)に従って処理を行うことができる。式(3)において、dは差分画像の画素値を表す。

Figure 2021082212
The clip processing unit 223b performs a process of limiting the pixel value of each pixel of the high-frequency emphasized image to a range corresponding to the brightness of the subject corresponding to the pixel. The specific method for limiting the pixel value is not particularly limited, but for example, the clip processing unit 223b has a pixel value that is out of the range corresponding to the brightness of the subject corresponding to the pixel for each pixel of the high-frequency emphasized image. Can be changed to an upper limit value or a lower limit value that defines a range. In the present embodiment, the clip processing unit 223b obtains a post-clip image dc by clipping the difference image based on the clip value ClipValue obtained by the clip value calculation unit 223a. The post-clip image thus obtained also corresponds to a high-frequency enhanced image in which the high-frequency component of the input image 200 is emphasized. In the present embodiment, the post-clip image dc thus obtained is input to the image generation unit 230 as a high-frequency component image. The clip processing unit 223b can perform processing according to the equation (3). In the formula (3), d represents the pixel value of the difference image.
Figure 2021082212

このように、クリップ処理部223bは、被写体の明るさに応じて定められた−ClipValueから+ClipValueまでの範囲に、クリップ後画像の画素値を制限する非線形処理を行っている。このような構成により、この範囲を超える振幅の大きなノイズを抑制し、高周波強調画像をノイズ低減画像に加算した後に点状のノイズ(ごま塩ノイズ)が生じることを抑制することができる。とりわけ、本実施形態においては、被写体が暗いほどこの範囲を小さくすることにより、暗領域におけるノイズを効果的に抑制することができる。 In this way, the clip processing unit 223b performs non-linear processing that limits the pixel value of the clipped image within the range from −ClipValue to +ClipValue, which is determined according to the brightness of the subject. With such a configuration, it is possible to suppress noise having a large amplitude exceeding this range, and to suppress the occurrence of point-like noise (salt-and-pep noise) after adding the high-frequency emphasized image to the noise reduction image. In particular, in the present embodiment, noise in a dark region can be effectively suppressed by reducing this range as the subject becomes darker.

画像生成部230は、差分画像処理部223による処理後の高周波強調画像とノイズ低減画像とに基づいて出力画像を生成する。画像生成部230は、図3(C)に示すように、ブレンド処理部232を備える。また、画像生成部230は、デモザイク処理部231を備えていてもよい。 The image generation unit 230 generates an output image based on the high-frequency enhanced image and the noise reduction image processed by the difference image processing unit 223. As shown in FIG. 3C, the image generation unit 230 includes a blend processing unit 232. Further, the image generation unit 230 may include a demosaic processing unit 231.

ブレンド処理部232は、高周波成分画像を用いて、ノイズ低減画像を補正する。一実施形態において、ブレンド処理部232は、高周波成分画像とノイズ低減画像とを加算することにより、補正されたノイズ低減画像であるブレンド画像を生成することができる。 The blend processing unit 232 corrects the noise reduction image by using the high frequency component image. In one embodiment, the blend processing unit 232 can generate a blend image which is a corrected noise reduction image by adding the high frequency component image and the noise reduction image.

一方で、本実施形態において、ブレンド処理部232は、高周波成分画像に対して被写体の明るさに応じたゲイン値を乗算してから、ノイズ低減画像との加算を行う。本実施形態においてブレンド処理部232は、図3(D)に示すように、ゲイン算出部232aと、ゲイン乗算部232bと、加算処理部232cと、を備える。 On the other hand, in the present embodiment, the blend processing unit 232 multiplies the high-frequency component image by a gain value according to the brightness of the subject, and then adds the image to the noise-reduced image. In the present embodiment, as shown in FIG. 3D, the blend processing unit 232 includes a gain calculation unit 232a, a gain multiplication unit 232b, and an addition processing unit 232c.

ゲイン算出部232aは、各画素に対応する被写体の明るさを判定する。被写体の明るさは、ノイズ低減画像又は入力画像200を参照することにより得ることができる。ゲイン算出部232aは、さらに、判定された各画素に対応する被写体の明るさに基づいて、ゲイン値を算出する。本実施形態において、ゲイン算出部232aは、各画素に対応する、ノイズ低減画像の対応する画素の輝度値を、被写体の明るさとして取得し、この値に基づいて、各画素についてのゲイン値を算出することができる。このゲイン値は、被写体の明るさが大きいほど小さくなり、明るさがが小さいほど大きくなるように、各画素について定められる。例えば、このゲイン値は、ノイズ低減画像の画素値ごとに予め設定されていてもよい。 The gain calculation unit 232a determines the brightness of the subject corresponding to each pixel. The brightness of the subject can be obtained by referring to the noise reduction image or the input image 200. The gain calculation unit 232a further calculates the gain value based on the brightness of the subject corresponding to each of the determined pixels. In the present embodiment, the gain calculation unit 232a acquires the brightness value of the corresponding pixel of the noise reduction image corresponding to each pixel as the brightness of the subject, and based on this value, obtains the gain value for each pixel. Can be calculated. This gain value is determined for each pixel so that the greater the brightness of the subject, the smaller the gain value, and the smaller the brightness, the larger the gain value. For example, this gain value may be preset for each pixel value of the noise reduction image.

ゲイン乗算部232bは、ゲイン算出部232aが算出したゲイン値を用いて、高周波成分画像を補正する。具体的には、ゲイン乗算部232bは、高周波成分画像の各画素の画素値に対して、この画素に対応するゲイン値を乗算することができる。すなわち、本実施形態においては、高周波成分画像のうち、より暗い被写体の部分に対してより大きいゲインが適用される。 The gain multiplication unit 232b corrects the high frequency component image by using the gain value calculated by the gain calculation unit 232a. Specifically, the gain multiplication unit 232b can multiply the pixel value of each pixel of the high-frequency component image by the gain value corresponding to this pixel. That is, in the present embodiment, a larger gain is applied to a darker subject portion of the high frequency component image.

なお、ゲイン乗算部232bは、その他の画素ごとに設定されたゲインを用いることもできる。例えば、ゲイン値は、事前に決定された係数、像高に依存する係数、又は画素値に依存する係数であってもよい。 The gain multiplication unit 232b can also use the gain set for each of the other pixels. For example, the gain value may be a predetermined coefficient, a coefficient depending on the image height, or a coefficient depending on the pixel value.

加算処理部232cは、ゲイン乗算部232bによって補正された高周波成分画像を、ノイズ低減画像に加算することにより、ブレンド画像を生成する。自然画像においては、暗い被写体の像はコントラストが低くなる傾向がある。コントラストの低い像に対するノイズ低減処理は容易ではなく、十分にノイズ低減処理を行うと画像の鮮鋭性が大きく低下する傾向がある。本実施形態のように、被写体の明るさに応じたゲインを用いて補正された高周波成分画像をノイズ低減画像に加算することにより、より暗い被写体の高周波成分を強く回復させ、鮮鋭性を向上させることができる。 The addition processing unit 232c generates a blended image by adding the high frequency component image corrected by the gain multiplication unit 232b to the noise reduction image. In a natural image, an image of a dark subject tends to have low contrast. Noise reduction processing for images with low contrast is not easy, and if sufficient noise reduction processing is performed, the sharpness of the image tends to be significantly reduced. As in the present embodiment, by adding the high frequency component image corrected by using the gain according to the brightness of the subject to the noise reduction image, the high frequency component of the darker subject is strongly recovered and the sharpness is improved. be able to.

上記の処理により、ノイズ低減画像の鮮鋭性を向上させることができる。画像生成部230は、ブレンド処理部232がノイズ低減画像を補正することにより得られたブレンド画像を出力画像として出力してもよい。この場合、デモザイク処理部231は不要である。一方で、例えば入力画像がRaw形式の画像である場合、デモザイク処理部231は、ブレンド画像に対してデモザイク処理を行ってもよい。この場合、画像生成部230は、デモザイク処理後のデモザイク画像を出力画像として出力することができる。 By the above processing, the sharpness of the noise-reduced image can be improved. The image generation unit 230 may output the blended image obtained by the blending processing unit 232 correcting the noise reduction image as an output image. In this case, the demosaic processing unit 231 is unnecessary. On the other hand, for example, when the input image is an image in Raw format, the demosaic processing unit 231 may perform demosaic processing on the blended image. In this case, the image generation unit 230 can output the demosaic image after the demosaic processing as an output image.

デモザイク処理部231は、ブレンド処理部232による補正後のノイズ低減画像であるブレンド画像に対するデモザイク処理を行う。デモザイク処理とは、1つのプレーンを有する画像を、それぞれ1種類の色情報を表す複数のプレーンを有するデモザイク画像に変換する処理のことをいう。例えば、デモザイク処理部231は、Raw形式の画像を、YUV画像、L*a*b*画像、RGB画像、又はYMCK画像などに変換することができる。 The demosaic processing unit 231 performs demosaic processing on the blended image which is the noise reduction image corrected by the blending processing unit 232. The demosaic process is a process of converting an image having one plane into a demosaic image having a plurality of planes each representing one type of color information. For example, the demosaic processing unit 231 can convert a Raw format image into a YUV image, an L * a * b * image, an RGB image, a YMCK image, or the like.

以下では、デモザイク処理部231がRaw形式のブレンド画像をYUV形式に変換する場合の具体的な処理例を説明する。上記の通り、入力画像200はBayer画像であるから、ブレンド画像もBayer画像である。デモザイク処理部231は、着目画素について、着目画素の色以外の色を、周囲の近傍8画素を用いた線形補完により決定する。例えば着目画素がR(赤)である場合、G(緑)とB(青)の補完が必要となる。Gの補完を行う場合は、着目画素の上・下・左・右の4つのG画素を用いて線形補完を行う。Bの補完を行う場合は、右斜め上・右斜め下・左斜め上・左斜め下の4つのB画素を用いて線形補完を行う。このような線形補完の結果、着目画素についてRGBの画素値が得られ、すなわちRGB画像が生成される。デモザイク処理部231は、こうして得られたRGB画像をYUV画像へと変換する。この変換は、式(4)〜(6)に従って、各画素の画素値に係数を乗じることにより行うことができる。
Y = 0.2126×R + 0.7152×G + 0.0722×B ……(4)
U = −0.114572×R − 0.385428×G + 0.5×B ……(5)
V = 0.5×R − 0.454153×G − 0.045847×B ……(6)
Hereinafter, a specific processing example will be described when the demosaic processing unit 231 converts the RAW format blended image into the YUV format. As described above, since the input image 200 is a Bayer image, the blended image is also a Bayer image. The demosaic processing unit 231 determines the color of the pixel of interest other than the color of the pixel of interest by linear interpolation using eight peripheral pixels. For example, when the pixel of interest is R (red), it is necessary to complement G (green) and B (blue). When performing G complementation, linear interpolation is performed using the four G pixels above, below, left, and right of the pixel of interest. When performing B interpolation, linear interpolation is performed using four B pixels of diagonally upper right, diagonally lower right, diagonally upper left, and diagonally lower left. As a result of such linear interpolation, RGB pixel values are obtained for the pixel of interest, that is, an RGB image is generated. The demosaic processing unit 231 converts the RGB image thus obtained into a YUV image. This conversion can be performed by multiplying the pixel value of each pixel by a coefficient according to the equations (4) to (6).
Y = 0.2126 × R + 0.7152 × G + 0.0722 × B …… (4)
U = −0.1145272 × R − 0.385428 × G + 0.5 × B …… (5)
V = 0.5 × R − 0.454153 × G − 0.045547 × B …… (6)

以下、図4,5のフローチャートを参照して、本実施形態に係る画像処理方法の流れを説明する。ステップS510において、ノイズ低減部210は入力画像200を読み込む。ステップS520において、ノイズ低減部210は、上述のように入力画像200のノイズを低減することによりノイズ低減画像を得る。 Hereinafter, the flow of the image processing method according to the present embodiment will be described with reference to the flowcharts of FIGS. 4 and 5. In step S510, the noise reduction unit 210 reads the input image 200. In step S520, the noise reduction unit 210 obtains a noise reduction image by reducing the noise of the input image 200 as described above.

ステップS530において、抽出部220は、上述のように入力画像200の高周波成分が強調された高周波強調画像を生成する。図5(A)は、ステップS530の詳細な処理の流れを示す。ステップS531において差分画像生成部222は、上述のように入力画像200とノイズ低減画像に基づいて差分画像を得る。ステップS532においてクリップ値算出部223aは、上述のようにノイズ低減画像に基づいてクリップ値を算出する。ステップS533においてクリップ処理部223bは、上述のように差分画像に対してクリップ値に基づくクリップ処理を行うことにより高周波成分画像を得る。 In step S530, the extraction unit 220 generates a high-frequency emphasized image in which the high-frequency component of the input image 200 is emphasized as described above. FIG. 5A shows a detailed processing flow of step S530. In step S531, the difference image generation unit 222 obtains a difference image based on the input image 200 and the noise reduction image as described above. In step S532, the clip value calculation unit 223a calculates the clip value based on the noise reduction image as described above. In step S533, the clip processing unit 223b obtains a high-frequency component image by performing clip processing based on the clip value on the difference image as described above.

ステップS540において画像生成部230は、ノイズ低減画像と高周波成分画像から出力画像を得る。図5(B)は、ステップS540の詳細な処理の流れを示す。ステップS541においてゲイン算出部232aは、上述のように、ノイズ低減画像に基づいてゲイン値を算出する。ステップS542においてゲイン乗算部232bは、上述のように高周波成分画像にゲイン値を乗算する。ステップS543において加算処理部232cは、上述のようにノイズ低減画像とゲイン値が乗算された高周波成分画像とを加算することにより、ブレンド画像を得る。ステップS544においてデモザイク処理部231は、ブレンド画像に対してデモザイク処理を行うことにより、出力画像を得る。 In step S540, the image generation unit 230 obtains an output image from the noise reduction image and the high frequency component image. FIG. 5B shows a detailed processing flow of step S540. In step S541, the gain calculation unit 232a calculates the gain value based on the noise reduction image as described above. In step S542, the gain multiplication unit 232b multiplies the high frequency component image by the gain value as described above. In step S543, the addition processing unit 232c obtains a blended image by adding the noise reduction image and the high frequency component image multiplied by the gain value as described above. In step S544, the demosaic processing unit 231 obtains an output image by performing demosaic processing on the blended image.

以上のように、本実施形態では、クリップ処理によりエッジ成分の比率を相対的に向上した高周波成分画像を用いてノイズ低減画像を補正することで、入力画像の鮮鋭性を維持しながらノイズを低減することができる。また、画素ごとに異なる標準偏差のノイズが重畳している場合でも、想定されるノイズ量に基づいたクリップを行うことで良好な画質を実現する。 As described above, in the present embodiment, the noise reduction image is corrected by using the high frequency component image in which the ratio of the edge components is relatively improved by the clip processing, thereby reducing the noise while maintaining the sharpness of the input image. can do. Further, even when noise having a standard deviation different for each pixel is superimposed, good image quality is realized by performing clipping based on the expected amount of noise.

なお、本実施形態において、差分画像処理部223は、高周波強調画像の各画素について、画素に対応する被写体の明るさに応じた範囲に画素値を制限する処理を行うことにより、被写体の明るさに依存して生じるノイズに対処した。また、ブレンド処理部232は、高周波成分画像に対して被写体の明るさに応じたゲイン値を乗算することにより、被写体の明るさに応じた画像の鮮鋭性低下に対処した。一方で、これらの双方を採用することは必須ではない。また、高周波強調画像の各画素について、画素に対応する被写体の明るさに応じた補正を行う別の手法を採用することも可能である。この際には、出力画像の鮮鋭性又は審美性が向上するように、非線形処理を採用することもできる。 In the present embodiment, the difference image processing unit 223 performs processing for limiting the pixel value of each pixel of the high-frequency emphasized image to a range corresponding to the brightness of the subject corresponding to the pixel, thereby limiting the brightness of the subject. Addressed the noise that depends on. Further, the blend processing unit 232 coped with the decrease in sharpness of the image according to the brightness of the subject by multiplying the high-frequency component image by the gain value according to the brightness of the subject. On the other hand, it is not essential to adopt both of these. It is also possible to adopt another method of correcting each pixel of the high-frequency emphasized image according to the brightness of the subject corresponding to the pixel. In this case, non-linear processing can be adopted so as to improve the sharpness or aesthetics of the output image.

[実施形態2]
実施形態2では、Raw形式の画像をデモザイクすることにより得られるデモザイク画像に対して、高周波強調画像をブレンドする。デモザイク処理において行われる補完により、高周波成分が失われることがあるが、このような構成により、高周波成分が加算された画像に対してデモザイク処理を行う場合と比較して、出力画像に含まれる高周波成分量を増加させることができる。また、実施形態2では、高周波強調画像のエッジ成分の比率を高める処理を行う。ノイズ低減処理において大部分のノイズを除去できている場合、高周波強調画像のエッジ成分がノイズに比べて相対的に少なくなるが、高周波強調画像のエッジ成分の比率を高めることにより、出力画像の鮮鋭性向上率を高めることができる。しかしながら、これらの双方を採用することは必須ではない。
[Embodiment 2]
In the second embodiment, the high frequency emphasized image is blended with the demosaic image obtained by demosacing the Raw format image. The high frequency component may be lost due to the complementation performed in the demosaic processing, but due to such a configuration, the high frequency contained in the output image is compared with the case where the demosaic processing is performed on the image to which the high frequency component is added. The amount of ingredients can be increased. Further, in the second embodiment, a process of increasing the ratio of the edge component of the high-frequency emphasized image is performed. When most of the noise can be removed by the noise reduction processing, the edge component of the high-frequency emphasized image is relatively small compared to the noise, but by increasing the ratio of the edge component of the high-frequency emphasized image, the output image is sharp. The rate of improvement in sex can be increased. However, it is not essential to adopt both of these.

実施形態2に係る画像処理装置の構成は、実施形態1と類似しているが、抽出部220及び画像生成部230の処理及び構成が異なる。以下では、実施形態1との差異点を中心に説明し、実施形態1と共通する部分の説明は省略することがある。 The configuration of the image processing apparatus according to the second embodiment is similar to that of the first embodiment, but the processing and configuration of the extraction unit 220 and the image generation unit 230 are different. In the following, the differences from the first embodiment will be mainly described, and the description of the parts common to the first embodiment may be omitted.

本実施形態において、抽出部220は、図6(A)に示すように、差分画像生成部222及び差分画像処理部223に加えて、平滑化処理部221を備える。平滑化処理部221は、ノイズ低減画像に対する平滑化処理を行う。例えば、平滑化処理部221は、フィルタ処理を行うことによりノイズ低減画像の平滑化を行うことができる。また、平滑化処理部221は、2次元フーリエ変換−高周波マスク−2次元逆フーリエ変換のような、別の手法を用いた平滑化処理を行ってもよい。ここで、平滑化処理部221は、レンジフィルタ又はバイラテラルフィルタ等を活用した、高周波成分を減弱させる非線形処理を行うことにより、エッジ成分又はテクスチャ成分を適応的に減弱させてもよい。 In the present embodiment, as shown in FIG. 6A, the extraction unit 220 includes a smoothing processing unit 221 in addition to the difference image generation unit 222 and the difference image processing unit 223. The smoothing processing unit 221 performs smoothing processing on the noise-reduced image. For example, the smoothing processing unit 221 can perform smoothing of a noise-reduced image by performing filter processing. Further, the smoothing processing unit 221 may perform smoothing processing using another method such as a two-dimensional Fourier transform-high frequency mask-two-dimensional inverse Fourier transform. Here, the smoothing processing unit 221 may adaptively attenuate the edge component or the texture component by performing a non-linear processing that attenuates the high frequency component by utilizing a range filter, a bilateral filter, or the like.

平滑化処理部221の具体的な処理例を以下に説明する。平滑化処理部221は、ノイズ低減画像中に着目画素(i,j)を設定し、着目画素を中心とした5×5画素の範囲の中の着目画素と同色の画素と着目画素の画素値に基づき、式(1)に従って重み付き平均値A(i,j)を得る。式(7)において、I(i,j)は、画素(i,j)の画素値を示す。図7(A)、(B)、及び(C)は、着目画素がR画素、G画素、及びB画素であるそれぞれの場合について、Bayer画像であるノイズ低減画像の着目画素と、着目画素と同色の画素と、の位置関係を示す。ノイズ低減画像の全画素を順次着目画素に設定しながらこの処理を繰り返すことにより、画素(i,j)に重み付き平均値A(i,j)を有する平滑化処理後の画像が得られる。

Figure 2021082212
A specific processing example of the smoothing processing unit 221 will be described below. The smoothing processing unit 221 sets the pixel of interest (i, j) in the noise reduction image, and the pixel of the same color as the pixel of interest and the pixel value of the pixel of interest in the range of 5 × 5 pixels centered on the pixel of interest. Based on the above, a weighted average value A (i, j) is obtained according to the equation (1). In the formula (7), I (i, j) indicates the pixel value of the pixel (i, j). 7 (A), (B), and (C) show the pixel of interest and the pixel of interest of the noise reduction image, which is a Bayer image, for each of the cases where the pixel of interest is an R pixel, a G pixel, and a B pixel. The positional relationship between the pixels of the same color and the pixels of the same color is shown. By repeating this process while sequentially setting all the pixels of the noise reduction image as the pixel of interest, a smoothed image having the weighted average value A (i, j) in the pixels (i, j) can be obtained.
Figure 2021082212

差分画像生成部222は、入力画像200と、平滑化処理後のノイズ低減画像と、の差分画像を生成することを除き、実施形態1と同様の処理を行う。差分画像処理部223も実施形態1と同様の処理を行う。このように、ノイズ低減画像に対して平滑化処理を行うことにより、ノイズ低減処理後の画像からエッジ成分の少なくとも一部が減少するため、差分画像が有する入力画像200のエッジ成分を増加させることができる。このため、高周波成分画像におけるエッジ成分の比率が向上し、出力画像の鮮鋭性を向上させることができる。 The difference image generation unit 222 performs the same processing as in the first embodiment except that the difference image of the input image 200 and the noise reduction image after the smoothing process is generated. The difference image processing unit 223 also performs the same processing as in the first embodiment. By performing the smoothing process on the noise reduction image in this way, at least a part of the edge component is reduced from the image after the noise reduction process, so that the edge component of the input image 200 of the difference image is increased. Can be done. Therefore, the ratio of the edge component in the high-frequency component image is improved, and the sharpness of the output image can be improved.

本実施形態において、画像生成部230は、図6(B)に示すように、デモザイク処理部231と、ミックス処理部233とを備える。デモザイク処理部231は、ノイズ低減画像に対してデモザイク処理を行うことを除き、実施形態1と同様の処理を行う。 In the present embodiment, as shown in FIG. 6B, the image generation unit 230 includes a demosaic processing unit 231 and a mix processing unit 233. The demosaic processing unit 231 performs the same processing as in the first embodiment except that the noise reduction image is demosaic processed.

ミックス処理部233は、高周波強調画像を用いて、デモザイク処理部231によるデモザイク処理により得られたデモザイク画像を補正することにより、出力画像を生成する。ここで、ミックス処理部233は、デモザイク画像の各プレーンに対して、異なる方法で補正を行うことができる。例えば、ミックス処理部233は、デモザイク画像の各プレーンに対し、プレーンごとに設定された混合比率で、高周波強調画像を合成することができる。ここで、いくつかのプレーンについての混合比率を0に設定することができる。すなわち、ミックス処理部233は、デモザイク画像が有する2以上のプレーンから選択された一部のプレーンに対して選択的に高周波強調画像を加算することができ、残りのプレーンに対しては高周波強調画像を加算しなくてもよい。 The mix processing unit 233 generates an output image by correcting the demosaic image obtained by the demosaic processing by the demosaic processing unit 231 using the high frequency emphasized image. Here, the mix processing unit 233 can correct each plane of the demosaic image by a different method. For example, the mix processing unit 233 can synthesize a high-frequency emphasized image with each plane of the demosaic image at a mixing ratio set for each plane. Here, the mixing ratio for some planes can be set to 0. That is, the mix processing unit 233 can selectively add the high-frequency-enhanced image to a part of the planes selected from the two or more planes of the demosaic image, and the high-frequency-enhanced image to the remaining planes. Does not have to be added.

本実施形態においてミックス処理部233は、高周波成分画像を、デモザイク後画像のYプレーンのみに加算することにより、出力画像を生成する。ここで、Uプレーン及びVプレーンの補正は行われない。このように、Yプレーンのみに高周波強調画像を加算することにより、ノイズを低減させつつ鮮鋭性を良好に保つことができる。人間の視覚特性を考慮すると、ノイズ成分の存在が与える審美性への悪影響は、輝度情報を表すYプレーンでは小さい一方で、色差情報を表すUVプレーンでは大きい。また、信号の鮮鋭性(エッジ成分が大きいこと)が与える審美性への好影響は、Yプレーンでは大きく、UVプレーンでは小さい。このため、エッジ成分及びノイズ成分を含む高周波強調画像をYプレーンのみに加えることで、ノイズ成分が与える画像への悪影響を抑えながら、エッジ成分が与える画像への好影響を大きくすることができる。 In the present embodiment, the mix processing unit 233 generates an output image by adding the high frequency component image only to the Y plane of the image after demosaication. Here, the U plane and the V plane are not corrected. By adding the high-frequency emphasized image only to the Y plane in this way, it is possible to maintain good sharpness while reducing noise. Considering human visual characteristics, the adverse effect of the presence of noise components on aesthetics is small in the Y plane that represents luminance information, but large in the UV plane that represents color difference information. Further, the positive effect of the sharpness of the signal (the large edge component) on the aesthetics is large in the Y plane and small in the UV plane. Therefore, by adding the high-frequency emphasized image containing the edge component and the noise component only to the Y plane, it is possible to increase the positive influence of the edge component on the image while suppressing the adverse effect of the noise component on the image.

ところで、RGB画素のそれぞれの感度差のために、高周波成分画像はBayer配列に従う市松模様状の明暗パターンを有しているかもしれない。そこで、ミックス処理部233は、高周波成分画像のような高周波強調画像の各画素について、画素の種類に応じた補正を行ってから、高周波強調画像を用いたデモザイク後画像の補正を行うことができる。上述のように、本実施形態において入力画像はRaw形式の画像である。Raw形式の画像の各画素は複数の種類の画素(例えばR,G,B)に分類され、互いに異なる種類の画素の画素値は、互いに異なる分光感度特性を有する撮像画素(例えばR,G,B)によって得られている。そこで、ミックス処理部233は、高周波成分画像の各画素の画素値に対して、画素ごとに設定されたゲイン値を乗じることにより、高周波成分画像を補正することができる。本実施形態において、このゲイン値は、R画素、G画素、及びB画素のそれぞれについて異なる値が用いられる。例えば、ゲイン値として、R画素、G画素、及びB画素のそれぞれについてのホワイトバランス係数を用いることができる。このように高周波成分画像の補正を行うことにより、Bayer配列に従う明暗パターンを抑制することができる。また、ミックス処理部233は、実施形態1のゲイン算出部232aと同様に算出したゲイン値と、上記の画素ごとに設定されたゲイン値と、の双方を、高周波成分画像の各画素の画素値に乗じてもよい。 By the way, due to the difference in sensitivity of each of the RGB pixels, the high-frequency component image may have a checkered light-dark pattern that follows the Bayer arrangement. Therefore, the mix processing unit 233 can correct each pixel of the high-frequency enhanced image such as the high-frequency component image according to the type of pixel, and then correct the image after demosaic using the high-frequency enhanced image. .. As described above, in the present embodiment, the input image is a Raw format image. Each pixel of a Raw format image is classified into a plurality of types of pixels (for example, R, G, B), and the pixel values of the pixels of different types are image pixels having different spectral sensitivity characteristics (for example, R, G, B). Obtained by B). Therefore, the mix processing unit 233 can correct the high-frequency component image by multiplying the pixel value of each pixel of the high-frequency component image by the gain value set for each pixel. In the present embodiment, different gain values are used for each of the R pixel, the G pixel, and the B pixel. For example, as the gain value, the white balance coefficient for each of the R pixel, the G pixel, and the B pixel can be used. By correcting the high-frequency component image in this way, it is possible to suppress the light-dark pattern that follows the Bayer array. Further, the mix processing unit 233 sets both the gain value calculated in the same manner as the gain calculation unit 232a of the first embodiment and the gain value set for each pixel as the pixel value of each pixel of the high-frequency component image. May be multiplied by.

以下、図4,5,8のフローチャートを参照して、本実施形態に係る画像処理方法の流れを説明する。ステップS510,S520,S532,S533の処理は実施形態1と同様である。ステップS531において、平滑化処理部221は上述のようにノイズ低減画像に対して平滑化処理を行い、差分画像生成部222は入力画像200からから平滑化処理後のノイズ低減画像を引くことで差分画像を生成する。ステップS540において画像生成部230は、ノイズ低減画像と高周波成分画像から出力画像を得る。図8は、本実施形態におけるステップS540の詳細な処理の流れを示す。ステップS546においてデモザイク処理部231は、上述のようにノイズ低減画像に対するデモザイク処理によりデモザイク後画像を得る。ステップS547においてミックス処理部233は、上述のようにデモザイク後画像のYプレーンを高周波成分画像を用いて補正することにより、出力画像を得る。このように、高周波成分画像を用いてデモザイク画像を補正することにより、出力画像の鮮鋭性を向上させることができる。 Hereinafter, the flow of the image processing method according to the present embodiment will be described with reference to the flowcharts of FIGS. 4, 5 and 8. The processing of steps S510, S520, S532, and S533 is the same as that of the first embodiment. In step S531, the smoothing processing unit 221 performs smoothing processing on the noise reduction image as described above, and the difference image generation unit 222 subtracts the noise reduction image after the smoothing processing from the input image 200 to make a difference. Generate an image. In step S540, the image generation unit 230 obtains an output image from the noise reduction image and the high frequency component image. FIG. 8 shows a detailed processing flow of step S540 in this embodiment. In step S546, the demosaic processing unit 231 obtains a demosaiced image by demosaic processing on the noise reduction image as described above. In step S547, the mix processing unit 233 obtains an output image by correcting the Y plane of the image after demosaication using the high frequency component image as described above. By correcting the demosaic image using the high-frequency component image in this way, the sharpness of the output image can be improved.

(その他の実施例)
上述の実施形態では、図2等に示される画像処理装置の各機能はコンピュータによって実現された。しかしながら、画像処理装置が有する一部又は全部の機能が専用のハードウェア又は画像処理回路によって実現されてもよい。また、本発明の一実施形態に係る画像処理装置は、例えばネットワークを介して接続された複数の情報処理装置によって構成されていてもよい。
(Other Examples)
In the above-described embodiment, each function of the image processing apparatus shown in FIG. 2 and the like is realized by a computer. However, some or all of the functions of the image processing apparatus may be realized by dedicated hardware or an image processing circuit. Further, the image processing device according to the embodiment of the present invention may be composed of, for example, a plurality of information processing devices connected via a network.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

210:ノイズ低減部、220:抽出部、222:差分画像生成部、223:差分画像処理部、223a:クリップ値算出部、223b:クリップ処理部、230:画像生成部 210: Noise reduction unit, 220: Extraction unit, 222: Difference image generation unit, 223: Difference image processing unit, 223a: Clip value calculation unit, 223b: Clip processing unit, 230: Image generation unit

Claims (14)

入力画像からノイズが低減されたノイズ低減画像を生成するノイズ低減手段と、
前記入力画像の高周波成分が強調された高周波強調画像を生成する抽出手段と、
前記高周波強調画像の各画素について、前記画素に対応する被写体の明るさに応じた範囲に画素値を制限する処理を行う補正手段と、
前記補正手段による処理後の高周波強調画像と前記ノイズ低減画像とに基づいて出力画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
A noise reduction means that generates a noise reduction image with noise reduced from the input image,
An extraction means for generating a high-frequency emphasized image in which the high-frequency component of the input image is emphasized, and
A correction means for limiting the pixel value of each pixel of the high-frequency emphasized image to a range corresponding to the brightness of the subject corresponding to the pixel.
A generation means for generating an output image based on the high-frequency enhanced image after processing by the correction means and the noise reduction image, and
An image processing device comprising.
前記補正手段は、前記高周波強調画像の各画素について、前記画素に対応する被写体の明るさに応じた範囲から外れている画素値を、前記範囲を定める上限値又は下限値に変更することを特徴とする、請求項1に記載の画像処理装置。 The correction means is characterized in that, for each pixel of the high-frequency enhanced image, a pixel value that is out of the range corresponding to the brightness of the subject corresponding to the pixel is changed to an upper limit value or a lower limit value that defines the range. The image processing apparatus according to claim 1. 前記補正手段は、前記高周波強調画像の各画素について、前記入力画像又は前記ノイズ低減画像の対応する画素値に基づいて、前記画素に対応する被写体の明るさに応じた範囲を設定することを特徴とする、請求項1又は2に記載の画像処理装置。 The correction means is characterized in that, for each pixel of the high-frequency enhanced image, a range corresponding to the brightness of the subject corresponding to the pixel is set based on the corresponding pixel value of the input image or the noise reduction image. The image processing apparatus according to claim 1 or 2. 前記生成手段は、前記高周波強調画像の、対応する被写体がより暗い画素の画素値に対して、より大きなゲインを適用することを特徴とする、請求項1から3のいずれか1項に記載の画像処理装置。 The generation means according to any one of claims 1 to 3, wherein a larger gain is applied to a pixel value of a pixel whose corresponding subject is darker in the high-frequency enhanced image. Image processing device. 前記生成手段は、前記高周波強調画像の各画素について、前記入力画像又は前記ノイズ低減画像の対応する画素値に基づいて、前記ゲインを設定することを特徴とする、請求項4に記載の画像処理装置。 The image processing according to claim 4, wherein the generation means sets the gain for each pixel of the high-frequency enhanced image based on the corresponding pixel value of the input image or the noise reduction image. apparatus. 前記抽出手段は、前記入力画像と前記ノイズ低減画像との差分画像から前記高周波強調画像を生成することを特徴とする、請求項1から5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the extraction means generates the high-frequency enhanced image from a difference image between the input image and the noise reduction image. 前記抽出手段は、前記入力画像と、前記ノイズ低減画像に対するフィルタ処理により得られた画像と、の差分画像から前記高周波強調画像を生成することを特徴とする、請求項1から5のいずれか1項に記載の画像処理装置。 Any one of claims 1 to 5, wherein the extraction means generates the high-frequency enhanced image from a difference image between the input image and an image obtained by filtering the noise-reduced image. The image processing apparatus according to the section. 前記抽出手段は、前記入力画像と、前記ノイズ低減画像に対する高周波成分を減弱させる非線形処理により得られた画像と、の差分画像から前記高周波強調画像を生成することを特徴とする、請求項1から5のいずれか1項に記載の画像処理装置。 The extraction means is characterized in that the high frequency enhanced image is generated from a difference image between the input image and an image obtained by a nonlinear process for reducing a high frequency component with respect to the noise reduction image, according to claim 1. The image processing apparatus according to any one of 5. 前記抽出手段は、前記差分画像の高周波成分を抽出することにより、前記高周波強調画像を生成することを特徴とする、請求項6から8のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 6 to 8, wherein the extraction means generates the high-frequency enhanced image by extracting a high-frequency component of the difference image. 前記入力画像は、互いに異なる種類の色情報を表す複数の種類の画素が1つのプレーンに配列されている画像であり、
前記生成手段は、前記ノイズ低減画像を前記補正手段による処理後の高周波強調画像を用いて補正し、補正後の画像に対してデモザイク処理を行うことにより、それぞれ1種類の色情報を表す複数のプレーンを有する前記出力画像を生成する
ことを特徴とする、請求項1から9のいずれか1項に記載の画像処理装置。
The input image is an image in which a plurality of types of pixels representing different types of color information are arranged in one plane.
The generation means corrects the noise reduction image using the high-frequency enhanced image processed by the correction means, and performs demosaic processing on the corrected image, whereby a plurality of colors representing one type of color information are exhibited. The image processing apparatus according to any one of claims 1 to 9, wherein the output image having a plane is generated.
前記入力画像はRaw形式の画像であることを特徴とする、請求項1から10のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the input image is a Raw format image. 前記入力画像はBayer画像であることを特徴とする、請求項1から11のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11, wherein the input image is a Bayer image. 入力画像からノイズが低減されたノイズ低減画像を生成する工程と、
前記入力画像の高周波成分が強調された高周波強調画像を生成する工程と、
前記高周波強調画像の各画素について、前記画素に対応する被写体の明るさに応じた範囲に画素値を制限する処理を行う工程と、
前記画素値を制限する処理後の高周波強調画像と前記ノイズ低減画像とに基づいて出力画像を生成する生成工程と、
を有することを特徴とする画像処理方法。
The process of generating a noise-reduced image with reduced noise from the input image,
A step of generating a high frequency enhanced image in which the high frequency component of the input image is emphasized, and
A step of limiting the pixel value of each pixel of the high-frequency emphasized image to a range corresponding to the brightness of the subject corresponding to the pixel, and
A generation step of generating an output image based on the high-frequency emphasized image after the processing for limiting the pixel value and the noise reduction image, and
An image processing method characterized by having.
コンピュータを、請求項1から12のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 12.
JP2019211710A 2019-11-06 2019-11-22 Image processing device, image processing method, and program Active JP7365206B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019211710A JP7365206B2 (en) 2019-11-22 2019-11-22 Image processing device, image processing method, and program
US17/086,674 US11423515B2 (en) 2019-11-06 2020-11-02 Image processing apparatus
US17/854,040 US11836900B2 (en) 2019-11-06 2022-06-30 Image processing apparatus
US17/854,031 US11756165B2 (en) 2019-11-06 2022-06-30 Image processing apparatus, method, and storage medium for adding a gloss

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019211710A JP7365206B2 (en) 2019-11-22 2019-11-22 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2021082212A true JP2021082212A (en) 2021-05-27
JP7365206B2 JP7365206B2 (en) 2023-10-19

Family

ID=75963384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019211710A Active JP7365206B2 (en) 2019-11-06 2019-11-22 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7365206B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022000632T5 (en) 2021-05-14 2023-10-26 Mitsubishi Heavy Industries, Ltd. PLANT MONITORING METHOD, PLANT MONITORING DEVICE AND PLANT MONITORING PROGRAM

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2919943B1 (en) 2007-08-07 2010-02-26 Dxo Labs DIGITAL OBJECT PROCESSING METHOD AND SYSTEM THEREFOR
JP2010068361A (en) 2008-09-12 2010-03-25 Noritsu Koki Co Ltd Photographic image processing method, photographic image processing program, and photographic image processor
JP2014002635A (en) 2012-06-20 2014-01-09 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022000632T5 (en) 2021-05-14 2023-10-26 Mitsubishi Heavy Industries, Ltd. PLANT MONITORING METHOD, PLANT MONITORING DEVICE AND PLANT MONITORING PROGRAM

Also Published As

Publication number Publication date
JP7365206B2 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
JP5251637B2 (en) Noise reduction device, noise reduction method, noise reduction program, recording medium
JP2008060760A (en) Image processing program and image processing apparatus
JP2006114005A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
US11836900B2 (en) Image processing apparatus
JP2020061080A (en) Image processing device, imaging device, and image processing method
US8942477B2 (en) Image processing apparatus, image processing method, and program
JP7365206B2 (en) Image processing device, image processing method, and program
JP7437921B2 (en) Image processing device, image processing method, and program
JP5234127B2 (en) Gradation conversion device, program, electronic camera, and method thereof
JP4752912B2 (en) Image processing apparatus, image processing program, image processing method, and electronic camera for correcting texture of image
JP2016177500A (en) Image processing device, image processing system and program
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP4742068B2 (en) Image processing method, image processing system, and image processing program
JP2006114006A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JP2005182232A (en) Luminance correcting device and method
JP5832095B2 (en) Image processing apparatus, image processing method, and program
JP5863236B2 (en) Image processing apparatus and image processing method
JP2012178191A (en) Image processing apparatus and image processing method
JP5627730B2 (en) Image processing apparatus and image processing method
JP4793166B2 (en) Image processing program and image processing apparatus
JP2005094452A (en) Method, system, and program for processing image
JP2008147714A (en) Image processor and image processing method
KR20160103213A (en) High Speed Image Processing Method Using Retinex
JP2003101783A (en) Image contour emphasizing equipment, image contour emphasizing method, image contour emphasizing program and its program recording medium
KR20160103212A (en) High Speed Image Processing Appratus Using Retinex

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231006

R151 Written notification of patent or utility model registration

Ref document number: 7365206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151