JP5935649B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5935649B2
JP5935649B2 JP2012228724A JP2012228724A JP5935649B2 JP 5935649 B2 JP5935649 B2 JP 5935649B2 JP 2012228724 A JP2012228724 A JP 2012228724A JP 2012228724 A JP2012228724 A JP 2012228724A JP 5935649 B2 JP5935649 B2 JP 5935649B2
Authority
JP
Japan
Prior art keywords
frequency
noise
unit
image
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012228724A
Other languages
Japanese (ja)
Other versions
JP2014081764A (en
Inventor
清 高
清 高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012228724A priority Critical patent/JP5935649B2/en
Publication of JP2014081764A publication Critical patent/JP2014081764A/en
Application granted granted Critical
Publication of JP5935649B2 publication Critical patent/JP5935649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

デジタルカメラ等の撮像装置は、所定の撮像センサーを備え、この撮像センサーによる撮像によって撮影画像を取得する。一般的に、撮影画像(画像信号)には、撮像センサーに特有の、例えば、暗電流等に起因するノイズ成分が含まれるが、近年における更なる高画質化の要請に伴い、このノイズ成分を精度よく除去することが求められている。   An imaging apparatus such as a digital camera includes a predetermined imaging sensor, and acquires a captured image by imaging with the imaging sensor. In general, a captured image (image signal) includes a noise component specific to an imaging sensor, for example, due to dark current or the like. It is required to be removed with high accuracy.

このような状況に鑑み、従来の画像処理装置において、入力画像を複数の周波数帯に分離して、各周波数帯の周波数成分における低周波成分からエッジ強度を検出して、検出したエッジ強度に基づいてエッジ成分の保存度合いを算出し、高周波成分に対するエッジ成分の保存とノイズ成分の除去を行った後、低周波成分とを再び合成することにより、ノイズの除去とエッジ成分の保存とを同時に行って高画質な画像を得るようにしたものがある(例えば、特許文献1)。   In view of such a situation, in a conventional image processing apparatus, an input image is separated into a plurality of frequency bands, edge strength is detected from low frequency components in frequency components of each frequency band, and based on the detected edge strength. After calculating the degree of preservation of edge components, preserving edge components for high frequency components and removing noise components, and then synthesizing low frequency components again, noise removal and edge component preservation are performed simultaneously. In some cases, a high-quality image is obtained (for example, Patent Document 1).

特開2008−15741号公報JP 2008-15741 A

しかしながら、上記特許文献1に記載の画像処理装置では、カラー画像の場合にあっては、RGBのチャンネル毎に上述した処理によりノイズの除去とエッジ成分の保存を行うのが便宜であるが、チャンネルによってノイズの分布状況が異なる場合には、ノイズが多いチャンネルではエッジ検出の精度が影響されてノイズをエッジとして誤検出してしまい、これが保存されてしまうおそれがある。したがって、カラー画像にあっては、ノイズ除去精度がよくないという問題がある。   However, in the image processing apparatus described in Patent Document 1, in the case of a color image, it is convenient to perform noise removal and edge component storage by the above-described processing for each RGB channel. If the distribution status of the noise differs depending on the channel, there is a possibility that the noise is erroneously detected as an edge in the channel having a lot of noise, and the noise is erroneously detected and stored. Therefore, a color image has a problem that noise removal accuracy is not good.

本発明の課題は、カラー画像において、エッジ成分の保存精度を良好に保ちながらノイズ除去精度を向上させることができる画像処理装置及び画像処理方法を提供することである。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of improving noise removal accuracy while maintaining good storage accuracy of edge components in a color image.

以上の課題を解決するため、請求項1に記載の発明は、画像処理装置において、
複数の波長領域を含む入力画像を複数の周波数帯における周波数成分に分離する周波数分離部と、
前記複数の波長領域から何れかを選択する波長領域選択部と、
前記複数の周波数帯のそれぞれについて、前記波長領域選択部によって選択された波長領域の周波数成分における低周波成分からエッジ強度を検出するエッジ検出部と、
前記周波数分離部により分離された各周波数帯の周波数成分における高周波成分からノイズ成分を除去するとともに、前記エッジ検出部によって検出されたエッジ強度に基づいて、前記高周波成分に対するエッジ成分の保存を行うノイズ除去部と、
前記複数の周波数帯のそれぞれにおける、前記ノイズ除去部によりノイズ成分が除去されるとともに前記エッジ成分が保存された前記高周波成分を合成する周波数合成部と、
を備え
前記波長領域選択部は、
前記複数の波長領域のそれぞれについて、前記周波数分離部により分離された各周波数帯の周波数成分における高周波成分からノイズ量を算出するノイズ量算出部と、
前記ノイズ量算出部により得られた前記複数の波長領域毎の高周波成分のノイズ量から最も少ないノイズ量である高周波成分の波長領域を判定する波長領域判定部と
を備え、
前記波長領域判定部によって判定された波長領域を前記複数の波長領域から選択することを特徴とする。
In order to solve the above-described problems, the invention described in claim 1 is an image processing apparatus.
A frequency separation unit that separates an input image including a plurality of wavelength regions into frequency components in a plurality of frequency bands;
A wavelength region selection unit for selecting one of the plurality of wavelength regions;
For each of the plurality of frequency bands, an edge detection unit that detects edge intensity from a low frequency component in a frequency component of the wavelength region selected by the wavelength region selection unit;
Noise that removes noise components from high-frequency components in the frequency components of each frequency band separated by the frequency separation unit and that stores edge components for the high-frequency components based on the edge strength detected by the edge detection unit A removal section;
In each of the plurality of frequency bands, a frequency synthesizer that synthesizes the high frequency component in which the noise component is removed and the edge component is preserved by the noise removing unit;
Equipped with a,
The wavelength region selector is
For each of the plurality of wavelength regions, a noise amount calculation unit that calculates a noise amount from a high frequency component in a frequency component of each frequency band separated by the frequency separation unit;
A wavelength region determination unit that determines a wavelength region of a high-frequency component that is the smallest amount of noise from the amount of noise of the high-frequency component for each of the plurality of wavelength regions obtained by the noise amount calculation unit;
With
The wavelength region determined by the wavelength region determination unit is selected from the plurality of wavelength regions .

請求項に記載の発明は、請求項1に記載の画像処理装置において、
前記複数の波長領域は、可視波長の赤色領域と緑色領域と青色領域とを含むことを特徴とする。
The invention according to claim 2 is the image processing apparatus according to claim 1 ,
The plurality of wavelength regions include a red region, a green region, and a blue region of visible wavelengths.

請求項に記載の発明は、請求項に記載の画像処理装置において、
前記複数の波長領域は、前記可視波長の赤色領域と緑色領域と青色領域とから求められる輝度情報を含むことを特徴とする。
The invention according to claim 3 is the image processing apparatus according to claim 2 ,
The plurality of wavelength regions include luminance information obtained from a red region, a green region, and a blue region of the visible wavelength.

請求項に記載の発明は、請求項1〜の何れか一項に記載の画像処理装置において、
前記複数の波長領域は、赤外波長領域を含むことを特徴とする。
The invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3 ,
The plurality of wavelength regions include an infrared wavelength region.

請求項に記載の発明は、画像処理方法において、
複数の波長領域を含む入力画像を複数の周波数帯における周波数成分に分離する周波数分離工程と、
前記複数の波長領域から何れかを選択する波長領域選択工程と、
前記複数の周波数帯のそれぞれについて、前記波長領域選択工程において選択された波長領域の周波数成分における低周波成分からエッジ強度を検出するエッジ検出工程と、
前記周波数分離工程において分離された各周波数帯の周波数成分における高周波成分からノイズ成分を除去するとともに、前記エッジ検出工程において検出されたエッジ強度に基づいて、前記高周波成分に対するエッジ成分の保存を行うノイズ除去工程と、
前記複数の周波数帯のそれぞれにおける、前記ノイズ除去工程においてノイズ成分が除去されるとともに前記エッジ成分が保存された前記高周波成分を合成する周波数合成工程と、
を含み、
前記波長領域選択工程は、
前記複数の波長領域のそれぞれについて、前記周波数分離工程において分離された各周波数帯の周波数成分における高周波成分からノイズ量を算出するノイズ量算出工程と、
前記ノイズ量算出工程において得られた前記複数の波長領域毎の高周波成分のノイズ量から最も少ないノイズ量である高周波成分の波長領域を判定する波長領域判定工程と
を含み、
前記波長領域選択工程では、前記波長領域判定工程において判定された波長領域を前記複数の波長領域から選択することを特徴とする。
The invention according to claim 5 is an image processing method,
A frequency separation step of separating an input image including a plurality of wavelength regions into frequency components in a plurality of frequency bands;
A wavelength region selection step of selecting any one of the plurality of wavelength regions;
For each of the plurality of frequency bands, an edge detection step of detecting edge intensity from a low frequency component in a frequency component of the wavelength region selected in the wavelength region selection step;
Noise that removes noise components from high-frequency components in the frequency components of each frequency band separated in the frequency separation step and that stores edge components for the high-frequency components based on the edge strength detected in the edge detection step A removal step;
In each of the plurality of frequency bands, a frequency synthesizing step of synthesizing the high frequency component in which the noise component is removed and the edge component is stored in the noise removing step;
Only including,
The wavelength region selection step includes
For each of the plurality of wavelength regions, a noise amount calculation step of calculating a noise amount from a high frequency component in a frequency component of each frequency band separated in the frequency separation step;
A wavelength region determination step of determining a wavelength region of a high-frequency component that is the least amount of noise from the amount of noise of the high-frequency component for each of the plurality of wavelength regions obtained in the noise amount calculation step;
Including
In the wavelength region selection step, the wavelength region determined in the wavelength region determination step is selected from the plurality of wavelength regions .

本発明によれば、カラー画像において、エッジ成分の保存精度を良好に保ちながらノイズ除去精度を向上させることができる。   According to the present invention, noise removal accuracy can be improved in a color image while maintaining good preservation accuracy of edge components.

デジタルカメラの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a digital camera. 画像処理部のノイズ除去処理に関する回路構成例を示す機能ブロック図である。It is a functional block diagram which shows the circuit structural example regarding the noise removal process of an image process part. エッジ検出部において算出されるエッジ保存係数Eについて説明するグラフである。It is a graph explaining the edge preservation | save coefficient E calculated in an edge detection part. ノイズ除去部のコアリング処理におけるコアリング特性について説明するグラフである。It is a graph explaining the coring characteristic in the coring process of a noise removal part. ノイズ除去処理に関する動作について説明するフローチャートである。It is a flowchart explaining the operation | movement regarding a noise removal process. 第2の実施の形態における画像処理部のノイズ除去処理に関する回路構成例を示す機能ブロック図である。It is a functional block diagram which shows the circuit structural example regarding the noise removal process of the image process part in 2nd Embodiment. 第3の実施の形態における画像処理部のノイズ除去処理に関する回路構成例を示す機能ブロック図である。It is a functional block diagram which shows the circuit structural example regarding the noise removal process of the image process part in 3rd Embodiment.

以下、本発明の実施の形態について図面を参照しながら説明する。なお、発明の範囲は図示例に限定されない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The scope of the invention is not limited to the illustrated example.

(第1の実施の形態)
図1は、第1の実施の形態に係る画像処理装置が適用される撮像装置の一例であるデジタルカメラ1の概略的な機能ブロック図を示している。図1に示すように、デジタルカメラ1は、レンズ部2、撮像センサー3、アンプ4、A/D変換部5、画像処理部6、画像メモリー7、制御部8、表示部9及び操作部10を備えている。
(First embodiment)
FIG. 1 is a schematic functional block diagram of a digital camera 1 that is an example of an imaging apparatus to which the image processing apparatus according to the first embodiment is applied. As shown in FIG. 1, the digital camera 1 includes a lens unit 2, an image sensor 3, an amplifier 4, an A / D conversion unit 5, an image processing unit 6, an image memory 7, a control unit 8, a display unit 9, and an operation unit 10. It has.

レンズ部2は、被写体光(光像)を取り込むレンズ窓として機能するとともに、この被写体光をカメラ本体の内部に配置されている撮像センサー3に導くための光学レンズ系を構成している。レンズ部2は、被写体光の光軸Lに沿って直列的に配置された、例えば、ズームレンズやフォーカスレンズ、その他の固定レンズブロックからなるレンズ群である。レンズ部2は、レンズの透過光量を調節するための絞りやシャッターを備えており、制御部8によってこれらが駆動制御される。   The lens unit 2 functions as a lens window for capturing subject light (light image), and constitutes an optical lens system for guiding the subject light to the image sensor 3 disposed inside the camera body. The lens unit 2 is a lens group including, for example, a zoom lens, a focus lens, and other fixed lens blocks arranged in series along the optical axis L of the subject light. The lens unit 2 includes a diaphragm and a shutter for adjusting the amount of light transmitted through the lens, and these are driven and controlled by the control unit 8.

撮像センサー3は、レンズ部2において結像された被写体光像の光量に応じ、R、G、B各成分の画像信号に光電変換してアンプ4に出力する。本実施の形態では、撮像センサー3としてCMOS(Complementary Metal Oxide Semiconductor)イメージセンサー、VMIS(threshold Voltage Modulation Image Sensor)、あるいは、CCD(Charge Coupled Device)イメージセンサー等が採用できる。   The imaging sensor 3 photoelectrically converts the image signals of R, G, and B components to output to the amplifier 4 in accordance with the amount of light of the subject light image formed in the lens unit 2. In the present embodiment, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a VMIS (threshold voltage modulation image sensor), a CCD (Charge Coupled Device) image sensor, or the like can be employed as the imaging sensor 3.

アンプ4は、撮像センサー3から出力された画像信号を増幅するものであり、例えば、AGC(Auto Gain Control)回路を備え、当該出力信号のゲイン調整を行う。アンプ4は、AGC回路の他、アナログ値としての画像信号のサンプリングノイズの低減を行うCDS(Correlated Double Sampling:相関二重サンプリング)回路を備えていてもよい。AGC回路は、適正露出が得られなかった場合、例えば、非常に低輝度の被写体を撮影する場合の撮影画像のレベル不足を補償する機能も有する。なお、AGC回路に対するゲイン値は制御部8によって設定される。   The amplifier 4 amplifies the image signal output from the image sensor 3 and includes, for example, an AGC (Auto Gain Control) circuit, and adjusts the gain of the output signal. The amplifier 4 may include a CDS (Correlated Double Sampling) circuit that reduces sampling noise of an image signal as an analog value in addition to the AGC circuit. The AGC circuit also has a function of compensating for an insufficient level of a captured image when a proper exposure is not obtained, for example, when photographing a very low-luminance subject. The gain value for the AGC circuit is set by the control unit 8.

A/D変換部5は、アンプ4にて増幅されたアナログ値の画像信号(アナログ信号)をデジタル値の画像信号(デジタル信号)に変換するA/D変換処理を行うものであり、撮像センサー3の各画素で受光して得られる画素信号をそれぞれ、例えば、12ビットの画素データに変換する。   The A / D conversion unit 5 performs A / D conversion processing for converting an analog image signal (analog signal) amplified by the amplifier 4 into a digital image signal (digital signal). Each pixel signal obtained by receiving light at each pixel 3 is converted into, for example, 12-bit pixel data.

画像処理部6は、上述したA/D変換処理により得られた画像信号に対し、各種画像処理を行う。具体的には、例えば、色補間処理、色補正処理及び色空間変換処理等の色処理や、ホワイトバランス補正処理、ノイズ除去処理、ダイナミックレンジ圧縮処理等を行う。本実施の形態では、これらの画像処理における特にノイズ除去処理について主な特徴点を有しているが、これについては後述する。   The image processing unit 6 performs various image processing on the image signal obtained by the A / D conversion process described above. Specifically, for example, color processing such as color interpolation processing, color correction processing, and color space conversion processing, white balance correction processing, noise removal processing, dynamic range compression processing, and the like are performed. In the present embodiment, there is a main feature point regarding noise removal processing in the image processing, which will be described later.

画像メモリー7は、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリーからなり、画像処理部6にて画像処理される前のRAW画像データ、あるいは、画像処理部6や制御部8での各種処理時又は処理後の画像データ等のデータを保存する。   The image memory 7 includes a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The image memory 7 is RAW image data before image processing by the image processing unit 6, or the image processing unit 6 or the control unit 8. Data such as image data at the time of various processing in or after processing is stored.

制御部8は、各制御プログラム等を記憶するROM、一時的に各種データを格納するRAM、及び、制御プログラム等をROMから読み出して実行するCPU(Central Processing Unit)等からなり、デジタルカメラ1全体の動作制御を司るものである。制御部8は、撮像センサー3や操作部10等の装置各部からの各種信号に基づき、装置各部が必要とする制御パラメーターを算出し、これを送信することで各部の動作を制御する。制御パラメーターは、例えば、撮影時における最適な露光量に設定するための露光量制御パラメーターや、最適なダイナミックレンジに設定するためのダイナミックレンジ制御パラメーター等がある。   The control unit 8 includes a ROM that stores each control program, a RAM that temporarily stores various data, a CPU (Central Processing Unit) that reads and executes the control program from the ROM, and the like. It governs the operation control. The control unit 8 calculates control parameters required by each unit of the apparatus based on various signals from the respective units of the apparatus such as the imaging sensor 3 and the operation unit 10, and controls the operation of each unit by transmitting the calculated control parameters. The control parameters include, for example, an exposure amount control parameter for setting an optimal exposure amount at the time of shooting, a dynamic range control parameter for setting an optimal dynamic range, and the like.

表示部9は、例えば、カメラ背面に配設されたカラー液晶表示素子からなる液晶表示器(LCD;Liquid Crystal Display)等からなり、撮像センサー3で撮像された画像等を表示する。   The display unit 9 includes, for example, a liquid crystal display (LCD) composed of a color liquid crystal display element disposed on the back of the camera, and displays an image captured by the image sensor 3.

操作部10は、デジタルカメラ1に対するユーザーによる操作指示を行うものであり、例えば、電源スイッチ、レリーズスイッチ、各種撮影モードを設定するモード設定スイッチ、メニュー選択スイッチ等の各種の操作スイッチ群からなる。例えば、レリーズスイッチが押下されることで、撮像センサー3により被写体光が撮像され、これにより得られた撮影画像に対して所要の画像処理が施された後、画像メモリー7等に記録されるといった一連の撮影動作が実行される。   The operation unit 10 instructs the digital camera 1 to be operated by the user, and includes, for example, various operation switch groups such as a power switch, a release switch, a mode setting switch for setting various shooting modes, and a menu selection switch. For example, when the release switch is pressed, the subject light is imaged by the imaging sensor 3, and the captured image obtained thereby is subjected to necessary image processing and then recorded in the image memory 7 or the like. A series of shooting operations is executed.

ところで、画像処理部6には、撮像センサー3による撮影により得られた広DR(Dynamic Range)画像(入力画像)が入力されるが、この入力画像に対する画像処理部6におけるノイズ除去処理について以下に説明する。図2は、画像処理部6における主にノイズ除去処理に関する回路構成例を示す機能ブロック図である。図2に示すように、画像処理部6は、周波数分離部601、HPF部604、ノイズ量算出部605、チャンネル判定部606、エッジ検出部607、ノイズ除去部608及び周波数合成部611を備えている。   By the way, a wide DR (Dynamic Range) image (input image) obtained by photographing by the image sensor 3 is input to the image processing unit 6. The noise removal processing in the image processing unit 6 for this input image will be described below. explain. FIG. 2 is a functional block diagram illustrating a circuit configuration example mainly relating to noise removal processing in the image processing unit 6. As shown in FIG. 2, the image processing unit 6 includes a frequency separation unit 601, an HPF unit 604, a noise amount calculation unit 605, a channel determination unit 606, an edge detection unit 607, a noise removal unit 608, and a frequency synthesis unit 611. Yes.

これら各機能部を概略的に説明すると、画像処理部6に入力された入力画像6200は、RGBのチャンネル毎に分離される。すなわち、入力画像6200には、可視波長の赤色(R)領域と緑色(G)領域と青色(B)領域とを有する複数の波長領域が含まれており、画像処理部6に入力されたときに、入力画像6200に含まれるこれらの波長領域がそれぞれRチャンネル、Gチャンネル、Bチャンネルとして分離される。そして、周波数分離部601は、RGBの各チャンネルに分離された入力画像6200に対してそれぞれ階層的な複数の処理ステップでのLPF処理とダウンサンプリング処理とを行うことによって、入力画像6200をRGBのチャンネル毎に複数の周波数成分に分離する。この周波数成分を分離する処理(周波数分離処理)により、処理ステップ毎に低周波成分の画像(低周波画像)が生成される。   Describing these functional units schematically, the input image 6200 input to the image processing unit 6 is separated for each RGB channel. That is, the input image 6200 includes a plurality of wavelength regions having a red (R) region, a green (G) region, and a blue (B) region of visible wavelengths, and is input to the image processing unit 6. In addition, these wavelength regions included in the input image 6200 are separated as an R channel, a G channel, and a B channel, respectively. Then, the frequency separation unit 601 performs an LPF process and a downsampling process on a plurality of hierarchical processing steps on the input image 6200 separated into the RGB channels, thereby converting the input image 6200 into the RGB image. Separate into multiple frequency components for each channel. By the processing for separating the frequency components (frequency separation processing), an image having a low frequency component (low frequency image) is generated for each processing step.

HPF部604は、各処理ステップにおいて、周波数分離部601による周波数分離処理で実施されるLPF処理前の画像からLPF処理後の画像である低周波画像を減算することで、RGBの各チャンネルについて高周波画像を生成する。   In each processing step, the HPF unit 604 subtracts a low-frequency image, which is an image after LPF processing, from an image before LPF processing that is performed by frequency separation processing by the frequency separation unit 601, thereby high-frequency signals for each RGB channel. Generate an image.

ノイズ量算出部605は、各処理ステップにおいて、HPF部604によって生成された高周波画像から、ノイズがどのくらい含まれているかについて、RGBの各チャンネルについてそれぞれ求める。   In each processing step, the noise amount calculation unit 605 obtains how much noise is contained in each RGB channel from the high-frequency image generated by the HPF unit 604.

チャンネル判定部606は、各処理ステップにおいて、ノイズ量算出部605で求められたRGBの各チャンネルのノイズ量から、何れのチャンネルの画像のノイズ量が最も少ないかを判定する。   In each processing step, the channel determination unit 606 determines which channel's image noise amount is the smallest from the RGB channel noise amounts obtained by the noise amount calculation unit 605.

エッジ検出部607は、各処理ステップにおいて、LPF処理後の低周波画像に対するエッジ成分に関する検出処理(エッジ検出処理)を行う。ここでエッジ検出処理の対象となるのは、チャンネル判定部606によってノイズ量が最も少ないと判定されたチャンネルの低周波画像である。   In each processing step, the edge detection unit 607 performs detection processing (edge detection processing) related to edge components for the low-frequency image after the LPF processing. Here, the target of the edge detection process is a low-frequency image of a channel that is determined by the channel determination unit 606 to have the least amount of noise.

ノイズ除去部608は、HPF部604において生成された高周波画像に対するノイズ成分の除去処理(ノイズ除去処理)をRGBの各チャンネルについて実施する。   The noise removal unit 608 performs noise component removal processing (noise removal processing) on the high-frequency image generated by the HPF unit 604 for each of the RGB channels.

周波数合成部611は、周波数分離部601における周波数分離処理により生成された各処理ステップのうちの最終段の処理ステップでの低周波画像に対する各処理ステップでのノイズ除去処理後の高周波画像の合成処理及びアップサンプリング処理を行って出力画像6210を生成する。画像処理部6から出力画像6210が出力されるとき、RGBの各チャンネルの画像は統合される。   The frequency synthesizer 611 synthesizes a high-frequency image after noise removal processing in each processing step with respect to the low-frequency image in the final processing step among the processing steps generated by the frequency separation processing in the frequency separation unit 601. Then, an upsampling process is performed to generate an output image 6210. When the output image 6210 is output from the image processing unit 6, the images of the RGB channels are integrated.

上述した各部の構成及び動作の詳細について説明する。周波数分離部601は、上述したLPF処理を行うLPF部602と上述したダウンサンプリング(DS)処理を行うDS部603とを備えている。LPF部602は、処理ステップ1のLPF部6021、処理ステップ2のLPF部6022・・・、処理ステップ(n−1)のLPF部6023及び処理ステップnのLPF部6024を備えている。各LPF部6021〜6024では、画像処理部6に入力されてRGBのチャンネル毎に分離された入力画像のそれぞれに対し、各処理ステップにおいて、ローパスフィルターを用いたLPF処理を行う。例えば、処理ステップ(n−1)においては、Rチャンネル、Gチャンネル、Bチャンネルの各入力画像に対してそれぞれLPF部6023によりLPF処理が行われてRチャンネル、Gチャンネル、Bチャンネルの各低周波画像が抽出される。ここでの「入力画像」とは、各処理ステップに対して入力される画像という意味で用いている。この入力画像は、処理ステップ1に対するものはLPF処理されていない撮像センサー3から送信されてきた撮影画像そのものの画像データであるが、処理ステップ2から下段の処理により抽出された低周波画像は、後述するエッジ検出用(エッジ保存係数算出用)の画像であるともいえる。   Details of the configuration and operation of each unit described above will be described. The frequency separation unit 601 includes an LPF unit 602 that performs the above-described LPF processing and a DS unit 603 that performs the above-described downsampling (DS) processing. The LPF unit 602 includes an LPF unit 6021 for processing step 1, an LPF unit 6022 for processing step 2,..., An LPF unit 6023 for processing step (n−1), and an LPF unit 6024 for processing step n. Each of the LPF units 6021 to 6024 performs LPF processing using a low-pass filter in each processing step on each of the input images input to the image processing unit 6 and separated for each RGB channel. For example, in the processing step (n-1), LPF processing is performed by the LPF unit 6023 on the input images of the R channel, G channel, and B channel, respectively, so that the low frequency of the R channel, G channel, and B channel is obtained. An image is extracted. The “input image” here is used to mean an image input to each processing step. This input image is the image data of the captured image itself transmitted from the imaging sensor 3 that has not been subjected to the LPF process for the processing step 1, but the low frequency image extracted by the lower processing from the processing step 2 is It can also be said that this is an image for edge detection (for edge conservation coefficient calculation) described later.

DS部603は、処理ステップ1に対応するDS部6031、処理ステップ2に対応するDS部6032・・・、処理ステップ(n−1)に対応するDS部6033を備えている。但し、処理ステップnは最終段の処理ステップであることから、この処理ステップnに対応するDS部は備えられていない。各DS部6031〜6033では、各処理ステップにおいてLPF処理により抽出された低周波画像に対して、この画像のサイズ(画素数)を縦横ともに1/2にする、例えば、画素間引きによるDS処理を行い、このDS処理後の画像を次段の処理ステップのLPF部に出力する。例えば、処理ステップ(n−1)においては、LPF部6023によるLPF処理後の低周波画像に対してDS部6033によりDS処理が行われ、処理ステップnに対する入力画像が生成される。なお、本実施の形態では、画像のサイズを1/2にするDS処理を行うものとしているが、これに限らず、1/3や1/4等、任意の倍率でのDS処理が採用可能である。   The DS unit 603 includes a DS unit 6031 corresponding to the processing step 1, a DS unit 6032... Corresponding to the processing step 2, and a DS unit 6033 corresponding to the processing step (n−1). However, since the processing step n is the final processing step, the DS unit corresponding to the processing step n is not provided. In each DS unit 6031 to 6033, the size (number of pixels) of the low frequency image extracted by the LPF process in each processing step is halved in both vertical and horizontal directions, for example, DS processing by pixel thinning is performed. The DS-processed image is output to the LPF unit in the next processing step. For example, in the processing step (n−1), the DS unit 6033 performs DS processing on the low-frequency image after the LPF processing by the LPF unit 6023, and an input image for the processing step n is generated. In this embodiment, DS processing is performed to reduce the image size to ½. However, the present invention is not limited to this, and DS processing at any magnification such as 1/3 or 1/4 can be adopted. It is.

なお、上述した処理ステップの数は任意に設定することができるが、本実施の形態では、例えば、「4」(n=4)に設定されているものとして説明する。また、本実施の形態では、処理ステップ数n=4となる場合において、各LPF部のLPF処理として、例えば、7×7LPF処理を適用する。7×7LPF処理は、タップ数「7」のフィルタサイズのLPFを用いた処理である。なお、当該処理ステップ数とタップ数との関係に関し、タップ数が「7」より小さい値、例えば、「5」となる場合のLPF処理である5×5LPF処理を行うときには、処理ステップ数nは「4」より大きな数(例えば、「8」)に設定するのが好適である。これは、タップ数が小さくなるにつれて、LPF処理を1回行う毎の画像の平滑化の度合いが小さくなるので、これに応じてLPF処理を行う回数、すなわち、処理ステップの段数を増加させる必要があることによる。但し、必ずしもこの関係が成立するように処理ステップ数及びタップ数を設定しなくてもよく、LPF部におけるLPF処理により得られる低周波画像から残存ノイズがなくなるような低周波画像が抽出される処理ステップ数やLPFのタップ数が設定されればよい。   The number of processing steps described above can be arbitrarily set, but in the present embodiment, for example, it is assumed that “4” (n = 4) is set. In the present embodiment, when the number of processing steps is n = 4, for example, 7 × 7 LPF processing is applied as the LPF processing of each LPF unit. The 7 × 7 LPF process is a process using an LPF having a filter size of “7” taps. Regarding the relationship between the number of processing steps and the number of taps, when performing 5 × 5 LPF processing, which is LPF processing when the number of taps is smaller than “7”, for example, “5”, the number of processing steps n is It is preferable to set a number larger than “4” (for example, “8”). This is because as the number of taps decreases, the degree of smoothing of the image each time the LPF process is performed decreases, and accordingly, the number of times the LPF process is performed, that is, the number of processing steps must be increased. It depends. However, it is not always necessary to set the number of processing steps and the number of taps so that this relationship is established, and a process of extracting a low frequency image that eliminates residual noise from the low frequency image obtained by the LPF process in the LPF unit. The number of steps and the number of LPF taps may be set.

このように、周波数分離部601では、最上段の処理ステップ1から最下段の処理ステップ4へと複数段の処理ステップによる複数回のLPF処理とDS処理とを行うことにより、入力画像6200を複数の周波数画像に分解する。なお、LPF処理とDS処理とを繰り返し行うことは、順にタップ数を大きくしていきながらLPF処理を行うことと同等の処理を行っていることになる。   As described above, the frequency separation unit 601 performs a plurality of LPF processing and DS processing by a plurality of processing steps from the uppermost processing step 1 to the lowermost processing step 4, thereby generating a plurality of input images 6200. Is decomposed into frequency images. It should be noted that repeatedly performing the LPF process and the DS process is equivalent to performing the LPF process while increasing the number of taps in order.

HPF部604は、処理ステップ1〜n(1〜4)に対応するHPF部6041〜6044を備えている。HPF部604は、RGBのチャンネル毎に、LPF部602に入力される前の入力画像からLPF部602によってLPF処理された後の低周波画像を減算するハイパスフィルタ(HPF)処理を行ってRGB各チャンネルの高周波画像を抽出する。   The HPF unit 604 includes HPF units 6041 to 6044 corresponding to the processing steps 1 to n (1 to 4). The HPF unit 604 performs high-pass filter (HPF) processing for subtracting the low-frequency image after the LPF processing by the LPF unit 602 from the input image before being input to the LPF unit 602 for each of the RGB channels, and performs RGB processing. Extract a high-frequency image of the channel.

例えば、処理ステップ(n−1)、すなわち、処理ステップ3におけるHPF部6043は、処理ステップ(n−1)の前段の処理ステップ(n−2)(処理ステップ2)におけるDS部6032から出力された入力画像と、LPF部6023から出力された低周波画像とを入力し、この入力画像に対する低周波画像の減算を行う。HPF部6043は、減算した結果得られた高周波画像を出力する。このように、各HPF部6041〜6044により生成された高周波画像は、各処理ステップの入力画像からノイズ成分を含む高周波成分が分離されたものであり、後述する処理においてこの高周波画像からノイズ除去を行うことになる。このように、複数段の処理ステップによる複数回のHPF処理を行うことによって、1回のHPF処理では分離しきれなかったノイズ成分を分離することが可能となる。   For example, the processing step (n−1), that is, the HPF unit 6043 in the processing step 3 is output from the DS unit 6032 in the processing step (n−2) (processing step 2) preceding the processing step (n−1). The input image and the low-frequency image output from the LPF unit 6023 are input, and the low-frequency image is subtracted from the input image. The HPF unit 6043 outputs a high-frequency image obtained as a result of the subtraction. As described above, the high-frequency images generated by the HPF units 6041 to 6044 are obtained by separating high-frequency components including noise components from the input images of the respective processing steps, and noise removal is performed from the high-frequency images in the processing described later. Will do. As described above, by performing the HPF processing a plurality of times by a plurality of processing steps, it becomes possible to separate noise components that could not be separated by one HPF processing.

ノイズ量算出部605は、処理ステップ1〜n(1〜4)に対応するノイズ量算出部6051〜6054を備えている。ノイズ量算出部605は、RGBの各チャンネルについて、HPF部604によって生成された高周波画像に含まれるノイズの量をそれぞれ算出する。ノイズ量算出部605は、例えば、高周波画像に含まれる各画素の画素値の平均を求めることにより、ノイズ量の算出を行う。このとき、画素値の平均を求める際の算出の対象とする画素を、所定の閾値を超えた画素値であるものとするのが好適である。なお、ノイズ量の算出ができるものであれば、他の方法によって算出するものであってもよい。   The noise amount calculation unit 605 includes noise amount calculation units 6051 to 6054 corresponding to the processing steps 1 to n (1 to 4). The noise amount calculation unit 605 calculates the amount of noise included in the high-frequency image generated by the HPF unit 604 for each of the RGB channels. The noise amount calculation unit 605 calculates the noise amount by, for example, obtaining an average of pixel values of each pixel included in the high frequency image. At this time, it is preferable that the pixel to be calculated when obtaining the average of the pixel values is a pixel value exceeding a predetermined threshold value. As long as the amount of noise can be calculated, it may be calculated by other methods.

波長領域判定部としてのチャンネル判定部606は、処理ステップ1〜n(1〜4)に対応するチャンネル判定部6061〜6064を備えている。チャンネル判定部606は、ノイズ量算出部605によって算出されたRGBのチャンネル毎の高周波画像のノイズ量から、RGBの各チャンネルのうち最もノイズ量の少ないチャンネルを判定する。チャンネル判定部606は、判定したチャンネルの低周波画像がエッジ検出処理の対象として選択されるように、チャンネルの選択信号をエッジ検出部に出力する。   The channel determination unit 606 as a wavelength region determination unit includes channel determination units 6061 to 6064 corresponding to processing steps 1 to n (1 to 4). The channel determination unit 606 determines the channel with the smallest noise amount among the RGB channels from the noise amount of the high-frequency image for each RGB channel calculated by the noise amount calculation unit 605. The channel determination unit 606 outputs a channel selection signal to the edge detection unit so that the low-frequency image of the determined channel is selected as an object of edge detection processing.

このように、本実施の形態では、ノイズ量算出部605とチャンネル判定部606とにより、波長領域選択部を構成している。   Thus, in the present embodiment, the noise amount calculation unit 605 and the channel determination unit 606 constitute a wavelength region selection unit.

エッジ検出部607は、処理ステップ1〜n(1〜4)に対応するエッジ検出部6071〜6074を備えている。また、ノイズ除去部608は、処理ステップ1〜n(1〜4)に対応するノイズ除去部6081〜6084を備えている。これらエッジ検出部607及びノイズ除去部608において、HPF部604から送信されてきたノイズ成分を含む高周波画像に対してこの高周波画像中のエッジ成分を保存しつつ、ノイズ成分の除去を行う。エッジ検出部607及びノイズ除去部608それぞれでのエッジ検出処理及びノイズ除去処理の具体的な方法について説明する。   The edge detection unit 607 includes edge detection units 6071 to 6074 corresponding to the processing steps 1 to n (1 to 4). The noise removing unit 608 includes noise removing units 6081 to 6084 corresponding to the processing steps 1 to n (1 to 4). The edge detection unit 607 and the noise removal unit 608 remove noise components while preserving the edge components in the high-frequency image with respect to the high-frequency image including the noise component transmitted from the HPF unit 604. A specific method of edge detection processing and noise removal processing in each of the edge detection unit 607 and the noise removal unit 608 will be described.

エッジ検出部6071〜6074は、チャンネル判定部6061〜6064においてRGBの各チャンネルのうちノイズ量が最も少ないと判定されたチャンネルの低周波画像をLPF部6021〜6024から入力する。エッジ検出部6071〜6074は、エッジ検出処理として、それぞれ各処理ステップにおいて入力した低周波画像に対してSobelフィルター等のエッジ強度検出用フィルターを用いたフィルター処理(エッジ強度検出フィルター処理)を行うことでこの低周波画像のエッジ強度を算出し、この算出したエッジ強度の情報からエッジ保存係数Eを算出する。算出されたエッジ保存係数Eの情報は、各ノイズ除去部6081〜6084に出力される。例えば、処理ステップ3では、エッジ検出部6073は、チャンネル判定部6063においてGチャンネルがノイズ量の最も少ないチャンネルと判定されたときは、LPF部6023からGチャンネルの低周波画像を入力する。エッジ検出部6073は、この低周波画像に対してエッジ強度検出フィルター処理を行ってエッジ強度を求めるとともに、このエッジ強度からエッジ保存係数Eを算出し、算出したこのエッジ保存係数Eの情報を、エッジ保存係数情報としてノイズ除去部6083に出力する。なお、上述したSobelフィルターは、微分計算に基づいて画像中の各画素値間の傾きを検出するものであり、これにより画像におけるエッジの強度を検出することができる。   The edge detection units 6071 to 6074 receive from the LPF units 6021 to 6024 the low frequency images of the channels determined by the channel determination units 6061 to 6064 as having the least amount of noise among the RGB channels. The edge detection units 6071 to 6074 perform filter processing (edge strength detection filter processing) using an edge strength detection filter such as a Sobel filter on the low frequency image input in each processing step as edge detection processing. To calculate the edge strength of the low-frequency image, and the edge preservation coefficient E is calculated from the calculated edge strength information. Information on the calculated edge preserving coefficient E is output to each of the noise removing units 6081 to 6084. For example, in processing step 3, when the channel determination unit 6063 determines that the G channel is the channel with the least amount of noise, the edge detection unit 6073 inputs a low frequency image of the G channel from the LPF unit 6023. The edge detection unit 6073 performs edge strength detection filter processing on the low-frequency image to obtain edge strength, calculates an edge storage coefficient E from the edge strength, and calculates information on the calculated edge storage coefficient E, It outputs to the noise removal part 6083 as edge preservation | save coefficient information. The Sobel filter described above detects an inclination between pixel values in an image based on differential calculation, and can thereby detect the intensity of an edge in the image.

上記エッジ強度及びエッジ保存係数Eの算出について、具体的には、各エッジ検出部6071〜6074は、各低周波画像に対してタップ数が「3」である3×3Sobelフィルターを用いたフィルター処理(3×3Sobelフィルター処理)を行うことでエッジ強度eを算出するとともに、算出したエッジ強度eに対するエッジ保存係数Eを下記式(1)により算出する。
e<e1のとき E=0
e1<e<e2のとき E=(e−e1)/(e2−e1)
e>e2のとき E=1.0 ・・・(1)
ここで、e1、e2は、予め設定したエッジ保存係数算出用の閾値(エッジ保存閾値)であり、e1<e2の関係を満たしている。
Regarding the calculation of the edge strength and the edge preserving coefficient E, specifically, each of the edge detection units 6071 to 6074 uses a 3 × 3 Sobel filter having a tap number “3” for each low-frequency image. The edge strength e is calculated by performing (3 × 3 Sobel filter processing), and the edge preserving coefficient E for the calculated edge strength e is calculated by the following equation (1).
When e <e1, E = 0
When e1 <e <e2 E = (e−e1) / (e2−e1)
When e> e2 E = 1.0 (1)
Here, e1 and e2 are preset threshold values for edge preservation coefficient calculation (edge preservation threshold values), and satisfy the relationship of e1 <e2.

上記式(1)の関係は、図3に示すように、縦軸をエッジ保存係数E、横軸をエッジ強度eとすると、符号655で示すエッジ強度eがe<e1となる範囲では、エッジ保存係数E=0となる。また、符号657で示すエッジ強度eがe>e2となる範囲では、エッジ保存係数E=1.0となる。また、符号656で示すエッジ強度eがe1<e<e2となる範囲では、エッジ保存係数Eが、0から1.0の範囲で、傾きを1/(e2−e1)として直線的に変化するものとなる。   As shown in FIG. 3, when the vertical axis is the edge preserving coefficient E and the horizontal axis is the edge strength e, as shown in FIG. The storage coefficient E = 0. In the range where the edge strength e indicated by reference numeral 657 is e> e2, the edge preserving coefficient E = 1.0. In the range where the edge strength e indicated by reference numeral 656 is e1 <e <e2, the edge preserving coefficient E changes linearly with the slope being 1 / (e2-e1) in the range of 0 to 1.0. It will be a thing.

エッジ保存閾値e1、e2は、どの程度までエッジを保存すればよいかといった画像の質感に関わる値であり、各処理ステップにおいて好適にエッジ保存が行えるような値として予め設定されるものである。エッジ保存閾値e1、e2は、処理ステップ毎に予め設定されたものでもよいし、一律に全処理ステップで同じ値として設定されたものでもよい。また、選択されたチャンネルに応じて値が設定されるようにしてもよい。エッジ保存閾値e1、e2の情報は各エッジ検出部6071〜6074に記憶されている。また、本実施の形態では、上述のようにエッジ強度検出用フィルターとして3×3Sobelフィルターを用いているが、タップ数が「3」以外の、例えば、3よりも大きなSobelフィルターを用いてもよい。また、Sobelフィルターに代えてPrewittフィルター等の他の公知のフィルターを用いてもよい。   The edge storage thresholds e1 and e2 are values related to the texture of the image, such as how much an edge should be stored, and are set in advance as values that can suitably perform edge storage in each processing step. The edge storage thresholds e1 and e2 may be set in advance for each processing step, or may be uniformly set as the same value in all processing steps. Further, a value may be set according to the selected channel. Information on the edge storage threshold values e1 and e2 is stored in each of the edge detection units 6071 to 6074. In this embodiment, the 3 × 3 Sobel filter is used as the edge intensity detection filter as described above. However, a Sobel filter having a tap number other than “3”, for example, greater than 3, may be used. . In addition, other known filters such as a Prewitt filter may be used instead of the Sobel filter.

ノイズ除去部6081〜6084は、ノイズ除去処理として、それぞれ各処理ステップにおけるRGBの各チャンネルの高周波画像に対してそれぞれコアリング処理を行う。このとき、上記エッジ検出処理によって算出したエッジ保存係数Eの情報を用いることで、エッジ強度eが大きな画素についてはコアリング処理におけるコアリング強度が弱められてよりエッジ成分が保存されるようなエッジ保存処理を行う。一方、エッジ強度eが小さな画素についてはコアリング強度が強められてエッジ保存の度合いが弱められる。   The noise removing units 6081 to 6084 perform coring processing on the high-frequency images of the RGB channels in the processing steps, respectively, as noise removal processing. At this time, by using the information of the edge preserving coefficient E calculated by the edge detection process, for the pixel having a large edge strength e, the edge in which the coring strength in the coring process is weakened and the edge component is preserved. Perform the save process. On the other hand, for a pixel having a small edge strength e, the coring strength is increased and the degree of edge preservation is decreased.

上述のコアリング処理に関して、具体的には、各ノイズ除去部6081〜6084は、HPF部6041〜6044から入力される高周波画像に対して、図4に示すような、コアリング特性665に従って高周波画像の変換処理を行うことにより、ノイズ成分を除去する。図4中に示す「th」は、画像信号のノイズ成分を除去するためのコアリング係数である。このコアリング特性665に従ったコアリング処理では、入力が−thよりも大きくthよりも小さいときは出力がゼロとなり(すなわち、当該入力が−thよりも大きくthよりも小さい範囲のデータがノイズ成分として除去される。)、入力が−th以下であるときには、出力が入力に対してthを加えた値となり、入力がth以上であるときには、出力が入力に対してthを減じた値となるような変換処理が行われる。   Regarding the coring processing described above, specifically, each of the noise removal units 6081 to 6084 performs a high frequency image according to a coring characteristic 665 as illustrated in FIG. 4 with respect to the high frequency image input from the HPF units 6041 to 6044. The noise component is removed by performing the conversion process. “Th” shown in FIG. 4 is a coring coefficient for removing a noise component of the image signal. In the coring process according to the coring characteristic 665, when the input is larger than -th and smaller than th, the output becomes zero (that is, the data in the range where the input is larger than -th and smaller than th is noise). When the input is -th or less, the output is a value obtained by adding th to the input. When the input is greater than or equal to th, the output is a value obtained by subtracting th from the input. Such a conversion process is performed.

但し、高周波画像には、ノイズ成分だけでなくディテイル成分も含まれている。そのため、コアリング処理によって、注目画素の絶対値がコアリング係数よりも小さいもの、すなわち、−thよりも大きくthよりも小さい範囲の画像成分が一律にカットされると、ディテイル成分まで欠落してしまうことになる。そこで、コアリング特性665の代わりに、−thよりも大きくthよりも小さい範囲ではグラフの傾きがk(0≦k≦1)となる「y=kx」の関係を有するコアリング特性666を導入し、このkn値を調整することで、画像で目立たない程度の僅かなノイズは許容し、ディテイル成分の欠落は抑えられるような処理結果が得られる構成としてもよい。なお、コアリング特性666を用いる場合、y=kxの、例えば、符号6661、6662で示すように入力xの値がコアリング係数th(−th)の値に近いほどよりディテイル成分が残されることになる。ここで、ディテイル成分とは、高周波画像におけるノイズ成分以外の画像であって、ぼやけた画像である低周波画像に対し、質感を表すような高周波画像本来の画像である。   However, the high-frequency image includes not only a noise component but also a detail component. Therefore, when the coring process uniformly cuts the image component in which the absolute value of the pixel of interest is smaller than the coring coefficient, that is, the range of the image component that is larger than -th and smaller than th, the detail component is lost. Will end up. Therefore, instead of the coring characteristic 665, a coring characteristic 666 having a relationship of “y = kx” in which the slope of the graph is k (0 ≦ k ≦ 1) is introduced in a range larger than −th and smaller than th. However, by adjusting the kn value, a slight noise that is not conspicuous in the image is allowed, and a processing result that suppresses the loss of the detail component may be obtained. When the coring characteristic 666 is used, the detail component is left as y = kx, for example, the value of the input x is closer to the coring coefficient th (−th) as indicated by reference numerals 6661 and 6662. become. Here, the detail component is an image other than the noise component in the high-frequency image, and is an original image of the high-frequency image that expresses the texture with respect to the low-frequency image that is a blurred image.

なお、コアリング係数th(−th)は、各処理ステップの高周波画像に存在するノイズ量に応じた値に設定することで、精度のよい正確なノイズ除去が可能となる。実際には、撮像センサー3に暗電流等のノイズがあり、このセンサー特有のノイズに応じて高周波画像のノイズ量が決まるということと、各処理ステップの高周波画像それぞれについても互いに異なるノイズ量になるということから、コアリング係数th(−th)の値は、各デジタルカメラ1で使用される撮像センサー3毎に、あるいは、処理ステップ毎に、除去したいノイズ量に対応させた好適なものが設定される。このコアリング係数thは、予め決められた値として各ノイズ除去部6081〜6084に記憶されている。なお、コアリング係数thは、予め定められた値でなくともよく、例えば、上述したノイズ量算出部6051〜6054により算出されたノイズ量によって都度算出されて設定される構成であってもよい。   The coring coefficient th (-th) is set to a value corresponding to the amount of noise present in the high-frequency image at each processing step, thereby enabling accurate and accurate noise removal. Actually, the imaging sensor 3 has noise such as dark current, and the noise amount of the high-frequency image is determined according to the noise peculiar to the sensor, and the high-frequency image of each processing step has a different noise amount. Therefore, the coring coefficient th (−th) is set to a suitable value corresponding to the amount of noise to be removed for each imaging sensor 3 used in each digital camera 1 or for each processing step. Is done. The coring coefficient th is stored in each noise removing unit 6081-6084 as a predetermined value. Note that the coring coefficient th may not be a predetermined value, and may be configured to be calculated and set each time based on the noise amount calculated by the above-described noise amount calculation units 6051 to 6054, for example.

また、エッジ保存処理に関して、具体的には、各ノイズ除去部6081〜6084は、上述したエッジ検出処理において求めたエッジ保存係数Eの情報を用いて、下記式(2)により、ノイズ除去部6081〜6084に入力される高周波画像と、上記コアリング処理の結果得られた画像(以下、コアリング画像ということがある。)との重み付け平均処理を行う。この重み付け平均処理は、RGBの各チャンネルについて行う。例えば、処理ステップ3では、エッジ検出部6073においてGチャンネルの低周波画像からエッジ保存係数Eが得られた場合には、ノイズ除去部6083は、RGBの各チャンネルの高周波画像についてそれぞれこのエッジ保存係数Eの情報を用いてエッジ成分が保存された画像(エッジ保存画像)を取得するとともにコアリング画像を取得し、これらの画像について重み付け平均処理を行う。これにより、エッジ強度eに応じたエッジ保存量でのエッジ保存がなされた、すなわち、エッジ強度eに応じてコアリングの強度が変化するエッジ保存処理が行われたエッジ保存画像を生成することができる。このようなエッジ保存処理が行われることにより、図3に示すように、エッジ保存係数Eが大きい画素ほど(1.0の値に近づくほど)、コアリング処理前の高周波画像の画素の値に近い値となってよりエッジ成分が保存され、エッジ保存係数Eが小さい画素ほど(0の値に近づくほど)、上記コアリング画像の画素の値に近い値となる。
Img_output=(1.0−E)*Img_core+E*Img_input ・・・(2)
ここで、Img_output:エッジ保存画像
Img_core:コアリング画像
Img_input:各ノイズ除去部に入力される高周波画像
Further, regarding the edge preserving process, specifically, each of the noise removing units 6081 to 6084 uses the information of the edge preserving coefficient E obtained in the above-described edge detecting process to obtain a noise removing unit 6081 according to the following equation (2). ˜6084 and a weighted average process of the image obtained as a result of the coring process (hereinafter also referred to as a coring image). This weighted average process is performed for each of the RGB channels. For example, in processing step 3, when the edge detection coefficient E is obtained from the G channel low frequency image in the edge detection unit 6073, the noise removal unit 6083 performs the edge storage coefficient for each of the RGB high frequency images. Using the information of E, an image (edge-preserved image) in which the edge component is stored is acquired, a coring image is acquired, and a weighted average process is performed on these images. As a result, the edge preservation is performed with the edge preservation amount according to the edge strength e, that is, the edge preservation image in which the edge preservation processing in which the coring strength changes according to the edge strength e is generated. it can. By performing such edge storage processing, as shown in FIG. 3, as the edge storage coefficient E is larger (closer to a value of 1.0), the pixel value of the high-frequency image before coring processing is set. The edge component is stored with a closer value, and the smaller the edge storage coefficient E (the closer the value is to 0), the closer to the value of the coring image pixel.
Img_output = (1.0−E) * Img_core + E * Img_input (2)
Where Img_output: edge-preserved image
Img_core: Coring image
Img_input: a high-frequency image input to each noise removing unit

このように、例えば、処理ステップ3では、ノイズ除去部6083は、エッジ検出部6073からのエッジ保存係数情報に基づいて、HPF部6043からの高周波画像に対して上記コアリング処理及びエッジ保存処理を行い、エッジ成分を保存しつつノイズ成分が除去された高周波画像を出力する。   Thus, for example, in processing step 3, the noise removal unit 6083 performs the coring process and the edge storage process on the high-frequency image from the HPF unit 6043 based on the edge storage coefficient information from the edge detection unit 6073. And output a high-frequency image from which noise components have been removed while preserving edge components.

本実施の形態では、上述したように、RGBの各チャンネルからノイズ量の最も少ないチャンネルを選択し、選択したチャンネルの低周波画像に対してエッジ検出処理を行い、これに基づいて、RGBの各チャンネルの高周波画像についてそれぞれエッジ成分の保存及びノイズ成分の除去が行われる。その結果、ノイズが多いチャンネルの低周波画像によるエッジ検出の精度の影響を低減することができる。すなわち、ノイズをエッジとして誤検出するおそれを低減することができ、エッジ成分の保存精度を良好に保ちながらノイズ除去精度を向上させることができる。   In the present embodiment, as described above, the channel with the least amount of noise is selected from the RGB channels, and the edge detection process is performed on the low-frequency image of the selected channel. The edge component is stored and the noise component is removed from the high-frequency image of the channel. As a result, it is possible to reduce the influence of the accuracy of edge detection by the low-frequency image of the channel with a lot of noise. That is, the possibility of erroneous detection of noise as an edge can be reduced, and the noise removal accuracy can be improved while maintaining the preservation accuracy of the edge component.

周波数合成部611は、上述した合成処理を行う合成部609とアップサンプリング(US)処理を行うUS部610とを備えている。合成部609は、処理ステップ1〜n(1〜4)に対応する合成部6091〜6094を備えている。   The frequency synthesis unit 611 includes a synthesis unit 609 that performs the above-described synthesis process and a US unit 610 that performs an upsampling (US) process. The synthesis unit 609 includes synthesis units 6091 to 6094 corresponding to the processing steps 1 to n (1 to 4).

各合成部6091〜6094では、前段の処理ステップのアップサンプリング処理済みの画像(周波数合成画像)と、各ノイズ除去部6081〜6084によるノイズ除去済みの高周波画像とを合成して、各処理ステップにおける周波数合成画像をRGBのチャンネル毎に生成する。例えば、処理ステップ3においては、ノイズ除去部6083からの高周波画像とUS部6103からの周波数合成画像との合成処理が行われて周波数合成画像が生成され、この周波数合成画像が上段の処理ステップ2側のUS部6102に入力される。最下段の処理ステップである処理ステップ4においては、上述した周波数合成画像ではなく、LPF部6024から出力された低周波画像そのものが用いられる。すなわち、合成部6094では、低周波画像とノイズ除去部6084からの高周波画像との合成処理が行われる。   In each synthesis unit 6091 to 6094, the image (frequency synthesized image) that has been subjected to the upsampling process in the previous processing step and the high-frequency image that has been subjected to noise removal by each noise removal unit 6081 to 6084 are synthesized, and each processing step A frequency composite image is generated for each RGB channel. For example, in processing step 3, a high frequency image from the noise removal unit 6083 and a frequency composite image from the US unit 6103 are combined to generate a frequency composite image, and this frequency composite image is the upper processing step 2. To the US unit 6102 on the side. In the processing step 4 which is the lowest processing step, the low frequency image itself output from the LPF unit 6024 is used instead of the frequency synthesized image described above. That is, in the synthesis unit 6094, a synthesis process of the low frequency image and the high frequency image from the noise removal unit 6084 is performed.

なお、合成部6091〜6094それぞれにおける合成画像処理は、ノイズ除去部608からの高周波画像と、下段の処理ステップからの低周波画像(処理ステップ4では上述したように同一の段での低周波画像)とを合成して、上段の処理ステップに低周波画像として出力する処理であるということができる。これは、各処理ステップにおける合成部、例えば、合成部6093側からみると、下段側の処理ステップにおいて生成された周波数合成画像は、高周波画像に対して低周波の画像となることによる。   Note that the composite image processing in each of the synthesis units 6091 to 6094 includes a high-frequency image from the noise removal unit 608 and a low-frequency image from the lower processing step (the low-frequency image at the same stage as described above in the processing step 4). ) And output as a low-frequency image to the upper processing step. This is because, when viewed from the synthesis unit in each processing step, for example, the synthesis unit 6093 side, the frequency synthesized image generated in the lower processing step is a low-frequency image with respect to the high-frequency image.

US部610は、処理ステップ1に対応するUS部6101、処理ステップ2に対応するUS部6102及び処理ステップ3に対応するUS部6103を備えている。各US部6101〜6103では、前段の処理ステップにおける合成部において生成された周波数合成画像に対して、画像のサイズ(画素数)を縦横ともに2倍にする、例えば、線形補間等の画素補間によるUS処理を行い、このUS処理後の画像を次段の処理ステップの合成部に出力する。なお、ここでのUS処理における倍率は、上述したDS部でのDS処理での1/2の倍率に対応して元のサイズに復元すべく2倍としているが、例えば、DS処理の倍率が1/3ならばUS処理の倍率を3倍にするといったようにDS処理の倍率に応じた倍率とすることができる。但し、必ずしもDS処理の倍率に応じた倍率にせずともよく、任意の倍率としてもよい。   The US unit 610 includes a US unit 6101 corresponding to processing step 1, a US unit 6102 corresponding to processing step 2, and a US unit 6103 corresponding to processing step 3. Each of the US units 6101 to 6103 doubles the image size (number of pixels) both vertically and horizontally with respect to the frequency synthesized image generated in the synthesizing unit in the previous processing step, for example, by pixel interpolation such as linear interpolation. The US process is performed, and the image after the US process is output to the synthesis unit in the next processing step. Note that the magnification in the US processing here is set to double in order to restore the original size corresponding to the half magnification in the DS processing in the DS section described above. If it is 1/3, the magnification according to the DS processing magnification can be set such that the US processing magnification is tripled. However, it is not always necessary to set the magnification according to the magnification of the DS processing, and any magnification may be used.

このような構成において、周波数合成部611は、最下段の処理ステップ4から最上段の処理ステップ1へと複数段の処理ステップによる複数回の周波数合成処理とUS処理とを行い、その結果、画像処理部6への入力画像6200に対する画像として、出力画像6210を出力する。このとき、上述したように、RGBの各チャンネルの画像は、画像処理部6から出力される際に統合される。   In such a configuration, the frequency synthesizing unit 611 performs a plurality of frequency synthesis processes and a US process by a plurality of process steps from the lowermost process step 4 to the uppermost process step 1, and as a result, the image An output image 6210 is output as an image for the input image 6200 to the processing unit 6. At this time, as described above, the images of the RGB channels are integrated when output from the image processing unit 6.

次に、第1の実施の形態にかかるノイズ除去処理に関する動作について図5を参照しながら説明する。   Next, operations related to the noise removal processing according to the first embodiment will be described with reference to FIG.

まず、撮像センサー3による撮像等によって入力画像6200が取得されて画像処理部6の周波数分離部601に入力される(ステップS10)。次に、周波数分離部601のLPF部602及びDS部603によって、この入力画像6200に対して最上段の処理ステップから最下段の処理ステップへと複数段の処理ステップによる複数回のLPF処理とDS処理とが行われて複数の周波数成分に分離される。すなわち、処理ステップ毎に低周波画像が生成される(ステップS20)。処理ステップ毎に低周波画像が生成されるに従って、HPF部604によって、各処理ステップに対する入力画像からLPF処理後の低周波画像が減算されて高周波画像がRGBのチャンネル毎に生成される(ステップS30)。   First, an input image 6200 is acquired by imaging or the like by the imaging sensor 3, and is input to the frequency separation unit 601 of the image processing unit 6 (step S10). Next, the LPF unit 602 and the DS unit 603 of the frequency separation unit 601 perform a plurality of times of LPF processing and DS in a plurality of processing steps from the uppermost processing step to the lowermost processing step on the input image 6200. Is processed and separated into a plurality of frequency components. That is, a low frequency image is generated for each processing step (step S20). As the low-frequency image is generated for each processing step, the HPF unit 604 subtracts the low-frequency image after the LPF processing from the input image for each processing step to generate a high-frequency image for each RGB channel (step S30). ).

そして、各処理ステップにおいて、ノイズ量算出部605及びチャンネル判定部606により、RGBの各チャンネルのうち、最もノイズ量が少ないチャンネルの高周波画像を判定する。すなわち、ノイズ量算出部605によって、HPF部604によって生成されたRGBの各チャンネルの高周波画像について、それぞれノイズ量が算出される。そして、チャンネル判定部606によって、ノイズ量算出部605において算出されたRGBの各チャンネルの高周波画像のノイズ量から、何れのチャンネルの画像のノイズ量が最も少ないかが判定される(ステップS40)。   In each processing step, the noise amount calculation unit 605 and the channel determination unit 606 determine the high-frequency image of the channel with the least amount of noise among the RGB channels. That is, the noise amount calculation unit 605 calculates the noise amount for each of the RGB high-frequency images generated by the HPF unit 604. Then, the channel determination unit 606 determines which channel has the smallest noise amount from the noise amount of the high-frequency image of each of the RGB channels calculated by the noise amount calculation unit 605 (step S40).

そして、各処理ステップにおいて、エッジ検出部607及びノイズ除去部608によりエッジ検出処理及びノイズ除去処理が行われる。すなわち、チャンネル判定部606によってノイズ量が最も少ないと判定されたチャンネルの低周波画像がエッジ検出部607に入力されると、エッジ検出部607によって、この低周波画像に対してエッジ強度検出用フィルターを用いたエッジ強度検出フィルター処理が行われて低周波画像のエッジ強度が算出されるとともに、この算出されたエッジ強度の情報からエッジ保存係数Eが算出される。また、ノイズ除去部608によって、ノイズ除去部608に入力されたRGBの各チャンネルの高周波画像に対してそれぞれコアリング処理が行われてノイズ成分が除去されたコアリング画像が生成されて、エッジ検出部607において算出されたエッジ保存係数Eの情報を用いて、このコアリング画像と高周波画像との重み付け処理が行われることで、ノイズ成分が除去され、且つ、エッジ強度eに応じてエッジ成分が保存されたエッジ保存画像がRGBの各チャンネルについて生成される(ステップS50)。そして、周波数合成部611によって、最下段の処理ステップの低周波画像と各処理ステップの各高周波画像とが、最下段から最上段の処理ステップへと順に周波数合成処理及びUS処理を繰り返しながら加算され、その結果、ノイズ成分が除去され、且つ、エッジ成分が保存された合成画像が得られる。なお、この合成画像は出力画像6210として画像処理部6から出力される。このとき、RGBの各チャンネルの画像が統合される(ステップS60)。   In each processing step, edge detection processing and noise removal processing are performed by the edge detection unit 607 and the noise removal unit 608. That is, when a low frequency image of a channel determined to have the least amount of noise by the channel determination unit 606 is input to the edge detection unit 607, the edge detection unit 607 applies an edge strength detection filter to the low frequency image. Is used to calculate the edge intensity of the low-frequency image, and the edge preserving coefficient E is calculated from the calculated edge intensity information. Further, the noise removing unit 608 generates a coring image from which noise components have been removed by performing coring processing on the high-frequency images of the RGB channels input to the noise removing unit 608 to detect edges. By using the information of the edge preserving coefficient E calculated in the unit 607, the coring image and the high-frequency image are weighted to remove the noise component, and the edge component is changed according to the edge strength e. A stored edge storage image is generated for each of the RGB channels (step S50). Then, the frequency synthesis unit 611 adds the low frequency image of the lowest processing step and the high frequency image of each processing step in order from the lowest processing step to the uppermost processing step while repeating the frequency synthesis processing and the US processing. As a result, a composite image is obtained in which the noise component is removed and the edge component is stored. This composite image is output from the image processing unit 6 as an output image 6210. At this time, the RGB channel images are integrated (step S60).

(第2の実施の形態)
次に、第2の実施の形態に係る画像処理装置が適用される撮像装置の一例であるデジタルカメラ1について説明する。なお、第2の実施の形態では、画像処理部について第1の実施の形態とは異なる他は第1の実施の形態と同一であるため、ここでは、画像処理部について説明し、他の構成については説明を省略する。また、画像処理部において、第1の実施の形態と同様の構成についても説明を省略する。
(Second Embodiment)
Next, a digital camera 1 that is an example of an imaging apparatus to which the image processing apparatus according to the second embodiment is applied will be described. In the second embodiment, the image processing unit is the same as that of the first embodiment except that the image processing unit is different from the first embodiment. Therefore, here, the image processing unit will be described and other configurations will be described. Description of is omitted. In the image processing unit, the description of the same configuration as that of the first embodiment is also omitted.

図6は、画像処理部6aにおける主にノイズ除去処理に関する回路構成例を示す機能ブロック図である。図6では、ステップ1についてのみ図示しているが、他のステップについても同様の構成となっている。第2の実施の形態では、画像処理部6aには、画像処理部6aに入力され、RGBの各チャンネルに分離された入力画像6200を入力して輝度信号(Y)を算出し、これを出力する輝度算出部612が設けられている。輝度算出部621は、RGBの各画素値から下記式(3)のようにして輝度信号(Y)を求める。
Y=0.299*R+0.587*G+0.144*B ・・・(3)
FIG. 6 is a functional block diagram illustrating a circuit configuration example mainly related to noise removal processing in the image processing unit 6a. In FIG. 6, only step 1 is illustrated, but the other steps have the same configuration. In the second embodiment, the image processing unit 6a receives the input image 6200 input to the image processing unit 6a and separated into RGB channels, calculates a luminance signal (Y), and outputs the luminance signal (Y). A luminance calculation unit 612 is provided. The luminance calculation unit 621 obtains the luminance signal (Y) from the RGB pixel values according to the following equation (3).
Y = 0.299 * R + 0.587 * G + 0.144 * B (3)

上述のようにして求められた輝度信号はYチャンネルとしてRGBの各チャンネルに加えられ、YRGBの各チャンネルについて、周波数分離部601による周波数分離処理、HPF604による高周波画像の生成、ノイズ量算出部605によるノイズ量の算出、チャンネル判定部606によるチャンネル判定、エッジ検出部607によるエッジ検出処理が実施される。そして、ノイズ除去部608では、HPF部604において生成されたRGBの各チャンネルの高周波画像に対するノイズ除去処理が実施される。   The luminance signal obtained as described above is added to each RGB channel as a Y channel. For each YRGB channel, frequency separation processing by the frequency separation unit 601, generation of a high-frequency image by the HPF 604, and noise amount calculation unit 605 are performed. Calculation of the amount of noise, channel determination by the channel determination unit 606, and edge detection processing by the edge detection unit 607 are performed. The noise removal unit 608 performs noise removal processing on the high-frequency image of each of the RGB channels generated by the HPF unit 604.

例えば、ノイズ量算出部605によりYRGBの各チャンネルの高周波画像のノイズ量を算出した結果、チャンネル判定部606によりYチャンネルの高周波画像のノイズ量が最も少ないと判定された場合には、LPF部602から出力されたYチャンネルの低周波画像がエッジ検出部607に入力され、この低周波画像に基づいてエッジ検出処理及びノイズ除去処理が行われる。   For example, when the noise amount calculation unit 605 calculates the noise amount of the high-frequency image of each YRGB channel, and the channel determination unit 606 determines that the noise amount of the Y-channel high-frequency image is the smallest, the LPF unit 602. The Y-channel low-frequency image output from is input to the edge detection unit 607, and edge detection processing and noise removal processing are performed based on the low-frequency image.

以上のようにして、最下段の処理ステップnから最上段の処理ステップ1のそれぞれにおいて、ノイズ除去処理が実施されてRGBの各チャンネルの高周波画像が得られると、上述したようにして、周波数合成部611による複数回の周波数合成処理とUS処理とが実施されて出力画像6210が生成される。なお、最下段の処理ステップnでは、LPF部においてYRGBの低周波画像が生成されるが、周波数合成処理においては、Yチャンネルを除いたRGBの各チャンネルの低周波画像とノイズ除去処理が実施されたRGBの各チャンネルの高周波画像とが合成される。   As described above, when noise removal processing is performed in each of the lowermost processing step n to the uppermost processing step 1 to obtain a high-frequency image of each channel of RGB, frequency synthesis is performed as described above. A plurality of frequency synthesis processes and US processes are performed by the unit 611 to generate an output image 6210. In the lowest processing step n, the YRGB low-frequency image is generated in the LPF unit. However, in the frequency synthesis process, the low-frequency image and noise removal processing of each RGB channel excluding the Y channel are performed. The high-frequency images of the respective RGB channels are synthesized.

このように、第2の実施の形態では、第1の実施の形態と同様、ノイズをエッジとして誤検出するおそれを低減することができ、エッジ成分の保存精度を良好に保ちながらノイズ除去精度を向上させることができる。また、比較的ノイズの少ない輝度情報からエッジ検出を精度よく行うことができ、ノイズ除去精度を向上させることができる。   As described above, in the second embodiment, as in the first embodiment, it is possible to reduce the possibility that noise is erroneously detected as an edge, and the noise removal accuracy is improved while maintaining the preservation accuracy of the edge component. Can be improved. Further, edge detection can be performed with high accuracy from luminance information with relatively little noise, and noise removal accuracy can be improved.

(第3の実施の形態)
次に、第3の実施の形態に係る画像処理装置が適用される撮像装置の一例であるデジタルカメラ1について説明する。なお、第3の実施の形態では、画像処理部について第1の実施の形態とは異なる他は第1の実施の形態と同一であるため、ここでは、画像処理部について説明し、他の構成については説明を省略する。また、画像処理部において、第1の実施の形態と同様の構成についても説明を省略する。
(Third embodiment)
Next, a digital camera 1 that is an example of an imaging apparatus to which the image processing apparatus according to the third embodiment is applied will be described. In the third embodiment, the image processing unit is the same as that of the first embodiment except that the image processing unit is different from the first embodiment. Therefore, here, the image processing unit will be described and other configurations will be described. Description of is omitted. In the image processing unit, the description of the same configuration as that of the first embodiment is also omitted.

図7は、画像処理部6bにおける主にノイズ除去処理に関する回路構成例を示す機能ブロック図である。図7では、ステップ1についてのみ図示しているが、他のステップについても同様の構成となっている。第3の実施の形態では、画像処理部6bには、第2の実施の形態において説明した輝度算出部612と、制御部8からのチャンネル指定信号を受信し、受信したチャンネル指定信号に対応するチャンネルがエッジ検出処理の対象となるようにチャンネルの選択信号をエッジ検出部607に出力するチャンネル選択部613とが設けられている。なお、本実施の形態において、輝度算出部612が設けられていない構成であってもよい。チャンネル選択部613は、処理ステップ1〜n(1〜4)に対応してそれぞれ設けられており、例えば、ステップ1には、チャンネル選択部6131が設けられている。チャンネル指定信号は、例えば、温度や湿度、昼夜等の時間帯、周辺の明るさ、撮像センサー3の種類等に応じて制御部8から出力される。なお、何れの条件で何れのチャンネルに対応するチャンネル指定信号が出力されるかについては、RGBの各チャンネルの画像のノイズの発生の状況等に応じて適宜設定することができる。また、例えば、操作部10の操作に応じて、出力するチャンネル指定信号を予め設定できるように構成されてもよい。また、ステップ毎に異なるチャンネル指定信号が制御部8から出力されるようにしてもよいし、全てのステップにおいて同一のチャンネル指定信号が制御部8から出力されるようにしてもよい。   FIG. 7 is a functional block diagram illustrating a circuit configuration example mainly relating to noise removal processing in the image processing unit 6b. In FIG. 7, only step 1 is illustrated, but the other steps have the same configuration. In the third embodiment, the image processing unit 6b receives the luminance calculation unit 612 described in the second embodiment and the channel designation signal from the control unit 8, and corresponds to the received channel designation signal. A channel selection unit 613 that outputs a channel selection signal to the edge detection unit 607 is provided so that the channel is subjected to edge detection processing. In the present embodiment, a configuration in which the luminance calculation unit 612 is not provided may be employed. The channel selection unit 613 is provided corresponding to each of processing steps 1 to n (1 to 4). For example, in step 1, a channel selection unit 6131 is provided. The channel designation signal is output from the control unit 8 according to, for example, a time zone such as temperature and humidity, day and night, ambient brightness, the type of the image sensor 3, and the like. Note that the channel designation signal corresponding to which channel is output under which condition can be appropriately set according to the state of occurrence of noise in the image of each RGB channel. Further, for example, it may be configured such that the channel designation signal to be output can be set in advance in accordance with the operation of the operation unit 10. In addition, a different channel designation signal may be output from the control unit 8 for each step, or the same channel designation signal may be output from the control unit 8 in all steps.

エッジ検出部607は、YGRBの各チャンネルから、チャンネル選択部613からのチャンネルの選択信号に応じたチャンネルの低周波画像を入力してエッジ検出処理を行う。   The edge detection unit 607 performs an edge detection process by inputting a low frequency image of a channel corresponding to a channel selection signal from the channel selection unit 613 from each YGRB channel.

このように、第3の実施の形態では、第1の実施の形態と同様、ノイズをエッジとして誤検出するおそれを低減することができ、エッジ成分の保存精度を良好に保ちながらノイズ除去精度を向上させることができる。また、撮像する毎にチャンネルを切り換えなくて済むので、撮像時のリアルタイムでの処理量を低減させることができるようになる。   As described above, in the third embodiment, as in the first embodiment, it is possible to reduce the possibility of erroneous detection of noise as an edge, and the noise removal accuracy can be improved while maintaining the preservation accuracy of the edge component. Can be improved. In addition, since it is not necessary to switch the channel each time an image is taken, the amount of processing in real time at the time of image taking can be reduced.

以上説明したように、第1〜第3の実施の形態によれば、周波数分離部601は、複数の波長領域を含む入力画像を複数の周波数帯における周波数成分に分離する。チャンネル選択部613(ノイズ量算出部605、チャンネル判定部606)は、複数の波長領域から何れかを選択する。エッジ検出部607は、複数の周波数帯のそれぞれについて、チャンネル選択部613(ノイズ量算出部605、チャンネル判定部606)によって選択された波長領域の周波数成分における低周波成分からエッジ強度を検出する。ノイズ除去部608は、周波数分離部601により分離された各周波数帯の周波数成分における高周波成分からノイズ成分を除去するとともに、エッジ検出部607によって検出されたエッジ強度に基づいて、高周波成分に対するエッジ成分の保存を行う。周波数合成部611は、複数の周波数帯のそれぞれにおける、ノイズ除去部608によりノイズ成分が除去されるとともにエッジ成分が保存された高周波成分を合成する。その結果、複数の波長領域を含むカラー画像において、例えば、ノイズ量の少ない波長領域の低周波画像を選択して、この低周波画像についてエッジ検出が行われ、これに基づいてノイズの除去及びエッジ成分の保存が行われるので、カラー画像において、エッジ成分の保存精度を良好に保ちながらノイズ除去精度を向上させることができるようになる。   As described above, according to the first to third embodiments, the frequency separation unit 601 separates an input image including a plurality of wavelength regions into frequency components in a plurality of frequency bands. The channel selection unit 613 (noise amount calculation unit 605, channel determination unit 606) selects one from a plurality of wavelength regions. The edge detection unit 607 detects the edge intensity from the low frequency components in the frequency components of the wavelength region selected by the channel selection unit 613 (noise amount calculation unit 605, channel determination unit 606) for each of the plurality of frequency bands. The noise removing unit 608 removes the noise component from the high frequency component in the frequency component of each frequency band separated by the frequency separating unit 601, and based on the edge strength detected by the edge detecting unit 607, the edge component for the high frequency component Save the file. The frequency synthesizing unit 611 synthesizes the high frequency components in which the noise components are removed by the noise removing unit 608 and the edge components are stored in each of a plurality of frequency bands. As a result, in a color image including a plurality of wavelength regions, for example, a low-frequency image in a wavelength region with a small amount of noise is selected, and edge detection is performed on the low-frequency image. Since the components are stored, the noise removal accuracy can be improved in the color image while maintaining the storage accuracy of the edge components in good quality.

また、第1及び第2の実施の形態によれば、ノイズ量算出部605は、複数の波長領域のそれぞれについて、周波数分離部601により分離された各周波数帯の周波数成分における高周波成分からノイズ量を算出する。チャンネル判定部606は、ノイズ量算出部605により得られた複数の波長領域毎の高周波成分のノイズ量から最も少ないノイズ量である高周波成分の波長領域を判定する。チャンネル判定部606によって判定された波長領域が複数の波長領域から選択される。その結果、ノイズ量の最も少ない波長領域の低周波画像についてエッジ検出が行われ、これに基づいてノイズの除去及びエッジ成分の保存が行われるので、エッジ成分の保存精度を良好に保ちながらノイズ除去精度をより向上させることができるようになる。   Further, according to the first and second embodiments, the noise amount calculation unit 605 is configured to reduce the noise amount from the high frequency component in the frequency component of each frequency band separated by the frequency separation unit 601 for each of the plurality of wavelength regions. Is calculated. The channel determination unit 606 determines the wavelength region of the high frequency component that is the smallest noise amount from the noise amount of the high frequency component for each of the plurality of wavelength regions obtained by the noise amount calculation unit 605. The wavelength region determined by the channel determination unit 606 is selected from a plurality of wavelength regions. As a result, edge detection is performed on low-frequency images in the wavelength region with the least amount of noise, and noise removal and edge component preservation are performed based on this detection, eliminating noise while maintaining good edge component preservation accuracy. The accuracy can be further improved.

また、第1〜第3の実施の形態によれば、複数の波長領域は、可視波長の赤色領域と緑色領域と青色領域とを含むので、色チャンネルでのエッジ検出を精度良く行うことができるので、ノイズ除去精度をより向上させることができるようになる。   Further, according to the first to third embodiments, the plurality of wavelength regions include the red region, the green region, and the blue region of visible wavelengths, so that the edge detection in the color channel can be accurately performed. Therefore, the noise removal accuracy can be further improved.

また、第2及び第3の実施の形態によれば、複数の波長領域は、可視波長の赤色領域と緑色領域と青色領域とから求められる輝度情報を含むので、ノイズの少ない輝度情報を利用してエッジ検出を精度良く行うことができるようになり、ノイズ除去精度をより向上させることができるようになる。   In addition, according to the second and third embodiments, the plurality of wavelength regions include luminance information obtained from the red region, the green region, and the blue region of the visible wavelength, so that luminance information with less noise is used. Thus, edge detection can be performed with high accuracy, and noise removal accuracy can be further improved.

なお、本実施の形態における記述は、本発明に係るデジタルカメラの一例であり、これに限定されるものではない。デジタルカメラを構成する各機能部の細部構成及び細部動作に関しても適宜変更可能である。   Note that the description in this embodiment is an example of the digital camera according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of each functional unit constituting the digital camera can be changed as appropriate.

また、本実施の形態では、撮像センサー3として、COMSイメージセンサーやCCDイメージセンサー等、RGBの3つの波長領域の信号を取得する可視光センサーを適用し、これをA/D変換して画像処理を行うようにしたが、上述した可視光センサーの他、例えば、W(White)、Y(Yellow)、I(赤外波長領域)、R(Red)の各波長領域の信号を取得する補色センサーを適用してもよい。この場合、上記WYIRの各波長領域の信号からRGBの各チャンネルの画像を生成し、これらに対してエッジ検出処理及びノイズ除去処理を実施することができる。ここで、WYIRの各チャンネルの画像から何れかを選択し、選択したチャンネルの低周波画像に対してエッジ検出処理を実施するようにしてもよい。
すなわち、本実施の形態によれば、複数の波長領域は、赤外波長領域を含むので、赤外波長領域の信号を含む画像に対応することができるようになる。
In the present embodiment, a visible light sensor that acquires signals in the three wavelength regions of RGB, such as a COMS image sensor and a CCD image sensor, is applied as the imaging sensor 3, and this is subjected to A / D conversion for image processing. In addition to the visible light sensor described above, for example, a complementary color sensor that acquires signals in each wavelength region of W (White), Y (Yellow), I (infrared wavelength region), and R (Red) May be applied. In this case, RGB channel images can be generated from signals in the WYIR wavelength regions, and edge detection processing and noise removal processing can be performed on them. Here, any one of the images of each channel of WYIR may be selected, and the edge detection process may be performed on the low frequency image of the selected channel.
That is, according to the present embodiment, since the plurality of wavelength regions include the infrared wavelength region, it is possible to correspond to an image including a signal in the infrared wavelength region.

また、本実施の形態において、RGB(YRGB)の各チャンネルからエッジ検出部607によってエッジ検出処理を行う対象とするチャンネルの低周波画像の選択を実施するタイミングについては、適宜設定することができる。例えば、撮像センサー3によって1フレームの撮像が実施される毎に行ってもよいし、所定時間毎に実施されるようにしてもよいし、撮像の開始時に一度だけ実施されるようにしてもよい。   In the present embodiment, the timing for selecting the low-frequency image of the channel to be subjected to edge detection processing by the edge detection unit 607 from each of the RGB (YRGB) channels can be set as appropriate. For example, it may be performed every time one frame is captured by the image sensor 3, or may be performed every predetermined time, or may be performed only once at the start of imaging. .

また、本実施の形態では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリー等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も適用される。   In the present embodiment, an example in which a hard disk, a semiconductor nonvolatile memory, or the like is used as a computer-readable medium for the program according to the present invention is disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. A carrier wave is also used as a medium for providing program data according to the present invention via a communication line.

1 デジタルカメラ
6 画像処理部
601 周波数分離部
602 LPF部
604 HPF部
605 ノイズ量算出部(波長領域選択部)
606 チャンネル判定部(波長領域選択部・波長領域判定部)
607 エッジ検出部
608 ノイズ除去部
611 周波数合成部
DESCRIPTION OF SYMBOLS 1 Digital camera 6 Image processing part 601 Frequency separation part 602 LPF part 604 HPF part 605 Noise amount calculation part (wavelength area selection part)
606 Channel determination unit (wavelength region selection unit / wavelength region determination unit)
607 Edge detection unit 608 Noise removal unit 611 Frequency synthesis unit

Claims (5)

複数の波長領域を含む入力画像を複数の周波数帯における周波数成分に分離する周波数分離部と、
前記複数の波長領域から何れかを選択する波長領域選択部と、
前記複数の周波数帯のそれぞれについて、前記波長領域選択部によって選択された波長領域の周波数成分における低周波成分からエッジ強度を検出するエッジ検出部と、
前記周波数分離部により分離された各周波数帯の周波数成分における高周波成分からノイズ成分を除去するとともに、前記エッジ検出部によって検出されたエッジ強度に基づいて、前記高周波成分に対するエッジ成分の保存を行うノイズ除去部と、
前記複数の周波数帯のそれぞれにおける、前記ノイズ除去部によりノイズ成分が除去されるとともに前記エッジ成分が保存された前記高周波成分を合成する周波数合成部と、
を備え
前記波長領域選択部は、
前記複数の波長領域のそれぞれについて、前記周波数分離部により分離された各周波数帯の周波数成分における高周波成分からノイズ量を算出するノイズ量算出部と、
前記ノイズ量算出部により得られた前記複数の波長領域毎の高周波成分のノイズ量から最も少ないノイズ量である高周波成分の波長領域を判定する波長領域判定部と
を備え、
前記波長領域判定部によって判定された波長領域を前記複数の波長領域から選択することを特徴とする画像処理装置。
A frequency separation unit that separates an input image including a plurality of wavelength regions into frequency components in a plurality of frequency bands;
A wavelength region selection unit for selecting one of the plurality of wavelength regions;
For each of the plurality of frequency bands, an edge detection unit that detects edge intensity from a low frequency component in a frequency component of the wavelength region selected by the wavelength region selection unit;
Noise that removes noise components from high-frequency components in the frequency components of each frequency band separated by the frequency separation unit and that stores edge components for the high-frequency components based on the edge strength detected by the edge detection unit A removal section;
In each of the plurality of frequency bands, a frequency synthesizer that synthesizes the high frequency component in which the noise component is removed and the edge component is preserved by the noise removing unit;
Equipped with a,
The wavelength region selector is
For each of the plurality of wavelength regions, a noise amount calculation unit that calculates a noise amount from a high frequency component in a frequency component of each frequency band separated by the frequency separation unit;
A wavelength region determination unit that determines a wavelength region of a high-frequency component that is the smallest amount of noise from the amount of noise of the high-frequency component for each of the plurality of wavelength regions obtained by the noise amount calculation unit;
With
An image processing apparatus, wherein a wavelength region determined by the wavelength region determination unit is selected from the plurality of wavelength regions .
前記複数の波長領域は、可視波長の赤色領域と緑色領域と青色領域とを含むことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the plurality of wavelength regions include a red region, a green region, and a blue region of visible wavelengths. 前記複数の波長領域は、前記可視波長の赤色領域と緑色領域と青色領域とから求められる輝度情報を含むことを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the plurality of wavelength regions include luminance information obtained from a red region, a green region, and a blue region of the visible wavelength. 前記複数の波長領域は、赤外波長領域を含むことを特徴とする請求項1〜の何れか一項に記載の画像処理装置。 Wherein the plurality of wavelength regions, an image processing apparatus according to any one of claim 1 to 3, characterized in that it comprises an infrared wavelength region. 複数の波長領域を含む入力画像を複数の周波数帯における周波数成分に分離する周波数分離工程と、
前記複数の波長領域から何れかを選択する波長領域選択工程と、
前記複数の周波数帯のそれぞれについて、前記波長領域選択工程において選択された波長領域の周波数成分における低周波成分からエッジ強度を検出するエッジ検出工程と、
前記周波数分離工程において分離された各周波数帯の周波数成分における高周波成分からノイズ成分を除去するとともに、前記エッジ検出工程において検出されたエッジ強度に基づいて、前記高周波成分に対するエッジ成分の保存を行うノイズ除去工程と、
前記複数の周波数帯のそれぞれにおける、前記ノイズ除去工程においてノイズ成分が除去されるとともに前記エッジ成分が保存された前記高周波成分を合成する周波数合成工程と、
を含み、
前記波長領域選択工程は、
前記複数の波長領域のそれぞれについて、前記周波数分離工程において分離された各周波数帯の周波数成分における高周波成分からノイズ量を算出するノイズ量算出工程と、
前記ノイズ量算出工程において得られた前記複数の波長領域毎の高周波成分のノイズ量から最も少ないノイズ量である高周波成分の波長領域を判定する波長領域判定工程と
を含み、
前記波長領域選択工程では、前記波長領域判定工程において判定された波長領域を前記複数の波長領域から選択することを特徴とする画像処理方法。
A frequency separation step of separating an input image including a plurality of wavelength regions into frequency components in a plurality of frequency bands;
A wavelength region selection step of selecting any one of the plurality of wavelength regions;
For each of the plurality of frequency bands, an edge detection step of detecting edge intensity from a low frequency component in a frequency component of the wavelength region selected in the wavelength region selection step;
Noise that removes noise components from high-frequency components in the frequency components of each frequency band separated in the frequency separation step and that stores edge components for the high-frequency components based on the edge strength detected in the edge detection step A removal step;
In each of the plurality of frequency bands, a frequency synthesizing step of synthesizing the high frequency component in which the noise component is removed and the edge component is stored in the noise removing step;
Only including,
The wavelength region selection step includes
For each of the plurality of wavelength regions, a noise amount calculation step of calculating a noise amount from a high frequency component in a frequency component of each frequency band separated in the frequency separation step;
A wavelength region determination step of determining a wavelength region of a high-frequency component that is the least amount of noise from the amount of noise of the high-frequency component for each of the plurality of wavelength regions obtained in the noise amount calculation step;
Including
In the wavelength region selection step, the wavelength region determined in the wavelength region determination step is selected from the plurality of wavelength regions .
JP2012228724A 2012-10-16 2012-10-16 Image processing apparatus and image processing method Expired - Fee Related JP5935649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012228724A JP5935649B2 (en) 2012-10-16 2012-10-16 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012228724A JP5935649B2 (en) 2012-10-16 2012-10-16 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2014081764A JP2014081764A (en) 2014-05-08
JP5935649B2 true JP5935649B2 (en) 2016-06-15

Family

ID=50785915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012228724A Expired - Fee Related JP5935649B2 (en) 2012-10-16 2012-10-16 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5935649B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017216903A1 (en) 2016-06-15 2017-12-21 オリンパス株式会社 Image processor, image processing method and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196892A (en) * 1998-12-28 2000-07-14 Ricoh Co Ltd Color image forming device
JP2008015741A (en) * 2006-07-05 2008-01-24 Konica Minolta Holdings Inc Image processor, image processing method, and image pickup device using the same

Also Published As

Publication number Publication date
JP2014081764A (en) 2014-05-08

Similar Documents

Publication Publication Date Title
JP5460173B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
US7898583B2 (en) Image processing device, image processing method, and image sensing apparatus
JP5112104B2 (en) Image processing apparatus and image processing program
JP4742652B2 (en) Imaging device
JP4666179B2 (en) Image processing method and image processing apparatus
US10594996B2 (en) Image processing apparatus, image pickup device, image pickup apparatus, and image processing method
JP2008165312A (en) Image processor and image processing method
JP2007041834A (en) Image processor
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2010093470A (en) Noise cancellation processing circuit and solid-state imaging device
US20100066869A1 (en) Video signal processing apparatus, image pickup apparatus, display apparatus, and video signal processing method
JP5589660B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5291788B2 (en) Imaging device
JP5062064B2 (en) Image processing apparatus, image processing method, and imaging apparatus
EP2645702B1 (en) Image capturing apparatus, control method therefor, and program
JP2007043312A (en) Imaging apparatus
CN106412391B (en) Image processing apparatus, image processing method, and image capturing apparatus
JP5935649B2 (en) Image processing apparatus and image processing method
JP3863808B2 (en) Outline enhancement circuit
JP6091311B2 (en) Imaging device
JP4877402B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and recording medium
JP2009055415A (en) Camera
JP6029464B2 (en) Imaging device, control method thereof, and control program
JP2016082390A (en) Signal processing unit
JP4687750B2 (en) Digital camera and image signal processing storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160425

R150 Certificate of patent or registration of utility model

Ref document number: 5935649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees