JP6525700B2 - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP6525700B2
JP6525700B2 JP2015082609A JP2015082609A JP6525700B2 JP 6525700 B2 JP6525700 B2 JP 6525700B2 JP 2015082609 A JP2015082609 A JP 2015082609A JP 2015082609 A JP2015082609 A JP 2015082609A JP 6525700 B2 JP6525700 B2 JP 6525700B2
Authority
JP
Japan
Prior art keywords
image data
pixel
combining
evaluation value
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015082609A
Other languages
Japanese (ja)
Other versions
JP2016201771A5 (en
JP2016201771A (en
Inventor
敦 ▲高▼濱
敦 ▲高▼濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015082609A priority Critical patent/JP6525700B2/en
Publication of JP2016201771A publication Critical patent/JP2016201771A/en
Publication of JP2016201771A5 publication Critical patent/JP2016201771A5/ja
Application granted granted Critical
Publication of JP6525700B2 publication Critical patent/JP6525700B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、色ノイズを低減する画像処理技術に関するものである。   The present invention relates to an image processing technique for reducing color noise.

デジタルカメラなどの撮像装置によって撮像されたカラー画像データは一般に、明るさを表す輝度信号と、各色成分の色差を表す色差信号とに分離されて画像処理されることが知られている。また近年、デジタルカメラ等の撮像装置には高画質な画像が望まれる。特に近年は、高感度撮影に対する要求が高く、暗所や夜間においても低ノイズの高画質な画像が得られることが望まれている。しかし、暗い場所や夜間のように十分なS/N比が得られない環境下では、色差信号のノイズ(色ノイズ)が低周波のランダムノイズとして表れ、画質が低下してしまう。   It is generally known that color image data captured by an imaging device such as a digital camera is subjected to image processing by being separated into a luminance signal representing brightness and a color difference signal representing the color difference of each color component. In recent years, high-quality images are desired for imaging devices such as digital cameras. In recent years, in particular, there is a high demand for high sensitivity imaging, and it is desired that a high-quality image with low noise be obtained even in a dark place or at night. However, in a dark place or an environment where a sufficient S / N ratio can not be obtained as in the nighttime, noise (color noise) of the color difference signal appears as low frequency random noise, and the image quality is degraded.

この色ノイズを抑制するために、平均化フィルタ、ガウシアンフィルタ等を用いた平滑化処理やメディアンフィルタのような順序統計フィルタを用いた色ノイズ低減処理が従来より行われている。しかしながら、平滑化処理や順序統計フィルタを用いた場合、大きな範囲のノイズ(低周波ノイズ)を十分に低減するためには、フィルタのタップ数を大きく設計する必要があり、回路規模の増大を引き起こしてしまう。この点、入力画像を縮小してからフィルタ処理を行うことで、タップ数を増やさずに同等の効果を得る手法が提案されている(特許文献1を参照)。   In order to suppress this color noise, a smoothing process using an averaging filter, a Gaussian filter or the like, and a color noise reduction process using an order statistical filter such as a median filter have been conventionally performed. However, in the case of using a smoothing process or an order statistical filter, in order to sufficiently reduce a large range of noise (low frequency noise), it is necessary to design a large number of filter taps, causing an increase in circuit scale. It will In this respect, a method has been proposed in which the same effect is obtained without increasing the number of taps by performing filter processing after reducing the input image (see Patent Document 1).

特開2010−157163号公報JP, 2010-157163, A

ところで、入力画像の色ノイズ低減を行う際、エッジ付近に色滲みが発生することがある。例えば、入力画像を縮小してフィルタ処理を行うことで大きな範囲の色ノイズを低減することが可能であるが、縮小画像の拡大によって色領域の境界で色滲みが発生してしまう。   By the way, when performing color noise reduction of an input image, color bleeding may occur in the vicinity of an edge. For example, although it is possible to reduce color noise in a large range by reducing the input image and performing filter processing, color bleeding occurs at the boundary of the color region due to the enlargement of the reduced image.

また、入力画像を縮小することなく色ノイズ低減する場合でも、大きな範囲の色ノイズ低減によって、やはり境界部分で色滲みが発生しやすくなる。そこで、なるべく色滲みを発生させない範囲でフィルタ処理を行うようにすると、今度はエッジ付近で色ノイズが残留してしまう。また、エッジ付近では、そもそも大きな範囲でフィルタ処理しても色ノイズが十分に低減できない場合もある。特に高コントラストエッジ部でそれは顕著であり、中でも無彩色の領域に存在する色ノイズは視覚的に非常に目立つことから、その改善が重要な課題となっている。   Further, even in the case of reducing color noise without reducing the input image, color bleeding is likely to occur at the boundary due to the large range of color noise reduction. Therefore, if filter processing is performed in a range that does not generate color bleeding as much as possible, color noise will remain near the edge this time. In the vicinity of an edge, color noise may not be sufficiently reduced even by filtering in a large range. The improvement is particularly important because high-contrast edge portions are particularly noticeable, and color noise present in achromatic regions is particularly noticeable visually.

本発明に係る画像処理装置は、入力画像データに対し縮小処理を行なって、解像度を低くした複数の階層の縮小画像データを生成する縮小処理手段と、前記入力画像データ及び前記複数の階層の縮小画像データにおける注目画素の画素値を、ノイズが低減された値に補正する補正手段と、前記入力画像データ及び前記複数の階層の縮小画像データのうち、着目する画像データと前記着目する画像データよりも解像度が低い下の階層の画像データとを合成するための合成比率を導出する導出手段と、前記補正手段により補正された各画像データにおける前記注目画素を含む局所領域の画素値に基づいて、前記注目画素に対応する評価値を導出する評価値導出手段と、導出された前記合成比率及び前記評価値に基づいて、前記補正が施された画像データのうち、前記着目する画像データと、前記下の階層の画像データとを合成する合成手段と、を有し、前記合成手段は、前記評価値が所定の条件を満たす場合は、前記下の階層の画像データに対する比率が大きい所定の合成比率を用いて合成し、前記評価値が前記所定の条件を満たさない場合は、前記着目する画像データと前記下の階層の画像データの少なくとも何れか一方に応じて導出された合成比率を用いて合成することを特徴とする。 An image processing apparatus according to the present invention performs reduction processing on input image data to generate reduced image data of a plurality of layers having a reduced resolution, reduction of the input image data and the plurality of layers. the pixel value of the pixel of interest in the image data, and correcting means for correcting a value from which noise has been reduced, of the reduced image data of the input image data and the plurality of hierarchies, from the image data to be the focused and the focused image data and deriving means also derives the synthesis ratio for synthesizing the image data of low resolution is lower level, based on the pixel value of a local region including the pixel of interest definitive to each image data corrected by said correction means an evaluation value deriving means for deriving an evaluation value corresponding to the pixel of interest, based on the derived synthesis ratio and the evaluation value, the correction is performed image Of over data, and image data to be the interest has, synthesizing means for synthesizing the image data of the under layer, the combining means, when the evaluation value satisfies a predetermined condition, the lower The image data is composited using a predetermined composition ratio having a large ratio to the image data of layer, and when the evaluation value does not satisfy the predetermined condition, at least one of the image data of interest and the image data of the lower layer It is characterized by combining using a combining ratio derived according to one .

本発明によれば、無彩色領域のエッジ付近の色ノイズを効果的に低減することが可能となる。   According to the present invention, it is possible to effectively reduce color noise near the edge of the achromatic region.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure showing an example of the hardware constitutions of an image processing device. (a)は画像処理装置のノイズ低減処理に係る論理構成の一例を示すブロック図、(b)は色ノイズ低減処理部の内部構成を示すブロック図である。(A) is a block diagram which shows an example of the logic structure which concerns on the noise reduction process of an image processing apparatus, (b) is a block diagram which shows the internal structure of a color noise reduction process part. 図2(b)で示す論理構成によって実現される処理全体の流れを示したシーケンス図である。It is the sequence diagram which showed the flow of the whole process implement | achieved by the logic configuration | structure shown in FIG.2 (b). ローパスフィルタ処理に用いるフィルタの具体例を示す図である。It is a figure which shows the specific example of the filter used for a low pass filter process. 注目画素に対するローパスフィルタの掛け方の具体例を示す図である。It is a figure which shows the specific example of how to low-pass-filter with respect to an attention pixel. 画素値がどのように補正されるのかを説明する図である。It is a figure explaining how a pixel value is corrected. (a)は注目画素を中心とした二次元的な領域の一例、(b)〜(e)は一次元的な領域の一例を示す図である。(A) is a figure which shows an example of a two-dimensional area | region centering on an attention pixel, (b)-(e) shows an example of a one-dimensional area | region. 注目画素を中心とした一次元的な領域に対し、色差評価値が導出される様子を説明する図である。It is a figure explaining a mode that a color difference evaluation value is derived | led-out with respect to the one-dimensional area | region centering on an attention pixel. 優先使用判定処理の具体例を示す図である。It is a figure which shows the specific example of a priority use determination process. 色ノイズ低減処理における各処理の流れを示すフローチャートである。It is a flowchart which shows the flow of each process in a color noise reduction process. 縮小処理の流れを示すフローチャートである。It is a flowchart which shows the flow of reduction processing. 拡大合成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of expansion synthetic | combination processing.

以下、添付の図面を参照して、本発明を実施する形態について説明する。なお、以下の実施例において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

[実施例1]
図1は、本実施例に係る、画像処理装置のハードウェア構成の一例を示す図である。画像処理装置100は、例えばPC等であり、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。そして、汎用I/F104によって、カメラなどの撮像装置105や、マウス、キーボードなどの入力装置106、及びメモリカードなどの外部メモリ107をメインバス109に接続される。
Example 1
FIG. 1 is a diagram illustrating an example of a hardware configuration of an image processing apparatus according to the present embodiment. The image processing apparatus 100 is, for example, a PC, and includes a CPU 101, a RAM 102, an HDD 103, a general-purpose interface (I / F) 104, a monitor 108, and a main bus 109. Then, an imaging device 105 such as a camera, an input device 106 such as a mouse and a keyboard, and an external memory 107 such as a memory card are connected to the main bus 109 by the general-purpose I / F 104.

CPU101は、HDD103に格納された各種ソフトウェア(コンピュータプログラム)を動作させることで、以下のような各種処理を実現する。   The CPU 101 realizes various processing as described below by operating various software (computer programs) stored in the HDD 103.

まず、CPU101は、HDD103に格納されている画像処理アプリケーションを起動して、RAM102に展開するとともに、モニタ108にユーザインターフェース(UI)を表示する。続いて、HDD103や外部メモリ107に格納されている各種データ、撮像装置105で取得された画像データ、入力装置106からのユーザ指示などがRAM102に転送される。さらに、画像処理アプリケーション内の処理に従って、RAM102に格納されているデータが、CPU101からの指令に基づき演算処理される。演算処理の結果は、モニタ108に表示されたり、HDD103または外部メモリ107に格納されたりする。なお、HDD103や外部メモリ107に格納されている画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバから送信された画像データがRAM102に転送されてもよい。   First, the CPU 101 starts an image processing application stored in the HDD 103 and expands the image processing application on the RAM 102 and displays a user interface (UI) on the monitor 108. Subsequently, various data stored in the HDD 103 or the external memory 107, image data acquired by the imaging device 105, a user instruction from the input device 106, and the like are transferred to the RAM 102. Further, the data stored in the RAM 102 is arithmetically processed based on an instruction from the CPU 101 in accordance with processing in the image processing application. The result of the arithmetic processing is displayed on the monitor 108 or stored in the HDD 103 or the external memory 107. The image data stored in the HDD 103 or the external memory 107 may be transferred to the RAM 102. Further, image data transmitted from the server via a network (not shown) may be transferred to the RAM 102.

本実施例では、上記のような構成を備える画像処理装置100に於いて、CPU101からの指令に基づき、画像処理アプリケーションに画像データを入力して色ノイズを低減した画像データを出力する態様について説明するものとする。   In this embodiment, in the image processing apparatus 100 having the configuration as described above, an aspect of inputting image data to an image processing application and outputting image data with reduced color noise based on an instruction from the CPU 101 will be described. It shall be.

(画像処理装置の論理構成)
続いて、画像処理装置100におけるノイズ低減処理に係る論理構成を説明する。
(Logical configuration of image processing apparatus)
Subsequently, a logical configuration relating to noise reduction processing in the image processing apparatus 100 will be described.

図2(a)は、画像処理装置100のノイズ低減処理に係る論理構成の一例を示すブロック図である。画像処理装置100は、信号変換処理部201、色ノイズ低減処理部202、輝度ノイズ低減処理部203、信号統合処理部204とで構成される。   FIG. 2A is a block diagram showing an example of the logical configuration relating to the noise reduction processing of the image processing apparatus 100. As shown in FIG. The image processing apparatus 100 includes a signal conversion processing unit 201, a color noise reduction processing unit 202, a luminance noise reduction processing unit 203, and a signal integration processing unit 204.

撮像装置105或いはHDD103や外部メモリ107から入力されるカラー画像データの色信号(RGB色空間で表される色信号)は、まず信号変換処理部201に入力される。なお、本実施例におけるカラー画像データはRGB色空間であることを前提に説明を行なうが、これに限らず、例えばL*a*b*色空間に変換した上で実施してもよい。   A color signal (color signal represented in RGB color space) of color image data input from the imaging device 105 or the HDD 103 or the external memory 107 is input to the signal conversion processing unit 201 first. Although the color image data in the present embodiment is described on the premise that it is an RGB color space, the present invention is not limited to this. For example, the color image data may be converted to an L * a * b * color space.

信号変換処理部201は、入力されたカラー画像データのRGB色信号から、公知の変換式によって、輝度成分(Y)を表す輝度信号と色差成分(Cr及びCb)を表す色差信号を生成する処理を行なう。これにより輝度を表す輝度信号と色差(色相ベクトル)を表す色差信号とからなる色信号を得ることができる。ここで、輝度信号のノイズ(以降、輝度ノイズ)の空間周波数と色差信号のノイズ(以降、色ノイズ)の空間周波数は互いに異なり、色差信号のノイズの空間周波数の方が低い。本処理によって、入力されたカラー画像データに係るRGB色信号からYCrCb色信号を生成することで、輝度成分を表す輝度信号と色差成分を表す色差信号のそれぞれに対して最適なノイズ低減処理を行なうことができる。入力RGB色信号と、信号変換処理によって生成されたYCrCb色信号は、色ノイズ低減処理部202と輝度ノイズ低減処理部203に送られる。   The signal conversion processing unit 201 generates a luminance signal representing the luminance component (Y) and a color difference signal representing the color difference components (Cr and Cb) from the RGB color signal of the input color image data by a known conversion formula. Do. As a result, it is possible to obtain a color signal composed of a luminance signal representing luminance and a color difference signal representing a color difference (hue vector). Here, the spatial frequency of noise of the luminance signal (hereinafter, luminance noise) and the spatial frequency of noise of the color difference signal (hereinafter, color noise) are different from each other, and the spatial frequency of the noise of the color difference signal is lower. In this processing, YCrCb color signals are generated from RGB color signals related to input color image data, thereby performing optimal noise reduction processing on each of the luminance signal representing the luminance component and the color difference signal representing the color difference component. be able to. The input RGB color signal and the YCrCb color signal generated by the signal conversion process are sent to the color noise reduction processing unit 202 and the luminance noise reduction processing unit 203.

色ノイズ低減処理部202は、RGB色信号とYCrCb色信号とに基づいて、色差信号のノイズ(色ノイズ)を低減する処理を行なう。色ノイズ低減処理の詳細については後述する。   The color noise reduction processing unit 202 performs processing to reduce noise (color noise) of the color difference signal based on the RGB color signal and the YCrCb color signal. Details of the color noise reduction processing will be described later.

輝度ノイズ低減処理部203は、輝度信号のノイズを低減する処理を行なう。輝度ノイズ低減処理部203においては、一般的なノイズ低減処理を用いればよい。   The luminance noise reduction processing unit 203 performs processing to reduce noise of the luminance signal. In the luminance noise reduction processing unit 203, general noise reduction processing may be used.

信号統合処理部204は、色ノイズ低減処理部202によって色ノイズが低減された色信号と、輝度ノイズ低減処理部203によって輝度ノイズが低減された色信号とを統合する処理を行なう。信号統合処理部204は、信号統合処理の結果生成される、色ノイズと輝度ノイズの両方が低減されたカラー画像データを出力する。統合後のカラー画像データは、モニタ108やHDD103などに出力される。そのほか、例えば汎用I/F104に接続した外部メモリ107、不図示の外部サーバ、プリンタなどに出力しても構わない。   The signal integration processing unit 204 integrates the color signal whose color noise has been reduced by the color noise reduction processing unit 202 and the color signal whose luminance noise has been reduced by the luminance noise reduction processing unit 203. The signal integration processing unit 204 outputs color image data in which both color noise and luminance noise are reduced, which are generated as a result of the signal integration processing. The color image data after integration is output to the monitor 108, the HDD 103, or the like. In addition, for example, the data may be output to the external memory 107 connected to the general-purpose I / F 104, an external server (not shown), a printer, or the like.

(色ノイズ低減処理部の詳細)
続いて、色ノイズ低減処理部202について詳しく説明する。図2(b)は、色ノイズ低減処理部202の内部構成を示すブロック図である。図2(b)に示すように、色ノイズ低減処理部202は、縮小処理部210、色差補正部220、合成比率導出部230、色差評価値導出部240、及び拡大合成処理部250で構成される。そして、図3は、図2(b)で示す論理構成によって実現される処理全体の流れを示したシーケンス図である。以下、図2(b)及び図3を参照しつつ、色ノイズ低減処理部202の各部について説明する。
(Details of color noise reduction processing unit)
Subsequently, the color noise reduction processing unit 202 will be described in detail. FIG. 2B is a block diagram showing an internal configuration of the color noise reduction processing unit 202. As shown in FIG. As shown in FIG. 2B, the color noise reduction processing unit 202 includes a reduction processing unit 210, a color difference correction unit 220, a combination ratio derivation unit 230, a color difference evaluation value derivation unit 240, and an enlargement combination processing unit 250. Ru. And FIG. 3 is a sequence diagram showing the flow of the entire processing realized by the logical configuration shown in FIG. 2 (b). Hereinafter, each part of the color noise reduction processing unit 202 will be described with reference to FIG. 2 (b) and FIG. 3.

<縮小処理部>
縮小処理部210は、入力された画像データに対し解像度を低減する処理(図3における縮小処理302a〜302c)を行なって、縮小画像データを生成する。図3に示す例では、入力画像の解像度をそれぞれ、1/2倍にする縮小処理302a、1/4倍にする縮小処理302b、1/8倍にする縮小処理302cを行なって、解像度の異なる3種類の縮小画像データを生成する。一般に画像データを縮小する際、ローパスフィルタ処理を行わないと折り返し雑音が発生してしまい、その折り返し雑音のパターンが、最終的に出力される画像データに現れてしまう。したがって、縮小処理を行う際には、例えば平均画素法やその他のローパスフィルタ処理を含んだアルゴリズムを用いるか、事前にローパスフィルタ処理を行った上でバイリニア法などを適用する。ローパスフィルタ処理に用いるフィルタは、縮小倍率に基づいて決定され、例えば、縮小倍率が1/2のときには、図4に示すようなフィルタが用いられる。なお、フィルタの大きさや係数は図4に示すフィルタに限られるものではない。以下では、入力画像データと当該入力画像データから生成された複数の縮小画像データとをまとめて「多重解像度画像データ」と呼ぶこととする。縮小処理によって生成された縮小画像データは、後述の色差補正処理で用いるためにRAM102に記憶される。
<Reduction processing unit>
The reduction processing unit 210 performs processing for reducing the resolution of the input image data (reduction processing 302 a to 302 c in FIG. 3) to generate reduced image data. In the example shown in FIG. 3, the resolution of the input image is reduced by half, reduced by one-half, reduced by one-half 302b, and reduced by one-eighth by one-half 302c. Generate three kinds of reduced image data. In general, when reducing image data, aliasing noise occurs if the low-pass filter processing is not performed, and a pattern of the aliasing noise appears in the image data to be finally output. Therefore, when the reduction processing is performed, for example, an algorithm including an average pixel method or other low pass filter processing is used, or a bi-linear method is applied after low pass filter processing is performed in advance. The filter used for the low-pass filter processing is determined based on the reduction factor. For example, when the reduction factor is 1/2, a filter as shown in FIG. 4 is used. The filter size and coefficients are not limited to those shown in FIG. Hereinafter, the input image data and the plurality of reduced image data generated from the input image data will be collectively referred to as “multiresolution image data”. The reduced image data generated by the reduction process is stored in the RAM 102 for use in the color difference correction process described later.

<色差補正部>
色差補正部230は、上述の多重解像度画像データに対し、予め設定された補正パラメータに基づいて、色ノイズが低減するように注目画素の色差を示す値(色差信号)を補正する処理(図3における色差補正処理303a〜303d)を行なう。ここで、補正パラメータとは、注目画素について所定の参照領域と平均化するか否かを判定するための各閾値を意味する。これらは、ノイズ量に応じて適切な値に変更することが望ましい。したがって、例えば撮影感度に応じて予め決めておいたり、注目画素とその周辺画素の情報に基づいて適応的に決定する。色差補正処理では、入力カラー画像データの注目画素の色差信号Cr、Cbの値が、例えば以下の式(1)及び式(2)を用いて補正される。
<Color difference correction unit>
The color difference correction unit 230 corrects the value (color difference signal) indicating the color difference of the pixel of interest so that the color noise is reduced based on the correction parameter set in advance for the multi-resolution image data described above (FIG. 3). Color difference correction processing 303a to 303d). Here, the correction parameter means each threshold value for determining whether or not the target pixel is averaged with a predetermined reference area. It is desirable to change these to appropriate values according to the amount of noise. Therefore, for example, it is determined in advance in accordance with the imaging sensitivity, or adaptively determined based on the information of the pixel of interest and its peripheral pixels. In the color difference correction process, the values of the color difference signals Cr and Cb of the pixel of interest of the input color image data are corrected using, for example, the following equations (1) and (2).

上記式(1)及び式(2)において、Cr[i]とCb[i]は注目画素に対する所定の参照領域内で以下の式(3)を満たす画素を表している。Mは、注目画素に対する参照領域において以下の式(3)を満たす画素数である。なお、注目画素自身は必ず含まれるのでM≧1となる。 In the above equations (1) and (2), Cr [i] and Cb [i] represent pixels satisfying the following equation (3) within a predetermined reference area for the pixel of interest. M is the number of pixels that satisfy the following formula (3) in the reference area for the pixel of interest. Note that M 注目 1 because the pixel of interest itself is always included.

上記式(3)において、∧は論理積(AND)を表し(以下、同じ)、Yは注目画素の輝度を表す。そして、ThYは輝度に対する閾値、ThCrは色差Crに対する閾値、ThCbは色差Cbに対する閾値をそれぞれ表している。そして、Ydiff、Crdiff、Cbdiffは参照領域内の各画素値と比較する画素値との差であり、それぞれ以下の式(4)〜式(6)で表される。 In the above equation (3), ∧ represents a logical product (AND) (hereinafter the same), and Y represents the luminance of the pixel of interest. Further, Th Y represents a threshold for luminance, Th Cr represents a threshold for chrominance Cr, and Th Cb represents a threshold for chrominance Cb . Further, Y diff , Cr diff , and Cb diff are differences between pixel values in the reference area and pixel values to be compared, and are represented by the following formulas (4) to (6), respectively.

上記式(4)〜式(6)における、比較する画素値Ycomp、Crcomp、Cbcompは注目画素の画素値をそのまま用いればよい。或いは、注目画素の画素値にローパスフィルタを掛けた結果を注目画素の画素値としてもよい。図5は、注目画素に対するローパスフィルタの掛け方の具体例を示す図である。図5の例では、注目画素とその上下左右方向に隣接する4画素を用いて、「比較する画素値Ycomp、Crcomp、Cbcomp」としての「注目画素の画素値にローパスフィルタを掛けた結果」が導出される。なお、ローパスフィルタと同様の効果があれば、その重み付けや使用する隣接画素の数は自由に決定してよい。また、人間の眼は緑色の光を最も明るく感じるという比視感度特性を有することから、輝度Yの代わりにGを簡易輝度として扱ってもよい。この場合、色差を示す値Cr(Cb)は、R−G(B−G)で求められる。 The pixel values of the target pixel may be used as the pixel values Y comp , Cr comp , and Cb comp to be compared in the above formulas (4) to (6). Alternatively, the result of applying a low pass filter to the pixel value of the target pixel may be used as the pixel value of the target pixel. FIG. 5 is a diagram showing a specific example of how to apply a low pass filter to a pixel of interest. In the example of FIG. 5, the pixel value of the “target pixel” is low-pass filtered as the “pixel values to be compared Y comp , Cr comp , Cb comp ” using the target pixel and four pixels adjacent in the upper, lower, left, and right directions The result is derived. Note that if there is an effect similar to that of the low pass filter, the weighting and the number of adjacent pixels to be used may be freely determined. In addition, since human eyes have relative luminosity characteristics that green light is felt most brightly, G may be treated as simplified luminance instead of luminance Y. In this case, the value Cr (Cb) indicating the color difference is determined by R-G (B-G).

図6は、上述の式(1)〜式(3)によって、画素値がどのように補正されるのかを説明する図である。ここでは、参照符号601〜603で示す画素値(14bit:0〜16383)を持つ画像データが補正対象であり、参照領域は太枠で示した領域である。この場合において、参照符号604〜606で示す比較する画素値=注目画素の画素値(YComp:3394,CrComp:-33,CbComp:-150)を用いて、参照符号607〜609で示すYdiff、Crdiff、Cbdiffがまず導出される。そして、導出されたYdiff、Crdiff、Cbdiffを用いて、上記式(3)への当て嵌めがなされ、参照符号610で示す、値“1”を持つ全7画素が、上記式(1)及び式(2)における平均化に使用する画素と決定される。そして、最終的に、参照符号611で示す、注目画素における色差を示す値Cr、Cbの補正値(Crresult:-27,Cbresult:-48)が導出されることになる。 FIG. 6 is a diagram for explaining how the pixel value is corrected by the above-mentioned equations (1) to (3). Here, image data having pixel values (14 bits: 0 to 16383) indicated by reference numerals 601 to 603 are correction targets, and the reference area is an area indicated by a bold frame. In this case, pixel values to be compared indicated by reference numerals 604 to 606 = pixel values of target pixels (Y Comp : 3394, Cr Comp : -33, Cb Comp : -150), and indicated by reference numerals 607 to 609. Y diff , Cr diff and Cb diff are first derived. Then, fitting to the above equation (3) is made using the derived Y diff , Cr diff , and Cb diff, and all seven pixels having a value “1”, which is indicated by the reference numeral 610, have the above equation (1). And the pixel used for averaging in equation (2). Finally, correction values (Cr result : −27, Cb result : −48) of values Cr and Cb indicating the color difference at the pixel of interest indicated by reference numeral 611 are derived.

なお、ここに示した色差補正処理は一例であり、色ノイズが低減するように色差を示す値を補正する手法であれば他のどのような方法でもよい。色差補正処理によって色ノイズが低減された多重解像度画像データは、後述の合成比率導出処理及び色差評価値導出処理で用いるため、RAM102に記憶される。   Note that the color difference correction process shown here is an example, and any other method may be used as long as it is a method of correcting a value indicating a color difference so as to reduce color noise. The multi-resolution image data whose color noise has been reduced by the color difference correction process is stored in the RAM 102 for use in the combination ratio derivation process and the color difference evaluation value derivation process described later.

<合成比率導出部>
合成比率導出部240は、色差補正処理によって色ノイズが低減された多重解像度画像データに含まれる各画像データに対し、下位階層画像データとの合成比率を導出する処理(図3における合成比率導出処理304a〜304c)を行なう。ただし、図3のシーケンス図から明らかなように、最下位階層の画像データ(本実施例では1/8倍に縮小処理された縮小画像データ)は、自己よりも下位の画像データが存在しないため本処理の対象外である。ここで、合成比率は色差信号の急峻な変化の度合いに応じて決定され、例えば注目画素の色差信号Cr、Cbを入力としてエッジ検出することで導出可能である。具体的には、フィルタ係数[−1,2,−1]を有する空間フィルタを用い、水平方向と垂直方向にフィルタを適用した結果のうち、色エッジの度合いが高いと考えられる方を、予め定めた関数によって0〜1の間の係数Kにマッピングする。色エッジの度合いが高いと考えられるフィルタ適用結果ほど1に近い値の係数Kが、色エッジの度合いが低いと考えられるフィルタ適用結果ほど0に近い値の係数Kが出力される。そして、この係数Kが合成比率となる。なお、エッジ検出には輝度信号を用いてもよい。また、フィルタ係数や判定方法は上述したものに限らない。色エッジの度合いが高いと考えられるときに大きな値の合成比率、色エッジの度合いが低いと考えられるときに小さな値の合成比率が得られれば、どのように導出してもよい。導出された合成比率のデータは、後述の拡大合成処理で用いるため、RAM102に記憶される。
<Composition ratio derivation unit>
A process of deriving a combining ratio with lower layer image data with respect to each image data included in multi-resolution image data in which color noise is reduced by the color difference correction process (composition ratio deriving process in FIG. 3) 304a to 304c). However, as is clear from the sequence diagram of FIG. 3, the image data of the lowermost layer (the reduced image data reduced to 1/8 in this embodiment) has no image data lower than itself. It is not the subject of this processing. Here, the combination ratio is determined in accordance with the degree of abrupt change of the color difference signal, and can be derived, for example, by edge detection with the color difference signals Cr and Cb of the pixel of interest as inputs. Specifically, among the results of applying the filter in the horizontal direction and the vertical direction using a spatial filter having a filter coefficient [-1, 2, -1], one that is considered to have a high degree of color edge is previously determined. Map to a coefficient K between 0 and 1 by the defined function. A coefficient K having a value closer to 1 is output as the filter application result considered to have a higher degree of color edge, and a coefficient K having a value closer to 0 is output as the filter application result considered to have a lower color edge degree. Then, this coefficient K is the combining ratio. Note that a luminance signal may be used for edge detection. Also, the filter coefficient and the determination method are not limited to those described above. It may be derived in any way as long as it is possible to obtain a large value combination ratio when the degree of color edge is considered to be high and a small value combination ratio when the degree of color edge is considered low. The derived data of the combining ratio is stored in the RAM 102 for use in the enlargement and combining process described later.

<色差評価値導出部>
色差評価値導出部250は、色差補正部220で処理された多重解像度画像データに含まれる各画像データに対し、色差に基づく評価値を導出する処理(図3における色差評価値導出処理305a〜305d)を行なう。具体的には、注目画素を中心とした二次元的な領域と一次元的な領域に対し、それぞれ以下の式(7)〜式(9)を用いて色差評価値として、Yavg、Cravg、Cbavgがそれぞれ導出される。
<Color difference evaluation value derivation unit>
A process of deriving an evaluation value based on color difference for each image data included in the multi-resolution image data processed by the color difference correction unit 220 (color difference evaluation value derivation process 305 a to 305 d in FIG. 3) Do). Specifically, for the two-dimensional area and the one-dimensional area centered on the pixel of interest, Y avg and Cr avg are used as color difference evaluation values using Formulas (7) to (9) below, respectively. , Cb avg are derived respectively.

上記式(7)〜式(9)において、Yi、Cri及びCbiはそれぞれ各領域内の画素を表し、Nは領域を構成する画素数を表している。図7(a)に注目画素を中心とした二次元的な領域の例を、同(b)〜(e)に、一次元的な領域の例をそれぞれ示している。そして、一次元的な領域の場合は、各方向の評価値がそれぞれ導出されることになる。 The equation (7) to formula (9), Y i, Cr i and Cb i represent pixels respectively in each region, N is the represents the number of pixels constituting the region. FIG. 7A shows an example of a two-dimensional area centered on the pixel of interest, and FIGS. 7B to 7E show an example of a one-dimensional area. Then, in the case of a one-dimensional area, evaluation values in each direction are respectively derived.

図8は、注目画素を中心とした一次元的な領域のうち、図7(b)に示す領域に対し、色差評価値が導出される様子を説明する図である。この場合、Y成分、Cr成分、Cb成分のそれぞれについて、参照符号801〜803で示す太枠部分の画素値を用いて、上記式(7)〜式(9)への当て嵌めがなされる。その結果、参照符合804で示すような色差評価値(Yavg:3028,Cravg:68,Cbavg:106)が導出されることになる。 FIG. 8 is a diagram for explaining how the color difference evaluation value is derived for the area shown in FIG. 7B in the one-dimensional area centered on the pixel of interest. In this case, for each of the Y component, the Cr component, and the Cb component, fitting to the above equations (7) to (9) is performed using pixel values of thick frame portions indicated by reference numerals 801 to 803. As a result, color difference evaluation values ( Yavg : 3028, Cravg : 68, Cbavg : 106) as indicated by reference numeral 804 are derived.

なお、領域の大きさや一次元的な領域の方向の数はこれに限定されるものではない。また、上述の例では平均値を評価値としているが、加算値でもよい。導出された色差の評価値の情報は、後述の優先使用判定処理で用いるため、RAM102に記憶される。   The size of the area and the number of directions of the one-dimensional area are not limited to this. Moreover, although the average value is used as the evaluation value in the above-mentioned example, an addition value may be used. The information of the derived evaluation value of the color difference is stored in the RAM 102 for use in the priority use determination processing described later.

<拡大合成処理部>
拡大合成処理部250は、色差補正部220で処理された多重解像度画像データのうち解像度が異なる2種類の画像データを、合成比率導出部230で導出された合成比率と色差評価値導出部240で導出された色差評価値とに基づいて、合成する処理を行う。拡大合成処理部250は、さらに、拡大処理部251、優先使用判定部252及び画素値合成部253とで構成される。以下、拡大合成処理部250を構成する各部について説明する。
<Magnification processing unit>
The enlargement / composition processing unit 250 combines two types of image data having different resolutions among the multi-resolution image data processed by the color difference correction unit 220 with the combination ratio derived by the combination ratio derivation unit 230 and the color difference evaluation value derivation unit 240. A combining process is performed based on the derived color difference evaluation value. The enlargement composition processing unit 250 further includes an enlargement processing unit 251, a priority usage determination unit 252, and a pixel value combining unit 253. Hereinafter, each part which comprises the expansion compositing process part 250 is demonstrated.

≪拡大処理部≫
拡大処理部251は、多重解像度画像データにおける最上位階層の画像データ(入力画像データそのもの。図3における入力画像301)を除いた各階層の画像データを例えばバイリニア法によって2倍に拡大する処理(図3における拡大処理306a〜306c)を行なう。このとき拡大処理の対象となるのは、最下位階層の画像データは色差補正部220で処理された画像データであり、その他の下位階層の画像データは、後述の画素値合成処理による合成後の画像データである。図3のシーケンス図の例では、拡大処理306aの対象は色差補正処理303dが施された最下位階層の画像データとなっている。また、拡大処理306bの対象は後述の画素値合成処理308aが施された合成後の画像データとなっている。そして、拡大処理306cの対象は後述の画素値合成処理308bが施された合成後の画像データとなっている。なお、拡大処理の方法は、バイリニア法に限らず、例えばニアレストネイバー法、バイキュービック法、Lanczos法などを用いてもよい。
«Expansion processing unit»
The enlargement processing unit 251 doubles the image data of each layer excluding the image data of the highest layer (the input image data itself; the input image 301 in FIG. 3) in the multi-resolution image data by, for example The enlargement processes 306a to 306c in FIG. 3 are performed. At this time, the image data of the lowest layer is the image data processed by the color difference correction unit 220 and the image data of the other lower layers is the object after the composition by the pixel value composition process described later. It is image data. In the example of the sequence diagram of FIG. 3, the target of the enlargement processing 306 a is the image data of the lowest layer subjected to the color difference correction processing 303 d. Further, the target of the enlargement processing 306 b is the image data after combination subjected to pixel value combination processing 308 a described later. The target of the enlargement processing 306 c is the image data after combination subjected to pixel value combination processing 308 b described later. Note that the method of enlargement processing is not limited to the bilinear method, and, for example, the nearest neighbor method, the bicubic method, the Lanczos method, or the like may be used.

≪優先使用判定部≫
優先使用判定部252は、着目する画像データとその一つ下の階層の画像データとを合成する際に、優先的に下の階層の画像データを使用するかどうかを判定する処理(図3における優先使用判定処理307a〜307c)を行なう。この判定は、色差評価値導出部240で導出された色差評価値に基づいてなされる。ここで、「一つ下の階層の画像データ」とは、着目画像データよりも1段階解像度が低い画像データであって、当該着目する画像データと同じ解像度に上記拡大処理部251によって拡大処理された画像データを指す。図3のシーケンス図の例で説明する。まず、優先使用判定処理307aでは、入力画像データの1/4の解像度に縮小処理された画像データと、入力画像データの1/8の解像度に縮小処理されていた(拡大処理によって同じ解像度になった)画像データとの合成を行う際の判定がなされる。そして、優先使用判定処理307bでは、入力画像データの1/2の解像度に縮小処理された画像データと、入力画像データの1/4の解像度に縮小処理されていた(拡大処理によって同じ解像度になった)画像データとの合成を行う際の判定がなされる。そして、優先使用判定処理307cでは、入力画像データそのものと、入力画像データの1/2の解像度に縮小処理されていた(拡大処理によって同じ解像度になった)画像データとの合成を行う際の判定がなされる。
«Priority use judgment unit»
A process of determining whether or not to use image data of a lower hierarchy preferentially when combining the image data of interest and the image data of the next lower hierarchy (FIG. 3). The priority usage determination processing 307a to 307c) is performed. This determination is made based on the color difference evaluation value derived by the color difference evaluation value deriving unit 240. Here, “image data of one lower hierarchy” is image data whose resolution is lower by one step than the image data of interest, and is enlarged by the enlargement processing unit 251 to the same resolution as the image data of interest. Point image data. This will be described using the example of the sequence diagram of FIG. First, in the preferential use determination processing 307a, the image data reduced to the resolution of 1/4 of the input image data and the resolution to 1/8 of the input image data are reduced (the enlargement processing makes the resolution the same) Determination is made when combining with the image data. Then, in the priority use determination processing 307b, the image data reduced to a resolution of 1⁄2 of the input image data and the resolution to a resolution of 1⁄4 of the input image data are processed (the enlargement processing causes the same resolution Determination is made when combining with the image data. Then, in the preferential use determination processing 307c, the determination when combining the input image data itself and the image data that has been reduced to half the resolution of the input image data (which has become the same resolution by the enlargement processing) Is done.

そして、この優先使用判定処理は、上述の式(7)〜(9)で導出された色差評価値のうち下位階層側の結果を、画素単位で、以下の式(10)に当て嵌めて行う。   Then, the priority use determination process is performed by fitting the result of the lower layer side among the color difference evaluation values derived by the above-mentioned equations (7) to (9) to the following equation (10) in pixel units. .

上記式(10)において、a及びbは階層と撮影感度に応じて設定する係数であり、階層が下又は撮影感度が小さいほど小さな値に、反対に上階層であるほど、又は撮影感度が高いほど大きな値に設定する。上記式(10)は、図7に対応しており、一次元的な領域については(b)〜(e)の四方向に設定したときの判定式となっている。すなわち、二次元的な領域(図7(a))の評価値によって注目画素とその周囲の画素が無彩色に近いかどうかを判定し、さらに一次元的な領域(図7(b)〜(d))の評価値によって色エッジがないことを判定している。なお、一次元的な領域の方向は必ずしも四方向に限定されないが、可能な限り四方向以上の一次元的な領域を設定していることが望ましい。実は色エッジがあるのにその領域は無彩色と判定してしまい、それによって最終的に消えて欲しくない色エッジが消えてしまうようなことが起こるのを防ぐためである。上記式(10)の条件を満たした場合には、さらに以下の式(11)を用いた判定を行う。 In the above equation (10), a and b are coefficients set according to the hierarchy and the imaging sensitivity, and the lower the hierarchy or the smaller the imaging sensitivity, the smaller the value, the higher the hierarchy, or the higher the imaging sensitivity Set to a value as large as possible. The above equation (10) corresponds to FIG. 7 and is a determination equation when one direction is set in four directions of (b) to (e) for a one-dimensional area. That is, it is determined whether or not the pixel of interest and its surrounding pixels are close to an achromatic color by the evaluation value of the two-dimensional area (FIG. 7A), and the one-dimensional area (FIGS. The evaluation value of d) determines that there is no color edge. Although the direction of the one-dimensional area is not necessarily limited to four directions, it is desirable to set one-dimensional areas in four or more directions as much as possible. Actually, even if there is a color edge, it is determined that the area is achromatic, thereby preventing the occurrence of an event that the color edge which is not desired and eventually disappears disappears. When the condition of the above equation (10) is satisfied, the determination is further performed using the following equation (11).

上記式(11)は注目画素の色差について、下位階層側(低解像度側:Crdown、Cbdown)と上位階層側(高解像度側:Crup、Cbup)とで比較し、下位階層側の方が、色差が小さいか否かを判定している。式(10)の条件を満たした上で、さらに式(11)の条件を満たしたとき、当該下の階層の画像データを画素値合成処理において例えば100%採用するよう、合成比率が変更されることになる。 The above equation (11) compares the color difference of the pixel of interest between the lower layer side (low resolution side: Cr down , Cb down ) and the upper layer side (high resolution side: Cr up , Cb up ). It is determined whether the color difference is smaller. When the condition of equation (11) is further satisfied after satisfying the condition of equation (10), the composition ratio is changed such that image data of the lower layer is adopted, for example, 100% in pixel value composition processing It will be.

図9は、優先使用判定処理の具体例を示す図である。いま、参照符号601〜603で示す画素値(14bit:0〜16383)を持つ画像データにおける、二次元的或いは一次元的な的な領域(図7(a)〜(e))について、それぞれ参照符号901〜905で示す色差評価値が導出されている。これらを上述の式(10)に当て嵌めると、参照符号906で示す「条件を満たしていない」の判定結果となる。仮に、上記式(10)の判定式の条件を満たす場合には、上記式(11)への当て嵌めへと進むことになる。図9に示した、|Crdown|=56、|Cbdown|=62、|Crup|=69、|Cbup|=79の具体例では、参照符号907で示す「条件を満たしている」の判定結果となる。このような判定結果が得られた場合、例えば上位階層側の比率を表す合成比率u(0≦u≦1)が“0”に近い値へと変更される。このように変更された合成比率のデータはRAM102に記憶される。 FIG. 9 is a diagram showing a specific example of the preferential use determination process. Now, reference is made to two-dimensional or one-dimensional areas (FIGS. 7A to 7E) in image data having pixel values (14 bits: 0 to 16383) indicated by reference numerals 601 to 603, respectively. The color difference evaluation values indicated by reference numerals 901 to 905 are derived. If these are applied to the above-mentioned equation (10), the determination result of “the condition is not satisfied” indicated by reference numeral 906 is obtained. Temporarily, when the conditions of the judgment formula of said Formula (10) are satisfy | filled, it will progress to the fitting to said Formula (11). In the example of | Cr down | = 56, | Cb down | = 62, | Cr up | = 69, | Cb up | = 79 shown in FIG. It becomes the judgment result of When such a determination result is obtained, for example, the combination ratio u (0 ≦ u ≦ 1) representing the ratio on the upper layer side is changed to a value close to “0”. The data of the combined ratio changed in this manner is stored in the RAM 102.

≪画素値合成部≫
画素値合成部253は、着目する画像データの画素値と、その一つ下の階層の画像データを拡大処理した後の画像データ(着目する画像データと同じ解像度)の画素値を、各段階の合成比率導出処理によって導出された合成比率に基づいて合成する処理を行なう。図3においては、画素値合成処理308a〜308cがこれに対応する。具体的には、下位階層側の画素値をIdown、上位階層側の画素値をIup、合成比率をuとしたときの合成後の画素値Ipostが、以下の式(12)を用いて求められる。
«Pixel value synthesis unit»
The pixel value composition unit 253 performs the pixel value of the image data of interest and the pixel value of the image data (same resolution as the image data of interest) after enlargement processing of the image data of the next lower hierarchy to each stage. A combining process is performed based on the combining ratio derived by the combining ratio deriving process. In FIG. 3, pixel value combining processing 308 a to 308 c correspond to this. Specifically, assuming that the pixel value on the lower layer side is I down , the pixel value on the upper layer side is I up , and the composition ratio is u, the pixel value I post after composition is calculated using Equation (12) below. Is required.

例えば、合成比率u=0.1、下位階層側画素値Idown=3405、上位階層側画素値Iup=3621であったとき、合成後の画素値Ipostは上記式(12)より“3427”となる。なお、ここでの画素値はどのようなフォーマットでもよく、YcrCb値でもよいし、RGB値でもよい。 For example, when the composition ratio u = 0.1, the lower layer side pixel value I down = 3405, and the upper layer side pixel value I up = 3621, the pixel value I post after composition is “3427” according to the above equation (12). Become. Note that the pixel values here may be in any format, may be YcrCb values, or may be RGB values.

上述の通り合成比率uは、上位階層側の画像データをどれだけ使用するかを表す係数であり、基本的には合成比率導出部230で導出され、優先使用判定処理の結果によって適宜変更されることになる。本実施例の場合、画素値合成処理308a/308bの結果である合成後のカラー画像データはRAM102に一旦記憶されて拡大処理306b/306cに供される。一方、画素値合成処理308cの結果である合成後の画像データについてはそのまま出力される(図3のシーケンス図を参照)。この際の出力の態様には、例えば、モニタ108への表示、HDD103保存、汎用I/F104を介した外部メモリ107や外部サーバ(不図示)への保存、プリンタ(不図示)での印刷といったものがある。   As described above, the composition ratio u is a coefficient indicating how much image data on the upper layer side is to be used, and is basically derived by the composition ratio deriving unit 230 and appropriately changed according to the result of the priority use determination process. It will be. In the case of the present embodiment, the color image data after combining, which is the result of the pixel value combining process 308a / 308b, is temporarily stored in the RAM 102 and provided to the enlargement process 306b / 306c. On the other hand, the image data after combining, which is the result of the pixel value combining process 308c, is output as it is (see the sequence diagram of FIG. 3). The output mode at this time includes, for example, display on the monitor 108, storage on the HDD 103, storage on the external memory 107 via the general-purpose I / F 104 or an external server (not shown), printing on a printer (not shown) There is something.

(色ノイズ低減処理のフロー)
次に、色ノイズ低減処理部202における各処理の大まかな流れについて説明する。図10は、色ノイズ低減処理における各処理の流れを示すフローチャートである。この一連の処理は、CPU101が、HDD130に格納されているプログラムをRAM102にロードし、実行することで実現される。
(Flow of color noise reduction processing)
Next, a rough flow of each process in the color noise reduction processing unit 202 will be described. FIG. 10 is a flowchart showing the flow of each process in the color noise reduction process. This series of processing is realized by the CPU 101 loading a program stored in the HDD 130 into the RAM 102 and executing it.

色ノイズ低減処理部202に画像データが入力されると、ステップ1001において、縮小処理部210は、取得された入力画像データに対し前述の縮小処理を行い、多重解像度画像データを生成する。縮小処理の詳細については後述する。   When image data is input to the color noise reduction processing unit 202, in step 1001, the reduction processing unit 210 performs the above-described reduction processing on the acquired input image data to generate multi-resolution image data. Details of the reduction process will be described later.

ステップ1002において、色差補正部220は、生成された多重解像度画像データにおける各階層の画像データに対し、色ノイズが低減するように注目画素の色差を示す値(色差信号)を補正する色差補正処理を行なう。   In step 1002, the color difference correction processing of the color difference correction unit 220 corrects a value (color difference signal) indicating the color difference of the target pixel so as to reduce color noise with respect to the image data of each layer in the generated multiresolution image data. Do.

ステップ1003において、合成比率導出部230は、色差補正処理によって色ノイズが低減された多重解像度画像データのうち、最下位階層を除く各画像データに対し、下位階層の画像データとの合成比率を導出する処理を行なう。   In step 1003, the composition ratio deriving unit 230 derives a composition ratio of the multi-resolution image data of which color noise has been reduced by the color difference correction process to the image data of the lower layer with respect to each image data excluding the lowest layer. Perform the process.

ステップ1004において、色差評価値導出部240は、色差補正処理によって色ノイズが低減された多重解像度画像データに含まれる各画像データに対し、色差評価値を導出する処理を行なう。   In step 1004, the color difference evaluation value deriving unit 240 performs processing to derive a color difference evaluation value for each piece of image data included in the multi-resolution image data whose color noise has been reduced by the color difference correction processing.

ステップ1005において、拡大合成処理部250は、色差補正処理によって色ノイズが低減された多重解像度画像データに対し、ステップ1003で導出された合成比率とステップ1004で導出された色差評価値とに基づいて、前述の拡大合成処理を行う。拡大合成処理の詳細については後述する。   In step 1005, the enlargement / composition processing unit 250 applies the combination ratio derived in step 1003 and the color difference evaluation value derived in step 1004 to the multi-resolution image data whose color noise has been reduced by the color difference correction processing. , Perform the above-mentioned enlargement synthesis process. Details of the enlargement synthesis process will be described later.

以上が、色ノイズ低減処理部202における各処理の大まかな流れである。   The above is the rough flow of each processing in the color noise reduction processing unit 202.

(縮小処理フロー)
続いて、上述した図10のフローにおける縮小処理(ステップ1001)の詳細について説明する。図11は、縮小処理の流れを示すフローチャートである。
(Reduction processing flow)
Next, details of the reduction process (step 1001) in the flow of FIG. 10 described above will be described. FIG. 11 is a flowchart showing the flow of the reduction process.

ステップ1101において、縮小処理部210は、縮小処理パラメータを取得する。縮小処理パラメータには、多重解像度の階層の深さ、最小の解像度が入力画像データに対して何分の1(2の倍数)になるかの情報が含まれる。そして、このような縮小処理パラメータが予め設定されて、HDD103等に保存される。本実施例の場合、全4階層(1倍、1/2倍、1/4倍、1/8倍)で、最小の解像度が入力画像データの8分の1になるという内容の縮小処理パラメータが予め設定・保存され、それがHDD103等から読み込むことで取得される。   In step 1101, the reduction processing unit 210 acquires a reduction processing parameter. The reduction processing parameters include the depth of the hierarchy of multiple resolutions and information as to what fraction (a multiple of two) of the minimum resolution with respect to the input image data. Then, such reduction processing parameters are set in advance and stored in the HDD 103 or the like. In the case of this embodiment, the reduction processing parameter of the content that the minimum resolution is 1/8 of the input image data in all four layers (1 ×, 1/2 ×, 1/4 ×, 1/8 ×) Are set and stored in advance, and are acquired by reading them from the HDD 103 or the like.

ステップ1102において、縮小処理部210は、ステップ1101で取得した縮小処理パラメータに基づき、縮小処理に適用する倍率を決定する。縮小処理パラメータの内容が、全4階層で、最小の解像度が入力画像データの8分の1という本実施例の場合は、1/2、1/4、1/8という3種類の倍率が順次決定されることになる。   In step 1102, the reduction processing unit 210 determines a scaling factor to be applied to the reduction processing based on the reduction processing parameter acquired in step 1101. In the case of the present embodiment in which the contents of the reduction processing parameter are all four layers and the minimum resolution is one eighth of the input image data, three types of magnifications of 1/2, 1/4, and 1/8 are sequentially It will be decided.

ステップ1103において、縮小処理部210は、処理対象の画像データに対して、ステップ1102で決定された倍率に縮小する処理を行う。   In step 1103, the reduction processing unit 210 performs processing of reducing the image data to be processed to the scaling factor determined in step 1102.

ステップ1104において、縮小処理部210は、ステップ1101で取得した縮小処理パラメータに基づく縮小処理が全て完了したかどうかを判定する。本実施例の場合は、1/2、1/4、1/8という3種類の倍率についての縮小処理がすべて完了しているかどうかが判定される。判定の結果、取得した縮小処理パラメータに対応する全ての縮小処理が完了している場合は本処理を終える。一方、未処理の倍率があればステップ1102に戻って次の倍率を決定して縮小処理を続行する。   In step 1104, the reduction processing unit 210 determines whether all the reduction processing based on the reduction processing parameter acquired in step 1101 is completed. In the case of the present embodiment, it is determined whether or not the reduction processing for all of the three types of magnifications of 1/2, 1/4, and 1/8 has been completed. If all the reduction processes corresponding to the acquired reduction process parameter have been completed as a result of the determination, this process ends. On the other hand, if there is an unprocessed magnification, the process returns to step 1102, the next magnification is determined, and the reduction processing is continued.

(拡大合成処理フロー)
次に、上述した図10のフローにおける拡大合成処理(ステップ1005)の詳細について説明する。図12は、拡大合成処理の流れを示すフローチャートである。
(Magnification processing flow)
Next, details of the enlargement and combining process (step 1005) in the flow of FIG. 10 described above will be described. FIG. 12 is a flowchart showing the flow of the enlargement and combining process.

ステップ1201において、拡大合成処理部250は、前述のステップ1002の色差補正処理によって色ノイズが低減された全ての画像データ(多重解像度画像データ)を取得する。   In step 1201, the enlargement / composition processing unit 250 acquires all image data (multi-resolution image data) whose color noise has been reduced by the color difference correction processing in step 1002 described above.

ステップ1202において、拡大合成処理部250は、前述の縮小処理パラメータ及び合成処理パラメータを取得する。ここで、合成処理パラメータとは、前述のステップ1003で導出された合成比率及び前述のステップ1004で導出された色差評価値を意味する。   In step 1202, the enlargement / combination processing unit 250 acquires the reduction processing parameter and the combination processing parameter described above. Here, the combination processing parameter means the combination ratio derived in step 1003 described above and the color difference evaluation value derived in step 1004 described above.

ステップ1203において、拡大合成処理部250の拡大処理部251は、ステップ1201で取得した複数の画像データの中で最も下位階層(解像度が小さい)の画像データに対し、前述の拡大処理(本実施例では2倍)を行なう。   In step 1203, the enlargement processing unit 251 of the enlargement / combination processing unit 250 performs the above-mentioned enlargement processing on the image data of the lowest layer (small resolution) among the plurality of image data acquired in step 1201 (this embodiment) Then do 2).

ステップ1204において、拡大合成処理部250は、ステップ1201で取得した複数の画像データのうち未処理の画像データの中で最小解像度の画像データを、画素値合成処理の対象となる一方の画像データとして選択する。この場合において、上記未処理の画像データには、最下位階層の画像データは含まれない。   In step 1204, the enlargement / composition processing unit 250 sets the image data of the minimum resolution among unprocessed image data among the plurality of image data acquired in step 1201 as one image data to be subjected to the pixel value synthesis process. select. In this case, the image data of the lowest hierarchy is not included in the unprocessed image data.

ステップ1205において、拡大合成処理部250の画素値合成部253は、画素値合成処理の対象となる画素を選択する。具体的には、最初のルーチンの場合は、ステップ1203で拡大処理された画像データと当該拡大処理された画像データと同じ解像度のステップ1204で選択された画像データとについて、画素値合成処理の対象となる画素が選択される。また、2回目以降のルーチンの場合は、後述のステップ1212で拡大処理された画像データと、当該拡大処理された画像データと同じ解像度のステップ1204で選択された画像データとについて、画素値合成処理の対象となる画素が選択される。   In step 1205, the pixel value combining unit 253 of the enlargement combining processing unit 250 selects a pixel to be subjected to the pixel value combining process. Specifically, in the case of the first routine, the target of pixel value composition processing on the image data subjected to the enlargement processing in step 1203 and the image data selected in step 1204 having the same resolution as the image data subjected to the enlargement processing. Pixels are selected. In the case of the second and subsequent routines, pixel value composition processing is performed on the image data subjected to enlargement processing in step 1212 described later and the image data selected in step 1204 having the same resolution as the image data subjected to the enlargement processing. The target pixel of is selected.

続くステップ1206〜ステップ1208では、拡大合成処理部250の優先使用判定部252において、ステップ1205で選択した画素についての前述した優先判定処理がなされる。すなわち、画素値合成処理対象の2つの画像データのうち拡大処理された方の画像データ(下位階層側の画像データ)を優先的に採用するかどうかの判定処理がなされる。   In the following steps 1206 to 1208, the priority use determination unit 252 of the enlargement / composition processing unit 250 performs the above-described priority determination process for the pixel selected in step 1205. That is, it is determined whether to preferentially adopt the image data (image data on the lower layer side) of the two image data to be subjected to the pixel value composition processing which has been subjected to the enlargement process.

まず、ステップ1206では、下位階層側の画像データの優先的な採用が可能であるかどうか(前述の式(10)を満足するかどうか)が判定される。判定の結果、下位階層側の画像データの優先的な採用が可能であった場合は、ステップ1207に進む。一方、下位階層側の画像データの優先的な採用が可能ではなかった場合はステップ1209に進む。   First, at step 1206, it is determined whether or not preferential adoption of image data on the lower layer side is possible (whether or not the above equation (10) is satisfied). As a result of the determination, if the image data on the lower layer side can be preferentially adopted, the process proceeds to step 1207. On the other hand, when the preferential adoption of the image data on the lower layer side is not possible, the process proceeds to step 1209.

ステップ1207では、処理対象である2つの画像データの色差評価値を比較し、下位階層側の画像データの色差評価値(E_low)の方が、ステップ1204で選択された画像データの色差評価値(E_high)よりも小さいかどうかを判定する。判定の結果、下位階層側の画像データの色差評価値(E_low)の方が小さい場合は、ステップ1208に進む。一方、下位階層側の画像データの色差評価値(E_low)の方が小さくない場合は、ステップ1209に進む。   In step 1207, the color difference evaluation values of the two image data to be processed are compared, and the color difference evaluation value (E_low) of the image data on the lower layer side is the color difference evaluation value of the image data selected in step 1204 ( It is determined whether it is smaller than E_high). If it is determined that the color difference evaluation value (E_low) of the image data on the lower layer side is smaller, the process proceeds to step 1208. On the other hand, if the color difference evaluation value (E_low) of the image data on the lower layer side is not smaller, the process proceeds to step 1209.

ステップ1208では、合成比率導出処理(前述のステップ1003)で得られた合成比率が、下位階層側の画像データの画素値を例えば100%採用するような合成比率に変更される。   In step 1208, the combination ratio obtained in the combination ratio derivation process (step 1003 described above) is changed to a combination ratio that employs, for example, 100% of the pixel values of the image data on the lower layer side.

ステップ1209において、拡大合成処理部250の画素値合成部253は、現在設定されている合成比率に基づいて、前述の画素値合成処理を行なう。これにより、2つの画像データにおける選択された画素値を合成した画素値Ipostが得られる。 In step 1209, the pixel value combining unit 253 of the enlargement combining processing unit 250 performs the above-described pixel value combining process based on the currently set combining ratio. Thereby, a pixel value I post is obtained by combining selected pixel values in two image data.

ステップ1210において、拡大合成処理部250は、全画素に対する合成処理が完了したかどうかを判定する。全画素についての処理が完了していれば、ステップ1211に進む。一方、未処理の画素があれば、ステップ1205に戻って次の画素を処理対象の画素に選択して処理を続行する。   At step 1210, the enlargement / composition processing unit 250 determines whether or not the combination processing for all pixels is completed. If the processing for all the pixels is completed, the process proceeds to step 1211. On the other hand, if there is an unprocessed pixel, the process returns to step 1205 to select the next pixel as the pixel to be processed and continue the process.

ステップ1211において、拡大合成処理部250は、多重解像度画像データのうち最上位階層の画像データ以外の全ての画像データ(すなわち、入力画像データを除く全ての縮小画像データ)についての拡大処理がなされたかどうかを判定する。判定の結果、拡大処理がなされていない縮小画像データがある場合は、ステップ1212に進む。一方、全ての縮小画像データに対して拡大処理を行っていれば、本処理を終える。   In step 1211, the enlargement / combination processing unit 250 has performed enlargement processing on all image data (that is, all reduced image data excluding input image data) except multi-resolution image data other than image data of the highest hierarchy. Determine if. If it is determined that there is reduced image data for which enlargement processing has not been performed, the process proceeds to step 1212. On the other hand, if enlargement processing has been performed on all reduced image data, this processing ends.

ステップ1212において、拡大合成処理部250の拡大処理部251は、ステップ1209で得られた合成処理後の画像データに対して、前述の拡大処理(本実施例では2倍)を行なう。拡大処理の実行後は、ステップ1204に移行する。   In step 1212, the enlargement processing unit 251 of the enlargement and combining processing unit 250 performs the above-mentioned enlargement processing (2 × in this embodiment) on the image data after combination processing obtained in step 1209. After the enlargement process is performed, the process proceeds to step 1204.

以上が、拡大合成処理の内容である。   The above is the contents of the enlargement synthesis process.

以上述べたとおり、本実施例によれば、入力画像データにおける無彩色領域のエッジ付近の色ノイズを効果的に低減することができる。   As described above, according to this embodiment, color noise in the vicinity of the edge of the achromatic region in the input image data can be effectively reduced.

<その他の実施例>
実施例1では、画像処理アプリケーションで処理を行う例を説明したが、これらは撮像装置で撮影した画像データに対して撮像装置内の画像処理ハードウェア上で処理する方法であってもかまわない。また、クライアント装置からサーバ装置上の画像処理アプリケーションに画像データを送信し、サーバ装置上で画像データが処理されてもよい。
<Other Embodiments>
In the first embodiment, an example in which processing is performed by an image processing application has been described. However, these may be methods of processing image data captured by an imaging device on image processing hardware in the imaging device. Further, the image data may be transmitted from the client device to the image processing application on the server device, and the image data may be processed on the server device.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

Claims (19)

入力画像データに対し縮小処理を行なって、解像度を低くした複数の階層の縮小画像データを生成する縮小処理手段と、
前記入力画像データ及び前記複数の階層の縮小画像データにおける注目画素の画素値を、ノイズが低減された値に補正する補正手段と、
前記入力画像データ及び前記複数の階層の縮小画像データのうち、着目する画像データと前記着目する画像データよりも解像度が低い下の階層の画像データとを合成するための合成比率を導出する導出手段と、
前記補正手段により補正された各画像データにおける前記注目画素を含む局所領域の画素値に基づいて、前記注目画素に対応する評価値を導出する評価値導出手段と、
導出された前記合成比率及び前記評価値に基づいて、前記補正が施された画像データのうち、前記着目する画像データと、前記下の階層の画像データとを合成する合成手段と、
を有し、
前記合成手段は、
前記評価値が所定の条件を満たす場合は、前記下の階層の画像データに対する比率が大きい所定の合成比率を用いて合成し、
前記評価値が前記所定の条件を満たさない場合は、前記着目する画像データと前記下の階層の画像データの少なくとも何れか一方に応じて導出された合成比率を用いて合成する
ことを特徴とする画像処理装置。
Reduction processing means for performing reduction processing on input image data to generate reduced image data of a plurality of layers having a reduced resolution;
A correction unit configured to correct the pixel value of the target pixel in the input image data and the reduced image data of the plurality of layers to a value with reduced noise;
Deriving means for deriving a combining ratio for combining the image data of interest and the image data of the lower layer having a lower resolution than the image data of interest among the input image data and the reduced image data of the plurality of layers When,
Based on the pixel value of a local region including the pixel of interest definitive to each image data corrected by said correction means, and the evaluation value deriving means for deriving an evaluation value corresponding to the pixel of interest,
Combining means for combining the image data of interest among the image data subjected to the correction and the image data of the lower layer based on the derived combining ratio and the evaluation value;
Have
The combining means is
When the evaluation value satisfies a predetermined condition, combining is performed using a predetermined combining ratio having a large ratio to the image data of the lower layer,
When the evaluation value does not satisfy the predetermined condition, combining is performed using a combining ratio derived according to at least one of the image data of interest and the image data of the lower layer. Image processing device.
前記下の階層の画像データは、前記着目する画像データの一つ下の階層の画像データであることを特徴とする請求項1に記載の画像処理装置。 Image data of said next lower layer, the image processing apparatus according to claim 1, wherein an image data of one of a hierarchy of the focused image data. 前記合成手段は、
前記一つ下の階層の画像データを拡大する拡大処理手段と、
着目する画像データと前記一つ下の階層の画像データとを合成する際に、優先的に前記一つ下の階層の画像データを使用することが可能かどうかを、前記評価値に基づいて判定する優先使用判定手段と、
前記着目する画像データの画素値と、前記一つ下の階層の画像データであって前記拡大する処理により当該着目する画像データと同じ解像度に拡大された画像データの画素値とを、前記合成比率に基づいて合成する画素値合成手段と
を有することを特徴とする請求項2に記載の画像処理装置。
The combining means is
Enlargement processing means for enlarging image data of the next lower layer ;
Determining when synthesizing the image data of the one of a hierarchy between the target image data, whether it is possible to use the image data of preferentially the one lower hierarchy, on the basis of the evaluation value Priority use determination means to
Wherein the pixel value of the focused image data and a pixel value of the image data enlarged by the process of the expansion. The image data of the one of a hierarchy to the same resolution as the image data to be the focus, the synthesis ratio 3. The image processing apparatus according to claim 2, further comprising: pixel value combining means for combining based on W.
前記画素値合成手段は、以下の式を用いて合成後の画素値を求め、
上記式において、Ipostは合成後の画素値を、Idownは下位階層側の画像データの画素値を、Iupは上位階層側の画素値をそれぞれ表し、uは上位階層側の画像データをどれだけ使用するかを表す前記合成比率としての係数を表す、
ことを特徴とする請求項3に記載の画像処理装置。
The pixel value composition unit obtains a pixel value after composition using the following equation:
In the above equation, I post represents the pixel value after composition, I down represents the pixel value of the lower layer image data, I up represents the upper layer pixel value, and u represents the upper layer image data. Represents the factor as the composite ratio which represents how much to use
The image processing apparatus according to claim 3, characterized in that:
前記評価値導出手段は、前記注目画素を中心とした二次元的な領域と、前記注目画素を中心とした複数の異なる方向の一次元的な領域とについて、前記評価値を導出することを特徴とする前記請求項3又は4の何れか一項に記載の画像処理装置。   The evaluation value deriving means is characterized in that the evaluation value is derived for a two-dimensional area centered on the target pixel and a one-dimensional area on a plurality of different directions centered on the target pixel. The image processing apparatus according to any one of claims 3 or 4, wherein the image processing is performed. 前記優先使用判定手段は、前記二次元的な領域についての評価値によって前記注目画素とその周囲の画素が無彩色に近いかどうかを判定し、さらに前記一次元的な領域についての評価値によって色エッジがないことを判定することにより、優先的に前記一つ下の階層の画像データを使用することが可能かどうかを判定する
ことを特徴とする請求項5に記載の画像処理装置。
The preferential use determining unit determines whether the target pixel and its surrounding pixels are close to an achromatic color by the evaluation value of the two-dimensional area, and further, determines the color by the evaluation value of the one-dimensional area. The image processing apparatus according to claim 5, wherein it is determined whether it is possible to use the image data of the next lower layer preferentially by determining that there is no edge.
前記評価値導出手段は、前記入力画像データの輝度成分(Y)を表す輝度信号、色差成分(Cr、Cb)を表す色差信号に基づいて前記評価値を算出することを特徴とする請求項5又は6の何れか一項に記載の画像処理装置。   The evaluation value deriving means calculates the evaluation value based on a luminance signal representing a luminance component (Y) of the input image data and a color difference signal representing a color difference component (Cr, Cb). Or the image processing apparatus as described in any one of 6. 前記評価値導出手段は、前記輝度信号および前記色差信号のそれぞれについて以下の式を用いて前記評価値を算出し、
上記各式において、Yi、Cri、Cbiはそれぞれ前記二次元的な領域又は前記一次元的な領域内の画素を表し、Nは各領域を構成する画素数を表す、ことを特徴とする請求項7に記載の画像処理装置。
The evaluation value deriving means calculates the evaluation value for each of the luminance signal and the color difference signal using the following equation:
In each of the above formulas, Y i , C r i and Cb i each represent a pixel in the two-dimensional area or the one-dimensional area, and N represents the number of pixels constituting each area. The image processing apparatus according to claim 7.
前記補正手段は、以下の式に従って、前記注目画素の色差成分(Cr、Cb)を表す色差信号の値を補正し、
上記式におけるCr[i]及びCb[i]はそれぞれ前記注目画素を含む所定の領域内の画素を表し、Mは当該所定の領域内の画素数を表す、
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
The correction means corrects the value of the color difference signal representing the color difference component (Cr, Cb) of the pixel of interest according to the following equation:
Cr [i] and Cb [i] in the above formulas each represent a pixel in a predetermined area including the target pixel, and M represents the number of pixels in the predetermined area.
The image processing apparatus according to any one of claims 1 to 8, characterized in that:
前記所定の領域内の画素は、前記注目画素に対して以下の式を満たす画素であり、
上記式において、Ydiff、Crdiff、Cbdiffは前記所定の領域内の各画素の値と所定の比較する画素値との差を表し、ThY、ThCr、ThCbはそれぞれ、輝度成分(Y)に対する閾値、色差成分(Cr、Cb)に対する閾値を表す、
ことを特徴とする請求項9に記載の画像処理装置。
The pixels in the predetermined area are pixels that satisfy the following equation for the target pixel,
In the above equation, Y diff , Cr diff and Cb diff represent the difference between the value of each pixel in the predetermined area and the predetermined pixel value to be compared, and Th Y , Th Cr and Th Cb respectively represent luminance components ( Represents a threshold for Y) and a threshold for chrominance components (Cr, Cb),
The image processing apparatus according to claim 9, characterized in that:
前記所定の比較する画素値は、前記注目画素の値又は前記注目画素の値にローパスフィルタを掛けた値であることを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the predetermined pixel value to be compared is a value obtained by applying a low-pass filter to the value of the target pixel or the value of the target pixel. 前記評価値が所定の条件を満たす場合は、前記所定の合成比率として、前記下の階層の画像データに対して100%を用いることを特徴とする請求項1に記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein, when the evaluation value satisfies a predetermined condition, 100% of image data of the lower layer is used as the predetermined combination ratio. 前記導出手段は、前記着目する画像データと前記下の階層の画像データの少なくとも何れか一方に基づいて、画素毎にエッジの度合いに応じた合成比率を導出することを特徴とする請求項1に記載の画像処理装置。2. The apparatus according to claim 1, wherein the deriving means derives a combining ratio corresponding to the degree of edge for each pixel based on at least one of the image data to which attention is paid and the image data of the lower layer. Image processing apparatus as described. 前記エッジの度合いに応じた合成比率は、The composition ratio according to the degree of the edge is
前記評価値が所定の条件を満たす場合は、前記所定の合成比率に上書きされ、If the evaluation value satisfies a predetermined condition, the predetermined combination ratio is overwritten,
前記評価値が前記所定の条件を満たさない場合には、前記所定の合成比率に上書きされない、If the evaluation value does not satisfy the predetermined condition, the predetermined combination ratio is not overwritten.
ことを特徴とする請求項13に記載の画像処理装置。The image processing apparatus according to claim 13, characterized in that:
前記合成手段は、前記着目する画像データと、前記下の階層の画像データとを画素毎に合成することを特徴とする請求項1乃至14の何れか一項に記載の画像処理装置。The image processing apparatus according to any one of claims 1 to 14, wherein the combining unit combines the image data to which attention is paid and the image data of the lower layer for each pixel. 前記優先使用判定手段は、前記評価値が前記所定の条件を満たすか否かによって、優先的に前記一つ下の階層の画像データを使用することが可能かどうかを判定することを特徴とする請求項3、5または6に記載の画像処理装置。The priority use determining means preferably determines whether it is possible to use the image data of the next lower layer by priority depending on whether the evaluation value satisfies the predetermined condition. The image processing apparatus according to claim 3, 5 or 6. 前記優先使用判定手段は、前記所定の条件として以下の式を用いて前記判定を行い、The preferential use determination unit performs the determination using the following equation as the predetermined condition,
上記式において、a及びbは階層と撮影感度に応じて設定する係数であり、階層が下又は撮影感度が小さいほど小さな値に設定する、In the above equation, a and b are coefficients set according to the hierarchy and the imaging sensitivity, and are set to smaller values as the hierarchy is lower or the imaging sensitivity is smaller.
ことを特徴とする請求項16に記載の画像処理装置。The image processing apparatus according to claim 16, characterized in that:
入力画像データに対し縮小処理を行なって、解像度を低くした複数の階層の縮小画像データを生成するステップと、
前記入力画像データ及び前記複数の階層の縮小画像データにおける注目画素の画素値を、ノイズが低減された値に補正するステップと、
前記入力画像データ及び前記複数の階層の縮小画像データのうち、着目する画像データと前記着目する画像データよりも解像度が低い下の階層の画像データとを合成するための合成比率を導出するステップと、
前記補正するステップで補正された各画像データにおける前記注目画素を含む局所領域の画素値に基づいて、前記注目画素に対応する評価値を導出するステップと、
導出された前記合成比率及び前記評価値に基づいて、前記補正が施された画像データのうち、前記着目する画像データと、前記下の階層の画像データとを合成するステップと、
を含み、
前記合成するステップでは、
前記評価値が所定の条件を満たす場合は、前記下の階層の画像データに対する比率が大きい所定の合成比率を用いて合成し、
前記評価値が前記所定の条件を満たさない場合は、前記着目する画像データと前記下の階層の画像データの少なくとも何れか一方に応じて導出された合成比率を用いて合成する、
ことを特徴とする画像処理方法。
Performing a reduction process on the input image data to generate reduced image data of a plurality of layers with reduced resolution;
Correcting the pixel value of the pixel of interest in the input image data and the reduced image data of the plurality of layers to a value with reduced noise;
Deriving a combining ratio for combining the image data of interest and the image data of the lower layer having a lower resolution than the image data of interest among the input image data and the reduced image data of the plurality of layers; ,
Deriving an evaluation value based on pixel values of a local region including the pixel of interest definitive to each image data corrected in the step of correcting, corresponding to the pixel of interest,
Combining the image data of interest among the image data subjected to the correction and the image data of the lower layer based on the derived combination ratio and the evaluation value ;
Including
In the combining step,
When the evaluation value satisfies a predetermined condition, combining is performed using a predetermined combining ratio having a large ratio to the image data of the lower layer,
When the evaluation value does not satisfy the predetermined condition, combining is performed using a combining ratio derived according to at least one of the image data of interest and the image data of the lower layer.
An image processing method characterized in that.
コンピュータを、請求項1乃至17のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 17 .
JP2015082609A 2015-04-14 2015-04-14 Image processing apparatus, image processing method and program Active JP6525700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015082609A JP6525700B2 (en) 2015-04-14 2015-04-14 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015082609A JP6525700B2 (en) 2015-04-14 2015-04-14 Image processing apparatus, image processing method and program

Publications (3)

Publication Number Publication Date
JP2016201771A JP2016201771A (en) 2016-12-01
JP2016201771A5 JP2016201771A5 (en) 2018-06-07
JP6525700B2 true JP6525700B2 (en) 2019-06-05

Family

ID=57423184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015082609A Active JP6525700B2 (en) 2015-04-14 2015-04-14 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP6525700B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6891014B2 (en) * 2017-03-22 2021-06-18 キヤノン株式会社 Image processing device, image processing method, and program
JP6929185B2 (en) * 2017-10-03 2021-09-01 キヤノン株式会社 Image processing equipment and image processing methods, programs, storage media

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5103580B2 (en) * 2008-03-27 2012-12-19 株式会社メガチップス Image processing apparatus and digital camera
JP5677040B2 (en) * 2010-11-08 2015-02-25 キヤノン株式会社 Image processing apparatus and control method thereof
JP6087612B2 (en) * 2012-12-17 2017-03-01 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2016201771A (en) 2016-12-01

Similar Documents

Publication Publication Date Title
EP2130176B1 (en) Edge mapping using panchromatic pixels
EP2130175B1 (en) Edge mapping incorporating panchromatic pixels
JP5450600B2 (en) Improving image resolution
JP2011107702A (en) Image processing system of input image, image display system, and image processing method
US8094213B2 (en) Image processing apparatus, image processing method, and program in which an original image is modified with respect to a desired reference point set on a screen
US9519952B2 (en) Image processing apparatus and method
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
JP5653104B2 (en) Image processing apparatus, image processing method, and program
JP2010034964A (en) Image composition apparatus, image composition method and image composition program
US8294791B2 (en) Image correction apparatus for digital dodging
JP6525700B2 (en) Image processing apparatus, image processing method and program
JP6957665B2 (en) Image processing equipment, image processing methods and programs
WO2016051716A1 (en) Image processing method, image processing device, and recording medium for storing image processing program
JP6938282B2 (en) Image processing equipment, image processing methods and programs
KR102470242B1 (en) Image processing device, image processing method and program
JP4728411B2 (en) Method for reducing color bleed artifacts in digital images
JP6891014B2 (en) Image processing device, image processing method, and program
JP2007151094A (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP6808551B2 (en) Image processing device, image processing method, and program
JP4345027B2 (en) Image processing program and image processing apparatus
KR20070119482A (en) Image resampling method
JP2005123813A (en) Image processing apparatus
JP7329964B2 (en) Image processing device, image processing method and program
JP2018151681A (en) Image processing apparatus, image processing method and program
JP2005123812A (en) Image processing apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151