JP6891014B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP6891014B2
JP6891014B2 JP2017055933A JP2017055933A JP6891014B2 JP 6891014 B2 JP6891014 B2 JP 6891014B2 JP 2017055933 A JP2017055933 A JP 2017055933A JP 2017055933 A JP2017055933 A JP 2017055933A JP 6891014 B2 JP6891014 B2 JP 6891014B2
Authority
JP
Japan
Prior art keywords
image data
color
interest
pixel
noise reduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017055933A
Other languages
Japanese (ja)
Other versions
JP2018160026A5 (en
JP2018160026A (en
Inventor
敦 ▲高▼濱
敦 ▲高▼濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017055933A priority Critical patent/JP6891014B2/en
Publication of JP2018160026A publication Critical patent/JP2018160026A/en
Publication of JP2018160026A5 publication Critical patent/JP2018160026A5/ja
Application granted granted Critical
Publication of JP6891014B2 publication Critical patent/JP6891014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、色ノイズを低減する画像処理技術に関するものである。 The present invention relates to an image processing technique for reducing color noise.

デジタルカメラ等の撮像装置には高画質な撮影画像が望まれるが、暗い場所や夜間のように十分なS/N比が得られない環境下では、低周波のランダムノイズである色成分のノイズ(色ノイズ)によって画質が大きく低下してしまう。特に近年は高感度撮影に対する要求が高く、暗所や夜間においてもノイズが少なく、高画質な撮影画像が得られることが望まれている。そこで、色ノイズを抑制するために、平均化フィルタ、ガウシアンフィルタ等を用いた平滑化処理やメディアンフィルタのような順序統計フィルタを用いた色ノイズ低減処理が行われている。しかしながら、平滑化処理や順序統計フィルタを用いた場合、大きな範囲のノイズ(低周波ノイズ)を十分に低減するためには、フィルタのタップ数を大きく設計する必要があり、回路規模の増大を引き起こしてしまう。この点、入力画像を縮小してからフィルタ処理を行うことで、タップ数を増やさずに同等の効果を得る手法が提案されている(特許文献1を参照)。この特許文献1の手法では、まず、入力画像から解像度を段階的に低くした複数の低解像度画像を生成し、入力画像と低解像度画像の各々について色ノイズの抑圧処理を行う。その後、低解像度画像については解像度を戻し、合成比率係数に基づいて重み付け合成していく。この際の合成比率係数は、注目する画素が色変化の少ない領域に属する画素であると判断される場合には、下位階層からの画像の合成比率が高くなるように決定される。 High-quality captured images are desired for image pickup devices such as digital cameras, but in dark places or in environments where a sufficient S / N ratio cannot be obtained, such as at night, noise of color components, which is low-frequency random noise. Image quality is greatly degraded by (color noise). Particularly in recent years, there has been a high demand for high-sensitivity shooting, and it is desired that a high-quality shot image can be obtained with less noise even in a dark place or at night. Therefore, in order to suppress color noise, a smoothing process using an averaging filter, a Gaussian filter, or the like and a color noise reduction process using an order statistic filter such as a median filter are performed. However, when smoothing processing or an order statistic filter is used, in order to sufficiently reduce noise in a large range (low frequency noise), it is necessary to design a large number of taps on the filter, which causes an increase in the circuit scale. It ends up. In this regard, a method has been proposed in which the same effect can be obtained without increasing the number of taps by performing the filtering process after reducing the input image (see Patent Document 1). In the method of Patent Document 1, first, a plurality of low-resolution images whose resolutions are gradually lowered are generated from the input images, and color noise suppression processing is performed on each of the input images and the low-resolution images. After that, for low-resolution images, the resolution is returned and weighted composition is performed based on the composition ratio coefficient. The composition ratio coefficient at this time is determined so that the composition ratio of images from the lower layers is high when it is determined that the pixel of interest belongs to a region with little color change.

特開2012-104968号公報Japanese Unexamined Patent Publication No. 2012-104968

上記特許文献1の手法の場合、エッジ付近の色ノイズが残留してしまうことがある。例えば、高コントラストエッジ部では、注目画素の周辺に、注目画素値と近い画素値を持つ画素が少ないため、フィルタのタップ数を大きくしても、色ノイズを十分に低減することができない。そして、このようなエッジ付近の領域に対して出来るだけ平滑化効果を高めるようにチューニングすると、今度は色抜けや色の解像感の劣化(エッジがボケる)といった問題が生じてしまう。そこで、本発明は、色の鮮鋭性を維持しつつエッジ付近の色ノイズを十分に低減することを目的とする。 In the case of the method of Patent Document 1, color noise near the edge may remain. For example, in the high-contrast edge portion, since there are few pixels having a pixel value close to the pixel value of interest around the pixel of interest, color noise cannot be sufficiently reduced even if the number of taps of the filter is increased. Then, if tuning is performed so as to enhance the smoothing effect as much as possible for such a region near the edge, problems such as color loss and deterioration of color resolution (edge blurring) occur. Therefore, an object of the present invention is to sufficiently reduce color noise near edges while maintaining color sharpness.

本発明に係る画像処理装置は、入力画像データに対し縮小処理を行って、解像度を低くした複数の階層の縮小画像データを生成する縮小処理手段と、前記入力画像データ及び前記縮小画像データにおける注目画素の画素値を、色ノイズが低減された値に補正する補正手段と、前記補正が施された画像データのうち、最も解像度が低い縮小画像データを除く画像データに対し、他の階層の画像データとの合成比率を導出する合成比率導出手段と、前記補正が施された各画像データのうち、最も解像度が低い縮小画像データを除く画像データに対し、前記補正による色ノイズ低減度を画素毎に算出する色ノイズ低減度算出手段と、前記合成比率と前記色ノイズ低減度とに基づいて、前記補正が施された画像データのうち注目する画像データとその一つ下の階層の画像データとを合成する合成手段と、
を備え前記合成手段は、画像データを拡大する拡大処理手段と、前記注目する画像データの注目画素の色差信号と、その一つ下の階層の画像データであって前記拡大処理手段により当該注目する画像データと同じ解像度に拡大された画像データの注目画素の色差信号との色の類似性を判定する色類似性判定手段と、前記注目する画像データとその一つ下の階層の画像データとを合成する際に、前記色ノイズ低減度が所定の閾値より小さく、かつ、前記色類似性判定手段で色が類似すると判定された場合に優先的に前記一つ下の階層の画像データを使用する判定し、優先的に前記一つ下の階層の画像データを使用すると判定した場合に、当該一つ下の階層の画像データの重みを大きくするように前記合成比率を変更する優先使用判定手段と、前記注目する画像データの画素値と、その一つ下の階層の画像データであって前記拡大処理手段により前記注目する画像データと同じ解像度に拡大された画像データの画素値とを、前記合成比率に基づいて合成する画素値合成手段と、
を有する、ことを特徴とする。
The image processing apparatus according to the present invention is a reduction processing means for generating reduced image data of a plurality of layers having reduced resolution by performing reduction processing on the input image data, and attention in the input image data and the reduced image data. An image of another layer with respect to the correction means for correcting the pixel value of the pixel to a value with reduced color noise and the image data excluding the reduced image data having the lowest resolution among the corrected image data. The composite ratio derivation means for deriving the composite ratio with the data, and the color noise reduction degree by the correction for each pixel for the image data excluding the reduced image data having the lowest resolution among the corrected image data. Based on the color noise reduction degree calculation means calculated in 1 and the composite ratio and the color noise reduction degree, the image data of interest among the corrected image data and the image data of the next lower layer thereof. Synthetic means for synthesizing
Wherein the combining means includes enlargement processing means for enlarging the image data, and the color difference signal of the target pixel of the image data to be the target, the target by the enlargement processing means an image data of the one next lower layer The color similarity determination means for determining the color similarity of the image data enlarged to the same resolution as the image data to be performed with the color difference signal of the pixel of interest, and the image data of interest and the image data of the next lower layer thereof. When the color noise reduction degree is smaller than a predetermined threshold value and the color similarity determination means determines that the colors are similar to each other, the image data of the next lower layer is preferentially used. and determines, when determining to use the image data of preferentially said one of a hierarchy emption decision to change the synthesis ratio so as to increase the weight of the image data of the hierarchy under the one The means, the pixel value of the image data of interest, and the pixel value of the image data one layer below it and enlarged to the same resolution as the image data of interest by the enlargement processing means. A pixel value synthesizing means for synthesizing based on the synthesizing ratio,
To have a, characterized in that.

本発明によれば、色の鮮鋭性を維持しつつ、エッジ付近の色ノイズを十分に低減することが可能になる。 According to the present invention, it is possible to sufficiently reduce color noise near edges while maintaining color sharpness.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of an image processing apparatus. (a)は画像処理装置のノイズ低減処理に係る論理構成の一例を示すブロック図、(b)は色ノイズ低減処理部の内部構成を示すブロック図である。(A) is a block diagram showing an example of a logical configuration related to noise reduction processing of an image processing apparatus, and (b) is a block diagram showing an internal configuration of a color noise reduction processing unit. 図2(b)で示す論理構成によって実現される処理全体の流れを示したシーケンス図である。It is a sequence diagram which showed the flow of the whole process realized by the logical structure shown in FIG. 2 (b). ローパスフィルタ処理に用いるフィルタの具体例を示す図である。It is a figure which shows the specific example of the filter used for the low-pass filter processing. 注目画素に対するローパスフィルタの掛け方の具体例を示す図である。It is a figure which shows the specific example of how to apply a low-pass filter to a pixel of interest. 色ノイズ低減処理における各処理の流れを示すフローチャートである。It is a flowchart which shows the flow of each process in a color noise reduction process. 解像度縮小処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the resolution reduction processing. 実施例1に係る、拡大合成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the expansion synthesis processing which concerns on Example 1. FIG. 実施例2における色ノイズ低減処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the color noise reduction processing part in Example 2. FIG. 式(11)を用いた色相の類似性判定を説明する図である。It is a figure explaining the similarity determination of the hue using the formula (11). 実施例2に係る、拡大合成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the expansion synthesis processing which concerns on Example 2.

以下、添付の図面を参照して、本発明を実施する形態について説明する。なお、以下の実施例において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The configuration shown in the following examples is only an example, and the present invention is not limited to the illustrated configuration.

図1は、本実施例に係る、画像処理装置のハードウェア構成の一例を示す図である。画像処理装置100は、例えばPC等であり、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。そして、汎用I/F104によって、カメラなどの撮像装置105や、マウス、キーボードなどの入力装置106、及びメモリカードなどの外部メモリ107をメインバス109に接続される。 FIG. 1 is a diagram showing an example of a hardware configuration of an image processing device according to this embodiment. The image processing device 100 is, for example, a PC or the like, and includes a CPU 101, a RAM 102, an HDD 103, a general-purpose interface (I / F) 104, a monitor 108, and a main bus 109. Then, the image pickup device 105 such as a camera, the input device 106 such as a mouse and a keyboard, and the external memory 107 such as a memory card are connected to the main bus 109 by the general-purpose I / F 104.

CPU101は、HDD103に格納された各種ソフトウェア(コンピュータプログラム)を動作させることで、以下のような各種処理を実現する。まず、CPU101は、HDD103に格納されている画像処理アプリケーションを起動して、RAM102に展開するとともに、モニタ108にユーザインターフェース(UI)を表示する。続いて、HDD103や外部メモリ107に格納されている各種データ、撮像装置105で取得された画像データ、入力装置106からのユーザ指示などがRAM102に転送される。さらに、画像処理アプリケーション内の処理に従って、RAM102に格納されているデータが、CPU101からの指令に基づき演算処理される。演算処理の結果は、モニタ108に表示されたり、HDD103または外部メモリ107に格納されたりする。なお、HDD103や外部メモリ107に格納されている画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバから送信された画像データがRAM102に転送されてもよい。 The CPU 101 realizes the following various processes by operating various software (computer programs) stored in the HDD 103. First, the CPU 101 starts an image processing application stored in the HDD 103, expands it into the RAM 102, and displays a user interface (UI) on the monitor 108. Subsequently, various data stored in the HDD 103 and the external memory 107, image data acquired by the image pickup device 105, user instructions from the input device 106, and the like are transferred to the RAM 102. Further, according to the processing in the image processing application, the data stored in the RAM 102 is arithmetically processed based on the command from the CPU 101. The result of the arithmetic processing is displayed on the monitor 108 or stored in the HDD 103 or the external memory 107. The image data stored in the HDD 103 or the external memory 107 may be transferred to the RAM 102. Further, the image data transmitted from the server via a network (not shown) may be transferred to the RAM 102.

本実施例では、上記のような構成を備える画像処理装置100に於いて、CPU101からの指令に基づき、画像処理アプリケーションに画像データを入力して色ノイズを低減した画像データを出力する態様について説明するものとする。 In this embodiment, in the image processing apparatus 100 having the above configuration, an embodiment in which image data is input to an image processing application and image data with reduced color noise is output based on a command from the CPU 101 will be described. It shall be.

(画像処理装置の論理構成)
図2(a)は、画像処理装置100のノイズ低減処理に係る論理構成の一例を示すブロック図である。画像処理装置100は、信号分配部201、色ノイズ低減処理部202、輝度ノイズ低減処理部203、信号変換処理部204とで構成される。
(Logical configuration of image processing device)
FIG. 2A is a block diagram showing an example of a logical configuration related to noise reduction processing of the image processing apparatus 100. The image processing device 100 includes a signal distribution unit 201, a color noise reduction processing unit 202, a luminance noise reduction processing unit 203, and a signal conversion processing unit 204.

撮像装置105或いはHDD103や外部メモリ107から入力されるカラー画像データの色信号(RGB色空間で表される色信号)は、まず信号変換処理部201に入力される。ここで、入力されるカラー画像データは、撮像装置105において生成される中間画像データでもよい。例えば、撮像素子よって撮像された画像がデジタル化されたオリジナルの画像データであるRAW画像データや、欠陥画素を補正した欠陥画素補正後のRAW画像データでもよい。さらには、偽色抑制等の各種補正処理やローパスフィルタ処理がなされた後のRAW画像データでもよい。RAW画像データの色信号を入力する際には、公知のデモザイク技術を用いてRGB色信号を生成すればよい。また、ベイヤー配列のRAW画像データであれば、2×2画素(RGGB)を1画素として扱う方法も考えられる。なお、本実施例におけるカラー画像データはRGB色空間であることを前提に説明を行なうが、これに限らず、例えばL*a*b*色空間に変換した上で実施してもよい。 The color signal (color signal represented in the RGB color space) of the color image data input from the image pickup apparatus 105, the HDD 103, or the external memory 107 is first input to the signal conversion processing unit 201. Here, the input color image data may be intermediate image data generated by the image pickup apparatus 105. For example, it may be RAW image data which is the original image data in which the image captured by the image pickup element is digitized, or RAW image data after the defect pixel correction which corrected the defect pixel. Further, it may be RAW image data after various correction processes such as false color suppression and low-pass filter processing have been performed. When inputting the color signal of the RAW image data, the RGB color signal may be generated by using a known demosaic technique. Further, in the case of Bayer array RAW image data, a method of treating 2 × 2 pixels (RGGB) as one pixel can be considered. The description will be made on the premise that the color image data in this embodiment is in an RGB color space, but the description is not limited to this, and the data may be converted into, for example, an L * a * b * color space.

信号変換処理部201は、入力されたカラー画像データのRGB色信号から、公知の変換式によって、輝度成分(Y)を表す輝度信号と色差成分(Cr及びCb)を表す色差信号を生成する。ここで、輝度信号のノイズ(以降、輝度ノイズ)の空間周波数と色差信号のノイズ(以降、色ノイズ)の空間周波数は互いに異なり、色差信号のノイズの空間周波数の方が低い。本処理によって、入力されたカラー画像データに係るRGB色信号からYCrCb色信号を生成することで、輝度成分を表す輝度信号と色差成分を表す色差信号のそれぞれに対して最適なノイズ低減処理を行なうことができる。入力RGB色信号と、信号変換処理によって生成されたYCrCb色信号は、色ノイズ低減処理部202と輝度ノイズ低減処理部203に送られる。 The signal conversion processing unit 201 generates a luminance signal representing the luminance component (Y) and a luminance signal representing the color difference component (Cr and Cb) from the RGB color signal of the input color image data by a known conversion formula. Here, the spatial frequency of the luminance signal noise (hereinafter, luminance noise) and the spatial frequency of the color difference signal noise (hereinafter, color noise) are different from each other, and the spatial frequency of the color difference signal noise is lower. By generating a YCrCb color signal from the RGB color signal related to the input color image data by this processing, optimum noise reduction processing is performed for each of the brightness signal representing the brightness component and the color difference signal representing the color difference component. be able to. The input RGB color signal and the YCrCb color signal generated by the signal conversion process are sent to the color noise reduction processing unit 202 and the luminance noise reduction processing unit 203.

色ノイズ低減処理部202は、RGB色信号とYCrCb色信号とに基づいて、色差信号のノイズを低減する処理を行なう。色ノイズ低減処理の詳細については後述する。輝度ノイズ低減処理部203は、輝度信号のノイズを低減する処理を行なう。輝度ノイズ低減処理部203おいては、一般的なノイズ低減処理を用いればよい。 The color noise reduction processing unit 202 performs processing for reducing the noise of the color difference signal based on the RGB color signal and the YCrCb color signal. The details of the color noise reduction processing will be described later. The luminance noise reduction processing unit 203 performs processing for reducing the noise of the luminance signal. In the luminance noise reduction processing unit 203, general noise reduction processing may be used.

信号統合処理部204は、色ノイズ低減処理部202によって色ノイズが低減された色信号と、輝度ノイズ低減処理部203によって輝度ノイズが低減された色信号とを統合する処理を行う。信号統合処理部204は、信号統合処理の結果生成される、色ノイズと輝度ノイズの両方が低減されたカラー画像データを出力する。統合後のカラー画像データは、モニタ108やHDD103などに出力される。そのほか、例えば汎用I/F104に接続した外部メモリ107、不図示の外部サーバ、プリンタなどに出力しても構わない。 The signal integration processing unit 204 performs a process of integrating the color signal whose color noise is reduced by the color noise reduction processing unit 202 and the color signal whose brightness noise is reduced by the brightness noise reduction processing unit 203. The signal integration processing unit 204 outputs color image data in which both color noise and luminance noise are reduced, which is generated as a result of the signal integration processing. The color image data after integration is output to the monitor 108, HDD 103, or the like. In addition, for example, it may be output to an external memory 107 connected to a general-purpose I / F 104, an external server (not shown), a printer, or the like.

(色ノイズ低減処理部の詳細)
続いて、色ノイズ低減処理部202について詳しく説明する。図2(b)は、本実施例に係る、色ノイズ低減処理部202の内部構成を示すブロック図である。図2(b)に示すように、色ノイズ低減処理部202は、縮小処理部210、補正部220、合成比率導出部230、色ノイズ低減度算出部240、及び拡大合成処理部250で構成される。そして、図3は、図2(b)で示す論理構成によって実現される処理全体の流れを示したシーケンス図である。以下、図2(b)及び図3を参照しつつ、色ノイズ低減処理部202の各部について説明する。
(Details of color noise reduction processing unit)
Subsequently, the color noise reduction processing unit 202 will be described in detail. FIG. 2B is a block diagram showing an internal configuration of the color noise reduction processing unit 202 according to this embodiment. As shown in FIG. 2B, the color noise reduction processing unit 202 includes a reduction processing unit 210, a correction unit 220, a composition ratio derivation unit 230, a color noise reduction degree calculation unit 240, and an expansion composition processing unit 250. To. Then, FIG. 3 is a sequence diagram showing the flow of the entire process realized by the logical configuration shown in FIG. 2 (b). Hereinafter, each part of the color noise reduction processing unit 202 will be described with reference to FIGS. 2B and 3.

<縮小処理部>
縮小処理部210は、入力された画像データに対し解像度を低減する処理(図3における縮小処理302a〜302d)を行なって、縮小画像データを生成する。図3に示す例
では、入力画像の解像度をそれぞれ、1/2倍にする縮小処理302a、1/4倍にする縮小処理302b、1/8倍にする縮小処理302c、1/16倍にする縮小処理302dを行なって、解像度の異なる4種類の縮小画像データを生成する。縮小画像データの種類はこの例に限るものではなく、1/8倍で留めてもよいし、さらに1/32倍まで縮小してもよい。一般に画像データを縮小する際、ローパスフィルタ処理を行わないと折り返し雑音が発生してしまい、その折り返し雑音のパターンが、最終的に出力される画像データに現れてしまう。したがって、縮小処理を行う際には、例えば平均画素法やその他のローパスフィルタ処理を含んだアルゴリズムを用いるか、事前にローパスフィルタ処理を行った上でバイリニア法などを適用する。ローパスフィルタ処理に用いるフィルタは、縮小倍率に基づいて決定され、例えば、縮小倍率が1/2のときには、図4に示すようなフィルタが用いられる。なお、フィルタの大きさや係数は図4に示すフィルタに限られるものではない。以下では、入力画像データと当該入力画像データから生成された複数の縮小画像データとをまとめて「多重解像度画像データ」と呼ぶこととする。縮小処理によって生成された縮小画像データは、後述の補正処理で用いるためにRAM102に記憶される。
<Reduction processing unit>
The reduction processing unit 210 performs a process of reducing the resolution of the input image data (reduction processes 302a to 302d in FIG. 3) to generate the reduced image data. In the example shown in FIG. 3, the resolution of the input image is reduced to 1/2 times, reduced to 1/4 times, reduced to 302b, reduced to 1/8 times, reduced to 302c, and 1/16 times, respectively. The reduction process 302d is performed to generate four types of reduced image data having different resolutions. The type of reduced image data is not limited to this example, and may be reduced to 1/8 times or further reduced to 1/32 times. Generally, when reducing image data, if low-pass filter processing is not performed, aliasing noise will occur, and the pattern of the aliasing noise will appear in the image data that is finally output. Therefore, when performing the reduction processing, for example, an algorithm including an average pixel method or other low-pass filtering processing is used, or a bilinear method or the like is applied after performing low-pass filtering processing in advance. The filter used for the low-pass filter processing is determined based on the reduction ratio. For example, when the reduction ratio is 1/2, the filter as shown in FIG. 4 is used. The size and coefficient of the filter are not limited to the filter shown in FIG. Hereinafter, the input image data and the plurality of reduced image data generated from the input image data will be collectively referred to as “multi-resolution image data”. The reduced image data generated by the reduction process is stored in the RAM 102 for use in the correction process described later.

<補正部>
補正部220は、上述の多重解像度画像データに対し、予め設定された補正パラメータに基づいて、色ノイズが低減するように注目画素の色信号を補正する処理(図3における補正処理303a〜303e)を行なう。ここで、補正パラメータとは、注目画素についての所定の参照領域と、平均化するか否かを判定するための各閾値とを意味する。これらは、ノイズ量に応じて適切な値に変更することが望ましい。したがって、例えば撮影感度に応じて予め決めておいたり、注目画素とその周辺画素の情報に基づいて適応的に決定する。補正処理では、入力カラー画像データの注目画素の色信号(ここではRGB信号)の値が、例えば以下の式(1)〜式(3)を用いて色成分毎に補正される。
<Correction part>
The correction unit 220 corrects the color signal of the pixel of interest so as to reduce color noise with respect to the above-mentioned multi-resolution image data based on preset correction parameters (correction processes 303a to 303e in FIG. 3). To do. Here, the correction parameter means a predetermined reference area for the pixel of interest and each threshold value for determining whether or not to average. It is desirable to change these to appropriate values according to the amount of noise. Therefore, for example, it is determined in advance according to the shooting sensitivity, or it is adaptively determined based on the information of the pixel of interest and its peripheral pixels. In the correction process, the value of the color signal (here, the RGB signal) of the pixel of interest of the input color image data is corrected for each color component using, for example, the following equations (1) to (3).

Figure 0006891014
Figure 0006891014

Figure 0006891014
Figure 0006891014

Figure 0006891014
Figure 0006891014

上記式(1)〜(3)において、R[i]とG[i]とB[i]は、注目画素に対する所定の参照領域内で以下の式(4)を満たす画素を表している。つまり、注目画素について、所定の参照領域において以下の式(4)の条件を満たした画素のみを用いて平滑化処理が実施されることになる。所定の参照領域は、注目画素とそれを囲む隣接画素からなり、例えば、3×3画素の領域であったり、さらに大きな10×10画素の領域であったりする。この参照領域の決め方については、色ノイズ低減度算出部240の説明において触れる。また、Mは、注目画素に対する参照領域において以下の式(4)を満たす画素数である。なお、注目画素自身は必ず含まれるので、M≧1となる。 In the above equations (1) to (3), R [i], G [i], and B [i] represent pixels satisfying the following equation (4) within a predetermined reference region for the pixel of interest. That is, for the pixel of interest, the smoothing process is performed using only the pixels that satisfy the condition of the following equation (4) in the predetermined reference region. A predetermined reference area includes a pixel of interest and an adjacent pixel surrounding the pixel of interest, and may be, for example, a 3 × 3 pixel area or a larger 10 × 10 pixel area. The method of determining the reference region will be described in the description of the color noise reduction degree calculation unit 240. Further, M is the number of pixels satisfying the following equation (4) in the reference region for the pixel of interest. Since the pixel of interest itself is always included, M ≧ 1.

Figure 0006891014
Figure 0006891014

上記式(4)において、∧は論理積(AND)を表し(以下、同じ)、ThrはR信号に対する閾値、ThgはG信号に対する閾値、ThbはB信号に対する閾値をそれぞれ表している。そして、Rdiff、Gdiff、Bdiffは参照領域内の各画素値と比較する画素値との差を表し、それぞれ以下の式(5)〜式(7)で表される。 In the above formula (4), ∧ represents the logical product (the AND) (hereinafter, the same), Th r represents the threshold for the R signal, Th g is a threshold for the G signal, Th b is a threshold value for B signals, respectively .. Then, R diff , G diff , and B diff represent the difference between each pixel value in the reference region and the pixel value to be compared, and are represented by the following equations (5) to (7), respectively.

Figure 0006891014
Figure 0006891014

Figure 0006891014
Figure 0006891014

Figure 0006891014
Figure 0006891014

上記式(5)〜式(7)における、比較する画素値Rcomp、Gcomp、Bcompは、注目画素の画素値をそのまま用いればよい。或いは、注目画素の画素値にローパスフィルタを掛けた結果を注目画素の画素値としてもよい。図5は、注目画素に対するローパスフィルタの掛け方の具体例を示す図である。図5の例では、注目画素とその上下左右方向に隣接する4画素を用いて、「比較する画素値Rcomp、Gcomp、Bcomp」としての「注目画素の画素値にローパスフィルタを掛けた結果」が導出される。なお、ローパスフィルタと同様の効果があれば、その重み付けや使用する隣接画素の数は自由に決定してよい。 As the pixel values R comp , G comp , and B comp to be compared in the above equations (5) to (7), the pixel values of the pixel of interest may be used as they are. Alternatively, the result of applying a low-pass filter to the pixel value of the pixel of interest may be used as the pixel value of the pixel of interest. FIG. 5 is a diagram showing a specific example of how to apply a low-pass filter to a pixel of interest. In the example of FIG. 5, the pixel value of interest and the four pixels adjacent to each other in the vertical and horizontal directions thereof are used, and a low-pass filter is applied to the pixel value of the pixel of interest as "comparing pixel values R comp , G comp , and B comp". The result is derived. If the effect is similar to that of the low-pass filter, the weighting and the number of adjacent pixels to be used may be freely determined.

なお、ここに示した補正処理は一例であり、色ノイズが低減するように色信号値を補正する手法であれば他のどのような方法でもよい。補正処理によって色ノイズが低減された多重解像度画像データは、後述の合成比率導出処理及び色ノイズ低減度算出処理で用いるため、RAM102に記憶される。 The correction process shown here is an example, and any other method may be used as long as it is a method for correcting the color signal value so as to reduce the color noise. The multi-resolution image data whose color noise has been reduced by the correction processing is stored in the RAM 102 for use in the composition ratio derivation processing and the color noise reduction degree calculation processing described later.

<合成比率導出部>
合成比率導出部230は、補正処理によって色ノイズが低減された多重解像度画像データに含まれる各画像データに対し、下位階層画像データとの合成比率を導出する処理(図3における合成比率導出処理304a〜304d)を行なう。ただし、図3のシーケンス図から明らかなように、最下位階層の画像データ(本実施例では1/16倍に縮小処理された縮小画像データ)は、自己よりも下位の画像データが存在しないため本処理の対象外である。ここで、合成比率は色信号の急峻な変化の度合いに応じて決定される。本実施例の場合、注目画素のRGB信号を入力としてエッジ検出することで合成比率を導出可能である。具体的には、例えばフィルタ係数[−1,2,−1]を有する空間フィルタを用い、水平方向と垂直方向にフィルタを適用した結果のうち、色エッジの度合いが高いと考えられる方を、予め定めた関数によって0〜1の間の係数Kにマッピングする。色エッジの度合いが高いと考えられるフィルタ適用結果ほど1に近い値の係数Kが、色エッジの度合いが低いと考えられるフィルタ適用結果ほど0に近い値の係数Kが出力される。そして、この係数Kが合成比率となる。
<Composite ratio derivation unit>
The composite ratio derivation unit 230 derives a composite ratio with the lower layer image data for each image data included in the multi-resolution image data whose color noise has been reduced by the correction process (composite ratio derivation process 304a in FIG. 3). ~ 304d) is performed. However, as is clear from the sequence diagram of FIG. 3, the image data of the lowest layer (reduced image data reduced to 1/16 times in this embodiment) does not have image data lower than itself. It is out of the scope of this process. Here, the composition ratio is determined according to the degree of abrupt change in the color signal. In the case of this embodiment, the composition ratio can be derived by performing edge detection using the RGB signal of the pixel of interest as an input. Specifically, for example, among the results of applying the filter in the horizontal direction and the vertical direction using a spatial filter having a filter coefficient [-1,2,-1], the one considered to have a high degree of color edge is selected. It is mapped to the coefficient K between 0 and 1 by a predetermined function. A coefficient K having a value closer to 1 is output as a filter application result in which the degree of color edge is considered to be higher, and a coefficient K having a value closer to 0 is output as a filter application result in which the degree of color edge is considered to be lower. Then, this coefficient K becomes the synthesis ratio.

なお、エッジ検出には輝度信号や色差信号を用いてもよい。また、フィルタ係数や判定方法は上述したものに限らない。色エッジの度合いが高いと考えられるときに大きな値の合成比率、色エッジの度合いが低いと考えられるときに小さな値の合成比率が得られれば、どのように導出してもよい。導出された合成比率のデータは、後述の拡大合成処理で用いるため、RAM102に記憶される。 A luminance signal or a color difference signal may be used for edge detection. Further, the filter coefficient and the determination method are not limited to those described above. Any method may be used as long as a large value composition ratio can be obtained when the degree of color edge is considered to be high and a small value composition ratio can be obtained when the degree of color edge is considered to be low. The derived synthesis ratio data is stored in the RAM 102 for use in the expansion synthesis process described later.

<色ノイズ低減度算出部>
色ノイズ低減度算出部240は、補正部220で処理された多重解像度画像データのうち、最下位階層を除く各画像データに対し、色ノイズ低減度を画素毎に算出する処理(図3における色ノイズ低減度算出処理305a〜305d)を行なう。色ノイズ低減度は、補正処理(平滑化処理)で実際に参照された画素の数を、当該補正処理時の参照領域を構成する全画素数で除して得られた比率であり、以下の式(8)を用いて画素毎に求められる。この場合において、平滑化処理で実際に参照された画素とは、前述の式(4)の条件を満たす画素であり、以下「実参照画素」と呼ぶこととする。
<Color noise reduction calculation unit>
The color noise reduction degree calculation unit 240 calculates the color noise reduction degree for each pixel of each image data excluding the lowest layer among the multiple resolution image data processed by the correction unit 220 (color in FIG. 3). Noise reduction degree calculation processing 305a to 305d) is performed. The degree of color noise reduction is a ratio obtained by dividing the number of pixels actually referred to in the correction process (smoothing process) by the total number of pixels constituting the reference area in the correction process, and is as follows. It is obtained for each pixel using the equation (8). In this case, the pixel actually referred to in the smoothing process is a pixel satisfying the condition of the above-mentioned equation (4), and is hereinafter referred to as a "real reference pixel".

Figure 0006891014
Figure 0006891014

ここで、上記式(8)で算出される色ノイズ低減度は、純粋な色ノイズの低減量を示すものではない。どのくらい色ノイズを低減したいかという狙いに対する、色ノイズ低減の結果(色ノイズ低減効果)を表したものである。すなわち、各注目画素についての、補正処理で使用された参照領域が「狙い」に相当し、実参照画素数が「ノイズ低減効果」に相当する。したがって、上記式(8)で求める色ノイズ低減度は、参照領域をどのように設定しているかによって結果が大きく変わる。例えば、注目画素がエッジ部に属する画素であった場合に、色抜けやボケの弊害を防ぐために参照領域をエッジ領域に限定して設定していたとする。この場合、参照領域のサイズは小さくなるので当該参照領域に含まれる画素数は少ない。よって、実参照画素数が少なくても、分母も小さいので、算出される色ノイズ低減度は高くなる。一方で、エッジ部の残留ノイズをできるだけ低減するために、参照領域を出来るだけ大きく設定していたとする。この場合、参照領域のサイズは大きくなるので当該参照領域に含まれる画素数は多い。よって、実参照画素数が多くても、分母も大きい分だけ算出される色ノイズ低減度は低くなる。このように、実参照画素数が仮に同じであっても、参照領域のサイズによって、算出される色ノイズ低減度は変化することになる。上記式(8)に基づく色ノイズ低減度は、残留色ノイズを可能な限り低減したい場面では低くなり、色抜けを可能な限り防ぎたい場面では高くなるという傾向がある。 Here, the degree of color noise reduction calculated by the above formula (8) does not indicate the amount of pure color noise reduction. It shows the result of color noise reduction (color noise reduction effect) for the purpose of reducing color noise. That is, the reference area used in the correction process for each pixel of interest corresponds to the "target", and the actual number of reference pixels corresponds to the "noise reduction effect". Therefore, the color noise reduction degree obtained by the above equation (8) greatly changes depending on how the reference region is set. For example, when the pixel of interest is a pixel belonging to the edge portion, the reference region is limited to the edge region in order to prevent the harmful effects of color loss and blurring. In this case, since the size of the reference area is small, the number of pixels included in the reference area is small. Therefore, even if the number of actual reference pixels is small, the denominator is also small, and the calculated color noise reduction degree is high. On the other hand, it is assumed that the reference area is set as large as possible in order to reduce the residual noise at the edge portion as much as possible. In this case, since the size of the reference area becomes large, the number of pixels included in the reference area is large. Therefore, even if the number of actual reference pixels is large, the degree of color noise reduction calculated is low because the denominator is also large. As described above, even if the actual number of reference pixels is the same, the calculated color noise reduction degree changes depending on the size of the reference area. The degree of color noise reduction based on the above equation (8) tends to be low in situations where residual color noise is desired to be reduced as much as possible, and high in situations where color loss is desired to be prevented as much as possible.

なお、本実施例では、低減したい色ノイズの狙いに対して得られる効果を表した指標を色ノイズ低減度として用いているが、純粋なノイズ低減量を示す指標を用いてもよい。算出された色ノイズ低減度の情報は、後述の優先使用判定処理で用いるため、RAM102に記憶される。 In this embodiment, an index showing the effect obtained for the aim of the color noise to be reduced is used as the degree of color noise reduction, but an index showing a pure noise reduction amount may be used. The calculated color noise reduction degree information is stored in the RAM 102 for use in the priority use determination process described later.

<拡大合成処理部>
拡大合成処理部250は、補正部220で処理された多重解像度画像データのうち解像度が異なる2種類の画像データを、合成比率導出部230で導出された合成比率と色ノイズ低減度算出部240で導出された色ノイズ低減度とに基づいて、合成する処理を行う。拡大合成処理部250は、さらに、拡大処理部251、優先使用判定部252、及び画素値合成部253とで構成される。以下、拡大合成処理部250を構成する各部について説明する。
<Expansion composition processing unit>
The magnifying and compositing processing unit 250 uses the compositing ratio derived by the compositing ratio derivation unit 230 and the color noise reduction degree calculation unit 240 to combine two types of image data having different resolutions among the multi-resolution image data processed by the correction unit 220. The compositing process is performed based on the derived color noise reduction degree. The enlargement synthesis processing unit 250 is further composed of an enlargement processing unit 251, a priority use determination unit 252, and a pixel value synthesis unit 253. Hereinafter, each part constituting the expansion synthesis processing unit 250 will be described.

≪拡大処理部≫
拡大処理部251は、多重解像度画像データにおける最上位階層の画像データ(入力画像データそのもの。図3における入力画像301を除いた各階層の画像データを例えばバイリニア法によって2倍に拡大する処理(図3における拡大処理306a〜306d)を行なう。このとき拡大処理の対象となるのは、最下位階層では補正部220で処理された画像データであり、その他の下位階層では、後述の画素値合成処理による合成後の画像データである。図3のシーケンス図の例では、拡大処理306aの対象は補正処理303eが施された最下位階層の画像データとなっている。また、拡大処理306bの対象は後述の画素値合成処理308aが施された合成後の画像データとなっている。また、拡大処理306cの対象は後述の画素値合成処理308bが施された合成後の画像データとなっている。そして、拡大処理306dの対象は後述の画素値合成処理308cが施された合成後の画像データとなっている。なお、拡大処理の方法は、バイリニア法に限らず、例えばニアレストネイバー法、バイキュービック法、Lanczos法などを用いてもよい。
≪Enlargement processing unit≫
The enlargement processing unit 251 processes the image data of the highest layer in the multi-resolution image data (input image data itself. The image data of each layer excluding the input image 301 in FIG. 3 is enlarged twice by, for example, the bilinear method (FIG. 3). The enlargement processing 306a to 306d) in 3 is performed. At this time, the target of the enlargement processing is the image data processed by the correction unit 220 in the lowermost layer, and the pixel value composition processing described later in the other lower layers. In the example of the sequence diagram of FIG. 3, the target of the enlargement processing 306a is the image data of the lowermost layer to which the correction processing 303e has been applied. The image data after the composition is subjected to the pixel value composition process 308a described later. The target of the enlargement process 306c is the image data after the composition subjected to the pixel value composition process 308b described later. The target of the enlargement processing 306d is the image data after the composition to which the pixel value composition processing 308c described later is applied. The method of the enlargement processing is not limited to the bilinear method, for example, the nearest neighbor method and the bye. A cubic method, a Lanczos method, or the like may be used.

≪優先使用判定部≫
優先使用判定部252は、着目する画像データとその一つ下の階層の画像データとを合成する際に、優先的に下の階層の画像データを使用するかどうかを判定する処理(図3における優先使用判定処理307a〜307d)を行なう。本実施例における優先使用判定は、色ノイズ低減度算出部240で導出された色ノイズ低減度に基づいてなされる。ここで、「一つ下の階層の画像データ」とは、着目画像データよりも1段階解像度が低い画像データであって、当該着目する画像データと同じ解像度に上記拡大処理部251によって拡大処理された画像データを指す。図3のシーケンス図の例で説明する。
≪Priority use judgment unit≫
The priority use determination unit 252 determines whether or not to preferentially use the image data in the lower layer when synthesizing the image data of interest and the image data in the layer below it (in FIG. 3). Priority use determination processing 307a to 307d) is performed. The priority use determination in this embodiment is made based on the color noise reduction degree derived by the color noise reduction degree calculation unit 240. Here, the "image data in the next lower layer" is image data whose resolution is one step lower than that of the image data of interest, and is enlarged by the enlargement processing unit 251 to the same resolution as the image data of interest. Refers to the image data. This will be described with reference to the sequence diagram of FIG.

優先使用判定処理307aでは、入力画像データの1/8の解像度に縮小処理された画像データと、入力画像データの1/16の解像度に縮小処理されていた(拡大処理によって同じ解像度になった)画像データとの合成を行う際の判定がなされる。そして、優先使用判定処理307bでは、入力画像データの1/4の解像度に縮小処理された画像データと、入力画像データの1/8の解像度に縮小処理されていた(拡大処理によって同じ解像度になった)画像データとの合成を行う際の判定がなされる。そして、優先使用判定処理307cでは、入力画像データの1/2の解像度に縮小処理された画像データと、入力画像データの1/4の解像度に縮小処理されていた(拡大処理によって同じ解像度になった)画像データとの合成を行う際の判定がなされる。そして、優先使用判定処理307dでは、入力画像データそのものと、入力画像データの1/2の解像度に縮小処理されていた(拡大処理によって同じ解像度になった)画像データとの合成を行う際の判定がなされる。 In the priority use determination process 307a, the image data reduced to 1/8 the resolution of the input image data and the image data reduced to 1/16 the resolution of the input image data were reduced (the same resolution was obtained by the enlargement processing). Judgment is made when synthesizing with image data. Then, in the priority use determination process 307b, the image data reduced to 1/4 of the resolution of the input image data and the image data reduced to 1/8 of the input image data (the same resolution is obtained by the enlargement processing). T) Judgment is made when synthesizing with image data. Then, in the priority use determination process 307c, the image data reduced to 1/2 the resolution of the input image data and the image data reduced to 1/4 the resolution of the input image data (the same resolution is obtained by the enlargement processing). T) Judgment is made when synthesizing with image data. Then, in the priority use determination process 307d, the determination when synthesizing the input image data itself and the image data that has been reduced to half the resolution of the input image data (the same resolution is obtained by the enlargement process) is performed. Is done.

そして、この優先使用判定処理は、前述の式(8)で算出された色ノイズ低減度のうち上位階層側の結果を、画素単位で、以下の式(9)に当て嵌めて行う。 Then, this priority use determination process is performed by applying the result on the upper layer side of the color noise reduction degree calculated by the above formula (8) to the following formula (9) on a pixel-by-pixel basis.

Figure 0006891014
Figure 0006891014

上記式(9)において、thdegはノイズ量に応じて設定する閾値である。ノイズ量は階層や撮影感度によって変わるため、階層が下であるほど又は撮影感度が小さいほど小さな値に、反対に階層が上であるほど又は撮影感度が高いほど大きな値に、閾値thdegを設定する。そして、上記式(9)の条件を満たしたとき、すなわち、上位階層側の色ノイズ低減度が閾値thdegよりも小さければ、優先的に下の階層の画像データを使用すると判定される。そして、このように判定された場合は、画像合成時の下位階層側の比率を大きく(例えば下階層の画像データを100%採用)するように合成比率が変更される。変更された合成比率のデータはRAM102に記憶される。 In the above equation (9), th deg is a threshold value set according to the amount of noise. Since the amount of noise changes depending on the layer and shooting sensitivity, set the threshold value th deg to a smaller value as the layer is lower or the shooting sensitivity is smaller, and conversely, as the layer is higher or the shooting sensitivity is higher, the value is larger. To do. Then, when the condition of the above equation (9) is satisfied, that is, if the degree of color noise reduction on the upper layer side is smaller than the threshold value th deg, it is determined that the image data of the lower layer is preferentially used. Then, when the determination is made in this way, the composition ratio is changed so as to increase the ratio on the lower layer side at the time of image composition (for example, 100% of the image data in the lower layer is adopted). The data of the changed composition ratio is stored in the RAM 102.

なお、注目画素が無彩色であるときのみ、上記式(9)に従った合成比率の変更を行ってもよい。その際のthdegは、通常より大きめの値に設定し、下位階層側の画像データがより優先的に使用されるように設計することが望ましい。これには二つの理由がある。一つは、無彩色領域は特に残留色ノイズが目立つため、出来るだけ下位階層側の画像データを使うことが望ましいからである。もう一つは、上位階層側で無彩色と判定されている領域は、下位階層側の画像データを使用しても色抜けの弊害が発生しにくいためである。このように、無彩色とみなせる領域でのみ、残留色ノイズを低減するようにしてもよい。 The composition ratio may be changed according to the above equation (9) only when the pixel of interest is achromatic. At that time, it is desirable to set th deg to a value larger than usual and design so that the image data on the lower layer side is used more preferentially. There are two reasons for this. One is that residual color noise is particularly noticeable in the achromatic region, so it is desirable to use image data on the lower layer side as much as possible. The other is that the region determined to be achromatic on the upper layer side is less likely to cause the harmful effect of color loss even if the image data on the lower layer side is used. In this way, the residual color noise may be reduced only in the region that can be regarded as an achromatic color.

≪画素値合成部≫
画素値合成部253は、着目する画像データの画素値と、その一つ下の階層の画像データを拡大処理した後の画像データ(着目する画像データと同じ解像度)の画素値とを、各段階の合成比率導出処理によって導出された合成比率に基づいて合成する処理を行なう。図3においては、画素値合成処理308a〜308dがこれに対応する。具体的には、下位階層側の画素値をIdown、上位階層側の画素値をIup、合成比率をuとしたときの合成後の画素値Ipostが、以下の式(10)を用いて求められる。
≪Pixel value synthesizer≫
The pixel value synthesizing unit 253 sets the pixel value of the image data of interest and the pixel value of the image data (same resolution as the image data of interest) after enlarging the image data in the layer below it at each stage. Performs synthesis based on the synthesis ratio derived by the synthesis ratio derivation process of. In FIG. 3, the pixel value synthesis processes 308a to 308d correspond to this. Specifically, the pixel value I post after composition when the pixel value on the lower layer side is I down , the pixel value on the upper layer side is I up , and the composition ratio is u uses the following equation (10). Is required.

Figure 0006891014
Figure 0006891014

例えば、合成比率u=0.1、下位階層側画素値Idown=3405、上位階層側画素値Iup=3621であったとき、合成後の画素値Ipostは上記式(10)より“3427”となる。なお、ここでの画素値はどのようなフォーマットでもよく、YcrCb値でもよいし、RGB値でもよい。 For example, when the composition ratio u = 0.1, the lower layer side pixel value I down = 3405, and the upper layer side pixel value I up = 3621, the pixel value I post after composition is "3427" from the above equation (10). Become. The pixel value here may be in any format, may be a YcrCb value, or may be an RGB value.

上述の通り合成比率uは、上位階層側の画像データをどれだけ使用するかを表す係数であり、基本的には合成比率導出部230で導出され、優先使用判定処理の結果によって適宜変更されることになる。本実施例の場合、画素値合成処理308a〜308cの結果である合成後のカラー画像データはRAM102に一旦記憶されて拡大処理306b〜306dにそれぞれ供される。一方、画素値合成処理308dの結果である合成後の画像データについてはそのまま出力される(図3のシーケンス図を参照)。この際の出力の態様には、例えば、モニタ108への表示、HDD103保存、汎用I/F104を介した外部メモリ107や外部サーバ(不図示)への保存、プリンタ(不図示)での印刷といったものがある。 As described above, the composition ratio u is a coefficient indicating how much image data on the upper layer side is used, and is basically derived by the composition ratio derivation unit 230 and appropriately changed depending on the result of the priority use determination process. It will be. In the case of this embodiment, the color image data after synthesis, which is the result of the pixel value synthesis processes 308a to 308c, is temporarily stored in the RAM 102 and provided to the enlargement processes 306b to 306d, respectively. On the other hand, the image data after composition, which is the result of the pixel value composition process 308d, is output as it is (see the sequence diagram of FIG. 3). Output modes at this time include, for example, display on a monitor 108, storage in HDD 103, storage in an external memory 107 or an external server (not shown) via a general-purpose I / F 104, and printing with a printer (not shown). There is something.

(色ノイズ低減処理のフロー)
次に、色ノイズ低減処理部202における各処理の大まかな流れについて説明する。図6は、色ノイズ低減処理における各処理の流れを示すフローチャートである。この一連の処理は、CPU101が、HDD130に格納されているプログラムをRAM102にロードし、実行することで実現される。
(Flow of color noise reduction processing)
Next, a rough flow of each process in the color noise reduction processing unit 202 will be described. FIG. 6 is a flowchart showing the flow of each process in the color noise reduction process. This series of processing is realized by the CPU 101 loading the program stored in the HDD 130 into the RAM 102 and executing it.

色ノイズ低減処理部202に画像データが入力されると、ステップ601において、縮小処理部210は、取得された入力画像データに対し前述の縮小処理を行い、多重解像度画像データを生成する。縮小処理の詳細については後述する。 When the image data is input to the color noise reduction processing unit 202, in step 601 the reduction processing unit 210 performs the above-mentioned reduction processing on the acquired input image data to generate multi-resolution image data. The details of the reduction process will be described later.

ステップ602において、補正部220は、生成された多重解像度画像データにおける各階層の画像データに対し、色ノイズが低減するように注目画素の色信号を補正する補正処理を行なう。 In step 602, the correction unit 220 performs correction processing for correcting the color signal of the pixel of interest so as to reduce the color noise with respect to the image data of each layer in the generated multi-resolution image data.

ステップ603において、合成比率導出部230は、補正処理によって色ノイズが低減された多重解像度画像データのうち、最下位階層を除く各画像データに対し、下位階層の画像データとの合成比率を導出する処理を行なう。 In step 603, the composite ratio derivation unit 230 derives a composite ratio with the image data of the lower layer for each image data excluding the lowermost layer among the multi-resolution image data whose color noise is reduced by the correction process. Perform processing.

ステップ604において、色ノイズ低減度算出部240は、補正処理によって色ノイズが低減された多重解像度画像データのうち、最下位階層を除く各画像データに対し、色ノイズ低減度を算出する処理を行なう。 In step 604, the color noise reduction degree calculation unit 240 performs a process of calculating the color noise reduction degree for each image data excluding the lowest layer among the multiple resolution image data whose color noise is reduced by the correction process. ..

ステップ605において、拡大合成処理部250は、補正処理によって色ノイズが低減された多重解像度画像データに対し、ステップ603で導出された合成比率とステップ604で算出された色ノイズ低減度とに基づいて、前述の拡大合成処理を行う。拡大合成処理の詳細については後述する。 In step 605, the enlargement composition processing unit 250 uses the composition ratio derived in step 603 and the color noise reduction degree calculated in step 604 for the multi-resolution image data whose color noise has been reduced by the correction process. , Perform the above-mentioned expansion synthesis process. The details of the expansion synthesis process will be described later.

以上が、色ノイズ低減処理部202における各処理の大まかな流れである。 The above is a rough flow of each process in the color noise reduction processing unit 202.

(縮小処理フロー)
続いて、上述した図6のフローにおける縮小処理(ステップ601)の詳細について説明する。図7は、縮小処理の流れを示すフローチャートである。
(Reduction processing flow)
Subsequently, the details of the reduction process (step 601) in the flow of FIG. 6 described above will be described. FIG. 7 is a flowchart showing the flow of the reduction process.

ステップ701において、縮小処理部210は、縮小処理パラメータを取得する。縮小処理パラメータには、多重解像度の階層の深さ、最小の解像度が入力画像データに対して何分の1(2の倍数)になるかの情報が含まれる。そして、このような縮小処理パラメータが予め設定されて、HDD103等に保存される。本実施例の場合、全5階層(1倍、1/2倍、1/4倍、1/8倍、1/16倍)で、最小の解像度が入力画像データの16分の1になるという内容の縮小処理パラメータが予め設定・保存され、それがHDD103等から読み込むことで取得される。 In step 701, the reduction processing unit 210 acquires the reduction processing parameters. The reduction processing parameters include information on the depth of the multi-resolution hierarchy and how much the minimum resolution is a fraction (multiple of 2) of the input image data. Then, such reduction processing parameters are set in advance and stored in the HDD 103 or the like. In the case of this embodiment, the minimum resolution is 1/16 of the input image data in all 5 layers (1x, 1/2x, 1/4x, 1/8x, 1/16x). The content reduction processing parameters are set and saved in advance, and are acquired by reading from the HDD 103 or the like.

ステップ702において、縮小処理部210は、ステップ701で取得した縮小処理パラメータに基づき、縮小処理に適用する倍率を決定する。縮小処理パラメータの内容が、全5階層で、最小の解像度が入力画像データの16分の1という本実施例の場合は、1/2、1/4、1/8、1/16という4種類の倍率が順次決定されることになる。 In step 702, the reduction processing unit 210 determines the magnification to be applied to the reduction processing based on the reduction processing parameters acquired in step 701. In the case of this embodiment in which the contents of the reduction processing parameters are all 5 layers and the minimum resolution is 1/16 of the input image data, there are 4 types of 1/2, 1/4, 1/8, and 1/16. Magnification will be determined sequentially.

ステップ703において、縮小処理部210は、処理対象の画像データに対して、ステップ702で決定された倍率に縮小する処理を行う。 In step 703, the reduction processing unit 210 performs a process of reducing the image data to be processed to the magnification determined in step 702.

ステップ704において、縮小処理部210は、ステップ701で取得した縮小処理パラメータに基づく縮小処理が全て完了したかどうかを判定する。本実施例の場合は、1/2、1/4、1/8、1/16という4種類の倍率についての縮小処理がすべて完了しているかどうかが判定される。判定の結果、取得した縮小処理パラメータに対応する全ての縮小処理が完了している場合は本処理を終える。一方、未処理の倍率があればステップ702に戻って次の倍率を決定して縮小処理を続行する。 In step 704, the reduction processing unit 210 determines whether or not all the reduction processing based on the reduction processing parameters acquired in step 701 has been completed. In the case of this embodiment, it is determined whether or not all the reduction processes for the four types of magnifications of 1/2, 1/4, 1/8, and 1/16 have been completed. As a result of the determination, if all the reduction processing corresponding to the acquired reduction processing parameter is completed, this processing is terminated. On the other hand, if there is an unprocessed magnification, the process returns to step 702 to determine the next magnification and continue the reduction process.

(拡大合成処理フロー)
次に、上述した図6のフローにおける拡大合成処理(ステップ605)の詳細について説明する。図8は、本実施例に係る、拡大合成処理の流れを示すフローチャートである。
(Expanded synthesis processing flow)
Next, the details of the expansion synthesis process (step 605) in the flow of FIG. 6 described above will be described. FIG. 8 is a flowchart showing the flow of the expansion synthesis process according to the present embodiment.

ステップ801において、拡大合成処理部250は、前述のステップ602の補正処理によって色ノイズが低減された全ての画像データ(多重解像度画像データ)を取得する。 In step 801 the enlargement composition processing unit 250 acquires all the image data (multi-resolution image data) whose color noise is reduced by the correction process of step 602 described above.

ステップ802において、拡大合成処理部250は、前述の縮小処理パラメータ及び合成処理パラメータを取得する。ここで、合成処理パラメータとは、前述のステップ603で導出された合成比率及び前述のステップ604で算出された色ノイズ低減度を意味する。 In step 802, the expansion / synthesis processing unit 250 acquires the above-mentioned reduction processing parameters and synthesis processing parameters. Here, the composition processing parameter means the composition ratio derived in the above-mentioned step 603 and the degree of color noise reduction calculated in the above-mentioned step 604.

ステップ803において、拡大合成処理部250の拡大処理部251は、ステップ801で取得した複数の画像データの中で最も下位階層(解像度が小さい)の画像データに対し、前述の拡大処理(本実施例では2倍)を行なう。 In step 803, the enlargement processing unit 251 of the enlargement composition processing unit 250 performs the above-mentioned enlargement processing (this embodiment) with respect to the image data of the lowest layer (small resolution) among the plurality of image data acquired in step 801. Then double).

ステップ804において、拡大合成処理部250は、ステップ801で取得した複数の画像データのうち未処理の画像データの中で最小解像度の画像データを、画素値合成処理の対象となる一方の画像データとして選択する。この場合において、上記未処理の画像データには、最下位階層の画像データは含まれない。 In step 804, the enlargement composition processing unit 250 uses the image data having the lowest resolution among the unprocessed image data among the plurality of image data acquired in step 801 as one of the image data to be subjected to the pixel value composition processing. select. In this case, the unprocessed image data does not include the image data of the lowest layer.

ステップ805において、拡大合成処理部250の画素値合成部253は、画素値合成処理の対象となる画素を選択する。具体的には、最初のルーチンの場合は、ステップ803で拡大処理された画像データと当該拡大処理された画像データと同じ解像度のステップ804で選択された画像データとについて、画素値合成処理の対象となる画素が選択される。また、2回目以降のルーチンの場合は、後述のステップ811で拡大処理された画像データと、当該拡大処理された画像データと同じ解像度のステップ804で選択された画像データとについて、画素値合成処理の対象となる画素が選択される。 In step 805, the pixel value compositing unit 253 of the enlargement compositing processing unit 250 selects the pixel to be the target of the pixel value compositing process. Specifically, in the case of the first routine, the image data enlarged in step 803 and the image data selected in step 804 having the same resolution as the enlarged image data are subject to pixel value composition processing. The pixel to be is selected. Further, in the case of the second and subsequent routines, the pixel value composition processing is performed on the image data enlarged in step 811 described later and the image data selected in step 804 having the same resolution as the enlarged image data. The target pixel of is selected.

続くステップ806〜ステップ807では、拡大合成処理部250の優先使用判定部252において、ステップ805で選択した画素についての前述した優先使用判定処理がなされる。すなわち、画素値合成処理対象の2つの画像データのうち拡大処理された方の画像データ(下位階層側の画像データ)を優先的に使用するかどうかの判定処理がなされる。 In the following steps 806 to 807, the priority use determination unit 252 of the expansion synthesis processing unit 250 performs the above-mentioned priority use determination process for the pixels selected in step 805. That is, a determination process is performed as to whether or not to preferentially use the enlarged image data (image data on the lower layer side) of the two image data to be pixel-value composited.

ステップ806では、下位階層側の画像データを優先的に使用するかどうかが、前述の式(9)を用いて判定される。判定の結果、上位階層側の色ノイズ低減度が閾値thdegよりも小さい場合は、下位階層側の画像データを優先的に使用するべく、ステップ807に進む。一方、上位階層側の色ノイズ低減度が閾値thdeg以上である場合は、ステップ808に進む。 In step 806, it is determined by using the above-mentioned equation (9) whether or not to preferentially use the image data on the lower layer side. As a result of the determination, if the degree of color noise reduction on the upper layer side is smaller than the threshold value th deg , the process proceeds to step 807 in order to preferentially use the image data on the lower layer side. On the other hand, if the degree of color noise reduction on the upper layer side is equal to or higher than the threshold value th deg , the process proceeds to step 808.

ステップ807では、合成比率導出処理(前述のステップ603)で得られた合成比率が、下位階層側の画像データの画素値を例えば100%採用するような合成比率に変更される。 In step 807, the composition ratio obtained in the composition ratio derivation process (step 603 described above) is changed to a composition ratio such that the pixel value of the image data on the lower layer side is adopted, for example, 100%.

ステップ808において、拡大合成処理部250の画素値合成部253は、現在設定されている合成比率に基づいて、前述の画素値合成処理を行なう。これにより、2つの画像データにおける選択された画素値を合成した画素値Ipostが得られる。 In step 808, the pixel value compositing unit 253 of the enlargement compositing processing unit 250 performs the above-mentioned pixel value compositing process based on the currently set compositing ratio. As a result, the pixel value I post obtained by synthesizing the selected pixel values in the two image data is obtained.

ステップ809において、拡大合成処理部250は、全画素に対する合成処理が完了したかどうかを判定する。全画素についての処理が完了していれば、ステップ810に進む。一方、未処理の画素があれば、ステップ805に戻って次の画素を処理対象の画素に選択して処理を続行する。 In step 809, the enlargement composition processing unit 250 determines whether or not the composition processing for all pixels is completed. If the processing for all pixels is completed, the process proceeds to step 810. On the other hand, if there are unprocessed pixels, the process returns to step 805, selects the next pixel as the pixel to be processed, and continues the processing.

ステップ810において、拡大合成処理部250は、多重解像度画像データのうち最上位階層の画像データ以外の全ての画像データ(すなわち、入力画像データを除く全ての縮小画像データ)についての拡大処理がなされたかどうかを判定する。判定の結果、拡大処理がなされていない縮小画像データがある場合は、ステップ811に進む。一方、全ての縮小画像データに対して拡大処理を行っていれば、本処理を終える。 In step 810, has the enlargement / composition processing unit 250 performed enlargement processing on all the image data (that is, all the reduced image data except the input image data) other than the image data of the highest layer among the multiple resolution image data? Judge whether or not. As a result of the determination, if there is reduced image data that has not been enlarged, the process proceeds to step 811. On the other hand, if all the reduced image data has been enlarged, this process is completed.

ステップ811において、拡大合成処理部250の拡大処理部251は、ステップ808で得られた合成処理後の画像データに対して、前述の拡大処理(本実施例では2倍)を行なう。拡大処理の実行後は、ステップ804に移行する。 In step 811, the enlargement processing unit 251 of the enlargement composition processing unit 250 performs the above-mentioned enlargement processing (twice in this embodiment) on the image data after the composition processing obtained in step 808. After executing the enlargement process, the process proceeds to step 804.

以上が、本実施例に係る、拡大合成処理の内容である。 The above is the content of the expansion synthesis process according to this embodiment.

以上述べたとおり、本実施例によれば、色の鮮鋭性を維持しつつ、エッジ付近の残留色ノイズを効果的に低減することができる。 As described above, according to the present embodiment, it is possible to effectively reduce the residual color noise in the vicinity of the edge while maintaining the sharpness of the color.

実施例1では、色ノイズ低減度が所定の閾値より低い箇所について、下位階層側の画像データの重みが大きくなるよう合成比率を変更することで、色の解像感を維持しながら、残留色ノイズを十分に低減した画像を得ることができる。しかしながら、色ノイズ低減度が低い箇所全てにおいて下位階層側の画像データの重みを大きくしてしまうと、色変化や色抜けといった弊害が発生してしまうことがある。そこで、上位階層と下位階層との間での色の類似性を評価することにより、上述の弊害を出来るだけ発生させない様態について、実施例2として説明する。 In the first embodiment, the residual color is maintained while maintaining the color resolution by changing the composition ratio so that the weight of the image data on the lower layer side becomes larger in the portion where the color noise reduction degree is lower than the predetermined threshold value. An image with sufficiently reduced noise can be obtained. However, if the weight of the image data on the lower layer side is increased in all the places where the degree of color noise reduction is low, adverse effects such as color change and color loss may occur. Therefore, a mode in which the above-mentioned adverse effects are not generated as much as possible by evaluating the color similarity between the upper layer and the lower layer will be described as Example 2.

ところで、実施例1の構成においても、注目画素が無彩色であるときのみ合成比率の変更を行うように適用対象を限定することで、上述の弊害の発生を防ぐことは可能である。ただし、この場合は当然のことながら、色ノイズ低減処理によって得られる効果が無彩色の領域に限定されてしまう。本実施例では、有彩色の領域においても色ノイズ低減の効果を得られることができるというメリットがある。なお、以下の説明では、本実施例の特徴的構成について詳しく述べ、実施例1との共通部分については説明を省略ないしは簡略化するものとする。 By the way, also in the configuration of the first embodiment, it is possible to prevent the above-mentioned adverse effects by limiting the application target so that the composition ratio is changed only when the pixel of interest is achromatic. However, in this case, as a matter of course, the effect obtained by the color noise reduction processing is limited to the achromatic region. In this embodiment, there is an advantage that the effect of reducing color noise can be obtained even in a chromatic color region. In the following description, the characteristic configuration of the present embodiment will be described in detail, and the description of the common parts with the first embodiment will be omitted or simplified.

(色ノイズ低減処理部の詳細)
図9は、本実施例に係る、色ノイズ低減処理部202’の内部構成を示すブロック図である。色ノイズ低減処理部202’は、縮小処理部210、補正部220、合成比率導出部230、色ノイズ低減度算出部240、拡大合成処理部250’及び色類似性判定部900で構成される。
(Details of color noise reduction processing unit)
FIG. 9 is a block diagram showing an internal configuration of the color noise reduction processing unit 202'according to the present embodiment. The color noise reduction processing unit 202'composed of a reduction processing unit 210, a correction unit 220, a composition ratio derivation unit 230, a color noise reduction degree calculation unit 240, an enlargement composition processing unit 250', and a color similarity determination unit 900.

本実施例の拡大合成処理部250’は、補正部220で処理された多重解像度画像データのうち解像度が異なる2種類の画像データを、合成比率と色ノイズ低減度に加え、上述の色類似性判定部900における判定結果をも考慮して合成する処理を行う。 The enlargement composition processing unit 250'of this embodiment adds two types of image data having different resolutions among the multi-resolution image data processed by the correction unit 220 to the composition ratio and the degree of color noise reduction, and the color similarity described above. A process of synthesizing is performed in consideration of the determination result in the determination unit 900.

本実施例の優先使用判定部252’は、実施例1と同様、注目する画像データとその一つ下の階層の画像データとを合成する際に、優先的に下の階層の画像データを使用するかどうかを判定する処理(図3における下位階層優先判定処理307a〜307d)を行なう。実施例1との違いは、色ノイズ低減度算出部240で導出された色ノイズ低減度と色類似性判定部900での判定結果の双方に基づいて優先使用判定処理がなされる点である。 Similar to the first embodiment, the priority use determination unit 252'of this embodiment preferentially uses the image data of the lower layer when synthesizing the image data of interest and the image data of the next lower layer. The process of determining whether or not to perform (lower layer priority determination processes 307a to 307d in FIG. 3) is performed. The difference from the first embodiment is that the priority use determination process is performed based on both the color noise reduction degree derived by the color noise reduction degree calculation unit 240 and the determination result by the color similarity determination unit 900.

≪色類似性判定部≫
色類似性判定部900は、まず、補正部220で色ノイズが低減された画像データのRGB色信号から色差信号を生成する。色差信号の生成は、着目する画像データとその一つ下の階層の画像データであって拡大処理により当該着目する画像データと同じ解像度に拡大された画像データと、について行う。色差信号(Cr及びCb)は、前述の通り公知の変換式によって生成することができる。また、CrはR−Gで、CbはB−Gでそれぞれ求めてもよい。生成された色差信号は、RAM102に記憶される。
≪Color similarity judgment unit≫
First, the color similarity determination unit 900 generates a color difference signal from the RGB color signal of the image data in which the color noise is reduced by the correction unit 220. The color difference signal is generated for the image data of interest and the image data one layer below it, which is enlarged to the same resolution as the image data of interest by the enlargement processing. The color difference signals (Cr and Cb) can be generated by a known conversion formula as described above. Further, Cr may be obtained by RG and Cb may be obtained by BG. The generated color difference signal is stored in the RAM 102.

次に、色類似性判定部900は、着目する画像データの色差信号とその一つ下の階層の画像データであって当該着目する画像データと同じ解像度に拡大された画像データの色差信号に基づいて、注目画素について上位階層側と下位階層側の色の類似性を判定する。この判定では、大まかな色の類似性を評価する。その理由は、厳密に評価してしまうと、残留色ノイズを低減したい箇所が判定されなくなる一方で、まったく評価しないと色抜け等の弊害が発生してしまうためである。具体的には、例えば以下の式(11)を用いて行う。 Next, the color similarity determination unit 900 is based on the color difference signal of the image data of interest and the color difference signal of the image data one layer below it and expanded to the same resolution as the image data of interest. Then, the color similarity between the upper layer side and the lower layer side of the pixel of interest is determined. This determination evaluates the rough color similarity. The reason is that if the evaluation is performed strictly, the portion where the residual color noise is desired to be reduced cannot be determined, but if the evaluation is not performed at all, adverse effects such as color loss occur. Specifically, for example, the following equation (11) is used.

Figure 0006891014
Figure 0006891014

上記式(11)において、CrdownとCbdownは下位階層側の色差信号、CbupとCrupは上位階層側の色差信号を表している。そして、この式(11)は、色差信号の色空間を極座標変換した結果が、下位階層側と上位階層側とで同じ特定の範囲内にあるかどうかで、色の類似性を評価している。すなわち、CrとCbをxy座標平面のベクトルとみなしたときに、上位階層側の変換結果が属する象限と下位階層側の変換結果が属する象限とが一致するかどうかを評価している(図10を参照)。これにより、上位階層側と下位階層側との間での色信号の色相の大まかな類似性を判定することができる。 In the above equation (11), Cr down and Cb down represent the color difference signal on the lower layer side, and Cb up and Cr up represent the color difference signal on the upper layer side. Then, this equation (11) evaluates the color similarity based on whether or not the result of polar coordinate transformation of the color space of the color difference signal is within the same specific range on the lower layer side and the upper layer side. .. That is, when Cr and Cb are regarded as vectors on the xy coordinate plane, it is evaluated whether or not the quadrant to which the conversion result on the upper layer side belongs and the quadrant to which the conversion result on the lower layer side belongs match (FIG. 10). See). Thereby, it is possible to determine the rough similarity of the hue of the color signal between the upper layer side and the lower layer side.

或いは、上記式(11)に代えて、以下の式(12)〜(14)を用いて行ってもよい。 Alternatively, instead of the above formula (11), the following formulas (12) to (14) may be used.

Figure 0006891014
Figure 0006891014

Figure 0006891014
Figure 0006891014

Figure 0006891014
Figure 0006891014

上記式(12)及び式(13)は、下位階層側の各色差信号の値が0に近い所定の値以下のときはコアリングすることを意味しており、コアリングした結果をCrdownCMP、CbdownCMPで表している。これにより、ノイズの影響により誤判定が生じやすい信号値がゼロ付近の場合は、上記式(14)に基づく色の類似性の判定を行う対象から例外的に除外する狙いがある。 The above equations (12) and (13) mean that when the value of each color difference signal on the lower layer side is equal to or less than a predetermined value close to 0, coring is performed . It is represented by Cb down CMP. As a result, when the signal value at which erroneous determination is likely to occur due to the influence of noise is near zero, the aim is to exceptionally exclude it from the target for determining the color similarity based on the above equation (14).

なお、下位階層側の色信号と上位階層側の色信号の色相の類似性を評価するものであればよく、判定手法はこれらの例に限定されない。例えば、下位階層側の変換結果と上位階層側の変換結果との距離が所定の閾値以内かどうかで類似性を判定してもよい。この判定手法の場合、色差信号の色空間を極座標変換した結果がCr軸とCb軸の交点1000付近に位置し、下位階層側と上位階層側とで象限が不一致となるケースであっても、両者の距離が近ければ、類似すると判定され得ることになる。こうして得られた色類似性の判定結果は、優先使用判定部252’での優先使用判定処理で用いるため、RAM102に記憶される。 It should be noted that the determination method is not limited to these examples as long as it evaluates the similarity of the hues of the color signal on the lower layer side and the color signal on the upper layer side. For example, the similarity may be determined based on whether or not the distance between the conversion result on the lower layer side and the conversion result on the upper layer side is within a predetermined threshold value. In the case of this determination method, even if the result of polar coordinate conversion of the color space of the color difference signal is located near the intersection 1000 of the Cr axis and the Cb axis and the quadrants do not match between the lower layer side and the upper layer side. If the distance between the two is short, it can be determined that they are similar. The color similarity determination result thus obtained is stored in the RAM 102 for use in the priority use determination process in the priority use determination unit 252'.

≪優先使用判定処理≫
優先使用判定部252’は、優先的に下位階層の画像データを使用するかどうかを、色ノイズ低減度算出部240で導出された色ノイズ低減度と、上述した色類似性判定部900における色類似性判定の結果とに基づいて判定する。具体的には、まず、実施例1の場合と同様、上位階層側の色ノイズ低減度と所定の閾値thdegとの比較処理を行う。閾値比較処理の結果、上位階層側の色ノイズ低減度が閾値thdegよりも小さければ、次に、上述の色類似性判定の結果を参照し、上位階層側と下位階層側の色が類似していれば、画像合成時の下位階層側の比率を大きくするように合成比率が変更される。
≪Priority use judgment processing≫
The priority use determination unit 252'determines whether or not to preferentially use the image data of the lower layer with the color noise reduction degree derived by the color noise reduction degree calculation unit 240 and the color in the color similarity determination unit 900 described above. Judgment is made based on the result of similarity judgment. Specifically, first, as in the case of the first embodiment, a comparison process is performed between the color noise reduction degree on the upper layer side and the predetermined threshold value th deg. As a result of the threshold comparison process, if the degree of color noise reduction on the upper layer side is smaller than the threshold th deg , then, referring to the result of the above-mentioned color similarity determination, the colors on the upper layer side and the lower layer side are similar. If so, the compositing ratio is changed so as to increase the ratio on the lower layer side at the time of image compositing.

このように色類似性の条件を加えることにより、下位階層側と上位階層側とで、ある程度色が類似している箇所に限定して、下位階層側の合成比率を高めることが可能となる。変更された合成比率のデータはRAM102に記憶される。 By adding the color similarity condition in this way, it is possible to increase the composition ratio on the lower layer side by limiting the locations where the colors are similar to some extent on the lower layer side and the upper layer side. The data of the changed composition ratio is stored in the RAM 102.

(拡大合成処理フロー)
次に、本実施例の拡大合成処理(ステップ605)の詳細について説明する。図11は、本実施例に係る、拡大合成処理の流れを示すフローチャートである。
(Expanded synthesis processing flow)
Next, the details of the expansion synthesis process (step 605) of this embodiment will be described. FIG. 11 is a flowchart showing the flow of the expansion synthesis process according to the present embodiment.

ステップ1101〜ステップ1106は、実施例1の図8のフローのステップ801〜ステップ806にそれぞれ対応する。すなわち、色ノイズが低減された多重解像度画像データが取得され(ステップ1101)、続いて、縮小処理パラメータと合成処理パラメータが取得される(ステップ1102)。この場合において、本実施例の合成処理パラメータには、合成比率と色ノイズ低減度に加え、色類似性判定の結果も含まれる。そして、取得した多重解像度画像データ中の最下位階層の画像データに対し拡大処理が実行される(ステップ1103)。続いて、取得した多重解像度画像データのうち未処理の画像データの中で最小解像度の画像データが、画素値合成処理の対象となる一方の画像データとして選択される(ステップ1104)。画像データが選択されると、画素値合成処理の対象となる画素が選択される(ステップ1105)。 Steps 1101 to 1106 correspond to steps 801 to 806 of the flow of FIG. 8 of the first embodiment, respectively. That is, the multi-resolution image data in which the color noise is reduced is acquired (step 1101), and then the reduction processing parameter and the composition processing parameter are acquired (step 1102). In this case, the composition processing parameters of this embodiment include the result of the color similarity determination in addition to the composition ratio and the degree of color noise reduction. Then, the enlargement processing is executed on the image data of the lowest layer in the acquired multi-resolution image data (step 1103). Subsequently, among the acquired multi-resolution image data, the image data having the lowest resolution among the unprocessed image data is selected as one of the image data to be subjected to the pixel value composition processing (step 1104). When the image data is selected, the pixel to be subjected to the pixel value composition processing is selected (step 1105).

続くステップ1106〜ステップ1108では、拡大合成処理部250’の優先使用判定部252’において、ステップ1105で選択した画素についての前述した優先使用判定処理がなされる。 In the following steps 1106 to 1108, the priority use determination unit 252'of the expansion synthesis processing unit 250'performs the above-mentioned priority use determination process for the pixels selected in step 1105.

まず、ステップ1106では、前述の式(9)を満たすかどうかが判定される。判定の結果、上位階層側の色ノイズ低減度が閾値thdegよりも小さい場合は、ステップ1107に進む。一方、上位階層側の色ノイズ低減度が閾値thdeg以上である場合は、ステップ1109に進む。 First, in step 1106, it is determined whether or not the above equation (9) is satisfied. As a result of the determination, if the degree of color noise reduction on the upper layer side is smaller than the threshold value th deg , the process proceeds to step 1107. On the other hand, if the degree of color noise reduction on the upper layer side is equal to or higher than the threshold value th deg , the process proceeds to step 1109.

ステップ1107において、優先使用判定部252’は、ステップ1102で取得した合成処理パラメータに含まれる色類似性判定の結果を参照し、処理の切り分けを行う。具体的には、上位階層側と下位階層側との間で色の類似性ありとの判定結果であれば、下位階層側の画像データを優先的に使用するべく、ステップ1108に進む。一方、色の類似性がないとの判定結果であれば、ステップ1109に進む。そして、ステップ1108において、合成比率導出処理(前述のステップ603)で得られた合成比率が、下位階層側の画像データの画素値を例えば100%採用するような合成比率に変更される。 In step 1107, the priority use determination unit 252'refers to the result of the color similarity determination included in the synthesis processing parameter acquired in step 1102, and separates the processing. Specifically, if it is a determination result that there is color similarity between the upper layer side and the lower layer side, the process proceeds to step 1108 in order to preferentially use the image data on the lower layer side. On the other hand, if it is determined that there is no color similarity, the process proceeds to step 1109. Then, in step 1108, the composition ratio obtained in the composition ratio derivation process (step 603 described above) is changed to a composition ratio such that the pixel value of the image data on the lower layer side is adopted, for example, 100%.

以降のステップ1109〜ステップ1112の各ステップは、図8のフローのステップ808〜ステップ811にそれぞれ相当し、異なるところはないので説明を省く。 Subsequent steps 1109 to 1112 correspond to steps 808 to 811 of the flow of FIG. 8 and are not different from each other, and thus description thereof will be omitted.

以上が、本実施例に係る拡大合成処理の内容である。なお、ここでは色類似性判定部900を独立の構成要素とし、その判定結果を優先使用判定部252’で参照するようにしていたが、本実施例はこれに限定されるものではない。例えば、色類似性判定部900の機能を、優先使用判定部252’の中に組み込んでもよい。 The above is the content of the expansion synthesis process according to this embodiment. Here, the color similarity determination unit 900 is used as an independent component, and the determination result is referred to by the priority use determination unit 252', but this embodiment is not limited to this. For example, the function of the color similarity determination unit 900 may be incorporated into the priority use determination unit 252'.

以上述べたとおり、本実施例では、下位階層側と上位階層側である程度色が類似している箇所に限定して、下位階層側の合成比率を高めることができる。これにより、色変化や色抜けといった弊害を抑えながら、色の鮮鋭性を維持しつつエッジ付近の残留色ノイズを効果的に低減することが可能となる。また、注目画素が無彩色の場合には実施例1を適用し、それ以外の場合には実施例2を適用することによって、色変化や色抜けの弊害を抑えつつ、特に残留色ノイズの目立つ無彩色領域のノイズ低減効果を高めることが可能となる。 As described above, in the present embodiment, the composition ratio on the lower layer side can be increased by limiting the locations where the colors are similar to some extent on the lower layer side and the upper layer side. As a result, it is possible to effectively reduce residual color noise in the vicinity of the edge while maintaining the sharpness of the color while suppressing adverse effects such as color change and color loss. Further, by applying Example 1 when the pixel of interest is achromatic, and by applying Example 2 in other cases, the harmful effects of color change and color loss are suppressed, and residual color noise is particularly noticeable. It is possible to enhance the noise reduction effect in the achromatic region.

<その他の実施例>
実施例1〜2では、画像処理アプリケーションで処理を行う例を説明したが、これらは撮像装置で撮影した画像データに対して撮像装置内の画像処理ハードウェア上で処理する方法であってもかまわない。また、クライアント装置からサーバ装置上の画像処理アプリケーションに画像データを送信し、サーバ装置上で画像データが処理されてもよい。
<Other Examples>
In Examples 1 and 2, examples of processing by the image processing application have been described, but these may be a method of processing the image data captured by the image pickup device on the image processing hardware in the image pickup device. Absent. Further, the image data may be transmitted from the client device to the image processing application on the server device, and the image data may be processed on the server device.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (11)

入力画像データに対し縮小処理を行って、解像度を低くした複数の階層の縮小画像データを生成する縮小処理手段と、
前記入力画像データ及び前記縮小画像データにおける注目画素の画素値を、色ノイズが低減された値に補正する補正手段と、
前記補正が施された画像データのうち、最も解像度が低い縮小画像データを除く画像データに対し、他の階層の画像データとの合成比率を導出する合成比率導出手段と、
前記補正が施された各画像データのうち、最も解像度が低い縮小画像データを除く画像データに対し、前記補正による色ノイズ低減度を画素毎に算出する色ノイズ低減度算出手段と、
前記合成比率と前記色ノイズ低減度とに基づいて、前記補正が施された画像データのうち注目する画像データとその一つ下の階層の画像データとを合成する合成手段と、
を備え
前記合成手段は、
画像データを拡大する拡大処理手段と、
前記注目する画像データの注目画素の色差信号と、その一つ下の階層の画像データであって前記拡大処理手段により当該注目する画像データと同じ解像度に拡大された画像データの注目画素の色差信号との色の類似性を判定する色類似性判定手段と、
前記注目する画像データとその一つ下の階層の画像データとを合成する際に、前記色ノイズ低減度が所定の閾値より小さく、かつ、前記色類似性判定手段で色が類似すると判定された場合に優先的に前記一つ下の階層の画像データを使用する判定し、優先的に前記一つ下の階層の画像データを使用すると判定した場合に、当該一つ下の階層の画像データの重みを大きくするように前記合成比率を変更する優先使用判定手段と、
前記注目する画像データの画素値と、その一つ下の階層の画像データであって前記拡大処理手段により前記注目する画像データと同じ解像度に拡大された画像データの画素値とを、前記合成比率に基づいて合成する画素値合成手段と、
を有する、
ことを特徴とする画像処理装置。
A reduction processing means that performs reduction processing on the input image data to generate reduced image data of a plurality of layers with reduced resolution, and
A correction means for correcting the pixel value of the pixel of interest in the input image data and the reduced image data to a value with reduced color noise.
Among the corrected image data, a composite ratio deriving means for deriving a composite ratio of the image data excluding the reduced image data having the lowest resolution with the image data of another layer,
A color noise reduction degree calculation means for calculating the color noise reduction degree by the correction for each pixel for the image data excluding the reduced image data having the lowest resolution among the corrected image data.
A compositing means for synthesizing the image data of interest and the image data of the next lower layer of the corrected image data based on the compositing ratio and the color noise reduction degree.
Equipped with a,
The synthetic means
Enlargement processing means for enlarging image data and
The color difference signal of the pixel of interest of the image data of interest and the color difference signal of the pixel of interest of the image data one layer below the image data of interest and enlarged to the same resolution as the image data of interest by the enlargement processing means. Color similarity determination means for determining color similarity with and
When synthesizing the image data of interest and the image data of the next lower layer, it was determined that the degree of color noise reduction was smaller than a predetermined threshold value and the colors were similar by the color similarity determining means. In some cases, it is determined that the image data of the next lower layer is preferentially used, and when it is determined that the image data of the next lower layer is preferentially used, the image data of the next lower layer is preferentially used. The priority use determination means for changing the composite ratio so as to increase the weight of
The composition ratio of the pixel value of the image data of interest and the pixel value of the image data one layer below the image data expanded to the same resolution as the image data of interest by the enlargement processing means. Pixel value synthesizing means for synthesizing based on
To have a,
An image processing device characterized by this.
前記優先使用判定手段は、前記注目画素が無彩色であるときのみ、前記判定を行うことを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the priority use determination means performs the determination only when the pixel of interest is achromatic. 前記所定の閾値は、前記階層が下であるほど小さな値、前記階層が上であるほど大きな値が設定されることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the predetermined threshold value is set to a smaller value as the hierarchy is lower and a larger value as the hierarchy is higher. 前記色類似性判定手段は、下位階層側及び上位階層側の色差信号の色空間を極座標変換した結果が、下位階層側と上位階層側とで同じ特定の範囲内にある場合に色が類似すると判定することを特徴とする請求項に記載の画像処理装置。 The color similarity determining means determines that the colors are similar when the results of polar coordinate transformation of the color space of the color difference signals on the lower layer side and the upper layer side are within the same specific range on the lower layer side and the upper layer side. The image processing apparatus according to claim 1 , wherein the image processing apparatus is used for determination. 前記色類似性判定手段は、下位階層側及び上位階層側の色差信号の色空間を極座標変換した結果、下位階層側と上位階層側との距離が所定の閾値以内にある場合に色が類似すると判定することを特徴とする請求項に記載の画像処理装置。 The color similarity determining means determines that the colors are similar when the distance between the lower layer side and the upper layer side is within a predetermined threshold as a result of polar coordinate transformation of the color space of the color difference signals on the lower layer side and the upper layer side. The image processing apparatus according to claim 1 , wherein the image processing apparatus is used for determination. 前記色類似性判定手段は、前記一つ下の階層の色差信号の値が所定の値以下の場合、前記色の類似性の判定を行わないことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 Any of claims 1 to 5 , wherein the color similarity determining means does not determine the color similarity when the value of the color difference signal in the next lower layer is equal to or less than a predetermined value. The image processing apparatus according to item 1. 前記画素値合成手段は、以下の式(5)を用いて合成後の画素値を求め、
Figure 0006891014
前記式(5)において、Ipostは合成後の画素値を、Idownは下位階層側の画像データの画素値を、Iupは上位階層側の画素値をそれぞれ表し、uは上位階層側の画像データをどれだけ使用するかを表す前記合成比率としての係数を表す、
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The pixel value synthesizing means obtains the pixel value after synthesizing using the following equation (5), and obtains the pixel value after synthesizing.
Figure 0006891014
In the above equation (5), I post represents the pixel value after synthesis, I down represents the pixel value of the image data on the lower layer side, I up represents the pixel value on the upper layer side, and u represents the pixel value on the upper layer side. Represents a coefficient as the composite ratio, which indicates how much image data is used.
The image processing apparatus according to any one of claims 1 to 6 , wherein the image processing apparatus is characterized by the above.
前記補正手段における前記補正は、前記注目画素を囲む隣接画素からなる参照領域を用いた平滑化処理であり、
前記色ノイズ低減度算出手段で算出される前記色ノイズ低減度は、前記参照領域を構成する画素のうち前記平滑化処理で実際に参照された画素の数を、前記参照領域を構成する全画素数で除して得られた比率である
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
The correction in the correction means is a smoothing process using a reference region composed of adjacent pixels surrounding the pixel of interest.
The color noise reduction degree calculated by the color noise reduction degree calculating means is the number of pixels actually referred to in the smoothing process among the pixels constituting the reference area, and all the pixels constituting the reference area. The image processing apparatus according to any one of claims 1 to 7 , wherein the ratio is obtained by dividing by a number.
前記入力画像データはRGBの色成分を持つ画像データであり、
前記補正手段は、前記注目画素の色信号の値を、式(1)〜式(3)を用いて色成分毎に補正し、
Figure 0006891014
Figure 0006891014
Figure 0006891014
前記式(1)〜(3)において、R[i]とG[i]とB[i]は前記注目画素に対する前記参照領域内で式(4)を満たす画素を表し、Mは前記注目画素に対する前記参照領域において式(4)を満たす画素数を表し、
diff <=Th r ∧G diff <=Th g ∧B diff <=Th b ・・・式(4)
前記式(4)において、∧は論理積(AND)を表し、ThrはR信号に対する閾値、ThgはG信号に対する閾値、ThbはB信号に対する閾値をそれぞれ表し、Rdiff、Gdiff、Bdiffは前記参照領域内の各画素値と比較する画素値との差を表す、
ことを特徴とする請求項に記載の画像処理装置。
The input image data is image data having RGB color components, and is
The correction means corrects the value of the color signal of the pixel of interest for each color component using equations (1) to (3).
Figure 0006891014
Figure 0006891014
Figure 0006891014
In the equations (1) to (3), R [i], G [i], and B [i] represent pixels satisfying the equation (4) in the reference region with respect to the pixel of interest, and M is the pixel of interest. Represents the number of pixels satisfying the equation (4) in the reference area with respect to.
R diff <= Th r ∧G diff <= Th g ∧B diff <= Th b ··· formula (4)
In the formula (4), ∧ represents the logical product (AND), Th r represents the threshold for the R signal, Th g is a threshold for the G signal, Th b is a threshold value for B signals, respectively, R diff, G diff, B diff represents the difference between each pixel value in the reference region and the pixel value to be compared.
The image processing apparatus according to claim 8.
入力画像データに対し縮小処理を行って、解像度を低くした複数の階層の縮小画像データを生成するステップと、
前記入力画像データ及び前記縮小画像データにおける注目画素の画素値を、色ノイズが低減された値に補正するステップと、
前記補正が施された画像データのうち、最も解像度が低い縮小画像データを除く画像データに対し、他の階層の画像データとの合成比率を導出するステップと、
前記補正が施された各画像データのうち、最も解像度が低い縮小画像データを除く画像データに対し、前記補正による色ノイズ低減度を画素毎に算出するステップと、
前記合成比率と前記色ノイズ低減度とに基づいて、前記補正が施された画像データのうち注目する画像データとその一つ下の階層の画像データとを合成するステップと、
を有し、
前記合成するステップは、
画像データを拡大するステップと、
前記注目する画像データの注目画素の色差信号と、その一つ下の階層の画像データであって前記拡大するステップにて当該注目する画像データと同じ解像度に拡大された画像データの注目画素の色差信号との色の類似性を判定するステップと、
前記注目する画像データとその一つ下の階層の画像データとを合成する際に、前記色ノイズ低減度が所定の閾値より小さく、かつ、前記色の類似性を判定するステップで色が類似すると判定された場合に優先的に前記一つ下の階層の画像データを使用する判定し、優先的に前記一つ下の階層の画像データを使用すると判定した場合に、当該一つ下の階層の画像データの重みを大きくするように前記合成比率を変更するステップと、
前記注目する画像データの画素値と、その一つ下の階層の画像データであって前記拡大するステップにて前記注目する画像データと同じ解像度に拡大された画像データの画素値とを、前記合成比率に基づいて合成するステップと、
を含むことを特徴とする画像処理方法。
A step of performing reduction processing on the input image data to generate reduced image data of a plurality of layers with reduced resolution, and
A step of correcting the pixel value of the pixel of interest in the input image data and the reduced image data to a value with reduced color noise.
Among the corrected image data, the step of deriving the composition ratio of the image data excluding the reduced image data having the lowest resolution with the image data of other layers, and
A step of calculating the degree of color noise reduction by the correction for each pixel for the image data excluding the reduced image data having the lowest resolution among the corrected image data.
A step of synthesizing the image data of interest and the image data of the next lower layer of the corrected image data based on the composition ratio and the color noise reduction degree, and a step of synthesizing the image data.
Have,
The step of synthesizing is
Steps to enlarge the image data and
The color difference signal of the pixel of interest of the image data of interest and the color difference of the pixel of interest of the image data one layer below it and expanded to the same resolution as the image data of interest in the expanding step. Steps to determine color similarity to the signal,
When the image data of interest and the image data of the next lower layer are combined, the degree of color noise reduction is smaller than a predetermined threshold value, and the colors are similar in the step of determining the similarity of the colors. If it is determined determines to use the image data of preferentially said one of a hierarchy, when determining to use the image data of preferentially said one of a hierarchy, the hierarchy under the one The step of changing the composition ratio so as to increase the weight of the image data of
The pixel value of the image data of interest and the pixel value of the image data one layer below the image data expanded to the same resolution as the image data of interest in the enlargement step are combined. Steps to synthesize based on ratio and
An image processing method comprising.
コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing device according to any one of claims 1 to 9.
JP2017055933A 2017-03-22 2017-03-22 Image processing device, image processing method, and program Active JP6891014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017055933A JP6891014B2 (en) 2017-03-22 2017-03-22 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055933A JP6891014B2 (en) 2017-03-22 2017-03-22 Image processing device, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2018160026A JP2018160026A (en) 2018-10-11
JP2018160026A5 JP2018160026A5 (en) 2020-02-13
JP6891014B2 true JP6891014B2 (en) 2021-06-18

Family

ID=63795667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055933A Active JP6891014B2 (en) 2017-03-22 2017-03-22 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6891014B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5035585B2 (en) * 2005-04-27 2012-09-26 ソニー株式会社 Image processing apparatus and method, and program
JP4934839B2 (en) * 2008-02-19 2012-05-23 オリンパス株式会社 Image processing apparatus, method thereof, and program
JP5430379B2 (en) * 2009-02-03 2014-02-26 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP5677040B2 (en) * 2010-11-08 2015-02-25 キヤノン株式会社 Image processing apparatus and control method thereof
JP2014021928A (en) * 2012-07-23 2014-02-03 Canon Inc Image processor, image processing method and program
JP6525700B2 (en) * 2015-04-14 2019-06-05 キヤノン株式会社 Image processing apparatus, image processing method and program

Also Published As

Publication number Publication date
JP2018160026A (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP4840740B2 (en) Pixel interpolation method and image determination method
JP4352371B2 (en) Digital image processing method implementing adaptive mosaic reduction method
JP5677040B2 (en) Image processing apparatus and control method thereof
JP5574615B2 (en) Image processing apparatus, control method thereof, and program
JP2006221403A (en) Image processor, image processing method, program for image processing method, and recording medium recording program for image processing method
JP2011107702A (en) Image processing system of input image, image display system, and image processing method
JP2003274157A (en) Image processor, image processing method, image processing program, and computer readable recording medium with image processing program recorded
US8094213B2 (en) Image processing apparatus, image processing method, and program in which an original image is modified with respect to a desired reference point set on a screen
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
JP2010034964A (en) Image composition apparatus, image composition method and image composition program
JP5076186B2 (en) Image enlargement method
US20020067864A1 (en) Image processing device and image processing method
JP6957665B2 (en) Image processing equipment, image processing methods and programs
WO2010099048A2 (en) Method and apparatus for spatial noise adaptive filtering for digital image and video capture systems
JP2020145553A (en) Image processing apparatus, image processing method and program
JP6525700B2 (en) Image processing apparatus, image processing method and program
US8478063B2 (en) Image processing apparatus and image processing method
JP6891014B2 (en) Image processing device, image processing method, and program
JP4992379B2 (en) Image gradation conversion apparatus, program, electronic camera, and method thereof
JP6808551B2 (en) Image processing device, image processing method, and program
KR102470242B1 (en) Image processing device, image processing method and program
JP4708866B2 (en) Lookup table creation device and method, and lookup table creation program
WO2014034242A1 (en) Image processing device, and method and program for image processing
JP3491830B2 (en) Image processing apparatus and image processing method
JP4345027B2 (en) Image processing program and image processing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210526

R151 Written notification of patent or utility model registration

Ref document number: 6891014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151