WO2014133010A1 - 画像処理方法、及び画像処理装置 - Google Patents

画像処理方法、及び画像処理装置 Download PDF

Info

Publication number
WO2014133010A1
WO2014133010A1 PCT/JP2014/054704 JP2014054704W WO2014133010A1 WO 2014133010 A1 WO2014133010 A1 WO 2014133010A1 JP 2014054704 W JP2014054704 W JP 2014054704W WO 2014133010 A1 WO2014133010 A1 WO 2014133010A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
pixel
correction
layer
area
Prior art date
Application number
PCT/JP2014/054704
Other languages
English (en)
French (fr)
Inventor
健太 先崎
塚田 正人
裕明 河口
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2015502957A priority Critical patent/JP6213558B2/ja
Priority to US14/762,889 priority patent/US9542617B2/en
Priority to CN201480010971.2A priority patent/CN105027161B/zh
Publication of WO2014133010A1 publication Critical patent/WO2014133010A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to an image processing method and an image processing apparatus.
  • a technique for reducing random noise included in an image is an indispensable technique for reproducing a captured image more clearly.
  • a technique for reducing random noise for example, there is a technique disclosed in Patent Document 1.
  • Patent Document 1 is a plurality of arithmetic circuits that calculate a moving average pixel number n based on a predetermined formula for an arbitrary pixel of interest i in the main scanning direction of a color digital signal output from an input image processing circuit.
  • a plurality of bit selection circuits that selectively output the target pixel i and the reference pixel j of the preceding and following n pixels, and a plurality of absolute values of differences between the output level of the target pixel i and each output level of the reference pixel j
  • the circuit includes a plurality of arithmetic circuits that perform moving average processing of output signals output from the plurality of determination circuits.
  • the reference pixel j is added to the moving averaging process only when the absolute value of the difference between the output level of the target pixel i and the output level of the reference pixel j is equal to or less than the threshold value, A portion where the absolute value of the difference changes steeply beyond a threshold value is excluded from the moving averaging process, and thereby noise components can be effectively removed.
  • Patent Document 1 cannot remove low-frequency noise having periodicity equal to or greater than the smoothing filter size.
  • the present invention has been invented in view of the above problems, and its object is to perform image processing that can effectively remove noise in a low-brightness region in an image while preserving edge components and texture components in the image.
  • the present invention obtains a pixel statistical value and edge information of a pixel for each multi-hierarchy region that includes a target pixel and whose range is sequentially narrowed, and has a pixel statistic of the target hierarchy region and a region of a layer wider than the target hierarchy region
  • the pixel information of the region of the target layer is corrected using the edge information, and the difference information after correction and the pixel statistical value of the region wider than the region of the target layer are corrected.
  • a statistical value is corrected, and a pixel statistical value of a region having an area larger than a region of each layer, a pixel statistical value of the target layer region before correction, and a pixel statistical value of the target layer region after correction
  • the pixel statistic value of the attention layer area after correction is re-corrected, and the pixel statistic value of the attention layer area is sequentially changed in each layer until it reaches the minimum range area.
  • the present invention includes a pixel statistic value calculation unit that calculates a pixel statistic value of a pixel in a multi-hierarchy region that includes a target pixel and whose range is sequentially narrowed, and a multi-layer region that includes the target pixel and whose range is sequentially narrowed.
  • Edge information calculation means for calculating edge information for each area of the hierarchy, difference information between the pixel statistical value of the area of the target hierarchy and the pixel statistical value of the area of the area higher than the area of the target hierarchy, and the edge information Correction means for correcting pixel statistic values in the region of interest layer using the difference information after correction and pixel statistic values in a region wider than the region of interest layer, and more than regions in each layer And the difference information between the pixel statistic value of the region of the target layer before correction and the pixel statistic value of the region of the target layer after correction
  • the pixel statistics of the area of interest and the corrected Re-correction means for re-correcting the difference information of the pixel statistic value of the region of the target hierarchy, and sequentially calculating the pixel statistic value of the region of the target layer in each layer until it reaches the region of the minimum range from the maximum range.
  • FIG. 1 is a diagram for explaining an image processing method according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of the Func function.
  • FIG. 3 is a diagram showing a setting example of the parameter a in a wide area.
  • FIG. 4 is a diagram for explaining an example of the shape of the re-correction function in the present embodiment.
  • FIG. 5 is a diagram for explaining an example of the shape of the re-correction function in the present embodiment.
  • FIG. 6 is a diagram for explaining an example of the shape of the re-correction function in the present embodiment.
  • FIG. 7 is a block diagram of the image processing apparatus according to the present embodiment.
  • FIG. 8 is a block diagram of the image processing apparatus according to the present embodiment.
  • FIG. 1 is a diagram for explaining an image processing method according to an embodiment of the present invention.
  • FIG. 1 shows the flow of processing when multi-resolution processing of three layers is performed, the present invention can be applied to two layers and can be easily expanded to four or more layers.
  • FIG. 1 is a diagram for explaining an image processing method according to an embodiment of the present invention.
  • a spatial average value L3 (x, y) that is a pixel statistical value of a space in a wide area centered on a pixel position (x, y) (a pixel of interest), and edge information in that area
  • the spatial average value (L2 (x, y)) in the middle region is corrected using the edge amount E3 (x, y).
  • the pixel statistical value is a spatial average value of the target region
  • the spatial average value is an arithmetic average value, a geometric average value, a weighted average value, or the like of pixels existing in the region.
  • the edge amount or edge information is defined by a difference value of a statistical amount (average value, median, etc.) of pixels between the upper, lower, left and right regions around the target pixel (input pixel).
  • the edge amount is the difference between the spatial average values will be described as in the case of the pixel statistical value.
  • the processing in each layer in FIG. 1 is the same in the flow of processing except only the parameters for determining the correction amount. Therefore, as an example, the spatial average value L2 (x, y) in the middle region is corrected using the spatial average value L3 (x, y) in the wide region and the edge amount E3 (x, y) in the region. Details of the processing will be described.
  • the spatial average value L3 (x, y) of the wide area (range: -k3 to k3) and the spatial average value L2 (x, y) of the middle area (range: -k2 to k2) at the pixel position (x, y) ) Is calculated as in equations (1) and (2).
  • the wide area and the middle area are designated by the same number of pixels in the vertical and horizontal directions at k3 and k2, respectively.
  • the edge amount E3 (x, y) in the wide area is calculated.
  • the vertical edge amount EV3 (x, y) and the horizontal edge amount EH3 (x, y) are calculated as shown in Equations (3) and (4), and these are calculated.
  • the edge amount E3 (x, y) in the wide area is calculated by the same number of pixels in the vertical and horizontal directions at k3, but it does not necessarily have to be the same number of pixels in the vertical and horizontal directions.
  • the edge amounts in the horizontal direction and the vertical direction are mentioned, the edge amounts in the oblique direction may be calculated and used.
  • the spatial average value L3 (x, y) in the wide area is calculated as in Expression (6). Correction is performed, and the corrected spatial average value L3 ′ (x, y) of the wide area is calculated.
  • the composite weight ⁇ 3 (x, y) is calculated as shown in Expression (7) using preset threshold values hi3 and lo3.
  • Hi3 is a threshold value for regarding the middle region as an edge
  • lo3 is a threshold value for regarding the middle region as flat
  • the spatial average value L2 (x, y) of the middle region is corrected as in Expression (8).
  • the correction function Func the one shown in FIG. 2 is used.
  • the correction of the spatial average value L2 (x, y) in the middle region at the pixel position (x, y) is performed by setting the difference to (L2 (x, y) ⁇ L3 ′ (x, y)) and correcting in FIG. This is executed by adding the correction amount diffout obtained by the function to L2 (x, y).
  • the parameters a, b, and limit in the correction function in FIG. 2 are determined for each resolution to be processed and each color component to be corrected.
  • the edge amount E3 (x, y) calculated by Expression (5) in each layer is reflected in the Func function (correction function) that suppresses the noise component, and the Func function (correction function) in each layer is changed.
  • the edge amount E3 (x, y) calculated by Expression (5) in each layer is reflected in the Func function (correction function) that suppresses the noise component, and the Func function (correction function) in each layer is changed.
  • a coefficient ⁇ 3 (x, y) whose value changes as shown in Expression (9) according to the edge amount E3 (x, y) is defined.
  • Hi3 and lo3, which are threshold values for E3 (x, y), are preset values.
  • hi3 is a threshold value that regards the middle region as an edge
  • lo3 is a threshold value that regards the middle region as flat.
  • the coefficient ⁇ 3 (x, y) defined by Equation (9) is a real number from 0.0 to 1.0.
  • the parameter a in the Func function is set as in the following equation (10).
  • a_lo3 is a value used as the parameter a when the edge amount E3 (x, y) is smaller than the threshold lo3
  • a_hi3 is a value used for the parameter a when the edge amount is larger than the threshold hi3.
  • the parameter a is a value between a_hi3 and a_lo3 when the edge amount E3 (x, y) is the threshold value lo3 to hi3.
  • the spatial average value L2 (x, y) of the middle region is corrected as shown in Equation (11). In this way, the correction is performed using the expressions (1) to (8) or using the expressions (1) to (5) and the expressions (9) to (11).
  • the spatial average value L2 ′ (x, y) in the region is obtained.
  • the signal is extracted, and the extracted signal is combined with L2 ′ (x, y) to obtain the spatially corrected value L2 ′′ (x, y) in the re-corrected middle region.
  • L4 a pixel statistic value of a space having a width equal to or larger than a wide area in the formula (13)
  • L4 an area having a width greater than or equal to the wide area
  • k4> k3.
  • threshold values l hi and l lo and the parameters ⁇ 1 and ⁇ 2 in the equation (13) may or may not be changed in each layer.
  • Equation (21) reduces the final correction amount by reducing the value of ⁇ . Loss of resolution can be prevented.
  • the target pixel is included in the dark area (L4 (x, y) ⁇ l lo )
  • increasing the value of ⁇ keeps the final correction amount large and removes noise in the dark area. Maintain performance.
  • the value of ⁇ is adjusted in proportion to the brightness of the target region, thereby maintaining a balance between the sense of resolution and noise removal.
  • threshold values l hi , l lo , and parameters ⁇ 1, ⁇ 2 may be changed at each layer, as shown in equations (15), (16), and (17). May be.
  • ⁇ ′ is not limited to the equation (21), and can be replaced in the same manner as the equations (16) and (17) with respect to the equation (15).
  • the re-correction amount in noise suppression is controlled using the spatial average value, which is a pixel statistical value of a space having a width larger than a wide area.
  • FIG. 7 is a block diagram of the image processing apparatus according to the embodiment of the present invention.
  • the first embodiment uses a method of obtaining a correction value using Equations (1) to (8), Equations (1) to (5), and Equations (9) to (11). There is a method to obtain a correction value.
  • FIG. 7 shows an image processing apparatus in the case where correction values are obtained using equations (1) to (8).
  • the image processing apparatus of the present embodiment shown in FIG. 7 includes an area pixel value extraction unit 1, a spatial average value calculation unit 2, a correction unit 3, a re-correction unit 4, an output image control unit 5, and edge information. And a calculation unit 6.
  • the region pixel value extraction unit 1 performs pixel values of pixels in a wide region centered on a pixel position (x, y) (target pixel), pixel values of pixels in a middle region, and pixels of pixels in a narrow region
  • a spatial average value calculating unit 2 that extracts a value, a pixel value of a pixel in an area greater than or equal to a wide area, and a pixel value of an input pixel value P in (x, y) (target pixel) at each timing; Output to the edge information calculation unit 6.
  • the spatial average value calculation unit 2 receives the pixel value of each region from the region pixel value extraction unit 1, and calculates the spatial average value of the region. Then, the calculated spatial average values of the wide area, the medium area, and the narrow area are output to the correction unit 3 and the re-correction unit 4. The spatial average value of the area over the wide area is output only to the re-correction unit 4.
  • the edge information calculation unit 6 calculates the edge amount E3 (x, y) in the wide region based on the pixel values of the pixels existing in the wide region from the region pixel value extraction unit 1. For the calculation of the edge amount, the vertical edge amount EV3 (x, y) and the horizontal edge amount EH3 (x, y) are calculated as shown in Equation (3) and Equation (4), and these are calculated using Equation (3). By adding as in (5), the edge amount E3 (x, y) in the wide area is calculated. Similarly, the edge amount E2 (x, y) of the middle region and the edge amount E1 (x, y) of the narrow region are calculated. Note that although the edge amounts in the horizontal direction and the vertical direction are mentioned, the edge amounts in the oblique direction may be calculated and used.
  • the correction unit 3 uses the combined weight ⁇ 3 (x, y) obtained from the edge amount E3 (x, y) calculated by the edge information calculation unit 6 to obtain a spatial average value in a wide area as shown in Equation (6).
  • L3 (x, y) is corrected, and the corrected spatial average value L3 ′ (x, y) of the wide area is calculated.
  • the composite weight ⁇ 3 (x, y) is calculated as shown in Expression (7) using preset thresholds hi3 and lo3.
  • the spatial average value L2 (x, y) of the middle region is corrected as shown in Equation (8), and the corrected spatial average value L2 ′ (x, y) is calculated. obtain. Similar correction is performed on the spatial average value L1 (x, y) and the input pixel value P in (x, y).
  • the recorrection unit 4 calculates a difference value between the spatial average value L2 (x, y) before correction and the corrected spatial average value L2 ′ (x, y), and the wide average calculated by the spatial average value calculation unit 2 is calculated. Based on the spatial average value L4 (x, y) of the region above the region, L2 ′ (x, y) is recorrected as shown in Equation (18), and the recorrected spatial average value L2 ′′ (x, y Similar re-correction is performed on the corrected spatial average value L1 ′ (x, y) and the corrected input pixel value P in ′ (x, y).
  • the output image control unit 5 instructs the region pixel value extraction unit 1 to extract the pixel values of the pixels in the region of the next layer each time the sequentially corrected spatial average value is input. Each time the re-corrected spatial average value is input, the value is fed back to the correction unit 3.
  • FIG. 8 shows an image processing apparatus according to an embodiment of the present invention in the case where correction values are obtained using Expressions (1) to (5) and Expressions (9) to (11).
  • the image processing apparatus includes an area pixel value extraction unit 1, a spatial average value calculation unit 2, a correction unit 3, a re-correction unit 4, an output image control unit 5, An edge information calculation unit 6 and a correction function determination unit 7 are provided.
  • the region pixel value extraction unit 1, the spatial average value calculation unit 2, the re-correction unit 4, the output image control unit 5, and the edge information calculation unit 6 perform the same operations as the image processing apparatus of the first embodiment shown in FIG. .
  • the correction function determination unit 7 calculates a parameter a in the Func function (correction function) as shown in equations (9) and (10), and Determine the Func function (correction function).
  • the correction unit 3 corrects the spatial average value of each layer using the Func function (correction function) of each layer determined by the correction function determination unit 7.
  • an edge in an image is controlled by controlling a recorrection amount in noise suppression based on a pixel statistical value of an area having a width larger than the area of each layer. While preserving components and texture components, it is possible to effectively remove noise in a low-brightness area in an image where noise is conspicuous.
  • the image processing apparatus described in the above embodiments and claims receives a camera used to shoot still images and moving images, a video device used to edit still images or moving image data, and still images or moving image data.
  • a video display device for display is included and can be applied to these devices.
  • each unit can be configured by hardware, but can also be realized by a computer program.
  • functions and operations similar to those of the above-described embodiments are realized by a processor that operates according to a program stored in the program memory.
  • only some functions of the above-described embodiments can be realized by a computer program.
  • the difference information is calculated using a pixel statistic value of a region of the target layer, a pixel statistic value of a region of a layer wider than the region of the target layer, and edge information in a region of a layer wider than the region of the target layer.
  • Appendix 9 The image processing method according to any one of appendix 1 to appendix 8, wherein the pixel statistical value uses a spatial average value of pixels.
  • Appendix 10 The image processing method according to appendix 9, wherein the spatial average value is any one of an arithmetic average value, a geometric average value, and a weighted average value of pixels.
  • Pixel statistical value calculation means for calculating a pixel statistical value of a pixel in the area for each of the multi-hierarchy areas including the target pixel and the range is sequentially narrowed; Edge information calculation means for calculating edge information for each multi-layer region including the target pixel and having a range that is sequentially narrowed; The difference information between the pixel statistic value of the region of interest layer and the pixel statistic value of the region of the layer wider than the region of interest layer is corrected using the edge information, and the difference information after correction and the difference information of the attention layer Correction means for correcting the pixel statistic value of the region of the target hierarchy using the pixel statistic value of the region wider than the region; Using the pixel statistic value of an area having an area larger than the area of each hierarchy, and the difference information between the pixel statistic value of the area of the target hierarchy before correction and the pixel statistic value of the area of the target hierarchy after correction Re-correction means for re-correcting the difference information between the pixel statistic value of the region of interest layer before
  • the recorrection means includes When the target pixel is included in the high luminance area, the correction amount is reduced, When the target pixel is included in the low luminance area, the correction amount is increased, When the pixel of interest is included in a region that is neither a high-luminance region nor a low-luminance region, the correction amount according to the average luminance information around the pixel of interest The image processing apparatus according to appendix 11, which performs correction.
  • the correction means uses the pixel statistic value of the region of interest layer, the pixel statistic value of the region of layer wider than the region of attention layer, and the edge information in the region of layer wider than the region of attention layer, The image processing apparatus according to attachment 11 or 12, wherein the difference information is calculated.
  • the correction means uses the difference information after correction and the pixel statistic value of a region wider than the region of interest layer to correct the pixel statistic value of the region of interest layer for each layer.
  • the image processing apparatus according to any one of appendix 11 to appendix 14, wherein the image processing apparatus is changed to:
  • the correction unit corrects the pixel statistics of the region of the target layer using the corrected difference information and the pixel statistics of the region larger than the region of the target layer.
  • Appendix 19 The image processing device according to any one of appendix 11 to appendix 18, wherein the pixel statistical value uses a spatial average value of pixels.
  • Appendix 20 The image processing apparatus according to appendix 19, wherein the spatial average value is any one of an arithmetic average value, a geometric average value, and a weighted average value of pixels.
  • the recorrection process is: When the target pixel is included in the high luminance area, the correction amount is reduced, When the target pixel is included in the low luminance area, the correction amount is increased, When the pixel of interest is included in a region that is neither a high-luminance region nor a low-luminance region, the correction amount according to the average luminance information around the pixel of interest The program according to appendix 21.
  • the correction process uses the pixel statistic value of the region of interest layer, the pixel statistic value of the region of layer wider than the region of attention layer, and the edge information in the region of layer wider than the region of attention layer, The program according to supplementary note 21 or supplementary note 22 for calculating the difference information.
  • the correction processing uses the difference information after correction and the pixel statistical value of a region wider than the region of the target layer to correct the pixel statistical value of the region of the target layer.
  • the program according to any one of appendix 21 to appendix 24, which is changed to
  • the correction processing uses the difference information after correction and the pixel statistic value of a region wider than the region of interest layer to correct the pixel statistic value of the region of interest layer. 26.
  • the correction process uses the difference information after correction and the pixel statistic value of a region larger than the region of the target layer to correct the pixel statistic value of the region of the target layer.
  • 26 The program according to appendix 25, wherein the correction strength is changed according to the edge amount of a wide area.
  • Appendix 28 The correction process uses the difference information after correction and the pixel statistic value of a region wider than the region of the target layer to correct the pixel statistic value of the region of the target layer. 28.
  • Appendix 29 The program according to any one of appendix 21 to appendix 28, wherein the pixel statistical value uses a spatial average value of pixels.
  • Appendix 31 A recording medium storing the program according to any one of appendix 21 to appendix 30.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

本発明は、注目画素を含み、範囲が順次狭くなる多階層の領域毎に画素の画素統計値とエッジ情報とを求め、注目階層の領域の画素統計値と注目階層の領域より広い階層の領域の画素統計値との差分情報を、エッジ情報を用いて補正し、補正後の差分情報と、注目階層の領域より広い領域の画素統計値を用いて、注目階層の領域の画素統計値を補正し、各階層の領域以上の広さをもつ領域の画素統計値と、補正前の注目階層の領域の画素統計値と補正後の注目階層の領域の画素統計値との差分情報とを用いて、補正後の注目階層の領域の画素統計値を再補正し、最大範囲から最小範囲の領域になるまで、順次各階層において、注目階層の領域の画素統計値の補正と再補正を繰り返すことで、注目画素を補正する画像処理方法である。

Description

画像処理方法、及び画像処理装置
 本発明は、画像処理方法及び画像処理装置に関する。
 画像処理技術の中でも、画像に含まれるランダムなノイズを低減する技術は、撮像した画像をより鮮明に再現するためには、欠かせない技術である。ランダムノイズを低減する技術としては、例えば、特許文献1に開示された技術がある。
 特許文献1に記載された技術は、入力画像処理回路から出力されたカラーデジタル信号の主走査方向の任意の注目画素iについて、所定の数式に基づき移動平均画素数nを算出する複数の演算回路と、注目画素i及び前後n画素の参照画素jを選択出力する複数のビット選択回路と、注目画素iの出力レベルと参照画素jのそれぞれの出力レベルとの差分の絶対値を算出する複数の差分回路と、注目画素iを出力するとともに、複数の差分回路から出力される値と閾値記憶メモリ内の所定の閾値とを比較し、該比較結果に基づいて参照画素jを出力する複数の判定回路と、複数の判定回路から出力された出力信号の移動平均化処理を行う複数の演算回路とから構成される。
 すなわち、注目画素iの出力レベルと参照画素jの出力レベルとの差分の絶対値が閾値以下である場合にのみ、該参照画素jが移動平均化処理に加えられるような構成としているため、上記差分の絶対値が閾値以上に急峻に変化している部分については移動平均化処理から除外され、これにより、ノイズ成分を効果的に除去することができる。
特開2002-57900号公報
 しかしながら、特許文献1の技術は、平滑化のフィルタサイズ以上の周期性を有する低周波ノイズを除去することができなかった。
 特に、画像中のエッジ成分やテクスチャ成分を保存しつつ、画像中の低輝度領域のノイズを効果的に除去することができなかった。
 そこで、本発明は上記課題に鑑みて発明されたものであって、その目的は画像中のエッジ成分やテクスチャ成分を保存しつつ、画像中の低輝度領域のノイズを効果的に除去できる画像処理方法及び画像処理装置を提供することにある。
 本発明は、注目画素を含み、範囲が順次狭くなる多階層の領域毎に画素の画素統計値とエッジ情報とを求め、注目階層の領域の画素統計値と注目階層の領域より広い階層の領域の画素統計値との差分情報を、前記エッジ情報を用いて補正し、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値を用いて、前記注目階層の領域の画素統計値を補正し、各階層の領域以上の広さをもつ領域の画素統計値と、補正前の前記注目階層の領域の画素統計値と補正後の前記注目階層の領域の画素統計値との差分情報とを用いて、補正後の前記注目階層の領域の画素統計値を再補正し、最大範囲から最小範囲の領域になるまで、順次各階層において、前記注目階層の領域の画素統計値の補正と再補正を繰り返すことで、前記注目画素を補正する画像処理方法である。
 本発明は、注目画素を含み、範囲が順次狭くなる多階層の領域毎に、その領域の画素の画素統計値を算出する画素統計値算出手段と、注目画素を含み、範囲が順次狭くなる多階層の領域毎に、エッジ情報を算出するエッジ情報算出手段と、注目階層の領域の画素統計値と前記注目階層の領域より広い階層の領域の画素統計値との差分情報を、前記エッジ情報を用いて補正し、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値を用いて、前記注目階層の領域の画素統計値を補正する補正手段と、各階層の領域以上の広さをもつ領域の画素統計値と、補正前の前記注目階層の領域の画素統計値と補正後の前記注目階層の領域の画素統計値との差分情報とを用いて、補正前の前記注目階層の領域の画素統計値と、補正後の前記注目階層の領域の画素統計値の差分情報を再補正する再補正手段と、を有し、最大範囲から最小範囲の領域になるまで、順次各階層において、前記注目階層の領域の画素統計値の補正と再補正を繰り返す画像処理装置である。
 本発明によれば、画像中の低輝度領域のノイズを効果的に除去することができる。
図1は本発明の実施の形態である画像処理方法を説明するための図である。 図2はFunc関数の一例を示した図である。 図3は広領域におけるパラメータaの設定例を示す図である。 図4は本実施の形態における再補正関数の形状の一例を説明する為の図である。 図5は本実施の形態における再補正関数の形状の一例を説明する為の図である。 図6は本実施の形態における再補正関数の形状の一例を説明する為の図である。 図7は本実施の形態の画像処理装置のブロック図である。 図8は本実施の形態の画像処理装置のブロック図である。
 本発明の実施形態を説明する。
 図1は、本発明の実施の形態である画像処理方法を説明するための図である。尚、図1では、三階層の多重解像度処理を行う場合の処理の流れを示しているが、本発明は二階層にも対応できるし、四階層以上でも容易に拡張が可能である。
 図1は、本発明の実施の形態である画像処理方法を説明するための図である。
 本発明の実施の形態は、画素位置(x,y)(注目画素)を中心とする広領域における空間の画素統計値である空間平均値L3(x,y)、およびその領域でのエッジ情報、もしくはエッジ量E3(x,y)を用いて、中領域における空間平均値(L2(x,y))を補正する。さらに、L2(x,y)と、補正された中領域における空間平均値(L2’(x,y))の差分値R2(x,y)から、広領域以上の広さをもつ空間の画素統計値である空間平均値L4(x,y)に基づいて信号を抽出し、抽出した信号をL2’(x,y)に合成することで、L2(x,y)を再補正する。そして、再補正された中領域における空間平均値(L2”(x,y))、中領域でのエッジ量(E2(x,y))を用いて、狭領域の空間平均値(L1(x,y))を補正する。この補正を順番に処理していくことで、入力画素値Pin(x,y)を補正し、出力画素値Pout(x,y)を得ることを特徴とする。
 ここで、画素統計値とは、対象領域の空間平均値であり、空間平均値は領域に存在する画素の相加平均値や、相乗平均値、加重平均値などである。以下の説明では、画素統計値を空間平均値とし、空間平均値を領域に存在する画素の相加平均値である場合を説明する。また、エッジ量、もしくはエッジ情報とは、注目画素(入力画素)を中心とした上下左右の領域間の画素の統計量(平均値、メディアンなど)の差分値で定義されるものとする。以下の説明では、画素統計値と同様に、エッジ量を空間平均値の差分である場合を説明する。
 以下、具体的な処理の説明を行うが、図1における各階層での処理は、補正量を決定するためのパラメータが異なるのみで、処理の流れは同一である。そこで,一例として,広領域における空間平均値L3(x,y)、およびその領域でのエッジ量E3(x,y)を用いて、中領域における空間平均値L2(x,y)を補正する処理の詳細を説明する。
 まず、画素位置(x,y)における広領域(範囲:-k3~k3)の空間平均値L3(x,y)および中領域(範囲:-k2~k2)の空間平均値L2(x,y)を式(1)および式(2)のように計算する。ここで、広領域、中領域をそれぞれk3、k2にて縦横同じ画素数で範囲を指定しているが、必ずしも縦横同じ画素数でなくてもよい。
Figure JPOXMLDOC01-appb-I000001
Figure JPOXMLDOC01-appb-I000002
 次に、広領域におけるエッジ量E3(x,y)を算出する。エッジ量の算出では,まず、縦方向のエッジ量EV3(x,y)と横方向のエッジ量EH3(x,y)とを、式(3)および式(4)のように算出し、これらを式(5)のように加算することで、広領域におけるエッジ量E3(x,y)を算出する。ここで、広領域をk3にて縦横同じ画素数で範囲を指定しているが、必ずしも縦横同じ画素数でなくてもよい。なお、横方向と縦方向のエッジ量について言及してあるが、斜め方向のエッジ量を算出し使用してもよい。
Figure JPOXMLDOC01-appb-I000003
Figure JPOXMLDOC01-appb-I000004
Figure JPOXMLDOC01-appb-I000005
 続いて、算出されたエッジ量E3(x,y)から算出される合成重みα3(x,y)を用いて、式(6)のように広領域における空間平均値L3(x,y)を補正し、補正された広領域の空間平均値L3’(x,y)を算出する。合成重みα3(x,y)は、あらかじめ設定されている閾値hi3およびlo3を用いて、式(7)のように算出される。
Figure JPOXMLDOC01-appb-I000006
Figure JPOXMLDOC01-appb-I000007
 なお、hi3は中領域をエッジとみなす閾値、lo3は中領域を平坦とみなす閾値であり、hi3>lo3である。
 こうして算出された空間平均値L3’を用い、式(8)のように中領域の空間平均値L2(x,y)を補正する。
Figure JPOXMLDOC01-appb-I000008
 補正関数Funcの一例として、図2に示したものを用いる。例えば、画素位置(x,y)における中領域の空間平均値L2(x,y)の補正は、diffinを(L2(x,y)-L3'(x,y))とし、図2の補正関数によって得られる補正量diffoutをL2(x,y)に加算することで、実行される。図2の補正関数内のパラメータであるa,b,limitは、処理する解像度および補正する色成分毎に決定される。
 また、各階層において式(5)で算出されるエッジ量E3(x,y)を、ノイズ成分を抑制するFunc関数(補正関数)に反映させ、各階層のFunc関数(補正関数)を変更することで、各階層のノイズ成分を適応的に抑制する構成もできる。
 いま、エッジ量E3(x,y)に応じて式(9)に示すように値が変化する係数β3(x,y)を定義する。E3(x, y)の閾値であるhi3およびlo3は予め設定する値であり、式(7)の場合と同様に、hi3は中領域をエッジとみなす閾値、lo3は中領域を平坦とみなす閾値であり、hi3>lo3である。
Figure JPOXMLDOC01-appb-I000009
 式(9)で定義される係数β3(x,y)は、0.0~1.0までの実数となる。係数β3(x,y)を利用して、以下の式(10)のように、Func関数におけるパラメータaを設定する。エッジ量E3(x,y)とパラメータaの関係を図3に示す。
Figure JPOXMLDOC01-appb-I000010
 ここで、a_lo3は、エッジ量E3(x,y)が閾値lo3より小さい場合にパラメータaとして使用する値であり、a_hi3はエッジ量が閾値hi3より大きくなる場合のパラメータaに使用する値である。エッジ量E3(x,y)が閾値lo3からhi3までパラメータaは、a_hi3からa_lo3までの間の値となる。ここで、a_hi3は0以上の実数であり、a_lo3は,a_lo3>=a_hi3の実数である。
 こうして得られたFunc関数を用い、中領域の空間平均値L2(x,y)を式(11)のように補正する。
Figure JPOXMLDOC01-appb-I000011
 このようにして、式(1)から式(8)までを用いて、あるいは、式(1)から式(5)、および式(9)から式(11)までを用いて、補正された中領域における空間平均値L2’(x,y)を得る。
 続いて、式(12)に示すように、中領域における空間平均値L2(x,y)と、補正された中領域における空間平均値(L2’(x,y))の差分値R2(x,y)を求める。すなわち、R2(x,y)はL2(x,y)に対する補正量を表す。さらに、式(13)に示すように、R2(x,y)から、広領域以上の広さをもつ空間の画素統計値である空間平均値L4(x,y)に基づく関数Fresidを用いて信号を抽出し、抽出した信号をL2’(x,y)に合成して、再補正された中領域における空間平均値L2”(x,y)を得る。
Figure JPOXMLDOC01-appb-I000012
Figure JPOXMLDOC01-appb-I000013
 式(13)における、広領域以上の広さをもつ空間の画素統計値である空間平均値L4(x,y)の一例(相加平均値)を以下の式(14)に示す。ここで、広領域以上の広さをもつ領域をk4にて縦横同じ画素数で範囲を指定しているが、必ずしも縦横同じ画素数でなくてもよい。
Figure JPOXMLDOC01-appb-I000014
 ここで、k4>=k3である。
 式(13)における関数Fresidの一例を以下の式(15)に示す。
Figure JPOXMLDOC01-appb-I000015
 α1<=α2であり、基本的には0.0<=α1<=α2<=1.0である。つまり、式(15)は、注目画素が高輝度領域に含まれるような場合(L4(x,y)>lhi)は、差分値R2(x,y)から高い割合で値を抽出することにより、最終的な補正量を小さくして解像度感の喪失を防ぐ。また、注目画素が暗部領域に含まれるような場合(L4(x,y)<llo)は、差分値R2(x,y)から低い割合で値を抽出することにより、最終的な補正量を大きく保って暗部領域でのノイズ除去性能を維持する。さらに、注目画素が高輝度領域でも暗部領域でもない領域に含まれる場合は、差分値R2(x,y)から対象領域の明るさに比例して値を抽出することで、解像度感とノイズ除去のバランスを保つ。式(15)において、関数Fresidの入力r=1の場合の、周辺平均輝度値lと関数Fresidの出力の関係を図4に示す。
 なお、式(13)における閾値lhi、llo、パラメータα1、α2は、各階層で変更してもよいし、そうでなくてもよい。
 また、関数Fresidは式(15)に限定されるものでなく、例えば、以下の式(16)や式(17)のような構成も可能である。
Figure JPOXMLDOC01-appb-I000016
Figure JPOXMLDOC01-appb-I000017
 式(16)、式(17)において、関数Fresidの入力r=1の場合の、周辺平均輝度値lと関数Fresidの出力の関係を図5および図6に示す。
 更に、式(13)を下記式(18)に置き換えることによっても、同様な効果を得ることができる。
Figure JPOXMLDOC01-appb-I000018
 ここで、関数Fresidは、式(19)又は式(20)となる。式(19)におけるsign関数は入力の符号を出力する関数であり、式(19)や式(20)におけるλ’は式(21)となる。
Figure JPOXMLDOC01-appb-I000019
 ここで、α1>α2であり、基本的にはα1>α2>=0.0である。また、λが大きいほどノイズ除去性能は高くなる。つまり、式(21)は、注目画素が高輝度領域に含まれるような場合(L4(x,y)>lhi)は、λの値を小さくすることにより、最終的な補正量を小さくして解像度感の喪失を防ぐことができる。また、注目画素が暗部領域に含まれるような場合(L4(x,y)<llo)は、λの値を大きくすることにより、最終的な補正量を大きく保って暗部領域でのノイズ除去性能を維持する。さらに、注目画素が高輝度領域でも暗部領域でもない領域に含まれる場合は、λの値を対象領域の明るさに比例して調整することで、解像度感とノイズ除去のバランスを保つ。
 なお、λ、閾値lhi、llo、パラメータα1、α2は式(15)、(16)、(17)に示されたものと同様に、各階層で変更してもよいし、そうでなくてもよい。
 λ’についても式(21)に限定されるものではなく、式(15)に対する式(16)および式(17)と同様に代替も可能である。
 このように、第1の実施形態では、広領域以上の広さをもつ空間の画素統計値である空間平均値を用いて、ノイズ抑制における再補正量の制御を行っている。実施の形態で述べた画像処理方法を用いることにより、画像中のエッジ成分やテクスチャ成分を保存しつつ、ノイズが目立ちやすい画像中の低輝度領域のノイズを効果的に除去できる。
 次に、本発明の実施の形態の画像処理装置を説明する。
 図7は本発明の実施の形態の画像処理装置のブロック図である。
 第1の実施形態は、式(1)から式(8)までを用いて補正値を得る方法と、式(1)から式(5)、および式(9)から式(11)までを用いて補正値を得る方法がある。
 図7は式(1)から式(8)までを用いて補正値を得る場合の画像処理装置である。
 図7に示す本実施の形態の画像処理装置は、領域画素値抽出部1と、空間平均値算出部2と、補正部3と、再補正部4と、出力画像制御部5と、エッジ情報算出部6とを備える。
 領域画素値抽出部1は、画素位置(x,y)(注目画素)を中心とする広領域にある画素の画素値と、中領域にある画素の画素値と、狭領域にある画素の画素値と、広領域以上の領域にある画素の画素値と、入力画素値Pin(x,y) (注目画素)の画素値とを、それぞれのタイミングで抽出して空間平均値算出部2とエッジ情報算出部6に出力する。
 空間平均値算出部2は、領域画素値抽出部1からの各領域の画素値を受信し、その領域の空間平均値を算出する。そして、算出された広領域、中領域、狭領域の空間平均値は、補正部3と再補正部4に出力される。広領域以上の領域の空間平均値は、再補正部4にのみ出力される。
 エッジ情報算出部6は、領域画素値抽出部1からの広領域に存在する画素の画素値に基づいて、広領域におけるエッジ量E3(x,y)を算出する。エッジ量の算出は、縦方向のエッジ量EV3(x,y)と横方向のエッジ量EH3(x,y)とを、式(3)および式(4)のように算出し、これらを式(5)のように加算することで、広領域におけるエッジ量E3(x,y)を算出する。同様に、中領域のエッジ量E2(x,y)、狭領域のエッジ量E1(x,y)を算出する。なお、横方向と縦方向のエッジ量について言及してあるが、斜め方向のエッジ量を算出し使用してもよい。
 補正部3は、エッジ情報算出部6により算出されたエッジ量E3 (x,y)から得られる合成重みα3 (x,y)を用いて、式(6)のように広領域における空間平均値L3(x,y)を補正し、補正された広領域の空間平均値L3’(x,y)を算出する。尚、合成重みα3 (x,y)は、あらかじめ設定されている閾値hi3およびlo3を用いて、式(7)のように算出される。
 更に、算出された空間平均値L3’を用い、式(8)のように中領域の空間平均値L2(x,y)を補正し、補正された空間平均値L2’(x,y)を得る。同様な補正を、空間平均値L1(x,y)、入力画素値Pin(x,y)にも行う。
 再補正部4は、補正前の空間平均値L2(x,y)と補正された空間平均値L2’(x,y)の差分値を計算し、空間平均値算出部2により算出された広領域以上の領域の空間平均値L4(x,y)に基づいて、式(18)のようにL2’(x,y)を再補正し、再補正された空間平均値L2”(x,y)を得る。同様な再補正を、補正された空間平均値L1’(x,y)、補正された入力画素値Pin’(x,y)にも行う。
 出力画像制御部5は、順次補正された空間平均値が入力される毎に、次階層の領域の画素の画素値を抽出するように領域画素値抽出部1に指示を出す。また、再補正された空間平均値が入力される毎に、補正部3にその値をフィードバックする。そして、1画素のPout(x,y)が入力されると、出力画素値としてPout(x,y)を出力する。
 次に、式(1)から式(5)、および式(9)から式(11)までを用いて補正値を得る場合の本発明の実施の形態の画像処理装置を図8に示す。
 図8に示す本発明の実施の形態の画像処理装置は、領域画素値抽出部1と、空間平均値算出部2と、補正部3と、再補正部4と、出力画像制御部5と、エッジ情報算出部6と、補正関数決定部7とを備える。
 領域画素値抽出部1、空間平均値算出部2、再補正部4、出力画像制御部5、エッジ情報算出部6は、図7に示す第1の実施形態の画像処理装置と同じ動作を行う。
 補正関数決定部7は、エッジ情報算出部6により算出されたエッジ量に基づいて、式(9)、(10)に示すようにFunc関数(補正関数)におけるパラメータaを算出し、各階層のFunc関数(補正関数)を決定する。
 補正部3は、補正関数決定部7で決定された各階層のFunc関数(補正関数)を用いて各階層の空間平均値を補正する。
 以上の如く、本発明の実施の形態によれば、各階層の領域以上の広さをもつ領域の画素統計値に基づいて、ノイズ抑制における再補正量の制御を行うことで、画像中のエッジ成分やテクスチャ成分を保存しつつ、ノイズが目立ちやすい画像中の低輝度領域のノイズを効果的に除去できる。
 尚、上述した実施の形態及び請求項に記載された画像処理装置は、静止画及び動画の撮影に用いられるカメラ、静止画又は動画データの編集に用いられる映像機器、静止画又は動画データを受信して表示する映像表示装置が少なくとも含まれ、それら機器に適用できる。
 また、上述した説明からも明らかなように、各部をハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。この場合、プログラムメモリに格納されているプログラムで動作するプロセッサによって、上述した各実施の形態と同様の機能、動作を実現させる。また、上述した実施の形態の一部の機能のみをコンピュータプログラムにより実現することも可能である。
 また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 注目画素を含み、範囲が順次狭くなる多階層の領域毎に画素の画素統計値とエッジ情報とを求め、
 注目階層の領域の画素統計値と注目階層の領域より広い階層の領域の画素統計値との差分情報を、前記エッジ情報を用いて補正し、
 補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値を用いて、注目階層の領域の画素統計値を補正し、
 各階層の領域以上の広さをもつ領域の画素統計値と、補正前の前記注目階層の領域の画素統計値と補正後の前記注目階層の領域の画素統計値との差分情報とを用いて、補正後の前記注目階層の領域の画素統計値を再補正し、
 最大範囲から最小範囲の領域になるまで、順次各階層において、前記注目階層の領域の画素統計値の補正と再補正を繰り返すことで、前記注目画素を補正する
画像処理方法。
 (付記2)
 前記再補正は、
 前記注目画素が高輝度領域に含まれる場合には補正量を小さくし、
 前記注目画素が低輝度領域に含まれる場合には補正量を大きくし、
 前記注目画素が高輝度領域でも低輝度領域でもない領域に含まれる場合には注目画素周辺の平均輝度情報に応じた補正量により、
補正を行う
付記1に記載の画像処理方法。
 (付記3)
 注目階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域におけるエッジ情報とを用いて、前記差分情報を算出する
付記1又は付記2に記載の画像処理方法。
 (付記4)
 前記注目階層の領域より広い階層の領域におけるエッジ情報が所定の閾値を超える場合、前記注目階層の画素統計値の補正を行わない
付記3に記載の画像処理方法。
 (付記5)
 補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、補正の強度を階層毎に変化させる
付記1から付記4のいずれかに記載の画像処理方法。
 (付記6)
 補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域のノイズによる画素値の変動量に応じて補正の強度を変化させる
付記5に記載の画像処理方法。
 (付記7)
 補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域より広い領域のエッジ量に応じて補正の強度を変化させる
付記5に記載の画像処理方法。
 (付記8)
 補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記差分情報がゼロに近づくほどゼロに近い値を出力し、前記差分情報が大きくなるほど補正を弱める補正を行う
付記1から付記7のいずれかに記載の画像処理方法。
 (付記9)
 前記画素統計値は、画素の空間平均値を用いる
付記1から付記8のいずれかに記載の画像処理方法。
 (付記10)
 前記空間平均値は、画素の相加平均値、相乗平均値、加重平均値のいずれかである
付記9に記載の画像処理方法。
 (付記11)
 注目画素を含み、範囲が順次狭くなる多階層の領域毎に、その領域の画素の画素統計値を算出する画素統計値算出手段と、
 注目画素を含み、範囲が順次狭くなる多階層の領域毎に、エッジ情報を算出するエッジ情報算出手段と、
 注目階層の領域の画素統計値と前記注目階層の領域より広い階層の領域の画素統計値との差分情報を、前記エッジ情報を用いて補正し、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値を用いて、前記注目階層の領域の画素統計値を補正する補正手段と、
 各階層の領域以上の広さをもつ領域の画素統計値と、補正前の前記注目階層の領域の画素統計値と補正後の前記注目階層の領域の画素統計値との差分情報とを用いて、補正前の前記注目階層の領域の画素統計値と、補正後の前記注目階層の領域の画素統計値の差分情報を再補正する再補正手段と、
を有し、
 最大範囲から最小範囲の領域になるまで、順次各階層において、前記注目階層の領域の画素統計値の補正と再補正を繰り返す
画像処理装置。
 (付記12)
 前記再補正手段は、
 前記注目画素が高輝度領域に含まれる場合には補正量を小さくし、
 前記注目画素が低輝度領域に含まれる場合には補正量を大きくし、
 前記注目画素が高輝度領域でも低輝度領域でもない領域に含まれる場合には注目画素周辺の平均輝度情報に応じた補正量により、
補正を行う
付記11に記載の画像処理装置。
 (付記13)
 前記補正手段は、前記注目階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域におけるエッジ情報とを用いて、前記差分情報を算出する
付記11又は付記12に記載の画像処理装置。
 (付記14)
 前記補正手段は、前記注目階層の領域より広い階層の領域におけるエッジ情報が所定の閾値を超える場合、前記注目階層の画素統計値の補正を行わない
付記13に記載の画像処理装置。
 (付記15)
 前記補正手段は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、補正の強度を階層毎に変化させる
付記11から付記14のいずれかに記載の画像処理装置。
 (付記16)
 前記補正手段は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域のノイズによる画素値の変動量に応じて補正の強度を変化させる
付記15に記載の画像処理装置。
 (付記17)
 前記補正手段は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域より広い領域のエッジ量に応じて補正の強度を変化させる
付記15に記載の画像処理装置。
 (付記18)
 前記補正手段は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記差分情報がゼロに近づくほどゼロに近い値を出力し、前記差分情報が大きくなるほど補正を弱める補正を行う
付記11から付記17のいずれかに記載の画像処理装置。
 (付記19)
 前記画素統計値は、画素の空間平均値を用いる
付記11から付記18のいずれかに記載の画像処理装置。
 (付記20)
 前記空間平均値は、画素の相加平均値、相乗平均値、加重平均値のいずれかである
付記19に記載の画像処理装置。
 (付記21)
 注目画素を含み、範囲が順次狭くなる多階層の領域毎に、その領域の画素の画素統計値を算出する画素統計値算出処理と、
 注目画素を含み、範囲が順次狭くなる多階層の領域毎に、エッジ情報を算出するエッジ情報算出処理と、
 注目階層の領域の画素統計値と前記注目階層の領域より広い階層の領域の画素統計値との差分情報を、前記エッジ情報を用いて補正し、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値を用いて、前記注目階層の領域の画素統計値を補正する補正処理と、
 各階層の領域以上の広さをもつ領域の画素統計値と、補正前の前記注目階層の領域の画素統計値と補正後の前記注目階層の領域の画素統計値との差分情報とを用いて、補正前の前記注目階層の領域の画素統計値と、補正後の前記注目階層の領域の画素統計値の差分情報を再補正する再補正処理と
をコンピュータに実行させ、
 最大範囲から最小範囲の領域になるまで、順次各階層において、前記注目階層の領域の画素統計値の補正処理と再補正処理とを繰り返す
プログラム。
 (付記22)
 前記再補正処理は、
 前記注目画素が高輝度領域に含まれる場合には補正量を小さくし、
 前記注目画素が低輝度領域に含まれる場合には補正量を大きくし、
 前記注目画素が高輝度領域でも低輝度領域でもない領域に含まれる場合には注目画素周辺の平均輝度情報に応じた補正量により、
付記21に記載のプログラム。
 (付記23)
 前記補正処理は、前記注目階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域におけるエッジ情報とを用いて、前記差分情報を算出する
付記21又は付記22に記載のプログラム。
 (付記24)
 前記補正処理は、前記注目階層の領域より広い階層の領域におけるエッジ情報が所定の閾値を超える場合、前記注目階層の画素統計値の補正を行わない
付記23に記載のプログラム。
 (付記25)
 前記補正処理は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、補正の強度を階層毎に変化させる
付記21から付記24のいずれかに記載のプログラム。
 (付記26)
 前記補正処理は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域のノイズによる画素値の変動量に応じて補正の強度を変化させる
付記25に記載のプログラム。
 (付記27)
 前記補正処理は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域より広い領域のエッジ量に応じて補正の強度を変化させる
付記25に記載のプログラム。
 (付記28)
 前記補正処理は、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記差分情報がゼロに近づくほどゼロに近い値を出力し、前記差分情報が大きくなるほど補正を弱める補正を行う
付記21から付記27のいずれかに記載のプログラム。
 (付記29)
 前記画素統計値は、画素の空間平均値を用いる
付記21から付記28のいずれかに記載のプログラム。
 (付記30)
 前記空間平均値は、画素の相加平均値、相乗平均値、加重平均値のいずれかである
付記29に記載のプログラム。
 (付記31)
 付記21から付記30のいずれかに記載のプログラムを格納した記録媒体。
 以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
 本出願は、2013年2月28日に出願された日本出願特願2013-038236号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1   領域画素値抽出部
2   空間平均値算出部
3   補正部
4   再補正部
5   出力画像制御部
6   エッジ情報算出部
7   補正関数決定部

Claims (10)

  1.  注目画素を含み、範囲が順次狭くなる多階層の領域毎に画素の画素統計値とエッジ情報とを求め、
     注目階層の領域の画素統計値と注目階層の領域より広い階層の領域の画素統計値との差分情報を、前記エッジ情報を用いて補正し、
     補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値を用いて、前記注目階層の領域の画素統計値を補正し、
     各階層の領域以上の広さをもつ領域の画素統計値と、補正前の前記注目階層の領域の画素統計値と補正後の前記注目階層の領域の画素統計値との差分情報とを用いて、補正後の前記注目階層の領域の画素統計値を再補正し、
     最大範囲から最小範囲の領域になるまで、順次各階層において、前記注目階層の領域の画素統計値の補正と再補正を繰り返すことで、前記注目画素を補正する
    画像処理方法。
  2.  前記再補正は、
     前記注目画素が高輝度領域に含まれる場合には補正量を小さくし、
     前記注目画素が低輝度領域に含まれる場合には補正量を大きくし、
     前記注目画素が高輝度領域でも低輝度領域でもない領域に含まれる場合には各階層の領域以上の広さをもつ領域の画素統計値に応じた補正量により、
    補正を行う
    請求項1に記載の画像処理方法。
  3.  前記注目階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域の画素統計値と、前記注目階層の領域より広い階層の領域におけるエッジ情報とを用いて、前記差分情報を算出する
    請求項1又は請求項2に記載の画像処理方法。
  4.  前記注目階層の領域より広い階層の領域におけるエッジ情報が所定の閾値を超える場合、前記注目階層の画素統計値の補正を行わない
    請求項3に記載の画像処理方法。
  5.  補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、補正の強度を階層毎に変化させる
    請求項1から請求項4のいずれかに記載の画像処理方法。
  6.  補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域のノイズによる画素値の変動量に応じて補正の強度を変化させる
    請求項5に記載の画像処理方法。
  7.  補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記注目階層の領域より広い領域のエッジ量に応じて補正の強度を変化させる
    請求項5に記載の画像処理方法。
  8.  補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値とを用いて、前記注目階層の領域の画素統計値を補正する際、前記差分情報がゼロに近づくほどゼロに近い値を出力し、前記差分情報が大きくなるほど補正を弱める補正を行う
    請求項1から請求項7のいずれかに記載の画像処理方法。
  9.  注目画素を含み、範囲が順次狭くなる多階層の領域毎に、その領域の画素の画素統計値を算出する画素統計値算出手段と、
     注目画素を含み、範囲が順次狭くなる多階層の領域毎に、エッジ情報を算出するエッジ情報算出手段と、
     注目階層の領域の画素統計値と前記注目階層の領域より広い階層の領域の画素統計値との差分情報を、前記エッジ情報を用いて補正し、補正後の前記差分情報と、前記注目階層の領域より広い領域の画素統計値を用いて、前記注目階層の領域の画素統計値を補正する補正手段と、
     各階層の領域以上の広さをもつ領域の画素統計値と、補正前の前記注目階層の領域の画素統計値と補正後の前記注目階層の領域の画素統計値との差分情報とを用いて、補正前の前記注目階層の領域の画素統計値と、補正後の前記注目階層の領域の画素統計値の差分情報を再補正する再補正手段と、
    を有し、
     最大範囲から最小範囲の領域になるまで、順次各階層において、前記注目階層の領域の画素統計値の補正と再補正を繰り返す
    画像処理装置。
  10.  前記再補正手段は、
     前記注目画素が高輝度領域に含まれる場合には補正量を小さくし、
     前記注目画素が低輝度領域に含まれる場合には補正量を大きくし、
     前記注目画素が高輝度領域でも低輝度領域でもない領域に含まれる場合には各階層の領域以上の広さをもつ領域の画素統計値に応じた補正量により、
    補正を行う
    請求項9に記載の画像処理装置。
PCT/JP2014/054704 2013-02-28 2014-02-26 画像処理方法、及び画像処理装置 WO2014133010A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015502957A JP6213558B2 (ja) 2013-02-28 2014-02-26 画像処理方法、及び画像処理装置
US14/762,889 US9542617B2 (en) 2013-02-28 2014-02-26 Image processing device and image processing method for correcting a pixel using a corrected pixel statistical value
CN201480010971.2A CN105027161B (zh) 2013-02-28 2014-02-26 图像处理方法和图像处理设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-038236 2013-02-28
JP2013038236 2013-02-28

Publications (1)

Publication Number Publication Date
WO2014133010A1 true WO2014133010A1 (ja) 2014-09-04

Family

ID=51428272

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054704 WO2014133010A1 (ja) 2013-02-28 2014-02-26 画像処理方法、及び画像処理装置

Country Status (4)

Country Link
US (1) US9542617B2 (ja)
JP (1) JP6213558B2 (ja)
CN (1) CN105027161B (ja)
WO (1) WO2014133010A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104254872B (zh) * 2012-04-26 2017-09-22 日本电气株式会社 图像处理方法和图像处理设备
JP6256704B2 (ja) * 2012-04-26 2018-01-10 日本電気株式会社 画像処理方法、及び画像処理装置
EP3236418B1 (en) * 2016-04-13 2020-10-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US10755387B2 (en) * 2018-08-09 2020-08-25 Dreamworks Animation Llc Firefly detection using a plurality of buffers
EP3881280B1 (en) * 2018-12-29 2023-09-13 Zhejiang Dahua Technology Co., Ltd. Methods and systems for image processing
CN115797198B (zh) * 2022-10-24 2023-05-23 北京华益精点生物技术有限公司 图像标记矫正方法及相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1075395A (ja) * 1995-09-29 1998-03-17 Fuji Photo Film Co Ltd 画像処理方法および装置
JP2003018403A (ja) * 2001-07-05 2003-01-17 Ricoh Co Ltd 画像処理装置
WO2006106919A1 (ja) * 2005-03-31 2006-10-12 Nikon Corporation 画像処理方法
WO2007114363A1 (ja) * 2006-03-31 2007-10-11 Nikon Corporation 画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3664231B2 (ja) 2000-08-09 2005-06-22 日本電気株式会社 カラー画像処理装置
KR100403601B1 (ko) * 2001-12-21 2003-10-30 삼성전자주식회사 영상의 윤곽선 보정 장치 및 방법
JP4042563B2 (ja) * 2002-12-27 2008-02-06 セイコーエプソン株式会社 画像ノイズの低減
EP2082566B1 (en) * 2006-10-18 2016-08-31 Robert Bosch GmbH Image processing system, method and computer program for contrast enhancement of images
US9299131B2 (en) * 2011-08-22 2016-03-29 Nec Corporation Noise reduction apparatus, noise reduction method, and computer-readable storage medium
WO2013161838A1 (ja) * 2012-04-26 2013-10-31 日本電気株式会社 画像処理方法、及び画像処理装置
CN104254872B (zh) * 2012-04-26 2017-09-22 日本电气株式会社 图像处理方法和图像处理设备
JP6256704B2 (ja) * 2012-04-26 2018-01-10 日本電気株式会社 画像処理方法、及び画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1075395A (ja) * 1995-09-29 1998-03-17 Fuji Photo Film Co Ltd 画像処理方法および装置
JP2003018403A (ja) * 2001-07-05 2003-01-17 Ricoh Co Ltd 画像処理装置
WO2006106919A1 (ja) * 2005-03-31 2006-10-12 Nikon Corporation 画像処理方法
WO2007114363A1 (ja) * 2006-03-31 2007-10-11 Nikon Corporation 画像処理方法

Also Published As

Publication number Publication date
JP6213558B2 (ja) 2017-10-18
CN105027161A (zh) 2015-11-04
US9542617B2 (en) 2017-01-10
JPWO2014133010A1 (ja) 2017-02-02
US20150363666A1 (en) 2015-12-17
CN105027161B (zh) 2017-10-20

Similar Documents

Publication Publication Date Title
JP6213558B2 (ja) 画像処理方法、及び画像処理装置
JP6097588B2 (ja) 画像処理装置及び画像処理方法
JP5948073B2 (ja) 画像信号処理装置、画像信号処理方法
JP5367667B2 (ja) 画像処理装置
JP6146574B2 (ja) ノイズ除去装置、ノイズ除去方法及びプログラム
JP6369150B2 (ja) アンチエイリアシングエッジを回復するフィルタリング方法及びフィルタリング装置
US9031350B2 (en) Method for processing edges in an image and image processing apparatus
WO2013161839A1 (ja) 画像処理方法、及び画像処理装置
JP6256703B2 (ja) 画像処理方法、及び画像処理装置
JP6256704B2 (ja) 画像処理方法、及び画像処理装置
JP7265316B2 (ja) 画像処理装置及び画像処理方法
JP5365878B2 (ja) フィルタ装置、フィルタリング方法
JP6957665B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6256680B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP6079962B2 (ja) 画像処理方法、及び画像処理装置
JP4913246B1 (ja) エッジ強調方法またはエッジ強調度演算方法
JP6843510B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4992438B2 (ja) 画像処理装置および画像処理プログラム
JP6808551B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP5201058B2 (ja) 輪郭強調処理プログラム、輪郭強調処理方法及び輪郭強調処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480010971.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14757506

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015502957

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14762889

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14757506

Country of ref document: EP

Kind code of ref document: A1