WO2014042155A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2014042155A1
WO2014042155A1 PCT/JP2013/074393 JP2013074393W WO2014042155A1 WO 2014042155 A1 WO2014042155 A1 WO 2014042155A1 JP 2013074393 W JP2013074393 W JP 2013074393W WO 2014042155 A1 WO2014042155 A1 WO 2014042155A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
frequency component
wavelet transform
unit
noise removal
Prior art date
Application number
PCT/JP2013/074393
Other languages
English (en)
French (fr)
Inventor
栄太 小林
竹中 崇
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP13838013.4A priority Critical patent/EP2897099A4/en
Priority to JP2014535553A priority patent/JPWO2014042155A1/ja
Priority to US14/426,860 priority patent/US9922401B2/en
Publication of WO2014042155A1 publication Critical patent/WO2014042155A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression

Definitions

  • the present invention relates to an image processing apparatus and an image processing method.
  • the present invention relates to an image processing apparatus and an image processing method for removing noise from an image signal.
  • Patent Document 1 discloses an image processing apparatus that suppresses edge blurring and phase shift due to coring processing while reducing noise by coring processing.
  • Patent Document 2 discloses an image processing apparatus that can reduce noise of an entire image including an edge peripheral portion while preventing the edge portion of the image from blurring.
  • Patent Document 3 discloses an image processing apparatus capable of removing noise while reducing edge blur caused by coring processing.
  • Patent Document 4 discloses an image processing apparatus that realizes an inexpensive noise removal circuit that significantly reduces the circuit scale while performing optimum noise reduction with respect to luminance and color difference, respectively.
  • Patent Document 5 discloses TV (Total Variation) noise removal.
  • TV noise removal is a technique that uses the color information of surrounding pixels and removes noise while retaining edge components.
  • noise removal processing is universal (not all noises can be removed).
  • low-frequency noise can be removed by multiresolution analysis in which wavelet transformation is executed a plurality of times.
  • edge of an image after noise removal due to wavelet degeneration is often unclear, or artifacts such as block noise often occur.
  • the TV noise removal can remove the noise while maintaining the edge by separating the image signal into the edge component and the texture component.
  • the edge component and the texture component there are cases where low-frequency noise that can be removed by wavelet degeneration cannot be removed, or information about texture is erased together with noise removal.
  • noise removal processing there are advantages and disadvantages to noise removal processing.
  • an input image is received, and the input image is frequency-converted into a first high frequency component including a first low frequency component and a frequency component higher than the first low frequency component.
  • a first frequency separation unit that separates the first low-frequency component into a second low-frequency component and a second high-frequency component that includes a higher frequency component than the second low-frequency component;
  • Two frequency separation units, and a first image conversion unit that performs noise removal processing on the second low frequency component and the second high frequency component, and outputs an image after noise removal as a first converted image
  • Image converted to second conversion image A second image conversion unit, an image processing apparatus including a is provided to output a.
  • an input image is received, and the input image is frequency-converted into a first high frequency component including a first low frequency component and a frequency component higher than the first low frequency component.
  • a first frequency separation step for separating, and a first low frequency component for separating the first low frequency component into a second high frequency component including a second low frequency component and a frequency component higher than the second low frequency component.
  • Two frequency separation steps a first image conversion step of outputting a first converted image by performing noise removal processing on the second low-frequency component and the second high-frequency component, and the first The second converted image is output by performing noise removal processing on the high-frequency component and the first converted image using less resources than the resources used in the first image converting step.
  • a second image conversion step No image processing method is provided.
  • FIG. 2 is a diagram illustrating an example of an internal configuration of an image processing apparatus 1.
  • FIG. It is a figure which shows an example of an internal structure of the image process part 20 shown in FIG.
  • FIG. It is a figure which shows an example of a structure of an input image.
  • FIG. 20a shows an example of an internal structure of the image process part 20a which concerns on 1st Embodiment.
  • an algorithm combining a plurality of noise removal processes becomes very complicated. In order to implement a complex algorithm, many resources are required. Therefore, an image processing apparatus that performs noise removal combining a plurality of noise removal while minimizing necessary resources is desired.
  • the image processing apparatus 100 shown in FIG. 1 is provided as an example.
  • the image processing apparatus 100 includes a first frequency separation unit 101, a second frequency separation unit 102, a first image conversion unit 103, and a second image conversion unit 104.
  • the first frequency separation unit 101 receives an input image, and frequency-separates the input image into a first high frequency component including a first low frequency component and a frequency component higher than the first low frequency component.
  • the second frequency separation unit 102 separates the first low frequency component into a second high frequency component including a second low frequency component and a frequency component higher than the second low frequency component.
  • the first image conversion unit 103 performs noise removal processing on the second low-frequency component and the second high-frequency component, and outputs the image after noise removal as a first converted image.
  • the second image conversion unit 104 assigns fewer resources than the resources allocated to the first image conversion unit 103 to the first high-frequency component and the first converted image, and performs noise removal processing.
  • the image after noise removal is output as a second converted image.
  • the first frequency separation unit 101 separates the input image into a low frequency component and a high frequency component.
  • the second frequency separation unit 102 receives the low frequency component separated by the first frequency separation unit 101, and further separates the low frequency component into a low frequency component and a high frequency component.
  • the first image conversion unit 103 performs noise removal processing using the low frequency component and the high frequency component output from the second frequency separation unit 102. More specifically, the first image conversion unit 103 performs noise removal processing using wavelet degeneration or the like.
  • the first converted image output from the first image conversion unit 103 is obtained by performing noise removal on the first low-frequency component. Therefore, an image reflecting noise removal performed by the first image conversion unit 103 can be reconstructed from the first high-frequency component and the first converted image. Further, the second image conversion unit 104 performs noise removal on the first high-frequency component and the first converted image. At this time, the noise removal performed by the first image conversion unit 103 and the second image conversion unit 104 need not be the same process.
  • the second image conversion unit 104 uses the first converted image reflecting the noise removal performed by the first image conversion unit 103. Therefore, the effect of noise removal in the first image conversion unit 103 has a large influence on the entire image (second converted image). On the other hand, the effect of noise removal performed by the second image conversion unit 104 does not affect other noise removal. Therefore, the influence of the noise removal effect performed by the second image conversion unit 104 on the entire image is small compared to the noise removal performed by the first image conversion unit 103. Therefore, the processing performed by the second image conversion unit 104 is simplified, and the resources required by the second image conversion unit 104 are reduced.
  • the first frequency separation unit includes a first wavelet transformation unit that performs wavelet transformation
  • the second frequency separation unit includes a second wavelet transformation unit that performs wavelet transformation. It is preferable.
  • the first image conversion unit includes a first wavelet degeneration unit and a first inverse wavelet conversion unit.
  • the first wavelet reduction unit compares the wavelet coefficient of the second high-frequency component with a first threshold value, and reduces a wavelet coefficient smaller than the first threshold value.
  • the first inverse wavelet transform unit reconstructs an image by performing inverse wavelet transform on the signal output from the first wavelet degeneration unit and the second low-frequency component.
  • the second image conversion unit includes a second wavelet degeneration unit and a second inverse wavelet conversion unit.
  • the second wavelet reduction unit compares the wavelet coefficient of the first high-frequency component with a second threshold value, and reduces a wavelet coefficient smaller than the second threshold value.
  • the second inverse wavelet transform unit reconstructs an image by performing inverse wavelet transform on the signal output from the second wavelet degeneration unit and the first transformed image.
  • the first wavelet transform unit, the first inverse wavelet transform unit, the second wavelet transform unit, and the second inverse wavelet transform unit store pixels in the scanning line direction of the input image.
  • each of the line buffers is provided.
  • the first line buffer provided in the first wavelet transform unit and the first inverse wavelet transform unit is a second line buffer provided in the second wavelet transform unit and the second inverse wavelet transform unit. It is preferable that the number of lines is smaller than that.
  • the first and / or second image conversion unit preferably includes an image correction unit that performs image correction on an image after noise removal.
  • FIG. 2 is a diagram illustrating an example of an image processing method.
  • the image processing method shown in FIG. 2 includes noise removal and image correction.
  • noise is removed from the input image signal by noise removal processing, and correction is performed on the image after noise removal, thereby mitigating the negative effects caused by noise removal. Improve image quality.
  • the noise removal process includes a discrete wavelet transform WT1, a wavelet degenerate WD1, an inverse discrete wavelet transform IWT1, and a second noise removal process NR1.
  • the discrete wavelet transform is denoted as “DWT”, the wavelet as “Wavelet”, and the inverse discrete wavelet transform as “IDWT”.
  • Discrete wavelet transform WT1 performs a discrete wavelet transform in the horizontal direction (scan line direction) and the vertical direction on the input image.
  • FIG. 3 is a diagram illustrating an example when the discrete wavelet transform is performed on the input image.
  • the input image is frequency-separated into four subbands. That is, the input image is separated into four subbands including a high frequency component and a low frequency component in each of the horizontal direction and the vertical direction.
  • the upper left subband in FIG. 3 includes low frequency components in the horizontal direction and the vertical direction.
  • the lower left subband has a horizontal low frequency component and a vertical high frequency component
  • the upper right subband has a horizontal high frequency component and a vertical low frequency component at the lower right.
  • the subband includes high frequency components in the horizontal direction and the vertical direction, respectively.
  • Wavelet degeneration WD1 performs noise removal of subbands including high frequency components among four subbands obtained by performing discrete wavelet transform on the input image.
  • the noise removal performed by the wavelet degeneration WD1 is a process in which a signal having a wavelet coefficient equal to or lower than the threshold is regarded as noise by comparing the wavelet coefficient of the high frequency component of the input image with the threshold. More specifically, if the wavelet coefficient of each signal is equal to or less than a set threshold in the high-frequency component of the input image (each subband except the upper left subband), such a signal is degenerated by replacing it with 0. To do.
  • the signal is originally included in the input image, it can be estimated that the wavelet coefficient is a certain value or more, but the signal having a small wavelet coefficient can be estimated as noise. Focusing on the nature of such a signal and noise, it is wavelet degenerate WD1 that considers a signal having a wavelet coefficient equal to or less than a threshold value as noise, rewrites it to 0, and removes it.
  • the image signal is reconstructed from the low frequency component separated by the discrete wavelet transform WT1 and the high frequency component subjected to the wavelet degeneration WD1.
  • the second noise removal processing NR1 has a function of complementing noise removal by the wavelet degeneration WD1 or removing noise caused by the discrete wavelet transform WT1.
  • noise removal filter processing that does not use wavelet transform such as an average value filter and a median filter can be used.
  • the second noise removal process NR1 is not limited to these processes, and the second noise removal process NR1 supplements the noise removal by the wavelet degeneration WD1 or removes noise generated by the discrete wavelet transform WT1.
  • noise removal processing such as TV regularization can be performed by the second noise removal processing NR1.
  • TV regularization is processing that removes noise from an image signal while retaining an edge component inherent in the input image. More specifically, the edge component and the texture component are separated from the color information of surrounding pixels, and the noise component included in the texture component is weakened while the edge component is retained.
  • Image correction is performed in the correction process CP1 shown in FIG.
  • a sharpening process such as edge restoration by edge writing back or edge enhancement.
  • color correction such as white balance or tone balance correction can be performed.
  • the image from which noise has been removed is corrected by selecting or combining any one of edge processing, sharpening processing, color correction, and the like.
  • the process performed in the correction process CP1 is not limited to these processes.
  • the noise removal effect is enhanced and the influence on the image caused by the noise removal is mitigated by image correction. Furthermore, the noise removal effect can be further enhanced by adopting the following configuration.
  • FIG. 4 is a diagram illustrating an example of an image processing method. 4, the same components as those in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted.
  • the discrete wavelet transform is repeated a plurality of times to extract lower frequency components.
  • a series of noise removal and image correction are performed on the extracted low frequency components. Therefore, in the image processing method shown in FIG. 4, discrete wavelet transforms WT2 and WT3 are added to extract low frequency components.
  • the low frequency component is represented by shading in the downward left direction.
  • high frequency components are represented by shading in the lower right direction.
  • a series of noise removal (wavelet degeneration, second noise removal processing) and image correction (correction processing) are performed on each extracted low frequency component. As a result, a higher quality image can be obtained.
  • Discrete wavelet transform WT1 accepts an input image.
  • the discrete wavelet transform WT1 separates the input image into four subbands.
  • the four subbands separated by the discrete wavelet transform WT1 are defined as a layer L0.
  • Discrete wavelet transform WT2 separates a subband including the low frequency component 201 into four subbands among the separated subbands.
  • Four subbands separated by the discrete wavelet transform WT2 are defined as a layer L1.
  • the discrete wavelet transform WT3 separates the subband including the low frequency component 203 of the layer L1 into four subbands.
  • the four subbands separated by the discrete wavelet transform WT3 are defined as a layer L2.
  • discrete wavelet transform is performed a plurality of times on the input image (three times in FIG. 4), and low frequency components are extracted.
  • wavelet degeneration WD3 is performed on the high frequency component 206 of the layer L2.
  • the inverse discrete wavelet transform IWT3 reconstructs an image from the high frequency component 206 of the layer L2 and the low frequency component 205 of the layer L2 after the wavelet degeneration.
  • a second noise removal process NR3 and image correction (correction process CP3) are performed on the reconstructed image.
  • the correction process CP3 outputs the image signal after the reconstruction in the layer L2 (the low frequency component 203 of the layer L1).
  • the inverse discrete wavelet transform IWT2 receives the layer L2 image signal output from the correction process CP3.
  • the inverse discrete wavelet transform IWT2 reconstructs an image from the image signal of the layer L2 and the high frequency component 204 of the layer L1 after the wavelet degeneration WD2 is performed. Thereafter, second noise removal processing NR2 and image correction (correction processing CP2) are performed, and the correction processing CP2 outputs the image signal after reconstruction in the layer L1.
  • the inverse discrete wavelet transform IWT1 reconstructs the image signal of the layer L0 from the image signal of the layer L1 (the low frequency component 201 of the layer L0) output from the correction process CP2 and the high frequency component 202 of the layer L0. Thereafter, the second noise removal processing NR1 and image correction (correction processing CP1) are performed on the image signal of the layer L0, and an output image is output from the correction processing CP1.
  • FIG. 5 is a diagram illustrating an example of the internal configuration of the image processing apparatus 1.
  • the image processing apparatus 1 includes an image input unit 10, an image processing unit 20, a memory 30, and an image output unit 40.
  • the memory 30 is either an internal memory that exists inside the image processing apparatus 1 or an external memory that is attached to the outside.
  • the image input unit 10 receives an input image from the outside.
  • the image processing unit 20 performs the image processing described with reference to FIG. 4 on the image signal output from the image input unit 10.
  • the image output unit 40 outputs the noise-removed image output from the image processing unit 20.
  • FIG. 6 is a diagram illustrating an example of the internal configuration of the image processing unit 20.
  • the image processing unit 20 performs noise removal and image correction in each of the layers L0 to L3. At that time, noise removal and the like are processed by a pipeline architecture.
  • a pipeline architecture By adopting a pipeline architecture, a complex algorithm (combination of a plurality of noise removal processes) can be processed at high speed.
  • noise removal and image correction in the layer L0 are realized by the discrete wavelet transform unit WT1L0, the wavelet degeneration unit WD1L0, the inverse discrete wavelet transform unit IWT1L0, the second noise removal processing unit NR1L0, and the correction processing unit CP1L0.
  • line buffers LB1L0 and LB2L0 are connected to the discrete wavelet transform unit WT1L0 and the inverse discrete wavelet transform unit IWT1L0, respectively.
  • the high frequency component 202 of the layer L0 that is frequency-separated by the discrete wavelet transform unit WT1L0 is temporarily stored in the buffer BF1L0.
  • the image signal of layer L1 (low frequency component 201 of layer L0)
  • noise removal and image correction are performed with the same configuration as that of layer L0.
  • the image signal of the layer L2 is processed in the same manner as the layers L0 and L1.
  • the high frequency component 206 of the layer L2 does not need to be temporarily stored, and is different in that there is no buffer corresponding to the buffers BF1L0 and BF1L1.
  • the discrete wavelet transform unit WT1L0 corresponds to the first frequency separation unit 101 described above, and the discrete wavelet transform unit WT1L2 corresponds to the second frequency separation unit 102.
  • the above-described first image conversion unit 103 is configured by the wavelet degeneration unit WD1L2, the inverse discrete wavelet conversion unit IWT1L2, and the second noise removal processing unit NR1L2.
  • the above-described second image conversion unit 104 is configured by the wavelet degeneration unit WD1L0, the inverse discrete wavelet conversion unit IWT1L0, and the second noise removal processing unit NR1L0.
  • the discrete wavelet transform unit WT1L1 plays a role corresponding to the second frequency separation unit 102 described above.
  • each of the wavelet degeneracy unit WD1L1, the inverse discrete wavelet transform unit IWT1L1, and the second noise removal processing unit NR1L1 plays a role corresponding to the first image transform unit 103 described above. That is, the configuration shown in FIG. 6 corresponds to a configuration in which the image processing with the two-layer configuration shown in FIG. 1 is expanded to the image processing with the three-layer configuration.
  • Discrete wavelet transform unit WT1L0 separates the input image into four subbands (low frequency component 201, high frequency component 202).
  • the discrete wavelet transform unit WT1L1 receives the low frequency component 201 of the layer L0 and separates it into four subbands.
  • the discrete wavelet transform unit WT1L2 receives the low frequency component 203 of the layer L1 and separates it into four subbands.
  • the wavelet degeneration unit WD1L2 degenerates the high frequency component 206 of the layer L2.
  • the inverse discrete wavelet transform unit ITW1L2 reconstructs an image from the signal output from the wavelet degeneration unit WD1L2 and the low frequency component 205 of the layer L2.
  • the reconstructed image is subjected to noise removal processing in the second noise removal processing unit NR1L2. Further, the image subjected to the image correction in the correction processing unit CP1L2 is output to the inverse discrete wavelet transform unit IWT1L1 of the layer L1.
  • the high frequency component 204 frequency-separated by the discrete wavelet transform unit WT1L1 is temporarily stored in the buffer BF1L1.
  • the wavelet reduction unit WD1L1 reads the high frequency component 204 of the layer L1 from the buffer BF1L1 at the timing when the correction processing unit CP1L2 of the layer L2 outputs the image signal of the layer L2 (the low frequency component 203 of the layer L1).
  • the wavelet reduction unit WD1L1 performs wavelet reduction on the high frequency component 204 of the layer L1 read from the buffer BF1L1, and outputs the result to the inverse discrete wavelet transform unit IWT1L1.
  • the inverse discrete wavelet transform unit IWT1L1 reconstructs the image signal of the layer L1. Thereafter, noise removal processing is performed on the image signal of the layer L1 in the second noise removal processing unit NR1L1. Thereafter, the image corrected by the correction processing unit CP1L1 is output to the inverse discrete wavelet transform unit IWT1L0 of the layer L0.
  • layer L0 processing is performed in the same manner as in layer L1, and correction processing section CP1L0 outputs an image after noise removal.
  • a pipeline architecture is adopted in which a signal output from the preceding process is received, a process of each unit is executed, and a signal is output to the subsequent process.
  • a line buffer is required for each processing unit.
  • the image processing unit 20 accepts pixels in units of scanning lines.
  • FIG. 7 is a diagram illustrating an example of the configuration of an input image.
  • the input image is composed of pixels included in the scanning lines SL0 to SLn (where n is a positive integer).
  • the discrete wavelet transform unit WT1L0 in FIG. 6 accepts pixels in units of scanning lines. More specifically, the scan line SL0, the scan line SL1,..., The scan line SLn, and the discrete wavelet transform unit WT1L0 are input.
  • the line buffers LB1L0 to LB5L2 are buffers that store pixels in the scanning line direction (X direction in FIG. 7).
  • the discrete wavelet transform is a process of separating the frequency in the horizontal direction and the vertical direction with respect to the image signal.
  • the discrete wavelet transform in the horizontal direction requires information on the horizontal direction of the input image, but does not require pixels that straddle a plurality of scanning lines.
  • the pixels included in the scanning lines SL2 to SLn are not required for frequency separation of the pixels included in the scanning line SL1.
  • the discrete wavelet transform in the vertical direction requires not only the pixels included in the scanning line SL1, but also the pixels included in the scanning lines SL2, SL3, and the like.
  • the number of line buffers required in the vertical direction depends on the basis function used for the discrete wavelet transform. That is, many line buffers are required to precisely separate the frequency of the image signal. For this reason, in order to accurately perform the discrete wavelet transform in the vertical direction, it is necessary to secure a line buffer corresponding to more scanning lines.
  • the line buffer capacity required for each layer may differ from layer to layer.
  • the frequencies handled by the discrete wavelet transform units WT1L0 to WT1L2 of each layer become lower as the higher layer. Therefore, the low frequency component of the lower layer (for example, layer L0) is input to the discrete wavelet transform unit of the upper layer (for example, layer L1), and an image with a low resolution is handled in a pseudo manner.
  • the line buffer used in the lower layer requires a larger capacity. Since the capacity of the line buffer necessary for the discrete wavelet transform and the inverse discrete wavelet transform is the same, the description of the line buffer necessary for the inverse discrete wavelet transform is omitted.
  • an increase in the number of lines in the line buffer causes an increase in processing latency. If the number of lines required in the line buffer for wavelet transform and inverse wavelet transform is large, more line inputs are required. If the data input speed is constant, the processing latency increases as the frequency separation becomes more precise.
  • An increase in processing latency in the upper layer causes an increase in the capacity of BF1L0 and BF1L1 that temporarily store high-frequency components in the lower layer. This also contributes to an increase in the capacity of the memory 30 of the image processing apparatus 1. That is, performing precise frequency separation in all layers leads to an increase in the capacity to be secured in each line buffer and each buffer to secure a high frequency component, and the capacity (size) of the memory 30 of the image processing apparatus 1 is inevitably required. To increase. As a result, the chip size of the image processing apparatus 1 increases and the cost increases.
  • the image processing apparatus 1 and the external memory are connected via a bus. Since the bandwidth of the bus is limited, the data transfer capability of the bus determines the processing performance of the image processing device 1 depending on the amount of data exchanged between the external memory and the image processing device 1. That is, the memory bandwidth can be a bottleneck of the image processing apparatus 1.
  • FIG. 8 is a diagram illustrating an example of an internal configuration of the image processing unit 20a in the image processing apparatus 2.
  • the difference between the image processing unit 20 and the image processing unit 20a is that the basis functions used for the discrete wavelet transform unit WT1L0a of the layer L0 and the inverse discrete wavelet transform unit IWT1L0a are changed.
  • the discrete wavelet transform unit WT1L0a and the inverse discrete wavelet transform unit IWT1L0a use a basis function with coarser frequency separation than the basis functions used by the discrete wavelet transform unit WT1L0 and the inverse discrete wavelet transform unit IWT1L0.
  • the number of pixels required in the vertical direction differs depending on the basis function used. Therefore, by using a basis function with rough frequency separation, the capacity of the line buffer required by the discrete wavelet transform unit WT1L0a and the inverse discrete wavelet transform unit IWT1L0a is reduced. That is, the capacity of the line buffers LB1L0a and LB2L0a can be reduced. As a result, the total capacity of the memory 30 can be suppressed.
  • the optimum line buffer capacity is determined after taking into account the effect of noise removal and image correction on each layer on the entire image after noise removal and the capacity of the line buffer required for noise removal and image correction. .
  • noise removal and image correction are performed on the low-frequency component 203 of the layer L1. Further, noise removal and image correction are performed on an image reconstructed from the signal (the low frequency component 203 of the layer L1) and the high frequency component 204 of the layer L1 after these noise removal and image correction are performed. Correction is performed. Accordingly, noise removal and image correction in the layer L2 affect noise removal and image correction in the layer L1. Similarly, noise removal and image correction at layer L1 affect noise removal and image correction at layer L0. That is, noise removal and image correction in the layer L2 affect noise removal and image correction in the layers L1 and L0.
  • the basis function used for each wavelet transform (discrete wavelet transform and inverse discrete wavelet transform) is changed to reduce the required line buffer capacity.
  • the basis function of the wavelet transform in the layer L0 is changed.
  • the basis function of the layer L1 may be changed, or the basis functions of the layers L0 and L1 may be changed.
  • the basis functions of the discrete wavelet transform and the inverse discrete wavelet transform are selected in consideration of the influence of noise removal and image correction in each layer on the entire image.
  • the total capacity of the memory 30 can be suppressed while minimizing the influence on the performance of noise removal and image correction. That is, when the internal memory is used, the chip size of the image processing apparatus 2 is reduced, and when the external memory is used, the memory bandwidth is a bottleneck in determining the performance of the image processing apparatus 2. It will never be.
  • the frequency separation method wavelet transform
  • noise removal wavelet degeneration
  • second noise removal processing wavelet degeneration
  • image correction correction processing
  • each part of the image processing unit 20 can realize the operation in hardware by mounting circuit parts which are hardware parts such as LSI (Large Scale Integration).
  • a program that provides the function may be stored in a storage device, and the program may be implemented in software by loading the program into the main storage unit and executing it on the CPU.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Picture Signal Circuits (AREA)

Abstract

 必要なリソースを最小限に抑えつつ、複数のノイズ除去を組み合わせたノイズ除去を行う画像処理装置を提供する。画像処理装置は、入力画像を第1の低周波数成分及び第1の低周波数成分よりも高い周波数成分を含む第1の高周波数成分に周波数分離する第1の周波数分離部と、第1の低周波数成分を、第2の低周波数成分及び第2の低周波数成分よりも高い周波数成分を含む第2の高周波数成分に分離する第2の周波数分離部と、第2の低周波数成分及び第2の高周波数成分に対してノイズ除去処理を行い、ノイズ除去後の画像を第1の変換画像として出力する第1の画像変換部と、第1の高周波数成分及び第1の変換画像に対して、第1の画像変換部に割り当てられたリソースよりも少ないリソースを割り当てて、ノイズ除去処理を行い、ノイズ除去後の画像を第2の変換画像として出力する第2の画像変換部と、を備える。

Description

画像処理装置及び画像処理方法
 [関連出願についての記載]
 本発明は、日本国特許出願:特願2012-199282号(2012年9月11日出願)に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、画像処理装置及び画像処理方法に関する。特に、画像信号のノイズを除去する画像処理装置及び画像処理方法に関する。
 CCD(Charge Coupled Device)センサを初めとした画像センサの高性能化に伴い、画像信号からノイズを除去する技術の必要性が高まっている。画像センサが高画素化することで、隣接する画素間に流れる電流が互いに影響し、ノイズの原因となり得る。また、高画素の画像センサを用いて撮影された画像の容量は増加の一途である。そのため、原画像のまま撮影データを扱うことは適切ではなく、画像信号の圧縮処理が行われる。しかし、圧縮処理の際に、所謂モスキートノイズやブロックノイズといったノイズが発生する場合がある。
 特許文献1において、コアリング処理によりノイズを低減させながら、コアリング処理によるエッジのぼけや位相ずれを抑制する画像処理装置が開示されている。特許文献2において、画像のエッジ部がぼやけるのを防ぎつつ、エッジ周辺部を含む画像全体のノイズを低減することができる画像処理装置が開示されている。特許文献3において、コアリング処理に起因して生じるエッジのぼけを低減しつつ、ノイズを除去できる画像処理装置が開示されている。特許文献4において、輝度と色差に関してそれぞれ最適なノイズリダクションを行いつつ、回路規模を大幅に削減した安価なノイズ除去回路を実現する画像処理装置が開示されている。
 さらに、特許文献5において、TV(Total Variation)ノイズ除去が開示されている。TVノイズ除去は、周囲の画素の色情報を使用し、エッジ成分を保持しつつ、ノイズを除去する技術である。
特開2007-188211号公報 特開2009-219066号公報 特開2007-316983号公報 特開2008-211627号公報 特許第3263535号公報
 なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。
 上述のように、画像信号からノイズを除去する技術には複数の手法が存在する。しかし、いずれのノイズ除去処理も万能ではない(全てのノイズが除去できるわけではない)。例えば、ウェーブレット縮退によるノイズ除去では、ウェーブレット変換を複数回実行する多重解像度解析によって、低周波ノイズを除去することができる。しかし、ウェーブレット縮退によるノイズ除去後の画像のエッジが不明瞭になる、あるいは、ブロックノイズのようなアーティファクトが発生することも多い。
 また、TVノイズ除去は、画像信号をエッジ成分とテクスチャ成分に分離することで、エッジを保持しつつ、ノイズの除去が可能である。しかし、ウェーブレット縮退であれば除去できる低周波ノイズを除去できない場合や、ノイズ除去と共にテクスチャに関する情報も消去してしまう場合がある。
 このように、ノイズ除去処理には長所・短所が存在する。そこで、複数のノイズ除去処理を組み合わせて、効果的にノイズを除去しつつ、各ノイズ除去処理の短所を補完することが考えられる。なお、複数のノイズ除去処理の組み合わせについての詳細は後述する。
 複数のノイズ除去を組み合わせることで、よりノイズ除去の効果を高めることができる。しかし、複数のノイズ除去の組み合わせを、CPU(Central Processing Unit)にプログラムを実行させることで実現することは、様々な制約から困難である。例えば、複数のノイズ除去処理を組み合わせたアルゴリズムは非常に複雑であり、CPUが、複雑なアルゴリズムを実装したプログラムを処理するスピードには限界がある。
 さらに、複雑なアルゴリズムを実行するには、大容量のメモリを必要とする。即ち、CPUにプログラムを実行させることで、複雑なアルゴリズムを用いた複数のノイズ除去処理を実現するためには、必要なリソースが肥大化してしまう。そのため、必要なリソースを最小限に抑えつつ、複数のノイズ除去を組み合わせたノイズ除去を行う画像処理装置が望まれる。なお、特許文献1~5が開示する技術では、複数のノイズ除去を組み合わせつつ、必要なリソースを最小限に抑えることはできない。
 本発明の第1の視点によれば、入力画像を受け付け、前記入力画像を、第1の低周波数成分及び前記第1の低周波数成分よりも高い周波数成分を含む第1の高周波数成分に周波数分離する第1の周波数分離部と、前記第1の低周波数成分を、第2の低周波数成分及び前記第2の低周波数成分よりも高い周波数成分を含む第2の高周波数成分に分離する第2の周波数分離部と、前記第2の低周波数成分及び第2の高周波数成分に対してノイズ除去処理を行い、ノイズ除去後の画像を第1の変換画像として出力する第1の画像変換部と、前記第1の高周波数成分及び前記第1の変換画像に対して、前記第1の画像変換部に割り当てられたリソースよりも少ないリソースを割り当てて、ノイズ除去処理を行い、ノイズ除去後の画像を第2の変換画像として出力する第2の画像変換部と、を備える画像処理装置が提供される。
 本発明の第2の視点によれば、入力画像を受け付け、前記入力画像を、第1の低周波数成分及び前記第1の低周波数成分よりも高い周波数成分を含む第1の高周波数成分に周波数分離する第1の周波数分離工程と、前記第1の低周波数成分を、第2の低周波数成分及び前記第2の低周波数成分よりも高い周波数成分を含む第2の高周波数成分に分離する第2の周波数分離工程と、前記第2の低周波数成分及び第2の高周波数成分に対してノイズ除去処理を行うことで第1の変換画像を出力する第1の画像変換工程と、前記第1の高周波数成分及び前記第1の変換画像に対して、前記第1の画像変換工程で使用するリソースよりも少ないリソースを使用して、ノイズ除去処理を行うことで第2の変換画像を出力する第2の画像変換工程と、を含む画像処理方法が提供される。
 本発明の各視点によれば、必要なリソースを最小限に抑えつつ、複数のノイズ除去を組み合わせたノイズ除去を行う画像処理装置及び画像処理方法が、提供される。
一実施形態の概要を説明するための図である。 画像処理方法の一例を示す図である。 入力画像に対して離散ウェーブレット変換を行った際の一例を示す図である。 画像処理方法の一例を示す図である。 画像処理装置1の内部構成の一例を示す図である。 図5に示す画像処理部20の内部構成の一例を示す図である。 入力画像の構成の一例を示す図である。 第1の実施形態に係る画像処理部20aの内部構成の一例を示す図である。
 初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。
 上述のように、複数のノイズ除去処理を組み合わせたアルゴリズムは非常に複雑なものとなる。複雑なアルゴリズムを実現するためには、多くのリソースを必要とする。そのため、必要なリソースを最小限に抑えつつ、複数のノイズ除去を組み合わせたノイズ除去を行う画像処理装置が、望まれる。
 そこで、一例として図1に示す画像処理装置100を提供する。図1に示すが画像処理装置100は、第1の周波数分離部101と、第2の周波数分離部102と、第1の画像変換部103と、第2の画像変換部104と、を備える。第1の周波数分離部101は、入力画像を受け付け、入力画像を、第1の低周波数成分及び第1の低周波数成分よりも高い周波数成分を含む第1の高周波数成分に周波数分離する。第2の周波数分離部102は、第1の低周波数成分を、第2の低周波数成分及び第2の低周波数成分よりも高い周波数成分を含む第2の高周波数成分に分離する。第1の画像変換部103は、第2の低周波数成分及び第2の高周波数成分に対してノイズ除去処理を行い、ノイズ除去後の画像を第1の変換画像として出力する。第2の画像変換部104は、第1の高周波数成分及び第1の変換画像に対して、第1の画像変換部103に割り当てられたリソースよりも少ないリソースを割り当てて、ノイズ除去処理を行い、ノイズ除去後の画像を第2の変換画像として出力する。
 第1の周波数分離部101は、入力画像を低周波数成分と高周波数成分に分離する。第2の周波数分離部102は、第1の周波数分離部101が分離した低周波数成分を受け付け、さらに、この低周波数成分を低周波数成分と高周波数成分に分離する。第1の画像変換部103では、第2の周波数分離部102が出力する低周波数成分と高周波数成分とを使用して、ノイズ除去処理を行う。より具体的には、第1の画像変換部103は、ウェーブレット縮退等を用いてノイズ除去処理を行う。
 ここで、第1の画像変換部103が出力する第1の変換画像は、第1の低周波数成分に対してノイズ除去を実施したものである。そのため、第1の高周波数成分と第1の変換画像から、第1の画像変換部103で行ったノイズ除去を反映した画像が再構築できる。さらに、第2の画像変換部104は、第1の高周波数成分と第1の変換画像に対して、ノイズ除去を行う。その際、第1の画像変換部103と第2の画像変換部104で行うノイズ除去は同一の処理である必要はない。
 上述のように、第2の画像変換部104では、第1の画像変換部103で行ったノイズ除去が反映された第1の変換画像を使用する。そのため、第1の画像変換部103におけるノイズ除去の効果は、画像全体(第2の変換画像)に与える影響が大きい。一方、第2の画像変換部104で行うノイズ除去の効果は、他のノイズ除去に影響を与えない。そのため、第2の画像変換部104で行うノイズ除去の効果が画像全体に与える影響は、第1の画像変換部103で行うノイズ除去と比較すれば、小さい。そこで、第2の画像変換部104で行う処理を簡略化し、第2の画像変換部104で必要とするリソースを削減する。
 その結果、必要なリソースを最小限に抑えつつ、複数のノイズ除去を組み合わせたノイズ除去を行う画像処理装置が、提供できる。
 さらに、下記の形態が可能である。
 [形態1]上記第1の視点に係る画像処理装置のとおりである。
 [形態2]前記第1の周波数分離部には、ウェーブレット変換を行う第1のウェーブレット変換部が含まれ、前記第2の周波数分離部には、ウェーブレット変換を行う第2のウェーブレット変換部が含まることが好ましい。
 [形態3]前記第1の画像変換部は、第1のウェーブレット縮退部と、第1の逆ウェーブレット変換部を含むことが好ましい。第1のウェーブレット縮退部は、前記第2の高周波数成分のウェーブレット係数と第1の閾値とを比較し、前記第1の閾値よりも小さいウェーブレット係数を縮退する。第1の逆ウェーブレット変換部は、前記第1のウェーブレット縮退部の出力する信号と前記第2の低周波数成分を逆ウェーブレット変換することで、画像を再構成する。前記第2の画像変換部は、第2のウェーブレット縮退部と、第2の逆ウェーブレット変換部と、を含むことが好ましい。第2のウェーブレット縮退部は、前記第1の高周波数成分のウェーブレット係数と第2の閾値とを比較し、前記第2の閾値よりも小さいウェーブレット係数を縮退する。第2の逆ウェーブレット変換部は、前記第2のウェーブレット縮退部の出力する信号と前記第1の変換画像を逆ウェーブレット変換することで、画像を再構成する。
 [形態4]前記第1のウェーブレット変換部及び前記第1の逆ウェーブレット変換部が使用する第1の基底関数と、前記第2のウェーブレット変換部及び前記第2の逆ウェーブレット変換部が使用する第2の基底関数と、は異なることが好ましい。
 [形態5]前記第1のウェーブレット変換部、前記第1の逆ウェーブレット変換部、前記第2のウェーブレット変換部及び前記第2の逆ウェーブレット変換部は、前記入力画像の走査線方向の画素を記憶するラインバッファを、それぞれ備えることが好ましい。さらに、前記第1のウェーブレット変換部及び前記第1の逆ウェーブレット変換部が備える第1のラインバッファは、前記第2のウェーブレット変換部及び前記第2の逆ウェーブレット変換部が備える第2のラインバッファよりもライン数が少ないことが好ましい。
 [形態6]前記第1及び/又は第2の画像変換部は、ノイズ除去後の画像に対して画像補正を行う画像補正部を含むことが好ましい。
 [形態7]前記第1のウェーブレット変換部と、前記第1のウェーブレット縮退部と、前記第1の逆ウェーブレット変換部と、前記第2のウェーブレット変換部と、前記第2のウェーブレット縮退部と、前記第2の逆ウェーブレット変換部と、によってパイプラインアーキテクチャを構成することが好ましい。
 [形態8]上記第2の視点に係る画像処理方法のとおりである。
 次に、複数のノイズ除去処理を組み合わせた画像処理について説明する。
 図2は、画像処理方法の一例を示す図である。
 図2に示す画像処理方法は、ノイズ除去と画像補正から構成されている。
 図2に示す画像処理方法では、入力された画像信号からノイズ除去処理によってノイズを除去し、ノイズ除去後の画像に対して補正を行うことで、ノイズを除去することによって生じる弊害を緩和し、画質を向上させる。
 次に、ノイズ除去処理について詳細に説明する。
 ノイズ除去処理には、離散ウェーブレット変換WT1と、ウェーブレット縮退WD1と、逆離散ウェーブレット変換IWT1と、第2のノイズ除去処理NR1と、が含まれている。なお、図2以降の図面において、離散ウェーブレット変換を「DWT」、ウェーブレットを「Wavelet」、逆離散ウェーブレット変換を「IDWT」と表記する。
 離散ウェーブレット変換WT1は、入力画像に対して水平方向(走査線方向)及び垂直方向の離散ウェーブレット変換を行う。図3は、入力画像に対して離散ウェーブレット変換を行った際の一例を示す図である。図3の左側に示す入力画像に対して離散ウェーブレット変換を行うと、入力画像は4つのサブバンドに周波数分離される。即ち、入力画像は、水平方向及び垂直方向のそれぞれの方向について、高周波数成分と低周波数成分を含む4つのサブバンドに分離される。図3の左上のサブバンドは、水平方向及び垂直方向の低周波数成分が含まれる。同様に、左下のサブバンドには、水平方向の低周波数成分と垂直方向の高周波数成分が、右上のサブバンドには、水平方向の高周波数成分と垂直方向の低周波数成分が、右下のサブバンドには、水平方向及び垂直方向の高周波数成分が、それぞれ含まれる。
 ウェーブレット縮退WD1では、入力画像に対して離散ウェーブレット変換を行うことで得られた4つのサブバンドのうち、高周波数成分を含むサブバンドのノイズ除去を行う。ウェーブレット縮退WD1で行うノイズ除去は、入力画像の高周波数成分のウェーブレット係数と閾値を比較することで、閾値以下のウェーブレット係数を持つ信号をノイズとみなす処理である。より具体的には、入力画像の高周波数成分(左上のサブバンドを除く各サブバンド)において、各信号のウェーブレット係数が設定した閾値以下であれば、そのような信号を0に置き換えることで縮退する。ここで、入力画像に本来含まれる信号であれば、ウェーブレット係数は一定値以上であると推定することができるが、ウェーブレット係数が微少である信号はノイズであると推定できる。このような信号とノイズの性質に着目し、閾値以下のウェーブレット係数を持つ信号をノイズとみなし、0に書き換え、除去するのが、ウェーブレット縮退WD1である。
 逆離散ウェーブレット変換IWT1では、離散ウェーブレット変換WT1が分離した低周波数成分と、ウェーブレット縮退WD1が施された高周波数成分と、から画像信号を再構成する。
 第2のノイズ除去処理NR1は、ウェーブレット縮退WD1によるノイズ除去を補完する、又は、離散ウェーブレット変換WT1により生じるノイズを除去する機能を備える。第2のノイズ除去処理NR1には、平均値フィルタやメディアンフィルタ等を初めとしたウェーブレット変換を使用しないノイズ除去フィルタ処理を用いることができる。ただし、第2のノイズ除去処理NR1をこれらの処理に限定する趣旨ではなく、第2のノイズ除去処理NR1は、ウェーブレット縮退WD1によるノイズ除去を補完する、又は、離散ウェーブレット変換WT1により生じるノイズを除去する処理であればよい。例えば、TV正則化等のノイズ除去処理を、第2のノイズ除去処理NR1で実施することもできる。なお、TV正則化とは、入力画像が本来持っているエッジ成分を保持しつつ、画像信号からノイズを除去する処理である。より具体的には、周囲の画素の色情報から、エッジ成分とテクスチャ成分を分離し、エッジ成分を保持したまま、テクスチャ成分に含まれるノイズ成分を弱める処理である。
 画像補正は、図2に示す補正処理CP1において行われる。補正処理CP1では、エッジの書き戻しによるエッジ復元、又はエッジ強調等のシャープニング処理を実施するのが好ましい。あるいは、ホワイトバランスやトーンバランスの補正といった色彩補正を実施することができる。補正処理CP1では、エッジ処理、シャープニング処理、色彩補正等からいずれかを選択又は組み合わせることで、ノイズ除去された画像を補正する。ただし、補正処理CP1で行う処理を、これらの処理に限定する趣旨ではない。
 図2に示す画像処理方法では、入力画像に対して複数のノイズ除去処理を実施することで、ノイズ除去の効果を高めつつ、そのノイズ除去により生じる画像への影響を、画像補正によって緩和する。さらに、以下のような構成とすることで、よりノイズ除去の効果を高めることができる。
 図4は、画像処理方法の一例を示す図である。図4において、図2と同一の構成要素には同一の符号を付しその説明を省略する。
 図4に示す画像処理方法では、離散ウェーブレット変換を複数回繰り返し、より周波数の低い成分を抽出する。抽出した低周波数成分に対して一連のノイズ除去及び画像補正を行う。そのため、図4に示す画像処理方法は、離散ウェーブレット変換WT2及びWT3を追加し、低周波数成分を抽出している。なお、図4において、周波数分離されたサブバンドのうち、低周波数成分については左下向き方向の網掛けで表記する。また、周波数分離されたサブバンドのうち、高周波数成分については右下向き方向の網掛けで表記する。抽出した各低周波数成分に対して一連のノイズ除去(ウェーブレット縮退、第2のノイズ除去処理)及び画像補正(補正処理)を実施する。その結果、より高画質な画像を得ることができる。
 次に、図4に示す画像処理方法の動作について説明する。
 離散ウェーブレット変換WT1は入力画像を受け付ける。離散ウェーブレット変換WT1は、入力画像を4つのサブバンドに分離する。離散ウェーブレット変換WT1が分離する4つのサブバンドをレイヤL0とする。
 離散ウェーブレット変換WT2は、分離されたサブバンドのうち、低周波数成分201を含むサブバンドを4つのサブバンドに分離する。この離散ウェーブレット変換WT2が分離する4つのサブバンドをレイヤL1とする。
 さらに、離散ウェーブレット変換WT3は、レイヤL1の低周波数成分203を含むサブバンドを4つのサブバンドに分離する。この離散ウェーブレット変換WT3が分離する4つのサブバンドをレイヤL2とする。
 このように、図4に示す画像処理方法では、入力画像に対して複数回の離散ウェーブレット変換を実施(図4では3回)し、低周波数成分を抽出している。複数回の離散ウェーブレット変換が実施された後は、レイヤL2の高周波数成分206に対してウェーブレット縮退WD3が実施される。その後、逆離散ウェーブレット変換IWT3は、ウェーブレット縮退後のレイヤL2の高周波数成分206とレイヤL2の低周波数成分205から画像を再構成する。再構成された画像に対して第2のノイズ除去処理NR3及び画像補正(補正処理CP3)が実施される。
 補正処理CP3は、レイヤL2における再構成後の画像信号(レイヤL1の低周波数成分203)を出力する。逆離散ウェーブレット変換IWT2は、補正処理CP3が出力するレイヤL2の画像信号を受け付ける。逆離散ウェーブレット変換IWT2は、レイヤL2の画像信号とウェーブレット縮退WD2が実施された後のレイヤL1の高周波数成分204から画像を再構築する。その後、第2のノイズ除去処理NR2、画像補正(補正処理CP2)が実施され、補正処理CP2は、レイヤL1における再構成後の画像信号を出力する。
 逆離散ウェーブレット変換IWT1は、補正処理CP2が出力するレイヤL1の画像信号(レイヤL0の低周波数成分201)とレイヤL0の高周波数成分202からレイヤL0の画像信号を再構築する。その後、レイヤL0の画像信号に対して第2のノイズ除去処理NR1、画像補正(補正処理CP1)が実施され、補正処理CP1から出力画像を出力する。
[第1の実施形態]
 第1の実施形態について、図面を用いてより詳細に説明する。
 図5は、画像処理装置1の内部構成の一例を示す図である。
 画像処理装置1は、画像入力部10と、画像処理部20と、メモリ30と、画像出力部40を備える。なお、メモリ30は、画像処理装置1の内部に存在する内部メモリ、又は、外部に取り付けられる外部メモリのいずれかとする。
 画像入力部10は、外部から入力画像を受け付ける。画像処理部20は、画像入力部10が出力する画像信号に対して、図4において説明した画像処理を行う。画像出力部40は、画像処理部20が出力するノイズ除去後の画像を出力する。
 以下、画像処理部20の構成及び動作、即ち、図4の画像処理方法の実装について説明する。
 図6は、画像処理部20の内部構成の一例を示す図である。
 画像処理部20では、レイヤL0~L3の各レイヤのそれぞれにおいて、ノイズ除去及び画像補正を行う。その際、ノイズ除去等をパイプラインアーキテクチャにより処理する。パイプラインアーキテクチャを採用することで、複雑なアルゴリズム(複数のノイズ除去処理の組み合わせ)を高速に処理することができる。
 図6において、離散ウェーブレット変換部WT1L0、ウェーブレット縮退部WD1L0、逆離散ウェーブレット変換部IWT1L0、第2のノイズ除去処理部NR1L0、補正処理部CP1L0によりレイヤL0におけるノイズ除去及び画像補正を実現する。
 さらに、離散ウェーブレット変換部WT1L0及び逆離散ウェーブレット変換部IWT1L0には、それぞれ、ラインバッファLB1L0及びLB2L0が接続されている。また、離散ウェーブレット変換部WT1L0が周波数分離したレイヤL0の高周波数成分202は、バッファBF1L0に一時的に記憶される。
 レイヤL1の画像信号(レイヤL0の低周波数成分201)についても、レイヤL0と同様の構成により、ノイズ除去及び画像補正が行われる。また、レイヤL2の画像信号についてもレイヤL0及びL1と同様に処理される。しかし、レイヤL2の高周波数成分206については、一時的に記憶しておく必要はなく、バッファBF1L0及びBF1L1に相当するバッファが存在しない点が相違する。
 なお、離散ウェーブレット変換部WT1L0が、上述の第1の周波数分離部101に相当し、離散ウェーブレット変換部WT1L2が、第2の周波数分離部102に相当する。また、ウェーブレット縮退部WD1L2、逆離散ウェーブレット変換部IWT1L2、第2のノイズ除去処理部NR1L2の各部により、上述の第1の画像変換部103を構成する。同様に、ウェーブレット縮退部WD1L0、逆離散ウェーブレット変換部IWT1L0、第2のノイズ除去処理部NR1L0の各部により、上述の第2の画像変換部104を構成する。さらに、離散ウェーブレット変換部WT1L1は上述の第2の周波数分離部102に相当する役割を担う。また、ウェーブレット縮退部WD1L1、逆離散ウェーブレット変換部IWT1L1、第2のノイズ除去処理部NR1L1の各部は、上述の第1の画像変換部103に相当する役割を担う。即ち、図1に示す2レイヤ構成による画像処理を、3レイア構成による画像処理に拡張した構成が図6に示す構成に相当する。
 次に、画像処理部20の動作について説明する。
 離散ウェーブレット変換部WT1L0は、入力画像を4つのサブバンド(低周波数成分201、高周波数成分202)に分離する。離散ウェーブレット変換部WT1L1は、レイヤL0の低周波数成分201を受け付け、4つのサブバンドに分離する。離散ウェーブレット変換部WT1L2は、レイヤL1の低周波数成分203を受け付け、4つのサブバンドに分離する。ウェーブレット縮退部WD1L2は、レイヤL2の高周波数成分206をウェーブレット縮退する。逆離散ウェーブレット変換部ITW1L2は、ウェーブレット縮退部WD1L2が出力する信号とレイヤL2の低周波数成分205から画像を再構築する。再構築された画像は、第2のノイズ除去処理部NR1L2においてノイズ除去処理が行われる。さらに、補正処理部CP1L2において画像補正が施された画像が、レイヤL1の逆離散ウェーブレット変換部IWT1L1に出力される。
 一方、離散ウェーブレット変換部WT1L1が周波数分離した高周波数成分204はバッファBF1L1に一時的に記憶されている。ウェーブレット縮退部WD1L1は、レイヤL2の補正処理部CP1L2がレイヤL2の画像信号(レイヤL1の低周波数成分203)を出力するタイミングで、バッファBF1L1からレイヤL1の高周波数成分204を読み出す。
 さらに、ウェーブレット縮退部WD1L1は、バッファBF1L1から読み出したレイヤL1の高周波数成分204に対して、ウェーブレット縮退を行い、逆離散ウェーブレット変換部IWT1L1に出力する。逆離散ウェーブレット変換部IWT1L1は、レイヤL1の画像信号を再構築する。その後、レイヤL1の画像信号に対し、第2のノイズ除去処理部NR1L1においてノイズ除去処理が行われる。その後、補正処理部CP1L1により補正された画像が、レイヤL0の逆離散ウェーブレット変換部IWT1L0に出力される。
 レイヤL0では、レイヤL1と同様に処理がなされ、補正処理部CP1L0はノイズ除去後の画像を出力する。
 このように、各レイヤのノイズ除去及び画像補正では、前段の処理が出力する信号を受け付け、各部の処理を実行し、後段の処理に信号を出力するパイプラインアーキテクチャを採用する。ここで、パイプラインアーキテクチャを採用するためには、各処理部にラインバッファが必要になる。
 次に、画像処理部20への入力画像の入力方法及び各処理部に必要なラインバッファの容量について説明する。
 画像処理部20は、走査線単位で画素を受け付ける。図7は、入力画像の構成の一例を示す図である。入力画像は、走査線SL0~SLnに含まれる画素から構成されている(但し、nは正の整数)。図6の離散ウェーブレット変換部WT1L0は、走査線単位で画素を受け付ける。より具体的には、走査線SL0、走査線SL1、・・・、走査線SLn、と離散ウェーブレット変換部WT1L0に入力される。ラインバッファLB1L0~LB5L2は、走査線方向(図7のX方向)の画素を記憶するバッファである。
 上述のように、離散ウェーブレット変換は、画像信号に対して水平方向と垂直方向に周波数を分離する処理である。水平方向の離散ウェーブレット変換には、入力画像の水平方向の情報を必要とするが、複数の走査線に跨がる画素は必要としない。図7においては、走査線SL1に含まれる画素の周波数分離には、走査線SL2~SLnに含まれる画素を必要としない。
 しかし、垂直方向については、複数の走査線に相当するラインバッファが確保されていなければ、離散ウェーブレット変換できない。図7においては、垂直方向の離散ウェーブレット変換には、走査線SL1に含まれる画素だけではなく、走査線SL2、SL3等に含まれる画素も必要とする。
 この際、垂直方向で必要なラインバッファの本数は、離散ウェーブレット変換に用いる基底関数に依存する。即ち、画像信号を精密に周波数分離するためには、多くのラインバッファを必要とする。そのため、垂直方向の離散ウェーブレット変換を精密に行うためには、より多くの走査線に相当するラインバッファを確保しなければならない。
 さらに、各レイヤで必要となるラインバッファの容量もレイヤごとに異なる場合がある。各レイヤの離散ウェーブレット変換部WT1L0~WT1L2が扱う周波数は、上位レイヤほど低周波数になる。そのため、下位のレイヤ(例えば、レイヤL0)の低周波数成分が、上位のレイヤ(例えば、レイヤL1)の離散ウェーブレット変換部に入力され、擬似的に解像度の小さい画像を扱うことになるからである。ここで、図6に示す離散ウェーブレット変換部及び逆離散ウェーブレット変換部に用いる基底関数を全て同一とすると、下位のレイヤに用いられるラインバッファほど多くの容量を必要とする。なお、離散ウェーブレット変換と逆離散ウェーブレット変換に必要なラインバッファの容量は同じであるため、逆離散ウェーブレット変換に必要なラインバッファについての説明は省略する。
 高画質な画像を得るためには、図6に示す全ての離散ウェーブレット変換及び逆ウェーブレット変換処理において、精密に周波数分離を行えばよい。しかし、その場合には、上述した理由により、各ラインバッファで確保しなければならない容量が増大する。
 一方で、ラインバッファのライン数の増加は、処理のレイテンシが増加する要因となる。ウェーブレット変換及び逆ウェーブレット変換のラインバッファにおける必要ライン数が多い場合、それだけ多くのライン入力を必要とする。データの入力速度が一定の場合、より精密な周波数分離を実施すると、それだけ処理のレイテンシが増加する。上位レイヤでの処理レイテンシの増加は、より下位レイヤにおいて一時的に高周波成分を記憶するBF1L0及びBF1L1の容量の増大を招く。このことも、画像処理装置1のメモリ30の容量増大の一因となる。即ち、全てのレイヤで精密な周波数分離を行うことは、各ラインバッファで確保する容量及び高周波成分を確保する各バッファの増大を招き、画像処理装置1のメモリ30の容量(サイズ)が必然的に増大する。その結果、画像処理装置1のチップサイズが増大し、コストが上昇する。
 さらに、メモリ30として外部メモリを採用すれば、画像処理装置1と外部メモリとは、バスを介して接続されることになる。バスの帯域には限界があるため、外部メモリと画像処理装置1との間でやり取りするデータ量によっては、バスのデータ転送能力が、画像処理装置1の処理性能を決定することになる。即ち、メモリバンド幅が画像処理装置1のボトルネックとなり得る。
 このように、メモリ30を内部メモリ、又は、外部メモリいずれで実現するとしても、ラインバッファとして確保しなければならない容量が増加すれば、問題が起きる。
 そこで、必要なラインバッファの容量を最適化した画像処理装置2を提案する。
 図8は、画像処理装置2における画像処理部20aの内部構成の一例を示す図である。画像処理部20と画像処理部20aの相違点は、レイヤL0の離散ウェーブレット変換部WT1L0aと、逆離散ウェーブレット変換部IWT1L0aに使用する基底関数を変更する点である。
 より具体的には、離散ウェーブレット変換部WT1L0a及び逆離散ウェーブレット変換部IWT1L0aにおいて、離散ウェーブレット変換部WT1L0及び逆離散ウェーブレット変換部IWT1L0が使用する基底関数よりも、周波数分離が粗い基底関数を使用する。上述のように、使用する基底関数によって、垂直方向に必要な画素数が異なる。そこで、周波数分離が粗い基底関数を使用することで、離散ウェーブレット変換部WT1L0a及び逆離散ウェーブレット変換部IWT1L0aが必要とするラインバッファの容量が減少させる。即ち、ラインバッファLB1L0a及びLB2L0aの容量を少なくすることができる。その結果、メモリ30の総容量を抑制することができる。
 次に、レイヤL0の離散ウェーブレット変換部WT1L0aと、逆離散ウェーブレット変換部IWT1L0aに使用する基底関数が変更可能な理由を説明する。
 上位のレイヤ(例えば、レイヤL2)におけるノイズ除去及び画像補正と、下位のレイヤ(例えば、レイヤL0)におけるノイズ除去及び画像補正と、では画像全体に与える影響が異なる。そこで、各レイアのノイズ除去と画像補正がノイズ除去後の画像全体に与える影響と、ノイズ除去及び画像補正に必要なラインバッファの容量と、考慮した上で、最適なラインバッファの容量を決定する。
 上述のように、レイヤL2では、レイヤL1の低周波数成分203に対して各種のノイズ除去(ウェーブレット縮退、第2のノイズ除去処理)及び画像補正を実施する。さらに、これらのノイズ除去及び画像補正が実施された後の信号(レイヤL1の低周波数成分203)と、レイヤL1の高周波数成分204と、から再構築された画像に対して、ノイズ除去及び画像補正が実施される。従って、レイヤL2でのノイズ除去及び画像補正は、レイヤL1でのノイズ除去及び画像補正に影響する。同様に、レイヤL1でのノイズ除去及び画像補正は、レイヤL0でのノイズ除去及び画像補正に影響する。即ち、レイヤL2でのノイズ除去及び画像補正は、レイヤL1及びL0でのノイズ除去及び画像補正に影響する。
 以上のことから、各レイヤにおいて、画像全体に対して最も強い影響を与える処理は、最上位のレイヤでの処理であって、画像全体に対して与える影響が最も弱い処理は、最下位のレイアでの処理であることがわかる。
 そこで、ウェーブレット変換(離散ウェーブレット変換及び逆離散ウェーブレット変換)ごとに使用する基底関数を変更し、必要なラインバッファの容量を削減する。なお、図8では、レイヤL0におけるウェーブレット変換の基底関数を変更したが、レイヤL1の基底関数を変更、又は、レイヤL0及びL1の基底関数を変更してもよい。
 以上のように、各レイヤでのノイズ除去及び画像補正が画像全体に与える影響を考慮しつつ、離散ウェーブレット変換及び逆離散ウェーブレット変換の基底関数を選択する。その結果、ノイズ除去及び画像補正の性能に与える影響を最小限に抑えつつ、メモリ30の総容量を抑制することができる。即ち、内部メモリを使用する場合には、画像処理装置2のチップサイズが縮小し、外部メモリを使用する場合には、メモリバンド幅が画像処理装置2の性能を決定する上でのボトルネックになることもない。
 ここで、第1及び第2の実施形態において説明した周波数分離方法(ウェーブレット変換)、ノイズ除去(ウェーブレット縮退、第2のノイズ除去処理)及び画像補正(補正処理)は一例であって、これらに限定する趣旨ではない。さらに、本実施形態においては、入力画像を3階層(レイヤL0~L2)に周波数分離する場合について説明したが、入力画像の周波数分離を3階層に限定する趣旨ではない。
 なお、画像処理部20の各部は、LSI(Large Scale Integration)等のハードウェア部品である回路部品を実装することにより、その動作をハードウェア的に実現することができる。あるいは、その機能を提供するプログラムを、記憶装置に格納し、そのプログラムを主記憶部にロードしてCPUにおいて実行することにより、ソフトウェア的に実現することも可能である。
 なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ乃至選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
1~3、100 画像処理装置
10 画像入力部
20、20a 画像処理部
30 メモリ
40 画像出力部
101 第1の周波数分離部
102 第2の周波数分離部
103 第1の画像変換部
104 第2の画像変換部
201、203、205 低周波数成分
202、204、206 高周波数成分
BF1L0、BF1L1 バッファ
CP1~CP3 補正処理
CPL0~CP1L2 補正処理部
IWT1~IWT3 逆離散ウェーブレット変換
IWT1L0~IWT2L2、IWT1L0a 逆離散ウェーブレット変換部
LB1L0~LB2L2、LB1L0a、LB2L0a ラインバッファ
NR1~NR3 第2のノイズ除去処理
NR1L0~NR1L2 第2のノイズ除去処理部
WD1~WD3 ウェーブレット縮退
WD1L0~WD1L2 ウェーブレット縮退部
WT1~WT3 離散ウェーブレット変換
WT1L0~WT1L2、WT1L0a 離散ウェーブレット変換部

Claims (8)

  1.  入力画像を受け付け、前記入力画像を、第1の低周波数成分及び前記第1の低周波数成分よりも高い周波数成分を含む第1の高周波数成分に周波数分離する第1の周波数分離部と、
     前記第1の低周波数成分を、第2の低周波数成分及び前記第2の低周波数成分よりも高い周波数成分を含む第2の高周波数成分に分離する第2の周波数分離部と、
     前記第2の低周波数成分及び第2の高周波数成分に対してノイズ除去処理を行い、ノイズ除去後の画像を第1の変換画像として出力する第1の画像変換部と、
     前記第1の高周波数成分及び前記第1の変換画像に対して、前記第1の画像変換部に割り当てられたリソースよりも少ないリソースを割り当てて、ノイズ除去処理を行い、ノイズ除去後の画像を第2の変換画像として出力する第2の画像変換部と、
     を備える画像処理装置。
  2.  前記第1の周波数分離部には、ウェーブレット変換を行う第1のウェーブレット変換部が含まれ、
     前記第2の周波数分離部には、ウェーブレット変換を行う第2のウェーブレット変換部が含まる請求項1の画像処理装置。
  3.  前記第1の画像変換部は、
     前記第2の高周波数成分のウェーブレット係数と第1の閾値とを比較し、前記第1の閾値よりも小さいウェーブレット係数を縮退する第1のウェーブレット縮退部と、
     前記第1のウェーブレット縮退部の出力する信号と前記第2の低周波数成分を逆ウェーブレット変換することで、画像を再構成する第1の逆ウェーブレット変換部と、
     前記第2の画像変換部は、
     前記第1の高周波数成分のウェーブレット係数と第2の閾値とを比較し、前記第2の閾値よりも小さいウェーブレット係数を縮退する第2のウェーブレット縮退部と、
     前記第2のウェーブレット縮退部の出力する信号と前記第1の変換画像を逆ウェーブレット変換することで、画像を再構成する第2の逆ウェーブレット変換部と、
     を含む請求項2の画像処理装置。
  4.  前記第1のウェーブレット変換部及び前記第1の逆ウェーブレット変換部が使用する第1の基底関数と、前記第2のウェーブレット変換部及び前記第2の逆ウェーブレット変換部が使用する第2の基底関数と、が異なる請求項3の画像処理装置。
  5.  前記第1のウェーブレット変換部、前記第1の逆ウェーブレット変換部、前記第2のウェーブレット変換部及び前記第2の逆ウェーブレット変換部は、前記入力画像の走査線方向の画素を記憶するラインバッファを、それぞれ備え、
     前記第1のウェーブレット変換部及び前記第1の逆ウェーブレット変換部が備える第1のラインバッファは、前記第2のウェーブレット変換部及び前記第2の逆ウェーブレット変換部が備える第2のラインバッファよりもライン数が少ない請求項4の画像処理装置。
  6.  前記第1及び/又は第2の画像変換部は、ノイズ除去後の画像に対して画像補正を行う画像補正部を含む請求項1乃至5のいずれか一項に記載の画像処理装置。
  7.  前記第1のウェーブレット変換部と、前記第1のウェーブレット縮退部と、前記第1の逆ウェーブレット変換部と、前記第2のウェーブレット変換部と、前記第2のウェーブレット縮退部と、前記第2の逆ウェーブレット変換部と、によってパイプラインアーキテクチャを構成する請求項3乃至6のいずれか一項に記載の画像処理装置。
  8.  入力画像を受け付け、前記入力画像を、第1の低周波数成分及び前記第1の低周波数成分よりも高い周波数成分を含む第1の高周波数成分に周波数分離する第1の周波数分離工程と、
     前記第1の低周波数成分を、第2の低周波数成分及び前記第2の低周波数成分よりも高い周波数成分を含む第2の高周波数成分に分離する第2の周波数分離工程と、
     前記第2の低周波数成分及び第2の高周波数成分に対してノイズ除去処理を行うことで第1の変換画像を出力する第1の画像変換工程と、
     前記第1の高周波数成分及び前記第1の変換画像に対して、前記第1の画像変換工程で使用するリソースよりも少ないリソースを使用して、ノイズ除去処理を行うことで第2の変換画像を出力する第2の画像変換工程と、
     を含む画像処理方法。
PCT/JP2013/074393 2012-09-11 2013-09-10 画像処理装置及び画像処理方法 WO2014042155A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13838013.4A EP2897099A4 (en) 2012-09-11 2013-09-10 IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
JP2014535553A JPWO2014042155A1 (ja) 2012-09-11 2013-09-10 画像処理装置及び画像処理方法
US14/426,860 US9922401B2 (en) 2012-09-11 2013-09-10 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012199282 2012-09-11
JP2012-199282 2012-09-11

Publications (1)

Publication Number Publication Date
WO2014042155A1 true WO2014042155A1 (ja) 2014-03-20

Family

ID=50278266

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/074393 WO2014042155A1 (ja) 2012-09-11 2013-09-10 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9922401B2 (ja)
EP (1) EP2897099A4 (ja)
JP (1) JPWO2014042155A1 (ja)
WO (1) WO2014042155A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169931B (zh) * 2016-03-08 2020-04-07 瑞昱半导体股份有限公司 图像去噪声方法及其装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107480A (ja) * 1993-09-30 1995-04-21 Sony Corp 画像信号符号化方法及び画像信号符号化装置
JPH09181612A (ja) * 1995-10-26 1997-07-11 Sony Corp サブバンド符号化方法、サブバンド復号方法、サブバンド符号化装置、サブバンド復号装置及びサブバンド符号化復号装置
JP3263535B2 (ja) 1994-07-25 2002-03-04 日本電信電話株式会社 カラー画像処理方法
JP2007188211A (ja) 2006-01-12 2007-07-26 Matsushita Electric Ind Co Ltd 画像処理装置、撮像装置、画像処理方法およびそのプログラム
JP2007316983A (ja) 2006-05-26 2007-12-06 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、及びそのプログラム
JP2008015741A (ja) * 2006-07-05 2008-01-24 Konica Minolta Holdings Inc 画像処理装置、画像処理方法及びこれを用いた撮像装置
JP2008211627A (ja) 2007-02-27 2008-09-11 Matsushita Electric Ind Co Ltd 撮像装置
JP2009098742A (ja) * 2007-10-12 2009-05-07 Panasonic Corp 画像処理装置、画像処理方法及びそのプログラム
JP2009219066A (ja) 2008-03-12 2009-09-24 Panasonic Corp 画像処理装置
JP2010252396A (ja) * 2010-07-26 2010-11-04 Sony Corp 撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771793B1 (en) * 1999-02-17 2004-08-03 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP2004326325A (ja) * 2003-04-23 2004-11-18 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置、画像処理プログラム及び画像記録装置
US8059910B2 (en) 2005-03-31 2011-11-15 Nikon Corporation Image processing method for removing noise from an image
EP1980956A1 (en) 2007-04-12 2008-10-15 Deutsche Thomson OHG Method and apparatus for selectively reducing noise in a digital signal
JP5449852B2 (ja) * 2009-05-08 2014-03-19 株式会社東芝 超音波診断装置
US9168054B2 (en) * 2009-10-09 2015-10-27 Ethicon Endo-Surgery, Inc. Surgical generator for ultrasonic and electrosurgical devices
US8986302B2 (en) * 2009-10-09 2015-03-24 Ethicon Endo-Surgery, Inc. Surgical generator for ultrasonic and electrosurgical devices
US8951218B2 (en) * 2011-03-09 2015-02-10 Cook Medical Technologies Llc Multi-path catheter

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107480A (ja) * 1993-09-30 1995-04-21 Sony Corp 画像信号符号化方法及び画像信号符号化装置
JP3263535B2 (ja) 1994-07-25 2002-03-04 日本電信電話株式会社 カラー画像処理方法
JPH09181612A (ja) * 1995-10-26 1997-07-11 Sony Corp サブバンド符号化方法、サブバンド復号方法、サブバンド符号化装置、サブバンド復号装置及びサブバンド符号化復号装置
JP2007188211A (ja) 2006-01-12 2007-07-26 Matsushita Electric Ind Co Ltd 画像処理装置、撮像装置、画像処理方法およびそのプログラム
JP2007316983A (ja) 2006-05-26 2007-12-06 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、及びそのプログラム
JP2008015741A (ja) * 2006-07-05 2008-01-24 Konica Minolta Holdings Inc 画像処理装置、画像処理方法及びこれを用いた撮像装置
JP2008211627A (ja) 2007-02-27 2008-09-11 Matsushita Electric Ind Co Ltd 撮像装置
JP2009098742A (ja) * 2007-10-12 2009-05-07 Panasonic Corp 画像処理装置、画像処理方法及びそのプログラム
JP2009219066A (ja) 2008-03-12 2009-09-24 Panasonic Corp 画像処理装置
JP2010252396A (ja) * 2010-07-26 2010-11-04 Sony Corp 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2897099A4

Also Published As

Publication number Publication date
JPWO2014042155A1 (ja) 2016-08-18
EP2897099A1 (en) 2015-07-22
US20160260200A1 (en) 2016-09-08
EP2897099A4 (en) 2016-05-25
US9922401B2 (en) 2018-03-20

Similar Documents

Publication Publication Date Title
JP5719148B2 (ja) 撮像装置及びその制御方法、プログラム
JP5163489B2 (ja) 画像処理方法、画像処理プログラム、および画像処理装置
US7423781B2 (en) Image processor and image processing method for image enhancement using edge detection
JP5352942B2 (ja) 画像処理方法、画像処理プログラム、および画像処理装置
WO2009107197A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2016031189A1 (en) Image processing apparatus, image processing method, recording medium, and program
JP7132364B2 (ja) マルチレベル・バイラテラル・ノイズフィルタリングのための方法、装置、およびシステム
JP6287100B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2007018379A (ja) 画像処理方法及び画像処理装置
JP6354586B2 (ja) ノイズ除去システムとノイズ除去方法及びプログラム
US11222412B2 (en) Image processing device and method
JP2000306089A (ja) 画像処理方法および装置並びに記録媒体
JP5882576B2 (ja) 画像処理装置及び画像処理装置の制御方法、並びにプログラム
JP2009021756A (ja) ノイズ除去回路、ノイズ除去方法、撮像装置、プログラム
WO2014042155A1 (ja) 画像処理装置及び画像処理方法
JP4141712B2 (ja) 画像処理装置
CN109978775A (zh) 颜色去噪方法及装置
JP2003101774A (ja) 画像処理装置
JP2007280202A (ja) ウェーブレット変換を用いた画像処理方法及びその装置
US20220292647A1 (en) Apparatus and method for processing image
JP5980081B2 (ja) 撮像装置および画像処理方法
JP7385311B2 (ja) デジタル画像における背景高周波ノイズを抑制するデータ処理方法
JP6721123B2 (ja) ノイズ除去処理システム、ノイズ除去処理回路およびノイズ除去処理方法
JP2002335400A (ja) 画像処理装置、画像処理方法および記録媒体
US20230206399A1 (en) Low-latency architecture for full frequency noise reduction in image processing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13838013

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014535553

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14426860

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE