WO2009081709A1 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
WO2009081709A1
WO2009081709A1 PCT/JP2008/071996 JP2008071996W WO2009081709A1 WO 2009081709 A1 WO2009081709 A1 WO 2009081709A1 JP 2008071996 W JP2008071996 W JP 2008071996W WO 2009081709 A1 WO2009081709 A1 WO 2009081709A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
component
noise
component image
edge
Prior art date
Application number
PCT/JP2008/071996
Other languages
French (fr)
Japanese (ja)
Inventor
Hideya Aragaki
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Publication of WO2009081709A1 publication Critical patent/WO2009081709A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing

Definitions

  • the present invention relates to, and in particular, to a holding device that eliminates image noise. Background leakage
  • a noise removal device that removes a noise signal contained in an image signal is widely used by a mouth-pass filter.
  • the noise is reduced by the smoothing key by the low-pass filter, the edge component included in the image signal is also smoothed, and the image power s is reduced.
  • JP55-133179 ⁇ addresses this problem by detecting the direction of the edge component contained in the image and applying the logic along the direction without reducing the sharpness of the image. «Doing noise; ⁇ is shown.
  • JP2001-57677 A discloses noise removal; ⁇ using multi-resolution conversion.
  • this noise elimination method first, the image signal is divided into signals in a plurality of frequency bands using a Laplacian pyramid ⁇ H or wavelet transform technique. Then, after applying the filter key having the direction as described in JP55-133179A to the divided signals in each band, they are recombined.
  • This has the advantage that it is possible to remove the noise of the bow girl suitable for each of the divided bands while suppressing the conversion of the edge component to! JP2001-57677 A also uses the iS3 ⁇ 4 side image in the multiple H ⁇ g transform to determine the direction of the image used for direction determination; ⁇ or the result of the direction determination using the low side image.
  • the combination of the results of direction discrimination using the image of the band of interest is shown: ⁇ :. Disclosure of investigation
  • JP55-133179A noise is generated based on the result of direction determination using the image signal, so that it is strongly influenced by the noise included in the image signal. For this reason, it is difficult to obtain an accurate direction discrimination result, and there is a problem that as a result of noise, the weak force ⁇ ffliit is crushed.
  • JP2001-57677 A is designed to improve the direction discrimination accuracy by combining the direction discrimination result using the image on the fiber side and the direction discrimination result using the image of the band of interest ⁇ ";
  • the images on the ⁇ side in many a ⁇ f ⁇ do not include etsu or fine crane structures, it is difficult to obtain accurate direction determination results.
  • the direction discrimination for the image in the band of interest is strongly affected by noise, it is difficult to obtain an accurate direction discrimination result, and the direction discrimination processing needs to be calculated twice. Therefore, it is not desirable from the parents of.
  • the present invention has been made in view of the above problems, and maintains the Etsu and ⁇ t structure by performing highly accurate edge direction discrimination based on the skeletal components corresponding to the typical edge structure extracted from the image signal. And d.
  • the image transfer apparatus is a first component that is a skeleton component that indicates the center of an image including a flat region divided by the edge of the image and the edge of the image.
  • the second component image calculated based on the edited image signal and the first component image, the image ⁇ part to be an image representing multiple components, and the first component image
  • a direction discriminating unit that discriminates the direction of the edge component, and a noise that observes noise in accordance with the direction of the edge component of the self-second component image are provided.
  • the thumbtack position according to another sickle of the present invention includes a first component image, which is a skeleton component made up of a flat component extracted from a part other than the image edge and the edge of the image, For the second component image that is calculated based on the image signal and the first component image, the image sequence that is connected to the image that represents multiple components, including the first component image, A direction discriminating unit that discriminates the direction of the edge component, and a noise ⁇ g »that detects noise according to the direction of the tiHB edge component for the second component image, are determined.
  • the image signal is a skeletal component indicating a general structure of an image including a flat region divided by an image edge and an edge of the image.
  • the noise is determined according to the direction of the edge of the printing edge component for the second printing image.
  • An image program includes a first component image, which is a skeleton component indicating a global structure of an image including a flat region divided by an image edge and a tmiB edge. , Rnm t mm ⁇
  • the second component image calculated based on the component image, a step suitable for an image representing a plurality of components including, and the direction of the edge component relative to the ffl!
  • S first component image _Bl is calculated by making the computer purple for the step and the step for generating noise according to the direction of the self edge component for the tins second component image.
  • FIG. 1 is a configuration diagram of a device according to the first embodiment.
  • FIG. 2A, 2B, and 2C are diagrams showing examples of the Mi image signal I, the first component image U, and the second component image V, respectively, and FIG. 2D, FIG. 2E, and FIG. FIG. 5 is a diagram showing an example of a direct destruction component, a harmonic component, and a frequency component obtained by performing separation based on the frequency component of FIG.
  • FIG. 3 is a diagram for explaining the direction discriminating method.
  • FIG. 4 is a block diagram of noise in the first state.
  • FIG. 5A, FIG. 5B, and FIG. 5C are diagrams for explaining the coring process.
  • FIG. 6 is a flowchart corresponding to the key from the image ⁇ ? Part to the image compositing part in the first ⁇ ? State.
  • FIG. 7 is a configuration diagram of the imaging according to the second actual state.
  • 8A, 8B, and 8C are diagrams for explaining the direction discriminating method.
  • 9A, 9B, and 9C are diagrams for explaining the noise model.
  • FIG. 10 is a block diagram of the noise iS in the second state.
  • FIG. 11 is a flowchart corresponding to the processing from the image collar part to the image composition part in the second embodiment.
  • FIG. 12 is a configuration diagram of a device according to the third mode.
  • FIG. 13B is a diagram showing an example in which there is no correlation between color components
  • FIG. 13B is a diagram showing an example in which there is a correlation between machine components.
  • FIG. 14 is a configuration diagram of the noise iS «in the third mode.
  • Figure 15 shows the image in the third 3 ⁇ 4 »state ⁇ ! 5 is a flowchart corresponding to keys from the image to the image composition unit. Best mode for carrying out the invention
  • FIG. 1 is a system configuration diagram of an imaging according to the first embodiment of the present invention.
  • This arrangement consists of an optical system 101, a solid-state image sensor 10 02, an AZD conversion unit 10 3 (hereinafter referred to as A / D 10 3), a signal key unit 10 04, an image unit 10 05, and an extraction unit 4 0 0, Direction judgment further U part 1 0 6, Noise
  • the solid-state imaging device 1 0 2 is a signal processing unit 1 0 4 ⁇ via AZD 1 0 3.
  • the signal section 1 0 4 is displayed as the image section 1 0 5 ⁇ .
  • the image continuous section 105 is an extraction section 400 and an image composition section 10.
  • Extraction unit 4 0 0 is a direction determination additional IJ unit 1 0
  • the direction discriminator 1 0 6 has noise ⁇ g »1 0 7 ⁇ .
  • Noise 0 7 is the image composition part 1 0 8 ⁇ .
  • the unit is bi-directionally connected to the system controller 100, and the operation is controlled by the system controller 100.
  • dislike is data communication
  • is maintenance. Represents a line.
  • Figure 1 illustrates 3 ⁇ 4fSx of the process.
  • the fixed element 10 0 2 Based on the control of the system controller 100, the fixed element 10 0 2 outputs an optical image formed on the surface of the femoral image element 1 0 2 through the optical system 1 0 1 as an analog 15 image signal. This analog image signal is sent to AZD 100.
  • the thigh image element 102 is a color image sensor having a color filter array arranged on the front surface.
  • the solid element 0 2 may be many;
  • the analog IS image signal that has been converted to A / D 1 0 3 ⁇ 3 ⁇ 4 is converted to the digital No. W code, and then converted into a predetermined color image signal (hereinafter referred to as the original image signal I) by the signal processing unit 10 4.
  • the image signal I consists of R, G, and B color signals. Subsequent checks are performed independently of color beliefs.
  • the converted application image signal I is sent to the image collar portion 105.
  • the image continuous unit 105 transmits the image signal I to the first component image U and the second component image V according to the color confidence.
  • the first component image U is a skeletal component viewable image structure of the original image signal I that includes a flat ⁇ bandage (a component that changes slightly) and edge components.
  • This first component image U is derived from "a component indicating the structure of an image including the edge included in the image signal I and the smooth flat region of the image change divided by the edge", or the image signal I. It is defined as “a component obtained by removing a fine structural component such as a texture (hereinafter referred to as a texture component)”.
  • the first component image U is obtained from the average sample extracted from the edge of the image and the part other than the edge. Also expressed as a skeleton component.
  • the second component image V is a component calculated based on the original image signal I and the first component image U.
  • the More specifically, the second component image V is a part of the first component image U that includes the texture component and noise and is equivalent to the image signal I.
  • Fig. 2B and Fig. 2C show the first component image U and the second component image V, respectively, which are separated into components of the original image signal I shown in Fig. 2A.
  • the signal is displayed as a one-dimensional signal.
  • the edge that represents a small image included in the image signal I is included in the first component image U, and the anomaly component that is awkward is included in the second component image V. include.
  • the image signal I is described as being connected to two components, but it is possible to reduce the number to three or more components.
  • the extraction unit 400 is a rectangular area of a predetermined size centered on the pixel of interest from the first component image U generated by the image ⁇ unit 1 0 5, for example, in this embodiment, a pixel block of 5 ⁇ 5 pixels (hereinafter referred to as a pixel block) , Pixel block of the first component image U) is extracted. Also from the second component image V, a pixel block (hereinafter referred to as a pixel block of the second component image V) corresponding to the pixel block region of the first component image U is extracted with the target pixel at the center. The size of this area can be changed to other sizes as required.
  • the pixel block of the first component image U extracted by the extraction unit 400 is subjected to a direction determination unit 10 6, and the pixel block of the second component image V is subjected to noise 1 0 7 ⁇ .
  • the direction discriminator 1 0 6 determines the edge direction at the target pixel position. Is determined.
  • the edge direction discrimination result is noise 0. Details of the direction determination key will be described later.
  • the noise ⁇ 5 «1 0 7 first applies a filter to the pixel block of the second component image V by determining the filter coefficient or the filter process itself based on the edge direction indicated by the edge direction discrimination result. This is performed for all pixels.
  • the second component image after filtering is referred to as v, hereinafter eir.
  • Noise 0 7 is further subjected to coring processing to make the fine / hi symbol zero for the finallet processing ⁇ ′, and noise ⁇ g »a is completed.
  • the second image after coring ⁇ a is called V ".
  • the coring key is a signal obtained by subtracting the «value of the input signal by the threshold value if the input signal value is less than the threshold value, and the signal is defined as a single bit. It seems to be a number. Details of noise will be discussed later.
  • the image composition unit 10 8 obtains the first component image U from the image sequence 1 0 5 force, and the noise and the second component image V ”after processing at a predetermined ratio, for example, a ratio of 1: 1. As a result, a composite image 1 'in which noise is reduced is obtained with respect to the desired image signal I.
  • the composite image is recorded on a memory medium such as a flash memory via JM ⁇ l 0 9. 1 1 0 ⁇ 3 ⁇ 4.
  • Equation (2) X is the pixel position in the horizontal direction of the first component image U, and y is in the vertical direction! ⁇ Position.
  • the relation of the second component image V in Eq. (1) is modeled as the relation G.
  • G between «I-function ⁇ is the space of the function expressed by Equation (3) by the leakage function gl, g2, and its energy is defined as G norm II v
  • Ugly inf) 2 + (g JL; + 2 ⁇
  • the second component image V associated with the application image signal I is affected by noise, but the first component image U is hardly affected by noise and the skeletal component is not dulled.
  • target smoothing may be performed by a median filter, a morphological filter, or the like.
  • the following is an example of a method based on a bounded variation function.
  • Example 1 First component image U is the result of median filter ffl applied to image signal I, and second component image V is the wisteria of first component image U in image signal I;
  • Example 2 Method in which the first component image U is the result of applying a morphological filter to the image signal I, and the second component image V is the image of the first component image U in the i ⁇ li image signal I
  • Example 3 The first component image U is the result of applying the reduction / ⁇ 03 ⁇ 4 to the image signal I and further expanding it, and the second component image V is the result of the first component image U in the image signal I.
  • Example 4 Method of using the first component image U as the result of applying Bilateral Filter to the image signal I and using the second component image V as the rattan of the first component image U in the image signal I
  • the image signal ⁇ is represented by the product of the first component image U and the second component image V. If the counter iW ⁇ H image signal obtained by converting the image signal I to the opposite is f, then the equation (6 ) Can be converted to an additive problem.
  • the image signal I force, the second component image V, which is applied, is affected by noise.
  • the force first component image U is hardly affected by noise. Therefore, it is possible to extract the skeletal component collision ⁇ ] image structure it) without dulling the edges.
  • the image signal obtained by subtracting the corresponding pixel value of the first image U obtained in advance from each pixel value of the image signal I may be used as the second component image V.
  • the direction determination unit 106 calculates a threshold value for determining the edge direction for each direction based on the pixel position of interest.
  • FIG. 3 is a diagram showing the sharpness of determining the direction from the 5 ⁇ 5 pixel block.
  • AO 0 to A 44 indicate each pixel in the pixel block, and the center pixel A 22 corresponds to the target pixel position.
  • the direction of the edge to be determined is the four directions shown in FIG. The number of directions can be increased to 8 directions as necessary.
  • direction 1 force direction 4 is determined, and in order to determine which is the direction along the edge most, the dictation value is calculated for each direction.
  • Various fHffi values are conceivable, but in this embodiment, l ⁇ MilE 1 to E 4 calculated based on the equation (11) are used.
  • E 1 to E 4 are evaluation values corresponding to directions 1 to 4, respectively.
  • E 1
  • E2
  • E3
  • E4
  • the dragon value has an edge that grows larger when the edge is smaller, and smaller when the edge is smaller.
  • the direction discriminating unit 106 detects the straight line among tmi 1 force, et al. E 4 and determines that there is no edge in the direction corresponding to the dragon value. That is, the direction corresponding to the smallest threshold is determined as the direction along the edge.
  • the detected edge direction is set to Noise 107. Next, details of the operation of noise 07 will be described.
  • FIG. 4 is a diagram illustrating an example of the noise 107.
  • the noise 107 includes a direction-specific filter unit 120 and a coring unit 121.
  • the extraction unit 400 and the direction discriminating unit 106 are directional filter units 120 ⁇ .
  • the direction-specific filter unit 120 is a coring unit 12.
  • the coring unit 121 is connected to the image composition unit 108.
  • the pixel block of the second component image V obtained from the extraction unit 400 is input to the direction-specific filter unit 120.
  • the direction-specific filter unit 120 determines a filter coefficient based on the edge direction judgment result from the direction determination unit 106, that is, the edge direction, and performs a filtering process based on the determined filter coefficient.
  • the filter coefficient is designed (weighted) so that the pixel positioned in the edge direction with respect to the target pixel greatly contributes to the filter effect.
  • the finale ⁇ ⁇ 3 ⁇ 43 ⁇ 4 is the coring part 121 ⁇ .
  • the coring part 121 is The correlating process is performed on the Noleta result to make the signal fine / J and zero.
  • 5A to 5C show an example of processing in the coring unit 1 2 1.
  • the reference value is B
  • the signal A before key and C0 after processing is B
  • the word “D” is a signal ⁇ 0® represented by the equation (1 2) and the graph in Fig. 5A.
  • a ⁇ B + T2 ⁇ D A-T2-B (1 2) where T l and ⁇ 2 are the parameters that determine the upper and lower thresholds, respectively.
  • T l and ⁇ 2 are the parameters that determine the upper and lower thresholds, respectively.
  • Fig. 5B and Fig. 5C show that the coring force S is performed.
  • Fig. 5 B [ ⁇ su One-dimensional signal
  • Fig. 6 shows the flow of software processing from the image decomposition unit 105 to the image composition unit 10 8.
  • the program used in software processing is, for example, For example, store it in the computer storage.
  • C PU computer reads the storage device program from, 3 ⁇ 4ItT3 ⁇ 4 0
  • KiHanare ⁇ for example, a magneto-optical disk, CD- ROM, DVD-ROM, a body memory. It is also possible to distribute a program to a computer via a communication line, and the computer receiving this distribution can HfrT the program.
  • step S O 1 the image signal I is suitable for the first component image U and the second component image V.
  • step S 0 2 the edge direction is calculated based on the first component image U, and the edge direction is determined based on the evaluation value.
  • step S 0 direction-specific filtering is performed on the second component image V based on the edge direction determined in step S 0 2.
  • step S O 4 coring processing is performed on the second component image V, after filtering by direction.
  • step S O 5 the first component image U and the second component images V,, after keying in step S O 4 are synthesized to obtain a synthesized image.
  • the image signal is divided into the first component image U which is a skeleton component and the second component image V obtained from the wisteria of the first component image U which is similar to the original image signal.
  • the direction of the edge component is determined with respect to the first component image U, and the noise is input according to the direction of the edge component with respect to the second component image V. .
  • the direction of the wedge component based on the first component image U including the skeletal component, it becomes possible to accurately determine the direction without being affected by noise.
  • noise by applying noise to the second component image V containing noise according to the direction of the edge component, it is possible to make noise ⁇ !
  • the pixel block of the first component image U and the pixel block of the second component image V corresponding to the pixel block of the first component image U are extracted.
  • the edge component direction and the pixel position on the second component image V corresponding to the target pixel position Based on the pixel values of the pixel group located in the orthogonal direction, the fine wave component in the region is calculated.
  • noise When noise is applied to the two-component image V, by calculating the wave component considering the direction of the edge component, noise ⁇ g »ia with an edge component added can be obtained.
  • the edge direction discrimination accuracy from the first component image U can be improved.
  • the image edge portion 105 calculates a total variation norm with respect to the image signal I and minimizes the calculated total variation norm to thereby obtain a first component including an edge component and a flat component of the image signal I force. Since the one-component image U is extracted, the first component image U can be extracted with high accuracy.
  • the original image signal I is composed of a plurality of machine parts, and the image connection part 1 0 5, direction discriminating part 1 0 6, and noise 0 7 are arranged in order of the decoration of the image signal I. It is possible to reverse the noise.
  • FIG. 7 is a system configuration diagram of the imaging apparatus according to the second embodiment of the present invention.
  • the direction discriminating unit 1 0 6 force S direction discriminating unit 2 3 4 is noisy, ⁇ 3 ⁇ 4 « 1 0 7 is noisy, ⁇ 5 ⁇ 2 0 1 Replaced with no.
  • the parameter configuration 2 0 0 is i ⁇ .
  • the image ⁇ 1 part 1 0 5 includes an image composition part 1 0 8, a parameter setting 2 0 0, and an extraction part 4 0 0 ⁇ .
  • the extraction unit 400 is obscured by the direction discrimination unit 2 3 4 and noise 2 0 1.
  • the direction discriminating unit 2 3 4 and the parameter setting 2 0 0 are noise 2 0.
  • Noise ⁇ ® »2 0 1 is the image composition part 1 0 8 ⁇ .
  • the upper threshold value and the lower threshold value in the coring process are set at a predetermined fixed value.
  • the signal level of the first component image U is set. Based on this, the amount of noise in the second component image V is estimated, and the upper limit threshold and the lower limit threshold are set based on the noise amount. With such a configuration, it is possible to control the effect of the coring process by the amount of noise.
  • the extraction unit 4 0 0 extracts the pixel block of the first component image U and the pixel block of the second component image V.
  • the pixel block of the first component image U extracted by the extraction unit 400 is sent to the direction discriminating unit 23, and the pixel block of the second component image V is sent to the direction discriminating unit 2 34 and noise ⁇ 3 ⁇ 43 ⁇ 43 ⁇ 4 2 0 1 ⁇
  • the direction discriminating unit 2 3 4 discriminates the edge direction based on the pixel block of the first component image U and the second component image V.
  • the edge direction discrimination result is noise ⁇ g «2 0 1 ⁇ .
  • the parameter setting ⁇ p 200 is obtained by first obtaining the signal level m of the first component image U from the image section 05, and then using the noise amount model set in advance,
  • the amount of noise in the second component image V corresponding to the U signal level is estimated for each pixel. The details of the estimation of the amount of noise will be delayed.
  • parameters Tl, ⁇ 2 are set based on the amount of noise ⁇ .
  • the parameters Tl and ⁇ 2 are set to values proportional to the noise amount ⁇ by, for example, Equation (13).
  • Equation (1 3) k is a predetermined coefficient, for example, 1/2.
  • Noise iS 3 ⁇ 4 3 ⁇ 4 201 is the same as in the first 3 ⁇ 4 6 state; first, based on the edge direction indicated by the edge direction determination result obtained from the direction determination unit 234 for the pixel block of the second component image V by ⁇ Determine the filter coefficient and apply the filter key.
  • the direction in the first » ⁇ state is similar to the operation of the determination unit 106, except that the pixel values at the corresponding pixel positions of the pixel block of the first component image U and the pixel block of the second component image V are predetermined. The difference is that the direction is discriminated based on the reference image I dir generated by weighted averaging according to the ratio. This point will be described with reference to FIG.
  • the first component as shown in FIG. Obtain the pixel block of the image U and the pixel block of the second component image V shown in Fig. 8B (see Fig. 8A.
  • a 0 0 to A4 4 indicate each pixel in the pixel block, and the center
  • the pixel A 2 2 corresponds to the target pixel position
  • B 0 0 to B 44 indicate each pixel in the pixel block
  • the center pixel B 2 2 corresponds to the target pixel position.
  • a new pixel value is calculated from, and the pixel block of the reference image I dir is subdivided to determine the direction.
  • Each pixel of C 00 to C 44 in FIG. 8C is a pixel of the reference image I dir to be flfled for direction discrimination.
  • Each pixel C 0 0 to C 4 4 includes pixels A 0 0 to A 4 4 included in the pixel block of the first component image and pixels BO 0 to B 4 4 included in the pixel block of the second component image. From the above, it is constructed by weighted addition such as equation (1 4); 1 ⁇ 1 ⁇ .
  • wij is a weight of about 0 to 0.5.
  • the first component image U-force S is given priority, so it is resistant to noise and the direction is determined based on the ⁇ -like character, ⁇ structure.
  • wij can have a different value depending on the pixel position in the pixel block.
  • a configuration in which wij can be input from the outside to the direction discriminating unit can be configured so that wij can be arbitrarily set.
  • direction determination is performed by the same method as in the first exemplary embodiment, and the direction determination result is set to noise.
  • a signal level-one noise carrying model (hereinafter referred to as a noise model) force S for the second component image V is recognized.
  • No. Parameter setting 2 0 0 is By referring to the model, the amount of noise corrected in the second component image V is estimated.
  • the noise model will be described below.
  • is a subterm.
  • the amount of noise ⁇ varies not only with the signal level but also with the gain of the element.
  • Fig. 9 ⁇ ⁇ ⁇ ⁇ ⁇ plots the amount of noise ⁇ at 3 ISO ISO sensitivities (gains) 100, 200 and 400 related to the gain at ⁇ t.
  • Each curve has the form shown in Eq. (15), but its coefficient depends on the ISO sensitivity related to the gain. If t is set to t, the gain is set to g, and the noise model is converted to ⁇ : in consideration of the above, it can be expressed by Equation (16).
  • Equation (16) ⁇ ⁇ , ygt i is a constant term determined according to humidity t and gain g. Color! ⁇ Signal ⁇ ⁇ This noise model can be applied independently to each color signal.
  • the signal processing unit 104 performs signal processing after AZD conversion, the above model cannot be used as it is. In other words, considering the difficulty of the noise model, it is necessary to consider the characteristics 14 of the signal section 104.
  • the Knee process that converts a 12-bit input signal into a 8-bit output signal performs a ⁇ transformation: ⁇
  • the signal ⁇ ® unit 104 has input / output reliability as shown in Figure 9B. is doing.
  • L (12) represents the signal level immediately after A and D conversion
  • L (8) represents the signal level after signal processing.
  • the signal level L (8) and the amount of noise are the values in the curve shown in Fig. 9C.
  • the parameter setting ⁇ 2 0 0 is used to obtain the signal level of the 1-component image U from the image ⁇ ? Part 1 0 5 force.
  • the noise amount is obtained by referring to the noise model shown in Fig. 9C. For example, according to Equation (1 3), depending on the amount of noise
  • the parameters Tl and ⁇ 2 are set.
  • 3 ⁇ 4 ⁇ « is the same as the noise ig « 1 07 in the first 3 ⁇ 4 embodiment, and the same configuration and the same name and number are assigned. Only the differences will be described below.
  • noise 10 07 in the first male form is the same as that of the noise 10 07 except that the coring process is controlled based on the parameters T 1 and T 2 obtained from the parameter settings 3 ⁇ 43 ⁇ 420. Different.
  • FIG. 10 is a diagram showing an example of a noise iS »20 1.
  • the noise 2 0 1 has a configuration in which the coring part 1 2 1 of noise 0 7 shown in FIG. 4 is replaced with a coring part 2 2 1.
  • the direction discriminating unit 2 3 4 is a direction-specific filter unit 1 2 0 ⁇ .
  • the parameter setting example 2 0 0 and the direction-specific filter section 1 2 0 are coring sections 2 2 1
  • the coring unit 2 2 1 is the image composition unit 1 0 8 ⁇ .
  • the pixel block of the second component image V output from the extraction unit 400 is input to the direction-specific filter unit 120.
  • the direction-specific filter unit 1 2 0 is the same as the direction discriminator 2 3 4
  • the filter direction is determined based on the edge direction, that is, the edge direction, and the filter processing is performed.
  • the filter result is the coring part 2 2 1 ⁇ 3 ⁇ 4.
  • the coring unit 2 2 1 performs coring so that a minute signal is used as the opening for the filter processing result.
  • the operation is the same as that of the coring portion 1 2 1 in the noise 07 in the first embodiment.
  • the parameters T 1 and T 2 that specify the coring upper limit threshold and the lower limit threshold are obtained from the parameter setting 2 0 0 and used, depending on the estimated noise amount, It is possible to control the noise level of the core link.
  • the coring result is generated by an image composition unit 1 0 8 ⁇ 3 ⁇ 4.
  • the fixed element 102 with a monochrome image pickup element and to configure based on a monochrome image signal. Then, the image signal I becomes a monochromatic mouth signal, and becomes each component u, v «3 ⁇ 43 ⁇ 4 signal transmitted from the J3 ⁇ 4S image signal.
  • Fig. 11 shows the flow of the processing from the image ⁇ 1 part 10 5 to the image composition part 10 8 by software processing.
  • the program used in the software is written in 1t3 ⁇ 4 of the computer's ROM, RAM, etc. and executed by the computer's CPU. The first Then, assign the same step number.
  • step S O 1 the image signal I is converted into a first component image U and a second component image V.
  • step S 1 the edge direction is determined based on the evaluation value.
  • step S11 based on the noise model, the noise amount of the second component image V is estimated for each pixel from the signal level of the first component image U, and parameters Tl and ⁇ 2 are set based on the noise amount. To do.
  • step SO 3 the edge direction determined in step S 1 0 for the second component image V Based on, filter by direction.
  • step S 12 the second component image V ′ after the direction-specific filtering is subjected to the coring ⁇ based on the parameters T 1 and ⁇ 2 set in step S 11.
  • step S 0 5 the first component image U and the second component images V, after being subjected to the coring key in step S 12 are synthesized to obtain a synthesized image ⁇ .
  • the noise parameters ⁇ 1 and ⁇ 2 are set based on the first component image U, and the noise S ⁇ parameter ⁇ 1, ⁇ ⁇ ⁇ ⁇ is set for the second component image V. 2. Perform noise according to the direction of the edge component. Neutral estimated from the first component image U As a result, the degree of noise can be controlled navigationally according to the amount of noise, and more accurate noise iS ⁇ W becomes possible.
  • the pixel block of the first component image U and the pixel block of the second component image V corresponding to the pixel block of the first component image U are extracted, and the target pixel of the pixel blocks of the second component image V is extracted.
  • the extinction amount in the region is calculated based on each pixel value of the pixel group that is aligned in the direction orthogonal to the direction of the edge component.
  • the calculated harmonic component is corrected based on the noise parameters T 1 and T 2.
  • the Sl wave component is calculated considering the direction of the edge component, and the noise parameter T l, ⁇ 2 set based on the noise level By correcting the components, high-precision noise can be achieved.
  • the direction discriminator 2 3 4 discriminates the direction of the edge component that is the target pixel using the pixel block of the first component image U and the pixel block of the second component image V, so that the texture not included in the skeleton component Thus, it is possible to obtain a highly accurate direction discrimination result in consideration of such a small 3 ⁇ 43 ⁇ 43 ⁇ 4 component.
  • the direction discriminating unit 2 3 4 also weights the pixel block of the first component image U and the second component image V. Since the edge component direction is determined using the image signal calculated by averaging, a highly accurate direction that simultaneously considers the skeletal component and minute wrinkle components such as textures not included in the skeletal component A discrimination result can be obtained.
  • the first component image including the skeletal component 3 ⁇ 4r ⁇ , the second component image including the minute viewing component, and the force s direction discrimination accuracy are affected.
  • the degree can be freely changed. This makes it possible to flexibly improve the direction discrimination accuracy.
  • the image signal I is composed of a plurality of components, and the image resolution unit 1 0 5, the direction discriminating unit 2 3 4, and the noise 2 0 1 force S are ordered by ⁇ of the image signal I.
  • the noise iS «2 0 1 is applied to the first component image U and the second component image V that have been generated by the image ⁇ ?
  • the noise is input to the second component image V according to the direction of the noise parameters T1, T2 and the edge component.
  • FIG. 12 is a system configuration diagram of an imaging apparatus according to the third embodiment of the present invention.
  • the composition is the same as the second » ⁇ example, and the same composition is assigned the same name and number. Only the differences will be described below.
  • the configuration of the third embodiment is different from the configuration of the second embodiment shown in FIG. 7 in that the buffer 3 0 1, the correlation calculation unit 3 0 2, the parameter correction unit 3 0 3, and the noise 1ffi3 ⁇ 4
  • the configuration is such that 2 0 1 is replaced with noise low 3 4.
  • Image ⁇ 1 part 1 0 5 is extracted part 4 0 0
  • the extraction unit 400 includes a direction discriminating unit 2 3 4, noise iS «3 4, and a buffer 3 0.
  • the buffer 3 0 1 has a correlation operation unit 3 0 2 ⁇ .
  • the direction discriminator 2 3 4 has noise ffi ⁇ 3 0 4 ⁇ .
  • the parameter setting 2 0 0 and the correlation calculation unit 3 0 2 are a parameter correction unit 3 0 3 ⁇ .
  • the parameter correction unit 3 0 3 is noise, iS3 ⁇ 43 ⁇ 4 3 0 4 ⁇ . Noise, image 3 0 4, is included in the image composition unit 10.
  • the noise amount in the second component image V is estimated based on the first component image U, and the threshold value is set based on the noise amount.
  • the cross-correlation coefficient between stations evaluated in the 3 X 3 near ⁇ ! Region (hereinafter, the correlation is a positive value close to 1.
  • noise 3 ⁇ 4r ⁇ color image In this case, the number of pixels that are close to each other decreases, so the number of close contacts decreases, so it can be said that the smaller the value of the number of awakens, the more noise is included in the image signal. .
  • the color correlation between the color signals of the second component image V after the decomposition is obtained, and the parameters T l and ⁇ 2 for controlling the coring key are corrected according to the obtained color correlation.
  • the coring width force S at the coring ⁇ is reduced so that the original signal acts as i3 ⁇ 4m ".
  • the corin A wider corrugation width and flattening of the era makes it possible to use a more accurate coring process.
  • the fine relationship between each color signal of the succeeding second component image V is obtained, and the threshold value of the core link is set based on the noise amount and the color correlation.
  • the threshold value of the core link is set based on the noise amount and the color correlation.
  • the pixel block of the second component image V extracted by the extraction unit 400 is stored in the buffer 300. Said.
  • the parameters T 1 and ⁇ 2 are set based on, for example, Eq. (1 3).
  • the parameters T 1 and ⁇ 2 are the parameters 3 ⁇ 4 ⁇ part 3 0 3 ⁇ .
  • the correlation calculation unit 30 2 obtains the pixel block of the second component image V from the buffer 3 0 1 for all the color signals, and then obtains each pixel in the pixel block near the pixel block including the target pixel position. Calculates the correlation number of the touch and outputs the most / J @r ⁇ , which is the most / J, and the number r. Details of the correlation calculation will be described later.
  • the maximum / J number r is parameter 3 ⁇ 4E part 3 0 3 ⁇ 3 ⁇ 4.
  • the parameter correction unit 303 corrects the parameters T 1 and T 2 based on the maximum / J ⁇ relation number r.
  • the corrected parameters T 1 and D 2 are hereinafter referred to as D 1 and T 2.
  • Noise 0 4 is a color signal that represents the filter processing based on the edge direction obtained from the direction discriminator 2 3 4 and the coring based on the parameters T l ′ and T 2 ′′ obtained from the parameter corrector 3 0 3. The noise is done by doing independently.
  • the second component image v, and the second component image V of noise ⁇ S ⁇ iir after coring processing are weighted and added based on a predetermined ratio to suppress visually noticeable artifacts.
  • the second component images V, after weighted addition are sent to the image composition unit 10. Details of noise processing will be described later.
  • the second component image V is one-dimensional. I will explain. Since the second component image V is the fine component like texture, ⁇ component and noise, the first component image U in the m image signal I ⁇ component, so the second component image V is zero. It is the component that rises as' ⁇ as the center.
  • Fig. 13 ⁇ and 1313B show »between the pixel position of the image signal I and the signal level of each machine.
  • FIG. 13A there is no correlation between machine minutes.
  • the signal level for each ⁇ at each pixel position is as shown in Table 1.
  • Table 2 shows the number of phases between R and G, between G and B, and between B and R.
  • Table 3 shows the signal level of each color component at each pixel position.
  • the maximum / J ⁇ number r is 0.873891.
  • the coring processing threshold value is corrected in accordance with the correlation between the color components, so that noise among the fluctuation components included in the second component image V is corrected. It is possible to discriminate between the component due to the texture and the component due to the original structure of the image, such as texture, and it is possible to suppress the deterioration of the latter due to coring.
  • the play is the same as the noise iSS 3 ⁇ 4201 in the second 3 ⁇ 4 state, and the same name and number are assigned to the same configuration. However, the difference is that the second component image V,, after the coring key and the second component image V immediately after the image sequence are weighted and output.
  • FIG. 14 is a diagram illustrating an example of the configuration of the noise ig »304.
  • the noise 1S ⁇ 304 is configured as shown in Fig. 4 ⁇ ; ⁇ ⁇ ⁇ noise, ⁇ S »201 with an adder 321 i 3 ⁇ 4.
  • the parameter fIE section 303 has a coring section 221 ⁇ .
  • the coring unit 22 1 is a calorie calculating unit 32.
  • the adder 321 has an image total of 08 ⁇ .
  • the direction-specific finer processing 120 and the coring unit 221 Based on the parameters Tl, ⁇ 2, corrected by the parameter correction unit 303, the direction-specific finer processing 120 and the coring unit 221 perform direction-specific finisher processing and coring ⁇ respectively. .
  • the subsequent second component image V, ′ is added to the adder 321.
  • the calorie calculation unit 321 obtains the second component image V immediately after the image sequence from the image sequence unit 105, and based on a predetermined ratio set in advance, the second component image V and the second component image after the coring key.
  • Component Image V '' is weighted and added. This suppresses artifacts that occur when noise ⁇ S ⁇ W is excessively affected by the direction-specific filter key and coring processing. be able to.
  • FIG. 15 shows a flow when the processes from the image decomposition unit 105 to the image composition unit 108 are performed by software processing.
  • Programs used in the software can be stored in the ROM, RAM, etc. of the computer! ⁇ And executed by the computer's CPU.
  • the same step number is assigned to the same key as the signal key flow in the first difficult form.
  • step SO 1 the image signal I is input to the first component image U and the second component image V.
  • step S 10 after the threshold value indicating the edge direction is calculated based on the first component image U and the second component image V, the edge direction is determined based on M.
  • step S 13 the correlation of each color signal of the second component image V is calculated to calculate the maximum coefficient r .
  • step S 11 the noise amount of the second component image V is estimated for each pixel from the signal level of the first component image U based on the noise model, and parameters T 1 and T 2 are calculated based on the noise amount.
  • step S14 the parameters Tl, ⁇ 2 obtained in step S11 are obtained based on the maximum / J ⁇ ⁇ r r obtained in step S13 to obtain parameters Tl,, ⁇ 2,.
  • step S 03 direction-specific filtering is performed on the second component image V based on the edge direction determined in step S 10.
  • step S12 coring ⁇ is performed on the second component image V, after the direction-specific filter processing, based on the parameters T1 ′ and T2 ′ set in step S14.
  • step S15 the second component image V,, after coring and the second component image V of noise ⁇ are weighted and added at a predetermined ratio.
  • step S 05 the first component image U and the second component image V, 'after weighted addition in step S 15 are synthesized to obtain a synthesized image ⁇ .
  • the image signal I is composed of a plurality of tactile segments, and the first component image U and the second component image V that have been converted to “ ⁇ !” Of the original image signal I are buffered.
  • the first component image U and the first For the two-component image V, the direction discriminator 2 3 4 and noise 3 0 4 are used in order for coloration.Estimated by the first component image U containing the skeletal component for each mechanical component of the power error image signal The noise ⁇ ⁇ and ° parameters set based on the noise level were corrected based on the number of awakenings for each touch, and the noise ffi relationship was used. More accurate noise ie ⁇ a is possible.
  • the second component image V of noise and the second component image V,, after noise are added based on a predetermined ratio.
  • noise ig ⁇ in the direction filter, coring processing, etc., and artifacts may be generated ⁇ . It is possible to dislike the artifact that the artifact is visually conspicuous.
  • the present invention is not limited to the first to third embodiments J.
  • the device in the first to third male forms described above, an example in which the image according to the present invention is used as a device has been described.
  • the device can be applied to a device of device: ⁇ , orchid as a single unit. «It can also be set.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

An image processing apparatus comprises an image decomposing part that decomposes an original image signal into images representative of a plurality of components including both a first component image, which is a framework component indicative of a general structure of an image including the edges of the image and the flat areas defined by those edges, and a second component image obtained by calculations based on the original image signal and also based on the first component image; a direction determining part that determines the direction of each edge component for the first component image; and a noise reducing part that reduces noises in accordance with the directions of the edge components for the second component image.

Description

明 細 書 w &^ . ^m,および、 画^ Mプログラム mv^  Description w & ^. ^ M and drawing ^ M program mv ^
本発明は、 に関し、特に画像のノイズを^ *する擁に関する。 背景漏  The present invention relates to, and in particular, to a holding device that eliminates image noise. Background leakage
画像信号に含まれるノィズ信号を除去するノィズ馀去装置にぉレ、ては、 口一パスフィル タによる 理が広く行われている。 しかし、 ローパスフィルタによる平滑化鍵に よりノイズを ί¾させようとすると、 画像信号に含まれるエッジ成分も平滑化されるた め、 画像の] 力 s低下してしまうという問題がある。  A noise removal device that removes a noise signal contained in an image signal is widely used by a mouth-pass filter. However, there is a problem that if the noise is reduced by the smoothing key by the low-pass filter, the edge component included in the image signal is also smoothed, and the image power s is reduced.
この問題に対処する; として、 JP55— 133179 Αでは、 画像に含まれるエツ ジ成分の方向を検出し、 当該方向に沿った™^理を適用することで、 画像の鮮纖を 低下させることなくノイズを«する;^が示されている。  JP55-133179 Α addresses this problem by detecting the direction of the edge component contained in the image and applying the logic along the direction without reducing the sharpness of the image. «Doing noise; ^ is shown.
また、 JP2001— 57677 Aには、 多重解像度変換を用いたノイズ除去;^が開 示されている。 このノイズ餘去方法では、 まず、 ラプラシアンピラミッド^ Hやウェーブ レット変換の手法を用いて、 願像信号を複数の周波数帯域の信号に分割する。 そして、 分割したそれぞれの帯域の信号に対して、 JP55— 133179 Aに言凍されているよ うな方向性を有するフィルタ鍵を施した後、 これらを再合成する。 これにより、 エッジ 成分の! ^化を抑制しつつ、 分割した帯域それぞれに適した弓娘のノィズ 去 を行え るという利点を有する。 JP2001-57677 Aにはまた、 方向判別に用いる画像については、 多重H^g 変換における iS¾側の画像を用いて方向判別をする;^ あるいは、 低域側の画像を用い て方向判別した結果と、 注目帯域 む画像を用いて、方向判別した結果を組み合: ½る ^:が示されている。 究明の開示 JP2001-57677 A discloses noise removal; ^ using multi-resolution conversion. In this noise elimination method, first, the image signal is divided into signals in a plurality of frequency bands using a Laplacian pyramid ^ H or wavelet transform technique. Then, after applying the filter key having the direction as described in JP55-133179A to the divided signals in each band, they are recombined. This has the advantage that it is possible to remove the noise of the bow girl suitable for each of the divided bands while suppressing the conversion of the edge component to! JP2001-57677 A also uses the iS¾ side image in the multiple H ^ g transform to determine the direction of the image used for direction determination; ^ or the result of the direction determination using the low side image. The combination of the results of direction discrimination using the image of the band of interest is shown: ^ :. Disclosure of investigation
しかしながら、 JP55— 133179 Aにおいては、麵像信号を用いた方向判別結 果に基づき、 ノイズ を行うため、顾像信号に含まれるノイズの影響を強く受け てしまう。 このため、 正確な方向判別結果を得ること力 S難しく、 ノィズ,の結果として 細力レ ^ffliitをつぶしてしまうという 題がある。  However, in JP55-133179A, noise is generated based on the result of direction determination using the image signal, so that it is strongly influenced by the noise included in the image signal. For this reason, it is difficult to obtain an accurate direction discrimination result, and there is a problem that as a result of noise, the weak force ^ ffliit is crushed.
JP2001-57677 Aにおいては、 繊側の画像を用いた方向判別結果と、 注目 帯域^"む画像を用レ、た方向判別結果を組み合; ¾rることで、 方向判別精度を高める工夫 がなされている。 しかしながら、 多 a^f^ における { ^側の画像には、 エツ^造 や、 細かな鶴瞎造が含まれなレヽため、 正確な方向判別結果を得ることは困難である。 ま た、 注目帯域 む画像に ¾~ る方向判別は、 ノイズの影響を強く受けるため、 これも正 確な方向判別結果を得ることは困難である。 また、 方向判別処理を 2回計算する必要があ るため、 の親 から望ましいとはいえなレ、。  JP2001-57677 A is designed to improve the direction discrimination accuracy by combining the direction discrimination result using the image on the fiber side and the direction discrimination result using the image of the band of interest ^ "; However, since the images on the {^ side in many a ^ f ^ do not include etsu or fine crane structures, it is difficult to obtain accurate direction determination results. In addition, since the direction discrimination for the image in the band of interest is strongly affected by noise, it is difficult to obtain an accurate direction discrimination result, and the direction discrimination processing needs to be calculated twice. Therefore, it is not desirable from the parents of.
本発明は、 上記問題に鑑みてなされたもので、顾像信号から抽出した 的なエッジ 構造に対応する骨格成分に基づく高精度なエッジ方向判別を行うことで、 エツ、^ t造を維 持し d切なノィズ を可能とする擁を »するものである。  The present invention has been made in view of the above problems, and maintains the Etsu and ^ t structure by performing highly accurate edge direction discrimination based on the skeletal components corresponding to the typical edge structure extracted from the image signal. And d.
本発明のある鎌に係る画譲 «置は、顧像信号を、 画像のエッジおよ Ό¾Ι己エツ ジによって区分された平坦領域を含む画像の 的な を示す骨格成分である第 1成分 画像と、 編 ΕΜί像信号と 第 1成分画像に基づき算出される第 2成分画像と、 ¾ ^む 複数の成分を表す画像に^?する画像^部と、 l己第 1成分画像に対してェッジ成分の 方向を判別する方向判別部と、 廳己第 2成分画像に対し、 ΙΞエッジ成分の方向に応じて ノイズを観するノイズ ί¾«と、 を備えることにより、 した顧 決する。 The image transfer apparatus according to a sickle according to the present invention is a first component that is a skeleton component that indicates the center of an image including a flat region divided by the edge of the image and the edge of the image. For the image, the second component image calculated based on the edited image signal and the first component image, the image ^ part to be an image representing multiple components, and the first component image A direction discriminating unit that discriminates the direction of the edge component, and a noise that observes noise in accordance with the direction of the edge component of the self-second component image are provided.
本発明の別の鎌に係る画舰職置は、 麵像信号を、 画像のエッジおよ ϋ¾ϋ!Βエツ ジ以外の部分から抽出した平坦成分からなる骨格成分である第 1成分画像と、 前 ^®像 信号と膽己第 1成分画像に基づレヽて算出される第 2成分画像と、 を含む複数の成分を表す 画像に連する画像連部と、 嫌己第 1成分画像に対してェッジ成分の方向を判別する方 向判別部と、 ΙΞ第 2成分画像に対し、 tiHBエッジ成分の方向に応じてノイズを赚する ノイズ {g»と、 を備えることにより、 _Βίした讓 決する。  The thumbtack position according to another sickle of the present invention includes a first component image, which is a skeleton component made up of a flat component extracted from a part other than the image edge and the edge of the image, For the second component image that is calculated based on the image signal and the first component image, the image sequence that is connected to the image that represents multiple components, including the first component image, A direction discriminating unit that discriminates the direction of the edge component, and a noise {g »that detects noise according to the direction of the tiHB edge component for the second component image, are determined.
本発明のさらに別の鎌に係る画»¾^法は、 願像信号を、 画像のエッジおよ Ό¾ίί 記エッジによって区分された平坦領域 ^"む画像の大局的な構造を示す骨格成分である第 According to yet another sickle image method of the present invention, the image signal is a skeletal component indicating a general structure of an image including a flat region divided by an image edge and an edge of the image. First
1成分画像と、 tillSITO像信号と嫌己第 1成分画像に基づき算出される第 2成分画像と、 を含む複数の成分を表す画像に連し、 ΙίίΙΒ第 1成分画像に対してェッジ成分の方向を判 別し、 ΙίίΙΒ第 2成分画像に対し、 ΙίΐΙΕエッジ成分の方向に応じてノイズを赚することに より、 した Ϊ¾ ¾ ^する。 A component image, a second component image calculated based on the tillSITO image signal and the unpleasant first component image, and an image representing a plurality of components, including the direction of the wedge component with respect to the first component image The noise is determined according to the direction of the edge of the printing edge component for the second printing image.
本発明のさらに別の赚に係る画 プログラムは、 麵像信号を、 画像のエッジお よ tmiBエッジによって区分された平坦領域を含む画像の大局的な構造を示す骨格成分で ある第 1成分画像と、 rnm t mm ι成分画像に基づき算出される第 2成分画 像と、 を含む複数の成分を表す画像に適するステップと、 ffl!S第 1成分画像に対して、 エッジ成分の方向を判別するステップと、 tins第 2成分画像に対し、 膽己エッジ成分の方 向に応じてノイズを るステップとをコンピュータに紫亍させることにより、 _Blし た讓を解決する, 図面の簡単な説明 An image program according to still another aspect of the present invention includes a first component image, which is a skeleton component indicating a global structure of an image including a flat region divided by an image edge and a tmiB edge. , Rnm t mm ι The second component image calculated based on the component image, a step suitable for an image representing a plurality of components including, and the direction of the edge component relative to the ffl! S first component image _Bl is calculated by making the computer purple for the step and the step for generating noise according to the direction of the self edge component for the tins second component image. Solve the problem, Brief description of the drawings
図 1は、 第 1の 態に係る 置の構成図である。  FIG. 1 is a configuration diagram of a device according to the first embodiment.
図 2A、 図 2B、 図 2Cはそれぞれ、 Mi像信号 I、 第 1成分画像 U、 第 2成分画像 V の一例を示す図であり、 図 2D、 図 2E、 図 2 Fはそれぞれ、 フーリエ変換等の周波 成 分に基づく分離を行った に される直滅分、 觀波成分、 及 周波成分の一例 を示す図である。  2A, 2B, and 2C are diagrams showing examples of the Mi image signal I, the first component image U, and the second component image V, respectively, and FIG. 2D, FIG. 2E, and FIG. FIG. 5 is a diagram showing an example of a direct destruction component, a harmonic component, and a frequency component obtained by performing separation based on the frequency component of FIG.
図 3は、 方向判別方法を説明するための図である。  FIG. 3 is a diagram for explaining the direction discriminating method.
図 4は、 第 1の 態におけるノイズ の構成図である。  FIG. 4 is a block diagram of noise in the first state.
図 5A、 図 5B、 図 5Cは、 コアリング処理を説明するための図である。  FIG. 5A, FIG. 5B, and FIG. 5C are diagrams for explaining the coring process.
図 6は、 第 1の^ ? 態における、 画像^?部から画像合成部までの鍵に対応するフ ローチャートである。 図 7は、 第 2の実賺$態に係る撮 置の構成図である。  Figure 6 is a flowchart corresponding to the key from the image ^? Part to the image compositing part in the first ^? State. FIG. 7 is a configuration diagram of the imaging according to the second actual state.
図 8A、 図 8B、 図 8Cは、 方向判別方法を説明するための図である。  8A, 8B, and 8C are diagrams for explaining the direction discriminating method.
図 9A、 図 9B、 図 9Cは、 ノイズモデルを説明するための図である。  9A, 9B, and 9C are diagrams for explaining the noise model.
図 10は、 第 2の»^態におけるノィズ iS»の構成図である。  FIG. 10 is a block diagram of the noise iS in the second state.
図 11は、 第 2の¾»態における、 画像舊部から画像合成部までの処理に対応する フローチャートである。  FIG. 11 is a flowchart corresponding to the processing from the image collar part to the image composition part in the second embodiment.
図 12は、 第 3の 態に係る 置の構成図である。  FIG. 12 is a configuration diagram of a device according to the third mode.
図 13 Αは、 色成分間に相関がない例を示す図であり、 図 13Bは、 械分間に相関が ある例を示す図である。 図 1 4は、 第 3の 態におけるノィズ iS«の構成図である。 FIG. 13B is a diagram showing an example in which there is no correlation between color components, and FIG. 13B is a diagram showing an example in which there is a correlation between machine components. FIG. 14 is a configuration diagram of the noise iS «in the third mode.
図 1 5は、 第 3の¾»態における、 画像^!部から画像合成部までの鍵に対応する フローチャートである。 発明を実施するための最良の开多態  Figure 15 shows the image in the third ¾ »state ^! 5 is a flowchart corresponding to keys from the image to the image composition unit. Best mode for carrying out the invention
以下、 添付図面を参照しながら本発明の実 態について説明する。 以下の実施? ^態で は、本 明の画»¾¾置を 置に薩した例を挙げて説明する。  Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Implementation of the following? In the ^ state, an explanation will be given by taking an example of the present invention as an example.
く第 1の実 «態 >  First real «state>
図 1は、本発明の第 1の¾»態に係る撮 置のシステム構成図である。 この 置は、 光学系 1 0 1、 固体撮像素子 1 0 2、 AZD変換部 1 0 3 (以下、 A/D 1 0 3) 、信号鍵部 1 0 4、 画像 部 1 0 5、抽出部 4 0 0、 方向判另 U部 1 0 6、 ノイズ  FIG. 1 is a system configuration diagram of an imaging according to the first embodiment of the present invention. This arrangement consists of an optical system 101, a solid-state image sensor 10 02, an AZD conversion unit 10 3 (hereinafter referred to as A / D 10 3), a signal key unit 10 04, an image unit 10 05, and an extraction unit 4 0 0, Direction judgment further U part 1 0 6, Noise
0 7、 画像合成部 1 0 8、 0 9、 記憶メディア 1 1 0、 および、 システ ムコントローラ 1 0 0を備える。  07, an image composition unit 1 0 8, 0 9, a storage medium 1 1 0, and a system controller 1 0 0.
固体撮像素子 1 0 2は、 AZD 1 0 3を介して、 信号処理部 1 0 4^^^されている。 信号麵部 1 0 4は、 画像^?部 1 0 5 ^«されてレヽる。 画像連部 1 0 5は、抽出部 4 0 0、 および、 画像合成部 1 0 されている。 抽出部 4 0 0は、 方向判另 IJ部 1 0 The solid-state imaging device 1 0 2 is a signal processing unit 1 0 4 ^^^ via AZD 1 0 3. The signal section 1 0 4 is displayed as the image section 1 0 5 ^. The image continuous section 105 is an extraction section 400 and an image composition section 10. Extraction unit 4 0 0 is a direction determination additional IJ unit 1 0
6、 および、 ノイズ 0 7^^^されている。 方向判別部 1 0 6は、 ノイズ {g» 1 0 7^^^されている。 ノイズ 0 7は、 画像合成部 1 0 8^^^されている。 画像合成部 1 0 8 ί¾±β 1 0 9へ、
Figure imgf000007_0001
されてレヽ る。
6, and the noise is 0 7 ^^^. The direction discriminator 1 0 6 has noise {g »1 0 7 ^^^. Noise 0 7 is the image composition part 1 0 8 ^^^. Image composition unit 1 0 8 ί¾ ± β 1 0 9
Figure imgf000007_0001
It has been played.
部は、 システムコントローラ 1 0 0と双方向に纖され、 システムコントローラ 1 0 0により動作を制御される。 図 1において、 嫌はデータ信 を、赚は制維号 線を表している。 The unit is bi-directionally connected to the system controller 100, and the operation is controlled by the system controller 100. In Figure 1, dislike is data communication, and 赚 is maintenance. Represents a line.
図 1におレ、て処理の ¾fSxを説明する。 固^ ^素子 1 0 2は、 システムコントローラ 1 0 0の制御に基づき、光学系 1 0 1を通して固腿像素子 1 0 2面上に結像した光学像を アナログ 15像信号として出力する。 このアナログ画像信号は、 AZD 1 0 3へ^され る。  Figure 1 illustrates ¾fSx of the process. Based on the control of the system controller 100, the fixed element 10 0 2 outputs an optical image formed on the surface of the femoral image element 1 0 2 through the optical system 1 0 1 as an analog 15 image signal. This analog image signal is sent to AZD 100.
なお、 第 1の難形態において、 固腿像素子 1 0 2は、 色フィルタアレイを前面に配 置したカラー用撮像素子である。 固^ «素子 0 2は、 ;、 多 のい で ち良い。  In the first difficult form, the thigh image element 102 is a color image sensor having a color filter array arranged on the front surface. The solid element 0 2 may be many;
A/D 1 0 3 ^¾されたアナログ IS像信号はデジタノ W言号に変換された後、信号処理 部 1 0 4で所定の翻のカラー画像信号 (以下、原画像信号 I) に変換される。 麵像信 号 Iは、 R, G, Bの各色信号により構成されている。 以降の麵は、 色信雜に独立に 行われる。  The analog IS image signal that has been converted to A / D 1 0 3 ^ ¾ is converted to the digital No. W code, and then converted into a predetermined color image signal (hereinafter referred to as the original image signal I) by the signal processing unit 10 4. The The image signal I consists of R, G, and B color signals. Subsequent checks are performed independently of color beliefs.
変換後の願像信号 Iは、画像舊部 1 0 5へ される。 画像連部 1 0 5は、願 像信号 Iを、 色信雜に、 第 1成分画像 Uと第 2成分画像 Vに^?する。  The converted application image signal I is sent to the image collar portion 105. The image continuous unit 105 transmits the image signal I to the first component image U and the second component image V according to the color confidence.
第 1成分画像 Uは平 ±賊分 ( ^かに変化する成分) とエッジ成分を含む原画像信号 I の骨格成分 観可 画像構 である。 この第 1成分画像 Uは、 "顾像信号 Iに含ま れる なェッジ、 及びェッジによって区分された贿変化の滑らかな平坦領域を含む画 像の 的な構造を示す成分"、 または 像信号 Iよりテクスチャの様な細力な構造 成分 (以下、 テクスチャ成分) を除レ、た成分" として定義される。 第 1成分画像 Uは、 画 像のエッジ、 およびエッジ以外の部分から抽出した平¾¾分からなる骨格成分とも表現で さる。  The first component image U is a skeletal component viewable image structure of the original image signal I that includes a flat ± bandage (a component that changes slightly) and edge components. This first component image U is derived from "a component indicating the structure of an image including the edge included in the image signal I and the smooth flat region of the image change divided by the edge", or the image signal I. It is defined as “a component obtained by removing a fine structural component such as a texture (hereinafter referred to as a texture component)”. The first component image U is obtained from the average sample extracted from the edge of the image and the part other than the edge. Also expressed as a skeleton component.
第 2成分画像 Vは、 原画像信号 Iと第 1成分画像 Uとに基づいて算出される成分であ る。 より具体的には、 第 2成分画像 Vは、 テクスチャ成分とノイズを含む、麵像信号 I に ¾ ^る第 1成^ ·画像 Uの^^分として される。 The second component image V is a component calculated based on the original image signal I and the first component image U. The More specifically, the second component image V is a part of the first component image U that includes the texture component and noise and is equivalent to the image signal I.
例として、 図 2 Aに示す原画像信号 Iを成分分離した ^に «される第 1成分画像 U、 第 2成分画像 Vをそれぞれ、 図 2 B、 図 2 Cに示す (ここでは説明を簡単にするため 1次元の信号としてレヽる。 ) 画像信号 Iに含まれる^ ½な赚を表す なェッジ は、 第 1成分画像 Uに含まれ、緞田な嫌成分は、 第 2成分画像 Vに含まれている。  As an example, Fig. 2B and Fig. 2C show the first component image U and the second component image V, respectively, which are separated into components of the original image signal I shown in Fig. 2A. In order to achieve this, the signal is displayed as a one-dimensional signal.) The edge that represents a small image included in the image signal I is included in the first component image U, and the anomaly component that is awkward is included in the second component image V. include.
比較のため、 フーリェ変換等の周波 分に基づく分離を行った ^に^^される直流 成分、 顯波成分、 及ひ Ί¾周波成分の例をそれぞれ、—図 2 D、 図 2 Ε、 図 2 F〖 す。 原 画像信号 Iに含まれる:^的な赚を表す なエッジは、 各成分の線形和として表され るため、 特定の成分のみに含まれることはない。  For comparison, examples of DC component, wave component, and Ί¾ frequency component that have been separated by frequency, such as Fourier transform, are shown in Fig. 2D, Fig. 2Ε, Fig. 2 respectively. F 〖. The edge that represents the 赚 in the original image signal I is represented as a linear sum of each component, so it is not included only in a specific component.
なお、 ここでは、説明を簡単にするために、 麵像信号 Iを 2成分に連する につ レ、て説明するが、 3成分以上に舊することも可能である。  Here, for simplicity of explanation, the image signal I is described as being connected to two components, but it is possible to reduce the number to three or more components.
画像舊の雄に ¾¾卩算型爐と乗算型儘があり、 その詳細にっレヽては後 る。 抽出部 4 0 0は、 画像^部 1 0 5により された第 1成分画像 Uから、 注目画素を 中心とする所定サイズの矩形領域、 例えば本実施形態では、 周囲 5 X 5の画素プロック (以下、 第 1成分画像 Uの画素ブロック) を抽出する。 また、 第 2成分画像 Vからも、 注 目画素を中心とし、 第 1成分画像 Uの画素プロック領域に対応する画素プロック (以下、 第 2成分画像 Vの画素ブロック) を抽出する。 なお、 この領域のサイズは、 必要に応じて 他のサイズにすることも可能である。  There are three types of image type male and multi-type type, which will be described in detail later. The extraction unit 400 is a rectangular area of a predetermined size centered on the pixel of interest from the first component image U generated by the image ^ unit 1 0 5, for example, in this embodiment, a pixel block of 5 × 5 pixels (hereinafter referred to as a pixel block) , Pixel block of the first component image U) is extracted. Also from the second component image V, a pixel block (hereinafter referred to as a pixel block of the second component image V) corresponding to the pixel block region of the first component image U is extracted with the target pixel at the center. The size of this area can be changed to other sizes as required.
抽出部 4 0 0で抽出された第 1成分画像 Uの画素プロックは、 方向判別部 1 0 6 され、 第 2成分画像 Vの画素ブロックは、 ノイズ ί¾» 1 0 7 ^^される。 方向判別部 1 0 6は、 第 1成分画像 Uの画素プロックに基づいて、 注目画素位置におけるエッジ方向 を判別する。 エッジ方向判別結果は、 ノイズ 0 される。 方向判別鍵の 詳細については後¾ ^る。 The pixel block of the first component image U extracted by the extraction unit 400 is subjected to a direction determination unit 10 6, and the pixel block of the second component image V is subjected to noise 1 0 7 ^. Based on the pixel block of the first component image U, the direction discriminator 1 0 6 determines the edge direction at the target pixel position. Is determined. The edge direction discrimination result is noise 0. Details of the direction determination key will be described later.
ノイズ {5« 1 0 7は、 はじめに、 第 2成分画像 Vの画素ブロックに対し、 エッジ方向 判別結果が示すエッジの方向に基づき、 フィルタ係数、 あるいはフィルタ処理そのものを 決定して、 フィルタ を施す。 これを全ての画素について行う。 フィルタ処理後の第 2 成分画像を、 以降 v, と言 eir る。  The noise {5 «1 0 7 first applies a filter to the pixel block of the second component image V by determining the filter coefficient or the filter process itself based on the edge direction indicated by the edge direction discrimination result. This is performed for all pixels. The second component image after filtering is referred to as v, hereinafter eir.
ノイズ 0 7はさらに、 フイノレタ処 果 ν' に対して、 微 /hi言号をゼロにする ようなコアリング処理を施して、 ノイズ {g»aを完了する。 以降、 コアリング^ a後の 第 2成、画像を V" と言 る。  Noise 0 7 is further subjected to coring processing to make the fine / hi symbol zero for the finallet processing ν ′, and noise {g »a is completed. Hereafter, the second image after coring ^ a is called V ".
ここで、 コアリング鍵とは、 醒的には、入力信号の 値が閾値以下の に、 そ の信号を一 i 口とし、 閾値より大きい には、 入力信号の «値を閾値だけ減じた信 号とするような である。 ノイズ の詳細については後 る。  Here, the coring key is a signal obtained by subtracting the «value of the input signal by the threshold value if the input signal value is less than the threshold value, and the signal is defined as a single bit. It seems to be a number. Details of noise will be discussed later.
画像合成部 1 0 8は、 画像連部 1 0 5力ら第 1成^画像 Uを取得し、 ノィズ、 理 後の第 2成分画像 V" と、所定の比率、 例えば 1: 1の比率で合^ Tることにより、願像 信号 Iに対してノイズが赚された合成画像 1'を得る。 合成画像 は、 JM^l 0 9を 介して、 フラッシュメモリ等で構成される記'慮メディア 1 1 0に^ ¾される。  The image composition unit 10 8 obtains the first component image U from the image sequence 1 0 5 force, and the noise and the second component image V ”after processing at a predetermined ratio, for example, a ratio of 1: 1. As a result, a composite image 1 'in which noise is reduced is obtained with respect to the desired image signal I. The composite image is recorded on a memory medium such as a flash memory via JM ^ l 0 9. 1 1 0 ^ ¾.
次に、 画像舊部 1 0 5において行う、麵像信号 Iの画像舊の詳細について説明す る。画像信号 I力ら第 1成分画像 uを抽出するとき、 その ¾ ^として、 平 ί賊分 かに変化する成分) やエッジ成分を^ t?願像信号 I の骨格成分カ^^されるような鍵 を用いる。 画像^の には、 上記の通り、カロ算型分離と乗算型分離があり、 以下、 各 手法について順に説明する。  Next, the details of the image の of the image signal I performed in the image 舊 part 105 will be described. When the first component image u is extracted from the image signal I force, the skeleton component of the image signal I will be used as the ¾ ^ Use a simple key. As described above, there are Calo arithmetic type separation and Multiplication type separation in the image ^, and each method will be described in turn below.
ぐ加算型爐> カロ算型 »eは、顾像信号 I力 s式(1 ) で^ ように、第 1成分画像 uと第 2成分画 像 Vの和として表される。 Add type 爐> The Karo arithmetic type »e is expressed as the sum of the first component image u and the second component image V as shown in the image signal I force s equation (1).
I = + V ( 1 )  I = + V (1)
ここでは、 まず、 有界変動関数とノルムを用いた舊方法を説明する。 舊を行うため に、 下記の文献 1に記載の A 2 B C変分モデノレ (Aujol- Aubert - Blanc - Feraud""Chambolle model) ¾ "用レ、る。  Here, first, we will explain the method using a bounded variation function and a norm. In order to perform the dredge, the A 2 B C variational model (Aujol-Aubert-Blanc-Feraud "" Chambolle model) ¾ "described in Reference 1 below is used.
文献 1 : Jean-Francois Aujol, Guy Gi上 boa, Tony Chan & Stanley Osher, Structure- Texture Image Decomposition ~ Modeling, Algorithms, and Parameter Selection, International Journal of Computer Vision, Volume 67, Issue 1 (April 2006) Pages: 111 - 136 Year of Publication: 2006 Reference 1: Jean-Francois Aujol, Guy Gi, boa, Tony Chan & Stanley Osher, Structure- Texture Image Decomposition ~ Modeling, Algorithms, and Parameter Selection, International Journal of Computer Vision, Volume 67, Issue 1 (April 2006) Pages: 111-136 Year of Publication: 2006
として求められる第 l成分画像 uの性質としては、 不^ ¾界によって区分され た複数の "滑らかな輝度変化の小部分領域" から構成された有界変動関数空間 B V (Bounded Variation Function Space)としてモデル化される。 第 1成分画像 Uのエネノレギ 一は、 動エネルギーとして、 式 (2 ) の TV (Total Variation)ノルム J (U)で定義さ れる。
Figure imgf000011_0001
ただし、 式 (2) において、 Xは第 1成分画像 Uの横方向の画素位置であり、 yは縦方 向の!^位置である。
As the property of the l-th component image u obtained as Bounded Variation Function Space (BV) composed of multiple “small sub-regions of smooth luminance change” divided by unbounded ¾ boundaries Modeled. The energy of the first component image U is defined as the kinetic energy by the TV (Total Variation) norm J (U) in equation (2).
Figure imgf000011_0001
In Equation (2), X is the pixel position in the horizontal direction of the first component image U, and y is in the vertical direction! ^ Position.
一方、 式 (1 ) 中の第 2成分画像 Vの関 間は、 纖関輕間 Gとしてモデル化され る。 «I関^^間 Gは、 漏母関数 gl、 g2によって、 式 (3) のように表現された関数 の空間であり、 そのエネルギーは式 (4) の Gノルム II v || Gとして定義される。 ΙΜい inf )2 + (g JL; = + 2} On the other hand, the relation of the second component image V in Eq. (1) is modeled as the relation G. G between «I-function ^^ is the space of the function expressed by Equation (3) by the leakage function gl, g2, and its energy is defined as G norm II v || G in Equation (4) Is done. Ugly inf) 2 + (g JL; = + 2 }
gl.g2 (4) 麵像信号 Iの 問題は、 エネルギー汎赚を最 /J 匕する式 (5) の変分問題として ^化される。 この変分問題は、 Chambolleの Projection法によって解くことができる。  gl.g2 (4) The problem of the image signal I is converted into a variational problem of equation (5) that maximizes the energy generality / J. This variation problem can be solved by Chambolle's Projection method.
inf (ひ) + I, -ひ- 2} inf (hi) + I, -hi- 2 }
α > 0, μ > 0,Ομ = {ν≡Ο \ \\ν\\α≤μ} ( 5 ) α> 0, μ> 0, Ο μ = {ν≡Ο \ \\ ν \\ α ≤μ} (5)
これにより、願像信号 Iカ 連される第 2成分画像 Vはノイズの影響を受けるが、 第 1成分画像 Uはノィズの影響をほとんど受けず、 ェッジを鈍らせることなく骨格成分 As a result, the second component image V associated with the application image signal I is affected by noise, but the first component image U is hardly affected by noise and the skeletal component is not dulled.
( ^mam カ釉出される。 (^ mam is generated.
その他の加算型分 t^法の例としては、 メジアンフィルタ、 モホロジフィルタ等による 的平滑化を行うようにしてもよい。 以下、 有界変動関数によらなレ、加算型儘の方法 の例を示す。  As another example of the addition type t ^ method, target smoothing may be performed by a median filter, a morphological filter, or the like. The following is an example of a method based on a bounded variation function.
例 1 :第 1成分画像 Uを、願像信号 Iにメジアンフィルタ fflした結果とし、 第 2成 分画像 Vを、顾像信号 Iに る第 1成分画像 Uの藤とする;^  Example 1: First component image U is the result of median filter ffl applied to image signal I, and second component image V is the wisteria of first component image U in image signal I;
例 2:第 1成分画像 Uを、顾像信号 Iに雜モホロジフィルタを掛けた結果とし、 第 2成分画像 Vを、 i^li像信号 Iに る第 1成分画像 Uの とする方法  Example 2: Method in which the first component image U is the result of applying a morphological filter to the image signal I, and the second component image V is the image of the first component image U in the i ^ li image signal I
例 3:第 1成分画像 Uを、願像信号 Iに縮/ Η0¾を施し、 さらに拡^ を施した結 果とし、 第 2成分画像 Vを、顾像信号 Iに る第 1成分画像 Uの藤とする方法 例 4:第 1成分画像 Uを、麵像信号 Iに Bilateral Filterを施した結果とし、 第 2 成分画像 Vを、 麵像信号 Iに る第 1成分画像 Uの藤とする方法  Example 3: The first component image U is the result of applying the reduction / Η0¾ to the image signal I and further expanding it, and the second component image V is the result of the first component image U in the image signal I. Example 4: Method of using the first component image U as the result of applying Bilateral Filter to the image signal I and using the second component image V as the rattan of the first component image U in the image signal I
<乗算型儘〉 続いて乗算型爐の^について説明する。 乗算型 は、画像信号 Ϊが第 1成分 画像 Uと第 2成分画像 Vの積によって表されるが、顾像信号 Iを対嫌換した对 iW^H 像信号を f とすると、 式 (6) のように加算型儘 題に変換することができる。 <Multiplication type 儘> Next, I will explain the multiplication type ^. In the multiplication type, the image signal Ϊ is represented by the product of the first component image U and the second component image V. If the counter iW ^ H image signal obtained by converting the image signal I to the opposite is f, then the equation (6 ) Can be converted to an additive problem.
I = U*V  I = U * V
f= u + v;  f = u + v;
f = log/, u = logU, v = logV (g) ここでは、 前述と同様に、 有界変動関数とノルムを用いた連か法を説明する。 乗算型 、離問題は、 対薩域において、カロ算型分離と同様に、 A2BC変分モデルを用いて解く ことができる。 以下では、 乗算型^!を «として、 対 ,域における A2BC変^ 6デ ルについて簡単に述べる。  f = log /, u = logU, v = logV (g) Here, as in the previous case, we explain the linkage method using a bounded variation function and a norm. Multiplication and separation problems can be solved in the opposite region using the A2BC variational model, as in the case of Karo arithmetic separation. In the following, we will briefly describe the A2BC variation in the region, with the multiplication type ^! As «.
式 (6) 中の対鶴 1成分画像 Uの関輕間は、 前述の加算型分離モデルの第 1成分画 像 Uと同様に、 不^^界によって区分された複数の "滑らかな 変化の小部^ ' から構成された有界変動関数空間 BV (Bounded Variation Function Space)としてモデル 化される。 対鶴 1成分画像 Uのエネルギーは、 式 (7) の TV (Total Variation)ノル ム J(U)で定義される。  Similar to the first component image U of the additive type separation model described above, the relationship between the anti-crane 1-component image U in Eq. (6) Modeled as a bounded variation function space (BV) composed of small parts ^ '. The energy of the one-component image U vs. crane is the TV (Total Variation) norm J ( Defined in U).
J(u) = ||VM||i& dy J (u) = || V M || i & dy
(7) 一方、 式 (6) の対難 2成分画像 Vの関数空間は、 振動関数空間 Gとモデル化され る。 攝関 間0は、握母関数 gl、 g2によって、 式 (8) のように表現された関数 の空間であり、 そのエネルギーは、 式(9) の Gノルム II V II Gとして定義される。  (7) On the other hand, the function space of the difficult two-component image V in Eq. (6) is modeled as the vibration function space G. Sakaiseki 0 is the space of the function expressed by Equation (8) by the gripper functions gl and g2, and its energy is defined as G norm II V II G in Equation (9).
v ) = d Si(x,y) +
Figure imgf000013_0001
8I,82≡L(R2) (G)
v) = d Si ( x , y ) +
Figure imgf000013_0001
8I, 82≡L (R 2 ) (G)
Ha = i gnl.gf2 |fa)2 + し; v = + (9) したがって、 対 画像信号 f の 問題は、 エネルギー汎関数を最 匕する式 (1 0) の変分問題として 化される。
Figure imgf000014_0001
Ha = i gnl.gf2 | fa) 2 + and v = + (9) Therefore, the problem of the image signal f is expressed as a variational problem of Eq. (1 0) that minimizes the energy functional.
Figure imgf000014_0001
これにより、願像信号 I力、ら^ Ifされる第 2成分画像 Vはノイズの影響を受けている 力 第 1成分画像 Uはノイズの影響をほとんど受けない。 従って、 エッジを鈍らせること なく、骨格成分 衝可^]画像構 it) を抽出することができる。  As a result, the image signal I force, the second component image V, which is applied, is affected by noise. The force first component image U is hardly affected by noise. Therefore, it is possible to extract the skeletal component collision ^] image structure it) without dulling the edges.
なお、 顾像信号 Iの各画素値から、.予め求めた第 1 画像 Uの对応する画素値を除 算することにより した画像信号を、 第 2成分画像 Vとしてもよレ、。  The image signal obtained by subtracting the corresponding pixel value of the first image U obtained in advance from each pixel value of the image signal I may be used as the second component image V.
次に、 方向判別部 106の動作の詳細について説明する。 方向判別部 106は、抽出部 400から された第 1成分画像 Uの画素ブロックに基づレヽて、 注目画素位置にぉレヽ て、 方向別にエッジ方向を判定するための讓値を算出する。  Next, details of the operation of the direction determination unit 106 will be described. Based on the pixel block of the first component image U from the extraction unit 400, the direction determination unit 106 calculates a threshold value for determining the edge direction for each direction based on the pixel position of interest.
図 3は、 5X5の画素プロックから方向を判別する鮮を示した図である。 AO 0〜A 44は、 画素ブロック内の各画素を示し、 中心画素 A 22が注目画素位置に相当する。 本 ¾W態では、判別するェッジの方向を、 図 3の方向:!〜 4のような 4方向としている。 なお、 方向数については、必要に応じて 8方向等に増 "ことも可能である。  FIG. 3 is a diagram showing the sharpness of determining the direction from the 5 × 5 pixel block. AO 0 to A 44 indicate each pixel in the pixel block, and the center pixel A 22 corresponds to the target pixel position. In this ¾W mode, the direction of the edge to be determined is the four directions shown in FIG. The number of directions can be increased to 8 directions as necessary.
方向判別では、 方向 1力 方向 4までにっレ、て、 どれが最もェッジに沿つた方向である カゝを決定するため、 それぞれの方向について言鞭値を計算する。 fHffi値として〖娥々な物 が考えられるが、本¾»態においては、 式 (11) の讓式に基づき算出した l¥MilE 1〜 E 4を使用する。 E 1〜 E 4は、 それぞれ方向 1から方向 4に対応した評価値であ る。  In direction discrimination, direction 1 force direction 4 is determined, and in order to determine which is the direction along the edge most, the dictation value is calculated for each direction. Various fHffi values are conceivable, but in this embodiment, l ¥ MilE 1 to E 4 calculated based on the equation (11) are used. E 1 to E 4 are evaluation values corresponding to directions 1 to 4, respectively.
E 1 = |A22-A23| + |A22-A24 | + |A22-A21 | + |A22-A20 | E2 = |A22-A13| + |A22— A04| + |A22— A3 l| + |A22_A40| E3 = |A22-A12| + |A22_A02| + |A22— A32| + |A22-A42| E4 = |A22-A11 | + |A22_A00| + |A22— A33| + |A22-A44| E 1 = | A22-A23 | + | A22-A24 | + | A22-A21 | + | A22-A20 | E2 = | A22-A13 | + | A22— A04 | + | A22— A3 l | + | A22_A40 | E3 = | A22-A12 | + | A22_A02 | + | A22— A32 | + | A22-A42 | E4 = | A22-A11 | + | A22_A00 | + | A22— A33 | + | A22-A44 |
(11)  (11)
龍値は、 エッジが雜する に大きくなり、 エッジが雜しなレ、 に小さくなる 赚を有する。  The dragon value has an edge that grows larger when the edge is smaller, and smaller when the edge is smaller.
方向判別部 106は、 tmi 1力、ら E 4の中で最 直を検出し、 その龍値に対応す る方向はエッジが しないと判附る。 すなわち、 最小の籠値に対応する方向を、 ェ ッジに沿った方向と判定する。 検出したェッジ方向は、 ノィズ 107ヘ^される。 続いて、 ノイズ 07の動作の詳細について説明する。  The direction discriminating unit 106 detects the straight line among tmi 1 force, et al. E 4 and determines that there is no edge in the direction corresponding to the dragon value. That is, the direction corresponding to the smallest threshold is determined as the direction along the edge. The detected edge direction is set to Noise 107. Next, details of the operation of noise 07 will be described.
図 4は、 ノィズ 107の一例を示す図である。 ノィズ 107は、 方向別フ ィルタ部 120およびコアリング部 121を備える。 抽出部 400および方向判別部 10 6は、 方向別フィルタ部 120^^^されている。 方向別フィルタ部 120は、 コアリン グ部 12 されている。 コアリング部 121は、 画像合成部 108^¾続されてい る。  FIG. 4 is a diagram illustrating an example of the noise 107. The noise 107 includes a direction-specific filter unit 120 and a coring unit 121. The extraction unit 400 and the direction discriminating unit 106 are directional filter units 120 ^^^. The direction-specific filter unit 120 is a coring unit 12. The coring unit 121 is connected to the image composition unit 108.
まず、 抽出部 400から^^された第 2成分画像 Vの画素ブロックは、 方向別フィルタ 部 120に入力される。 方向別フィルタ部 120は、 方向判別部 106から されたェ ッジ方向判雄果、 すなわちエッジの方向に基づいてフィルタ係数を決定し、 決定したフ ィルタ係数に基づレヽたフィルタ処理を施す。 ここで、 フィルタ係数は、 注目画素に対して、 エッジ方向に位& "Tる画素がフィルタ^ 果に大きく寄与するように設計 (重み付け) されたものとなっている。  First, the pixel block of the second component image V obtained from the extraction unit 400 is input to the direction-specific filter unit 120. The direction-specific filter unit 120 determines a filter coefficient based on the edge direction judgment result from the direction determination unit 106, that is, the edge direction, and performs a filtering process based on the determined filter coefficient. Here, the filter coefficient is designed (weighted) so that the pixel positioned in the edge direction with respect to the target pixel greatly contributes to the filter effect.
フィノレタ^ Μ¾¾は、 コアリング部 121 ^^される。 コアリング部 121は、 フィ ノレタ^ 果に対して、微/ J、信号をゼロにするようなコアリング処理を施す。 図 5 A〜図 5 Cは、 コアリング部 1 2 1での処理の一例を示している。 The finale ^ Μ¾¾ is the coring part 121 ^^. The coring part 121 is The correlating process is performed on the Noleta result to make the signal fine / J and zero. 5A to 5C show an example of processing in the coring unit 1 2 1.
コアリング処理は、 基準値を B、 上限閾値を Cl= B+Tl (T1〉0)、 下限閾値を C2=B+T2 (T2く 0)とし、 鍵前の信 ^直 Aと処理後 C0{言^直 Dの隱が式(1 2)、 および図 5 Aのグ ラフで表される信^ 0®である。  In the coring process, the reference value is B, the upper threshold value is Cl = B + Tl (T1> 0), the lower threshold value is C2 = B + T2 (T2 <0), and the signal A before key and C0 after processing. {The word “D” is a signal ^ 0® represented by the equation (1 2) and the graph in Fig. 5A.
B + T1く Aの D = A - Tl - B  B + T1 A A D = A-Tl-B
B + T2く Aく A + T1の龄 D = B  B + T2 A A A + T1 龄 D = B
Aく B + T2の^^ D = A - T2 - B ( 1 2) ここで T l、 Τ 2はそれぞれ、 上限閾値、 下限閾値を決定するパラメータであり、 第 1 の ¾6© 態においては、 あらかじめ設定された固定値としている。  A ^ B + T2 ^^ D = A-T2-B (1 2) where T l and Τ 2 are the parameters that determine the upper and lower thresholds, respectively. In the first ¾6 mode, A fixed value set in advance is used.
図 5 B、 図 5 Cは、 コアリング力 S行われる を示している。 図 5 B【^す 1次元の信 Fig. 5B and Fig. 5C show that the coring force S is performed. Fig. 5 B [^ su One-dimensional signal
^直 Aに対してコアリングを行うと、 図 5 C〖^"信 "^直 Dが得られる。 基箱 Bには、 一般に、信 直 Aの移動平均力 S用いられる。 If coring is performed on ^ A, Fig. 5 C 〖^ "信" ^ 直 D is obtained. For box B, the moving average force S of faith A is generally used.
ただし、 i 方向別フィルタ部 1 2 0にてフィルタ達を施した第 2成分画像 Vであり、 第 2成分画像 Vは、麵像信号 I力 骨格成分である第 1成分画像 Uを除いた ものである。 従って、 本QI^態においては、 纖直 Bを 0としている。  However, it is the second component image V that has been filtered by the i-direction filter unit 120, and the second component image V is obtained by removing the first component image U, which is the image signal I force skeleton component. It is. Therefore, Naoto B is set to 0 in this QI ^ state.
コアリング匁! «果は、 画像合成部 1 0 される。  Coring 匁! The result is the image composition unit 10.
なお、 固 ft¾素子 1 0 2をモノクロ用撮像素子に置換し、 モノクロ画像信号に基づき 麵を構^ Tることも可能である。 その 、 顾像信号 Iはモノクロ信号となり、顾 像信号から爐される各成分 U,Vは、 ] ^信号となる。  It is also possible to replace the fixed ft¾element 102 with a monochrome image pickup element and configure the 基 づ き based on the monochrome image signal. Therefore, the image signal I becomes a monochrome signal, and each component U, V input from the image signal becomes a] signal.
図 6は、画像分解部 1 0 5から画像合成部 1 0 8までの^!理をソフトウェア処理により する のフローを示している。 ソフトウェア処理で用いられるプログラムは、 例え ば、 コンピュータの記 置に格納しておく。 コンピュータの C PUは、 記憶装置からプ ログラムを読み込んで、 ¾ίτΤ¾0 なお、 記離置は、 例えば、 光磁気ディスク、 CD— ROM, DVD-ROM, 体メモリ等である。 また、 プログラムを通信回線によって コンピュータに配信し、 この配信を受けたコンピュータがプログラムを HfrTることもで さる。 Fig. 6 shows the flow of software processing from the image decomposition unit 105 to the image composition unit 10 8. The program used in software processing is, for example, For example, store it in the computer storage. C PU computer reads the storage device program from, ¾ItT¾ 0 Note that KiHanare置, for example, a magneto-optical disk, CD- ROM, DVD-ROM, a body memory. It is also possible to distribute a program to a computer via a communication line, and the computer receiving this distribution can HfrT the program.
ステップ S O 1では、 顾像信号 Iを第 1成分画像 Uと第 2成分画像 Vに適する。 ス テツプ S 0 2では、 第 1成分画像 Uに基づきエッジ方向を示^ Mlを算出し、 評価値に 基づきェッジ方向を判定する。  In step S O 1, the image signal I is suitable for the first component image U and the second component image V. In step S 0 2, the edge direction is calculated based on the first component image U, and the edge direction is determined based on the evaluation value.
ステップ S 0 3では、 第 2成分画像 Vに対して、 ステップ S 0 2で判定したエッジ方向 に基づき、 方向別フィルタ処理を行う。 ステップ S O 4では、 方向別フィルタ 後の第 2成分画像 V, に対して、 コアリング処理を行う。 ステップ S O 5では、 第 1成分画像 U と、 ステップ S O 4で鍵された後の第 2成分画像 V, , を合成し、 合成画像 を得る。 以上、 第 1の雄形態によれば、 麵像信号を、 骨格成分である第 1成分画像 Uと、 原 画像信号に ¾~Τる第 1成分画像 Uの藤から得られる第 2成分画像 Vと む複数の成分 を表す画像に舊し、 第 1成分画像 Uに対してエッジ成分の方向を判別して、 第 2成分画 像 Vに対して、 エッジ成分の方向に応じてノイズを赚する。 骨格成分 む第 1成分画 像 Uに基づきェッジ成分の方向を判別することで、 ノィズの影響を受けなレヽ正確な方向判 別が可能となる。 また、 ノイズを含む第 2成分画像 Vに対して、 エッジ成分の方向に応じ てノィズ を行うことで、 エツジ成分を!^したノィズ ^が可能となる。  In step S 0 3, direction-specific filtering is performed on the second component image V based on the edge direction determined in step S 0 2. In step S O 4, coring processing is performed on the second component image V, after filtering by direction. In step S O 5, the first component image U and the second component images V,, after keying in step S O 4 are synthesized to obtain a synthesized image. As described above, according to the first male form, the image signal is divided into the first component image U which is a skeleton component and the second component image V obtained from the wisteria of the first component image U which is similar to the original image signal. In the image representing multiple components, the direction of the edge component is determined with respect to the first component image U, and the noise is input according to the direction of the edge component with respect to the second component image V. . By discriminating the direction of the wedge component based on the first component image U including the skeletal component, it becomes possible to accurately determine the direction without being affected by noise. In addition, by applying noise to the second component image V containing noise according to the direction of the edge component, it is possible to make noise ^!
特に、 第 1成分画像 Uの画素ブロックと、 第 1成分画像 Uの画素ブロックに対応する第 2成分画像 Vの画素プロックとを抽出する。 そして、 第 2成分画像 Vの画素プロックのう ち、 注目画素位置に対応する第 2成分画像 V上の画素位置に対して、 エッジ成分の方向と 直交する方向に位 & る画素群の各画素値に基づき、領域内の細波成分を算出する。 第In particular, the pixel block of the first component image U and the pixel block of the second component image V corresponding to the pixel block of the first component image U are extracted. Of the pixel block of the second component image V, the edge component direction and the pixel position on the second component image V corresponding to the target pixel position Based on the pixel values of the pixel group located in the orthogonal direction, the fine wave component in the region is calculated. First
2成分画像 Vに対してノィズ を行う際に、 ェッジ成分の方向を考慮した 波成 分を算出することにより、 エッジ成分を膽したノイズ {g»iaが可能となる。 When noise is applied to the two-component image V, by calculating the wave component considering the direction of the edge component, noise {g »ia with an edge component added can be obtained.
また、 第 1成分画像 uの画素ブロックを用いて、 注目画素位置に ¾~ るエッジ成分の方 向を判別するので、 安定した方向判別結果を得ることができる。  In addition, since the direction of the edge component from the target pixel position is determined using the pixel block of the first component image u, a stable direction determination result can be obtained.
また、 第 1成分画像 Uとノイズ赚後の第 2成分画像 Vの合成を行うので、 麵像信号 Iに対して、 ノィズ された画像信号を得ることができる。  In addition, since the first component image U and the second component image V after noise are synthesized, a noise image signal can be obtained with respect to the image signal I.
第 1成分画像 Uは、 顧像の平坦部 エッジ成分 ¾ ^むので、 骨格成分を^ 第 1成 分画像 Uからのエッジ方向判別精度を高めることが可能となる。  Since the first component image U includes the flat portion edge component of the customer image, the edge direction discrimination accuracy from the first component image U can be improved.
画像舊部 1 0 5は、 I =U+Vで定義される加算型^!、 または、 I =U X Vで定義 される乗算型爐を行うので、 骨格成分を含む第 1成分画像 u、 および、微小な変動成分 を含む第 2成分画像 Vに^?することが可能となり、 成^に適した を行うことが可 能となる。  The image part 1 0 5 is the addition type defined by I = U + V ^! Or, because the multiplication type 爐 defined by I = U X V is performed, the first component image u including the skeletal component and the second component image V including the minute fluctuation component ^? This makes it possible to perform suitable for growth.
また、 画像舊部 1 0 5は、 画像信号 Iに対して、 Total Variation ノルムを算出し、 算出した Total Variationノルムを最 匕することにより、願像信号 I力らェッジ成分 及び平坦成分を含む第 1成分画像 Uを抽出するので、 高精度な第 1成分画像 Uの抽出を行 うことができる。  In addition, the image edge portion 105 calculates a total variation norm with respect to the image signal I and minimizes the calculated total variation norm to thereby obtain a first component including an edge component and a flat component of the image signal I force. Since the one-component image U is extracted, the first component image U can be extracted with high accuracy.
原画像信号 Iは複数の械分から構成され、麵像信号 Iの械飾に、 画像連部 1 0 5、 方向判別部 1 0 6、 ノイズ 0 7を順 するので、 カラー画像信号に対 してノイズ を翻すること力可能となる。  The original image signal I is composed of a plurality of machine parts, and the image connection part 1 0 5, direction discriminating part 1 0 6, and noise 0 7 are arranged in order of the decoration of the image signal I. It is possible to reverse the noise.
<第 2の¾»態〉  <Second ¾ »state>
図 7は、 本発明の第 2の実 «態に係る撮像装置のシステム構成図である。 基 Φ«成は 第 1の 態と同等であり、 同一の構成には同一の名称と番号を割り当てている。 以下、 異なる部分のみ説明する。 FIG. 7 is a system configuration diagram of the imaging apparatus according to the second embodiment of the present invention. Basic Φ «Nariha It is equivalent to the first state, and the same name and number are assigned to the same configuration. Only the differences will be described below.
第 2の¾»態は、 図 1に 1 の ^態から、 方向判別部 1 0 6力 S方向判別部 2 3 4に、 ノィズ、{¾« 1 0 7がノィズ、{5^ 2 0 1に置換され、 ノ、。ラメータ設¾¾ 2 0 0 が i ^された構成となっている。  In the second ¾ »state, from the ^ state of 1 in FIG. 1, the direction discriminating unit 1 0 6 force S direction discriminating unit 2 3 4 is noisy, {¾« 1 0 7 is noisy, {5 ^ 2 0 1 Replaced with no. The parameter configuration 2 0 0 is i ^.
画像^?部 1 0 5は、 画像合成部 1 0 8、 ノ ラメータ設£¾ 2 0 0、 および、 抽出部 4 0 0 ^^^されている。 抽出部 4 0 0は、 方向判別部 2 3 4およびノイズ 2 0 1へ 鎌されている。 方向判別部 2 3 4および ラメ一タ設趨 2 0 0は、 ノィズ 2 0 されている。 ノイズ ί®» 2 0 1は、 画像合成部 1 0 8^^^されている。  The image ^ 1 part 1 0 5 includes an image composition part 1 0 8, a parameter setting 2 0 0, and an extraction part 4 0 0 ^^^. The extraction unit 400 is obscured by the direction discrimination unit 2 3 4 and noise 2 0 1. The direction discriminating unit 2 3 4 and the parameter setting 2 0 0 are noise 2 0. Noise ί® »2 0 1 is the image composition part 1 0 8 ^^^.
第 1の実施形態にぉレ、ては、 コアリング処理の際の上限閾値おょぴ下限閾値を所定の固 定値で麵してい 第 2の 態においては、 第 1成分画像 Uの信号レベルに基づき、 第 2成分画像 Vにおけるノイズ量を推定し、 ノイズ量に基づいて、 上記上限閾値おょぴ下 限閾値を設定する。 このような構成により、 ノィズ量によってコアリング処理の効果を制 御すること力 S可能となつてレ、る。  In the second embodiment, the upper threshold value and the lower threshold value in the coring process are set at a predetermined fixed value. In the second mode, the signal level of the first component image U is set. Based on this, the amount of noise in the second component image V is estimated, and the upper limit threshold and the lower limit threshold are set based on the noise amount. With such a configuration, it is possible to control the effect of the coring process by the amount of noise.
図 7を参照しながら、 処理の »を説明する。 第 1の¾6^態と同様に、 抽出部 4 0 0 は、 第 1成分画像 Uの画素プロックおよび第 2成分画像 Vの画素プロックを抽出する。 抽 出部 4 0 0において抽出された第 1成分画像 Uの画素ブロックは、 方向判別部 2 3 送され、 第 2成分画像 Vの画素ブロックは、 方向判別部 2 3 4およびノイズ {¾¾¾ 2 0 1 ^^^される。  The process »will be described with reference to FIG. Similar to the first ¾6 ^ mode, the extraction unit 4 0 0 extracts the pixel block of the first component image U and the pixel block of the second component image V. The pixel block of the first component image U extracted by the extraction unit 400 is sent to the direction discriminating unit 23, and the pixel block of the second component image V is sent to the direction discriminating unit 2 34 and noise {¾¾¾ 2 0 1 ^^^
方向判別部 2 3 4では、 第 1成分画像 Uおよび第 2成分画像 Vの画素プロックに基づき エッジ方向を判別する。 エッジ方向判別結果は、 ノイズ {g« 2 0 1 ^^される。 方向 判別麵の詳細にっレゝては後财る。 パラメータ設^ p200は、 まず、 画像舊部ェ 05から第 1成分画像 Uの信号レベル m を取得した後、 あらかじめ設定したノイズ量のモデルを用いて、 第 ι成分画像The direction discriminating unit 2 3 4 discriminates the edge direction based on the pixel block of the first component image U and the second component image V. The edge direction discrimination result is noise {g «2 0 1 ^^. We will go back to the details of the direction discriminator. The parameter setting ^ p 200 is obtained by first obtaining the signal level m of the first component image U from the image section 05, and then using the noise amount model set in advance,
Uの信号レベルに対応する第 2成分画像 Vのノイズ量ひを画素毎に推定する。 ノイズ量推 定の詳細にっ 、ては後 る。 The amount of noise in the second component image V corresponding to the U signal level is estimated for each pixel. The details of the estimation of the amount of noise will be delayed.
次に、 ノイズ量 σに基づいて、 パラメータ Tl, Τ 2を設定する。 パラメータ Tl, Τ 2は、 例えば式 (13) により、 ノイズ量 σに比例する値に設定される。 ただし、 式 (1 3) において、 kは所定の係数で、 例えば 1/2である。  Next, parameters Tl, Τ 2 are set based on the amount of noise σ. The parameters Tl and Τ2 are set to values proportional to the noise amount σ by, for example, Equation (13). However, in Equation (1 3), k is a predetermined coefficient, for example, 1/2.
Tl= k σ  Tl = k σ
T2=-k σ (13)  T2 = -k σ (13)
パラメータ Tl, Τ2は、 ノイズ {©¾Ρ201に^される。 ノイズ iS¾¾201は、 まず、 第 1の ¾6© 態と同様の;^により、 第 2成分画像 Vの画素ブロックに対し、 方向 判別部 234から取得したエッジ方向判別結果が示すエッジの方向に基づいて、 フィルタ 係数を決定し、 フィルタ鍵を施す。  Parameters Tl and Τ2 are set to noise {© ¾Ρ201. Noise iS ¾ ¾ 201 is the same as in the first ¾ 6 state; first, based on the edge direction indicated by the edge direction determination result obtained from the direction determination unit 234 for the pixel block of the second component image V by ^ Determine the filter coefficient and apply the filter key.
次に、 第 1の ¾Sfe$態とは異なり、 フィルタ鍵後の第 2成分画像 V, に対して、 パラ メータ設 から取得したパラメータ Tl、 Τ 2に基づくコアリング ffiを施すことによ り、 ノイズ iS^! を完了する。 ノイズ の詳細については後 る。  Next, unlike the first ¾Sfe $ state, by applying the coring ffi based on the parameters Tl and Τ2 obtained from the parameter settings to the second component image V, after the filter key, Complete Noise iS ^! Details of noise will be discussed later.
次に、 方向判別部 234の動作の詳細について説明する。 第 1の »^態における方向 判別部 106の動作と鉢的に同様であるが、 第 1成分画像 Uの画素プロックと第 2成分 画像 Vの画素ブロックの対応する画素位置における画素値同士を所定の比率により重み付 き平均化処理をして生成した参照画像 I dirに基づレヽて方向判別する点が異なる。 この点 につレ、て図 8を参照しながら説明する。  Next, details of the operation of the direction determination unit 234 will be described. The direction in the first »^ state is similar to the operation of the determination unit 106, except that the pixel values at the corresponding pixel positions of the pixel block of the first component image U and the pixel block of the second component image V are predetermined. The difference is that the direction is discriminated based on the reference image I dir generated by weighted averaging according to the ratio. This point will be described with reference to FIG.
方向判別部 234では、 まず、 画像舊部 105力、ら、 図 8 Aに示すような、 第 1成分 画像 Uの画素プロック、 および図 8 B (^すような第 2成分画像 Vの画素プロックを取得 する。 図 8 Aにおいて、 A 0 0〜A4 4は、 画素ブロック内の各画素を示し、 中心画素 A 2 2が注目画素位置に相当する。 図 8 Bにおいて、 B 0 0〜B 4 4は、 画素プロック内の 各画素を示し、 中心画素 B 2 2が注目画素位置に相当する。 これら画素から新たな画素値 を計算して、 方向判別に細する参照画像 I dirの画素プロックを構财る。 In the direction discriminating unit 234, first, the first component as shown in FIG. Obtain the pixel block of the image U and the pixel block of the second component image V shown in Fig. 8B (see Fig. 8A. In Fig. 8A, A 0 0 to A4 4 indicate each pixel in the pixel block, and the center The pixel A 2 2 corresponds to the target pixel position In Fig. 8B, B 0 0 to B 44 indicate each pixel in the pixel block, and the center pixel B 2 2 corresponds to the target pixel position. A new pixel value is calculated from, and the pixel block of the reference image I dir is subdivided to determine the direction.
図 8 Cにおける C 0 0〜C 4 4の各画素は、 方向判別に^ fflする参照画像 I dir の画素 である。 各画素 C 0 0〜C 4 4は、 第 1成分画像の画素プロック内に含まれる画素 A 0 0 〜A 4 4と、 第 2成分画像の画素ブロック内に含まれる画素 B O 0〜B 4 4から、 式 (1 4 ) ;1^1~ような重みづけ加算することにより構成される。  Each pixel of C 00 to C 44 in FIG. 8C is a pixel of the reference image I dir to be flfled for direction discrimination. Each pixel C 0 0 to C 4 4 includes pixels A 0 0 to A 4 4 included in the pixel block of the first component image and pixels BO 0 to B 4 4 included in the pixel block of the second component image. From the above, it is constructed by weighted addition such as equation (1 4); 1 ^ 1 ~.
Cij = Aij + wij * Bij (i, j = 0, ···,4) ( 1 4)  Cij = Aij + wij * Bij (i, j = 0, ..., 4) (1 4)
式 (1 4) において、 wij は 0〜0. 5程度の重みである。 wij が 0に近づけば、 第 1 成分画像 U力 S優先されることにより、 ノイズに強く、 ^^的なエツ、:^ f造に基づく方向判 別が行われる。 一方、 wijが大きくなる程、 テクスチャのような微小な変動成分の影響を 考慮した、 より精度の高い方向判別を行うことができる。  In equation (1 4), wij is a weight of about 0 to 0.5. When wij is close to 0, the first component image U-force S is given priority, so it is resistant to noise and the direction is determined based on the ^^-like character, ^^ structure. On the other hand, the larger the wij is, the more accurate direction discrimination can be performed in consideration of the influence of minute fluctuation components such as texture.
なお、 wij は、 画素プロック内の画素位置により異なる値とする構成をとることも可能 である。 また、 方向判別部に外部から wij を入力することできるような設¾¾を ii¾口し、 wijを任意に設定することが可能な構成とすることもできる。  Note that wij can have a different value depending on the pixel position in the pixel block. In addition, a configuration in which wij can be input from the outside to the direction discriminating unit can be configured so that wij can be arbitrarily set.
次に、 参照画像 I dirの画素プロックに基づいて、 第 1の¾»態と同様の雜により、 方向判別を行い、 方向判別結果をノイズ ί©¾| 2 0 する。  Next, based on the pixel block of the reference image I dir, direction determination is performed by the same method as in the first exemplary embodiment, and the direction determination result is set to noise.
次に、 パラメータ設 2 0 0におけるノィズ量の推定方法にっレ、て説明する。 パラメ 一タ設 2 0 0には、 第 2成分画像 Vに対し、 あらかじめ^ ¾した信号レベル一ノイズ 搬モデル (以下、 ノイズモデル) 力 S識されている。 ノ、。ラメータ設 2 0 0は、 ノィ ズモデルを参照することにより、 第 2成分画像 Vの信" ^直に るノイズ量びを推定する。 以下、 ノイズモデルについて説明する。 Next, the noise amount estimation method in the parameter setting 200 will be described. In the parameter setting 200, a signal level-one noise carrying model (hereinafter referred to as a noise model) force S for the second component image V is recognized. No. Parameter setting 2 0 0 is By referring to the model, the amount of noise corrected in the second component image V is estimated. The noise model will be described below.
ノイズ量びは、 A/D 103による変換直後 言号レベル に対して 2次曲励に増加 する。 JP2005— 175718 Aに開示されているように、 信号レべノレ一ノイズ分散 モデルを 2次関数で表すと、 式 (15) で表される。 ただし、 式 (15) において、 α、 The amount of noise increases to the second order excitation with respect to the word level immediately after conversion by A / D 103. As disclosed in JP2005—175718 A, when the signal level-noisy-noise variance model is expressed by a quadratic function, it is expressed by equation (15). However, in Equation (15), α,
)3、 γは微項である。 ) 3, γ is a subterm.
σ = ∑2 0+ β∑0 + γ (ェ σ = ∑ 2 0 + β∑ 0 + γ
しかしながら、 ノイズ量 σは信号レベルだけではなく、 素子の ゃゲインによっても 変化する。 図 9 Αは、 一例として、 ある^^ tにおけるゲインに関連する 3觀の I S O 感度 (ゲイン) 100、 200、 400に るノイズ量 σをプロットしている。 個々の 曲線は式 (15) に示される形態をしているが、 その係数はゲインに関連する I SO感度 により異なる。 を t、 ゲインを gとし、 上記を考慮した形でノイズモデルの^:化を 行うと、 式 (16) で表すことができる。
Figure imgf000022_0001
However, the amount of noise σ varies not only with the signal level but also with the gain of the element. As an example, Fig. 9 プ ロ ッ ト plots the amount of noise σ at 3 ISO ISO sensitivities (gains) 100, 200 and 400 related to the gain at ^^ t. Each curve has the form shown in Eq. (15), but its coefficient depends on the ISO sensitivity related to the gain. If t is set to t, the gain is set to g, and the noise model is converted to ^: in consideration of the above, it can be expressed by Equation (16).
Figure imgf000022_0001
式 (16) において、 ο^、 ygti 湿度 t、 ゲイン gに応じて決まる定数項であ る。 カラー!^信号の^ \ このノイズモデルは、 各色信号に対して独立に適用すること ができる。 In Equation (16), ο ^, ygt i is a constant term determined according to humidity t and gain g. Color! ^ Signal ^ \ This noise model can be applied independently to each color signal.
しかしながら、 AZD変換後、 信号纏部 104において信号処理を行うため、 上記モ デルをそのまま用いることはできない。 すなわち、 上記ノイズモデルの難にカ卩え、 信号 麵部 104の特 14を考慮する必要がある。  However, since the signal processing unit 104 performs signal processing after AZD conversion, the above model cannot be used as it is. In other words, considering the difficulty of the noise model, it is necessary to consider the characteristics 14 of the signal section 104.
例えば、 信号鍵部 104力 12bitの入力信号を 8bit出力信号に 変換する Knee 処 は γ変^理を行う:^、 信号^ ®部 104は、 図 9 Bの様な入出力信^ 性を有 している。 図中、 L (12)は A,D変換直後の信号レベル、 L (8)は信号処理後の信号レベル を表す。 For example, the Knee process that converts a 12-bit input signal into a 8-bit output signal performs a γ transformation: ^, and the signal ^ ® unit 104 has input / output reliability as shown in Figure 9B. is doing. In the figure, L (12) represents the signal level immediately after A and D conversion, and L (8) represents the signal level after signal processing.
したがって、 式(1 5)、 または式(1 6)の AZD変換直後の信号レベル一ノイズ量の特 性と、 図 9 Bの様な信号処理部 1 0 4の特性を考慮すると、 信号処理後の信号レベル L (8)とノイズ量びは、 図 9 C【 した轉の曲線の隱となる。  Therefore, if the characteristics of the signal level and the amount of noise immediately after AZD conversion in Equation (15) or Equation (16) and the characteristics of the signal processing unit 104 as shown in Fig. 9B are considered, The signal level L (8) and the amount of noise are the values in the curve shown in Fig. 9C.
パラメータ設^ 2 0 0は、 ま ·Τ 1成分画像 Uの信号レベルを画像^?部 1 0 5力ら 取得する。 次に、 第 1成分画像 Uの信号レベルに基づき、 図 9 Cに示したノイズモデルを 参照してノイズ量びを取得し、 例えば、 式. ( 1 3) より.、.ソィズ量ひに応じたパラメータ T l、 Τ 2を設定している。  The parameter setting ^ 2 0 0 is used to obtain the signal level of the 1-component image U from the image ^? Part 1 0 5 force. Next, based on the signal level of the first component image U, the noise amount is obtained by referring to the noise model shown in Fig. 9C. For example, according to Equation (1 3), depending on the amount of noise The parameters Tl and Τ2 are set.
次に、 ノィズ 2 0 1の動作の詳細にっレ、て説明する。 ¾Φ«成は、 第 1の¾» 態におけるノィズ ig« 1 0 7と同様であり、 同一の構成には同一の名称と番号を割り当 てている。 以下、 異なる部分のみ説明する。  Next, details of the operation of noise 2 0 1 will be described. ¾Φ «is the same as the noise ig« 1 07 in the first ¾ embodiment, and the same configuration and the same name and number are assigned. Only the differences will be described below.
第 1の雄形態におけるノィズ 1 0 7の動作と »的には同様であるが、 パラメ ータ設 ¾¾2 0 0から取得したパラメータ T 1、 T 2に基づいてコアリング処理を制御す る点が異なる。  The operation of noise 10 07 in the first male form is the same as that of the noise 10 07 except that the coring process is controlled based on the parameters T 1 and T 2 obtained from the parameter settings ¾¾20. Different.
図 1 0は、 ノィズ iS» 2 0 1の一例を示す図である。 ノィズ 2 0 1は、 図 4に 示すノイズ 0 7のコアリング部 1 2 1をコアリング部 2 2 1に置換した構成とな つている。 方向判別部 2 3 4は、 方向別フィルタ部 1 2 0^^^されている。 パラメータ 設¾¾2 0 0および方向別フィルタ部 1 2 0は、 コアリング部 2 2 1 ^^^されている。 コアリング部 2 2 1は、 画像合成部 1 0 8 ^^^されてレ、る。  FIG. 10 is a diagram showing an example of a noise iS »20 1. The noise 2 0 1 has a configuration in which the coring part 1 2 1 of noise 0 7 shown in FIG. 4 is replaced with a coring part 2 2 1. The direction discriminating unit 2 3 4 is a direction-specific filter unit 1 2 0 ^^^. The parameter setting example 2 0 0 and the direction-specific filter section 1 2 0 are coring sections 2 2 1 The coring unit 2 2 1 is the image composition unit 1 0 8 ^^^.
まず、 抽出部 4 0 0から された第 2成分画像 Vの画素ブロックは、 方向別フィルタ 部 1 2 0に入力される。 方向別フィルタ部 1 2 0は、 方向判別部 2 3 4から^!されたェ ッジ方向判 ¾ ^果、 すなわちエッジの方向に基づきフィルタ係数を決定し、 フィルタ処理 を施す。 フィルタ 果は、 コアリング部 2 2 1 ^¾される。 First, the pixel block of the second component image V output from the extraction unit 400 is input to the direction-specific filter unit 120. The direction-specific filter unit 1 2 0 is the same as the direction discriminator 2 3 4 The filter direction is determined based on the edge direction, that is, the edge direction, and the filter processing is performed. The filter result is the coring part 2 2 1 ^ ¾.
コアリング部 2 2 1は、 フィルタ処理結果に対して微小信号をゼ口にするようなコアリ ング を施す。 作は、 第 1の ¾ϋ形態におけるノイズ 0 7内のコアリン グ部 1 2 1と同様である。 ただし、 コアリング上限閾値おょぴ下限閾値をそれぞ 定す るパラメータ T 1および T 2をパラメータ設 2 0 0より取得して、 利用してレ、るため、 推定したノィズ量に応じて、 コアリンク によるノィズ ^の度合レヽを制御することが 可能となる。 コアリング^ 果は、 画像合成部 1 0 8^¾される。  The coring unit 2 2 1 performs coring so that a minute signal is used as the opening for the filter processing result. The operation is the same as that of the coring portion 1 2 1 in the noise 07 in the first embodiment. However, since the parameters T 1 and T 2 that specify the coring upper limit threshold and the lower limit threshold are obtained from the parameter setting 2 0 0 and used, depending on the estimated noise amount, It is possible to control the noise level of the core link. The coring result is generated by an image composition unit 1 0 8 ^ ¾.
なお、 固 素子 1 0 2をモノクロ用撮像素子に置換し、 モノクロ画像信号に基づき を構^ ることも可能である。 その^、 像信号 Iはモノク口信号となり、 J¾S 像信号から信される各成分 u, v«¾¾信号となる。  Note that it is also possible to replace the fixed element 102 with a monochrome image pickup element and to configure based on a monochrome image signal. Then, the image signal I becomes a monochromatic mouth signal, and becomes each component u, v «¾¾ signal transmitted from the J¾S image signal.
図 1 1は、 画像^?部 1 0 5から画像合成部 1 0 8までの処理をソフトウェア処理によ り する のフローを示している。 ソフトウェア で用いられるプログラムは、 コ ンピュータの ROM、 RAM等の記 1t¾置に!^され、 コンピュータの C PUによって実 行される。 なお、 第
Figure imgf000024_0001
しては、 同 一の ステップ番号を割り当ててレ、る。
Fig. 11 shows the flow of the processing from the image ^ 1 part 10 5 to the image composition part 10 8 by software processing. The program used in the software is written in 1t¾ of the computer's ROM, RAM, etc. and executed by the computer's CPU. The first
Figure imgf000024_0001
Then, assign the same step number.
ステップ S O 1では、 願像信号 Iを第 1成分画像 Uと第 2成分画像 Vに する。 ス テツプ S 1。では、 第 1成分画像 U、 第 2成分画像 Vに基づいて、 エッジ方向を示 値を算出した後、 評価値に基づきエッジ方向を判定する。 ステップ S 1 1では、 ノイズモ デルに基づき、 第 1成分画像 Uの信号レベルから第 2成分画像 Vのノイズ量を画素毎に推 定し、 ノイズ量に基づいて、 パラメータ T l, Τ 2を設定する。  In step S O 1, the image signal I is converted into a first component image U and a second component image V. Step S 1. Then, after calculating the edge direction based on the first component image U and the second component image V, the edge direction is determined based on the evaluation value. In step S11, based on the noise model, the noise amount of the second component image V is estimated for each pixel from the signal level of the first component image U, and parameters Tl and Τ2 are set based on the noise amount. To do.
ステップ S O 3では、 第 2成分画像 Vに対して、 ステップ S 1 0で判定したエッジ方向 に基づき、 方向別フィルタ処理を行う。 ステップ S 1 2では、 方向別フィルタ 後の第 2成分画像 V' に対して、 ステップ S 1 1で設定したパラメータ T l, Τ 2に基づき、 コ アリング麵を行う。 ステップ S 0 5では、 第 1成分画像 Uとステップ S 1 2でコアリン グ鍵が施された後の第 2成分画像 V, , を合成し、 合成画像 Γ を得る。 In step SO 3, the edge direction determined in step S 1 0 for the second component image V Based on, filter by direction. In step S 12, the second component image V ′ after the direction-specific filtering is subjected to the coring 麵 based on the parameters T 1 and Τ 2 set in step S 11. In step S 0 5, the first component image U and the second component images V,, after being subjected to the coring key in step S 12 are synthesized to obtain a synthesized image Γ.
以上、 第 2の¾»態によれば、 第 1成分画像 Uに基づレヽてノィズ ラメータ Τ 1, Τ 2を設定し、 第 2成分画像 Vに対して、 ノイズS ^ラメータ Τ 1, Τ 2、 および、 ェ ッジ成分の方向に応じたノイズ を行う。 骨格成分 む第 1成分画像 Uにより推 定したノイ
Figure imgf000025_0001
とにより、 ノイズ麵の度合 いをノィズ量に応じて航的に制御することができ、 より高精度なノィズ iS^Wが可能 となる。
As described above, according to the second embodiment, the noise parameters Τ 1 and Τ 2 are set based on the first component image U, and the noise S ^ parameter Τ 1, に 対 し て is set for the second component image V. 2. Perform noise according to the direction of the edge component. Neutral estimated from the first component image U
Figure imgf000025_0001
As a result, the degree of noise can be controlled navigationally according to the amount of noise, and more accurate noise iS ^ W becomes possible.
特に、 第 1成分画像 Uの画素プロックと、 第 1成分画像 Uの画素ブロックに対応する第 2成分画像 Vの画素ブロックとを抽出し、 第 2成分画像 Vの画素ブロックのうち、 注目画 素位置に対応する第 2成分画像 V上の画素位置に対して、 ェッジ成分の方向に直交する方 向に位針る画素群の各画素値に基づいて、 領域内の觀滅分を算出する。 そして、 算 出した麵波成分を、 ノイズ ラメータ T l, T 2に基づレ、て補正する。 第 2成分画 像 Vに对してノィズ {S ^ を行う際に、 ェッジ成分の方向を考慮したSl 波成分を算出 するとともに、 ノイズ鮮に基づき設定したノイズ ラメータ T l, Τ 2により « 波成分を補正することにより、 高精度なノィズ が可能となる。  In particular, the pixel block of the first component image U and the pixel block of the second component image V corresponding to the pixel block of the first component image U are extracted, and the target pixel of the pixel blocks of the second component image V is extracted. For the pixel position on the second component image V corresponding to the position, the extinction amount in the region is calculated based on each pixel value of the pixel group that is aligned in the direction orthogonal to the direction of the edge component. The calculated harmonic component is corrected based on the noise parameters T 1 and T 2. When noise {S ^ is applied to the second component image V, the Sl wave component is calculated considering the direction of the edge component, and the noise parameter T l, Τ 2 set based on the noise level By correcting the components, high-precision noise can be achieved.
方向判別部 2 3 4は、 第 1成分画像 Uの画素プロックと第 2成分画像 Vの画素プロック とを用いて、 注目画素に るエッジ成分の方向を判別するので、 骨格成分に含まれない テクスチャ等の微小な ¾¾¾成分を考慮した高精度な方向判別結果を得ることができる。 また、 方向判別部 2 3 4は、 第 1成分画像 Uの画素プロックと第 2成分画像 Vとの加重 平均を行うことで算出した画像信号を用いて、 エッジ成分の方向を判別するので、 骨格成 分、 および、 骨格成分に含まれないテクスチャ等の微小な纖成分を同時に考慮した高精 度な方向判別結果を得ることができる。 The direction discriminator 2 3 4 discriminates the direction of the edge component that is the target pixel using the pixel block of the first component image U and the pixel block of the second component image V, so that the texture not included in the skeleton component Thus, it is possible to obtain a highly accurate direction discrimination result in consideration of such a small ¾¾¾ component. The direction discriminating unit 2 3 4 also weights the pixel block of the first component image U and the second component image V. Since the edge component direction is determined using the image signal calculated by averaging, a highly accurate direction that simultaneously considers the skeletal component and minute wrinkle components such as textures not included in the skeletal component A discrimination result can be obtained.
さらに、加重平均の比率を任意の値に設定するための設 を設けることにより、 骨格 成分 ¾r ^む第 1成分画像と、微小な観成分 む第 2成分画像と力 s方向判別精度に影響 する度合いを自由に変更することが可能となる。 これにより、 方向判別精度を柔軟に, すること力 s可能となる。  Furthermore, by providing a setting for setting the weighted average ratio to an arbitrary value, the first component image including the skeletal component ¾r ^, the second component image including the minute viewing component, and the force s direction discrimination accuracy are affected. The degree can be freely changed. This makes it possible to flexibly improve the direction discrimination accuracy.
また、 麵像信号 Iは複数の械分から構成され、 麵像信号 Iの ^に、 画像分 解部 1 0 5、 方向判別部 2 3 4、 および、 ノィズ 2 0 1力 S順 される。 ノイズ iS« 2 0 1は、 ^feに画像^?部 1 0 5により^?された第 1成分画像 U、 および 第 2成分画像 Vに対し、 械 にパラメータ設 2 0 0を順魏用し、設定した滅 ^のノイズ ラメータ T l, T 2、 およびエッジ成分の方向に応じて、 第 2成分画 像 Vに対しノイズを纖する。 これにより、 ノイズ纖の効果を 的に制御することが でき、 より高精度なノイズ が可能となる。  The image signal I is composed of a plurality of components, and the image resolution unit 1 0 5, the direction discriminating unit 2 3 4, and the noise 2 0 1 force S are ordered by ^ of the image signal I. The noise iS «2 0 1 is applied to the first component image U and the second component image V that have been generated by the image ^? The noise is input to the second component image V according to the direction of the noise parameters T1, T2 and the edge component. As a result, the effect of the noise can be controlled, and more accurate noise can be achieved.
<第 3の¾»態 >  <Third ¾ »state>
図 1 2は、 本発明の第 3の実施形態に係る撮 ^¾置のシステム構成図である。 基 成 は第 2の »^態例と同等であり、 同一の構成には同一の名称と番号を割り当てている。 以下、 異なる部分のみ説明する。  FIG. 12 is a system configuration diagram of an imaging apparatus according to the third embodiment of the present invention. The composition is the same as the second »^ example, and the same composition is assigned the same name and number. Only the differences will be described below.
第 3の実施形態の構成は、 図 7に示す第 2の実施形態の構成に対して、 バッファ 3 0 1、 相関演算部 3 0 2、 パラメータ補正部 3 0 3力 ¾ ¾口され、 ノイズ 1ffi¾ 2 0 1がノイズ低 « 3 0 4に置換された構成となっている。  The configuration of the third embodiment is different from the configuration of the second embodiment shown in FIG. 7 in that the buffer 3 0 1, the correlation calculation unit 3 0 2, the parameter correction unit 3 0 3, and the noise 1ffi¾ The configuration is such that 2 0 1 is replaced with noise low 3 4.
画像^1部 1 0 5は、抽出部 4 0 0、 ノ、。ラメータ設 ¾¾ 2 0 0、 および、 画像合成部 1 0 8^^されている。 抽出部 4 0 0は、.方向判別部 2 3 4、 ノイズ iS« 3 0 4、 およ び、 バッファ 3 0 されている。 バッファ 3 0 1は、 相関演算部 3 0 2^^^され ている。 方向判別部 2 3 4は、 ノイズffi^ 3 0 4^^されている。 パラメータ設^ 2 0 0および相関演算部 3 0 2は、 パラメータ補正部 3 0 3^^^されている。 パラメ一 タ補正部 3 0 3は、 ノイズ、 iS¾¾ 3 0 4^^されている。 ノイズ、ί£¾¾ 3 0 4は、 画像 合成部 1 0 されている。 Image ^ 1 part 1 0 5 is extracted part 4 0 0 Parameter setting ¾¾ 2 0 0 and image composition unit 1 0 8 ^^ The extraction unit 400 includes a direction discriminating unit 2 3 4, noise iS «3 4, and a buffer 3 0. The buffer 3 0 1 has a correlation operation unit 3 0 2 ^^^. The direction discriminator 2 3 4 has noise ffi ^ 3 0 4 ^^. The parameter setting 2 0 0 and the correlation calculation unit 3 0 2 are a parameter correction unit 3 0 3 ^^^. The parameter correction unit 3 0 3 is noise, iS¾¾ 3 0 4 ^^. Noise, image 3 0 4, is included in the image composition unit 10.
第 2の 態においては、 第 1成分画像 Uに基づいて、 第 2成分画像 Vにおけるノィ ズ量を推定し、 ノイズ量に基づいて閾値を設定する構成となっていた。 ここで、 ノイズを 含まないカラー画像において、 3 X 3の近^!域で評価した局 Β½間相互相関係数 (以下、 相隱 は 1 に近い正値を示す。 一方、 ノイズ ¾r ^カラー画像では、 相醒数が低下 する画素 ¾ ^むため、 近 籠した相隱数は低下する。 このことから、 相醒数 の値が小さレ、ほど画像信号に含まれるノィズが多レ、といえる。  In the second mode, the noise amount in the second component image V is estimated based on the first component image U, and the threshold value is set based on the noise amount. Here, in a color image that does not contain noise, the cross-correlation coefficient between stations evaluated in the 3 X 3 near ^! Region (hereinafter, the correlation is a positive value close to 1. On the other hand, noise ¾r ^ color image In this case, the number of pixels that are close to each other decreases, so the number of close contacts decreases, so it can be said that the smaller the value of the number of awakens, the more noise is included in the image signal. .
そこで、 第 3の実»態では、 分解後の第 2成分画像 Vの各色信号間の色相関を求め、 求めた色相関に応じて、 コアリング鍵を制御するパラメータ T l、 Τ 2を補正する。 こ れにより、 相関が高い領域では、 コアリング麵でのコアリング幅力 S狭まることで、 元の 信号を i¾m "る様に作用する。 一方、 相関の低い領域では、 コアリング鍵でのコアリン グ幅が広がり、 より元 号を平坦化することで、 より高精度のコアリング処理が親で きる。  Therefore, in the third embodiment, the color correlation between the color signals of the second component image V after the decomposition is obtained, and the parameters T l and Τ 2 for controlling the coring key are corrected according to the obtained color correlation. To do. As a result, in the region where the correlation is high, the coring width force S at the coring 麵 is reduced so that the original signal acts as i¾m ". On the other hand, in the region where the correlation is low, the corin A wider corrugation width and flattening of the era makes it possible to use a more accurate coring process.
すなわち、 第 3の¾»態では、 連後の第 2成分画像 Vの各色信号間の細関を求め、 ノイズ量、 および色相関に基づき、 コアリンク の閾値を設定する。 図 1 2を参照しな がら、 鍵の »を説明する。  That is, in the third embodiment, the fine relationship between each color signal of the succeeding second component image V is obtained, and the threshold value of the core link is set based on the noise amount and the color correlation. Explain the key »with reference to Fig. 12.
抽出部 4 0 0におレ、て抽出された第 2成分画像 Vの画素プロックは、 バッファ 3 0 1に 言 される。 The pixel block of the second component image V extracted by the extraction unit 400 is stored in the buffer 300. Said.
ノ、。ラメータ設 2 0 0は、 第 2の 態と同様の手法により、 色信雜のノィズ量 を推定した後、 例えば式 (1 3) に基づレ、てパラメータ T l, Τ 2を設定する。 パラメ一 タ T l, Τ 2は、 ノ ラメータ ¾Ε部 3 0 3 ^^される。  No. In the parameter setting 200, after estimating the noise amount of the color confidence by the same method as in the second mode, the parameters T 1 and Τ 2 are set based on, for example, Eq. (1 3). The parameters T 1 and Τ 2 are the parameters ¾Ε part 3 0 3 ^^.
相関演算部 3 0 2は、 バッファ 3 0 1から、 第 2成分画像 Vの画素プロックを全色信号 につレ、て取得した後、 注目画素位置を含む画素プロック内近 ί彌域での各触分の相関係 数を演算し、 その最 /J 直である最 /J @r蕭、数 rを出力する。 相関演算の詳細については、 後财る。 最 /J湘隱数 rは、 パラメータ ¾E部 3 0 3^¾される。  The correlation calculation unit 30 2 obtains the pixel block of the second component image V from the buffer 3 0 1 for all the color signals, and then obtains each pixel in the pixel block near the pixel block including the target pixel position. Calculates the correlation number of the touch and outputs the most / J @r 蕭, which is the most / J, and the number r. Details of the correlation calculation will be described later. The maximum / J number r is parameter ¾E part 3 0 3 ^ ¾.
パラメータ補正部 3 0 3は、 最 /J §関係数 rに基づレヽて、 パラメータ T 1 , T 2を補正 する。 補正したパラメータ T 1 , 丁2を以降丁1, 、 T 2, と表す。 パラメータ T l、 Τ 2の ¾Eにつレ、て ίΐ¾¾Η "る。  The parameter correction unit 303 corrects the parameters T 1 and T 2 based on the maximum / J §relation number r. The corrected parameters T 1 and D 2 are hereinafter referred to as D 1 and T 2. Set parameter T l, Τ 2 to ¾E.
ノイズ 0 4は、 方向判別部 2 3 4から取得したエッジ方向に基づくフィルタ処 理、 およびパラメータ補正部 3 0 3から取得したパラメータ T l ' 、 T 2 ''に基づくコア リング を色信 "^に独立に行うことで、 ノィズ赚を行う。  Noise 0 4 is a color signal that represents the filter processing based on the edge direction obtained from the direction discriminator 2 3 4 and the coring based on the parameters T l ′ and T 2 ″ obtained from the parameter corrector 3 0 3. The noise is done by doing independently.
ここで、 色信号毎に独立に方向別フィルタ 、 コアリング を行うと、 色信号間の 相関性が崩れることによるアーティファクト力発生する^^がある。 そこで、 コアリング 処理後の第 2成分画像 v, , およびノイズ {S^iirの第 2成分画像 Vを所定の比率に基づき 重みづけ加算することで、 アーティファクトが視覚的に目立つことを抑える。 重みづけ加 算後の第 2成分画像 V, , は、 画像合成部 1 0 される。 ノイズ 理の詳細に ついては後述する。  Here, if the direction-specific filter and coring are performed independently for each color signal, there will be artifacts caused by the correlation between the color signals being lost. Therefore, the second component image v,, and the second component image V of noise {S ^ iir after coring processing are weighted and added based on a predetermined ratio to suppress visually noticeable artifacts. The second component images V,, after weighted addition are sent to the image composition unit 10. Details of noise processing will be described later.
次に、 相関演算処理、 および色信号間の相関に応じたパラメータ T l、 Τ 2の補正の内 容を説明する。 ここでは、 説明を簡単にするために、 第 2成分画像 Vが 1次元であるとし て説明する。 第 2成分画像 Vは、 テクスチャの様な細カ 、構 ^^分とノイズを含む、 m 像信号 Iに る第 1成分画像 Uの^^分であるので、 第 2成分画像 Vはゼロを中心と して 'βτΤる成分である。 Next, the details of the correlation calculation processing and the correction of the parameters T 1 and Τ 2 according to the correlation between the color signals will be described. Here, for simplicity of explanation, it is assumed that the second component image V is one-dimensional. I will explain. Since the second component image V is the fine component like texture, ^^ component and noise, the first component image U in the m image signal I ^^ component, so the second component image V is zero. It is the component that rises as' βτ as the center.
図 13 Αおよひ 1313Bは、願像信号 Iの画素位置と各械分の信号レベルとの » を示している。 図 13 Aに示す例では、 械分間に相関がない。 この 、 各画素位置の 各 ^^分の信号レべノレは、 表 1 ί すとおりである。  Fig. 13 Α and 1313B show »between the pixel position of the image signal I and the signal level of each machine. In the example shown in Figure 13A, there is no correlation between machine minutes. The signal level for each ^^ at each pixel position is as shown in Table 1.
[表 1]
Figure imgf000029_0002
[table 1]
Figure imgf000029_0002
R-G間、 G~B間、 B-R間の各相 »数を表 2に 。  Table 2 shows the number of phases between R and G, between G and B, and between B and R.
[表 2] [Table 2]
Figure imgf000029_0003
Figure imgf000029_0003
この 、
Figure imgf000029_0001
は、 ~0.75148となる。
this ,
Figure imgf000029_0001
Becomes ~ 0.75148.
一方、 図 13Bの例では、 色成分間に相関がある。 この 、 各画素位置の各色成分の 信号レベルは、 表 3に とおりである。  On the other hand, in the example of FIG. 13B, there is a correlation between the color components. Table 3 shows the signal level of each color component at each pixel position.
[表 3] 画素位置 R G B [Table 3] Pixel position RGB
1 1 0 -1  1 1 0 -1
2 4 3 3  2 4 3 3
3 5 3 4  3 5 3 4
4 -2 -1 0  4 -2 -1 0
5 一 1 0 -1  5 1 1 0 -1
R~G間、 G~B間、 B- R間の各相 Γ蕭、数を表 4に^ 1~。  Each phase between R ~ G, G ~ B, B-R Γ 蕭, the number in Table 4 ^ 1 ~.
[表 4]
Figure imgf000030_0001
[Table 4]
Figure imgf000030_0001
この 、最/ J ^應数 rは、 0.873891となる。  In this case, the maximum / J ^ number r is 0.873891.
第 3の猫形態では、 最 /J湘関係数 rを用レ、て、 パラメータ T 1、 T 2をそれぞれ、 式 (17)により ffi!Eする。  In the third cat form, the maximum / J 湘 relation number r is used, and parameters T 1 and T 2 are ffi! E according to equation (17).
Tl,— Ck X (1-r)2 XT1 Tl, — Ck X (1-r) 2 XT1
T2,— Ck X (1-r)2 XT 2 (17) T2, — Ck X (1-r) 2 XT 2 (17)
式 (17) において、 Ckは所定の係数である。 Ck=lとすると、 パラメータ Tl, In equation (17), Ck is a predetermined coefficient. If Ck = l, parameters Tl,
Τ 2は、 図 13 Αの:^、 それぞれ 3.0677倍、 図 13 Bの ¾\ 0.01590倍されることと なる。 Τ 2 will be multiplied by 3.0677 times of Fig. 13 :: 6 \ 0.01590 times of Fig. 13B, respectively.
したがって、 図 13 Aの様に、 械分間に相関がなレ、 は、 コアリング閾値の上限閾 値と下限閾値との幅が大きくなる樹こ されるので、信号をより5 化するように作用 する。 一方で、 図 13 Bの様に、 触分間に相関がある は、 コアリング閾値の上限閾 値と下限閾値との幅が小さくなる様に補正され、 より信号を保存するような僅かな補正が 行われる。 Accordingly, as in FIG. 13 A, Le a correlation between械分, since the width between the upper limit threshold value and the lower threshold of the coring threshold is larger trees this, act to more 5 the signal To do. On the other hand, as shown in Fig. 13B, when there is a correlation between touching minutes, the correction is made so that the width between the upper and lower coring thresholds becomes smaller, and there is a slight correction that preserves the signal. Done.
このように、 第 3の実 «態によれば、 色成分間の相関に応じてコアリング処理の閾値 を補正するようにし これにより、 第 2成分画像 Vに含まれる変動成分のうち、 ノイズ に起因する成分と、 テクスチャのような画像本来の構造に起因する成分を判別することが でき、 コアリング によって後者の成分が劣ィ るのを抑えることができる。  Thus, according to the third embodiment, the coring processing threshold value is corrected in accordance with the correlation between the color components, so that noise among the fluctuation components included in the second component image V is corrected. It is possible to discriminate between the component due to the texture and the component due to the original structure of the image, such as texture, and it is possible to suppress the deterioration of the latter due to coring.
次に、 ノイズ iS»304の動作の詳細について説明する。 戯ひ 作は、 第 2 の¾»態におけるノイズ iSS¾201と同様であり、 同一の構成には同一の名称と番号 を割り当てている。 ただし、 コアリング鍵後の第 2成分画像 V, , と画像連直後の第 2成分画像 Vを重み付け加算し、 出力する点が異なる。  Next, details of the operation of the noise iS »304 will be described. The play is the same as the noise iSS ¾201 in the second ¾ state, and the same name and number are assigned to the same configuration. However, the difference is that the second component image V,, after the coring key and the second component image V immediately after the image sequence are weighted and output.
図 14は、 ノイズ ig»304の構成の一例を示す図である。 ノイズ 1S^304は、 図 4〖;ΐ^Τノイズ、 {S»201に加算部 321を i ¾口した構成となっている。  FIG. 14 is a diagram illustrating an example of the configuration of the noise ig »304. The noise 1S ^ 304 is configured as shown in Fig. 4 〖; ΐ ^ {noise, {S »201 with an adder 321 i ¾.
ノ、。ラメータfIE部 303は、 コアリング部 221^^^されている。 コアリング部 22 1は、カロ算部 32 されている。 画像 部 105¾¾Π算部 321^^^されてい る。 加算部 321は、 画像合 08^^^されている。  No. The parameter fIE section 303 has a coring section 221 ^^^. The coring unit 22 1 is a calorie calculating unit 32. Image part 105¾¾Πcalculation part 321 ^^^ The adder 321 has an image total of 08 ^^^.
方向別フィノレタ部 120、 コアリング部 221ではそれぞれ、 パラメータ補正部 303 により補正されたパラメータ Tl, , Τ2, に基づき、 第 2の雄形態と同様に方向別フ イノレタ処理、 コアリング麵が行われる。 後の第 2成分画像 V, ' は、 加算部 321 される。  Based on the parameters Tl, Τ 2, corrected by the parameter correction unit 303, the direction-specific finer processing 120 and the coring unit 221 perform direction-specific finisher processing and coring 麵 respectively. . The subsequent second component image V, ′ is added to the adder 321.
カロ算部 321では、 画像連部 105から画像連直後の第 2成分画像 Vを取得し、 あ らかじめ設定された所定の比率に基づき、 第 2成分画像 Vとコアリング鍵後の第 2成分 画像 V' ' を重み付け加算する。 これにより、 方向別フィルタ鍵、 および、 コアリング 処理によって、 過度にノイズ {S^Wが影響した際に発生するアーティファタトを抑える ことができる。 The calorie calculation unit 321 obtains the second component image V immediately after the image sequence from the image sequence unit 105, and based on a predetermined ratio set in advance, the second component image V and the second component image after the coring key. Component Image V '' is weighted and added. This suppresses artifacts that occur when noise {S ^ W is excessively affected by the direction-specific filter key and coring processing. be able to.
図 15は、 画像分解部 105から画像合成部 108までの 理をソフトウェア処理によ り ¾mする場合のフローを示している。 ソフトウェア で用いられるプログラムは、 コ ンピュータの ROM、 RAM等の記 置に! ^され、 コンピュータの CPUによって実 行される。 なお、 第 1の難形態における信号鍵のフローと同一の鍵に関しては、 同 一の ステップ番号を割り当ててレ、る。  FIG. 15 shows a flow when the processes from the image decomposition unit 105 to the image composition unit 108 are performed by software processing. Programs used in the software can be stored in the ROM, RAM, etc. of the computer! ^ And executed by the computer's CPU. The same step number is assigned to the same key as the signal key flow in the first difficult form.
ステップ SO 1では、 麵像信号 Iを第 1成分画像 Uと第 2成分画像 Vに舊する。 ス' テツプ S 10では、 第 1成分画像 U、 第 2成分画像 Vに基づいて、 エッジ方向を示す議 値を算出した後、 M直に基づきエッジ方向を判定する。 ステップ S 13では、 第 2成分 画像 Vの各色信号の相関を演算し、 最 @應数 rを算出する。 In step SO 1, the image signal I is input to the first component image U and the second component image V. In step S 10, after the threshold value indicating the edge direction is calculated based on the first component image U and the second component image V, the edge direction is determined based on M. In step S 13, the correlation of each color signal of the second component image V is calculated to calculate the maximum coefficient r .
ステップ S 11では、 ノイズモデルに基づき、 第 1成分画像 Uの信号レベルから第 2成 分画像 Vのノィズ量を画素毎に推定し、 ノィズ量に基づレ、てパラメータ T 1, T 2を設定 する。 ステップ S 14では、 ステップ S 11で得られたパラメータ Tl, Τ2を、 ステツ プ S 13で得られた最 /J湘隱数 rに基づき ¾Εして、 パラメータ Tl, , Τ2, を得る。 ステップ S 03では、 第 2成分画像 Vに対してステップ S 10で判定したエッジ方向に 基づき、 方向別フィルタ処理を行う。 ステップ S 12では、 方向別フィルタ処理後の第 2 成分画像 V, に対して、 ステップ S 14で設定したパラメータ T1' , T2' に基づき、 コアリング麵を行う。  In step S 11, the noise amount of the second component image V is estimated for each pixel from the signal level of the first component image U based on the noise model, and parameters T 1 and T 2 are calculated based on the noise amount. Set. In step S14, the parameters Tl, Τ2 obtained in step S11 are obtained based on the maximum / J 湘 隱 r r obtained in step S13 to obtain parameters Tl,, Τ2,. In step S 03, direction-specific filtering is performed on the second component image V based on the edge direction determined in step S 10. In step S12, coring 麵 is performed on the second component image V, after the direction-specific filter processing, based on the parameters T1 ′ and T2 ′ set in step S14.
ステップ S 15では、 コアリング後の第 2成分画像 V, , と、 ノイズ ^の第 2成分 画像 Vとを所定の比率で重みづけ加算する。 ステップ S 05では、 第 1成分画像 Uと、 ス テツプ S 15で重みづけ加算された後の第 2成分画像 V, ' を合成し、 合成画像 Γ を得 る。 以上、 第 3の魏形態によれば、願像信号 Iは複数の触分から構成されており、 原 画像信号 Iの"^ に^!された第 1成分画像 Uおよび第 2成分画像 Vをバッファ 3 0 1に! ^する。 また、 バッファ 3 0 1に繊された^ ¾ ^の第 2成分画像 Vに基づき、 各^ ^分間の相,数を演算するとともに、 ^^に第 1成分画像 Uに対してパラメ一 タ設 2 0 0を順¾¾1^して得られるノィズ{¾¾ ラメータ丁1, T 2に対して、相関 係数に基づいた補正を行う。 そして、 第 1成分画像 Uおよび第 2成分画像 Vに対して、 色 成 に方向判別部 2 3 4およびノィズ 3 0 4を順麵用する。 力ラー画像信号の 各械分に対して、骨格成分 む第 1成分画像 Uにより推定したノイズ鮮に基づき設 定したノイズ赚、 °ラメータを、 各触分間の相醒数に基づき補正を行うことで、 ノィ ズの ffi関性を利用した、 より高精度なノイズ ie^aが可能となる。 In step S15, the second component image V,, after coring and the second component image V of noise ^ are weighted and added at a predetermined ratio. In step S 05, the first component image U and the second component image V, 'after weighted addition in step S 15 are synthesized to obtain a synthesized image Γ. As described above, according to the third aspect, the image signal I is composed of a plurality of tactile segments, and the first component image U and the second component image V that have been converted to “^!” Of the original image signal I are buffered. 3 0 1 ^ ^ In addition, based on the second component image V of ^ ¾ ^ that was fined in the buffer 3 0 1, calculate the phase and number for each ^ ^ minute, and ^ ^ Correction based on the correlation coefficient is performed on the noise {¾¾ parameters D 1 and T 2 obtained by sequentially setting the parameter setting 2 0 0 to U. Then, the first component image U and the first For the two-component image V, the direction discriminator 2 3 4 and noise 3 0 4 are used in order for coloration.Estimated by the first component image U containing the skeletal component for each mechanical component of the power error image signal The noise し た and ° parameters set based on the noise level were corrected based on the number of awakenings for each touch, and the noise ffi relationship was used. More accurate noise ie ^ a is possible.
また、 第 3の ^態によれば、 ノイズ の第 2成分画像 Vとノイズ赚後の第 2 成分画像 V, , とを所定の比率に基づき加算する。 に方向別フィルタ、 コアリング処 理等のノイズ ig^理をかけた際にアーティファタトカ s発生する^^があるが、 ノイズ低 漏の第 2成分画像と所定の比率で混合加算することで、 アーティファタトが視覚的に目 立つことを嫌 IJすることが可能となる。  Further, according to the third ^ state, the second component image V of noise and the second component image V,, after noise are added based on a predetermined ratio. There is a noise ig ^ in the direction filter, coring processing, etc., and artifacts may be generated ^^. It is possible to dislike the artifact that the artifact is visually conspicuous.
本発明は、 J ^した第 1〜第 3の¾»態に限定されることはない。 例えば、 した 第 1〜第 3の雄形態では、 本発明による画»^置を 置に删した例を挙げて 説明したが、 置: ^の装置に適用することもできるし、 単体としての蘭« 置 として することもできる。  The present invention is not limited to the first to third embodiments J. For example, in the first to third male forms described above, an example in which the image according to the present invention is used as a device has been described. However, the device can be applied to a device of device: ^, orchid as a single unit. «It can also be set.
は、 2 0 0 7年 1 2月 2 5日に日本国特許庁に麵された特願 2007-331972に基づ く優先権を主張し、 特願 2007-331972の全ての内容は参照により本明細書に組み込まれる。  Claims priority based on Japanese Patent Application 2007-331972, filed with the Japan Patent Office on February 25, 2007. All the contents of Japanese Patent Application 2007-331972 are hereby incorporated by reference. Incorporated in the description.

Claims

請 求 の 範 囲 The scope of the claims
1. 願像信号を、 画像のエッジおよ υ¾ίΐ ^ッジによって区分された平坦領域 む 画像の大局的な構造を^ 1-骨格成分である第 1成分画像と、 tiftara像信号と 第 1成 分画像に基づき算出される第 2成分画像と、 ^む複数の成分を表す画像に^する画像 連部と、  1. The application image signal is a flat area divided by the edge of the image and υ¾ί を ^ wedge. The general structure of the image is the 1-component image which is the 1-skeleton component, the tiftara image signal and the first component. A second component image calculated on the basis of the split image, an image sequence that represents a plurality of components, and
嫌己第 1成分画像に対してェッジ成分の方向を判別する方向判別部と、  A direction discriminating unit for discriminating the direction of the wedge component with respect to the first component image of disgust,
ΙίίΙΕ第 2成分画像に対し、 ΜΙΒェッジ成分の方向に応じてノィズを赚するノィズ赚 部と、  For the second component image, a noise part that displays noise according to the direction of the edge component,
を備える画^ MS Picture with MS
2. 像信号を、 画像のエッジおよ υΐϋΐΕエッジ: ^の部分から抽出した平±賊分か らなる骨格成分である第 1成分画像と、 ΙίίΙΕβ像信号と tiHB第 1成分画像に基づいて算 出される第 2成分画像と、 ¾: ^複数の成分を表す画像に連する画像連部と、  2. The image signal is calculated based on the first component image, which is a skeleton component consisting of the flat band extracted from the edge of the image and the υΐϋΐΕ edge: ^, the ΙΕίίΙΕβ image signal, and the tiHB first component image. A second component image to be issued, and ¾: ^ an image continuous portion connected to an image representing a plurality of components;
ΙίίΙΞ第 1成分画像に対してエッジ成分の方向を判別する方向判別部と、 方向 ίίΙΞ direction discriminating unit that discriminates the direction of the edge component from the first component image,
E第 2成分画像に対し、 嫌己エッジ成分の方向に応じてノイズを赚するノイズ赚 部と、  E For the second component image, a noise part that generates noise according to the direction of the unpleasant edge component,
を備える画^ l«go Picture with l ^ go
3. tfHH第 1成分画像に基づきノィズ赚 ラメータを設定するパラメータ設 をさ らに備え、  3. Further equipped with parameter setting to set the noise parameter based on the first component image of tfHH,
tinsノイズ is»は、 tin己第 2成分画像に対し、 ΪΞノイズ ラメータおょひ嘗己 ェッジ成分の方向に応じてノィズを赚する請求項 1または請求項 2に |5¾の画 tins noise is »indicates that noise is applied to the second component image of tin itself according to the direction of the noise component.
4. 己第 1成分画^ hの注目画素 ¾ ^む周辺領域に位 る第 1の画素群と、 tiff己第 1の画素群の画素位置に对応する前記第 2成分画 に位置する第 2の画素群を抽出する 抽出部をさらに備え、 4. The target pixel of the first component image ^ h ¾ ^ The first pixel group located in the peripheral region and the second component image located in the second component image corresponding to the pixel position of the first pixel group tiff An extraction unit for extracting the pixel group of 2;
廳己ノイズ は、 ΙίίΐΞ第 2の画素群のうち、 黼己注目画素位置に対応する嫌己第 2 成分画 の画素位置に対して、 tiffSェッジ成分の方向に直交する方向に位 gl "る画素群 の各画素値に基づき、 tins領域内の iSii波成分を算出する顔 «分算出部を備える請求 項 1または請求項 2
Figure imgf000035_0001
Self-noise is a pixel in the second pixel group that is located in the direction perpendicular to the direction of the tiffS edge component with respect to the pixel position of the second component image that is associated with the pixel position of interest. 3. A face segment calculation unit that calculates an iSii wave component in the tins region based on each pixel value of the group.
Figure imgf000035_0001
5. 嫌己第 1成分画^ :の注目画素 ¾r ^む周辺領域に位 る第 1の画素群と、 ΙίίΙΒ第 1の画素群の画素位置に対応する ΙϋΐΞ第 2成分画像上に位置する第 2の画素群を抽出する 抽出部をさらに備え、 5. Disgusting first component image ^: The pixel of interest ¾r ^ The first pixel group located in the peripheral area and the pixel position of the first pixel group corresponding to the pixel position of the first pixel group An extraction unit for extracting the pixel group of 2;
ノイズ、 は、 ΐΐίΙ己第 2の画素群のうち、 tiH5注目画素位置に対応する tiff己第 2 成分画 の画素位置 対して、 廳己エッジ成分の方向に直交する方向に位& "Tる画素群 の各画素値に基づき、 Stif己領域内の iSli^分を算出する 分算出部と、  Noise is a pixel in the second pixel group that is positioned in the direction orthogonal to the direction of the edge component of the tiff with respect to the pixel position of the second component image of the tiff corresponding to the pixel position of the tiH5 target pixel. A minute calculation unit for calculating iSli ^ in the Stif self region based on each pixel value of the group;
嫌己顏賊分を ΙΒノィズ赚、 °ラメータに基づき赃する補正部と、  A correction unit that detects the hate bandits based on the noise,
を備える請求項 3纖の画^ 氍The image of claim 3 備 え る comprising
6. tiiiaノイズ、 は、 ノイス の ¾ίίΙΕ第 2成分画像とノイズ' 後の ΙίίΙΒ第 2 成分画像とを所定の比率に基づきカロ算する加算部を備える請求項 1から請求項 5のレ、ずれ か一項に纖の画»3¾氍 6. The tiiia noise is provided with an adder that performs calorie calculation on the second component image of Neuss and the second component image after noise based on a predetermined ratio.纖 in one section »3¾ 氍
7. 黼 向判別部は、 黼己第 1の画素群を用レヽて tiilE注目画素位置に财る嫌 ッ ジ成分の方向を判別する請求項 4または請求項 5に言凍の画7. The direction discriminating unit uses the first pixel group to discriminate the direction of the hate component that goes to the tiilE target pixel position.
8. 嫌己方向判 部は、 第 1の画素群およひ 己第 2の画素群を用いて、 MIS注目 画素位置に対する 己エッジ成分の方向を判別する請求項 4または請求項 5に言 S¾の画像 8. The selfish direction determining unit uses the first pixel group and the second pixel group to determine the direction of the self edge component with respect to the MIS target pixel position. Image of
9. IE方向判別部は、 ΙίίΙΕ第 1成分画像と tins第 2成分画像との加重平均を行うこと により算出した画像信号を用レ、て、 tiff& ッジ成分の方向を判別する請求項 8に記載の画 9. The IE direction discriminating unit discriminates the direction of the tiff & wedge component by using the image signal calculated by performing a weighted average of the first component image and the tins second component image. Description picture
1 0. ΙίίΕΛ口重平均の比率を任意の値に設定するための設定部をさらに備える請求項 9 に諫の!M^Po 1 0. 9ίίΕΛ Further comprising a setting unit for setting the ratio of the weight average to an arbitrary value. M ^ Po
1 1. 嫌己第 1成分画像と、 ノイズ赚後の 第 2成分画像の合成を行う合成部をさ らに備える請求項 1から請求項 1 0のレゝずれか一項に言 の画^ oa¾ 1 1. Further comprising a synthesis unit for synthesizing the 1st component image of disgust and the 2nd component image after noise is applied. oa¾
1 2. 第 2成^画像は、 ffiiara像信号から Ι ΙΞ第 1成分画像を^^することによ り得られる請求項 1力、ら請求項 1 1のレ、1^か一項に!^の!  1 2. The second image can be obtained by converting the first component image from the ffiiara image signal ^ 力 claim 1 force, etc. 1 claim 1 1 or 1 ^! ^ 'S!
1 3. 編己第 2成分画像は、 嫌源画像信号を簡己第 1成分画像で隨することにより 得られる請求項 1力 請求項 1 1
Figure imgf000037_0001
1 3. Edited second component image is obtained by decimation of the source image signal with the first component image. Claim 1 Power Obtained Claim 1 1
Figure imgf000037_0001
1 4. 嫌己画像連部は、 1 4.
fB第 1成分画像に対して、 Total Variationノルムを算出するエネルギー算出部と、 ffjia Total Variation ノルムを最 /WtTることにより、 Μ Ι^Ιί像信号から tiff己第 1成 分画像を抽出する第 1成分画^ ¾出部と、  The energy calculation unit that calculates the Total Variation norm for the first component image and the first ffjia Total Variation norm / WtT to extract the first tiff self-component image from the / / ^ Ιί image signal. 1-component image ^ ¾
を備える請求項 1力 請求項 1 3のレヽずれか一項に言 S¾の画^«^ Claim 1 with power Claim 1 Claim 3 1
1 5. 像信号は複数の"^分力ら構成され、1 5. The image signal consists of multiple "^ components"
tara像信号の械 に、 編己画像 部、 爾己方向判別部、 および、 ノイズ赚 部を する請求項 1力、ら請求項 1 4のレヽ か一項に! ¾の画^ w¾ o  The tara image signal machine has a knitted self image part, a self direction discriminating part, and a noise part.
1 6. 像信号は複数の械分から構成され、 1 6. The image signal is composed of multiple machine segments,
嫌 flrai像信号の械 に、 嫌己画像舊部、 ttilB方向判別部、 および、 ノイズ観 部カ¾¾¾1^されるものであって、  The image of the disliked flrai image signal is divided into a disgusting image buttock, a ttilB direction discriminating portion, and a noise viewing portion ¾¾¾1 ^
嫌己ノイズ、{5«は、 l己^ ¾ ^に MIE画像^部により された第 1成分画像、 および第 2成分画像に対し、 ttit己械 にパラメータ設 を順¾¾1^し、 設定した前 記械飾のノイズ赚、°ラメータ、 およひ «己エッジ成分の方向に応じて、 IS第 2成 分画像に対しノィズを する請求項 3に |¾の画^ Mggo  Hate noise, {5 «is the first component image and second component image created by the MIE image ^ section on the lself ^ ¾ ^ According to claim 3, noise is applied to the IS second component image according to the direction of the noise °, ° parameter, and «self edge component of the decoration.
1 7. tina^M像信号は複数の 分から構成され、 1 7. The tina ^ M image signal consists of multiple parts,
MIS原画像信号の色成分毎に、 sfrt己画像 部を適用して された MI己第 1成分画 像、 およひ miB第 2成分画像を |»Τる!^部と、 For each color component of the MIS original image signal, the MI component first component image applied by applying the sfrt self-image part Image, and miB second component image | ^ Section,
言 により言 された ΙΞ械飾の嫌己第 2成分画像に基づき、 各触分間の 相 ,数を ^する相関演算部と、  Based on the second component image of the instrument decorations described by the language, a correlation calculation unit that calculates the number and phase of each touch,
廳己 に tffia第 1成分画像に対しパラメ一タ設 を 細用し、 設定したノィ ズ赚、°ラメータに対し、 tifl¾¾隱数に基づレ、て補正を行うパラメータ補正部と、 をさ らに備え、  A parameter correction unit that makes detailed adjustments to the tffia first component image and corrects the set noise and angle parameters based on the number of tifl¾¾ 隱. In preparation for
編己第 1成分画像、 およ Ό¾ίπε第 2成分画像に対し、 械 に tins方向判別部、 ノィ ズ ig«をl¾½ fflする請求項 1力ら請求項 1 4のレ vftか一項に |¾の画 ^MS 1 8. 願像信号を、 画像のエッジおよ υ¾ !Ξエッジによって区分された平坦領域を含 む画像の 的な構造を示す骨格成分である第 1成分画像と、 嫌 像信号と tiflB第 1 成分画像に基づき算出される第 2成分画像と、 ^む複数の成分を表す画像に^?し、 漏己第 1成分画像に対してェッジ成分の方向を判別し、  For the first component image and the second component image of the knitting self, the tins direction discriminating section and the noise ig «are l¾½ ffl on the machine. ^ MS 1 8. The first image, which is a skeletal component showing the basic structure of the image including the flat region divided by the image edge and the υ¾! Ξ edge, and the image signal And the second component image calculated based on the tiflB first component image and an image representing a plurality of components, determine the direction of the edge component with respect to the first component image,
firfEH 2成分画像に対し、 ェッジ成分の方向に応じてノィズを赚する画^ &  firfEH For two-component images, an image that suppresses noise according to the direction of the edge component ^ &
1 9. 願像信号を、 画像のエッジおよひ misエッジによって区分された平坦領域を含 む画像の 的な構造を示す骨格成分である第 1成分画像と、 ^tm ι 成分画像に基づき算出される第 2成分画像と、 ^む複数の成分を表す画像に するス テツプと、 1 9. Calculate the application signal based on the first component image, which is the skeletal component that shows the typical structure of the image including the flat region divided by the image edge and mis edge, and the ^ tm ι component image A second component image to be generated, a step to make an image representing a plurality of components,
tfjiam 1成分画像に対して、 エツジ成分の方向を判別するステップと、  tfjiam 1 component image, the step of determining the direction of the edge component,
ΙίίΙΕ第 2成分画像に対し、 tinsェッジ成分の方向に応じてノィズを赚するステップ と、 をコンピュータに実行させるための画^ Mプログラム。 赚 ίίΙΕ Step for entering noise in the second component image according to the direction of the tins wedge component An image program that allows a computer to execute and.
PCT/JP2008/071996 2007-12-25 2008-11-27 Image processing apparatus, image processing method, and image processing program WO2009081709A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007331972 2007-12-25
JP2007-331972 2007-12-25

Publications (1)

Publication Number Publication Date
WO2009081709A1 true WO2009081709A1 (en) 2009-07-02

Family

ID=40801020

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/071996 WO2009081709A1 (en) 2007-12-25 2008-11-27 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
WO (1) WO2009081709A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011015277A (en) * 2009-07-03 2011-01-20 Olympus Corp Image processing device, image processing method, image processing program, and recording medium recording image processing program
WO2012042771A1 (en) * 2010-09-28 2012-04-05 パナソニック株式会社 Image processor, image processing method, and integrated circuit
CN103218790A (en) * 2013-04-25 2013-07-24 华为技术有限公司 Method of image filtering and filter

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05347723A (en) * 1992-06-15 1993-12-27 Toshiba Corp Noise reduction circuit
JPH08202870A (en) * 1995-01-31 1996-08-09 Hitachi Ltd Picture processing method
JPH09121366A (en) * 1995-08-29 1997-05-06 Samsung Electron Co Ltd Method for correcting outline included in color signal and circuit for implementing it in color video equipment
JP2001057677A (en) * 1999-06-10 2001-02-27 Fuji Photo Film Co Ltd Image processing method, system and recording medium
WO2005081543A1 (en) * 2004-02-19 2005-09-01 Olympus Corporation Imaging system and image processing program
WO2006101128A1 (en) * 2005-03-22 2006-09-28 Olympus Corporation Image processing device and endoscope
JP2007041834A (en) * 2005-08-03 2007-02-15 Olympus Corp Image processor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05347723A (en) * 1992-06-15 1993-12-27 Toshiba Corp Noise reduction circuit
JPH08202870A (en) * 1995-01-31 1996-08-09 Hitachi Ltd Picture processing method
JPH09121366A (en) * 1995-08-29 1997-05-06 Samsung Electron Co Ltd Method for correcting outline included in color signal and circuit for implementing it in color video equipment
JP2001057677A (en) * 1999-06-10 2001-02-27 Fuji Photo Film Co Ltd Image processing method, system and recording medium
WO2005081543A1 (en) * 2004-02-19 2005-09-01 Olympus Corporation Imaging system and image processing program
WO2006101128A1 (en) * 2005-03-22 2006-09-28 Olympus Corporation Image processing device and endoscope
JP2007041834A (en) * 2005-08-03 2007-02-15 Olympus Corp Image processor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Eizo Media Shori Symposium Dai 11 Kai Symposium Shiryo, 08 November, 2006 (08.11.06)", article YUKI ISHII ET AL.: "Josangata Kokkaku/ Texture Bunri no Zatsuon Taisei to Gazo Zatsuon Jokyo eno Oyo", pages: 29 - 30 *
YUKI ISHII ET AL.: "Josangata Kokkaku/ Texture Gazo Bunri no Gazo Shori eno Oyo", THE TRANSACTIONS OF THE INSTITUTE OF ELECTROS, vol. J90-D, no. 7, 1 July 2007 (2007-07-01), pages 1682 - 1685 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011015277A (en) * 2009-07-03 2011-01-20 Olympus Corp Image processing device, image processing method, image processing program, and recording medium recording image processing program
WO2012042771A1 (en) * 2010-09-28 2012-04-05 パナソニック株式会社 Image processor, image processing method, and integrated circuit
US8693801B2 (en) 2010-09-28 2014-04-08 Panasonic Corporation Image processing device, image processing method, and integrated circuit
JP5758908B2 (en) * 2010-09-28 2015-08-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, image processing method, and integrated circuit
CN103218790A (en) * 2013-04-25 2013-07-24 华为技术有限公司 Method of image filtering and filter
CN103218790B (en) * 2013-04-25 2016-01-27 华为技术有限公司 The method of image filtering and wave filter

Similar Documents

Publication Publication Date Title
EP1289310A3 (en) Method and system for adaptive demosaicing
EP1855486B1 (en) Image processor correcting color misregistration, image processing program, image processing method, and electronic camera
US8115833B2 (en) Image-acquisition apparatus
JP4526445B2 (en) Imaging device
JP5144202B2 (en) Image processing apparatus and program
US8310566B2 (en) Image pickup system and image processing method with an edge extraction section
JP5012967B2 (en) Image processing apparatus and method, and program
JP6976733B2 (en) Image processing equipment, image processing methods, and programs
JP4523008B2 (en) Image processing apparatus and imaging apparatus
JP5620343B2 (en) Object coordinate system conversion apparatus, object coordinate system conversion method, and object coordinate system conversion program
US8774551B2 (en) Image processing apparatus and image processing method for reducing noise
GB2547842A (en) Image processing device and method, image pickup device, program, and recording medium
JP2009071419A (en) Noise reducing device
WO2009081709A1 (en) Image processing apparatus, image processing method, and image processing program
JP3072766B2 (en) Scalar data processing method
JP6757407B2 (en) Image processing equipment, image processing method and image processing program
WO2008020487A1 (en) Image processing device, image processing program, and image processing method
WO2002104002A1 (en) Gamut mapping
JP2007026334A (en) Image processor
JP7437921B2 (en) Image processing device, image processing method, and program
JP4687667B2 (en) Image processing program and image processing apparatus
JP2009015749A (en) Device and method for displaying image, and program
JP2005182232A (en) Luminance correcting device and method
JPH09270005A (en) Edge picture processor and its method
JP5277388B2 (en) Image processing apparatus and imaging apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08865130

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08865130

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP