WO2006117844A1 - 画像処理装置、画像処理方法、及び情報端末装置 - Google Patents

画像処理装置、画像処理方法、及び情報端末装置 Download PDF

Info

Publication number
WO2006117844A1
WO2006117844A1 PCT/JP2005/007999 JP2005007999W WO2006117844A1 WO 2006117844 A1 WO2006117844 A1 WO 2006117844A1 JP 2005007999 W JP2005007999 W JP 2005007999W WO 2006117844 A1 WO2006117844 A1 WO 2006117844A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature
selection information
corrected
output
Prior art date
Application number
PCT/JP2005/007999
Other languages
English (en)
French (fr)
Inventor
Tomonori Fukuta
Junko Shinohara
Naoyuki Fujiyama
Yoshiko Hatano
Tetsuya Kuno
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to EP05736817.7A priority Critical patent/EP1876564B1/en
Priority to JP2006549200A priority patent/JP3959547B2/ja
Priority to PCT/JP2005/007999 priority patent/WO2006117844A1/ja
Priority to US11/919,119 priority patent/US8319840B2/en
Publication of WO2006117844A1 publication Critical patent/WO2006117844A1/ja
Priority to US13/618,543 priority patent/US8542283B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • Image processing apparatus image processing method, and information terminal apparatus
  • the present invention relates to an image processing apparatus and an image processing method that reduce the effects of camera shake during imaging and camera shake caused by movement of the imaging system itself.
  • the present invention is applicable to, for example, an imaging device, a digital still camera, a digital movie camera, and the like mounted on an information terminal device such as a mobile phone device or a PDA (Personal Digital Assistant). Background art
  • Patent Document 1 JP-A-6-27512 (Page 7, Fig. 1)
  • the present invention has been made in view of such problems, and an object of the present invention is to obtain an image with reduced noise in an image processing apparatus that performs blur correction by image processing.
  • An image processing apparatus includes:
  • Image correction means for performing blur correction processing on the input image
  • Corrected image feature detecting means for detecting a feature of the corrected image after the blur correction processing, and based on the detection result, either the input image or the corrected image Image output means to output
  • an image with reduced noise such as ringing can be obtained.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing edge components in the horizontal direction of an image.
  • FIG. 3 is a diagram showing edge components in the vertical direction of an image.
  • FIG. 4 is a diagram showing a distribution of edge detection correction images.
  • FIG. 5 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 6 is a diagram showing a distribution of an edge detection input image.
  • FIG. 7 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 3 of the present invention.
  • FIG. 8 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 4 of the present invention. Explanation of symbols
  • the image processing apparatus 10 selects and outputs one of the input image correction images based on the information of the correction image obtained by performing image processing on the input image.
  • the corrected image that has undergone image processing has reduced blurring.
  • Image processing may cause noise such as ringing.
  • the image processing apparatus according to the present embodiment replaces pixels determined to have noise in the corrected image with pixels in the input image, and reduces noise in the output image.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus 10 according to the first embodiment.
  • an input image force that can obtain a camera or imaging device equal force is input to and stored in the input image frame memory 101.
  • the input image output from the input image frame memory 101 is input to the image correction unit 102, and the image correction unit 102 performs image processing for blur correction.
  • the image correction algorithm of the image correction unit 102 will be described later.
  • corrected image The image corrected by the image correcting unit 102 (hereinafter referred to as “corrected image”) is input to the corrected image frame memory 103 and stored. Further, the corrected image output from the corrected image frame memory 103 is input to the corrected image edge detecting unit 104, and the corrected image edge detecting unit 104 detects the edge component of the corrected image.
  • the edge detection process in the corrected image edge detection unit 104 will be described later.
  • a corrected image in which an edge component is detected (hereinafter referred to as “edge detection corrected image”) is input to the first edge determination means 105.
  • the first edge determination means 105 determines, for each pixel, whether or not the force that is the original edge portion of the image and the force that is noise such as a pseudo edge that is not the original edge of the image based on the information of the edge detection corrected image. The determination is made, and the determination result is output to the image output means 106.
  • the pixel determined not to be the original edge part of the image may be a picture composition part or a flat part in the picture.
  • the edge determination process in the first edge determination means 105 will also be described later.
  • the image output unit 106 selects either an input image or a corrected image for each pixel based on the determination result input from the first edge determination unit 105, and outputs the image as an output image. Process.
  • Image correction algorithm of image correction means 102 in the present embodiment Uses an inverse filter derived from the constrained least squares method.
  • this image correction algorithm is characterized by using an impulse response function indicating the amount of shake, and further using an inverse filter of the impulse response function calculated from the impulse response function.
  • the inverse filtering algorithm only needs to solve the problem of minimizing the square norm of the feature-extracted image.
  • the square norm is calculated as the sum of squares of the elements of a vector.
  • the edge information extracted by the Laplacian 'operator is employed as the feature quantity. That is, the image correction means 102 calculates a shake correction image as a solution to the square norm minimization problem of the edge information extracted by the Laplacian 'operator.
  • the method of calculating the innounce response function may be a method of mathematically estimating the force of two captured images with different shutter speeds, or by processing a physical signal obtained from an acceleration sensor or the like. Good.
  • detailed description of the calculation method of the impulse response function is omitted.
  • Equation (1) the input image and the corrected image are converted into a vector / matrix representation using the mathematical image model expressed by Equation (1).
  • the blur is an image with reduced blur, that is, a pixel signal of a corrected image, an image in which blur is generated, that is, a pixel signal of an input image, and V is an attached calorie at the time of imaging,
  • h is an impulse response function indicating the amount of shake.
  • (2K + 1) is calculated from the vertical order of the impulse response function, L.
  • (2L + 1) denote the order of the impulse response function in the horizontal direction of the screen.
  • the average value of the input image and the corrected image is assumed to be zero.
  • the elements of the corrected image and the input image to be obtained are extracted in a lexicographic array, defined as column vectors by vs and vt, respectively, and a matrix corresponding to the impulse response function is represented by H.
  • the Laplacian operator is also represented by the matrix C like an impulse response function.
  • the matrices H and C are block Toplitz matrices and can be approximately diagonalized using a two-dimensional discrete Fourier transform (hereinafter referred to as “DFT”) matrix. Therefore, high-speed arithmetic processing can be performed.
  • DFT discrete Fourier transform
  • II ⁇ II represents the 2-norm of '.
  • Equation (2) the correlation between adjacent pixels is strong and the amount of edge extraction is small. Therefore, it is sufficient to minimize the J represented by Equation (2) using the constrained least square method.
  • Equation (1) holds in the input image. Therefore, it is considered that the relationship expressed by Equation (3) exists with the power of the additional noise. Therefore, the image can be corrected by solving the minimization problem in which the constraint condition of Equation (3) is added to Equation (2).
  • the estimated value vss of the corrected image to be obtained can be expressed as in Equation (5) by performing partial differentiation on the corrected image vs to be obtained from Equation (4).
  • Equation (5) includes a large size and a block toplitz matrix, a large amount of calculation is required to obtain an exact solution.
  • approximate diagonalization using the DFT matrix can provide a solution with a practical amount of computation.
  • T represents the transpose of a matrix, expressed on the right shoulder of the variable in equation (5).
  • the vector elements obtained by DFT of the corrected image vs and the input image vt are represented by VSS (V, V), ⁇ ( ⁇ , ⁇ ), D
  • the diagonal elements of the matrix obtained by approximately diagonalizing the matrices H and C with the FT matrix are ⁇ , V), C (
  • the corrected image is calculated by performing a two-dimensional inverse discrete Fourier transform on VSS, V).
  • the above-described method is used as the image correction algorithm in the image correction unit 102.
  • the method described in the following document, etc. May be used.
  • the corrected image edge detection unit 104 performs an edge detection process for detecting an edge component of the corrected image.
  • the corrected image is a color image
  • the corrected image edge detection unit 104 of the present embodiment performs edge detection processing on the luminance signal of the corrected image.
  • the edge detection process is performed for each of the horizontal direction and the vertical direction of the image.
  • FIG. 2 An example of the horizontal edge component of the image is shown in FIG. 2, and an example of the vertical edge component is shown in FIG.
  • the horizontal edge component indicates that the edge extends in a substantially horizontal direction
  • the vertical edge component indicates that the edge extends in a substantially vertical direction.
  • the Sobel filter H expressed by Equation 7 is used for detecting the edge component in the horizontal direction.
  • the filtering process is performed on the luminance signal for each pixel of the corrected image using the filter of Expression 7, and the horizontal edge component ImgH 1 is obtained for each pixel.
  • the Sobel filter V expressed by Expression 8 that is, the transposed matrix H ′ of the matrix H of Expression 7 is used to detect the edge component in the vertical direction. That is, filtering processing is performed on the luminance signal for each pixel of the corrected image using the filter of Expression 7, and the vertical edge component ImgVl is obtained for each pixel.
  • V H 2 0 -2 (8)
  • the corrected image edge detection means 104 After obtaining the horizontal edge component ImgHl and the vertical edge component ImgVl for each pixel, the corrected image edge detection means 104 outputs an edge detection corrected image ImgSl expressed by Equation 9. As shown in Equation 9, the edge detection correction image ImgSl is the sum of absolute values for each pixel of the horizontal edge component ImgH 1 and the vertical edge component ImgV 1.
  • the first edge determination means 105 performs edge determination processing for determining whether noise is a noise or a pixel of an original edge portion of the image for each pixel of the edge detection correction image.
  • the edge determination process in the first edge determination unit 105 is performed by the following process. First, as shown in Expression 10, the edge detection correction image ImgSl is compared with the first threshold value thre-res. If the edge detection correction image ImgSl is smaller than the first threshold thre_res, it is determined that the pixel is a pseudo edge such as ringing or noise. On the other hand, when the edge detection corrected image ImgSl is larger than the first threshold thre-res, it is determined that the pixel is the original edge portion of the image.
  • the edge detection correction image ImgSl is smaller than the first threshold thre-res, that is, when it is determined to be a pseudo edge or noise such as ringing
  • the means 105 outputs a pixel value “1” for the pixel.
  • the edge detection correction image ImgSl is larger than the first threshold thre-res, that is, when it is determined that the image is the original edge portion
  • the first edge determination means 105 performs the processing for the pixel.
  • the pixel value “0” is output. That is, a binary image obtained by binarization is output from the first edge determination means 105.
  • the image output means 106 described later uses this binary image as image selection information.
  • the first threshold thre-res for edge determination processing is determined from image information such as an image storage format, image file size, and image content that may use predetermined constants. You can do it.
  • the vertical axis represents the number of pixels and the horizontal axis represents the edge detection corrected image ImgSl.
  • the first threshold is determined to be a false edge or noise such as pixel power ringing in each region 1 on the left side of the value thre-res, and is on the right side of the first threshold! / Value thre-res.
  • the pixel in area 2 is determined as the original edge of the image.
  • the edge detection correction image ImgSl distribution shape and edge detection correction image From the statistics such as the average value of the image ImgS 1, the ratio of pixels entering the region 1 may be determined adaptively.
  • the first threshold thre-res of the functional force having the magnitude of the shake amount may be used.
  • the first threshold thre-res is determined by a value that also determines the blur amount x and the coefficient k force.
  • a blur amount function other than Equation 11 may be used.
  • This image output means 106 uses the binary image output from the first edge determination means 105 as selection information, and selects and outputs either the input image or the corrected image for each pixel. Perform image output processing.
  • the first determination unit 105 outputs a pixel value “1” for a pixel determined to be a pseudo edge noise such as ringing. Also, a pixel value “0” is output for the pixel determined to be the original edge portion of the image. Based on this pixel value, the image output means 105 selects an input image in the input image frame memory 101 and outputs it as an output image for the pixel having the pixel value “1”.
  • a corrected image in the corrected image frame memory 103 is selected and output as an output image.
  • the image processing apparatus 10 is based on the information of the corrected image obtained by performing image processing on the input image! Selected to output. Accordingly, it is possible to reduce noise such as ringing generated by image processing, and an image with good image quality can be obtained.
  • the corrected image edge detection means of the present embodiment has the power described for the case where the SOBEL filter is used as the edge detection processing for performing edge detection.
  • the present invention is not limited to this. That's fine.
  • either of the forces described in the case where the filtering process is performed in the horizontal direction and the vertical direction may be performed.
  • edge detection processing is performed on a luminance signal has been described, it is also possible to use color difference signals or R, G, B color signals, or a combination of these color information! ,.
  • the force described in the case where the threshold is set based on the absolute value of the edge detection correction image in the edge detection processing is not limited to this. It is sufficient if the same effect can be obtained. Further, although the pixel value of the pixel determined to be noise is set to “1” and the pixel value of the pixel at the original edge portion of the image is set to “0”, the opposite may be possible. Furthermore, a signal may be output only in either case.
  • each of the processes described as V may be performed in units of a predetermined area such as a macroblock or a block.
  • a predetermined area such as a macroblock or a block.
  • an average value of pixel values of all pixels in a predetermined area, a pixel value of representative pixels, or the like is used.
  • the method of performing processing using the edge of the image may represent the characteristics of the image.
  • the image processing apparatus 10 according to the first embodiment is applicable to the case of the shake other than the hand shake, which can be applied when correcting the shake caused by the hand shake. Further, for example, the imaging system itself It can also be applied to shakes that occur when the hand shake.
  • the image processing apparatus 20 according to the second embodiment is configured by adding an input image edge detection unit 204 to the image processing apparatus 10 according to the first embodiment. Further, a second edge determination unit 205 is provided as a component corresponding to the first edge determination unit 105. The second edge determination unit 205 performs an edge determination process based on the output from the input image edge detection unit 204 and the output from the corrected image edge detection unit 104.
  • FIG. 5 is a block diagram showing a configuration of the image processing device 20 according to the second embodiment. In FIG. 5, the components denoted by the same reference numerals as those in FIG. 1 are the same or corresponding components as those of the image processing apparatus 10 of the first embodiment.
  • the input image edge detection means 204 performs an edge detection process for detecting an edge component of the input image, and outputs an image in which the edge component is detected (hereinafter referred to as “edge detection input image”). Note that the edge detection processing performed by the input image edge detection unit 204 is the same as the edge detection processing performed by the correction image edge detection unit 104 described in the first embodiment.
  • the input image edge detection unit 204 obtains the edge component ImgH2 in the horizontal direction and the edge component ImgV2 in the vertical direction for each pixel of the input image, and then detects the edge detection input image ImgS2 represented by Expression 12. Is output.
  • ImgS2 abs (ImgH2) + abs (TmgV2) (1 2)
  • the second edge determination unit 205 Based on the edge detection input image output from the input image edge detection unit 204 and the edge detection input image output from the corrected image edge detection unit 104, the second edge determination unit 205 performs noise reduction for each pixel. Or edge determination processing for determining whether the image is a pixel of the original edge portion of the image.
  • the edge determination process in the second edge determination unit 205 is performed by the following process. First, the edge detection corrected image ImgSl is compared with the first threshold thre-res. Sarako, edge detection input image ImgS2 is compared with the second threshold thre-deg. Then, when Expression 13 is satisfied, that is, when both the edge detection correction image and the edge detection input image are smaller than the respective threshold values, it is determined that the noise is generated by the image processing of the image correction unit 102.
  • the second determination unit 204 outputs a pixel value “1” for the pixel. On the other hand, in other cases, the pixel value “0” is output.
  • the vertical axis represents the number of pixels
  • the horizontal axis represents the edge detection corrected image ImgSl.
  • the second threshold shown in Figs. 6 (a) and 6 (b) is in the region 1 on the left side of the threshold thre-res of 1, with the vertical axis representing the number of pixels and the horizontal axis representing the edge detection input image ImgS2. Only the pixel in the region 1 on the left side of the value thre—deg is determined to be a noise generated by the correction processing of the image correcting unit 102, and the second determining unit 204 determines that the pixel value “1” "
  • the edge detection input image ImgS2 is larger than the second threshold value thre-deg, it can be considered that the pixel is the original edge portion of the image.
  • the edge detection correction image ImgSl may be smaller than the first threshold value thre-res.
  • the output image is determined from the relationship between the edge detection corrected image ImgSl and the first threshold value thre-res, an input image in which blurring occurs is output. Become. Therefore, noise such as ringing in the output image may be blurred in the image outline due to the effect of shake that reduces it.
  • the pixel determined to be the original edge portion of the image that is, the edge detection input image ImgS2 is determined from the second threshold thre-deg.
  • the edge detection input image ImgS2 is determined from the second threshold thre-deg.
  • the image output means 106 selects the input image in the input image frame memory 101 for the pixel having the pixel value “1” for the pixel having the pixel value “0”, as in the first embodiment.
  • the corrected images in the corrected image frame memory 103 are selected and output as output images. That is, the binary edge image output from the second edge determination means 205 is a binary key image.
  • the image processing apparatus 20 performs the edge determination process based on the input image and the corrected image. Therefore, since the corrected image is output to the original edge portion of the image, an output image with improved image quality can be obtained. It should be noted that a method for determining the second threshold thre-deg is the same as the method for determining the first threshold value thre-res described in the first embodiment.
  • the present invention is not limited to this as long as the same effect can be obtained.
  • the force of setting the pixel value of the pixel determined to be noise to “1” and the pixel value of the pixel at the original edge of the image to “0” may be reversed.
  • a signal may be output only in either case.
  • the image processing device 30 according to the third embodiment is configured by adding first selection information changing means 307 to the image processing device 20 according to the second embodiment.
  • the first selection information changing unit 307 appropriately changes the selection information output from the second edge determination unit 205 and outputs the changed change information to the image output unit 106.
  • the image output means 106 determines whether the input image or the corrected image is based on this change information! Select either / to output.
  • FIG. 7 is a block diagram showing a configuration of the image processing device 30 according to the third embodiment.
  • the components denoted by the same reference numerals as those in FIG. 5 are the same or corresponding components as those in the image processing device 20 of the second embodiment.
  • the second edge determination unit 205 performs edge determination from the edge detection input image and the edge detection correction image.
  • a pixel determined to be noise (hereinafter referred to as “isolated pixel”) may be mixed into a group of pixels determined to be the original edge portion of the image.
  • the input image since the input image is mixed in the corrected image as the output image, the input image, that is, the isolated pixel may be determined as visual noise.
  • the first selection information changing unit 307 performs such isolated pixel removal processing that removes such isolated pixels.
  • the second edge determination unit 205 sets the pixel value of the pixel determined as noise to “1”, and sets the pixel value of the pixel determined to be the original edge portion of the image to “0”.
  • the first selection information changing means 307 performs a filtering process using a median filter.
  • the median filter detects pixel values of pixels in a set area and selects pixel values occupying a large number. For example, if the median filter setting area is 3 pixels x 3 pixels, and the pixel value in that area is 0, 0, 0, 0, 0, 1, 1, 1, 1 ⁇ , the pixel value “ Since there are five 0's and four pixel values '1', all the pixel values after filtering by the median filter are 0, that is, (0, 0, 0, 0, 0, 0, 0 , 0, 0 ⁇ . In this way, the first selection information changing unit 307 removes isolated pixels using the median filter.
  • the first selection information changing unit 307 changes the binary image output from the second edge determination unit 205, that is, the selection information with reference to the selection information of other pixels.
  • the changed information is output.
  • the image processing apparatus 30 according to Embodiment 3 performs the removal of isolated pixels by the first selection information changing unit 307. Therefore, the quality of the output image is improved.
  • the median filter used in the first selection information changing means 307 is not limited to the median filter having a size of 3 pixels in the vertical direction and 3 pixels in the horizontal direction.
  • the median filter may be used.
  • the median filter may have a shape other than a rectangle.
  • any device that can remove isolated pixels may be used.
  • the image processing apparatus 30 has been described as being configured by adding the first selection information changing unit 307 to the image processing apparatus 20 according to Embodiment 2, the first selection information changing unit 30 is described. 7 may be added to the image processing apparatus 10 according to the first embodiment.
  • the image processing apparatus 40 according to the fourth embodiment is configured by adding second selection information changing means 407 to the image processing apparatus 20 according to the second embodiment. Further, the portion corresponding to the image output means 106 is divided into the first gain controller 409, the second gain controller 410, An adder 411 is used.
  • FIG. 8 is a block diagram showing a configuration of the image processing apparatus 40 according to the fourth embodiment.
  • the constituent elements denoted by the same reference numerals as those in FIG. 5 are constituent elements that are the same as or correspond to those of the image processing apparatus 20 of the second embodiment.
  • the second selection information changing unit 407 As described in the third embodiment, there may be an isolated pixel in the binary image output from the second edge determination unit 205.
  • the second selection information changing means 407 performs a low-pass filter process as a power isolated pixel removing process that performs an isolated pixel removing process for removing the isolated pixel. For example, if the pixel value is ⁇ 0, 1, 0, 1, 1, 0 ⁇ and the 3-tap low-pass filter ⁇ 1Z4, 1/2, 1Z4 ⁇ is applied, the pixel value after filtering becomes ⁇ 0. 25, 0. 5, 0. 5, 0. 75, 0. 75, 0. 25 ⁇ .
  • the binary image output from the second edge half IJ determining means 205 is converted into a grayscale image having a real value K having a pixel value of 0 to 1 by the second selection information changing means 407. Become. Note that i, j indicates the position of the pixel. That is, second,
  • the selection information changing means 407 changes the binary image output from the second edge determination means 205, that is, the selection information with reference to the selection information of other pixels, and outputs the changed change information. Is.
  • the first gain controller (first image output unit) 408, the second gain controller (second image output unit) 409, and the adder 411 (third image output unit) will be described.
  • K output from the second selection information changing means 407 is input to the first gain controller 408,
  • the gain controller 408 of 1 the process represented by Expression 14 is performed.
  • the second gain controller 409 performs the processing expressed by Equation 15.
  • ImgOut clip (Imgl'ij + ImgC , ij ) (1 6)
  • the first gain controller 408 corrects the corrected image with reference to the change information output from the second selection information changing means 407, and outputs the corrected image after correction. Functions as an output device.
  • the second gain controller 409 corrects the input image with reference to the change information output from the second selection information changing means 407, and outputs the input image after the correction. Function as.
  • the adder 411 adds the corrected image output from the first gain controller 408 and the corrected input image output from the second gain controller 409, and adds the output image. Functions as a third image output device.
  • the selection information input to the second selection information changing means 407 is binarized information of “0” and “1”, but the second selection information changing means 407 is the binary information.
  • ⁇ Information may be regarded as an integer with multiple gradations, for example, an integer with 256 gradations, and low-pass filtering may be performed internally. That is, “0” is projected to “0”, “1” is projected to “255”, and low-pass filter processing is performed.
  • the filter processing may be performed by floating point arithmetic or approximate integer arithmetic. In particular, when filtering is performed with integer arithmetic, it is possible to improve the filtering speed.
  • the second selection information changing means 407 performs projection to 256 gradations. In this case, it is explained that K and 1— ⁇ are converted into real numbers and output.
  • the real number is not processed, and the integer value from ⁇ 0 '' to ⁇ 255 '' is output to the first gain controller 408 and the second gain controller 409, and divided by 255 within each gain controller. Let's go with a real number ⁇ .
  • the image processing device 40 performs the isolated pixel removal processing by the low-pass filter, so that the effect of the isolated pixel removal processing can be distributed to neighboring pixels. The quality of the output image is improved.
  • is output from the second selection information changing means 407 to the first gain controller 408, and 1-K is output to the second gain controller 409. ,
  • the output from the changing unit 407 may be ⁇ , and 1 ⁇ K may be calculated in the second gain controller 409.
  • the image processing device 40 has been described as configured by adding or replacing the second selection information changing unit 407 and the like to the image processing device 20 according to the second embodiment. May be applied to the image processing apparatus 10.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

課題 リンギング等のノイズを低減した、画質のよい画像を得る。 解決手段  入力画像に対してぶれ補正処理を行う画像補正手段と、ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出手段と、特徴が検出された特徴検出補正画像に基づいて選択情報を出力する第1の特徴判定手段と、前記選択情報に基づいて、前記入力画像または前記補正画像のいずれか一方を出力する画像出力手段を備えることとした。これにより、ノイズを低減した画質のよい画像を得ることが可能となる。

Description

明 細 書
画像処理装置、画像処理方法、及び情報端末装置
技術分野
[0001] 本発明は、撮像時の手ぶれや撮像系自体が動いたことによるぶれ等の影響を低減 する画像処理装置及び画像処理方法に関するものである。本発明は、例えば、携帯 電話装置や PDA (Personal Digital Assistant)等の情報端末装置に搭載される 撮像装置や、デジタルスチルカメラ、デジタルムービーカメラ等に適応可能である。 背景技術
[0002] 従来より、銀塩フィルムカメラやデジタルスチルカメラを手で持って被写体を撮影す ると、手ぶれなどによりカメラが振れ、撮像画像が手ぶれ方向に流れた劣化を受ける 現象が知られている。
[0003] このような、ぶれによる画像劣化を補正するために、光学系を駆動して撮像を行い 、ぶれを低減する方法や、角速度センサ等により求めた手ぶれ量を用いて画像処理 を行い、ぶれを低減する方法が提案されている(例えば、特許文献 1)。
[0004] 特許文献 1 :特開平 6— 27512号公報 (第 7頁、第 1図)
発明の開示
発明が解決しょうとする課題
[0005] しかし、画像処理によるぶれ補正の方法では、補正画像にリンギング等のノイズが 発生し、画質がより劣化する場合がある。特に、ぶれ量が大きい画像を画像処理した 場合、このような劣化は顕著となる。本発明は、このような問題に鑑みてなされたもの であり、画像処理によりぶれ補正を行う画像処理装置において、ノイズが低減された 画像を得ることを目的として ヽる。
課題を解決するための手段
[0006] 本発明に係る画像処理装置は、
入力画像に対してぶれ補正処理を行う画像補正手段と、
ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出手段と、 前記検出結果に基づいて、前記入力画像または前記補正画像のいずれか一方を 出力する画像出力手段と
を備えることとしたものである。
発明の効果
[0007] 本発明によれば、リンギング等のノイズが低減された画像を得ることができる。
図面の簡単な説明
[0008] [図 1]この発明の実施の形態 1に係る画像処理装置の構成を示すブロック図である。
[図 2]画像の水平方向のエッジ成分を示す図である。
[図 3]画像の垂直方向のエッジ成分を示す図である。
[図 4]エッジ検出補正画像の分布を示す図である。
[図 5]この発明の実施の形態 2に係る画像処理装置の構成を示すブロック図である。
[図 6]エッジ検出入力画像の分布を示す図である。
[図 7]この発明の実施の形態 3に係る画像処理装置の構成を示すブロック図である。
[図 8]この発明の実施の形態 4に係る画像処理装置の構成を示すブロック図である。 符号の説明
[0009] 10、 20、 30、 40 画像処理装置、 101 入力画像用フレームメモリ、 102 画像 補正手段、 103 補正画像用フレームメモリ、 104 補正画像エッジ検出手段、 105 第 1のエッジ判定手段、 106 画像出力手段、 204 入力画像エッジ検出 手段、 205 第 2のエッジ判定手段、 307 第 1の選択情報変更手段、 407 第 2 の選択情報変更手段、 408 第 1のゲインコントローラ、 409 第 2のゲインコント口 ーラ、 411 加算器。
発明を実施するための最良の形態
[0010] 実施の形態 1.
以下、この発明をその実施の形態を示す図に基づいて詳細に説明する。
[0011] 実施の形態 1に係る画像処理装置 10は、入力画像を画像処理した補正画像の情 報に基づいて、入力画像カゝ補正画像のいずれか一方を選択して出力することにより
、画像処理により発生したリンギング等を低減する。
[0012] すなわち、入力画像には、ぶれが発生している可能性がある。一方、入力画像を画 像処理した補正画像は、ぶれは低減されている力 画像処理によりリンギング等のノ ィズが発生している可能性がある。本実施の形態に係る画像処理装置は、補正画像 においてノイズが発生していると判定された画素を入力画像の画素に置き換え、出 力画像のノイズを低減する。
[0013] 図 1は、実施の形態 1に係る画像処理装置 10の構成を示すブロック図である。図 1 において、まず、カメラもしくは撮像素子等力も得られる入力画像力 入力画像用フレ ームメモリ 101に入力され、保存される。次に、入力画像用フレームメモリ 101から出 力された入力画像が画像補正手段 102に入力され、画像補正手段 102においてぶ れ補正の画像処理が行われる。なお、画像補正手段 102の画像補正アルゴリズムに ついては後述する。
[0014] 画像補正手段 102で補正処理された画像 (以下、「補正画像」と記す。 )は、補正画 像用フレームメモリ 103に入力され、保存される。さらに、補正画像用フレームメモリ 1 03から出力された補正画像は、補正画像エッジ検出手段 104に入力され、補正画 像エッジ検出手段 104において補正画像のエッジ成分が検出される。なお、補正画 像エッジ検出手段 104におけるエッジ検出処理については後述する。
[0015] エッジ成分が検出された補正画像 (以下、「エッジ検出補正画像」と記す。)は、第 1 のエッジ判定手段 105に入力される。第 1のエッジ判定手段 105は、エッジ検出補正 画像の情報基づいて、画像本来のエッジ部である力、画像本来のエッジではない擬 似的なエッジ等のノイズである力否かを画素毎に判定し、判定結果を画像出力手段 106に出力する。なお、画像本来のエッジ部でないと判定された画素は、絵柄の構 成部である場合や、絵柄内の平坦部である場合も考えられる。第 1のエッジ判定手段 105におけるエッジ判定処理についても後述する。
[0016] 画像出力手段 106は、第 1のエッジ判定手段 105から入力される判定結果に基づ いて、画素毎に入力画像と補正画像のいずれか一方を選択し、出力画像として出力 する画像出力処理を行う。
[0017] <画像補正手段 >
次に、各構成要素における処理の詳細について説明する。まず、画像補正手段 10 2につ 、て説明する。本実施の形態における画像補正手段 102の画像補正アルゴリ ズムは、拘束条件付最小自乗法から導かれる逆フィルタを使用する。すなわち、この 画像補正アルゴリズムは、ぶれ量を示すインノルス応答関数を用い、さらにこのイン パルス応答関数カゝら算出されるインパルス応答関数の逆フィルタを用いることを特徴 としている。ここで、逆フィルタリングのアルゴリズムは、特徴抽出された画像の自乗ノ ルムの最小化問題を解けばよい。なお、自乗ノルムとはベクトルに対して、その要素 の自乗和として計算されるものである。また、本実施の形態では、特徴量にラプラシ アン'オペレータで抽出されたエッジ情報を採用する。すなわち、画像補正手段 102 では、ラプラシアン'オペレータにより抽出されたエッジ情報の自乗ノルム最小化問題 の解として、ぶれ補正画像を算出する。
[0018] なお、インパルス応答関数の逆フィルタを算出するためには、インパルス応答関数 を予め算出しておく必要がある。インノルス応答関数を算出する方法は、シャッター スピードを変えた 2枚の撮像画像力も数学的に推定する方法でもよ 、し、加速度セン サ等カゝら得られる物理信号を処理して算出してもよい。ここでは、インパルス応答関 数の算出方法の詳細な説明は省略する。
[0019] 次に、インパルス応答関数を算出した後、入力画像から補正画像を得る具体的な 方法について説明する。
[0020] まず、入力画像、補正画像を、式(1)で表される数学的画像モデルを用いて、ベタ トル ·行列表現にする。式(1)において i、; jは画素の位置を表しており、画面垂直方向 に M画素、画面水平方向に N画素となるサイズの画像であれば、 i= l, · · · , M、 j = 1, · · · , Nとなる整数値を取る。
[0021] [数 1]
L K
,j二 J L nti S i-k -l + Vi ( 1 )
L lc ―
[0022] なお、 はぶれが低減された画像、すなわち補正画像の画素信号であり、 はぶ れの発生している画像、すなわち入力画像の画素信号であり、 V は撮像時の付カロ ,
的雑音成分であり、 h はぶれ量を示すインパルス応答関数であるとする。また、 Kよ k, 1
り計算される (2K+ 1)はインパルス応答関数の画面垂直方向の次数、 Lより計算さ れる(2L+ 1)はインパルス応答関数の画面水平方向の次数を表すとする。ただし、 入力画像、補正画像の平均値は 0であると仮定する。
[0023] この仮定は、それぞれの画像の画素信号力 それぞれの画像の平均値、すなわち 撮像素子から得られる撮像画像のバイアス値を計算し、全画素信号カゝら引くことによ り計算できる。さらに、これらの画像の期待値は平均値と等しい (エルゴード性)と仮定 すると、 Ε[ · ]を'の期待 V値を表すものとして、 E[s ] =0、E[t ] =0と表すことができ る。また、付カ卩的雑音 V については E[s V ] =0 (iaおよび jaは任意)の性質を仮 ,
定する。この仮定は、付加的雑音は撮像される画像にほとんど依存しない事実から 導かれた仮定である。
[0024] 次に、求めるべき補正画像及び入力画像の要素を辞書式配列で取り出し、列べク トルとしてそれぞれ vs、 vtで定義し、インパルス応答関数に相当する行列を Hで表す 。また、ラプラシアン'オペレータもインパルス応答関数のように行列 Cで表す。このと き行列 Hおよび Cはブロックトェプリッツ行列となっており、近似的に 2次元離散フーリ ェ変換 (以下、「DFT」と記す。)行列を用いて近似的に対角化することができるため 、高速な演算処理を行うことが可能になる。以上を用いると、ラプラシアン'オペレータ による入力画像のエッジ抽出量 Tを式(2)のように表すことができる。
[0025] [数 2]
(2)
[0026] ここで、 II · IIは、 'の 2—ノルムを示す。一般的に、画像では近接画素間の相関性 が強ぐエッジ抽出量は少ないものとなることから、式(2)で表される Jの最小化を拘 束条件付最小自乗法で行えばよい。このときの拘束条件として、入力画像において 式(1)が成り立つことから、付加的雑音のパワーをとして、式 (3)に表す関係が存在 すると考えられる。よって、式 (2)に式 (3)の拘束条件を付加した最小化問題を解くこ とで画像の補正を行うことができる。
[0027] [数 3] νΐ― Hvs\ (3)
[0028] 最終的に最小化を行う評価関数は、ラグランジ 未定乗数の逆数を γとすると、式 (
4)のように表すことができる。
[0029] [数 4]
Figure imgf000008_0001
[0030] そして、式 (4)を求めるべき補正画像 vsで偏微分することにより求めるべき補正画 像の推定値 vssを式(5)のように表すことができる。
[0031] [数 5]
vss = (H H + yC' C) H vt )
[0032] ここで、式(5)はサイズの大き 、ブロックトェプリッツ行列を含んで 、ることから、厳密 解を得るためには大きな計算量が必要となる。しかし、 DFT行列を用いて近似的に 対角化することで、実用的な計算量で解を求めることができる。
[0033] なお、式(5)中の変数の右肩に表記して 、る Tは行列の転置を表す。また、補正画 像 vsおよび入力画像 vtを DFTしたベクトル要素を VSS( V , V ),Τ(ν , ν ), D
1 2 1 2
FT行列により行列 H、Cを近似的に対角化した行列の対角要素を Η , V ),C(
1 2
V , V )で表す 0 でゝ V V w = V , · · ·, ν ゝ V = V , · · ·, ν ハょ
1 2 1 2 1 11 1M 2 21 2Ν
、それぞれ水平及び垂直方向の空間周波数成分である。
[0034] これらを用いると、 DFT領域における補正画像は、式(6)として求まる。
[0035] [数 6] い ^ 秦共役) )
[0036] よって補正画像は、 VSS 、 V )を 2次元逆離散フーリエ変換することにより算出
1 2
することができる。
[0037] 以上説明したように、本実施の形態では、画像補正手段 102における画像補正ァ ルゴリズムとして上記のような方法を用いて 、るが、以下の文献に記載されて 、るよう な方法等を用いてもよい。
[0038] 文献 1「Digital Image Restoration, H. C. Andrews他著、 Prentice Hal U
文献 2「確率システム理論 ΠΙ 砂原 善文編 第二章、杉本 末雄著、朝倉書店」 文献 d「Fundamentals of Digital Image Processings Anil K. Jain着、 Prentice Hall」
文献 4「画像処理アルゴリズム、斉藤恒雄著、近代科学社」
[0039] <補正画像エッジ検出手段 >
次に、補正画像エッジ検出手段 104について説明する。補正画像エッジ検出手段 104は、補正画像のエッジ成分を検出するエッジ検出処理を行う。なお、補正画像は カラー画像であるが、本実施の形態の補正画像エッジ検出手段 104は、補正画像の 輝度信号に対してエッジ検出処理を行う。また、エッジ検出処理は、画像の水平方向 、垂直方向についてそれぞれ行われる。
[0040] 画像の水平方向のエッジ成分の例を図 2に、垂直方向のエッジ成分の例を図 3に、 それぞれ示す。なお、水平方向のエッジ成分とは、エッジが略水平方向に伸びてい るものを指し、垂直方向のエッジ成分とは、エッジが略垂直方向に伸びているものを 指す。
[0041] まず、水平方向のエッジ成分の検出処理について説明する。本実施の形態の補正 画像エッジ検出手段 104では、水平方向のエッジ成分の検出に、式 7で表される So belフィルタ Hを用いる。すなわち、補正画像の画素毎の輝度信号に対し式 7のフィル タを用 、てフィルタリング処理を行 、、画素毎に水平方向のエッジ成分 ImgH 1を得 る。
[0042] [数 7]
1 2 1
H: 0 0 0 (7)
一 1 -2 — 1
[0043] 同様に、垂直方向のエッジ成分の検出に、式 8で表される Sobelフィルタ V、つまり 式 7の行列 Hの転置行列 H'を用いる。すなわち、補正画像の画素毎の輝度信号に 対し式 7のフィルタを用 、てフィルタリング処理を行 、、画素毎に垂直方向のエッジ成 分 ImgVlを得る。
[0044] [数 8]
1 0 - 1
V=H 2 0 -2 (8)
1 0 — 1
[0045] 画素毎に、水平方向のエッジ成分 ImgHlと垂直方向のエッジ成分 ImgVlを得た 後、補正画像エッジ検出手段 104は、式 9で表されるエッジ検出補正画像 ImgSlを 出力する。式 9に示すように、エッジ検出補正画像 ImgSlは、水平方向のエッジ成分 ImgH 1と垂直方向のエッジ成分 ImgV 1の画素毎の絶対値和である。
[0046] [数 9]
imeSl =abs(ImgHl)+abs(imeVI) (9)
<第 1のエッジ判定手段 >
次に、第 1のエッジ判定手段 105について説明する。この第 1のエッジ判定手段 10 5は、エッジ検出補正画像の画素毎に、ノイズであるカゝ、画像本来のエッジ部の画素 であるかを判定するエッジ判定処理を行う。 [0048] 第 1のエッジ判定手段 105におけるエッジ判定処理は、以下の処理により行われる 。まず、式 10に表されるように、エッジ検出補正画像 ImgSlと第 1のしきい値 thre— r esを比較する。そして、エッジ検出補正画像 ImgSlが第 1のしきい値 thre_resよりも 小さい場合は、その画素は、リンギング等の擬似的なエッジやノイズであると判定する 。一方、エッジ検出補正画像 ImgSlが第 1のしきい値 thre— resよりも大きい場合は 、その画素は、画像本来のエッジ部であると判定する。
[0049] [数 10]
ImgSl ^ tnre res ( 1 0)
[0050] エッジ検出補正画像 ImgSlが第 1のしきい値 thre— resよりも小さい場合、すなわ ち、リンギング等の擬似的なエッジやノイズであると判定された場合、第 1のエッジ判 定手段 105は、その画素について画素値「1」を出力する。また、エッジ検出補正画 像 ImgSlが第 1のしきい値 thre— resよりも大きい場合、つまり、画像本来のエッジ部 であると判定された場合、第 1のエッジ判定手段 105は、その画素について画素値「 0」を出力する。すなわち、第 1のエッジ判定手段 105から出力されるのは 2値ィ匕され た 2値ィ匕画像である。後述する画像出力手段 106は、この 2値ィ匕画像を画像の選択 情報として用いる。
[0051] なお、エッジ判定処理のための第 1のしきい値 thre— resは、予め定めた定数を用 いてもよぐ画像保存形式や画像ファイルの大きさ、画像内容等の画像情報から決定 してちよい。
[0052] 画像内容力ゝら第 1のしきい値 thre— resを決定する方法として、例えば、縦軸を画 素数、横軸をエッジ検出補正画像 ImgSlとした図 4 (a)、(b)に示すように、エッジ検 出補正画像 ImgSlの分布を求め、その分布力も決定する方法がある。図において、 第 1のしき 、値 thre— resより左側にある各々領域 1の画素力 リンギング等の擬似的 なエッジやノイズと判定され、第 1のしき!/、値 thre— resより右側にある領域 2の画素 が画像本来のエッジ部と判定される。なお、実験では、画像を構成する全画素の 10 %程度が領域 1に入るように第 1のしき!/、値 thre— resを決定すると、良好な結果が 得られた。ただし、エッジ検出補正画像 ImgSlの分布の形状や、エッジ検出補正画 像 ImgS 1の平均値等の統計量から、領域 1に入る画素の割合を適応的に決定しても よい。
[0053] また、その他、ぶれ量の大きさの関数力 第 1のしきい値 thre— resを決定する方法 を用いてもよい。例えば、式 11のように、第 1のしきい値 thre— resをぶれ量 x、係数 k 力も定まる値で決定する。なお、式 11以外のぶれ量の関数を用いてもよい。
[0054] [数 11] thre res—k · x ( 1 1 )
[0055] <画像出力手段 >
次に、画像出力手段 106について説明する。この画像出力手段 106は、第 1のエツ ジ判定手段 105から出力される 2値ィ匕画像を選択情報として用いて、画素毎に、入 力画像か補正画像のいずれか一方を選択して出力する画像出力処理を行う。
[0056] 上記で説明したように、第 1の判定手段 105は、リンギング等の擬似的なエッジゃノ ィズであると判定した画素について、画素値「1」を出力する。また、画像本来のエツ ジ部であると判定した画素について、画素値「0」を出力する。画像出力手段 105は、 この画素値に基づいて、画素値「1」の画素については、入力画像用フレームメモリ 1 01にある入力画像を選択し、出力画像として出力する。
[0057] 一方、画素値「0」の画素については、補正画像用フレームメモリ 103にある補正画 像を選択し、出力画像として出力する。
[0058] このように、画素値が「1」、すなわち、画像処理によりリンギング等の擬似的なエッジ やノイズの可能性のある画素について、補正画像ではなぐ入力画像を選択して出 力することにより、ノイズの除去が可能となる。また、画素値が「0」、すなわち、画像本 来のエッジ部であると判定された画素にっ ヽては、画像処理された補正画像を出力 することにより、入力画像に発生しているぶれを低減することができる。
[0059] 以上説明したように、実施の形態 1に係る画像処理装置 10は、入力画像を画像処 理した補正画像の情報に基づ!/、て、入力画像か補正画像の 、ずれか一方を選択し て出力するようにした。したがって、画像処理により発生したリンギング等のノイズを低 減することが可能となり、良好な画質の画像を得ることができる。 [0060] なお、本実施の形態の補正画像エッジ検出手段では、エッジ検出を行うエッジ検出 処理として SOBELフィルタを用いる場合について説明した力 これに限るものでは なぐエッジ検出の効果が得られるものであればよい。また、フィルタリング処理を水 平方向、および垂直方向に行う場合について説明した力 どちらか一方の処理として もよい。さらに、エッジ検出処理を輝度信号について行う場合について説明したが、 色差信号を用いてもよぐ R、 G、 Bの色信号を用いてもよぐこれら色に関する情報を 組み合わせて用いてもよ!、。
[0061] また、本実施の形態の第 1のエッジ判定手段では、エッジ検出処理をエッジ検出補 正画像の絶対値に基づきスレツショルドを設定する場合にっ ヽて説明した力 これに 限るものではなぐ同様の効果が得られるものであればよい。また、ノイズであると判 定された画素の画素値を「1」、画像本来のエッジ部の画素の画素値を「0」としたが、 その逆であってもよい。さらに、いずれか一方の場合のみ信号を出力するとしてもよ い。
[0062] また、エッジ検出処理、エッジ判定処理、画像出力処理を画素単位で行う場合につ V、て説明した力 各処理ともマクロブロックやブロック等の所定の領域単位で行っても よい。この場合は、所定領域にある全画素の画素値の平均値や、代表画素の画素値 等を用いる。
[0063] また、画像のエッジを用いて処理を行う方法にっ 、て説明した力 エッジ以外にも 画像の特徴を表すものであればょ 、。
[0064] また、実施の形態 1に係る画像処理装置 10は、手ぶれにより発生したぶれを補正 する場合に適応可能である力 手ぶれ以外のぶれの場合も適応可能であり、さらに、 例えば撮像系自体が動いた場合に発生するぶれ等にも適応可能である。
[0065] 実施の形態 2.
実施の形態 2に係る画像処理装置 20は、実施の形態 1に係る画像処理装置 10〖こ おいて、入力画像エッジ検出手段 204を付加して構成する。また、第 1のエッジ判定 手段 105に相当する構成要素として第 2のエッジ判定手段 205を備える。第 2のエツ ジ判定手段 205は、入力画像エッジ検出手段 204からの出力と、補正画像エッジ検 出手段 104からの出力に基づ 、て、エッジ判定処理を行う。 [0066] 図 5は、実施の形態 2に係る画像処理装置 20の構成を示すブロック図である。図 5 において、図 1と同じ符号が付されている構成要素は、実施の形態 1の画像処理装 置 10と同一、又は相当する構成要素である。
[0067] <入力画像エッジ検出手段 >
まず、入力画像エッジ検出手段 204について説明する。入力画像エッジ検出手段 204は、入力画像のエッジ成分を検出するエッジ検出処理を行い、エッジ成分が検 出された画像 (以下、「エッジ検出入力画像」と記す。)を出力する。なお、入力画像 エッジ検出手段 204で行われるエッジ検出処理は、実施の形態 1で説明した補正画 像エッジ検出手段 104で行われるエッジ検出処理と同様である。
[0068] すなわち、入力画像エッジ検出手段 204は、入力画像の画素毎に水平方向のエツ ジ成分 ImgH2と垂直方向のエッジ成分 ImgV2を得た後、式 12で表されるエッジ検 出入力画像 ImgS2を出力する。
[0069] [数 12]
ImgS2 =abs(ImgH2)+abs(TmgV2) ( 1 2)
[0070] <第 2のエッジ判定手段 >
次に、第 2のエッジ判定手段 205について説明する。第 2のエッジ判定部 205は、 入力画像エッジ検出手段 204から出力されるエッジ検出入力画像と、補正画像エツ ジ検出手段 104から出力されるエッジ検出入力画像とに基づいて、画素毎に、ノイズ であるか、画像本来のエッジ部の画素であるかを判定するエッジ判定処理を行う。
[0071] 第 2のエッジ判定手段 205におけるエッジ判定処理は、以下の処理により行われる 。まず、エッジ検出補正画像 ImgSlと第 1のしきい値 thre— resを比較する。さら〖こ、 エッジ検出入力画像 ImgS2と第 2のしきい値 thre— degを比較する。そして、式 13を 満たした場合、つまりエッジ検出補正画像、エッジ検出入力画像のいずれもが各々 のしきい値よりも小さい場合のみ、画像補正手段 102の画像処理により発生したノィ ズであると判定し、第 2の判定手段 204は、その画素について画素値「1」を出力する 。一方、その他の場合は、画素値「0」を出力する。
[0072] つまり、縦軸を画素数、横軸をエッジ検出補正画像 ImgSlとした図 4 (a)、 (b)の第 1のしきい値 thre— resより左側にある領域 1にあり、かつ縦軸を画素数、横軸をエツ ジ検出入力画像 ImgS2とした図 6 (a)、 (b)の第 2のしきい値 thre— degより左側にあ る領域 1にある画素についてのみ、画像補正手段 102の補正処理により発生したノィ ズであると判定し、第 2の判定手段 204は、その画素について画素値「1」を出力する
[0073] [数 13]
ImgSl<thre ' s,力、つ, ImgS2<thre deg ( 1 3)
[0074] これは、以下の理由による。すなわち、エッジ検出入力画像 ImgS2が第 2のしきい 値 thre— degよりも大き 、と、その画素は画像の本来的なエッジ部であると考えること ができる。し力し、この画素について、エッジ検出補正画像 ImgSlが第 1のしきい値 t hre— resのよりも小さい場合がある。この場合、実施の形態 1のように、エッジ検出補 正画像 ImgSlと第 1のしきい値 thre— resの関係から出力画像を決定すると、ぶれが 発生している入力画像が出力されることとなる。したがって、出力画像のリンギング等 のノイズは低減される力 ぶれの影響により、画像の輪郭にボケが発生する場合があ る。
[0075] 本実施の形態は、このような場合を考慮して、画像本来のエッジ部であると判定さ れた画素、すなわち、エッジ検出入力画像 ImgS2が第 2のしきい値 thre— degよりも 大きい画素については、ぶれが発生している可能性のある入力画像ではなぐぶれ が低減されている補正画像を出力し、出力画像の画質を向上させるものである。
[0076] なお、画像出力手段 106は、実施の形態 1と同様、画素値「1」の画素については、 入力画像用フレームメモリ 101にある入力画像を選択し、画素値「0」の画素につ 、て は、補正画像用フレームメモリ 103にある補正画像を選択し、各々出力画像として出 力する。すなわち、第 2のエッジ判定手段 205から出力されるのは 2値ィ匕された 2値ィ匕 画像である。
[0077] 以上説明したように、実施の形態 2に係る画像処理装置 20は、入力画像と補正画 像に基づいてエッジ判定処理を行うこととした。したがって、画像本来のエッジ部に補 正画像が出力されるので、より画質の向上した出力画像を得ることができる。 [0078] なお、第 2のしきい値 thre— degを決定する方法としては、実施の形態 1で説明した 第 1のしき 、値 thre— resを決定する方法と同様とすればょ 、。
[0079] また、実施の形態 1と同様、スレツショルドを設定してエッジ検出処理を行う場合に ついて説明したが、これに限るものではなぐ同様の効果が得られるものであればよ い。また、ノイズであると判定された画素の画素値を「1」、画像本来のエッジ部の画素 の画素値を「0」とした力 その逆であってもよい。さらに、いずれか一方の場合のみ信 号を出力するとしてもよい。
[0080] 実施の形態 3.
実施の形態 3に係る画像処理装置 30は、実施の形態 2に係る画像処理装置 20〖こ おいて、第 1の選択情報変更手段 307を付加して構成する。第 1の選択情報変更手 段 307は、第 2のエッジ判定手段 205から出力される選択情報を適宜変更し、変更し た変更情報を画像出力手段 106に出力する。そして、画像出力手段 106は、この変 更情報に基づ ヽて入力画像か補正画像の!/、ずれか一方を選択して出力する。
[0081] 図 7は、実施の形態 3に係る画像処理装置 30の構成を示すブロック図である。図 7 において、図 5と同じ符号が付されている構成要素は、実施の形態 2の画像処理装 置 20と同一、又は相当する構成要素である。
[0082] <第 1の選択情報変更手段 >
まず、第 1の選択情報変更手段 307について説明する。実施の形態 2で説明したよ うに、第 2のエッジ判定手段 205では、エッジ検出入力画像とエッジ検出補正画像か らエッジ判定が行われる。このときに、画像本来のエッジ部と判定された画素の集団 の中に、例えば 1点だけノイズと判定された画素(以下、「孤立画素」と記す。)が混入 する場合がある。この場合、出力画像としては、補正画像の中に入力画像が混入す ることとなるので、入力画像、すなわち孤立画素が視覚上ノイズと判断される場合が ある。第 1の選択情報変更手段 307は、このような孤立画素を除去する孤立画素除 去処理を行う。
[0083] 以下、第 1の選択情報変更手段 307における孤立画素除去処理について説明す る。まず、実施の形態 2で説明したように、第 2のエッジ判定手段 205は、ノイズと判定 した画素の画素値を「1」、画像本来のエッジ部と判定した画素の画素値を「0」とした 選択情報を出力する。
[0084] 第 1の選択情報変更手段 307は、メディアンフィルタを用い、フィルタリング処理を 行う。なお、メディアンフィルタは、設定した領域内の画素の画素値を検出し、多数を 占める画素の画素値を選択するものである。例えば、メディアンフィルタの設定領域 が縦 3画素 X横 3画素、その領域内の画素値カ 0, 0, 0, 0, 0, 1, 1, 1, 1 }となって いる場合、画素値「0」が 5個存在し、画素値「1」が 4個存在するので、メディアンフィ ルタによるフィルタリング処理後の画素値はすべて 0、すなわち、 {0, 0, 0, 0, 0, 0, 0, 0, 0}となる。このように、第 1の選択情報変更手段 307は、メディアンフィルタを用 いて孤立画素を除去する。
[0085] 換言すると、第 1の選択情報変更手段 307は、第 2のエッジ判定手段 205から出力 される 2値ィ匕画像、すなわち選択情報を、他の画素の選択情報を参照して変更し、 変更した変更情報を出力するものである。
[0086] 以上説明したように、実施の形態 3に係る画像処理装置 30は、第 1の選択情報変 更手段 307により孤立画素の除去を行うこととした。したがって、出力画像の画質が 向上する。
[0087] なお、第 1の選択情報変更手段 307で用いるメディアンフィルタとして、サイズが縦 3画素 X横 3画素のメディアンフィルタについて説明した力 これに限るものではなく 、例えば縦 19画素 X横 19画素のメディアンフィルタを用いてもよい。また、メディアン フィルタは矩形以外の形状であってもよ 、。
[0088] さらに、メディアンフィルタ以外にも孤立画素を除去することができるものであればよ い。
[0089] また、画像処理装置 30は、実施の形態 2に係る画像処理装置 20に第 1の選択情 報変更手段 307を追加して構成するとして説明したが、第 1の選択情報変更手段 30 7を実施の形態 1に係る画像処理装置 10に追加して構成してもよい。
[0090] 実施の形態 4.
実施の形態 4に係る画像処理装置 40は、実施の形態 2に係る画像処理装置 20〖こ おいて、第 2の選択情報変更手段 407を付加して構成する。さらに、画像出力手段 1 06に相当する個所を、第 1のゲインコントローラ 409、第 2のゲインコントローラ 410、 加算器 411で構成する。
[0091] 図 8は、実施の形態 4に係る画像処理装置 40の構成を示すブロック図である。図 8 において、図 5と同じ符号が付されている構成要素は、実施の形態 2の画像処理装 置 20と同一、又は相当する構成要素である。
[0092] <第 2の選択情報変更手段 >
まず、第 2の選択情報変更手段 407について説明する。実施の形態 3で説明したよ うに、第 2のエッジ判定手段 205からの出力される 2値ィ匕画像には、孤立画素が存在 する場合がある。第 2の選択情報変更手段 407は、この孤立画素を除去する孤立画 素除去処理を行うものである力 孤立画素除去処理としてローパスフィルタ処理を行 う。例えば、画素値が {0, 1, 0, 1, 1, 0}となっている場合に、 3タップローパスフィル タ { 1Z4, 1/2, 1Z4}を適用すると、フィルタ処理の後の画素値は、 {0. 25, 0. 5, 0. 5, 0. 75, 0. 75, 0. 25}となる。すなわち、第 2のエッジ半 IJ定手段 205力ら出力さ れた 2値ィ匕画像は、第 2の選択情報変更手段 407により、画素値が 0から 1の実数値 K をもつグレースケール画像となる。なお、 i、; jは画素の位置を示す。すなわち、第 2 ,
の選択情報変更手段 407は、第 2のエッジ判定手段 205から出力される 2値ィ匕画像 、すなわち選択情報を、他の画素の選択情報を参照して変更し、変更した変更情報 を出力するものである。
[0093] く第 1、第 2のゲインコントローラ、加算器〉
次に、第 1のゲインコントローラ (第 1の画像出力器) 408、第 2のゲインコントローラ( 第 2の画像出力器) 409、加算器 411 (第 3の画像出力器)につ 、て説明する。第 2の 選択情報変更手段 407から出力される K は第 1のゲインコントローラ 408に入力さ ,
れる。また、 1— K は第 2のゲインコントローラ 409に入力される。ここで、入力画像の ,
座標 (i, j)の画素値を Imgln、補正画像の座標 (i, j)の画素値を ImgCとすると、第
1のゲインコントローラ 408では、式 14で表される処理が行われる。一方、第 2のゲイ ンコントローラ 409では、式 15で表される処理が行われる。
[0094] [数 14]
ImgC'^ImgC^Kij ( 1 4) [0095] [数 15] imgln 'i ImglnVl*(l Ku) ( 1 5) [0096] そして、それぞれ、フィルタ入力画像値 Imgln'、フィルタ補正画像値 ImgC, 力カロ 算器 411〖こ出力される。加算器 411では式 16で表される、フィルタ入力画像値 Imgl n, 、フィルタ補正画像値 ImgC,の加算、出力画像のビット数に適合させたクリツピン グ、整数値化が行われ、出力画像が出力される。
[0097] [数 16]
ImgOut=clip (Imgl'ij +ImgC, ij) ( 1 6)
[0098] すなわち、第 1のゲインコントローラ 408は、第 2の選択情報変更手段 407から出力 される変更情報を参照して補正画像を補正し、この補正後の補正画像を出力する第 1の画像出力器として機能する。また、第 2のゲインコントローラ 409は、第 2の選択情 報変更手段 407から出力される変更情報を参照して入力画像を補正し、この補正後 の入力画像を出力する第 2の画像出力器として機能する。さらに、加算器 411は、第 1のゲインコントローラ 408から出力される補正後の補正画像と、第 2のゲインコント口 ーラ 409から出力される補正後の入力画像とを加算して出力画像を出力する第 3の 画像出力器として機能する。
[0099] なお、第 2の選択情報変更手段 407に入力される選択情報は「0」、 「1」の 2値化情 報であるが、第 2の選択情報変更手段 407はこの 2値ィ匕情報を多階調の整数、例え ば 256階調の整数とみなし、内部でローパスフィルタ処理を行ってもよい。すなわち、 「0」を「0」に、「1」を「255」にそれぞれ射影し、ローパスフィルタ処理を行う。また、フ ィルタ処理は浮動小数点演算で行ってもよぐ近似的に整数演算で行ってもよい。特 に、整数演算でフィルタ処理を行う場合は、フィルタ処理速度の向上を図ることが可 能となる。
[0100] なお、 256階調への射影を行う場合、第 2の選択情報変更手段 407から出力する K 、 1 -K を「0」から「1」までの実数値とする実数ィ匕の処理が必要であるので、「0」 を「0」に、「255」を「1」に射影して、それぞれ出力する。
[0101] また、上記では、第 2の選択情報変更手段 407において 256階調への射影を行つ た場合、 K 、 1— Κ を実数化して出力すると説明したが、第 2の選択情報変更手段
407では実数化の処理を行わずに、「0」から「255」の整数値のまま第 1のゲインコン トローラ 408、第 2のゲインコントローラ 409に出力し、それぞれのゲインコントローラ 内で 255で除算する実数ィ匕を行ってもょ ヽ。
[0102] 以上説明したように、実施の形態 4に係る画像処理装置 40は、孤立画素除去処理 をローパスフィルタによって行うので、孤立画素除去処理の効果を近傍の画素に分 散させることができ、出力画像の画質が向上する。
[0103] なお、実施の形態では、孤立画素を除く処理として、ローパスフィルタ処理を用いる 場合について説明したが、これに限るものではなぐ同様に孤立画素を取り除く効果 が得られるものであればょ 、。
[0104] また、第 2の選択情報変更手段 407から第 1のゲインコントローラ 408に Κ が出力 , され、第 2のゲインコントローラ 409に 1—K が出力されるとしたが、第 2の選択情報 ,
変更手段 407から出力されるのは Κ とし、第 2のゲインコントローラ 409内で 1—K と演算するとしてもよい。
[0105] また、画像処理装置 40は、実施の形態 2に係る画像処理装置 20に第 2の選択情 報変更手段 407等を追加、置換えて構成するとして説明したが、実施の形態 1に係 る画像処理装置 10に適応してもよい。

Claims

請求の範囲
[1] 入力画像に対してぶれ補正処理を行う画像補正手段と、
ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出手段と、 特徴が検出された特徴検出補正画像に基づいて選択情報を出力する第 1の特徴 判定手段と、
前記選択情報に基づ 、て、前記入力画像または前記補正画像の!/、ずれか一方を 出力する画像出力手段と
を備える画像処理装置。
[2] 入力画像に対してぶれ補正処理を行う画像補正手段と、
ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出手段と、 前記入力画像の特徴を検出する入力画像特徴検出手段と、
特徴が検出された特徴検出補正画像と、特徴が検出された特徴検出入力画像とに 基づいて選択情報を出力する第 2の特徴判定手段と、
前記選択情報に基づ 、て、前記入力画像または前記補正画像の!/、ずれか一方を 出力する画像出力手段と
を備える画像処理装置。
[3] 選択情報を変更した変更情報を出力する第 1の選択情報変更手段を備え、
画像出力手段は、前記変更情報に基づいて、前記入力画像または前記補正画像 のいずれか一方を出力する
請求項 1又は 2に記載の画像処理装置。
[4] 入力画像に対してぶれ補正処理を行う画像補正手段と、
ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出手段と、 特徴が検出された特徴検出補正画像に基づいて選択情報を出力する第 1の特徴 判定手段と、
前記選択情報を変更した変更情報を出力する第 2の選択情報変更手段と、 前記変更情報に基づいて、前記入力画像を補正して出力する第 1の画像出力器と 前記変更情報に基づいて、前記補正画像を補正して出力する第 2の画像出力器と 前記補正後の入力画像と前記補正画像を補正画像とに基づいて出力画像を出力 する第 3の画像出力器と
を備える画像処理装置。
[5] 画像の特徴は画像のエッジに関する情報である
請求項 1、 2、 4のいずれか 1項に記載の画像処理装置。
[6] 画像の特徴の検出は、画像を構成する所定領域毎に行う
請求項 1、 2、 4のいずれか 1項に記載の画像処理装置。
[7] 所定の領域は、画素である
請求項 6に記載の画像処理装置。
[8] 選択情報は、特徴検出補正画像と第 1のしきい値とを比較した結果であり、
画像出力手段は、
前記選択情報が、前記特徴検出補正画像が前記第 1のしき!、値以下を表す場合、 入力画像を出力し、
前記選択情報が、前記特徴検出補正画像が前記第 1のしき!、値以上を表す場合、 補正画像を出力する
請求項 1に記載の画像処理装置。
[9] 選択情報は、特徴検出補正画像と第 1のしきい値とを比較し、かつ、特徴検出入力 画像と第 2のしきい値とを比較した結果であり、
画像出力手段は、
前記選択情報が、前記特徴検出補正画像が前記第 1のしきい値以下、かつ、前記 特徴検出入力画像が前記第 2のしきい値以下を表す場合、入力画像を出力し、 前記選択情報が、前記特徴検出補正画像が前記第 1のしきい値以上、または、前 記特徴検出入力画像が前記第 2のしきい値以上を表す場合、補正画像を出力する 請求項 2に記載の画像処理装置。
[10] 第 1の選択情報変更手段は、
処理対象となって!/、る所定領域の選択情報を、前記処理対象以外の所定領域の 選択情報を参照して変更する 請求項 3に記載の画像処理装置。
[11] 第 1の選択情報変更手段は、
メディアンフィルタによるフィルタリング処理を行う
請求項 10に記載の画像処理装置。
[12] 第 2の選択情報変更手段は、
処理対象となって!/、る所定領域の選択情報を、前記処理対象以外の所定領域の 選択情報を参照して変更する
請求項 4に記載の画像処理装置。
[13] 第 2の選択情報変更手段は、ローパスフィルタ処理を行う
請求項 12に記載の画像処理装置。
[14] 入力画像に対してぶれ補正処理を行う画像補正ステップと、
ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出ステップと、 前記入力画像の特徴を検出する入力画像特徴検出ステップと、
特徴が検出された特徴検出補正画像と、特徴が検出された特徴検出入力画像とに 基づいて選択情報を出力する第 2の特徴判定ステップと、
前記選択情報に基づ 、て、前記入力画像または前記補正画像の!/、ずれか一方を 出力する画像出力ステップと
を備える画像処理方法。
[15] 入力画像に対してぶれ補正処理を行う画像補正ステップと、
ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出ステップと、 前記入力画像の特徴を検出する入力画像特徴検出ステップと、
特徴が検出された特徴検出補正画像と、特徴が検出された特徴検出入力画像とに 基づいて選択情報を出力する第 2の特徴判定ステップと、
前記選択情報に基づ 、て、前記入力画像または前記補正画像の!/、ずれか一方を 出力する画像出力ステップと
を備える画像処理方法。
[16] 選択情報を変更した変更情報を出力する第 1の選択情報変更ステップを備え、 画像出力ステップは、前記変更情報に基づいて、前記入力画像または前記補正画 像の 、ずれか一方を出力する
請求項 14又は 15に記載の画像処理装置。
[17] 入力画像に対してぶれ補正処理を行う画像補正ステップと、
ぶれ補正処理後の補正画像の特徴を検出する補正画像特徴検出ステップと、 特徴が検出された特徴検出補正画像に基づいて選択情報を出力する第 1の特徴 判定ステップと、
前記選択情報を変更した変更情報を出力する第 2の選択情報変更ステップと、 前記変更情報に基づいて、前記入力画像を補正して出力する第 1の画像出力ステ ップと、
前記変更情報に基づいて、前記補正画像を補正して出力する第 2の画像出力ステ ップと、
前記補正後の入力画像と前記補正画像を補正画像とに基づいて出力画像を出力 する第 3の画像出力ステップと
を備える画像処理方法。
[18] 請求項 1に記載の画像処理装置を備えた情報端末。
PCT/JP2005/007999 2005-04-27 2005-04-27 画像処理装置、画像処理方法、及び情報端末装置 WO2006117844A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP05736817.7A EP1876564B1 (en) 2005-04-27 2005-04-27 Image processing device, image processing method, and information terminal
JP2006549200A JP3959547B2 (ja) 2005-04-27 2005-04-27 画像処理装置、画像処理方法、及び情報端末装置
PCT/JP2005/007999 WO2006117844A1 (ja) 2005-04-27 2005-04-27 画像処理装置、画像処理方法、及び情報端末装置
US11/919,119 US8319840B2 (en) 2005-04-27 2005-04-27 Image processing device, image processing method, and information terminal apparatus
US13/618,543 US8542283B2 (en) 2005-04-27 2012-09-14 Image processing device, image processing method, and information terminal apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/007999 WO2006117844A1 (ja) 2005-04-27 2005-04-27 画像処理装置、画像処理方法、及び情報端末装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/919,119 A-371-Of-International US8319840B2 (en) 2005-04-27 2005-04-27 Image processing device, image processing method, and information terminal apparatus
US13/618,543 Division US8542283B2 (en) 2005-04-27 2012-09-14 Image processing device, image processing method, and information terminal apparatus

Publications (1)

Publication Number Publication Date
WO2006117844A1 true WO2006117844A1 (ja) 2006-11-09

Family

ID=37307651

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/007999 WO2006117844A1 (ja) 2005-04-27 2005-04-27 画像処理装置、画像処理方法、及び情報端末装置

Country Status (4)

Country Link
US (2) US8319840B2 (ja)
EP (1) EP1876564B1 (ja)
JP (1) JP3959547B2 (ja)
WO (1) WO2006117844A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010131296A1 (ja) * 2009-05-14 2010-11-18 株式会社 東芝 画像処理装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8559746B2 (en) * 2008-09-04 2013-10-15 Silicon Image, Inc. System, method, and apparatus for smoothing of edges in images to remove irregularities
JP6316010B2 (ja) * 2014-01-30 2018-04-25 キヤノン株式会社 画像処理装置、画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0411469A (ja) * 1990-04-29 1992-01-16 Canon Inc 撮像装置
JPH0627512A (ja) 1992-07-13 1994-02-04 Olympus Optical Co Ltd ぶれ画像復元装置
JPH0765163A (ja) * 1993-08-05 1995-03-10 Sony United Kingdom Ltd 映像データ処理方式
JPH10320535A (ja) * 1997-05-22 1998-12-04 Mitsubishi Heavy Ind Ltd 背景画像自動生成装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0188269B1 (en) * 1985-01-16 1994-04-20 Mitsubishi Denki Kabushiki Kaisha Video encoding apparatus
EP0455445B1 (en) * 1990-04-29 1998-09-09 Canon Kabushiki Kaisha Image pick-up apparatus
EP0455444B1 (en) * 1990-04-29 1997-10-08 Canon Kabushiki Kaisha Movement detection device and focus detection apparatus using such device
JP3912869B2 (ja) 1997-10-17 2007-05-09 三菱重工業株式会社 交通流計測装置
US6411741B1 (en) * 1998-01-14 2002-06-25 Kabushiki Kaisha Toshiba Image processing apparatus
JP4473363B2 (ja) 1999-05-26 2010-06-02 富士フイルム株式会社 手振れ補正装置およびその補正方法
JP2002300459A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd 反復法による画像復元装置、画像復元方法、プログラム及び記録媒体
JP2004186901A (ja) 2002-12-02 2004-07-02 Sony Corp 撮像装置及び方法、プログラム及び記録媒体
EP1434425A3 (en) * 2002-12-25 2006-04-26 Hitachi Ltd. Video signal processing apparatus
JP4817000B2 (ja) * 2003-07-04 2011-11-16 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4250583B2 (ja) 2004-09-30 2009-04-08 三菱電機株式会社 画像撮像装置及び画像復元方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0411469A (ja) * 1990-04-29 1992-01-16 Canon Inc 撮像装置
JPH0627512A (ja) 1992-07-13 1994-02-04 Olympus Optical Co Ltd ぶれ画像復元装置
JPH0765163A (ja) * 1993-08-05 1995-03-10 Sony United Kingdom Ltd 映像データ処理方式
JPH10320535A (ja) * 1997-05-22 1998-12-04 Mitsubishi Heavy Ind Ltd 背景画像自動生成装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
K.-C. TAN ET AL.: "Restoration of Real-World Motion-Blurred Images", GRAPHICAL MODELS AND IMAGE PROCESSING, vol. 53, no. 3, May 1991 (1991-05-01), pages 291 - 299, XP000200580, DOI: doi:10.1016/1049-9652(91)90051-K
O. HADAR ET AL.: "Restoration of images degraded by extreme mechanical vibrations", OPTICS AND LASER TECHNOLOGY, vol. 29, no. 4, pages 171 - 177, XP004084885, DOI: doi:10.1016/S0030-3992(97)00002-9
See also references of EP1876564A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010131296A1 (ja) * 2009-05-14 2010-11-18 株式会社 東芝 画像処理装置

Also Published As

Publication number Publication date
US20130010142A1 (en) 2013-01-10
EP1876564B1 (en) 2013-10-23
US20100060745A1 (en) 2010-03-11
EP1876564A4 (en) 2010-04-14
JPWO2006117844A1 (ja) 2008-12-18
US8542283B2 (en) 2013-09-24
JP3959547B2 (ja) 2007-08-15
EP1876564A1 (en) 2008-01-09
US8319840B2 (en) 2012-11-27

Similar Documents

Publication Publication Date Title
CN108694705B (zh) 一种多帧图像配准与融合去噪的方法
US9262811B2 (en) System and method for spatio temporal video image enhancement
JP3770271B2 (ja) 画像処理装置
US9454805B2 (en) Method and apparatus for reducing noise of image
EP2075756B1 (en) Block-based image blending for camera shake compensation
US10491815B2 (en) Image-processing apparatus, image-processing method, and non-transitory computer readable medium storing image-processing program
JPH07274044A (ja) 時間可変フィルタ係数を用いたビデオ信号ノイズ低減システムおよびノイズ低減方法
EP3944603A1 (en) Video denoising method and apparatus, and computer-readable storage medium
WO2006038334A1 (ja) 画像撮像装置及び画像復元方法
CN105931213B (zh) 基于边缘检测和帧差法的高动态范围视频去鬼影的方法
WO2017038395A1 (ja) 画像処理装置、画像処理方法及びプログラム
WO2014054273A1 (ja) 画像ノイズ除去装置、および画像ノイズ除去方法
JP2004088234A (ja) ノイズ低減装置
CN111383190A (zh) 图像处理设备和方法
WO2006117844A1 (ja) 画像処理装置、画像処理方法、及び情報端末装置
JP2016201037A (ja) 画像処理装置、画像処理方法及びプログラム
CN115035013A (zh) 图像处理方法、图像处理装置、终端及可读存储介质
JP7039215B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP2835963B1 (en) Image processing device and method, and image processing program
US12125173B2 (en) Video denoising method and device, and computer readable storage medium
Xu et al. Interlaced scan CCD image motion deblur for space-variant motion blurs
JP3639640B2 (ja) 動きベクトル検出装置
JP3067833B2 (ja) 画像処理装置及び方法
JP4753522B2 (ja) 符号化前にビデオ画像を動き補償再帰フィルタリングする装置、方法及びそれに対応する符号化システム
JP7118818B2 (ja) 画像処理方法、画像処理装置、撮像装置、およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2006549200

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005736817

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Country of ref document: RU

WWP Wipo information: published in national office

Ref document number: 2005736817

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11919119

Country of ref document: US