WO2010024402A1 - 画像処理装置および方法、ならびに、画像表示装置 - Google Patents

画像処理装置および方法、ならびに、画像表示装置 Download PDF

Info

Publication number
WO2010024402A1
WO2010024402A1 PCT/JP2009/065100 JP2009065100W WO2010024402A1 WO 2010024402 A1 WO2010024402 A1 WO 2010024402A1 JP 2009065100 W JP2009065100 W JP 2009065100W WO 2010024402 A1 WO2010024402 A1 WO 2010024402A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
curved surface
image
edge
unit
Prior art date
Application number
PCT/JP2009/065100
Other languages
English (en)
French (fr)
Inventor
直 三島
賢造 五十川
隆介 平井
剛 伊藤
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to US13/061,270 priority Critical patent/US9092870B2/en
Priority to JP2010526796A priority patent/JP5487106B2/ja
Publication of WO2010024402A1 publication Critical patent/WO2010024402A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Definitions

  • the present invention relates to an image processing apparatus and method, and an image display apparatus.
  • Patent Document 1 discloses a technique for least-square fitting of an ideal image surface without noise by a parametric curved surface.
  • a method called Kernel Regression is used, and the shape and edge of the input image can be extracted with higher accuracy than normal linear filtering.
  • Patent Document 1 there is a problem that an image is too blurred due to smoothing on a low-order polynomial curved surface, and noise is likely to be generated on the image due to overfitting on a high-order polynomial curved surface.
  • the present invention has been made in view of the above, and an object of the present invention is to accurately extract the shape and edge of an input image and to suppress image noise.
  • the image processing apparatus uses the direction and magnitude of the gradient of the pixel value of a pixel located around the pixel to be processed in the input image to detect the edge around the pixel to be processed.
  • a calculation unit that calculates at least one of the tangential direction and the normal direction, and a conversion unit that converts the coordinates of the peripheral pixels of the processing target pixel into rotated coordinates that are rotated to a coordinate axis according to the tangential direction or normal direction of the edge.
  • the image processing apparatus of the present invention includes a calculation unit that calculates a gradient direction and a magnitude of a pixel value of a pixel located around a pixel to be processed in an input image, and a tangential direction or normal direction of an edge of the image.
  • a storage unit that stores a filter coefficient determined by a curved surface approximated by using a curved surface model with a higher degree of freedom of variables for each of a plurality of combinations of the direction and the magnitude of the gradient of the pixel value, and the processing with reference to the storage unit
  • a selection unit that selects a filter coefficient based on the direction and magnitude of the gradient obtained for the target pixel, and a convolution that calculates a pixel value of the processing target pixel after correction by filtering using the selected filter coefficient Characterized in that it comprises a calculation unit.
  • the shape and edge of the input image can be extracted with high accuracy, and the noise of the image can be suppressed.
  • FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration of an image processing unit according to the first embodiment.
  • FIG. 3 is a diagram illustrating an operation of the image processing unit according to the first embodiment.
  • FIG. 4 is a diagram illustrating a relationship between a two-dimensional Gaussian function and an edge tangent direction and a normal direction.
  • FIG. 5 is a diagram illustrating a rotation angle formed by an x-axis of an image and a long-axis direction of a two-dimensional Gaussian function.
  • FIG. 6 is a diagram illustrating a curved surface fitting operation in the image processing unit according to the first embodiment.
  • FIG. 7A shows an original image.
  • FIG. 7A shows an original image.
  • FIG. 7B is a diagram showing the shape of a two-dimensional Gaussian function at each point on the original image.
  • FIG. 8A is a diagram showing a result of fitting with respect to an xy axis by a conventional Kernel Regression.
  • FIG. 8B is a diagram showing a result of fitting with respect to an xy axis by a conventional Kernel Regression.
  • FIG. 8C is a diagram showing a result of fitting with respect to the uv axis.
  • FIG. 8D is a diagram showing a result of fitting with respect to the uv axis.
  • FIG. 9 is a diagram showing the difference between the conventional method and the method of this embodiment.
  • FIG. 10 is a diagram illustrating an image processing unit according to the second embodiment.
  • FIG. 11 is a diagram illustrating an operation of the image processing unit according to the second embodiment.
  • FIG. 12 is a diagram showing image feature classification by Harris.
  • FIG. 13 is a diagram illustrating an image processing unit according to the third embodiment.
  • FIG. 14 is a diagram illustrating an operation of the image processing unit according to the third embodiment.
  • FIG. 15 is a diagram illustrating an image processing unit according to the fourth embodiment.
  • FIG. 16 is a diagram illustrating an operation of the image processing unit according to the fourth embodiment.
  • FIG. 17 is a diagram illustrating an image processing unit according to the fifth embodiment.
  • FIG. 18 is a diagram illustrating an operation of the image processing unit according to the fifth embodiment.
  • FIG. 19 is a diagram illustrating an image display device according to a sixth embodiment.
  • the image processing apparatus 100 includes an input interface unit 101, an image processing unit 102, a storage unit 103, and an output interface unit 104.
  • the input interface unit 101 is connected to an input device for inputting an image.
  • the input interface unit 101 acquires an input image from the input device.
  • the image processing unit 102 performs processing such as filtering on the input image. Accordingly, the image processing unit 102 generates an image from which noise has been removed.
  • the storage unit 103 stores the input image acquired by the input interface unit 101, the image processed by the image processing unit 102, and the like.
  • the output interface unit 104 is connected to an output device that outputs an image. The output interface unit 104 outputs the image stored in the storage unit 103 to the output device.
  • At least one of the input device and the output device may be provided outside the image processing apparatus 100 or may be provided inside the image processing apparatus 100.
  • the image processing unit 102 a corresponding to the image processing unit 102 in FIG. 1 includes a calculation unit 201, a parameter calculation unit 202, a conversion unit 203, and a fitting unit 204.
  • the operation of the image processing unit 102a in FIG. 2 will be described with reference to FIG.
  • the position in the input image is x ⁇
  • the set of all the positions of the input image is ⁇ R 2
  • the pixel value at the position x of the input image is I (x).
  • the pixel value may be a scalar value (for example, a luminance value) or a vector value (for example, an RGB color signal).
  • transposition of a matrix / vector is represented by adding a superscript “T” to the matrix / vector.
  • Num (N) is the number of elements in the set N.
  • step S301 the calculation unit 201 obtains the direction and magnitude of the gradient of the surrounding pixel values for each pixel of the input image.
  • a discretized first-order differential operation is used to determine the direction and magnitude of the gradient of the pixel value.
  • a Sobel operator can be used as the discretized first-order differential operation.
  • the calculation unit 201 performs the calculation shown in Formula 1.
  • d x (x) is an x-direction differential value at the position x.
  • d y (x) is a y-direction differential value at the position x.
  • “*” Is a convolution operation.
  • d x (x) is expressed as Equation 2.
  • a discretized differential operation other than the Sobel operator may be used.
  • a forward difference, a backward difference, or a center difference may be used.
  • the parameter calculation unit 202 calculates an image feature parameter indicating the direction and size of the edge at the position x, using d x (x) and d y (x).
  • the parameter calculation unit 202 calculates a two-dimensional Gaussian function represented by an anisotropic Gaussian distribution according to the direction and size of the edge.
  • the two-dimensional Gaussian function is defined as Equation 3 by the differential structure tensor H (x).
  • s ⁇ N indicates the position of a point within a predetermined range (hereinafter referred to as “local neighborhood”) centering on the position x.
  • h (> 0) is the standard deviation of the anisotropic Gaussian distribution.
  • the two-dimensional Gaussian function is strongly influenced by the component in the normal direction of the edge. As shown in FIG. 4, the two-dimensional Gaussian function has an elliptical shape in which the direction in which the change in pixel value is small and the major axis are substantially parallel, and the direction in which the change in pixel value is large and the minor axis are substantially parallel. In the two-dimensional Gaussian function, the clearer the edge, the shorter the short diameter, and the elliptical shape collapsed in the tangential direction of the edge.
  • the image feature parameter is calculated by Equation 4 from the structure tensor H (x).
  • Equation 5 H (x) is expressed as Equation 5.
  • the rotation angle ⁇ represents an angle formed by the x-axis of the image and the major axis direction of the two-dimensional Gaussian function.
  • ⁇ + represents the length of the major axis of the ellipse by a two-dimensional Gaussian function
  • ⁇ ⁇ represents the length of the minor axis.
  • ⁇ + and ⁇ ⁇ are eigenvalues of the structure tensor.
  • the long axis of the two-dimensional Gaussian function substantially coincides with the tangential direction of the edge.
  • the short axis of the two-dimensional Gaussian function substantially coincides with the normal direction of the edge.
  • the image feature parameter is not stably calculated due to noise included in the image. Therefore, as shown in Expression 6, a structure tensor convolved with respect to a point in the local vicinity N centered on the position x may be used.
  • the local neighborhood N may be an arbitrary shape. For example, a 5 ⁇ 5 (pixel is a unit; hereinafter omitted) centered around the position x may be used as the local neighborhood N.
  • step S303 the conversion unit 203 converts the coordinates of the position s within the local neighborhood N with respect to the position x (hereinafter referred to as local coordinates s) into the local coordinates u based on the rotation coordinates in accordance with the rotation angle ⁇ .
  • the coordinate conversion from the xy coordinates of the image to the uv local coordinates of the two-dimensional Gaussian function is expressed by Equation 7.
  • step S304 the fitting unit 204 obtains parameters of the curved surface to be fitted by curved surface fitting by the least square method.
  • curved surface fitting using a curved surface model of an nth order polynomial used in Patent Document 1 will be described.
  • an n-order polynomial curved surface model is expressed by Equation 8.
  • a curved surface fitting by a curved surface model is performed on the local neighborhood N with the position x as the center.
  • the output pixel value after the curved surface fitting, an I (x) a 0.
  • the curved surface fitting disclosed in Patent Document 1 has the following problems. For example, it is assumed that there is a diagonal edge. In order to fit this with a quadric surface, parameters a 0 , a 1 , a 2 , a 3 , a 4 , and a 5 are all required. On the other hand, if the edge is in the vertical direction, only the parameters a 0 , a 1 , and a 3 are required. This is because the t component of local coordinates is not necessary for the vertical edge. Similarly, if the edge is in the horizontal direction, only the parameters a 0 , a 2 and a 5 are required.
  • the fitting of Patent Document 1 has a direction dependency on the edge. If the number of parameters required for fitting increases, the stability of fitting may be reduced. If it is attempted to cover all directions, more parameters than necessary are used, which may cause overfitting.
  • the stability of the fitting by the least square method is determined by the number of parameters to be estimated and the number of sample points that can be used for fitting. If an excessive number of parameters is used with respect to the number of sample points, the fitting becomes unstable.
  • the major axis direction of the two-dimensional Gaussian function corresponds to the tangential direction of the edge.
  • the minor axis direction of the two-dimensional Gaussian function corresponds to the normal direction of the edge.
  • the change in pixel value is large in the normal direction of the edge and small in the tangential direction of the edge. This characteristic is considered by curved surface fitting. Since the change in the pixel value is large in the normal direction of the edge, the number of curved surface parameters increases. As a result, the degree of freedom is increased and the fitting is performed with high accuracy. On the other hand, since the change in the pixel value is small in the tangential direction of the edge, the number of parameters of the curved surface is small. As described above, the curved surface model is expressed as Equation 9.
  • u is the long axis of the two-dimensional Gaussian function
  • v is the short axis of the two-dimensional Gaussian function.
  • the degree of freedom of the curved surface is set only in the short-axis direction of the two-dimensional Gaussian function, and a zero-order polynomial is set in the long-axis direction.
  • the sharpness of the edge is adjusted in the minor axis direction, and the noise removal performance is improved in the major axis direction.
  • fitting independent of the edge direction is possible. Further, the sharpness of the edge can be increased with fewer parameters than in Patent Document 1, and the stability of the fitting can be improved even if the same sample point is used.
  • Patent Document 1 For example, in Patent Document 1, six parameters are required to express an edge with a quadric surface accuracy. On the other hand, in this embodiment, three parameters are required. In Patent Document 1, 15 parameters are required to express an edge with a quartic surface accuracy. On the other hand, in this embodiment, 5 parameters are required. Thus, regarding the number of required parameters, the difference between the two becomes larger as the degree of freedom of the curved surface is increased.
  • the curved surface fitting is performed using a least square method.
  • the curved surface model is defined as follows.
  • Equation 10 a quartic polynomial curved surface model is shown, but a polynomial curved surface model of 0th to 5th or 7th order or higher may be used. Further, instead of a polynomial, a curved surface model based on a sine wave as shown in Expression 11 may be used.
  • the pixel value of the pixel at the position s in the local neighborhood N centered on the position x is I (x + s) (where s ⁇ N).
  • the coordinate conversion by the rotation angle ⁇ with respect to the local coordinate s is obtained by Equation 12 through a coordinate conversion step using a rotation matrix.
  • Equation 13 the pixel value I (x + s) and the curved surface f (R ⁇ 1 ( ⁇ ) s) are associated with each other.
  • the least square method is a method for obtaining a parameter that minimizes the square error in this correspondence, and is defined as Equation 13.
  • a ⁇ (x) is a fitting parameter by the least square method.
  • K (x, s) is a weight at the point s.
  • a two-dimensional Gaussian function is used.
  • Arbitrary shapes can be used for the local neighborhood N. For example, a 5 ⁇ 5 tap rectangular area centered on the position x can be used.
  • Expression 13 is expressed in matrix form as Expression 14.
  • N ⁇ s 0 ,..., S n ⁇ .
  • Equation 15 is called a normal equation. In the case of the linear least square method, this is the optimal solution.
  • the inverse matrix can be numerically calculated by LU decomposition or singular value decomposition. Here, it is assumed that a ⁇ (x) is obtained as shown in Equation 16.
  • Equation 17 The output pixel after fitting is given by Equation 17.
  • step S601 the fitting unit 204 calculates the matrix P of Expression 14.
  • step S602 the fitting unit 204 calculates the matrix W of Expression 14 using the image feature parameter of Expression 4.
  • step S603 the fitting unit 204 calculates (P T WP) ⁇ 1 using LU decomposition, singular value decomposition, or the like.
  • step S604 the fitting unit 204 calculates a ⁇ (x) in Expression 15.
  • FIGS. 8A and 8B show the results obtained by performing the first-order differentiation in the x direction and the y direction, respectively, by performing curved surface fitting with respect to FIG. 7B by the least square method.
  • the curved surface parameters are dispersed on each axis, and the model parameters depend on the rotation angle of the two-dimensional Gaussian function. For this reason, when trying to reproduce edges in all directions at the same level, parameters for all quadric surfaces are required.
  • FIGS. 8C and 8D perform curved surface fitting with respect to FIG. 7B by the least square method, and are linear in the u direction (major axis direction of the two-dimensional Gaussian function) and the v direction (minor axis direction of the two-dimensional Gaussian function), respectively.
  • the result of differentiation is shown. Referring to FIGS. 8C and 8D, it can be seen that the axis of the curved surface model coincides with the principal component axis of the edge. For this reason, the edge components are concentrated on the v-axis (the short axis of the two-dimensional Gaussian function). For this reason, only the v-axis needs to be used when reproducing edges in all directions.
  • fitting by Kernel Regression is performed on the xy axis.
  • fitting by Kernel Regression is performed on the uv axis. Since the uv axis is the principal component axis of the edge, the degree of freedom can be distributed in the maximum amplitude direction (principal component) of information.
  • filtering with excellent edge reproducibility was performed by rotating the curved surface model in the tangential direction of the edge. This is because, at the edge portion, information is concentrated in the short axis direction of the ellipse by the above-described two-dimensional Gaussian function, that is, the normal direction of the edge, and thus a curved surface giving a degree of freedom to the short axis component is well applied.
  • the image includes not only an edge region but also a flat region and a corner region (such as a corner or a tip). In these areas, information is not necessarily concentrated on the short axis component.
  • the region is classified according to the image feature, and a suitable curved surface model is assigned according to the classification.
  • the image feature is obtained using the differential value in the x direction and the differential value in the y direction. More specifically, the image feature is obtained using the structure tensor described in the first embodiment.
  • the operation by the image processing unit 102b in FIG. 10 is different from the operation in FIG. 3 in that at least the curved surface model selection step S1103 is performed before the coordinate conversion step and the curved surface fitting step. Other steps will be described with a focus on differences from FIG.
  • step S1102 parameters such as the tangent direction of the edge representing the local features of the image, the major axis and the minor axis of the ellipse are calculated using the structure tensor. Harris et al. Perform feature classification of images from structural tensors (C. Harris and M. Stephens (1988), “A Combined Corner and Edge Detector”, Proc. Of the 4th ALVEY Vision Conference 7, 14). ).
  • each part of the image has an edge region (Edge) and a flat region (Flat) as shown in FIG. 12 according to the eigenvalues ⁇ + and ⁇ ⁇ . ) And a corner area (Corner). If one of the eigenvalues ⁇ + and ⁇ ⁇ is large and the other is small, the ellipse by the two-dimensional Gaussian function has a collapsed shape. In that case, the image portion is an edge region. If both eigenvalues are large, the ellipse by the two-dimensional Gaussian function becomes smaller in an isotropic circle.
  • the image portion is a corner (corner or tip). If both eigenvalues are small, the ellipse by the two-dimensional Gaussian function becomes isotropic and large. In that case, it indicates that the image portion is a flat region.
  • the curved surface model of the first embodiment is a curved surface model using only the short axis component of an ellipse by a two-dimensional Gaussian function. This is suitable for the edge region among the above regions based on the fact that information is concentrated in the edge normal direction in the edge region.
  • the following edge region curved surface model can be considered.
  • the corner region and the flat region an ellipse based on a two-dimensional Gaussian function is isotropic, and information is not concentrated on the short axis (v axis). Therefore, it is appropriate to use both the u-axis and the v-axis in the corner region and the flat region.
  • the corner region has a large change in pixel value, and thus it is suitable that the degree of freedom of the curved surface model is high.
  • the following corner area curved surface model can be considered.
  • Equation 20 a flat region curved surface model composed of a low-order polynomial as shown in Equation 20 can be considered.
  • the selection unit 1001 classifies the target pixel into a plurality of predetermined classes (regions).
  • the selection unit 1001 selects a curved surface model corresponding to the plurality of classified classes on a one-to-one basis as the curved surface model of the target pixel.
  • the selection unit 1001 classifies the target pixel based on the eigenvalues ⁇ + and ⁇ ⁇ of the structure tensor. The classification is performed according to the classification described with reference to FIG. Then, the selection unit 1001 selects the curved surface model according to the classification result.
  • step S1105 the fitting unit 204 performs fitting by the least square method using the curved surface model selected in step S1103.
  • the third embodiment is different from the first embodiment in that a filter selection unit 1301 and a convolution operation unit 1302 are provided instead of the conversion unit 203 and the curved surface fitting unit 204.
  • the first embodiment it is necessary to solve a normal equation for each pixel to be filtered. Specifically, it is necessary to numerically calculate the inverse matrix by LU decomposition or singular value decomposition.
  • a result obtained by solving a normal equation in advance is stored in an LUT (Look Up Table). Thereby, feasibility in a circuit etc. is improved.
  • the operation of the image processing unit 102c of FIG. 13 shown in FIG. 14 includes at least a filter selection step S1403 and a convolution calculation step S1404 in place of the coordinate conversion step S303 and the curved surface fitting step S304. Is different. The other steps are the same as in FIG.
  • step S1403 the filter selection unit 1301 selects an appropriate filter from the LUT obtained by solving the normal equation based on the image feature parameter calculated in step S1402.
  • Equation 15 Y represents a pixel value as shown in Equation 14, and changes according to the input image.
  • P r WP P ⁇ 1 P r W depends only on the image feature parameters ⁇ + , ⁇ ⁇ , and ⁇ , and does not depend on the image.
  • the two-dimensional Gaussian function is represented by the differential autocorrelation coefficient of the input image, as shown in Equation 21.
  • Equation 23 The two-dimensional Gaussian function is also rewritten as Equation 23.
  • Equation 24 The matrix W is expressed as Equation 24.
  • Equation 25 the matrix W depends only on the image feature parameters.
  • Equation 25 the matrix P is expressed as Equation 25.
  • Equation 26 also depends only on the image feature parameters.
  • ,..., L) are calculated and registered in the LUT (filter bank).
  • the corresponding X ( ⁇ + , ⁇ ⁇ , ⁇ ) 1 is selected from the LUT based on the calculated image feature parameters ( ⁇ + , ⁇ ⁇ , ⁇ ).
  • step S1404 the convolution operation unit 1302 performs a convolution operation with the pixel value vector Y using the filter X ( ⁇ + , ⁇ ⁇ , ⁇ ) l selected in the filter selection step S1403. Then, the convolution operation unit 1302 calculates an output pixel to which the curved surface is fitted by the least square method. Specifically, the convolution operation unit 1302 performs a matrix calculation represented by Equation 28.
  • a filtering process adapted to the edge of the input image is performed using a two-dimensional Gaussian function.
  • the tip of the triangle cannot be expressed by a two-dimensional Gaussian function, the image becomes dull. Therefore, in the fourth embodiment, it is possible to solve the problem that the tip portion becomes dull by making the two-dimensional Gaussian function robust from the pixel value of the pixel at the tip portion of the triangle.
  • the operation of the image processing unit 102d in FIG. 15 is different from the operation described in FIG. 3 in that it includes a weight calculation step S1606 after at least the curved surface fitting step S1605. Other steps will be described with a focus on differences from FIG.
  • Step S1605 is basically the same as in the first embodiment, but the fitting unit 204 calculates the matrix W according to Equation 29.
  • the weight calculation unit 1501 weights the pixel value of the input image in the local vicinity according to the distance from the processing target pixel located at the center of the local coordinates. For example, in the local vicinity, the weight is decreased as the difference from the pixel value of the processing target pixel of the input image is larger, and the weight is increased as the difference is smaller.
  • the two-dimensional Gaussian function applies to the step edge portion of the image, but may not apply to the tip portion or corner. When fitting by the least square method in a region where such a two-dimensional Gaussian function is not applicable, the image is greatly distorted due to outlier pixel values that do not apply to the function, and as a result, the adverse effect that the corner becomes dull appears. .
  • Such an outlier region can be said to be a region of pixels having pixel values that are different from the pixel value of the pixel to be processed.
  • the weight based on the difference in pixel values can be defined as follows using a Gaussian function as shown in Equation 30.
  • ⁇ I > 0 is a standard deviation of the Gaussian function, and is a parameter indicating how much the pixel value is different to reduce the weight.
  • Equation 30 the weight of Equation 30 also reacts to the block distortion, and the block distortion is not eliminated. Therefore, deblocking weights such as Equation 31 can be used so that the pixel value difference weights are not used at the block boundaries.
  • (Fifth embodiment) 17 that are the same as those of the image processing unit 102a in FIG. 2 are denoted by the same reference numerals in the image processing unit 102e of the present embodiment illustrated in FIG.
  • the fifth embodiment is different from the first embodiment in that a difference calculation unit 1701 is provided.
  • the difference between the pixel value of the curved surface fitted in the first to fourth embodiments and the pixel value of the input image is taken, and reproducibility of a fine texture or the like is performed by fitting again to this difference. Can be increased.
  • the operation of the image processing unit 102e in FIG. 17 is described in FIG. 3 in that it includes a difference calculation step S1806, a coordinate calculation step S1807, and a curved surface fitting step S1808 at least after the curved surface fitting step S1805.
  • the operation is different.
  • Other steps will be described with a focus on differences from FIG.
  • the pixel I (x) can be modeled as Equation 32.
  • Equation 33 S (x) is a skeleton component
  • T (x) is a texture component
  • n (x) is noise.
  • the degree of freedom of the curved surface is set in the normal direction of the edge, not in the tangential direction. This is equivalent to extracting the skeleton component, ignoring the irregularities in the tangential direction of the edge. Therefore, the curved surface fitting result by the least square method can be regarded as a skeleton component of the image as shown in Equation 34.
  • step S1806 the difference calculation unit 1701 calculates the difference between the pixel value of the input image and the pixel value of the skeleton component. First, from Equation 32 and Equation 34, the texture component becomes Equation 35.
  • step S1808 the curved surface fitting unit 204 calculates a texture component by performing curved surface fitting on the local coordinates subjected to coordinate transformation in step S1807 by the least square method with respect to the difference obtained in step S1806.
  • the texture curved surface model is expressed by Equation 38.
  • the model is set in the normal direction of the edge, but here the model is set in the tangential direction of the edge. This is because the texture component is extracted in the tangential direction of the edge orthogonal to the normal direction of the edge from which the skeleton component of the image is removed.
  • the least square method for the difference is expressed as Equation 39.
  • Equation 40 When this is converted into a matrix form, it is expressed as Equation 40.
  • Equation 41 the normal equation is expressed as Equation 41.
  • the inverse matrix can be numerically calculated by LU decomposition or singular value decomposition.
  • b ⁇ (x) is obtained as in Expression 42.
  • the image processing unit 102e adds the curved surface model and the textured curved surface model to generate an output image. That is, the output image after filtering is expressed by Equation 44.
  • FIG. 19 is a diagram illustrating an image display apparatus according to the present embodiment.
  • the image display apparatus according to this embodiment includes an image processing apparatus 1900 and a display unit 1903 that displays an image.
  • the same reference numerals are given to the same portions as those of the image processing unit 102c in FIG.
  • the image processing apparatus 1900 includes a decoding unit 1901 that decodes input data and obtains an input image, a filter selection unit 1902, and an LUT 1903.
  • the filter selection unit 1902 and the LUT 1903 perform the same operation as the filter selection unit 1301 in FIG.
  • the filter selection unit 1902 changes the filter to be selected according to the encoding method of the input data.
  • the LUT 1903 holds filter coefficients calculated in advance.
  • a filter coefficient is prepared for each encoding method.
  • the LUT 1903 is a curved surface model in which the displacement on the coordinate axis in the direction in accordance with the tangential direction or the normal direction of the edge of the image is a variable, and a free variable indicating the displacement on the coordinate axis in the tangential direction of the edge.
  • the input data is H.264.
  • a filter coefficient used when encoding is performed according to an encoding method with high encoding efficiency such as H.264 a filter coefficient based on a curved surface obtained by approximation by a curved surface model based on a high degree of freedom is held in the LUT 1903. Yes.
  • the encoding efficiency is H.264. Low compared to H.264, H.264.
  • a filter coefficient used in the case of being encoded by an encoding method such as H.263, H.263 is used.
  • a filter coefficient generated by a curved surface model based on a lower degree of freedom than that encoded by H.264 is held in the LUT 1903.
  • the filter may be switched according to the size of the input image. For example, in order to use when the image size is small, a filter coefficient is generated so as to reduce the size of the target region used in the convolution calculation, and is stored in the LUT 1903. Further, in order to use when the size of the input image is large, filter coefficients that increase the size of the target used in the convolution calculation are generated and held in the LUT 1903. *
  • suitable image processing can be performed according to the encoding method and image size of the input image.
  • various encoding methods and image sizes are distributed over the Internet. Even if the encoding method and image size of the input data are different, a high-quality image can be obtained.
  • an image processing program for executing each processing step in the image processing apparatus according to each embodiment described above is a CD-ROM, a flexible disk (FD), a CD-R in an installable or executable file. , Recorded on a computer-readable recording medium such as a DVD (Digital Versatile Disk), and provided as a computer program product.
  • the image processing program according to each embodiment may be provided by being incorporated in advance in a ROM or the like.
  • the image processing program executed by the image processing apparatus has a module configuration including each part of the above-described image processing unit 102 or image processing apparatus 1900, and is not illustrated as actual hardware.
  • the CPU processor
  • each unit of the image processing unit 102 or the image processing device 1900 is loaded on a main storage device (not shown), and the image processing unit 102 or the image processing device 1900 is loaded. These units are generated on the main storage device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 画像処理装置は、入力画像の画素値の垂直方向の微分値と水平方向の微分値とを用いて、エッジの接線方向および法線方向を演算する演算部と、入力画像の対象画素に対して予め定められた範囲の局所座標を、水平方向とエッジの接線方向とがなす角に従い回転させた回転座標に変換する変換部と、回転座標上において、入力画像の対象画素の画素値で表される曲面モデルを、最小二乗法によりフィッティングするフィッティング部とを備える。

Description

画像処理装置および方法、ならびに、画像表示装置
 本発明は、画像処理装置および方法、ならびに、画像表示装置に関する。
 特許文献1は、ノイズの無い理想の画像表面をパラメトリックな曲面によって最小二乗フィッティングする技術を開示している。本手法では、Kernel Regressionという方法が用いられており、通常の線形フィルタリングよりも、入力画像の形状やエッジを精度良く抽出することができる。
米国特許出願公開第2007/0047838号明細書
 しかしながら、特許文献1では、低次の多項式曲面では平滑化により画像がボケ過ぎ、高次の多項式曲面では過フィッティングにより画像にノイズが発生しやすいという問題がある。
 本発明は、上記を鑑みてなされたものであり、入力画像の形状やエッジを精度よく抽出すると共に、画像のノイズを抑えることを目的とする。
 上記目的を達成するために、本発明の画像処理装置は、入力画像の処理対象画素の周辺に位置する画素の画素値の勾配の方向及び大きさを用いて、処理対象画素周辺でのエッジの接線方向および法線方向のうち少なくとも一方を演算する演算部と、処理対象画素の周辺画素の座標を、エッジの接線方向または法線方向に従った座標軸に回転させた回転座標に変換する変換部と、処理対象画素の周辺での局所的な画素値の分布を、回転座標での位置を変数とする曲面モデルで近似した曲面を求め、曲面における処理対象画素の位置の画素値から、補正後の処理対象画素の画素値を求めるフィッティング部とを備えることを特徴とする。
 また、本発明の画像処理装置は、入力画像の処理対象画素の周辺に位置する画素の画素値の勾配の方向及び大きさを演算する演算部と、画像のエッジの接線方向または法線方向に従った方向の座標軸上での変位を変数とする曲面モデルであって、エッジの接線方向の座標軸上での変位を示す変数の自由度よりもエッジの法線方向の座標軸上での変位を示す変数の自由度の方が高い曲面モデルを用いて近似した曲面によって定まるフィルタ係数を、画素値の勾配の方向及び大きさの複数の組合せ毎に記憶する記憶部と、記憶部を参照し、処理対象画素について求めた勾配の方向及び大きさに基づいてフィルタ係数を選択する選択部と、選択されたフィルタ係数によるフィルタリングによって補正後の処理対象画素の画素値を算出する畳み込み演算部とを備えることを特徴とする。
 本発明によれば、入力画像の形状やエッジを精度よく抽出できると共に、画像のノイズが抑えられるという効果を奏する。
図1は、第1の実施形態に係る画像処理装置の構成を示す図。 図2は、第1の実施形態に係る画像処理部の構成を示す図。 図3は、第1の実施形態に係る画像処理部の動作を示す図。 図4は、2次元ガウス関数とエッジの接線方向及び法線方向との関係を示す図。 図5は、画像のx軸と2次元ガウス関数の長軸方向とがなす回転角を示す図。 図6は、第1の実施形態に係る画像処理部における曲面フィッティングの動作を示す図。 図7Aは、原画像を示す図。 図7Bは、原画像上の各点での2次元ガウス関数の形状を示す図。 図8Aは、従来のKernel Regressionによるx-y軸に対するフィッティングの結果を示す図。 図8Bは、従来のKernel Regressionによるx-y軸に対するフィッティングの結果を示す図。 図8Cは、u-v軸に対するフィッティングの結果を示す図。 図8Dは、u-v軸に対するフィッティングの結果を示す図。 図9は、従来の方式と本実施形態の方式との違いを示す図。 図10は、第2の実施形態に係る画像処理部を示す図。 図11は、第2の実施形態に係る画像処理部の動作を示す図。 図12は、Harrisによる画像特徴分類を示す図。 図13は、第3の実施形態に係る画像処理部を示す図。 図14は、第3の実施形態に係る画像処理部の動作を示す図。 図15は、第4の実施形態に係る画像処理部を示す図。 図16は、第4の実施形態に係る画像処理部の動作を示す図。 図17は、第5の実施形態に係る画像処理部を示す図。 図18は、第5の実施形態に係る画像処理部の動作を示す図。 図19は、第6の実施形態に係る画像表示装置を示す図。
 (第1の実施形態) 
 図1に示すように、画像処理装置100は、入力インターフェース部101と、画像処理部102と、記憶部103と、出力インターフェース部104と、を備える。
 入力インターフェース部101は、画像を入力する入力装置に接続される。入力インターフェース部101は、入力装置から入力画像を取得する。画像処理部102は、入力画像に対してフィルタリングなどの処理を行なう。これにより、画像処理部102は、ノイズが除去された画像を生成する。記憶部103は、入力インターフェース部101で取得した入力画像や画像処理部102で処理された画像等を記憶する。出力インターフェース部104は、画像を出力する出力装置に接続される。出力インターフェース部104は、記憶部103に記憶された画像を出力装置に出力する。
 なお、入力装置及び出力装置の少なくとも一方は、画像処理装置100の外部に設けられてもよいし、画像処理装置100の内部に設けられてもよい。
 図2に示すように、図1の画像処理部102に対応する画像処理部102aは、演算部201と、パラメータ算出部202と、変換部203と、フィッティング部204とを備える。
 図2の画像処理部102aの動作を図3を参照して説明する。ここで、入力画像中の位置をx∈Ω、入力画像の位置全体の集合をΩ⊂R、入力画像の位置xにおける画素値をI(x)とする。画素値は、スカラー値(例えば、輝度値など)であってもよいし、ベクトル値(例えば、RGBカラー信号など)であってもよい。また、行列・ベクトルの転置を、行列・ベクトルに上付文字の「T」を添えて表す。Num(N)は、集合Nの要素数とする。
 ステップS301では、演算部201は、入力画像の各画素に対してその周辺の画素値の勾配の方向及び大きさを求める。本実施形態では、画素値の勾配の方向及び大きさを求めるために、離散化された1階の微分演算を用いる例について述べる。離散化された1階の微分演算としては、例えば、Sobelオペレータを用いることができる。演算部201は、Sobelオペレータを用いた場合、数式1に示す演算を行う。
Figure JPOXMLDOC01-appb-M000001
 d(x)は、位置xにおけるx方向微分値である。d(x)は、位置xにおけるy方向微分値である。「*」は畳み込み演算である。d(x)は、数式2のように表される。
Figure JPOXMLDOC01-appb-M000002
 なお、Sobelオペレータ以外の離散化された微分演算を用いてもよい。例えば、前進差分、後退差分でも中心差分のいずれであっても構わない。
 ステップS302では、パラメータ算出部202は、d(x)及びd(x)を用いて、位置xにおけるエッジの方向及び大きさを示す画像特徴パラメータを算出する。まず、パラメータ算出部202は、エッジの方向及び大きさに従って、非等方のガウシアン分布で表される2次元ガウス関数を算出する。2次元ガウス関数は、微分値の構造テンソルH(x)によって数式3のように定義される。
Figure JPOXMLDOC01-appb-M000003
 ここで、s∈Nは位置xを中心として予め定められた範囲(以下「局所近傍」という。)内にある点の位置を示す。h(>0)は非等方ガウシアン分布の標準偏差である。2次元ガウス関数は、エッジの法線方向の成分に強く影響される。図4に示すように、2次元ガウス関数は、画素値の変化が小さい方向と長軸とがほぼ平行で、画素値の変化が大きい方向と短軸とがほぼ平行な楕円形状となる。2次元ガウス関数は、エッジが鮮明であるほど短径がより短くなり、エッジの接線方向に潰れた楕円形状となる。画像特徴パラメータは、構造テンソルH(x)から数式4により算出される。
Figure JPOXMLDOC01-appb-M000004
 ここで、H(x)を数式5のように表した。
Figure JPOXMLDOC01-appb-M000005
 図5に示すように、回転角θは、画像のx軸と2次元ガウス関数の長軸方向とがなす角を表す。λは2次元ガウス関数による楕円の長径の長さ、λは短径の長さを表す。なお、λ、λは構造テンソルの固有値である。2次元ガウス関数の長軸は、エッジの接線方向にほぼ一致する。2次元ガウス関数の短軸は、エッジの法線方向にほぼ一致する。このままでは、画像に含まれるノイズにより、画像特徴パラメータが安定して算出されない。そこで、数式6に示すように、位置xを中心とした局所近傍N内の点に関して畳み込んだ構造テンソルを用いてもよい。
Figure JPOXMLDOC01-appb-M000006
 局所近傍Nは、任意の形状であってよい。例えば、位置xを中心とした5x5(画素を単位とする。以下省略。)タップの矩形領域などを局所近傍Nとして用いてもよい。
 ステップS303では、変換部203は、回転角θに応じて、位置xに関する局所近傍N内における位置sの座標(以下、局所座標sと呼ぶ)を、回転座標による局所座標uへ座標変換する。画像のx-y座標から2次元ガウス関数のuv局所座標への座標変換は数式7で表される。
Figure JPOXMLDOC01-appb-M000007
 ここで、u=(u、v)は、2次元ガウス関数の局所座標である。
 ステップS304では、フィッティング部204は、最小二乗法による曲面フィッティングにより、フィッティングを行う曲面のパラメータを求める。ここで、特許文献1で用いられている、n次多項式の曲面モデルによる曲面フィッティングについて説明する。例えば、n次多項式の曲面モデルは、数式8で表される。
Figure JPOXMLDOC01-appb-M000008
 ここで、s=(s、t)Tは、局所座標である。位置xを中心として、局所近傍Nに対して曲面モデルによる曲面フィッティングを行う。曲面フィッティング後の出力画素値は、I(x)=aとなる。
 特許文献1に示された曲面フィッティングには、以下に示す問題点がある。
 例えば、斜め方向のエッジがあるとする。これを2次曲面でフィッティングするには、パラメータa、a、a、a、a、aが全て必要である。これに対し、縦方向のエッジであれば、パラメータa、a、aのみでよい。縦方向のエッジに関しては、局所座標のt成分が必要ないからである。同様に、横方向のエッジであれば、パラメータa、a、aのみでよい。
 このように、特許文献1のフィッティングでは、エッジに対する方向依存性がある。フィッティングに必要なパラメータ数が増加すると、フィッティングの安定性が低下するおそれがある。全方向をカバーしようとすると、必要以上のパラメータを用いることとなり、過フィッティングになるおそれがある。最小二乗法によるフィッティングの安定性は、推定したいパラメータ数と当てはめに用いることのできるサンプル点の数とにより決定される。サンプル点の数に対して必要以上のパラメータ数を用いると、フィッティングが不安定になる。
 2次元ガウス関数の長軸方向は、エッジの接線方向に対応する。2次元ガウス関数の短軸方向は、エッジの法線方向に対応する。画素値の変化は、エッジの法線方向では大きく、エッジの接線方向では小さい。この特性を曲面のフィッティングで考える。エッジの法線方向では画素値の変化が大きいため、曲面のパラメータ数が多くなる。これにより、自由度が高まり、フィッティングが高精度に行われる。これに対し、エッジの接線方向では画素値の変化が小さいため、曲面のパラメータ数が少なくて済む。以上により、曲面モデルは数式9のように表される。
Figure JPOXMLDOC01-appb-M000009
 ここで、2次元ガウス関数の局所座標u=(u、v)を用いた。uは2次元ガウス関数の長軸、vは2次元ガウス関数の短軸である。ここでは、2次元ガウス関数の短軸方向のみに曲面の自由度を設定し、長軸方向では0次の多項式にしている。短軸方向でエッジの鮮鋭度を調整し、長軸方向でノイズ除去性能を高めている。回転角θによる曲面モデルとすることにより、エッジの方向に依存しないフィッティングが可能となる。また、特許文献1よりも少ないパラメータでエッジの鮮鋭度を高め、同じサンプル点を用いてもフィッティングの安定性を向上させることができる。
 例えば、特許文献1では、2次曲面精度のエッジを表現するのに6パラメータが必要である。これに対し、本実施形態では、3パラメータが必要である。また、特許文献1では4次曲面精度のエッジを表現するのに15パラメータが必要である。これに対し、本実施形態では5パラメータが必要である。このように、必要とされるパラメータ数に関し、曲面の自由度を増やすほど、両者の差が大きくなる。
 曲面フィッティングは、最小二乗法を用いて行われる。曲面モデルは、以下のように定義される。
Figure JPOXMLDOC01-appb-M000010
 数式10では、4次多項式曲面モデルを示したが、0次~5次又は7次以上の多項式曲面モデルであってもよい。また、多項式ではなく、数式11に示すように正弦波をベースとした曲面モデルであってもよい。
Figure JPOXMLDOC01-appb-M000011
 位置xを中心とした局所近傍N内における位置sの画素の画素値を、I(x+s)とする(ここで、s∈N)。局所座標sに対する回転角θによる座標変換は、回転行列による座標変換ステップにより数式12で求められる。
Figure JPOXMLDOC01-appb-M000012
 この数式12によって、画素値I(x+s)と曲面f(R-1(θ)s)とが対応付けられる。最小二乗法は、この対応における二乗誤差が最小となるようなパラメータを求める方法であり、数式13のように定義される。
Figure JPOXMLDOC01-appb-M000013
 ここで、a^(x)は、最小二乗法によるフィッティングのパラメータである。K(x、s)は、点sにおける重みである。ここでは、2次元ガウス関数を用いている。局所近傍Nは、任意の形状を用いることができる。例えば、位置xを中心とした5x5タップの矩形領域などを用いることができる。ここでは、説明を簡略化するため、数式13を数式14のように行列形式で表す。
Figure JPOXMLDOC01-appb-M000014
 ここで、局所近傍N内の点をN={s、…、s}とした。行列形式を用いると、最小二乗法の解は、数式15のように行列計算により一意に求められる。
Figure JPOXMLDOC01-appb-M000015
 数式15は、正規方程式と呼ばれる。線形の最小二乗法の場合には、これが最適解となる。逆行列は、LU分解や特異値分解などにより数値計算可能である。ここで、a^(x)が数式16に示すように求まったとする。
Figure JPOXMLDOC01-appb-M000016
 フィッティング後の出力画素は、数式17で与えられる。
Figure JPOXMLDOC01-appb-M000017
 図6を参照して、ステップS304の曲面フィッティングステップの動作を説明する。ステップS601では、フィッティング部204は、数式14の行列Pを計算する。ステップS602では、フィッティング部204は、数式4の画像特徴パラメータを用いて、数式14の行列Wを計算する。ステップS603では、フィッティング部204は、LU分解や特異値分解などを用いて、(PWP)-1を計算する。ステップS604では、フィッティング部204は、数式15のa^(x)を計算する。
 図7と図8を用いて、従来のKernel Regressionによるフィッティング結果と本実施形態のフィッティング結果とを説明する。
 図8A及び図8Bは、図7Bに対して最小二乗法により曲面フィッティングを行い、それぞれx方向及びy方向に1次微分した結果を示す。図8Aおよび図8Bを参照すると、曲面パラメータが各軸に分散しており、モデルパラメータが2次元ガウス関数の回転角に依存していることが分かる。そのため、全方向のエッジを同じレベルで再現しようとすると、2次曲面全てのパラメータが必要となる。
 図8C及び図8Dは、図7Bに対して最小二乗法により曲面フィッティングを行い、それぞれu方向(2次元ガウス関数の長軸方向)及びv方向(2次元ガウス関数の短軸方向)に1次微分した結果を示す。図8Cおよび図8Dを参照すると、エッジの主成分軸に曲面モデルの軸が一致していることが分かる。そのため、エッジの成分はv軸(2次元ガウス関数の短軸)に集中している。このことから、全方向のエッジを再現する場合にも、v軸のみを使えばよい。
 図9を用いて、従来の方式と本実施形態の方式との違いを説明する。従来では、Kernel Regressionによるフィッティングをx-y軸に対して行っている。これに対し、本実施形態では、Kernel Regressionによるフィッティングをu-v軸に対して行う。u-v軸は、エッジの主成分軸であるため、情報の最大振幅方向(主成分)に自由度を配分することができる。
 このように、本実施形態によれば、画像の形状やエッジを保持しながら、画像のノイズを効果的に除去することが可能となる。
 (第2の実施形態) 
 図10に示す本実施形態の画像処理部102bの各部について、図2の画像処理部102aと同一部分は同一符号で示す。第2の実施形態が第1の実施形態と異なる点は、選択部1001を備える点である。
 第1の実施形態では、エッジの接線方向に曲面モデルを回転させることにより、エッジの再現性に優れたフィルタリングを行った。エッジ部分では、上述した2次元ガウス関数による楕円の短軸方向、すなわちエッジの法線方向に情報が集中しているため、短軸成分に自由度を与えた曲面がよく当てはまるからである。
 しかし、画像には、エッジ領域だけではなく、フラットな領域やコーナーの領域(角や尖端など)なども存在する。これらの領域では、必ずしも短軸成分に情報が集中していない。第2の実施形態では、画像特徴に応じて当該領域を分類し、その分類に応じて適した曲面モデルを割り当てる。本実施形態では、x方向の微分値とy方向の微分値とを用いて画像特徴を求める。より具体的には第1の実施形態でも説明した構造テンソルを用いて画像特徴を求める。
 図11に示すように、図10の画像処理部102bによる動作は、少なくとも、曲面モデル選択ステップS1103を座標変換ステップ及び曲面フィッティングステップの前に行う点で、図3による動作とは相違する。他のステップについては、図3と相違する点を中心に説明する。
 ステップS1102では、画像の局所的な特徴を表現するエッジの接線方向、楕円の長軸、短軸などのパラメータを、構造テンソルを用いて算出する。Harrisらは、構造テンソルから画像の特徴分類を行っている(C.Harris and M.Stephens(1988)、“A Combined Corner and Edge Detector”、Proc. of the 4th ALVEY Vision Conference、pp.147-151)。
 これによれば、構造テンソルの固有値をλ、λとすると、画像の各部分は、固有値λ、λに応じて、図12に示すようにエッジ領域(Edge)、フラット領域(Flat)及びコーナー領域(Corner)に分類される。固有値λ、λのうち一方の値が大きく、他方が小さければ、2次元ガウス関数による楕円は潰れた形状となる。その場合には、その画像部分がエッジ領域であることを示す。両方の固有値が大きければ、2次元ガウス関数による楕円は等方の円形で小さくなる。その場合には、その画像部分がコーナー(角や尖端)であることを示す。両方の固有値が小さければ、2次元ガウス関数による楕円は等方の円形で大きくなる。その場合には、その画像部分がフラットな領域であることを示す。
 第1の実施形態の曲面モデルは、2次元ガウス関数による楕円の短軸成分のみを使った曲面モデルとなっている。これは、エッジ領域ではエッジ法線方向に情報が集中していることに基づき、上記領域のうちエッジ領域に適したものとなっている。例えば、第1の実施形態によれば、以下のようなエッジ領域曲面モデルが考えられる。
Figure JPOXMLDOC01-appb-M000018
 これに対し、コーナー領域及びフラット領域は、2次元ガウス関数による楕円が等方的となり、情報が短軸(v軸)に集中しているわけではない。したがって、コーナー領域及びフラット領域では、u軸およびv軸の両方を用いる方が適当である。これらのうち、コーナー領域は、画素値の変化が大きいため、曲面モデルの自由度は高い方が適している。例えば、以下のようなコーナー領域曲面モデルが考えられる。
Figure JPOXMLDOC01-appb-M000019
 これに対し、フラット領域ではなるべくノイズを抑えたいので、数式20に示されるような、低次の多項式からなるフラット領域曲面モデルが考えられる。
Figure JPOXMLDOC01-appb-M000020
 ステップS1103では、選択部1001は、対象画素を予め定められた複数のクラス(領域)に分類する。選択部1001は、分類した複数のクラスに一対一に対応する曲面モデルを対象画素の曲面モデルとして選択する。具体的には、選択部1001は、構造テンソルの固有値λ、λに基づいて対象画素の分類を行う。分類は、例えば図12を用いて説明した分類に従って行われる。そして、選択部1001は、その分類結果に応じて上記曲面モデルを選択する。
 ステップS1105では、フィッティング部204は、ステップS1103で選択された曲面モデルを用いて、最小二乗法によるフィッティングを行う。
 (第3の実施形態)
 図13に示す本実施形態の画像処理部102cの各部について、図2の画像処理部102aと同一部分は同一符号で示す。第3の実施形態が第1の実施形態と異なる点は、変換部203及び曲面フィッティンブ部204に代えて、フィルタ選択部1301及び畳み込み演算部1302を備える点である。
 第1の実施形態では、フィルタリング対象となる画素毎に、正規方程式を解く必要がある。具体的には、逆行列をLU分解や特異値分解で数値計算する必要がある。処理コストを減らすために、第3の実施形態では、正規方程式を事前に解いた結果を、LUT(ルックアップテーブル)に保存する。これにより、回路などでの実現性が高められる。
 図14に示す図13の画像処理部102cの動作は、少なくとも、座標変換ステップS303及び曲面フィッティングステップS304に代えて、フィルタ選択ステップS1403及び畳み込み演算ステップS1404を含む点で、図3で説明した動作とは相違する。他のステップについては、図3と同様である。
 ステップS1403では、フィルタ選択部1301は、ステップS1402で算出された画像特徴パラメータに基づいて、正規方程式を解いた結果のLUTから適切なフィルタを選択する。
 正規方程式は数式15により与えられる。Yは数式14に示すように画素値を表し、入力画像に応じて変化する。(PWP)-1Wは、画像特徴パラメータλ、λ、θのみに依存し、画像には依存しない。2次元ガウス関数は、数式21に示すように、入力画像の微分の自己相関係数によって表される。
Figure JPOXMLDOC01-appb-M000021
 数式21を画像特徴パラメータによって書き直すと、数式22で表される。
Figure JPOXMLDOC01-appb-M000022
 2次元ガウス関数も数式23のように書き直される。
Figure JPOXMLDOC01-appb-M000023
 行列Wは、数式24のように表される。
Figure JPOXMLDOC01-appb-M000024
 行列Wは、画像特徴パラメータのみに依存していることが分かる。同様に、行列Pは、数式25のように表される。
Figure JPOXMLDOC01-appb-M000025
 行列Pは、画像特徴パラメータのみに依存していることが分かる。従って、数式26も画像特徴パラメータのみに依存することが分かる。
Figure JPOXMLDOC01-appb-M000026
 離散化された任意の画像特徴パラメータの組(λ、λ、θ)、(l=0、…、L)に対して、事前にX(λ、λ、θ)、(l=0、…、L)を計算しておけば、追加計算をすることなく、解を数式27によって求めることができる。
Figure JPOXMLDOC01-appb-M000027
 すなわち、フィルタ選択ステップS1403では、(λ、λ、θ)、(l=0、…、L)に対して、事前にX(λ、λ、θ)、(l=0、…、L)を計算し、LUT(フィルタバンク)に登録する。そして、実際の処理では、算出された画像特徴パラメータ(λ、λ、θ)に基づいて、対応するX(λ、λ、θ)をLUTから選択する。
 ステップS1404では、畳み込み演算部1302は、フィルタ選択ステップS1403で選択されたフィルタX(λ、λ、θ)を用いて、画素値ベクトルYとの畳み込み演算を行う。そして、畳み込み演算部1302は、最小二乗法により、曲面がフィッティングされた出力画素を計算する。具体的には、畳み込み演算部1302は、数式28に示す行列計算を行う。
Figure JPOXMLDOC01-appb-M000028
 (第4の実施形態) 
 図15に示す本実施形態の画像処理部102dの各部について、図2の画像処理部102aと同一部分は同一符号で示す。第4の実施形態が第1の実施形態と異なる点は、重み算出部1501を備える点である。
 第1、第2の実施形態では、2次元ガウス関数を用いて入力画像のエッジに適応したフィルタリング処理を行った。しかし、三角形の先端部分などは2次元ガウス関数では表現できないため、鈍った画像となってしまう。そこで、第4の実施形態では、2次元ガウス関数を三角形の先端部分などにある画素の画素値からロバスト化することにより、先端部分などが鈍ってしまうという問題を解決可能である。
 図16に示すように、図15の画像処理部102dの動作は、少なくとも、曲面フィッティングステップS1605の後に、重み算出ステップS1606を含む点で、図3で説明した動作とは相違する。他のステップについては、図3と相違する点を中心に説明する。
 ステップS1605は、基本的には第1の実施形態と同様であるが、フィッティング部204が、行列Wを数式29に従って計算する。
Figure JPOXMLDOC01-appb-M000029
 ステップS1606では、重み算出部1501は、局所座標の中心に位置する処理対象画素からの距離に応じて、局所近傍内の入力画像の画素値に重み付けをする。例えば、局所近傍内において、入力画像の処理対象画素の画素値との差が大きいほど重みを小さくし、差が小さいほど重みを大きくする。2次元ガウス関数は、画像のステップエッジ部分では当てはまるが、先端部分や角などにおいては当てはまらないことがある。このような2次元ガウス関数が当てはまらない領域で最小二乗法によるフィッティングを行うと、関数が当てはまらない外れ値の画素値によって画像が大きく歪んでしまい、その結果、角が鈍ってしまうといった弊害が現れる。そのような外れ値となる領域は、処理対象画素の画素値と値が離れている画素値の画素による領域ということができる。画素値の差による重みは、数式30のようにガウシアン関数を用いて以下のように定義できる。
Figure JPOXMLDOC01-appb-M000030
 ここで、σ>0はガウシアン関数の標準偏差であり、どの程度の画素値の差で重みを小さくするかのパラメータである。
 一方、符号化された画像のようにブロック歪が発生するような状況では、数式30の重みではブロック歪みにも反応してしまい、ブロック歪みが解消されない。そこで、ブロック境界では画素値の差の重みを用いないように、数式31のようなデブロッキング型の重みを用いることもできる。
Figure JPOXMLDOC01-appb-M000031
 (第5の実施形態) 
 図17に示す本実施形態の画像処理部102eの各部について、図2の画像処理部102aと同一部分は同一符号で示す。第5の実施形態が第1の実施形態と異なる点は、差分算出部1701を備える点である。
 本実施形態では、第1~第4の実施形態によってフィッティングされた曲面の画素値と入力画像の画素値との差分をとり、この差分に対して再度フィッティングすることにより細かいテクスチャなどの再現性を高めることができる。
 図18に示すように、図17の画像処理部102eの動作は、少なくとも、曲面フィッティングステップS1805の後に、差分算出ステップS1806、座標算出ステップS1807、曲面フィッティングステップS1808を含む点で、図3で説明した動作とは相違する。他のステップについては、図3と相違する点を中心に説明する。
 ここで、入力画像が骨格成分とテクスチャ成分とノイズとで構成されるとすると、画素I(x)は、数式32のようにモデル化できる。
Figure JPOXMLDOC01-appb-M000032
 ここで、S(x)は骨格成分、T(x)はテクスチャ成分、n(x)はノイズである。これは加算モデルであるが、数式33のように乗算モデルも可能である。
Figure JPOXMLDOC01-appb-M000033
 第1~第4の実施形態では、曲面の自由度をエッジの法線方向に設定し、接線方向には設定していない。これは、エッジの接線方向の凹凸を無視しており、骨格成分を抽出していることと等価である。従って、最小二乗法による曲面フィッティング結果を、数式34のように画像の骨格成分と見なすことができる。
Figure JPOXMLDOC01-appb-M000034
 ステップS1806では、差分算出部1701は、入力画像の画素値と骨格成分の画素値の差分を算出する。まず、数式32及び数式34より、テクスチャ成分は、数式35のようになる。
Figure JPOXMLDOC01-appb-M000035
 これにより、テクスチャ成分を求めるためには、入力画像の画素値と骨格成分の画素値の差分が必要だと分かる。フィッティング曲面は、数式36で表される。
Figure JPOXMLDOC01-appb-M000036
 よって、差分は、数式37で表される。
Figure JPOXMLDOC01-appb-M000037
 ここで、sは局所近傍N内の点とする。
 ステップS1808では、曲面フィッティング部204は、ステップS1806で求められた差分に対してステップS1807で座標変換がなされた局所座標に対して最小二乗法により曲面フィッティングを行いテクスチャ成分を算出する。テクスチャ曲面モデルは、数式38で表される。
Figure JPOXMLDOC01-appb-M000038
 第1~第4の実施形態では、エッジの法線方向にモデルを設定したが、ここではエッジの接線方向にモデルを設定している。これは、画像の骨格成分が抜かれるエッジの法線方向に直交しているエッジの接線方向で、テクスチャ成分を抽出するためである。差分に対する最小二乗法は、数式39のように表される。
Figure JPOXMLDOC01-appb-M000039
 これを行列形式にすると、数式40のように表される。
Figure JPOXMLDOC01-appb-M000040
 従って、正規方程式は、数式41のように表される。
Figure JPOXMLDOC01-appb-M000041
 逆行列は、LU分解や特異値分解などにより数値計算可能である。ここで、b^(x)が、数式42のように求まったとする。
Figure JPOXMLDOC01-appb-M000042
 この場合、テクスチャ成分は、数式43で与えられる。
Figure JPOXMLDOC01-appb-M000043
 画像処理部102eは、曲面モデルとテクスチャ曲面モデルとを加算して、出力画像を生成する。すなわち、フィルタリング後の出力画像は、数式44で表される。
Figure JPOXMLDOC01-appb-M000044
 (第6の実施形態)
 図19は、本実施形態に係る画像表示装置を示す図である。本実施形態の画像表示装置は、画像処理装置1900と、画像を表示する表示部1903を有する。図19に示す画像処理装置1900の各部について、図13の画像処理部102cと共通する部分には同一の符号を付して、詳細な説明を省略する。
 画像処理装置1900は、入力されたデータを復号し、入力画像を得る復号部1901と、フィルタ選択部1902と、LUT1903を有する。なお、フィルタ選択部1902とLUT1903は、図13のフィルタ選択部1301と同様の動作を行う。
 フィルタ選択部1902は、入力されたデータの符号化方式に応じて選択するフィルタを変える。
 LUT1903には、あらかじめ算出されたフィルタ係数が保持されている。フィルタ係数は、符号化方式毎に用意されている。例えば、LUT1903は、画像のエッジの接線方向または法線方向に従った方向の座標軸上での変位を変数とする曲面モデルであって、エッジの接線方向の座標軸上での変位を示す変数の自由度よりも当該エッジの法線方向の座標軸上での変位を示す変数の自由度の方が高い曲面モデルを用いて近似した曲面によって定まるフィルタ係数を、画素値の勾配の方向及び大きさの複数の組合せ毎に記憶している。
 例えば、入力されたデータがH.264のように符号化の効率の良い符号化方式に従って符号化されていた場合に用いるフィルタ係数として、高い自由度に基づく曲面モデルによって近似して求められた曲面によるフィルタ係数がLUT1903に保持されている。また、符号化効率がH.264に比較して低い、H.263のような符号化方式で符号化されていた場合に用いるフィルタ係数として、H.264で符号化されていた場合よりも低い自由度に基づく曲面モデルによって生成したフィルタ係数がLUT1903に保持されている。
 なお、符号化方式によってフィルタ係数を切り替える方法を前述したが、入力画像のサイズに応じてフィルタを切り替える構成であっても構わない。例えば、画像サイズが小さい場合に用いるために、畳み込み演算で用いる対象の領域の大きさが小さくなるようなフィルタ係数を生成し、LUT1903に保持しておく。また、入力画像のサイズが大きい場合に用いるために、畳み込み演算で用いる対象の大きさが大きくなるようなフィルタ係数を生成し、LUT1903に保持しておく。 
 本実施形態の画像処理装置1900によれば、入力画像の符号化方式や画像サイズに応じて好適な画像処理を行うことができる。例えば、様々な符号化方式や画像サイズのものがインターネットによって配信される。入力されるデータの符号化方式や画像サイズが種々異なる場合であったとしても高画質な画像を得ることが出来る。
 なお、本発明は、上記の実施形態に限定されず、その要旨を逸脱しない範囲で変更されうる。また、上述した各実施形態による画像処理装置で各処理ステップを実行するための画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。
 また、各実施形態による画像処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
 上述した各実施形態による画像処理装置で実行される画像処理プログラムは、上述した画像処理部102あるいは画像処理装置1900の各部を含むモジュール構成となっており、実際のハードウェアとしては、それぞれ図示されないCPU(プロセッサ)が記憶媒体から画像処理プログラムを読み出して実行することにより、画像処理部102あるいは画像処理装置1900の各部が図示されない主記憶装置上にロードされ、画像処理部102あるいは画像処理装置1900の各部が主記憶装置上に生成されるようになっている。

Claims (10)

  1.  入力画像の処理対象画素の周辺に位置する画素の画素値の勾配の方向及び大きさを用いて、前記処理対象画素周辺でのエッジの接線方向および法線方向のうち少なくとも一方を演算する演算部と、
     前記処理対象画素の周辺画素の座標を、前記エッジの接線方向または法線方向に従った座標軸に回転させた回転座標に変換する変換部と、
     前記処理対象画素の周辺での局所的な画素値の分布を、前記回転座標での位置を変数とする曲面モデルで近似した曲面を求め、前記曲面における前記処理対象画素の位置の画素値から、補正後の前記処理対象画素の画素値を求めるフィッティング部と、
    を備えることを特徴とする画像処理装置。
  2.  前記処理対象画素の周辺の画素値の勾配の方向及び大きさを用いて、前記処理対象画素を予め定められた複数のクラスに分類し、前記複数のクラスに対応する曲面モデルを当該処理対象画素の曲面モデルとして選択する選択部を更に備え、
     前記フィッティング部は、前記選択部により選択された曲面モデルに従って前記曲面を求める
    ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記フィッティング部は、前記回転座標において、前記エッジの法線方向の座標軸上での変位を示す変数の自由度の方が、前記エッジの接線方向の座標軸上での変位を示す変数の自由度よりも高い前記曲面モデルを用いることを特徴とする請求項1に記載の画像処理装置。
  4.  前記入力画像の周辺の画素に対して、前記処理対象画素からの距離に応じた重みを与える重み算出部を更に備え、
     前記フィッティング部は、前記入力画像の画素値に対して前記重みを乗じた画素値に基づいて近似した曲面を求めることを特徴とする請求項1に記載の画像処理装置。
  5.  前記重み算出部は、前記処理対象画素の画素値との差が大きい画素値の画素程、小さな重みを与える
    ことを特徴とする請求項4に記載の画像処理装置。
  6.  入力画像の処理対象画素の周辺に位置する画素の画素値の勾配の方向及び大きさを演算する演算部と、
     画像のエッジの接線方向または法線方向に従った方向の座標軸上での変位を変数とする曲面モデルであって、前記エッジの接線方向の座標軸上での変位を示す変数の自由度よりも前記エッジの法線方向の座標軸上での変位を示す変数の自由度の方が高い前記曲面モデルを用いて近似した曲面によって定まるフィルタ係数を、画素値の勾配の方向及び大きさの複数の組合せ毎に記憶する記憶部と、
     前記記憶部を参照し、前記処理対象画素について求めた勾配の方向及び大きさに基づいてフィルタ係数を選択する選択部と、
     選択された前記フィルタ係数によるフィルタリングによって補正後の前記処理対象画素の画素値を算出する畳み込み演算部と、
    を備えることを特徴とする画像処理装置。
  7.  入力データを復号して入力画像を得る復号部をさらに備え、
     前記記憶部は、符号化方式毎にフィルタ係数を保持し、
     前記選択部は、前記入力データの符号化方式に応じて前記フィルタ係数を選択する
    ことを特徴とする請求項6に記載の画像処理装置。
  8.  入力データを復号して入力画像を得る復号部をさらに備え、
     前記記憶部は、画像のサイズ毎にフィルタ係数を保持し、
     前記選択部は、前記入力画像のサイズに応じて前記フィルタ係数を選択する
    ことを特徴とする請求項6に記載の画像処理装置。
  9.  入力画像の処理対象画素の周辺に位置する画素の画素値の勾配の方向及び大きさを用いて、前記処理対象画素周辺でのエッジの接線方向および法線方向のうち少なくとも一方を演算する演算ステップと、
     前記処理対象画素の周辺画素の座標を、前記エッジの接線方向または法線方向に従った座標軸に回転させた回転座標に変換する変換ステップと、
     前記処理対象画素の周辺での局所的な画素値の分布を、前記回転座標での位置を変数とする曲面モデルで近似した曲面を求め、前記曲面における前記処理対象画素の位置の画素値から、補正後の前記処理対象画素の画素値を求めるフィッティングステップと、
    を備えることを特徴とする画像処理方法。
  10.  請求項6に記載の画像処理装置と、
     画像を表示する表示部と、
    を更に備えたことを特徴とする画像表示装置。
PCT/JP2009/065100 2008-08-29 2009-08-28 画像処理装置および方法、ならびに、画像表示装置 WO2010024402A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/061,270 US9092870B2 (en) 2008-08-29 2009-08-28 Techniques to suppress noises in an image to precisely extract shapes and edges
JP2010526796A JP5487106B2 (ja) 2008-08-29 2009-08-28 画像処理装置および方法、ならびに、画像表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-222696 2008-08-29
JP2008222696 2008-08-29

Publications (1)

Publication Number Publication Date
WO2010024402A1 true WO2010024402A1 (ja) 2010-03-04

Family

ID=41721565

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065100 WO2010024402A1 (ja) 2008-08-29 2009-08-28 画像処理装置および方法、ならびに、画像表示装置

Country Status (3)

Country Link
US (2) US20100054606A1 (ja)
JP (1) JP5487106B2 (ja)
WO (1) WO2010024402A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101200378B1 (ko) 2011-08-30 2012-11-12 인하대학교 산학협력단 국소 각 위상을 이용한 강건한 텍스처 특징 추출 방법
JP2017502323A (ja) * 2013-12-17 2017-01-19 深▲せん▼市華星光電技術有限公司Shenzhen China Star Optoelectronics Technology Co., Ltd. 映像信号取得方法及び映像信号取得装置
JP2019096264A (ja) * 2017-11-28 2019-06-20 Kddi株式会社 画像処理装置、画像処理方法、及びプログラム
CN111353470A (zh) * 2020-03-13 2020-06-30 北京字节跳动网络技术有限公司 图像的处理方法、装置、可读介质和电子设备

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5075861B2 (ja) * 2009-03-16 2012-11-21 株式会社東芝 画像処理装置及び画像処理方法
JP5665508B2 (ja) * 2010-11-30 2015-02-04 キヤノン株式会社 画像処理装置及び方法、並びにプログラム及び記憶媒体
US10593007B1 (en) 2015-06-11 2020-03-17 Digimarc Corporation Methods and arrangements for configuring industrial inspection systems
KR101905993B1 (ko) * 2016-10-31 2018-10-10 현대자동차주식회사 차량용 내장재 및 그 성형 방법
JP6777507B2 (ja) * 2016-11-15 2020-10-28 Kddi株式会社 画像処理装置および画像処理方法
CN106780352B (zh) * 2016-12-16 2020-06-09 珠海赛纳打印科技股份有限公司 图像旋转方法、装置及图像形成设备
CN107644398B (zh) * 2017-09-25 2021-01-26 上海兆芯集成电路有限公司 图像插补方法及其相关图像插补装置
CN111178118B (zh) * 2018-11-13 2023-07-21 浙江宇视科技有限公司 图像采集处理方法、装置及计算机可读存储介质
CN112986964B (zh) * 2021-02-26 2023-03-31 北京空间机电研究所 基于噪声邻域密度的光子计数激光点云自适应去噪方法
CN113326855B (zh) * 2021-06-22 2022-07-12 长光卫星技术股份有限公司 基于二维高斯曲面拟合的夜间灯光遥感图像特征提取方法
CN115512341B (zh) * 2022-09-15 2023-10-27 粤丰科盈智能投资(广东)有限公司 基于高斯分布拟合的目标检测方法、装置及计算机介质
CN116060269B (zh) * 2022-12-08 2024-06-14 中晟华越(郑州)智能科技有限公司 回型产品喷涂方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113885A (ja) * 1997-10-08 1999-04-27 Oki Electric Ind Co Ltd 個体識別装置およびその方法
JP2001283252A (ja) * 2000-03-29 2001-10-12 Minolta Co Ltd 点群に面をフィッティングする方法および装置
JP2004125690A (ja) * 2002-10-04 2004-04-22 Dainippon Printing Co Ltd 丸み自動計測方法、マスクパターン品質測定装置
JP2004133551A (ja) * 2002-10-08 2004-04-30 Noritsu Koki Co Ltd 画像処理方法、画像処理装置、画像処理プログラム、および画像処理プログラムを記録した記録媒体
JP2006025105A (ja) * 2004-07-07 2006-01-26 Sharp Corp 動画像再生装置
JP2006059346A (ja) * 2004-08-20 2006-03-02 Mitsubishi Electric Research Laboratories Inc 画像内の画素をフィルタリングするシステムおよび方法
US20070047838A1 (en) * 2005-08-30 2007-03-01 Peyman Milanfar Kernel regression for image processing and reconstruction
JP2007201533A (ja) * 2006-01-23 2007-08-09 Toshiba Corp ボケ変換装置及び方法
JP2007293550A (ja) * 2006-04-24 2007-11-08 Konica Minolta Sensing Inc ポリゴンメッシュ編集方法、装置、システム及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6229905B1 (en) * 1997-03-26 2001-05-08 Oki Electric Industry Co., Ltd. Animal identification based on irial granule analysis
US6992665B2 (en) * 2000-03-29 2006-01-31 Minolta Co., Ltd. Method and device for fitting surface to point group, modeling device, and computer program
US7826535B2 (en) * 2002-04-11 2010-11-02 Broadcom Corporation Adaptive pixel processing
JP4042563B2 (ja) * 2002-12-27 2008-02-06 セイコーエプソン株式会社 画像ノイズの低減
US8200028B2 (en) * 2007-12-07 2012-06-12 Csr Technology Inc. System and method for detecting edges in a video signal
JP2010087614A (ja) * 2008-09-29 2010-04-15 Toshiba Corp 画像処理装置、画像処理方法、及び、プログラム
JP5075861B2 (ja) * 2009-03-16 2012-11-21 株式会社東芝 画像処理装置及び画像処理方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113885A (ja) * 1997-10-08 1999-04-27 Oki Electric Ind Co Ltd 個体識別装置およびその方法
JP2001283252A (ja) * 2000-03-29 2001-10-12 Minolta Co Ltd 点群に面をフィッティングする方法および装置
JP2004125690A (ja) * 2002-10-04 2004-04-22 Dainippon Printing Co Ltd 丸み自動計測方法、マスクパターン品質測定装置
JP2004133551A (ja) * 2002-10-08 2004-04-30 Noritsu Koki Co Ltd 画像処理方法、画像処理装置、画像処理プログラム、および画像処理プログラムを記録した記録媒体
JP2006025105A (ja) * 2004-07-07 2006-01-26 Sharp Corp 動画像再生装置
JP2006059346A (ja) * 2004-08-20 2006-03-02 Mitsubishi Electric Research Laboratories Inc 画像内の画素をフィルタリングするシステムおよび方法
US20070047838A1 (en) * 2005-08-30 2007-03-01 Peyman Milanfar Kernel regression for image processing and reconstruction
JP2007201533A (ja) * 2006-01-23 2007-08-09 Toshiba Corp ボケ変換装置及び方法
JP2007293550A (ja) * 2006-04-24 2007-11-08 Konica Minolta Sensing Inc ポリゴンメッシュ編集方法、装置、システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIROYUKI TAKEDA ET AL.: "Kernel Regression for Image Processing and Reconstruction", IEEE TRANS. ON IMAGE PROCESSING, vol. 16, no. 2, February 2007 (2007-02-01), pages 349 - 366 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101200378B1 (ko) 2011-08-30 2012-11-12 인하대학교 산학협력단 국소 각 위상을 이용한 강건한 텍스처 특징 추출 방법
JP2017502323A (ja) * 2013-12-17 2017-01-19 深▲せん▼市華星光電技術有限公司Shenzhen China Star Optoelectronics Technology Co., Ltd. 映像信号取得方法及び映像信号取得装置
JP2019096264A (ja) * 2017-11-28 2019-06-20 Kddi株式会社 画像処理装置、画像処理方法、及びプログラム
JP7140491B2 (ja) 2017-11-28 2022-09-21 Kddi株式会社 画像処理装置、画像処理方法、及びプログラム
CN111353470A (zh) * 2020-03-13 2020-06-30 北京字节跳动网络技术有限公司 图像的处理方法、装置、可读介质和电子设备
CN111353470B (zh) * 2020-03-13 2023-08-01 北京字节跳动网络技术有限公司 图像的处理方法、装置、可读介质和电子设备

Also Published As

Publication number Publication date
JPWO2010024402A1 (ja) 2012-01-26
US20100054606A1 (en) 2010-03-04
JP5487106B2 (ja) 2014-05-07
US20110205235A1 (en) 2011-08-25
US9092870B2 (en) 2015-07-28

Similar Documents

Publication Publication Date Title
JP5487106B2 (ja) 画像処理装置および方法、ならびに、画像表示装置
US9679357B2 (en) Image processing device, and an image processing method
JP4727720B2 (ja) 画像処理方法および画像処理装置
JP4517872B2 (ja) 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
CN103745439B (zh) 图像放大方法以及装置
EP2188774B1 (en) System and method for scaling images
JP4811462B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置、及び撮像装置
JP2005332130A (ja) 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
Rajagopalan et al. A variational approach to recovering depth from defocused images
CN104700360B (zh) 基于边缘自适应的图像缩放方法及系统
JP2010087614A (ja) 画像処理装置、画像処理方法、及び、プログラム
WO2005109340A1 (ja) 画像拡大装置、及びプログラム
Kim et al. Lens distortion correction and enhancement based on local self-similarity for high-quality consumer imaging systems
WO2012029238A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2008217526A (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP2014526111A (ja) 画像のノイズ除去、圧縮および補間のための異方性勾配の正則化
WO2013089261A1 (ja) 画像処理システム及び画像処理方法
CN105608684B (zh) 双边数字图像滤波器的加速方法和系统
WO2012132090A1 (ja) 画像の正置からの回転角度検知装置および方法
JP4868249B2 (ja) 映像信号処理装置
JP6316010B2 (ja) 画像処理装置、画像処理方法
JP5478200B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP4104475B2 (ja) 輪郭補正装置
JP4635652B2 (ja) 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
WO2013011797A1 (ja) 劣化復元システム、劣化復元方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09810050

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010526796

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13061270

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 09810050

Country of ref document: EP

Kind code of ref document: A1