WO2014024691A1 - 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置 - Google Patents

画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置 Download PDF

Info

Publication number
WO2014024691A1
WO2014024691A1 PCT/JP2013/070169 JP2013070169W WO2014024691A1 WO 2014024691 A1 WO2014024691 A1 WO 2014024691A1 JP 2013070169 W JP2013070169 W JP 2013070169W WO 2014024691 A1 WO2014024691 A1 WO 2014024691A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
value
unit
contour
contour direction
Prior art date
Application number
PCT/JP2013/070169
Other languages
English (en)
French (fr)
Inventor
善光 村橋
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US14/420,016 priority Critical patent/US9558535B2/en
Publication of WO2014024691A1 publication Critical patent/WO2014024691A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens

Definitions

  • the present invention relates to an image processing device, an image processing method, an image processing program, and an image display device.
  • IPTV Internet Protocol Television
  • full high definition full HD, full high definition
  • the signal value for each pixel included in the image content may be converted by increasing the resolution by interpolating the signal value between the pixels (both upscaling and upconverting). be called).
  • a window having a predetermined size is set based on the current pixel on the input current frame / field, and eigenvalues and eigenvectors for determining the characteristics of the window are calculated and calculated.
  • a filtering load value to be applied to filtering is determined based on the determination result, and the window is filtered based on the calculated eigenvector and the determined filtering load value.
  • the eigenvector includes a first eigenvector indicating the gradient direction and a second eigenvector indicating the edge direction, and the eigenvalue indicates a first eigenvalue indicating the variance in the gradient direction and a second eigenvalue indicating the variance in the edge direction. If the ratio between the first eigenvalue and the second eigenvalue is equal to or smaller than the first threshold value, the window is judged to be a corner area, and the filtering load value is set to 0. If the ratio is equal to or larger than the second threshold value, the window is an edge. It is determined that the region is a region, and the filtering load value is set to 1.
  • Patent Document 1 has a problem that the amount of calculation becomes excessive in order to calculate eigenvalues and eigenvectors.
  • edges in different directions for example, corner edges, fine line drawings, etc.
  • the ratio between the first eigenvalue and the second eigenvalue is decreased and the corner area is often determined. . Therefore, filtering is not performed substantially and noise such as jaggy cannot be removed or reduced.
  • the present invention provides an image processing device, an image processing method, an image processing program, or an image display device that can remove or reduce noise without requiring an excessive amount of calculation.
  • a contour direction estimation unit that estimates a contour direction having a constant signal value for each pixel, and the contour direction estimation unit estimates each of the pixels.
  • a direction evaluation unit that determines an evaluation value for each reference pixel of the pixel based on the contour direction of the pixel and the contour direction for each reference pixel that is a pixel in the reference region corresponding to the pixel;
  • a reference area load processing unit that determines a weighting factor of the reference pixel based on a contour direction of the pixel estimated by the direction estimation unit and a direction from the pixel to the reference pixel of the pixel; and the reference of the pixel
  • a synthesis operation unit that smoothes the signal value of the pixel based on the evaluation value determined by the direction evaluation unit and the weighting coefficient determined by the reference region load processing unit using the signal value of the pixel.
  • the reference area load processing unit has a weighting factor of the reference pixel in a direction in a predetermined range from the contour direction of the pixel in a direction other than the predetermined range.
  • the reference pixel may be configured to have a value larger than the weight coefficient of the reference pixel.
  • the direction evaluation unit is configured to determine the evaluation value so that the smaller the difference between the contour direction of the pixel and the contour direction of the pixel, the larger the difference. May be.
  • the synthesis calculation unit smoothes the signal value of the pixel based on a difference value between the signal value of each reference pixel corresponding to the pixel and the signal value of the pixel. It may be configured as follows.
  • the synthesis calculation unit smoothes the signal value of the pixel using a weighting factor and an evaluation value for each reference pixel in a direction within a predetermined range from the contour direction of the pixel. You may be comprised so that it may become.
  • a contour direction estimation unit that estimates a contour direction having a constant signal value for each pixel, and the contour direction estimation unit for each of the pixels
  • a direction evaluation unit that determines an evaluation value for each reference pixel of the pixel based on the estimated contour direction of the pixel and a contour direction for each reference pixel that is a pixel in the reference region corresponding to the pixel
  • a reference region load processing unit that determines a weighting factor of the reference pixel based on the contour direction of the pixel estimated by the contour direction estimation unit and the direction of the pixel from the pixel for each reference pixel
  • a synthesis operation unit that smoothes the signal value of the pixel based on the evaluation value determined by the direction evaluation unit and the weighting coefficient determined by the reference region load processing unit using the signal value of the reference pixel;
  • An image processing method is an image processing method in an image processing device, wherein the image processing device estimates a contour direction having a constant signal value for each pixel. And, for each of the pixels, the image processing apparatus determines the pixel based on the estimated contour direction of the pixel and the contour direction of each reference pixel that is a pixel in the reference region corresponding to the pixel. The step of determining an evaluation value for each reference pixel, and the weight of the reference pixel based on the estimated contour direction of the pixel and the direction from the pixel to the reference pixel of the pixel. A step of determining a coefficient; and a step in which the image processing apparatus smoothes the signal value of the pixel based on the determined evaluation value and the determined weighting factor using the signal value of the reference pixel of the pixel.
  • An image processing program includes a step of estimating, for each pixel, a contour direction in which a signal value is a constant value to a computer of an image processing apparatus, and the estimation for each of the pixels. Determining the evaluation value for each reference pixel of the pixel based on the contour direction of the pixel and the contour direction for each reference pixel that is a pixel in the reference region corresponding to the pixel; and A step of determining a weighting factor of the reference pixel based on a contour direction of the pixel and a direction from the pixel to the reference pixel of the pixel, and using the signal value of the reference pixel of the pixel And smoothing the signal value of the pixel based on the evaluation value and the determined weighting factor.
  • noise can be removed or reduced without requiring an excessive amount of calculation.
  • FIG. 1 is a schematic diagram illustrating a configuration of a display device 1 according to an embodiment of the present invention.
  • the display device 1 includes an input unit 11, a Y / C (luminance signal / color difference signal) separation unit 12, a scaling unit 13, an image processing unit 20, an image format conversion unit 14, and a display unit 15.
  • the display device 1 is connected to the antenna 10.
  • the antenna 10 receives a high-frequency signal as a radio wave related to television broadcasting, and outputs the received high-frequency signal to the display device 1.
  • An image signal is input to the input unit 11 from the outside.
  • the input unit 11 extracts a modulation signal related to a designated channel from a high-frequency signal input from the antenna 10 and converts the extracted modulation signal into a modulation signal in a base frequency band.
  • the input unit 11 outputs the converted modulation signal to the Y / C separation unit 12.
  • the Y / C separation unit 12 demodulates the modulation signal input from the input unit 11 to generate an image signal, and separates the generated image signal into an analog luminance signal Y, a color difference signal Cb, and a color difference signal Cr.
  • the Y / C separation unit 12 converts each separated signal from an analog signal to a digital signal at a predetermined sampling frequency.
  • the Y / C separation unit 12 outputs an image signal including the converted digital luminance signal Y, color difference signal Cb, and color difference signal Cr to the scaling unit 13.
  • the scaling unit 13 When the resolution (number of pixels) of the image signal input from the Y / C separation unit 12 is different from the resolution of the display unit 15, the scaling unit 13 inputs an image that is equal to the resolution of the display unit 15. Adjust (scaling) the resolution of the signal. When the resolution of the display unit 15 is larger than the resolution of the input image, the scaling unit 13 performs interpolation on the input image signal. When the resolution of the display unit 15 is smaller than the resolution of the input image, the scaling unit 13 performs downsampling on the input image signal. The scaling unit 13 uses a method such as a bicubic method or a bilinear method as a method for interpolation or downsampling. The scaling unit 13 outputs the image signal whose resolution has been adjusted to the image processing unit 20.
  • the input image signal is output to the image processing unit 20.
  • the ratio of the number of pixels in the horizontal direction (or vertical direction) of the display unit 15 to the number of pixels in the horizontal direction (or vertical direction) of the input image signal is referred to as an enlargement ratio.
  • the enlargement ratio is 3.
  • the image processing unit 20 performs a process related to noise reduction on the luminance signal Y among the image signals input from the scaling unit 13, and generates a luminance signal Y "indicating an image with reduced noise.
  • the image processing unit 20 updates the luminance signal Y input from the scaling unit 13 to the generated luminance signal Y ′′ and synchronizes with the color difference signals Cb and Cr.
  • the image processing unit 20 outputs an image signal including the luminance signal Y ′′ and the color difference signals Cb and Cr to the image format conversion unit 14. The configuration and processing of the image processing unit 20 will be described later.
  • the image format conversion unit 14 converts the format of the image signal input from the image processing unit 20.
  • the image format conversion unit 14 converts the format of the image signal into a progressive signal.
  • the interlace signal is a signal configured by performing horizontal scanning on pixels every other column, and is a signal in which the column to be scanned is different for each frame.
  • a progressive signal is a signal formed by scanning a pixel in the horizontal direction for each column.
  • the image format conversion unit 14 is an image signal (for example, RGB signal, red (R), green (G)) in which the input image signal or the image signal obtained by converting the format is represented in a color system corresponding to the display unit 15. , Blue (B) image signals including signal values of respective colors), and the converted image signals are output to the display unit 15.
  • the display unit 15 displays an image represented by the image signal input from the image format conversion unit 14.
  • the display unit 15 is, for example, a full high-definition (also called full HD (full high definition)) system, that is, a liquid crystal display with a resolution of 1920 pixels in the horizontal direction and 1080 pixels in the vertical direction.
  • full HD full high definition
  • pixel elements of red, green, and blue colors are two-dimensionally arranged. Accordingly, the display unit 15 displays a color image by emitting, for example, backlight light through each pixel element at a luminance corresponding to the signal value for each pixel represented by the input image signal.
  • FIG. 2 is a schematic diagram illustrating the configuration of the image processing unit 20 according to the present embodiment.
  • the image processing unit 20 includes a contour direction estimation unit 21, a direction evaluation unit 22, a reference area load processing unit 23, a preprocessing unit 24, a product-sum operation unit 25, and a composition operation unit 26.
  • the contour direction estimation unit 21 estimates the contour direction for each pixel based on the signal value (luminance value) for each pixel represented by the luminance signal Y input from the scaling unit 13.
  • the contour direction is a direction orthogonal to the normal line of the contour line, that is, a tangential direction of the contour line.
  • the contour line refers to a line indicating a space where the signal value is substantially constant, and may be a curve or a straight line. Therefore, the contour is not limited to a region where the signal value changes rapidly according to a change in position.
  • the relationship between the contour line and the signal value corresponds to the relationship between the contour line and the altitude.
  • the position of each pixel is given discretely or is affected by noise around the contour to be improved in the present invention, such as jaggy, dot interference, mosquito noise, etc.
  • the direction of the contour cannot be determined by using the line that passes through as the line forming the contour.
  • the signal value is differentiable (that is, continuous) in the space representing the coordinates for each pixel.
  • the contour direction estimation unit 21 calculates the contour direction ⁇ based on, for example, the formula (1) based on the horizontal or vertical difference value of the signal value for each pixel.
  • the contour direction ⁇ is a counterclockwise angle with respect to the horizontal direction (x direction).
  • x and y are horizontal and vertical coordinates, respectively.
  • Y (x, y) is a signal value at coordinates (x, y). That is, the contour direction ⁇ is calculated as an angle that gives a tangent value obtained by dividing the partial differentiation of the signal value Y (x, y) in the x direction by the partial differentiation of the signal value Y (x, y) in the y direction.
  • the Equation (1) can be derived from the relationship that the signal value Y (x, y) is constant even if the coordinates (x, y) are different.
  • G x (x, y) and G y (x, y) represent partial differentiation in the x direction and partial differentiation in the y direction of the signal value Y (x, y), respectively.
  • G x (x, y) and G y (x, y) may be referred to as x-direction partial differentiation and y-direction partial differentiation, respectively.
  • the position (coordinates) of the pixel (i, j) indicates the barycentric point of the pixel.
  • the variable a at the position of the pixel is represented as a (i, j) or the like.
  • the contour direction estimation unit 21 uses, for example, equations (2) and (3), respectively, and the x-direction partial differential G x (i, j) of the signal value Y (i, j) at each pixel (i, j), The y-direction partial differential G y (i, j) is calculated.
  • i and j are integer values indicating indexes of the pixel of interest in the x direction and y direction, respectively.
  • a pixel of interest is a pixel that attracts attention as a direct processing target.
  • W x (u ′, v ′) and W y (u ′, v ′) indicate filter coefficients of the differential filter in the x direction and the y direction, respectively.
  • u and v are integer values indicating indices of the reference pixel in the x and y directions, respectively.
  • the reference pixel is a pixel that is within a range determined by a predetermined rule with the target pixel as a reference, and is a pixel that is referred to when processing the target pixel.
  • the reference pixel includes a target pixel.
  • the difference filter described above has a filter coefficient W x (u ′) for each of u ′ and v ′ of 2n + 1 in the x direction and 2n + 1 in the y direction (total (2n + 1) ⁇ (2n + 1)) reference pixels. , V ′), W y (u ′, v ′).
  • n is an integer value greater than 1 (for example, 2).
  • n is an integer value that is equal to or larger than the enlargement ratio of the image.
  • n is set to a value smaller than a predetermined maximum value, for example, an integer value equal to the enlargement rate, an integer value obtained by rounding up the digits after the decimal point of the enlargement rate, or any of these integer values. It is determined that the value is larger.
  • the contour direction estimation unit 21 quantizes the contour direction ⁇ (i, j) calculated based on the calculated x-direction partial differential G x (i, j) and y-direction partial differential G y (i, j).
  • the quantized contour direction D (i, j) representing the converted contour direction is calculated.
  • the contour direction estimation unit 21 uses, for example, Equation (4) when calculating the quantized contour direction D (i, j).
  • N d is a constant representing the number of quantized contour directions (number of quantized contour directions).
  • the quantization contour direction number Nd is, for example, any value between 8 and 32. That is, the quantized contour direction D (i, j) is represented by any integer from 0 to N d ⁇ 1 by rounding a value obtained by dividing the contour direction ⁇ by the quantization interval by ⁇ / N d. .
  • the degree of freedom in the contour direction ⁇ is restricted, and the processing load described later is reduced.
  • of the x-direction partial differential G x (i, j) is smaller than a predetermined small real value (for example, 10 ⁇ 6 ). If it is smaller, tan ⁇ 1 is set to ⁇ / 2. Also, depending on the processing system, to avoid errors and zero divide by the division of the foregoing, there is a case where tangent function with G x and G y 2 arguments are provided, by using this tan -1 You may ask for.
  • the contour direction estimation unit 21 outputs quantized contour direction information representing the calculated quantized contour direction D (i, j) to the direction evaluation unit 22 and the reference region load processing unit 23.
  • the direction evaluating unit 22 for each pixel of interest belongs to a reference region centered on that pixel of interest.
  • a pixel direction evaluation value is calculated.
  • the direction evaluation unit 22 determines the difference between the quantization contour direction D (i, j) of the target pixel (i, j) and the quantization contour direction D (u, v) of the reference pixel (u, v).
  • the direction evaluation value of the reference pixel is determined so that the smaller the value is, the larger the direction evaluation value is.
  • the direction evaluation unit 22 for example, the difference value between the quantization contour direction D (i, j) for the target pixel (i, j) and the quantization contour direction D (u, v) for the reference pixel (u, v).
  • ⁇ D D (u, v) ⁇ D (i, j) is calculated.
  • ) is determined as the maximum value 1.
  • ) is determined as the minimum value 0.
  • the direction evaluation unit 22 approximates the quantization contour direction D (i, j) for the target pixel (i, j) to the quantization contour direction D (u, v) for the reference pixel (u, v), that is, the difference.
  • the direction evaluation value F ( ⁇ D) may be determined so as to increase as the absolute value
  • ) 0. (
  • the direction evaluation unit 22 determines the other quantization contour.
  • a correction value is calculated by adding Nd to the direction value.
  • the direction evaluation unit 22 calculates an absolute value for a difference value between the calculated correction value and one quantization contour direction.
  • the intended direction evaluation value is determined by using the absolute value thus calculated as
  • F
  • the contour direction of the pixel of interest (i, j) is different from the reference pixel (u, v) having a different contour direction. The effect can be ignored or neglected.
  • the size of the reference region to which the reference pixel (u, v) belongs may be 2n + 1 or larger than this number.
  • the size of the reference area in the direction evaluation unit 22 may be different from the size of the reference area in the contour direction estimation unit 21.
  • the number of pixels in the horizontal direction and the vertical direction of the reference area in the direction evaluation unit 22 is 7 respectively, whereas the number of pixels in the horizontal direction and the vertical direction of the reference area in the contour direction estimation unit 21 is 5 respectively. There may be.
  • the direction evaluation unit 22 outputs direction evaluation value information representing the direction evaluation value F ( ⁇ D) of each reference pixel (u, v) to the product-sum calculation unit 25 for each pixel of interest (i, j).
  • direction evaluation value F ( ⁇ D) A numerical example of the direction evaluation value F ( ⁇ D) will be described later.
  • the reference area load processing unit 23 performs, for each pixel of interest (i, j), based on the quantized contour direction D (i, j) for each pixel represented by the quantized contour direction information input from the contour direction estimation unit 21.
  • the reference area load information is a weighting factor R (D (i, j), u ′, v ′) for each reference pixel (u ′, v ′) belonging to a reference area centered on a certain target pixel (i, j). ).
  • This weighting factor may be referred to as a reference area load.
  • the size of the reference area in the reference area load processing unit 23 is determined in advance so as to be equal to the size of the reference area in the direction evaluation unit 22.
  • the reference area load processing unit 23 weights R (D (i, j), u) of reference pixels in a direction in a predetermined range from the quantization contour direction D (i, j) of the target pixel (i, j). ', V') is set to a value larger than the weight coefficient of the reference pixel in the direction outside the range.
  • U ′, v ′) is defined as 1, and the weighting factor R (D (i, j), u ′, v ′) of the reference pixel (u ′, v ′) in the other direction is defined as 0. .
  • the reference pixel in the quantization contour direction or the direction approximate to the direction from the target pixel is specifically a line segment extending in the quantization contour direction from the center of the target pixel (i, j) passes through the region.
  • Reference pixel (u ′, v ′) may determine the weighting coefficient so that the reference pixel (u ′, v ′) having a longer distance through which the line segment passes through the region becomes larger.
  • the reference region load processing unit 23 includes a storage unit that stores in advance reference region load information representing the calculated weighting coefficient of each reference pixel in association with the quantized contour direction information.
  • the reference area load processing unit 23 reads the reference area load information corresponding to the quantized contour direction represented by the input quantized contour direction information from the storage unit.
  • the reference area load processing unit 23 outputs the reference area load information determined for each pixel of interest (i, j) to the product-sum operation unit 25. A numerical example of the reference area load will be described later.
  • the preprocessing unit 24 for each pixel of interest (i, j), from the luminance signal Y input from the scaling unit 13, each reference pixel (u, j) belonging to a reference region centered on the pixel of interest (i, j). A luminance signal representing the signal value Y (u, v) of v) is extracted. The preprocessing unit 24 outputs the luminance signal Y extracted for each pixel of interest (i, j) to the product-sum operation unit 25. Note that the size of the reference region in the preprocessing unit 24 is determined in advance so as to be equal to the size of the reference region in the direction evaluation unit 22 and the reference region load processing unit 23.
  • the product-sum operation unit 25 receives the direction evaluation value information from the direction evaluation unit 22, the reference region load information from the reference region load processing unit 23, and the luminance signal from the preprocessing unit 24. Entered.
  • the product-sum operation unit 25 represents the direction evaluation value F ( ⁇ D) represented by the direction evaluation value information, the reference region load R (D (i, j), u ′, v ′) represented by the reference region load information, and the luminance signal.
  • the product-sum value S (i, j) is calculated using, for example, Expression (5).
  • Equation (5) is a product of the direction evaluation value F (
  • the calculation is performed for each reference pixel, and the sum between reference pixels belonging to the reference area of the calculated product is calculated as a product sum value S (i, j). That is, the equation (5) indicates that the product sum S (i, j) is the product of the direction evaluation value F (
  • ) and the reference region load R (D (i, j), u ′, v ′) may be referred to as a direction evaluation region load.
  • the product-sum operation unit 25 is based on the direction evaluation value F (
  • the load area C (i, j) is calculated using Equation (6).
  • Equation (6) calculates the product of the direction evaluation value F (
  • Expression (6) indicates that the load area C (i, j) is calculated by taking the sum of the above-described direction evaluation region loads within the reference region. Further, the product-sum operation unit 25 calculates the sum between reference pixels belonging to the reference region of the reference region load R (D (i, j), u ′, v ′) represented by the reference region load information as a reference area N (i, j).
  • the reference area N (i, j) represents the number of reference pixels that are referred to for nominal purposes in the product-sum operation of Equation (5).
  • the product-sum operation unit 25 calculates product-sum value information representing the product-sum value S (i, j) calculated for each pixel of interest (i, j), load area information representing the load area C (i, j), and reference area Reference area information representing N (i, j) is output to the composition calculation unit 26.
  • the sum calculation unit 26 receives product sum value information, load area information, and reference area information from the product sum calculation unit 25.
  • the synthesis calculation unit 26 divides the product sum value S (i, j) represented by the product sum value information by the load area C (i, j) represented by the load area information, and smoothes the direction smoothing value Y ′ (i, j). Is calculated. That is, the calculated direction smoothing value Y ′ (i, j) is a reference pixel in the quantization contour direction of the pixel of interest (i, j) or a direction approximating the direction, and the contour direction is of interest. It represents a signal value smoothed between reference pixels that are equal to or approximate to the pixel contour direction.
  • the composition calculation unit 26 calculates the mixture ratio w (i, j) by dividing the load area C (i, j) by the reference area N (i, j) represented by the reference area information.
  • the mixture ratio w (i, j) approximates whether the contour direction is equal to the contour direction of the pixel of interest among the reference pixels in the quantization contour direction of the pixel of interest (i, j) or the direction approximating the direction. This represents the number ratio of reference pixels.
  • the compositing calculation unit 26 converts the direction smoothed value Y ′ (i, j) and the signal value Y (i, j) represented by the luminance signal input from the scaling unit 13 into the mixing ratios w (i, j) and ( 1-w (i, j)) is performed with weighted addition (combining operation) to calculate a combined signal value Y ′′ (i, j). This weighted addition is expressed by equation (7).
  • the combination calculation unit 26 generates a luminance signal Y ′′ that represents the calculated combined signal value Y ′′ (i, j).
  • FIG. 3 is a conceptual diagram illustrating an example of a contour.
  • the horizontal axis indicates the x direction
  • the vertical axis indicates the y direction.
  • the image 51 shows the magnitude of the signal value Y (x, y) in shades. The brighter the signal value Y (x, y) is, the darker the signal value Y (x, y) is.
  • a broken line passing through the attention points 52 and 53 indicates an outline 54.
  • the attention point 53 exists at a position away from the attention point 52 by a minute amount ( ⁇ x, ⁇ y).
  • the contour 54 is a line segment (contour line) that passes through the point of interest 53 and indicates a position where the signal value Y (x, y) at the point of interest 52 becomes equal to the signal value.
  • the signal value Y (x, y) is differentiable with respect to the coordinates (x, y)
  • the signal value Y at the attention point 52 from the signal value Y (x + ⁇ x, y + ⁇ y) at the attention point 53.
  • the difference ⁇ Y of (x, y) is the sum of the minute change ⁇ x ⁇ G x (x, y) in the x direction and the minute change ⁇ y ⁇ G y (x, y) in the y direction.
  • FIG. 4 is a conceptual diagram illustrating an example of a reference area.
  • the horizontal axis indicates the x direction
  • the vertical axis indicates the y direction.
  • the image 61 is an image represented by the luminance signal Y.
  • Each small square included in the image 61 represents a pixel.
  • the numerical value shown in each square indicates the signal value Y (i, j) for each pixel.
  • the shading of each square indicates the magnitude of the signal value Y (i, j). The brighter the signal value Y (i, j) is, the darker the signal value Y (i, j) is.
  • FIG. 4 is a conceptual diagram illustrating an example of a reference area.
  • the horizontal axis indicates the x direction
  • the vertical axis indicates the y direction.
  • the image 61 is an image represented by the luminance signal Y.
  • Each small square included in the image 61 represents a pixel.
  • the numerical value shown in each square indicates the signal value Y (i
  • the signal value Y (i, j) is larger on the right side than on the left side as a whole.
  • the boundary between the region where the signal value Y (i, j) is large and the region where the signal value Y is small is biased to the left side as it approaches the upper and lower ends, and to the right side as it approaches the center.
  • a region surrounded by a broken line above the center of the image 61 indicates a reference region 62.
  • a square in the center of the reference area 62 indicates the target pixel 63.
  • the arrows directed to the target pixel 63 and indicated by i and j at the starting points indicate that the index of the target pixel 63 is (i, j).
  • a square in the fourth row from the leftmost column and the leftmost column of the reference region 62 indicates the reference pixel 64.
  • An arrow directed to the reference pixel 64 and indicated by u and v at the starting point indicates that the index of the reference pixel 64 is (u, v).
  • FIG. 5 is a conceptual diagram showing an example of the difference filter in the x direction (difference filter 65).
  • the relationship between the horizontal axis and the vertical axis in FIG. 5 is the same as that in FIG.
  • Each small square included in the difference filter 65 represents a reference pixel.
  • the difference filter 65 is an x direction difference filter in which the number of pixels in the x direction and the number of pixels in the y direction are both five.
  • the numerical value shown in each square indicates the filter coefficient W x (u ′, v ′).
  • a square in the fourth row from the leftmost column and the leftmost column of the difference filter 65 indicates the reference pixel 66.
  • An arrow directed to the reference pixel 66 and indicated by u ′ and v ′ at the starting point indicates that the index of the reference pixel 66 is (u ′, v ′), and the reference pixel 64 (FIG. 4) It indicates that it corresponds to the index (u, v). Therefore, in the product-sum operation shown in Expression (2), the filter coefficient 1 related to the reference pixel 66 is multiplied by the signal value 93 related to the reference pixel 64.
  • FIG. 6 is a conceptual diagram illustrating an example of the difference filter in the y direction (difference filter 67).
  • the relationship between the horizontal axis and the vertical axis in FIG. 6 is the same as that in FIG.
  • Each small square included in the difference filter 67 represents a reference pixel.
  • the difference filter 67 is a vertical difference filter in which the number of pixels in the x direction and the number of pixels in the y direction are both five.
  • the numerical value shown in each square indicates the filter coefficient W y (u ′, v ′).
  • the quadrangle in the fourth row from the leftmost column and the leftmost column of the difference filter 67 indicates the reference pixel 68.
  • the arrows directed to the reference pixel 68 and indicated by u ′ and v ′ respectively at the starting point indicate that the index of the reference pixel 68 is (u ′, v ′) and the reference pixel 64 (FIG. 4) It indicates that it corresponds to the index (u, v). Therefore, in the product-sum operation shown in Expression (3), the filter coefficient 1 related to the reference pixel 68 is multiplied by the signal value 93 related to the reference pixel 64.
  • FIG. 7 is a conceptual diagram showing an example of x-direction partial differentiation (x-direction partial differentiation 69).
  • the relationship between the horizontal axis, the vertical axis, and the target pixel 63 in FIG. 7 is the same as that in FIG.
  • Each small square included in the x-direction partial differential 69 represents a pixel.
  • the numerical value shown in each square indicates the value of the x-direction partial differential G x (i, j).
  • the x-direction partial differential G x (i, j) shown in FIG. 7 is a value calculated using the equation (2) based on the signal value Y (i, j) shown in FIG.
  • each square indicates the magnitude of the x-direction partial differential G x (i, j).
  • the brighter portion has a larger x-direction partial differential G x (i, j), and the darker portion has a smaller x-direction partial differential G x (i, j).
  • the x-direction partial differential G x (i, j) becomes smaller at both the left and right ends.
  • the region where the x-direction partial differential G x (i, j) is large is biased to the left as it approaches the upper and lower ends, and to the right as it approaches the center.
  • FIG. 8 is a conceptual diagram showing an example of the y-direction partial differentiation (y-direction partial differentiation 70).
  • the relationship between the horizontal axis, the vertical axis, and the target pixel 63 in FIG. 8 is the same as that in FIG.
  • Each small square included in the y-direction partial differential 70 represents a pixel.
  • the numerical value shown in each square indicates the value of the y-direction partial differential G y (i, j).
  • the y-direction partial differential G y (i, j) shown in FIG. 8 is a value calculated using Expression (3) based on the signal value Y (i, j) shown in FIG.
  • the shade of each square indicates the magnitude of the y-direction partial differential G y (i, j).
  • the brighter portion has a larger y-direction partial differential G y (i, j), and the darker portion has a smaller y-direction partial differential G y (i, j).
  • the y-direction partial differential G x (i, j) approximates an intermediate value of 0 at both the left and right ends.
  • the region where the y-direction partial differential G x (i, j) is large is biased to the left as it approaches the lower end, and to the right as it approaches the center.
  • a region where the y-direction partial differential G x (i, j) is small is biased to the left as it approaches the upper end, and to the right as it approaches the center.
  • the region where the y-direction partial differential G y (i, j) is large and the region where the y-direction partial differential G y (i, j) is small are substantially symmetric with respect to the central axis in the y direction. This corresponds to the fact that the boundary between the region where the signal value Y (i, j) is large and the region where the signal value Y (i, j) is small in FIG. Note that the y-direction partial differential G y (i, j) at the target pixel 63 is ⁇ 103.
  • FIG. 9 shows an example of quantization contour direction candidates.
  • the horizontal axis indicates the x direction and the vertical axis indicates the y direction.
  • the quantization contour direction number Nd is 8.
  • the arrows extending radially from one origin indicate the candidates for the quantization contour direction, and the numbers at the end points of the arrows indicate the numerical values indicating the quantization contour direction. That is, the numerical values 0 to 7 indicate angles 0 to 7 ⁇ / 8 or ⁇ to 15 ⁇ / 8 in the contour direction, respectively.
  • a region sandwiched by broken lines extending from the origin with each arrow as a center indicates a range in the contour direction (before quantization) quantized in the quantization contour direction indicated by the arrow.
  • the angle of the contour direction is included in any of 0 to ⁇ / 16, 15 ⁇ / 16 to 17 ⁇ / 16, and 31 ⁇ / 16 to 2 ⁇ , the numerical value indicating the quantized contour direction is zero.
  • FIG. 10 is a conceptual diagram showing a calculation example of the quantization contour direction (quantization contour direction 71).
  • the relationship between the horizontal axis, the vertical axis, and the target pixel 63 in FIG. 10 is the same as that in FIG.
  • Each of the small squares included in the quantization contour direction 71 represents a pixel.
  • the arrows directed to the pixel of interest 72 at the lower left of the quantization contour direction 71 and indicated by i 2 and j 2 at the starting point have the index of the pixel of interest 72 of (i 2 , j 2 ), respectively. It shows that.
  • FIG. 10 is a conceptual diagram showing a calculation example of the quantization contour direction (quantization contour direction 71).
  • the relationship between the horizontal axis, the vertical axis, and the target pixel 63 in FIG. 10 is the same as that in FIG.
  • Each of the small squares included in the quantization contour direction 71 represents a pixel.
  • reference areas 73 and 75 are areas in which the number of pixels in the x direction is 7 and the number of pixels in the y direction is 7, with the target pixels 63 and 72 as the centers.
  • the arrows directed to the reference pixel 74 located at the lower right of the target pixel 63 and indicated by u and v at the starting point indicate that the index of the reference pixel 74 is (u, v).
  • the arrows directed to the reference pixel 76 at the lower left of the target pixel 72 and indicated by u 2 and v 2 at the starting point indicate that the index of the reference pixel 76 is (u 2 , v 2 ). Show.
  • the reference areas 73 and 75 and the reference pixels 74 and 76 will be described later.
  • the numerical value and arrow shown in each square indicate the value of the quantization contour direction D (i, j) and the contour direction indicated by the value.
  • the quantized contour direction D (i, j) shown in FIG. 10 is based on the x-direction partial differential G x (i, j) shown in FIG. 7 and the y-direction partial differential G y (i, j) shown in FIG. , A value calculated using Equation (4).
  • the quantization contour direction is the upper left direction in most of the pixels on the upper left side of the center of FIG. In most of the pixels on the lower left side of the center, the quantization contour direction is the upper right direction. This corresponds to the fact that the boundary between the region where the signal value Y (i, j) is large and the region where the signal value Y is small is biased to the left as it approaches the upper and lower ends, and to the right as it approaches the center.
  • the reference area load processing unit 23 selects the reference area load R (6, u ′, v ′) for the target pixel 63.
  • the quantization contour direction D (i 2 , j 2 ) at the target pixel 72 is 2. Accordingly, the reference region load processing unit 23 selects the reference region load R (2, u ′, v ′) for the pixel of interest 72.
  • FIG. 11 is a conceptual diagram illustrating an example of a reference area load.
  • the relationship between the horizontal axis and the vertical axis in FIG. 11 is the same as in FIGS.
  • the numerical value represented by the arrow extending radially from one origin and the end point of each arrow below the center of FIG. 11 indicates the quantization contour direction as in FIG.
  • the lattice-shaped figure in the direction of travel of each arrow heading from the numerical value 0 on the right side of the origin to the upper half plane counterclockwise to 7 is a reference area corresponding to the quantization contour direction D (i, j).
  • the load R (D (i, j), u ′, v ′) is shown.
  • FIG. 11 shows reference region loads R (0, u ′, v ′) to R (7, u ′, v ′) in order counterclockwise from the right side.
  • a small square included in each reference region load R (D (i, j), u ′, v ′) represents a reference image.
  • the number of reference images included in each reference region load R (D (i, j), u ′, v ′) is 7 in the horizontal direction and 7 in the vertical direction.
  • the numerical value shown in each square is the value of the reference area load.
  • the value of the reference area load is 1 for the reference pixel in the quantization contour direction from the center of the reference area (the target pixel), and the reference pixel in the direction approximating that direction has a larger value.
  • the reference region weights R (0, u ′, v ′) corresponding to the quantization contour direction 0 are all 1 for the reference pixels in the fourth row, and are all 0 for the reference pixels in the other rows.
  • the reference region loads R (6, u ′, v ′) corresponding to the quantization contour direction 6 are all 1 for the reference pixels in the first row, the first column to the seventh row, the seventh column, and for the other reference pixels. Are all zero.
  • the quantization contour direction is not necessarily the horizontal direction, the vertical direction, or the diagonal direction ( ⁇ / 4 or 3 ⁇ / 4).
  • the reference region load R (D (i, j), u is proportional to the distance through which the line segment extending from the center of the reference region passes in the quantization contour direction.
  • ', V' is defined.
  • the reference region load R (1, u ′, v ′) corresponding to the quantization contour direction 1 is 0.2 for the pixels from the leftmost column to the seventh column in the second row from the uppermost row.
  • the pixels in the fifth, sixth, and seventh columns in the third row they are 0.4, 0.8, and 0.8, respectively.
  • the pixels in the second, third, fourth, fifth and sixth columns are 0.2, 0.6, 1.0, 0.6 and 0.2, respectively.
  • it is 0.8, 0.8, and 0.4 for the pixels in the first, second, and third columns, respectively.
  • For the pixel in the first column in the sixth row it is 0.2.
  • Other reference pixels are 0.
  • FIG. 12 is a conceptual diagram illustrating another example of the reference region load.
  • the relationship between the horizontal axis and the vertical axis in FIG. 12, the arrows indicating the quantization contour directions, and the lattice-shaped figure corresponding to each quantization contour direction are the same as those in FIG. 11.
  • the quantization contour direction is a horizontal direction, a vertical direction, or a diagonal direction ( ⁇ / 4 or 3 ⁇ / 4), and the reference region load R (D (D ( i, j), u ′, v ′) are the same as the example shown in FIG.
  • Reference region loads R (D (i, j), u ′, v ′) for other quantization contour directions are different from the example shown in FIG. In the example illustrated in FIG.
  • the reference region load R (D (i, j), u ′, v ′) is set to 1 for a reference pixel through which a line segment extending in the quantization contour direction from the center of the reference region passes.
  • the reference region load R (D (i, j), u ′, v ′) is set to 1.
  • the reference region load R (1, u ′, v ′) corresponding to the quantization contour direction 1 is the fifth row in the third row, the fifth row in the third row, and the fifth row in the third row.
  • 6th and 7th column pixels 4th row, 2nd, 3rd, 4th, 5th, 6th column pixels, 5th row, 1st, 2nd, 3rd column pixels, 6th row, 1st column 1 for each of the pixels.
  • Other reference pixels are 0. That is, in the example shown in FIG. 12, the reference region load R (D (i, j), u ′, v ′) depends on whether or not a line segment extending from the center of the reference region in the quantization contour direction passes. Indicates whether to select the reference pixel.
  • FIG. 13 is a conceptual diagram showing an example of the direction evaluation value (direction evaluation value 77).
  • the horizontal and vertical axes in FIG. 13 are the same as those in FIG.
  • Each of the small squares included in the direction evaluation value 77 represents a reference pixel.
  • the numerical value shown in each square indicates the value of the direction evaluation value F ( ⁇ D) for the target pixel 63 (see FIG. 10).
  • the direction evaluation value F ( ⁇ D) is calculated by the direction evaluation unit 22 using D (i, j) for the target pixel 63 (see FIG. 10) and each reference pixel (u, v) belonging to the reference region 73 (see FIG. 10).
  • the direction evaluation values F ( ⁇ D) are all 1 for the reference pixels from the top row to the fourth row. Regarding the reference pixels from the fifth row to the seventh row, the direction evaluation value F ( ⁇ D) is 0 except for the reference pixels in the fifth row leftmost column. That is, FIG. 13 shows that the quantization contour direction relating to the reference pixels from the top row to the fourth row of the reference region 73 (see FIG. 10) is equal to the quantization contour direction relating to the target pixel 63 (see FIG. 10). Indicates. In FIG. 13, the quantization contour direction of most reference pixels from the fifth row to the seventh row of the reference region 73 (see FIG. 10) is different from the quantization contour direction of the pixel of interest 63 (see FIG. 10). It shows that.
  • the arrows directed to the reference pixel 78 and indicated by i and j as starting points are reference pixels corresponding to the target pixel 63 having the same index (i, j). Indicates that there is. Since the quantized contour direction D (i, j) of the target pixel 63 is equal to the quantized contour direction D (i, j) of the target pixel 63 as the reference pixel, the direction evaluating unit 22 determines the direction evaluation value F ( ⁇ D). Is defined as 1.
  • the arrows directed to the reference pixel 79 and indicated by u and v at the starting points indicate that the reference pixel 79 is a reference pixel corresponding to the reference pixel 74 having the same index (u, v). Show.
  • the direction evaluation unit 22 determines the direction evaluation value F ( ⁇ D). Is defined as 0.
  • FIG. 14 is a conceptual diagram showing another example of the direction evaluation value (direction evaluation value 80).
  • the horizontal and vertical axes in FIG. 14 are the same as those in FIG.
  • Each of the small squares included in the direction evaluation value 80 indicates a reference pixel.
  • the numerical value shown in each square indicates the value of the direction evaluation value F ( ⁇ D) for the target pixel 72 (see FIG. 10).
  • the direction evaluation value F ( ⁇ D) is determined by the direction evaluation unit 22 using D (i 2 , j 2 ) for the target pixel 72 (see FIG. 10) and each reference pixel (u) belonging to the reference region 75 (see FIG. 10).
  • 2 , v 2 ) is a direction evaluation value calculated based on the quantized contour direction D (u 2 , v 2 ).
  • the direction evaluation value F ( ⁇ D) is 1 for all the reference pixels. That is, FIG. 14 shows that the quantized contour direction related to all reference pixels belonging to the reference region 75 (refer to FIG. 10) is equal to the quantized contour direction related to the target pixel 72 (refer to FIG. 10).
  • the arrows directed to the reference pixel 81 and indicated by i 2 and j 2 at the starting points indicate the pixel of interest 72 (see FIG. 5 ) in which the reference pixel 81 has the same index (i 2 , j 2 ). 10 reference).
  • the quantization contour direction D (i 2 , j 2 ) of the target pixel 72 is equal to the quantization contour direction D (i 2 , j 2 ) of the target pixel 72 (see FIG. 10) as a reference pixel. Therefore, it is indicated that the direction evaluation value F ( ⁇ D) is set to 1.
  • the arrows directed to the reference pixel 82 and indicated by u 2 and v 2 at the starting points indicate the reference pixel 76 (see FIG.
  • the reference pixel 82 has the same index (u 2 , v 2 ). Indicates a reference pixel corresponding to.
  • Direction evaluation unit 22 the pixel of interest 72 quantization contour direction D (i 2 quantization contour direction D (see FIG. 10) (i 2, j 2) is 2 and the reference pixels 76 (see FIG. 10), j 2 ) Is equal to 2, it indicates that the direction evaluation value F ( ⁇ D) is set to 1.
  • FIG. 15 is a conceptual diagram showing an example of the direction evaluation region load (direction evaluation region load 83).
  • the horizontal and vertical axes in FIG. 15 are the same as those in FIG.
  • Each small square included in the direction evaluation area load 83 represents a reference pixel.
  • the numerical value shown in each square indicates the value of the direction evaluation area load corresponding to the reference pixel.
  • the value of the direction evaluation region load corresponds to the reference region load R (6, u ′, v ′) (see FIG. 11) for each reference pixel with respect to the pixel of interest 63 (see FIG. 10) by the product-sum operation unit 25.
  • the value of the direction evaluation region load is 1 for the reference pixels (reference pixels 78) from the reference pixel in the leftmost column of the uppermost row to the fourth row and the fourth column.
  • the value of the direction evaluation area load is zero.
  • the arrows directed to the reference pixel 78 and indicated by i and j at the starting points indicate that the reference pixel 78 is the reference pixel 78 (see FIG. 13) having the same index (i, j). It shows that it corresponds.
  • the reference pixel 78 corresponds to the target pixel 63 (see FIG. 10). That is, the value of the direction evaluation area load for the reference pixel 78 includes the direction evaluation value F ( ⁇ D) (see FIG. 13) for the reference pixel 78 and the reference area load R (6, 0, 0) corresponding to the reference pixel (FIG. 11)).
  • An arrow directed to the reference pixel 79 and indicated by u and v at the starting point indicates that it corresponds to the reference pixel 79 having the same index (u, v).
  • the reference pixel 79 corresponds to the reference pixel 74 (see FIG. 10). That is, the value of the direction evaluation area load for the reference pixel 79 includes the direction evaluation value F ( ⁇ D) (see FIG. 14) for the reference pixel 79 and the reference area load R (6, 2, 2) corresponding to the reference pixel (FIG. 11)).
  • FIG. 16 is a conceptual diagram showing another example of the direction evaluation region load (direction evaluation region load 84).
  • the horizontal and vertical axes in FIG. 16 are the same as those in FIG.
  • Each small square included in the direction evaluation area load 84 represents a reference pixel.
  • the numerical value shown in each square indicates the value of the direction evaluation area load corresponding to the reference pixel.
  • the value of the direction evaluation region load corresponds to the reference region load R (2, u ′, v ′) (see FIG. 11) for each reference pixel with respect to the pixel of interest 72 (see FIG. 10) by the product-sum operation unit 25.
  • This is a value obtained by multiplying the reference pixel direction evaluation value F ( ⁇ D) (see FIG. 14).
  • the value of the direction evaluation region load is 1 for all the reference pixels on the diagonal from the bottom leftmost column to the topmost rightmost column. For other reference pixels, the value of the direction evaluation area load is zero.
  • the arrows directed to the reference pixel 81 and indicated by i 2 and j 2 at the starting points indicate that the reference pixel 81 has the same index (i 2 , j 2 ) (see FIG. 14).
  • the reference pixel 81 corresponds to the target pixel 72 (see FIG. 10). That is, the value of the direction evaluation area load for the reference pixel 81 includes the direction evaluation value F ( ⁇ D) for the reference pixel 81 (see FIG. 14) and the reference area load R (2, 0, 0) corresponding to the reference pixel (FIG. 11)).
  • the arrows directed to the reference pixel 79 and indicated by u 2 and v 2 at the starting points indicate that they correspond to the reference pixel 82 having the same index (u 2 , v 2 ).
  • the reference pixel 82 corresponds to the reference pixel 76 (see FIG. 10). That is, the value of the direction evaluation area load for the reference pixel 82 includes the direction evaluation value F ( ⁇ D) (see FIG. 14) for the reference pixel 82 and the reference area load R (2, -2, 2) ( (See FIG. 11).
  • FIG. 17 is a conceptual diagram illustrating an example of a smoothing target pixel.
  • the relationship between the horizontal axis and the vertical axis in FIG. 17 is the same as that in FIG.
  • the image 61 is the same as the image 61 shown in FIG. 17, the positional relationship between the target pixels 63 and 72 and the reference regions 73 and 75 is the same as the positional relationship in FIG.
  • the direction evaluation region loads related to the reference regions 73 and 75 are the same as the direction evaluation region load 83 (see FIG. 15) and the direction evaluation region load 84 (see FIG. 16), respectively.
  • the product-sum operation unit 25 uses the product-sum value S (i, j), the load area C (i, j), the reference area N ( i, j) is used to calculate.
  • a small rectangle drawn with a thick line indicates a smoothing target pixel.
  • the smoothing target pixels included in the reference region 73 are reference pixels from the leftmost column of the uppermost row to the fourth row and fourth column.
  • the smoothing target pixels included in the reference region 75 are all the reference pixels on the diagonal from the bottom leftmost column to the topmost rightmost column. Therefore, the signal value Y (i, j) relating to these reference pixels is substantially used to calculate the direction smoothing value Y ′ (i, j) relating to the target pixel 63, 72.
  • the reference pixels from the fifth row to the fifth column to the bottom row and the bottom column are not substantially used to calculate the direction smoothing value Y ′ (i, j).
  • the contour direction in each pixel is calculated, and the signal related to the reference pixel whose contour direction is the direction that approximates or approximates the contour direction of the target pixel, and whose contour direction is the same as or approximates the target pixel.
  • the pixel of interest is smoothed using the value.
  • FIG. 18 is a conceptual diagram showing an example of the processing target image (image 61).
  • the relationship between the horizontal axis and the vertical axis in FIG. 18 is the same as that in FIG.
  • the image 61 is the same as the image 61 shown in FIGS. 4 and 17 and is an example of an image in which noise is easily perceived.
  • P indicates a corner point.
  • R ⁇ b> 1 indicates a region in the contour direction at the corner point P and occupied by pixels having the same contour direction as the corner point P.
  • Q indicates the contour direction at the corner point P, and D indicates the normal direction of the contour at the corner point P.
  • R ⁇ b> 2 indicates an area occupied by pixels having a contour direction different from the corner point P in the contour direction of the corner point P.
  • the signal value Y (i, j) related to the reference pixel included in R1 is taken into consideration, and R2 is set to R2.
  • the signal value Y (i, j) related to the included reference pixel is not considered.
  • the directional smoothed value Y ′ (i, j) is calculated in consideration of the signal value Y (i, j) related to the reference pixel in R1, and the noise is visually reduced. This is to reduce the change in (i, j). This is because the change in the signal value Y (i, j) is sensitively perceived as noise in human vision. On the other hand, when the change in the signal value Y (i, j) in the contour direction is small, noise is relatively difficult to perceive.
  • FIG. 19 is a conceptual diagram illustrating another example (image 85) of the processing target image.
  • the image 85 is an example of an image in which noise is relatively difficult to perceive.
  • the pixel P ′ is a pixel at the same coordinates as the corner point P (FIG. 18).
  • Region R1 ′ represents the same region as R1 (FIG. 18).
  • the signal values Y (i, j) for each pixel belonging to the regions R1 and R1 ′ are compared.
  • FIG. 20 is a diagram illustrating signal values Y (i, j) for each pixel belonging to each contour region.
  • the horizontal axis indicates the pixel index in the Q direction (see FIGS.
  • a rhombus plot indicates a signal value for each pixel included in the region R1.
  • the square plot indicates the signal value for each pixel included in the region R2.
  • the signal value for each pixel in the region R1 varies between 16 and 72.
  • the signal value for each pixel in the region R2 changes between 34 and 38.
  • FIG. 21 is a flowchart showing image processing according to the present embodiment.
  • the contour direction estimation unit 21 calculates the contour direction for each pixel based on the signal value for each pixel represented by the luminance signal Y input from the scaling unit 13.
  • the contour direction estimation unit 21 quantizes the calculated contour direction for each pixel and calculates a quantized contour direction.
  • the contour direction estimation unit 21 outputs quantized contour direction information representing the calculated quantized contour direction to the direction evaluation unit 22 and the reference region load processing unit 23. Thereafter, the process proceeds to step S102.
  • Step S102 Based on the quantized contour direction for each pixel represented by the quantized contour direction information input from the contour direction estimating unit 21, the direction evaluating unit 22 has a reference region centered on the target pixel for each target pixel.
  • the direction evaluation value of each reference pixel belonging to is calculated.
  • the direction evaluation unit 22 calculates the direction evaluation value so that the reference pixel having the quantization contour direction that is the same as or close to the quantization contour direction with respect to the target pixel becomes larger.
  • the direction evaluation unit 22 outputs direction evaluation value information representing the direction evaluation value of each reference pixel for each pixel of interest to the product-sum operation unit 25. Thereafter, the process proceeds to step S103.
  • the reference region load processing unit 23 determines reference region load information for each pixel of interest based on the quantized contour direction information input from the contour direction estimation unit 21 (reference region weight calculation).
  • the reference region load processing unit 23 reads reference region load information corresponding to the quantization contour direction for each pixel of interest from the storage unit.
  • the reference area load information represents a weighting factor that becomes larger as the reference pixel is in the quantization contour direction of the pixel of interest or in a direction approximating that direction.
  • the reference area load processing unit 23 outputs the read reference area load information to the product-sum operation unit 25. Thereafter, the process proceeds to step S104.
  • Step S104 The preprocessing unit 24, for each pixel of interest (i, j), from the luminance signal Y input from the scaling unit 13, each reference belonging to the reference region centered on the pixel of interest (i, j). A luminance signal representing the signal value Y (u, v) of the pixel (u, v) is extracted (preprocessing). The preprocessing unit 24 outputs the luminance signal Y extracted for each pixel of interest (i, j) to the product-sum operation unit 25. Thereafter, the process proceeds to step S105.
  • the product-sum operation unit 25 receives the direction evaluation value information from the direction evaluation unit 22, the reference region load information from the reference region load processing unit 23, and the luminance signal from the preprocessing unit 24. Is done.
  • the product-sum operation unit 25 calculates the product-sum value using, for example, Equation (5) based on the direction evaluation value represented by the direction evaluation value information, the reference region load represented by the reference region load information, and the signal value represented by the luminance signal. Calculate (multiply-accumulate operation).
  • the product-sum operation unit 25 calculates the load area using, for example, Equation (6) based on the direction evaluation value represented by the direction evaluation value information and the reference region load represented by the reference region load information.
  • the product-sum operation unit 25 calculates the total sum between reference pixels belonging to the reference region of the reference region load represented by the reference region load information as a reference area.
  • the product-sum operation unit 25 generates product-sum value information and reference area information respectively representing a product-sum value, a load area, and a reference area, and combines the generated product-sum value information, load area information, and reference area information. Output to. Thereafter, the process proceeds to step S106.
  • the composition calculation unit 26 receives product sum value information, load area information, and reference area information from the product sum calculation unit 25, and receives a luminance signal from the scaling unit 13.
  • the composition calculation unit 26 calculates the direction smoothing value by dividing the product-sum value represented by the product-sum value information by the load area C represented by the load area information.
  • the composition calculation unit 26 calculates the mixture ratio by dividing the load area by the reference area represented by the reference area information.
  • the combination calculation unit 26 performs a combination calculation by weighting and adding the direction smoothed value and the signal value represented by the luminance signal based on the mixing ratio, and calculates a combined signal value.
  • the combination calculation unit 26 outputs the luminance signal represented by the calculated combination signal value to the image format conversion unit 14. Thereafter, the process ends.
  • the contour direction is estimated for each target pixel based on the signal value for each pixel, and the estimated contour direction of each target pixel and the reference region determined in advance from each target pixel.
  • the evaluation value for each reference pixel is determined based on the contour direction for each reference pixel.
  • a weighting factor for each reference pixel in the reference region is determined based on the estimated contour direction of each target pixel and the direction of the reference pixel from each target pixel, and the evaluation value and weight determined A value obtained by multiply-accumulating based on a signal value for each reference pixel using a coefficient and a signal value of each target pixel are combined.
  • the product-sum operation of signal values between reference pixels takes into account the relationship between the contour direction of the target pixel and the direction of the reference pixel from the target pixel, and the relationship between the contour direction of the target pixel and the contour direction of the reference pixel.
  • the signal value of the target pixel is smoothed. As a result, visually sensitive contour direction noise can be removed or reduced with a relatively small amount of computation.
  • the display device 1 includes an image processing unit 30 instead of the image processing unit 20.
  • FIG. 22 is a schematic diagram illustrating a configuration of the image processing unit 30 according to the present modification.
  • the image processing unit 30 includes a contour direction estimation unit 21, a direction evaluation unit 22, a reference area load processing unit 23, a preprocessing unit 34, a product-sum operation unit 35, and a composition operation unit 36. That is, the image processing unit 30 includes a preprocessing unit 34, a product-sum calculation unit 35, and a synthesis calculation unit 36 instead of the preprocessing unit 24, the product-sum calculation unit 25, and the synthesis calculation unit 26 in the image processing unit 20.
  • the preprocessing unit 34 for each pixel of interest (i, j), from the luminance signal Y input from the scaling unit 13, each reference pixel (u, j) belonging to the reference region centered on the pixel of interest (i, j). A luminance signal representing the signal value Y (u, v) of v) is extracted. The preprocessing unit 34 subtracts the signal value Y (i, j) of the pixel of interest from the signal value Y (u, v) of the reference signal represented by the extracted luminance signal, and obtains the difference signal value Y (u, v) ⁇ Y (i, j) is calculated. The preprocessing unit 34 generates a difference signal representing the calculated difference signal value, and outputs the generated difference signal to the product-sum operation unit 35.
  • the product-sum operation unit 35 receives direction evaluation value information from the direction evaluation unit 22, reference region load information from the reference region load processing unit 23, and difference signal from the preprocessing unit 34 for each pixel of interest (i, j). Entered.
  • the product-sum operation unit 35 performs the direction evaluation value F (
  • a smoothing difference value ⁇ Y (i, j) is calculated by multiply-adding the reference region load R (D (i, j), u ′, v ′) represented by the information.
  • the product-sum operation unit 35 uses, for example, Expression (8) when calculating the smoothed difference value ⁇ Y (i, j).
  • Expression (8) is obtained by calculating the direction evaluation value F (
  • Expression (8) represents that the smoothed difference value ⁇ Y (i, j) is calculated by dividing the calculated sum by the reference area N (i, j).
  • the product-sum operation unit 35 generates a smoothed difference signal representing the calculated smoothed difference value ⁇ Y (i, j), and outputs the generated smoothed difference signal to the combining operation unit 36.
  • the synthesis calculation unit 36 receives the smoothed difference signal from the product-sum calculation unit 35 and the luminance signal Y from the scaling unit 13.
  • the composition calculation unit 36 adds the smoothed difference value ⁇ Y (i, j) represented by the smoothed difference signal and the signal value Y (i, j) represented by the luminance signal Y for each pixel of interest (i, j) (composition calculation). )
  • This combined signal value Y ′′ (i, j) is the same value as the combined signal value Y ′′ (i, j) calculated using the above-described equation (7).
  • the combination calculation unit 36 generates a luminance signal Y ′′ that represents the calculated combined signal value Y ′′ (i, j).
  • the composition calculation unit 36 updates the luminance signal Y input from the scaling unit 13 to the luminance signal Y ′′ and synchronizes with the color difference signals Cb and Cr.
  • the composition calculation unit 36 outputs an image signal including the luminance signal Y ′′ and the color difference signals Cb and Cr to the image format conversion unit 14.
  • FIG. 23 is a flowchart showing image processing according to the present modification.
  • the image processing according to this modification includes steps S204 to S206 instead of steps S104 to S106 in the image processing shown in FIG. Step S204 is executed after step S103.
  • Step S204 The preprocessing unit 34, for each pixel of interest (i, j), from the luminance signal Y input from the scaling unit 13, each reference belonging to the reference region centered on the pixel of interest (i, j). A luminance signal representing the signal value Y (u, v) of the pixel (u, v) is extracted.
  • the preprocessing unit 34 calculates a difference signal value Y (u, v) ⁇ Y (i, j) based on the extracted luminance signal (preprocessing).
  • the preprocessing unit 34 outputs a difference signal representing the calculated difference signal value to the product-sum operation unit 35. Thereafter, the process proceeds to step S205.
  • Step S205 For each pixel of interest (i, j), the product-sum operation unit 35 receives the direction evaluation value information from the direction evaluation unit 22, the reference region load information from the reference region load processing unit 23, and the pre-processing unit 34. Each difference signal is input. The product-sum operation unit 35 calculates the difference signal value Y (u, v) ⁇ Y (i, j) represented by the difference signal, the direction evaluation value F (
  • the synthesis calculation unit 36 is a signal represented by the smoothing difference value ⁇ Y (i, j) represented by the smoothing difference signal input from the product-sum calculation unit 35 and the luminance signal Y input from the scaling unit 13.
  • the value Y (i, j) is added to calculate the combined signal value Y ′′ (i, j).
  • the composition calculator 36 outputs a luminance signal representing the calculated composite signal value Y ′′ (i, j) to the image format converter 14. Thereafter, the process ends.
  • each pixel is synthesized using a value obtained by performing a product-sum operation on the difference value between the signal value of each reference pixel corresponding to the target pixel and the signal value of the target pixel. Calculate the signal value. Accordingly, it is possible to reduce the amount of processing related to the calculation without impairing the effect of removing or reducing the visually sensitive contour direction noise with a relatively small amount of calculation.
  • the display device 1 includes an image processing unit 40 instead of the image processing unit 20.
  • FIG. 24 is a schematic diagram illustrating a configuration of the image processing unit 40 according to the present modification.
  • the image processing unit 40 includes a contour direction estimation unit 21, a direction evaluation unit 22, a reference region load processing unit 43, a preprocessing unit 34, a product-sum operation unit 35, and a composition operation unit 36. That is, the image processing unit 40 includes a reference region load processing unit 43 instead of the reference region load processing unit 23 (see FIG. 2) in the image processing unit 30.
  • the reference region load processing unit 43 represents a quantized contour direction D (i, j) for each pixel represented by the quantized contour direction information input from the contour direction estimation unit 21. ) To determine a weighting factor R (D (i, j), u ′, v ′).
  • the reference area load processing unit 43 is a reference in which (D (i, j), u ′, v ′) takes a value other than zero among the weighting factors R (D (i, j), u ′, v ′).
  • a weighting factor R (D (i, j), u ′, v ′) for each pixel (u ′, v ′) is selected.
  • Such a reference pixel is called a contour direction reference pixel because it is located in a contour direction or a direction approximate to the contour direction from the target pixel (i, j).
  • the reference area load processing unit 43 generates reference area load information representing the weighting factor R (D (i, j), u ′, v ′) related to each contour direction reference pixel, and accumulates the generated reference area load information. The result is output to the sum calculator 35.
  • the reference area load processing unit 43 extracts quantized contour direction information representing the quantized contour direction D (u, v) related to each contour direction reference pixel from the input quantized contour direction information.
  • the reference area load processing unit 43 outputs the extracted quantized contour direction information to the direction evaluation unit 22.
  • the reference area load processing unit 43 extracts a luminance signal representing the signal value Y (u, v) related to each contour direction reference pixel from the luminance signal input from the scaling unit 13.
  • the reference area load processing unit 43 outputs the extracted luminance signal to the preprocessing unit 34.
  • the pre-processing unit 34, the direction evaluation unit 22, and the product-sum calculation unit 35 each have a direction evaluation value F (
  • the product-sum operation unit 35 uses Equation (9) instead of Equation (8).
  • R s (D (i, j)) represents a function (region selection function) for selecting a contour direction reference pixel among the reference pixels related to the target pixel (i, j). That is, u ′, v′ ⁇ Rs (D (i, j)) indicates a contour direction reference pixel. Therefore, the product-sum operation unit 35 can calculate a smoothing difference value ⁇ Y (i, j) that is equal to the smoothing difference value ⁇ Y (i, j) calculated when Expression (8) is used. As described above, since the reference area load processing unit 43 extracts the signal value or coefficient related to each contour direction reference pixel, the preprocessing unit 34, the direction evaluation unit 22, The amount of calculation in the product-sum operation unit 35 can be reduced.
  • FIG. 25 is a flowchart showing image processing according to the present modification.
  • the image processing according to this modification has step S303 instead of step S103 in the image processing shown in FIG. Step S303 is executed after step S101. After step S102, step S204 is executed. Steps S204 to S206 are executed for each contour direction reference pixel instead of each reference pixel for each target pixel.
  • Step S303 The reference area load processing unit 43, based on the quantized contour direction information input from the contour direction estimation unit 21, weights R (D (i, j), u ′, v ′) for each pixel. Determine.
  • the reference area load processing unit 43 has a weight coefficient R (D (i, j), u ′, v ′) that takes a value other than zero among the determined weight coefficients R (D (i, j), u ′, v ′).
  • v ′) is selected as a weighting factor R (D (i, j), u ′, v ′) for each contour direction reference pixel.
  • the reference area load processing unit 43 outputs reference area load information representing the selected weighting factor R (D (i, j), u ′, v ′) to the product-sum operation unit 35.
  • the reference area load processing unit 43 extracts quantization contour direction information representing the quantization contour direction D (u, v) related to each contour direction reference pixel from the input quantization contour direction information, and extracts the extracted quantization contour
  • the direction information is output to the direction evaluation unit 22.
  • the reference region load processing unit 43 extracts a luminance signal representing the signal value Y (u, v) related to each contour direction reference pixel from the luminance signal input from the scaling unit 13, and the extracted luminance signal is a preprocessing unit 34. Output to.
  • the weighting factor, the evaluation value, and the signal value for each reference pixel in the direction of the predetermined range from the contour direction of each image are extracted, and the weighting factor for each extracted reference pixel is extracted.
  • the product-sum operation is performed using the evaluation value and the signal value.
  • FIG. 26 shows examples of images (images 86 and 87) related to the luminance signal before and after processing according to the present embodiment.
  • the image 86 is an image represented by a luminance signal obtained by scaling a luminance signal related to a low-resolution image at a magnification of 3 times. Step-like noise (jaggy) is generated at the boundary between the bright area and the dark area of the image 86.
  • the image 87 is an image represented by the luminance signal obtained by performing the processing according to this modification on the luminance signal related to the image 86. In the image 87, the boundary between the bright area and the dark area is smooth, and the staircase noise is eliminated.
  • FIG. 27 illustrates another example (images 88 and 89) of the image relating to the luminance signal before and after the processing according to the present embodiment.
  • the image 88 is an image represented by a luminance signal obtained by scaling a compressed image at a magnification of 3 times.
  • a compressed image is an image represented by an image signal that is encoded and decoded by MPEG (Moving Picture Expert Group) -4 AVC (Advanced Video Coding) as an encoding method, and the amount of information is compressed to 1 ⁇ 4 from the original image signal. is there. Wavy noise (mosquito noise) is generated in the vicinity of the bright and dark areas of the image 88, and the boundary is unclear.
  • the image 89 is an image represented by the luminance signal obtained by performing the processing according to this modification on the luminance signal related to the image 88. In the image 89, the boundary between the bright area and the dark area is clear, and wavy noise is eliminated.
  • FIG. 28 shows other examples (images 90 and 91) of images related to luminance signals before and after processing according to the present embodiment.
  • the image 90 is an image represented by a luminance signal obtained by scaling a luminance signal that is inappropriately separated from the color difference signal (YC separation) from the composite image signal at a magnification of 3 times.
  • Granular noise composite noise
  • the image 91 is an image represented by the luminance signal obtained by performing the processing according to this modification on the luminance signal related to the image 90. In the image 91, the boundary between the bright area and the dark area is clearer, and granular noise is reduced.
  • FIG. 29 illustrates an example of an image (images 92 to 94) related to luminance signals before and after processing according to the related art and the present embodiment.
  • the image 92 is another example of an image represented by a luminance signal obtained by scaling a luminance signal related to a low resolution image at a magnification of 3 times. Stepwise noise (is generated in the vicinity of the bright area and dark area of the image 92, and the boundary thereof is unclear.
  • the image 93 is described in Patent Document 1 with respect to the luminance signal related to the image 92. It is an image represented by the luminance signal obtained by the processing device, and the boundary between the bright region and the dark region is clearer in the image 93, and stepped noise is reduced. In the image 94, the boundary is not clearer than the surrounding and the noise is not eliminated, whereas in the image 94, the boundary is clear even at the corner point indicated by the end point of each arrow. 93 indicates that noise is reduced.
  • the antenna 10 is not limited to a radio wave related to television broadcasting, and may receive a radio wave related to public wireless communication.
  • the color system of the generated image signal is the YCbCr color system.
  • the Y / C separation is performed.
  • the part 12 may be omitted.
  • the generated image signal is represented by a color system composed of signal values indicating the luminance of each color (for example, RGB color system)
  • the image processing unit 20 performs processing on the signal value of each color. You may make it perform.
  • the contour direction estimation unit 21 calculates a predetermined number (for example, three in the horizontal direction and three in the vertical direction) for the contour direction ⁇ (before quantization) calculated for each pixel. , A total of 9) may be averaged within an image block composed of adjacent pixels. The contour direction estimation unit 21 quantizes the averaged contour direction. As a result, an error in the contour direction that can be noticeable locally can be smoothed between pixels, and a natural image as a whole can be reproduced.
  • a predetermined number for example, three in the horizontal direction and three in the vertical direction
  • a total of 9 may be averaged within an image block composed of adjacent pixels.
  • the contour direction estimation unit 21 quantizes the averaged contour direction.
  • the difference filter, the filter coefficients W x (u ', v' ) in the range and the filter coefficient W x (u ', v' ) of the difference (x direction) is 1 is at -1
  • the range of the difference direction may not be the same with respect to the direction (y direction) perpendicular to the difference direction.
  • v ′ 0, n or larger than n is sufficient.
  • the filter coefficients W y (u ', v' ) in the range and the filter coefficient W y (u ', v' ) of the difference direction (y-direction) is 1 range of the difference direction is -1, the difference The direction may not be the same as the direction perpendicular to the direction (x direction).
  • the display device 1 in the above-described embodiment for example, the Y / C separation unit 12, the scaling unit 13, the image format conversion unit 14, and the image processing units 20, 30, and 40 is realized by a computer. Also good.
  • the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed.
  • the “computer system” is a computer system built in the display device 1 and includes an OS and hardware such as peripheral devices.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line,
  • a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time.
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
  • Each functional block of the display device 1 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.
  • the present invention can be applied to an image display device such as a liquid crystal television.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Image Processing (AREA)

Abstract

 本発明の一態様に係る画像処理装置は、輪郭方向推定部と、方向評価部と、参照領域荷重処理部と、合成演算部と、を備える。輪郭方向推定部は、画素毎の信号値が一定の値である輪郭方向を画素毎に推定し、方向評価部は、前記画素の各々について、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定め、参照領域荷重処理部は、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定め、合成演算部は、該画素の前記参照画素の信号値を用いて、前記方向評価部が定めた評価値と前記参照領域荷重処理部が定めた重み係数に基づいて該画素の信号値を平滑化する。

Description

画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置
 本発明は、画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置に関する。
 本願は、2012年8月7日に、日本に出願された特願2012-174810号に基づき優先権を主張し、その内容をここに援用する。
 情報通信技術の普及により多様な条件で制作された画像コンテンツを、制作時とは異なる条件で視聴できるようにすることで、画像コンテンツを有効に活用することが要請されている。例えば、IPTV(Internet Protocol Television)、等では、元来、携帯端末装置等で視聴するための比較的低い解像度の画像コンテンツ(いわゆるネット動画、等)を、高解像度の画像表示装置に表示する場合がある。ここで、解像度が水平方向640画素、垂直方向360画素である画像コンテンツを、水平方向1920画素、垂直方向1080画素のフルハイビジョン(フルHD、full High Definition)規格に対応したディスプレイに表示する。そのような場合には、画像コンテンツに含まれる画素毎の信号値を画素間で信号値を補間して解像度を高くして変換することがある(アップスケーリング[upscaling]、アップコンバート[upconvert]とも呼ばれる)。
 そのため、解像度を高くした画像には、次に述べるノイズが顕著に表れることがある。
(1)ジャギー:斜線や曲線に表れる階段状の輪郭、(2)モスキートノイズ:圧縮符号化した符号を復号すると濃淡や色信号値が急激に変化する部分やその周辺に表れる波状のノイズ、(3)ドット妨害:コンポジット信号から輝度信号と色差信号の分離(YC分離)が不適切な場合、色彩が変化する境界に粒状に表れるノイズ。
 そこで、特許文献1に記載の処理装置では、入力される現フレーム/フィールド上で現ピクセルに基づいて所定サイズのウィンドウを設定し、ウィンドウの特性を判断するための固有値および固有ベクトルを算出し、算出された固有値に基づいてウィンドウの特性を判断した後、その判断結果に基づいてフィルタリングに適用すべきフィルタリング荷重値を決め、算出された固有ベクトルおよび決定されたフィルタリング荷重値に基づいてウィンドウをフィルタリングする。また、固有ベクトルは、勾配方向を示す第1固有ベクトルとエッジ方向を示す第2固有ベクトルを含み、固有値は、勾配方向への分散を示す第1固有値とエッジ方向への分散を示す第2固有値を示す。そして、第1固有値と第2固有値の比率が第1閾値以下であれば、ウィンドウがコーナ領域であると判断してフィルタリング荷重値を0とし、その比率が第2閾値以上であればウィンドウがエッジ領域であると判断してフィルタリング荷重値を1とする。
特開2005-353068号公報
 しかしながら、特許文献1に記載の処理装置では固有値や固有ベクトルを算出するために演算量が過大になるという課題があった。また、1つのウィンドウに異なる方向のエッジ(例えば、コーナ端、微細な線画、等)が含まれると、第1固有値と第2固有値の比率が低下してコーナ領域と判断される場合が多くなる。そのために、実質的にフィルタリングが行われずジャギー等のノイズを除去又は低減できなかった。
 本発明は、過大な演算量を要することなくノイズを除去又は低減することができる画像処理装置、画像処理方法、画像処理プログラム又は画像表示装置を提供する。
(1)本発明の一態様に係る画像処理装置は、信号値が一定の値である輪郭方向を画素毎に推定する輪郭方向推定部と、前記画素の各々について、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める方向評価部と、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める参照領域荷重処理部と、該画素の前記参照画素の信号値を用いて、前記方向評価部が定めた評価値と前記参照領域荷重処理部が定めた重み係数に基づいて該画素の信号値を平滑化する合成演算部と、を備える。
(2)上述の画像処理装置において、前記参照領域荷重処理部は、該画素の輪郭方向から予め定めた範囲の方向にある前記参照画素の重み係数を、前記予め定めた範囲以外の方向にある前記参照画素の重み係数よりも大きい値に定めるように構成されていてもよい。
(3)上述の画像処理装置において、前記方向評価部は、該画素の輪郭方向と該画素の前記参照画素との輪郭方向の差が小さいほど、大きくなるように前記評価値を定めるように構成されていてもよい。
(4)上述の画像処理装置において、前記合成演算部は、該画素に応じた参照画素毎の信号値と該画素の信号値との差分値に基づいて、該画素の信号値を平滑化するように構成されていてもよい。
(5)上述の画像処理装置において、前記合成演算部は、該画素の輪郭方向から予め定めた範囲の方向にある参照画素毎の重み係数及び評価値を用いて、該画素の信号値を平滑化するように構成されていてもよい。
(6)本発明の他の態様に係る画像表示装置は、信号値が一定の値である輪郭方向を画素毎に推定する輪郭方向推定部と、前記画素の各々について、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める方向評価部と、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める参照領域荷重処理部と、該画素の前記参照画素の信号値を用いて、前記方向評価部が定めた評価値と前記参照領域荷重処理部が定めた重み係数に基づいて該画素の信号値を平滑化する合成演算部と、を備える。
(7)本発明の他の態様に係る画像処理方法は、画像処理装置における画像処理方法であって、前記画像処理装置が、信号値が一定の値である輪郭方向を画素毎に推定する工程と、前記画像処理装置が、前記画素の各々について、前記推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める工程と、前記画像処理装置が、前記推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める工程と、前記画像処理装置が、該画素の前記参照画素の信号値を用いて、前記定めた評価値と前記定めた重み係数に基づいて該画素の信号値を平滑化する工程とを有する。
(8)本発明の他の態様に係る画像処理プログラムは、画像処理装置のコンピュータに、信号値が一定の値である輪郭方向を画素毎に推定する工程と、前記画素の各々について、前記推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める工程と、前記推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める工程と、該画素の前記参照画素の信号値を用いて、前記定めた評価値と前記定めた重み係数に基づいて該画素の信号値を平滑化する工程と、を実行させる。
 本発明の態様によれば、過大な演算量を要することなくノイズを除去又は低減することができる。
本発明の実施形態に係る表示装置の構成を表す概略図である。 本実施形態に係る画像処理部の構成を表す概略図である。 輪郭の一例を表す概念図である。 参照領域の一例を表す概念図である。 x方向の差分フィルタの一例を表す概念図である。 y方向の差分フィルタの一例を表す概念図である。 x方向偏微分の一例を表す概念図である。 y方向偏微分の一例を表す概念図である。 量子化輪郭方向の候補の一例を示す。 量子化輪郭方向の計算例を示す概念図である。 参照領域荷重の一例を示す概念図である。 参照領域荷重のその他の例を示す概念図である。 方向評価値の一例を示す概念図である。 方向評価値のその他の例を示す概念図である。 方向評価領域荷重の一例を示す概念図である。 方向評価領域荷重のその他の例を示す概念図である。 平滑化対象画素の一例を表す概念図である。 処理対象画像の一例を示す概念図である。 処理対象画像の他の例を示す概念図である。 各輪郭領域に属する画素毎の信号値を示す図である。 本実施形態に係る画像処理を表すフローチャートである。 本実施形態の一変形例に係る画像処理部の構成を表す概略図である。 本変形例に係る画像処理を表すフローチャートである。 本実施形態のその他の変形例に係る画像処理部の構成を表す概略図である。 本変形例に係る画像処理を表すフローチャートである。 本実施形態に係る処理前後の輝度信号に係る画像の例を表す。 本実施形態に係る処理前後の輝度信号に係る画像の他の例を表す。 本実施形態に係る処理前後の輝度信号に係る画像のその他の例を表す。 従来技術及び本実施形態に係る処理前後の輝度信号に係る画像の例を表す。
 以下、図面を参照しながら本発明の実施形態について詳しく説明する。
 図1は、本発明の実施形態に係る表示装置1の構成を表す概略図である。
 表示装置1は、入力部11、Y/C(輝度信号/色差信号)分離部12、スケーリング部13、画像処理部20、画像形式変換部14及び表示部15を含んで構成される。また、表示装置1は、アンテナ10に接続されている。アンテナ10は、例えば、テレビジョン放送に係る電波として高周波信号を受信し、受信した高周波信号を表示装置1に出力する。
 入力部11には、外部から画像信号が入力される。入力部11は、例えば、アンテナ10から入力された高周波信号から指定されたチャネルに係る変調信号を抽出し、抽出した変調信号を基底周波数帯域の変調信号に変換する。入力部11は、変換した変調信号をY/C分離部12に出力する。
 Y/C分離部12は、入力部11から入力された変調信号を復調して画像信号を生成し、生成した画像信号からアナログの輝度信号Y、色差信号Cb及び色差信号Crに分離する。Y/C分離部12は、分離したそれぞれの信号を、予め定めたサンプリング周波数でアナログ信号からディジタル信号に変換する。Y/C分離部12は、変換したディジタルの輝度信号Y、色差信号Cb及び色差信号Crを含む画像信号をスケーリング部13に出力する。
 スケーリング部13は、Y/C分離部12から入力された画像信号の解像度(画素数)が、表示部15の解像度と異なる場合には、表示部15の解像度と等しくなるように入力された画像信号の解像度を調整(スケーリング)する。入力された画像の解像度よりも表示部15の解像度の方が大きい場合には、スケーリング部13は、入力された画像信号に対して、補間を行う。入力された画像の解像度よりも表示部15の解像度の方が小さい場合には、スケーリング部13は、入力された画像信号に対して、ダウンサンプリングを行う。スケーリング部13は、補間又はダウンサンプリングのための方式として、例えばバイキュービック(bicubic)法、バイリニア(bilinear)法、等の方式を用いる。スケーリング部13は、解像度を調整した画像信号を画像処理部20に出力する。入力された画像信号の解像度と表示部15の解像度が等しい場合には、入力された画像信号を画像処理部20に出力する。
 なお、以下の説明では、表示部15の水平方向(又は垂直方向)の画素数の、入力された画像信号の水平方向(又は垂直方向)の画素数に対する比を拡大率と呼ぶ。例えば、入力された画像信号の解像度が水平方向640画素、垂直方向360画素であり、表示部15の解像度が水平方向1920画素、垂直方向1080画素である場合には、拡大率は3である。
 画像処理部20は、スケーリング部13から入力された画像信号のうち輝度信号Yについてノイズの低減に係る処理を行い、ノイズが低減した画像を示す輝度信号Y’’を生成する。画像処理部20は、スケーリング部13から入力された輝度信号Yを、生成した輝度信号Y’’に更新し、色差信号Cb、Crと同期をとる。画像処理部20は、輝度信号Y’’及び色差信号Cb、Crを含んだ画像信号を画像形式変換部14に出力する。画像処理部20の構成及び処理については、後述する。
 画像形式変換部14は、画像処理部20から入力された画像信号の形式を変換する。画像形式変換部14は、入力された画像信号がインターレース(interlace)信号である場合、その画像信号をプログレッシブ(progressive)信号に形式を変換する。インターレース信号とは、画素に対する水平方向への走査を1列おきに行って構成された信号であって、走査対象の列がフレーム毎に異なる信号である。プログレッシブ信号とは、画素に対する水平方向への走査を列毎に行って構成された信号である。画像形式変換部14は、入力された画像信号又は形式を変換した画像信号を表示部15に応じた表色系で表された画像信号(例えば、RGB信号、赤(R)、緑(G)、青(B)の各色の信号値を含む画像信号)に変換し、変換した画像信号を表示部15に出力する。
 表示部15は、画像形式変換部14から入力された画像信号が表す画像を表示する。表示部15は、例えばフルハイビジョン(フルHD(full high definition)とも呼ばれる)方式、つまり解像度が水平方向1920画素、垂直方向1080画素の液晶ディスプレイである。表示部15は、赤、緑、青の各色の画素素子が2次元に配列されている。これにより表示部15は、入力された画像信号が表す画素毎の信号値に応じた輝度で、それぞれの画素素子を通じ、例えばバックライト光を放射してカラー画像を表示する。
(画像処理部20の構成)
 次に、画像処理部20の構成について説明する。
 図2は、本実施形態に係る画像処理部20の構成を表す概略図である。
 画像処理部20は、輪郭方向推定部21、方向評価部22、参照領域荷重処理部23、前処理部24、積和演算部25及び合成演算部26を含んで構成される。
 輪郭方向推定部21は、スケーリング部13から入力された輝度信号Yが表す画素毎の信号値(輝度値)に基づいて輪郭方向を画素毎に推定する。輪郭方向とは、輪郭をなす線の法線に直交する方向、つまり輪郭をなす線の接線方向である。輪郭をなす線は、信号値が略一定となる空間を示す線を指し、曲線であっても直線であってもよい。従って、輪郭とは位置の変化に応じて信号値が急激に変化する領域には限られない。輪郭をなす線と信号値との間の関係は、等高線と標高の関係に相当する。各画素の位置は離散的に与えられたり、ジャギー、ドット妨害、モスキートノイズ等、本発明で改善対象とする輪郭周辺のノイズの影響を受けていたりするため、一定の信号値をとる画素間を通る線を、輪郭をなす線として、輪郭方向を定めることはできないことがある。ここでは、信号値が画素毎の座標を表す空間において微分可能(即ち、連続)であると仮定する。輪郭方向推定部21は、画素毎に信号値の水平方向もしくは垂直方向の差分値に基づいて、例えば式(1)に基づいて輪郭方向θを算出する。
Figure JPOXMLDOC01-appb-M000001
 
 式(1)において、輪郭方向θは、水平方向(x方向)を基準とした左回りの角度である。x、yは、それぞれ水平方向、垂直方向の座標である。Y(x,y)は、座標(x,y)における信号値である。即ち、輪郭方向θは、信号値Y(x,y)のx方向への偏微分を、信号値Y(x,y)のy方向への偏微分で除算した正接値を与える角度として算出される。式(1)は、座標(x,y)が異なっても信号値Y(x,y)が一定という関係から導き出すことができる。ここで、G(x,y)、G(x,y)は、それぞれ信号値Y(x,y)のx方向への偏微分、y方向への偏微分を表す。以下の説明では、G(x,y)、G(x,y)を、それぞれx方向偏微分、y方向偏微分と呼ぶことがある。
 以下の説明では特に断らない限り、画素(i,j)の位置(座標)は、その画素の重心点を指す。また、その画素の位置における変数aを、a(i,j)等と表す。
 輪郭方向推定部21は、例えば、それぞれ式(2)、(3)を用いて各画素(i,j)における信号値Y(i,j)のx方向偏微分G(i,j)、y方向偏微分G(i,j)を算出する。
 
Figure JPOXMLDOC01-appb-M000003
 
 式(2)、(3)において、i、jは、それぞれ注目画素のx方向、y方向のインデックスを示す整数値である。注目画素とは、直接の処理対象として注目される画素である。W(u’,v’)、W(u’,v’)は、それぞれx方向、y方向の差分フィルタのフィルタ係数を示す。u、vは、それぞれ、参照画素のx方向、y方向のインデックスを示す整数値である。参照画素とは、注目画素を基準として予め定められた規則により決まる範囲内にある画素であって、注目画素に対する処理を行う際に参照される画素である。参照画素は、注目画素を含む。u’、v’は、それぞれ、注目画素を原点としたときの参照画素のx方向、y方向のインデックスを示す整数値である。従って、u=i+u’、v=j+v’である。
 前述の差分フィルタは、例えば、x方向に2n+1個、y方向に2n+1個(計(2n+1)・(2n+1)個)の参照画素の各々u’,v’に対してフィルタ係数W(u’,v’)、W(u’,v’)を有する。以下の説明では、このフィルタ係数が与えられる参照画素が属する領域を参照領域と呼ぶことがある。nは、1よりも大きい整数値(例えば、2)である。ここで、フィルタ係数W(u’,v’)、W(u’,v’)は、注目画素を基準として正方向の参照画素に対して1、注目画素と同一の差分方向(x方向)の座標値を有する参照画素に対して0、注目画素を基準として負方向の参照画素に対して-1である。即ち、x方向の差分フィルタのフィルタ係数W(u’,v’)は、1(0<u’≦n)、0(u’=0)、-1(0>u’≧-n)である。y方向の差分フィルタのフィルタ係数W(u’,v’)は、1(0<v’≦n)、0(v’=0)、-1(0>v’≧-n)である。また、nは、画像の拡大率と等しいか、その拡大率よりも大きい整数値である。これにより、注目画素に対して正方向、負方向各々に対して、信号値が平滑化されるため、輪郭の方向を推定する場合において、ジャギー、モスキートノイズ、ドット妨害など輪郭周りのノイズの影響を受けにくくなる。但し、nが大きくとり注目画素から離れた参照画素を考慮すると、本来、局所的な値である偏微分値が正しく算出されないことがある。従って、nを、予め定めた最大値よりも小さい値、例えば、拡大率と等しい整数値もしくは拡大率の小数点以下の桁を切り上げた整数値、又はこれらの整数値の何れかよりも予め定めた値だけ大きい値と定めておく。
 輪郭方向推定部21は、算出したx方向偏微分G(i,j)、y方向偏微分G(i,j)に基づいて算出した輪郭方向θ(i,j)を量子化し、量子化した輪郭方向を表す量子化輪郭方向D(i,j)を算出する。輪郭方向推定部21は、量子化輪郭方向D(i,j)を算出する際、例えば、式(4)を用いる。
Figure JPOXMLDOC01-appb-M000004
 
 式(4)において、round(…)は、実数…の小数点以下の桁を四捨五入した整数値を与える丸め関数である。Nは、量子化された輪郭方向の数(量子化輪郭方向数)を表す定数である。量子化輪郭方向数Nは、例えば、8から32の間のいずれかの値である。つまり、量子化輪郭方向D(i,j)は、輪郭方向θを、量子化間隔をπ/Nで除算した値を丸め、0からN-1までのいずれかの整数で表される。これにより、輪郭方向θの自由度を制約して、後述する処理の負荷を低減する。なお、ゼロ除算を回避するために、x方向偏微分G(i,j)の絶対値|G(i,j)|が予め定めた微小な実数値(例えば、10-6)よりも小さい場合には、tan-1をπ/2とする。また、演算処理システムによっては、前述の除算による誤差やゼロ除算を避けるため、GとG2つの引数を有する正接関数が用意されている場合があるが、これを利用してtan-1を求めても良い。
 輪郭方向推定部21は、算出した量子化輪郭方向D(i,j)を表す量子化輪郭方向情報を方向評価部22及び参照領域荷重処理部23に出力する。
 方向評価部22は、輪郭方向推定部21から入力された量子化輪郭方向情報が表す画素毎の量子化輪郭方向に基づいて、注目画素毎にその注目画素を中心とする参照領域に属する各参照画素の方向評価値を算出する。ここで、方向評価部22は、注目画素(i,j)の量子化輪郭方向D(i,j)と参照画素(u,v)の量子化輪郭方向D(u,v)との差が小さいほど、方向評価値が大きくなるように当該参照画素の方向評価値を定める。例えば、方向評価部22は、例えば、注目画素(i,j)に対する量子化輪郭方向D(i,j)と参照画素(u,v)に対する量子化輪郭方向D(u,v)の差分値ΔD=D(u,v)-D(i,j)を算出する。ここで差分値ΔDが0、つまりD(u,v)とD(i,j)が等しいとき、方向評価値F(|ΔD|)を最大値1と定める。差分値ΔDが0ではない場合、つまりD(u,v)とD(i,j)が等しくない場合に、方向評価値F(|ΔD|)を最小値0と定める。
 方向評価部22は、注目画素(i,j)に対する量子化輪郭方向D(i,j)が参照画素(u,v)に対する量子化輪郭方向D(u,v)に近似するほど、つまり差分値ΔDの絶対値|ΔD|が小さいほど、大きくなるように方向評価値F(ΔD)を定めてもよい。例えば、方向評価部22は、F(0)=1、F(1)=0.75、F(2)=0.5、F(3)=0.25、F(|ΔD|)=0(|ΔD|>3)とする。
 但し、量子化輪郭方向D(i,j)と量子化輪郭方向D(u,v)のうちいずれか一方が、N/2よりも大きく、他方がN/2よりも小さい場合、それぞれが示す輪郭方向が近似するにも関わらず、絶対値|ΔD|が大きくなるために、誤った方向評価値F(ΔD)が算出されることがある。例えば、D(i,j)=7、D(u,v)=0の場合、|ΔD|=7となる。しかし、量子化輪郭方向の差分はπ/8であり、本来は|ΔD|=1と定められるべきである。そこで、方向評価部22は、量子化輪郭方向D(i,j)と量子化輪郭方向D(u,v)のうちいずれか一方が、N/2よりも大きい場合、他方の量子化輪郭方向の値にNを加算して補正値を算出する。方向評価部22は、算出した補正値と一方の量子化輪郭方向との差分値に対する絶対値を算出する。このようにして算出した絶対値を、上述の|ΔD|として用いることで意図した方向評価値を定める。
 後述する積和演算部25において、上述の方向評価値F(|ΔD|)を用いることにより、注目画素(i,j)における輪郭方向とは、輪郭方向が異なる参照画素(u,v)による影響を無視又は軽視することができる。
 方向評価部22においても、参照画素(u,v)が属する参照領域の大きさ、つまり水平方向もしくは垂直方向の画素数は、2n+1個又はこの個数よりも多ければよい。なお、方向評価部22における参照領域の大きさは、輪郭方向推定部21における参照領域の大きさと異なっていてもよい。例えば、方向評価部22における参照領域の水平方向及び垂直方向の画素数は、それぞれ7であるのに対し、輪郭方向推定部21における参照領域の水平方向及び垂直方向の画素数は、それぞれ5であってもよい。
 方向評価部22は、注目画素(i,j)毎に各参照画素(u,v)の方向評価値F(ΔD)を表す方向評価値情報を積和演算部25に出力する。方向評価値F(ΔD)の数値例については、後述する。
 参照領域荷重処理部23は、輪郭方向推定部21から入力された量子化輪郭方向情報が表す画素毎の量子化輪郭方向D(i,j)に基づいて、注目画素(i,j)毎に参照領域荷重情報を定める。参照領域荷重情報とは、ある注目画素(i,j)を中心とする参照領域に属する参照画素(u’,v’)毎の重み係数R(D(i,j),u’,v’)を表す情報である。この重み係数を参照領域荷重と呼ぶことがある。参照領域荷重処理部23における参照領域の大きさは、方向評価部22における参照領域の大きさと等しくなるように予め定めておく。
 参照領域荷重処理部23は、注目画素(i,j)の量子化輪郭方向D(i,j)から予め定めた範囲の方向にある参照画素の重み係数R(D(i,j),u’,v’)を、その範囲外の方向にある参照画素の重み係数よりも大きい値に定める。参照領域荷重処理部23は、例えば、注目画素(i,j)から量子化輪郭方向又はその方向に近似する方向にある参照画素(u’,v’)の重み係数R(D(i,j),u’,v’)を1と定め、それ以外の方向にある参照画素(u’,v’)の重み係数R(D(i,j),u’,v’)を0と定める。注目画素から量子化輪郭方向又はその方向に近似する方向にある参照画素とは、具体的には注目画素(i,j)の中心から量子化輪郭方向に延びる線分が、その領域を通過する参照画素(u’,v’)である。また、参照領域荷重処理部23は、この線分がその領域を通過する距離が長い参照画素(u’,v’)ほど、大きくなるように重み係数を定めるようにしてもよい。
 なお、各量子化輪郭方向に対する各参照画素の重み係数を予め算出しておいてもよい。参照領域荷重処理部23は、算出しておいた各参照画素の重み係数を表す参照領域荷重情報を量子化輪郭方向情報と対応付けて予め記憶した記憶部を備える。参照領域荷重処理部23は、入力された量子化輪郭方向情報が表す量子化輪郭方向に対応する参照領域荷重情報を記憶部から読み出す。
 参照領域荷重処理部23は、注目画素(i,j)毎に定めた参照領域荷重情報を積和演算部25に出力する。参照領域荷重の数値例については、後述する。
 前処理部24は、スケーリング部13から入力された輝度信号Yから、注目画素(i,j)毎に、その注目画素(i,j)を中心とした参照領域に属する各参照画素(u,v)の信号値Y(u,v)を表す輝度信号を抽出する。前処理部24は、注目画素(i,j)毎に抽出した輝度信号Yを積和演算部25に出力する。なお、前処理部24における参照領域の大きさは、方向評価部22及び参照領域荷重処理部23における参照領域の大きさと等しくなるように予め定めておく。
 積和演算部25は、注目画素(i,j)毎に、方向評価部22から方向評価値情報が、参照領域荷重処理部23から参照領域荷重情報が、前処理部24から輝度信号がそれぞれ入力される。
 積和演算部25は、方向評価値情報が表す方向評価値F(ΔD)、参照領域荷重情報が表す参照領域荷重R(D(i,j),u’,v’)及び輝度信号が表す信号値Y(u,v)に基づいて、例えば式(5)を用いて、積和値S(i,j)を算出する。
Figure JPOXMLDOC01-appb-M000005
 
 式(5)は、方向評価値F(|ΔD|)、参照領域荷重R(D(i,j),u’,v’)及び輝度信号が表す信号値Y(u,v)の積を参照画素毎に算出し、算出した積の参照領域に属する参照画素間の総和を、積和値S(i,j)として算出することを表す。つまり、式(5)は、積和値S(i,j)を、方向評価値F(|ΔD|)と参照領域荷重R(D(i,j),u’,v’)との積を重み係数として、信号値Y(u,v)を重み付け加算して算出するとみることもできる。方向評価値F(|ΔD|)と参照領域荷重R(D(i,j),u’,v’)との積を、方向評価領域荷重と呼ぶことがある。
 積和演算部25は、方向評価値情報が表す方向評価値F(|ΔD|)及び参照領域荷重情報が表す参照領域荷重R(D(i,j),u’,v’)に基づいて、例えば式(6)を用いて、荷重面積C(i,j)を算出する。
Figure JPOXMLDOC01-appb-M000006
 
 式(6)は、方向評価値F(|ΔD|)及び参照領域荷重R(D(i,j),u’,v’)の積を参照画素毎に算出し、算出した積の参照領域に属する参照画素間の総和を、荷重面積C(i,j)として算出することを表す。つまり、荷重面積C(i,j)は、参照領域荷重R(D(i,j),u’,v’)を参照画素毎に方向評価値F(|ΔD|)で重み付けされた値、即ち式(5)の積和演算において実質的に参照される参照画素の数を表す。言い換えれば、式(6)は、荷重面積C(i,j)を、上述の方向評価領域荷重を参照領域内で総和をとって算出することを示す。また、積和演算部25は、参照領域荷重情報が表す参照領域荷重R(D(i,j),u’,v’)の参照領域に属する参照画素間の総和を参照面積N(i,j)として算出する。参照面積N(i,j)は、式(5)の積和演算において名目的に参照される参照画素の数を表す。
 積和演算部25は、注目画素(i,j)毎に算出した積和値S(i,j)を表す積和値情報、荷重面積C(i,j)を表す荷重面積情報、参照面積N(i,j)を表す参照面積情報を合成演算部26に出力する。
 合成演算部26は、積和演算部25から積和値情報、荷重面積情報及び参照面積情報が入力される。合成演算部26は、積和値情報が表す積和値S(i,j)を荷重面積情報が表す荷重面積C(i,j)で除算して方向平滑化値Y’(i,j)を算出する。即ち、算出された方向平滑化値Y’(i,j)は、注目画素(i,j)における量子化輪郭方向又はその方向を近似する方向にある参照画素であって、その輪郭方向が注目画素の輪郭方向と等しいか近似する参照画素間で平滑化された信号値を表す。
 合成演算部26は、荷重面積C(i,j)を参照面積情報が表す参照面積N(i,j)で除算して混合比w(i,j)を算出する。混合比w(i,j)は、注目画素(i,j)における量子化輪郭方向又はその方向を近似する方向にある参照画素のうち、その輪郭方向が注目画素の輪郭方向と等しいか近似する参照画素の個数比を表す。
 合成演算部26は、方向平滑化値Y’(i,j)とスケーリング部13から入力された輝度信号が表す信号値Y(i,j)を、それぞれ混合比w(i,j)、(1-w(i,j))で重み付け加算(合成演算)を行って、合成信号値Y’’(i,j)を算出する。この重み付け加算は、式(7)で表される。
Figure JPOXMLDOC01-appb-M000007
 
 合成演算部26は、算出した合成信号値Y’’(i,j)を表す輝度信号Y’’を生成する。
(輪郭の例)
 次に、輪郭の例について説明する。
 図3は、輪郭の一例を表す概念図である。
図3において、横軸はx方向を示し、縦軸はy方向を示す。画像51は、信号値Y(x,y)の大きさを濃淡で示す。明るい部分ほど信号値Y(x,y)が大きく、濃い部分ほど信号値Y(x,y)が小さい。
 注目点52、53を通過する破線は、輪郭54を示す。注目点53は、注目点52から微小量(δx,δy)だけ離れた位置に存在している。輪郭54は、注目点53を通過し、注目点52における信号値Y(x,y)と信号値が等しくなる位置を示す線分(等高線)である。一般的に、信号値Y(x,y)が座標(x,y)に対して微分可能であると仮定すると、注目点53における信号値Y(x+δx,y+δy)から注目点52における信号値Y(x,y)の差分ΔYは、x方向への微小変化δx・G(x,y)とy方向への微小変化δy・G(x,y)の和となる。輪郭54は、ともに注目点52、53を通過する、つまりΔY=0という関係から式(1)が導かれる。従って、輪郭方向推定部21は、式(1)~(3)を用いることで、空間的に位置が離散化されている画素毎の信号値Y(i,j)に基づいて、輪郭方向θを算出することができる。
(参照領域の例)
 次に、参照領域の例について説明する。
 図4は、参照領域の一例を表す概念図である。
 図4において、横軸はx方向を示し、縦軸はy方向を示す。画像61は、輝度信号Yが表す画像である。画像61に含まれる小さい四角形は、それぞれ画素を示す。各四角形の中に示されている数値は画素毎の信号値Y(i,j)を示す。各四角形の濃淡は、信号値Y(i,j)の大きさを示す。明るい部分ほど信号値Y(i,j)が大きく、濃い部分ほど信号値Y(i,j)が小さい。図4において、信号値Y(i,j)は全体として左側よりも右側のほうが大きい。但し、信号値Y(i,j)が大きい領域と小さい領域の境界は、上下両端に近づくほど左側に偏り、中央に近づくほど右側に偏る。
 画像61の中央部より上側にある破線で囲まれた領域は参照領域62を示す。参照領域62の中心にある四角形は、注目画素63を示す。注目画素63に向かう矢印であって起点に各々i、jと示されている矢印は、注目画素63のインデックスが(i,j)であることを示す。参照領域62の最下行、最左列から4列目にある四角形は、参照画素64を示す。参照画素64に向かう矢印であって起点に各々u、vと示されている矢印は、参照画素64のインデックスが(u,v)であることを示す。
(差分フィルタの例)
 次に、差分フィルタの例について説明する。
 図5は、x方向の差分フィルタの一例(差分フィルタ65)を表す概念図である。
 図5の横軸、縦軸の関係は図4と同様である。
 差分フィルタ65に含まれる小さい四角形は、それぞれ参照画素を示す。差分フィルタ65は、x方向の画素数、y方向の画素数がともに5であるx方向の差分フィルタである。各四角形の中に示されている数値は、フィルタ係数W(u’,v’)を示す。フィルタ係数W(u’,v’)は、u’>0の場合1、u’=0の場合0、u’<0の場合-1である。差分フィルタ65の最下行、最左列から4列目にある四角形は、参照画素66を示す。参照画素66に向かう矢印であって起点に各々u’、v’と示されている矢印は、参照画素66のインデックスが(u’,v’)であって、参照画素64(図4)のインデックス(u,v)に対応することを示す。従って、式(2)に示す積和演算において、参照画素66に係るフィルタ係数1が参照画素64に係る信号値93に乗じられる。
 図6は、y方向の差分フィルタの一例(差分フィルタ67)を表す概念図である。
 図6の横軸、縦軸の関係は図4と同様である。
 差分フィルタ67に含まれる小さい四角形は、それぞれ参照画素を示す。差分フィルタ67は、x方向の画素数、y方向の画素数がともに5である垂直方向の差分フィルタである。各四角形の中に示されている数値は、フィルタ係数W(u’,v’)を示す。フィルタ係数W(u’,v’)は、v’>0の場合1、v’=0の場合0、v’<0の場合-1である。差分フィルタ67の最下行、最左列から4列目にある四角形は、参照画素68を示す。参照画素68に向かう矢印であって起点に各々u’、v’と示されている矢印は、参照画素68のインデックスが(u’,v’)であって、参照画素64(図4)のインデックス(u,v)に対応することを示す。従って、式(3)に示す積和演算において、参照画素68に係るフィルタ係数1が参照画素64に係る信号値93に乗じられる。
(偏微分の算出例)
 図7は、x方向偏微分の一例(x方向偏微分69)を表す概念図である。
 図7の横軸、縦軸、注目画素63の関係は図4と同様である。
 x方向偏微分69に含まれる小さい四角形の各々は画素を示す。各四角形の中に示されている数値はx方向偏微分G(i,j)の値を示す。図7に示すx方向偏微分G(i,j)は、図4に示す信号値Y(i,j)に基づいて式(2)を用いて算出された値である。各四角形の濃淡は、x方向偏微分G(i,j)の大きさを示す。明るい部分ほどx方向偏微分G(i,j)が大きく、濃い部分ほどx方向偏微分G(i,j)が小さい。図7において、x方向偏微分G(i,j)は左右両端において小さくなる。但し、x方向偏微分G(i,j)が大きい領域が、上下両端に近づくほど左側に偏り、中央に近づくほど右側に偏る。これは、図4において信号値Y(i,j)が大きい領域と小さい領域の境界が、上下両端に近づくほど左側に偏り、中央に近づくほど右側に偏ることに対応する。なお、注目画素63におけるx方向偏微分G(i,j)は121である。
 図8は、y方向偏微分の一例(y方向偏微分70)を表す概念図である。
 図8の横軸、縦軸、注目画素63の関係は図4と同様である。
 y方向偏微分70に含まれる小さい四角形の各々は画素を示す。各四角形の中に示されている数値はy方向偏微分G(i,j)の値を示す。図8に示すy方向偏微分G(i,j)は、図4に示す信号値Y(i,j)に基づいて式(3)を用いて算出された値である。各四角形の濃淡は、y方向偏微分G(i,j)の大きさを示す。明るい部分ほどy方向偏微分G(i,j)が大きく、濃い部分ほどy方向偏微分G(i,j)が小さい。図8において、y方向偏微分G(i,j)は左右両端において中間値0に近似する。
但し、y方向偏微分G(i,j)が大きい領域は、下端に近づくほど左側に偏り、中央に近づくほど右側に偏る。y方向偏微分G(i,j)が小さい領域は、上端に近づくほど左側に偏り、中央に近づくほど右側に偏る。y方向偏微分G(i,j)が大きい領域と、y方向偏微分G(i,j)が小さい領域は、y方向の中心軸を境にほぼ対称である。
 これは、図4において信号値Y(i,j)が大きい領域と小さい領域の境界が、上下両端に近づくほど左側に偏り、中央に近づくほど右側に偏ることに対応する。なお、注目画素63におけるy方向偏微分G(i,j)は-103である。
(輪郭方向の計算例)
 次に、輪郭方向の計算例について説明する。
 図9は、量子化輪郭方向の候補の一例を示す。
 図9において、横軸はx方向、縦軸はy方向を示す。この例では、量子化輪郭方向数Nは8である。1つの原点から放射状に延びる矢印は、それぞれ量子化輪郭方向の候補を示し、各矢印の終点の数字は、量子化輪郭方向を示す数値を示す。即ち、この数値0~7は、それぞれ輪郭方向の角度0~7π/8、又はπ~15π/8を示す。各矢印を中心として原点から延びる破線で挟まれている領域は、その矢印が示す量子化輪郭方向に量子化される輪郭方向(量子化前)の範囲を示す。例えば、輪郭方向の角度が0~π/16、15π/16~17π/16、31π/16~2πの何れかに含まれる場合には、量子化輪郭方向を示す数値は0である。
 図10は、量子化輪郭方向の計算例(量子化輪郭方向71)を示す概念図である。
 図10の横軸、縦軸、注目画素63の関係は図4と同様である。
 量子化輪郭方向71に含まれる小さい四角形の各々は画素を示す。量子化輪郭方向71の左下方にある注目画素72に向かう矢印であって起点に各々i、jと示されている矢印は、注目画素72のインデックスが(i,j)であることを示す。
 図10において、参照領域73、75は、注目画素63、72をそれぞれ中心とした、x方向の画素数が7、y方向の画素数が7の領域である。注目画素63の右下方にある参照画素74に向かう矢印であって起点に各々u、vと示されている矢印は、参照画素74のインデックスが(u,v)であることを示す。注目画素72の左下方にある参照画素76に向かう矢印であって起点に各々u、vと示されている矢印は、参照画素76のインデックスが(u,v)であることを示す。参照領域73、75、参照画素74、76については、後述する。
 各四角形の中に示されている数値と矢印は量子化輪郭方向D(i,j)の値と、その値が示す輪郭方向を示す。図10に示す量子化輪郭方向D(i,j)は、図7に示すx方向偏微分G(i,j)と図8に示すy方向偏微分G(i,j)に基づいて、式(4)を用いて算出された値である。これにより、図10の中央よりも左上側の大部分の画素において量子化輪郭方向が左上向きである。中央よりも左下側の大部分の画素において量子化輪郭方向が右上向きである。これは、信号値Y(i,j)が大きい領域と小さい領域の境界が、上下両端に近づくほど左側に偏り、中央に近づくほど右側に偏ることに対応する。
 ここで、注目画素63における量子化輪郭方向D(i,j)は6である。従って、参照領域荷重処理部23は、注目画素63に対しては、参照領域荷重R(6,u’,v’)を選択する。注目画素72における量子化輪郭方向D(i,j)は2である。従って、参照領域荷重処理部23は、注目画素72に対しては、参照領域荷重R(2,u’,v’)を選択する。
(参照領域荷重の例)
 次に参照領域荷重の例について説明する。
 図11は、参照領域荷重の一例を示す概念図である。
 図11の横軸、縦軸の関係は図9、10と同様である。
 図11の中央より下側にある、1つの原点から放射状に延びる矢印と各矢印の終点に表される数値は、図9と同様に量子化輪郭方向を示す。原点の右横の数値0から反時計回りに7までの上半平面に向かう各矢印の進行方向にある、格子状の図形は、それぞれ量子化輪郭方向D(i,j)に対応した参照領域荷重R(D(i,j),u’,v’)を示す。図11は、右横から反時計回りに順に、参照領域荷重R(0,u’,v’)~R(7,u’,v’)を示す。各参照領域荷重R(D(i,j),u’,v’)に含まれる小さい四角形は、参照画像を表す。図11において、各参照領域荷重R(D(i,j),u’,v’)に含まれる参照画像の数は、水平方向7個、垂直方向7個である。各四角形の中に示されている数値は、参照領域荷重の値である。参照領域荷重の値は、参照領域の中心(注目画素)から量子化輪郭方向にある参照画素について1であり、その方向に近似する方向にある参照画素ほど大きい値である。例えば、量子化輪郭方向0に対応する参照領域荷重R(0,u’,v’)は、第4行目の参照画素について全て1であり、その他の行の参照画素については全て0である。量子化輪郭方向6に対応する参照領域荷重R(6,u’,v’)は、第1行第1列~第7行第7列の参照画素について全て1であり、その他の参照画素については全て0である。量子化輪郭方向は、必ずしも水平方向、垂直方向又は対角方向(π/4又は3π/4)とは限らない。量子化輪郭方向がそれ以外の方向の場合には、参照領域の中心から量子化輪郭方向に延びる線分が通過する距離に比例するように、参照領域荷重R(D(i,j),u’,v’)を定めておく。例えば、量子化輪郭方向1に対応する参照領域荷重R(1,u’,v’)は、最上行から第2行において最左列から第7列の画素について0.2である。第3行において第5、6、7列の画素について、それぞれ0.4、0.8、0.8である。第4行において、第2、3、4、5、6列の画素について、それぞれ0.2、0.6、1.0、0.6、0.2である。第5行において第1、2、3列の画素について、それぞれ0.8、0.8、0.4である。第6行において第1列の画素について、0.2である。それ以外の参照画素については、0である。
 図12は、参照領域荷重のその他の例を示す概念図である。
 図12の横軸、縦軸の関係、量子化輪郭方向を示す矢印、各量子化輪郭方向に対応した格子状の図形の関係は、それぞれ図11と同様である。また、量子化輪郭方向は、水平方向、垂直方向又は対角方向(π/4又は3π/4)である、量子化輪郭方向0、2、4、6に対応する参照領域荷重R(D(i,j),u’,v’)については、図11に示す例と同様である。
 それ以外の量子化輪郭方向についての参照領域荷重R(D(i,j),u’,v’)は、図11に示す例とは異なる。図12に示す例では、参照領域の中心から量子化輪郭方向に延びる線分が通過する参照画素について、参照領域荷重R(D(i,j),u’,v’)を1と定める。それ以外の参照画素については、参照領域荷重R(D(i,j),u’,v’)を1と定める。例えば、量子化輪郭方向1に対応する参照領域荷重R(1,u’,v’)は、最上行から第2行において最左列から第7列の画素について、第3行において第5、6、7列の画素について、第4行において、第2、3、4、5、6列の画素について、第5行において第1、2、3列の画素について、第6行において第1列の画素について、それぞれ1である。それ以外の参照画素については、0である。即ち、図12に示す例では、参照領域荷重R(D(i,j),u’,v’)は、参照領域の中心から量子化輪郭方向に延びる線分が通過するか否かにより、その参照画素を選択するか否かを示す。
(方向評価値の算出例)
 次に、方向評価値の算出例について説明する。
 図13は、方向評価値の一例(方向評価値77)を示す概念図である。
 図13の横軸、縦軸は図4と同様である。
 方向評価値77に含まれる小さい四角形の各々は参照画素を示す。各四角形の中に示されている数値は、注目画素63(図10参照)に対する方向評価値F(ΔD)の値を示す。この方向評価値F(ΔD)は、方向評価部22が、注目画素63(図10参照)に対するD(i,j)と、参照領域73(図10参照)に属する各参照画素(u,v)に対する量子化輪郭方向D(u,v)に基づいて算出した方向評価値である。図13において、最上行から第4行までの参照画素について、方向評価値F(ΔD)は全て1である。第5行から第7行までの参照画素について、第5行最左列の参照画素を除いて、方向評価値F(ΔD)は0である。即ち、図13は、参照領域73(図10参照)の最上行から第4行までの参照画素に係る量子化輪郭方向は、注目画素63(図10参照)に係る量子化輪郭方向と等しいことを示す。図13は、参照領域73(図10参照)の第5行から第7行までのほとんどの参照画素に係る量子化輪郭方向は、注目画素63(図10参照)に係る量子化輪郭方向と異なることを示す。
 ここで、参照画素78に向かう矢印であって起点に各々i、jと示されている矢印は、参照画素78が、同一のインデックス(i,j)を有する注目画素63に対応する参照画素であることを示す。方向評価部22は、注目画素63の量子化輪郭方向D(i,j)と参照画素としての注目画素63の量子化輪郭方向D(i,j)が等しいため、方向評価値F(ΔD)を1と定めたことが示される。
 参照画素79に向かう矢印であって起点に各々u、vと示されている矢印は、参照画素79が、同一のインデックス(u,v)を有する参照画素74に対応する参照画素であることを示す。方向評価部22は、注目画素63の量子化輪郭方向D(i,j)が5と参照画素74の量子化輪郭方向D(i,j)が4と異なるため、方向評価値F(ΔD)を0と定めたことが示される。
 図14は、方向評価値のその他の例(方向評価値80)を示す概念図である。
 図14の横軸、縦軸は図4と同様である。
 方向評価値80に含まれる小さい四角形の各々は参照画素を示す。各四角形の中に示されている数値は、注目画素72(図10参照)に対する方向評価値F(ΔD)の値を示す。この方向評価値F(ΔD)は、方向評価部22が、注目画素72(図10参照)に対するD(i,j)と、参照領域75(図10参照)に属する各参照画素(u,v)に対する量子化輪郭方向D(u,v)に基づいて算出した方向評価値である。図14において、全ての参照画素について、方向評価値F(ΔD)が1である。即ち、図14は、参照領域75(図10参照)に属する全ての参照画素に係る量子化輪郭方向は、注目画素72(図10参照)に係る量子化輪郭方向と等しいことを示す。
 ここで、参照画素81に向かう矢印であって起点に各々i、jと示されている矢印は、参照画素81が、同一のインデックス(i,j)を有する注目画素72(図10参照)に対応する参照画素であることを示す。方向評価部22は、注目画素72の量子化輪郭方向D(i,j)と参照画素としての注目画素72(図10参照)の量子化輪郭方向D(i,j)が等しいため、方向評価値F(ΔD)を1と定めたことが示される。
 参照画素82に向かう矢印であって起点に各々u、vと示されている矢印は、参照画素82が、同一のインデックス(u,v)を有する参照画素76(図10参照)に対応する参照画素であることを示す。方向評価部22は、注目画素72(図10参照)の量子化輪郭方向D(i,j)が2と参照画素76(図10参照)の量子化輪郭方向D(i,j)が2と等しいため、方向評価値F(ΔD)を1と定めたことが示される。
(方向評価領域荷重の算出例)
 次に、方向評価領域荷重の算出例について説明する。
 図15は、方向評価領域荷重の一例(方向評価領域荷重83)を示す概念図である。
 図15の横軸、縦軸は図4と同様である。
 方向評価領域荷重83に含まれる小さい四角形の各々は参照画素を示す。各四角形の中に示される数値は、その参照画素に対応する方向評価領域荷重の値を示す。この方向評価領域荷重の値は、積和演算部25が、注目画素63(図10参照)に対する参照画素毎の参照領域荷重R(6,u’,v’)(図11参照)と対応する参照画素の方向評価値F(ΔD)(図13参照)を乗じた値である。図15において、最上行最左列の参照画素から第4行第4列までの参照画素(参照画素78)について、方向評価領域荷重の値は1である。その他の参照画素については、方向評価領域荷重の値は0である。
 ここで、参照画素78に向かう矢印であって起点に各々i、jと示されている矢印は、参照画素78が、同一のインデックス(i,j)を有する参照画素78(図13参照)に相当することを示す。また、参照画素78は、注目画素63(図10参照)に対応する。つまり参照画素78に対する方向評価領域荷重の値は、参照画素78に対する方向評価値F(ΔD)(図13参照)と、その参照画素に対応する参照領域荷重R(6,0,0)(図11参照)を乗じて算出されることを示す。参照画素79に向かう矢印であって起点に各々u、vと示されている矢印は、同一のインデックス(u,v)を有する参照画素79に相当することを示す。また、参照画素79は、参照画素74(図10参照)に対応する。つまり参照画素79に対する方向評価領域荷重の値は、参照画素79に対する方向評価値F(ΔD)(図14参照)と、その参照画素に対応する参照領域荷重R(6,2,2)(図11参照)を乗じて算出されることを示す。
 図16は、方向評価領域荷重のその他の例(方向評価領域荷重84)を示す概念図である。
 図16の横軸、縦軸は図4と同様である。
 方向評価領域荷重84に含まれる小さい四角形の各々は参照画素を示す。各四角形の中に示される数値は、その参照画素に対応する方向評価領域荷重の値を示す。この方向評価領域荷重の値は、積和演算部25が、注目画素72(図10参照)に対する参照画素毎の参照領域荷重R(2,u’,v’)(図11参照)と対応する参照画素の方向評価値F(ΔD)(図14参照)を乗じた値である。図16において、最下行最左列から最上行最右列までの対角上の全ての参照画素について、方向評価領域荷重の値は1である。その他の参照画素については、方向評価領域荷重の値は0である。
 ここで、参照画素81に向かう矢印であって起点に各々i、jと示されている矢印は、参照画素81が、同一のインデックス(i,j)を有する参照画素81(図14参照)に相当することを示す。また、参照画素81は、注目画素72(図10参照)に対応する。つまり参照画素81に対する方向評価領域荷重の値は、参照画素81に対する方向評価値F(ΔD)(図14参照)と、その参照画素に対応する参照領域荷重R(2,0,0)(図11参照)を乗じて算出されることを示す。参照画素79に向かう矢印であって起点に各々u、vと示されている矢印は、同一のインデックス(u,v)を有する参照画素82に相当することを示す。また、参照画素82は、参照画素76(図10参照)に対応する。つまり参照画素82に対する方向評価領域荷重の値は、参照画素82に対する方向評価値F(ΔD)(図14参照)と、その参照画素に対応する参照領域荷重R(2,-2,2)(図11参照)を乗じて算出されることを示す。
 次に、0以外の値(例えば1)をとる方向評価領域荷重の値が、積和演算部25において乗じられる信号値Y(i,j)に係る画素(i,j)について説明する。以下、かかる画素を平滑化対象画素と呼ぶ。
 図17は、平滑化対象画素の一例を表す概念図である。
 図17の横軸、縦軸の関係は図4と同様である。画像61は、図4が示す画像61と同一である。図17において、注目画素63、72、参照領域73、75の位置関係は、図10における位置関係と同様である。即ち、参照領域73、75に係る方向評価領域荷重は、それぞれ上述の方向評価領域荷重83(図15参照)、方向評価領域荷重84(図16参照)と同一である。これらの方向評価領域荷重83、85は、積和演算部25が、注目画素63、72にそれぞれ対応する積和値S(i,j)、荷重面積C(i,j)、参照面積N(i,j)を算出するために用いられる。
 参照領域73、75において、太線で描かれた小さい四角形は、平滑化対象画素を示す。参照領域73に含まれる平滑化対象画素は、最上行最左列から第4行第4列までの参照画素である。参照領域75に含まれる平滑化対象画素は、最下行最左列から最上行最右列までの対角上の全ての参照画素である。従って、これらの参照画素に係る信号値Y(i,j)が、注目画素63、72に係る方向平滑化値Y’(i,j)を算出するために実質的に用いられる。これに対し、参照領域73では、第5行第5列から最下行最下列までの参照画素は、方向平滑化値Y’(i,j)を算出するために実質的に用いられない。
 よって、本実施形態では各画素における輪郭方向を算出し、注目画素における輪郭方向もしくはその方向に近似する方向であって、その輪郭方向が注目画素と同一もしくは近似する方向である参照画素に係る信号値を用いて注目画素を平滑化する。これにより、隣接又は近接する画素とは、輪郭方向が異なる画素であるコーナ点においても、実質的に平滑化の対象とする参照画素を最大限考慮してノイズを視覚的に低減することができる。
 図18は、処理対象画像の一例(画像61)を示す概念図である。
 図18の横軸、縦軸の関係は図4と同様である。画像61は、図4、17が示す画像61と同一であり、ノイズが容易に知覚される画像の一例である。
 図18において、Pはコーナ点を示す。R1は、コーナ点Pにおける輪郭方向にあって、コーナ点Pと同一の輪郭方向を有する画素が占める領域を示す。Qは、コーナ点Pにおける輪郭方向を示し、Dはコーナ点Pにおける輪郭の法線方向を示す。
 R2は、コーナ点Pの輪郭方向にあって、コーナ点Pとは異なる輪郭方向を有する画素が占める領域を示す。本実施形態では、コーナ点Pを注目画素として方向平滑化値Y’(i,j)を算出する際、R1に含まれる参照画素に係る信号値Y(i,j)が考慮され、R2に含まれる参照画素に係る信号値Y(i,j)が考慮されない。
 R1にある参照画素に係る信号値Y(i,j)を考慮して方向平滑化値Y’(i,j)を算出して視覚的にノイズが低減するのは、輪郭方向の信号値Y(i,j)の変化を低減するためである。この信号値Y(i,j)の変化は、人間の視覚においてノイズとして敏感に知覚するためである。これに対し、輪郭方向の信号値Y(i,j)の変化が小さい場合には、比較的ノイズが知覚されにくい。
 図19は、処理対象画像の他の例(画像85)を示す概念図である。
 画像85は、比較的ノイズが知覚されにくい画像の例である。図19において、横軸、縦軸の関係は図18と同様である。画素P’は、コーナ点P(図18)と同一の座標における画素である。領域R1’は、R1と同一の領域(図18)を示す。
 ここで、領域R1、R1’に属する画素毎の信号値Y(i,j)を比較する。
 図20は、各輪郭領域に属する画素毎の信号値Y(i,j)を示す図である。
 横軸は、領域R1、R1’の一端を基準としたQ方向(図19、20参照)への画素のインデックスを示す。縦軸は、信号値を示す。菱形のプロットは、領域R1に含まれる画素毎の信号値を示す。四角形のプロットは、領域R2に含まれる画素毎の信号値を示す。図20によれば、領域R1における画素毎の信号値は、16から72の間で変化している。領域R2における画素毎の信号値は、34から38の間で変化している。このことから、領域R1における信号値の変化が、領域R2における信号値の変化よりも格段に大きいことが、領域R1においてノイズが敏感に知覚される原因を裏付ける。
 次に、本実施形態に係る画像処理について説明する。
 図21は、本実施形態に係る画像処理を表すフローチャートである。
(ステップS101)輪郭方向推定部21は、スケーリング部13から入力された輝度信号Yが表す画素毎の信号値に基づいて輪郭方向を画素毎に算出する。輪郭方向推定部21は、算出した画素毎の輪郭方向を量子化し、量子化輪郭方向を算出する。輪郭方向推定部21は、算出した量子化輪郭方向を表す量子化輪郭方向情報を方向評価部22及び参照領域荷重処理部23に出力する。その後、ステップS102に進む。
(ステップS102)方向評価部22は、輪郭方向推定部21から入力された量子化輪郭方向情報が表す画素毎の量子化輪郭方向に基づいて、注目画素毎にその注目画素を中心とする参照領域に属する各参照画素の方向評価値を算出する。方向評価部22は、例えば、注目画素に対する量子化輪郭方向と同一又は近似する量子化輪郭方向を有する参照画素ほど大きくなるように方向評価値を算出する。方向評価部22は、注目画素毎に各参照画素の方向評価値を表す方向評価値情報を積和演算部25に出力する。その後、ステップS103に進む。
(ステップS103)参照領域荷重処理部23は、輪郭方向推定部21から入力された量子化輪郭方向情報に基づいて、注目画素毎に参照領域荷重情報を定める(参照領域加重算出)。参照領域荷重処理部23は、注目画素毎の量子化輪郭方向に対応する参照領域荷重情報を記憶部から読み出す。参照領域荷重情報は、注目画素の量子化輪郭方向又はその方向に近似する方向にある参照画素ほど大きくなるような重み係数を表す。参照領域荷重処理部23は、読み出した参照領域荷重情報を積和演算部25に出力する。その後、ステップS104に進む。
(ステップS104)前処理部24は、スケーリング部13から入力された輝度信号Yから、注目画素(i,j)毎に、その注目画素(i,j)を中心とした参照領域に属する各参照画素(u,v)の信号値Y(u,v)を表す輝度信号を抽出する(前処理)。前処理部24は、注目画素(i,j)毎に抽出した輝度信号Yを積和演算部25に出力する。その後、ステップS105に進む。
(ステップS105)積和演算部25は、注目画素毎に、方向評価部22から方向評価値情報が、参照領域荷重処理部23から参照領域荷重情報が、前処理部24から輝度信号がそれぞれ入力される。積和演算部25は、方向評価値情報が表す方向評価値、参照領域荷重情報が表す参照領域荷重及び輝度信号が表す信号値に基づいて、例えば式(5)を用いて、積和値を算出する(積和演算)。積和演算部25は、方向評価値情報が表す方向評価値及び参照領域荷重情報が表す参照領域荷重に基づいて、例えば式(6)を用いて、荷重面積を算出する。積和演算部25は、参照領域荷重情報が表す参照領域荷重の参照領域に属する参照画素間の総和を参照面積として算出する。積和演算部25は、積和値、荷重面積、参照面積をそれぞれ表す積和値情報、参照面積情報を生成し、生成した積和値情報、荷重面積情報、参照面積情報を合成演算部26に出力する。その後、ステップS106に進む。
(ステップS106)合成演算部26は、積和演算部25から積和値情報、荷重面積情報及び参照面積情報が入力され、スケーリング部13から輝度信号が入力される。合成演算部26は、積和値情報が表す積和値を荷重面積情報が表す荷重面積Cで除算して方向平滑化値を算出する。合成演算部26は、荷重面積を参照面積情報が表す参照面積で除算して混合比を算出する。合成演算部26は、方向平滑化値と輝度信号が表す信号値を、それぞれ混合比に基づいて重み付け加算することにより合成演算を行って、合成信号値を算出する。合成演算部26は、算出した合成信号値が表す輝度信号を画像形式変換部14に出力する。その後、処理を終了する。
 以上に説明したように、本実施形態では、画素毎の信号値に基づいて輪郭方向を注目画素毎に推定し、推定した各注目画素の輪郭方向と、各注目画素から予め定めた参照領域内における参照画素毎の輪郭方向とに基づいて参照画素毎の評価値を定める。また、本実施形態では、推定した各注目画素の輪郭方向と、各注目画素からの参照画素の方向とに基づいて、参照領域内における参照画素毎の重み係数を定め、定めた評価値と重み係数を用いて参照画素毎の信号値に基づいて積和演算した値と、各注目画素の信号値を合成する。
 従って、注目画素の輪郭方向とその注目画素からの参照画素の方向との関係、注目画素の輪郭方向と参照画素の輪郭方向との関係を考慮した、参照画素間の信号値の積和演算により注目画素の信号値が平滑化される。これにより、視覚上敏感な輪郭方向のノイズを比較的小さい演算量で除去又は低減することができる。
(変形例1)
 次に、本実施形態に係る変形例1について、上述の実施例と同一の構成又は処理について、同一の符号を付して説明する。本変形例に係る表示装置1(図1参照)は、画像処理部20の代わりに画像処理部30を備える。
 図22は、本変形例に係る画像処理部30の構成を表す概略図である。
 画像処理部30は、輪郭方向推定部21、方向評価部22、参照領域荷重処理部23、前処理部34、積和演算部35及び合成演算部36を含んで構成される。即ち、画像処理部30は、画像処理部20において前処理部24、積和演算部25及び合成演算部26の代わりに、前処理部34、積和演算部35及び合成演算部36を備える。
 前処理部34は、スケーリング部13から入力された輝度信号Yから、注目画素(i,j)毎に、その注目画素(i,j)を中心とした参照領域に属する各参照画素(u,v)の信号値Y(u,v)を表す輝度信号を抽出する。前処理部34は、抽出した輝度信号が表す参照信号の信号値Y(u,v)から注目画素の信号値Y(i,j)をそれぞれ減算し、差信号値Y(u,v)-Y(i,j)を算出する。前処理部34は、算出した差信号値を表す差信号を生成し、生成した差信号を積和演算部35に出力する。
 積和演算部35は、注目画素(i,j)毎に、方向評価部22から方向評価値情報が、参照領域荷重処理部23から参照領域荷重情報が、前処理部34から差信号がそれぞれ入力される。
 積和演算部35は、差信号が表す差信号値Y(u,v)-Y(i,j)に対して、方向評価値情報が表す方向評価値F(|ΔD|)、参照領域荷重情報が表す参照領域荷重R(D(i,j),u’,v’)を積和演算して、平滑化差分値ΔY(i,j)を算出する。
積和演算部35は、平滑化差分値ΔY(i,j)を算出する際、例えば、式(8)を用いる。
Figure JPOXMLDOC01-appb-M000008
 
 式(8)は、方向評価値F(|ΔD|)、参照領域荷重R(D(i,j),u’,v’)及び差信号が表す差信号値Y(u,v)-Y(i,j)の積を参照画素毎に算出し、算出した積の参照領域に属する参照画素間の総和を算出することを表す。式(8)は、算出した総和に対して参照面積N(i,j)で除算して平滑化差分値ΔY(i,j)を算出することを表す。積和演算部35は、算出した平滑化差分値ΔY(i,j)を表す平滑化差分信号を生成し、生成した平滑化差分信号を合成演算部36に出力する。
 合成演算部36は、積和演算部35から平滑化差分信号が入力され、スケーリング部13から輝度信号Yが入力される。合成演算部36は、平滑化差分信号が表す平滑化差分値ΔY(i,j)と輝度信号Yが表す信号値Y(i,j)を注目画素(i,j)毎に加算(合成演算)して、合成信号値Y’’(i,j)を算出する。この合成信号値Y’’(i,j)は、上述の式(7)を用いて算出された合成信号値Y’’(i,j)と同じ値になる。
 合成演算部36は、算出した合成信号値Y’’(i,j)を表す輝度信号Y’’を生成する。合成演算部36は、スケーリング部13から入力された輝度信号Yを、輝度信号Y’’に更新し、色差信号Cb、Crと同期をとる。合成演算部36は、輝度信号Y’’及び色差信号Cb、Crを含んだ画像信号を画像形式変換部14に出力する。
 次に、本変形例に係る画像処理について説明する。
 図23は、本変形例に係る画像処理を表すフローチャートである。
 本変形例に係る画像処理は、図21に示す画像処理において、ステップS104-S106の代わりにステップS204-S206を有する。ステップS204は、ステップS103の後で実行する。
(ステップS204)前処理部34は、スケーリング部13から入力された輝度信号Yから、注目画素(i,j)毎に、その注目画素(i,j)を中心とした参照領域に属する各参照画素(u,v)の信号値Y(u,v)を表す輝度信号を抽出する。前処理部34は、抽出した輝度信号に基づいて、差信号値Y(u,v)-Y(i,j)を算出する(前処理)。前処理部34は、算出した差信号値を表す差信号を積和演算部35に出力する。
その後、ステップS205に進む。
(ステップS205)積和演算部35は、注目画素(i,j)毎に、方向評価部22から方向評価値情報が、参照領域荷重処理部23から参照領域荷重情報が、前処理部34から差信号がそれぞれ入力される。積和演算部35は差信号が表す差信号値Y(u,v)-Y(i,j)、方向評価値情報が表す方向評価値F(|ΔD|)、参照領域荷重情報が表す参照領域荷重R(D(i,j),u’,v’)に基づいて、例えば式(8)を用いて平滑化差分値ΔY(i,j)を算出する。積和演算部35は、算出した平滑化差分値ΔY(i,j)を表す平滑化差分信号を合成演算部36に出力する。その後、ステップS206に進む。
(ステップS206)合成演算部36は、積和演算部35から入力された平滑化差分信号が表す平滑化差分値ΔY(i,j)と、スケーリング部13から入力された輝度信号Yが表す信号値Y(i,j)を加算して、合成信号値Y’’(i,j)を算出する。合成演算部36は算出した合成信号値Y’’(i,j)を表す輝度信号を画像形式変換部14に出力する。その後、処理を終了する。
 以上に説明したように、本変形例では、注目画素に応じた参照画素毎の信号値とその注目画素の信号値との差分値について積和演算を行った値を用いて、各画素の合成信号値を算出する。これにより、視覚上敏感な輪郭方向のノイズを比較的小さい演算量で除去又は低減するという効果を損なわずに、演算に係る処理量を低減することができる。
(変形例2)
 次に、本実施形態に係る他の変形例2について、上述の実施例と同一の構成又は処理について、同一の符号を付して説明する。本変形例に係る表示装置1(図1参照)は、画像処理部20の代わりに画像処理部40を備える。
 図24は、本変形例に係る画像処理部40の構成を表す概略図である。
 画像処理部40は、輪郭方向推定部21、方向評価部22、参照領域荷重処理部43、前処理部34、積和演算部35及び合成演算部36を含んで構成される。即ち、画像処理部40は、画像処理部30において参照領域荷重処理部23(図2参照)の代わりに、参照領域荷重処理部43を備える。
 参照領域荷重処理部43は、参照領域荷重処理部23(図2参照)と同様に輪郭方向推定部21から入力された量子化輪郭方向情報が表す画素毎の量子化輪郭方向D(i,j)に基づいて、重み係数R(D(i,j),u’,v’)を定める。参照領域荷重処理部43は、重み係数R(D(i,j),u’,v’)のうち、(D(i,j),u’,v’)が零以外の値をとる参照画素(u’,v’)毎の重み係数R(D(i,j),u’,v’)を選択する。かかる参照画素は、注目画素(i,j)から輪郭方向又は輪郭方向に近似する方向に位置するため、輪郭方向参照画素と呼ぶ。参照領域荷重処理部43は、各輪郭方向参照画素に係る重み係数R(D(i,j),u’,v’)を表す参照領域荷重情報を生成し、生成した参照領域荷重情報を積和演算部35に出力する。
 参照領域荷重処理部43は、入力された量子化輪郭方向情報から各輪郭方向参照画素に係る量子化輪郭方向D(u,v)を表す量子化輪郭方向情報を抽出する。参照領域荷重処理部43は、抽出した量子化輪郭方向情報を方向評価部22に出力する。
 参照領域荷重処理部43は、スケーリング部13から入力された輝度信号から各輪郭方向参照画素に係る信号値Y(u,v)を表す輝度信号を抽出する。参照領域荷重処理部43は、抽出した輝度信号を前処理部34に出力する。
 前処理部34、方向評価部22、及び積和演算部35は、それぞれ輪郭方向参照画素毎に方向評価値F(|ΔD|)、重み係数R(D(i,j),u’,v’)及び差分値Y(u,v)-Y(i,j)を積和演算して平滑化差分値ΔY(i,j)を算出する。ここで、積和演算部35は、式(8)の代わりに式(9)を用いる。
Figure JPOXMLDOC01-appb-M000009
 
 式(9)において、R(D(i,j))は、注目画素(i,j)に係る参照画素のうち輪郭方向参照画素を選択する関数(領域選択関数)を表す。つまり、u’,v’∈Rs(D(i,j))は、輪郭方向参照画素を示す。従って、積和演算部35は、式(8)を用いた場合に算出される平滑化差分値ΔY(i,j)と等しい平滑化差分値ΔY(i,j)を算出することができる。
 上述したように、参照領域荷重処理部43は輪郭方向参照画素毎に係る信号値または係数を抽出するため、変形例1と同様な演算結果を得つつ前処理部34、方向評価部22、及び積和演算部35における計算量を低減することができる。
 次に、本変形例に係る画像処理について説明する。
 図25は、本変形例に係る画像処理を表すフローチャートである。
 本変形例に係る画像処理は、図23に示す画像処理において、ステップS103の代わりにステップS303を有する。ステップS303は、ステップS101の後で実行する。ステップS102の後で、ステップS204を実行する。ステップS204-S206は、注目画素毎の各参照画素の代わりに各輪郭方向参照画素について実行する。
(ステップS303)参照領域荷重処理部43は、輪郭方向推定部21から入力された量子化輪郭方向情報に基づいて、画素毎に重み係数R(D(i,j),u’,v’)を定める。参照領域荷重処理部43は、定めた重み係数R(D(i,j),u’,v’)のうち、零以外の値をとる重み係数R(D(i,j),u’,v’)を、輪郭方向参照画素毎の重み係数R(D(i,j),u’,v’)として選択する。参照領域荷重処理部43は、選択した重み係数R(D(i,j),u’,v’)を表す参照領域荷重情報を積和演算部35に出力する。参照領域荷重処理部43は、入力された量子化輪郭方向情報から各輪郭方向参照画素に係る量子化輪郭方向D(u,v)を表す量子化輪郭方向情報を抽出し、抽出した量子化輪郭方向情報を方向評価部22に出力する。参照領域荷重処理部43は、スケーリング部13から入力された輝度信号から各輪郭方向参照画素に係る信号値Y(u,v)を表す輝度信号を抽出し、抽出した輝度信号を前処理部34に出力する。
 以上に説明したように、本変形例では、各画像の輪郭方向から予め定めた範囲の方向にある参照画素毎の重み係数、評価値及び信号値を抽出し、抽出した参照画素毎の重み係数、評価値及び信号値を用いて積和演算を行う。これにより、演算結果に寄与しない重み係数、評価値及び信号値が除外される。従って、視覚上敏感な輪郭方向のノイズを比較的小さい演算量で除去又は低減するという効果を損なわずに、演算に係る処理量や記憶部の記憶容量を低減することができる。
(処理例)
 次に、本実施形態に係る処理を行って生成した画像の例について説明する。
 図26は、本実施形態に係る処理前後の輝度信号に係る画像の例(画像86、87)を表す。
 画像86は、低解像度画像に係る輝度信号を拡大率3倍でスケーリングした輝度信号が表す画像である。画像86の明るい領域と暗い領域の境界に階段状のノイズ(ジャギー)が発生している。画像87は、画像86に係る輝度信号に対して本変形例に係る処理を行って得られた輝度信号が表す画像である。画像87において、明るい領域と暗い領域の境界は滑らかであり、階段状のノイズが解消している。
 図27は、本実施形態に係る処理前後の輝度信号に係る画像の他の例(画像88、89)を表す。
 画像88は、圧縮画像を拡大率3倍でスケーリングした輝度信号が表す画像である。圧縮画像は、符号化方法としてMPEG(Moving Picture Expert Group)-4 AVC(Advanced Video Coding)で符号化、復号を繰り返して原画像信号から情報量を1/4に圧縮した画像信号が表す画像である。画像88の明るい領域と暗い領域の付近には波状のノイズ(モスキートノイズ)が発生し、その境界が不明瞭になっている。画像89は、画像88に係る輝度信号に対して本変形例に係る処理を行って得られた輝度信号が表す画像である。画像89において、明るい領域と暗い領域の境界は明瞭であり、波状のノイズが解消している。
 図28は、本実施形態に係る処理前後の輝度信号に係る画像のその他の例(画像90、91)を表す。
 画像90は、コンポジット画像信号からの色差信号との分離(YC分離)が不適切な輝度信号を拡大率3倍でスケーリングした輝度信号が表す画像である。画像90の明るい領域と暗い領域の付近には粒状のノイズ(コンポジットノイズ)が発生し、その境界が不明瞭になっている。画像91は、画像90に係る輝度信号に対して本変形例に係る処理を行って得られた輝度信号が表す画像である。画像91において、明るい領域と暗い領域の境界は、より明瞭であり、粒状のノイズが低減している。
 図29は、従来技術及び本実施形態に係る処理前後の輝度信号に係る画像の例(画像92-94)を表す。
 画像92は、低解像度画像に係る輝度信号を拡大率3倍でスケーリングした輝度信号が表す画像の他の例である。画像92の明るい領域と暗い領域の付近には階段状のノイズ(が発生し、その境界が不明瞭になっている。画像93は、画像92に係る輝度信号に対して特許文献1に記載の処理装置によって得られた輝度信号が表す画像である。画像93において、明るい領域と暗い領域の境界は、より明瞭であり、階段状のノイズが低減している。しかしながら、画像93は、各矢印の終点が示すコーナ点において、周囲よりも境界が不明瞭でありノイズが解消されていないことを示す。これに対し、画像94では、各矢印の終点が示すコーナ点でも境界が明瞭になり画像93よりも、ノイズが低減していることを示す。
 上述した実施形態では、アンテナ10は、テレビジョン放送に係る電波に限らず、公衆無線通信に係る電波を受信するものであってもよい。
 上述では、生成した画像信号の表色系がYCbCr表色系であることを前提として説明したが、画像信号の表色系が異なる場合(例えば、RGB表色系)には、Y/C分離部12を省略してもよい。生成した画像信号が、各色の輝度を示す信号値からなる表色系で表されている場合(例えば、RGB表色系)には、画像処理部20は、各色の信号値に対して処理を行うようにしてもよい。
 上述した実施形態において、輪郭方向推定部21は、画素毎に算出した輪郭方向θ(量子化前)を、注目画素を中心とする予め定めた数(例えば、水平方向3個、垂直方向3個、計9個)の互いに隣接した画素からなる画像ブロック内で平均してもよい。輪郭方向推定部21は、平均した輪郭方向を量子化する。これにより、局所的に顕著に生じうる輪郭方向の誤差を画素間で平滑化して、全体として自然な画像を再現することができる。
 上述した実施形態において、差分フィルタにおいて、フィルタ係数W(u’,v’)が1である差分方向(x方向)の範囲とフィルタ係数W(u’,v’)が-1である差分方向の範囲は、差分方向と垂直な方向(y方向)に対して同一でなくてもよい。フィルタ係数W(u’,v’)が1である差分方向の範囲とフィルタ係数W(u’,v’)が-1である差分方向の範囲が、u’=0に対して対称であって、v’=0の場合にn又はnよりも大きければよい。例えば、フィルタ係数W(u’,v’)が1である差分方向の範囲が、v’=0の場合にnであって、v’≠0の場合にnよりも小さくてもよい。
 同様に、フィルタ係数W(u’,v’)が1である差分方向(y方向)の範囲とフィルタ係数W(u’,v’)が-1である差分方向の範囲は、差分方向と垂直な方向(x方向)に対して同一でなくてもよい。フィルタ係数W(u’,v’)が1である差分方向の範囲とフィルタ係数W(u’,v’)が-1である差分方向の範囲が、v’=0に対して対称であって、u’=0の場合にn又はnよりも大きければよい。例えば、フィルタ係数W(u’,v’)が1である差分方向の範囲が、u’=0の場合にnであって、u’≠0の場合にnよりも小さくてもよい。
 なお、上述した実施形態における表示装置1の一部、例えば、Y/C分離部12、スケーリング部13、画像形式変換部14、及び画像処理部20、30、40をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、表示装置1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
 また、上述した実施形態における表示装置1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。表示装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 本発明は、液晶テレビなどの画像表示装置に適用できる。
 1  表示装置
 10  アンテナ部
 11  入力部
 12  Y/C分離部
 13  スケーリング部
 14  画像形式変換部
 15  表示部
 20、30、40  画像処理部
 21  輪郭方向推定部
 22  方向評価部
 23、43  参照領域荷重処理部
 24、34  前処理部
 25、35  積和演算部
 26、36  合成演算部

Claims (8)

  1.  信号値が一定の値である輪郭方向を画素毎に推定する輪郭方向推定部と、
     前記画素の各々について、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める方向評価部と、
     前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める参照領域荷重処理部と、
     該画素の前記参照画素の信号値を用いて、前記方向評価部が定めた評価値と前記参照領域荷重処理部が定めた重み係数に基づいて該画素の信号値を平滑化する合成演算部と、
     を備える画像処理装置。
  2.  前記参照領域荷重処理部は、
     該画素の輪郭方向から予め定めた範囲の方向にある前記参照画素の重み係数を、前記予め定めた範囲以外の方向にある前記参照画素の重み係数よりも大きい値に定める請求項1に記載の画像処理装置。
  3.  前記方向評価部は、
     該画素の輪郭方向と該画素の前記参照画素との輪郭方向の差が小さいほど、大きくなるように前記評価値を定める請求項1に記載の画像処理装置。
  4.  前記合成演算部は、
     該画素に応じた参照画素毎の信号値と該画素の信号値との差分値に基づいて、該画素の信号値を平滑化する請求項1ないし3のいずれかに記載の画像処理装置。
  5.  前記合成演算部は、
     該画素の輪郭方向から予め定めた範囲の方向にある参照画素毎の重み係数及び評価値を用いて、該画素の信号値を平滑化する請求項4のいずれかに記載の画像処理装置。
  6.  信号値が一定の値である輪郭方向を画素毎に推定する輪郭方向推定部と、
     前記画素の各々について、前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める方向評価部と、
     前記輪郭方向推定部が推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める参照領域荷重処理部と、
     該画素の前記参照画素の信号値を用いて、前記方向評価部が定めた評価値と前記参照領域荷重処理部が定めた重み係数に基づいて該画素の信号値を平滑化する合成演算部と、
     を備える画像表示装置。
  7.  画像処理装置における画像処理方法であって、
     前記画像処理装置が、信号値が一定の値である輪郭方向を画素毎に推定する工程と、
     前記画像処理装置が、前記画素の各々について、前記推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める工程と、
     前記画像処理装置が、前記推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める工程と、
     前記画像処理装置が、該画素の前記参照画素の信号値を用いて、前記定めた評価値と前記定めた重み係数に基づいて該画素の信号値を平滑化する工程と、
     を有する画像処理方法。
  8.  画像処理装置のコンピュータに、
     信号値が一定の値である輪郭方向を画素毎に推定する工程と、
     前記画素の各々について、前記推定した該画素の輪郭方向と、該画素に応じた参照領域内の画素である参照画素毎の輪郭方向とに基づいて、該画素の前記参照画素毎の評価値を定める工程と、
     前記推定した該画素の輪郭方向と、該画素から該画素の前記参照画素毎の方向とに基づいて、該参照画素の重み係数を定める工程と、
     該画素の前記参照画素の信号値を用いて、前記定めた評価値と前記定めた重み係数に基づいて該画素の信号値を平滑化する工程と、
     を実行させるための画像処理プログラム。
PCT/JP2013/070169 2012-08-07 2013-07-25 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置 WO2014024691A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/420,016 US9558535B2 (en) 2012-08-07 2013-07-25 Image processing device, image processing method, image processing program, and image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-174810 2012-08-07
JP2012174810 2012-08-07

Publications (1)

Publication Number Publication Date
WO2014024691A1 true WO2014024691A1 (ja) 2014-02-13

Family

ID=50067924

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/070169 WO2014024691A1 (ja) 2012-08-07 2013-07-25 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置

Country Status (2)

Country Link
US (1) US9558535B2 (ja)
WO (1) WO2014024691A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103095A (ja) * 2014-11-27 2016-06-02 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 画像処理装置、画像処理方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514515B2 (en) * 2013-03-08 2016-12-06 Sharp Kabushiki Kaisha Image processing device, image processing method, image processing program, and image display device
CN107450878B (zh) * 2017-07-28 2019-11-05 京东方科技集团股份有限公司 Amoled的图像处理方法、驱动芯片及可穿戴设备
TWI788967B (zh) * 2021-08-24 2023-01-01 瑞昱半導體股份有限公司 影像處理方法與影像處理電路

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163408A (ja) * 1994-12-02 1996-06-21 Sony Corp ノイズ検出回路、ノイズ除去回路及び輪郭強調回路
JP2001057677A (ja) * 1999-06-10 2001-02-27 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
JP2007149092A (ja) * 2005-11-23 2007-06-14 Sonosite Inc 複数解像度適応フィルタリング
JP2011508334A (ja) * 2007-12-25 2011-03-10 メディック ヴィジョン−ブレイン テクノロジーズ エルティーディー. 画像のノイズ低減

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6014463A (en) * 1995-05-16 2000-01-11 Canon Kabushiki Kaisha Image processing apparatus and method
EP1059811A2 (en) 1999-06-10 2000-12-13 Fuji Photo Film Co., Ltd. Method and system for image processing, and recording medium
US7437013B2 (en) * 2003-12-23 2008-10-14 General Instrument Corporation Directional spatial video noise reduction
KR100555868B1 (ko) 2004-06-09 2006-03-03 삼성전자주식회사 아티팩트 처리 장치 및 방법
US20070116373A1 (en) 2005-11-23 2007-05-24 Sonosite, Inc. Multi-resolution adaptive filtering
JP5071721B2 (ja) * 2008-02-27 2012-11-14 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN103747736B (zh) * 2011-09-07 2016-02-17 株式会社岛津制作所 图像处理装置以及具备该图像处理装置的放射线摄影装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163408A (ja) * 1994-12-02 1996-06-21 Sony Corp ノイズ検出回路、ノイズ除去回路及び輪郭強調回路
JP2001057677A (ja) * 1999-06-10 2001-02-27 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
JP2007149092A (ja) * 2005-11-23 2007-06-14 Sonosite Inc 複数解像度適応フィルタリング
JP2011508334A (ja) * 2007-12-25 2011-03-10 メディック ヴィジョン−ブレイン テクノロジーズ エルティーディー. 画像のノイズ低減

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103095A (ja) * 2014-11-27 2016-06-02 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20150228058A1 (en) 2015-08-13
US9558535B2 (en) 2017-01-31

Similar Documents

Publication Publication Date Title
US7483040B2 (en) Information processing apparatus, information processing method, recording medium, and program
JP4098319B2 (ja) 解像度変換方法および解像度変換装置
US8948506B2 (en) Image processing device, image processing method, and program
US7869649B2 (en) Image processing device, image processing method, program, storage medium and integrated circuit
US8098961B2 (en) Resolution enhancement apparatus and method
US9025903B2 (en) Image processing device and image processing method
EP2138975B1 (en) Apparatus, method and computer-readable recording medium for pixel interpolation
US9111365B2 (en) Edge-adaptive interpolation and noise filtering method, computer-readable recording medium, and portable terminal
US9153010B2 (en) Image processing device and image processing method generating a high-resolution image from a low-resolution image
US20100278422A1 (en) Image processing apparatus, image processing method, image extending apparatus, image compressing apparatus, image transmitting system, and storage medium
US20120230601A1 (en) Image processing apparatus, image processing method, and program
JP5743615B2 (ja) 画像処理方法、画像処理装置、集積回路およびプログラム
CN105230033B (zh) 利用自适应频率强度受控变换来创建图像中的细节
WO2014024691A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置
US8712191B2 (en) Method for detecting directions of regularity in a two-dimensional image
KR100866187B1 (ko) 영역 적응적 방향성 색 보간 방법
US20090226097A1 (en) Image processing apparatus
JP5781370B2 (ja) 画像処理装置、画像処理方法、画像処理装置を備える画像表示装置、プログラムおよび記録媒体
EP1616301A2 (en) Spatial image conversion
WO2014136552A1 (ja) 画像処理装置
US8666162B1 (en) Advanced sensor binning correction
US11202045B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2014024916A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置
KR102027886B1 (ko) 대형 디스플레이의 영상 크기 조절 장치 및 방법
EP2124187A1 (en) Apparatus and method for demosaicing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13828138

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14420016

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13828138

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP