WO2009133900A1 - 画質評価システム、方法およびプログラム - Google Patents

画質評価システム、方法およびプログラム Download PDF

Info

Publication number
WO2009133900A1
WO2009133900A1 PCT/JP2009/058385 JP2009058385W WO2009133900A1 WO 2009133900 A1 WO2009133900 A1 WO 2009133900A1 JP 2009058385 W JP2009058385 W JP 2009058385W WO 2009133900 A1 WO2009133900 A1 WO 2009133900A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
value
gaze area
image quality
Prior art date
Application number
PCT/JP2009/058385
Other languages
English (en)
French (fr)
Inventor
徹 山田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2010510146A priority Critical patent/JP5569808B2/ja
Priority to US12/922,817 priority patent/US8503822B2/en
Publication of WO2009133900A1 publication Critical patent/WO2009133900A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention relates to an image quality evaluation system, method, and program.
  • Patent Document 1 A method related to this problem is described in Patent Document 1.
  • human visual characteristics due to differences in spatial frequency are taken into account, and weighting is performed on the difference absolute value, difference square, SN ratio, and the like based on the AC component power of the pixel value.
  • the correlation with the subjective evaluation value is increased.
  • Human vision is known to be insensitive to high frequency signals, and weighting is controlled by the amount of high frequency signals contained in the video.
  • Japanese Patent No. 3458600 Japanese Patent No. 3458600
  • Patent Document 1 still has a problem that the correlation with the subjective evaluation result may still be low.
  • a gaze region a video region that a person will gaze at
  • Patent Document 1 does not consider whether it is a gaze area. Therefore, if a high frequency signal is included in the gaze area, it is evaluated that the deterioration is small. In addition, in spite of the region other than the gaze region, if the high frequency signal is small, it is evaluated that the deterioration is large.
  • the present invention was invented in view of the above-described problems, and an object thereof is to provide an image quality evaluation system, method, and program having a high correlation with the subjective evaluation result.
  • the present invention for solving the above-described problem represents data representing a feature amount of a pixel set including at least one pixel constituting the first image and a feature amount of a pixel set including at least one pixel constituting the second image.
  • a difference calculation unit that calculates a difference from data and at least one of the first image and the second image, a gaze area of an image having a predetermined characteristic is determined, and the degree of the gaze area is indicated Weighted by a gaze area degree calculation unit that calculates a gaze area degree, a difference weighting unit that weights differences in feature amounts of pixel sets included in the gaze area based on the gaze area degree, and the difference weighting unit
  • the image quality evaluation system further includes an image quality value calculation unit that calculates an image quality value of the first image based on the difference.
  • the present invention for solving the above-described problem represents data representing a feature amount of a pixel set including at least one pixel constituting the first image and a feature amount of a pixel set including at least one pixel constituting the second image.
  • a difference with data is calculated, and a gaze area of an image having a predetermined characteristic is determined using at least one of the first image and the second image, and a gaze area degree indicating a degree of the gaze area is determined.
  • the present invention for solving the above-described problem represents data representing a feature amount of a pixel set including at least one pixel constituting the first image and a feature amount of a pixel set including at least one pixel constituting the second image.
  • a gaze area indicating a degree of the gaze area by determining a gaze area of an image having a predetermined feature by using at least one of the first image or the second image and a process of calculating a difference with data
  • the present invention can obtain an image quality evaluation result having a high correlation with the subjective evaluation result.
  • FIG. 1 is a block diagram showing the configuration of the first embodiment of the present invention.
  • FIG. 2 is a flowchart for explaining the operation of the first embodiment of the present invention.
  • FIG. 3 is a block diagram showing the configuration of the second exemplary embodiment of the present invention.
  • FIG. 4 is a block diagram showing the configuration of the third exemplary embodiment of the present invention.
  • FIG. 5 is a diagram for explaining a pixel region to be examined to detect a gaze region in the third embodiment of the present invention.
  • FIG. 6 is a block diagram showing a computer system according to the fourth embodiment of the present invention.
  • FIG. 7 is a flowchart for explaining the operation of the embodiment of the present invention.
  • the image evaluation system includes a difference calculation unit 101, a gaze area degree calculation unit 102, a difference weighting unit 103, and an image quality calculation unit 104.
  • the difference calculation unit 101 includes, for each set of pixels including at least one pixel (hereinafter referred to as a pixel set), data representing the feature amount of the first image that is an evaluation target image and an original image to be used as a comparison target. And the data representing the feature amount of the second image.
  • the first image and the second image may be moving images or still images.
  • a pixel set is a set of pixels composed of at least one pixel, and is a concept including not only a set of a plurality of pixels but also a single pixel.
  • An example of a set of a plurality of pixels is a block of 16 pixels ⁇ 16 pixels.
  • the pixel value of each pixel is given.
  • the pixel value is, for example, any one of a luminance value, a color difference value, an RGB value, or information obtained by combining them.
  • an average value of the pixel values of the pixels in the pixel set can be given.
  • the statistic of the alternating current component of the pixel set for example, the average value of the pixel values of each pixel in the pixel set is obtained, and the average value of the absolute difference between the average value and each pixel value in the pixel set Alternatively, it may be a dispersion of pixel values in the pixel set. Furthermore, it may be a transform coefficient after orthogonal transformation of pixel values in the pixel set.
  • the feature amount corresponding to the pixel set may be input to the difference calculation unit 101 as described above, but the value of each pixel in the pixel set is the difference. It is good also as a structure which is input into the calculation part 101 and calculates the feature-value for every pixel group as mentioned above in the difference calculation part 101.
  • the difference calculation unit 101 calculates a difference value between feature amounts of the data representing the feature amount of the first image and the data representing the feature amount of the second image.
  • the data representing the feature amount input to the difference calculation unit 101 is the feature amount of the pixel set of each frame in the moving image.
  • the difference value is, for example, the feature amount of the pixel set at a certain position of a frame of the first image and the feature amount of the pixel set of the second image at the same position in the frame at the same time as the first image.
  • the absolute value of the difference or the square value of the difference is calculated as the difference value.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image are not necessarily the feature amounts of all pixel sets in the image.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image are not necessarily the feature amounts of all pixel sets in the image.
  • image transmission is performed in a network, there may be a case where only values of some pixel sets in the image can be acquired due to a transmission error or the like.
  • only feature values of some pixel sets in the image are transmitted in advance to reduce the transmission load, such as transmitting data representing the feature values of the second image every other pixel set. In these cases, the difference value is calculated only for the feature amount of the pixel set at the frame and position that can be referred to in both the first image and the second image.
  • the gaze area degree calculation unit 102 receives pixel values of at least some pixels of the first image. Although not shown in FIG. 1, pixel values of at least some of the pixels of the second image may be input. Furthermore, as described above, pixel values of at least some of the pixels of the first image and the second image may be input. In this case, a gaze area degree to be described later is calculated for each of the first image and the second image, but the average value may be used as the gaze area degree of the pixel.
  • the gaze area degree calculation unit 102 specifies a gaze area that is an area having a predetermined feature in the image, and calculates a gaze area degree indicating the degree of the gaze area.
  • the predetermined feature is, for example, a specific color or a specific shape (for example, a character, a face, a specific building).
  • the gaze area is an image area having these characteristics.
  • the pixel value for each pixel is referred to, and the target pixel degree indicating the degree of whether the pixel is a target pixel having a predetermined feature is calculated.
  • a pixel representing a color close to human skin is defined as a target pixel.
  • the color space include a YCbCr color space expressed by luminance values and color difference values, and an RGB color space expressed by RGB values indicating the three primary colors of red, blue, and green.
  • the definition of the target pixel is not limited to a color close to human skin, but may be another definition.
  • the luminance Y, the blue difference Cb, and the red difference Cr of each pixel are input to the gaze area degree calculation unit 102 as pixel values.
  • the target pixel is the target pixel.
  • the specific color is in the YCbCr color space that includes the entire range in the RGB space when a color recognized as a skin color is expressed by the RGB color space through subjective experiments (visual observation). Define the range as Therefore, a wider range than the skin color in RGB expression is applicable.
  • the luminance Y is 48 ⁇ Y ⁇ 224
  • the blue difference Cb is 104 ⁇ Cb ⁇ 125
  • the red difference Cr is in the range of 135 ⁇ Cr ⁇ 171
  • the pixel is determined as the target pixel.
  • the range of pixel values is not limited to the range of values described above, and may be other values.
  • the target pixel degree of the pixel that is the target pixel is set to 1, and the target pixel degree of the pixel that is not the target pixel is set to 0.
  • the target pixel degree is not limited to 0 and 1 based on whether or not the pixel is a target pixel, but may be a continuous value or a multi-stage value. For example, a method is conceivable in which a value obtained by normalizing the distance from a specific point on the YCbCr color space is defined as the target pixel degree.
  • the gaze area is specified based on the calculated target pixel degree, and the gaze area degree of the gaze area is calculated.
  • This is a method of calculating a gaze area degree.
  • a set of pixels having a target pixel degree of 1 is set as a gaze area, a gaze area degree of pixels in that area is set as 1, and a gaze area degree of pixels in other areas is set as 0. .
  • the target pixel degree is a continuous value or a multistage value
  • the target pixel degree is compared with a predetermined threshold, and a set of pixels having a target pixel degree larger than the predetermined threshold is set as a gaze area, and the gaze area
  • the gaze area degree of these pixels may be set to 1.
  • the gaze area degree may be a continuous value or a multistage value.
  • the gaze area degree may be a continuous value or a multistage value in proportion to the total or average value of the target pixel degrees of the pixels included in the gaze area.
  • the gaze area degree of the pixel may be non-zero. This is because when a person is looking at the gaze area, the neighboring pixels also enter the field of view.
  • the difference weighting unit 103 uses the gaze area degree calculated by the gaze area degree calculation unit 102 to weight the difference value of the pixel set included in the gaze area and outputs a weighted difference value.
  • the weighting is performed on the difference value of the pixel set, the difference value of the pixel set including the pixel having the gaze area degree of 1 is multiplied by A, and the difference value of the pixel set including the pixel having the gaze area degree of 0 is multiplied by B.
  • a and B are weighting coefficients, and A> B.
  • processing such as doubling the difference value of a pixel set including a pixel having a gaze area degree of 1 and doubling the difference value of a pixel set including a pixel having a gaze area degree of 0 is performed.
  • a part of the pixel set may not be included in the gaze area. In this case, it is determined whether or not the pixel set is included in the gaze area by the ratio of the area included in the gaze area. If the pixel set is included in the gaze area, Pixels that are not included are weighted using the same weighting coefficient as described above, assuming that they are included in the gaze area.
  • the image quality value calculation unit 104 outputs an image quality value for evaluating the image quality of the first image based on the weighted difference value weighted by the difference weighting unit 103.
  • the image quality value is calculated, for example, in the form of an average value of weighted difference values of the entire first image.
  • the image quality value to be output may be output as it is as an average value or may be output after being converted into another form such as an SN ratio.
  • step 11 the difference between the data representing the feature quantity of the first image and the data representing the feature quantity of the second image is calculated.
  • step 21 the gaze area is specified, and the gaze area degree of the pixel in the gaze area is calculated.
  • step 31 the difference calculated in step 11 is weighted for each pixel set using the degree of gaze area calculated in step 21.
  • step 41 the image quality value of the first image is calculated based on the difference weighted in step 31, and the first image is evaluated.
  • Step 11 and Step 21 may be operated in the order of time, or may be operated in parallel.
  • the first embodiment can obtain an image quality evaluation result having a high correlation with the subjective evaluation result.
  • the reason is that by calculating the gaze area degree, image quality evaluation is performed in consideration of whether the gaze area is watched by a person. In particular, by defining a color close to a person's skin as a gaze area, it is possible to calculate a gaze area degree that has a higher correlation with the degree that the person actually gazes. This is because a person generally tends to watch the person when the person is present in the video.
  • the image evaluation system includes a difference calculation unit 201, a gaze area degree calculation unit 202, a difference weighting unit 203, and an image quality value calculation unit 204.
  • the difference calculation unit 201 includes, for each pixel, data representing the feature amount of the first image that is the evaluation target image and data representing the feature amount of the second image that is the original image to be used as the comparison target. Are entered.
  • data representing the feature amount when the pixel set is one pixel, the pixel value of each pixel is given.
  • the pixel value is, for example, any one of a luminance value, a color difference value, an RGB value, or information obtained by combining them.
  • the difference calculation unit 201 calculates a difference value between data representing the feature amount of the first image and data representing the feature amount of the second image.
  • the data representing the feature amount input to the difference calculation unit 101 is the pixel value of each frame and each pixel in the moving image.
  • the absolute value of the difference between the pixel value of the pixel at a certain position of the frame of the first image and the pixel value of the pixel at the same position in the frame at the same time as the first image of the second image Alternatively, the difference square value is calculated as the difference value.
  • the data representing the feature quantity of the first image and the data representing the feature quantity of the second image are not necessarily pixel values of all the pixels in the image.
  • the data representing the feature quantity of the first image and the data representing the feature quantity of the second image are not necessarily pixel values of all the pixels in the image.
  • the difference value is calculated only for the frame and position data that can be referred to in both the first image and the second image.
  • the gaze area degree calculation unit 202 calculates a gaze area degree indicating the degree of the gaze area.
  • the target pixel degree in the first embodiment described above is considered as the gaze area degree as it is.
  • the gaze area degree calculation unit 202 first determines whether each pixel is a target pixel that is a target of the gaze area from the input pixel value.
  • a pixel representing a color close to human skin is defined as a target pixel. Specifically, it is determined whether the pixel is a target pixel depending on whether the pixel value of the input pixel is included in a specific range of the color space.
  • the color space include a YCbCr color space expressed by luminance values and color difference values, and an RGB color space expressed by RGB values indicating the three primary colors of red, blue, and green.
  • the definition of the target pixel is not limited to a color close to human skin, but may be another definition. For example, when the YCbCr color space is used, the luminance Y, the blue difference Cb, and the red difference Cr of each pixel are input to the gaze area degree calculation unit 102 as pixel values.
  • the target pixel is a gaze area.
  • a color close to human skin color is defined as the specific color.
  • the specific color is in the YCbCr color space that includes the entire range in the RGB space when a color recognized as a skin color is expressed by the RGB color space through subjective experiments (visual observation). Define the range as Therefore, a wider range than the skin color in RGB expression is applicable.
  • the luminance Y is 48 ⁇ Y ⁇ 224
  • the blue difference Cb is 104 ⁇ Cb ⁇ 125
  • the red difference Cr is in the range of 135 ⁇ Cr ⁇ 171
  • the pixel is determined as the target pixel.
  • the range of pixel values is not limited to the range of values described above, and may be other values.
  • the gaze area degree of each pixel is calculated and output.
  • the gaze area degree of a pixel that is a target pixel is 1, and the gaze area degree of a pixel that is not a target pixel is 0.
  • the gaze area degree may be a continuous value or a multi-stage value instead of the values of 0 and 1 described above.
  • the gaze area degree of the pixels in the vicinity of the target pixel may be set to 0.5. This is because when a person views an image, pixels in the vicinity of the pixels also enter the field of view.
  • the determination of the target pixel may be performed by other methods such as detecting the viewer's line of sight without depending on the above method.
  • the difference weighting unit 203 weights the difference calculated in the difference calculation unit 101 for each pixel using the gaze area degree calculated in the gaze area degree calculation unit 202, and outputs a weighted difference value.
  • the gaze area degree calculation unit 202 calculates the gaze area degree of each pixel with values of 0 and 1
  • the difference value is multiplied by A
  • the difference value is multiplied by B.
  • a and B are weighting coefficients, and A> B.
  • the difference value is doubled for a pixel whose gaze area degree is calculated as 1
  • the difference value is doubled for a pixel whose gaze area degree is calculated as 1.
  • the image quality value calculation unit 204 outputs an image quality value for evaluating the image quality of the first image based on the weighted difference value weighted by the difference weighting unit 203.
  • the image quality value is calculated, for example, in the form of an average value of weighted difference values of the entire first image.
  • the image quality evaluation value to be output may be output as it is as an average value or may be output after being converted into another form such as an SN ratio.
  • the image evaluation system includes a difference calculation unit 301, a gaze area degree calculation unit 302, a difference weighting unit 303, and an image quality value calculation unit 304.
  • the pixel set is not a single pixel but a set of a plurality of pixels. It differs from the first embodiment in that it is specified in units of blocks.
  • the difference calculation unit 301 also receives the case where the data representing the feature amount of the first image and the data representing the feature amount of the second image are input for each same pixel set as the pixel set. explain. Since other configurations are the same as those in the first embodiment, description thereof is omitted.
  • the difference calculation unit 301 receives data representing the feature amount of the first image and data representing the feature amount of the second image. For example, when the average value of the pixel values in the pixel set is input, the average value of the pixel values in the pixel set at a certain position of a certain frame of the first image and the first image of the second image The absolute value of the difference between the average values of the pixel values in the pixel set at the same position in the same time frame is calculated as the difference value.
  • the gaze area degree calculation unit 302 receives pixel values of at least some of the pixels of the first image, and determines whether each input pixel is a target pixel. Since the determination method is the same as that of the first embodiment, the description thereof is omitted.
  • the gaze area degree is calculated and output for each pixel set which is a set of a plurality of pixels.
  • the number of pixels determined as the target pixel in the pixel set is totaled.
  • the gaze area degree of the pixel set is calculated as 1, when it is less than the threshold, 0 is calculated.
  • the degree of gaze area the number of pixels determined as the target pixel / the number of pixels in the pixel set may be defined. For example, when the number of pixels determined as the target pixel is 30, the degree of gaze area of the pixel set is 30 / (16 ⁇ 16).
  • the number of pixels determined to be the target pixel within the range including the pixel set near the pixel set is also counted. May be. This is because when a person views an image, a pixel set in the vicinity of the pixel set also enters the field of view. Furthermore, for the same reason, in the vicinity of a pixel set having a non-zero gaze area degree, a gaze area degree of the pixel set is set to non-zero for a pixel set having a zero gaze area degree. Also good.
  • the pixel set is a block of 16 pixels ⁇ 16 pixels and the range shown in FIG.
  • the number of pixels determined to be the target pixel within the range (48 pixels x 48 pixel block) that combines the pixel set to be determined and the neighboring pixel set is totaled To do.
  • the number of pixels determined as the target pixel is 55, 55 / (48 ⁇ 48) is the gaze area degree of the pixel set to be determined.
  • the method is not limited to the method of calculating the gaze area degree, and various methods such as weighting depending on whether the pixel set is a determination target or a neighboring pixel set are conceivable.
  • the gaze area is specified for each pixel set that is a set of a plurality of pixels, and the degree of gaze area of the image set is calculated, so that the degree of correlation with the actual gaze degree of the person is more correlated.
  • a high value can be calculated. This is because a case where only a certain pixel is a target pixel is watched more than a case where only one pixel is the target pixel. For example, instead of a single pixel having a pixel value close to the skin color, a person tends to pay more attention to a certain range (such as the entire face) of pixels having a pixel value close to the skin color.
  • a configuration such as an object recognition unit may be provided to perform object recognition of an image in advance, and a pixel set may be set for each object.
  • a pixel set may be set for each object.
  • the system is equipped with a program control processor 401.
  • a program memory 404 storing necessary programs is connected to the program control processor 401.
  • the program modules stored in the program memory 404 include a difference calculation processing module 406, a gaze area degree calculation processing module 407, a difference weighting processing module 408, and an image quality calculation processing module 409.
  • the main program 405 is a main program that executes image quality evaluation processing.
  • the difference calculation module 406, the gaze area degree calculation processing module 407, the difference weighting processing module 408, and the image quality calculation processing module 409 include the difference calculation unit 101, the gaze area degree calculation unit 102, the difference weighting unit 103, and the image quality calculation. This is a processing module for functionally realizing the unit 104.
  • the present invention is a specific example of the first embodiment.
  • the second image as the original image is a moving image of SDTV size (horizontal 720 pixels, vertical 480 pixels, 29.97 frames per second).
  • the first image which is the evaluation target image, is a moving image obtained by encoding a moving image with MPEG-2 4 Mbps and decoding the encoded image.
  • FIG. 7 is a flowchart showing the operation of this embodiment.
  • step 201 image data for one frame of the second image is input to the difference calculation unit 201.
  • step 202 the image data for one frame of the first image at the same time as the image data for one frame of the second image is input to the difference calculation unit 201.
  • step 203 the difference calculation unit 201 extracts pixel values at the same position in each image data, and calculates a difference absolute value of each pixel value as a difference value. If the luminance value Y of the second image at a certain position is 50 and the luminance value Y of the first image is 52, the difference value is 2.
  • the gaze area degree calculation unit 202 determines whether the pixel is the target pixel from the pixel value of the first image extracted in step 203.
  • the gaze area degree of the pixel is 1, and when the pixel is not the target pixel, the gaze area degree of the pixel is 0.
  • the pixel value is within the range of luminance Y 48 ⁇ Y ⁇ 224, blue difference Cb 104 ⁇ Cb ⁇ 125, and red difference Cr 135 ⁇ Cr ⁇ 171
  • the luminance value Y of the first image is 52
  • the blue color difference Cb is 110
  • the red color difference Cr is 150
  • the difference weighting unit 103 sets a value obtained by doubling the difference value corresponding to the pixel as the weighted difference value. If the gaze area degree of the pixel is 0, in step 206, the difference weighting unit 103 sets a value obtained by multiplying the difference value by 1 as the weighted difference value.
  • step 207 the weighted difference value is added to the variable Sum in order to obtain the total value of the entire weighted difference value image.
  • the variable Sum has an initial value of zero.
  • step 208 it is checked whether or not the difference calculation has been completed for all pixels in one frame. If not completed, the process returns to step 203, and the same processing is performed for pixels for which difference calculation has not yet been completed.
  • step 209 If completed, it is checked in step 209 whether processing has been completed for all frames of the first image. If not completed, the process returns to step 201, and the same processing is performed for the next frame and thereafter. If completed, in step 210, the image quality calculation unit 104 outputs the total value Sum of the weighted difference values for the entire image as the image quality value. With the above operation, the process ends.
  • the data representing the feature amount of the pixel set consisting of at least one pixel constituting the first image and the pixel set consisting of at least one pixel constituting the second image are used.
  • a gaze area of an image having a predetermined feature is determined using a difference calculation unit that calculates a difference from data representing a feature amount and at least one of the first image and the second image, and the gaze area
  • a gaze area degree calculating unit that calculates a gaze area degree indicating a degree of the difference
  • a difference weighting unit that weights a difference between feature quantities of a pixel set included in the gaze area based on the gaze area degree
  • An image quality evaluation system comprising: an image quality value calculation unit that calculates an image quality value of the first image based on a difference weighted by the unit.
  • the second aspect of the present invention is characterized in that, in the above aspect, the gaze area degree calculation unit determines a gaze area for each pixel set.
  • the gaze area calculation unit determines whether the pixel is based on at least one of pixel values of the pixels constituting the first image or the second image. It is determined whether the target pixel is a target of the gaze region, and a gaze region including at least one pixel is determined based on the target pixel.
  • the gaze area degree calculation unit determines that the pixel is a target pixel when a pixel value of the pixel is included in a specific range of a color space. It is characterized by.
  • a fifth aspect of the present invention is characterized in that, in the above aspect, the specific range of the color space is a predetermined range defined in a YCbCr color space expressed by a luminance value and a color difference value.
  • the specific range of the color space includes a value Y indicating luminance of 48 ⁇ Y ⁇ 224 and a value Cb indicating blue difference of 104 ⁇ Cb ⁇ 125 and red difference.
  • the value Cr indicating is in the range of 135 ⁇ Cr ⁇ 171.
  • the specific range of the color space is a predetermined range defined on an RGB color space expressed by RGB values indicating three primary colors of red, blue, and green. It is characterized by being.
  • the gaze area degree calculation unit sets the gaze area degree of the pixel set of the pixels determined to be the target pixel to 1, and the pixel of the pixel determined not to be the target pixel The gaze area degree of the set is calculated as 0.
  • the gaze area degree calculating unit totals the number of pixels determined as the target pixel among the pixels in the pixel set, and the pixel set based on the total result The degree of gaze area is calculated.
  • the gaze area calculation unit includes the number of pixels determined to be the target pixel among the pixels in the pixel set and the target pixel among the pixels in the vicinity of the pixel set. And the number of pixels determined to be calculated, and the gaze area degree of the pixel set is calculated based on the total result.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image constitute the first image and the second image. It is information that is any one of a luminance value, a color difference value, an RGB value, or a combination thereof, of at least some of the pixels to be processed.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image constitute the first image and the second image.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image constitute the first image and the second image.
  • the pixel sets at least a part of the pixel sets, the luminance value, the color difference value, the RGB value of the pixels included in the pixel set, or the average value of the information combining them and each of the information in the pixel set It is an average value of the image set of an absolute value of a difference from the information of a pixel.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image constitute the first image and the second image.
  • data representing a feature amount of a pixel set composed of at least one pixel constituting the first image and a feature amount of a pixel set comprising at least one pixel constituting the second image are represented.
  • a difference with data is calculated, and a gaze area of an image having a predetermined characteristic is determined using at least one of the first image and the second image, and a gaze area degree indicating a degree of the gaze area is determined.
  • a sixteenth aspect of the present invention is characterized in that, in the above aspect, the gaze area is determined in units of the pixel set.
  • the pixel is a target of the gaze region based on at least one of pixel values of the pixels constituting the first image or the second image. It is determined whether the pixel is a pixel, and a gaze region including at least one pixel is determined based on the target pixel.
  • the pixel value of a pixel when the pixel value of a pixel is included in a specific range of a color space, the pixel is determined to be a target pixel.
  • the nineteenth aspect of the present invention is characterized in that, in the above aspect, the specific range of the color space is a predetermined range defined in a YCbCr color space expressed by a luminance value and a color difference value.
  • the specific range of the color space is a value Y indicating luminance of 48 ⁇ Y ⁇ 224 and a value Cb indicating blue difference of 104 ⁇ Cb ⁇ 125 and red difference.
  • the value Cr indicating is in the range of 135 ⁇ Cr ⁇ 171.
  • the specific range of the color space is a predetermined range defined on an RGB color space expressed by RGB values indicating three primary colors of red, blue, and green. It is characterized by being.
  • a gaze area degree of a pixel set of pixels determined to be the target pixel is 1, and a gaze area degree of a pixel set of pixels determined not to be the target pixel is 0. It is characterized by calculating.
  • the number of pixels determined to be the target pixel among the pixels in the pixel set is totaled, and a gaze area degree of the pixel set is calculated based on the total result.
  • the number of pixels determined as the target pixel among the pixels in the pixel set and the number of pixels determined as the target pixel among the pixels in the vicinity of the pixel set are tabulated. Then, the gaze area degree of the pixel set is calculated based on the total result.
  • the data representing the feature quantity of the first image and the data representing the feature quantity of the second image constitute the first image and the second image. It is information that is any one of a luminance value, a color difference value, an RGB value, or a combination thereof, of at least some of the pixels to be processed.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image constitute the first image and the second image.
  • the data representing the feature amount of the first image and the data representing the feature amount of the second image constitute the first image and the second image.
  • the pixel sets at least a part of the pixel sets, the luminance value, the color difference value, the RGB value of the pixels included in the pixel set, or the average value of the information combining them and each of the information in the pixel set It is an average value of the image set of an absolute value of a difference from the information of a pixel.
  • the data representing the feature quantity of the first image and the data representing the feature quantity of the second image constitute the first image and the second image.
  • data representing a feature amount of a pixel set composed of at least one pixel constituting the first image and a feature amount of a pixel set comprising at least one pixel constituting the second image are represented.
  • a gaze area indicating a degree of the gaze area by determining a gaze area of an image having a predetermined feature by using at least one of the first image or the second image and a process of calculating a difference with data
  • a process of calculating a degree a process of weighting a difference between feature amounts of a pixel set included in the gaze area based on the degree of the gaze area, and a process of calculating the degree of the first image based on the weighted difference

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出する差分算出部と、第1の画像又は第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、注視領域の度合いを示す注視領域度を算出する注視領域度算出部と、注視領域度に基づいて、注視領域に含まれる画素集合の特徴量の差分に重み付けを行う差分重み付け部と、差分重み付け部により重み付けされた差分に基づいて、第1の画像の画質値を算出する画質値算出部とを有する画質評価システムである。

Description

画質評価システム、方法およびプログラム
 本発明は、画質評価システム、方法およびプログラムに関する。
 ネットワークを介して伝送された画像データ(以下、画像と記載する)や、符号化された画像の画質を客観的に評価する方法として、原画像と評価対象画像の画素値(輝度、色差、RGB値など)の差分絶対値、差分二乗、SN比などを用いる方法がある。しかし、これらの方法では人間の視覚特性を考慮せず、二つの画像の差分をそのまま客観画質値に反映するため、人間が目視により評価をおこなう主観評価結果との相関が低いという問題があった。
 この問題に関連した方法が、特許文献1に記載されている。特許文献1に記載の画質評価方法では、空間周波数の違いによる人間の視覚特性を考慮し、画素値の交流成分電力に基づいて前記差分絶対値、差分二乗、SN比などに重み付けをおこなうことで、主観評価値との相関を高めている。人間の視覚は、高周波数信号ほど鈍感であることが知られており、映像に含まれている高周波数信号の量により重み付けを制御している。
特許第3458600号公報
 しかし、特許文献1に記載されている画質評価方法では、依然として主観評価結果との相関が低い場合があるという問題点があった。例えば、主観評価結果では、人が注視するだろう映像領域(以下、注視領域)は、他の映像領域と比べて品質劣化を検知しやすいことが知られている。しかし、特許文献1では、注視領域であるかは考慮していない。よって、注視領域においても高周波数信号が多く含まれていれば劣化が小さいと評価されてしまう。また、注視領域以外の領域にも関わらず、高周波数信号が少なければ劣化が大きいと評価されてしまう。
 そこで、本発明は上述した問題に鑑みて発明されたものであり、主観評価結果との相関が高い画質評価システム、方法およびプログラムを提供することを目的とする。
 上記課題を解決する本発明は、第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出する差分算出部と、前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出する注視領域度算出部と、前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行う差分重み付け部と、前記差分重み付け部により重み付けされた差分に基づいて、前記第1の画像の画質値を算出する画質値算出部とを有することを特徴とする画質評価システムである。
 上記課題を解決する本発明は、第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出し、前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出し、前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行い、前記重み付けされた差分に基づいて、前記第1の画像の画質値を算出することを特徴とする画質評価方法である。
 上記課題を解決する本発明は、第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出する処理と、前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出する処理と、前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行う処理と、前記重み付けされた差分に基づいて、前記第1の画像の画質値を算出する処理とを情報処理装置に実行させることを特徴とするプログラムである。
 本発明は、主観評価結果との相関が高い画質評価結果が得られる。
図1は本発明の第1の実施の形態の構成を示すブロック図である。 図2は本発明の第1の実施の形態の動作を説明するフローチャートである。 図3は本発明の第2の実施の形態の構成を示すブロック図である。 図4は本発明の第3の実施の形態の構成を示すブロック図である。 図5は本発明の第3の実施の形態における、注視領域を検出するために調べる画素領域を説明するための図である。 図6は本発明の第4の実施の形態であるコンピュータシステムを示すブロック図である。 図7は本発明の実施例の動作を説明するフローチャートである。
101   差分算出部
102   注視領域度算出部
103   差分重み付け部
104   画質算出部
 <第1の実施の形態>
 本発明における第1の実施の形態について、図面を参照して詳細に説明する。
 図1を参照すると、本発明の第1の実施の形態における画像評価システムは、差分算出部101と注視領域度算出部102と差分重み付け部103と画質算出部104とから構成されている。
 差分算出部101には、少なくとも1画素からなる画素の集合(以下、画素集合)ごとの、評価対象画像である第1の画像の特徴量を表すデータと、比較対象として利用するための原画像である第2の画像の特徴量を表すデータとが入力される。尚、第1の画像及び第2の画像は、動画像であってもよいし、静止画像でもよい。
 本発明において、画素集合とは少なくとも1画素からなる画素の集合であって、複数の画素の集合に限らず、1画素のみの場合も含む概念である。画素集合が複数の画素の集合の一例としては、16画素×16画素のブロックなどがあげられる。
 特徴量を表すデータの一例として、画素集合が1画素である場合は、各画素の画素値があげられる。画素値とは、例えば、輝度値、色差値、またはRGB値のいずれか、もしくはそれらを組み合わせた情報である。
 また、特徴量を表すデータの一例として、画素集合が複数の画素の集合である場合は、画素集合内の画素の画素値の平均値があげられる。他にも、画素集合の交流成分の統計量、例えば、画素集合内の各画素の画素値の平均値を求め、この平均値と画素集合内の各画素値との差分絶対値の平均値や、画素集合内の画素値の分散であっても良い。更に、画素集合内の画素値を直交変換した後の変換係数であってもよい。尚、画素集合が複数の画素の集合である場合には、上述のように画素集合に対応する特徴量が差分算出部101に入力されてもよいが、画素集合内の各画素の値が差分算出部101に入力されて、差分算出部101において上述のような画素集合ごとの特徴量を計算するような構成としてもよい。
 差分算出部101は、第1の画像の特徴量を表すデータと、第2の画像の特徴量を表すデータとの特徴量の差分値を算出する。例えば、第1の画像及び第2の画像が動画像データである場合は、差分算出部101に入力される特徴量を表すデータは、動画像における各フレームの画素集合の特徴量となる。差分値は、例えば、第1の画像のあるフレームのある位置における画素集合の特徴量と、第2の画像の、第1の画像と同時刻のフレームで同位置の画素集合の特徴量との、差分の絶対値、または差分二乗値を差分値として算出する。
 尚、第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータとは、画像内の全ての画素集合の特徴量とは限らない。例えば、ネットワークにおける画像伝送を伴う場合には、伝送エラーなどにより、画像内の一部の画素集合の値しか取得できない場合もある。また、第2の画像の特徴量を表すデータを1画素集合おきに送信するなど、伝送負荷を減らすために予め画像内の一部の画素集合の特徴量しか送信しない場合もある。これらの場合は、第1の画像及び第2の画像の両方で参照可能なフレーム、位置の画素集合の特徴量についてのみ、差分値を算出する。
 注視領域度算出部102には、第1の画像の少なくとも一部の画素の画素値が入力される。なお、図1で図示はしていないが、第2の画像の少なくとも一部の画素の画素値が入力されてもよい。さらに、上述した様に第1の画像及び第2の画像の少なくとも一部の画素の画素値が入力されてもよい。この場合は、第1の画像、第2の画像各々に対して後述する注視領域度が算出されるが、その平均値を当該画素の注視領域度としてもよい。
 注視領域度算出部102は、画像内の所定の特徴を持つ領域である注視領域を特定し、その注視領域の度合を示す注視領域度を算出する。
 ここで、所定の特徴とは、例えば、特定色や、特定の形状(例えば、文字、顔、特定の建物)である。そして、注視領域とは、それらの特徴をもつ画像の領域である。
 注視領域の特定であるが、まず、1画素毎にその画素値を参照し、その画素が所定の特徴を持つ対象画素であるかの度合を示す対象画素度を計算する。一例として、人の肌に近い色を表す画素を対象画素として定義する。具体的には、入力された画素の画素値が、色空間の特定の範囲に含まれるかに応じて対象画素であるかを判定する。色空間の一例としては、輝度値、色差値で表現されるYCbCr色空間や、赤、青、緑の3原色を示すRGB値で表現されるRGB色空間などが挙げられる。なお、対象画素の定義は、人の肌に近い色であることに限られるものではなく、他の定義であってもよい。例えばYCbCr色空間を利用した場合は、各画素の、輝度Y、青色差Cb、赤色差Cr、の値が画素値として注視領域度算出部102に入力される。
 さらに、入力された画素の画素値が、特定の色を持つ場合、当該対象画素が対象画素であると判定する。一般に、人間は映像中に写っている人物を注視する傾向があるので、人間の肌色に近い色を前記特定の色と定義する。具体的には、特定の色は、主観実験(目視)により、肌色に近い色と認識された色をRGB色空間表現した場合のRGB空間での範囲がすべて含まれるような、YCbCr色空間上での範囲として定義する。したがって、RGB表現での肌色よりも広い範囲が該当することになる。前記主観実験により、輝度Yが48<Y<224、青色差Cbが104<Cb<125、赤色差Crが135<Cr<171の範囲にある場合に、人間の肌色に近い色とみなし、この画素を対象画素と判定する。画素値の範囲は上述した値の範囲に限られるものではなく、他の値であってもよい。
 次に、各画素が対象画素であるか否かの判定結果に基づいて、対象画素である画素の対象画素度を1、対象画素でない画素の対象画素度を0とする。尚、対象画素度は、対象画素であるか否かに基づく0と1のみならず、連続値や多段階の値としてもよい。例えば、YCbCr色空間上で特定の点からの距離を正規化した値を対象画素度と定義するなどの方法が考えられる。
 次に、計算された対象画素度に基づいて注視領域を特定し、その注視領域の注視領域度を算出する。注視領域度の算出の方法であるが、対象画素度が1の画素の集合を注視領域とし、その領域の画素の注視領域度を1とし、他の領域の画素の注視領域度を0とする。尚、対象画素度を連続値や多段階値とした場合、その対象画素度と所定の閾値とを比較し、所定の閾値より大きい対象画素度の画素の集合を注視領域とし、その注視領域内の画素の注視領域度を1とすれば良い。
 また、注視領域度も連続値や多段階値としても良く、例えば、対象画素度を連続値や多段階値とし、所定の閾値よりも対象画素度が大きい画素の集合を注視領域とした場合、注視領域に含まれる画素の対象画素度の合計や平均値に比例して注視領域度も連続値や多段階値としても良い。また、注視領域度が非ゼロである画素の近傍で、注視領域度がゼロとなっている画素に対して、この画素の注視領域度が非ゼロとなるようにしてもよい。これは、人が注視領域を見ている際に、その近傍の画素も視界に入ることを考慮したものである。
 差分重み付け部103は、注視領域度算出部102において算出された注視領域度を用いて、その注視領域に含まれる画素集合の差分値に対して重み付けを行い、重み付け差分値を出力する。
 画素集合の差分値に対する重み付けであるが、注視領域度が1の画素を含む画素集合の差分値をA倍し、注視領域度が0の画素を含む画素集合の差分値をB倍する。A、Bは重み付け係数であり、A>Bとする。たとえば、注視領域度が1の画素を含む画素集合の差分値を2倍し、注視領域度が0の画素を含む画素集合の差分値を1倍するなどの処理をおこなう。他の例として、各画素の注視領域度が連続値で算出された場合には、重み付け係数=1+注視領域度、などのように定義してもよい。
 尚、画素集合が複数の画素からなる場合、その画素集合の一部が注視領域に含まれない場合がある。この場合は、画素集合が注視領域に含まれる面積の割合で、その画素集合が注視領域に含まれるか否かを決定し、画素集合が注視領域に含まれるとした場合には、注視領域に含まれない画素に対しても注視領域に含まれるとして上述と同様の重み付け係数を用いて重み付けを行う。
 画質値算出部104では、差分重み付け部103により重み付けされた重み付け差分値に基づいて、前記第1の画像の画質を評価する画質値を出力する。画質値は、例えば、第1の画像全体の重み付け差分値の平均値などの形で計算される。出力する画質値は、平均値としてそのまま出力してもよいし、SN比など別の形に変換した上で出力してもよい。
 次に、図2を参照して、本実施の形態における動作を説明する。
 ステップ11では、第1の画像の特徴量を表すデータと第2の画像の特徴量を表すデータとの差分を算出する。
 ステップ21では、注視領域を特定し、注視領域の画素の注視領域度を算出する。
 ステップ31では、ステップ21で算出された注視領域度を用いて、ステップ11で算出された差分に対して、前記画素集合ごとに重み付けを行う。
 ステップ41では、ステップ31で重み付けされた差分に基づいて、第1の画像の画質値を算出して、第1の画像を評価する。
 なお、ステップ11とステップ21は、時間的な順序が前後して動作してもよいし、並行して動作してもよい。
 第1の実施の形態は、主観評価結果との相関が高い画質評価結果を得ることができる。その理由は、注視領域度を算出することで、人が注視する注視領域であるかを考慮して画質評価を行うためである。特に、人の肌に近い色を注視領域と定義することで、より人が実際に注視する度合いと相関が高い注視領域度を算出することができる。なぜなら、人は一般的に、映像中に人物が存在するとその人物を注視する傾向がみられるからである。
 <第2の実施の形態>
 本発明における第2の実施の形態について、図面を参照して詳細に説明する。
 第2の実施の形態は、画素集合が1つの画素がからなる場合について説明する。
 図3を参照すると、本発明の第2の実施の形態における画像評価システムは、差分算出部201と注視領域度算出部202と差分重み付け部203と画質値算出部204とから構成されている。
 差分算出部201には、1画素ごとの、評価対象画像である第1の画像の特徴量を表すデータと、比較対象として利用するための原画像である第2の画像の特徴量を表すデータとが入力される。特徴量を表すデータの一例として、画素集合が1画素である場合は、各画素の画素値があげられる。画素値とは、例えば、輝度値、色差値、またはRGB値のいずれか、もしくはそれらを組み合わせた情報である。
 差分算出部201は、第1の画像の特徴量を表すデータと、第2の画像の特徴量を表すデータとの差分値を算出する。例えば、第1の画像及び第2の画像が動画像データである場合は、差分算出部101に入力される特徴量を表すデータは、動画像における各フレーム、各画素の画素値となる。この場合、第1の画像のあるフレームのある位置における画素の画素値と、第2の画像の、第1の画像と同時刻のフレームで同位置の画素の画素値の、差分の絶対値、または差分二乗値を差分値として算出する。
 尚、第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータとは、画像内の全ての画素の画素値とは限らない。例えば、ネットワークにおける画像伝送を伴う場合には、伝送エラーなどにより、画像内の一部の画素集合の値しか取得できない場合もある。また、第2の画像の特徴量を表すデータを1画素おきに送信するなど、伝送負荷を減らすために予め画像内の一部の画素値しか送信しない場合もある。これらの場合は、第1の画像及び第2の画像の両方で参照可能なフレーム、位置のデータについてのみ、差分値を算出する。
 注視領域度算出部202は、注視領域の度合いを示す注視領域度を算出する。本実施の形態では画素集合は1画素であるので、上述した第1の実施の形態の対象画素度がそのまま注視領域度と考えて説明する。
 注視領域度算出部202は、まず、入力された画素値から各画素が注視領域の対象となる対象画素であるかを判定する。
 本実施の形態では、一例として、人の肌に近い色を表す画素を対象画素として定義する。具体的には、入力された画素の画素値が、色空間の特定の範囲に含まれるかに応じて対象画素であるかを判定する。色空間の一例としては、輝度値、色差値で表現されるYCbCr色空間や、赤、青、緑の3原色を示すRGB値で表現されるRGB色空間などが挙げられる。なお、対象画素の定義は、人の肌に近い色であることに限られるものではなく、他の定義であってもよい。例えばYCbCr色空間を利用した場合は、各画素の、輝度Y、青色差Cb、赤色差Cr、の値が画素値として注視領域度算出部102に入力される。
 さらに、入力された画素の画素値が、特定の色を持つ場合、当該対象画素が注視領域であると判定する。一般に、人間は映像中に写っている人物を注視する傾向があるので、人間の肌色に近い色を前記特定の色と定義する。具体的には、特定の色は、主観実験(目視)により、肌色に近い色と認識された色をRGB色空間表現した場合のRGB空間での範囲がすべて含まれるような、YCbCr色空間上での範囲として定義する。したがって、RGB表現での肌色よりも広い範囲が該当することになる。前記主観実験により、輝度Yが48<Y<224、青色差Cbが104<Cb<125、赤色差Crが135<Cr<171の範囲にある場合に、人間の肌色に近い色とみなし、この画素を対象画素と判定する。画素値の範囲は上述した値の範囲に限られるものではなく、他の値であってもよい。
 次に、各画素が対象画素であるか否かの判定結果に基づいて、各画素の注視領域度を算出して出力する。例えば、対象画素である画素の注視領域度を1、対象画素でない画素の注視領域度を0とする。尚、注視領域度は、上述した0、1という値でなく、連続値や多段階の値であってもよい。他にも、対象画素の近傍にある画素の注視領域度を0.5と設定するようにしてもよい。これは、人が画像を見る際には、画素の近傍にある画素も視界に入ることを考慮したものである。
 また、対象画素の判定は、上記の方法によらず例えば視聴者の視線を検出するなど他の方法でおこなってもよい。
 差分重み付け部203は、注視領域度算出部202において算出された注視領域度を用いて、1画素ごとに差分算出部101において算出された差分に対して重み付けを行い、重み付け差分値を出力する。
 以下、注視領域度算出部202において、各画素の注視領域度が0、1の値で算出されたときの重み付けの一例を説明する。注視領域度が1と算出された画素では差分値をA倍し、注視領域度が0と算出された画素では差分値をB倍する。A、Bは重み付け係数であり、A>Bとする。たとえば、注視領域度が1と算出された画素では差分値を2倍し、注視領域度が1と算出された画素では差分値を1倍するなどの処理をおこなう。
 他の例として、各画素の注視領域度が連続値で算出された場合には、重み付け係数=1+注視領域度、などのように定義してもよい。
 画質値算出部204では、差分重み付け部203により重み付けされた重み付け差分値に基づいて、第1の画像の画質を評価する画質値を出力する。画質値は、例えば、第1の画像全体の重み付け差分値の平均値などの形で計算される。出力する画質評価値は、平均値としてそのまま出力してもよいし、SN比など別の形に変換した上で出力してもよい。
 <第3の実施の形態>
 次に、本発明における第3の実施の形態について詳細に説明する。
 図4を参照すると、本発明の第3の実施の形態における画像評価システムは、差分算出部301と注視領域度算出部302と差分重み付け部303と画質値算出部304とから構成されている。
 第3の実施の形態は、注視領域度算出部302で画素集合ごとに注視領域度を算出する際に、前記画素集合が1画素ではなく複数の画素の集合であり、注視領域を画素集合(ブロック)単位で特定する点で、第1の実施の形態と異なる。尚、本実施の形態では、差分算出部301でも、上記画素集合と同じ画素集合ごとに第1の画像の特徴量を表すデータと第2の画像の特徴量を表すデータが入力された場合を説明する。その他の構成については、第1の実施の形態と同様であるため、説明を省略する。
 差分算出部301には、第1の画像の特徴量を表すデータと、第2の画像の特徴量を表すデータとが入力される。例えば、画素集合内の画素値の平均値が入力された場合は、第1の画像のあるフレームのある位置における画素集合内の画素値の平均値と、第2の画像の、第1の画像と同時刻のフレームで同位置の画素集合内の画素値の平均値の、差分の絶対値を差分値として算出する。
 注視領域度算出部302には、第1の実施の形態と同様に第1の画像の少なくとも一部の画素の画素値が入力され、入力された各画素が対象画素であるかを判定する。判定方法については、第1の実施の形態と同様であるため、説明を省略する。
 次に、各画素が対象画素であるか否かの判定結果に基づいて、複数の画素の集合である画素集合ごとに、注視領域度を算出して出力する。
 一例として、画素集合が16画素×16画素のブロックである場合の注視領域度の算出方法を説明する。まず、画素集合内の対象画素と判定された画素数を集計する。画素数が所定の閾値(例えば128)以上である場合はその画素集合の注視領域度を1、閾値未満である場合は0、などのように算出する。他にも、注視領域度=対象画素と判定された画素数/画素集合内の画素数、などのように定義してもよい。例えば対象画素と判定された画素数が30である場合は、その画素集合の注視領域度は30/(16×16)となる。
 また、判定対象となる画素集合内で対象画素と判定された画素数を集計するだけでなく、画素集合の近傍の画素集合も含めた範囲内で、対象画素と判定された画素数を集計してもよい。これは、人が画像を見る際には、画素集合の近傍にある画素集合も視界に入ることを考慮したものである。さらに同様の理由により、注視領域度が非ゼロである画素集合の近傍で、注視領域度がゼロとなっている画素集合に対して、この画素集合の注視領域度が非ゼロとなるようにしてもよい。
 一例として、画素集合が16画素×16画素のブロックで、図5に示した範囲を近傍の画素集合とする場合で説明する。
 判定対象の画素集合の注視領域度を算出する際に、判定対象の画素集合と近傍の画素集合をあわせた範囲(48画素×48画素のブロック)で、対象画素と判定された画素数を集計する。対象画素と判定された画素数が55であった場合は、55/(48×48)が、判定対象の画素集合の注視領域度となる。なお、この注視領域度の算出方法に限るものではなく、判定対象の画素集合であるか近傍の画素集合であるかに応じて重み付けを行うなど、様々な方法が考えられる。
 本実施の形態では、複数の画素の集合である画素集合毎に注視領域を特定し、その画像集合の注視領域度を算出することで、より、人が実際に注視している度合いと相関が高い値を算出することができる。なぜなら、1画素のみが対象画素である場合より、ある一定以上の範囲が対象画素である場合に注視するからである。例えば、肌の色に近い画素値を持つ1画素ではなく、肌の色に近い画素値をもつ画素の一定以上の範囲(顔全体など)を、人はより注視する傾向がある。
 なお、画素集合を規定する際に、オブジェクト認識部などの構成を設けて予め画像のオブジェクト認識を行っておき、オブジェクトごとに画素集合を設定するような形態としてもよい。オブジェクトごとに注視領域度を算出することで、より精度の高い注視領域度の算出が可能となる。
 <第4の実施の形態>
 次に、本発明における第4の実施の形態について図6を参照して説明する。第4の実施の形態では、上述した第1の実施の形態に示される動画像処理装置をコンピュータシステムにより実行する。
 図6を参照すると、本システムはプログラム制御プロセッサ401が装備されている。プログラム制御プロセッサ401には、第1の画像データバッファ402および第2の画像データバッファ403の他に、必要なプログラムを格納したプログラムメモリ404が接続されている。プログラムメモリ404に格納されるプログラムモジュールは、メインプログラム405の他に、差分算出処理モジュール406、注視領域度算出処理モジュール407、差分重み付け処理モジュール408、画質算出処理モジュール409で構成される。メインプログラム405は、画質評価処理を実行する主プログラムである。差分算出モジュール406、注視領域度算出処理モジュール407、差分重み付け処理モジュール408、画質算出処理モジュール409のプログラムモジュールは、上述した差分算出部101と注視領域度算出部102と差分重み付け部103と画質算出部104をそれぞれ機能的に実現するための処理モジュールである。
 本発明の実施例を説明する。
 本発明は第1の実施の形態の具体例である。
 本実施例では、原画像である第2の画像は、SDTVサイズ(水平720画素、垂直480画素、1秒あたり29.97フレーム)の動画像である。また、評価対象画像である第1の画像は、動画像をMPEG-2方式4Mbpsで符号化し、この符号化画像を復号して得られる動画像である。
 図7は、本実施例の動作をフローチャートで表したものである。
 ステップ201では、第2の画像1フレーム分の画像データが差分算出部201に入力される。ステップ202では、前記第2の画像1フレーム分の画像データと同時刻の、第1の画像1フレーム分の画像データが差分算出部201に入力される。ステップ203では、差分算出部201が、各画像データの同一位置の画素値を抽出し、各画素値の差分絶対値を差分値として算出する。ある位置における第2の画像の輝度値Yが50、第1の画像の輝度値Yが52であったとすると、差分値は2となる。
 ステップ204では、注視領域度算出部202が、ステップ203で抽出した第1の画像の画素値から、その画素が対象画素であるかを判定する。そして、対象画素である場合にはその画素の注視領域度を1、対象画素でない場合にはその画素の注視領域度を0とする。具体的には、画素値が、輝度Yが48<Y<224、青色差Cbが104<Cb<125、赤色差Crが135<Cr<171の範囲にある場合は対象画素であると判定するものとする。例えば、第1の画像の輝度値Yが52、青色差Cbが110、赤色差Crが150の場合は、上述の範囲内であるため、対象画素であると判定され、その画素の注視領域度は1である。
 画素の注視領域度が1である場合は、ステップ205において、差分重み付け部103がその画素に対応する差分値を2倍した値を重み付け差分値とする。画素の注視領域度が0である場合は、ステップ206において、差分重み付け部103が差分値を1倍した値を重み付け差分値とする。
 ステップ207では、重み付け差分値の画像全体の合計値を求めるために、重み付け差分値を変数Sumに加算する。変数Sumは初期値をゼロとする。
 ステップ208では、1フレームすべての画素での差分計算が完了しているか否かを調べる。完了していない場合は、ステップ203に戻り、まだ差分計算が完了していない画素についても同様の処理をおこなう。
 完了している場合は、ステップ209で、第1の画像の全フレームにおいて処理が完了しているか否かを調べる。完了していない場合は、ステップ201に戻り、次フレーム以降について、同様の処理をおこなう。完了している場合は、ステップ210で、画質算出部104が重み付け差分値の画像全体の合計値Sumを、画質値として出力する。以上の動作で、処理が終了する。
 以上の如く、本発明の第1の態様は、第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出する差分算出部と、前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出する注視領域度算出部と、前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行う差分重み付け部と、前記差分重み付け部により重み付けされた差分に基づいて、前記第1の画像の画質値を算出する画質値算出部とを有することを特徴とする画質評価システムである。
 本発明の第2の態様は、上記態様において、前記注視領域度算出部は、注視領域の判定を前記画素集合単位で行うことを特徴とする。
 本発明の第3の態様は、上記態様において、前記注視領域度算出部は、前記第1の画像または前記第2の画像を構成する画素の画素値の少なくともいずれかに基づいて、前記画素が前記注視領域の対象となる対象画素であるかを判定し、前記対象画素に基づいて少なくとも1以上の画素からなる注視領域を判定することを特徴とする。
 本発明の第4の態様は、上記態様において、前記注視領域度算出部は、画素の画素値が、色空間の特定の範囲に含まれる場合に、前記画素を対象画素であると判定することを特徴とする。
 本発明の第5の態様は、上記態様において、前記色空間の特定の範囲とは、輝度値及び色差値で表現されるYCbCr色空間で定義された所定の範囲であることを特徴とする。
 本発明の第6の態様は、上記態様において、前記色空間の特定の範囲とは、輝度を示す値Yが48<Y<224かつ青色差を示す値Cbが104<Cb<125かつ赤色差を示す値Crが135<Cr<171の範囲であることを特徴とする。
 本発明の第7の態様は、上記態様において、前記色空間の特定の範囲とは、赤、青、緑の3原色を示すRGB値で表現されるRGB色空間上で定義された所定の範囲であることを特徴とする。
 本発明の第8の態様は、上記態様において、前記注視領域度算出部は、前記対象画素と判定された画素の画素集合の注視領域度を1、前記対象画素でないと判定された画素の画素集合の注視領域度を0と算出することを特徴とする。
 本発明の第9の態様は、上記態様において、前記注視領域度算出部は、前記画素集合内の画素のうち前記対象画素と判定された画素数を集計し、前記集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする。
 本発明の第10の態様は、上記態様において、前記注視領域度算出部は、前記画素集合内の画素のうち対象画素と判定された画素数と、前記画素集合の近傍の画素のうち対象画素と判定された画素数とを集計し、集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする。
 本発明の第11の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素のうち少なくとも一部の画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報であることを特徴とする。
 本発明の第12の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値であることを特徴とする。
 本発明の第13の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値と前記画素集合内の各画素の前記情報との差分絶対値の前記画像集合の平均値であることを特徴とする。
 本発明の第14の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の分散値であることを特徴とする。
 本発明の第15の態様は、第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出し、前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出し、前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行い、前記重み付けされた差分に基づいて、前記第1の画像の画質値を算出することを特徴とする画質評価方法である。
 本発明の第16の態様は、上記態様において、前記注視領域の判定を前記画素集合単位で行うことを特徴とする。
 本発明の第17の態様は、上記態様において、前記第1の画像または前記第2の画像を構成する画素の画素値の少なくともいずれかに基づいて、前記画素が前記注視領域の対象となる対象画素であるかを判定し、前記対象画素に基づいて少なくとも1以上の画素からなる注視領域を判定することを特徴とする。
 本発明の第18の態様は、上記態様において、画素の画素値が、色空間の特定の範囲に含まれる場合に、前記画素を対象画素であると判定することを特徴とする。
 本発明の第19の態様は、上記態様において、前記色空間の特定の範囲とは、輝度値及び色差値で表現されるYCbCr色空間で定義された所定の範囲であることを特徴とする。
 本発明の第20の態様は、上記態様において、前記色空間の特定の範囲とは、輝度を示す値Yが48<Y<224かつ青色差を示す値Cbが104<Cb<125かつ赤色差を示す値Crが135<Cr<171の範囲であることを特徴とする。
 本発明の第21の態様は、上記態様において、前記色空間の特定の範囲とは、赤、青、緑の3原色を示すRGB値で表現されるRGB色空間上で定義された所定の範囲であることを特徴とする。
 本発明の第22の態様は、上記態様において、前記対象画素と判定された画素の画素集合の注視領域度を1、前記対象画素でないと判定された画素の画素集合の注視領域度を0と算出することを特徴とする。
 本発明の第23の態様は、上記態様において、画素集合内の画素のうち前記対象画素と判定された画素数を集計し、前記集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする。
 本発明の第24の態様は、上記態様において、画素集合内の画素のうち対象画素と判定された画素数と、前記画素集合の近傍の画素のうち対象画素と判定された画素数とを集計し、集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする。
 本発明の第25の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素のうち少なくとも一部の画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報であることを特徴とする。
 本発明の第26の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値であることを特徴とする。
 本発明の第27の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値と前記画素集合内の各画素の前記情報との差分絶対値の前記画像集合の平均値であることを特徴とする。
 本発明の第28の態様は、上記態様において、前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の分散値であることを特徴とする。
 本発明の第29の態様は、第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出する処理と、前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出する処理と、前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行う処理と、前記重み付けされた差分に基づいて、前記第1の画像の画質値を算出する処理とを情報処理装置に実行させることを特徴とするプログラムである。
 以上好ましい実施の形態、実施例及び態様をあげて本発明を説明したが、本発明は必ずしも上記実施の形態及び態様に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
 本出願は、2008年4月30日に出願された日本出願特願2008-118349号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 

Claims (29)

  1.  第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出する差分算出部と、
     前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出する注視領域度算出部と、
     前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行う差分重み付け部と、
     前記差分重み付け部により重み付けされた差分に基づいて、前記第1の画像の画質値を算出する画質値算出部と
    を有することを特徴とする画質評価システム。
  2.  前記注視領域度算出部は、注視領域の判定を前記画素集合単位で行うことを特徴とする請求項1に記載の画質評価システム。
  3.  前記注視領域度算出部は、前記第1の画像または前記第2の画像を構成する画素の画素値の少なくともいずれかに基づいて、前記画素が前記注視領域の対象となる対象画素であるかを判定し、前記対象画素に基づいて少なくとも1以上の画素からなる注視領域を判定することを特徴とする請求項1又は請求項2に記載の画質評価システム。
  4.  前記注視領域度算出部は、画素の画素値が、色空間の特定の範囲に含まれる場合に、前記画素を対象画素であると判定することを特徴とする請求項3に記載の画質評価システム。
  5.  前記色空間の特定の範囲とは、輝度値及び色差値で表現されるYCbCr色空間で定義された所定の範囲であることを特徴とする請求項4に記載の画質評価システム。
  6.  前記色空間の特定の範囲とは、輝度を示す値Yが48<Y<224かつ青色差を示す値Cbが104<Cb<125かつ赤色差を示す値Crが135<Cr<171の範囲であることを特徴とする請求項4に記載の画質評価システム。
  7.  前記色空間の特定の範囲とは、赤、青、緑の3原色を示すRGB値で表現されるRGB色空間上で定義された所定の範囲であることを特徴とする請求項4に記載の画質評価システム。
  8.  前記注視領域度算出部は、前記対象画素と判定された画素の画素集合の注視領域度を1、前記対象画素でないと判定された画素の画素集合の注視領域度を0と算出することを特徴とする請求項3に記載の画質評価システム。
  9.  前記注視領域度算出部は、前記画素集合内の画素のうち前記対象画素と判定された画素数を集計し、前記集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする請求項3に記載の画質評価システム。
  10.  前記注視領域度算出部は、前記画素集合内の画素のうち対象画素と判定された画素数と、前記画素集合の近傍の画素のうち対象画素と判定された画素数とを集計し、集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする請求項3に記載の画質評価システム。
  11.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素のうち少なくとも一部の画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報であることを特徴とする請求項1に記載の画質評価システム。
  12.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値であることを特徴とする請求項1に記載の画質評価システム。
  13.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値と前記画素集合内の各画素の前記情報との差分絶対値の前記画像集合の平均値であることを特徴とする請求項1に記載の画質評価システム。
  14.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の分散値であることを特徴とする請求項1に記載の画質評価システム。
  15.  第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出し、
     前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出し、
     前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行い、
     前記重み付けされた差分に基づいて、前記第1の画像の画質値を算出する
    ことを特徴とする画質評価方法。
  16.  前記注視領域の判定を前記画素集合単位で行うことを特徴とする請求項15に記載の画質評価方法。
  17.  前記第1の画像または前記第2の画像を構成する画素の画素値の少なくともいずれかに基づいて、前記画素が前記注視領域の対象となる対象画素であるかを判定し、前記対象画素に基づいて少なくとも1以上の画素からなる注視領域を判定することを特徴とする請求項15又は請求項16に記載の画質評価方法。
  18.  画素の画素値が、色空間の特定の範囲に含まれる場合に、前記画素を対象画素であると判定することを特徴とする請求項17に記載の画質評価方法。
  19.  前記色空間の特定の範囲とは、輝度値及び色差値で表現されるYCbCr色空間で定義された所定の範囲であることを特徴とする請求項18に記載の画質評価方法。
  20.  前記色空間の特定の範囲とは、輝度を示す値Yが48<Y<224かつ青色差を示す値Cbが104<Cb<125かつ赤色差を示す値Crが135<Cr<171の範囲であることを特徴とする請求項18に記載の画質評価方法。
  21.  前記色空間の特定の範囲とは、赤、青、緑の3原色を示すRGB値で表現されるRGB色空間上で定義された所定の範囲であることを特徴とする請求項18に記載の画質評価方法。
  22.  前記対象画素と判定された画素の画素集合の注視領域度を1、前記対象画素でないと判定された画素の画素集合の注視領域度を0と算出することを特徴とする請求項17に記載の画質評価方法。
  23.  画素集合内の画素のうち前記対象画素と判定された画素数を集計し、前記集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする請求項17に記載の画質評価方法。
  24.  画素集合内の画素のうち対象画素と判定された画素数と、前記画素集合の近傍の画素のうち対象画素と判定された画素数とを集計し、集計結果に基づき前記画素集合の注視領域度を算出することを特徴とする請求項17に記載の画質評価方法。
  25.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素のうち少なくとも一部の画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報であることを特徴とする請求項15に記載の画質評価方法。
  26.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値であることを特徴とする請求項15に記載の画質評価方法。
  27.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の平均値と前記画素集合内の各画素の前記情報との差分絶対値の前記画像集合の平均値であることを特徴とする請求項15に記載の画質評価方法。
  28.  前記第1の画像の特徴量を表すデータ及び第2の画像の特徴量を表すデータは、前記第1の画像及び前記第2の画像を構成する画素集合のうち少なくとも一部の画素集合の、前記画素集合に含まれる画素の、輝度値、色差値、RGB値のいずれか、もしくはそれらを組み合わせた情報の分散値であることを特徴とする請求項15に記載の画質評価方法。
  29.  第1の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータと、第2の画像を構成する少なくとも1画素からなる画素集合の特徴量を表すデータとの差分を算出する処理と、
     前記第1の画像又は前記第2の画像の少なくとも一方を用いて、所定の特徴を有する画像の注視領域を判定し、前記注視領域の度合いを示す注視領域度を算出する処理と、
     前記注視領域度に基づいて、前記注視領域に含まれる画素集合の特徴量の差分に重み付けを行う処理と、
     前記重み付けされた差分に基づいて、前記第1の画像の画質値を算出する処理と
    を情報処理装置に実行させることを特徴とするプログラム。
     
     
PCT/JP2009/058385 2008-04-30 2009-04-28 画質評価システム、方法およびプログラム WO2009133900A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010510146A JP5569808B2 (ja) 2008-04-30 2009-04-28 画質評価システム、方法およびプログラム
US12/922,817 US8503822B2 (en) 2008-04-30 2009-04-28 Image quality evaluation system, method, and program utilizing increased difference weighting of an area of focus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008118349 2008-04-30
JP2008-118349 2008-04-30

Publications (1)

Publication Number Publication Date
WO2009133900A1 true WO2009133900A1 (ja) 2009-11-05

Family

ID=41255116

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/058385 WO2009133900A1 (ja) 2008-04-30 2009-04-28 画質評価システム、方法およびプログラム

Country Status (3)

Country Link
US (1) US8503822B2 (ja)
JP (1) JP5569808B2 (ja)
WO (1) WO2009133900A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027409A (ja) * 2012-07-25 2014-02-06 Fujitsu Ltd 画像選択方法、画像選択装置、符号化装置、画像選択システム、画像選択プログラム、符号化プログラム、及び画像符号化選択プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649625B2 (en) * 2007-04-25 2014-02-11 Nec Corporation Method, device and program for measuring image quality adjusting ability, and method, device and program for adjusting image quality
JP2012234257A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像処理装置と画像処理方法およびプログラム
US9754237B2 (en) * 2015-12-18 2017-09-05 Ricoh Co., Ltd. Index image quality metric
CN110290381B (zh) * 2019-08-01 2020-10-30 字节跳动(香港)有限公司 视频质量评估方法、装置、电子设备及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09307930A (ja) * 1996-05-10 1997-11-28 Kokusai Denshin Denwa Co Ltd <Kdd> ディジタル画像品質評価装置
JP2001197527A (ja) * 1999-11-11 2001-07-19 Tektronix Inc 実時間人間視覚システム行動モデル化方法
JP2004260602A (ja) * 2003-02-26 2004-09-16 Kddi Corp 画像劣化自動検出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6239834B1 (en) * 1996-01-11 2001-05-29 Kokusai Denshin Denwa Co., Ltd. Apparatus for evaluating digital picture quality
JP2000348189A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP3622840B2 (ja) * 2000-08-25 2005-02-23 Kddi株式会社 伝送画質評価装置および伝送画質遠隔監視装置
JP2006190259A (ja) * 2004-12-06 2006-07-20 Canon Inc 手ぶれ判定装置及び画像処理装置及びその制御方法及びプログラム
JP4755490B2 (ja) * 2005-01-13 2011-08-24 オリンパスイメージング株式会社 ブレ補正方法および撮像装置
JP4821348B2 (ja) * 2006-02-07 2011-11-24 トヨタ自動車株式会社 道路区間線検出装置及び方法並びにプログラム
JP4624947B2 (ja) * 2006-03-22 2011-02-02 富士フイルム株式会社 画像のトリミング方法および装置並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09307930A (ja) * 1996-05-10 1997-11-28 Kokusai Denshin Denwa Co Ltd <Kdd> ディジタル画像品質評価装置
JP2001197527A (ja) * 1999-11-11 2001-07-19 Tektronix Inc 実時間人間視覚システム行動モデル化方法
JP2004260602A (ja) * 2003-02-26 2004-09-16 Kddi Corp 画像劣化自動検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027409A (ja) * 2012-07-25 2014-02-06 Fujitsu Ltd 画像選択方法、画像選択装置、符号化装置、画像選択システム、画像選択プログラム、符号化プログラム、及び画像符号化選択プログラム

Also Published As

Publication number Publication date
JPWO2009133900A1 (ja) 2011-09-01
US20110013830A1 (en) 2011-01-20
JP5569808B2 (ja) 2014-08-13
US8503822B2 (en) 2013-08-06

Similar Documents

Publication Publication Date Title
JP5708916B2 (ja) 画像評価方法、画像評価システム及びプログラム
US9609291B2 (en) Image processing apparatus and image processing method, and program
CN104272346B (zh) 用于细节增强和降噪的图像处理方法
Winkler Visual fidelity and perceived quality: Toward comprehensive metrics
CN102111546B (zh) 图像处理方法、图像处理设备和摄像设备
JP5569808B2 (ja) 画質評価システム、方法およびプログラム
US9947258B2 (en) Image processing method and image processing apparatus
WO2009133884A1 (ja) 画質評価方法、画質評価システムおよびプログラム
CN102339461A (zh) 图像增强方法和设备
Dimauro A new image quality metric based on human visual system
US11202045B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN110175967B (zh) 图像去雾处理方法、系统、计算机设备和存储介质
CN107248147A (zh) Raw‑rgb图像中坏点消除的方法
CN108805852B (zh) 一种图像空域噪声的评估方法及装置
Rajashekar et al. Quantifying color image distortions based on adaptive spatio-chromatic signal decompositions
US20210158487A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
KR101329136B1 (ko) 영상 시퀀스 디스플레이에 대한 몰입감 향상 방법 및시스템
EP2384006B1 (en) Image processing device, image processing method, and storage medium
Chandrakanth et al. Quality assessment of images using ssim metric and ciede2000 distance methods in lab color space
JP2006201983A (ja) 画質評価装置および画質評価方法
Lissner et al. Predicting image differences based on image-difference features
KR100612667B1 (ko) 예측치 보정을 이용한 동영상 화질 평가장치 및 방법
KR20200053591A (ko) 화상처리장치, 화상처리방법 및 화상처리 프로그램을 기록한 기록 매체
Wazirali et al. Objective quality metrics in correlation with subjective quality metrics for steganography
Wang et al. Image quality assessment based on improved feature similarity metric

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09738837

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12922817

Country of ref document: US

Ref document number: 2010510146

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09738837

Country of ref document: EP

Kind code of ref document: A1