WO2005020592A1 - 映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム - Google Patents

映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム Download PDF

Info

Publication number
WO2005020592A1
WO2005020592A1 PCT/JP2004/011992 JP2004011992W WO2005020592A1 WO 2005020592 A1 WO2005020592 A1 WO 2005020592A1 JP 2004011992 W JP2004011992 W JP 2004011992W WO 2005020592 A1 WO2005020592 A1 WO 2005020592A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
video signal
degraded
frame
reference video
Prior art date
Application number
PCT/JP2004/011992
Other languages
English (en)
French (fr)
Inventor
Jun Okamoto
Takaaki Kurita
Original Assignee
Nippon Telegraph And Telephone Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph And Telephone Corporation filed Critical Nippon Telegraph And Telephone Corporation
Priority to EP04771953.9A priority Critical patent/EP1622395B1/en
Priority to US10/556,103 priority patent/US7705881B2/en
Priority to CA2525812A priority patent/CA2525812C/en
Priority to JP2005513306A priority patent/JP4257333B2/ja
Publication of WO2005020592A1 publication Critical patent/WO2005020592A1/ja
Priority to US12/717,983 priority patent/US8253803B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Definitions

  • Video quality evaluation device video quality evaluation method and video quality evaluation program
  • video matching device video matching method and video matching program
  • the present invention relates to a video quality evaluation device for estimating subjective quality from measurement of physical features of a video signal without performing a subjective quality evaluation test in which a human looks at an actual video and evaluates the quality.
  • the present invention relates to a quality evaluation method and a video quality evaluation program.
  • a space between a reference video signal and a degraded video signal whose quality has been degraded through code transmission network transmission or the like In a video quality evaluation device, a video quality evaluation method, and a video quality evaluation program, a space between a reference video signal and a degraded video signal whose quality has been degraded through code transmission network transmission or the like.
  • the present invention relates to a video matching device, a video matching method, and a video matching program for performing temporal and temporal position matching.
  • the quality of video information is degraded through some processing, for example, encoding or network transmission.
  • some processing for example, encoding or network transmission.
  • the degree of deterioration that a person actually sees and perceives is called subjective quality.
  • the subjective quality of a video is such a power that a subjective evaluation value can be accurately estimated if the video is limited.
  • ANSI T1.801.03-1996 "Digital Transport of One-Way Video Signals Parameters ror Objective Performance Assessment; Okamoto, Naohashi, Okamoto, Kurita, and Takahashi, "A Study on the Application of Objective Video Quality Evaluation Techniques", Sep. 2002 .; 2003.)
  • the subjective quality judged as a result is often different even for the same degree of deterioration, since the quality of a given image greatly depends on the nature of the image.
  • the spatial and temporal differences between the reference video signal and the degraded video signal are premised on comparing the physical features of the reference video signal and the degraded video signal. Position must be consistent. In other words, it is necessary that the time-direction shift and the spatial position shift match between the reference video signal and the deteriorated video signal.
  • the present invention provides a video quality evaluation device, a video quality evaluation method, and a video quality evaluation program that can accurately and uniformly estimate the subjective quality of an arbitrary video.
  • the purpose is to provide.
  • the present invention when comparing the physical feature amounts of the reference video signal and the degraded video signal in estimating the subjective quality, it is possible to reliably match their spatial and temporal positions. It is an object to provide a video matching device, a video matching method, and a video matching program.
  • the invention according to the first aspect is characterized in that a reference video signal that is an undegraded video signal and a degraded video signal whose reference video signal has been degraded are input, and the video of both signals is input.
  • a subjective quality estimating unit for calculating a signal characteristic amount and estimating a subjective quality of the degraded video signal based on a difference between the calculated video signal characteristic amounts of the two signals; and correction information for correcting the subjective quality.
  • a video quality product comprising: a subjective quality correction unit that obtains from the storage unit and corrects the estimated subjective quality based on the obtained correction information.
  • the quality evaluation device is the gist.
  • the invention according to a second aspect is the invention according to the first aspect, wherein the subjective quality estimating unit includes: spatial information indicating a video state in each frame of the video included in the video signal; The gist is that the subjective quality is estimated based on at least one of the time information indicating the video change at the time and the difference between the deteriorated video signal and the reference video signal.
  • the subjective quality estimating unit comprises a video signal characteristic difference between the degraded video signal and the reference video signal. It is necessary to calculate at least one of the edge power amount (E) indicating the amount of deterioration in each frame of the video included in the frame and the motion power amount (M) indicating the amount of deterioration between frames.
  • E edge power amount
  • M motion power amount
  • the subjective quality estimating unit is configured to include at least one of spatial information and temporal information which are also referred to in ITU-R Recommendation P.910.
  • the gist is to estimate the subjective quality based on the difference between the deteriorated video signal and the reference video signal.
  • the correction information storage section includes a correction coefficient as correction information for correcting the subjective quality, wherein the correction coefficient includes a correction coefficient.
  • the gist of the present invention is to store and store the space information indicating the video state in each frame and the time information indicating a video change between frames.
  • the invention according to a sixth aspect is the invention according to the first aspect, wherein the subjective quality estimating unit receives the reference video signal and the degraded video signal, and outputs a reference video from the reference video signal. Time shift between the frame and the degraded video frame from the degraded video signal;
  • An alignment information generating unit that generates alignment information on a spatial shift between the reference video frame and the degraded video frame, and eliminates the spatial shift and the temporal shift based on the alignment information. Then, a spatial feature calculating unit that calculates each spatial feature based on the spatial information indicating the video state of the reference video frame and the degraded video frame, and the spatial feature calculating unit that calculates the spatial feature based on the alignment information. After eliminating the shift and the time shift, the time information indicating the video change between each of the reference video frame and the deteriorated video frame is added to the time information.
  • the present invention is characterized in that it comprises a time feature value calculation unit that calculates each time feature value based on the above, and an estimation unit that estimates the subjective quality of the deteriorated video signal based on the spatial feature value and the time feature value. .
  • the invention according to a seventh aspect is directed to a method for correcting an estimated subjective quality of a deteriorated video signal in which a reference video signal which is an undegraded video signal is deteriorated.
  • a video quality evaluation method in a video quality evaluation device comprising: a correction information storage unit for storing correction information corresponding to a video signal feature amount, and estimating a subjective quality of the degraded video signal.
  • a reference video signal and the degraded video signal are input, a video signal characteristic amount of both signals is calculated, and the subjective quality of the degraded video signal is calculated based on a difference between the calculated video signal characteristic amounts of both signals.
  • Estimated and calculated correction information corresponding to the calculated video signal characteristic amount of the reference video signal from the correction information storage unit, and corrects the estimated subjective quality based on the obtained correction information. Summarize the evaluation method .
  • the invention according to an eighth aspect provides a computer which inputs a reference video signal which is a video signal which has not deteriorated and a deteriorated video signal which has deteriorated the reference video signal.
  • a subjective quality estimating means for calculating a video signal characteristic amount of both signals, and estimating a subjective quality of the degraded video signal based on a difference between the calculated video signal characteristic amounts of both signals; and Correction information storing means for storing correction information for correction corresponding to the video signal characteristic amount; and obtaining correction information corresponding to the calculated video signal characteristic amount of the reference video signal from the correction information storing means.
  • the gist of the present invention is a video quality evaluation program for functioning as subjective quality correction means for correcting the estimated subjective quality based on the acquired correction information.
  • the invention according to a ninth aspect relates to a method of inputting a reference video signal which is an undegraded video signal and a degraded video signal whose reference video signal has been degraded. It generates alignment information about a temporal shift between a reference video frame from the reference video signal and a deteriorated video frame from the degraded video signal and a spatial shift between the reference video frame and the degraded video frame.
  • An alignment information generating unit that performs the spatial offset and the time offset based on the alignment information
  • a spatial feature calculating unit that calculates respective spatial features based on the spatial information indicating the video state of the reference video frame and the degraded video frame
  • a spatial feature calculating unit that calculates the spatial feature based on the alignment information. After eliminating the shift and the time shift, the time for calculating the time feature amount of each of the reference video frame and the degraded video frame based on time information indicating a video change between the respective frames.
  • the gist of the present invention is a video quality evaluation device that includes a feature amount calculation unit and a subjective quality estimation unit that estimates a subjective quality of the degraded video signal based on the spatial feature amount and the temporal feature amount.
  • the invention according to a tenth aspect is the invention according to the ninth aspect, wherein the file format of the degraded video included in the degraded video signal is changed to the file format of the reference video included in the corresponding reference video signal. And a coefficient converter for outputting information related to the unified file format, and a coefficient for estimating the subjective quality of the degraded video signal corresponding to the information related to the file format. And a subjective coefficient estimating unit, wherein the subjective quality estimating unit stores the coefficient corresponding to the information related to the unified file format input from the format converting unit in the correction coefficient storing unit. And obtaining the subjective quality of the deteriorated video signal based on the spatial feature, the temporal feature, and the obtained coefficient.
  • the format conversion unit includes, as information relating to the unified file format, a signal format of the degraded video signal
  • the correction coefficient storage unit outputs at least one of the information amount of the degraded video signal transmitted by the video signal and the encoding method of the degraded video signal, and stores the signal format of the degraded video signal
  • the gist of the present invention is to store an optimal coefficient corresponding to at least one of the information amount of the degraded video transmitted by the signal and the encoding method of the degraded video signal.
  • the spatial feature quantity calculation unit is configured to determine a luminance value within a frame based on the reference video signal and the degraded video signal.
  • the gist of the present invention is to calculate an index for quantifying the deterioration occurring at a boundary where abruptly changes as the spatial feature amount.
  • the invention according to a thirteenth aspect is the invention according to the twelfth aspect, wherein the spatial feature amount calculation is performed.
  • the gist of the output section is to calculate the edge power amount specified in ANSI T1.801.03-1995 as a spatial feature amount based on the reference video signal and the degraded video signal.
  • the invention according to a fourteenth aspect is the invention according to the ninth, tenth, or twelfth aspect, wherein the spatial feature amount calculation unit compares the reference video frame with the reference video frame.
  • the gist is to calculate, as the spatial feature, an index for quantifying the degree of occurrence of a boundary in which the luminance value sharply changes in the corresponding deteriorated video frame in the horizontal and vertical directions.
  • the invention according to a fifteenth aspect is the invention according to the ninth, tenth, twelfth, or fourteenth aspect, wherein the temporal feature amount calculation unit is a set of one or more pixels in a frame.
  • the gist is to calculate the amount of change between frames of a video as the time feature based on the difference between the Temporal Information values.
  • the invention according to a sixteenth aspect is the invention according to the ninth or tenth aspect, wherein the correction information for correcting the subjective quality is stored in correspondence with a spatial feature amount and a temporal feature amount.
  • the correction information for correcting the subjective quality is stored in correspondence with a spatial feature amount and a temporal feature amount.
  • a subjective quality correction unit that corrects the estimated subjective quality based on the acquired correction information.
  • the invention according to a seventeenth aspect provides a method as described above, wherein a reference video signal which is an undegraded video signal and a degraded video signal whose reference video signal has been degraded are inputted. Generating alignment information regarding a temporal shift between a reference video frame from a video signal and a degraded video frame from the degraded video signal and a spatial shift between the reference video frame and the degraded video frame; After eliminating the spatial shift and the temporal shift based on the alignment information, each spatial characteristic amount is determined based on the spatial information indicating the video state of the reference video frame and the degraded video frame.
  • the reference video frame and the degraded video frame are calculated.
  • Stomach Calculating the respective temporal features based on the time information indicating the video change between the respective frames, and estimating the subjective quality of the degraded video signal based on the spatial features and the temporal features.
  • the summary is a video quality evaluation method.
  • the invention according to an eighteenth aspect provides a method as described above, wherein a reference video signal which is an undegraded video signal and a degraded video signal whose reference video signal has been degraded are inputted.
  • the file format of the degraded video included in the video signal is converted into the file format of the reference video included in the corresponding reference video signal, and information related to the unified file format is generated.
  • each spatial feature is calculated based on spatial information indicating the video state of the frame, and after eliminating the spatial shift and the temporal shift based on the alignment information, the reference video frame and the For each of the deteriorated video frames, a time feature amount is calculated based on time information indicating a video change between each frame, and the time feature amount is calculated based on the space feature amount, the time feature amount, and the unified file format.
  • the gist is a video quality evaluation method for estimating the subjective quality of the deteriorated video signal based on a coefficient for subjective quality estimation corresponding to the obtained information.
  • the invention according to a nineteenth aspect provides a computer, comprising: a reference video signal which is a video signal degraded; a degraded video signal in which the reference video signal is degraded; And a time shift between a reference video frame from the reference video signal and a degraded video frame from the degraded video signal, and a spatial shift between the reference video frame and the degraded video frame.
  • Alignment information generating means for generating alignment information; and displaying video states of the reference video frame and the degraded video frame after eliminating the spatial shift and the temporal shift based on the alignment information.
  • Spatial feature calculating means for calculating each spatial feature based on spatial information; and the spatial shift and the time based on the alignment information.
  • a time feature value calculating unit that calculates respective time feature values based on time information indicating a video change between the respective frames;
  • the gist of the present invention is a video quality evaluation program for functioning as subjective quality estimating means for estimating the subjective quality of the degraded video signal based on the temporal feature amount.
  • the invention according to a twentieth aspect is based on the invention according to the nineteenth aspect, wherein the computer is configured to convert the file format of the deteriorated video included in the degraded video signal into a reference video included in the corresponding reference video signal. And a format conversion means for outputting information related to the unified file format, and for estimating the subjective quality of the degraded video signal in association with the information related to the file format.
  • the subjective quality estimating means further stores the coefficient corresponding to the information relating to the unified file format input from the format converting means, as the correction coefficient storing means. And estimating the subjective quality of the degraded video signal based on the spatial feature, the temporal feature, and the obtained coefficient. And Abstract.
  • the invention according to a twenty-first aspect is characterized in that a reference video signal which is an undegraded video signal and a degraded video signal whose reference video signal has been degraded are input, A format converter for converting a file format of the degraded video included in the video signal into a file format of a reference video included in the corresponding reference video signal; a reference video frame included in the reference video signal and the degraded video signal; A display timing matching unit that matches the number and display timing of the degraded video frames included in the reference video frame and the target frame of the degraded video frame and the several frames before and after the reference video frame and the degraded video frame.
  • a synchronous Z position-aligning part to take integer engagement of the gist of the video aligning apparatus comprising a.
  • the invention according to a twenty-second aspect is based on the invention according to the twenty-first aspect, wherein the format conversion unit converts at least one of a data format, a size, and an aspect ratio of the degraded video, and The point is to match.
  • the display timing matching section is configured to, when a frame rate of the reference video frame is different from a frame rate of the degraded video frame, The gist is to match the frame rates of the reference video frame and the degraded video frame by interpolating or deleting frames.
  • the invention according to a twenty-fourth aspect is based on the invention according to the twenty-first aspect, wherein the display timing matching unit adjusts the display timing of the degraded video frame to the display timing of the reference video frame.
  • the display timing matching unit may determine whether the reference video frame and the degradation The point is that the display timing of both video frames is set to a predetermined time interval.
  • the synchronization / position matching unit includes a target frame of the reference video frame and the degraded video frame and several frames before and after the target frame. Macro synchronization processing for comparing the transition of the feature amount of the entire frame or the specific region thereof and determining the temporal correspondence between the reference video frame and the degraded video frame in which the deviation of the feature amount is minimized. The main point is to perform
  • the synchronization / position matching unit is configured to: While shifting the temporal correspondence relationship and the pixel correspondence relationship between the reference video frame and the degraded video frame, the respective feature amounts of the entire frame or a specific area thereof are compared, and the reference video frame in which the difference in the feature amount is minimized.
  • the point is to perform a micro synchronization / position matching process for determining a temporal correspondence relationship and a pixel correspondence relationship between the image and the deteriorated video frame.
  • the synchronization / position matching unit performs the macro synchronization processing and the micro synchronization / position matching processing initially. Make a summary.
  • the invention according to a twenty-ninth aspect is the invention according to the twenty-eighth aspect, wherein the synchronization / alignment is performed.
  • the gist is to sum up the duration of the freeze state by counting the number of frames when the deteriorated video frame falls into the freeze state.
  • the synchronization / position matching unit determines, for a target frame of the reference video frame and the degraded video frame, and several frames before and after the target frame. Deriving the respective characteristic amounts of the entire frame, and when the characteristic amount of the reference video frame is temporally changing while the characteristic amount of the degraded video frame is not temporally changing, The gist is to judge that the video frame has been frozen.
  • the synchronization / position matching unit determines whether the degraded video frame is in a frozen state or in which the reference video frame When synchronization is lost, the macro synchronization processing is performed again.
  • the invention according to a thirty-second aspect is the invention according to the twenty-eighth aspect, wherein the synchronization / position matching unit outputs the number of frame shifts when the degraded video frame falls into a frame shift state. That is the gist.
  • the invention according to a thirty-third aspect is based on the invention according to the twenty-first aspect, wherein the reference video signal and the degraded video signal are input from the synchronization / position matching unit, and luminance and color information of the degraded video are input. And a luminance / color correction unit that returns the degraded image combined with the luminance and color information to the synchronization / position matching unit.
  • the invention includes the steps of: inputting a reference video signal that is an undegraded video signal and a degraded video signal whose reference video signal has been degraded;
  • the file format of the degraded video included in the video signal is converted into the file format of the reference video included in the corresponding reference video signal, and the reference video frame included in the reference video signal and the degradation included in the degraded video signal are converted.
  • the number of video frames and the display timing are matched, and for the target frame of the reference video frame and the degraded video frame and a few frames before and after the target frame, the shift of the frame between the reference video frame and the degraded video frame, and the like.
  • the gist of the present invention is a video matching method for matching the correspondence between frames and the correspondence between pixels while monitoring the frozen state of the deteriorated video.
  • the invention according to a thirty-fifth aspect provides a computer, comprising: a reference video signal which is a video signal degraded; a degraded video signal in which the reference video signal is degraded; Format conversion means for converting the file format of the degraded video included in the degraded video signal into the file format of the reference video included in the corresponding reference video signal.
  • Display timing matching means for matching the number and the display timing of the video frame and the number of degraded video frames included in the degraded video signal; and the reference video frame, While monitoring the frame shift between the frame and the degraded video frame and the frozen state of the degraded video
  • the image matching program for functioning as a synchronous Z alignment means for matching correspondence relation between the involved and pixels and gist.
  • the invention according to the thirty-sixth aspect includes a reference video signal (RI) which is an undegraded video signal and a degraded video signal (PI) whose reference video signal has been degraded. And a format converter (41) for converting a file format of the deteriorated video included in the deteriorated video signal into a file format of the reference video included in the corresponding reference video signal, and a format converter (41) included in the reference video signal.
  • a display timing matching unit (42) for matching the number and display timing of the reference video frame and the deteriorated video frame included in the deteriorated video signal; and a target frame of the reference video frame and the deteriorated video frame and several frames before and after the target frame.
  • the gist is a video quality evaluation device including:
  • FIG. 1 is a block diagram showing a configuration of a first embodiment according to a video quality evaluation device of the present invention.
  • Garden 2 is a diagram showing correction information stored in the correction information database of FIG.
  • FIG. 3 is a diagram showing the relationship between the final estimated subjective quality Q after correction of the primary estimated subjective quality SQ by a correction formula and the actually measured subjective quality.
  • FIG. 4 is a block diagram showing a configuration of a second embodiment of the video quality evaluation device of the present invention.
  • FIG. 5 is a diagram for calculating the horizontal and vertical edge amounts used in the spatial feature amount calculation unit in FIG.
  • FIG. 6 is a block diagram showing a configuration of a third embodiment of the video quality evaluation device of the present invention.
  • FIG. 7 is a diagram showing a plurality of conditions and weighting factors corresponding to the conditions stored in the weighting factor database of FIG. 6;
  • FIG. 8 is a diagram in which standard video data used for verification in the embodiment of the present invention are classified into learning data and verification data and enumerated.
  • FIG. 9 is a distribution diagram of SI (spatial information) values and TI (time information) values calculated based on the learning data and the verification data of FIG.
  • FIG. 10 is a diagram showing a result of estimation of learning data based on a conventional peak SN ratio (PSNR).
  • PSNR peak SN ratio
  • FIG. 11 is a diagram showing a result of estimating learning data based on a conventional edge power (Ave-EE).
  • FIG. 12 is a diagram showing estimation results of learning data by the video quality evaluation devices according to the second and third embodiments of the present invention.
  • FIG. 13 is a diagram showing estimation results of verification data by the video quality evaluation devices of the second and third embodiments of the present invention.
  • FIG. 14 is a diagram showing a result of estimating learning data based on only the conventional edge power (Ave_EE).
  • FIG. 15 is a diagram showing the relationship between the minimum value of the horizontal and vertical edge amounts (Min_HV) and the subjective evaluation value.
  • FIG. 16 is a diagram showing a relationship between block average motion power (Ave—MEB) and subjective evaluation values.
  • FIG. 17 is a block diagram showing a configuration of an embodiment according to a video matching device of the present invention.
  • FIG. 18 is a flowchart showing an operation procedure of the embodiment of the video matching device of the present invention.
  • FIG. 19 is a diagram for explaining processing in a display timing matching unit.
  • FIG. 20 is a diagram for explaining macro time synchronization processing in the synchronization / position matching unit.
  • FIG. 21 is a diagram for explaining a micro-synchronous Z position deriving process in the synchronization / position matching unit.
  • first to third embodiments are embodiments relating to the invention of the video quality evaluation device, the video quality evaluation method, and the video quality evaluation program
  • fourth embodiment is the video matching device, the video matching method, and the video matching device. It is an embodiment according to the invention of a program.
  • FIG. 1 is a block diagram showing the configuration of the first embodiment according to the video quality evaluation device of the present invention.
  • the video quality evaluation device of the first embodiment includes at least a subjective quality estimation unit 11, a feature amount calculation unit 12, a correction information database 13, a correction calculation unit 14, and a correction unit 15.
  • the subjective quality estimation unit 11 receives the reference video signal RI and the degraded video signal PI.
  • the reference video signal RI is a video signal before degradation
  • the degradation video signal PI is a video signal in which the reference video signal RI has been degraded, for example, by being coded or passed through a network.
  • the subjective quality estimating unit 11 calculates a difference between each video signal feature amount, which is a physical feature amount, with respect to the reference video signal RI and the degraded video signal PI.
  • the video signal feature quantity includes, for example, spatial information (SI) indicating a video state in a certain frame of the video included in the video signal, and a video change between certain frames of the video included in the video signal.
  • SI spatial information
  • Time information (TI).
  • These spatial information SI and time information TI include, for example, Spatial Information and Temporal Inrormat abdominal strength 51 , which are listed in Appendix A of the subjective Video Quality Assessment Methods for Multimedia Applications of iTU-R Recommendation P.910. is there.
  • the subjective quality estimation unit 11 quantifies the deterioration of the degraded video signal PI from the calculated difference between the video signal feature amounts, and estimates the subjective quality based on the quantified deterioration. That is, the subjective quality estimating unit 11 quantifies the degradation of the degraded video signal PI from the reference video signal RI and the degraded video signal PI, and estimates the subjective quality based on the quantified degradation.
  • the estimated subjective quality is output from the subjective quality estimating unit 11 as a primary estimated subjective quality SQ. If the primary estimated subjective quality SQ is determined by, for example, the edge power (E) and the motion power (M), it is generally represented by a function represented by the following equation (1).
  • This function F is obtained in advance by a subjective evaluation experiment.
  • the edge power (E) and motion power (M) are based on the objective video quality evaluation standard (ANSI T1.80 ⁇ .03—1996, Digital Transport of une-Way Video Signals Parameters for Objective Performance Assessment ").
  • the feature value calculation unit 12 receives the reference video signal RI, and calculates the video signal feature value FI based on the reference video signal RI.
  • the video signal feature amount FI includes, for example, spatial information SI and time information TI.
  • the feature value calculating unit 12 specifies at least one of the spatial information SI and the time information TI and quantitatively calculates the feature value.
  • the correction information database 13 stores correction information corresponding to the video signal feature amount.
  • the video signal feature amount is, for example, the spatial information SI and the time information TI as described above.
  • the correction information is a correction formula or a correction coefficient for correcting the primary estimated subjective quality SQ output from the subjective quality estimating unit 11. The correction information will be described later in detail with reference to FIG.
  • These correction formulas and correction coefficients are determined in advance by experiments and stored in the correction information database 13. If a video with the video signal feature FI is degraded, the characteristics of how much the human perceives the deterioration as a subjective perception of the video are unified and calculated in advance through subjective evaluation experiments. Then, a correction formula and a correction coefficient corresponding to the video signal feature value FI are calculated based on the equation.
  • the physical characteristic amount of the reference video signal RI and the subjective evaluation characteristics when a video having the characteristic is deteriorated are unified and previously calculated by a subjective evaluation experiment, and the calculated physical characteristics are calculated.
  • the primary estimation subjective quality SQ derived by the subjective quality estimator 11 from the video signal feature of the reference video signal RI is corrected based on the correspondence between the feature and the subjective evaluation characteristics, and the unified objective evaluation value with high accuracy Enable conversion to
  • the correction calculator 14 receives the video signal feature FI from the feature calculator 12 and extracts a correction formula and a correction coefficient corresponding to the video signal feature FI from the correction information database 13. That is, the correction calculation unit 14 searches the correction information database 13 for a correction expression and a correction coefficient corresponding to the video signal feature value FI, and extracts the corresponding correction expression and correction coefficient from the correction information database 13. Then, the correction calculator 14 outputs these correction formulas and correction coefficients as correction information CI.
  • the correcting unit 15 inputs the primary estimated subjective quality SQ from the subjective quality estimating unit 11 and the correction information CI from the correction calculating unit 14. Then, the correction unit 15 substitutes the primary estimated subjective quality SQ into a correction equation with a correction coefficient included in the correction information CI, and outputs the corrected primary estimated subjective quality SQ as the final estimated subjective quality Q. I do.
  • the final estimated subjective quality Q is a correction of the primary estimated subjective quality SQ that quantitatively indicates the subjective quality of the degraded video signal PI.
  • FIG. 2 is a diagram showing correction information stored in the correction information database 13 of FIG.
  • the correction information database 13 a plurality of correction coefficients are stored in a database corresponding to each value of the video signal feature amount.
  • the video signal features (spatial information SI and time information TI) of the reference video signal RI are calculated as feature values.
  • the correction calculator 14 inputs the video signal feature FI from the feature calculator 12 and extracts a correction coefficient corresponding to the video signal feature FI from the database of the correction information database 13 together with the correction formula.
  • the correction information database 13 also includes a database of correction formulas corresponding to the video signal feature amount that is not limited to the correction coefficient.
  • FIG. 3 is a diagram showing the relationship between the final estimated subjective quality Q after correction by the correction formula for the primary estimated subjective quality SQ and the actually measured subjective quality.
  • the correction formula is the following formula (2).
  • FIG. 3 shows a graph based on three correction equations calculated for three types of input video signals input to the video quality evaluation device.
  • the horizontal axis shows the primary estimated subjective quality SQ, which is the output of the subjective quality estimator 11, and the vertical axis shows the quality of the primary estimated subjective quality SQ by actually viewing the video from the input video signal.
  • the subjective quality calculated by the subjective evaluation quality test is shown.
  • the circles, squares, and triangles in FIG. 3 respectively indicate the subjective quality score relative to the primary estimated subjective quality SQ for each input video signal.
  • the three line segments are the correction formulas according to the present embodiment corresponding to three types of input video signals, respectively, and according to the present embodiment, the primary estimated subjective quality SQ is thus the correction formula corresponding to each video. Is corrected.
  • the human visual characteristics of the reference video are obtained from the physical features of the reference video, and are converted into a database as correction information for the features of the reference video.
  • the accuracy of any video is equivalent to that of the conventional subjective evaluation method. Allows the subjective quality to be uniformly estimated.
  • the video signal feature amount of the reference video signal RI is calculated.
  • the configuration is logically provided separately as the feature amount calculation unit 12, the feature amount calculation unit 1 is powerful.
  • the video signal feature amount of the reference video signal RI derived by the subjective quality estimating unit 11 without specially providing 2 may be used as it is.
  • correction calculation unit 14 and the correction unit 15 may be logically integrated as well as physically. That is, the correction unit 15 may directly input the video signal characteristic amount of the reference video signal RI, and the correction unit 15 may input correction information corresponding to the video signal characteristic amount from the correction information database.
  • FIG. 4 is a block diagram showing the configuration of the second embodiment according to the video quality evaluation device of the present invention.
  • the video quality evaluation device As shown in FIG. 4, the video quality evaluation device according to the second embodiment
  • a spatial feature calculating unit 22 a temporal feature calculating unit 23, and a subjective quality estimating unit 24 are provided.
  • the alignment information generation unit 21 receives the reference video signal RI and the degraded video signal PI, receives a reference video frame from the reference video signal RI, and receives a degraded video frame from the degraded video signal PI, respectively. A temporal and spatial shift between the reference video frame and the degraded video frame is detected, and alignment information regarding the temporal and spatial shift between the frames is generated.
  • the time difference between the reference video frame and the degraded video frame means that the video of the reference video frame and the video of the degraded video frame received at a certain time are temporally shifted. .
  • the alignment information generation unit 21 receives a frame of a certain video A as a reference video frame at a certain time and receives a frame three frames before the frame of the video A as a degraded video frame at this time, The alignment information generation unit 21 detects that the deteriorated video frame is three frames behind the reference video frame, and generates this information as alignment information.
  • the spatial displacement between the reference video frame and the deteriorated video frame means that the spatial position of the video received at a certain time by the alignment information generating unit 21 is displaced. .
  • the alignment information generation unit 21 receives a frame in which the center of the ball is reflected in the center of the video at a certain time.
  • the alignment information generation unit 21 It detects that the degraded video frame is shifted one pixel to the right and two pixels above it with respect to the reference video frame, and generates this information as alignment information.
  • the spatial feature calculating unit 22 receives the reference video signal RI, the degraded video signal PI, and the alignment information, and eliminates a spatial shift and a temporal shift between the reference video frame and the degraded video frame. After that, the spatial feature is calculated based on the reference video signal RI and the degraded video signal PI.
  • an index of an edge power amount (Ave_EE) and a minimum value of the horizontal and vertical edge amounts (Min_HV), which will be described in detail below, are used as the spatial feature amounts.
  • This index quantifies the deterioration (for example, the degree of blurring) that occurs at the boundary (called the edge) where the luminance value changes rapidly within the frame based on the reference video signal RI and the degraded video signal PI. It is.
  • the deterioration on the edge is quantified by using a Sobel filter to emphasize the edge from the luminance value of the pixel.
  • the edge power (Ave-EE) quantified here is specified in ANSI Tl. 801.03-1996, "Digital @ ransport of One-Way Video Signals Parameters for Objective Performance Assessment".
  • SI (ijm) and SI Gjm) represent the Sobel filters at the position (ij) of the m-th frame, respectively, and are given by equations (5) and (6), respectively. .
  • SI (i, j, m) ⁇ -Y (i-1 J-l, m) _2Y (ij_l m)-Y (i + lj- l, m)
  • SI (ijm) ⁇ -Y (i-l, j-l, m) + Y (i + lj— l, m) _2Y (g l, jm)
  • ⁇ (ijm) is the value of the pixel at the position (i, j) of the m-th frame of the reference video frame.
  • Y (i, jm) is the position of the m-th frame of the degraded video frame.
  • Min-HV Minimum horizontal and vertical edge amount
  • This index quantifies the degree to which a boundary (edge) in which the luminance value sharply changes occurs in the horizontal and vertical directions in the deteriorated video frame corresponding to the reference video frame, as compared with the reference video frame. Things.
  • a feature amount that captures a distortion amount from a ratio of a horizontal vertical edge amount generated at a position in a horizontal Z vertical direction of a frame to an edge amount generated at a position in other directions is used.
  • Min_HV quantifies the degree to which edges occur in the horizontal and vertical directions. This degree is shown in Figure 5.
  • Min_HV The minimum value of the horizontal and vertical edge amounts
  • SI (i, j, m) tan-1 (i, j, m) / SI (i, j, m)].
  • P in equation (9) is the number of pixel range marked with shadow in FIG. 5 c
  • P in Expression (12) is the number of pixels in a range satisfying Expressions (13) and (14).
  • Min_HV The minimum value of the horizontal and vertical edge amounts
  • Ave-EE edge power amount
  • This index is uniquely improved to capture only the occurrence of new edges with a minimum value, as shown in the force equation (7) based on the index specified by ANSI. .
  • the temporal feature amount calculating unit 23 inputs the reference video signal RI, the degraded video signal PI, and the alignment information, and detects a spatial shift and a temporal shift between the reference video frame and the degraded video frame. After that, the time feature is calculated based on the reference video signal RI and the degraded video signal PI.
  • a block average motion power amount (Ave_MEB), which is an index based on a difference between TI (time information) values described below, is used as the time feature amount.
  • the TI value is the difference between the pixel brightness values between video frames, and
  • This block average motion power (Ave—MEB):
  • This index derives the difference between the TI value of the reference video frame and the TI value of the degraded video frame for each block, which is a set of several pixels in the frame, and calculates the difference by the TI value of each block of the reference video frame. This is the result of normalization.
  • TI (k, l, m) is represented by equation (16).
  • the block average motion power (Ave-MEB) is a feature that captures degradation that cannot be captured by the edge power (Ave-EE), specifically, the occurrence of degradation due to motion for each region. As will be described later with reference to the drawings, the deterioration is sensitively detected by this index.
  • This index is a unique measure that derives the TI value for each block in order to capture the motion for each area, and further normalizes it with the value of the reference video to improve the sensitivity.
  • the subjective quality estimating unit 24 inputs the spatial feature amount calculated by the spatial feature amount calculating unit 22 and the temporal feature amount calculated by the temporal feature amount calculating unit 23, and compares the spatial feature amount with the reference video signal RI.
  • the subjective evaluation value which is the subjective quality of the coded video signal PI, is estimated. This subjective evaluation value (Y) is calculated by Expression (17).
  • X Ave EE
  • X Min HV
  • X Ave_MEB
  • hi, ⁇ , y, and ⁇ represent the correspondence between the temporal feature and the spatial feature with the subjective evaluation value based on the relationship with the subjective evaluation value for the deteriorated video obtained by the subjective evaluation experiment. Is a weighting coefficient obtained in advance to determine the weighting factor. Also, h, ⁇ , y, and ⁇ are, for example, the signal format of the degraded video signal ⁇ , the information amount (size) of the degraded video signal transmitted by the degraded video signal ⁇ , and the encoding method of the degraded video signal.
  • the video quality evaluation device shown in FIG. 4 described in the second embodiment is incorporated in the subjective quality estimation unit 11 of the video quality evaluation device shown in FIG. 1, and the video quality evaluation device shown in FIG. It is also possible that a quality evaluation device is used. That is, the video quality evaluation device shown in FIG. 4 inputs the reference video signal RI and the degraded video signal PI, and outputs the value output by the subjective quality estimating unit 24 to the correcting unit 15 as the primary estimated subjective quality SQ.
  • the correction unit 15 receives the correction information C1 from the correction calculation unit 14, inputs the primary estimated subjective quality SQ, and calculates the final estimated subjective quality Q.
  • FIG. 6 is a block diagram showing the configuration of the third embodiment according to the video quality evaluation device of the present invention.
  • the video quality evaluation device is different from the video quality evaluation device according to the second embodiment in that the reference video signal RI and the degraded video signal PI that are input to the device have different file formats. And the signal format of the degraded video signal PI, the information amount (size) of the degraded video sent by the degraded video signal PI, and the encoding method of the degraded video signal are unknown. Is different. Therefore, the same parts as those of the video quality evaluation device of the second embodiment are denoted by the same reference numerals, and description thereof will be omitted.
  • the video quality evaluation device of the third embodiment includes a format conversion unit 35, an alignment information generation unit 21, a spatial feature calculation unit 22, a temporal feature calculation unit 23, a subjective quality.
  • An estimating unit 34 and a weighting coefficient database 36 are provided.
  • the format conversion unit 35 receives the reference video file and the degraded video file, and if the file format of the degraded video file is different from the file format of the reference video file, converts the degraded video file format to the reference video file. File format similar to that of Replace. More specifically, for example, when the signal format, color distribution, size, aspect ratio, and encoding method of the degraded video file are different from those of the reference video file, the degraded video file Convert to the same format as the video file format. Then, the format converter 35 outputs a deteriorated video signal PI from the deteriorated video file converted into the same file format as the reference video file. The degraded video signal PI from the format conversion unit 35 is output to the alignment information generation unit 21, the spatial feature calculation unit 22, and the time feature calculation unit 23.
  • the format conversion unit 35 converts the degraded video into RGB format. If there is this video, please use Rec. IUT-R BT. 601 "STUDIO
  • the format conversion unit 35 converts the size and aspect ratio of the reference video and the degraded video. When converting so that these forces are the same, it may be possible to simply calculate as an integer multiple, but if that is not enough, it is necessary to convert to an arbitrary size. (Eg, Muramatsu S. and Kiya ⁇ : "Scale Factor of Resolution Conversion Based on Orthogonal Transforms," IEICt !, lYans.
  • the bias power S is not applied to the objective evaluation value. Normalize the distribution such as the luminance value of the deteriorated video. In other words, for both the reference video and the degraded video, statistics such as the maximum value, minimum value, average value, and variance are derived from the pixel value distribution of a specific frame for each luminance, color difference signal, or RGB value.
  • the format conversion unit 35 outputs to the subjective quality estimation unit 34 information relating to the file format of the converted degraded video signal ⁇ , that is, the file format similar to the reference video signal RI.
  • Information related to this file format includes, for example, the signal format, color distribution, size, aspect ratio, and encoding method of the deteriorated video file.
  • the signal format of the deteriorated video file is used.
  • Size, and coding method are output to the subjective quality estimating unit 34.
  • the weighting coefficient database 36 stores a plurality of these conditions as a set of conditions, such as a signal format, a size, and an encoding method of the degraded video file. , y, and ⁇ are set in advance. These weighting factors are obtained in advance from the relationship with the subjective evaluation value for the deteriorated video obtained by the subjective evaluation experiment, and the correspondence between the temporal feature and the spatial feature with the subjective evaluation value.
  • FIG. 7 shows a plurality of conditions stored in the weighting coefficient database 36 and weighting coefficients corresponding to these conditions.
  • the subjective quality estimating unit 34 weights the weighting factors a, ⁇ , ⁇ , and ⁇ according to the signal format, size, and encoding method of the degraded video file input from the format conversion unit 35. What is obtained from the database 36 is different from the subjective quality estimation unit 24 of the second embodiment. The other points are the same as those of the subjective quality estimation unit 24.
  • the format conversion unit 35 and the alignment information generation unit 21 are separately arranged. However, the format conversion unit 35 and the alignment information generation unit 21 are configured as one component and the video quality evaluation shown in FIG. It may be incorporated in the device.
  • the file format of the degraded video file is based on The subjective quality of the degraded video can be estimated even if it is different from the quasi-video file. Furthermore, since it is possible to cope with many patterns regarding the signal format, the size, the encoding method, and the like of the degraded video file, it is possible to estimate the subjective quality of various degraded video files.
  • the subjective evaluation data is the standard video selected in ITU-R shown in Fig. 8 (the video sequence name in Fig. 8) (ITU-R BT.802-1, Test Pictures and sequences for suojective Assessments or Digital odecs Conveying Signals Produced According to Recommendation ITU-RBT. 601, "1994, and ITU-R BT. 1201-2," Test materials to be used in subjective assessment, "2001), 36 types of reference images are shown in Fig. 8. As described above, the standard video is divided into verification data for verifying the estimation accuracy of the video quality evaluation value and learning data, which is data used for deriving coefficients in advance.
  • the subjective evaluation data used to verify the estimation accuracy is selected so as to reduce the influence of the bias of the characteristics of the reference video. That is, the distribution of spatial information (SI) and temporal information (TI) indicated in ITU-TP.910 (see ITU-T P.910, "subjective viaeo quality assessment metnods for multimedia applications Aug. 1996.)
  • SI spatial information
  • TI temporal information
  • the same number of videos are selected from area A to area D in Fig. 9.
  • videos having various SI values and TI values can be used as reference videos.
  • the video was degraded by assigning it in four steps within the range of 256kbps-8Mbps.
  • the subjective quality evaluation method uses the DSCQS method (ITU-R BT. 500-10, "Methodology for the subjective assessment or the quality of television") that is often used in codec performance evaluation tests such as MPEG verification. pictures March 2000. ⁇ r participation 3 ⁇ 4 j ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇
  • the target estimation accuracy of the video quality evaluation device is equal to the degree of variation in the score in the subjective evaluation.
  • the degree of variation in the subjective evaluation value was derived as a one-sided 95% confidence interval, and was 7.24 for all data. Therefore, the target estimation accuracy of the video quality evaluation device is that the mean square error (RMSE) does not exceed this value.
  • RMSE mean square error
  • a conventional video quality evaluation device uses a PSNR (Peak Signal Noise Ratio), which is generally used, and an edge power amount (Ave_EE) known as an ANSI parameter.
  • Figures 10 and 11 show the estimation results for the learning data, respectively.
  • FIG. 10 shows the estimation result when PSNR is used
  • FIG. 11 shows the estimation result when edge power (Ave_EE) is used.
  • the RMSE for PSNR is 9.57
  • the RMSE for edge power (Ave_EE) is 7.47.
  • the edge power (Ave_EE) has better characteristics than PSNR. However, the RMSE exceeds the target value and the estimation accuracy is insufficient.
  • the video quality evaluation devices of the second and third embodiments using the edge power amount (Ave-EE), the minimum value of the horizontal and vertical edge amounts (Min-HV), and the Ave-MEB are used.
  • Figures 12 and 13 show the estimation results for the learning data and verification data.
  • the RMSE for the training data is 6.43
  • the RMSE for the verification data is 6.49.
  • the target estimation accuracy has been sufficiently cleared. Therefore, the video quality evaluation devices of the second and third embodiments have an estimation accuracy that can be used in place of a subjective evaluation quality test in which a human looks at an actual video and evaluates the quality, and is practically practical. I understand that it is at a usable level.
  • FIG. 14 is a diagram showing an estimation result of a part of the learning data based only on the amount of edge power (Ave_EE).
  • Ave_EE edge power
  • FIG. 15 shows the relationship between the minimum value of the horizontal and vertical edge amounts (Min HV) and the subjective evaluation value.
  • Min HV the minimum value of the horizontal and vertical edge amounts
  • FIG. 16 is a diagram showing the relationship between the block average motion power (Ave—MEB) and the subjective evaluation value. As shown in FIG. 16, according to the block average motion power (Ave_MEB), it can be seen that the input video [6], [9] is sensitive to the degradation.
  • a lack of accuracy is compensated for as a physical feature of a video.
  • FIG. 17 is a block diagram showing the configuration of an embodiment according to the video matching device of the present invention.
  • the video matching device includes a format conversion unit 41, a display timing matching unit
  • a synchronization / position matching unit 43 a luminance / color correction unit 44, and a deterioration amount deriving unit 45.
  • the format conversion unit 41 matches the file format included in the deteriorated video signal degraded by encoding or loss in the network with the file format of the reference video included in the reference video signal.
  • the display timing matching unit 42 matches the video display timing of the reference video signal and the deteriorated video signal.
  • the synchronization / position matching unit 43 matches the reference video signal and the deteriorated video signal in the time-space direction while acquiring the deterioration amount and the synchronization shift information from the deterioration amount deriving unit 45. Further, if necessary, the luminance / color matching section 44 performs correction based on differences in luminance and color distribution between the reference video signal and the degraded video signal.
  • the reference video signal and the degraded video signal include frame rate information or frame display time Z capture time information. It also includes signal format information as needed.
  • the video matching device advances non-real time processing of the reference video and the degraded video while storing the target frame and several frames before and after the target frame in the memory.
  • FIG. 18 is a flowchart showing an operation procedure of the video matching device according to the embodiment of the present invention.
  • the format converter 41 converts the signal format of the degraded video (Step Sl). For example, if the data format of the reference video is the uncompressed YUV format and the data format of the degraded video is the uncompressed RGB format, the degraded video is transferred to Rec.IUT-R BT.601 "STUDIO ENCODING PARAMETERS OF DIGITAL TELEVISION FOR STANDARD 4: 3 AND
  • the format converter 41 converts the degraded video to an uncompressed format in advance if the degraded video is in the compressed format. Part 41 converts the size and aspect ratio so that they are the same if they are different.Here, for example, it may be possible to simply calculate as an integral multiple, but if that alone is not enough, an arbitrary size In this case, conversion to an arbitrary size is performed by a known method (for example, Muramatsu S. and Kiya ri .: Scale r actor of Resolution uonversion Based on Orthogonal Transforms, IEICE Trans. Fundamentals.
  • the format conversion unit 41 passes the reference video signal and the converted degraded video signal to the display timing matching unit 42.
  • the display timing matching unit 42 performs a process such as complementing a frame in order to match the deteriorated video signal format-converted by the format conversion unit 41 with the display timing of the reference video signal (step S2).
  • the display timing matching unit 42 sets the reference image and the reference image as shown in the lower part of FIG. 19B.
  • the degraded video is supplemented with the video immediately before the degraded video.
  • the image immediately before the deteriorated image Rather than compensating for the image, it is also possible to compensate for the degraded video with a temporally closer video
  • the frame I is allocated as the second frame of the converted degraded video, if it is to be supplemented with a temporally closer video of the degraded video, the frame is Will be allocated.
  • the display timing matching unit 42 passes the reference video signal and the deteriorated video signal to the synchronization / position matching unit 43.
  • the synchronization / position matching unit 43 presumes three states: (1) an evaluation start state, (2) a synchronization state, and (3) a freeze state, and defines its operation.
  • the synchronization / position matching unit 43 performs one macro for the reference video signal and the degraded video signal for a certain period of time or the entire frame in order to perform macro matching in the time direction.
  • the frame information with the highest consistency is obtained, and the macro time shift is derived (Ste S3).
  • the feature value is shifted in the time direction to derive the time-direction shift (frame difference) from the condition that the difference between each time-series value is minimum or the cross-correlation coefficient is maximum. I do.
  • the synchronization / position matching unit 43 is shown in FIG. 21 for several frames before and after the image matched by the degradation amount deriving unit 45 in the reference image in order to match in the micro spatio-temporal direction. Pixels of the degraded image are moved up, down, left, and right as described above, and the position having the smallest difference value is received as pixel position information as the position where the best matching is obtained (step S4).
  • synchronous Z position matching section 43 passes reference video and degraded video that have been matched to perform luminance Z color correction to luminance / color correction section 44.
  • the luminance Z color correction unit 44 matches the average value, the minimum value, the maximum value, and the distribution of the luminance and color information of the deteriorated image with those of the reference image. For example, when the luminance distribution of the reference image and the deteriorated image is different, the brightness / color correction unit 44 determines the difference between the reference image and the deteriorated image based on the average value and the variance of the luminance distribution of the reference image and the deteriorated image. Performs linear normalization on the luminance distribution, Information about the conversion formula for normalization is passed to the synchronization / position matching unit 43 as correction information.
  • the synchronization / position matching unit 43 receives the correction information, and performs a luminance / color correction process based on the received correction information (Step S5).
  • Step 43 performs the processing of steps S6 to S22 shown in FIG.
  • step S6 While the reference video target frame number i is smaller than the reference video final frame number N or the deteriorated video target frame number j is smaller than the degraded video final frame number M, the following steps S7 to S22 are performed. Processing is performed (step S6).
  • step S7 it is determined whether or not F1 is "1", that is, whether or not the reference video and the degraded video are in an asynchronous state. If the reference video and the degraded video are synchronized, (F1
  • step S8 0
  • the synchronization / position matching unit 43 passes to the deterioration amount deriving unit 45 the reference image and the deteriorated image obtained by correcting the shift in the temporal and spatial directions and the luminance / color information obtained in the evaluation start state described above. .
  • the degradation amount deriving unit 45 performs micro-synchronization processing on the corresponding frame of the reference video and several frames before and after the corresponding frame of the degradation video (see FIG. 21), and derives the degradation amount obtained thereby. At the same time, a difference value between frames between the reference video and the immediately preceding frame of each degraded video is derived as a degradation amount (step S8).
  • the synchronization / position matching unit 43 receives the degradation amounts derived by the degradation amount deriving unit 45, and determines whether or not the deteriorated video is in the frozen state based on the inter-frame difference value among the degradation amounts. Judge (step S9). That is, if the difference value of the reference image indicates a certain value, while that of the deteriorated image indicates almost 0, the synchronization / position matching unit 43 determines that the deteriorated image is in a frozen state. to decide.
  • the synchronization / position matching unit 43 determines the target frame of the degraded video obtained by the micro synchronization process of the degradation amount derivation unit 45 in step S8. Judgment is made as to whether or not the amount of deterioration is minimum (step Sl l).
  • step S14 the reference image and the deteriorated image are output, and the F2 value and the Cotint value are output. After that, the Count value is reset to 0, and the routine goes to Step S22.
  • step S16 the synchronization / position matching unit 43 obtains the target frame of the degraded video by the micro-synchronization processing performed on the corresponding reference video frame and several frames before and after it in step S8.
  • a difference value between frames between the reference video and the immediately preceding frame of each deteriorated image is received as the deterioration amount.
  • the synchronization / position matching unit 43 determines whether or not the deteriorated video is in a frozen state based on the inter-frame difference value among the deterioration amounts (step S17).
  • Step S18 the synchronization / position matching unit 43 increments the number of freezes (Count value) (Step S18), and proceeds to Step S22.
  • the synchronization / position matching unit 43 determines that the frozen state has ended, and performs the same macro time synchronization processing as in step S3, (step S19). ), And outputs the number of freezes (Count value) (step S20). After that, the F1 value and the Count value are reset to 0, and the process proceeds to step S22.
  • step S22 the reference video target frame number i and the degraded video target frame number j are incremented, and the i value reaches the reference video final frame number N, and the j value If has reached the number M of degraded video final frames, the processing ends.
  • the format of the video is converted and the synchronization is constantly performed based on the macro matching process and the micro matching process.
  • the size and aspect ratio of the received video are different, or when the spatial position of the reference video and the deteriorated video cannot be matched due to the loss of a certain amount of information such as packet loss, or the IP packet arrival interval
  • the fluctuation of the video and the occurrence of packet loss cause the non-existent phenomena such as the deviation of the video display timing on the time axis and the fluctuation or freeze of the video display timing, the time direction between the reference video and the degraded video And the spatial direction can be properly matched.
  • the reference video, the degraded video and the accompanying information (state in the time direction) output from the synchronization / position matching unit 43 are input to the video quality evaluation device.
  • the deterioration amount deriving unit 45 derives an objective evaluation value instead of the deterioration amount, and If the result is output from the position matching unit 43, it can be used as a video quality evaluation device.
  • the instructions shown in the processing procedure can be executed based on a program that is software.
  • a general-purpose computer system stores this program in advance and reads this program, so that the general-purpose computer system can function as a video quality evaluation device and a video matching device.
  • the instructions described in each of the embodiments described above include a program that can be executed by a computer, such as a magnetic disk (flexible disk, hard disk, etc.), It is recorded on an optical disk (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD ⁇ R, DVD-RW, etc.), semiconductor memory, or a similar recording medium.
  • the computer reads the program from the recording medium, and if the CPU executes the instructions described in the program based on the program, the computer operates as the video quality evaluation device and the video matching device of the above-described embodiment. .
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying its constituent elements without departing from the scope of the invention at the stage of implementation. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
  • the video quality evaluation device even if the reference video is unknown, a uniform subjective quality is accurately estimated for any video. be able to.
  • a human visual characteristic of a reference video is obtained from physical features of the reference video
  • a database is created as correction information for the feature amount of the reference video
  • the estimated subjective quality derived from the difference between the physical features of the reference video and the degraded video is weighted with the correction information, so that any video
  • the subjective quality can be uniformly derived with the same accuracy as the subjective evaluation method.
  • the video matching device when comparing the physical feature amounts of the reference video signal and the degraded video signal in estimating the subjective quality, they are surely compared. And the spatial and temporal positions can be matched.
  • the personal computer terminal performs video format conversion and constantly performs synchronization matching based on macro matching processing and micro matching processing. If the size and aspect ratio of the video received when receiving the video are different, or the loss of a certain amount of information such as packet loss, the spatial position of the reference video and the degraded video may not correspond. In some cases, such as the inability to capture the data, or the fluctuation of the IP packet arrival interval or the occurrence of bucket loss, the occurrence of non-existent phenomena such as the deviation of the video display timing on the time axis, the fluctuation of the video display timing, and the freeze However, it is possible to properly match the temporal direction and the spatial direction between the reference image and the deteriorated image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

 主観品質推定部(11)は、劣化していない映像信号である基準映像信号(RI)とその基準映像信号が劣化した劣化映像信号(PI)とを入力し、両信号の映像信号特徴量を算出し、算出された両信号の映像信号特徴量の差分に基づいて、劣化映像信号の主観品質を推定する。特徴量算出部(12)は、基準映像信号の映像信号特徴量を算出する。補正情報格納部(13)には、主観品質を補正するための補正情報が、映像信号特徴量に対応して格納されている。補正計算部(14)は、特徴量算出部(12)から入力した基準映像信号の映像信号特徴量に対応した補正情報を、補正情報格納部(13)から取得し、補正部(15)に渡す。補正部(15)は、渡された補正情報に基づいて、主観品質推定部(11)で推定された劣化映像信号の主観品質を補正する。

Description

明 細 書
映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、 並びに映像整合装置、映像整合方法及び映像整合プログラム
技術分野
[0001] 本発明は、人間が実際の映像を見てその品質を評価する主観品質評価試験を行う ことなぐ映像信号の物理的特徴量の測定から主観品質を推定する映像品質評価装 置、映像品質評価方法及び映像品質評価プログラムに関する。
[0002] また、映像品質評価装置、映像品質評価方法及び映像品質評価プログラムにおい て、基準映像信号と符号ィ匕ゃネットワーク伝送等を経ることにより、その品質が劣化し た劣化映像信号との空間的及び時間的な位置の整合を行う映像整合装置、映像整 合方法及び映像整合プログラムに関する。
背景技術
[0003] 映像情報は、何らかの処理、例えば、符号化やネットワーク伝送を経ることにより、 その品質が劣化するのが一般的である。かかる劣化した映像について、人間が実際 に見て感じる劣化の程度を主観品質とレ、う。
[0004] 従来、その主観品質を評価する方法としては、人間が実際に映像をみることによる 主観品質評価試験が行われていた。しかしながら、人間が実際に映像を見てその映 像の品質を評価するのは、手間がかかり映像の品質評価に時間がかかるという問題 力 Sある。また、映像の品質評価に精通している者とその初心者では、評価が異なるこ とが多い。
[0005] そこで、物理測定から映像の主観品質を推定する方法として、基準映像信号と劣 化した劣化映像信号との物理的特徴量の差分に基づいて、あるいは劣化映像信号 の物理的特徴量のみから求められる劣化量に基づいて、客観的に品質の劣化の程 度を評価する方法がある。
[0006] しかしながら、映像の主観品質は、映像を限定すれば精度良く主観評価値を推定 できる場合がある力 例えば、 ANSI T1.801.03-1996, "Digital Transport of One-Way Video Signals Parameters ror Objective Performance Assessment ; 岡本、尚橋、 映像品質客観評価技術の適用法に関する一検討"、信学ソ大、 Sep. 2002.;岡本、栗 田、高橋、 "映像品質客観評価の性能向上に関する一検討"、信学ソ大、 Mar. 2003. 参照)、任意の映像に対しては映像の性質に大きく依存することから、劣化量の程度 が同じ場合でも結果として判断される主観品質は異なることが多い。
[0007] かかる理由から、映像主観品質を求める場合には、やはり、人間がその映像を実際 に見て、その品質を評価するという主観評価試験を行うことも多い、という技術状況が 続いていた。
[0008] そのような状況において、主観品質を、人間が見た場合と近いように評価できるよう にすることを目的として、映像のエッジ領域に着目し、映像信号に Sobelフィルタを適 用してその劣化量を計算する客観評価法が提案された(PCT Pub. No. : W〇99 /45715参照)。
[0009] し力、しながら、かかる特徴量だけでは、やはり実際の主観評価を置き換えるに充分 な評価精度は得られない。
[0010] 一方、映像の主観品質を推定する方法において、基準映像信号と劣化した劣化映 像信号との物理的特徴量を比較する前提として、基準映像信号と劣化映像信号との 空間的及び時間的な位置が整合している必要がある。つまり、基準映像信号と劣化 映像信号との間で、時間方向のずれや空間位置のずれが整合している必要がある。
[0011] 元々、力かる整合処理は、手動で行われていた。し力し、やがて、整合処理を自動 で行う手法を提案された。例えば、米国特許 5, 446, 492号においては、客観評価 の前処理として時間整合処理に際して遅延が発生した場合にそれに対応できるよう になっている。
[0012] この文献の技術によれば、 TV放送のように、同じサイズかつ同じフレームレートの 信号が対象であれば、一旦同期がとれれば、以降良好に同期を取らせることができ る。
[0013] し力、しながら、近年普及し始めたインターネットなどの IPネットワークを経由した映像 配信や映像コミュニケーションサービスでは、パーソナルコンピュータ(PC)端末にお いて映像を受信するため、受け取る映像のサイズやアスペクト比がさまざまである。ま た、パケットのようにある程度まとまった情報が損失することもある。故に、基準映像信 号と劣化映像信号の空間的な位置の対応がとり難い。一方、 IPパケット到着間隔の ゆらぎやパケット損失の発生により、時間軸での映像表示のタイミングずれや映像表 示タイミングのゆらぎやフリーズという、従来存在しなかった現象が生じることとなった 。したがって、基準映像信号と劣化映像信号との間のかかる時間的なずれの整合を とる手法はなかった。
[0014] 映像の主観品質を推定する方法において、基準映像信号と劣化映像信号との空 間的及び時間的な位置の整合がこのように十分にとれないのであれば、そもそも映 像の主観品質の推定は不可能であり、できたとしてもその精度は低い。
[0015] 尚、先の PCT Pub. No. : W〇99Z45715においては、時間的整合処理の一 例が記述された文献として、 ITU-T Contribution COM-12-29 "Draft new recommendation on multimedia communication delay, synchronization, and frame rate measurement", December 1997力 げられてレヽる。
発明の開示
[0016] 本発明は、上述した従来の技術に鑑み、任意の映像に対して精度良く統一的な主 観品質を推定することができる映像品質評価装置、映像品質評価方法及び映像品 質評価プログラムを提供することを目的とする。
[0017] また、本発明は、主観品質の推定において基準映像信号と劣化映像信号との物理 的特徴量を比較するに際し、確実にそれらの空間的及び時間的な位置の整合をとる ことができる映像整合装置、映像整合方法及び映像整合プログラムを提供することを 目的とする。
[0018] 上記目的を達成するため、第 1の態様に係る発明は、劣化していない映像信号で ある基準映像信号とその基準映像信号が劣化した劣化映像信号とを入力し、両信号 の映像信号特徴量を算出し、算出された両信号の映像信号特徴量の差分に基づい て、前記劣化映像信号の主観品質を推定する主観品質推定部と、前記主観品質を 補正するための補正情報を、映像信号特徴量に対応して格納している補正情報格 納部と、前記基準映像信号の前記映像信号特徴量を入力し、入力した映像信号特 徴量に対応した補正情報を前記補正情報格納部から取得し、取得した補正情報に 基づいて前記推定された主観品質を補正する主観品質補正部と、を備える映像品 質評価装置を要旨とする。
[0019] 第 2の態様に係る発明は、第 1の態様に係る発明において、前記主観品質推定部 は、映像信号に含まれる映像の各フレーム内での映像状態を示す空間情報及びフ レーム間での映像変化を示す時間情報の少なくともいずれかの、劣化映像信号と基 準映像信号間の差分に基づいて、前記主観品質を推定することを要旨とする。
[0020] 第 3の態様に係る発明は、第 2の態様に係る発明において、前記主観品質推定部 は、前記劣化映像信号と前記基準映像信号間の前記映像信号特徴量の差分として 、映像信号に含まれる映像の各フレーム内での劣化量を示すエッジ電力量 (E)、及 び、フレーム間での劣化量を示す動き電力量 (M)の少なくとも一方を算出することを 要旨とする。
[0021] 第 4の態様に係る発明は、第 2の態様に係る発明において、前記主観品質推定部 は、 ITU-R Recommendation P.910に夫見疋 れ又いる spatial information及び temporal informationの少なくともいずれかの、劣化映像信号と基準映像信号間の差分に基 づいて前記主観品質を推定することを要旨とする。
[0022] 第 5の態様に係る発明は、第 1の態様に係る発明において、補正情報格納部は、 前記主観品質を補正するための補正情報として、補正係数を、映像信号に含まれる 映像の各フレーム内での映像状態を示す空間情報及びフレーム間での映像変化を 示す時間情報に対応して格納してレ、ることを要旨とする。
[0023] 第 6の態様に係る発明は、第 1の態様に係る発明において、前記主観品質推定部 は、前記基準映像信号と前記劣化映像信号とを入力し、前記基準映像信号からの 基準映像フレームと前記劣化映像信号からの劣化映像フレームとの時間的なずれと
、前記基準映像フレームと前記劣化映像フレームとの空間的なずれとに関するァライ メント情報を生成するァライメント情報生成部と、前記ァライメント情報に基づいて前 記空間的なずれ及び前記時間的なずれをなくした上で、前記基準映像フレーム及 び前記劣化映像フレームの映像状態を示す空間情報に基づいてそれぞれの空間特 徴量を算出する空間特徴量算出部と、前記ァライメント情報に基づいて前記空間的 なずれ及び前記時間的なずれをなくした上で、前記基準映像フレーム及び前記劣 化映像フレームについて、それぞれのフレーム間での映像変化を示す時間情報に 基づいてそれぞれの時間特徴量を算出する時間特徴量算出部と、前記空間特徴量 及び前記時間特徴量に基づいて前記劣化映像信号の主観品質を推定する推定部 と、を備えることを要旨とする。
[0024] また、上記目的を達成するため、第 7の態様に係る発明は、劣化していない映像信 号である基準映像信号が劣化した劣化映像信号の推定された主観品質を補正する ための補正情報を、映像信号特徴量に対応して格納してレ、る補正情報格納部を備 え、前記劣化映像信号の主観品質を推定する映像品質評価装置における映像品質 評価方法であって、前記基準映像信号と前記劣化映像信号とを入力し、両信号の映 像信号特徴量を算出し、算出された両信号の映像信号特徴量の差分に基づいて、 前記劣化映像信号の前記主観品質を推定し、算出された前記基準映像信号の映像 信号特徴量に対応した補正情報を前記補正情報格納部から取得し、取得された補 正情報に基づいて前記推定された主観品質を補正する映像品質評価方法を要旨と する。
[0025] また、上記目的を達成するため、第 8の態様に係る発明は、コンピュータを、劣化し ていない映像信号である基準映像信号とその基準映像信号が劣化した劣化映像信 号とを入力し、両信号の映像信号特徴量を算出し、算出された両信号の映像信号特 徴量の差分に基づいて、前記劣化映像信号の主観品質を推定する主観品質推定 手段と、前記主観品質を補正するための補正情報を、映像信号特徴量に対応して 格納する補正情報格納手段と、算出された前記基準映像信号の映像信号特徴量に 対応した補正情報を前記補正情報格納手段から取得し、取得された補正情報に基 づいて前記推定された主観品質を補正する主観品質補正手段として機能させるため の映像品質評価プログラムを要旨とする。
[0026] また、上記目的を達成するため、第 9の態様に係る発明は、劣化していない映像信 号である基準映像信号とその基準映像信号が劣化した劣化映像信号とを入力し、前 記基準映像信号からの基準映像フレームと前記劣化映像信号からの劣化映像フレ ームとの時間的なずれと、前記基準映像フレームと前記劣化映像フレームとの空間 的なずれとに関するァライメント情報を生成するァライメント情報生成部と、前記ァライ メント情報に基づいて前記空間的なずれ及び前記時間的なずれをなくした上で、前 記基準映像フレーム及び前記劣化映像フレームの映像状態を示す空間情報に基づ レ、てそれぞれの空間特徴量を算出する空間特徴量算出部と、前記ァライメント情報 に基づレ、て前記空間的なずれ及び前記時間的なずれをなくした上で、前記基準映 像フレーム及び前記劣化映像フレームについて、それぞれのフレーム間での映像変 化を示す時間情報に基づいてそれぞれの時間特徴量を算出する時間特徴量算出 部と、前記空間特徴量及び前記時間特徴量に基づいて前記劣化映像信号の主観 品質を推定する主観品質推定部と、を備える映像品質評価装置を要旨とする。
[0027] 第 10の態様に係る発明は、第 9の態様に係る発明において、前記劣化映像信号に 含まれる劣化映像のファイル形式を、対応する前記基準映像信号に含まれる基準映 像のファイル形式に変換すると共に、その統一されたファイル形式に関連した情報を 出力する形式変換部と、前記ファイル形式に関連した情報に対応させて、前記劣化 映像信号の主観品質を推定するための係数を格納している補正係数格納部と、を更 に備え、前記主観品質推定部は、前記形式変換部から入力した前記統一されたファ ィル形式に関連した情報に対応した前記係数を前記補正係数格納部から取得し、 前記空間特徴量、前記時間特徴量、及び、前記取得した係数に基づいて、前記劣 化映像信号の主観品質を推定することを要旨とする。
[0028] 第 11の態様に係る発明は、第 10の態様に係る発明において、前記形式変換部は 、前記統一されたファイル形式に関連した情報として、前記劣化映像信号の信号形 式、前記劣化映像信号により送られてくる劣化映像の情報量、及び、前記劣化映像 信号の符号化方式の少なくともいずれかを出力し、前記補正係数格納部は、前記劣 化映像信号の信号形式、前記劣化映像信号により送られてくる劣化映像の情報量、 及び、前記劣化映像信号の符号ィ匕方式の少なくともいずれかに対応させて、最適な 係数を格納してレ、ることを要旨とする。
[0029] 第 12の態様に係る発明は、第 9または第 10の態様に係る発明において、前記空間 特徴量算出部は、前記基準映像信号と前記劣化映像信号に基づいて、フレーム内 で輝度値が急激に変化する境界に発生する劣化を定量化する指標を前記空間特徴 量として算出することを要旨とする。
[0030] 第 13の態様に係る発明は、第 12の態様に係る発明において、前記空間特徴量算 出部は、前記基準映像信号と前記劣化映像信号に基づいて、 ANSI T1.801.03-1995 で規定されているエッジ電力量を空間特徴量として算出することを要旨とする。
[0031] 第 14の態様に係る発明は、第 9、第 10、または第 12の態様に係る発明において、 前記空間特徴量算出部は、前記基準映像フレームと比較して、該基準映像フレーム に対応する前記劣化映像フレームで輝度値が急激に変化する境界が水平垂直方向 に発生している度合いを定量化する指標を前記空間特徴量として算出することを要 旨とする。
[0032] 第 15の態様に係る発明は、第 9、第 10、第 12、または第 14の態様に係る発明にお いて、前記時間特徴量算出部は、フレーム内の 1画素以上の集合であるブロックごと に基準映像の ITU-R Recommendation P.910に規定されている Temporal
Information値と劣化映像の ITU-R Recommendation P.910に規定されている
Temporal Information値の差分に基づいて映像のフレーム間での変化量を前記時 間特徴量として算出することを要旨とする。
[0033] 第 16の態様に係る発明は、第 9または第 10の態様に係る発明において、前記主観 品質を補正するための補正情報を、空間特徴量及び時間特徴量に対応して格納し ている補正情報格納部と、前記基準映像信号の前記空間特徴量及び前記時間特 徴量を入力し、入力した空間特徴量及び時間特徴量に対応した補正情報を前記補 正情報格納部から取得し、取得した補正情報に基づレ、て前記推定された主観品質 を補正する主観品質補正部と、を更に備えることを要旨とする。
[0034] また、上記目的を達成するため、第 17の態様に係る発明は、劣化していない映像 信号である基準映像信号とその基準映像信号が劣化した劣化映像信号とを入力し、 前記基準映像信号からの基準映像フレームと前記劣化映像信号からの劣化映像フ レームとの時間的なずれと、前記基準映像フレームと前記劣化映像フレームとの空 間的なずれとに関するァライメント情報を生成し、前記ァライメント情報に基づいて前 記空間的なずれ及び前記時間的なずれをなくした上で、前記基準映像フレーム及 び前記劣化映像フレームの映像状態を示す空間情報に基づいてそれぞれの空間特 徴量を算出し、前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的 なずれをなくした上で、前記基準映像フレーム及び前記劣化映像フレームについて 、それぞれのフレーム間での映像変化を示す時間情報に基づレ、てそれぞれの時間 特徴量を算出し、前記空間特徴量及び前記時間特徴量に基づいて前記劣化映像 信号の主観品質を推定する映像品質評価方法を要旨とする。
[0035] また、上記目的を達成するため、第 18の態様に係る発明は、劣化していない映像 信号である基準映像信号とその基準映像信号が劣化した劣化映像信号とを入力し、 前記劣化映像信号に含まれる劣化映像のファイル形式を、対応する前記基準映像 信号に含まれる基準映像のファイル形式に変換し、その統一されたファイル形式に 関連した情報を生成し、前記基準映像信号からの基準映像フレームと前記劣化映像 信号からのファイル形式が変換された劣化映像の劣化映像フレームとの時間的なず れと、前記基準映像フレームと前記劣化映像フレームとの空間的なずれとに関する ァライメント情報を生成し、前記ァライメント情報に基づいて前記空間的なずれ及び 前記時間的なずれをなくした上で、前記基準映像フレーム及び前記劣化映像フレー ムの映像状態を示す空間情報に基づいてそれぞれの空間特徴量を算出し、前記ァ ライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなくした上で、 前記基準映像フレーム及び前記劣化映像フレームについて、それぞれのフレーム間 での映像変化を示す時間情報に基づいてそれぞれの時間特徴量を算出し、前記空 間特徴量と、前記時間特徴量と、前記統一したファイル形式に関連した情報に対応 した、主観品質推定のための係数と、に基づいて、前記劣化映像信号の主観品質を 推定する映像品質評価方法を要旨とする。
[0036] また、上記目的を達成するため、第 19の態様に係る発明は、コンピュータを、劣化 してレ、なレ、映像信号である基準映像信号とその基準映像信号が劣化した劣化映像 信号とを入力し、前記基準映像信号からの基準映像フレームと前記劣化映像信号か らの劣化映像フレームとの時間的なずれと、前記基準映像フレームと前記劣化映像 フレームとの空間的なずれとに関するァライメント情報を生成するァライメント情報生 成手段と、前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なず れをなくした上で、前記基準映像フレーム及び前記劣化映像フレームの映像状態を 示す空間情報に基づいてそれぞれの空間特徴量を算出する空間特徴量算出手段と 、前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームについて、それぞれの フレーム間での映像変化を示す時間情報に基づいてそれぞれの時間特徴量を算出 する時間特徴量算出手段と、前記空間特徴量及び前記時間特徴量に基づいて前 記劣化映像信号の主観品質を推定する主観品質推定手段として機能させるための 映像品質評価プログラムを要旨とする。
[0037] 第 20の態様に係る発明は、第 19の態様に係る発明において、前記コンピュータを 、前記劣化映像信号に含まれる劣化映像のファイル形式を、対応する前記基準映像 信号に含まれる基準映像のファイル形式に変換すると共に、その統一されたファイル 形式に関連した情報を出力する形式変換手段と、前記ファイル形式に関連した情報 に対応させて、前記劣化映像信号の主観品質を推定するための係数を格納している 補正係数格納手段として更に機能させ、前記主観品質推定手段は、前記形式変換 手段から入力した前記統一されたファイル形式に関連した情報に対応した前記係数 を前記補正係数格納手段から取得し、前記空間特徴量、前記時間特徴量、及び、 前記取得した係数に基づいて、前記劣化映像信号の主観品質を推定することを要 旨とする。
[0038] また、上記目的を達成するため、第 21の態様に係る発明は、劣化していない映像 信号である基準映像信号とその基準映像信号が劣化した劣化映像信号とを入力し、 前記劣化映像信号に含まれる劣化映像のファイル形式を、対応する前記基準映像 信号に含まれる基準映像のファイル形式に変換する形式変換部と、前記基準映像信 号に含まれる基準映像フレームと前記劣化映像信号に含まれる劣化映像フレームの 数及び表示タイミングを整合させる表示タイミング整合部と、前記基準映像フレーム 及び前記劣化映像フレームの対象フレーム及びその前後数フレームについて、前記 基準映像フレームと前記劣化映像フレームとの間のフレームのずれや前記劣化映像 のフリーズ状態を監視しつつ、フレーム間の対応関係及び画素間の対応関係の整 合をとる同期 Z位置整合部と、を備える映像整合装置を要旨とする。
[0039] 第 22の態様に係る発明は、第 21の態様に係る発明において、前記形式変換部は 、前記劣化映像のデータ形式、サイズ、アスペクト比の少なくとも 1つを変換して前記 基準映像と合わせることを要旨とする。 [0040] 第 23の態様に係る発明は、第 21の態様に係る発明において、前記表示タイミング 整合部は、前記基準映像フレームと前記劣化映像フレームのフレームレートが異な る場合には、前記劣化映像フレームを補間または削除することにより、前記基準映像 フレームと前記劣化映像フレームのフレームレートを合わせることを要旨とする。
[0041] 第 24の態様に係る発明は、第 21の態様に係る発明において、前記表示タイミング 整合部は、前記基準映像フレームの表示タイミングに対して前記劣化映像フレーム の表示タイミングを合わせることを要旨とする。
[0042] 第 25の態様に係る発明は、第 21の態様に係る発明において、前記表示タイミング 整合部は、前記基準映像フレームの表示タイミングが一定でない場合には、前記基 準映像フレーム及び前記劣化映像フレーム双方の表示タイミングを予め定めた時間 間隔とすることを要旨とする。
[0043] 第 26の態様に係る発明は、第 21の態様に係る発明において、前記同期/位置整 合部は、前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びそ の前後数フレームにつレ、て、フレーム全体またはその特定領域のそれぞれの特徴量 の推移を比較し、前記特徴量のずれが最も小さくなる前記基準映像フレームと前記 劣化映像フレームの時間的対応関係を決定するマクロ同期処理を行うことを要旨と する。
[0044] 第 27の態様に係る発明は、第 26の態様に係る発明において、前記同期/位置整 合部は、前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びそ の前後数フレームについて、前記基準映像フレームと前記劣化映像フレームの時間 的対応関係及び画素対応関係をずらしつつ、フレーム全体またはその特定領域の それぞれの特徴量を比較し、前記特徴量の差異が最も小さくなる前記基準映像フレ ームと前記劣化映像フレームの時間的対応関係及び画素対応関係を決定するミクロ 同期/位置整合処理を行うことを要旨とする。
[0045] 第 28の態様に係る発明は、第 27の態様に係る発明において、前記同期/位置整 合部は、初期的に、前記マクロ同期処理及び前記ミクロ同期/位置整合処理を行う ことを要旨とする。
[0046] 第 29の態様に係る発明は、第 28の態様に係る発明において、前記同期/位置整 合部は、前記劣化映像フレームがフリーズ状態に陥った場合、フレーム数を計数す ることにより前記フリーズ状態の継続時間を計ることを要旨とする。
[0047] 第 30の態様に係る発明は、第 29の態様に係る発明において、前記同期/位置整 合部は、前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びそ の前後数フレームについて、フレーム全体のそれぞれの特徴量を導出し、前記基準 映像フレームの特徴量が時間的に変化しているのに対して前記劣化映像フレームの 特徴量が時間的に変化していないときに、前記劣化映像フレームがフリーズ状態に 陥ったと判定することを要旨とする。
[0048] 第 31の態様に係る発明は、第 28の態様に係る発明において、前記同期/位置整 合部は、前記劣化映像フレームが、フリーズ状態に陥った場合、または前記基準映 像フレームと同期が取れなくなった場合に、再度、前記マクロ同期処理を行うことを要 旨とする。
[0049] 第 32の態様に係る発明は、第 28の態様に係る発明において、前記同期/位置整 合部は、前記劣化映像フレームがフレームずれ状態に陥った場合、フレームのずれ 数を出力することを要旨とする。
[0050] 第 33の態様に係る発明は、第 21の態様に係る発明において、前記同期/位置整 合部から前記基準映像信号及び前記劣化映像信号を入力し、前記劣化映像の輝度 及び色情報を前記基準映像と合わせ、前記輝度及び色情報が合わされた劣化映像 を前記同期/位置整合部に戻す輝度/色補正部を更に備えることを要旨とする。
[0051] また、上記目的を達成するため、第 34の態様に係る発明は、劣化していない映像 信号である基準映像信号とその基準映像信号が劣化した劣化映像信号とを入力し、 前記劣化映像信号に含まれる劣化映像のファイル形式を、対応する前記基準映像 信号に含まれる基準映像のファイル形式に変換し、前記基準映像信号に含まれる基 準映像フレームと前記劣化映像信号に含まれる劣化映像フレームの数及び表示タイ ミングを整合させ、前記基準映像フレーム及び前記劣化映像フレームの対象フレー ム及びその前後数フレームについて、前記基準映像フレームと前記劣化映像フレー ムとの間のフレームのずれや前記劣化映像のフリーズ状態を監視しつつ、フレーム 間の対応関係及び画素間の対応関係の整合をとる映像整合方法を要旨とする。 [0052] また、上記目的を達成するため、第 35の態様に係る発明は、コンピュータを、劣化 してレ、なレ、映像信号である基準映像信号とその基準映像信号が劣化した劣化映像 信号とを入力し、前記劣化映像信号に含まれる劣化映像のファイル形式を、対応す る前記基準映像信号に含まれる基準映像のファイル形式に変換する形式変換手段 と、前記基準映像信号に含まれる基準映像フレームと前記劣化映像信号に含まれる 劣化映像フレームの数及び表示タイミングを整合させる表示タイミング整合手段と、 前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びその前後数 フレームについて、前記基準映像フレームと前記劣化映像フレームとの間のフレーム のずれや前記劣化映像のフリーズ状態を監視しつつ、フレーム間の対応関係及び 画素間の対応関係の整合をとる同期 Z位置整合手段として機能させるための映像 整合プログラムを要旨とする。
[0053] また、上記目的を達成するため、第 36の態様に係る発明は、劣化していない映像 信号である基準映像信号 (RI)とその基準映像信号が劣化した劣化映像信号 (PI)と を入力し、前記劣化映像信号に含まれる劣化映像のファイル形式を、対応する前記 基準映像信号に含まれる基準映像のファイル形式に変換する形式変換部 (41)と、 前記基準映像信号に含まれる基準映像フレームと前記劣化映像信号に含まれる劣 化映像フレームの数及び表示タイミングを整合させる表示タイミング整合部(42)と、 前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びその前後数 フレームについて、前記基準映像フレームと前記劣化映像フレームとの間のフレーム のずれや前記劣化映像のフリーズ状態を監視しつつ、フレーム間の対応関係及び 画素間の対応関係の整合をとる同期/位置整合部 (43)と、前記同期/位置整合部 (43)により整合がとられた前記基準映像信号 (RI)及びそ前記劣化映像信号 (PI)と を入力し、両信号の映像信号特徴量を算出し、算出された両信号の映像信号特徴 量の差分に基づいて、前記劣化映像信号の主観品質を推定する主観品質推定部( 11)と、を備える映像品質評価装置を要旨とする。
図面の簡単な説明
[0054] [図 1]図 1は、本発明の映像品質評価装置に係る第 1の実施形態の構成を示すブロッ ク図である。 園 2]図 2は、図 1の補正情報データベースに格納されている補正情報を示す図であ る。
[図 3]図 3は、一次推定主観品質 SQに対する補正式による補正後の最終推定主観 品質 Qと、実測した主観品質と、の関係を示す図である。
[図 4]図 4は、本発明の映像品質評価装置に係る第 2の実施形態の構成を示すブロッ ク図である。
園 5]図 5は、図 4の空間特徴量算出部で使用される水平垂直エッジ量を計算するた めの図である。
[図 6]図 6は、本発明の映像品質評価装置に係る第 3の実施形態の構成を示すブロッ ク図である。
[図 7]図 7は、図 6の重み付け係数データベースに格納されている複数の条件及び条 件に対応する重み付け係数を示す図である。
園 8]図 8は、本発明の実施形態の検証に使用した標準映像データを、学習データと 検証データに分類して列挙した図である。
園 9]図 9は、図 8の学習データ及び検証データにより計算した SI (空間情報)値と TI ( 時間情報)値の分布図である。
[図 10]図 10は、従来のピーク SN比(PSNR)による学習データの推定結果を示す図 である。
[図 11]図 11は、従来のエッジ電力量 (Ave— EE)による学習データの推定結果を示 す図である。
[図 12]図 12は、本発明の第 2及び第 3の実施形態の映像品質評価装置による学習 データの推定結果を示す図である。
[図 13]図 13は、本発明の第 2及び第 3の実施形態の映像品質評価装置による検証 データの推定結果を示す図である。
[図 14]図 14は、従来のエッジ電力量 (Ave_EE)のみによる学習データの推定結果 を示す図である。
[図 15]図 15は、水平垂直エッジ量の最小値 (Min_HV)と主観評価値の関係を示 す図である。 [図 16]図 16は、ブロック平均動き電力量 (Ave— MEB)と主観評価値の関係を示す 図である。
[図 17]図 17は、本発明の映像整合装置に係る実施形態の構成を示すブロック図で ある。
[図 18]図 18は、本発明の映像整合装置の実施形態の動作手順を示すフローチヤ一 トである。
[図 19]図 19は、表示タイミング整合部における処理を説明するための図である。
[図 20]図 20は、同期/位置整合部におけるマクロ時刻同期処理を説明するための 図である。
[図 21]図 21は、同期/位置整合部におけるミクロ同期 Z位置導出処理を説明するた めの図である。
発明を実施するための最良の形態
[0055] 以下、図面を参照して、本発明の映像品質評価装置、映像品質評価方法及び映 像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プロダラ ムに係る実施の形態を詳細に説明する。なお、第 1乃至第 3の実施形態は映像品質 評価装置、映像品質評価方法及び映像品質評価プログラムの発明に係る実施形態 であり、第 4の実施形態は映像整合装置、映像整合方法及び映像整合プログラムの 発明に係る実施形態である。
[0056] ぐ第 1の実施形態 >
本発明の映像品質評価装置に係る第 1の実施形態の各装置部分を図 1を参照して 説明する。図 1は、本発明の映像品質評価装置に係る第 1の実施形態の構成を示す ブロック図である。
[0057] 第 1の実施形態の映像品質評価装置は、主観品質推定部 11、特徴量算出部 12、 補正情報データベース 13、補正計算部 14、及び補正部 15を少なくとも備えている。
[0058] 主観品質推定部 11は、基準映像信号 RIと劣化映像信号 PIを入力する。基準映像 信号 RIは劣化する以前の映像信号であり、一方、劣化映像信号 PIは、基準映像信 号 RIが、例えば符号化されたり、ネットワークを経由したりして劣化した映像信号であ る。 [0059] 次に、主観品質推定部 11は、基準映像信号 RI及び劣化映像信号 PIに関し、物理 的特徴量であるそれぞれの映像信号特徴量の差分を計算する。映像信号特徴量に は、例えば、映像信号に含まれている映像のあるフレームでの映像状態を示す空間 情報(SI)、及び、映像信号に含まれている映像のあるフレーム間での映像変化を示 す時間情報 (TI)がある。これら空間情報 SI及び時間情報 TIとしては、例えば、 iTU-R Recommendation P.910の subjective Video Quality Assessment Methods for Multimedia Applications の Appendix Aに夫見疋 'されてレヽる、 Spatial Information及び Temporal Inrormat腹力51ある。
[0060] そして、主観品質推定部 11は、計算された映像信号特徴量の差分から劣化映像 信号 PIの劣化を定量化し、その定量化された劣化に基づいて主観品質を推定する。 すなわち、主観品質推定部 11は、基準映像信号 RIと劣化映像信号 PIから劣化映像 信号 PIの劣化を定量化し、その定量化された劣化に基づいて主観品質を推定する。 推定された主観品質は、主観品質推定部 11から一次推定主観品質 SQとして出力さ れる。一次推定主観品質 SQは、例えば、エッジ電力量 (E)と動き電力量 (M)によつ て定まるとすれば、一般的に、次の式(1)で示される関数で表される。
[0061] SQ = F (M, E) · · · (1)
この関数 Fは、予め主観評価実験により求めておくものである。また、エッジ電力量 (E)と動き電力量 (M)は、米国 ANSIが規定する映像品質客観評価尺度 (ANSI T1.80丄.03—1996, Digital Transport of une-Way Video Signals Parameters for Objective Performance Assessment")に夫兄疋 'されている。
[0062] 特徴量算出部 12は、基準映像信号 RIを入力して、この基準映像信号 RIに基づい て映像信号特徴量 FIを算出する。この映像信号特徴量 FIとしても上述したように例 えば空間情報 SIや時間情報 TIがある。特徴量算出部 12は、例えば、空間情報 SI及 び時間情報 TIの少なくともいずれ力 ^特定してその特徴量を定量的に算出する。
[0063] 補正情報データベース 13は、映像信号特徴量に対応して補正情報を格納してい る。映像信号特徴量は、上述のように例えば空間情報 SIや時間情報 TIである。補正 情報は、主観品質推定部 11の出力である一次推定主観品質 SQを補正するための 補正式や補正係数である。後に、これら補正情報は図 2を参照して詳細に説明する。 これらの補正式や補正係数は、予め実験によって決定されて、補正情報データべ一 ス 13に格納される。映像信号特徴量 FIを有する映像に劣化が加わった場合、人間 がその映像を見て主観的にどの程度の劣化として感じられるかという特性を予め主 観評価実験によって統一的に算出し、この特性に基づいて映像信号特徴量 FIに対 応する補正式及び補正係数を算出する。
[0064] すなわち、基準映像信号 RIの物理的特徴量とその特徴を持つ映像に劣化が加わ つた時の主観評価特性とを予め主観評価実験によって統一的に算出し、この算出さ れた物理的特徴量と主観評価特性との対応関係により、基準映像信号 RIの映像信 号特徴量から主観品質推定部 11で導出される一次推定主観品質 SQを補正し、精 度良く統一的な客観評価値への変換を可能にする。
[0065] 補正計算部 14は、特徴量算出部 12から映像信号特徴量 FIを入力して、この映像 信号特徴量 FIに対応する補正式及び補正係数を補正情報データベース 13から抽 出する。すなわち、補正計算部 14は、映像信号特徴量 FIに対応する補正式及び補 正係数を補正情報データベース 13で検索し、該当する補正式及び補正係数を補正 情報データベース 13から抽出する。そして、補正計算部 14は、これら補正式及び補 正係数を補正情報 CIとして出力する。
[0066] 補正部 15は、主観品質推定部 11から一次推定主観品質 SQを入力し、補正計算 部 14から補正情報 CIを入力する。そして、補正部 15は、一次推定主観品質 SQを補 正情報 CIに含まれている補正係数を伴う補正式に代入して、補正された一次推定主 観品質 SQを最終推定主観品質 Qとして出力する。最終推定主観品質 Qは、劣化映 像信号 PIの主観品質を定量的に示した一次推定主観品質 SQを補正したものである
[0067] 次に、補正情報データベース 13が格納している、映像信号特徴量に対応する補正 情報を図 2を参照して説明する。図 2は、図 1の補正情報データベース 13に格納され てレ、る補正情報を示す図である。
[0068] 図 2に示すように、補正情報データベース 13では、映像信号特徴量のそれぞれの 値に対応して、複数の補正係数がデータベース化されている。図 2によると、例えば、 基準映像信号 RIの映像信号特徴量 (空間情報 SI及び時間情報 TI)が特徴量算出 部 1 2によって(SI, TI) = ( 75 , 30)と算出された場合、この映像信号特徴量に対応 する補正係数は(ひ, β ) = ( α 2 , 2)である。実際には、補正計算部 14が特徴量 算出部 1 2から映像信号特徴量 FIを入力し、この映像信号特徴量 FIに対応する補正 係数を補正情報データベース 1 3のデータベースから補正式と共に抽出する。さらに 、映像信号特徴量に応じて補正式も変化する場合は、補正情報データベース 13に は、補正係数だけでなぐ映像信号特徴量に対応した補正式もデータベース化され ている。
[0069] 最後に、補正部 1 5がー次推定主観品質 SQを補正して出力した最終推定主観品 質 Qについて図 3を参照して説明する。図 3は、一次推定主観品質 SQに対する補正 式による補正後の最終推定主観品質 Qと、実測した主観品質と、の関係を示す図で ある。
[0070] 第 1の実施形態では、補正式は、次の式(2)としている。
[0071] 最終推定主観品質 Q = α X—次推定主観品質 SQ + - - - (2)
ここで、 α及び は補正係数である。図 3は、映像品質評価装置に入力された 3種 類の入力映像信号に対して計算された 3つの補正式によるグラフを示している。横軸 は主観品質推定部 1 1の出力である一次推定主観品質 SQを示し、縦軸は一次推定 主観品質 SQに対して人間が入力映像信号による映像を実際に見てその品質を評 価する主観評価品質試験によって算出した主観品質を示す。図 3中の丸印、四角印 、三角印でそれぞれ示したものは、入力映像信号ごとに、一次推定主観品質 SQに 対する主観品質の評点を示している。一方、 3本の線分は、それぞれ 3種類の入力 映像信号に対応する本実施形態による補正式であり、本実施形態により一次推定主 観品質 SQは、このように映像ごとに対応した補正式で補正される。
[0072] このように、第 1の実施形態によれば、基準映像の物理的な特徴量からこの映像に 対する人間の視覚的な特性を求め、基準映像の特徴量に対する補正情報としてデ ータベース化し、基準映像と劣化映像の物理的特徴量の差分から導出した推定主 観品質に、その補正情報で重みを付けることにより、任意の映像に対して従来法であ る主観評価法と同等な精度で統一的に主観品質を推定できるようになる。
[0073] 尚、上述の実施形態においては、基準映像信号 RIの映像信号特徴量を算出する 構成を特徴量算出部 12として論理的に別体として設けたが、力かる特徴量算出部 1
2を特別に設けることなぐ主観品質推定部 11で導かれた基準映像信号 RIの映像信 号特徴量をそのまま利用してもよい。
[0074] また、補正計算部 14と補正部 15とは物理的のみならず論理的にも一体であっても よい。即ち、補正部 15が直接、基準映像信号 RIの映像信号特徴量を入力すると共 に、補正部 15がその映像信号特徴量に対応した補正情報を補正情報データベース から入力するようにしてもよい。
[0075] ぐ第 2の実施形態 >
本発明の映像品質評価装置に係る第 2の実施形態の各装置部分を図 4を参照して 説明する。図 4は、本発明の映像品質評価装置に係る第 2の実施形態の構成を示す ブロック図である。
[0076] 第 2の実施形態の映像品質評価装置は、図 4に示すように、ァライメント情報生成部
21、空間特徴量算出部 22、時間特徴量算出部 23、及び、主観品質推定部 24を備 えている。
[0077] ァライメント情報生成部 21は、基準映像信号 RIと劣化映像信号 PIを入力して、基 準映像信号 RIから基準映像フレームを、劣化映像信号 PIから劣化映像フレームをそ れぞれ受け取り、基準映像フレームと劣化映像フレームの時間的及び空間的なフレ ームのずれを検出し、これらの時間的及び空間的なフレームのずれに関するァラィメ ント情報を生成する。
[0078] 基準映像フレームと劣化映像フレームが時間的にずれているとは、ァライメント情報 生成部 21がある時刻に受け取った基準映像フレームと劣化映像フレームの映像が 時間的にずれていることである。例えば、ァライメント情報生成部 21がある時刻に基 準映像フレームではある映像 Aのフレームを受け取り、この時刻に劣化映像フレーム ではその映像 Aのフレームよりも 3フレーム前のフレームを受け取った場合には、ァラ ィメント情報生成部 21は基準映像フレームに対して劣化映像フレームが 3フレーム遅 れていることを検出し、この情報をァライメント情報として生成する。
[0079] また、基準映像フレームと劣化映像フレームが空間的にずれているとは、ァライメン ト情報生成部 21がある時刻に受け取った映像の空間的位置がずれていることである 。例えば、基準映像フレームと劣化映像フレームのフレームが時間的にずれていな い場合に、ァライメント情報生成部 21がある時刻に基準映像フレームでは映像の中 心にボールの中心が映っているフレームを受け取り、この時刻に劣化映像フレーム では映像の中心力、ら右に 1画素、上に 2画素ずれている位置にボールの中心が映つ ているフレームを受け取った場合には、ァライメント情報生成部 21は基準映像フレー ムに対して劣化映像フレームが右に 1画素、上に 2画素ずれていることを検出し、この 情報をァライメント情報として生成する。
[0080] 空間特徴量算出部 22は、基準映像信号 RIと劣化映像信号 PIとァライメント情報を 入力して、基準映像フレームと劣化映像フレームとの空間的なずれ及び時間的なず れをなくし、その後、基準映像信号 RIと劣化映像信号 PIに基づいて空間特徴量を計 算する。この第 2の実施形態では、この空間特徴量として、以下に詳述するエッジ電 力量 (Ave_EE)と水平垂直エッジ量の最小値 (Min_HV)の指標を使用する。
[0081] エッジ電力量(Ave_EE):
この指標は、基準映像信号 RIと劣化映像信号 PIに基づレ、てフレーム内で輝度値 が急激に変化する境界 (エッジと呼ばれる)に発生する劣化 (例えば、ぼやけ具合)を 定量化するものである。第 2の実施形態では、一例として、 Sobelフィルタを使用して 画素の輝度値からエッジを強調させることによって、エッジ上の劣化を定量化する。ま た、ここで定量化するエッジ電力量 (Ave— EE)は、 ANSI Tl.801.03-1996, "Digital Ί ransport of One-Way Video Signals Parameters for Objective Performance Assessment"に規定されてレ、る。
[0082] エッジ電力量 (Ave_EE)は、式(3)で定量化される。
[数 1]
Figure imgf000021_0001
[0083] 二で、 SI (m) ( z =in or out)は、式(4)で与えられる。
[数 2] S (m)
Figure imgf000022_0001
一 I ― /CT2 ( ; m\ - CT2 ( m
N _fi J , v_ J 'J , ノ
…(4)
II = in or out
[0084] また、ここで、 SI (ijm)、 SI Gjm)は、それぞれ第 mフレームの位置(i j)におけ る Sobelフィルタを表しており、それぞれ(5)式及び(6)式で与えられる。
[0085] SI (i,j,m)={-Y (i- 1 J- l,m)_2Y (ij_l m)- Y (i+lj- l,m)
+Y (i-l,j+l,m)+2Y (i,j+l,m)+Y (i+lj+l m)}
•••(5)
SI (ijm)={-Y (i-l,j-l,m)+Y (i+lj— l,m)_2Y (ト l,jm)
v_M μ
+2Y (i+ljm)- Y (i-l,j+l,m)+Y (i+lj+l m)}
•••(6)
ここで、 Υ (ijm)は、基準映像フレームの第 mフレームの位置(i, j)における画素の
in
輝度値(0力 255まで)を表し、 Y (i,jm)は、劣化映像フレームの第 mフレームの位
out
置(i, j)における画素の輝度値(0から 255まで)を表している。
[0086] 尚、このエッジ電力量 (Ave— EE)のみで推定した場合の結果を図とともに後述す る力 客観評価値はほとんど変わらないにも関わらず主観評価値は大きく変化する 映像が存在し、このエッジ電力量 (Ave— EE)のみではこれらの映像に発生する劣 化を捉えきれない。
[0087] 水平垂直エッジ量の最小値(Min— HV)
この指標は、基準映像フレームと比較して、この基準映像フレームに対応する前記 劣化映像フレームで輝度値が急激に変化する境界 (エッジ)が水平垂直方向に発生 している度合いを定量ィ匕するものである。この第 2の実施形態では、一例として、フレ ームの水平 Z垂直方向の場所に発生した水平垂直エッジ量とそれ以外の方向の場 所に発生するエッジ量の比から歪量を捕らえる特徴量 (Min_HV)によって、水平 垂直方向にエッジが発生している度合いを定量化する。この度合いは、図 5に示した ように定数 r0 = 20と Δ θ = 0. 05236によって決まる水平/垂直方向領域に入るド ット部分のエッジ量 (HV)とそれ以外の領域に入るエッジ量 (HVバー)との比を入力 映像と劣化映像によって求めるものである。力かる指標を採用した理由は、映像情報 はブロック単位で符号化されることが多ぐ力、かる符号化におけるいわゆるブロック歪 みを的確に反映させるためである。
[0088] 水平垂直エッジ量の最小値(Min_HV)は、式(7)で定量化される。
[数 3]
HV in (m) - HVRput (m)
Mm _ HV = mm
m 賺 in (m)
[0089] ここで、 HVR (m) ( μ =in or out)は、式(8)で与えられる。
[数 4]
Figure imgf000023_0001
2 = in or out
[0090] また、ここで、式(9)に示す定義がある。
[数 5]
Figure imgf000023_0002
}i = or out
[0091] ただし、条件として、式(10)及び式(1 1)を満たしている。
[0092] SI (i,j,m) ≥ r > 0 · · · (10)
r— min
k /2- Δ Θ く SI (i,j,m) く k /2+ Δ Θ (k=0,l,2,3)
Π θ _ιι Π
•••(11)
ここで、 SI (i,j,m) = tan— 1 (i,j,m)/SI (i,j,m)]である。
[0093] また、式(9)の Pは、図 5の影がついている範囲の画素数である c
[0094] 一方、式(12)に示す定義がある。
[数 6] HV (rmin , Δ 9 , m) = T ^ SI r_ ^ (i , j , m) · ■ - ( 1 2) = m or out
[0095] ただし、条件として、式(13)及び式(14)を満たしている。
[0096] SI (i,j,m) ≥ r > 0 · · · (13)
r— min
k /2+ Δ Θ く SI (i,j,m) く (k+1) /2- Δ Θ (k=0, 1,2,3)
Π θ— μ Π
•••(14)
また、式(12)の Pは、式(13)及び式(14)を満たす範囲の画素数である。
[0097] 水平垂直エッジ量の最小値(Min_HV)は、エッジ電力量 (Ave— EE)では捉えき れなかった劣化、具体的にはブロック歪により新たに生じたエッジを捉える特徴量で ある。図を参照して後述するが、この指標によりその劣化は敏感に捉えられる。この指 標は、 ANSIに規定された指標をベースとしている力 式(7)に示すように、最小値を 用いることで新たなエッジの発生分のみを感度良く捉えるよう独自に改良したもので ある。
[0098] ところで、時間特徴量算出部 23は、基準映像信号 RIと劣化映像信号 PIとァライメ ント情報を入力して、基準映像フレームと劣化映像フレームとの空間的なずれ及び 時間的なずれをなくし、その後、基準映像信号 RIと劣化映像信号 PIに基づいて時間 特徴量を計算する。この第 2の実施形態ではこの時間特徴量として、以下に詳述す る TI (時間情報)値の差分に基づく指標であるブロック平均動き電力量 (Ave_MEB )を使用する。 TI値は映像フレーム間の画素の輝度値の差分であり、 ITU-R
Recommendation P.910に規定されているものである。
[0099] このブロック平均動き電力量(Ave— MEB):
この指標は、フレーム内の幾つかの画素の集まりであるブロックごとに基準映像フレ ームと劣化映像フレームの TI値の差分を導出し、この差分を基準映像フレームのブ ロックごとの TI値によって正規化を行ったものである。
[0100] すなわち、ブロック平均動き電力量 (Ave— MEB)は、式(15)で表される。
[数 7]
Figure imgf000025_0001
• · * (15)
[0101] ここで、 TI (k,l,m)は、式(16)で表される。
b
[数 8]
ΤΙ^^Ο^Ι,π)-^∑(YM(8k + i,81+j,m)-Y/ (8k + i!81+jJm-l))2
. - .(16)
[0102] ブロック平均動き電力量 (Ave— MEB)は、エッジ電力量 (Ave— EE)では捉えき れなかった劣化、具体的には領域毎の動きによる劣化の発生を捉える特徴量である 。図を参照して後述するが、この指標によりその劣化は敏感に捉えられる。この指標 は、領域毎の動きを捉えるためブロック毎の TI値を導出し、さらに基準映像の値で正 規化することにより感度良くさせた独自の尺度である。
[0103] 主観品質推定部 24は、空間特徴量算出部 22で計算された空間特徴量と時間特 徴量算出部 23で計算された時間特徴量とを入力して、基準映像信号 RIに対する劣 化映像信号 PIの主観品質である主観評価値を推定する。この主観評価値 (Y)は、式 (17)で算出される。
[0104] Υ=αΧ + βΧ + y X + δ · · · (17)
1 2 3
ここで、 X =Ave EE、 X =Min HV、 X =Ave_MEBである。
1 ― 2 ― 3 ―
[0105] この主観評価値が最終的に得られる値である。
[0106] ここで、 ひ, β , y , δは主観評価実験によって求められた劣化映像に対する主観 評価値との関係から、時間特徴量及び空間特徴量に対して主観評価値との対応関 係を決定するために予め求めた重み付け係数である。また、 ひ, β , y , δは、例え ば、劣化映像信号 ΡΙの信号形式、劣化映像信号 ΡΙにより送られてくる劣化映像の情 報量 (サイズ)、及び、劣化映像信号の符号化方式に基づいて決定される。したがつ て、劣化映像信号 ΡΙの信号形式、劣化映像信号 ΡΙにより送られてくる劣化映像の情 報量 (サイズ)、及び、劣化映像信号の符号化方式から予め α, β , y , δを計算し ておくことができる。
[0107] 以上に説明した第 2の実施形態の映像品質評価装置によれば、任意の映像に対し て統一的に主観品質を推定することができる。この第 2の実施形態の映像品質評価 装置が従来の映像品質評価装置に対して、どの程度精度が上がるかについては後 に図面を参照して詳細に説明する。
[0108] 尚、第 2の実施形態で説明した図 4に示した映像品質評価装置は、図 1に示した映 像品質評価装置の主観品質推定部 11に組み込まれ、図 1に示した映像品質評価装 置が使用されることも可能である。すなわち、図 4に示した映像品質評価装置が基準 映像信号 RI及び劣化映像信号 PIを入力して、主観品質推定部 24が出力した値を 一次推定主観品質 SQとして補正部 15に出力する。補正部 15は、補正計算部 14か ら補正情報 C1を受け取り、一次推定主観品質 SQを入力して最終推定主観品質 Qを 計算する。
[0109] <第 3の実施形態 >
本発明の映像品質評価装置に係る第 3の実施形態の各装置部分を図 6を参照して 説明する。図 6は、本発明の映像品質評価装置に係る第 3の実施形態の構成を示す ブロック図である。
[0110] 第 3の実施形態の映像品質評価装置は、第 2の実施形態の映像品質評価装置と 比較して、装置に入力され基準映像信号 RIと劣化映像信号 PIとがそれぞれ互いに 異なるファイル形式から入力される場合であり、さらに、劣化映像信号 PIの信号形式 、劣化映像信号 PIにより送られてくる劣化映像の情報量 (サイズ)、及び、劣化映像 信号の符号ィ匕方式が未知の場合であることが異なる。したがって、第 2の実施形態の 映像品質評価装置と同様な部分は同一符号を付して説明を省略する。
[0111] 第 3の実施形態の映像品質評価装置は、図 6に示すように、フォーマット変換部 35 、ァライメント情報生成部 21、空間特徴量算出部 22、時間特徴量算出部 23、主観品 質推定部 34、及び、重み付け係数データベース 36を備えている。
[0112] フォーマット変換部 35は、基準映像ファイルと劣化映像ファイルを入力して、劣化 映像ファイルのファイル形式が基準映像ファイルのファイル形式と異なる場合に、劣 化映像ファイルのファイル形式を基準映像ファイルのファイル形式と同様な形式に変 換する。より詳細には、例えば、劣化映像ファイルの信号形式、色分布、サイズ、ァス ぺクト比、及び、符号化方式が基準映像ファイルのものと異なる場合に、劣化映像フ アイルのファイル形式を基準映像ファイルのファイル形式と同様な形式に変換する。 そして、フォーマット変換部 35は基準映像ファイルと同じファイル形式に変換された 劣化映像ファイルから劣化映像信号 PIを出力する。フォーマット変換部 35からの劣 化映像信号 PIはァライメント情報生成部 21、空間特徴量算出部 22、及び、時間特 徴量算出部 23に出力される。
[0113] より具体的には、フォーマット変換部 35は、例えば、基準映像が VGAサイズの YU V形式基準映像を想定し、基準映像と劣化映像のカラーフォーマットが異なる場合、 劣化映像が RGB形式であればこの映像を Rec. IUT-R BT. 601 "STUDIO
ENCODING PARAMETERS OF DIGITAL TELEVISION FOR STANDARD 4:3 AND WIDE-SCREEN 16:9 ASPECT RATIOS"などに載っている変換式を用いて変換する 。また、フォーマット変換部 35が基準映像と劣化映像のサイズやアスペクト比をこれら 力 S同一となるように変換する場合に、単純に整数倍として計算できる場合があるが、 それで済まない場合は任意のサイズに変換する必要がある。この場合、公知の方法 により任意のサイズへの変換を行う(例えば、 Muramatsu S. and Kiya Η· : "Scale Factor of Resolution Conversion Based on Orthogonal Transforms," IEICt!, lYans. Fundamentals. , E76-A, 7, pp.1150-1153 (July 1993)や、松村正吾、貴家仁志、 "変 化符号化された画像に対する任意の有理数倍率の解像度変換法" 電子情報通信 学会論文誌 A, Vol.77- A, No.3, pp.369-378, March 1994·、参照)。また、映像信号 が圧縮されている場合、予め非圧縮形式に変換する。
[0114] さらに、映像符号化や伝送システムの特性や国による規格の違いにより劣化映像 の色や明るさの分布が異なることにより、客観評価値にバイアス力 Sかかることを避ける ため、基準映像と劣化映像の輝度値などの分布を正規化する。つまり、基準映像と 劣化映像の両者に対して、輝度、色差信号、又は RGB値毎に、特定フレームの画素 値の分布からその最大値、最小値、平均値、分散のような統計量を導出し、その分布 が同じになるよう、例えば平均値のずれた分だけ劣化映像の全画素値をシフトさせる ことにより、又は基準映像と劣化映像の最小値と最大値の範囲をそろえるため式(18 )に示す変換式で変換することにより、基準映像と劣化映像の分布を正規化する。
[数 9] ττ—(基準映像の最大画素値一最小画素値)
—(劣化映像の最大画素値一最小画素値) ( ) 但し Υ:変換後の劣化映像の画素値
X:変換前の劣化映像の画素値
[0115] フォーマット変換部 35は、変換された劣化映像信号 ΡΙのファイル形式、すなわち基 準映像信号 RIと同様なファイル形式に関連する情報を主観品質推定部 34に出力す る。このファイル形式に関連する情報は、例えば、劣化映像ファイルの信号形式、色 分布、サイズ、アスペクト比、及び、符号ィ匕方式であるが、この第 3の実施形態では、 劣化映像ファイルの信号形式、サイズ、及び、符号化方式を主観品質推定部 34に 出力する。
[0116] 重み付け係数データベース 36は、劣化映像ファイルの信号形式、サイズ、及び、 符号化方式を一組の条件として、この条件を複数格納しており、各条件に対応して 重み付け係数ひ, β , y , δが予め設定されている。これらの重み付け係数は、主観 評価実験によって求められた劣化映像に対する主観評価値との関係から、時間特徴 量及び空間特徴量に対して主観評価値との対応関係を予め求めてあるものである。 図 7は、重み付け係数データベース 36が格納している複数の条件及びこれら条件に 対応する重み付け係数を示してレヽる。
[0117] 主観品質推定部 34は、フォーマット変換部 35から入力する劣化映像ファイルの信 号形式、サイズ、及び、符号化方式に応じて、重み付け係数 a , β , γ , δを重み付 け係数データベース 36から取得することが、第 2の実施形態の主観品質推定部 24と 異なる。他は主観品質推定部 24と同様である。
[0118] 尚、図 6では、フォーマット変換部 35とァライメント情報生成部 21が別個に配置され ているが、フォーマット変換部 35とァライメント情報生成部 21が 1つの構成部として図 6の映像品質評価装置に組み込まれていてもよい。
[0119] 以上に説明した第 3の本実施形態によれば、劣化映像ファイルのファイル形式が基 準映像ファイルと異なった場合でも劣化映像の主観品質を推定することができる。さ らに、劣化映像ファイルの信号形式、サイズ、及び、符号化方式等に関し、多くのパ ターンに対応することができるため、様々な劣化映像ファイルの主観品質を推定する ことが可能となる。
[0120] 以下に、第 2及び 3の実施形態の映像品質評価装置が推定した映像品質評価値 の推定精度についての実際の結果を、従来の映像品質評価装置と比較しつつ、図 8 力 図 16を参照して説明する。
[0121] 最初に、推定精度の検証及び重み付け係数データベース 36に格納する重み付け 係数を導出するために用いる主観評価データについて説明する。主観評価データ は図 8に示す ITU— Rで選定されている標準映像(図 8の映像シーケンス名)(ITU-R BT. 802—1, Test Pictures and sequences for suojective Assessments or Digital し odecs Conveying Signals Produced According to Recommendation ITU-RBT. 601, " 1994、及び、 ITU-R BT. 1201-2, "Test materials to be used in subjective assessment," 2001を参照)の 36種類を基準映像とし、図 8に示したように標準映像を 映像品質評価値の推定精度を検証するための検証データと予め係数導出に用いる データである学習データに分ける。
[0122] 推定精度を検証するために用いる主観評価データは、基準映像の特性の偏りによ る影響を少なくするように選択される。すなわち、 ITU-TP.910 (ITU-T P. 910, " subjective viaeo quality assessment metnods for multimedia applications Aug. 1996.を参考)で示されている空間情報(SI)、時間情報 (TI)の分布を考慮し、図 9の 領域 Aから領域 Dまで同数の映像を選定する。これにより、様々な SI値及び TI値を 有する映像を基準映像とすることができる。また、これらの基準映像に対し MPEG4 をベースとした符号化劣化を用いて 256kbps— 8Mbps範囲内で 4段階に割り振り劣 化映像とした。
[0123] 主観品質評価法は、 MPEGのベリフィケーシヨンなどコーデックの性能評価試験で よく使われている DSCQS法(ITU- R BT. 500-10, "Methodology for the subjective assessment or the quality of television pictures March 2000. ¾r参 ¾ jを用レヽ、被'!^ 者数は 18歳から 40歳までの一般人の男女 24名である。 [0124] 映像品質評価装置の目標推定精度は、主観評価における評点のばらつきの程度 と同等とすることが適切である。主観評価値のばらつきの程度を片側 95%信頼区間 として導出したところ、全データにおいて 7. 24であった。そこで、映像品質評価装置 の目標推定精度として平均二乗誤差 (RMSE)がこの値を超えないことが目標となる
[0125] 従来の映像品質評価装置では、一般的に使用される、 PSNR (Peak Signal Noise Ratio :ピーク SN比)と、 ANSIのパラメータとして知られているエッジ電力量 (Ave_E E)とを用いたものを使用して、学習データに対して推定した結果をそれぞれ図 10及 び図 11に示す。図 10が PSNRを使用した場合で、図 11がエッジ電力量 (Ave_EE )を使用した場合の推定結果である。図 10及び図 11によれば、 PSNRでの RMSE は 9. 57で、エッジ電力量(Ave_EE)での RMSEは 7. 47であり、 PSNRに比べて エッジ電力量 (Ave_EE)のほうが良好な特性を示すが、 RMSEは目標値を超えて おり推定精度は不十分である。
[0126] 次に、エッジ電力量(Ave— EE)、水平垂直エッジ量の最小値(Min— HV)、 Ave —MEB全てを用いた第 2及び第 3の実施形態の映像品質評価装置を使用して、学 習データ、検証データに対する推定結果を図 12及び図 13に示す。図 12及び図 13 によれば、学習データでの RMSEは 6. 43であり、検証データでの RMSEは 6. 49 であるので、学習データだけではなぐ非学習データである検証データに対しても目 標とする推定精度を十分クリアしている。したがって、第 2及び第 3の実施形態の映像 品質評価装置は、人間が実際の映像を見てその品質を評価する主観評価品質試験 に代えて使用することができる推定精度を持ち、実用的に使えるレベルであることが わ力る。
[0127] また、図 14は、エッジ電力量 (Ave_EE)のみによる学習データの一部の推定結 果を示す図である。図 14に示すように、入力映像 [3]、 [6コ、 [7コ、 [9]において評点 の傾きが大きぐ客観評価値はほとんど変わらないにも関わらず主観評価値は大きく 変化しており、このエッジ電力量 (Ave_EE)のみではこれらの映像に発生する劣化 を捉えきれてレ、なレ、ことが分かる。
[0128] また、図 15は、水平垂直エッジ量の最小値(Min HV)と主観評価値の関係を示 す図である。図 15に示すように、水平垂直エッジ量の最小値(Min_HV)によれば、 入力映像 [3]、 [7]において、敏感にその劣化を捉えていることが分かる。
[0129] また、図 16は、ブロック平均動き電力量 (Ave— MEB)と主観評価値の関係を示す 図である。図 16に示すように、ブロック平均動き電力量 (Ave_MEB)によれば、入 力映像 [6]、 [9]において、敏感にその劣化を捉えていることが分かる。
[0130] 以上のように、本発明の第 2及び第 3実施形態によれば、映像の物理的な特徴量と して、エッジ領域に発生する劣化を捉えるパラメータに加え、精度不足を補う 2つの独 自パラメータを追加することにより、特定の映像で推定精度を保てる技術を任意の映 像に拡張できるようにした。
[0131] <第 4の実施形態 >
次に、映像整合装置、映像整合方法及び映像整合プログラムの発明に係る実施形 態について説明する。
[0132] 図 17は、本発明の映像整合装置に係る実施形態の構成を示すブロック図である。
[0133] 第 4の実施形態の映像整合装置は、フォーマット変換部 41、表示タイミング整合部
42、同期/位置整合部 43、輝度/色補正部 44、及び劣化量導出部 45を少なくとも 備えている。
[0134] フォーマット変換部 41は、符号化やネットワークでの損失によって劣化した劣化映 像信号に含まれるファイル形式を、基準映像信号に含まれる基準映像のファイル形 式に合わせる。表示タイミング整合部 42は、基準映像信号と劣化映像信号の映像表 示のタイミングを合わせる。同期/位置整合部 43は、劣化量導出部 45から劣化量や 同期ずれ情報を取得しつつ、基準映像信号と劣化映像信号の時間空間方向の整合 をとる。また、必要に応じて、輝度/色整合部 44は、基準映像信号と劣化映像信号 の輝度や色分布の違いにっレ、て補正を行う。
[0135] 尚、この実施形態においては、基準映像信号及び劣化映像信号には、フレームレ ート情報又はフレーム表示時刻 Z取込時刻情報が含まれている。また、必要に応じ て、信号フォーマット情報も含まれる。それにより、当該映像整合装置は、基準映像 及び劣化映像について、対象フレームとその前後数フレーム分をメモリに蓄積しなが ら非リアルタイムに処理を進めるものとする。 [0136] 図 18は、本発明の映像整合装置の実施形態の動作手順を示すフローチャートで ある。
[0137] 先ず、フォーマット変換部 41は、基準映像と劣化映像の信号形式、サイズ、ァスぺ タト比が異なる場合に、劣化映像の信号形式の変換を行う(ステップ Sl)。例えば、基 準映像のデータ形式が非圧縮の YUV形式であり、劣化映像のデータ形式が非圧縮 の RGB形式であれば、劣化映像を、 Rec.IUT-R BT.601 "STUDIO ENCODING PARAMETERS OF DIGITAL TELEVISION FOR STANDARD 4:3 AND
WIDE-SCREEN 16:9 ASPECT RATIOS"の変換式を用いて変換する。また、フォー マット変換部 41は、そもそも劣化映像が圧縮形式の場合は事前に非圧縮形式に変 換する。さらに、フォーマット変換部 41は、サイズやアスペクト比が異なる場合は、そ れが同一となるように変換する。ここで、例えば単純に整数倍として計算できる場合が あるが、それだけでは不十分の場合は任意のサイズに変換する必要があり、この場 合、公知の方法により任意のサイズへの変換を行う(例えば、 Muramatsu S. and Kiya ri.: Scale r actor of Resolution uonversion Based on Orthogonal Transforms, IEICE Trans. Fundamentals., E76- A, 7, pp.1150- 1153 (July 1993)や、松村正吾、貴 家仁志、 "変化符号化された画像に対する任意の有理数倍率の解像度変換法" 電 子情報通信学会論文誌 A, Vol.77-A, No.3, pp.369-378, March 1994.、参照)。その 後、フォーマット変換部 41は、基準映像信号と変換した劣化映像信号を表示タイミン グ整合部 42に渡す。
[0138] 次に、表示タイミング整合部 42は、フォーマット変換部 41でフォーマット変換された 劣化映像信号を基準映像信号の表示タイミングに合わせるため、フレームの補完な どの処理を行う(ステップ S 2)。
[0139] 具体的には、図 19の(a)に示すように劣化映像の表示間隔が基準映像の表示間 隔より定常的に長い場合には、表示タイミング整合部 42は、図 19の(b)の下段に示 すように、全フレームを補完することにより劣化映像に対して映像を補う。
[0140] また、図 19の(b)に示すように劣化映像の表示間隔が揺らぐ場合には、表示タイミ ング整合部 42は、図 19の(b)の下段に示すように、基準映像と同期しているタイミン グで、劣化映像の直前の映像で劣化映像を補う。尚、このとき、劣化映像の直前の映 像で補うのではなぐ劣化映像のうち時間的に近い映像で補いようにすることもできる
。即ち、例えば、図 19の(b)の場合、変換劣化映像の 2番目のフレームとしてフレー ム Iが充てられているが、劣化映像のうち時間的に近い映像で補うとするならば、フレ ーム IIが充てられることとなる。
[0141] さらに、図 19の(c)に示すように基準映像信号自体が一定のフレームレートでない 場合は、基準映像信号と劣化映像信号をそれらとは別の正確な時間間隔で表示さ れるように補完することとする。
[0142] その後、表示タイミング整合部 42は、基準映像信号と劣化映像信号を同期/位置 整合部 43に渡す。
[0143] 同期/位置整合部 43は、 (1)評価開始状態、(2)同期状態、(3)フリーズ状態の 3 つの状態を想定して、その動作を規定している。
[0144] (1)先ず、評価開始状態においては、同期/位置整合部 43は、時間方向のマクロな 整合をとるために、一定時間の基準映像信号と劣化映像信号に対する 1フレーム全 体やその特定領域の信号の輝度/色差/ RGB値の平均値のような特徴量の推移 を比較して整合性の最も高くなるフレーム情報を取得し、それによりマクロな時間方 向のずれを導出する (ステップ S3)。具体的には、図 20に示すように特徴量を時間方 向にずらして各時系列値の差分が最小、または相互相関係数が最大になる条件から 時間方向のずれ (フレーム差)を導出する。
[0145] また、同期/位置整合部 43は、ミクロな時間空間方向の整合をとるために、劣化量 導出部 45より基準映像において整合がとれた映像の前後数フレームに対して図 21 に示すように劣化映像を上下左右に画素を動かし、差分値の最小である位置を最も 整合がとれたところとして画素位置情報として受け取る(ステップ S4)。
[0146] さらに、同期 Z位置整合部 43は、輝度 Z色補正を行うために整合がとられた基準 映像と劣化映像を輝度/色補正部 44に渡す。輝度 Z色補正部 44は、劣化映像の 輝度及び色情報の平均値、最小値及び最大値並びにそれらの分布を、基準映像の それらと整合をとる。例えば、基準映像と劣化映像の輝度分布が異なる場合には、輝 度/色補正部 44は、基準映像と劣化映像の輝度分布のそれぞれの平均値と分散 値に基づき、基準映像と劣化映像の輝度分布に対し線形正規化を施し、その線形正 規化を行うための変換式に係る情報を補正情報として同期/位置整合部 43に渡す
。同期/位置整合部 43は、その補正情報を受け取り、受け取った補正情報に基づ いて輝度/色補正処理を行う(ステップ S5)。
[0147] 以下、 (2)同期状態及び(3)フリーズ状態における処理として、同期/位置整合部
43は、図 18に示したステップ S6乃至ステップ S22の処理を行う。
[0148] 基準映像対象フレーム番号 iが基準映像最終フレーム数 Nより小さいか、または劣 化映像対象フレーム番号 jが劣化映像最終フレーム数 Mより小さい間は、以下のステ ップ S7乃至ステップ S22の処理を行う(ステップ S6)。
[0149] そこで、先ず、 F1が "1"か否か、即ち基準映像と劣化映像とが非同期状態にあるか 否力、を判断する (ステップ S7)。基準映像と劣化映像とが同期状態にある場合は (F1
= 0)、ステップ S8に移行し、基準映像と劣化映像とが非同期状態にある場合は (F1
= 1)、ステップ S 16に移行する。
[0150] 先ず、基準映像と劣化映像とが同期状態にある場合 (F1 = 0)について以下説明 する。
[0151] 同期/位置整合部 43は、前述の評価開始状態で得られた、時間空間方向のずれ や、輝度/色情報を補正した劣化映像と、基準映像とを劣化量導出部 45に渡す。 劣化量導出部 45は、劣化映像の対象フレームについて、対応する基準映像のフレ ームとその前後数フレームを対象にミクロ同期処理を行い(図 21参照)、それにより得 られる劣化量を導出すると共に、基準映像と劣化映像各々の 1つ前のフレームとの間 のフレーム間の差分値を劣化量として導出する (ステップ S8)。同期/位置整合部 4 3は、劣化量導出部 45により導出されたそれらの劣化量を受け取り、それらの劣化量 のうち、フレーム間差分値に基づいて、劣化映像がフリーズ状態か否力、を判断する( ステップ S9)。即ち、基準映像についての差分値がある値を示しているのに対し、劣 化映像のそれが殆ど 0を示していれば、同期/位置整合部 43は、劣化映像がフリー ズ状態であると判断する。
[0152] 劣化映像がフリーズ状態のときは、同期/位置整合部 43は、非同期状態 (Fl = l) と設定すると共に、フリーズ数を' T' (Count= l)として(ステップ S10)、ステップ S22 に移行する。 [0153] 一方、劣化映像がフリーズ状態ではないときは、次に、同期/位置整合部 43は、ス テツプ S8において劣化量導出部 45のミクロ同期処理により得られた、劣化映像の対 象フレームの劣化量力 最小か否かを判断する(ステップ Sl l)。劣化映像の対象フ レームの劣化量が最小であるときは、同期状態(F2 = 0)と設定し (ステップ S 12)、ス テツプ S14に移行する。一方、劣化映像の対象フレームの劣化量が最小でないとき は、フレームずれ状態(コマ飛び状態、コマ戻り状態等)であると判定してステップ S1 3に移行し、劣化量が最小であるフレーム番号を j値に設定し、コマ飛びなら F2 = lと 設定し、それ以外(コマ戻り状態等)なら F2 = 2と設定し、そのときのコマ(フレーム) のずれ数を Count値に設定する。
[0154] ステップ S14においては、基準映像及び劣化映像を出力すると共に F2値及び Co tint値を出力する。その後、 Count値を 0にリセットし、ステップ S22に移行する。
[0155] 次に、ステップ S7において、基準映像と劣化映像とが非同期状態にある(Fl = l) と判断された場合について以下説明する。
[0156] 同期/位置整合部 43は、ステップ S16において、ステップ S8と同様、劣化映像の 対象フレームについて、対応する基準映像のフレームとその前後数フレームを対象 に行われたミクロ同期処理により得られた劣化量を劣化量導出部 45から受け取ると 共に、基準映像と劣化映像各々の 1つ前のフレームとの間のフレーム間の差分値を 劣化量として受け取る。同期/位置整合部 43は、ステップ S9と同様、それらの劣化 量のうち、フレーム間差分値に基づいて、劣化映像がフリーズ状態か否かを判断す る(ステップ S 17)。
[0157] 劣化映像がフリーズ状態のときは、同期/位置整合部 43は、フリーズ数(Count値 )をインクリメントして(ステップ S18)、ステップ S22に移行する。
[0158] 一方、劣化映像がフリーズ状態ではないときは、同期/位置整合部 43は、フリーズ 状態が終了したと判断し、ステップ S3と同様のマクロ時刻同期処理を行レ、、(ステツ プ S19)、フリーズ数(Count値)を出力する(ステップ S20)。その後、 F1値及び Cou nt値を 0にリセットし、ステップ S22に移行する。
[0159] ステップ S22においては、基準映像対象フレーム番号 i及び劣化映像対象フレーム 番号 jをインクリメントし、その i値が基準映像最終フレーム数 Nに達し、かつ、その j値 が劣化映像最終フレーム数 Mに達した場合には、処理を終了する。
[0160] 尚、常に一定時間、基準映像信号と劣化映像信号について、 1フレーム全体また は特定領域の信号の輝度/色差/ RGB値の平均値のような特徴量を蓄積している こととし、何らかの事情で同期が取れなくなったとき、例えば対象となるフレームにお ける特徴量が一定期間の平均値力 ある閾値 (3 σのように標準偏差の定数倍)以上 に開きが生じた場合には、(1)の評価初期状態に入ることとし、ステップ S3から処理 が再開される。
[0161] 以上が本発明の実施形態における映像整合処理の詳細である。
[0162] 本実施形態によれば、映像のフォーマット変換を行うと共に、マクロな整合処理とミ クロな整合処理をベースに同期整合を常時行うことにより、パーソナルコンピュータ端 末において映像を受信する際に受け取る映像のサイズやアスペクト比が異なる場合 や、パケット損失のようにある程度まとまった情報が損失することにより基準映像と劣 化映像の空間的な位置の対応が取れない場合や、更に IPパケット到着間隔のゆら ぎやパケット損失の発生により、時間軸での映像表示のタイミングのずれや映像表示 タイミングのゆらぎやフリーズという従来存在しなかった現象が生じる場合であっても 、基準映像と劣化映像の時間方向と空間方向の整合を適切にとることができる。
[0163] ところで、本発明の映像整合方法においては、同期/位置整合部 43から出力した 基準映像と劣化映像とその付属情報 (時間方向の状態)を映像品質評価装置に入 力することを想定している (例えば、第 1の実施形態の映像品質評価装置の主観品 質推定部 11に入力される)が、劣化量導出部 45において劣化量ではなく客観評価 値を導出することとし、同期/位置整合部 43よりその結果を出力すれば映像品質評 価装置として利用するともできる。
[0164] 尚、以上に説明してきた各実施形態において、その処理手順に示された指示は、 ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機 システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより 、この汎用計算機システムを映像品質評価装置及び映像整合装置として機能させる こと力 Sできる。上述の各実施形態で記述された指示は、コンピュータに実行させること のできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、 光ディスク(CD— ROM、 CD-R, CD-RW, DVD-ROM, DVD±R、 DVD土 RW など)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータは、この 記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述さ れている指示を CPUで実行させれば、コンピュータが上述した実施形態の映像品質 評価装置及び映像整合装置として動作する。
[0165] 尚、本発明は上記実施形態そのままに限定されるものではなぐ実施段階ではその 要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に 開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成でき る。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよ レ、。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
産業上の利用可能性
[0166] 本発明の映像品質評価装置、映像品質評価方法及び映像品質評価プログラムに よれば、未知の基準映像であっても、任意の映像に対して精度良く統一的な主観品 質を推定することができる。
[0167] 具体的には、本発明の映像品質評価装置、映像品質評価方法及び映像品質評価 プログラムによれば、基準映像の物理的な特徴量からこの映像に対する人間の視覚 的な特性を求め、基準映像の特徴量に対する補正情報としてデータベース化し、基 準映像と劣化映像の物理的特徴量の差分から導出した推定主観品質に、その補正 情報で重みを付けることにより、任意の映像に対して従来法である主観評価法と同等 な精度で統一的に主観品質を導出できるようになる。
[0168] また、映像の物理的な特徴量として、エッジ領域に発生する劣化を捉えるパラメ一 タに加え、精度不足を補う 2つの独自パラメータを追加することにより、特定の映像で 推定精度を保てる技術を任意の映像に拡張できるようにした。
[0169] 本発明の映像整合装置、映像整合方法及び映像整合プログラムによれば、主観品 質の推定において基準映像信号と劣化映像信号との物理的特徴量を比較するに際 し、確実にそれらの空間的及び時間的な位置の整合をとることができる。
[0170] 具体的には、映像のフォーマット変換を行うと共に、マクロな整合処理とミクロな整 合処理をベースに同期整合を常時行うことにより、パーソナルコンピュータ端末にお レ、て映像を受信する際に受け取る映像のサイズやアスペクト比が異なる場合や、パケ ット損失のようにある程度まとまった情報が損失することにより基準映像と劣化映像の 空間的な位置の対応が取れない場合や、更に IPパケット到着間隔のゆらぎやバケツ ト損失の発生により、時間軸での映像表示のタイミングのずれや映像表示タイミング のゆらぎやフリーズという従来存在しなかった現象が生じる場合であっても、基準映 像と劣化映像の時間方向と空間方向の整合を適切にとることができる。
したがって、かかる映像整合装置及び方法を前提とした映像品質評価装置及び方 法によれば、上述の各場合でも映像品質客観評価が可能となったり、その精度を向 上させることができる。

Claims

請求の範囲
[1] 劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化した 劣化映像信号 (PI)とを入力し、両信号の映像信号特徴量を算出し、算出された両信 号の映像信号特徴量の差分に基づいて、前記劣化映像信号の主観品質を推定す る主観品質推定部(11)と、
前記主観品質を補正するための補正情報を、映像信号特徴量に対応して格納して レ、る補正情報格納部(13)と、
前記基準映像信号の前記映像信号特徴量を入力し、入力した映像信号特徴量に 対応した補正情報を前記補正情報格納部(13)から取得し、取得した補正情報に基 づいて前記推定された主観品質を補正する主観品質補正部(12, 14, 15)と、 を備えることを特徴とする映像品質評価装置。
[2] 前記主観品質推定部(11)は、映像信号に含まれる映像の各フレーム内での映像状 態を示す空間情報 (SI)及びフレーム間での映像変化を示す時間情報 (TI)の少なく ともいずれかの、劣化映像信号と基準映像信号間の差分に基づいて、前記主観品 質を推定することを特徴とする請求の範囲第 1項に記載の映像品質評価装置。
[3] 前記主観品質推定部(11)は、前記劣化映像信号と前記基準映像信号間の前記映 像信号特徴量の差分として、映像信号に含まれる映像の各フレーム内での劣化量を 示すエッジ電力量 (E)、及び、フレーム間での劣化量を示す動き電力量 (M)の少な くとも一方を算出することを特徴とする請求の範囲第 2項に記載の映像品質評価装 置。
[4] 前記主観品質推定部(11)は、 ITU-R Recommendation P.910に規定されている と基準映像信号間の差分に基づいて前記主観品質を推定することを特徴とする請求 の範囲第 2項に記載の映像品質評価装置。
[5] 補正情報格納部(13)は、前記主観品質を補正するための補正情報として、補正係 数( α , β )を、映像信号に含まれる映像の各フレーム内での映像状態を示す空間 情報(SI)及びフレーム間での映像変化を示す時間情報 (ΤΙ)に対応して格納してレ、 ることを特徴とする請求の範囲第 1項に記載の映像品質評価装置。 [6] 前記主観品質推定部(11)は、
前記基準映像信号 (RI)と前記劣化映像信号 (PI)とを入力し、前記基準映像信 号からの基準映像フレームと前記劣化映像信号からの劣化映像フレームとの時間的 なずれと、前記基準映像フレームと前記劣化映像フレームとの空間的なずれとに関 するァライメント情報を生成するァライメント情報生成部(21)と、
前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームの映像状態を示す空 間情報に基づいてそれぞれの空間特徴量を算出する空間特徴量算出部(22)と、 前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームについて、それぞれの フレーム間での映像変化を示す時間情報に基づいてそれぞれの時間特徴量を算出 する時間特徴量算出部(23)と、
前記空間特徴量及び前記時間特徴量に基づいて前記劣化映像信号の主観品 質を推定する推定部(24)と、
を備えることを特徴とする請求の範囲第 1項に記載の映像品質評価装置。
[7] 劣化してレ、なレ、映像信号である基準映像信号 (RI)が劣化した劣化映像信号 (PI)の 推定された主観品質を補正するための補正情報(《, )を、映像信号特徴量に対 応して格納している補正情報格納部(13)を備え、前記劣化映像信号の主観品質を 推定する映像品質評価装置における映像品質評価方法であって、
前記基準映像信号と前記劣化映像信号とを入力し、
両信号の映像信号特徴量を算出し、
算出された両信号の映像信号特徴量の差分に基づいて、前記劣化映像信号の前 記主観品質を推定し、
算出された前記基準映像信号の映像信号特徴量に対応した補正情報( α , )を 前記補正情報格納部(13)から取得し、
取得された補正情報(ひ, )に基づレ、て前記推定された主観品質を補正すること を特徴とする映像品質評価方法。
[8] コンピュータを、 劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化し た劣化映像信号 (PI)とを入力し、両信号の映像信号特徴量を算出し、算出された両 信号の映像信号特徴量の差分に基づいて、前記劣化映像信号の主観品質を推定 する主観品質推定手段(11)と、
前記主観品質を補正するための補正情報(ひ, /3 )を、映像信号特徴量に対応して 格納する補正情報格納手段(13)と、
算出された前記基準映像信号の映像信号特徴量に対応した補正情報( α , )を 前記補正情報格納手段(13)から取得し、取得された補正情報に基づいて前記推定 された主観品質を補正する主観品質補正手段(12, 14, 15)として機能させるため の映像品質評価プログラム。
[9] 劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化した 劣化映像信号 (ΡΙ)とを入力し、前記基準映像信号からの基準映像フレームと前記劣 化映像信号からの劣化映像フレームとの時間的なずれと、前記基準映像フレームと 前記劣化映像フレームとの空間的なずれとに関するァライメント情報を生成するァラ ィメント情報生成部(21)と、
前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームの映像状態を示す空 間情報に基づいてそれぞれの空間特徴量を算出する空間特徴量算出部(22)と、 前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームについて、それぞれの フレーム間での映像変化を示す時間情報に基づいてそれぞれの時間特徴量を算出 する時間特徴量算出部(23)と、
前記空間特徴量及び前記時間特徴量に基づいて前記劣化映像信号の主観品質 を推定する主観品質推定部(24)と、
を備えることを特徴とする映像品質評価装置。
[10] 前記劣化映像信号 (ΡΙ)に含まれる劣化映像のファイル形式を、対応する前記基準 映像信号 (RI)に含まれる基準映像のファイル形式に変換すると共に、その統一され たファイル形式に関連した情報を出力する形式変換部(35)と、 前記ファイル形式に関連した情報に対応させて、前記劣化映像信号の主観品質を 推定するための係数(α , β , γ , δ )を格納している補正係数格納部(36)と、 を更に備え、
前記主観品質推定部(34)は、前記形式変換部(35)から入力した前記統一された ファイル形式に関連した情報に対応した前記係数を前記補正係数格納部(36)から 取得し、前記空間特徴量、前記時間特徴量、及び、前記取得した係数に基づいて、 前記劣化映像信号の主観品質を推定することを特徴とする請求の範囲第 9項に記載 の映像品質評価装置。
[11] 前記形式変換部(35)は、前記統一されたファイル形式に関連した情報として、前記 劣化映像信号の信号形式、前記劣化映像信号により送られてくる劣化映像の情報 量、及び、前記劣化映像信号の符号化方式の少なくともいずれかを出力し、前記補 正係数格納部は、前記劣化映像信号の信号形式、前記劣化映像信号により送られ てくる劣化映像の情報量、及び、前記劣化映像信号の符号化方式の少なくともいず れかに対応させて、最適な係数(ひ, β , γ , δ )を格納していることを特徴とする請 求の範囲第 10項に記載の映像品質評価装置。
[12] 前記空間特徴量算出部(22)は、前記基準映像信号と前記劣化映像信号に基づい て、フレーム内で輝度値が急激に変化する境界に発生する劣化を定量ィヒする指標 を前記空間特徴量として算出することを特徴とする請求の範囲第 9項または第 10項 に記載の映像品質評価装置。
[13] 前記空間特徴量算出部(22)は、前記基準映像信号と前記劣化映像信号に基づい て、 ANSI T1.801.03-1995で規定されているエッジ電力量 (Ave— EE)を空間特徴量 として算出することを特徴とする請求の範囲第 12項に記載の映像品質評価装置。
[14] 前記空間特徴量算出部(22)は、前記基準映像フレームと比較して、該基準映像フ レームに対応する前記劣化映像フレームで輝度値が急激に変化する境界が水平垂 直方向に発生している度合いを定量化する指標(Min_HV)を前記空間特徴量とし て算出することを特徴とする請求の範囲第 9項、第 10項、または第 12項に記載の映 像品質評価装置。
[15] 前記時間特徴量算出部(23)は、フレーム内の 1画素以上の集合であるブロックごと に基準映像の ITU-R Recommendation P.910に規定されている Temporal
Information値と劣化映像の ITU-R Recommendation P.910に規定されている
Temporal Information値の差分に基づいて映像のフレーム間での変化量(Ave— M EB)を前記時間特徴量として算出することを特徴とする請求の範囲第 9項、第 10項、 第 12項、または第 14項に記載の映像品質評価装置。
前記主観品質を補正するための補正情報を、空間特徴量及び時間特徴量に対応し て格納している補正情報格納部(13)と、
前記基準映像信号 (RI)の前記空間特徴量及び前記時間特徴量を入力し、入力し た空間特徴量及び時間特徴量に対応した補正情報 , β )を前記補正情報格納 部(13)から取得し、取得した補正情報に基づいて前記推定された主観品質を補正 する主観品質補正部(12, 14, 15)と、
を更に備えることを特徴とする請求の範囲第 9項または第 10項に記載の映像品質 評価装置。
劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化した 劣化映像信号 (ΡΙ)とを入力し、
前記基準映像信号からの基準映像フレームと前記劣化映像信号からの劣化映像 フレームとの時間的なずれと、前記基準映像フレームと前記劣化映像フレームとの空 間的なずれとに関するァライメント情報を生成し、
前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームの映像状態を示す空 間情報に基づいてそれぞれの空間特徴量を算出し、
前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームについて、それぞれの フレーム間での映像変化を示す時間情報に基づいてそれぞれの時間特徴量を算出 し、
前記空間特徴量及び前記時間特徴量に基づいて前記劣化映像信号の主観品質 を推定することを特徴とする映像品質評価方法。
劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化した 劣化映像信号 (PI)とを入力し、
前記劣化映像信号に含まれる劣化映像のファイル形式を、対応する前記基準映像 信号に含まれる基準映像のファイル形式に変換し、
その統一されたファイル形式に関連した情報を生成し、
前記基準映像信号からの基準映像フレームと前記劣化映像信号からのファイル形 式が変換された劣化映像の劣化映像フレームとの時間的なずれと、前記基準映像フ レームと前記劣化映像フレームとの空間的なずれとに関するァライメント情報を生成 し、
前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームの映像状態を示す空 間情報に基づいてそれぞれの空間特徴量を算出し、
前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームについて、それぞれの フレーム間での映像変化を示す時間情報に基づいてそれぞれの時間特徴量を算出 し、
前記空間特徴量と、前記時間特徴量と、前記統一したファイル形式に関連した情 報に対応した、主観品質推定のための係数( α, β , y , δ )と、に基づいて、前記劣 化映像信号の主観品質を推定することを特徴とする映像品質評価方法。
コンピュータを、
劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化し た劣化映像信号 (ΡΙ)とを入力し、前記基準映像信号からの基準映像フレームと前記 劣化映像信号からの劣化映像フレームとの時間的なずれと、前記基準映像フレーム と前記劣化映像フレームとの空間的なずれとに関するァライメント情報を生成するァ ライメント情報生成手段(21)と、
前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームの映像状態を示す空 間情報に基づいてそれぞれの空間特徴量を算出する空間特徴量算出手段(22)と、 前記ァライメント情報に基づいて前記空間的なずれ及び前記時間的なずれをなく した上で、前記基準映像フレーム及び前記劣化映像フレームについて、それぞれの フレーム間での映像変化を示す時間情報に基づいてそれぞれの時間特徴量を算出 する時間特徴量算出手段(23)と、
前記空間特徴量及び前記時間特徴量に基づいて前記劣化映像信号の主観品質 を推定する主観品質推定手段(24)として機能させるための映像品質評価プログラム
[20] 前記コンピュータを、
前記劣化映像信号 (PI)に含まれる劣化映像のファイル形式を、対応する前記基準 映像信号 (RI)に含まれる基準映像のファイル形式に変換すると共に、その統一され たファイル形式に関連した情報を出力する形式変換手段(35)と、
前記ファイル形式に関連した情報に対応させて、前記劣化映像信号の主観品質を 推定するための係数(ひ, β , y , δ )を格納している補正係数格納手段(36)として 更に機能させ、
前記主観品質推定手段(34)は、前記形式変換手段(35)から入力した前記統一さ れたファイル形式に関連した情報に対応した前記係数を前記補正係数格納手段(3 6)から取得し、前記空間特徴量、前記時間特徴量、及び、前記取得した係数に基づ いて、前記劣化映像信号の主観品質を推定することを特徴とする請求の範囲第 19 項に記載の映像品質評価プログラム。
[21] 劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化した 劣化映像信号 (ΡΙ)とを入力し、前記劣化映像信号に含まれる劣化映像のファイル形 式を、対応する前記基準映像信号に含まれる基準映像のファイル形式に変換する形 式変換部 (41)と、
前記基準映像信号に含まれる基準映像フレームと前記劣化映像信号に含まれる 劣化映像フレームの数及び表示タイミングを整合させる表示タイミング整合部(42)と 前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びその前後 数フレームについて、前記基準映像フレームと前記劣化映像フレームとの間のフレ ームのずれや前記劣化映像のフリーズ状態を監視しつつ、フレーム間の対応関係及 び画素間の対応関係の整合をとる同期/位置整合部 (43)と、
を備えることを特徴とする映像整合装置。
[22] 前記形式変換部(41)は、前記劣化映像のデータ形式、サイズ、アスペクト比の少な くとも 1つを変換して前記基準映像と合わせることを特徴とする請求の範囲第 21項に 記載の映像整合装置。
[23] 前記表示タイミング整合部(42)は、前記基準映像フレームと前記劣化映像フレーム のフレームレートが異なる場合には、前記劣化映像フレームを補間または削除するこ とにより、前記基準映像フレームと前記劣化映像フレームのフレームレートを合わせ ることを特徴とする請求の範囲第 21項に記載の映像整合装置。
[24] 前記表示タイミング整合部(42)は、前記基準映像フレームの表示タイミングに対して 前記劣化映像フレームの表示タイミングを合わせることを特徴とする請求の範囲第 2 1項に記載の映像整合装置。
[25] 前記表示タイミング整合部(42)は、前記基準映像フレームの表示タイミングが一定 でない場合には、前記基準映像フレーム及び前記劣化映像フレーム双方の表示タ イミングを予め定めた時間間隔とすることを特徴とする請求の範囲第 21項に記載の 映像整合装置。
[26] 前記同期/位置整合部(43)は、前記基準映像フレーム及び前記劣化映像フレーム の対象フレーム及びその前後数フレームについて、フレーム全体またはその特定領 域のそれぞれの特徴量の推移を比較し、前記特徴量のずれが最も小さくなる前記基 準映像フレームと前記劣化映像フレームの時間的対応関係を決定するマクロ同期処 理を行うことを特徴とする請求の範囲第 21項に記載の映像整合装置。
[27] 前記同期/位置整合部(43)は、前記基準映像フレーム及び前記劣化映像フレーム の対象フレーム及びその前後数フレームについて、前記基準映像フレームと前記劣 化映像フレームの時間的対応関係及び画素対応関係をずらしつつ、フレーム全体ま たはその特定領域のそれぞれの特徴量を比較し、前記特徴量の差異が最も小さくな る前記基準映像フレームと前記劣化映像フレームの時間的対応関係及び画素対応 関係を決定するミクロ同期/位置整合処理を行うことを特徴とする請求の範囲第 26 項に記載の映像整合装置。 [28] 前記同期/位置整合部 (43)は、初期的に、前記マクロ同期処理及び前記ミクロ同 期/位置整合処理を行うことを特徴とする請求の範囲第 27項に記載の映像整合装 置。
[29] 前記同期/位置整合部 (43)は、前記劣化映像フレームがフリーズ状態に陥った場 合、フレーム数を計数することにより前記フリーズ状態の継続時間を計ることを特徴と する請求の範囲第 28項に記載の映像整合装置。
[30] 前記同期/位置整合部(43)は、前記基準映像フレーム及び前記劣化映像フレーム の対象フレーム及びその前後数フレームについて、フレーム全体のそれぞれの特徴 量を導出し、前記基準映像フレームの特徴量が時間的に変化しているのに対して前 記劣化映像フレームの特徴量が時間的に変化していないときに、前記劣化映像フレ ームがフリーズ状態に陥ったと判定することを特徴とする請求の範囲第 29項に記載 の映像整合装置。
[31] 前記同期/位置整合部 (43)は、前記劣化映像フレームが、フリーズ状態に陥った 場合、または前記基準映像フレームと同期が取れなくなった場合に、再度、前記マク 口同期処理を行うことを特徴とする請求の範囲第 28項に記載の映像整合装置。
[32] 前記同期/位置整合部 (43)は、前記劣化映像フレームがフレームずれ状態に陥つ た場合、フレームのずれ数を出力することを特徴とする請求の範囲第 28項に記載の 映像整合装置。
[33] 前記同期/位置整合部 (43)から前記基準映像信号 (RI)及び前記劣化映像信号( PI)を入力し、前記劣化映像の輝度及び色情報を前記基準映像と合わせ、前記輝度 及び色情報が合わされた劣化映像を前記同期/位置整合部 (43)に戻す輝度/色 補正部(44)を更に備えることを特徴とする請求の範囲第 21項に記載の映像整合装 置。
[34] 劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化した 劣化映像信号 (PI)とを入力し、
前記劣化映像信号に含まれる劣化映像のファイル形式を、対応する前記基準映像 信号に含まれる基準映像のファイル形式に変換し (ステップ S1)、
前記基準映像信号に含まれる基準映像フレームと前記劣化映像信号に含まれる 劣化映像フレームの数及び表示タイミングを整合させ (ステップ S 2)、 前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びその前後 数フレームについて、前記基準映像フレームと前記劣化映像フレームとの間のフレ ームのずれや前記劣化映像のフリーズ状態を監視しつつ、フレーム間の対応関係及 び画素間の対応関係の整合をとる (ステップ S3— S22)ことを特徴とする映像整合方 法。
[35] コンピュータを、
劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化し た劣化映像信号 (PI)とを入力し、前記劣化映像信号に含まれる劣化映像のファイル 形式を、対応する前記基準映像信号に含まれる基準映像のファイル形式に変換する 形式変換手段 (41)と、
前記基準映像信号に含まれる基準映像フレームと前記劣化映像信号に含まれる 劣化映像フレームの数及び表示タイミングを整合させる表示タイミング整合手段 (42 )と、
前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びその前後 数フレームについて、前記基準映像フレームと前記劣化映像フレームとの間のフレ ームのずれや前記劣化映像のフリーズ状態を監視しつつ、フレーム間の対応関係及 び画素間の対応関係の整合をとる同期/位置整合手段 (43)として機能させるため の映像整合プログラム。
[36] 劣化してレ、なレ、映像信号である基準映像信号 (RI)とその基準映像信号が劣化した 劣化映像信号 (PI)とを入力し、前記劣化映像信号に含まれる劣化映像のファイル形 式を、対応する前記基準映像信号に含まれる基準映像のファイル形式に変換する形 式変換部 (41)と、
前記基準映像信号に含まれる基準映像フレームと前記劣化映像信号に含まれる 劣化映像フレームの数及び表示タイミングを整合させる表示タイミング整合部(42)と 前記基準映像フレーム及び前記劣化映像フレームの対象フレーム及びその前後 数フレームについて、前記基準映像フレームと前記劣化映像フレームとの間のフレ ームのずれや前記劣化映像のフリーズ状態を監視しつつ、フレーム間の対応関係及 び画素間の対応関係の整合をとる同期/位置整合部 (43)と、
前記同期/位置整合部 (43)により整合がとられた前記基準映像信号 (RI)及びそ 前記劣化映像信号 (PI)とを入力し、両信号の映像信号特徴量を算出し、算出された 両信号の映像信号特徴量の差分に基づいて、前記劣化映像信号の主観品質を推 定する主観品質推定部(11)と、
を備えることを特徴とする映像品質評価装置。
PCT/JP2004/011992 2003-08-22 2004-08-20 映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム WO2005020592A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP04771953.9A EP1622395B1 (en) 2003-08-22 2004-08-20 Device, method and program for quality evaluation of a video signal after its transmission or encoding
US10/556,103 US7705881B2 (en) 2003-08-22 2004-08-20 Video quality assessing apparatus, video quality assessing method, and video quality assessing program
CA2525812A CA2525812C (en) 2003-08-22 2004-08-20 Video quality assessing apparatus, video quality assessing method, video quality assessing program, video aligning apparatus, video aligning method, and video aligning program
JP2005513306A JP4257333B2 (ja) 2003-08-22 2004-08-20 映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム
US12/717,983 US8253803B2 (en) 2003-08-22 2010-03-05 Video quality assessing apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003298864 2003-08-22
JP2003-298864 2003-08-22
JP2004-035434 2004-02-12
JP2004035434 2004-02-12

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10556103 A-371-Of-International 2004-08-20
US12/717,983 Division US8253803B2 (en) 2003-08-22 2010-03-05 Video quality assessing apparatus

Publications (1)

Publication Number Publication Date
WO2005020592A1 true WO2005020592A1 (ja) 2005-03-03

Family

ID=34220712

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/011992 WO2005020592A1 (ja) 2003-08-22 2004-08-20 映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム

Country Status (6)

Country Link
US (2) US7705881B2 (ja)
EP (1) EP1622395B1 (ja)
JP (4) JP4257333B2 (ja)
KR (2) KR100824711B1 (ja)
CA (3) CA2525812C (ja)
WO (1) WO2005020592A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043642A (ja) * 2005-03-04 2007-02-15 Nippon Telegr & Teleph Corp <Ntt> 映像品質評価装置、方法およびプログラム
JP2008005107A (ja) * 2006-06-21 2008-01-10 Nippon Telegr & Teleph Corp <Ntt> 映像整合方法
JP2008035357A (ja) * 2006-07-31 2008-02-14 Kddi Corp 映像品質の客観評価装置
JP2008066856A (ja) * 2006-09-05 2008-03-21 Nippon Telegr & Teleph Corp <Ntt> 映像品質客観評価装置、方法およびプログラム
JPWO2007007750A1 (ja) * 2005-07-11 2009-01-29 日本電信電話株式会社 映像整合装置、方法、およびプログラム
JP2009027432A (ja) * 2007-07-19 2009-02-05 Nippon Telegr & Teleph Corp <Ntt> 映像品質客観評価方法、映像品質客観評価装置およびプログラム
JP2011015165A (ja) * 2009-07-01 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> 映像品質推定装置、システム、方法およびプログラム
US8064638B2 (en) * 2005-06-29 2011-11-22 Ntt Docomo, Inc. Video evaluation apparatus, spatio-temporal frequency analyzing apparatus, video evaluation method, spatio-temporal frequency analyzing method, video evaluation program, and spatio-temporal frequency analyzing program
JP2013102353A (ja) * 2011-11-08 2013-05-23 Nippon Hoso Kyokai <Nhk> 映像符号化方式変換装置
JP2015035696A (ja) * 2013-08-08 2015-02-19 株式会社リコー 通信端末、通信システムおよび通信方法並びにプログラム
JP2016005111A (ja) * 2014-06-17 2016-01-12 日本電信電話株式会社 評価映像分析装置及び方法及びプログラム
US9407934B2 (en) 2013-06-20 2016-08-02 Fujitsu Limited Image evaluation apparatus and method
JP2020191681A (ja) * 2016-10-08 2020-11-26 華為技術有限公司Huawei Technologies Co.,Ltd. 映像品質評価方法および装置
JPWO2021181724A1 (ja) * 2020-03-13 2021-09-16
CN113992943A (zh) * 2021-10-25 2022-01-28 上海佰贝科技发展股份有限公司 一种监测播出服务器信号异态或劣化的方法及系统

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100541526B1 (ko) * 2004-01-30 2006-01-10 에스케이 텔레콤주식회사 멀티미디어 데이터의 전송품질 측정방법 및 장치
US20090040303A1 (en) * 2005-04-29 2009-02-12 Chubb International Holdings Limited Automatic video quality monitoring for surveillance cameras
US8107540B2 (en) * 2005-07-11 2012-01-31 Cheetah Technologies, L.P. Image complexity computation in packet based video broadcast systems
KR100771616B1 (ko) * 2005-09-09 2007-10-31 엘지전자 주식회사 투사형 디스플레이 장치 및 그 제어방법
KR20070116738A (ko) * 2006-06-06 2007-12-11 소니 가부시끼 가이샤 영상 신호 처리 방법, 영상 신호 처리 방법의 프로그램,영상 신호 처리 방법의 프로그램을 기록한 기록 매체 및영상 신호 처리 장치
US7756136B2 (en) * 2006-07-10 2010-07-13 Cheetah Technologies, L.P. Spatial and temporal loss determination in packet based video broadcast system in an encrypted environment
DE102006044929B4 (de) * 2006-09-22 2008-10-23 Opticom Dipl.-Ing. Michael Keyhl Gmbh Vorrichtung zum Bestimmen von Informationen zur zeitlichen Ausrichtung zweier Informationssignale
US8711926B2 (en) * 2007-02-08 2014-04-29 Qualcomm Incorporated Distortion estimation for quantized data
JP2010525674A (ja) * 2007-04-16 2010-07-22 テクトロニクス・インコーポレイテッド 強固なビデオ時間的レジストレーションのシステム及び方法
KR100893609B1 (ko) * 2007-06-05 2009-04-20 주식회사 케이티 인간 시각 특성을 이용한 영상 품질 측정 장치 및 방법
KR100922898B1 (ko) * 2007-12-17 2009-10-20 한국전자통신연구원 IP 미디어의 QoE 보장형 영상품질 측정장치 및측정방법
US20090161011A1 (en) * 2007-12-21 2009-06-25 Barak Hurwitz Frame rate conversion method based on global motion estimation
US20090185076A1 (en) * 2008-01-18 2009-07-23 Po-Jui Chen VGA port signal examining apparatus and method thereof
JP2009260941A (ja) * 2008-03-21 2009-11-05 Nippon Telegr & Teleph Corp <Ntt> 映像品質客観評価方法、映像品質客観評価装置、及びプログラム
EP2114080A1 (en) * 2008-04-30 2009-11-04 Thomson Licensing Method for assessing the quality of a distorted version of a frame sequence
EP2114079B2 (en) * 2008-05-02 2018-01-24 Psytechnics Ltd Method and apparatus for aligning signals
US8754947B2 (en) * 2008-05-07 2014-06-17 Evertz Microsystems Ltd. Systems and methods for comparing media signals
US8780209B2 (en) * 2008-05-07 2014-07-15 Evertz Microsystems Ltd. Systems and methods for comparing media signals
US20090309977A1 (en) * 2008-06-12 2009-12-17 Microsoft Corporation Benchmarking and calibrating video quality assessment tools
CN101685591B (zh) * 2008-09-26 2011-06-22 鸿富锦精密工业(深圳)有限公司 自动检测显示装置所支持图片格式的检测装置及方法
US8718404B2 (en) * 2009-02-06 2014-05-06 Thomson Licensing Method for two-step temporal video registration
WO2010093745A1 (en) 2009-02-12 2010-08-19 Dolby Laboratories Licensing Corporation Quality evaluation of sequences of images
KR101101139B1 (ko) * 2009-11-23 2012-01-05 서강대학교산학협력단 모티브 스캔을 이용한 화질 평가방법 및 장치
US8456531B2 (en) * 2010-01-14 2013-06-04 Cheetah Technologies, L.P. Video alignment and calibration for video quality measurement
GB2477956B (en) * 2010-02-19 2014-11-05 Snell Ltd Objective picture quality measurement
JP5350300B2 (ja) * 2010-03-24 2013-11-27 日本電信電話株式会社 トランスコード映像品質客観評価装置及び方法及びプログラム
JP5450279B2 (ja) * 2010-06-16 2014-03-26 日本電信電話株式会社 映像品質客観評価装置及び方法及びプログラム
JP5467030B2 (ja) * 2010-11-29 2014-04-09 日本電信電話株式会社 映像品質客観評価装置及びプログラム
US8581987B1 (en) * 2011-03-21 2013-11-12 Marvell International Ltd. Systems and methods for evaluating video quality
JPWO2012140783A1 (ja) * 2011-04-15 2014-07-28 富士通株式会社 半導体集積回路の対向ポートの自律初期化方法および半導体集積回路
US8520075B2 (en) * 2011-06-02 2013-08-27 Dialogic Inc. Method and apparatus for reduced reference video quality measurement
WO2013000081A1 (en) * 2011-06-26 2013-01-03 UNIVERSITé LAVAL Quality control and assurance of images
CN102426019B (zh) * 2011-08-25 2014-07-02 航天恒星科技有限公司 一种无人机景象匹配辅助导航方法及系统
US8867013B2 (en) * 2012-01-26 2014-10-21 Avaya Inc. System and method for measuring video quality degradation using face detection
JP2013186427A (ja) * 2012-03-09 2013-09-19 Ricoh Co Ltd 映像処理装置
KR101327709B1 (ko) * 2012-03-23 2013-11-11 한국전자통신연구원 비디오 품질 측정 장치 및 그 방법
DE102012102886B4 (de) * 2012-04-03 2016-07-14 DREFA Media Service GmbH Verfahren und System zur automatischen Korrektur eines Videosignals
US9369742B2 (en) * 2012-12-06 2016-06-14 Avaya Inc. System and method to estimate end-to-end video frame delays
US8994828B2 (en) * 2013-02-28 2015-03-31 Apple Inc. Aligned video comparison tool
DE102013211571B4 (de) * 2013-06-19 2016-02-11 Opticom Dipl.-Ing. Michael Keyhl Gmbh Konzept zur bestimmung der qualität eines mediadatenstroms mit variierender qualität-zu-bitrate
US9131214B2 (en) * 2013-06-21 2015-09-08 Zenith Electronics Llc Diagnostics system for remotely located televisions
US10674180B2 (en) * 2015-02-13 2020-06-02 Netflix, Inc. Techniques for identifying errors introduced during encoding
JP6431449B2 (ja) * 2015-07-01 2018-11-28 日本電信電話株式会社 映像整合装置、映像整合方法、及びプログラム
JP6034529B1 (ja) * 2016-06-14 2016-11-30 九州電力株式会社 表面状態診断装置
US10728427B2 (en) * 2016-12-15 2020-07-28 Disney Enterprises, Inc. Apparatus, systems and methods for nonlinear synchronization of action videos
US10735742B2 (en) 2018-11-28 2020-08-04 At&T Intellectual Property I, L.P. Adaptive bitrate video testing
KR102401340B1 (ko) * 2018-11-29 2022-05-25 한국전자통신연구원 인지 민감 영역의 변화의 검출에 기반하는 비디오 화질 측정 방법 및 장치
US11205257B2 (en) * 2018-11-29 2021-12-21 Electronics And Telecommunications Research Institute Method and apparatus for measuring video quality based on detection of change in perceptually sensitive region
CN111277894B (zh) * 2020-03-02 2021-08-27 四川长虹电器股份有限公司 一种自动检测视频播放画面流畅性的方法
CN112770105B (zh) * 2020-12-07 2022-06-03 宁波大学 一种基于结构特征的重定位立体图像质量评价方法
CN112714309A (zh) * 2020-12-22 2021-04-27 北京百度网讯科技有限公司 视频质量评估方法、装置、设备、介质及程序产品
KR20230076112A (ko) 2021-11-23 2023-05-31 이화여자대학교 산학협력단 인공지능 기반의 영상 화질 평가장치, 방법 및 이를 위한 컴퓨터 판독가능 프로그램

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0789497A2 (en) 1996-02-12 1997-08-13 Tektronix, Inc. Progammable instrument for automatic measurement of compressed video quality
JP2000032496A (ja) * 1998-06-23 2000-01-28 Tektronix Inc ビデオ・シ―ケンスの空間―時間アライメント方法
JP2003009186A (ja) * 2001-04-16 2003-01-10 Kddi Corp 伝送画質監視装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0258993A (ja) * 1988-08-25 1990-02-28 Fujitsu Ltd 立体テレビジョン信号処理装置
US5550937A (en) * 1992-11-23 1996-08-27 Harris Corporation Mechanism for registering digital images obtained from multiple sensors having diverse image collection geometries
US5446492A (en) * 1993-01-19 1995-08-29 Wolf; Stephen Perception-based video quality measurement system
JP3025415B2 (ja) * 1995-01-20 2000-03-27 ケイディディ株式会社 ディジタル圧縮・再生画像の画質評価装置
JP3458600B2 (ja) 1996-05-10 2003-10-20 Kddi株式会社 ディジタル画像品質評価装置
US6295083B1 (en) * 1998-02-27 2001-09-25 Tektronix, Inc. High precision image alignment detection
DE69803830T2 (de) 1998-03-02 2002-09-12 Koninkl Kpn Nv Verfahren, Vorrichtung, ASIC und deren Benutzung zur objektiven Videoqualitätbewertung
JP3494894B2 (ja) 1998-07-06 2004-02-09 矢崎総業株式会社 電気接続箱
JP3501954B2 (ja) 1998-07-21 2004-03-02 日本放送協会 画質評価装置
US6496221B1 (en) * 1998-11-02 2002-12-17 The United States Of America As Represented By The Secretary Of Commerce In-service video quality measurement system utilizing an arbitrary bandwidth ancillary data channel
US6483538B2 (en) * 1998-11-05 2002-11-19 Tektronix, Inc. High precision sub-pixel spatial alignment of digital images
JP3747662B2 (ja) * 1998-12-07 2006-02-22 トヨタ自動車株式会社 車輌の運動制御装置
US6285797B1 (en) * 1999-04-13 2001-09-04 Sarnoff Corporation Method and apparatus for estimating digital video quality without using a reference video
CA2403665C (en) * 2000-03-31 2007-12-04 British Telecommunications Public Limited Company Image processing
JP3739274B2 (ja) * 2000-10-31 2006-01-25 Kddi株式会社 2系統映像の位置ずれ補正装置
US6876381B2 (en) * 2001-01-10 2005-04-05 Koninklijke Philips Electronics N.V. System and method for providing a scalable objective metric for automatic video quality evaluation employing interdependent objective metrics
JP2004527172A (ja) * 2001-03-29 2004-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像品質についてのアルゴリズムのランダムシステムを最適化するための拡張可能なシステム及び方法
JP2002342218A (ja) * 2001-05-16 2002-11-29 Nippon Telegr & Teleph Corp <Ntt> コンテンツ提供方法及びシステム
US7020093B2 (en) * 2001-05-30 2006-03-28 Intel Corporation Delivery of streaming media
US6577764B2 (en) * 2001-08-01 2003-06-10 Teranex, Inc. Method for measuring and analyzing digital video quality
JP2004080177A (ja) 2002-08-13 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 映像品質評価装置、映像品質評価方法、映像品質評価プログラム及びそのプログラムを記録した記録媒体
GB0314161D0 (en) * 2003-06-18 2003-07-23 British Telecomm Edge analysis in video quality assessment
JP3838513B2 (ja) * 2004-03-02 2006-10-25 Kddi株式会社 伝送画質監視装置
JP3838516B2 (ja) * 2004-05-28 2006-10-25 Kddi株式会社 伝送画質監視装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0789497A2 (en) 1996-02-12 1997-08-13 Tektronix, Inc. Progammable instrument for automatic measurement of compressed video quality
JP2000032496A (ja) * 1998-06-23 2000-01-28 Tektronix Inc ビデオ・シ―ケンスの空間―時間アライメント方法
JP2003009186A (ja) * 2001-04-16 2003-01-10 Kddi Corp 伝送画質監視装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MURAMATSU S.; KIYA H: "Scale Factor of Resolution Conversion Based on Orthogonal Transforms", IEICE TRANS. FUNDAMENTALS, vol. E76-A, no. 7, July 1993 (1993-07-01), pages 1150 - 1153
OKAMOTO, J. ET AL.: "Eizo Hunshitsu Kyakkan Hyoka no Seino Kojo ni Kansuru Ichikento", 2003 NEN THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS SOGO TAIKAI KOEN RONBUNSHU, 3 March 2003 (2003-03-03), pages 600, XP002995671 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043642A (ja) * 2005-03-04 2007-02-15 Nippon Telegr & Teleph Corp <Ntt> 映像品質評価装置、方法およびプログラム
JP4514155B2 (ja) * 2005-03-04 2010-07-28 日本電信電話株式会社 映像品質評価装置、方法およびプログラム
US8462985B2 (en) * 2005-06-29 2013-06-11 Ntt Docomo, Inc. Video evaluation apparatus, spatio-temporal frequency analyzing apparatus, video evaluation method, spatio-temporal frequency analyzing method, video evaluation program, and spatio-temporal frequency analyzing program
US20120020574A1 (en) * 2005-06-29 2012-01-26 Ntt Docomo, Inc. Video evaluation apparatus, spatio-temporal frequency analyzing apparatus, video evaluation method, spatio-temporal frequency analyzing method, video evaluation program, and spatio-temporal frequency analyzing program
US8064638B2 (en) * 2005-06-29 2011-11-22 Ntt Docomo, Inc. Video evaluation apparatus, spatio-temporal frequency analyzing apparatus, video evaluation method, spatio-temporal frequency analyzing method, video evaluation program, and spatio-temporal frequency analyzing program
JP4482031B2 (ja) * 2005-07-11 2010-06-16 日本電信電話株式会社 映像整合装置、方法、およびプログラム
US8094196B2 (en) 2005-07-11 2012-01-10 Nippon Telegraph And Telephone Corporation Video matching device, method, and program
JPWO2007007750A1 (ja) * 2005-07-11 2009-01-29 日本電信電話株式会社 映像整合装置、方法、およびプログラム
JP2008005107A (ja) * 2006-06-21 2008-01-10 Nippon Telegr & Teleph Corp <Ntt> 映像整合方法
JP2008035357A (ja) * 2006-07-31 2008-02-14 Kddi Corp 映像品質の客観評価装置
JP2008066856A (ja) * 2006-09-05 2008-03-21 Nippon Telegr & Teleph Corp <Ntt> 映像品質客観評価装置、方法およびプログラム
JP4527699B2 (ja) * 2006-09-05 2010-08-18 日本電信電話株式会社 映像品質客観評価装置、方法およびプログラム
JP2009027432A (ja) * 2007-07-19 2009-02-05 Nippon Telegr & Teleph Corp <Ntt> 映像品質客観評価方法、映像品質客観評価装置およびプログラム
JP2011015165A (ja) * 2009-07-01 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> 映像品質推定装置、システム、方法およびプログラム
JP2013102353A (ja) * 2011-11-08 2013-05-23 Nippon Hoso Kyokai <Nhk> 映像符号化方式変換装置
US9407934B2 (en) 2013-06-20 2016-08-02 Fujitsu Limited Image evaluation apparatus and method
JP2015035696A (ja) * 2013-08-08 2015-02-19 株式会社リコー 通信端末、通信システムおよび通信方法並びにプログラム
JP2016005111A (ja) * 2014-06-17 2016-01-12 日本電信電話株式会社 評価映像分析装置及び方法及びプログラム
JP2020191681A (ja) * 2016-10-08 2020-11-26 華為技術有限公司Huawei Technologies Co.,Ltd. 映像品質評価方法および装置
JP7105838B2 (ja) 2016-10-08 2022-07-25 華為技術有限公司 映像品質評価方法および装置
JPWO2021181724A1 (ja) * 2020-03-13 2021-09-16
WO2021181724A1 (ja) * 2020-03-13 2021-09-16 日本電信電話株式会社 数理モデル導出装置、数理モデル導出方法及びプログラム
JP7380832B2 (ja) 2020-03-13 2023-11-15 日本電信電話株式会社 数理モデル導出装置、数理モデル導出方法及びプログラム
CN113992943A (zh) * 2021-10-25 2022-01-28 上海佰贝科技发展股份有限公司 一种监测播出服务器信号异态或劣化的方法及系统
CN113992943B (zh) * 2021-10-25 2024-01-30 上海佰贝科技发展股份有限公司 一种监测播出服务器信号异态或劣化的方法及系统

Also Published As

Publication number Publication date
US20060276983A1 (en) 2006-12-07
JP4257333B2 (ja) 2009-04-22
CA2646805A1 (en) 2005-03-03
JP2012060672A (ja) 2012-03-22
CA2525812C (en) 2011-11-22
JP2009095046A (ja) 2009-04-30
CA2646805C (en) 2012-04-24
US8253803B2 (en) 2012-08-28
EP1622395A1 (en) 2006-02-01
KR100798834B1 (ko) 2008-01-28
US7705881B2 (en) 2010-04-27
JP4901848B2 (ja) 2012-03-21
CA2525812A1 (en) 2005-03-03
US20100157144A1 (en) 2010-06-24
JP2009077433A (ja) 2009-04-09
CA2646808C (en) 2013-01-22
JPWO2005020592A1 (ja) 2007-11-01
EP1622395B1 (en) 2015-03-18
JP4800376B2 (ja) 2011-10-26
EP1622395A4 (en) 2011-06-08
KR20060033717A (ko) 2006-04-19
CA2646808A1 (en) 2005-03-03
KR100824711B1 (ko) 2008-04-24
KR20070092320A (ko) 2007-09-12
JP5347012B2 (ja) 2013-11-20

Similar Documents

Publication Publication Date Title
WO2005020592A1 (ja) 映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム
EP1903809B1 (en) Video matching device, method, and program
Huynh-Thu et al. The accuracy of PSNR in predicting video quality for different video scenes and frame rates
Pinson et al. A new standardized method for objectively measuring video quality
US8184164B2 (en) Method for measuring multimedia video communication quality
Barkowsky et al. Temporal trajectory aware video quality measure
KR20080029371A (ko) 영상 화질 평가 시스템 및 방법
JP5450279B2 (ja) 映像品質客観評価装置及び方法及びプログラム
Konuk et al. A spatiotemporal no-reference video quality assessment model
WO2012000136A1 (en) Method for measuring video quality using a reference, and apparatus for measuring video quality using a reference
Leszczuk et al. Key indicators for monitoring of audiovisual quality
WO2010103112A1 (en) Method and apparatus for video quality measurement without reference
Ndjiki-Nya et al. Efficient full-reference assessment of image and video quality
WO2009007133A2 (en) Method and apparatus for determining the visual quality of processed visual information
Lee et al. Hybrid no-reference video quality models for H. 264 with encrypted payload
Zerman et al. A parametric video quality model based on source and network characteristics
Zhang et al. Overview of full-reference video quality metrics and their performance evaluations for videoconferencing application
Uddina et al. Subjective video quality evaluation of H. 265/HEVC encoded low resolution videos for ultra-low band transmission system
JP2007519335A (ja) ビデオ圧縮エンコーダのための3:2プルダウンスイッチオフ信号の生成装置
JP5467030B2 (ja) 映像品質客観評価装置及びプログラム
Lee et al. Video calibration for spatial-temporal registration with gain and offset adjustments

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005513306

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2525812

Country of ref document: CA

Ref document number: 2006276983

Country of ref document: US

Ref document number: 10556103

Country of ref document: US

Ref document number: 20048131394

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2004771953

Country of ref document: EP

Ref document number: 1020057021820

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004771953

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057021820

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10556103

Country of ref document: US