WO2010143870A2 - Method and apparatus for monitoring video quality - Google Patents

Method and apparatus for monitoring video quality Download PDF

Info

Publication number
WO2010143870A2
WO2010143870A2 PCT/KR2010/003673 KR2010003673W WO2010143870A2 WO 2010143870 A2 WO2010143870 A2 WO 2010143870A2 KR 2010003673 W KR2010003673 W KR 2010003673W WO 2010143870 A2 WO2010143870 A2 WO 2010143870A2
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
visual rhythm
deterioration
image quality
Prior art date
Application number
PCT/KR2010/003673
Other languages
French (fr)
Korean (ko)
Other versions
WO2010143870A3 (en
WO2010143870A9 (en
Inventor
권재철
박희철
이주용
진영민
장성환
서창렬
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020090050472A external-priority patent/KR20100131735A/en
Priority claimed from KR1020090107670A external-priority patent/KR101199470B1/en
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Publication of WO2010143870A2 publication Critical patent/WO2010143870A2/en
Publication of WO2010143870A3 publication Critical patent/WO2010143870A3/en
Publication of WO2010143870A9 publication Critical patent/WO2010143870A9/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems

Definitions

  • the present invention relates to a method and apparatus for monitoring image quality, and more particularly, to a method and apparatus for monitoring image quality deterioration for an image reproduced in a set-top box.
  • IPTV IPTV operators are making various efforts to monitor the level of image quality experienced by the viewers and to reflect the results in the content generation or transmission methods to increase customer satisfaction. How to evaluate
  • ITU-T SG9 and VQEG are being standardized to measure the objective quality of subjective sensational quality, which is largely referred to as Full Reference (FR), Reduced Reference (RR), and No Standard (NR). ; No Reference).
  • the electro-observation method is a method of measuring the similarity or distortion of the reproduced image compared to the original image.
  • the reduction criterion method is a method of measuring the relative image quality by comparing the feature information extracted from the original image and the feature information extracted from the playback image
  • the non-reference method is only a playback image visible to the viewer in the absence of the original image itself or feature information How to measure the quality.
  • Electro-Compliance provides the most accurate results, and the Non-Standard Law is known to be the most inaccurate.
  • the distortion of the encoded image i.e., the distortion at the front-end stage
  • the distortion at the front-end stage is mainly due to the defect of the original image or the distortion introduced during the encoding process, and the distortion due to a defect in a network or a set-top box. That is, since the distortion at the back-end is mainly caused by packet loss or malfunction of the set-top box, the distortion at the front-end and the distortion at the back-end are different from each other.
  • this method requires an operation that requires multiplying image data by a pseudo-noise (PN) sequence and performing Walsh-Hadamard transformation to extract feature information.
  • PN pseudo-noise
  • a 720x480 @ 30 fps video requires 1,296kbps of bandwidth required by feature information, which is very burdensome to process in a set-top box.
  • the method estimates the PSNR by transmitting the position of the pixels having the "representative luminance value” in the input image and the value as the characteristic information, and extracting and comparing the pixel values of this position as the characteristic information at the receiving side.
  • the objective image quality is an amount evaluated based on the difference in pixel values between the reference image and the reproduced image
  • the subjective image quality is an amount evaluated by the human eye.
  • the objective picture quality measure is meaningful as a reference measure for reproduction picture quality because the relative difference between the comparison targets is determined by a clear standard
  • the subjective picture quality measure has a meaning as a measure for evaluating the sensory picture quality experienced by the viewers.
  • ITU-T J.144 which is currently being standardized, such as the Electro-Compliance (FR), the Reduced Reference Method (RR), and the Non-Standard Method (NR).
  • the subjective quality scale was modeled by quantifying the deterioration factors (eg, blocking, blurring, jerkiness, color error, edge business, etc.) present in the image frame.
  • FR cannot be applied to a general viewing environment because an original image must exist, and there are problems in that the quality measures proposed by such modeling are very computational and not accurate in the RR and NR methods.
  • the present invention provides a new quality measure for objectively measuring the degree of image quality deterioration and an objective image quality deterioration measure based thereon.
  • the present invention provides a method and apparatus for measuring the objective image quality degradation of the image reproduced in the set-top box, while reducing the computational burden of the set-top box.
  • the present invention provides a method and apparatus for quantitatively measuring the quality of a playback image deteriorated due to packet loss and allowing a quality control operator to easily identify the location and amount of image quality deterioration.
  • the present invention also provides an apparatus capable of quantitatively measuring subjective picture quality degradation due to network transmission error using visual rhythm information.
  • a method for monitoring image quality comprises the steps of (a) receiving, from a first server, the first visual rhythm information of an encoded image, (b) the encoded image Extracting second visual rhythm information on the decoded playback image received through a network, (c) calculating a visual rhythm difference based on the first visual rhythm information and the second visual rhythm information; and (d) transmitting the calculated visual rhythm difference to a second server, wherein the second server measures the deterioration of image quality of the reproduced image by using the visual rhythm difference.
  • a method of monitoring image quality comprises the steps of (a) receiving from the media server, the first visual rhythm information for the encoded image, (b) from the set-top box, Receiving second visual rhythm information on the decoded playback image, (c) calculating a visual rhythm difference based on the first visual rhythm information and the second visual rhythm information, and (d) the visual rhythm Measuring the deterioration of the image quality of the reproduced image using the difference.
  • the apparatus for monitoring the image quality is the first visual rhythm information that is visual rhythm information for the encoded image from the set-top box and the visual for the image reproduced in the set-top box
  • Receiving unit for receiving a visual rhythm difference using the difference of the second rhythm information that is rhythm information
  • Image quality estimation value calculator for calculating the image quality estimation value of the image played in the set-top box using the visual rhythm difference image
  • the reproduction According to a request of an objective image quality deterioration scale calculation unit for calculating an objective image quality deterioration measure including at least one of an image deterioration number, a threshold deterioration number, a threshold deterioration rate, an average threshold deterioration amount, and an average deterioration amount, the image quality estimation is performed.
  • a graphical user interface for a visual rhythm difference using the difference of the second rhythm information that is rhythm information
  • Image quality estimation value calculator for calculating the image quality estimation value of the image played
  • the set-top box for monitoring the video quality according to an aspect of the present invention, a video decoder for decoding the encoded video received from the first server via a network to generate a playback video, from the playback video Visual rhythm information extraction unit for extracting the second visual rhythm information, Visual rhythm for calculating the visual rhythm difference based on the first visual rhythm information and the second visual rhythm information for the encoded image received from the first server And a visual rhythm difference transmitter for transmitting the visual rhythm difference to a second server that measures image quality degradation of the reproduced image by using the difference calculator and the visual rhythm difference.
  • the apparatus for monitoring the image quality the visual rhythm difference calculated by the difference between the first visual rhythm information for the reference image and the second visual rhythm information for the playback image
  • a reproduction quality estimation value calculator for calculating an image quality estimation value of the reproduced video using an objective deterioration section detection unit for detecting at least one section having an image quality estimation value of the reproduced video below a predetermined reference value as an objective degradation section, respectively;
  • the subjective deterioration detection unit for calculating the subjective deterioration amount by using the time duration of the objective deterioration section and the complexity of the image.
  • the present invention is not limited to the embodiments disclosed below, but may be configured in different forms, and the present embodiments are intended to complete the disclosure of the present invention and to provide general knowledge in the technical field to which the present invention belongs. It is provided to fully inform those who have the scope of the invention.
  • visual rhythm information can visually confirm the deterioration of image quality of the playback image, thereby enabling intuitive image quality monitoring.
  • the subjective bodily sensation quality of the viewer can be quantitatively measured using the visual rhythm information.
  • the subjective haptic image quality can be calculated using a simple formula, it is possible to reduce the computational complexity in calculating the image quality deterioration measure.
  • FIG. 1 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV in an offline manner.
  • FIG. 3 is a diagram for VR information according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an objective deterioration interval and a critical deterioration interval according to an embodiment of the present invention.
  • FIG. 5 is a block diagram showing the configuration of a quality control server according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating viewing quality information of content watched by a specific subscriber provided by a quality management server according to an exemplary embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a method of expressing VR information for VR synchronization according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a form of VR information for VR synchronization according to an embodiment of the present invention.
  • FIG 9 illustrates a method of synchronizing VR information according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating VR information extracted from an hour-long video content according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a reduction method by spatial subsampling according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a reduction method by temporal subsampling according to an embodiment of the present invention.
  • FIG. 13 is a view illustrating a reduction method by lossless compression according to an embodiment of the present invention.
  • FIG. 14 is a diagram illustrating a method of reducing information by extracting VR information by RTP packet loss detection according to an embodiment of the present invention.
  • FIG. 15 illustrates a method of reducing information by extracting VR information by video bitstream error detection according to an embodiment of the present invention.
  • 16 is a flowchart illustrating an operation of a media server in an online manner according to an embodiment of the present invention.
  • 17 is a flowchart illustrating the operation of the set-top box in the online manner according to an embodiment of the present invention.
  • FIG. 18 is a flowchart illustrating an operation of a quality control server in an online manner according to an embodiment of the present invention.
  • FIG. 19 is a flowchart illustrating an operation of a media server in an offline manner according to an embodiment of the present invention.
  • 20 is a flowchart illustrating the operation of the set-top box in an offline manner according to an embodiment of the present invention.
  • 21 is a flowchart illustrating an operation of a quality control server in an online manner according to an embodiment of the present invention.
  • 22 to 24 are diagrams illustrating NPSNR estimation performance of experimental images of Table 1 according to an embodiment of the present invention.
  • 25 to 28 illustrate VR information and a VR_Diff image for an experimental video of Table 2 according to an embodiment of the present invention.
  • 29 is a block diagram showing a configuration of a quality control server according to another embodiment of the present invention.
  • FIG. 30 is a flowchart illustrating a subjective quality deterioration measurement process according to an embodiment of the present invention.
  • FIG. 31 is a diagram illustrating a correlation between MOS values recorded by viewers and NMOS values for all degradation periods according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV according to an embodiment of the present invention.
  • a system for monitoring video quality of an IPTV may be implemented in an on-line method and an off-line method, and hereinafter, divided into an online method and an offline method. This section describes the operation of each component of the system.
  • the system for monitoring video quality of an IPTV includes a media server 110, a set top box 120, and a quality management server 130.
  • the media server 110 includes a video encoder 111 and a visual rhythm information extractor 112.
  • the video encoder 111 compresses the video signal.
  • the media server 110 stores the video bit stream compressed by the video encoder 111 and transmits it to the set-top box 120 through a network.
  • the visual rhythm information extractor 112 extracts visual rhythm information (hereinafter, referred to as VR) from the video bit stream stored in the media server 110, that is, the encoded image (hereinafter, referred to as first VR information). Extract.
  • VR visual rhythm information
  • the VR information extracting unit 112 may include a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the first VR information.
  • PTS Presentation Time Stamp
  • the VR information is composed of one-dimensional information by partially sampling the pixels of the two-dimensional image frame, and sampling the pixels at the same positions for successive image frames on the time axis to project the three-dimensional image information into the two-dimensional information (projection).
  • the detailed description of the VR information will be described later with reference to FIG. 3.
  • the media server 110 stores the generated first VR information and transmits the generated first VR information to the set-top box 120 in a separate transmission channel different from the video bit stream.
  • the first VR information to be transmitted may be divided into a predetermined size and transmitted in segment units.
  • the storage such as a hard disk exists in the set-top box 120, the entire first VR information may be transmitted at once.
  • the video encoder 111 and the VR information extractor 112 are illustrated as being included in the media server 110.
  • the video encoder 111 and the VR information extractor are different from each other. 112 may exist and operate separately from the media server 110.
  • the set top box 120 may include a video decoder 121, a VR information extractor 122, a VR difference calculator 123, and a VR difference image transmitter 124.
  • the video decoder 121 decodes (decodes) the video bit stream transmitted from the media server 110 to generate a reproduced image.
  • the VR information extraction unit 122 extracts VR information (hereinafter referred to as second VR information) from the playback image generated by the video decoder 121.
  • the VR information extracting unit 122 may include a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the second VR information.
  • PTS Presentation Time Stamp
  • the VR difference calculator 123 calculates and calculates a VR difference using a difference between the first VR information transmitted from the media server 110 and the second VR information generated by the VR information extractor 122.
  • a VR difference image (hereinafter, referred to as a VR_Diff image) is generated based on the VR difference.
  • the VR difference calculator 123 synchronizes the first VR information and the second VR information based on the PTS value and the program ID to generate the VR_Diff image.
  • the VR_Diff image is information related to the image quality viewed by the viewer, and can be easily generated by calculating the difference between the first VR information and the second VR information, and the amount of computation required is very small. Therefore, the computational burden for calculating the VR_Diff image in the set-top box 120 is also very small.
  • the VR_Diff image has a difference value only in the section deteriorated by packet loss, and has a value of '0' in the remaining section without deterioration, so the amount of data is not large and various compression methods such as lossless compression method such as VR_Diff image are used. In the case of using the compression, the amount of data can be further reduced.
  • the VR difference image transmitter 124 that is, the VR_Diff image transmitter 124 compresses the VR_Diff image generated by the VR difference calculator 123 and transmits the compressed image to the quality management server 130.
  • the VR_Diff image may be transmitted by using a reliable channel such as TCP or may be redundantly transmitted several times to prevent data loss during transmission.
  • the quality management server 130 receives the VR_Diff image from the set-top box 120 and measures the image quality degradation of the image reproduced in the set-top box 120 using the VR_Diff image.
  • the measurement of image quality deterioration uses an estimate of a distortion amount for packet loss generated during transmission of data from the media server 120 to the set-top box 120 in terms of PSNR, and improves the existing PSNR. It uses a new quality measure called Networked PSNR (NPSNR).
  • NPSNR Networked PSNR
  • NPSNR represents the quality of the image played in the set-top box 120 based on the encoded image, not the original image, and is a value for the 2D image. Is the value estimated by VR information.
  • deterioration quality of the image reproduced by the set-top box 120 by using deterioration measures such as deterioration times, critical deterioration times, critical deterioration rates, average critical deterioration amounts, and average deterioration amounts.
  • FIG. 2 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV in an offline manner, and includes a media server 210, a set-top box 220, and a quality management server 230.
  • the media server 210 has the same configuration as the media server 110 shown in FIG. 1, and if different, the media server 210 shown in FIG. 2 sets the generated first VR information into a set-top box ( It is transmitted to the quality control server 130, not 120.
  • the set top box 220 may include a video decoder 221, a VR information extractor 222, and a VR information transmitter 223.
  • the video decoder 221 and the VR information extractor 222 have the same functions as the video decoder 121 and the VR information extractor 122 of the set-top box 120 shown in FIG.
  • the transmitter 223 compresses the second VR information extracted by the VR information extractor 222 and transmits the second VR information to the quality control server 230.
  • the set-top box 120 compresses the VR_Diff image and transmits it to the quality management server 130.
  • the set-top box 220 compresses the second VR information and transmits the second VR information to the quality management server 230. There is a difference.
  • the offline method does not need to generate the VR_Diff image in the set-top box 220, which reduces the consumption of computational resources of the set-top box 230, so that the image quality can be monitored even in a set-top box having a lower specification than the online method.
  • the quality control server 230 receives the first VR information transmitted from the media server 210 and the second VR information transmitted from the set top box 220. Thereafter, the quality control server 230 synchronizes the first VR information and the second VR information based on the PTS value and the program ID included in the first VR information and the second VR information, and uses the difference of each VR information. Create a VR_Diff image.
  • the quality management server 230 uses the VR_Diff image to measure image quality deterioration of the image reproduced in the set-top box 220, the quality management server 130 shown in FIG. 1 will be omitted.
  • the offline quality management server 230 does not need to store both the first VR information and the second VR information.
  • the offline quality management server 230 since the offline quality management server 230 generates the VR_Diff image using the first VR information and the second VR information, when the first VR information and the VR_Diff image exist, the second VR information is used. On the contrary, when the second VR information and the VR_Diff image exist, the first VR information may be restored using the second VR information and the VR_Diff image.
  • FIG. 3 is a diagram for VR information according to an embodiment of the present invention.
  • VR information is composed of one-dimensional information by sampling pixels located in a vertical, diagonal, horizontal, etc. direction in a two-dimensional video frame, and then continuous in the time axis. It is information that projects 3D video information into 2D information by sampling pixels at the same position with respect to video frames.
  • the spatial information included in the VR information is only a small part of the original image, it was confirmed through experiments that the information amount reflects a large part of the 2D frame information. In other words, the experiment confirmed that the PSNR value of the two-dimensional frame between the original video and the set-top box playback image is highly correlated with the PSNR value calculated only with their VR information. Can be estimated.
  • I, j th pixel value of the n th frame I, j th pixel value of the n th frame.
  • the two distortion amounts are independent of each other Is equal to the sum of the two distortion amounts.
  • Is the amount known during encoding Is an unknown amount and the original video is not available in the set-top box. Is an unknown amount in the set-top box.
  • VR information about the encoded image VR information about the video played on the set-top box Have Estimate
  • the total distortion amount is equal to the distortion amount generated during the encoding process, and from ⁇ Equation 2>, whether the image quality deterioration has occurred due to a transmission error, and how much is the amount of degradation? You can get information about whether
  • the amount of distortion generated during the encoding process is not an interest of the present invention.
  • the measure of image quality deterioration occurred in the back-end stage and to provide more intuitive insight To objectively evaluate the image quality of the image reproduced in the set-top box using the PSNR value.
  • NPSNR Networked PSNR
  • the NPSNR represents the quality of the image played in the set-top box based on the encoded image, not the original image, and is a value for the 2D image, and is defined by Equation 4. Is an estimated value of NPSNR using VR information.
  • c 0.65025, which is a constant normalized so that NPSNR is 50dB when there is no packet loss.
  • the following amount is first defined.
  • the maximum value is 50dB, which is 50dB without degradation and less than 50dB when degradation occurs. Therefore, the beginning and end of deterioration Find the interval where the value of is less than 50dB.
  • the objective critical deterioration interval is critical for any one of the frames of the deterioration interval described above. It means a section having the following image quality.
  • Critical is an image quality degradation that can be inconvenient to viewers. As a quantity, the image quality deterioration that may cause inconvenience to eyes It is considered to occur if it is less than this preset threshold.
  • FIG. 4 is a diagram illustrating an objective deterioration interval and a critical deterioration interval according to an embodiment of the present invention.
  • the first and third deterioration sections were included as critical deterioration sections because they were smaller than the threshold value, but the second deterioration sections were not included as critical deterioration sections because the deterioration amount was small.
  • the present invention proposes the following objective deterioration measures.
  • the number of deterioration means the number of deterioration periods, that is, the number of deterioration intervals, and the number of deterioration periods means the number of critical deterioration intervals.
  • the critical degradation rate refers to the ratio of time occupied by all critical degradation intervals in the total time
  • the average threshold degradation amount is an average of the frames constituting all the critical degradation intervals. Can be defined as a value.
  • the average degradation amount is obtained by converting an average distortion amount between two VR information into an NPSNR value, and an objective reproduction quality measure is defined as an NPSNR value in units of frames.
  • Critical in the present invention Use 45dB as an example of setting the value. However, according to embodiments of those skilled in the art The value may be set to another value.
  • the configuration of the quality management servers 130 and 230 of the present invention will be described with reference to FIG. 5, and for convenience of description, the quality management server 130 will be described as an example.
  • FIG. 5 is a block diagram showing the configuration of a quality control server 130 according to an embodiment of the present invention.
  • the quality management server 130 includes a receiver 131, an objective image quality estimation value calculator 132, an objective image quality deterioration scale calculator 133, a subjective sensory image quality calculator 134, and a storage. 135 and a graphical user interface providing unit 136.
  • the components 131 to 136 of the quality management server illustrated in FIG. 5 are for both an online scheme and an offline scheme.
  • a VR_Diff generation for generating a VR_Diff image in addition to the components illustrated in FIG. It may further include a portion (not shown).
  • the receiving unit 131 of the quality management server 130 receives the VR_Diff image from the set-top box, and in the offline manner, the first VR information and the first VR information are received from the media server and the set-top box. 2 VR information is received to generate a VR_Diff image.
  • the quality management server 130 measures the degradation of the objective playback quality of one video content using the VR_Diff image.
  • the objective image quality estimation value calculation unit 132 calculates the image quality estimation value per frame ( ), And the objective image quality degradation scale calculation unit 133 calculates the number of degradations, the number of critical degradations, the critical degradation rate, the average degradation amount, the average degradation amount, and the like, which are the objective quality degradation measures proposed by the present invention.
  • the number of degradations is the number of times that degradation occurs in the entire video sequence time, that is, the number of degradation intervals, and the number of threshold degradations means the number of critical degradation intervals.
  • the critical deterioration rate is a ratio of time occupied by all critical deterioration intervals in the total time, and the average deterioration amount is converted into an NPSNR value by an average distortion amount between two VR information.
  • the average threshold degradation amount is an average of the frames constituting all the threshold degradation intervals. Value.
  • the objective quality degradation scale calculation unit 133 calculates each objective quality degradation scale, but there are separate components corresponding to each objective quality degradation scale, so that the corresponding quality degradation scale may be calculated. For example, the number of deterioration is calculated by the deterioration number calculation unit.
  • the subjective haptic image quality calculating unit 134 may calculate the subjective image quality using the human visual characteristics from the VR information.
  • the storage 135 stores the values for the objective image quality deterioration evaluation calculated by the above-described units 132 and 133.
  • the storage 135 stores the VR_Diff image received from the set-top box in the online method, and the VR_Diff generated by receiving the first VR information and the second VR information from the media server and the set-top box in the offline method. Save the image.
  • the graphic user interface providing unit 136 provides various information through a graphic user interface (hereinafter referred to as a GUI) so that the quality management operator can view the quality information when necessary.
  • a GUI graphic user interface
  • the information provided by the GUI providing unit 136 may include an NPSNR graph and various objective image quality degradation measure values, VR information of the encoded video (first VR information), VR information of a video played in the set-top box (second VR information), and the like.
  • VR_Diff image between VR information may include an NPSNR graph and various objective image quality degradation measure values, VR information of the encoded video (first VR information), VR information of a video played in the set-top box (second VR information), and the like.
  • FIG. 6 is a diagram illustrating viewing quality information of content watched by a specific subscriber provided by a quality management server according to an exemplary embodiment of the present invention.
  • Quality deterioration data is recorded in the storage 135 in the form of a structure having a data structure as shown in FIG.
  • the quality management operator can access this information at any time and view the quality information on the content viewed by the subscriber in the form of a text or a graph.
  • the media server 210 and the set-top box 220 respectively generate the VR information (the first).
  • VR information and second VR information is transmitted to the quality management server 230, and in this case, it is highly likely that the first VR information and the second VR information do not exactly match 1: 1 for various reasons.
  • VR information is transmitted to the quality management server 230 through a reliable and secure channel, VR information itself is rarely lost, but the playback image of the set-top box 220 is missing frames due to transmission errors or other reasons. If the same frame is repeated, the VR information may be missing or repeated.
  • a program ID (identifier) may be added, which is an identifier that uniquely identifies time information and content.
  • FIG. 7 is a diagram illustrating a method of expressing VR information for VR synchronization according to an embodiment of the present invention.
  • time information + VR value is used as one VR information presentation unit.
  • the media server 210 and the set-top box 220 have the same value for a specific frame. Specific frames of the 210 and the set-top box 220 may be uniquely identified.
  • FIG. 8 is a diagram illustrating a form of VR information for VR synchronization according to an embodiment of the present invention.
  • a VR chunk (an identifier) is added to the VR information presentation unit during the unit time shown in FIG. 7 by adding a program ID (identifier) that is an identifier for uniquely identifying the content. chunk).
  • the VR information for one content may have a form in which VR chunks are continuously connected as shown in FIG. 8.
  • FIG 9 illustrates a method of synchronizing VR information according to an embodiment of the present invention.
  • the first VR information of the media server 210 and the second VR information of the set-top box 220 are not information available at exactly the same time, a delay may occur between the two information.
  • the offline quality management server 230 uses the video PTS information of the MPEG-2 PES packet included in the VR information for synchronization between the VR information. .
  • the PTS value and the VR information of the previous frame may be replaced or the quality deterioration measure may be calculated by ignoring the missing frame.
  • the quality management server 230 may easily synchronize the two information by comparing the VR information having the same PTS value in VR information units.
  • the VR information generated in the set-top box is information to be preserved for evaluating image quality deterioration.
  • the place for storing the VR information may be a quality control server, or in some cases, may be a storage such as a hard disk in the set-top box.
  • the VR information may be converted into a lossless compressed VR_Diff image instead of the generated VR information, and the VR information of the media server may be stored in the media server. Since it can be provided when needed from, it is possible to recover the VR information of the set-top box using the stored VR_Diff image and the VR information of the media server.
  • the online set-top box 120 losslessly compresses the VR_Diff image to store the VR_Diff image in the hard disk, and the offline set-top box 220 generates the VR information can be compressed and stored on the hard disk.
  • the set-top box 220 transmits the VR information or the VR_Diff image compressed and stored in the hard disk to the quality management server using a reliable channel.
  • FIG. 10 is a diagram illustrating VR information extracted from an hour-long video content according to an embodiment of the present invention.
  • the transmission bandwidth required for transmitting the VR information of this content to the quality management server is 115.2kbps, and 51.84MB of storage space is required to store this VR information.
  • FIG. 11 is a diagram illustrating a reduction method by spatial subsampling according to an embodiment of the present invention.
  • the VR information may be reduced by subsampling from about 2: 1 to about 8: 1 in the spatial direction (vertical direction). If subsampling is performed at 8: 1, it is experimentally confirmed that the estimation performance of estimating the NPSNR is not significantly different.
  • FIG. 12 is a diagram illustrating a reduction method by temporal subsampling according to an embodiment of the present invention.
  • the VR information can be reduced to about 2.16MB and 4.8kbps.
  • FIG. 13 is a view illustrating a reduction method by lossless compression according to an embodiment of the present invention.
  • Information sub-sampled temporally, spatially or spatiotemporally by the reduction method as shown in FIGS. 11 and 12 may further reduce the data amount by the lossless compression method as shown in FIG. 13.
  • Applying a lossless compression method can further reduce the amount of data to about 1/2 to 1/3, and in the case of the VR information shown in FIG. 9, can further reduce the amount of data up to about 1 MB and 2 kbps. have.
  • FIG. 14 is a diagram illustrating a method of reducing information by extracting VR information by RTP packet loss detection according to an embodiment of the present invention.
  • the method shown in FIG. 14 does not extract the VR information for every frame, but uses the packet loss information provided by the RTP packet layer, and when the loss is detected, the VR for the image played in the set-top box for a predetermined time therefrom. By extracting the information and not extracting the VR information in the remaining time intervals, the data amount of the VR information can be reduced.
  • the VR information is not extracted. Therefore, the VR information is extracted in proportion to the amount of packet loss. If no packet loss occurs, the amount of data of the VR information is almost zero. .
  • FIG. 15 illustrates a method of reducing information by extracting VR information by video bitstream error detection according to an embodiment of the present invention.
  • the method illustrated in FIG. 15 is a method of reducing the data amount of VR information by starting to extract VR information from the moment when the video decoder of the set-top box detects an error of a bit stream syntax structure.
  • the GoP size is 0.5 seconds, that is, 15 frames. Therefore, when an error of a bit stream syntax structure is detected once, the VR information is extracted up to 15 frames, thereby greatly reducing the data amount of the VR information.
  • 16 is a flowchart illustrating the operation of the media server 110 in an online manner according to an embodiment of the present invention.
  • the media server 110 compresses the video signal and stores the compressed video stream (S1601).
  • the media server 110 extracts first VR information from the compressed video stream, that is, the encoded image (S1602).
  • the media server 110 After step S1602, the media server 110 includes the PTS (Presentation Time Stamp) value, which is time information, and the program ID, which identifies the content, in the extracted first VR information (S1603).
  • PTS Presentation Time Stamp
  • the media server 110 stores the VR information, and when the viewer requests it later, transmits the stored 1 VR information to the set-top box 120 (S1604).
  • the first VR information to be transmitted may be divided into a predetermined size and transmitted in segment units.
  • the storage such as a hard disk exists in the set-top box 120, the entire first VR information may be transmitted at once.
  • 17 is a flowchart illustrating the operation of the set-top box 120 in an online manner according to an embodiment of the present invention.
  • the set top box 120 receives the video bit stream and the first VR information from the media server 110 (S1701).
  • step S1701 for convenience of description, the reception of the video bit stream and the first VR information is described as one step. However, the first VR information is set as a separate transmission channel different from the video bit stream. ) May be sent.
  • the set-top box 120 may receive the first VR information in segments divided into a predetermined size, or when the storage such as a hard disk is present in the set-top box 120, the entire first VR information may be received at once. It may be.
  • step S1701 the set-top box 120 decodes the video bit stream to generate a playback image (S1702).
  • the set top box 120 extracts second VR information from the decoded playback image (S1703).
  • the set-top box 120 includes a presentation time stamp (PTS) value, which is time information, and a program ID, which is an identifier for identifying content, in the second VR information (S1704).
  • PTS presentation time stamp
  • program ID which is an identifier for identifying content
  • the set-top box 120 synchronizes the first VR information and the second VR information, and generates a VR_Diff image (S1705).
  • the set-top box 120 synchronizes the first VR information and the second VR information based on the PTS value and the program ID included in each VR information.
  • step S1705 the set-top box 120 compresses and stores the VR_Diff image and transmits it to the quality management server (S1706).
  • 18 is a flowchart illustrating the operation of the quality control server 130 in an online manner according to an embodiment of the present invention.
  • the quality management server 130 receives and stores the VR_Diff image from the set-top box 120 (S1801).
  • the quality management server 130 calculates an NPSNR estimate value using the VR_Diff image (S1802).
  • the quality management server 130 calculates an objective quality deterioration measure value (S1803).
  • the objective image quality deterioration measure for objectively measuring the quality deterioration may include a deterioration number, a threshold deterioration number, a threshold deterioration rate, an average deterioration amount, and an average threshold deterioration amount.
  • the quality management server 130 stores the objective image quality deterioration measurement value in the storage, and provides various information using the same to the quality management operator later (S1804).
  • 19 is a flowchart illustrating an operation of the media server 210 in an offline manner according to an embodiment of the present invention.
  • the media server 210 compresses the video signal and stores the compressed video stream (S1901).
  • the media server 210 extracts first VR information from the compressed video stream, that is, the encoded image (S1902).
  • the media server 210 After step S1902, the media server 210 includes a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the extracted first VR information (S1903).
  • PTS Presentation Time Stamp
  • the media server 210 stores the first VR information, and transmits the stored first VR information to the quality management server 230 at the request of the quality management server 230 (S1904).
  • 20 is a flowchart illustrating the operation of the set-top box 220 in the offline manner according to an embodiment of the present invention.
  • the set top box 220 receives the video bit stream from the media server 210 (S2001).
  • step S2001 the set-top box 220 decodes the video bit stream to generate a playback image (S2002).
  • the set-top box 220 extracts the second VR information from the decoded playback image (S2003).
  • the set-top box 220 includes a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the second VR information (S2004).
  • PTS Presentation Time Stamp
  • step S2004 the set-top box 220 compresses and stores the second VR information and transmits it to the quality management server (S2005).
  • the set-top box 220 does not need to generate a VR_Diff image, which reduces the consumption of computational resources of the set-top box 220, and thus can be operated in a set-top box having a lower specification than the online method. There is this.
  • 21 is a flowchart illustrating the operation of the quality control server 230 in an online manner according to an embodiment of the present invention.
  • the quality management server 230 receives the first VR information transmitted from the media server 210 and the second VR information transmitted from the set top box 220 (S2101).
  • the quality management server 230 synchronizes the two VR information based on the PTS value and the program ID included in the first VR information and the second VR information (S2102).
  • the quality management server 230 After step S2102, the quality management server 230 generates a VR_Diff image by using the difference of each VR information (S2103).
  • the quality management server 230 calculates an NPSNR estimate using the VR_Diff image (S2104).
  • step S2104 the quality management server 230 calculates an objective quality deterioration measure value (S2105).
  • the objective image quality deterioration measure for objectively measuring the quality deterioration may include a deterioration number, a threshold deterioration number, a threshold deterioration rate, an average deterioration amount, and an average threshold deterioration amount.
  • the quality management server 230 stores the objective quality deterioration measurement value in the storage, and provides various information using the same to the quality management operator later (S2106).
  • the video used in the experiment is an H.264 stream provided by the real IPTV business.
  • the characteristics are as shown in Table 1.
  • VR information is generated by extracting the pixels on the vertical line at the center of the frame.
  • VR information of the encoded playback image Extracted H.264 stream from error-free decoded playback video, and then divided the H.264 stream into packets of 1,500 byte size and randomly lost packets with a packet loss rate of 0.1%.
  • VR information of video played on set-top box Assume that
  • the verification of the performance is based on the calculation of the objective deterioration scale value calculated by the NPSNR obtained from the 2D image as the VR information. How well do you estimate using?
  • 22 to 24 are diagrams illustrating NPSNR estimation performance of experimental images of Table 1 according to an embodiment of the present invention.
  • a section showing an NPSNR value smaller than 50 dB is a section in which degradation occurs due to packet loss.
  • '2D' is a value calculated for 2D playback video
  • 'VR' is an estimated value based on VR information only.
  • ⁇ Table 2> For reference, the deterioration shown in ⁇ Table 2> is set for the simulation to evaluate the performance of the proposed method, and in practice, commercial service is impossible. IPTV operators can use this information to provide field data for network or service improvement.
  • 25 to 28 illustrate VR information and a VR_Diff image for an experimental video of Table 2 according to an embodiment of the present invention.
  • the subjective critical deterioration section is the objective deterioration section of ⁇ Equation 5>. It is defined as the section in which unpleasant deterioration of a human occurs.
  • the degree to which a person is perceived differs depending on the position and characteristics of the deteriorated frame and the deterioration duration. For example, if degradation occurs in only one frame and no degradation occurs in front and rear frames, the viewer hardly recognizes the degradation.
  • the subjective deterioration amount may be significantly different from the objective deterioration amount.
  • the subjective critical deterioration interval is defined as an interval in which NMOS, which is a NMOS (Networked Mean Opinion Score) value defined in Equation 9 below, or MOS, which is a subjective quality evaluation value of viewers, is 3.5 or less.
  • the first term in parentheses Is the mean of the kth objective critical degradation interval
  • the second term a in parentheses is the decay constant, Denotes a frame time for which the k-th degradation lasted, that is, a time for which the objective degradation section lasts, and reflects a phenomenon in which the subjective image quality deteriorates as the time for the degradation continues.
  • the third term in parentheses Denotes the complexity of the image of the k-th degradation section, and reflects the phenomenon that the perceived image quality is different according to the temporal and spatial complexity of the image.
  • the attenuation constant a of ⁇ Equation 10> is 0.05 and the image complexity variable The value can be set based on the criteria as shown in Equation 9 below.
  • Equation 11> shows the deterioration interval of the average frame I Weight based on size
  • I the average value of Is an average value of VR variance values of each frame belonging to the k-th degradation section.
  • the subjective deterioration measure is defined as follows using the subjective critical deterioration interval above.
  • NMOS of Equation 9 of the present invention is It is an expression defined from the observation that the amount of NPSNR can be perceived subjectively differently according to the characteristics or conditions of the image.
  • Equation 9 is a different approach from the existing subjective quality measure, which excludes the signal waveform aspect of the image, and the idea that the subjective quality measure can be modeled by appropriately weighting the elements reflecting the visual characteristics in the objective quality amount. Is based on.
  • the configuration of the quality management servers 130 and 230 of the present invention will be described with reference to FIG. 29.
  • the quality management server 230 will be described as an example.
  • 29 is a block diagram showing the configuration of a quality control server 230 according to another embodiment of the present invention.
  • the quality control server 230 includes a receiver 231, a reproduction quality estimation value calculator 232, an objective degradation interval detector 233, a subjective degradation detector 234, and a subjective degradation scale calculator. 235, storage 236, and graphical user interface provider 237.
  • the components 231 to 237 of the quality management server illustrated in FIG. 29 are for both an online scheme and an offline scheme.
  • a VR_Diff generation for generating a VR_Diff image in addition to the components illustrated in FIG. 29. It may further include a portion (not shown).
  • the receiving unit 231 of the quality management server 230 receives the VR_Diff image from the set-top box, and in the offline manner, the first VR information and the first VR information are received from the media server and the set-top box. 2 VR information is received to generate a VR_Diff image.
  • the quality management server 230 measures the degradation of the playback quality of one video content by using the VR_Diff image.
  • the playback quality estimation value calculator 232 may calculate an image quality estimation value for each frame ( ), And the objective deterioration section detector 233 detects the objective deterioration section by using the image quality estimation value, and the beginning and end of the image quality deterioration are the maximum values of the image quality estimation values calculated by the reproduction image quality estimation value calculator 232.
  • a section other than (50dB), that is, a section less than 50db may be detected as an objective degradation section.
  • the subjective deterioration detection unit 234 calculates a subjective deterioration amount for each of the objective deterioration sections detected by the objective deterioration section detection unit 233, and detects a section in which the subjective deterioration amount is less than or equal to a predetermined value as the subjective critical deterioration section.
  • the subjective deterioration detection unit 234 calculates the subjective deterioration amount for each objective deterioration section by using the time for which the objective deterioration section is continued and the temporal and spatial complexity of the image.
  • the subjective critical degradation section may be defined as a section in which NMOS (Networked Mean Opinion Score) value defined by Equation 9 is 3.5 or less, or MOS, which is a subjective quality evaluation value of viewers, is 3.5 or less.
  • NMOS Networked Mean Opinion Score
  • the subjective deterioration scale calculator 235 calculates a subjective deterioration measure including at least one of a threshold deterioration number, a threshold deterioration rate, and an average subjective threshold deterioration amount for the subjective deterioration interval detected by the subjective deterioration detection unit 234. do.
  • the number of critical degradation intervals means the number of critical degradation intervals, and the number of critical degradation intervals is the number of degradations in the total video sequence time.
  • the threshold degradation rate is the ratio of time occupied by all subjective critical degradation intervals in the total video sequence time.
  • the average subjective critical deterioration amount is the average NMOS value of the frames constituting the subjective critical deterioration interval having an NMOS value of 3.5 or less.
  • the subjective deterioration scale calculation unit 235 is described as calculating the subjective deterioration scale, but there are separate components corresponding to each subjective deterioration scale, so that the corresponding subjective deterioration scale may be respectively calculated. (E.g., the number of deterioration is calculated by the deterioration count calculation unit, etc.).
  • the storage 236 stores a value for the subjective quality deterioration evaluation calculated by each of the above.
  • the storage 236 stores the VR_Diff image received from the set-top box in the online manner, and the VR_Diff generated by receiving the first VR information and the second VR information from the media server and the set-top box in the offline manner. Save the image.
  • the graphic user interface providing unit 237 provides various information through a graphic user interface (hereinafter referred to as a GUI) so that the quality management operator can view the quality information when necessary.
  • a graphic user interface hereinafter referred to as a GUI
  • the information provided by the GUI providing unit 237 includes an NMOS graph and various subjective image quality degradation measure values, VR information (first VR information) of an encoded image, VR information (second VR information) of an image reproduced in a set-top box, and VR_Diff image between VR information.
  • FIG. 30 is a flowchart illustrating a subjective quality deterioration measurement process according to an embodiment of the present invention.
  • the flowchart illustrated in FIG. 30 is a flowchart of an operation mainly performed by the quality control server 230 in an offline manner.
  • the quality management server 230 calculates a VR difference based on the first VR information on the encoded image received from the media server 210 and the second VR information on the decoded playback image received from the set-top box 220. (S3001).
  • the quality management server 230 calculates an image quality estimation value of the image reproduced in the set-top box 220 using the VRVV difference (S3002).
  • the quality management server 230 detects an objective deterioration interval by using the image quality estimation value (S3003).
  • the quality management server 230 may detect a section in which the start and the end of the image quality deterioration is not the maximum value of the image quality estimation value as the objective degradation section.
  • the quality control server 230 calculates a subjective deterioration amount for each objective deterioration section detected in step S3003, and detects a section in which the subjective deterioration amount is less than or equal to a predetermined value as a subjective critical deterioration section (S3004).
  • the quality management server 230 reflects the subjective image quality deterioration and the phenomenon that the perceived image quality is different according to the temporal and spatial complexity of the image as a weight, and the subjective quality of each degradation section is subjectively. Calculate the amount of degradation.
  • the quality control server 230 includes at least one of the number of times of critical degradation, the threshold degradation rate, and the average subjective threshold degradation amount for the subjective critical degradation interval.
  • the quality management server 230 stores a value for subjective quality deterioration evaluation in the storage, and then provides various information using the same to the quality control operator terminal (S3006).
  • Each stream is SD (720x480) video and has a GOP (group of pictures) size of 15 frames, 30 frames per second, and a fixed bit rate (CBR) of 2.5 Mbps.
  • each image consists of several scenes, and the experiment was conducted with the first 3,000 frames of these images.
  • the H.264 decoder used open source software ffmpeg.
  • the VR information is generated by extracting the pixels on the vertical line in the center of the frame.
  • the VR information of the encoded playback image is extracted from the H.264 stream without error decoding.
  • the H.264 stream is divided into 1,500 byte packets, and in order to emulate network transmission errors, the packets are randomly lost at a packet loss rate of 0.1%, and then the VRs are extracted from the video played by the decoder.
  • Information in the VR information of the STB playback video Used as.
  • MOS value of the viewers which is a subjective sensation quality value
  • 10 test viewers were decoded the original H.264 stream and 5 images whose screens were degraded by network transmission error.
  • MOS value between 1 and 5 was recorded based on the criteria as shown in ⁇ Table 4>.
  • FIG. 31 illustrates a correlation between MOS values recorded by viewers for all degradation periods and NMOS values calculated using Equations 9, 11, and 13 according to an embodiment of the present invention.
  • MOS which is the subjective image quality of viewers
  • Table 5 shows the performance estimation results for the subjective deterioration measure according to an embodiment of the present invention.
  • the threshold deterioration count is a measure of the number of times the deterioration perceived by the viewer's eyes when each test image is played at a normal speed.
  • the number of times that the viewer feels that the screen deteriorates due to a network transmission error is expressed by ⁇ Equation 9 It can be seen that the results are in good agreement with the NMOS value of
  • MOS means subjective observations of the viewers
  • NMOS means the result calculated by ⁇ Equation 9>.
  • the subjective image quality scale above is combined with the objective image quality scale and the direct visual observation of VR image information to sufficiently approximate the amount of image quality deterioration of the STB playback image caused by the error occurred during network transmission. Because it can measure, it is effective for monitoring individual viewer's sense of quality in STB environment where computing resources are scarce.
  • each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Provided are a method and apparatus for monitoring video quality. The method for monitoring video quality comprises: (a) receiving first visual rhythm information of an encoded video from a first server; (b) extracting second visual rhythm information of the video obtained by receiving the encoded video through a network, and decoding and reproducing the received video; (c) calculating a visual rhythm difference on the basis of the first visual rhythm information and the second visual rhythm information; and (d) transmitting the calculated visual rhythm difference to a second server, wherein the second server measures the degradation of video quality of the reproduced video using the visual rhythm difference.

Description

영상 품질 모니터링 방법 및 장치Image quality monitoring method and device
본 발명은 영상 품질을 모니터링하는 방법 및 장치에 관한 것으로서, 보다 상세하게는, 셋탑박스에서 재생되는 영상에 대한 화질 열화를 모니터링하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for monitoring image quality, and more particularly, to a method and apparatus for monitoring image quality deterioration for an image reproduced in a set-top box.
최근, IPTV의 상용화로 영상 품질에 대한 관심이 부쩍 높아졌다. 이에, IPTV 사업자의 입장에서는 시청자가 경험하는 화질의 수준을 모니터링하고, 그 결과를 컨텐츠 생성이나 전송 방식에 반영하여 고객의 만족도를 높이려는 다양한 노력들을 시도하고 있는데, 이를 위해서는 IPTV의 화질을 측정하고 평가하는 방법이 필요하다.Recently, with the commercialization of IPTV, interest in image quality has sharply increased. In this regard, IPTV operators are making various efforts to monitor the level of image quality experienced by the viewers and to reflect the results in the content generation or transmission methods to increase customer satisfaction. How to evaluate
현재 ITU-T SG9과 VQEG을 중심으로 주관적 체감 화질의 객관적 품질 측정 방법에 대한 표준화를 진행하고 있으며, 이는 크게 전기준법(FR;Full Reference), 감소기준법(RR; Reduced Reference) 및 무기준법(NR; No Reference)으로 구분될 수 있다.Currently, ITU-T SG9 and VQEG are being standardized to measure the objective quality of subjective sensational quality, which is largely referred to as Full Reference (FR), Reduced Reference (RR), and No Standard (NR). ; No Reference).
이 중, 전기준법은 원본 영상 대비 재생 영상의 유사성 또는 왜곡량을 측정하는 방법이다. 또한, 감소기준법은 원본 영상으로부터 추출한 특징 정보와 재생 영상으로부터 추출한 특징 정보를 비교하여 상대적인 화질을 측정하는 방법이며, 무기준법은 원본 영상 자체나 특징 정보가 존재하지 않는 상태에서 시청자에게 보이는 재생 영상만으로 화질을 측정하는 방법이다.Among these, the electro-observation method is a method of measuring the similarity or distortion of the reproduced image compared to the original image. In addition, the reduction criterion method is a method of measuring the relative image quality by comparing the feature information extracted from the original image and the feature information extracted from the playback image, the non-reference method is only a playback image visible to the viewer in the absence of the original image itself or feature information How to measure the quality.
이 중 전기준법이 가장 정확한 결과를 제공해주며, 무기준법이 가장 부정확하다고 알려져 있다.Of these, the Electro-Compliance provides the most accurate results, and the Non-Standard Law is known to be the most inaccurate.
그러나, 실제 IPTV사업에 있어서는 재생 영상의 화질에 영향을 미치는 요소들이 매우 많기 때문에, 상기한 표준에서 제시하는 단순한 원본 대비 재생 영상 간의 상대적인 비교만으로는 IPTV 사업에서 발생하는 화질 열화와 같은 문제점들에 제대로 대처하기 어렵다.However, in the actual IPTV business, there are many factors that affect the quality of the playback video. Therefore, the relative comparison between the original and the playback video suggested by the above standard can cope with the problems such as the deterioration of the quality in the IPTV business. Difficult to do
예를 들어, 인코딩된 영상의 왜곡, 즉 Front-end 단에서의 왜곡은 주로 원본 영상의 불량이나 인코딩 과정에서 유입된 왜곡에 의한 것이고, 네트워크나 셋탑박스(set-top box)의 결함에 의한 왜곡, 즉 Back-end 단에서의 왜곡은 주로 패킷 손실이나 셋탑박스의 오동작으로 인한 왜곡이기 때문에, Front-end 단에서의 왜곡과 Back-end 단에서의 왜곡은 그 원인이 서로 다르다.For example, the distortion of the encoded image, i.e., the distortion at the front-end stage, is mainly due to the defect of the original image or the distortion introduced during the encoding process, and the distortion due to a defect in a network or a set-top box. That is, since the distortion at the back-end is mainly caused by packet loss or malfunction of the set-top box, the distortion at the front-end and the distortion at the back-end are different from each other.
따라서, 시청자의 TV에 표현되는 셋탑박스의 재생 영상은 모든 왜곡의 총 합으로 나타나므로 왜곡이 발생했을 때 그 원인을 찾아내기가 쉽지 않다.Therefore, since the playback image of the set-top box represented on the viewer's TV appears as the sum of all distortions, it is difficult to find the cause when the distortion occurs.
이에, ITU-T에서 2004년 6월에 표준화한 J.240 (Framework for remote monitoring of transmitted picture signal-to-noise ratio using spread-spectrum and orthogonal transform)에서는, 입력 영상을 적당한 크기의 블록으로 나누어 대역 확산(spread spectrum)과 직교 변환(orthogonal transform)을 이용하여 주파수 영역 또는 공간 영역에서 영상 데이터를 무작위화(random)하여, 그 중 한 샘플을 특징 정보로 취하는 방법을 제안하였으며, 최대 신호대 잡음비(Peak Signal-to-Noise Ratio, 이하 PSNR이라 칭함)의 추정된 평균이 매우 정확하다고 주장하고 있다.Therefore, in J.240 (Framework for remote monitoring of transmitted picture signal-to-noise ratio using spread-spectrum and orthogonal transform) standardized by ITU-T in June 2004, the input image is divided into blocks of appropriately sized bands. We proposed a method that randomizes image data in the frequency domain or spatial domain using spread spectrum and orthogonal transform, and takes one sample as feature information, and uses the maximum signal-to-noise ratio (Peak). It is claimed that the estimated mean of Signal-to-Noise Ratio (hereinafter referred to as PSNR) is very accurate.
그러나 이 방법은 특징 정보를 추출하기 위해 영상 데이터를 PN(pseudo-noise) 시퀀스와 곱하고 Walsh-Hadamard 변환을 해야 하는 연산이 필요하다. 이 연산은 연산량이 매우 많지는 않지만 모든 픽셀 정보에 대해 연산이 수행되어야 하므로 이를 셋탑박스에서 처리하기에는 매우 부담스러우며, 개별 프레임 수준에서 추정된 PSNR 값은 주장과는 달리 큰 차이가 날 수도 있다.However, this method requires an operation that requires multiplying image data by a pseudo-noise (PN) sequence and performing Walsh-Hadamard transformation to extract feature information. Although this operation is not very expensive, it is very burdensome to process in the set-top box because the operation must be performed on all pixel information, and the PSNR value estimated at the individual frame level may be different from the claim.
예를 들어, 720x480@30 fps 영상의 경우 특징 정보가 차지하는 대역폭이 1,296kbps나 필요하여 이를 셋탑박스에서 처리하기에는 매우 부담스럽다.For example, a 720x480 @ 30 fps video requires 1,296kbps of bandwidth required by feature information, which is very burdensome to process in a set-top box.
또한, YAMADA et al(“Reduced-reference based video quality metrics using representative-luminance values,”in Proc. International Workshop on Video Processing and Quality Metrics for Consumer Electronics, Scottsdale, Ariz., USA, Jan. 2007.)이 제안한 방법은 입력 영상에서“대표 휘도값”을 가지는 픽셀들의 위치와 그 값을 특징 정보로 전송하고 수신측에서 이 위치의 화소값들을 특징 정보로 추출하여 비교함으로써 PSNR을 추정한다.Also proposed by YAMADA et al (“Reduced-reference based video quality metrics using representative-luminance values,” in Proc. International Workshop on Video Processing and Quality Metrics for Consumer Electronics, Scottsdale, Ariz., USA, Jan. 2007.) The method estimates the PSNR by transmitting the position of the pixels having the "representative luminance value" in the input image and the value as the characteristic information, and extracting and comparing the pixel values of this position as the characteristic information at the receiving side.
이 방식은 간단하긴 하나“대표 휘도값”의 위치 정보가, 많은 데이터량을 수반하며, 이를 실용화하기 위해서는 위치 정보를 압축하기 위한 별도의 이진(binary) 압축 코덱이 필요한 단점이 있다.Although this method is simple, the position information of the "representative luminance value" involves a large amount of data, and in order to make it practical, a separate binary compression codec for compressing the position information is required.
따라서, 셋탑박스의 연산 부담을 최소화하면서 셋탑박스에서 재생되는 영상의 품질을 정량적(객관적)으로 측정하고, 재생 영상의 화질 열화에 대한 다양한 정보를 쉽게 확인할 수 있는 방안이 요구되고 있다.Accordingly, there is a demand for a method for quantitatively (quantitatively) measuring the quality of an image reproduced in the set-top box while minimizing the computational burden of the set-top box and easily confirming various information on the deterioration of the image quality of the set-top box.
한편, 상기한 객관적 화질은 기준 영상과 재생 영상 간의 화소 값의 차이를 기반으로 평가되는 양이며, 주관적 화질은 사람의 눈을 통해 평가되는 양이다. 객관적 화질 척도는 비교 대상 간의 상대적 차이가 명확한 기준에 의해 결정되기 때문에, 재생 화질에 대한 기준 척도로서 의미가 있으며, 주관적 화질 척도는 시청자들이 경험하는 체감 화질을 평가하는 척도로서 의미가 있다.Meanwhile, the objective image quality is an amount evaluated based on the difference in pixel values between the reference image and the reproduced image, and the subjective image quality is an amount evaluated by the human eye. The objective picture quality measure is meaningful as a reference measure for reproduction picture quality because the relative difference between the comparison targets is determined by a clear standard, and the subjective picture quality measure has a meaning as a measure for evaluating the sensory picture quality experienced by the viewers.
객관적 화질과 주관적 화질이 반드시 일치하는 것은 아니기 때문에, 인간의 시각적 특성을 이용하여 주관적 화질을 정량화하는 시도가 많이 있었다.Since the objective image quality and the subjective image quality do not necessarily coincide, there have been many attempts to quantify subjective image quality using human visual characteristics.
주관적 화질을 정량화하는 종래의 방법은 ITU-T J.144와 현재 표준화 중인, 상기한 전기준법(FR), 감소기준법(RR), 무기준법(NR) 등 여러 가지 기법들이 있으나, 인간의 눈이 민감하게 반응하는 것으로 알려져 있는, 영상 프레임 내에 존재하는 열화 요인(예를 들어, blocking, blurring, jerkiness, color error, edge business 등)을 수치화함으로써 주관적 화질 척도를 모델링하였다.Conventional methods for quantifying subjective image quality include ITU-T J.144, which is currently being standardized, such as the Electro-Compliance (FR), the Reduced Reference Method (RR), and the Non-Standard Method (NR). The subjective quality scale was modeled by quantifying the deterioration factors (eg, blocking, blurring, jerkiness, color error, edge business, etc.) present in the image frame.
이중 FR은 원본 영상이 존재해야 하므로 일반적인 시청 환경에 적용할 수 없고, RR과 NR 방법 중에서 이러한 모델링에 의해 제안된 화질 척도들은 계산량이 매우 많고, 정확도가 높지 않다는 문제가 있었다.Of these, FR cannot be applied to a general viewing environment because an original image must exist, and there are problems in that the quality measures proposed by such modeling are very computational and not accurate in the RR and NR methods.
또한, 대부분의 주관적 척도들은 주로 압축 과정에서 발생하는 blocking, blurring, jerkiness 등의 왜곡을 평가하는데 초점이 맞추어져 있어, 네트워크 전송 오류에 의한 화질 열화를 재생 영상 관점에서 정량적으로 평가하려는 시도와 요구가 꾸준히 제시되고 있다.In addition, most subjective measures focus mainly on evaluating distortion, such as blocking, blurring, and jerkiness, which occur during the compression process. Therefore, there is an attempt and demand to quantitatively evaluate image degradation due to network transmission error in terms of playback images. It is constantly being presented.
상술한 종래 기술의 문제점을 해결하기 위해, 본 발명은 화질 열화 정도를 객관적으로 측정하기 위한 새로운 품질 척도 및 이를 기반으로 한 객관적 화질 열화 척도를 제공한다.In order to solve the above-mentioned problems of the prior art, the present invention provides a new quality measure for objectively measuring the degree of image quality deterioration and an objective image quality deterioration measure based thereon.
또한 본 발명은 셋탑박스의 연산 부담을 줄이면서, 셋탑박스에서 재생되는 영상에 대한 객관적 화질 열화를 측정할 수 있는 방법 및 장치를 제공한다.In another aspect, the present invention provides a method and apparatus for measuring the objective image quality degradation of the image reproduced in the set-top box, while reducing the computational burden of the set-top box.
또한, 본 발명은 패킷 손실로 인해 열화되는 재생 영상의 품질을 정량적으로 측정하고, 품질 관리 운영자가 화질 열화의 위치와 양을 쉽게 확인할 수 있는 방법 및 장치를 제공한다.In addition, the present invention provides a method and apparatus for quantitatively measuring the quality of a playback image deteriorated due to packet loss and allowing a quality control operator to easily identify the location and amount of image quality deterioration.
또한, 본 발명은 비주얼 리듬 정보를 이용하여 네트워크 전송 오류에 의한 주관적 화질 열화를 정량적으로 측정할 수 있는 장치를 제공한다.The present invention also provides an apparatus capable of quantitatively measuring subjective picture quality degradation due to network transmission error using visual rhythm information.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood from the following description.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 영상 품질을 모니터링하는 방법은 (a) 제 1 서버로부터, 인코딩된 영상의 제 1 비주얼 리듬 정보를 수신하는 단계, (b) 상기 인코딩된 영상을 네트워크를 통해 수신하여 디코딩한 재생 영상에 대하여 제 2 비주얼 리듬 정보를 추출하는 단계, (c) 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보에 기초하여, 비주얼 리듬 차이를 산출하는 단계 및 (d) 상기 산출된 비주얼 리듬 차이를 제 2 서버로 전송하는 단계를 포함하되, 상기 제 2 서버는 상기 비주얼 리듬 차이를 이용하여 상기 재생 영상에 대한 화질 열화를 측정한다.In order to achieve the above object, a method for monitoring image quality according to an aspect of the present invention comprises the steps of (a) receiving, from a first server, the first visual rhythm information of an encoded image, (b) the encoded image Extracting second visual rhythm information on the decoded playback image received through a network, (c) calculating a visual rhythm difference based on the first visual rhythm information and the second visual rhythm information; and (d) transmitting the calculated visual rhythm difference to a second server, wherein the second server measures the deterioration of image quality of the reproduced image by using the visual rhythm difference.
상기 목적을 달성하기 위하여, 본 발명의 다른 측면에 따른 영상 품질을 모니터링하는 방법은 (a) 미디어 서버로부터, 인코딩된 영상에 대한 제 1 비주얼 리듬 정보를 수신하는 단계, (b) 셋탑 박스로부터, 디코딩된 재생 영상에 대한 제 2 비주얼 리듬 정보를 수신하는 단계, (c) 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보에 기초하여, 비주얼 리듬 차이를 산출하는 단계 및 (d) 상기 비주얼 리듬 차이를 이용하여 상기 재생 영상에 대한 화질 열화를 측정하는 단계를 포함한다.In order to achieve the above object, a method of monitoring image quality according to another aspect of the present invention comprises the steps of (a) receiving from the media server, the first visual rhythm information for the encoded image, (b) from the set-top box, Receiving second visual rhythm information on the decoded playback image, (c) calculating a visual rhythm difference based on the first visual rhythm information and the second visual rhythm information, and (d) the visual rhythm Measuring the deterioration of the image quality of the reproduced image using the difference.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 영상 품질을 모니터링하는 장치는 셋탑박스로부터, 인코딩된 영상에 대한 비주얼 리듬 정보인 제 1 비주얼 리듬 정보와 상기 셋탑박스에서 재생되는 영상에 대한 비주얼 리듬 정보인 제 2 비주얼 리듬 정보의 차를 이용한 비주얼 리듬 차이를 수신하는 수신부, 상기 비주얼 리듬 차이 영상을 이용하여 상기 셋탑박스에서 재생되는 영상의 화질 추정 값을 계산하는 화질 추정 값 계산부, 상기 재생 영상의 열화 횟수, 임계 열화 횟수, 임계 열화율, 평균 임계 열화량 및 평균 열화량 중 적어도 하나를 포함하는 객관적 화질 열화 척도를 계산하는 객관적 화질 열화 척도 계산부 및 사용자의 요청에 따라, 상기 화질 추정 값 및 상기 객관적 화질 열화 척도에 기초한 영상 품질 모니터링 정보를 제공하는 그래픽 유저 인터페이스를 포함한다.In order to achieve the above object, the apparatus for monitoring the image quality according to an aspect of the present invention is the first visual rhythm information that is visual rhythm information for the encoded image from the set-top box and the visual for the image reproduced in the set-top box Receiving unit for receiving a visual rhythm difference using the difference of the second rhythm information that is rhythm information, Image quality estimation value calculator for calculating the image quality estimation value of the image played in the set-top box using the visual rhythm difference image, The reproduction According to a request of an objective image quality deterioration scale calculation unit for calculating an objective image quality deterioration measure including at least one of an image deterioration number, a threshold deterioration number, a threshold deterioration rate, an average threshold deterioration amount, and an average deterioration amount, the image quality estimation is performed. Providing image quality monitoring information based on the value and the objective quality deterioration measure. And a graphical user interface.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 영상 품질을 모니터링하는 셋탑박스는, 네트워크를 통해 제 1 서버로부터 수신한 인코딩된 영상을 디코딩하여 재생 영상을 생성하는 비디오 디코더, 상기 재생 영상으로부터 제 2 비주얼 리듬 정보를 추출하는 비주얼 리듬 정보 추출부, 상기 제 1 서버로부터 수신한 상기 인코딩된 영상에 대한 제 1 비주얼 리듬 정보와 상기 제 2 비주얼 리듬 정보에 기초하여 비주얼 리듬 차이를 산출하는 비주얼 리듬 차이 산출부 및 상기 비주얼 리듬 차이를 이용하여 상기 재생 영상에 대하 화질 열화를 측정하는 제 2 서버로 상기 비주얼 리듬 차이를 전송하는 비주얼 리듬 차이 전송부를 포함한다.In order to achieve the above object, the set-top box for monitoring the video quality according to an aspect of the present invention, a video decoder for decoding the encoded video received from the first server via a network to generate a playback video, from the playback video Visual rhythm information extraction unit for extracting the second visual rhythm information, Visual rhythm for calculating the visual rhythm difference based on the first visual rhythm information and the second visual rhythm information for the encoded image received from the first server And a visual rhythm difference transmitter for transmitting the visual rhythm difference to a second server that measures image quality degradation of the reproduced image by using the difference calculator and the visual rhythm difference.
상기 목적을 달성하기 위하여, 본 발명의 다른 측면에 따른 영상 품질을 모니터링하는 장치는, 기준 영상에 대한 제 1 비주얼 리듬 정보 및 재생 영상에 대한 제 2 비주얼 리듬 정보의 차이에 의해 산출된 비주얼 리듬 차이를 이용하여 상기 재생 영상의 화질 추정 값을 계산하는 재생 화질 추정 값 계산부, 상기 재생 영상의 화질 추정 값이 미리 정해진 기준값 미만인 하나 이상의 구간을 각각 객관적 열화 구간으로 검출하는 객관적 열화 구간 검출부 및 상기 검출된 하나 이상의 객관적 열화 구간 별로, 상기 객관적 열화 구간이 지속된 시간 및 영상의 복잡도를 이용하여 주관적 열화량을 계산하는 주관적 열화 검출부를 포함한다.In order to achieve the above object, the apparatus for monitoring the image quality according to another aspect of the present invention, the visual rhythm difference calculated by the difference between the first visual rhythm information for the reference image and the second visual rhythm information for the playback image A reproduction quality estimation value calculator for calculating an image quality estimation value of the reproduced video using an objective deterioration section detection unit for detecting at least one section having an image quality estimation value of the reproduced video below a predetermined reference value as an objective degradation section, respectively; For each of the at least one objective deterioration section, the subjective deterioration detection unit for calculating the subjective deterioration amount by using the time duration of the objective deterioration section and the complexity of the image.
상기 목적을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술된 실시예들을 참조하면 명확해질 것이다.Specific details for achieving the above object will be apparent with reference to the embodiments described below in detail with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 실시예들은 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.However, the present invention is not limited to the embodiments disclosed below, but may be configured in different forms, and the present embodiments are intended to complete the disclosure of the present invention and to provide general knowledge in the technical field to which the present invention belongs. It is provided to fully inform those who have the scope of the invention.
전술한 본 발명의 영상 품질을 모니터링하는 방법 및 장치의 과제 해결 수단 중 하나에 의하면, 셋탑박스의 연산 부담을 감소시키면서 셋탑박스에서 재생되는 영상에 대한 객관적 화질 열화를 측정할 수 있다.According to one of the problem solving means of the method and apparatus for monitoring the image quality of the present invention described above, it is possible to measure the objective image quality degradation of the image reproduced in the set-top box while reducing the computational burden of the set-top box.
또한, 비주얼 리듬 정보를 사용하므로 재생 영상에 대한 화질 열화의 위치, 지속 시간, 열화 횟수, 평균 열화량 등 객관적 품질 측정이 가능하며, 프레임 별 재생 화질 측정도 가능하다.In addition, since visual rhythm information is used, objective quality measurement such as position, duration, deterioration frequency, average deterioration amount of image quality deterioration with respect to the playback image is possible, and playback quality measurement by frame is also possible.
또한, 비주얼 리듬 정보를 통해 시각적으로 재생 영상에 대한 화질 열화를 확인할 수 있으므로 직관적인 화질 모니터링이 가능하다.In addition, visual rhythm information can visually confirm the deterioration of image quality of the playback image, thereby enabling intuitive image quality monitoring.
또한 압축된 비주얼 리듬 정보 및 압축된 비주얼 리듬 정보 차이 영상을 전송함으로써, 상향 전송 대역폭을 절감할 수 있으며, 저장 공간 확보에도 기여할 수 있다.In addition, by transmitting the compressed visual rhythm information and the compressed visual rhythm information difference image, it is possible to reduce the uplink transmission bandwidth, and contribute to securing the storage space.
또한, 비주얼 리듬 정보를 이용하여 시청자의 주관적 체감 화질을 정량적으로 측정할 수 있다.In addition, the subjective bodily sensation quality of the viewer can be quantitatively measured using the visual rhythm information.
또한, 간단한 공식을 이용하여 주관적 체감 화질을 계산할 수 있으므로, 화질 열화 척도를 계산하는데 있어 계산 복잡도를 낮출 수 있다.In addition, since the subjective haptic image quality can be calculated using a simple formula, it is possible to reduce the computational complexity in calculating the image quality deterioration measure.
도 1은 본 발명의 일 실시예에 따른 IPTV의 영상 품질을 모니터링하는 시스템의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV according to an embodiment of the present invention.
도 2는 오프라인 방식에서 IPTV의 영상 품질을 모니터링하는 시스템의 구성을 도시한 도면이다.2 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV in an offline manner.
도 3은 본 발명의 일 실시예에 따른 VR 정보에 대한 도면이다.3 is a diagram for VR information according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 객관적 열화 구간 및 임계 열화 구간을 도시한 도면이다.4 is a diagram illustrating an objective deterioration interval and a critical deterioration interval according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 품질 관리 서버의 구성을 도시한 블록도이다.5 is a block diagram showing the configuration of a quality control server according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 품질 관리 서버에서 제공하는 특정 가입자가 시청한 컨텐츠에 대한 시청 품질 정보를 도시한 도면이다.FIG. 6 is a diagram illustrating viewing quality information of content watched by a specific subscriber provided by a quality management server according to an exemplary embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 VR 동기화를 위한 VR 정보의 표현 방법을 도시한 도면이다.7 is a diagram illustrating a method of expressing VR information for VR synchronization according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 VR 동기화를 위한 VR 정보의 형태를 도시한 도면이다.8 is a diagram illustrating a form of VR information for VR synchronization according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 VR 정보의 동기화 방법을 도시한 도면이다.9 illustrates a method of synchronizing VR information according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 1시간 분량의 비디오 컨텐츠에서 추출된 VR 정보를 도시한 도면이다.FIG. 10 is a diagram illustrating VR information extracted from an hour-long video content according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따른 공간적 서브 샘플링에 의한 감축 방법을 도시한 도면이다.11 is a diagram illustrating a reduction method by spatial subsampling according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 따른 시간적 서브 샘플링에 의한 감축 방법을 도시한 도면이다.12 is a diagram illustrating a reduction method by temporal subsampling according to an embodiment of the present invention.
도 13은 본 발명의 일 실시예에 따른 무손실 압축에 의한 감축 방법을 도시한 도면이다.13 is a view illustrating a reduction method by lossless compression according to an embodiment of the present invention.
도 14는 본 발명의 일 실시예에 따른 RTP 패킷 손실 검출에 의해 VR 정보를 추출함으로써 정보를 감축하는 방법을 도시한 도면이다.14 is a diagram illustrating a method of reducing information by extracting VR information by RTP packet loss detection according to an embodiment of the present invention.
도 15는 본 발명의 일 실시예에 따른 비디오 비트 스트림 에러 검출에 의해 VR 정보를 추출함으로써 정보를 감축하는 방법을 도시한 도면이다.FIG. 15 illustrates a method of reducing information by extracting VR information by video bitstream error detection according to an embodiment of the present invention.
도 16은 본 발명의 일 실시예에 따른 온라인 방식에서 미디어 서버의 동작을 도시한 흐름도이다.16 is a flowchart illustrating an operation of a media server in an online manner according to an embodiment of the present invention.
도 17은 본 발명의 일 실시예에 따른 온라인 방식에서 셋탑박스의 동작을 도시한 흐름도이다.17 is a flowchart illustrating the operation of the set-top box in the online manner according to an embodiment of the present invention.
도 18은 본 발명의 일 실시예에 따른 온라인 방식에서 품질 관리 서버의 동작을 도시한 흐름도이다.18 is a flowchart illustrating an operation of a quality control server in an online manner according to an embodiment of the present invention.
도 19는 본 발명의 일 실시예에 따른 오프라인 방식에서 미디어 서버의 동작을 도시한 흐름도이다.19 is a flowchart illustrating an operation of a media server in an offline manner according to an embodiment of the present invention.
도 20은 본 발명의 일 실시예에 따른 오프라인 방식에서 셋탑박스의 동작을 도시한 흐름도이다.20 is a flowchart illustrating the operation of the set-top box in an offline manner according to an embodiment of the present invention.
도 21은 본 발명의 일 실시예에 따른 온라인 방식에서 품질 관리 서버의 동작을 도시한 흐름도이다.21 is a flowchart illustrating an operation of a quality control server in an online manner according to an embodiment of the present invention.
도 22 내지 도 24는 본 발명의 일 실시예에 따른 <표 1>의 실험 영상에 대한 NPSNR 추정 성능을 도시한 도면이다.22 to 24 are diagrams illustrating NPSNR estimation performance of experimental images of Table 1 according to an embodiment of the present invention.
도 25 내지 도 28은 본 발명의 일 실시예에 따른 <표 2>의 실험 영상에 대한 VR 정보 및 VR_Diff 이미지를 도시한 도면이다.25 to 28 illustrate VR information and a VR_Diff image for an experimental video of Table 2 according to an embodiment of the present invention.
도 29는 본 발명의 다른 실시예에 따른 품질 관리 서버의 구성을 도시한 블록도이다.29 is a block diagram showing a configuration of a quality control server according to another embodiment of the present invention.
도 30은 본 발명의 일 실시예에 따른 주관적 화질 열화 측정 과정을 도시한 흐름도이다.30 is a flowchart illustrating a subjective quality deterioration measurement process according to an embodiment of the present invention.
도 31은 본 발명의 일 실시예에 따른 모든 열화 구간에 대해 시청자들이 기록한 MOS 값과, NMOS 값 사이의 상관도를 도시한 도면이다.FIG. 31 is a diagram illustrating a correlation between MOS values recorded by viewers and NMOS values for all degradation periods according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명하도록 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.
그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
참고로, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.For reference, in the entire specification, when a part is "connected" to another part, it is not only "directly connected" but also "electrically connected" with another element in between. Also includes.
또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.In addition, when a part is said to "include" a certain component, this means that it may further include other components, without excluding other components unless otherwise stated.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, it will be described in detail for the practice of the present invention.
도 1은 본 발명의 일 실시예에 따른 IPTV의 영상 품질을 모니터링하는 시스템의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV according to an embodiment of the present invention.
참고로, 본 발명의 일 실시예에 따른 IPTV의 영상 품질을 모니터링하는 시스템은 온라인(on-line) 방식과 오프라인(off-line) 방식으로 구현이 가능하며, 이하에서는 온라인 방식과 오프라인 방식으로 구분하여 시스템의 각 구성 요소의 동작을 설명하도록 하겠다.For reference, a system for monitoring video quality of an IPTV according to an embodiment of the present invention may be implemented in an on-line method and an off-line method, and hereinafter, divided into an online method and an offline method. This section describes the operation of each component of the system.
본 발명의 일 실시예에 따른 IPTV의 영상 품질을 모니터링하는 시스템은 미디어 서버(110), 셋탑박스(120) 및 품질 관리 서버(130)를 포함한다.The system for monitoring video quality of an IPTV according to an embodiment of the present invention includes a media server 110, a set top box 120, and a quality management server 130.
먼저, 도 1을 참조하여, 온라인 방식에서의 각 구성 요소를 살펴보면, 미디어 서버(110)는 비디오 인코더(111) 및 비주얼 리듬 정보 추출부(112)를 포함한다.First, referring to FIG. 1, each component in the online method will be described. The media server 110 includes a video encoder 111 and a visual rhythm information extractor 112.
여기에서 비디오 인코더(111)는 비디오 신호를 압축한다. 미디어 서버(110)는 비디오 인코더(111)에서 압축된 비디오 비트 스트림을 저장하고 이를 네트워크를 통해 셋탑박스(120)에게 전송한다.Here, the video encoder 111 compresses the video signal. The media server 110 stores the video bit stream compressed by the video encoder 111 and transmits it to the set-top box 120 through a network.
또한, 비주얼 리듬 정보 추출부(112)는 미디어 서버(110)에 저장된 비디오 비트 스트림, 즉 인코딩된 영상으로부터 비주얼 리듬(Visual Rhythm, 이하 VR이라 칭함) 정보(이하, 제 1 VR 정보라 칭함)를 추출한다.In addition, the visual rhythm information extractor 112 extracts visual rhythm information (hereinafter, referred to as VR) from the video bit stream stored in the media server 110, that is, the encoded image (hereinafter, referred to as first VR information). Extract.
참고로, VR 정보 추출부(112)는 제 1 VR 정보에, 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 포함시킬 수도 있다.For reference, the VR information extracting unit 112 may include a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the first VR information.
여기에서 VR 정보는 2차원 영상 프레임의 픽셀들을 부분적으로 샘플링하여 1차원 정보로 구성하고, 시간축으로 연속적인 영상 프레임에 대해 동일한 위치에서 픽셀을 샘플링하여 3차원 영상 정보를 2차원 정보로 투영(projection)한 것으로서, VR 정보에 대한 상세한 설명은 도 3을 참조하여 후술하도록 하겠다.Here, the VR information is composed of one-dimensional information by partially sampling the pixels of the two-dimensional image frame, and sampling the pixels at the same positions for successive image frames on the time axis to project the three-dimensional image information into the two-dimensional information (projection). As such, the detailed description of the VR information will be described later with reference to FIG. 3.
이후, 미디어 서버(110)는 생성된 제 1 VR 정보를 저장하고, 이를 비디오 비트 스트림과는 다른 별도의 전송 채널로 셋탑박스(120)에게 전송한다.Thereafter, the media server 110 stores the generated first VR information and transmits the generated first VR information to the set-top box 120 in a separate transmission channel different from the video bit stream.
이때, 전송되는 제 1 VR 정보는 미리 정해진 크기로 나누어 세그먼트 단위로 전송될 수 있고, 셋탑박스(120)에 하드 디스크와 같은 저장소가 존재하는 경우 제 1 VR 정보 전체가 한꺼번에 전송될 수도 있다.In this case, the first VR information to be transmitted may be divided into a predetermined size and transmitted in segment units. When the storage such as a hard disk exists in the set-top box 120, the entire first VR information may be transmitted at once.
참고로, 도 1에 도시된 구성에서는, 비디오 인코더(111)와 VR 정보 추출부(112)가 미디어 서버(110)에 포함되는 것으로 도시되었지만, 이와 다르게, 비디오 인코더(111)와 VR 정보 추출부(112)가 미디어 서버(110)와 별도로 존재하여 동작할 수도 있다.For reference, in the configuration illustrated in FIG. 1, the video encoder 111 and the VR information extractor 112 are illustrated as being included in the media server 110. However, the video encoder 111 and the VR information extractor are different from each other. 112 may exist and operate separately from the media server 110.
한편, 셋탑박스(120)는 비디오 디코더(121), VR 정보 추출부(122), VR 차이 산출부(123) 및 VR 차이 영상 전송부(124)를 포함한다.The set top box 120 may include a video decoder 121, a VR information extractor 122, a VR difference calculator 123, and a VR difference image transmitter 124.
여기에서 비디오 디코더(121)는 미디어 서버(110)로부터 전송된 비디오 비트 스트림을 복호화(디코딩)하여 재생 영상을 생성한다.Here, the video decoder 121 decodes (decodes) the video bit stream transmitted from the media server 110 to generate a reproduced image.
또한, VR 정보 추출부(122)는 비디오 디코더(121)에서 생성한 재생 영상으로부터 VR 정보(이하, 제 2 VR 정보라 칭함)를 추출한다.In addition, the VR information extraction unit 122 extracts VR information (hereinafter referred to as second VR information) from the playback image generated by the video decoder 121.
참고로, VR 정보 추출부(122)는 제 2 VR 정보에, 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 포함시킬 수도 있다.For reference, the VR information extracting unit 122 may include a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the second VR information.
또한, VR 차이 산출부(123)는 미디어 서버(110)로부터 전송된 제 1 VR 정보와, VR 정보 추출부(122)에서 생성한 제 2 VR 정보의 차를 이용하여 VR 차이를 산출하고, 산출된 VR 차이에 기초하여 VR 차이 영상(이하, VR_Diff 이미지라 칭함)을 생성한다.In addition, the VR difference calculator 123 calculates and calculates a VR difference using a difference between the first VR information transmitted from the media server 110 and the second VR information generated by the VR information extractor 122. A VR difference image (hereinafter, referred to as a VR_Diff image) is generated based on the VR difference.
이때, VR 차이 산출부(123)는 VR_Diff 이미지를 생성하기 위해 상기한 PTS 값 및 상기한 프로그램 아이디에 기초하여, 제 1 VR 정보 및 제 2 VR 정보를 동기화한다.In this case, the VR difference calculator 123 synchronizes the first VR information and the second VR information based on the PTS value and the program ID to generate the VR_Diff image.
여기에서 VR_Diff 이미지는, 시청자가 시청하는 영상 품질에 관련된 정보로서, 제 1 VR 정보와 제 2 VR 정보의 차를 계산하면 쉽게 생성할 수 있으며, 이에 소요되는 계산량은 매우 적다. 따라서, 셋탑박스(120)에서 VR_Diff 이미지를 계산하기 위한 연산 부담 역시 매우 적다.Here, the VR_Diff image is information related to the image quality viewed by the viewer, and can be easily generated by calculating the difference between the first VR information and the second VR information, and the amount of computation required is very small. Therefore, the computational burden for calculating the VR_Diff image in the set-top box 120 is also very small.
또한, VR_Diff 이미지는 패킷 손실에 의해 열화된 구간에서만 값이 차이가 날 뿐, 열화가 없는 나머지 구간에서는‘0’값을 가지므로 데이터 량이 크지 않으며, VR_Diff 이미지를 무손실 압축 방법 등과 같은 다양한 압축 방법을 사용하여 압축하는 경우에는 데이터 량을 더욱 감소시킬 수 있다.In addition, the VR_Diff image has a difference value only in the section deteriorated by packet loss, and has a value of '0' in the remaining section without deterioration, so the amount of data is not large and various compression methods such as lossless compression method such as VR_Diff image are used. In the case of using the compression, the amount of data can be further reduced.
VR 정보(VR_Diff 이미지)의 압축 방법에 대한 상세한 설명은 도 10 내지 도 15를 참조하여 후술하도록 하겠다.A detailed description of the compression method of the VR information (VR_Diff image) will be described later with reference to FIGS. 10 to 15.
또한, VR 차이 영상 전송부(124), 즉, VR_Diff 이미지 전송부(124)는 VR 차이 산출부(123)에서 생성한 VR_Diff 이미지를 압축하여 품질 관리 서버(130)로 전송한다.In addition, the VR difference image transmitter 124, that is, the VR_Diff image transmitter 124 compresses the VR_Diff image generated by the VR difference calculator 123 and transmits the compressed image to the quality management server 130.
이때, VR_Diff 이미지는 TCP와 같은 신뢰성 있는 채널을 이용하여 전송하거나 수회 중복 전송함으로써 전송 도중 데이터가 손실되는 것을 방지할 수 있다.In this case, the VR_Diff image may be transmitted by using a reliable channel such as TCP or may be redundantly transmitted several times to prevent data loss during transmission.
한편, 품질 관리 서버(130)는 셋탑박스(120)로부터 VR_Diff 이미지를 수신하고, VR_Diff 이미지를 이용하여 셋탑박스(120)에서 재생되는 영상에 대한 화질 열화를 측정한다.Meanwhile, the quality management server 130 receives the VR_Diff image from the set-top box 120 and measures the image quality degradation of the image reproduced in the set-top box 120 using the VR_Diff image.
이때, 화질 열화의 측정은, 미디어 서버(120)에서 셋탑박스(120)로 데이터를 전송하는 과정 중 발생한 패킷 손실에 대한 왜곡량의 추정치를 PSNR로 환산한 값을 이용하는데, 기존의 PSNR을 개선한 NPSNR(Networked PSNR)이라는 새로운 품질 척도를 사용한다.In this case, the measurement of image quality deterioration uses an estimate of a distortion amount for packet loss generated during transmission of data from the media server 120 to the set-top box 120 in terms of PSNR, and improves the existing PSNR. It uses a new quality measure called Networked PSNR (NPSNR).
NPSNR은 원본 영상이 아니라 인코딩된 영상을 기준으로 셋탑박스(120)에서 재생되는 영상의 품질을 표현한 것으로서 2D 영상에 대한 값이며,
Figure PCTKR2010003673-appb-I000001
은 VR 정보로 이를 추정한 값이다.
NPSNR represents the quality of the image played in the set-top box 120 based on the encoded image, not the original image, and is a value for the 2D image.
Figure PCTKR2010003673-appb-I000001
Is the value estimated by VR information.
품질 관리 서버(130)는 상기한
Figure PCTKR2010003673-appb-I000002
과, 열화 횟수, 임계 열화 횟수, 임계 열화율, 평균 임계 열화량 및 평균 열화량과 같은 열화 척도들을 이용하여 셋탑박스(120)에서 재생되는 영상에 대한 화질 열화를 측정한다.
Quality management server 130 described above
Figure PCTKR2010003673-appb-I000002
And deterioration quality of the image reproduced by the set-top box 120 by using deterioration measures such as deterioration times, critical deterioration times, critical deterioration rates, average critical deterioration amounts, and average deterioration amounts.
품질 관리 서버(130)의 화질 열화 정도 측정에 대한 상세한 설명은 후술하도록 하겠다.A detailed description of the image quality degradation degree measurement of the quality management server 130 will be described later.
이하, 도 2를 참조하여 본 발명의 다른 실시예에 따른 IPTV의 영상 품질을 모니터링하는 시스템의 구성을 살펴보도록 한다.Hereinafter, a configuration of a system for monitoring video quality of an IPTV according to another embodiment of the present invention will be described with reference to FIG. 2.
도 2는 오프라인 방식에서 IPTV의 영상 품질을 모니터링하는 시스템의 구성을 도시한 도면으로서, 미디어 서버(210), 셋탑박스(220) 및 품질 관리 서버(230)를 포함한다.FIG. 2 is a diagram illustrating a configuration of a system for monitoring video quality of an IPTV in an offline manner, and includes a media server 210, a set-top box 220, and a quality management server 230.
먼저, 미디어 서버(210)는 도 1에 도시된 미디어 서버(110)와 그 구성이 동일하며, 다른 점이 있다면, 도 2에 도시된 미디어 서버(210)는 생성된 제 1 VR 정보를 셋탑박스(120)가 아닌 품질 관리 서버(130)로 전송하는 것이다.First, the media server 210 has the same configuration as the media server 110 shown in FIG. 1, and if different, the media server 210 shown in FIG. 2 sets the generated first VR information into a set-top box ( It is transmitted to the quality control server 130, not 120.
한편, 셋탑박스(220)는 비디오 디코더(221), VR 정보 추출부(222) 및 VR 정보 전송부(223)를 포함한다. 이 중, 비디오 디코더(221)와 VR 정보 추출부(222)는 도 1에 도시된 셋탑박스(120)의 비디오 디코더(121) 및 VR 정보 추출부(122)와 그 기능이 동일하며, VR 정보 전송부(223)는 VR 정보 추출부(222)에서 추출한 제 2 VR 정보를 압축하여 품질 관리 서버(230)로 전송한다.The set top box 220 may include a video decoder 221, a VR information extractor 222, and a VR information transmitter 223. Among them, the video decoder 221 and the VR information extractor 222 have the same functions as the video decoder 121 and the VR information extractor 122 of the set-top box 120 shown in FIG. The transmitter 223 compresses the second VR information extracted by the VR information extractor 222 and transmits the second VR information to the quality control server 230.
즉, 온라인 방식에서는 셋탑박스(120)에서 VR_Diff 이미지를 압축하여 품질 관리 서버(130)로 전송하지만, 오프라인 방식에서는 셋탑박스(220)에서 제 2 VR 정보를 압축하여 품질 관리 서버(230)로 전송하는 차이가 있다.That is, in the online method, the set-top box 120 compresses the VR_Diff image and transmits it to the quality management server 130. In the offline method, the set-top box 220 compresses the second VR information and transmits the second VR information to the quality management server 230. There is a difference.
따라서, 오프라인 방식은 셋탑박스(220)에서 VR_Diff 이미지를 생성하지 않아도 되며, 이는 셋탑박스(230)의 연산 자원의 소비를 감소시키기 때문에, 온라인 방식보다 더 낮은 사양의 셋탑박스에서도 영상 품질을 모니터링할 수 있는 장점이 있다.Therefore, the offline method does not need to generate the VR_Diff image in the set-top box 220, which reduces the consumption of computational resources of the set-top box 230, so that the image quality can be monitored even in a set-top box having a lower specification than the online method. There are advantages to it.
한편, 품질 관리 서버(230)는 미디어 서버(210)로부터 전송된 제 1 VR 정보와, 셋탑박스(220)로부터 전송된 제 2 VR 정보를 수신한다. 이후, 품질 관리 서버(230)는 제 1 VR 정보 및 제 2 VR 정보에 포함된 PTS 값 및 프로그램 아이디에 기초하여 제 1 VR 정보 및 제 2 VR 정보를 동기화하고, 각 VR 정보의 차이를 이용하여 VR_Diff 이미지를 생성한다.Meanwhile, the quality control server 230 receives the first VR information transmitted from the media server 210 and the second VR information transmitted from the set top box 220. Thereafter, the quality control server 230 synchronizes the first VR information and the second VR information based on the PTS value and the program ID included in the first VR information and the second VR information, and uses the difference of each VR information. Create a VR_Diff image.
품질 관리 서버(230)에서 VR_Diff 이미지를 이용하여 셋탑박스(220)에서 재생되는 영상의 화질 열화를 측정하는 방법은 도 1에 도시된 품질 관리 서버(130)의 내용과 동일하므로 생략하도록 하겠다.Since the quality management server 230 uses the VR_Diff image to measure image quality deterioration of the image reproduced in the set-top box 220, the quality management server 130 shown in FIG. 1 will be omitted.
참고로, 오프라인 방식의 품질 관리 서버(230)는 제 1 VR 정보 및 제 2 VR 정보 모두를 저장할 필요는 없다.For reference, the offline quality management server 230 does not need to store both the first VR information and the second VR information.
즉, 오프라인 방식의 품질 관리 서버(230)에서 제 1 VR 정보와 제 2 VR 정보를 이용하여 VR_Diff 이미지를 생성하므로, 제 1 VR 정보와 VR_Diff 이미지가 존재하는 경우, 이를 이용하여 제 2 VR 정보를 복원할 수 있으며, 반대로, 제 2 VR 정보와 VR_Diff 이미지가 존재하는 경우, 이를 이용하여 제 1 VR 정보를 복원할 수 있다.That is, since the offline quality management server 230 generates the VR_Diff image using the first VR information and the second VR information, when the first VR information and the VR_Diff image exist, the second VR information is used. On the contrary, when the second VR information and the VR_Diff image exist, the first VR information may be restored using the second VR information and the VR_Diff image.
따라서, 제 1 VR 정보 및 제 2 VR 정보 모두를 저장할 필요가 없어, 저장 공간의 확보에도 기여할 수 있는 장점이 있다.Therefore, there is no need to store both the first VR information and the second VR information, and there is an advantage that can contribute to securing the storage space.
이하, 도 3을 참조하여 본 발명의 VR 정보에 대해 상세하게 설명하도록 한다.Hereinafter, the VR information of the present invention will be described in detail with reference to FIG. 3.
도 3은 본 발명의 일 실시예에 따른 VR 정보에 대한 도면이다.3 is a diagram for VR information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 VR 정보는, 도 3에 도시된 바와 같이, 2차원 비디오 프레임에서 수직, 대각선, 수평 등의 방향에 위치하는 픽셀들을 샘플링하여 1차원 정보로 구성한 다음, 시간축으로 연속적인 비디오 프레임들에 대해 동일한 위치에서 픽셀들을 샘플링하여 3차원 비디오 정보를 2차원 정보로 투영(projection)한 정보이다.As shown in FIG. 3, VR information according to an embodiment of the present invention is composed of one-dimensional information by sampling pixels located in a vertical, diagonal, horizontal, etc. direction in a two-dimensional video frame, and then continuous in the time axis. It is information that projects 3D video information into 2D information by sampling pixels at the same position with respect to video frames.
VR 정보가 포함하는 공간 방향의 정보는 원본 영상의 극히 일부분에 불과하지만, 정보량 측면에서는 2차원 프레임 정보의 상당 부분을 반영함이 실험을 통해 확인되었다. 즉, 원본 영상과 셋탑박스 재생 영상 간의 2차원 프레임에 대한 PSNR 값이 그들의 VR 정보만으로 계산한 PSNR 값과 매우 상관성이 높다는 것을 실험을 통해 확인하였으며, 이를 이용하면 VR 정보만을 가지고 셋탑박스의 재생 화질을 추정할 수 있다.Although the spatial information included in the VR information is only a small part of the original image, it was confirmed through experiments that the information amount reflects a large part of the 2D frame information. In other words, the experiment confirmed that the PSNR value of the two-dimensional frame between the original video and the set-top box playback image is highly correlated with the PSNR value calculated only with their VR information. Can be estimated.
본 발명에 대한 이론적인 배경은 다음과 같다. The theoretical background of the present invention is as follows.
Figure PCTKR2010003673-appb-I000003
를 원본 영상의 픽셀값,
Figure PCTKR2010003673-appb-I000004
는 셋탑박스 재생 영상의 픽셀값,
Figure PCTKR2010003673-appb-I000005
는 인코딩 후 재생 영상 프레임 내의 픽셀값을 나타내는 확률변수라 하자. 셋탑박스에서 재생되는 영상의 총 왜곡량
Figure PCTKR2010003673-appb-I000006
을 아래의 <식 1>과 같이 정의하도록 한다. 여기서 E[X]는 확률변수 X의 기대값(즉, 평균)이다.
Figure PCTKR2010003673-appb-I000003
Is the pixel value of the original image,
Figure PCTKR2010003673-appb-I000004
Is the pixel value of the set-top box playback image,
Figure PCTKR2010003673-appb-I000005
Is a random variable that represents a pixel value in a playback video frame after encoding. Total distortion of video played back on set-top box
Figure PCTKR2010003673-appb-I000006
To be defined as in <Equation 1>. Where E [X] is the expected value (ie mean) of the random variable X.
<식 1><Equation 1>
Figure PCTKR2010003673-appb-I000007
Figure PCTKR2010003673-appb-I000007
여기서
Figure PCTKR2010003673-appb-I000008
이며, n 번째 프레임의 i, j 번째 픽셀값을 나타낸다.
here
Figure PCTKR2010003673-appb-I000008
, I, j th pixel value of the n th frame.
이 중
Figure PCTKR2010003673-appb-I000009
는 인코딩 과정에서 발생한 왜곡량이며,
Figure PCTKR2010003673-appb-I000010
는 전송 과정 중 발생된 패킷 손실에 의해 야기된 왜곡량이다.
double
Figure PCTKR2010003673-appb-I000009
Is the amount of distortion that occurs during encoding.
Figure PCTKR2010003673-appb-I000010
Is the amount of distortion caused by packet loss generated during the transmission process.
두 왜곡량이 서로 독립적이라 가정하면
Figure PCTKR2010003673-appb-I000011
은 두 왜곡량의 합과 같다. 그런데
Figure PCTKR2010003673-appb-I000012
는 인코딩 과정에서 알 수 있는 양이지만,
Figure PCTKR2010003673-appb-I000013
는 알 수 없는 양이고 또한, 셋탑박스에서는 원본 영상이 가용되지도 않으므로
Figure PCTKR2010003673-appb-I000014
은 셋탑박스에서 알 수 없는 양이다.
Suppose the two distortion amounts are independent of each other
Figure PCTKR2010003673-appb-I000011
Is equal to the sum of the two distortion amounts. By the way
Figure PCTKR2010003673-appb-I000012
Is the amount known during encoding,
Figure PCTKR2010003673-appb-I000013
Is an unknown amount and the original video is not available in the set-top box.
Figure PCTKR2010003673-appb-I000014
Is an unknown amount in the set-top box.
본 발명에서는
Figure PCTKR2010003673-appb-I000015
를 추정하여 화질 열화의 척도를 제안하는 것을 하나의 목적으로 하며, 정확한
Figure PCTKR2010003673-appb-I000016
양을 알기 위해서는 인코딩된 영상의
Figure PCTKR2010003673-appb-I000017
가 필요하나, 셋탑박스에서 무결한 인코딩된 영상을 기대할 수 없기 때문에 이 양을 추정하기 위해 상술한 VR 정보를 이용한다.
In the present invention
Figure PCTKR2010003673-appb-I000015
Is to propose a measure of image quality deterioration by estimating
Figure PCTKR2010003673-appb-I000016
In order to know the quantity,
Figure PCTKR2010003673-appb-I000017
Is required, but since the encoded video cannot be expected in the set-top box, the above-described VR information is used to estimate the amount.
인코딩 단계에서 얻어진 비트 스트림의 영상에 대한 VR 정보를
Figure PCTKR2010003673-appb-I000018
, 셋탑박스에서 재생된 영상에 대한 VR 정보를
Figure PCTKR2010003673-appb-I000019
라 하면
Figure PCTKR2010003673-appb-I000020
의 추정치
Figure PCTKR2010003673-appb-I000021
은 아래의 <식 2>와 같이 근사화할 수 있다.
VR information about the image of the bit stream obtained in the encoding step
Figure PCTKR2010003673-appb-I000018
, VR information about the video played on the set-top box
Figure PCTKR2010003673-appb-I000019
If
Figure PCTKR2010003673-appb-I000020
Estimate of
Figure PCTKR2010003673-appb-I000021
Can be approximated as in Equation 2 below.
<식 2><Equation 2>
Figure PCTKR2010003673-appb-I000022
Figure PCTKR2010003673-appb-I000022
여기서
Figure PCTKR2010003673-appb-I000023
이다.
here
Figure PCTKR2010003673-appb-I000023
to be.
즉, 인코딩된 영상에 대한 VR 정보인
Figure PCTKR2010003673-appb-I000024
와, 셋탑박스에서 재생되는 영상에 대한 VR 정보인
Figure PCTKR2010003673-appb-I000025
를 가지고
Figure PCTKR2010003673-appb-I000026
을 추정한다.
That is, VR information about the encoded image
Figure PCTKR2010003673-appb-I000024
VR information about the video played on the set-top box
Figure PCTKR2010003673-appb-I000025
Have
Figure PCTKR2010003673-appb-I000026
Estimate
만일, 전송 과정 중 발생된 오류에 의한 열화가 없다면 총 왜곡량은 인코딩 과정에서 발생된 왜곡량과 같으며, <식 2> 로부터 전송 오류에 의해 화질 열화가 발생했는지의 여부와, 열화의 양은 얼마나 되는지에 대한 정보를 얻을 수 있다.If there is no deterioration due to an error generated during the transmission process, the total distortion amount is equal to the distortion amount generated during the encoding process, and from <Equation 2>, whether the image quality deterioration has occurred due to a transmission error, and how much is the amount of degradation? You can get information about whether
참고로, 인코딩 과정에서 발생하는 왜곡량은 본 발명의 관심 사항이 아니기 때문에
Figure PCTKR2010003673-appb-I000027
을 이용하여 Back-end 단에서 발생한 화질 열화양의 척도를 정의하도록 하며, 또한, 보다 직관적인 통찰력을 제공하기 위하여
Figure PCTKR2010003673-appb-I000028
을 PSNR로 환산한 값을 사용하여 셋탑 박스에서 재생되는 영상의 화질을 객관적으로 평가하도록 한다.
For reference, the amount of distortion generated during the encoding process is not an interest of the present invention.
Figure PCTKR2010003673-appb-I000027
In order to define the measure of image quality deterioration occurred in the back-end stage, and to provide more intuitive insight
Figure PCTKR2010003673-appb-I000028
To objectively evaluate the image quality of the image reproduced in the set-top box using the PSNR value.
이를 위해 본 발명에서 제안하는 화질 열화를 객관적으로 측정하기 위한 품질의 척도는 아래의 <식 3>으로 정의되는 NPSNR (Networked PSNR)이다.To this end, a measure of quality for objectively measuring image quality degradation proposed by the present invention is NPSNR (Networked PSNR) defined by Equation 3 below.
여기에서, NPSNR은 원본 영상이 아닌, 인코딩된 영상을 기준으로 셋탑박스에서 재생되는 영상의 품질을 표현한 것으로서 2D영상에 대한 값이며, <식 4>로 정의되는
Figure PCTKR2010003673-appb-I000029
은 VR 정보를 이용하여 NPSNR를 추정한 값이다.
Here, the NPSNR represents the quality of the image played in the set-top box based on the encoded image, not the original image, and is a value for the 2D image, and is defined by Equation 4.
Figure PCTKR2010003673-appb-I000029
Is an estimated value of NPSNR using VR information.
<식 3><Equation 3>
Figure PCTKR2010003673-appb-I000030
Figure PCTKR2010003673-appb-I000030
<식 4><Equation 4>
Figure PCTKR2010003673-appb-I000031
Figure PCTKR2010003673-appb-I000031
여기에서 c=0.65025로서 패킷 손실이 없는 경우 NPSNR이 50dB가 되도록 정규화한 상수이다.Here, c = 0.65025, which is a constant normalized so that NPSNR is 50dB when there is no packet loss.
상기한 식을 통해 알 수 있듯이,
Figure PCTKR2010003673-appb-I000032
Figure PCTKR2010003673-appb-I000033
정보를 단순 비교하기만 해도 전송 과정 중에 발생한 에러(열화)의 위치와 에러(열화)가 지속된 시간, 에러(열화)의 발생 횟수 등에 대한 정보를 얻을 수 있으며,
Figure PCTKR2010003673-appb-I000034
을 통해 얼마나 심하게 화질(화면)이 열화되었는지를 객관적으로 추정할 수 있다.
As can be seen from the above equation,
Figure PCTKR2010003673-appb-I000032
Wow
Figure PCTKR2010003673-appb-I000033
By simply comparing the information, you can obtain information about the location of the error (deterioration), the time duration of the error (deterioration), the number of occurrences of the error (deterioration), etc.
Figure PCTKR2010003673-appb-I000034
Through this, it is possible to objectively estimate how badly the image quality (screen) is degraded.
이하에서는, 품질 관리 서버(130, 230)에서의 객관적 화질 열화 측정(평가) 방법에 대해 상세히 설명하도록 한다.Hereinafter, an objective image quality deterioration measurement (evaluation) method in the quality management servers 130 and 230 will be described in detail.
본 발명의 실시예에 따른 품질 관리 서버(130, 230)에서의 객관적 화질 열화 측정을 위해 먼저 다음과 같은 양을 정의한다. For objective image quality degradation measurement in the quality management server 130, 230 according to an embodiment of the present invention, the following amount is first defined.
객관적 열화 구간(degradation time) :
Figure PCTKR2010003673-appb-I000035
Objective degradation time:
Figure PCTKR2010003673-appb-I000035
<식 5><Equation 5>
Figure PCTKR2010003673-appb-I000036
Figure PCTKR2010003673-appb-I000036
여기서
Figure PCTKR2010003673-appb-I000037
는 k번째 열화가 시작된 프레임 시간이며,
Figure PCTKR2010003673-appb-I000038
는 k번째 열화가 종료된 시간을 나타낸다. 따라서, <식 5>
Figure PCTKR2010003673-appb-I000039
를 통해 k번째 열화가 지속된 시간을 알 수 있다.
here
Figure PCTKR2010003673-appb-I000037
Is the frame time at which the kth degradation started,
Figure PCTKR2010003673-appb-I000038
Denotes the time at which the k-th degradation has ended. Therefore, <Equation 5>
Figure PCTKR2010003673-appb-I000039
This shows how long the kth degradation lasted.
참고로,
Figure PCTKR2010003673-appb-I000040
은 최대치가 50dB이며, 열화가 없으면 50dB, 열화가 발생하면 50dB보다 작아진다. 따라서, 열화의 시작과 끝은
Figure PCTKR2010003673-appb-I000041
의 값이 50dB 미만인 구간을 찾으면 된다.
Note that,
Figure PCTKR2010003673-appb-I000040
The maximum value is 50dB, which is 50dB without degradation and less than 50dB when degradation occurs. Therefore, the beginning and end of deterioration
Figure PCTKR2010003673-appb-I000041
Find the interval where the value of is less than 50dB.
객관적 임계 열화 구간(critically degradation time) :
Figure PCTKR2010003673-appb-I000042
Objective critical degradation time:
Figure PCTKR2010003673-appb-I000042
객관적 임계 열화 구간은 상기한 열화 구간의 프레임들 중 어느 한 프레임이라도 임계
Figure PCTKR2010003673-appb-I000043
이하의 화질을 갖는 구간을 의미한다.
The objective critical deterioration interval is critical for any one of the frames of the deterioration interval described above.
Figure PCTKR2010003673-appb-I000043
It means a section having the following image quality.
임계
Figure PCTKR2010003673-appb-I000044
은 시청자의 눈에 불편을 줄 수 있는 화질 열화를 가져오는
Figure PCTKR2010003673-appb-I000045
양으로서, 눈에 불편을 줄 수 있는 화질 열화는
Figure PCTKR2010003673-appb-I000046
이 사전에 설정된 임계값보다 작으면 발생하는 것으로 간주한다.
Critical
Figure PCTKR2010003673-appb-I000044
Is an image quality degradation that can be inconvenient to viewers.
Figure PCTKR2010003673-appb-I000045
As a quantity, the image quality deterioration that may cause inconvenience to eyes
Figure PCTKR2010003673-appb-I000046
It is considered to occur if it is less than this preset threshold.
도 4는 본 발명의 일 실시예에 따른 객관적 열화 구간 및 임계 열화 구간을 도시한 도면이다.4 is a diagram illustrating an objective deterioration interval and a critical deterioration interval according to an embodiment of the present invention.
첫번째와 세번째 열화 구간은 임계값보다 작아 임계 열화 구간으로 포함되었으나, 두번째 열화 구간은 열화량이 작아서 임계 열화 구간으로는 포함되지 않았다.The first and third deterioration sections were included as critical deterioration sections because they were smaller than the threshold value, but the second deterioration sections were not included as critical deterioration sections because the deterioration amount was small.
상술한 열화 구간과 임계 열화 구간을 이용하여 셋탑박스에서 재생되는 화질의 열화를 정량화하기 위해, 본 발명에서는 아래와 같은 객관적 열화 척도들을 제안한다.In order to quantify the degradation of the image quality reproduced in the set-top box using the above-described deterioration interval and the critical degradation interval, the present invention proposes the following objective deterioration measures.
1. 열화 횟수(degradation count):1.degradation count:
Kd : the largest k of
Figure PCTKR2010003673-appb-I000047
Kd: the largest k of
Figure PCTKR2010003673-appb-I000047
2. 임계 열화 횟수(critical degradation count):2. Critical degradation count:
Kcd: the largest k of
Figure PCTKR2010003673-appb-I000048
Kcd: the largest k of
Figure PCTKR2010003673-appb-I000048
3. 임계 열화율(critical degradation ratio):3. Critical degradation ratio:
<식 6><Equation 6>
Figure PCTKR2010003673-appb-I000049
Figure PCTKR2010003673-appb-I000049
4. 평균 임계 열화량(average degradation NPSNR): 4. Average threshold degradation NPSNR:
<식 7><Equation 7>
Figure PCTKR2010003673-appb-I000050
Figure PCTKR2010003673-appb-I000050
5. 평균 열화량5. Average degradation
<식 8><Equation 8>
Figure PCTKR2010003673-appb-I000051
Figure PCTKR2010003673-appb-I000051
여기서,
Figure PCTKR2010003673-appb-I000052
here,
Figure PCTKR2010003673-appb-I000052
6. 객관적 재생 화질 척도: 6. Objective Playback Quality Scale:
Figure PCTKR2010003673-appb-I000053
, for the nth frame.
Figure PCTKR2010003673-appb-I000053
, for the nth frame.
상기한 각 객관적 열화 척도들을 설명하면, 먼저, 열화 횟수는 전체 비디오 시퀀스 시간에서 열화가 발생한 횟수 즉 열화 구간의 개수를 의미하며, 임계 열화 횟수는 임계 열화 구간의 개수를 의미한다.Referring to each of the objective deterioration measures described above, first, the number of deterioration means the number of deterioration periods, that is, the number of deterioration intervals, and the number of deterioration periods means the number of critical deterioration intervals.
또한, 임계 열화율은 전체 시간에서 모든 임계 열화 구간들이 차지하는 시간의 비율을 의미하며, 평균 임계 열화량은 모든 임계 열화 구간을 구성하는 프레임들의 평균
Figure PCTKR2010003673-appb-I000054
값으로 정의될 수 있다.
In addition, the critical degradation rate refers to the ratio of time occupied by all critical degradation intervals in the total time, and the average threshold degradation amount is an average of the frames constituting all the critical degradation intervals.
Figure PCTKR2010003673-appb-I000054
Can be defined as a value.
또한, 평균 열화량은 두 VR 정보간의 평균 왜곡량을 NPSNR 값으로 환산한 것이며, 객관적 재생 화질 척도는 프레임 단위의 NPSNR값으로 정의된다.In addition, the average degradation amount is obtained by converting an average distortion amount between two VR information into an NPSNR value, and an objective reproduction quality measure is defined as an NPSNR value in units of frames.
참고로, 셋탑박스에서 에러 감춤 기능을 수행하는 경우, 작은 열화는
Figure PCTKR2010003673-appb-I000055
이 떨어지더라도 눈에 잘 띄지 않을 수 있다. 영상의 종류에 따라 다르긴 하나, 실험적으로, 보통
Figure PCTKR2010003673-appb-I000056
이 45dB 이하 정도가 되면 눈에 불편을 줄 수 있는 열화가 검출되는 경향이 있다.
For reference, when performing the error suppression function in the set-top box, small degradation
Figure PCTKR2010003673-appb-I000055
Even if it falls, it may not be noticeable. It depends on the type of image, but experimentally, usually
Figure PCTKR2010003673-appb-I000056
If it is less than 45dB, the deterioration which may cause an inconvenience to an eye tends to be detected.
본 발명에서는 임계
Figure PCTKR2010003673-appb-I000057
값의 설정 예로서 45dB을 사용하도록 한다. 그러나, 당업자의 실시예에 따라 임계
Figure PCTKR2010003673-appb-I000058
값은 다른 값으로 설정될 수도 있다.
Critical in the present invention
Figure PCTKR2010003673-appb-I000057
Use 45dB as an example of setting the value. However, according to embodiments of those skilled in the art
Figure PCTKR2010003673-appb-I000058
The value may be set to another value.
이하에서는, 도 5를 참조하여 본 발명의 품질 관리 서버(130, 230)의 구성을 설명하도록 하며, 설명의 편의 상, 품질 관리 서버(130)를 예로 들어 설명하도록 한다.Hereinafter, the configuration of the quality management servers 130 and 230 of the present invention will be described with reference to FIG. 5, and for convenience of description, the quality management server 130 will be described as an example.
도 5는 본 발명의 일 실시예에 따른 품질 관리 서버(130)의 구성을 도시한 블록도이다.5 is a block diagram showing the configuration of a quality control server 130 according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 품질 관리 서버(130)는 수신부(131), 객관적 화질 추정 값 계산부(132), 객관적 화질 열화 척도 계산부(133), 주관적 체감 화질 계산부(134), 저장소(135) 및 그래픽 사용자 인터페이스 제공부(136)를 포함한다.According to an embodiment of the present invention, the quality management server 130 includes a receiver 131, an objective image quality estimation value calculator 132, an objective image quality deterioration scale calculator 133, a subjective sensory image quality calculator 134, and a storage. 135 and a graphical user interface providing unit 136.
참고로, 도 5에 도시된 품질 관리 서버의 구성 요소(131 내지 136)는 온라인 방식이나 오프라인 방식 모두를 위한 것이며, 오프라인 방식인 경우, 도 5에 도시된 구성 요소 외에도 VR_Diff 이미지를 생성하는 VR_Diff 생성부(미도시)를 더 포함할 수 있다.For reference, the components 131 to 136 of the quality management server illustrated in FIG. 5 are for both an online scheme and an offline scheme. In the offline scheme, a VR_Diff generation for generating a VR_Diff image in addition to the components illustrated in FIG. It may further include a portion (not shown).
품질 관리 서버(130)가 온라인 방식인 경우, 품질 관리 서버(130)의 수신부(131)는 셋탑 박스로부터 VR_Diff 이미지를 수신하며, 오프라인 방식인 경우, 미디어 서버와 셋탑 박스로부터 제 1 VR 정보와 제 2 VR 정보를 각각 수신하여 VR_Diff 이미지를 생성한다.When the quality management server 130 is in the online manner, the receiving unit 131 of the quality management server 130 receives the VR_Diff image from the set-top box, and in the offline manner, the first VR information and the first VR information are received from the media server and the set-top box. 2 VR information is received to generate a VR_Diff image.
이후, 품질 관리 서버(130)는 VR_Diff 이미지를 이용하여 하나의 비디오 컨텐츠에 대한 객관적 재생 화질 열화를 측정한다.Thereafter, the quality management server 130 measures the degradation of the objective playback quality of one video content using the VR_Diff image.
이때, 객관적 화질 추정 값 계산부(132)는 매 프레임당 화질 추정 값(
Figure PCTKR2010003673-appb-I000059
)을 계산하고, 객관적 화질 열화 척도 계산부(133)는 본 발명에서 제안하는 객관적 화질 열화 척도인 열화 횟수, 임계 열화 횟수, 임계 열화율, 평균 열화량 및 평균 임계 열화량 등을 계산한다.
In this case, the objective image quality estimation value calculation unit 132 calculates the image quality estimation value per frame (
Figure PCTKR2010003673-appb-I000059
), And the objective image quality degradation scale calculation unit 133 calculates the number of degradations, the number of critical degradations, the critical degradation rate, the average degradation amount, the average degradation amount, and the like, which are the objective quality degradation measures proposed by the present invention.
여기에서, 열화 횟수는 전체 비디오 시퀀스 시간에서 열화가 발생한 횟수 즉 열화 구간의 개수이며, 임계 열화 횟수는 임계 열화 구간의 개수를 의미한다.Here, the number of degradations is the number of times that degradation occurs in the entire video sequence time, that is, the number of degradation intervals, and the number of threshold degradations means the number of critical degradation intervals.
또한, 임계 열화율은 전체 시간에서 모든 임계 열화 구간들이 차지하는 시간의 비율이며, 평균 열화량은 두 VR 정보간의 평균 왜곡량을 NPSNR 값으로 환산한 것이다.In addition, the critical deterioration rate is a ratio of time occupied by all critical deterioration intervals in the total time, and the average deterioration amount is converted into an NPSNR value by an average distortion amount between two VR information.
또한, 평균 임계 열화량은 모든 임계 열화 구간을 구성하는 프레임들의 평균
Figure PCTKR2010003673-appb-I000060
값이다.
Also, the average threshold degradation amount is an average of the frames constituting all the threshold degradation intervals.
Figure PCTKR2010003673-appb-I000060
Value.
참고로, 본 발명에서는 객관적 화질 열화 척도 계산부(133)에서 각 객관적 화질 열화 척도를 계산하는 것으로 설명하였지만, 각 객관적 화질 열화 척도에 대응하는 별도의 구성 요소들이 존재하여 해당 화질 열화 척도를 계산할 수도 있다(예를 들어, 열화 횟수는 열화 횟수 계산부에서 계산하는 등).For reference, in the present invention, the objective quality degradation scale calculation unit 133 calculates each objective quality degradation scale, but there are separate components corresponding to each objective quality degradation scale, so that the corresponding quality degradation scale may be calculated. For example, the number of deterioration is calculated by the deterioration number calculation unit.
한편, 주관적 체감 화질 계산부(134)는 VR 정보로부터 인간의 시각 특성을 이용하여 주관적 화질을 계산할 수 있다.On the other hand, the subjective haptic image quality calculating unit 134 may calculate the subjective image quality using the human visual characteristics from the VR information.
한편, 저장소(135)는 상기한 각 부(132 및 133)에서 계산한 객관적 화질 열화 평가를 위한 값을 저장한다. 또한, 저장소(135)는 온라인 방식인 경우, 셋탑 박스로부터 수신한 VR_Diff 이미지를 저장하며, 오프라인 방식인 경우, 미디어 서버와 셋탑 박스로부터 제 1 VR 정보와 제 2 VR 정보를 각각 수신하여 생성한 VR_Diff 이미지를 저장한다.On the other hand, the storage 135 stores the values for the objective image quality deterioration evaluation calculated by the above-described units 132 and 133. In addition, the storage 135 stores the VR_Diff image received from the set-top box in the online method, and the VR_Diff generated by receiving the first VR information and the second VR information from the media server and the set-top box in the offline method. Save the image.
한편, 그래픽 사용자 인터페이스 제공부(136)는 품질 관리 운영자가 필요한 때에 품질 정보를 열람할 수 있도록, 다양한 정보를 그래픽 사용자 인터페이스(이하, GUI라 칭함)를 통해 제공한다.Meanwhile, the graphic user interface providing unit 136 provides various information through a graphic user interface (hereinafter referred to as a GUI) so that the quality management operator can view the quality information when necessary.
GUI 제공부(136)에서 제공하는 정보는 NPSNR 그래프와 각종 객관적 화질 열화 척도 값, 인코딩된 영상의 VR 정보(제 1 VR 정보), 셋탑박스에서 재생되는 영상의 VR 정보(제 2 VR 정보) 및 VR 정보들 간의 VR_Diff 이미지 등이다.The information provided by the GUI providing unit 136 may include an NPSNR graph and various objective image quality degradation measure values, VR information of the encoded video (first VR information), VR information of a video played in the set-top box (second VR information), and the like. VR_Diff image between VR information.
도 6은 본 발명의 일 실시예에 따른 품질 관리 서버에서 제공하는 특정 가입자가 시청한 컨텐츠에 대한 시청 품질 정보를 도시한 도면이다.FIG. 6 is a diagram illustrating viewing quality information of content watched by a specific subscriber provided by a quality management server according to an exemplary embodiment of the present invention.
화질 열화 데이터는 도 6에 도시된 것과 같은 데이터 구조를 가지는 구조체 형태로 저장소(135)에 기록된다.Quality deterioration data is recorded in the storage 135 in the form of a structure having a data structure as shown in FIG.
도 6에 도시된 시청 품질 정보가 저장소(135)에 기록되면, 품질 관리 운영자는 어느 때라도 이 정보에 접근하여 해당 가입자가 시청한 컨텐츠에 대한 품질 정보를 텍스트나 그래프 형태로 열람할 수 있다.When the viewing quality information shown in FIG. 6 is recorded in the storage 135, the quality management operator can access this information at any time and view the quality information on the content viewed by the subscriber in the form of a text or a graph.
이하에서는, 도 7 내지 도 9를 참조하여 VR 정보의 표현 및 동기화 방법을 설명하도록 하며, 도 2에 도시된 오프라인 방식의 품질 관리 서버(230)에서 VR_Diff 이미지를 생성하기 위해 제 1 VR 정보 및 제 2 VR 정보를 동기화한다고 가정하도록 한다.Hereinafter, a method of representing and synchronizing VR information will be described with reference to FIGS. 7 to 9, and the first VR information and the first method are used to generate the VR_Diff image in the offline quality management server 230 illustrated in FIG. 2. 2 Assume that the VR information is synchronized.
참고로, VR_Diff 이미지를 생성하기 위해 제 1 VR 정보 및 제 2 VR 정보를 동기화하는 이유를 간단히 설명하면, 오프라인 방식에서 미디어 서버(210)와 셋탑박스(220)는 각각 생성한 VR 정보(제 1 VR 정보 및 제 2 VR 정보)를 품질 관리 서버(230)로 전송하며, 이 경우 여러 가지 이유로 인해 제 1 VR 정보 및 제 2 VR 정보가 정확하게 1:1로 매칭되지 않을 가능성이 크다.For reference, the reason for synchronizing the first VR information and the second VR information to generate the VR_Diff image will be described briefly. In the offline method, the media server 210 and the set-top box 220 respectively generate the VR information (the first). VR information and second VR information) is transmitted to the quality management server 230, and in this case, it is highly likely that the first VR information and the second VR information do not exactly match 1: 1 for various reasons.
VR 정보는 신뢰성 있는 안전한 채널을 통해 품질 관리 서버(230)로 전달되기 때문에 VR 정보 자체가 손실되는 경우는 거의 없지만, 셋탑박스(220)의 재생 영상은 전송 에러나 기타의 이유에 의해 프레임이 누락되거나 같은 프레임이 반복됨으로써 VR 정보가 누락되거나 반복되는 경우도 발생할 수 있다.Since VR information is transmitted to the quality management server 230 through a reliable and secure channel, VR information itself is rarely lost, but the playback image of the set-top box 220 is missing frames due to transmission errors or other reasons. If the same frame is repeated, the VR information may be missing or repeated.
따라서, 셋탑박스(220)의 재생 영상에 대한 객관적 화질 열화를 평가하기 위해서(즉, VR_Diff 이미지를 생성하기 위해서)는 제 1 VR 정보 및 제 2 VR 정보의 동기화가 필요하며, 이를 위해 각 VR 정보에 시간 정보와 컨텐츠를 유일하게 식별할 수 있는 식별자인 프로그램 ID(identifier: 식별자)를 추가할 수 있다.Therefore, in order to evaluate the objective image quality degradation of the playback image of the set-top box 220 (that is, to generate a VR_Diff image), synchronization between the first VR information and the second VR information is required, and for this purpose, each VR information is required. In addition, a program ID (identifier) may be added, which is an identifier that uniquely identifies time information and content.
도 7은 본 발명의 일 실시예에 따른 VR 동기화를 위한 VR 정보의 표현 방법을 도시한 도면이다.7 is a diagram illustrating a method of expressing VR information for VR synchronization according to an embodiment of the present invention.
프레임으로부터 추출한 VR 값에 시간 정보로서 MPEG-2 System에서 사용하는 비디오 PTS(presentation time stamp) 값을 사용하여,‘시간 정보 + VR 값’을 하나의 VR 정보 표현 단위로서 사용한다.Using the video presentation time stamp (PTS) value used in the MPEG-2 System as the time information to the VR value extracted from the frame, "time information + VR value" is used as one VR information presentation unit.
여기에서 비디오 PTS 값은 그 비디오 프레임이 재생되는 시점을 알려주는 시간 정보이므로, 특정 프레임에 대해 미디어 서버(210)와 셋탑박스(220)가 같은 값을 가지게 되며, 이 PTS 값을 이용하면 미디어 서버(210)와 셋탑박스(220)의 특정 프레임을 고유하게 식별할 수 있다.Since the video PTS value is time information indicating when the video frame is played, the media server 210 and the set-top box 220 have the same value for a specific frame. Specific frames of the 210 and the set-top box 220 may be uniquely identified.
도 8은 본 발명의 일 실시예에 따른 VR 동기화를 위한 VR 정보의 형태를 도시한 도면이다.8 is a diagram illustrating a form of VR information for VR synchronization according to an embodiment of the present invention.
VR 동기화를 위한 VR 정보의 형태는, 도 7에 도시된 단위 시간 동안의 VR 정보 표현 단위에, 컨텐츠를 유일하게 식별할 수 있는 식별자인 프로그램 ID(identifier: 식별자)를 추가하여 하나의 VR 청크(chunk)로 구성할 수 있다.In the form of VR information for VR synchronization, a VR chunk (an identifier) is added to the VR information presentation unit during the unit time shown in FIG. 7 by adding a program ID (identifier) that is an identifier for uniquely identifying the content. chunk).
한 컨텐츠에 대한 VR 정보는 도 8에 도시된 바와 같이 VR 청크가 연속적으로 연결되어 있는 형태를 가질 수 있다.The VR information for one content may have a form in which VR chunks are continuously connected as shown in FIG. 8.
도 9는 본 발명의 일 실시예에 따른 VR 정보의 동기화 방법을 도시한 도면이다.9 illustrates a method of synchronizing VR information according to an embodiment of the present invention.
상술하였듯이, 미디어 서버(210)의 제 1 VR 정보와 셋탑박스(220)의 제 2 VR 정보는 정확하게 동일한 시간에 가용한 정보가 아니므로, 두 정보간에 지연이 발생할 수 있다.As described above, since the first VR information of the media server 210 and the second VR information of the set-top box 220 are not information available at exactly the same time, a delay may occur between the two information.
이 지연된 VR 정보를 비교하려면 두 정보를 동기화시키는 방법이 필요하며, 오프라인 방식의 품질 관리 서버(230)에서는 VR 정보간의 동기화를 위해 VR 정보에 포함되어 있는 MPEG-2 PES 패킷의 비디오 PTS 정보를 이용한다.In order to compare the delayed VR information, a method of synchronizing the two informations is required, and the offline quality management server 230 uses the video PTS information of the MPEG-2 PES packet included in the VR information for synchronization between the VR information. .
만일, 셋탑박스(220)에서 누락된 프레임이 존재하는 경우에는 이전 프레임의 PTS 값과 VR 정보로 대체하거나, 누락된 프레임을 무시하고 화질 열화 척도를 계산할 수도 있다.If there is a missing frame in the set-top box 220, the PTS value and the VR information of the previous frame may be replaced or the quality deterioration measure may be calculated by ignoring the missing frame.
품질 관리 서버(230)는, 도 9에 도시된 바와 같이, VR 정보 단위로 PTS 값이 일치하는 VR 정보를 비교함으로써 두 정보를 쉽게 동기화시킬 수 있다.As illustrated in FIG. 9, the quality management server 230 may easily synchronize the two information by comparing the VR information having the same PTS value in VR information units.
이상, 도 7 내지 도 9를 참조하여 오프라인 방식의 품질 관리 서버(230)에서 VR 정보를 표현하고 동기화하는 방법을 설명하였지만, 온라인 방식의 셋탑박스(120)에서도 이와 동일하게 VR 정보를 표현하고 동기화할 수 있다.In the above, the method of expressing and synchronizing the VR information in the offline quality control server 230 has been described with reference to FIGS. 7 to 9, but the set-top box 120 of the online method expresses and synchronizes the VR information in the same manner. can do.
이하에서는, VR 정보의 저장 방법에 대하여 간략하게 설명하도록 한다.Hereinafter, the storage method of the VR information will be briefly described.
셋탑박스에서 생성한 VR 정보는 화질 열화 평가를 위하여 보존되어야 할 정보이다. VR 정보를 저장하는 장소는 품질 관리 서버가 될 수도 있고, 경우에 따라서는 셋탑박스 내의 하드 디스크와 같은 저장소가 될 수도 있다.The VR information generated in the set-top box is information to be preserved for evaluating image quality deterioration. The place for storing the VR information may be a quality control server, or in some cases, may be a storage such as a hard disk in the set-top box.
품질 관리 서버가 감당할 수 있는 저장 장치의 용량이 부담이 된다면, 한 시청자에 대한 모든 VR 정보를 셋탑박스 내의 하드 디스크에 저장해 두고, 필요한 경우에 품질 관리 서버가 셋탑박스 내의 하드 디스크에 접근하여 사용할 수도 있다.If the amount of storage that the QC server can handle is burdensome, all VR information for one viewer can be stored on the hard disk in the set-top box, and the QC server can access and use the hard disk in the set-top box if necessary. have.
만일, 품질 관리 서버에 VR 정보를 저장하는 경우는, 저장 용량을 최소화하기 위해, 생성된 그대로의 VR 정보가 아니라 무손실 압축된 VR_Diff 이미지로 변환한 후 저장할 수 있으며, 미디어 서버의 VR 정보는 미디어 서버로부터 필요한 때에 제공받을 수 있기 때문에, 저장된 VR_Diff 이미지와 미디어 서버의 VR 정보를 이용하여 셋탑박스의 VR 정보를 복구할 수 있다.If the VR information is stored in the quality control server, in order to minimize the storage capacity, the VR information may be converted into a lossless compressed VR_Diff image instead of the generated VR information, and the VR information of the media server may be stored in the media server. Since it can be provided when needed from, it is possible to recover the VR information of the set-top box using the stored VR_Diff image and the VR information of the media server.
또한, 셋탑박스의 하드 디스크 내에 VR 정보가 저장되는 경우, 온라인 방식의 셋탑박스(120)는 VR_Diff 이미지를 무손실 압축하여 하드 디스크 내에 VR_Diff 이미지를 저장하고, 오프라인 방식의 셋탑박스(220)는 생성한 VR 정보를 압축하여 하드 디스크 내에 저장할 수 있다.In addition, when VR information is stored in the hard disk of the set-top box, the online set-top box 120 losslessly compresses the VR_Diff image to store the VR_Diff image in the hard disk, and the offline set-top box 220 generates the VR information can be compressed and stored on the hard disk.
이후, 품질 관리 서버의 요청 시, 셋탑박스(220)는 하드 디스크 내에 압축하여 저장된 VR 정보 또는 VR_Diff 이미지를 신뢰성 있는 채널을 이용하여 품질 관리 서버로 전송한다.Then, at the request of the quality management server, the set-top box 220 transmits the VR information or the VR_Diff image compressed and stored in the hard disk to the quality management server using a reliable channel.
이하에서는, 도 10 내지 도 15를 참조하여 VR 정보의 압축 방법에 대해 상세히 설명하도록 한다.Hereinafter, a compression method of VR information will be described in detail with reference to FIGS. 10 to 15.
도 10은 본 발명의 일 실시예에 따른 1시간 분량의 비디오 컨텐츠에서 추출된 VR 정보를 도시한 도면이다.FIG. 10 is a diagram illustrating VR information extracted from an hour-long video content according to an embodiment of the present invention.
720x480 해상도를 가지는 1시간 분량의 SD(standard definition)급 비디오 컨텐츠에서 추출되는 VR 정보의 데이터량은 480 B/frame x 30 frames/sec x 3600 sec/hour = 51,840,000 B/hr =115,200 kbps 이다.The amount of data of VR information extracted from an SD video content having an 720x480 resolution of one hour is 480 B / frame x 30 frames / sec x 3600 sec / hour = 51,840,000 B / hr = 115,200 kbps.
즉, 이 컨텐츠의 VR 정보를 품질 관리 서버로 전송하기 위해 필요한 전송 대역폭은 115.2kbps가 필요하며, 이 VR 정보를 저장하기 위해서는 51.84MB의 저장공간이 필요하다.That is, the transmission bandwidth required for transmitting the VR information of this content to the quality management server is 115.2kbps, and 51.84MB of storage space is required to store this VR information.
한 시청자에 대한 1시간 동안의 시청 품질 정보로는 매우 큰 데이터 량이 아닐 수 없다. 따라서 VR 정보를 감축하는 방법이 필요하며, 이하에서는 VR 정보를 감축함으로써 전송 데이터량을 감소시킬 수 있는 다양한 방법들을 설명하도록 한다.One hour of viewing quality information for one viewer is a very large amount of data. Therefore, there is a need for a method of reducing VR information. Hereinafter, various methods for reducing the amount of transmission data by reducing VR information will be described.
도 11은 본 발명의 일 실시예에 따른 공간적 서브 샘플링에 의한 감축 방법을 도시한 도면이다.11 is a diagram illustrating a reduction method by spatial subsampling according to an embodiment of the present invention.
콘텐츠에서 VR 정보를 추출할 때 도 8에 도시된 바와 같이, 공간 방향(수직 방향)으로 2:1 ~ 8:1 정도까지 서브 샘플링하여 VR 정보를 감축할 수 있다. 만일, 8:1로 서브 샘플링을 수행하는 경우, NPSNR을 추정하는 추정 성능은 큰 차이가 없음을 실험적으로 확인하였다.When extracting the VR information from the content, as shown in FIG. 8, the VR information may be reduced by subsampling from about 2: 1 to about 8: 1 in the spatial direction (vertical direction). If subsampling is performed at 8: 1, it is experimentally confirmed that the estimation performance of estimating the NPSNR is not significantly different.
이는 통계적으로 의미가 있을 정도로 충분한 샘플 수만 확보되면 추정 성능에는 거의 영향을 미치지 않는다는 것을 의미한다. 이렇게 하면 51.84MB 에 달하는 원래의 VR 데이터량이 6.48MB까지 감축되며, 이는 14.4kbps의 전송 대역폭으로 전송이 가능할 수 있다.This means that only enough samples to be statistically significant have little effect on the estimated performance. This reduces the original VR data amount of 51.84MB to 6.48MB, which can be transmitted with a transmission bandwidth of 14.4kbps.
도 12는 본 발명의 일 실시예에 따른 시간적 서브 샘플링에 의한 감축 방법을 도시한 도면이다.12 is a diagram illustrating a reduction method by temporal subsampling according to an embodiment of the present invention.
도 11에 도시된 공간적 서브 샘플링에 의해 감축된 VR 정보를 시간적으로 2:1~3:1로 추가로 서브 샘플링한다면 데이터량을 더욱 감축할 수 있으며, 이로 인한 효과는 도 8에 도시된 바와 같다.If additionally subsampling VR information reduced by spatial subsampling shown in FIG. 11 from 2: 1 to 3: 1 temporally, the data amount can be further reduced, and the effect thereof is as shown in FIG. 8. .
공간적 서브 샘플링에 의해 감축된 VR 정보에 시간적 서브 샘플링을 추가로 적용한다면 VR 정보는 2.16MB, 4.8kbps 정도로 감축될 수 있다.If temporal subsampling is additionally applied to the VR information reduced by spatial subsampling, the VR information can be reduced to about 2.16MB and 4.8kbps.
도 13은 본 발명의 일 실시예에 따른 무손실 압축에 의한 감축 방법을 도시한 도면이다.13 is a view illustrating a reduction method by lossless compression according to an embodiment of the present invention.
도 11 및 도 12에 도시된 바와 같은 감축 방법에 의해 시간적 또는 공간적, 혹은 시공간적으로 서브 샘플링된 정보는 도 13에 도시된 바와 같이 무손실 압축 방법에 의해 데이터량을 더욱 감축할 수 있다.Information sub-sampled temporally, spatially or spatiotemporally by the reduction method as shown in FIGS. 11 and 12 may further reduce the data amount by the lossless compression method as shown in FIG. 13.
무손실 압축 방법을 적용하면 약 1/2~1/3 수준으로 데이터량을 추가로 감축할 수 있으며, 도 9에 도시된 VR 정보의 경우 약 1MB, 2kbps 정도의 데이터량까지 추가로 더 감축할 수 있다.Applying a lossless compression method can further reduce the amount of data to about 1/2 to 1/3, and in the case of the VR information shown in FIG. 9, can further reduce the amount of data up to about 1 MB and 2 kbps. have.
이는 특징 정보의 데이터량으로서 수 백 kbps~ 수 Mbps 정도의 데이터량을 필요로 하는 기존의 방법(J.240, YAMADA)과는 비교도 되지 않을 정도의 적은 데이터량이다.This is a small amount of data that can not be compared with the existing method (J.240, YAMADA) which requires a data amount of several hundred kbps to several Mbps as the data amount of feature information.
도 14는 본 발명의 일 실시예에 따른 RTP 패킷 손실 검출에 의해 VR 정보를 추출함으로써 정보를 감축하는 방법을 도시한 도면이다.14 is a diagram illustrating a method of reducing information by extracting VR information by RTP packet loss detection according to an embodiment of the present invention.
도 14에 도시된 방식은 VR 정보를 모든 프레임에 대해 추출하지 않고, RTP 패킷 계층에서 제공되는 패킷 손실 정보를 이용하여, 손실이 검출되면 그 때부터 일정한 시간 동안 셋탑박스에서 재생되는 영상에 대한 VR 정보를 추출하고, 나머지 시간 구간에서는 VR 정보를 추출하지 않음으로써 VR 정보의 데이터량을 감축할 수 있는 방벙이다.The method shown in FIG. 14 does not extract the VR information for every frame, but uses the packet loss information provided by the RTP packet layer, and when the loss is detected, the VR for the image played in the set-top box for a predetermined time therefrom. By extracting the information and not extracting the VR information in the remaining time intervals, the data amount of the VR information can be reduced.
손실된 패킷이 시청자의 TV 화면에 영향을 미치기까지는 소정의 시간(수백 ms ~ 수초)이 소요되기 때문에, 패킷 계층에서 패킷 손실 이벤트가 발생하면 그 때부터 일정 시간(N초) 동안만 VR 정보를 추출한다.It takes a certain amount of time (hundreds of ms to several seconds) before the lost packet affects the viewer's TV screen. Therefore, when a packet loss event occurs in the packet layer, VR information is only displayed for a certain period of time (N seconds). Extract.
만일, 패킷 손실이 발생하지 않으면 VR 정보를 추출할 필요가 없기 때문에 패킷 손실의 양에 비례하여 VR 정보가 추출되며, 패킷 손실이 전혀 발생하지 않은 경우, VR 정보의 데이터량은 거의 없다고 볼 수 있다.If no packet loss occurs, the VR information is not extracted. Therefore, the VR information is extracted in proportion to the amount of packet loss. If no packet loss occurs, the amount of data of the VR information is almost zero. .
도 15는 본 발명의 일 실시예에 따른 비디오 비트 스트림 에러 검출에 의해 VR 정보를 추출함으로써 정보를 감축하는 방법을 도시한 도면이다.FIG. 15 illustrates a method of reducing information by extracting VR information by video bitstream error detection according to an embodiment of the present invention.
도 15에 도시된 방식은 셋탑박스의 비디오 디코더가 비트 스트림 구문 구조의 에러를 검출하면 그 순간부터 VR 정보를 추출을 시작함으로써 VR 정보의 데이터량을 감축하는 방법이다.The method illustrated in FIG. 15 is a method of reducing the data amount of VR information by starting to extract VR information from the moment when the video decoder of the set-top box detects an error of a bit stream syntax structure.
비디오 비트스트림은 GoP(group of picture) 단위로 독립적으로 부호화되기 때문에, 어느 프레임에서 에러가 발생했다 할지라도 그 에러가 다음 GoP에까지 영향을 미치지는 않는다.Since the video bitstream is independently encoded in GoP (group of picture) units, even if an error occurs in any frame, the error does not affect the next GoP.
즉, 에러는 같은 GoP 내의 나머지 프레임들에만 영향을 미치기 때문에, 그 GoP 기간 동안만 VR 정보를 추출하면 충분하다.That is, since the error only affects the remaining frames in the same GoP, it is sufficient to extract VR information only during that GoP period.
일반적으로, 방송 응용에서는 GoP 크기를 0.5초, 즉 15 프레임으로 하기 때문에 비트 스트림 구문 구조의 에러가 한번 검출되면 최대 15 프레임까지만 VR 정보가 추출됨으로써 VR 정보의 데이터량을 획기적으로 절감할 수 있다.In general, in a broadcast application, the GoP size is 0.5 seconds, that is, 15 frames. Therefore, when an error of a bit stream syntax structure is detected once, the VR information is extracted up to 15 frames, thereby greatly reducing the data amount of the VR information.
이하에서는, 도 16 내지 도 18을 참조하여, 온라인 방식에서 IPTV의 영상 품질을 모니터링하는 시스템의 각 구성 요소의 동작을 설명하도록 한다.Hereinafter, the operation of each component of the system for monitoring the video quality of the IPTV in an online manner will be described with reference to FIGS. 16 to 18.
도 16은 본 발명의 일 실시예에 따른 온라인 방식에서 미디어 서버(110)의 동작을 도시한 흐름도이다.16 is a flowchart illustrating the operation of the media server 110 in an online manner according to an embodiment of the present invention.
미디어 서버(110)는 비디오 신호를 압축하고, 압축된 비디오 스트림을 저장한다(S1601).The media server 110 compresses the video signal and stores the compressed video stream (S1601).
단계 S1601 후, 미디어 서버(110)는 압축된 비디오 스트림, 즉 인코딩된 영상으로부터 제 1 VR 정보를 추출한다(S1602).After step S1601, the media server 110 extracts first VR information from the compressed video stream, that is, the encoded image (S1602).
단계 S1602 후, 미디어 서버(110)는 추출한 제 1 VR 정보에 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 포함시킨다(S1603).After step S1602, the media server 110 includes the PTS (Presentation Time Stamp) value, which is time information, and the program ID, which identifies the content, in the extracted first VR information (S1603).
단계 S1603 후, 미디어 서버(110)는 VR 정보를 저장하고, 추후 시청자 요청 시, 저장된 1 VR 정보를 셋탑박스(120)로 전송한다(S1604).After step S1603, the media server 110 stores the VR information, and when the viewer requests it later, transmits the stored 1 VR information to the set-top box 120 (S1604).
이때, 전송되는 제 1 VR 정보는 미리 정해진 크기로 나누어 세그먼트 단위로 전송될 수 있고, 셋탑박스(120)에 하드 디스크와 같은 저장소가 존재하는 경우 제 1 VR 정보 전체가 한꺼번에 전송될 수도 있다.In this case, the first VR information to be transmitted may be divided into a predetermined size and transmitted in segment units. When the storage such as a hard disk exists in the set-top box 120, the entire first VR information may be transmitted at once.
도 17은 본 발명의 일 실시예에 따른 온라인 방식에서 셋탑박스(120)의 동작을 도시한 흐름도이다.17 is a flowchart illustrating the operation of the set-top box 120 in an online manner according to an embodiment of the present invention.
셋탑박스(120)는 미디어 서버(110)로부터 비디오 비트 스트림과 제 1 VR 정보를 수신한다(S1701).The set top box 120 receives the video bit stream and the first VR information from the media server 110 (S1701).
참고로 단계 S1701에서는, 설명의 편의 상, 비디오 비트 스트림과 제 1 VR 정보가 수신되는 것을 하나의 단계로 설명하였지만, 제 1 VR 정보는 비디오 비트 스트림과는 다른 별도의 전송 채널로 셋탑박스(120)에 전송될 수 있다.For reference, in step S1701, for convenience of description, the reception of the video bit stream and the first VR information is described as one step. However, the first VR information is set as a separate transmission channel different from the video bit stream. ) May be sent.
또한, 셋탑박스(120)는 제 1 VR 정보를 미리 정해진 크기로 나눠진 세그먼트 단위로 수신할 수도 있고, 셋탑박스(120)에 하드 디스크와 같은 저장소가 존재하는 경우 제 1 VR 정보 전체를 한꺼번에 수신할 수도 있다.In addition, the set-top box 120 may receive the first VR information in segments divided into a predetermined size, or when the storage such as a hard disk is present in the set-top box 120, the entire first VR information may be received at once. It may be.
단계 S1701 후, 셋탑박스(120)는 비디오 비트 스트림을 복호화하여 재생 영상을 생성한다(S1702).After step S1701, the set-top box 120 decodes the video bit stream to generate a playback image (S1702).
단계 S1703 후, 셋탑박스(120)는 복호화된 재생 영상으로부터 제 2 VR 정보를 추출한다(S1703).After step S1703, the set top box 120 extracts second VR information from the decoded playback image (S1703).
단계 S1703 후, 셋탑박스(120)는 제 2 VR 정보에, 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 포함시킨다(S1704).After step S1703, the set-top box 120 includes a presentation time stamp (PTS) value, which is time information, and a program ID, which is an identifier for identifying content, in the second VR information (S1704).
단계 S1704 후, 셋탑박스(120)는 제 1 VR 정보와 제 2 VR 정보를 동기화하고, VR_Diff 이미지를 생성한다(S1705).After the step S1704, the set-top box 120 synchronizes the first VR information and the second VR information, and generates a VR_Diff image (S1705).
이때, 셋탑박스(120)는 각 VR 정보에 포함된 PTS 값 및 프로그램 아이디에 기초하여, 제 1 VR 정보 및 제 2 VR 정보를 동기화한다.At this time, the set-top box 120 synchronizes the first VR information and the second VR information based on the PTS value and the program ID included in each VR information.
단계 S1705 후, 셋탑박스(120)는 VR_Diff 이미지를 압축하여 저장하고, 이를 품질 관리 서버로 전송한다(S1706).After step S1705, the set-top box 120 compresses and stores the VR_Diff image and transmits it to the quality management server (S1706).
도 18은 본 발명의 일 실시예에 따른 온라인 방식에서 품질 관리 서버(130)의 동작을 도시한 흐름도이다.18 is a flowchart illustrating the operation of the quality control server 130 in an online manner according to an embodiment of the present invention.
품질 관리 서버(130)는 셋탑박스(120)로부터 VR_Diff 이미지를 수신하여 저장한다(S1801).The quality management server 130 receives and stores the VR_Diff image from the set-top box 120 (S1801).
단계 S1801 후, 품질 관리 서버(130)는 VR_Diff 이미지를 이용하여 NPSNR 추정 값을 계산한다(S1802)After step S1801, the quality management server 130 calculates an NPSNR estimate value using the VR_Diff image (S1802).
단계 S1802 후, 품질 관리 서버(130)는 객관적 화질 열화 척도 값을 계산한다(S1803).After step S1802, the quality management server 130 calculates an objective quality deterioration measure value (S1803).
이때, 객관적으로 화질 열화를 측정하기 위한 객관적 화질 열화 척도는 열화 횟수, 임계 열화 횟수, 임계 열화율, 평균 열화량 및 평균 임계 열화량 등이다.In this case, the objective image quality deterioration measure for objectively measuring the quality deterioration may include a deterioration number, a threshold deterioration number, a threshold deterioration rate, an average deterioration amount, and an average threshold deterioration amount.
단계 S1803 후, 품질 관리 서버(130) 상기한 객관적 화질 열화 측정 값을 저장소에 저장하고, 추후 품질 관리 운영자에게 이를 이용한 다양한 정보들을 제공한다(S1804).After step S1803, the quality management server 130 stores the objective image quality deterioration measurement value in the storage, and provides various information using the same to the quality management operator later (S1804).
이하에서는, 도 19 내지 도 22를 참조하여, 오프라인 방식에서 IPTV의 영상 품질을 모니터링하는 시스템의 각 구성 요소의 동작을 설명하도록 한다.Hereinafter, the operation of each component of the system for monitoring the video quality of the IPTV in an offline manner will be described with reference to FIGS. 19 to 22.
도 19는 본 발명의 일 실시예에 따른 오프라인 방식에서 미디어 서버(210)의 동작을 도시한 흐름도이다.19 is a flowchart illustrating an operation of the media server 210 in an offline manner according to an embodiment of the present invention.
미디어 서버(210)는 비디오 신호를 압축하고, 압축된 비디오 스트림을 저장한다(S1901).The media server 210 compresses the video signal and stores the compressed video stream (S1901).
단계 S1901 후, 미디어 서버(210)는 압축된 비디오 스트림, 즉 인코딩된 영상으로부터 제 1 VR 정보를 추출한다(S1902).After step S1901, the media server 210 extracts first VR information from the compressed video stream, that is, the encoded image (S1902).
단계 S1902 후, 미디어 서버(210)는 추출한 제 1 VR 정보에 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 포함시킨다(S1903).After step S1902, the media server 210 includes a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the extracted first VR information (S1903).
단계 S1903 후, 미디어 서버(210)는 제 1 VR 정보를 저장하고, 추후 품질 관리 서버(230)의 요청 시, 저장된 제 1 VR 정보를 품질 관리 서버(230)로 전송한다(S1904).After step S1903, the media server 210 stores the first VR information, and transmits the stored first VR information to the quality management server 230 at the request of the quality management server 230 (S1904).
도 20은 본 발명의 일 실시예에 따른 오프라인 방식에서 셋탑박스(220)의 동작을 도시한 흐름도이다.20 is a flowchart illustrating the operation of the set-top box 220 in the offline manner according to an embodiment of the present invention.
셋탑박스(220)는 미디어 서버(210)로부터 비디오 비트 스트림을 수신한다(S2001).The set top box 220 receives the video bit stream from the media server 210 (S2001).
단계 S2001 후, 셋탑박스(220)는 비디오 비트 스트림을 복호화하여 재생 영상을 생성한다(S2002).After step S2001, the set-top box 220 decodes the video bit stream to generate a playback image (S2002).
단계 S2003 후, 셋탑박스(220)는 복호화된 재생 영상으로부터 제 2 VR 정보를 추출한다(S2003).After the step S2003, the set-top box 220 extracts the second VR information from the decoded playback image (S2003).
단계 S2003 후, 셋탑박스(220)는 제 2 VR 정보에, 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 포함시킨다(S2004).After step S2003, the set-top box 220 includes a PTS (Presentation Time Stamp) value, which is time information, and a program ID, which is an identifier for identifying content, in the second VR information (S2004).
단계 S2004 후, 셋탑박스(220)는 제 2 VR 정보를 압축하여 저장하고, 이를 품질 관리 서버로 전송한다(S2005).After step S2004, the set-top box 220 compresses and stores the second VR information and transmits it to the quality management server (S2005).
참고로, 오프라인 방식에서 셋탑박스(220)는 VR_Diff 이미지를 생성하지 않아도 되며, 이는 셋탑박스(220)의 연산 자원의 소비를 감소시키기 때문에, 온라인 방식보다 더 낮은 사양의 셋탑박스에서도 동작이 가능한 장점이 있다.For reference, in the offline method, the set-top box 220 does not need to generate a VR_Diff image, which reduces the consumption of computational resources of the set-top box 220, and thus can be operated in a set-top box having a lower specification than the online method. There is this.
도 21은 본 발명의 일 실시예에 따른 온라인 방식에서 품질 관리 서버(230)의 동작을 도시한 흐름도이다.21 is a flowchart illustrating the operation of the quality control server 230 in an online manner according to an embodiment of the present invention.
품질 관리 서버(230)는 미디어 서버(210)로부터 전송된 제 1 VR 정보와, 셋탑박스(220)로부터 전송된 제 2 VR 정보를 수신한다(S2101).The quality management server 230 receives the first VR information transmitted from the media server 210 and the second VR information transmitted from the set top box 220 (S2101).
단계 S2101 후, 품질 관리 서버(230)는 제 1 VR 정보 및 제 2 VR 정보에 포함된 PTS 값 및 프로그램 아이디에 기초하여 두 VR 정보를 동기화한다(S2102).After step S2101, the quality management server 230 synchronizes the two VR information based on the PTS value and the program ID included in the first VR information and the second VR information (S2102).
단계 S2102 후, 품질 관리 서버(230)는 각 VR 정보의 차이를 이용하여 VR_Diff 이미지를 생성한다(S2103).After step S2102, the quality management server 230 generates a VR_Diff image by using the difference of each VR information (S2103).
단계 S2103 후, 품질 관리 서버(230)는 VR_Diff 이미지를 이용하여 NPSNR 추정값을 계산한다(S2104).After step S2103, the quality management server 230 calculates an NPSNR estimate using the VR_Diff image (S2104).
단계 S2104 후, 품질 관리 서버(230)는 객관적 화질 열화 척도 값을 계산한다(S2105).After step S2104, the quality management server 230 calculates an objective quality deterioration measure value (S2105).
이때, 객관적으로 화질 열화를 측정하기 위한 객관적 화질 열화 척도는 열화 횟수, 임계 열화 횟수, 임계 열화율, 평균 열화량 및 평균 임계 열화량 등이다.In this case, the objective image quality deterioration measure for objectively measuring the quality deterioration may include a deterioration number, a threshold deterioration number, a threshold deterioration rate, an average deterioration amount, and an average threshold deterioration amount.
단계 S2105 후, 품질 관리 서버(230)는 객관적 화질 열화 측정 값을 저장소에 저장하고, 추후 품질 관리 운영자에게 이를 이용한 다양한 정보들을 제공한다(S2106).After step S2105, the quality management server 230 stores the objective quality deterioration measurement value in the storage, and provides various information using the same to the quality management operator later (S2106).
이하에서는, 본 발명에서 제안된 객관적 화질 열화 측정 방법의 타당성과 성능을 검증하기 위하여 수행한 모의 실험 결과에 대해 설명하고자 한다.Hereinafter, a simulation result performed to verify the validity and performance of the objective image quality degradation measurement method proposed in the present invention will be described.
실험에 사용된 영상은 실제 IPTV 사업에서 제공되는 H.264 스트림으로, 특성은 <표 1>과 같으며, VR 정보는 프레임의 정가운데 수직선상의 픽셀들을 추출하여 생성하였다.The video used in the experiment is an H.264 stream provided by the real IPTV business. The characteristics are as shown in Table 1. VR information is generated by extracting the pixels on the vertical line at the center of the frame.
또한, 인코딩된 재생 영상의 VR 정보
Figure PCTKR2010003673-appb-I000061
는 H.264 스트림을 오류없이 디코딩한 재생 영상으로부터 추출하였으며, 이후 H.264 스트림을 1,500 바이트 크기의 패킷으로 나누고 패킷 손실율 0.1%로 무작위로 패킷을 손실시킨 후, 디코더에서 재생된 영상으로부터 추출한 VR 정보를 셋탑박스에서 재생된 영상의 VR 정보
Figure PCTKR2010003673-appb-I000062
라 가정하였다.
In addition, VR information of the encoded playback image
Figure PCTKR2010003673-appb-I000061
Extracted H.264 stream from error-free decoded playback video, and then divided the H.264 stream into packets of 1,500 byte size and randomly lost packets with a packet loss rate of 0.1%. VR information of video played on set-top box
Figure PCTKR2010003673-appb-I000062
Assume that
표 1 실험 영상
KBS 스페셜 SEXY BACK 예얍 겨울새
영상 유형 다큐멘터리 뮤직 비디오 드라마
총 프레임수(장) 1,600 4,600 6,000
해상도(가로x세로) 720x480 720x480 720x480
프레임율(frame/sec) 30 30 30
인코딩율(Mbps) 6 6 6
Table 1 Experimental video
KBS Special SEXY BACK example Winter bird
Video type documentary Music Video drama
Total frame count 1,600 4,600 6,000
Resolution (HxW) 720 x 480 720 x 480 720 x 480
Frame rate (frame / sec) 30 30 30
Encoding Rate (Mbps) 6 6 6
성능의 검증은 ‘2D영상에 대해 얻은 NPSNR로 계산한 객관적 열화 척도값을 VR 정보로 계산한
Figure PCTKR2010003673-appb-I000063
을 사용하여 얼마나 잘 추정하였는가’가 관심사항이다.
The verification of the performance is based on the calculation of the objective deterioration scale value calculated by the NPSNR obtained from the 2D image as the VR information.
Figure PCTKR2010003673-appb-I000063
How well do you estimate using?
상기 실험 영상에 대해 본 발명의 기법으로 NPSNR 을 추정한 결과는 도 22와 같다.The result of estimating the NPSNR with respect to the experimental image by the technique of the present invention is shown in FIG. 22.
도 22 내지 도 24는 본 발명의 일 실시예에 따른 <표 1>의 실험 영상에 대한 NPSNR 추정 성능을 도시한 도면이다.22 to 24 are diagrams illustrating NPSNR estimation performance of experimental images of Table 1 according to an embodiment of the present invention.
도 22 내지 도 24에서 50dB보다 작은 NPSNR 값을 보이는 구간은 패킷 손실에 의해 열화가 발생한 구간이다.In FIG. 22 to FIG. 24, a section showing an NPSNR value smaller than 50 dB is a section in which degradation occurs due to packet loss.
이는, VR 정보가 2차원 영상 프레임 못지 않게 열화 지점을 잘 검출해내는 것을 볼 수 있으며 영상에 따라 다소 차이가 있지만 전반적으로
Figure PCTKR2010003673-appb-I000064
이 NPSNR 을 잘 근사화 해냄을 볼 수 있다.
This shows that the VR information detects the point of degradation as well as the two-dimensional image frame, and it is slightly different depending on the image, but overall
Figure PCTKR2010003673-appb-I000064
It can be seen that the NPSNR is well approximated.
화질에 관한 정량적(객관적)인 평가 척도로서
Figure PCTKR2010003673-appb-I000065
의 유용성은 경미한 화질 열화보다는 심각한 화질 열화를 검출해 내고, 이 때의 열화량을 근사화하는 데 있다고 볼 수 있다. 경미한 화질 열화는 시청자들의 눈에 잘 보이지 않기 때문이다.
As a quantitative (objective) measure of image quality
Figure PCTKR2010003673-appb-I000065
The usefulness of can be seen in detecting serious image quality deterioration and approximating the amount of degradation at this time, rather than a slight image quality deterioration. The slight deterioration in image quality is difficult to see in the viewers' eyes.
Figure PCTKR2010003673-appb-I000066
을 근거로 하여 객관적 화질 열화 척도를 계산하면 <표 2>와 같다.
Figure PCTKR2010003673-appb-I000066
Based on this, the objective quality deterioration scale is calculated as shown in <Table 2>.
참고로, <표 2>에서 ‘2D’는 2D 재생 영상에 대해 계산한 값이며,‘VR’은 VR 정보만으로 추정한 값이다.For reference, in Table 2, '2D' is a value calculated for 2D playback video, and 'VR' is an estimated value based on VR information only.
표 2 객관적 화질 열화 척도 추정 성능
척도 KBS 스페셜 SEXY BACK 예얍 겨울새
2D VR 2D VR 2D VR
열화횟수Kd(회) 11 13 29 29 34 32
임계열화횟수Kcd(회) 10 8 29 27 32 28
열화율(%) 7.2 6.2 4.5 4.1 5.6 5.6
임계열화율 ρcd(%) 6.0 5.0 4.5 3.8 5.6 5.0
임계열화량 Qavg(dB) 36.5 38.3 28.4 27.1 33.1 33.6
TABLE 2 Objective Quality Degradation Scale Estimation Performance
Measure KBS Special SEXY BACK example Winter bird
2D VR 2D VR
2D VR
Deterioration times K d (times) 11 13 29 29 34 32
Critical degradation count K cd (times) 10 8 29 27 32 28
Deterioration rate (%) 7.2 6.2 4.5 4.1 5.6 5.6
Critical degradation rate ρ cd (%) 6.0 5.0 4.5 3.8 5.6 5.0
Critical Deterioration Q avg (dB) 36.5 38.3 28.4 27.1 33.1 33.6
모든 척도에서 VR 정보만으로 추정한 값이 2D 영상에 대해 계산한 값에 상당히 근접해 있음을 볼 수 있다. 이 값들로부터 ‘겨울새’ 영상의 경우 총 32회의 열화가 발생하였으나 이 중 임계 열화는 28회가 있었으며, 임계 열화율은 5%, 평균 임계 열화량 33.6 dB의 화질로 열화가 되어 시청자에게 표현되었다고 추정할 수 있다.It can be seen that on all scales, the value estimated by VR information alone is very close to the value calculated for 2D images. From these values, there were 32 deteriorations in the case of 'winter bird' image, but there were 28 deterioration among them, and the deterioration with the image quality of 5% and the average critical deterioration amount of 33.6 dB was estimated to the viewer. can do.
참고로, <표 2>에 나타난 열화는 제안 방법의 성능을 평가하기 위한 모의 실험을 위해 설정한 것이며, 실제로는 상용 서비스가 불가능한 수준이다. IPTV 사업자는 이러한 정보를 이용하여 네트워크 또는 서비스 개선을 위한 현장 자료로 활용할 수 있을 것이다.For reference, the deterioration shown in <Table 2> is set for the simulation to evaluate the performance of the proposed method, and in practice, commercial service is impossible. IPTV operators can use this information to provide field data for network or service improvement.
도 25 내지 도 28은 본 발명의 일 실시예에 따른 <표 2>의 실험 영상에 대한 VR 정보 및 VR_Diff 이미지를 도시한 도면이다.25 to 28 illustrate VR information and a VR_Diff image for an experimental video of Table 2 according to an embodiment of the present invention.
도 26 내지 도 28의 VR_Diff 이미지를 통해서, 전체 프레임 중 어느 위치에서 어느 정도의 열화가 발생했는지 눈으로도 쉽게 확인할 수 있다.Through the VR_Diff image of FIGS. 26 to 28, it is easy to visually check how much deterioration has occurred at which position among the entire frames.
이하에서는, 품질 관리 서버(130, 230)에서의 주관적 화질 열화 측정(평가) 방법에 대해 상세히 설명하도록 한다.Hereinafter, the subjective image quality deterioration measurement (evaluation) method in the quality management server (130, 230) will be described in detail.
본 발명의 실시예에 따른 품질 관리 서버(130, 230)에서의 주관적 화질 열화 측정을 위해 먼저 다음과 같은 양을 정의한다.For the subjective quality deterioration measurement in the quality management server 130, 230 according to the embodiment of the present invention, the following amounts are first defined.
주관적 임계 열화 구간 :
Figure PCTKR2010003673-appb-I000067
Subjective Critical Degradation Interval:
Figure PCTKR2010003673-appb-I000067
주관적 임계 열화구간은 <식 5>의 객관적 열화 구간
Figure PCTKR2010003673-appb-I000068
중 사람의 눈에 거슬리는 열화가 발생한 구간으로 정의된다.
The subjective critical deterioration section is the objective deterioration section of <Equation 5>.
Figure PCTKR2010003673-appb-I000068
It is defined as the section in which unpleasant deterioration of a human occurs.
같은 양의 열화가 발생해도 열화가 발생된 프레임의 위치나 특성, 열화 지속 시간 등에 따라 사람에게 인식되는 정도가 다르다. 예를 들어 한 프레임에서만 열화가 발생되고 전후 프레임들에서는 열화가 없는 경우, 시청자는 해당 열화를 거의 인식하지 못한다. Even if the same amount of deterioration occurs, the degree to which a person is perceived differs depending on the position and characteristics of the deteriorated frame and the deterioration duration. For example, if degradation occurs in only one frame and no degradation occurs in front and rear frames, the viewer hardly recognizes the degradation.
또한, 움직임이 매우 격렬한 경우나 영상이 공간적으로 매우 복잡한 경우, 또는 적은 양의 열화가 발생한 경우에도 시청자의 눈은 열화를 잘 인식하지 못하는 경향이 있다.In addition, even when the movement is very intense, the image is very complex spatially, or a small amount of deterioration occurs, the viewer's eyes do not tend to recognize the deterioration well.
만일, 열화를 인식하더라도 객관적 열화량 대비 주관적 열화량은 크게 달라질 수 있다.Even if the deterioration is recognized, the subjective deterioration amount may be significantly different from the objective deterioration amount.
주관적 임계 열화 구간은 아래 <식 9>로 정의되는 NMOS(Networked Mean Opinion Score) 값인 NMOS가 3.5 이하이거나, 시청자들의 주관적 화질 평가 값인 MOS가 3.5 이하를 나타내는 구간으로 정의된다.The subjective critical deterioration interval is defined as an interval in which NMOS, which is a NMOS (Networked Mean Opinion Score) value defined in Equation 9 below, or MOS, which is a subjective quality evaluation value of viewers, is 3.5 or less.
열화 구간 별 주관적 열화량 : Subjective deterioration amount by deterioration section:
<식 9><Equation 9>
Figure PCTKR2010003673-appb-I000069
Figure PCTKR2010003673-appb-I000069
여기에서, 괄호안의 첫번째 항
Figure PCTKR2010003673-appb-I000070
은 k번째 객관적 임계 열화 구간의 평균
Figure PCTKR2010003673-appb-I000071
이며, 괄호안의 두번째 항 a는 감쇄 상수를,
Figure PCTKR2010003673-appb-I000072
는 k번째 열화가 지속된 프레임 시간, 즉 객관적 열화 구간이 지속된 시간을 나타내며, 이는 열화가 지속되는 시간이 길수록 주관적 화질이 저하되는 현상을 반영하기 위한 것이다.
Where the first term in parentheses
Figure PCTKR2010003673-appb-I000070
Is the mean of the kth objective critical degradation interval
Figure PCTKR2010003673-appb-I000071
Where the second term a in parentheses is the decay constant,
Figure PCTKR2010003673-appb-I000072
Denotes a frame time for which the k-th degradation lasted, that is, a time for which the objective degradation section lasts, and reflects a phenomenon in which the subjective image quality deteriorates as the time for the degradation continues.
또한, 괄호안의 세번째 항
Figure PCTKR2010003673-appb-I000073
는 k번째 열화 구간의 영상의 복잡도를 나타내며, 이는 영상의 시간적, 공간적 복잡도에 따라 인식되는 화질이 차이가 발생하는 현상을 반영하기 위한 것이다.
Also, the third term in parentheses
Figure PCTKR2010003673-appb-I000073
Denotes the complexity of the image of the k-th degradation section, and reflects the phenomenon that the perceived image quality is different according to the temporal and spatial complexity of the image.
참고로,
Figure PCTKR2010003673-appb-I000074
는 다음과 같은
Figure PCTKR2010003673-appb-I000075
정보의 분산인
Figure PCTKR2010003673-appb-I000076
과 평균 제곱 차이 값(Mean Squared Difference)인
Figure PCTKR2010003673-appb-I000077
의 함수로 나타낼 수 있다.
Note that,
Figure PCTKR2010003673-appb-I000074
The following
Figure PCTKR2010003673-appb-I000075
Distributor of information
Figure PCTKR2010003673-appb-I000076
And Mean Squared Difference
Figure PCTKR2010003673-appb-I000077
Can be expressed as a function of.
<식 10><Equation 10>
Figure PCTKR2010003673-appb-I000078
Figure PCTKR2010003673-appb-I000078
여기에서,
Figure PCTKR2010003673-appb-I000079
은 n번째 프레임의 VR정보의 분산으로서 n번째 프레임의 공간 방향의 복잡도를 반영하며,
Figure PCTKR2010003673-appb-I000080
은 n번째 프레임과 n-1번째 프레임의 VR정보의 평균 제곱 차이 값으로서 시간 방향의 복잡도를 반영한다.
From here,
Figure PCTKR2010003673-appb-I000079
Is the variance of the VR information of the nth frame and reflects the complexity of the spatial direction of the nth frame,
Figure PCTKR2010003673-appb-I000080
Is a mean square difference value between the VR information of the nth frame and the n-1th frame and reflects the complexity in the time direction.
여러 차례의 반복 실험을 통해 <식 10>의 감쇄 상수 a값은 0.05, 영상의 복잡도 변수
Figure PCTKR2010003673-appb-I000081
값은 아래의 <식 9>에 나타난 바와 같은 기준으로 설정할 수 있다.
Through several repeated experiments, the attenuation constant a of <Equation 10> is 0.05 and the image complexity variable
Figure PCTKR2010003673-appb-I000081
The value can be set based on the criteria as shown in Equation 9 below.
<식 11>은 시퀀스 전체 프레임의 평균 대비 열화 구간의
Figure PCTKR2010003673-appb-I000082
Figure PCTKR2010003673-appb-I000083
의 크기에 따라 가중치
Figure PCTKR2010003673-appb-I000084
를 다르게 하여, 영상의 복잡도에 따른 사람의 시각 인자 특성을 고려한 것이다.
<Equation 11> shows the deterioration interval of the average frame
Figure PCTKR2010003673-appb-I000082
I
Figure PCTKR2010003673-appb-I000083
Weight based on size
Figure PCTKR2010003673-appb-I000084
By differently, the characteristics of the visual factor of the person according to the complexity of the image are considered.
<식 11><Equation 11>
Figure PCTKR2010003673-appb-I000085
Figure PCTKR2010003673-appb-I000085
여기에서
Figure PCTKR2010003673-appb-I000086
는 전체 프레임에 대한
Figure PCTKR2010003673-appb-I000087
의 평균 값이며,
Figure PCTKR2010003673-appb-I000088
는 k 번째 열화구간에 속한 각 프레임의 VR 분산 값의 평균 값이다.
From here
Figure PCTKR2010003673-appb-I000086
For the full frame
Figure PCTKR2010003673-appb-I000087
Is the average value of
Figure PCTKR2010003673-appb-I000088
Is an average value of VR variance values of each frame belonging to the k-th degradation section.
Figure PCTKR2010003673-appb-I000089
Figure PCTKR2010003673-appb-I000090
도 평균 제곱 차이 값이라는 것을 제외하고는 이와 동일한 관계이다.
Figure PCTKR2010003673-appb-I000089
and
Figure PCTKR2010003673-appb-I000090
The same relationship is true except that the mean squared difference is also a value.
상기한 주관적 열화 구간을 이용하여 STB 재생 화질의 열화를 정량화하기 위해 다음과 같은 주관적 열화 척도를 정의하도록 한다.In order to quantify the deterioration of the STB reproduction quality using the subjective deterioration interval, the following subjective deterioration measures are defined.
주관적 열화 척도는 위의 주관적 임계 열화 구간을 이용하여 다음과 같이 정의된다.The subjective deterioration measure is defined as follows using the subjective critical deterioration interval above.
① 임계 열화 횟수 Kscd :
Figure PCTKR2010003673-appb-I000091
중에서 가장 큰 k 값.
① critical deterioration number Kscd:
Figure PCTKR2010003673-appb-I000091
The largest k value of the.
② 임계 열화율 : ② critical deterioration rate:
<식 12><Equation 12>
Figure PCTKR2010003673-appb-I000092
Figure PCTKR2010003673-appb-I000092
여기에서,
Figure PCTKR2010003673-appb-I000093
는 전체 비디오 시퀀스 시간이다.
From here,
Figure PCTKR2010003673-appb-I000093
Is the total video sequence time.
③ 평균 주관적 임계 열화량: ③ Average subjective critical deterioration amount:
<식 13><Equation 13>
Figure PCTKR2010003673-appb-I000094
Figure PCTKR2010003673-appb-I000094
여기에서 k는 NMOS가 3.5 이하인, 즉
Figure PCTKR2010003673-appb-I000095
에 속한 열화 구간이다.
Where k is NMOS less than or equal to 3.5
Figure PCTKR2010003673-appb-I000095
Degradation section belonging to
참고로 종래의 기술에서는, 일반적인 실사 영상에서 NPSNR이나 PSNR 등과 같이 영상을 신호 파형적(signal waveform) 관점에서 바라보는 객관적 척도가 주관적 화질을 거의 대부분 좌우하지만, 본 발명의 <식 9>의 NMOS는 영상의 특성이나 조건에 따라 NPSNR의 양과는 주관적으로 다르게 인식될 수 있다는 관찰로부터 정의된 식이다.For reference, in the related art, an objective measure of viewing an image from the point of view of a signal waveform such as NPSNR or PSNR in a general photorealistic image almost dictates the subjective image quality, but the NMOS of Equation 9 of the present invention is It is an expression defined from the observation that the amount of NPSNR can be perceived subjectively differently according to the characteristics or conditions of the image.
실제로, 같은 평균 NPSNR(또는 PSNR) 값을 가지는 열화 구간에서 화면이 복잡하거나 움직임이 빠른 경우에 열화가 덜 인식된다는 것은 인간의 시각 인자 특성으로서 널리 알려져 있는 사실이기도 하다.In fact, it is also widely known as a visual factor characteristic of human being that deterioration is less recognized when the screen is complicated or moves fast in the deterioration interval having the same average NPSNR (or PSNR) value.
<식 9>는 영상의 신호 파형적 측면을 배제하는 기존의 주관적 화질 척도와는 다른 접근 방법으로서, 객관적 화질 양에 시각적 특성을 반영하는 요소를 적절히 가중시킴으로써 주관적 화질 척도를 모델링할 수 있을 것이라는 아이디어에 근거를 두고 있다.Equation 9 is a different approach from the existing subjective quality measure, which excludes the signal waveform aspect of the image, and the idea that the subjective quality measure can be modeled by appropriately weighting the elements reflecting the visual characteristics in the objective quality amount. Is based on.
이하에서는, 도 29를 참조하여 본 발명의 품질 관리 서버(130, 230)의 구성을 설명하도록 하며, 설명의 편의 상, 품질 관리 서버(230)를 예로 들어 설명하도록 한다.Hereinafter, the configuration of the quality management servers 130 and 230 of the present invention will be described with reference to FIG. 29. For convenience of description, the quality management server 230 will be described as an example.
도 29는 본 발명의 다른 실시예에 따른 품질 관리 서버(230)의 구성을 도시한 블록도이다.29 is a block diagram showing the configuration of a quality control server 230 according to another embodiment of the present invention.
본 발명의 다른 실시예에 따른 품질 관리 서버(230)는 수신부(231), 재생 화질 추정 값 계산부(232), 객관적 열화 구간 검출부(233), 주관적 열화 검출부(234), 주관적 열화 척도 계산부(235), 저장소(236) 및 그래픽 사용자 인터페이스 제공부(237)를 포함한다.According to another embodiment of the present invention, the quality control server 230 includes a receiver 231, a reproduction quality estimation value calculator 232, an objective degradation interval detector 233, a subjective degradation detector 234, and a subjective degradation scale calculator. 235, storage 236, and graphical user interface provider 237.
참고로, 도 29에 도시된 품질 관리 서버의 구성 요소(231 내지 237)는 온라인 방식이나 오프라인 방식 모두를 위한 것이며, 오프라인 방식인 경우, 도 29에 도시된 구성 요소 외에도 VR_Diff 이미지를 생성하는 VR_Diff 생성부(미도시)를 더 포함할 수 있다.For reference, the components 231 to 237 of the quality management server illustrated in FIG. 29 are for both an online scheme and an offline scheme. In the offline scheme, a VR_Diff generation for generating a VR_Diff image in addition to the components illustrated in FIG. 29. It may further include a portion (not shown).
품질 관리 서버(230)가 온라인 방식인 경우, 품질 관리 서버(230)의 수신부(231)는 셋탑 박스로부터 VR_Diff 이미지를 수신하며, 오프라인 방식인 경우, 미디어 서버와 셋탑 박스로부터 제 1 VR 정보와 제 2 VR 정보를 각각 수신하여 VR_Diff 이미지를 생성한다.When the quality management server 230 is in the online manner, the receiving unit 231 of the quality management server 230 receives the VR_Diff image from the set-top box, and in the offline manner, the first VR information and the first VR information are received from the media server and the set-top box. 2 VR information is received to generate a VR_Diff image.
이후, 품질 관리 서버(230)는 VR_Diff 이미지를 이용하여 하나의 비디오 컨텐츠에 대한 재생 화질 열화를 측정한다. Thereafter, the quality management server 230 measures the degradation of the playback quality of one video content by using the VR_Diff image.
이때, 재생 화질 추정 값 계산부(232)는 매 프레임당 화질 추정 값(
Figure PCTKR2010003673-appb-I000096
)을 계산하고, 객관적 열화 구간 검출부(233)는 화질 추정 값을 이용하여 객관적 열화 구간을 검출하는데, 화질 열화의 시작과 끝이 재생 화질 추정 값 계산부(232)에서 계산한 화질 추정 값의 최대치(50dB)가 아닌 구간, 즉 50db 미만인 구간을 객관적 열화 구간으로 검출할 수 있다.
At this time, the playback quality estimation value calculator 232 may calculate an image quality estimation value for each frame (
Figure PCTKR2010003673-appb-I000096
), And the objective deterioration section detector 233 detects the objective deterioration section by using the image quality estimation value, and the beginning and end of the image quality deterioration are the maximum values of the image quality estimation values calculated by the reproduction image quality estimation value calculator 232. A section other than (50dB), that is, a section less than 50db may be detected as an objective degradation section.
객관적 열화 구간 검출에 대해서는 <식 5>를 참조하여 전술하였으므로, 상세한 설명은 생략하도록 한다.Since the objective deterioration interval detection has been described above with reference to <Equation 5>, a detailed description thereof will be omitted.
한편, 주관적 열화 검출부(234)는 객관적 열화 구간 검출부(233)에서 검출된 객관적 열화 구간 별로 주관적 열화량을 계산하고, 주관적 열화량이 미리 정해진 값 이하인 구간을 주관적 임계 열화 구간으로 검출한다.Meanwhile, the subjective deterioration detection unit 234 calculates a subjective deterioration amount for each of the objective deterioration sections detected by the objective deterioration section detection unit 233, and detects a section in which the subjective deterioration amount is less than or equal to a predetermined value as the subjective critical deterioration section.
이를 위해, 주관적 열화 검출부(234)는 객관적 열화 구간이 지속된 시간 및 영상의 시간적 복잡도와 공간적 복잡도를 이용하여, 객관적 열화 구간 별 주관적 열화량을 계산한다.To this end, the subjective deterioration detection unit 234 calculates the subjective deterioration amount for each objective deterioration section by using the time for which the objective deterioration section is continued and the temporal and spatial complexity of the image.
주관적 열화량에 대해서는 <식 9>을 참조하여 전술하였고, 주관적 임계 열화 구간에 대해서도 전술하였으므로, 상세한 설명은 생략하도록 한다.Since the subjective deterioration amount has been described above with reference to <Equation 9> and the subjective critical deterioration section has been described above, a detailed description thereof will be omitted.
참고로, 주관적 임계 열화 구간은 <식 9>로 정의되는 NMOS(Networked Mean Opinion Score) 값인 NMOS가 3.5 이하이거나, 시청자들의 주관적 화질 평가 값인 MOS가 3.5 이하를 나타내는 구간으로 정의될 수 있다.For reference, the subjective critical degradation section may be defined as a section in which NMOS (Networked Mean Opinion Score) value defined by Equation 9 is 3.5 or less, or MOS, which is a subjective quality evaluation value of viewers, is 3.5 or less.
한편, 주관적 열화 척도 계산부(235)는 주관적 열화 검출부(234)에서 검출한 주관적 임계 열화 구간에 대하여 임계 열화 횟수, 임계 열화율 및 평균 주관적 임계 열화량 중 적어도 하나를 포함하는 주관적 열화 척도를 계산한다.Meanwhile, the subjective deterioration scale calculator 235 calculates a subjective deterioration measure including at least one of a threshold deterioration number, a threshold deterioration rate, and an average subjective threshold deterioration amount for the subjective deterioration interval detected by the subjective deterioration detection unit 234. do.
여기에서, 임계 열화 횟수는 임계 열화 구간의 개수를 의미하며, 임계 열화 구간의 개수는 열화 횟수는 전체 비디오 시퀀스 시간에서 열화가 발생한 횟수이다.Here, the number of critical degradation intervals means the number of critical degradation intervals, and the number of critical degradation intervals is the number of degradations in the total video sequence time.
또한, 임계 열화율은 전체 비디오 시퀀스 시간에서 모든 주관적 임계 열화 구간들이 차지하는 시간의 비율이다.In addition, the threshold degradation rate is the ratio of time occupied by all subjective critical degradation intervals in the total video sequence time.
또한, 평균 주관적 임계 열화량은 NMOS 값이 3.5 이하인 주관적 임계 열화 구간을 구성하는 프레임들의 평균 NMOS값이다.Also, the average subjective critical deterioration amount is the average NMOS value of the frames constituting the subjective critical deterioration interval having an NMOS value of 3.5 or less.
참고로, 본 발명에서는 주관적 열화 척도 계산부(235)에서 상기한 주관적 열화 척도를 계산하는 것으로 설명하였지만, 각 주관적 열화 척도에 대응하는 별도의 구성 요소들이 존재하여 해당 주관적 열화 척도를 각각 계산할 수도 있다(예를 들어, 열화 횟수는 열화 횟수 계산부에서 계산하는 등).For reference, in the present invention, the subjective deterioration scale calculation unit 235 is described as calculating the subjective deterioration scale, but there are separate components corresponding to each subjective deterioration scale, so that the corresponding subjective deterioration scale may be respectively calculated. (E.g., the number of deterioration is calculated by the deterioration count calculation unit, etc.).
한편, 저장소(236)는 상기한 각 부에서 계산한 주관적 화질 열화 평가를 위한 값을 저장한다. 또한, 저장소(236)는 온라인 방식인 경우, 셋탑 박스로부터 수신한 VR_Diff 이미지를 저장하며, 오프라인 방식인 경우, 미디어 서버와 셋탑 박스로부터 제 1 VR 정보와 제 2 VR 정보를 각각 수신하여 생성한 VR_Diff 이미지를 저장한다.On the other hand, the storage 236 stores a value for the subjective quality deterioration evaluation calculated by each of the above. In addition, the storage 236 stores the VR_Diff image received from the set-top box in the online manner, and the VR_Diff generated by receiving the first VR information and the second VR information from the media server and the set-top box in the offline manner. Save the image.
한편, 그래픽 사용자 인터페이스 제공부(237)는 품질 관리 운영자가 필요한 때에 품질 정보를 열람할 수 있도록, 다양한 정보를 그래픽 사용자 인터페이스(이하, GUI라 칭함)를 통해 제공한다. Meanwhile, the graphic user interface providing unit 237 provides various information through a graphic user interface (hereinafter referred to as a GUI) so that the quality management operator can view the quality information when necessary.
GUI 제공부(237)에서 제공하는 정보는 NMOS 그래프와 각종 주관적 화질 열화 척도 값, 인코딩된 영상의 VR 정보(제 1 VR 정보), 셋탑박스에서 재생되는 영상의 VR 정보(제 2 VR 정보) 및 VR 정보들 간의 VR_Diff 이미지 등이다.The information provided by the GUI providing unit 237 includes an NMOS graph and various subjective image quality degradation measure values, VR information (first VR information) of an encoded image, VR information (second VR information) of an image reproduced in a set-top box, and VR_Diff image between VR information.
도 30은 본 발명의 일 실시예에 따른 주관적 화질 열화 측정 과정을 도시한 흐름도이다.30 is a flowchart illustrating a subjective quality deterioration measurement process according to an embodiment of the present invention.
참고로, 도 30에 도시된 흐름도는 오프라인 방식에서 품질 관리 서버(230)를 주체로 한 동작의 흐름도이다.For reference, the flowchart illustrated in FIG. 30 is a flowchart of an operation mainly performed by the quality control server 230 in an offline manner.
품질 관리 서버(230)는 미디어 서버(210)로부터 수신한 인코딩된 영상에 대한 제 1 VR 정보 및 셋탑 박스(220)로부터 수신한 디코딩된 재생 영상에 대한 제 2 VR 정보에 기초하여 VR 차이를 산출한다(S3001).The quality management server 230 calculates a VR difference based on the first VR information on the encoded image received from the media server 210 and the second VR information on the decoded playback image received from the set-top box 220. (S3001).
단계 S3001 후, 품질 관리 서버(230)는 VRVV 차이를 이용하여 셋탑 박스(220)에서 재생되는 영상의 화질 추정 값을 계산한다(S3002).After step S3001, the quality management server 230 calculates an image quality estimation value of the image reproduced in the set-top box 220 using the VRVV difference (S3002).
단계 S3002 후, 품질 관리 서버(230)는 화질 추정 값을 이용하여 객관적 열화 구간을 검출한다(S3003).After step S3002, the quality management server 230 detects an objective deterioration interval by using the image quality estimation value (S3003).
이때, 품질 관리 서버(230)는 화질 열화의 시작과 끝이 화질 추정 값의 최대치가 아닌 구간을 객관적 열화 구간으로 검출할 수 있다.In this case, the quality management server 230 may detect a section in which the start and the end of the image quality deterioration is not the maximum value of the image quality estimation value as the objective degradation section.
단계 S3003 후, 품질 관리 서버(230)는 단계 S3003에서 검출된 객관적 열화 구간 별로 주관적 열화량을 계산하고, 주관적 열화량이 미리 정해진 값 이하인 구간을 주관적 임계 열화 구간으로 검출한다(S3004).After step S3003, the quality control server 230 calculates a subjective deterioration amount for each objective deterioration section detected in step S3003, and detects a section in which the subjective deterioration amount is less than or equal to a predetermined value as a subjective critical deterioration section (S3004).
이때, 품질 관리 서버(230)는 화질 열화가 지속되는 시간이 길수록 주관적 화질이 저하되는 현상 및 영상의 시간적 복잡도와 공간적 복잡도에 따라 인식되는 화질이 차이가 나는 현상을 가중치로 반영하여 열화 구간 별 주관적 열화량을 계산한다.At this time, the quality management server 230 reflects the subjective image quality deterioration and the phenomenon that the perceived image quality is different according to the temporal and spatial complexity of the image as a weight, and the subjective quality of each degradation section is subjectively. Calculate the amount of degradation.
단계 S3004 후, 품질 관리 서버(230)는 주관적 임계 열화 구간에 대하여 임계 열화 횟수, 임계 열화율 및 평균 주관적 임계 열화량 중 적어도 하나를 포함하After step S3004, the quality control server 230 includes at least one of the number of times of critical degradation, the threshold degradation rate, and the average subjective threshold degradation amount for the subjective critical degradation interval.
단계 S3005 후, 품질 관리 서버(230)는 주관적 화질 열화 평가를 위한 값을 저장소에 저장하고, 추후, 품질 관리 운영자 단말에게 이를 이용한 다양한 정보들을 제공한다(S3006).After step S3005, the quality management server 230 stores a value for subjective quality deterioration evaluation in the storage, and then provides various information using the same to the quality control operator terminal (S3006).
이하에서는, 본 발명에서 제안된 주관적 화질 열화 측정 방법의 타당성과 성능을 검증하기 위하여 수행한 모의 실험 결과에 대해 설명하고자 한다.Hereinafter, a simulation result performed to verify the validity and performance of the subjective image quality degradation measurement method proposed in the present invention will be described.
본 발명에서 제안된 방법의 타당성과 성능을 검증하기 위하여 모의 실험을 5개의 H.264 스트림이다.In order to verify the feasibility and performance of the proposed method, we simulate five H.264 streams.
표 3 시험 영상
시험 영상 FightScience Great Africa Super Riding KBS Sexy Back
영상 유형 교양 다큐멘터리 취미 생활 TV 프로그램,다큐멘터리 뮤직 비디오
영상 내용 무술에 깃들어 있는 과학 아프리카 초원 생태 슈퍼카 소개 및 시승 장면 KBS 스페셜, 불타는 숭례문 박진영의 Sexy Back 예얍
영상 특징 그래픽+실사 영상 공존, 빠른 움직임 적은 장면 전환, 느린 전역 움직임(global motion) 격렬한 움직임, 카메라 흔들림에 의한 전역 움직임 화재 현장의 복잡한 화면, 카메라 흔들림 빠른 장면 전환, 빠른 움직임
TABLE 3 Test video
Test video Fightscience Great africa Super riding KBS Sexy back
Video type Culture documentary Hobbies TV Shows, Documentaries Music Video
Video content Science in martial arts African grassland ecology Supercar introduction and test scene KBS Special, Burning Sungnyemun Park Jin Young's Sexy Back
Video features Graphic + photorealistic video coexistence, fast movement Low scene transitions, slow global motion Intense movement, global movement due to camera shake Complex scene at fire scene, camera shake Fast transitions, fast movements
각 스트림은 SD급(720x480) 영상으로서 GOP(group of pictures) 크기는 15 프레임, 초당 30 프레임, 2.5 Mbps의 고정 비트율(CBR)로 인코딩되어 있다. 또한, 각 영상은 여러 개의 장면(scene)들로 구성되어 있으며, 실험에서는 이들 영상의 첫 3,000 프레임을 가지고 실시하였다.Each stream is SD (720x480) video and has a GOP (group of pictures) size of 15 frames, 30 frames per second, and a fixed bit rate (CBR) of 2.5 Mbps. In addition, each image consists of several scenes, and the experiment was conducted with the first 3,000 frames of these images.
H.264 디코더는 공개 소프트웨어인 ffmpeg을 사용하였다. VR 정보는 프레임의 정가운데 수직선상의 픽셀들을 추출하여 생성하였으며, 인코딩된 재생 영상의 VR 정보인 는 H.264 스트림을 오류 없이 디코딩한 재생영상으로부터 추출하였다.The H.264 decoder used open source software ffmpeg. The VR information is generated by extracting the pixels on the vertical line in the center of the frame. The VR information of the encoded playback image is extracted from the H.264 stream without error decoding.
이후, H.264 스트림을 1,500 바이트 크기의 패킷으로 나누고, 네트워크 전송 오류를 에뮬레이션(emulation)하기 위해서, 패킷 손실율 0.1%로 무작위(random)로 패킷을 손실시킨 후, 디코더에서 재생된 영상으로부터 추출한 VR 정보를 STB 재생 영상의 VR 정보인
Figure PCTKR2010003673-appb-I000097
로 사용하였다.
After that, the H.264 stream is divided into 1,500 byte packets, and in order to emulate network transmission errors, the packets are randomly lost at a packet loss rate of 0.1%, and then the VRs are extracted from the video played by the decoder. Information in the VR information of the STB playback video
Figure PCTKR2010003673-appb-I000097
Used as.
이후, 성능 검증을 위해 VR 정보를 이용하여 <식 6>으로 계산한 NMOS값이 실제 시청자들의 MOS 값을 얼마나 잘 반영하는가를 고찰하였다.Then, we examined how well the NMOS value calculated by <Equation 6> using VR information reflects the MOS value of actual viewers for performance verification.
주관적 체감 화질 값인 시청자들의 MOS값을 얻기 위해, 시험 시청자 10명에게 원본 H.264 스트림을 디코딩한 영상과 네트워크 전송 오류에 의해 화면이 열화된 5개의 영상을 보여주고, 각 열화 구간
Figure PCTKR2010003673-appb-I000098
별로 체감 열화량을 <표 4>와 같은 기준으로 1~5 사이의 MOS값을 기록하도록 하였다.
In order to obtain the MOS value of the viewers, which is a subjective sensation quality value, 10 test viewers were decoded the original H.264 stream and 5 images whose screens were degraded by network transmission error.
Figure PCTKR2010003673-appb-I000098
In each case, the MOS value between 1 and 5 was recorded based on the criteria as shown in <Table 4>.
표 4 MOS값 산출 기준
MOS 값 열화 인식 정도
5 재생 정지 상태에서도 열화를 전혀 못 느낌
4 정상 재생 상태에서 열화를 거의 못 느낌
3 정상 재생 상태에서 열화가 눈에 약간 거슬림
2 정상 재생 상태에서 열화가 눈에 다소 거슬림
1 정상 재생 상태에서 열화가 심각하게 거슬림
Table 4 MOS value calculation standard
MOS value Degradation awareness degree
5 No deterioration even when playback is stopped
4 Almost no deterioration in normal regeneration
3 Deterioration slightly visible in normal playback
2 Degradation is somewhat noticeable in normal regeneration
One Serious deterioration in normal regeneration
도 31은 본 발명의 일 실시예에 따른 모든 열화 구간에 대해 시청자들이 기록한 MOS 값과, <식 9>, <식 11> 및 <식 13>를 이용하여 계산한 NMOS 값 사이의 상관도를 도시한 도면이다. FIG. 31 illustrates a correlation between MOS values recorded by viewers for all degradation periods and NMOS values calculated using Equations 9, 11, and 13 according to an embodiment of the present invention. One drawing.
도 31을 참조하면, 두 값, 즉 MOS 및 NMOS 값 사이에 비교적 높은 상관성이 존재함을 알 수 있다. 이 결과는 VR 정보를 이용하여 시청자들의 주관적 화질량인 MOS 값을 근사적으로 산출할 수 있음을 의미한다.Referring to FIG. 31, it can be seen that a relatively high correlation exists between two values, that is, MOS and NMOS values. This result means that the MOS value, which is the subjective image quality of viewers, can be approximately calculated using VR information.
한편, <표 5>는 본 발명의 일 실시예에 따른 주관적 열화 척도에 대한 성능 추정 결과를 보여주고 있다. On the other hand, Table 5 shows the performance estimation results for the subjective deterioration measure according to an embodiment of the present invention.
임계 열화 횟수는 각 시험 영상을 정상 속도로 재생할 때 시청자의 눈으로 인지되는 열화가 몇 번이나 발생했는지 횟수를 측정한 값으로서, 시청자가 네트워크 전송 오류에 의해 화면이 열화되었다고 느낀 횟수는 <식 9>의 NMOS 값으로 얻은 결과와 상당히 일치함을 알 수 있다.The threshold deterioration count is a measure of the number of times the deterioration perceived by the viewer's eyes when each test image is played at a normal speed. The number of times that the viewer feels that the screen deteriorates due to a network transmission error is expressed by <Equation 9 It can be seen that the results are in good agreement with the NMOS value of
실험에서는 열화 구간의 NMOS 값과 MOS 값이 평균 3.5 이하일 때 임계 열화가 발생한다고 가정하였다. 임계 열화율도 두 값에 의한 결과가 매우 비슷하며, 평균 임계 열화량도 NMOS가 MOS를 상당히 정확하게 추정해냄을 알 수 있다.In the experiment, it is assumed that critical degradation occurs when the average NMOS value and MOS value of the degradation interval are 3.5 or less. The critical degradation rate is very similar to the result of the two values, and the average critical degradation amount also shows that the NMOS accurately estimates the MOS.
표 5 주관적 화질 열화 추정 성능
시험영상 Fight Science Great Africa Super Riding KBS Sexy Back
구분 MOS NMOS MOS NMOS MOS NMOS MOS NMOS MOS NMOS
임계열화횟수Kscd(회) 17 16 12 13 16 16 17 17 13 11
임계열화율 ρscd(%) 4.83 4.43 4.0 4.2 5.1 5.1 5.3 4.93 3.77 3.8
평균임계열화량(NMOSavg) 2.49 2.46 2.97 3.0 2.8 2.6 2.24 2.45 2.38 2.38
Table 5 Subjective Quality Degradation Estimation Performance
Test video Fight science Great africa Super riding KBS Sexy back
division MOS NMOS MOS NMOS MOS NMOS MOS NMOS MOS NMOS
Critical degradation count K scd (times) 17 16 12 13 16 16 17 17 13 11
Critical degradation rate ρ scd (%) 4.83 4.43 4.0 4.2 5.1 5.1 5.3 4.93 3.77 3.8
Average critical degradation (NMOS avg ) 2.49 2.46 2.97 3.0 2.8 2.6 2.24 2.45 2.38 2.38
상기 표의 구분 항목에서 MOS는 시청자들이 주관적으로 관찰한 결과를, NMOS는 <식 9>에 의해 계산된 결과를 의미함.In the category of the above table, MOS means subjective observations of the viewers, and NMOS means the result calculated by <Equation 9>.
이상의 주관적 화질 척도는 객관적 화질 척도와 직접 눈으로 관찰할 수 있는 VR 이미지 정보들을 함께 이용하여 네트워크 전송 과정에서 발생한 오류에 의해 발생되는 STB 재생 영상의 화질 열화량을 VR 정보만 가지고도 충분히 근사적으로 측정할 수 있기 때문에 계산 자원이 부족한 STB 환경에서 개별 시청자들의 체감 화질을 모니터링하는데 효과적이다.The subjective image quality scale above is combined with the objective image quality scale and the direct visual observation of VR image information to sufficiently approximate the amount of image quality deterioration of the STB playback image caused by the error occurred during network transmission. Because it can measure, it is effective for monitoring individual viewer's sense of quality in STB environment where computing resources are scarce.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.
예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

Claims (27)

  1. 영상 품질을 모니터링하는 방법에 있어서,In the method for monitoring the image quality,
    (a) 제 1 서버로부터, 인코딩된 영상의 제 1 비주얼 리듬 정보를 수신하는 단계,(a) receiving first visual rhythm information of the encoded image from the first server,
    (b) 상기 인코딩된 영상을 네트워크를 통해 수신하여 디코딩한 재생 영상에 대하여 제 2 비주얼 리듬 정보를 추출하는 단계,(b) extracting second visual rhythm information with respect to the reproduced video obtained by receiving the encoded video over a network;
    (c) 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보에 기초하여, 비주얼 리듬 차이를 산출하는 단계 및(c) calculating a visual rhythm difference based on the first visual rhythm information and the second visual rhythm information; and
    (d) 상기 산출된 비주얼 리듬 차이를 제 2 서버로 전송하는 단계(d) transmitting the calculated visual rhythm difference to a second server
    를 포함하되,Including,
    상기 제 2 서버는 상기 비주얼 리듬 차이를 이용하여 상기 재생 영상에 대한 화질 열화를 측정하는, 영상 품질 열화 모니터링 방법.And the second server measures image quality deterioration of the reproduced image using the visual rhythm difference.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보는 2차원 영상 프레임의 픽셀들을 부분적으로 샘플링하여 1차원 정보로 구성하고, 시간축으로 연속적인 영상 프레임에 대해 동일한 위치에서 픽셀을 샘플링하여 3차원 영상 정보를 2차원 정보로 투영(projection)한 것인, 영상 품질 열화 모니터링 방법.The first visual rhythm information and the second visual rhythm information are composed of one-dimensional information by partially sampling pixels of a two-dimensional image frame, and sampling three-dimensional images by sampling pixels at the same position for successive image frames on a time axis. The image quality degradation monitoring method of projecting the information to two-dimensional information.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 부분적으로 샘플링된 픽셀들은 상기 2차원 영상 프레임의 수직, 대각선 및 수평 방향 중 적어도 하나에 위치하는 것인, 영상 품질 열화 모니터링 방법.And wherein the partially sampled pixels are located in at least one of the vertical, diagonal, and horizontal directions of the two-dimensional image frame.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 제 2 서버는 상기 비주얼 리듬 차이를 이용하여 상기 재생 영상의 재생 화질 추정 값을 계산하고, 상기 재생 영상의 열화 횟수, 임계 열화 회수, 임계 열화율, 평균 임계 열화량 및 평균 열화량 중 적어도 하나를 포함하는 객관적 화질 열화 척도를 계산하는 영상 품질 열화 모니터링 방법.The second server calculates a reproduction quality estimation value of the reproduced image by using the visual rhythm difference, and at least one of the number of degradations, the number of threshold degradations, a threshold degradation rate, an average threshold degradation amount, and an average degradation amount of the playback image. Image quality degradation monitoring method for calculating an objective quality degradation measure including.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 (a) 단계에서 수신한 상기 제 1 비주얼 리듬 정보 및 제 2 비주얼 리듬 정보는 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 포함하는 것인, 영상 품질 열화 모니터링 방법.The first visual rhythm information and the second visual rhythm information received in step (a) includes a presentation time stamp (PTS) value, which is time information, and a program ID, which is an identifier for identifying content. Way.
  6. 제 5 항에 있어서,The method of claim 5,
    상기 (c) 단계는 Step (c) is
    (c-1) 상기 PTS 값 및 상기 프로그램 아이디에 기초하여, 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보를 동기화하는 단계 및(c-1) synchronizing the first visual rhythm information and the second visual rhythm information based on the PTS value and the program ID; and
    (c-2) 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보의 차를 이용하여 상기 비주얼 리듬 차이를 산출하는 단계(c-2) calculating the visual rhythm difference by using the difference between the first visual rhythm information and the second visual rhythm information
    를 포함하는, 영상 품질 열화 모니터링 방법.Image quality degradation monitoring method comprising a.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보는 시간적 서브 샘플링에 의한 감축 방법, 공간적 서브 샘플링에 의한 감축 방법, 무손실 압축 방법에 의한 감축 방법, RTP 패킷 손실 검출에 의한 추출 방법 및 비트 스트림 에러 검출에 의한 추출 방법 중 적어도 하나를 사용하여 압축되는 것인, 영상 품질 열화 모니터링 방법. The first visual rhythm information and the second visual rhythm information are reduced by temporal subsampling, reduced by spatial subsampling, reduced by lossless compression, extracted by RTP packet loss, and bitstream error. And decompression using at least one of the extraction methods by detection.
  8. 영상 품질을 모니터링하는 방법에 있어서,In the method for monitoring the image quality,
    (a) 미디어 서버로부터, 인코딩된 영상에 대한 제 1 비주얼 리듬 정보를 수신하는 단계,(a) receiving from the media server first visual rhythm information about the encoded image,
    (b) 셋탑 박스로부터, 디코딩된 재생 영상에 대한 제 2 비주얼 리듬 정보를 수신하는 단계,(b) receiving, from the set top box, second visual rhythm information about the decoded playback image,
    (c) 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보에 기초하여, 비주얼 리듬 차이를 산출하는 단계 및(c) calculating a visual rhythm difference based on the first visual rhythm information and the second visual rhythm information; and
    (d) 상기 비주얼 리듬 차이를 이용하여 상기 재생 영상에 대한 화질 열화를 측정하는 단계(d) measuring image quality deterioration of the reproduced image using the visual rhythm difference
    를 포함하는, 영상 품질 열화 모니터링 방법.Image quality degradation monitoring method comprising a.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 (d) 단계는Step (d)
    (d-1) 상기 재생 영상의 화질 추정 값을 계산하는 단계(d-1) calculating an image quality estimation value of the playback image
    를 포함하되, 상기 재생 영상의 화질 추정 값은 상기 인코딩된 영상을 기준으로 하여 상기 재생 영상의 화질을 비주얼 리듬 정보로 표현한 것인, 영상 품질 열화 모니터링 방법.Including, wherein the image quality estimation value of the playback image is the image quality degradation monitoring method of expressing the image quality of the playback image based on the encoded image as visual rhythm information.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 (d) 단계는Step (d)
    (d-2) 상기 재생 영상의 열화 횟수, 임계 열화 횟수, 임계 열화율, 평균 임계 열화량 및 평균 열화량 중 적어도 하나를 계산하는 단계(d-2) calculating at least one of the number of degradations, the number of threshold degradations, a threshold degradation rate, an average threshold degradation amount, and an average degradation amount of the reproduced video;
    를 포함하는, 영상 품질 열화 모니터링 방법. Image quality degradation monitoring method comprising a.
  11. 영상 품질을 모니터링하는 장치에 있어서,In the device for monitoring the image quality,
    셋탑박스로부터, 인코딩된 영상에 대한 비주얼 리듬 정보인 제 1 비주얼 리듬 정보와 상기 셋탑박스에서 재생되는 영상에 대한 비주얼 리듬 정보인 제 2 비주얼 리듬 정보의 차를 이용한 비주얼 리듬 차이를 수신하는 수신부A receiver for receiving a visual rhythm difference using a difference between first visual rhythm information, which is visual rhythm information on the encoded image, and second visual rhythm information, which is visual rhythm information on the image reproduced in the set-top box, from the set-top box.
    상기 비주얼 리듬 차이 영상을 이용하여 상기 셋탑박스에서 재생되는 영상의 화질 추정 값을 계산하는 화질 추정 값 계산부,An image quality estimation value calculator configured to calculate an image quality estimation value of an image reproduced in the set-top box using the visual rhythm difference image;
    상기 재생 영상의 열화 횟수, 임계 열화 횟수, 임계 열화율, 평균 임계 열화량 및 평균 열화량 중 적어도 하나를 포함하는 객관적 화질 열화 척도를 계산하는 객관적 화질 열화 척도 계산부 및An objective image quality degradation scale calculation unit configured to calculate an objective image quality degradation scale including at least one of a deterioration number, a deterioration number, a critical deterioration rate, an average critical deterioration amount, and an average deterioration amount of the reproduced image;
    사용자의 요청에 따라, 상기 화질 추정 값 및 상기 객관적 화질 열화 척도에 기초한 영상 품질 모니터링 정보를 제공하는 그래픽 유저 인터페이스Graphical user interface for providing image quality monitoring information based on the image quality estimation value and the objective quality deterioration measure according to a user's request
    를 포함하는, 영상 품질 열화 모니터링 장치.Image quality degradation monitoring device comprising a.
  12. 제 11 항에 있어서,The method of claim 11,
    상기 영상 품질 모니터링 정보는 상기 화질 추정 값의 그래프, 상기 화질 척도 값, 상기 제 1 비주얼 리듬 정보, 상기 제 2 비주얼 리듬 정보 및 상기 비주얼 리듬 차이 중 적어도 하나를 포함하는 것인, 영상 품질 열화 모니터링 장치.The image quality monitoring information includes at least one of a graph of the image quality estimation value, the image quality measurement value, the first visual rhythm information, the second visual rhythm information, and the visual rhythm difference. .
  13. 제 11 항에 있어서,The method of claim 11,
    상기 수신부는 모니터링 방법에 따라 미디어 서버로부터 상기 제 1 비주얼 리듬 정보를 수신하고, 상기 셋탑박스로부터 상기 제 2 비주얼 리듬 정보를 수신하는, 영상 품질 열화 모니터링 장치.And the receiving unit receives the first visual rhythm information from a media server according to a monitoring method, and receives the second visual rhythm information from the set top box.
  14. 제 13 항에 있어서,The method of claim 13,
    모니터링 방법에 따라, 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보에 기초하여, 비주얼 리듬 차이를 생성하는 비주얼 리듬 차이 산출부According to the monitoring method, a visual rhythm difference calculation unit for generating a visual rhythm difference, based on the first visual rhythm information and the second visual rhythm information
    를 더 포함하는, 영상 품질 열화 모니터링 장치.Further comprising, the image quality degradation monitoring device.
  15. 제 14 항에 있어서,The method of claim 14,
    상기 비주얼 리듬 차이 산출부는 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보에 포함된 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디를 이용하여 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보를 동기화하는, 영상 품질 열화 모니터링 장치.The visual rhythm difference calculating unit uses the first visual rhythm information by using a presentation time stamp (PTS) value, which is time information included in the first visual rhythm information, and the second visual rhythm information, and a program ID that identifies a content. And synchronize the second visual rhythm information.
  16. 제 15 항에 있어서,The method of claim 15,
    상기 비주얼 리듬 차이 산출부는 상기 동기화된 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보의 차를 이용하여 상기 비주얼 리듬 차이를 산출하는, 영상 품질 열화 모니터링 장치.And the visual rhythm difference calculator calculates the visual rhythm difference using the difference between the synchronized first visual rhythm information and the second visual rhythm information.
  17. 영상 품질을 모니터링하는 셋탑박스에 있어서,In the set-top box for monitoring the image quality,
    네트워크를 통해 제 1 서버로부터 수신한 인코딩된 영상을 디코딩하여 재생 영상을 생성하는 비디오 디코더,A video decoder for decoding a encoded image received from a first server through a network to generate a reproduced image;
    상기 재생 영상으로부터 제 2 비주얼 리듬 정보를 추출하는 비주얼 리듬 정보 추출부,A visual rhythm information extraction unit for extracting second visual rhythm information from the reproduced video;
    상기 제 1 서버로부터 수신한 상기 인코딩된 영상에 대한 제 1 비주얼 리듬 정보와 상기 제 2 비주얼 리듬 정보에 기초하여 비주얼 리듬 차이를 산출하는 비주얼 리듬 차이 산출부 및A visual rhythm difference calculator for calculating a visual rhythm difference based on the first visual rhythm information and the second visual rhythm information on the encoded image received from the first server;
    상기 비주얼 리듬 차이를 이용하여 상기 재생 영상에 대하 화질 열화를 측정하는 제 2 서버로 상기 비주얼 리듬 차이를 전송하는 비주얼 리듬 차이 전송부A visual rhythm difference transmitter for transmitting the visual rhythm difference to a second server that measures image quality deterioration for the reproduced image by using the visual rhythm difference.
    를 포함하는, 영상 품질 열화 모니터링 장치Including, image quality degradation monitoring device
  18. 제 17 항에 있어서,The method of claim 17,
    상기 비주얼 리듬 차이 산출부는 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보에 포함된 시간 정보인 PTS(Presentation Time Stamp) 값 및 콘텐츠를 식별하는 식별자인 프로그램 아이디에 기초하여, 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보를 동기화하고, 상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보의 차를 이용하여 상기 비주얼 리듬 차이를 산출하는, 영상 품질 열화 모니터링 장치.The visual rhythm difference calculator is configured to display the first visual rhythm based on a PTS (Presentation Time Stamp) value, which is time information included in the first visual rhythm information, and the second visual rhythm information, and a program ID that identifies a content. Synchronizing information and the second visual rhythm information, and calculating the visual rhythm difference by using a difference between the first visual rhythm information and the second visual rhythm information.
  19. 제 17 항에 있어서,The method of claim 17,
    상기 제 2 서버는 상기 비주얼 리듬 차이를 이용하여 상기 재생 영상의 재생 화질 추정 값을 계산하고, 상기 재생 영상의 열화 횟수, 임계 열화 회수, 임계 열화율, 평균 임계 열화량 및 평균 열화량 중 적어도 하나를 포함하는 객관적 화질 열화 척도를 계산하는 영상 품질 열화 모니터링 장치.The second server calculates a reproduction quality estimation value of the reproduced image by using the visual rhythm difference, and at least one of the number of degradations, the number of threshold degradations, a threshold degradation rate, an average threshold degradation amount, and an average degradation amount of the playback image. Image quality degradation monitoring device for calculating an objective quality degradation measure including.
  20. 제 17 항에 있어서,The method of claim 17,
    상기 제 1 비주얼 리듬 정보 및 상기 제 2 비주얼 리듬 정보는 시간적 서브 샘플링에 의한 감축 방법, 공간적 서브 샘플링에 의한 감축 방법, 무손실 압축 방법에 의한 감축 방법, RTP 패킷 손실 검출에 의한 추출 방법 및 비트 스트림 에러 검출에 의한 추출 방법 중 적어도 하나를 사용하여 압축되는 것인, 영상 품질 열화 모니터링 장치.The first visual rhythm information and the second visual rhythm information are reduced by temporal subsampling, reduced by spatial subsampling, reduced by lossless compression, extracted by RTP packet loss, and bitstream error. The image quality degradation monitoring apparatus, which is compressed using at least one of the extraction method by detection.
  21. 영상 품질을 모니터링하는 장치에 있어서,In the device for monitoring the image quality,
    기준 영상에 대한 제 1 비주얼 리듬 정보 및 재생 영상에 대한 제 2 비주얼 리듬 정보의 차이에 의해 산출된 비주얼 리듬 차이를 이용하여 상기 재생 영상의 화질 추정 값을 계산하는 재생 화질 추정 값 계산부,A playback image quality estimation value calculator configured to calculate an image quality estimation value of the playback video using the visual rhythm difference calculated by the difference between the first visual rhythm information on the reference video and the second visual rhythm information on the playback video;
    상기 재생 영상의 화질 추정 값이 미리 정해진 기준값 미만인 하나 이상의 구간을 각각 객관적 열화 구간으로 검출하는 객관적 열화 구간 검출부 및An objective deterioration interval detection unit for detecting at least one section in which an image quality estimation value of the reproduced image is less than a predetermined reference value, respectively;
    상기 검출된 하나 이상의 객관적 열화 구간 별로, 상기 객관적 열화 구간이 지속된 시간 및 영상의 복잡도를 이용하여 주관적 열화량을 계산하는 주관적 열화 검출부A subjective deterioration detection unit for calculating the subjective deterioration amount by using the time duration of the objective deterioration section and the complexity of the image for each of the detected one or more objective deterioration sections.
    를 포함하는, 영상 품질 열화 모니터링 장치.Image quality degradation monitoring device comprising a.
  22. 제 21 항에 있어서,The method of claim 21,
    상기 기준 영상은 미디어 서버로부터 수신한 인코딩된 영상이며, 상기 재생 영상은 셋탑 박스로부터 수신한 디코딩된 영상인 것인, 영상 품질 열화 모니터링 장치.And the reference image is an encoded image received from a media server, and the reproduced image is a decoded image received from a set-top box.
  23. 제 21 항에 있어서,The method of claim 21,
    상기 영상의 복잡도는 시간적 복잡도와 공간적 복잡도를 포함하는 것인, 영상 품질 열화 모니터링 장치.And the complexity of the image includes temporal complexity and spatial complexity.
  24. 제 21 항에 있어서,The method of claim 21,
    상기 주관적 열화 검출부는 상기 주관적 열화량이 미리 정해진 기준값 이하인 구간을 주관적 임계 열화 구간으로 검출하는, 영상 품질 열화 모니터링 장치.And the subjective degradation detection unit detects a section in which the subjective degradation amount is equal to or less than a predetermined reference value as a subjective critical degradation section.
  25. 제 24 항에 있어서,The method of claim 24,
    상기 주관적 임계 열화 구간에 대하여 임계 열화 횟수, 임계 열화율 및 평균 주관적 임계 열화량 중 적어도 하나를 포함하는 주관적 열화 척도를 계산하는 주관적 열화 척도 계산부A subjective deterioration scale calculation unit for calculating a subjective deterioration scale including at least one of a threshold deterioration number, a threshold deterioration rate, and an average subjective threshold deterioration amount with respect to the subjective critical deterioration interval.
    를 더 포함하는, 영상 품질 열화 모니터링 장치.Further comprising, the image quality degradation monitoring device.
  26. 제 25 항에 있어서,The method of claim 25,
    상기 주관적 열화 척도 계산부는 상기 주관적 임계 열화 구간의 개수를 상기 임계 열화 횟수로 계산하되, 상기 주관적 임계 열화 구간의 개수는 상기 객관적 열화 구간의 개수보다 작거나 동일한 것인, 영상 품질 열화 모니터링 장치.The subjective deterioration scale calculator calculates the number of subjective critical deterioration intervals as the number of critical deterioration, wherein the number of the subjective critical deterioration intervals is less than or equal to the number of the objective deterioration intervals.
  27. 제 25 항에 있어서,The method of claim 25,
    상기 주관적 열화 척도 계산부는 전체 비디오 시퀀스 시간에서 모든 주관적 임계 열화 구간들이 차지하는 시간의 비율로 상기 임계 열화율을 계산하는, 영상 품질 열화 모니터링 장치.And the subjective deterioration scale calculation unit calculates the threshold deterioration rate as a ratio of time occupied by all subjective critical deterioration intervals in the entire video sequence time.
PCT/KR2010/003673 2009-06-08 2010-06-08 Method and apparatus for monitoring video quality WO2010143870A2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2009-0050472 2009-06-08
KR1020090050472A KR20100131735A (en) 2009-06-08 2009-06-08 A video quality monitoring method and apparatus
KR1020090107670A KR101199470B1 (en) 2009-11-09 2009-11-09 Apparatus for measurement of subjective video quality degradation
KR10-2009-0107670 2009-11-09

Publications (3)

Publication Number Publication Date
WO2010143870A2 true WO2010143870A2 (en) 2010-12-16
WO2010143870A3 WO2010143870A3 (en) 2011-03-24
WO2010143870A9 WO2010143870A9 (en) 2011-09-29

Family

ID=43309354

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/003673 WO2010143870A2 (en) 2009-06-08 2010-06-08 Method and apparatus for monitoring video quality

Country Status (1)

Country Link
WO (1) WO2010143870A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112019851A (en) * 2020-08-31 2020-12-01 佛山市南海区广工大数控装备协同创新研究院 Lens transformation detection method based on visual rhythm
CN112312127A (en) * 2020-10-30 2021-02-02 中移(杭州)信息技术有限公司 Imaging detection method, imaging detection device, electronic equipment, imaging detection system and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285615A (en) * 2005-03-31 2006-10-19 Sony Corp Image comparison device and method, image search device and method, and program and recording medium
KR100690784B1 (en) * 2005-02-22 2007-03-09 엘지전자 주식회사 Compressed video quality testing method for picture quality estimation
KR20080065155A (en) * 2007-01-08 2008-07-11 삼성전자주식회사 Device of processing image and system thereof
KR20080071374A (en) * 2007-01-30 2008-08-04 삼성전자주식회사 Method and apparatus for detecting picture quality of compressed picture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100690784B1 (en) * 2005-02-22 2007-03-09 엘지전자 주식회사 Compressed video quality testing method for picture quality estimation
JP2006285615A (en) * 2005-03-31 2006-10-19 Sony Corp Image comparison device and method, image search device and method, and program and recording medium
KR20080065155A (en) * 2007-01-08 2008-07-11 삼성전자주식회사 Device of processing image and system thereof
KR20080071374A (en) * 2007-01-30 2008-08-04 삼성전자주식회사 Method and apparatus for detecting picture quality of compressed picture

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112019851A (en) * 2020-08-31 2020-12-01 佛山市南海区广工大数控装备协同创新研究院 Lens transformation detection method based on visual rhythm
CN112312127A (en) * 2020-10-30 2021-02-02 中移(杭州)信息技术有限公司 Imaging detection method, imaging detection device, electronic equipment, imaging detection system and storage medium
CN112312127B (en) * 2020-10-30 2023-07-21 中移(杭州)信息技术有限公司 Imaging detection method, imaging detection device, electronic equipment, imaging detection system and storage medium

Also Published As

Publication number Publication date
WO2010143870A3 (en) 2011-03-24
WO2010143870A9 (en) 2011-09-29

Similar Documents

Publication Publication Date Title
WO2015142016A1 (en) Method for controlling content playback and content playback apparatus for executing same
WO2014007571A1 (en) Method and apparatus for processing digital service signals
WO2015199478A1 (en) Video encoding and decoding methods and apparatuses for padding area of image
EP3868096A1 (en) Artificial intelligence encoding and artificial intelligence decoding methods and apparatuses using deep neural network
WO2021261830A1 (en) Video quality assessment method and apparatus
WO2013062391A1 (en) Method for inter prediction and device therefor, and method for motion compensation and device therefor
WO2013069990A1 (en) Method and device for determining motion vector for video coding or video decoding
WO2013069958A1 (en) Inverse transformation method for clipping data of inverse quantization, inverse transformation during video decoding step, and device therefor
WO2014007518A1 (en) Method and apparatus for encoding video and method and apparatus for decoding video determining inter-prediction reference picture list depending on block size
WO2021177652A1 (en) Image encoding/decoding method and device for performing feature quantization/de-quantization, and recording medium for storing bitstream
WO2013157783A1 (en) Inter prediction method in which reference picture lists can be changed and apparatus for same
WO2018139884A1 (en) Method for processing vr audio and corresponding equipment
WO2019027286A1 (en) Method and apparatus for processing video signal using affine prediction
WO2021172834A1 (en) Apparatus and method for performing artificial intelligence encoding and artificial intelligence decoding on image by using pre-processing
WO2018004317A1 (en) Image bitstream generation method and device for high resolution image streaming
WO2014107069A1 (en) Image encoding/decoding method and device
WO2019017579A1 (en) Display device, display method and display system
WO2020080709A1 (en) Artificial intelligence encoding and artificial intelligence decoding methods and apparatuses using deep neural network
WO2019031735A1 (en) Image processing apparatus, image processing method, and image display system
WO2010143870A2 (en) Method and apparatus for monitoring video quality
WO2013069993A1 (en) Method for determining quantization parameters on basis of size of conversion block, and device for same
WO2010019002A2 (en) Method for generating a thumbnail image in an image frame of the h.264 standard
WO2014163464A1 (en) Method for determining whether or not present image is reference image, and apparatus therefor
WO2016182152A1 (en) Image encoding method and device for sample value compensation and image decoding method and device for sample value compensation
WO2022097921A1 (en) Ai encoding apparatus and method and ai decoding apparatus and method for region of object of interest in image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10786353

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10786353

Country of ref document: EP

Kind code of ref document: A2