EP2510695A1 - Procede d'estimation de la qualite video a une resolution quelconque - Google Patents

Procede d'estimation de la qualite video a une resolution quelconque

Info

Publication number
EP2510695A1
EP2510695A1 EP10787492A EP10787492A EP2510695A1 EP 2510695 A1 EP2510695 A1 EP 2510695A1 EP 10787492 A EP10787492 A EP 10787492A EP 10787492 A EP10787492 A EP 10787492A EP 2510695 A1 EP2510695 A1 EP 2510695A1
Authority
EP
European Patent Office
Prior art keywords
sequence
resolution
spatial
temporal
filtered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP10787492A
Other languages
German (de)
English (en)
Inventor
Catherine Lamy-Bergot
Sébastien MARCILLE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Publication of EP2510695A1 publication Critical patent/EP2510695A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain

Definitions

  • the present invention relates to a method for estimating the quality of a video sequence at different spatial or temporal resolutions, this video sequence being transmitted through a constrained environment.
  • the invention applies in particular to a video sequence compressed by a source encoder having the ability to produce several nested subsets each corresponding to a resolution, temporal or spatial potentially different from the resolution of the initial sequence. This is called granularity or "scalability".
  • the invention also applies to the field of broadcasting video signals through non-perfect transmission channels, that is to say subjected to transmission losses or errors and / or to a variable and constrained available bit rate. .
  • the evaluation of the perceived user quality of a compressed video sequence is of particular interest when the source encoder offers the possibility of having a plurality of different spatial and temporal resolutions, also called granularity layers, within the same compressed stream.
  • granularity layers In a context of broadcasting such a video stream through a non-perfect environment, it is important to be able to evaluate the quality of each resolution independently of the others and thus to measure the impact of the disturbances generated by the transmission on each layer of granularity. .
  • the interest also lies in the comparison of perceived quality between video sequences that have different resolutions. Perceptual quality estimation can thus be used to dynamically adapt the compression parameters in order to better adapt the flow transmitted to the constraints of the transmission channel and the needs of the users.
  • a second type of solution concerns objective methods. These solutions are most often based on an error measurement between the pixels of the initial sequence and the reconstructed pixels, such as the measurement of distortion known as the PSNR ("Peak Signal to Noise Ratio"). This solution has insufficient results in terms of correlation with the subjective results. Moreover solutions based on the measurement of erroneous pixels are not suitable when it is desired to compare two sequences with different resolutions since from a mathematical point of view these sequences have a different content whereas from a point of view perceptual the information they contain is identical. Other solutions, finally, are based on a modeling of the human vision system (“Human Vision System”) which presents better results but is not adapted to the constraints related to temporal / spatial granuiarite.
  • Human Vision System Human Vision System
  • One of the objectives of the present invention is to provide a unified solution for evaluation and comparison of perceived quality for streams transmitted at different spatial or temporal resolutions and which moreover are subject to errors or losses.
  • This objective is all the more important in the case of a compressed stream offering granularity and for which the choice of transmission and / or decoding of a particular resolution among several available arises.
  • Another goal of the The present invention thus consists in proposing a solution making it possible to choose among several possible resolutions the best in terms of visual perception.
  • the present invention also aims to allow, in the case of a compressed stream with granularity, the automatic determination of the best choice of decoding among the available resolution layers.
  • the invention proposes a method for estimating and comparing the perceived quality applicable to a compressed video stream composed of several nested sub-sets each representing a different resolution layer.
  • the invention uses, in addition, an objective metric based not on the measurement of erroneous pixels but which takes into account the visual structure of the content of the video sequence.
  • the invention particularly relates to a method for estimating the perceived quality of a video sequence represented firstly at a maximum spatial resolution and temporal resolution and secondly at a spatial resolution and / or a temporal resolution. lower, said method being characterized in that it comprises at least a first step of filtering said video sequence represented at the lower temporal resolution and / or the lower spatial resolution in order to produce a filtered video sequence represented at the maximum spatial and temporal resolutions a second step of determining a reference sequence taken equal at most to the content of said video sequence represented at the maximum spatial and temporal resolutions and a third step of calculating a perceived quality metric of said video sequence represented at the resolution lower temporal and / or spatial resolution lower level with the following substeps:
  • M (x 9 ) l (x, y) a .c (x, yy.s (x, y) 7 , where ⁇ , ⁇ , ⁇ SO nt are strictly positive integers.
  • said filtering step is performed by spatial and / or temporal interpolation.
  • said method comprises an additional step of comparing the perceived quality metrics of said video sequence represented at said maximum spatial and temporal resolution and to a plurality of spatial and / or temporal resolutions below and election of the resolution with the highest metric.
  • said reference sequence is composed of a subset of the content of said video sequence represented at the maximum spatial and temporal resolutions and that the steps of calculating the perceived quality metrics are applied to the same subset of said filtered video sequence.
  • said video sequence is compressed so as to produce a single stream comprising a plurality of nested subsets each corresponding to a different pair of spatial and temporal resolutions.
  • the invention also relates to a use of the method above characterized in that said compressed video sequence is transmitted through a heterogeneous network and is received by a receiver which decodes and displays said video sequence at the resolution pair. spatial and temporal presenting the best metrics of perceived quality.
  • FIG. 1 a block diagram of the steps for obtaining the quality estimation metric used by the method according to the invention
  • FIG. 2 an illustration of the principle of temporal and spatial granularity of a compressed video stream
  • FIGS. 3a and 3b two examples of result curves representing the estimated quality for a mono-resolution video sequence transmitted on error or loss channels
  • FIGS. 4a and 4b two examples of curves representing the estimated quality for a sequence comprising three resolution layers and transmitted through a loss channel
  • FIG. 5 is a diagram representing the estimate of the quality perceived using the method according to the invention as a function of the useful bit rate of the video sequence.
  • FIG. 1 schematizes the calculation steps performed to estimate the perceived quality between a reference image x 101 and the same image. subject to distortion due to lossy compression or transmission on a disturbed channel. Said images are extracted from a video sequence. The metric used is based on a calculation evaluating the luminances and contrasts of the images of the reference sequence and the distorted sequence. An estimate of the content structure of the two sequences is also developed in order to take into account the information available in the sequence globally without being limited to the only information contained in an isolated pixel. A measurement of the luminance 103 of the two images is performed, for example by calculating an estimate of the average intensity.
  • the result of this measurement is then subtracted from each of the images to produce a new image signal on which a contrast measurement 105 is performed, for example by calculating the standard deviation of said signal.
  • a normalization 106 is performed by dividing said signal by the measurement of the contrast 105 performed. The new signal resulting from this normalization corresponds to an estimate of the structure of each image.
  • the respective results of the three luminance measurements 103, contrast 105 as well as the normalized signal representing the structure of the image are provided at the input of three comparison modules.
  • a first module 107 compares the luminances of the two image signals 101, 102.
  • a second module 108 compares the contrasts and a third module 109 performs the comparison of the structures.
  • a combination system 110 produced from the three comparisons, a metric of the perceived quality of the image 102 and vis-à-vis the reference image 101 x. This metric is formulated using the following relation:
  • S (x, y) represents the comparison of the structures of the signals x and y, ⁇ the coefficients ⁇ , ⁇ , ⁇ are strictly positive integers determined by simulation.
  • the luminance comparison function is for example given by the following relation:
  • ⁇ ⁇ and ⁇ ⁇ are the mean intensities of the x and y signals
  • Ci is a constant determined by simulation.
  • the contrast comparison function is for example given by the following relation:
  • ⁇ ⁇ and ⁇ jy are the standard deviations of the signal intensities x and y
  • C 2 is a constant determined by simulation.
  • a xy is the correlation coefficient between the intensities of the signals x and y
  • C 3 is a constant determined by simulation.
  • Figure 2 schematizes an example of temporal and spatial granularity of a compressed video stream.
  • a video encoder 200 for example an encoder respecting the H.264 / SVC video compression standard as defined in the reference "ITU-T Rec. H.264
  • the first subset contains the information relating to the couple of spatial and temporal resolutions weakest, this first subset is commonly called base layer, or "base layer" in English.
  • additional level resolution layer i i being a strictly positive integer, or "enhancement layer i" in English.
  • FIG 2 is shown an example of the principle of granularity.
  • the base layer 204 corresponds to the original video sequence at the standard spatial resolution QCIF ("Quarter Common Intermediate Format") and the time resolution of 15 Hertz.
  • a first layer of additional resolution of level 1 203 is obtained by adding the information necessary to pass from the spatial resolution QCIF to the spatial resolution CIF.
  • a second additional level-2 resolution layer 202 is obtained by adding to the two previous layers the necessary information to change from the 15 Hz temporal resolution to the 30 Hz temporal resolution.
  • the resolution layers are hierarchized so that an increase in either the time resolution or the spatial resolution or both at the same time is performed between a layer of level i and a layer of level i 1. It will be noted that it is also possible to prioritize according to the quality with the same spatial and temporal resolution.
  • Such a compressed stream having granularity can therefore be decoded at several different resolutions. Since each subset is independent of the others, it can also be transmitted on different propagation channels and thus be subject to losses and / or errors with different statistics.
  • the problem then arises of the estimation of the perceived quality of a video sequence at a minimum resolution, for example the QCIF 15Hz resolution, and especially the comparison of this quality with that perceived for the same video sequence at the same time. resolution maximum, for example the resolution F F 30 Hz.
  • the conventional metrics performing a comparison pixel by pixel can not work for video sequences that do not have the same number of frames per second nor the same number of pixels in an image.
  • the metric presented in support of Figure 1 uses as input signals two still images having the same spatial resolution.
  • the method according to the invention then consists in adapting the previously introduced metric to allow a comparison of two video sequences at different resolutions.
  • the reference video sequence is that which has the highest spatio-temporal resolution, it is the sequence 201 in the CIF 30 Hz format which is compressed by the coder 200.
  • This sequence 201 is hereinafter referred to as a reference sequence. This is the original video sequence before compression.
  • the reference sequence may consist of one or more zones of one or more images of the sequence.
  • Such a variant is of interest when the reference sequence is not known and it must be, for example, transmitted through a channel having a limited flow.
  • a reduced version of the reference sequence can be used to perform the quality measurements.
  • this sequence 204 In order to measure the perceived quality of the 204 sequence in the QCIF 15 Hz format relative to the reference sequence, this sequence 204 must be transformed to bring it back to a spatio-temporal resolution comparable to that of the reference sequence.
  • the filtering step according to the invention consists of two sub-steps.
  • a first sub-stage of spatial interpolation which makes it possible to produce, from the QCIF spatial resolution, the same sequence at a spatial resolution CIF.
  • the new pixels needed are generated by interpolation of their nearest neighbors.
  • the new sequence 204a is then obtained.
  • a second sub-step makes it possible to produce, from the 15 Hz temporal resolution, a sequence at the 30 Hz temporal resolution.
  • the result of this second step produces a video sequence 204b that can be compared to the reference sequence 201.
  • the method according to the invention then consists in applying the metric calculation step described in support of FIG. 1 to obtain an objective comparison of the perceived quality between the sequence 204 and the reference sequence.
  • the estimation of the structure of the content of the sequence makes it possible to obtain a measure of perceived quality that is much more correlated with a subjective result than if a measurement based on the comparison of the pixels was used.
  • the filtering steps described introduce a distortion in the filtered sequence 204b which, although having a negligible impact for the human eye, would be detected as errors by a PSNR type measurement.
  • the use of a PSNR type metric applied to a spatially or temporally filtered sequence does not make it possible to obtain an estimate of the visual quality perceived by the human eye.
  • the present invention aims in particular to eliminate this disadvantage.
  • FIGS. 3a and 3b give as an indication the video quality estimation values according to the invention obtained for video streams compressed at a single resolution and transmitted through an error channel (FIG. 3a) or a channel subjected to packet losses (Figure 3b).
  • FIG. 3a shows the evolution of the estimate of the quality 303 in a plane of abscissa 302 representing different values of signal to noise ratio and an ordinate 301 representing the values of the quality estimation metric between 0 and 1.
  • the perceived quality estimate tends to a threshold value when the signal-to-noise ratio is low (strong perturbations) and inversely tends to 1 when the signal-to-noise ratio is high.
  • FIG. 3b shows the quality estimate 305 in abscissa 304 showing different packet error rate values.
  • the quality estimate 305 decreases as the packet loss rate increases.
  • a packet here corresponds to a logical unit of the compressed video stream.
  • FIGS. 4a and 4b show an example of values of the estimate of the perceived quality of a video sequence at different spatial or temporal resolutions and as a function of the packet loss rate 304. The three following resolutions are evaluated, as example.
  • the curves 403, 406 represent the perceived quality for a given sequence at a QCIF spatial resolution and a time resolution of 15 Hertz.
  • Curves 402, 407 are obtained for a sequence at a spatial resolution CIF and a temporal resolution of 15 Hertz.
  • the curves 401, 405 represent the quality perceived for the higher resolution sequence, that is to say a CIF spatial resolution and a 30 Hertz temporal resolution.
  • the quality curve 404 corresponding to the intermediate resolution ⁇ CIF 15 Hz ⁇ for a sequence compressed but not transmitted through a loss channel is also represented.
  • the curves of Figures 4a and 4b differ in the choice of quantization step selected to compress each resolution.
  • the quantization pitches chosen to respectively compress the base layer and the two upper resolution layers are equal to ⁇ 36,26,32 ⁇ .
  • these same quantization steps are taken equal to ⁇ 32,32,32 ⁇ .
  • the video sequences are compressed using a video coder compatible with the H.264 / SVC standard, it being understood that these results are given for illustrative purposes and that the method according to the invention is in no way limited to a standard of video compression in particular but applies for any compression method for generating a stream having a plurality of spatial and / or temporal granularity layers.
  • the estimate of the quality perceived for the intermediate resolution layer 402, 407 may be either higher or lower than that of the base layer 403,406, for a given packet loss rate.
  • the higher resolution therefore does not always result in the best perceived quality, which justifies the need for a method of evaluating and comparing the quality of a video sequence at different resolutions.
  • FIG. 5 illustrates an application of the method according to the invention making it possible to validate the choice of quantization steps used during the step of compressing a stream with several levels of resolution.
  • the graph of FIG. 5 represents the quality scores estimated from the method according to the invention for the three resolutions previously introduced in support of FIG. 4.
  • the estimated qualities are represented as a function of the useful bit rate of the compressed video stream and each point corresponds to a given quantization step for a resolution layer.
  • the curve 501 corresponds to the base layer ⁇ QCIF, 15 Hz), denoted BL, compressed with different steps of quantification and then filtered by the method according to the invention to obtain a sequence at the highest resolution (CIF, 30 Hz).
  • Curve 502 corresponds to the intermediate layer (CIF, 15 Hz), denoted EL1, obtained from the compressed base layer with a quantization step equal to 32 to which the additional information has been added to raise the spatial resolution, this information being compressed with different quantization steps which correspond to the different points of the curve 502.
  • the resolution (CIF, 15 Hz) is also filtered by the method according to the invention to obtain a sequence at the highest resolution.
  • the set of points 503 corresponds to the highest resolution (CIF, 30 Hz).
  • the graph in FIG. 5 notably makes it possible to verify that the quantization step triplet assigned to the three resolution layers ⁇ 32, 20, 26 ⁇ gives a better estimate of the perceived quality than the triplet ⁇ 32,26,20 ⁇ . This observation makes it possible to validate the compression choices relating to each resolution layer.
  • the perceived quality estimate for the intermediate resolution layer 502 ⁇ C1 F, 15 Hz) with the quantization steps (32, 32) is better than that of the maximum resolution layer 503. with quantization steps ⁇ 32,38,38 ⁇ for very close rates.
  • the method according to the invention makes it possible to determine that a lower resolution may ultimately result in higher perceived quality than that obtained with the highest resolution and the same useful rate.
  • One possible application of the method according to the invention concerns the evaluation of the quality metrics relating to each level of resolution in order to validate the compression choices of a stream having temporal or spatial granularity.
  • the quantization step parameter can be determined according to these metrics.
  • a possible decision criterion is to set a minimum range of values for the quality estimate of each resolution layer. For example, a minimum range of 0.1 must be respected between each layer of spatial resolution. Similarly, a minimum range of 0.05 can be forced between each time resolution layer.
  • Another possible application concerns the broadcasting of compressed video streams through a heterogeneous network and intended for several users.
  • an evaluation of the quality metric can be performed for each available resolution layer within the stream and only the best resolution in terms of perceived quality is then decoded and displayed.
  • a heterogeneous network most often includes intermediate nodes that can implement a transcoding function of multimedia streams that pass through them.
  • Transcoding consists of adapting the flow to the constraints of the transmission medium or media, in particular in terms of available throughput but also of necessary protection of the flow vis-à-vis the disturbances related to the transmission channel.
  • a flow with spatial / temporal granularity has the advantage of nesting several hierarchical subsets according to the level of resolution required.
  • Such a stream therefore has a useful rate adaptable to the constraints of the transmission channel.
  • the evaluation of the quality metrics of each resolution layer makes it possible to evaluate, a priori, the degradations of the sequence in the presence of losses or errors for each resolution and thus makes it possible to possibly eliminate the resolution level or levels. the highest to limit the usable rate compared to the perceived quality which, as illustrated in Figures 4a and 4b is not necessarily increasing with the level of resolution.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)

Abstract

Procédé d'estimation de la qualité perçue d'une séquence vidéo représentée d'une part à une résolution spatiale et une résolution temporelle maximales et d'autre part à une résolution spatiale et/ou une résolution temporelle inférieure, ledit procédé étant caractérisé en ce qu'il comporte au moins une première étape de filtrage de ladite séquence vidéo représentée à la résolution temporelle inférieure et/ou la résolution spatiale inférieure afin de produire une séquence vidéo filtrée représentée aux résolutions spatiale et temporelle maximales, une deuxième étape de détermination d'une séquence de référence prise égale au plus au contenu de ladite séquence vidéo représentée aux résolutions spatiale et temporelle maximums et une troisième étape de calcul d'une métrique de qualité perçue de ladite séquence vidéo représentée à la résolution temporelle inférieure et/ou la résolution spatiale inférieure.

Description

PROCEDE D'ESTIMATION DE LA QUALITE VIDEO A UNE RESOLUTION
QUELCONQUE
La présente invention concerne un procédé d'estimation de la qualité d'une séquence vidéo à différentes résolutions spatiales ou temporelles, cette séquence vidéo étant transmise à travers un environnement contraint. L'invention s'applique notamment à une séquence vidéo compressée par un codeur source ayant la faculté de produire plusieurs sous ensembles imbriqués qui correspondent chacun à une résolution, temporelle ou spatiale potentiellement différente de la résolution de la séquence initiale. On parle alors de granularité ou en anglais « scalability ». L'invention s'applique également au domaine de la diffusion de signaux vidéo à travers des canaux de transmission non parfaits, c'est-à-dire soumis à des pertes ou des erreurs de transmission et/ou à un débit disponible variable et contraint.
L'évaluation de la qualité perçue par l'utilisateur d'une séquence vidéo compressée présente un intérêt particulier lorsque le codeur source offre la possibilité de disposer d'une pluralité de résolutions spatiales et temporelles différentes, encore appelées couches de granularité, au sein du même flux compressé. Dans un contexte de diffusion d'un tel flux vidéo à travers un environnement non parfait, il est important de pouvoir évaluer la qualité de chaque résolution indépendamment des autres et de mesurer ainsi l'impact des perturbations engendrées par la transmission sur chaque couche de granularité. L'intérêt réside également dans la comparaison de la qualité perçue entre des séquences vidéo qui présentent des résolutions différentes. L'estimation de la qualité perceptueile peut ainsi servir à adapter dynamiquement les paramètres de compression afin d'adapter au mieux le flux transmis aux contraintes du canal de transmission et aux besoins des utilisateurs. Ce besoin est encore plus important dans le cas d'utilisateurs multiples au sein d'un réseau hétérogène pour lequel chaque lien de transmission présente des contraintes propres. Les solutions existantes d'estimation de la qualité vidéo sont classées en deux grands groupes. Un premier type de solution repose sur une évaluation subjective de la qualité en utilisant un panel d'utilisateurs. Les solutions subjectives présentent de nombreux inconvénients, leur mise en place est complexe et coûteuse et surtout elles ne répondent pas au problème spécifique d'une adaptation dynamique d'un flux vidéo compressé en fonction de l'estimation de la qualité perçue qui doit donc être générée de façon automatique.
Un second type de solution concerne les méthodes objectives. Ces solutions reposent le plus souvent sur une mesure d'erreur entre les pixels de la séquence initiale et les pixels recomposés, telle la mesure de distorsion connue sous l'abréviation anglo-saxonne PSNR (« Peak Signal to Noise Ratio »). Cette solution présente des résultats insuffisants en termes de corrélation avec les résultats subjectifs. De plus les solutions basées sur la mesure des pixels erronés n'est pas adaptée lorsque l'on souhaite comparer deux séquences à des résolutions différentes puisque d'un point de vue mathématique ces séquences présentent un contenu différent alors que d'un point de vue perceptuel l'information qu'elles contiennent est identique. D'autres solutions, enfin, reposent sur une modélisation de la vision humaine (« Human Vision System ») qui présente de meilleurs résultats mais ne sont pas adaptées aux contraintes liées à la granuiarite temporelle/spatiale. Ces techniques sont, le plus souvent, adaptées à des images fixes pour une résolution donnée. Un des objectifs de la présente invention est d'apporter une solution unifiée d'évaluation et de comparaison de la qualité perçue pour des flux transmis à des résolutions spatiales ou temporelles différentes et qui de plus sont soumis à des erreurs ou des pertes. Cet objectif est d'autant plus important dans le cas d'un flux compressé offrant de la granularité et pour lequel le choix de la transmission et/ou du décodage d'une résolution particulière parmi plusieurs disponibles se pose. Un autre objectif de la présente invention consiste ainsi à proposer une solution permettant de choisir parmi plusieurs résolutions possibles la meilleure en termes de perception visuelle. Enfin la présente invention vise également à permettre, dans le cas d'un flux compressé offrant de la granularité, la détermination automatique du meilleur choix de décodage parmi les couches de résolution disponibles.
A cet effet l'invention propose un procédé d'estimation et de comparaison de la qualité perçue applicable à un flux vidéo compressé composé de plusieurs sous ensembles imbriqués représentant chacun une couche de résolution différente. L'invention utilise, de plus, une métrique objective reposant, non pas sur la mesure des pixels erronés mais qui prend en compte la structure visuelle du contenu de la séquence vidéo.
L'invention a notamment pour objet un procédé d'estimation de la qualité perçue d'une séquence vidéo représentée d'une part à une résolution spatiale et une résolution temporelle maximales et d'autre part à une résolution spatiale et/ou une résolution temporelle inférieure, ledit procédé étant caractérisé en ce qu'il comporte au moins une première étape de filtrage de ladite séquence vidéo représentée à la résolution temporelle inférieure et/ou la résolution spatiale inférieure afin de produire une séquence vidéo filtrée représentée aux résolutions spatiale et temporelle maximales, une deuxième étape de détermination d'une séquence de référence prise égale au plus au contenu de ladite séquence vidéo représentée aux résolutions spatiale et temporelle maximums et une troisième étape de calcul d'une métrique de qualité perçue de ladite séquence vidéo représentée à la résolution temporelle inférieure et/ou la résolution spatiale inférieure comportant les sous-étapes suivantes :
o calculer la luminance de la séquence de référence et de la séquence filtrée,
o soustraire de la séquence de référence et de la séquence filtrée les résultats respectifs du calcul de leur luminance, o déterminer, à partir du résultat desdites soustractions une mesure du contraste de la séquence de référence et de la séquence filtrée, o normaliser le résultat des dites soustractions par ladite mesure du contraste respectivement de la séquence de référence et de la séquence filtrée afin de produire une mesure de la structure respectivement de la séquence de référence et de la séquence filtrée,
o déterminer une fonction de comparaison l(x,y) des luminances de la séquence de référence et de la séquence filtrée,
o déterminer une fonction de comparaison c(x,y) des contrastes de la séquence de référence et de la séquence filtrée,
o déterminer une fonction de comparaison s(x,y) des structures de la séquence de référence et de la séquence filtrée,
o effectuer une combinaison desdites fonctions de comparaison afin de produire ladite métrique de qualité perçue
M(x9 ) = l(x,y)a.c(x,yy.s(x,y)7 , où α,β,γ SOnt des entiers strictement positifs.
Selon une variante de réalisation de l'invention, ladite étape de filtrage est réalisée par interpolation spatiale et/ou temporelle.
Selon une variante de réalisation de l'invention, ledit procédé comprend une étape supplémentaire de comparaison des métriques de qualité perçue de ladite séquence vidéo représentée à ladite résolution spatiale et temporelle maximales et à une pluralité de résolutions spatiales et/ou temporelles inférieures et élection de la résolution présentant la métrique la plus élevée.
Selon une variante de réalisation de l'invention, ladite séquence de référence est composée d'un sous ensemble du contenu de ladite séquence vidéo représentée aux résolutions spatiale et temporelle maximums et que les étapes de calcul de la métrique de qualité perçue sont appliquées au même sous ensemble de ladite séquence vidéo filtrée.
Selon une variante de réalisation de l'invention, ladite séquence vidéo est compressée de façon à produire un seul flux comportant plusieurs sous ensembles imbriqués correspondant chacun à un couple de résolutions spatiale et temporelle différentes.
L'invention a également pour objet une utilisation du procédé ci dessus caractérisé en ce que ladite séquence vidéo compressée est transmise à travers un réseau hétérogène et est reçue par un récepteur qui effectue le décodage et l'affichage de ladite séquence vidéo au couple de résolutions spatiale et temporelle présentant la meilleure métrique de qualité perçue.
D'autres caractéristiques apparaîtront à la lecture de la description détaillée donnée à titre d'exemple et non limitative qui suit faite en regard de dessins annexés qui représentent :
La figure 1 , un synoptique des étapes d'obtention de la métrique d'estimation de la qualité utilisée par le procédé selon l'invention,
La figure 2, une illustration du principe de granularité temporelle et spatiale d'un flux vidéo compressé,
Les figures 3a et 3b, deux exemples de courbes de résultats représentant la qualité estimée pour une séquence vidéo mono résolution transmise sur des canaux à erreurs ou à pertes,
Les figures 4a et 4b, deux exemples de courbes représentant la qualité estimée pour une séquence comportant trois couches de résolution et transmise à travers un canal à pertes,
La figure 5, un diagramme représentant l'estimation de la qualité perçue à l'aide du procédé selon l'invention en fonction du débit utile de la séquence vidéo. La figure 1 schématise les étapes de calcul effectuées pour estimer la qualité perçue entre une image de référence x 101 et la même image y 102 soumise à des distorsions dues à une compression avec pertes où à une transmission sur un canal soumis à perturbations. Lesdites images sont extraites d'une séquence vidéo. La métrique utilisée repose sur un calcul évaluant les luminances et les contrastes des images de la séquence de référence et de la séquence distordue. Une estimation de la structure du contenu des deux séquences est également élaborée afin de prendre en compte l'information disponible dans la séquence de façon globale sans se limiter à la seule information contenue dans un pixel isolé. Une mesure de la luminance 103 des deux images est réalisée, par exemple en calculant une estimée de l'intensité moyenne. Le résultat de cette mesure est ensuite soustrait 104 de chacune des images afin de produire un nouveau signal image sur lequel est effectué une mesure du contraste 105, par exemple par un calcul de l'écart type dudit signal. Enfin une normalisation 106 est effectuée en divisant ledit signal par la mesure du contraste 105 effectuée. Le nouveau signal résultant de cette normalisation correspond à une estimée de la structure de chaque image.
Les résultats respectifs des trois mesures de luminance 103, contraste 105 ainsi que le signal normalisé représentant la structure de l'image sont fournis en entrée de trois modules de comparaison. Un premier module 107 effectue la comparaison des luminances des deux signaux image 101 ,102. Un deuxième module 108 effectue la comparaison des contrastes et un troisième module 109 réalise la comparaison des structures. Enfin un système de combinaison 110 produit à partir des trois comparaisons, une métrique de la qualité perçue de l'image 102 y vis-à-vis de l'image de référence 101 x. Cette métrique est formulée à l'aide de la relation suivante :
M(x,y) = l(x, y)a.c(x,yy.s(x,y)r (1)
Où l(x,y) représente la comparaison des luminances des signaux x et y, C(x,y) représente la comparaison des contrastes des signaux x et y,
S(x,y) représente la comparaison des structures des signaux x et y, Εί les coefficients α,β,γ sont des entiers strictement positifs déterminés par simulation.
La fonction de comparaison des luminances est par exemple donnée par la relation suivante :
Où μχ et μν sont les intensités moyennes des signaux x et y, et Ci est une constante déterminée par simulation.
La fonction de comparaison des contrastes est par exemple donnée par la relation suivante :
Où σχ et <jy sont les écarts types des intensités des signaux x et y, et C2 est une constante déterminée par simulation.
Enfin la fonction de comparaison des structures est par exemple donnée par la relation suivante :
Où axy est le coefficient de corrélation entre les intensités des signaux x et y, et C3 est une constante déterminée par simulation.
La figure 2 schématise un exemple de granularité temporelle et spatiale d'un flux vidéo compressé. Un codeur vidéo 200, par exemple un codeur respectant la norme de compression vidéo H.264/SVC telle que définie dans la référence « ITU-T Rec. H.264 | ISO/IEC 14496-10 annex G 2009», peut, au lieu de fournir un seul flux compressé correspondant à la séquence vidéo d'origine à une résolution spatiale et temporelle donnée, au contraire produire un flux qui contient plusieurs sous ensembles imbriqués et hiérarchisés. Le premier sous ensemble contient l'information relative au couple de résolutions spatiales et temporelles les plus faibles, ce premier sous ensemble est communément appelé couche de base, ou « base layer » en anglais. Les sous ensembles suivants contiennent l'information supplémentaire permettant, en combinaison avec les couches précédentes, de produire une séquence à un niveau de résolution, spatiale ou temporelle, supérieur. On parie alors de couche de résolution supplémentaire de niveau i, i étant un entier strictement positif, ou « enhancement layer i » en anglais. Sur la figure 2 est représenté un exemple du principe de granularité. La couche de base 204 correspond à la séquence vidéo originale à la résolution spatiale standard QCIF (« Quarter Common intermediate Format ») et à la résolution temporelle de 15 Hertz. Une première couche de résolution supplémentaire de niveau 1 203 est obtenue en ajoutant l'information nécessaire permettant de passer de la résolution spatiale QCIF à la résolution spatiale CIF. Enfin une deuxième couche de résolution supplémentaire de niveau 2 202 est obtenue en ajoutant aux deux précédentes couches l'information nécessaire permettant de passer de la résolution temporelle 15 Hz à la résolution temporelle 30Hz.
De façon générale, les couches de résolution sont hiérarchisées de façon à ce qu'une augmentation, soit de la résolution temporelle, soit de la résolution spatiale ou des deux en même temps soit effectuée entre une couche de niveau i et une couche de niveau i+1. On notera que l'on peut également hiérarchiser selon la qualité à même résolution spatiale et temporelle.
Un tel flux compressé présentant de la granularité peut donc être décodé à plusieurs résolutions différentes. Chaque sous ensemble étant indépendant des autres, il peut également être transmis sur des canaux de propagation différents et donc être soumis à des pertes et/ou erreurs ayant des statistiques différentes. Le problème se pose alors de l'estimation de la qualité perçue d'une séquence vidéo à une résolution minimum, par exemple la résolution QCIF 15Hz, et surtout de la comparaison de cette qualité par rapport à celle perçue pour la même séquence vidéo à la résolution maximum, par exemple la résolution Cl F 30 Hz. Les métriques classiques effectuant une comparaison pixel par pixel ne peuvent fonctionner pour des séquences vidéos qui ne comportent pas le même nombre d'images par seconde ni le même nombre de pixels dans une image. De même la métrique présentée à l'appui de la figure 1 utilise comme signaux d'entrée deux images fixes présentant la même résolution spatiale.
Le procédé selon l'invention consiste alors à adapter la métrique précédemment introduite afin de permettre une comparaison de deux séquences vidéo à des résolutions différentes.
Pour cela, une étape de filtrage est introduite au préalable. Dans l'exemple de la figure 2, la séquence vidéo de référence est celte qui présente la résolution spatio-temporelle la plus élevée, il s'agit de la séquence 201 au format CIF 30 Hz qui est compressée par le codeur 200. Cette séquence 201 est appelée par la suite séquence de référence. Il s'agit de la séquence vidéo d'origine avant compression.
Dans une variante de réalisation de l'invention, la séquence de référence peut consister en une ou plusieurs zones d'une ou plusieurs images de la séquence. Une telle variante présente un intérêt lorsque la séquence de référence n'est pas connue et qu'elle doit être, par exemple, transmise à travers un canal présentant un débit limité. Par souci d'optimisation du débit consommé, une version réduite de la séquence de référence peut être utilisée pour effectuer les mesures de qualité.
Pour mesurer la qualité perçue de la séquence 204 au format QCIF 15 Hz vis-à-vis de la séquence de référence, il convient de transformer cette séquence 204 pour la ramener à une résolution spatio-temporelle comparable à celle de ia séquence de référence.
Ainsi l'étape de filtrage selon l'invention consiste en deux sous étapes. Une première sous étape d'interpolation spatiale qui permet de produire, à partir de ia résolution spatiale QCIF, la même séquence à une résolution spatiale CIF. Les nouveaux pixels nécessaires sont générés par interpolation de leurs plus proches voisins. On obtient alors la nouvelle séquence 204a. Une seconde sous-étape permet de produire à partir de la résolution temporelle 15 Hz, une séquence à la résolution temporelle 30 Hz. Il s'agit ici d'insérer entre chaque image de la séquence 204, une image intermédiaire en estimant le contenu de cette nouvelle image à partir d'une moyenne sur ies images voisines, antérieures et ultérieures au sein de la séquence. Le résultat de cette seconde étape produit une séquence vidéo 204b qui peut être comparée à la séquence de référence 201.
Le procédé selon l'invention consiste ensuite à appliquer l'étape de calcul de métrique décrit à l'appui de la figure 1 pour obtenir une comparaison objective de la qualité perçue entre la séquence 204 et la séquence de référence. L'estimation de la structure du contenu de la séquence permet d'obtenir une mesure de la qualité perçue beaucoup plus corrélée à un résultat subjectif que si l'on utilisait une mesure basée sur la comparaison des pixels. En effet les étapes de filtrage décrites introduisent une distorsion dans la séquence filtrée 204b qui, bien que présentant un impact négligeable pour l'œil humain, seraient détectées comme étant des erreurs par une mesure de type PSNR. Ainsi, l'utilisation d'une métrique de type PSNR appliquée à une séquence filtrée spatialement ou temporellement ne permet pas d'obtenir une estimée de la qualité visuelle perçue par l'œil humain. La présente invention vise notamment à supprimer cet inconvénient.
Les étapes de filtrage précédemment décrites s'appliquent de façon similaire à la séquence 203 de résolution CIF 15Hz afin de produire une séquence filtrée 203a de même résolution spatiale et temporelle que la séquence de référence.
Les figures 3a et 3b donnent à titre indicatif les valeurs d'estimée de la qualité vidéo selon l'invention obtenues pour des flux vidéo compressés à une seule résolution et transmis à travers un canal à erreurs (figure 3a) ou un canal soumis à des pertes de paquets (figure 3b).
La figure 3a montre l'évolution de l'estimée de la qualité 303 dans un plan d'abscisse 302 représentant différentes valeurs de rapport signal à bruit et d'ordonnée 301 représentant les valeurs de la métrique d'estimation de la qualité comprises entre 0 et 1. L'estimée de la qualité perçue tend vers une valeur seuil lorsque le rapport signal à bruit est faible {fortes perturbations) et inversement tend vers 1 lorsque le rapport signal à bruit est élevé.
La figure 3b représente l'estimée de la qualité 305 dans un plan d'abscisse 304 représentant différentes valeurs de taux d'erreurs paquet L'estimée de qualité 305 décroit lorsque ie taux de pertes paquet augmente. Un paquet correspond ici à une unité logique du flux vidéo compressé. Les figures 4a et 4b représentent un exemple de valeurs de l'estimée de la qualité perçue d'une séquence vidéo à différentes résolutions spatiales ou temporelles et en fonction du taux de pertes paquets 304. Les trois résolutions suivantes sont évaluées, à titre d'exemple. Les courbes 403,406 représentent la qualité perçue pour une séquence donnée à une résolution spatiale QCIF et une résolution temporelle de 15 Hertz. Les courbes 402,407 sont obtenues pour une séquence à une résolution spatiale CIF et une résolution temporelle de 15 Hertz. Enfin les courbes 401 ,405 représentent la qualité perçue pour la séquence à plus haute résolution, c'est-à-dire une résolution spatiale CIF et une résolution temporelle de 30 Hertz.
A titre indicatif, la courbe de qualité 404 correspondant à la résolution intermédiaire { CIF 15Hz } pour une séquence compressée mais non transmise à travers un canal à pertes est également représentée. Les courbes des figures 4a et 4b diffèrent par le choix du pas de quantification sélectionné pour compresser chaque résolution. Dans le cas de la figure 4a, les pas de quantification choisis pour compresser respectivement la couche de base et les deux couches de résolution supérieures sont pris égaux à {36,26,32}. Dans le cas de la figure 4b, ces mêmes pas de quantification sont pris égaux à {32,32,32}. Les séquences vidéos sont compressées à l'aide d'un codeur vidéo compatible du standard H.264/SVC, étant entendu que ces résultats sont donnés à titre illustratif et que le procédé selon l'invention n'est nullement limité à un standard de compression vidéo en particulier mais s'applique pour tout procédé de compression permettant de générer un flux comportant plusieurs couches de granularité spatiales et/ou temporelles.
Il est intéressant de noter, qu'en fonction du choix des paramètres de compression (ici le pas de quantification), l'estimation de la qualité perçue pour la couche de résolution intermédiaire 402,407, peut être soit supérieure, soit inférieure à celle de la couche de base 403,406, pour un taux de pertes paquets donné. La résolution la plus élevée ne conduit par conséquent pas toujours à la meilleure qualité perçue, ce qui justifie la nécessité d'un procédé d'évaluation et de comparaison de la qualité d'une séquence vidéo à différentes résolutions.
La figure 5 illustre une application du procédé selon l'invention permettant de valider le choix des pas de quantification utilisés lors de l'étape de compression d'un flux à plusieurs niveaux de résolution.
Le graphique de la figure 5 représente les notes de qualité estimées à partir du procédé selon l'invention pour les trois résolutions précédemment introduites à l'appui de la figure 4. Les qualités estimées sont représentées en fonction du débit utile du flux vidéo compressé et chaque point correspond à un pas de quantification donné pour une couche de résolution. La courbe 501 correspond à la couche de base {QCIF,15 Hz), notée BL, compressée avec différents pas de quantifications puis filtrée par le procédé selon l'invention pour obtenir une séquence à la résolution la plus élevée (CIF, 30Hz). La courbe 502 correspond à la couche intermédiaire (CIF,15 Hz), notée EL1 , obtenue à partir de la couche de base compressée avec un pas de quantification égal à 32 à laquelle a été ajoutée l'information supplémentaire pour élever la résolution spatiale, cette information étant compressée avec différents pas de quantification qui correspondent aux différents points de la courbe 502. La résolution (CIF, 15 Hz) est également filtrée par le procédé selon l'invention pour obtenir une séquence à la résolution la plus élevée. Enfin l'ensemble de points 503 correspond à la résolution la plus élevée (CIF, 30 Hz). Le graphique de la figure 5 permet notamment de vérifier que le triplet de pas de quantification affectés aux trois couches de résolution {32,20,26} donne une meilleure estimée de la qualité perçue que le triplet {32,26,20}. Cette observation permet de valider les choix de compression relatifs à chaque couche de résolution.
De plus, on peut également noter que l'estimée de la qualité perçue pour la couche de résolution intermédiaire 502 {Cl F, 15 Hz) avec les pas de quantification (32,32) est meilleure que celle de la couche de résolution maximale 503 avec les pas de quantification {32,38,38} pour des débits très proches. Dans ce cas de figure, le procédé selon l'invention permet de déterminer qu'une résolution plus faible peut permettre d'obtenir au final une qualité perçue plus élevée que celle obtenue avec la résolution la plus élevée et ce à débit utile identique. Une application possible du procédé selon l'invention concerne l'évaluation des métriques de qualité relatives à chaque niveau de résolution dans le but de valider les choix de compression d'un flux présentant de la granularité temporelle ou spatiale. En particulier le paramètre de pas de quantification peut être déterminé en fonction de ces métriques. Un critère de décision possible consiste à fixer une plage de valeurs minimum pour l'estimée de la qualité de chaque couche de résolution. Par exemple, une plage minimum égale à 0.1 doit être respectée entre chaque couche de résolution spatiale. De même, une plage minimum égale à 0.05 peut être forcée entre chaque couche de résolution temporelle.
Une autre application possible concerne la diffusion de flux vidéos compressés à travers un réseau hétérogène et à destination de plusieurs utilisateurs. Lorsque ledit flux est reçu par un récepteur adapté, une évaluation de la métrique de qualité peut être effectuée pour chaque couche de résolution disponible au sein du flux et seule la meilleure résolution en terme de qualité perçue est alors décodée et affichée. Un réseau hétérogène comporte le plus souvent des nœuds intermédiaires qui peuvent implémenter une fonction de transcodage des flux multimédia qui transitent par eux. Le transcodage consiste à adapter le flux aux contraintes du ou des média de transmission, notamment en terme de débit disponible mais aussi de protection nécessaire du flux vis-à-vis des perturbations liées au canal de transmission. Un flux avec de la granularité spatiale/temporelle présente l'avantage d'imbriquer plusieurs sous ensembles hiérarchisés en fonction du niveau de résolution requis. Un tel flux possède donc un débit utile adaptable aux contraintes du canal de transmission. L'évaluation des métriques de qualité de chaque couche de résolution, selon l'invention, permet d'évaluer a priori les dégradations de la séquence en présence de pertes ou erreurs pour chaque résolution et permet ainsi de supprimer éventuellement le ou les niveaux de résolution les plus élevés afin de limiter le débit utile en regard de la qualité perçue qui, comme cela a été illustré avec les figures 4a et 4b n'est pas forcément croissante avec le niveau de résolution.

Claims

REVENDICATIONS
Procédé d'estimation de la qualité perçue d'une séquence vidéo représentée d'une part à une résolution spatiale et une résolution temporelle maximales (201 ) et d'autre part à une résolution spatiale et/ou une résolution temporelle inférieure (203,204), ledit procédé étant caractérisé en ce qu'il comporte au moins une première étape de filtrage de ladite séquence vidéo (203,204) représentée à la résolution temporelle inférieure et/ou la résolution spatiale inférieure afin de produire une séquence vidéo filtrée (203a, 204b) représentée aux résolutions spatiale et temporelle maximales, une deuxième étape de détermination d'une séquence de référence prise égale au plus au contenu de ladite séquence vidéo (201) représentée aux résolutions spatiale et temporelle maximums et une troisième étape de calcul d'une métrique de qualité perçue de ladite séquence vidéo (203,204) représentée à la résolution temporelle inférieure et/ou la résolution spatiale inférieure comportant les sous-étapes suivantes :
o calculer (103) la luminance de la séquence de référence (201) et de la séquence filtrée (203a, 204b),
o soustraire (104) de la séquence de référence (201 ) et de la séquence filtrée (203a,204b) les résultats respectifs du calcul de leur luminance,
o déterminer, à partir du résultat desdites soustractions (104) une mesure du contraste (105) de la séquence de référence (201) et de la séquence filtrée (203a,204b),
o normaliser (106) le résultat des dites soustractions (104) par ladite mesure du contraste (105) respectivement de la séquence de référence (201 ) et de la séquence filtrée (203a,204b ) afin de produire une mesure de la structure respectivement de la séquence de référence (201) et de la séquence filtrée (203a,204b), o déterminer (107) une fonction de comparaison l(x,y) des luminances (103) de la séquence de référence (201) et de îa séquence filtrée (203a,204b ),
o déterminer (108) une fonction de comparaison c(x,y) des contrastes (105) de la séquence de référence (201 ) et de la séquence filtrée (203a,204b ),
o déterminer (109) une fonction de comparaison s(x,y) des structures de la séquence de référence (201 ) et de la séquence filtrée (203a,204b ),
o effectuer (110) une combinaison desdites fonctions de comparaison afin de produire ladite métrique de qualité perçue
M(x,y) = l{x,yf .c{x,yf .s{x,y)Y , où α,β,γ sont des entiers strictement positifs.
2. Procédé selon la revendication 1 caractérisé en ce que ladite étape de filtrage est réalisée par interpolation spatiale et/ou temporelle.
3. Procédé selon Tune des revendications précédentes caractérisé en ce qu'il comprend une étape supplémentaire de comparaison des métriques de qualité perçue de ladite séquence vidéo représentée à ladite résolution spatiale et temporelle maximales (202) et à une pluralité de résolutions spatiales et/ou temporelles inférieures (203,204) et élection de la résolution présentant la métrique la plus élevée.
4. Procédé selon l'une des revendications précédentes caractérisé en ce que ladite séquence de référence est composée d'un sous ensemble du contenu de ladite séquence vidéo (201 ) représentée aux résolutions spatiale et temporelle maximums et que les étapes de calcul de la métrique de qualité perçue sont appliquées au même sous ensemble de ladite séquence vidéo filtrée (203af204b).
5. Procédé selon l'une des revendications précédentes caractérisé en ce que ladite séquence vidéo est compressée de façon à produire un seul flux comportant plusieurs sous ensembles imbriqués correspondant chacun à un couple de résolutions spatiale et temporelle différentes.
6. Utilisation du procédé selon la revendication 5 caractérisé en ce que ladite séquence vidéo compressée est transmise à travers un réseau hétérogène et est reçue par un récepteur qui effectue le décodage et l'affichage de ladite séquence vidéo au couple de résolutions spatiale et temporelle présentant la meilleure métrique de qualité perçue.
EP10787492A 2009-12-11 2010-12-10 Procede d'estimation de la qualite video a une resolution quelconque Withdrawn EP2510695A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0906006A FR2954035B1 (fr) 2009-12-11 2009-12-11 Procede d'estimation de la qualite video a une resolution quelconque
PCT/EP2010/069386 WO2011070158A1 (fr) 2009-12-11 2010-12-10 Procede d'estimation de la qualite video a une resolution quelconque

Publications (1)

Publication Number Publication Date
EP2510695A1 true EP2510695A1 (fr) 2012-10-17

Family

ID=42320005

Family Applications (1)

Application Number Title Priority Date Filing Date
EP10787492A Withdrawn EP2510695A1 (fr) 2009-12-11 2010-12-10 Procede d'estimation de la qualite video a une resolution quelconque

Country Status (4)

Country Link
US (1) US8493449B2 (fr)
EP (1) EP2510695A1 (fr)
FR (1) FR2954035B1 (fr)
WO (1) WO2011070158A1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8810727B1 (en) * 2013-05-07 2014-08-19 Qualcomm Technologies, Inc. Method for scaling channel of an image
WO2016154366A1 (fr) * 2015-03-23 2016-09-29 Arris Enterprises, Inc. Système et procédé permettant de compresser sélectivement des images
US11218233B2 (en) * 2019-11-05 2022-01-04 Rohde & Schwarz Gmbh & Co. Kg Method and system for analyzing a determination of a link transmission quality indicator and method and apparatus for determining a link transmission quality indicator

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5253058A (en) * 1992-04-01 1993-10-12 Bell Communications Research, Inc. Efficient coding scheme for multilevel video transmission
CN1435055A (zh) * 1999-12-22 2003-08-06 通用仪器公司 使用空间可调性及同时传送编码的多投射环境的视讯压缩
US6574279B1 (en) * 2000-02-02 2003-06-03 Mitsubishi Electric Research Laboratories, Inc. Video transcoding using syntactic and semantic clues
US6836512B2 (en) * 2000-10-11 2004-12-28 Koninklijke Philips Electronics N.V. Spatial scalability for fine granular video encoding
US7136532B2 (en) * 2002-06-27 2006-11-14 Koninklijke Philips Electronics N.V. FGS decoder based on quality estimated at the decoder
JP2006503518A (ja) * 2002-10-16 2006-01-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 高度にスケーラブルな3次元オーバコンプリート・ウェーブレット・ビデオ符号化
FR2852179A1 (fr) * 2003-03-06 2004-09-10 Thomson Licensing Sa Procede de codage d'une image video
EP1574995A1 (fr) * 2004-03-12 2005-09-14 Thomson Licensing S.A. Procédé de codage de données vidéo entrelacées
AU2006269728B2 (en) * 2005-07-11 2011-11-03 Interdigital Madison Patent Holdings Method and apparatus for macroblock adaptive inter-layer intra texture prediction
US8345158B2 (en) * 2008-03-21 2013-01-01 Sony Corporation Merging video with time-decimated high-resolution imagery to form high-resolution video frames
WO2010042650A2 (fr) * 2008-10-07 2010-04-15 Motorola, Inc. Système et procédé d'extraction de bit optimisée pour un codage vidéo échelonnable
US8311115B2 (en) * 2009-01-29 2012-11-13 Microsoft Corporation Video encoding using previously calculated motion information
US20100220592A1 (en) * 2009-02-24 2010-09-02 Cisco Technology, Inc. Layered internet video engineering
WO2010124002A1 (fr) * 2009-04-21 2010-10-28 Marvell World Trade Ltd. Ajustements automatiques pour un post-processeur vidéo sur la base d'une qualité estimée d'un contenu vidéo internet

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None *
See also references of WO2011070158A1 *

Also Published As

Publication number Publication date
US8493449B2 (en) 2013-07-23
US20130135482A1 (en) 2013-05-30
FR2954035A1 (fr) 2011-06-17
WO2011070158A1 (fr) 2011-06-16
FR2954035B1 (fr) 2012-01-20

Similar Documents

Publication Publication Date Title
EP2510701B1 (fr) Procede et systeme pour la determination de parametres de codage sur des flux a resolution variable
EP0675652B1 (fr) Procédé et circuit d&#39;estimation de mouvement entre images à deux trames entrelacées, et dispositif de codage de signaux numériques comprenant un tel circuit
EP3225029B1 (fr) Procede d&#39;encodage d&#39;image et equipement pour la mise en oeuvre du procede
FR2856219A1 (fr) Procede et appareil pour accomplir un processus de telecinema inverse
Martinez et al. Full-reference audio-visual video quality metric
EP2510695A1 (fr) Procede d&#39;estimation de la qualite video a une resolution quelconque
EP3490255A1 (fr) Compression intelligente de contenus vidéo grainés
FR2805429A1 (fr) Procede de controle de la qualite numeriques distribuees par detection de faux contours
EP3449634A1 (fr) Procédé de composition contextuelle d&#39;une représentation vidéo intermédiaire
FR2879387A1 (fr) Procede de transmission a debit binaire variable a travers un canal de transmission.
EP1020085A1 (fr) Procede d&#39;evaluation de la degradation d&#39;une image video introduite par un systeme de codage et/ou de stockage et/ou de transmission numerique
EP3540627A1 (fr) Procédé de sélection de profils d&#39;encodage d&#39;un contenu multimédia pour une diffusion à la demande
EP2410749A1 (fr) Procédé d&#39;encodage adaptatif d&#39;un flux vidéo numérique, notamment pour diffusion sur ligne xDSL
WO2010112472A1 (fr) Procédé et dispositif d&#39;évaluation de la qualité visuelle d&#39;une image ou d&#39;une séquence d&#39;images, mettant en oeuvre des indicateurs objectifs, et programme d&#39;ordinateur correspondant.
FR2830402A1 (fr) Systeme et procede pour tester la conformite d&#39;un dispositif de decodage numerique
WO2005071972A1 (fr) Procede de codage d&#39;une sequence d&#39;images
WO2014076230A1 (fr) Procédé et système de transmission de données vidéo sur un canal de transmission par courants porteurs en ligne
EP1241894A1 (fr) Procédé de codage d&#39;images numériques basé sur la dissimulation d&#39;erreurs
Yamada et al. Reduced-reference based video quality-metrics using representative-luminance values
WO2005088979A1 (fr) Procede de recherche de la directon de prediction en codage video intra-image
Korhonen Audiovisual quality assessment in communications applications: current status, trends and challenges
Schiffner et al. Diving into perceptual space: Quality relevant dimensions for video telephony
WO2008132378A2 (fr) Procédé et dispositif de régulation du débit de codage de séquences d&#39;images vidéo vis-à-vis d&#39;un débit cible
Shi et al. A user-perceived video quality assessment metric using inter-frame redundancy
EP3582500B1 (fr) Procédé, systeme et programme informatique d&#39;analyse de la complexité d&#39;un contenu multimédia source pour une diffusion à la demande

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20120612

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20171103

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20180314