FR2901648A1 - Diffusion d'images utilisant un canal de retour - Google Patents

Diffusion d'images utilisant un canal de retour Download PDF

Info

Publication number
FR2901648A1
FR2901648A1 FR0604777A FR0604777A FR2901648A1 FR 2901648 A1 FR2901648 A1 FR 2901648A1 FR 0604777 A FR0604777 A FR 0604777A FR 0604777 A FR0604777 A FR 0604777A FR 2901648 A1 FR2901648 A1 FR 2901648A1
Authority
FR
France
Prior art keywords
images
error
messages
response
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0604777A
Other languages
English (en)
Inventor
Marc Baillavoine
Joel Jung
Loic Baroux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR0604777A priority Critical patent/FR2901648A1/fr
Priority to US12/227,824 priority patent/US8505060B2/en
Priority to PCT/FR2007/051309 priority patent/WO2008043923A1/fr
Priority to EP07858480A priority patent/EP2025174A1/fr
Publication of FR2901648A1 publication Critical patent/FR2901648A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • H04N19/166Feedback from the receiver or from the transmission channel concerning the amount of transmission errors, e.g. bit error rate [BER]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/4425Monitoring of client processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6175Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6371Control signals issued by the client directed to the server or network components directed to network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6375Control signals issued by the client directed to the server or network components for requesting retransmission, e.g. of data packets lost or corrupted during transmission from server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

L'invention concerne notamment un procédé de diffusion d'images d'une séquence vidéo, le procédé comprenant, au niveau d'un équipement de diffusion (2), les étapes suivantes :- inclure (14) des images dans un flux de sortie pour une transmission à au moins un équipement de restitution ;- recevoir en retour dudit équipement de restitution des messages d'erreur relatifs à la restitution des images de la séquence vidéo ;- analyser (24) les messages d'erreur pour identifier des images ou parties d'images non ou mal restituées ;- déterminer (32) des messages de réponse incluant des images ou parties d'images de correction.Il est caractérisé en ce qu'il comprend en outre:- une étape (26) de détermination d'un niveau de gravité (FGi) pour chaque message d'erreur en fonction de l'analyse réalisée ; et- une étape (30) de décision de renvoyer un message de réponse à un message d'erreur en fonction du niveau de gravité de ce message d'erreur.

Description

niveau du décodeur. L'un de ces mécanismes est l'utilisation d'un canal de
retour, du décodeur vers le codeur sur lequel le décodeur informe le codeur qu'il a perdu tout ou partie de certaines images. Dans certains cas, ce sont les images bien reconstruites que le décodeur indique au codeur sur le canal de retour, de sorte que le codeur peut en déduire quelles images ont éventuellement été perdues. En réponse à chacun de ces messages d'erreur, la plupart des codeurs renvoient systématiquement des images de correction codées en intra, c'est-à-dire sans référence aux images précédentes, ce qui permet de rafraîchir l'affichage et de corriger les erreurs dues aux pertes de transmission. Les images de correction sont transmises dans des messages de réponse lors d'émissions spécifiques ou par insertion dans le flux de la séquence vidéo en remplacement d'autres images. Une telle utilisation du canal de retour présente des inconvénients importants. Lorsque plusieurs messages d'erreur sont émis sur le canal de retour, le principe actuel aboutit à ce qu'une réponse soit apportée à chacun de ces messages. Par exemple, si une image est perdue, le décodeur est susceptible d'envoyer un message d'erreur sur le canal de retour pour chacune des images suivantes codées en inter avec une référence à l'image perdue.
Dans ce cas, le codeur est amené à transmettre plusieurs messages de réponse comprenant chacun une image de correction codée en intra. Cela aboutit à une qualité de la restitution diminuée et à une occupation importante de la bande passante. De même, dans certains modes de réalisation de multi diffusions, tels que les systèmes de ponts de conférence ou autres dans lesquels plusieurs décodeurs reçoivent les mêmes informations, il arrive que chacun des décodeurs émette un message d'erreur sur un canal de retour concernant une même image perdue et que le codeur réponde successivement à chacun de ces messages retransmettant plusieurs fois la même image de correction.
Ainsi, l'utilisation faite des canaux de retour n'est pas optimum en particulier lorsque plusieurs messages sont transmis sur le canal de retour. Un des avantages de la présente invention est d'améliorer l'utilisation du canal de retour.
L'invention propose ainsi un procédé de diffusion d'images d'une séquence vidéo, le procédé comprenant, au niveau d'un équipement de diffusion, les étapes suivantes : inclure des images dans un flux de sortie pour une transmission à au moins un équipement de restitution ; recevoir en retour dudit équipement de restitution des messages d'erreur relatifs à la restitution des images de la séquence vidéo ; analyser les messages d'erreur pour identifier des images ou parties d'images non ou mal restituées ; déterminer des messages de réponse incluant des images ou parties d'images de correction, caractérisé en ce que le procédé comprend en outre : une étape de détermination d'un niveau de gravité pour chaque message d'erreur en fonction de l'analyse réalisée ; et une étape de décision de renvoyer un message de réponse à un message d'erreur en fonction du niveau de gravité de ce message d'erreur. En conséquence, le procédé de l'invention comporte une analyse des messages d'erreur et la quantification de la gravité de ces messages afin de pouvoir décider s'il convient d'y répondre. Cette quantification permet 25 d'optimiser l'utilisation du canal de retour par l'optimisation des messages de réponse. Selon d'autres caractéristiques de l'invention, le procédé comprend une étape de mémorisation, par l'équipement de diffusion, d'une version décodée des images transmises dans le flux de sortie et les images ou parties 30 d'images de correction sont issues des images mémorisées par l'équipement 20
de diffusion. Dans une telle variante, l'équipement de diffusion se substitue à l'émetteur de la séquence du point de vue des équipements de restitution. Alternativement, le procédé comprend une étape de transmission d'une requête d'images de correction par l'équipement de diffusion à un ou plusieurs émetteurs d'images, pour recevoir en retour lesdites images de corrections à inclure dans le ou lesdits messages de réponse. Dans ce cas, l'équipement de diffusion est un relais de la chaîne de diffusion. Dans un mode de réalisation particulier, ladite analyse comprend la détermination d'au moins un facteur issu du groupe suivant : un niveau de qualité de restitution prenant en compte l'erreur ; une évaluation de l'importance du contenu des images ou parties d'images non ou mal restituées ; des paramètres de décodage ; une évaluation des conditions de transmission ; et une estimation de la durée entre l'image courante et la dernière image transmise sans erreur, ledit facteur étant utilisé pour déterminer le niveau de gravité associé à un message d'erreur. Avantageusement, ledit niveau de gravité d'au moins un message d'erreur est une durée maximale d'attente avant l'émission d'un message de réponse. Ceci permet d'assurer l'émission d'un message de réponse pour certains messages d'erreur. En variante, le procédé comprend la détermination d'un niveau d'urgence à partir des niveaux de gravité associés aux messages d'erreur reçus depuis l'émission du dernier message de réponse, et ladite étape de décision est réalisée en fonction de ce niveau d'urgence. Ce mode de réalisation présente l'avantage de déterminer un quantificateur d'urgence à partir de plusieurs messages d'erreur. Avantageusement, ladite étape de détermination de messages de 30 réponse comprend un regroupement de messages de réponse. Ceci permet de réduire le nombre de messages de réponse par rapport au nombre de messages d'erreur. Dans un mode de réalisation particulier, ledit regroupement comprend l'agrégation d'au moins deux corrections à apporter à différents messages 5 d'erreur afin de former un message de réponse combiné. En variante, ledit regroupement comprend la détermination d'une correction commune à au moins deux messages d'erreur afin de former un message de réponse commun. Alternativement, ledit regroupement comprend la sélection de 10 messages d'erreur auxquels aucune réponse ne sera apportée. Plus particulièrement, ladite analyse comprend une identification, dans les différents messages d'erreur, des images ou parties d'images non ou mal restituées et ladite étape de détermination de messages de réponse comprend la détermination d'un message de réponse commun pour les différents 15 messages d'erreur relatifs aux mêmes images ou parties d'images. Ce mode de réalisation permet de n'émettre qu'un message de réponse lorsque plusieurs messages d'erreur portant sur une même image sont émis par plusieurs équipements de restitution. Dans un mode de réalisation particulier, ladite analyse comprend une 20 identification d'une dernière image transmise sans erreur et ladite étape de détermination d'un message de réponse comprend le codage d'une image de correction par rapport à ladite dernière image transmise sans erreur. Ce mode de réalisation permet d'éviter l'émission d'une image codée en intra afin d'améliorer la qualité de la restitution. 25 Alternativement, ladite étape d'inclusion des images dans un flux comprend le formatage de plusieurs flux entrants pour former ledit flux de sortie, ladite étape d'analyse des messages d'erreur comprend l'identification des images non ou mal restituées dans lesdits flux entrants et ladite étape de détermination d'un message de réponse comprend la modification d'images de
correction issues desdits flux entrants pour les rendre conformes au format du flux de sortie. Par ailleurs, l'invention porte également sur un programme d'ordinateur ou un équipement de diffusion mettant en oeuvre le procédé auquel il est fait référence précédemment ainsi qu'un système de diffusion d'images utilisant un tel équipement de diffusion. L'invention sera mieux comprise à la lumière de la description et des dessins sur lesquels la figure 1 est un schéma synoptique d'un système de diffusion de séquences vidéo ; la figure 2 est une représentation symbolique d'une image vidéo combinée ; la figure 3 représente l'organigramme du procédé de l'invention ; les figures 4A et 4B représentent symboliquement des pertes d'images ; la figure 5 représente une image de correction ; et - la figure 6 représente symboliquement une perte d'image. Le système représenté sur la figure 1 comporte plusieurs terminaux marqués T1 à T4 et formés, par exemple, d'ordinateurs personnels. Ces terminaux sont reliés par un réseau de télécommunications 4 de type IP, à un équipement de diffusion 2 qui, dans l'exemple, est un serveur de télécommunications assurant la fonction de pont de conférence. Les terminaux Ti à T4 sont adaptés pour l'acquisition et la transmission d'un flux vidéo et audio au moyen, par exemple, de caméras 25 raccordées directement à chacun des ordinateurs. Le pont de conférence 2 comporte des moyens 6 d'émission et de réception de flux audio et vidéo ainsi qu'une mémoire 8 et un microcontrôleur ou microprocesseur 10, ces éléments étant classiques en eux-mêmes.
Le microprocesseur 10 comporte dans une mémoire, un programme spécifique comprenant des instructions logicielles aptes à lui faire réaliser le procédé de l'invention lorsqu'elles sont exécutées par ce microprocesseur. Lors d'une phase initiale de configuration, il est convenu, entre le pont de conférence et les différents terminaux, de diffuser une image combinée vers les terminaux et d'utiliser un canal de retour pour la détection d'erreurs de transmission. Plus précisément, chacun des terminaux Ti à T4 émet un flux vidéo F1 à F4 destiné au pont de conférence 2, chacun de ces flux comprend des images codées de manière classique, par exemple selon le protocole H263 avec une taille et une résolution déterminées. Dans la configuration décrite, le pont de conférence 2 retransmet les flux entrants F1 à F4 en les réorganisant, de manière à générer un flux de sortie cp décodable par les autres terminaux. Cette réorganisation correspond à une mise en forme, ou formatage, des flux entrants F1 à F4, chaque image d'un flux entrant étant placée dans un secteur spécifique de l'image correspondante dans le flux de sortie cp. La figure 2 représente schématiquement une image du flux de sortie comportant quatre secteurs, un pour chaque flux entrant F1 à F4.
Le flux de sortie est transmis de manière classique à tous les terminaux T1 à T4. En référence à la figure 3, on va maintenant décrire le procédé de l'invention. Le procédé débute par une étape 12 de réception des flux entrants F1 à F4, suivie d'une étape 14 de combinaison de ces flux pour former le flux de sortie cp qui est transmis simultanément aux quatre terminaux lors d'une étape 16. Chacun des terminaux Ti à T4 reçoit alors le flux cf), le décode et analyse les images décodées.
En cas de perte de paquets ou de détérioration de la qualité des images, chacun des terminaux est apte à émettre un message d'erreur relatif à la restitution des images de la séquence vidéo vers l'équipement de diffusion formé par le pont de conférence 2.
Dans l'exemple, le procédé comporte une étape 18 d'initialisation d'une variable UR correspondant à un niveau d'urgence de l'émission d'un message de réponse, et une étape 20 d'initialisation de variables FGi correspondant à des niveaux de gravité associés aux messages d'erreur reçus. Après avoir émis des images d'une séquence vidéo lors de l'étape 16, le pont de conférence 2 guette l'arrivée d'éventuels messages d'erreur. Ceci est réalisé lors d'une étape 22 de test pour vérifier si tous les messages d'erreur reçus ont été traités. Cette étape 22 est répétée tant qu'aucun message d'erreur n'est reçu. Si aucun message d'erreurs n'est reçu après une période donnée, le procédé continue en 16 avec l'émission d'autres images. Alternativement la surveillance de la réception de messages d'erreur est faite simultanément avec l'émission d'images. Ultérieurement, un ou plusieurs messages d'erreur est reçu par le pont de conférence 2.
Suite à la détection de la réception d'une prernière erreur lors de l'étape 22, le procédé comprend une étape 24 d'analyse qui permet la détermination d'un niveau de gravité associé à l'erreur, lors d'une étape 26. Dans l'exemple, l'analyse 24 comprend une évaluation d'un niveau de qualité de la restitution calculé en fonction du pourcentage de fragments d'image ou macroblocs perdus, c'est-à-dire correspondants au quotient entre le nombre de blocs perdus et le nombre de blocs total de l'image. Cette évaluation du facteur qualité est notée fq et est calculée de la manière suivante : Np
Où Np est le nombre de blocs perdus, et Nt le nombre de blocs total de l'image. Avantageusement, l'analyse comprend également une évaluation de l'importance du contenu de la partie perdue pour déterminer le niveau de gravité. Ainsi, si la partie perdue correspond à un fond uniforme, la perte sera considérée comme moins importante que si la zone perdue contenait un objet en mouvement. Par exemple, cette analyse du contenu est réalisée par comparaison de la zone perdue entre les différentes images précédentes disponibles dans la mémoire 8.
De même, la localisation de la partie perdue peut également être prise en compte pour évaluer son importance. Par exemple, la zone centrale de l'image est considérée comme plus importante que les zones périphériques. En variante, l'analyse du message d'erreur comprend l'évaluation de paramètres liés au décodage comme les paramètres de séquence ou d'image couramment appelés SPS (Sequence Parameter Set) et PPS (Picture Parameter Set). Alternativement, l'analyse 24 comprend l'identification de la dernière image transmise sans erreurs et du temps écoulé entre l'image courante et cette dernière image. Plus ce temps est important, plus la correction va induire une dégradation de la qualité. Dans l'exemple, ce facteur temps est noté ft et est calculé de la manière suivante : le ù Idic fi= Nin ft = Fs si I~ ù Idic ? Dans ces équations, le est le numéro de l'image courante, ld;c est le numéro de la dernière image correcte et Nm représente le nombre d'images dans la mémoire 8 du pont 2. Fs représente un seuil de réaction du pont, c'est-à-dire la durée maximale stockée dans la mémoire 8. Si la durée séparant l'image courante de la dernière image correcte est supérieure à la durée de la si I, ù Idie < mémoire, la dernière image correcte n'est plus disponible dans la mémoire 8 et une valeur fixe est attribuée à Ft.
Avantageusement, l'analyse 24 prend en compte les conditions de transmission et notamment l'évolution du comporternent du canal de transmission entre le pont et les terminaux. Dans le mode de réalisation décrit, la probabilité qu'une perte intervienne sur un autre canal est estimée à partir des statistiques de perte fournies par les équipements du réseau et est prise en compte. Plus cette probabilité est élevée, plus la durée de la temporisation avant l'émission d'une réponse est importante car le risque qu'un autre message d'erreur survienne est élevé. Ce facteur statistique est noté Fstat et est calculé de la manière suivante : 1 Pr(i) fstat = Pr = N, N, Où Pr(i) représente le pourcentage de pertes sur le canal i entre le pont 2 et le terminal Ti, et N; représente le nombre total de terminaux en conférence, soit quatre dans l'exemple.
En fonction de tous ces facteurs, le niveau de gravité FGi est déterminé pour chaque message d'erreur au cours d'une étape 26. Dans l'exemple, ce niveau de gravité est obtenu en sommant les valeurs obtenues pour chaque facteur avec, avantageusement, des coefficients, notés X, pondérant l'importance relative des facteurs. Ainsi :
FGi = fia + /lit • fit + /listat fistat Le procédé comprend ensuite une étape 28 de détermination du niveau d'urgence courant, noté UR, correspondant à la sornme des niveaux de gravité FGi de tous les messages reçus depuis l'émission du dernier message de réponse.
Ce niveau d'urgence correspond à une quantification de l'urgence globale d'une réponse aux différents messages d'erreur reçus.
Le procédé comporte ensuite une étape 30 de décision de renvoyer un ou plusieurs messages de réponse aux messages d'erreur reçus depuis
l'émission du dernier message de réponse. Dans le mode de réalisation décrit, cette décision est une comparaison du niveau d'urgence avec le seuil de réaction noté Fs. Si l'étape 30 aboutit à la décision qu'aucune correction ne doit être envoyée pour l'instant, le procédé retourne directement à l'étape 20 d'initialisation des variables FGi. Lors de l'étape 22 qui suit, le procédé détecte que des messages d'erreur sont en attente de réponse et les étapes suivantes 24 à 28 sont répétées. L'évolution de certains facteurs entraîne le calcul d'un nouveau niveau d'urgence UR qui est comparé à nouveau au seuil de réaction Fs. Lorsque le niveau d'urgence UR atteint le seuil de réaction, il est décidé d'envoyer un message de réponse. Le procédé de l'invention continue alors par une étape 32 de détermination d'un ou plusieurs messages d'erreur. Par exemple, on considère les pertes P1 et P2 survenues entre le pont et les terminaux Ti et T2 telles que représentées en référence aux figures 4A et 4B. Sur la figure 4A est représentée la perte P1 survenue entre le pont et le terminal T1, relative à la partie supérieure d'une image identifiée comme étant l'image numéro 9 du flux F1 émis par le terminal Ti, la dernière image correcte étant l'image 8. Cette perte P1 porte sur 20 macroblocs sur les 100 qui forment l'image. Sur la figure 4B est représentée la perte P2 survenue entre le pont et le terminal T2, relative à la zone inférieure de l'image 11 du flux F2, la dernière image correcte étant l'image 10. Cette perte P2 porte sur 30 macroblocs sur les 100 qui forment l'image.
On admettra, pour la suite que le seuil de réaction Fs est fixé à 1 et que les coefficients ? sont fixés à 1. La mémoire 8 a, dans l'exemple, une capacité de 10 images. Le tableau suivant montre l'évolution de UR au cours du temps. Les indices 1 et 2 des facteurs fq, ft et fstat ainsi que du niveau de gravité FG correspondent respectivement aux perte P1 et P2.
Image 12 Perte P1 signalée par T1 f1q=0.2 flt _ 12ù8 10 =0.4 flstat=0.1 UR=J;FGi.=F1=0.7 d'où UR < Fs, Pas de réaction FG1 = flq + flt+ flstat = 0.7 Emission de l'image 12 Image 13 flq = 0.2 13ù8 flt=13 10 =0.5 flstat=0.1 UR=EFGi.=F1=0.8 d'où UR < Fs, Pas de réaction FG1= flq + f lt +flstat = 0.8 Emission de l'image 13 Image 14 f lq = 0.2 _ 14ù8 flt 10 =0.6 flstat = 0.1 d'où FG1 = flq+ flt+ flstat =0.9 Perte P2 signalée par T2 : f2q=0.3 14ù10 UR=EFGi=FG1+FG2=1. 2t = 0.4 UR > Fs, Réaction Emission d'une image de correction à la place de l'image 14 f = 10 f2stat = 0.05 d'où FG2 f 2q + f 2t + f 2stat = 0.75 Ainsi, dans cet exemple, il est décidé l'envoi d'un 1message de réponse lors de l'émission de l'image 14, suite à la réception des pertes P1 et P2. Différentes solutions sont possibles pour la mise en oeuvre de l'étape 32 de détermination de messages de réponse. Avantageusement, cette étape 32 de détermination comprend un regroupement 34 des différents messages d'erreur afin de réduire le nombre de messages de réponse par rapport au nombre de messages d'erreur. Avantageusement, les différentes corrections sont combinées lors d'une étape 36, de manière à apporter à différents messages d'erreur une réponse combinée. Un exemple d'une image de correction émise dans un message de réponse combiné suite à la réception des pertes P1 et P2 est représenté en référence à la figure 5. Sur cette figure, les parties supérieures et inférieures correspondant aux zones perdues sont codées en intra, c'est-à-dire sans référence aux images précédentes tandis que la partie centrale est codée normalement en inter avec référence aux images précédentes. Ainsi, en remplaçant l'image 14 dans le flux de sortie par cette image 14 correspondant à l'image de correction, le pont de conférence répond simultanément à chacun des messages d'erreur émis suite aux pertes P1 et P2. Alternativement, les messages d'erreur sont analysés afin d'apporter une correction commune à tous lors d'une étape 38. Par exemple, lorsque plusieurs messages d'erreur successifs portent sur une même image ou partie d'image mal restituée par plusieurs terminaux, un unique rnessage de réponse est transmis à tous les terminaux. UR=0. UR < Fs, Pas de réaction Emission de l'image 15 Image 15 Aucune perte
Par ailleurs, dans l'exemple, l'étape 34 de regroupement comprend aussi une sélection 40 de messages d'erreur auxquels aucune réponse n'est apportée. En particulier, lorsque des messages d'erreur portent sur des images antérieures à l'émission d'une image entièrement codée en intra, il n'est plus nécessaire d'y répondre. Alternativement, lorsque plusieurs messages d'erreur portent sur des images successives, seul le dernier message d'erreur sera sélectionné pour recevoir un message de réponse. Enfin, l'étape 32 de détermination d'un message de réponse comprend une étape 42 de mise en forme du message de réponse, c'est-à-dire de mise en forme de l'image de correction. Dans l'exemple, les quatre flux entrants sont formatés lors d'une étape 44 pour former le flux de sortie. Lorsqu'un message d'erreur portant sur une image du flux de sortie doit recevoir une réponse, il convient d'identifier les images de correction dans les flux entrants. Comme représenté en référence à la figure 6, la perte P1 porte à la fois sur une image du flux entrant FI et sur une image du flux entrant F2. Le pont de conférence doit alors identifier dans les flux entrants FI à F4, les images de correction correspondantes à ces pertes et les reformater pour les intégrer dans le message de réponse. Le message de réponse sera alors une image de correction dans laquelle les images de correction issues de flux entrants F1 et F2 sont placées dans leurs secteurs respectifs. Avantageusement, l'étape 42 de mise en forme comprend aussi le codage de l'image de correction en vue de sa transmission lors d'une étape 46. Dans le cas où l'analyse des messages d'erreur permet de déterminer la dernière image correctement reçue par tous les terminaux, l'image de correction est codée en inter par rapport à cette image afin d'obtenir une meilleur restitution. Dans l'exemple décrit en référence à la figure 5, l'image de correction émise en réponse aux pertes P1 et P2 comporte une partie centrale codée en inter par rapport à l'image 8, dernière image correctement reçue par tous les terminaux.
Enfin, le procédé comprend une étape 48 d'émission de l'image de correction. Comme indiqué précédemment, cette émission peut être faite par un message spécifique ou bien l'image de correction est émise à la place d'une image du flux de sortie. Dans l'exemple, l'image de correction remplace l'image 14 du flux de sortie. Par la suite, le procédé retourne à l'étape 18 d'initialisation de la variable UR et le procédé reprend pour les prochains messiages d'erreur. II est à noter que, dans le mode de réalisation décrit, l'utilisation du facteur temps pour le calcul du niveau de gravité et donc du niveau d'urgence, permet de déterminer un temps maximal de réponse. En effet, ce facteur augmente à l'émission de chaque nouvelle image de sorte que, selon le coefficient de pondération associé, il est possible de définir un temps maximal entre la réception d'un message d'erreur et l'émission d'un message de réponse. Par exemple, ce temps maximal est choisi égal à la durée de la mémoire tampon du pont de conférence 2 afin que celui-ci dispose localement des images de corrections nécessaires. Dans le mode de réalisation décrit, la valeur Fs correspondant au seuil de réaction du pont est attribué au facteur temps lorsqu'un message d'erreur porte sur une image qui n'est plus en mémoire. Le coefficient de pondération associé au facteur temps étant égal à 1, dès qu'un tel message d'erreur est reçu, une réponse lui sera apportée. Bien entendu, d'autres modes de réalisation sont également possibles. Dans une première variante, l'équipement de diffusion comporte une mémoire importante et est adaptée pour décoder les flux de vidéo entrants, les mémoriser sous forme décodée dans sa mémoire puis, les recoder vers les terminaux. L'équipement de diffusion devient ainsi en quelque sorte l'émetteur du contenu du point de vue des terminaux de décodage. Dans un tel mode de réalisation, les possibilités de codage de l'image de correction par l'équipement de diffusion sont très importantes puisqu'une partie importante des images précédentes est disponible.
Ainsi, lors de la réception de plusieurs messages d'erreur, l'analyse permet de déterminer quelle est la dernière image transmise sans erreur pour chacun des terminaux puis, le pont de conférence émet un message de correction en codant l'image courante par rapport à la dernière image reçue sans erreur par l'ensemble des terminaux. Ainsi, ce seul message de correction permettra à tous les terminaux de reprendre le cours de la séquence vidéo. Par rapport à l'exemple décrit précédemment, avec les pertes P1 et P2, un tel mode de réalisation permet l'émission d'un unique message de réponse comportant l'image de correction 14 codée par rapport à l'image numéro 8 de la séquence, cette image numéro 8 ayant été reçue correctement par tous les terminaux. Dans encore une autre variante, l'équipement de diffusion ne dispose que d'une mémoire limitée et doit émettre des requêtes vers chacun des émetteurs de contenu pour obtenir les images ou parties d'images formant les messages de correction. Ainsi, l'invention permet d'analyser finement les messages d'erreur sur le canal de retour et de quantifier leur gravité pour décider de leur traitement. Cette quantification permet en outre d'optimiser les messages de réponse en filtrant les messages rendus inutiles par un traitement antérieur, en calculant un temps maximal de réaction en fonction d'une pluralité de critères pour retarder la réponse à un message d'erreur, en appliquant des priorités sur l'envoi des messages de réponse, en fonction de la gravité de la perte ou encore de la dégradation de la qualité ou en fonction d'encore d'autres facteurs. L'invention permet également d'agréger plusieurs messages de retour ou encore de mettre le message de retour en forme en fonction du formant de la transmission établie. En outre, l'invention peut également utiliser n'importe quelle combinaison des variantes décrites.
Bien entendu, l'invention n'est pas limitée à un système multi diffusion tel que celui décrit mais peut être mise en oeuvre dans d'autres environnements tels qu'une diffusion point à point lorsque plusieurs messages d'erreur sur le canal de retour sont reçus successivement en provenance du même terminal ou encore dans tout autre type de système de diffusion de séquences vidéo. Par ailleurs, l'invention peut être mise en oeuvre au moyen d'un programme d'ordinateur comme cela est décrit ou bien d'autres moyens tels que des cartes électroniques, des composants programmés ou autre.

Claims (17)

REVENDICATIONS
1. Procédé de diffusion d'images d'une séquence vidéo, le procédé comprenant, au niveau d'un équipement de diffusion (2), les étapes suivantes : inclure (14) des images dans un flux ((p) de sortie pour une transmission à au moins un équipement de restitution (T1-T4) ; recevoir en retour dudit équipement de restitution des messages d'erreur (P1, P2) relatifs à la restitution des images de la séquence vidéo ; analyser (24) les messages d'erreur pour identifier des images ou parties d'images non ou mal restituées ; déterminer (32) des messages de réponse incluant des images ou parties d'images de correction, caractérisé en ce que le procédé comprend en outre : une étape (26) de détermination d'un niveau de gravité (FGi) pour chaque message d'erreur en fonction de l'analyse réalisée ; et une étape (30) de décision de renvoyer un rnessage de réponse à un message d'erreur en fonction du niveau de gravité de ce message d'erreur.
2. Procédé selon la revendication 1, caractérisé en ce qu'il comprend 20 une étape de mémorisation, par l'équipement de diffusion, d'une version décodée des images transmises dans le flux de sortie et en ce que les images ou parties d'images de correction sont issues des images mémorisées par l'équipement de diffusion. 25
3. Procédé selon la revendication 1, caractérisé en ce qu'il comprend une étape de transmission d'une requête d'images de correction par l'équipement de diffusion à un ou plusieurs émetteurs d'images, pour recevoir en retour lesdites images de corrections à inclure dans le ou lesdits messages de réponse. 10 15
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce que ladite analyse (24) comprend la détermination d'au moins un facteur issu du groupe suivant : un niveau de qualité de restitution (fq) prenant en compte l'erreur ; une évaluation de l'importance du contenu des images ou parties d'images non ou mal restituées ; des paramètres de décodage ; une évaluation (fstat) des conditions de transmission ; et une estimation (ft) de la durée entre l'image courante et la dernière image transmise sans erreur, ledit facteur étant utilisé pour déterminer le niveau de gravité associé à un message d'erreur.
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ledit niveau de gravité d'au moins un message d'erreur est une durée maximale d'attente (Fs) avant l'émission d'un message de réponse. 20
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce qu'il comprend la détermination d'un niveau d'urgence (UR) à partir des niveaux de gravité associés aux messages d'erreur reçus depuis l'émission du dernier message de réponse et en ce que ladite étape de 25 décision est réalisée en fonction de ce niveau d'urgence.
7. Procédé selon l'une quelconque des revendications 1 à 6, caractérisé en ce que ladite étape de détermination de messages de réponse comprend un regroupement (34) de messages de réponse. 10 15 30
8. Procédé selon la revendication 7, caractérisé en ce que ledit regroupement comprend l'agrégation (36) d'au moins deux corrections à apporter à différents messages d'erreur afin de former un message de réponse combiné.
9. Procédé selon la revendication 7, caractérisé en ce que ledit regroupement comprend la détermination (38) d'une correction commune à au moins deux messages d'erreur afin de former un message de réponse commun. 10
10. Procédé selon la revendication 7, caractérisé en ce que ledit regroupement comprend la sélection (40) de messages d'erreur auxquels aucune réponse ne sera apportée. 15
11. Procédé selon la revendication 10, caractérisé en ce que ladite analyse comprend une identification, dans les différents messages d'erreur, des images ou parties d'images non ou mal restituées et en ce que ladite étape de détermination de messages de réponse comprend la détermination d'un message de réponse commun pour les différents messages d'erreur relatifs 20 aux mêmes images ou parties d'images.
12. Procédé selon l'une quelconque des revendications 1 à 11, caractérisé en ce que ladite analyse comprend une identification d'une dernière image transmise sans erreur et en ce que ladite étape de détermination d'un 25 message de réponse comprend le codage (46) d'une image de correction par rapport à ladite dernière image transmise sans erreur.
13. Procédé selon l'une quelconque des revendications 1 à 12, caractérisé en ce que ladite étape d'inclusion des images dans un flux 30 comprend le formatage de plusieurs flux entrants pour former ledit flux de sortie, en ce que ladite étape d'analyse des messages d'erreur comprend 5l'identification des images non ou mal restituées dans lesdits flux entrants et en ce que ladite étape de détermination d'un message de réponse comprend la modification (44) d'images de correction issues desdits flux entrants pour les rendre conformes au format du flux de sortie.
14. Programme d'ordinateur pour équipement de diffusion d'images d'une séquence vidéo, comportant des instructions logicielles pour mettre en oeuvre les étapes d'un procédé selon l'une quelconque des revendications précédentes, lors qu'il est exécuté par une calculateur dudit ordinateur. 10 15 20 25
15. Equipement de diffusion (2) d'images d'une séquence vidéo, comprenant : des moyens (6) d'émission d'un flux de sortie comportant des images pour une transmission à au moins un équipement de restitution ; des moyens (6) de réception en retour dudit équipement de restitution des messages d'erreur relatifs à la restitution des images de la séquence vidéo ; des moyens (10) d'analyse des messages d'erreur pour identifier des images ou parties d'images non ou mal restituées ; des moyens (10) de détermination de messages de réponse incluant des images ou parties d'images de correction, caractérisé en ce qu'il comprend en outre : des moyens (10) de détermination d'un niveau de gravité pour chaque message d'erreur en fonction de l'analyse réalisée ; et des moyens (10) de décision de renvoyer un message de réponse à un message d'erreur en fonction du niveau de gravité de ce message d'erreur.
16. Equipement de diffusion selon la revendication 15, caractérisé en ce qu'il comporte des moyens aptes à mettre en oeuvre un procédé selon l'une quelconque des revendications 1 à 13.
17. Système de diffusion d'images d'une séquence vidéo, comportant au moins un émetteur d'images (T1-T4), un équipement de diffusion (2) vers au moins un équipement de restitution (T1-T4), caractérisé en ce que ledit équipement de diffusion est un équipement selon l'une quelconque des revendications 15 et 16.
FR0604777A 2006-05-29 2006-05-29 Diffusion d'images utilisant un canal de retour Pending FR2901648A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR0604777A FR2901648A1 (fr) 2006-05-29 2006-05-29 Diffusion d'images utilisant un canal de retour
US12/227,824 US8505060B2 (en) 2006-05-29 2007-05-22 Use of a feedback channel for image broadcasting
PCT/FR2007/051309 WO2008043923A1 (fr) 2006-05-29 2007-05-22 Utilisation d'un canal de retour pour la diffusion d'images
EP07858480A EP2025174A1 (fr) 2006-05-29 2007-05-22 Utilisation d'un canal de retour pour la diffusion d'images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0604777A FR2901648A1 (fr) 2006-05-29 2006-05-29 Diffusion d'images utilisant un canal de retour

Publications (1)

Publication Number Publication Date
FR2901648A1 true FR2901648A1 (fr) 2007-11-30

Family

ID=37836859

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0604777A Pending FR2901648A1 (fr) 2006-05-29 2006-05-29 Diffusion d'images utilisant un canal de retour

Country Status (4)

Country Link
US (1) US8505060B2 (fr)
EP (1) EP2025174A1 (fr)
FR (1) FR2901648A1 (fr)
WO (1) WO2008043923A1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8539286B1 (en) * 2013-02-26 2013-09-17 Roku, Inc. Method and apparatus of error reporting
US10313685B2 (en) * 2015-09-08 2019-06-04 Microsoft Technology Licensing, Llc Video coding
US10595025B2 (en) 2015-09-08 2020-03-17 Microsoft Technology Licensing, Llc Video coding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528284A (en) * 1993-02-10 1996-06-18 Hitachi, Ltd. Video communication method having refresh function of coding sequence and terminal devices thereof
EP0753968A2 (fr) * 1995-07-14 1997-01-15 Oki Electric Industry Co., Ltd. Système de transmission d'images en mouvement et appareil de transmission d'images en mouvement
WO2002035847A2 (fr) * 2000-10-27 2002-05-02 Polycom Israel Ltd. Appareil et procede d'amelioration de la qualite de communications video sur un reseau de commutation par paquets
EP1560434A2 (fr) * 2004-01-20 2005-08-03 Polycom, Inc. Procédé et dispositif permettant de mélanger des données vidéo compressées.

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104757A (en) * 1998-05-15 2000-08-15 North Carolina State University System and method of error control for interactive low-bit rate video transmission
US6289054B1 (en) * 1998-05-15 2001-09-11 North Carolina University Method and systems for dynamic hybrid packet loss recovery for video transmission over lossy packet-based network
US6636981B1 (en) * 2000-01-06 2003-10-21 International Business Machines Corporation Method and system for end-to-end problem determination and fault isolation for storage area networks
JP3617967B2 (ja) * 2001-09-28 2005-02-09 松下電器産業株式会社 ヘッダ圧縮パケット受信装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528284A (en) * 1993-02-10 1996-06-18 Hitachi, Ltd. Video communication method having refresh function of coding sequence and terminal devices thereof
EP0753968A2 (fr) * 1995-07-14 1997-01-15 Oki Electric Industry Co., Ltd. Système de transmission d'images en mouvement et appareil de transmission d'images en mouvement
WO2002035847A2 (fr) * 2000-10-27 2002-05-02 Polycom Israel Ltd. Appareil et procede d'amelioration de la qualite de communications video sur un reseau de commutation par paquets
EP1560434A2 (fr) * 2004-01-20 2005-08-03 Polycom, Inc. Procédé et dispositif permettant de mélanger des données vidéo compressées.

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ADAMSON NRL C BORMANN UNIVERSITAET BREMEN TZI M HANDLEY UCL J MACKER NRL B: "Multicast Negative-Acknowledgment (NACK) Building Blocks", IETF STANDARD-WORKING-DRAFT, INTERNET ENGINEERING TASK FORCE, IETF, CH, vol. rmt, no. 1, March 2006 (2006-03-01), XP015044069, ISSN: 0000-0004 *
ECKEHARD STEINBACH ET AL: "Standard Compatible Extension of H.263 for Robust Video Transmission in Mobile Environments", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 7, no. 6, December 1997 (1997-12-01), XP011014436, ISSN: 1051-8215 *
EVEN POLYCOM R: "RTP Payload Format for H.261 Video Streams", IETF STANDARD-WORKING-DRAFT, INTERNET ENGINEERING TASK FORCE, IETF, CH, vol. avt, no. 13, 23 January 2006 (2006-01-23), XP015043553, ISSN: 0000-0004 *

Also Published As

Publication number Publication date
WO2008043923A1 (fr) 2008-04-17
EP2025174A1 (fr) 2009-02-18
US20090138933A1 (en) 2009-05-28
US8505060B2 (en) 2013-08-06

Similar Documents

Publication Publication Date Title
WO2006075061A1 (fr) Procede et dispositif de codage video
EP2510701B1 (fr) Procede et systeme pour la determination de parametres de codage sur des flux a resolution variable
EP2332335A1 (fr) Systeme et procede de determination de parametres de codage
FR2873465A1 (fr) Multiplexeur statistique ayant des fonctions de protection vis a vis de messages exterieurs generes par des elements de systemes redondants
FR2916600A1 (fr) Procede et dispositif de transmission de donnees
WO2008156968A2 (fr) Mécanismes pour dissimuler des artefacts de vidéo en temps réel provoqués par une perte de trame
FR2903253A1 (fr) Procede permettant de determiner des parametres de compression et de protection pour la transmission de donnees multimedia sur un canal sans fil.
FR2901648A1 (fr) Diffusion d&#39;images utilisant un canal de retour
WO2006075070A1 (fr) Procede et dispositif de codage video
EP1302078B1 (fr) Procede et dispositif de codage d&#39;un flux d&#39;images video
EP1972156B1 (fr) Codage et decodage adaptatifs
FR2919779A1 (fr) Procede et dispositif de codage avec perte d&#39;un signal numerique
EP1172958A1 (fr) Système de communication, émetteur, mèthode de protection contre des erreurs de transmission
EP1289307B1 (fr) Méthode de codage vidéo
EP2936811A1 (fr) Procédé et dispositif de transmission d&#39;une séquence d&#39;images basé sur un codage région adaptatif
EP1241894A1 (fr) Procédé de codage d&#39;images numériques basé sur la dissimulation d&#39;erreurs
FR2898459A1 (fr) Procede et dispositif de reception d&#39;images ayant subi des pertes en cours de transmission
EP1900223A2 (fr) Procede et dispositif de codage video
EP3350931B1 (fr) Procédé d&#39;optimisation de transmission de flux de données vidéo dans un réseau sans fil
EP2559218A1 (fr) Reception d&#39;un contenu numerique en mode truque
EP2160837B1 (fr) Sélection de fonctions de décodage distribuée au décodeur
EP2129130A1 (fr) Procédé de transmission simplifié d&#39;un flux de signaux entre un émetteur et un appareil électronique
EP2163020B1 (fr) Methode a base de codes correcteurs d&#39;erreurs applicable a un flux de donnees multimedia a debit variable
FR2728129A1 (fr) Dispositif de multiplexage numerique de programmes video
EP2075960A1 (fr) Système et procédé d&#39;adaptation des flux de contenu vidéo à la variabilité des conditions de transmission d&#39;un réseau radiotéléphonique et à la dynamique du contenu de la source vidéo