FR2931610A1 - Procede et un dispositif de transmission de donnees d'images - Google Patents

Procede et un dispositif de transmission de donnees d'images Download PDF

Info

Publication number
FR2931610A1
FR2931610A1 FR0853281A FR0853281A FR2931610A1 FR 2931610 A1 FR2931610 A1 FR 2931610A1 FR 0853281 A FR0853281 A FR 0853281A FR 0853281 A FR0853281 A FR 0853281A FR 2931610 A1 FR2931610 A1 FR 2931610A1
Authority
FR
France
Prior art keywords
resolution
image
corrective signal
images
corrective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0853281A
Other languages
English (en)
Other versions
FR2931610B1 (fr
Inventor
Patrice Onno
Leannec Fabrice Le
Xavier Henocq
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to FR0853281A priority Critical patent/FR2931610B1/fr
Priority to US12/468,343 priority patent/US20090290648A1/en
Publication of FR2931610A1 publication Critical patent/FR2931610A1/fr
Application granted granted Critical
Publication of FR2931610B1 publication Critical patent/FR2931610B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • H04N21/6379Control signals issued by the client directed to the server or network components directed to server directed to encoder, e.g. for requesting a lower encoding rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Le procédé de transmission de données d'images d'une séquence d'images comporte, pour au moins une image de ladite séquence d'images : - une étape de codage d'une image initiale à une première résolution, - une étape (602, 607) de détermination d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution, - une étape (603, 604, 608, 609) de codage dudit signal correctif et - une étape de transmission de l'image codée à la première résolution et du signal correctif codé.

Description

La présente invention concerne un procédé et un dispositif de transmission de données d'images. Le domaine technique de l'invention concerne, plus particulièrement, le streaming vidéo hiérarchique de type SVC (acronyme de Scalable Video Coding pour codage vidéo adaptable) et ses utilisations dans le cadre de diffusion vidéo (souvent appelée video streaming en anglais). Le futur standard de compression vidéo hiérarchique SVC est une extension du standard vidéo H.264. Cette extension SVC a pour but d'apporter des fonctionnalités nouvelles, par rapport au standard H.264, tout en conservant un excellent taux de compression. Ces nouvelles fonctionnalités concernent principalement la scalabilité (adaptabilité) spatiale, la scalabilité temporelle et la scalabilité en qualité. Plus précisément, à partir d'un unique flux SVC, on pourra extraire des sous flux correspondant à des résolutions spatiales inférieures, des fréquences temporelles inférieures et des qualités inférieures. Un exemple caractéristique est de compresser une vidéo de haute définition spatiale 720x576, c'est-à-dire de 576 lignes de 720 pixels, ou points d'image, et comportant 60 images par seconde. Ce format vidéo de résolution spatiale 720x576, à 60 Hz sera alors décodable à partir d'un appareil ayant de bonnes capacités de décodage tel un ordinateur ou un téléviseur muni d'un décodeur interne ou externe. Grâce à la norme SVC, il est également possible, à partir de ce flux SVC, d'extraire un sous flux correspondant à des tailles d'images réduites nécessitant moins de puissance de décodage. Par exemple, à partir du fichier compressé de la séquence 720x576, 60 Hz, une vidéo de résolution 180x144 (quatre fois plus petite en largeur et en hauteur) comportant 7,5 images par seconde est extractible. De ce fait, ce sous-flux est plus facilement décodable par un appareil de faible capacité tel un téléphone portable.
Dans le cadre d'une application de diffusion de vidéo de type streaming entre un système serveur et un client par l'intermédiaire d'un réseau, la norme SVC présente des avantages importants lorsqu'il s'agit de s'adapter aux conditions du réseau, en particulier pour prendre en compte la variation de la bande passante. Cependant, selon la norme SVC, lorsqu'un changement de résolution est fait au niveau du décodeur, les images de référence de la nouvelle résolution spatiale n'ont pas été décodées. Une dérive temporelle apparaît lorsqu'un changement de résolution spatiale intervient pendant le décodage. Cette dérive est la conséquence d'un changement d'images de référence lors de la compensation de mouvement réalisée au décodeur. Aujourd'hui, le décodeur de référence SVC appelé JSVM ne permet pas de passer facilement en cours de décodage d'une résolution spatiale à une autre résolution spatiale. Il est nécessaire d'introduire des solutions permettant le passage d'une résolution spatiale à une autre. Intuitivement, des solutions simples et immédiates peuvent être mises en oeuvre pour resynchroniser le décodeur sur la résolution spatiale souhaitée. En particulier, deux solutions sont possibles. La première est basée sur l'utilisation d'image IDR (acronyme de Instantaneous Decoding Refresh pour rafraîchissement de décodage instantané), la seconde sur le décodage d'images dites clés . Si une vidéo est encodée en temps réel, il est toujours possible d'introduire des images IDR qui sont des images dites Intra dans la résolution spatiale souhaitée, afin d'éviter toutes les dépendances temporelles existantes avec les images passées. Cette solution s'applique facilement pour des encodages de type temps réel où l'on peut glisser, immédiatement après détection de changement de résolution spatiale, une image IDR dans la résolution spatiale ciblée afin de réduire la dérive. Dans le cas où les vidéos SVC sont pré-encodées, il est nécessaire d'introduire dans le flux SVC des images IDR assez fréquemment pour permettre le passage d'une résolution spatiale à une autre lors de décodages futurs. Ceci doit être aussi prévu à toutes les résolutions spatiales du flux SVC pour permettre n'importe quel changement de résolution spatiale.
Cependant, l'introduction fréquente d'images IDR dans un flux vidéo pénalise l'efficacité de codage de la séquence vidéo car le coût de codage associé est important. Le but de l'utilisation des images dites clés est le même que celui des images IDR : l'utilisation de ces images permet de resynchroniser les flux SVC afin de limiter la dérive induite par le changement de résolution spatiale. Dans la terminologie SVC, les images clés sont des images des couches inférieures qui sont utilisées pour la prédiction inter-couches. L'introduction d'images clés dans un flux SVC affecte moins l'efficacité de décodage car ces images sont en général des images prédites appelées images P dont le coût de codage est faible. Cependant, la particularité des images clés est la suivante : une boucle de décodage est maintenue au niveau des couches spatiales utilisant les images clés . Plus précisément, au lieu de réaliser le décodage complet d'une couche inférieure, seules les images clés sont décodées. Cette solution présente l'inconvénient de devoir réaliser une boucle de décodage dans les couches inférieures pour accéder rapidement à ces images. Cela rend plus complexe le décodeur car la compensation de mouvement doit être appliquée et des mémoires supplémentaires pour stocker ces images clés décodées sont nécessaires.
Dans la norme H.264, deux éléments de syntaxe ont été définis pour définir deux types de tranches (en anglais, slice ) pour faire la transition entre deux flux H.264 distincts. Les tranches de commutation appelées SP et SI ont été définies pour faire le lien entre deux trains binaires ( bitstream ) de même résolution spatiale. Cette commutation sophistiquée de flux permet de faire du streaming vidéo à débit variable. Quand un décodeur saute d'un flux à un autre, au milieu d'un flux vidéo, il peut se synchroniser, en utilisant les tranches de commutation, avec les images présentes à cet endroit, malgré l'utilisation d'autres images (ou pas d'images) comme références préalables au déplacement. Cependant, les résolutions spatiales doivent être identiques. Lors de la standardisation de la norme SVC, une proposition technique a été faite par J. Jia, H.C. Choi, and J.G. Kim. SP-picture for SVC (Technical Report JVT-T022, Sejong Univ. and ETRI, 20th JVT Meeting, Klagenfurt, Austria, Juillet 2006), pour inclure des nouveaux types de tranche pour faire des commutations entre deux couches spatiales. Cette proposition n'a pas été adoptée. Cependant, ces tranches SP ou SI telles que définies dans cet article ne sont que des moyens de commutation, qui doivent être connus du décodeur et ne peuvent donc pas être utilisés à large échelle s'ils ne sont pas standardisés. La présente invention vise à remédier à ces inconvénients. A cet effet, selon un premier aspect, la présente invention vise un procédé de transmission de données d'images d'une séquence d'images, caractérisé en ce qu'il comporte, pour au moins une image de ladite séquence d'images : - une étape de codage d'une image initiale à une première résolution, - une étape de détermination d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution, - une étape de codage dudit signal correctif et - une étape de transmission de l'image codée à la première résolution et du signal correctif codé. Grâce à ces dispositions, le destinataire des données codées peut, lors d'une commutation entre la première résolution et la deuxième résolution, pour constituer une image à la deuxième résolution, décoder l'image précédente à la première résolution, modifier l'échantillonnage de l'image décodée, et corriger l'image ainsi ré-échantillonnée, éventuellement compensée en mouvement avec ajout d'un résidu, avec le signal correctif. Une commutation de résolution est ainsi aisée. On corrige ainsi l'erreur introduite par la dérive temporelle lorsqu'un changement de résolution spatiale intervient pendant le décodage. La mise en oeuvre de la présente invention a pour avantage de maintenir la qualité initiale de toutes les images des résolutions spatiales en cours de décodage. Elle permet notamment de corriger le comportement du décodeur afin de maintenir une bonne qualité au cours du décodage lors du passage entre deux résolutions spatiales d'une séquence vidéo, par exemple codée au format SVC. Les avantages de la mise en oeuvre de la présente invention 5 comportent que : - le changement de résolution spatiale peut être réalisé très efficacement et a un coût raisonnable, en termes de traitements et/ou de débit, - le coût de codage est beaucoup moins élevé que pour une image IDR et 10 - il n'est pas nécessaire d'introduire des images clés qui nécessitent la mise en place d'un décodage avec compensation de mouvement sur toutes les couches, pour lequel plusieurs boucles de décodage sont nécessaires (et connu en anglais sous le terme de multi loop decoding ). Selon des caractéristiques particulières, au cours de l'étape de 15 détermination d'un signal correctif, on détermine le signal correctif comme une image égale à la différence entre : - l'image suivante à la deuxième résolution et - la somme de : - l'image initiale à la première résolution, codée et décodée à 20 la première résolution, ré-échantillonnée pour atteindre la deuxième résolution et compensée avec la compensation entre l'image de référence de l'image suivante et l'image suivante à la deuxième résolution et - un résidu à la deuxième résolution. 25 Grâce à ces dispositions, on calcule directement la première image à la nouvelle résolution, sans avoir à calculer d'image de référence à cette nouvelle résolution. Selon des caractéristiques particulières, au cours de l'étape de détermination d'un signal correctif, le signal correctif est représentatif de la 30 différence entre l'image initiale à la première résolution ré-échantillonnée à la deuxième résolution et une image de référence de l'image suivante codée à la deuxième résolution.
Selon des caractéristiques particulières, le procédé objet de la présente invention, tel que succinctement exposé ci-dessus comporte, en outre, une étape de détection de changement de résolution spatiale, au niveau d'un décodeur, pour atteindre une deuxième résolution à partir de l'image suivant l'image initiale, l'étape de détermination du signal correctif étant effectuée après l'étape de détection. Le codeur tient ainsi compte du besoin du décodeur et n'a pas à calculer de signal correctif pour l'ensemble des images de la séquence d'images.
Selon des caractéristiques particulières, on effectue régulièrement, pour des images d'un flux d'image, pour au moins un changement de résolution spatial possible, l'étape de détermination d'erreur, l'étape de codage d'un signal correctif de ladite erreur et une étape de mémorisation conjointe du signal correctif codé et des images codées pour constituer un flux de données à transmettre et au cours de l'étape de transmission, on ne transmet un signal correctif codé qu'en cas de détection de changement de résolution. Ce mode de réalisation particulier s'adapte particulièrement au cas où l'encodage de la séquence est réalisé avant stockage en vue d'une transmission ultérieure, par exemple au cas des vidéos pré-encodées. Les unités de codage correctives sont générées, en amont de la transmission, en prévision de possibles changements de résolution spatiale. Selon des caractéristiques particulières, au cours de l'étape de codage du signal correctif, on associe le signal correctif à un identifiant spécifique. Le décodeur peut ainsi aisément repérer le signal correctif et, éventuellement, un changement de résolution spatiale. Selon des caractéristiques particulières, le codage du signal correctif est effectué par unité de codage et l'identifiant spécifique est inséré dans un en-tête de chaque unité de codage représentant le signal correctif. On peut donc profiter de champs d'en-tête normalisés pour spécifier des informations propriétaires ou destructibles ( discardable en anglais). Selon des caractéristiques particulières, au cours de chaque étape de codage, on code une image avec un format hiérarchique.
Selon des caractéristiques particulières, au cours de chaque étape de codage, on met en oeuvre un codage SVC (acronyme de Scalable Video Coding ). Selon des caractéristiques particulières, au cours de l'étape de codage du signal correctif, on crée au moins une unité de codage SVC encapsulant le signal correctif dans au moins un élément de syntaxe pour créer une unité de codage optionnelle dans le flux de données. Ainsi, on insère les unités de codages contenant le signal correctif dans le flux SVC préexistant. On peut ainsi passer d'une résolution spatiale à une autre en utilisant un élément de syntaxe SVC. Par ce moyen additionnel, l'erreur due à la dérive temporelle est supprimée et la qualité de décodage est préservée même si les images de référence pour la compensation de mouvement sont différentes lors d'un changement de résolution spatiale. De plus, grâce à ces dispositions, on peut réutiliser un élément de syntaxe SVC dont la particularité est qu'il soit optionnel. Avantageusement, la transmission de ces unités de codages contenant le signal correctif est transparente au niveau réseau : les unités de codage correctives sont véhiculées de la même manière que des unités de codage normales. Il n'existe pas un canal parallèle pour les acheminer et l'ajout d'un nouvel élément de syntaxe n'est pas nécessaire. Selon un deuxième aspect, la présente invention vise un procédé de réception de données d'image d'une séquence d'images, caractérisé en ce qu'il comporte, pour au moins une image de ladite séquence d'images : - une étape de décodage d'une image initiale à une première 25 résolution, - une étape de décodage d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution et 30 - une étape de décodage de l'image suivante, à la deuxième résolution, en mettant en oeuvre l'image initiale décodée à la première résolution et ledit signal correctif.
Selon des caractéristiques particulières, le procédé de réception objet de la présente invention, tel que succinctement exposé ci-dessus comporte, en outre, une étape de détection de changement de résolution spatiale, au cours de laquelle on détecte la réception d'un dit signal correctif codé, l'étape de décodage du signal correctif et l'étape de décodage de l'image suivante étant effectuée après détection d'un changement de résolution spatiale. Selon des caractéristiques particulières, au cours du décodage de l'image suivante, on détermine l'image suivante comme égale à la somme de : - d'une image corrective représentée par le signal correctif et - la somme de : - l'image initiale à la première résolution ré-échantillonnée pour atteindre la deuxième résolution et compensée avec la compensation entre l'image de référence de l'image suivante et l'image suivante à la deuxième résolution et - un résidu à la deuxième résolution. Selon un troisième aspect, la présente invention vise un dispositif de transmission de données d'images d'une séquence d'images, caractérisé en ce qu'il comporte : - un moyen de codage d'une image initiale à une première résolution, - un moyen de détermination d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution, - un moyen de codage dudit signal correctif et - un moyen de transmission de l'image codée à la première résolution et du signal correctif codé. Selon un quatrième aspect, la présente invention vise un dispositif de réception de données d'images d'une séquence d'images, caractérisé en ce qu'il comporte : - un moyen de décodage d'une image initiale à une première résolution, - un moyen de décodage d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution et - un moyen de décodage de l'image suivante, à la deuxième résolution, en mettant en oeuvre l'image initiale décodée à la première résolution et ledit signal correctif. Selon un cinquième aspect, la présente invention vise un programme d'ordinateur chargeable dans un système informatique, ledit programme contenant des instructions permettant la mise en oeuvre du procédé objet de la présente invention tel que succinctement exposé ci-dessus. Selon un sixième aspect, la présente invention vise un support d'informations lisibles par un ordinateur ou un microprocesseur, amovible ou non, conservant des instructions d'un programme informatique, caractérisé en ce qu'il permet la mise en oeuvre du procédé objet de la présente invention tel que succinctement exposé ci-dessus. Les avantages, buts et caractéristiques particulières de ce procédé de réception, de ces dispositifs, de ce programme et de ce support d'information étant similaires à ceux du procédé de transmission, tel que succinctement exposé ci-dessus, ils ne sont pas rappelés ici. D'autres avantages, buts et caractéristiques particulières de la présente invention ressortiront de la description qui va suivre, faite, dans un but explicatif et nullement limitatif, en regard des dessins annexes, dans lesquels : - la figure 1 représente, schématiquement, un mode de réalisation particulier du dispositif objet de la présente invention, - la figure 2 représente, schématiquement, des images d'une séquence vidéo et des couches ( layers ) représentant ces images, - la figure 3 représente un serveur et un client reliés par un réseau, - les figures 4A et 4B représentent des changements de niveaux de résolution spatiale descendant et ascendant, respectivement et - les figures 5 à 7 représentent, sous forme de logigrammes, des étapes d'un mode de réalisation particulier du procédé objet de la présente invention. On observe, en figure 1, que, dans un mode de réalisation particulier, le dispositif objet de la présente invention, prend la forme d'un micro-ordinateur 100 muni d'un logiciel implémentant le procédé objet de la présente invention et de différents périphériques. Le dispositif est constitué ici d'un serveur adapté à transmettre des images codées à des clients (non représentés). Le micro-ordinateur 100 est connecté à différents périphériques, par exemple un moyen d'acquisition ou de stockage d'images 107, par exemple une caméra numérique ou un scanner, relié à une carte graphique (non représentée) et fournissant des informations d'image à compresser et à transmettre. Le micro-ordinateur 100 comporte une interface de communication 118 reliée à un réseau 134 apte à transmettre des données numériques à compresser et à transmettre des données compressées par le micro-ordinateur. Le micro-ordinateur 100 comporte également un moyen de stockage 112 tel que, par exemple, un disque dur. Le micro-ordinateur 100 comporte aussi un lecteur de disquette 114. Une mémoire externe, ou clé comportant une mémoire (par exemple une clé dite USB par référence à son port de communication) 116, comme le moyen de stockage 112, peuvent contenir des données compressées ou à compresser. La mémoire externe 116 peut aussi contenir des instructions d'un logiciel implémentant le procédé objet de la présente invention, instructions qui, une fois lues par le micro-ordinateur 100, sont stockées dans le moyen de stockage 112. Selon une variante, le programme permettant au dispositif de mettre en oeuvre la présente invention est stocké en mémoire morte 104 (appelée ROM , acronyme de read only memory, en figure 1). En seconde variante, le programme est reçu par l'intermédiaire du réseau de communication 134 et est stocké dans le moyen de stockage 112. Le micro-ordinateur 100 est relié à un micro 124 par l'intermédiaire de la carte d'entrée/sortie 122. Le micro-ordinateur 100 possède un écran 108 permettant de visualiser les données à compresser ou de servir d'interface avec l'utilisateur, à l'aide d'un clavier 110 ou de tout autre moyen (souris par exemple). Bien entendu, la mémoire externe 116 peut être remplacée par tout support d'information tel que CD-ROM (acronyme de compact disc û read only memory pour mémoire en lecture seule en disque compact) ou une carte mémoire. De manière plus générale, un moyen de stockage d'information, lisible par un ordinateur ou par un microprocesseur, intégré ou non au dispositif, éventuellement amovible, mémorise un programme mettant en oeuvre le procédé objet de la présente invention.
Une unité centrale 120 (appelée CPU , acronyme de central processing unit, en figure 1) exécute les instructions du logiciel implémentant le procédé objet de la présente invention. Lors de la mise sous tension, les programmes permettant l'implémentation du procédé objet de la présente invention stockés dans une mémoire non volatile, par exemple la ROM 104, sont transférés dans la mémoire vive RAM 106 qui contient alors les instructions de ce logiciel ainsi que des registres pour mémoriser les variables nécessaires à la mise en oeuvre de l'invention. Un bus de communication 102 permet la communication entre les différents éléments du micro-ordinateur 100 ou reliés à lui. La représentation du bus 102 n'est pas limitative. Notamment, l'unité centrale 120 est susceptible de communiquer des instructions à tout élément du dispositif directement ou par l'intermédiaire d'un autre élément du dispositif. La figure 2 représente schématiquement de nouvelles fonctionnalités offertes par le standard SVC. En particulier, elle montre les différentes adaptabilités (appelées aussi scalabilités ) temporelles et spatiales que l'on peut obtenir. Sur cet exemple particulier, à partir d'une séquence vidéo 205 de format 720x576 originellement composée de 60 images par seconde, il est possible d'encoder (et réciproquement de décoder) : - une résolution spatiale inférieure, images 220, 225 et 230, dont la taille ici est égale à 360x288, qui correspond, typiquement, à la résolution d'écran d'un assistant personnel électronique connu sous le nom de PDA (acronyme de Personal Digital Assistant) et - une résolution spatiale encore inférieure, images 235, 240 et 245, dont la taille ici est égale à 180x144, qui correspond, typiquement, à la résolution d'écran d'un téléphone mobile. De la même manière, il est possible de coder (et par la suite de décoder), pour une même résolution spatiale (720x576), différentes représentations temporelles dyadiques: 60 Hz (images 210, 220 et 235), 30 Hz (images 215, 225 et 240), 15 Hz (images 230 et 245). Le nombre de représentations temporelles est également choisi par l'utilisateur au moment de l'encodage.
Ces différentes représentations spatiales et temporelles sont disponibles pour n'importe quelle résolution spatiale et fréquence d'image et non seulement celles illustrées en figure 2. Enfin, pour chaque image des séquences illustrées, la norme permet d'attribuer un débit variable à chaque image et de fournir ainsi une scalabilité en 15 termes de qualité. Bien entendu, la notion de scalabilité spatiale est utilisée pour viser des tailles de récepteur d'images couramment utilisés lors de la visualisation de vidéos. L'exemple de cette figure montre des rapports de deux entre les résolutions spatiales successives, mais il est à noter que la norme n'est pas 20 limitée à des résolutions dont les ratios sont égaux à deux. D'autre part, les rapports peuvent être différents pour la hauteur et la largeur des images. Dans un contexte de vidéo streaming (flux vidéo continu), ce sont les unités de données compressées correspondant à ces différentes images qui sont véhiculées dans le réseau. 25 Comme illustré en figure 3, l'invention concerne l'adaptation d'un signal numérique vidéo qui peut avantageusement être mise en oeuvre entre deux appareils de communication, l'un dit serveur , noté 300, qui fournit les images encodées à l'autre, dit client , noté 302, par l'intermédiaire d'un réseau de communication 304. Dans le contexte de l'invention, le serveur 300 30 dispose d'un signal numérique à transmettre, sous forme codée, au client distant 302 par l'intermédiaire du réseau 304. Le serveur a des moyens qui le rendent apte à calculer un signal correctif apte à éliminer la dérive introduite en cas de changement de résolution. Le client 302 est un récepteur du signal vidéo et possède les moyens qui le rendent apte à effectuer, sur le signal reçu, un décodage adapté pour éliminer la dérive introduite par le changement de résolution spatiale utilisant le signal correctif transmis par le client.
Dans le cadre des applications de streaming vidéo, les protocoles classiques de transmission sont mis en jeu entre le serveur 300 et le client 302. En particulier, le serveur 300 et le client 302 utilisent le protocole RTSP (acronyme de Real Time Streaming Protocol pour protocole de diffusion en temps réel) pour contrôler l'affichage de la séquence vidéo. Grâce au protocole RTSP, le client peut préciser la vidéo à transmettre à un serveur distant en précisant son URI (acronyme de Uniform Resource Identifier pour identifiant de ressource uniforme). Les caractéristiques de la vidéo sont également transmises du serveur 300 au client 302 afin que le décodeur connaisse ces caractéristiques. D'autres informations utiles peuvent ainsi être communiquées entre le serveur 300 et le client 302 en utilisant le protocole RTSP. D'autre part, un protocole sous-jacent, RTP (acronyme de Real Time Protocol pour protocole temps réel), est aussi utilisé pour transmettre en temps réel les données codées de la séquence vidéo SVC. Le protocole RTP s'appuie également sur la définition d'une charge utile ( payload ) SVC pour faire correspondre les unités de codage SVC sous la forme de paquets réseau RTP. Dans le reste de la description et à des fins de simplification, nous envisageons seulement un seul changement de niveau de résolution. Un changement de plusieurs niveaux à la fois sera considéré comme plusieurs changements d'un seul niveau. Les figures 4A et 4B présentent les deux cas possibles d'augmentation et diminution de résolution spatiale. Les figures illustrent ici trois niveaux de résolution spatiales possibles R = 0, R = 1 et R = 2 ayant les mêmes résolutions temporelles. Les flèches représentées sur les figures 4A et 4B relient les images successivement fournies en sortie par le décodeur, par exemple pour affichage immédiat ou stockage, ces images étant représentées en traits plein. Les images représentées en traits discontinus ne sont pas fournies en sortie du décodeur. Les images hachurées représentent les images de référence manquantes pour le décodage de la première image (instant t1) dans la résolution suivant un changement de résolution, ce changement ayant lieu à partir de l'instant tO. La figure 4A présente un cas où une diminution de la résolution temporelle est réalisée à l'instant tO. On passe ainsi de la couche spatiale initiale de niveau R = 2 à la couche de résolution spatiale cible de niveau R = 1. Selon l'invention, on utilise une image de référence particulière lors de la compensation de mouvement pour un changement de résolution spatiale. On prend également en compte l'ajout d'une unité de codage corrective UCdown à l'image correspondant à l'instant t1, (c'est-à-dire l'image suivant l'image où la diminution de résolution est entamée) de la couche de résolution spatiale cible de niveau R = 1 afin de corriger l'erreur engendrée par la dérive de la compensation de mouvement. En effet, lors de l'encodage, l'image t1 de la résolution spatiale cible de niveau R = 1 est prédite à partir d'au moins une image de même résolution précédant l'image à l'instant t1. Dans la suite de la description, une seule image de référence est considérée. Cependant, l'invention s'applique aussi dans le cas ou il y a plusieurs images de références et l'adaptation des moyens et étapes décrits ci-dessous à ce cas ne pose aucune difficulté à l'homme du métier. Comme illustré dans cette figure 4A, les images représentées en traits discontinus t-2 à t0 ne sont pas disponibles. En effet, bien que les unités de codage soient disponibles pour le décodeur au niveau du flux binaire, elles ne sont pas décodées. La boucle de compensation de mouvement n'est donc pas effectuée au niveau du décodeur. Elles ne peuvent donc pas être utilisées pour servir de référence à la prédiction de l'image t1.
L'invention a pour but de corriger ce manque en s'appuyant sur les images de la résolution spatiale initiale, de niveau R = 2. L'unité de codage corrective UCdown permet de corriger l'erreur introduite par l'utilisation d'une image de référence de la couche de résolution spatiale initiale de niveau R = 2 au lieu de l'image réellement utilisée pour réaliser le codage de l'image t1 de la couche de résolution spatiale cible de niveau R = 1. Les figures 5 à 7 décrivent les étapes de création des unités de codage correctives UCdown.
La figure 4B présente un cas où une augmentation de la résolution temporelle est réalisée à l'instant t0. On passe ainsi de la couche de résolution spatiale initiale de niveau R = 1 à la couche de résolution spatiale cible de niveau R = 2. Selon l'invention, on procède, de la même manière que dans le cas précédent, à un traitement particulier lors de la compensation de mouvement. On prend également en compte l'ajout d'une unité de codage corrective UCup à l'image t1 de la couche de résolution spatiale cible, de niveau R = 2, afin de corriger l'erreur engendrée par la dérive de la compensation de mouvement.
La figure 5 décrit les principales étapes pour mettre en oeuvre l'invention au niveau du serveur où un encodeur de type SVC est utilisé. Au cours d'une étape 500, on effectue une initialisation pour l'encodage de la séquence vidéo de type SVC où différents paramètres d'encodage sont fixés. Ces paramètres d'encodage concernent, par exemple, le nombre de résolutions spatiales du flux, les résolutions temporelles choisies, la valeur des pas de quantification de chaque couche et/ou la structure des groupes d'images, ou GOP (acronyme de Group of Pictures ). Ces paramètres correspondent typiquement aux fichiers de configurations de l'encodeur du logiciel de référence de SVC appelé JSVM .
Au cours d'une étape 501, on initialise un compteur d'images de la séquence I à O. Au cours d'une étape 502, on initialise un compteur R pour traiter les résolutions choisies pour l'encodage, à 0 . Par exemple, les résolutions sont au nombre de trois en figures 2, 4A et 4B. Au cours d'une étape 503, on procède au codage de l'image d'indice I et de résolution R, tel que le serait l'image dans un codeur de type SVC avec les valeurs des paramètres de codage choisies. Au cours d'une étape 504, on détermine si on doit insérer une unité de codage corrective pour supprimer les effets de la dérive causé par un changement de résolution. Un changement de résolution spatiale peut être demandée soit : - par l'utilisateur, au niveau du client, par exemple au moyen d'une interface graphique. Un moyen de communication entre le client et le serveur permet d'informer l'encodeur pour effectuer les changements nécessaires correspondant au changement de résolution souhaitée par le client ; - par un système de contrôle de débit directement relié à l'encodeur. Dans ce cas, il est possible que, pour des besoins de régulation de débit, le système de contrôle de débit passe d'une résolution spatiale à une autre sans intervention du client. Dans cette étape 504, on peut distinguer deux cas, ou scénarii, distincts : - dans le cas où l'encodage complet de la séquence est réalisé avant toute transmission, un stockage des vidéos pré-encodées précédant toute diffusion/transmission (cas des vidéos pré-encodées), l'étape 504 consiste à respecter la fréquence F prédéterminée d'apparition des unités de codage correctives. En effet, dans ce cas précis, on ne peut pas déterminer lors de l'encodage les futurs changements de résolution spatiale au niveau du décodeur. Dans ce mode, il suffit donc de prévoir ces unités de codage correctives UCdown et UCup assez fréquemment afin de pouvoir passer rapidement d'une résolution à une autre. Par exemple, on peut associer un sous-flux correctif à toutes les images (F = 1), toutes les deux images (F = 2) ou encore toutes les trois images (F = 3). Il est à noter que lors de la transmission (streaming) de cette vidéo, les unités de codage correctives UCdown ou UCup ne sont transmises que lors d'un changement effectif de résolution qui les concerne. Ces unités de codage correctives UCdown et UCup sont générées en prévision de possibles changements de résolution spatiale. Elles sont identifiées par la mise à 1 d'une valeur binaire ( bit ) particulière de chaque NAL unit qui les encapsule, ce qui offre l'avantage de les considérer comme optionnelles comme exposé plus loin. On note aussi qu'il est nécessaire de prévoir, pour une image, les unités de codage correctives UCdown et UCup dans le cas d'une diminution ou d'une augmentation de la résolution dans les couches spatiales qui le permettent. Typiquement, si la séquence vidéo comporte trois résolutions spatiales comme illustré en figures 4A et 4B, on associe à la première couche R = 0, pour les images sélectionnées, seulement une unité de codage corrective UCup pour le cas d'une diminution (on note que l'unité corrective est associée à la résolution finale et non la résolution initiale) de résolution spatiale. En revanche, la couche intermédiaire de résolution R = 1, comporte deux unités de codage correctives UCdown et UCup afin de prévoir soit une diminution de la résolution spatiale ou soit une augmentation de la résolution spatiale. Enfin, pour la résolution la plus élevée, R = 2, une seule unité de codage corrective UCup est nécessaire et correspond au cas d'une augmentation de résolution ; - dans le cas particulier où la vidéo est encodée en temps réel, l'encodeur génère, légèrement en avance, les images codées avant que le décodeur ne les reçoive et ne les décode. Dans ce cas, l'encodeur peut réagir immédiatement aux changements de résolution spatiale en produisant l'unité de codage corrective dès lors qu'un changement de résolution spatiale est demandé. On note qu'ainsi les unités de codage correctives sont automatiquement créées en fonction des changements réels de résolution réalisés au décodeur. S'il n'est pas nécessaire de créer une unité de codage corrective, on passe à une étape 506. S'il est nécessaire de créer une unité de codage corrective, au cours d'une étape 505 l'unité de codage corrective est créée, comme exposé en regard de la figure 6.
Au cours de l'étape 506, on détermine si le traitement de la dernière résolution de cette image a été réalisé. Si le résultat de l'étape 506 est négatif, au cours d'une étape 508 on passe à la résolution suivante en incrémentant la variable R, puis on retourne à l'étape 503. Si le résultat de l'étape 506 est positif, on passe à une étape 507 au cours de laquelle on détermine si l'image traitée est la dernière image à encoder pour la séquence vidéo en cours de traitement. Si la réponse est positive, l'encodage de la séquence est terminé. Sinon, on passe à une étape 509 au cours de laquelle la variable I est incrémentée de 1 pour passer à l'image suivante de la séquence vidéo, puis on retourne à l'étape 502.
Dans une application de streaming vidéo, le flux codé comportant l'image encodée et le sous-flux correctif, si un tel sous-flux a été crée, est transmis à un dispositif client, avant l'étape 507.
Dans une application de codage complet d'une séquence et de transmission ultérieure, le traitement de la séquence est finalisé. Une étape de transmission de l'ensemble du flux codé comportant les images encodées et les sous-flux correctifs crées intervient après la finalisation de l'algorithme de la figure 5. La figure 6 représente les sous-étapes de l'étape 505 de la figure 5. Au cours d'une étape 601, on détermine si on doit créer un sous-flux correctif pour une diminution de la résolution spatiale. Si le résultat de l'étape 601 est négatif, on passe directement à une étape 606 décrite plus loin. Si le résultat de l'étape 601 est positif, on passe à une étape 602 au cours de laquelle on détermine une unité de codage corrective UCdown pour une diminution de résolution. L'étape 602 consiste à calculer l'image de correction ou signal correctif engendrée par la dérive dans le cas d'une diminution de résolution.
Cette image de correction Corr(IR(t)) est calculée de la manière suivante, lorsque l'on passe, de la résolution R + 1 (résolution de image pour l'instant t-1) à la résolution R (résolution pour l'image à l'instant t) : Corr(IR (t)) = IR (t) ù Comp[IR (t)]{Down(IR+I(t -1)}ù Res(IR (t)) (1) Equation dans laquelle IR(t) est l'image de résolution R à l'instant t reconstruite et Comp[JR(t_0,JR(t)] correspond à la compensation de mouvement. On note que, en l'absence de changement de résolution, au niveau de l'encodeur, l'image IR(t) est classiquement obtenue par compensation de mouvement de l'image précédente, pour l'instant t-1 dans la résolution R, dite image de référence à laquelle on ajoute une image de résidu Res(IR(t)).
L'équation correspondante est la suivante: IR (t) = Comp [IR ~t) J (t)] + Res(IR (t)) (2) Cependant, lorsqu'une diminution de résolution est réalisé à l'instant t, l'image de la nouvelle résolution à l'instant précédent, IR(t-1 ), n'est pas disponible au décodeur, donc une approximation de cette image doit être calculée. Dans l'exemple donné ici, cette approximation est une version sous-échantillonnée, pour atteindre la nouvelle résolution R, de l'image de référence à la résolution R+1, qui est disponible : c'est le terme Down(IR+1(t -1)).
Comme cette image de référence sous-échantillonnée est différente de l'image de référence pour la résolution R, IR(t-1 ), l'image de correction Corr(IR(t)) de résolution R est calculée pour diminuer cette différence afin de réduire la dérive de la compensation de mouvement.
Puis, au cours d'une étape 603, on encode cette image de correction Corr(IR(t)) dans une unité de codage (UCdown), comme classiquement encodé dans la norme SVC, en utilisant les étapes de transformation, de quantification et de codage entropique. Au cours d'une étape 604, l'unité de codage nouvellement créée est marquée comme unité de codage destructible (appelée discardable en anglais). Une telle unité est qualifiée de destructible lorsqu'elle n'est pas nécessaire pour la reconstruction des unités de codage suivantes de la couche spatiale en cours et les couches suivantes. L'invention utilise cette propriété particulière des unités de codage destructibles , car leur contenu spécifique, ne peut pas servir pour la reconstruction d'autres unités étant donné qu'elles contiennent une information de correction. Cette propriété permet également d'inclure ces unités de codage correctives seulement lorsque l'on en a besoin : elles ne sont pas transmises s'il n'y a pas de changement de résolution spatiale. Par conséquent, elles ne pénalisent pas le coût de codage, à l'inverse des images IDR connues dans l'art antérieur, par exemple. Pour marquer une unité de codage, on met à la valeur 1 , la valeur du champ discardable_flag dans l'entête de l'unité de codage. Le tableau ci-dessous donne la description d'un en-tête d'unité de codage ( NAL unit header ) tel que décrit dans la norme SVC. 30 Champs nombre de bits no. de l'octet Reserved one bit 1 1 idr _flag 1 1 priority_id 6 1 no_inter_layer_pred_flag 1 2 dependency_id 3 2 quality_id 4 2 temporal_id 3 3 20 use_ref base_pic_flag 1 3 discardable_flag 1 3 output_flag 1 3 reserved three 2bits 2 3 Puis, au cours d'une étape 605, on insère l'unité de codage ainsi créée dans le flux binaire SVC des images déjà encodées de la séquence vidéo. On note que l'unité de codage est associée à la résolution finale et non à la résolution initiale. On passe ensuite à une étape 606 au cours de laquelle on détermine s'il est nécessaire de créer une unité de codage corrective pour l'augmentation de la résolution. Si le résultat de l'étape 606 est négatif, les étapes de cette figure sont terminées et on passe directement à l'étape 506 de la figure 5. Si le résultat de l'étape 606 est positif, au cours d'une étape 607, on calcule l'image de correction Corr(IR(t)) ou signal correctif occasionnée par la dérive dans le cas d'une augmentation de résolution. Cette image de correction Corr(IR(t)) est calculée de la manière suivante lorsque l'on passe de la résolution R - 1 (résolution de image pour l'instant t-1) à la résolution R (résolution pour l'image à l'instant t) : Corr(IR (t)) = IR (t) ù Comp [IR (t)]{Up(IR_l (t -1)}ù Res(IR (t)) (3) Equation dans laquelle IR(t) est l'image de résolution R à l'instant t reconstruite et Comp[IR(t_I),IR(t)] correspond à la compensation de mouvement. De manière similaire au cas de la diminution de résolution, lorsqu'une augmentation de résolution est réalisé à l'instant t, l'image de la nouvelle résolution à l'instant précédent, IR(t-l), n'est pas disponible au décodeur, donc une approximation de cette image doit être calculée. Dans l'exemple donné ici, cette approximation est une version sur-échantillonnée, pour atteindre la nouvelle résolution R, de l'image de référence à la résolution R-1, qui est disponible : c'est le terme Up(IR_1(t -1)). Comme cette image de référence sur-échantillonnée est différente de l'image de référence pour la résolution R, IR(t-l), l'image de correction Corr(IR(t)) est calculée pour diminuer cette différence afin de réduire la dérive de la compensation de mouvement.
Les étapes suivantes, 608 à 610 correspondent, respectivement, aux étapes 603 à 605. Puis on retourne à l'étape 506 illustrée en figure 5. La figure 7 représente les différentes étapes de fonctionnement du décodeur situé au niveau du client dans un mode de réalisation particulier du procédé objet de la présente invention. Au cours d'une étape 700, on effectue une initialisation du décodage de la séquence vidéo. On peut ainsi sélectionner la résolution spatiale initiale pour le décodage R de la séquence encodée. Par exemple, dans le cadre d'application relative au streaming vidéo, des sessions mettant en oeuvre les protocoles RTSP et RTP sont alors créées et la diffusion des unités de codage sur le réseau peut ainsi commencer. D'autre part, au cours de cette étape 700, la valeur du compteur d'images I est initialisé à 0 . Puis, au cours d'une étape 701, on reçoit des unités de codage et on extrait les données vidéo codées relatives à l'image I en cours de traitement.
On procède ensuite, au cours d'une étape 702, au décodage des unités de codage tel qu'il est effectué par un décodeur SVC classique. Au cours d'une étape 703, on détermine si un changement de résolution intervient pour l'image I. Dans un premier mode, cette détection peut se faire au travers d'une information transmise conformément au protocole RTSP, au moyen des commandes SET PARAMETER échangées entre le serveur et le client, en cours de streaming. Le serveur peut ainsi informer le client qu'une unité de codage corrective (pour diminution ou pour augmentation de résolution) est associée à l'image d'indice I. Dans un autre mode de réalisation, la détection de changement de résolution est effective dès lors qu'une unité de codage de type destructible (discardable) correspondant à l'image d'indice I en cours de traitement est reçue. On note que les deux modes précédents de réalisation peuvent être combinés, notamment dans le cas où des unités de codages destructibles sont utilisées pour d'autres usages que ceux décrits ici.
Si le résultat de l'étape 703 est négatif, on passe à l'étape 706 au cours de laquelle l'image décodée est affichée.
En revanche si le résultat de l'étape 703 est positif, un changement de résolution spatiale est détecté. On procède alors au décodage de l'image de nouvelle résolution R' au cours d'une étape 704. Comme dans le cas de l'encodage, on distingue deux cas selon qu'il s'agisse d'une augmentation R' = R + 1 ou d'une diminution de la résolution spatiale R' = R - 1. Dans le cas d'une diminution de la résolution, le décodage se fait de la façon suivante correspondant à l'étape de calcul faite à l'encodage. La nouvelle image décodée est calculée à partir de l'expression suivante où le signal correctif résultant du décodage de l'unité de codage corrective reçue est additionné pour corriger l'erreur introduite par le remplacement de l'image de référence : IR,(t)=Comp [IR,(t_o-IR,w]{Down(IR,+ (tù1)}+Res(IR,(t))+Corr(IR,(t)) (4) Dans la formule (4), l'expression Comp[JR,(t_1),JR,w] correspond à la compensation de mouvement et l'expression Down(IR'+l(t-1)) correspond à l'opération de sous-échantillonnage de l'image (t - 1) de la résolution R' + 1. Le terme Corr(IR'(t)) correspond, quant à lui, au contenu décodée de l'unité de codage corrective insérée dans le flux binaire. Dans le cas d'une augmentation de la résolution, le décodage se fera de la façon suivante correspondant à l'étape inverse faite à l'encodage. La nouvelle image décodée sera calculée à partir de l'expression suivante: IR, (t) = Comp {Up(IR,_1(t -1)}+ Res(I R, (t)) + Corr(IR, (t)) (5) Dans la formule (5), l'expression Comp[JR,(t_1),JR,w] correspond à la compensation de mouvement et l'expression Up(IR'_1(t -1)) correspond à l'opération de sur-échantillonnage de l'image (t - 1) de la résolution R'-1. Le terme Corr(IR'(t)) correspond, quant à lui, au contenu décodé de l'unité de codage corrective insérée dans le flux binaire. Au cours d'une étape 705, la variable de résolution R prend la valeur R'. Cela permet en particulier d'ajuster la taille de l'affichage à la nouvelle résolution. Puis, au cours d'une étape 706, l'image décodée est affichée.
On passe ensuite à l'étape 707 afin de déterminer s'il s'agit de la dernière image de la séquence à décoder. Si oui, le décodage de la séquence est terminé. Dans le cas contraire, on passe à une étape 708 au cours de laquelle on incrémente le compteur d'image I afin de passer à l'image suivante, puis on retourne à l'étape 701. Dans le mode de réalisation décrit ci-dessus, une unité de codage corrective est utilisée pour obtenir une image pour un instant t en fonction d'une image de référence de résolution différente pour un instant M. De nombreuses variantes de ce mode de réalisation particulier de la présente invention sont évidentes pour l'homme du métier sur la base des indications qui suivent : - dans des variantes, une unité de codage corrective est utilisée pour obtenir une image de référence pour l'image correspondant à l'instant t en fonction d'une image de référence de résolution différente pour un instant t-1, la formule (1) étant alors remplacée par la formule suivante : Corr(IR (t-1))=IR (t-1)û{Down(IR+1(tû1)} - dans des variantes, une unité de codage corrective est utilisée pour obtenir une image de référence compensée en mouvement pour l'image correspondant à l'instant t en fonction d'une image de référence de résolution différente pour un instant t-1, le résidu étant traité au décodage et la formule (1) étant alors remplacée par la formule suivante : Corr(IR (t)) = I R (t) û Comp [IR (t-1)-IR (t)] {Down(IR+1 (t -1)1 - dans des variantes, une unité de codage corrective est utilisée pour obtenir une image de référence ajoutée au résidu pour l'image correspondant à l'instant t en fonction d'une image de référence de résolution différente pour un instant t-1, la compensation de mouvement étant traitée au décodage et la formule (1) étant alors remplacée par la formule suivante : Corr(IR (t)) = IR (t) ù {Down(IR+I (t -1)}ù Res(IR (t)) . On observe que, dans le cas où deux images de références précédentes sont mises en oeuvre, la formule (1) devient Corr(IR (t)) = IR (t) û Comp [IR (t-1)-IR (t)] {Down(IR+1 (t -1)1û Res(IR (t)) û Comp [IR (t_2)~IR (t)] {Down(IR+I (t û 2)}30

Claims (1)

  1. REVENDICATIONS1 - Procédé de transmission de données d'images d'une séquence d'images, caractérisé en ce qu'il comporte, pour au moins une image de ladite séquence d'images : - une étape (503) de codage d'une image initiale à une première résolution, - une étape (505, 602, 607) de détermination d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution, - une étape (603, 604, 608, 609) de codage dudit signal correctif et - une étape de transmission de l'image codée à la première résolution et du signal correctif codé. 2 û Procédé selon la revendication 1, caractérisé en ce que, au cours de l'étape (505, 602, 607) de détermination d'un signal correctif, on détermine le signal correctif comme une image égale à la différence entre : - l'image suivante à la deuxième résolution et - la somme de : - l'image initiale à la première résolution, codée et décodée à la première résolution, ré-échantillonnée pour atteindre la deuxième résolution et compensée avec la compensation entre l'image de référence de l'image suivante et l'image suivante à la deuxième résolution et - un résidu à la deuxième résolution. 3 û Procédé selon la revendication 1, caractérisé en ce que, au cours de l'étape (505, 602, 607) de détermination d'un signal correctif, le signal correctif est représentatif de la différence entre l'image initiale à la première résolution ré-échantillonnée à la deuxième résolution et une image de référence de l'image suivante codée à la deuxième résolution.4 û Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'il comporte, en outre, une étape de détection de changement de résolution spatiale, pour atteindre une deuxième résolution à partir de l'image suivant l'image initiale, l'étape de détermination du signal correctif étant effectuée après l'étape de détection. 5 û Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'on effectue régulièrement, pour des images d'un flux d'image, pour au moins un changement de résolution spatial possible, l'étape (505, 602, 607) de détermination d'un signal correctif, l'étape de codage dudit signal correctif et une étape de mémorisation conjointe du signal correctif codé et des images codées pour constituer un flux de données à transmettre et au cours de l'étape de transmission, on ne transmet un signal correctif codé qu'en cas de détection de changement de résolution. 6 û Procédé selon l'une quelconque des revendications 1 ou 5, caractérisé en ce que, au cours de l'étape (603, 604, 608, 609) de codage du signal correctif, on associe le signal correctif à un identifiant spécifique. 7 û Procédé selon la revendication 6, caractérisé en ce que le codage du signal correctif est effectué par unité de codage et l'identifiant spécifique est inséré dans un en-tête de chaque unité de codage représentant le signal correctif. 8 û Procédé selon l'une quelconque des revendications 1 à 7, caractérisé en ce que, au cours de chaque étape (503, 603, 604, 608, 609) de codage, on code une image avec un format hiérarchique. 9 û Procédé selon la revendication 8, caractérisé en ce que, au cours 25 de chaque étape (503, 603, 604, 608, 609) de codage, on met en oeuvre un codage SVC (acronyme de Scalable Video Coding ). 10 û Procédé selon la revendication 9, caractérisé en ce que, au cours de l'étape (603, 604, 608, 609) de codage du signal correctif, on crée au moins une unité de codage SVC encapsulant le signal correctif dans au moins 30 un élément de syntaxe pour créer une unité de codage optionnelle dans le flux de données.11 - Procédé de réception de données d'image d'une séquence d'images, caractérisé en ce qu'il comporte, pour au moins une image de ladite séquence d'images : - une étape (702) de décodage d'une image initiale à une première résolution, - une étape (701, 702) de décodage d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution et - une étape (704) de décodage de l'image suivante, à la deuxième résolution, en mettant en oeuvre l'image initiale décodée à la première résolution et ledit signal correctif. 12 ù Procédé selon la revendication 11, caractérisé en ce qu'il comporte, en outre, une étape (703) de détection de changement de résolution spatiale, au cours de laquelle on détecte la réception d'un dit signal correctif codé, l'étape de décodage du signal correctif et l'étape de décodage de l'image suivante étant effectuée après détection d'un changement de résolution spatiale. 13 ù Procédé selon l'une quelconque des revendications 11 ou 12, caractérisé en ce que, au cours de l'étape (705) de décodage de l'image suivante, on détermine l'image suivante comme égale à la somme de : - d'une image corrective représentée par le signal correctif et - la somme de : - l'image initiale à la première résolution ré-échantillonnée pour atteindre la deuxième résolution et compensée avec la compensation entre l'image de référence de l'image suivante et l'image suivante à la deuxième résolution et - un résidu à la deuxième résolution. 14 - Dispositif (100) de transmission de données d'images d'une séquence d'images, caractérisé en ce qu'il comporte : - un moyen (120, 104, 106) de codage d'une image initiale à une première résolution,- un moyen (120, 104, 106) de détermination d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution, - un moyen (120, 104, 106) de codage dudit signal correctif et - un moyen (120, 104, 106) de transmission de l'image codée à la première résolution et du signal correctif codé. 15 - Dispositif de réception de données d'images d'une séquence d'images, caractérisé en ce qu'il comporte : - un moyen (120, 104, 106) de décodage d'une image initiale à une première résolution, - un moyen (120, 104, 106) de décodage d'un signal correctif représentatif de la différence entre l'image suivant temporellement l'image initiale à une deuxième résolution et une image à la deuxième résolution calculée à partir de l'image initiale à la première résolution et - un moyen (120, 104, 106) de décodage de l'image suivante, à la deuxième résolution, en mettant en oeuvre l'image initiale décodée à la première résolution et ledit signal correctif. 16 - Programme d'ordinateur chargeable dans un système informatique (100), ledit programme contenant des instructions permettant la mise en oeuvre du procédé selon l'une quelconque des revendications 1 à 13. 17 - Support d'informations lisibles par un ordinateur (100) ou un microprocesseur (120), amovible ou non, conservant des instructions d'un programme informatique, caractérisé en ce qu'il permet la mise en oeuvre du procédé selon l'une quelconque des revendications 1 à 13.
FR0853281A 2008-05-20 2008-05-20 Procede et un dispositif de transmission de donnees d'images Expired - Fee Related FR2931610B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0853281A FR2931610B1 (fr) 2008-05-20 2008-05-20 Procede et un dispositif de transmission de donnees d'images
US12/468,343 US20090290648A1 (en) 2008-05-20 2009-05-19 Method and a device for transmitting image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0853281A FR2931610B1 (fr) 2008-05-20 2008-05-20 Procede et un dispositif de transmission de donnees d'images

Publications (2)

Publication Number Publication Date
FR2931610A1 true FR2931610A1 (fr) 2009-11-27
FR2931610B1 FR2931610B1 (fr) 2010-12-17

Family

ID=40377279

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0853281A Expired - Fee Related FR2931610B1 (fr) 2008-05-20 2008-05-20 Procede et un dispositif de transmission de donnees d'images

Country Status (2)

Country Link
US (1) US20090290648A1 (fr)
FR (1) FR2931610B1 (fr)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090161762A1 (en) * 2005-11-15 2009-06-25 Dong-San Jun Method of scalable video coding for varying spatial scalability of bitstream in real time and a codec using the same
FR2939593B1 (fr) * 2008-12-09 2010-12-31 Canon Kk Procede et dispositif de codage video
EP2257073A1 (fr) * 2009-05-25 2010-12-01 Canon Kabushiki Kaisha Procédé et dispositif pour transmettre des données vidéo
EP2265026A1 (fr) * 2009-06-16 2010-12-22 Canon Kabushiki Kaisha Procédé et dispositif pour débloquer le filtrage de flux vidéo de type SVC pendant le décodage
EP2285122B1 (fr) * 2009-07-17 2013-11-13 Canon Kabushiki Kaisha Procédé et dispositif pour reconstruire une séquence de données vidéo après la transmission dans un réseau
EP2285112A1 (fr) * 2009-08-07 2011-02-16 Canon Kabushiki Kaisha Procédé pour l'envoi de données compressées représentant une image numérique et dispositif correspondant
FR2951345B1 (fr) 2009-10-13 2013-11-22 Canon Kk Procede et dispositif de traitement d'une sequence video
FR2955995B1 (fr) * 2010-02-04 2012-02-17 Canon Kk Procede et dispositif de traitement d'une sequence video
CN102316360B (zh) * 2010-07-09 2015-11-25 华为终端有限公司 视频刷新方法、装置及系统
US9992493B2 (en) * 2013-04-01 2018-06-05 Qualcomm Incorporated Inter-layer reference picture restriction for high level syntax-only scalable video coding
US9542953B2 (en) * 2014-01-22 2017-01-10 Comcast Cable Communications, Llc Intelligent data delivery
JP2016015009A (ja) * 2014-07-02 2016-01-28 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
EP3057319A1 (fr) * 2015-02-10 2016-08-17 Harmonic Inc. Décodeur vidéo à résolution adaptative
GB2538997A (en) * 2015-06-03 2016-12-07 Nokia Technologies Oy A method, an apparatus, a computer program for video coding
EP3499885A1 (fr) 2017-12-18 2019-06-19 Canon Kabushiki Kaisha Procédé et dispositif de codage de données vidéo
EP3499886A1 (fr) 2017-12-18 2019-06-19 Canon Kabushiki Kaisha Procédé et dispositif de codage de données vidéo

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030072370A1 (en) * 1996-11-27 2003-04-17 Realnetworks, Inc. Method and apparatus for providing scalable pre-compressed digital video with reduced quantization based artifacts (continuation)

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US144725A (en) * 1873-11-18 Improvement in lawn-mowers
US122865A (en) * 1872-01-16 Improvement in trunk-locks
US286508A (en) * 1883-10-09 trades
US68587A (en) * 1867-09-03 Milo webb
US195880A (en) * 1877-10-09 Improvement in nut-locks for fish-bars on railways
US223033A (en) * 1879-12-30 Improvement in hoisting and elevating apparatus
US130736A (en) * 1872-08-20 Improvement in nut-locks
US16433A (en) * 1857-01-20 Artificial tooth
US131011A (en) * 1872-09-03 Improvement in compounds for kindling fires
US95231A (en) * 1869-09-28 Improved boor-fastener
US25399A (en) * 1859-09-13 Apparatus for heating water
US19721A (en) * 1858-03-23 Tightening the tiees of cakriage-wheels
US127576A (en) * 1872-06-04 Improvement in chain-pumps
US75170A (en) * 1868-03-03 Improvement in the manufacture of soap
US216699A (en) * 1879-06-17 Improvement in lemon-squeezers
US6501860B1 (en) * 1998-01-19 2002-12-31 Canon Kabushiki Kaisha Digital signal coding and decoding based on subbands
FR2792433A1 (fr) * 1999-04-15 2000-10-20 Canon Kk Dispositif et procede de transformation de signal numerique
US6510177B1 (en) * 2000-03-24 2003-01-21 Microsoft Corporation System and method for layered video coding enhancement
FR2815748B1 (fr) * 2000-10-20 2003-01-24 Canon Kk Procede et dispositif de traitement et de decodage d'un signal numerique code
AUPR110400A0 (en) * 2000-10-30 2000-11-23 Canon Kabushiki Kaisha Image transfer optimisation
FR2816154A1 (fr) * 2000-10-31 2002-05-03 Canon Kk Insertion d'information supplementaire dans des donnees numeriques
FR2826227B1 (fr) * 2001-06-13 2003-11-28 Canon Kk Procede et dispositif de traitement d'un signal numerique code
FR2826823B1 (fr) * 2001-06-27 2003-10-10 Canon Kk Procede et dispositif de traitement d'un signal numerique code
FR2831728B1 (fr) * 2001-10-25 2004-03-12 Canon Kk Procede et dispositif de formation d'un signal numerique derive a partir d'un signal numerique compresse
EP2373035B1 (fr) * 2001-11-30 2015-11-25 NTT DoCoMo, Inc. Dispositif de codage d'images en mouvement, dispositif de décodage d'images en mouvement, procédé de codage d'images en mouvement, procédé de décodage d'images en mouvement, programme et support de stockage lisible par un ordinateur stockant le programme
FR2835366B1 (fr) * 2002-01-29 2004-06-18 Canon Kk Procede et dispositif de formation d'un signal numerique compresse reduit
ES2299171T3 (es) * 2002-02-01 2008-05-16 Matsushita Electric Industrial Co., Ltd Procedimiento de codificacion de imagenes en movimiento y aparato de codificacion de imagenes en movimiento.
FR2837330B1 (fr) * 2002-03-14 2004-12-10 Canon Kk Procede et dispositif de selection d'une methode de transcodage parmi un ensemble de methodes de transcodage
FR2842691B1 (fr) * 2002-07-18 2005-01-14 Canon Kk Procede et dispositif de transformation d'un signal numerique
FR2842983B1 (fr) * 2002-07-24 2004-10-15 Canon Kk Transcodage de donnees
US7580578B1 (en) * 2003-02-03 2009-08-25 Canon Kabushiki Kaisha Method and device for forming a compressed transcoded digital image signal
FR2851397B1 (fr) * 2003-02-14 2005-05-13 Canon Europa Nv Procede et dispositif d'analyse de sequences video dans un reseau de communication
US20060156363A1 (en) * 2005-01-07 2006-07-13 Microsoft Corporation File storage for scalable media
US8385427B2 (en) * 2005-04-15 2013-02-26 Apple Inc. Reduced resolution video decode
US7956930B2 (en) * 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US7957610B2 (en) * 2006-04-11 2011-06-07 Panasonic Corporation Image processing method and image processing device for enhancing the resolution of a picture by using multiple input low-resolution pictures
KR100776680B1 (ko) * 2006-11-09 2007-11-19 한국전자통신연구원 Svc 비디오 압축 비트스트림에 대한 패킷타입 분류방법과 이를 이용한 rtp 패킷화 장치 및 그 방법
JP2008252176A (ja) * 2007-03-29 2008-10-16 Toshiba Corp 動画像符号化装置及び方法
US20090060035A1 (en) * 2007-08-28 2009-03-05 Freescale Semiconductor, Inc. Temporal scalability for low delay scalable video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030072370A1 (en) * 1996-11-27 2003-04-17 Realnetworks, Inc. Method and apparatus for providing scalable pre-compressed digital video with reduced quantization based artifacts (continuation)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIA J ET AL: "CE3 Tool1: SP Picture for SVC", VIDEO STANDARDS AND DRAFTS, XX, XX, no. JVT-T022, 15 July 2006 (2006-07-15), XP030006509 *

Also Published As

Publication number Publication date
US20090290648A1 (en) 2009-11-26
FR2931610B1 (fr) 2010-12-17

Similar Documents

Publication Publication Date Title
FR2931610A1 (fr) Procede et un dispositif de transmission de donnees d'images
EP1839442B1 (fr) Dispositifs et procedes de codage et de decodage echelonnables de flux de donnees d'images, signal, programme d'ordinateur et module d'adaptation de qualite d'image correspondants
US9357248B2 (en) Method and apparatus for adaptive bit rate content delivery
FR2903556A1 (fr) Procedes et des dispositifs de codage et de decodage d'images, un systeme de telecommunications comportant de tels dispositifs et des programmes d'ordinateur mettant en oeuvre de tels procedes
EP2735166B1 (fr) Transmission de données de reconstruction dans une hiérarchie de qualité de signal échelonnée
FR2894421A1 (fr) Procede et dispositif de decodage d'un flux video code suivant un codage hierarchique
CA2821685C (fr) Convertisseur svc-avc a multiplexeur statistique en boucle ouverte
FR2939593A1 (fr) Procede et dispositif de codage video
US9992492B2 (en) Providing a common set of parameters for sub-layers of coded video
FR2906433A1 (fr) Procedes et dispositifs de codage et de decodage d'images, programme d'ordinateur les mettant en oeuvre et support d'informaton permettant de les mettre en oeuvre
FR2909474A1 (fr) Procede et dispositif de codage d'images numeriques et procede et dispositif de decodage d'images numeriques codees
EP2052545B1 (fr) Dispositif et procede de codage et de decodage echelonnables de flux de donnees d'images, signal et programme d'ordinateur correspondants
FR2889017A1 (fr) Procedes de filtrage, de transmission et de reception de flux video scalables, signal, programmes, serveur, noeud intermediaire et terminal correspondants
EP1969854A1 (fr) Procede de codage et de decodage d'une image ou d'une sequence d'images, dispositifs, programmes d'ordinateur, et signal correspondants
FR2959636A1 (fr) Procede d'acces a une partie spatio-temporelle d'une sequence video d'images
EP3198876B1 (fr) Génération et codage d'images intégrales résiduelles
EP2716045B1 (fr) Procédé de codage et de décodage d'images, dispositif de codage et de décodage d'images et programmes d'ordinateur correspondants
EP2633686B1 (fr) Codage video echelonnable a partir d'un epitome hierarchique
FR2913163A1 (fr) Procede et dispositif de transmission de donnees video
FR2923970A1 (fr) Procede et dispositif de formation, de transfert et de reception de paquets de transport encapsulant des donnees representatives d'une sequence d'images
FR2957744A1 (fr) Procede de traitement d'une sequence video et dispositif associe
FR2931609A1 (fr) Procedes de codage et de decodage pseudo-hierarchiques et systemes associes.
FR2911233A1 (fr) Procedes et dispositifs de codage et de decodage d'un flux d de donnees scalable tenant compte d'une classe de scalabilite, produits programme d'ordinateur, signal et support de donnees correspondants.
FR2903845A1 (fr) Procede et dispositif de codage d'images, systeme de telecommunication comportant un tel dispositif et programme d'ordinateur mettant en oeuvre un tel procede
FR2936388A1 (fr) Procede et dispositif de transcodage d'une sequence video

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20140131