FR3118380A1 - Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants. - Google Patents

Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants. Download PDF

Info

Publication number
FR3118380A1
FR3118380A1 FR2013944A FR2013944A FR3118380A1 FR 3118380 A1 FR3118380 A1 FR 3118380A1 FR 2013944 A FR2013944 A FR 2013944A FR 2013944 A FR2013944 A FR 2013944A FR 3118380 A1 FR3118380 A1 FR 3118380A1
Authority
FR
France
Prior art keywords
sub
sequence
images
image
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2013944A
Other languages
English (en)
Inventor
Benoît Le Ludec
Patrick DUMÉNIL
Franck CHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fondation B Com
Harmonic France SAS
Original Assignee
Fondation B Com
Harmonic France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fondation B Com, Harmonic France SAS filed Critical Fondation B Com
Priority to FR2013944A priority Critical patent/FR3118380A1/fr
Priority to KR1020237023548A priority patent/KR20230124619A/ko
Priority to EP21840565.2A priority patent/EP4268464A1/fr
Priority to US18/259,064 priority patent/US20240056603A1/en
Priority to CN202180087163.6A priority patent/CN116746158A/zh
Priority to PCT/EP2021/086398 priority patent/WO2022136143A1/fr
Priority to JP2023538080A priority patent/JP2024500168A/ja
Publication of FR3118380A1 publication Critical patent/FR3118380A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • H04N19/166Feedback from the receiver or from the transmission channel concerning the amount of transmission errors, e.g. bit error rate [BER]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

L’invention propose un procédé de codage d’images d’une séquence vidéo comprenant la mise en œuvre des étapes suivantes c) obtention d’une configuration initiale (E100) représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour une image de la séquence vidéo dites sous-séquence d’entrée, d1) réalisation d’un premier sous-échantillonnage spatial (E102) des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble (ENS1) de valeurs de facteurs de sous-échantillonnage, ce dernier étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence de sortie, et e) codage (E2) des images de la sous-séquence de sortie. Figure pour l’abrégé : Fig. 1

Description

Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants.
Domaine technique de l'invention
La présente invention concerne le domaine technique du codage et du décodage de séquences vidéo. Plus particulièrement, elle porte sur un procédé et un dispositif de codage, un procédé et un dispositif de décodage ainsi que sur les dispositifs correspondants.
Etat de la technique
Pour pourvoir transmettre un contenu vidéo de haute résolution spatiale et temporelle, il est connu de mettre en œuvre un procédé dit échelonnable, tel que décrit dans la demande de brevet WO2020/025510. En traitant une séquence vidéo à l’aide de ce procédé, la quantité de données vidéo à transmettre est réduite, sans altération visible de la qualité des séquences vidéo dans les domaines spatial et temporel, lors de l’affichage des images.
Présentation de l'invention
Dans ce contexte, selon un premier aspect de l’invention, il est proposé un procédé de codage d’images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes. Le procédé comprend la mise en œuvre des étapes suivantes
c) obtention d’une configuration initiale représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence d’une ou plusieurs images de la séquence vidéo dites sous-séquence d’entrée,
d1) réalisation d’un premier sous-échantillonnage spatial d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble d’au moins deux valeurs différentes de facteurs de sous-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence de sortie, et
e) codage (E2) des images de la sous-séquence de sortie.
Avantageusement le procédé selon le premier aspect de l’invention, permet de réduire la quantité de données codées à transmettre, sans perte de qualité visuelle pour l’utilisateur qui visionne la séquence vidéo. En effet, le sous-échantillonnage est fonction de caractéristiques structurelles (par exemple optiques ou relatives à la forme du dispositif d’affichage) du dispositif d’affichage via lequel l’utilisateur visionne la séquence vidéo. Il est donc possible d’ajuster le sous-échantillonnage aux zones d’intérêt des images pour l’utilisateur, au regard du dispositif d’affichage utilisé.
De préférence, l’étape d1) comprend en outre un deuxième sous-échantillonnage spatial d’au moins une partie des éléments de l’image sous-échantillonnée en utilisant un filtre orienté selon une deuxième direction et comprenant un deuxième ensemble d’au moins deux valeurs différentes de facteurs de sous-échantillonnage, le deuxième ensemble de valeurs étant déterminé en fonction de ladite configuration initiale.
La mise en œuvre de deux sous-échantillonnages successifs à l’aide de deux filtres orientés selon deux directions différentes permet de réaliser des motifs relativement complexes, le motif définissant des zones ayant des valeurs de résolutions spatiales différentes. Il est alors possible d’ajuster finement la résolution de chaque zone des images traitées selon les aux caractéristiques structurelles du dispositif d’affichage.
De préférence un sous-échantillonnage spatial est réalisé à l’aide de filtres orientés selon l’une des directions suivantes :
- horizontale,
- verticale.
Le choix de ces directions permet d’implémenter de façon particulièrement simple la solution au sein d’un dispositif de codage, tout en permettant la réalisation de motifs de résolutions spatiales complexes.
Chaque valeur de facteur de sous-échantillonnage d’un ensemble de valeurs est de préférence respectivement appliquée à au moins un groupe de p éléments successifs selon la direction dans laquelle est orienté le filtre, p étant un entier positif.
Selon un mode de mise en œuvre, le procédé peut comprendre en outre une étape d’analyse comprenant une analyse du contenu d’au moins une image de ladite sous-séquence d’entrée, et une étape de mise à jour des valeurs des facteurs de sous-échantillonnage préalablement à la mise en œuvre de l’étape d1), en fonction du résultat de l’analyse du contenu.
Selon un mode de mise en œuvre, le procédé peut comprendre en outre une étape d’analyse comprenant une analyse de mesures représentatives de mouvements effectués par un utilisateur, le dispositif d’affichage étant un visiocasque porté par ledit utilisateur (par exemple sa tête et/ou ses yeux), et une étape de mise à jour des valeurs des facteurs de sous-échantillonnage préalablement à la mise en œuvre de l’étape d1), en fonction du résultat de l’analyse des mesures.
Selon un autre mode de mise en œuvre, le procédé peut comprendre en outre une autre étape d’analyse comprenant une analyse de la qualité visuelle des images de ladite sous-séquence de sortie, et une étape de mise à jour des valeurs de facteurs de sous-échantillonnage préalablement à la mise en œuvre de l’étape d1), si la qualité visuelle est inférieure à un seuil prédéterminé.
Selon un autre mode de mise en œuvre, le procédé peut comprendre en outre une étape préalable comprenant les sous-étapes suivantes
a) obtention à partir de ladite séquence vidéo, de sous-séquences dites initiales, et pour au moins une sous-séquence initiale :
b1) détermination d’une information représentative du contenu d’au moins une image de la sous-séquence initiale, et en fonction de ladite information,
b2) détermination pour la sous-séquence initiale, d’une fréquence de traitement, inférieure ou égale à la fréquence initiale d’affichage des images, en fonction de l’information déterminée, et
b3) insertion, en fonction de la fréquence de traitement déterminée, de tout ou partie des images du groupe d’images dans une sous-séquence d’images formant une sous-séquence d’entrée.
De préférence le procédé peut alors comprendre en outre une étape a posteriori pour les M images d’une sous-séquence de sortie, M étant un entier, ladite étape a postériori comprenant les sous-étapes suivantes
d2) comparaison entre la fréquence de traitement associée aux images de la sous-séquence de sortie et la fréquence initiale d’affichage des images, et
si la fréquence de traitement est inférieure à la fréquence initiale, découpage spatial de chacune des M images de la sous-séquence de sortie en N sous-images, N étant un entier dont la valeur est fonction du rapport entre la fréquence de traitement et la fréquence initiale, l’étape de codage e) correspondant au codage des M*N sous-images de la sous-séquence de sortie,
sinon l’étape de codage e) correspond au codage desdites M images de la sous-séquence de sortie.
Selon un autre mode de mise en œuvre, le procédé peut comprendre en outre les étapes suivantes pour chaque sous-séquence de sortie
  • obtention d’une information représentative d’au moins l’un des éléments de la liste ci-dessous :
    • valeurs de facteurs de sous-échantillonnage,
    • mesures représentatives de mouvements effectués par un utilisateur, le dispositif d’affichage étant un visiocasque porté par ledit utilisateur,
    • caractéristiques structurelles du dispositif d’affichage,
    • fréquence de traitement, et
  • codage de ladite information.
Selon un deuxième aspect de l’invention, il est proposé un procédé de décodage de données correspondant à des images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes, les images de la séquence vidéo étant regroupées en sous-séquences d’une ou plusieurs images dites sous-séquences de sortie. Le procédé comprend la mise en œuvre des étapes suivantes
c1) obtention d’une configuration initiale représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence de sortie;
d11) réalisation d’un premier sur-échantillonnage spatial d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble d’au moins deux valeurs différentes de facteurs de sur-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence à décoder, et
e1) décodage des images de la sous-séquence à décoder.
De préférence, l’étape d11) peut comprendre en outre un deuxième sur-échantillonnage spatial d’au moins une partie des éléments de l’image sur-échantillonnée en utilisant un filtre orienté selon une deuxième direction et comprenant un deuxième ensemble d’au moins deux valeurs différentes de facteurs de sur-échantillonnage, le deuxième ensemble de valeurs étant déterminé en fonction de ladite configuration initiale.
Selon un troisième aspect de l’invention, il est proposé un dispositif de codage d’images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes. Le dispositif est configuré pour mettre en œuvre les étapes suivantes
c) obtention d’une configuration initiale représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence d’une ou plusieurs images de la séquence vidéo dites sous-séquence d’entrée,
d1) réalisation d’un premier sous-échantillonnage spatial d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble d’au moins deux valeurs différentes de facteurs de sous-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence de sortie, et
e) codage des images de la sous-séquence de sortie.
Selon un quatrième aspect de l’invention, il est proposé un dispositif de décodage de données correspondant à des images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes, les images de la séquence vidéo étant regroupées en sous-séquences d’une ou plusieurs images dites sous-séquences de sortie. Le dispositif est configuré pour mettre en œuvre des étapes suivantes
c1) obtention d’une configuration initiale représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence de sortie;
d11) réalisation d’un premier sur-échantillonnage spatial d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble d’au moins deux valeurs différentes de facteurs de sur-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence à décoder, et
e1) décodage des images de la sous-séquence à décoder.
Description détaillée de l'invention
De plus, diverses autres caractéristiques de l'invention ressortent de la description annexée effectuée en référence aux dessins qui illustrent des formes, non limitatives, de réalisation de l'invention et où :
représente un mode de mise en œuvre d’un procédé selon le premier aspect de l’invention ;
illustre les caractéristique optiques d’un visiocasque utilisé pour afficher une séquence vidéo ;
illustre plus précisément certaines étapes du mode de mise en œuvre représenté sur le ;
représente schématiquement un motif obtenu selon un mode de mise en œuvre du procédé selon l’invention ;
représente schématiquement un autre motif obtenu selon un autre mode de mise en œuvre du procédé selon l’invention ;
détaille un mode de mise en œuvre d’une étape de sous-échantillonnage spatial selon l’invention ;
détaille un autre mode de mise en œuvre d’une étape de sous-échantillonnage spatial selon l’invention ;
représente schématiquement des motifs obtenus à l’issue des applications successives des modes de mise en œuvre illustrés sur les figures 6 et 7 ;
illustre plus précisément certaines étapes du mode de mise en œuvre représenté sur le ;
représente un mode de mise en œuvre d’un procédé selon le deuxième aspect de l’invention ;
représente un mode de réalisation d’un dispositif selon le troisième aspect de l’invention ;
représente un mode de réalisation d’un dispositif selon le quatrième aspect de l’invention ; et
représente une implémentation possible des dispositifs selon le troisième ou le quatrième aspect de l’invention.
La représente un mode de mise en œuvre d’un procédé selon l’invention. Des données vidéos sources SVD sont fournies en entrée d’une étape E1 de prétraitement, par exemple dans un format vidéo UHD (« Ultra High Definition » en anglais). Chaque vidéo source est traitée groupe d’images par groupe d’images (GOP pour « Group Of Pictures » en anglais). Un groupe d’images forme une sous-séquence d’entrée. Cette étape E1 décrite plus en détail ci-après, permet d’appliquer des traitements spatiaux et optionnellement des traitements temporels sur les données vidéo. La fréquence spatiale et éventuellement temporelle des pixels constituant les images de la séquence vidéo SVD est réduite à l’issue du prétraitement. Le format de la vidéo est alors modifié. Eventuellement, des métadonnées relatives au prétraitement sont générées comme expliqué dans la suite de la description.
Les données vidéo traitées sont codées lors d’une étape E2, puis transmises, étape E3, à destination de moyens d’affichage. Préalablement à l’affichage, les données vidéo codées transmises sont décodées, étape E4. Puis elles sont soumises à un posttraitement E5 fonction du prétraitement E3 qui a été réalisé avant l’encodage. Eventuellement le posttraitement E5 est fonction des métadonnées générées lors de l’étape de prétraitement E2. Les données vidéo post traitées sont finalement affichées à l’aide des moyens d’affichage à l’étape E6.
Les étapes E1, E2 et E3 sont mises en œuvre par un dispositif émetteur tandis que les étapes E4, E5 et E6 sont mises en œuvre par un dispositif récepteur comprenant les moyens d’affichage.
Les moyens d’affichage peuvent comprendre un écran à dimensions variables, un visiocasque ou encore une simple surface d’affichage, cette liste n’étant pas exhaustive. Ces moyens d’affichage présentent des configurations d’affichage qui leur sont propres. Une configuration d’affichage peut être définie par les caractéristiques structurelles du dispositif d’affichage tels que ses dimensions ou encore les paramètres de ses composants optiques. A titre d’exemple, la schématise les caractéristiques optiques des lentilles respectivement gauche LG et droite LD d’un visiocasque. Classiquement chaque lentille LG, LD permettant une vision binoculaire, possède une résolution spatiale optimale à l’intérieur d’un cercle central CCG, CCD. Ce cercle central se trouve, lorsque le visiocasque est porté par un utilisateur, face à la fovéa de l’œil respectivement gauche ou droit. La fovéa est la zone de la rétine où la vision des détails est la plus précise. Puis au fur et à mesure que l’on s’éloigne du cercle central, la résolution spatiale de l’image affichée diminue progressivement, par palier, selon des cercles concentriques au rayon croissant. Enfin une zone noire ZN entoure les zones d’affichage circulaires de la vidéo.
La illustre plus en détail les étapes E1 et E5 de la . L’étape de prétraitement E1 comprend une première sous-étape E100 de configuration initiale. Cette sous-étape permet l’obtention d’un ensemble de filtres spatiaux et optionnellement temporels, à appliquer à un groupe d’images de la vidéo source selon un motif de filtrage résultant de la configuration. La configuration initiale peut être définie par défaut (par exemple mémorisée) ou mise à jour pour chaque sous-séquence d’entrée de façon à prendre en compte des variations de contexte en cours d’utilisation. Une configuration initiale est fonction d’un ou plusieurs critères combinés entre eux, ces critères comprenant la configuration d’affichage définie ci-avant. Elle peut être en outre fonction de critères supplémentaires, par exemple relatifs à la chaîne de transmission de la vidéo entre l’émetteur et le récepteur ou encore à des consignes données par un utilisateur, consignes portant sur une quantité de données qu’il est possible de transmettre, un seuil de latence autorisé ou un niveau de complexité tolérable.
La sous-étape E100 permet de délivrer une valeur d’une fréquence spatiale et éventuellement temporelle, acceptable a priori pour que le contenu soit rendu sur le dispositif d’affichage sans perte notable de qualité. Une valeur de fréquence spatiale est associée à une partition d’une image (l’image comprenant au moins deux partitions). Une valeur de fréquence temporelle (correspondant à une fréquence de transmission des images ou « fréquence des images transmises ») correspond à la fréquence des images transmises au sein d’un groupe d’images de la vidéo source.
En fonction de la configuration initiale obtenue, les deux sous-étapes suivantes E101 et E102 sont mises en œuvre, l’étape E101 étant optionnelle. Si la configuration initiale implique un filtrage temporel, l’étape E101 est mise en œuvre. Elle comprend pour un groupe d’images, une modification de la sous-séquence d’images d’entrée, en ne conservant qu’une partie des images. A des fins de simplification, sauf indication contraire, il est considéré dans la suite de la description que sont mis en œuvre un filtrage spatial (E102) et un filtrage temporel (E102). Les sous-séquences d’entrée de la vidéo source sont donc soumises à une combinaison de traitements comprenant un sous-échantillonnage spatial et temporel pour au moins une partie des images.
Pour chaque groupe d’images traitées, la sous-étape E101 délivre une sous-séquence d’images dont la valeur de la fréquence temporelle dépend de la configuration initiale. La fréquence temporelle peut être identique à la fréquence temporelle d’origine du groupe d’images de la sous-séquence d’entrée. La sous-séquence d’images délivrée en sortie de la sous-étape E101 est alors identique à la sous-séquence d’images d’entrée. A l’inverse, la fréquence temporelle résultant de la configuration initiale peut correspondre à ladite fréquence d’origine divisée par N (N étant un entier supérieur ou égal à 2). Une image sur N du flux d’entrée est alors supprimée. La sous-séquence d’images délivrée en sortie de la sous-étape E101 possède donc alors une fréquence temporelle divisée par N.
Dans un mode de mise en œuvre, la sous-étape E101 peut recevoir des informations résultant d’une analyse (E105) des mesures de mouvements effectués par le dispositif d’affichage et/ou par un utilisateur (ou ses yeux) dans le cas où le dispositif d’affichage serait un visiocasque porté par cet utilisateur. Cette information représentative des mesures permettant d’estimer le mouvement est alors utilisée pour adapter la fréquence temporelle afin de prévenir les symptômes de cinétose (« motion sickness » en anglais) ressentis par le porteur du visiocasque, qui pourraient être générés par des approches de l’état de l’art, c’est-à-dire non dynamique en ce qui concerne la fréquence temporelle. De préférence, si la sous-séquence d’entrée présente des mouvements importants, dans ce cas la fréquence temporelle sera conservée à son maximum, et la réduction de la résolution spatiale, mise en œuvre dans la sous-étape E102, sera privilégiée. A l’inverse si la sous-séquence d’entrée présente peu de mouvements, la réduction de la fréquence temporelle sera privilégiée, et la résolution spatiale, mise en œuvre dans la sous-étape E102, sera peu ou pas réduite.
Un filtrage spatial (E102) est ensuite appliqué aux images d’au moins un groupe d’images de la sous-séquence d’entrée, en fonction de la configuration initiale. Le filtrage spatial est effectué à l’aide d’au moins un sous-échantillonnage spatial des éléments d’au moins une ligne ou d’au moins une colonne de l’image. Ce sous-échantillonnage spatial est fonction d’un ensemble de facteurs encore appelé pas de sous-échantillonnage défini par la configuration initiale. Un élément représente un pixel de l’image ou la composante de ce pixel pour l’une des composantes couleurs de l’image.
En variante et tel que considéré dans la suite de la description, le filtrage spatial est effectué selon deux sous-échantillonnages successifs, à l’aide de filtres respectivement orientés selon deux directions différentes, horizontale (filtre horizontaux) et verticale (filtres verticaux) indépendamment de l’ordre. Ainsi, les colonnes puis les lignes de l’image sont successivement sous-échantillonnées. En variante, il est possible d’alterner le sous-échantillonnage d’une ligne puis le sous-échantillonnage d’une colonne ou vice et versa.
Décomposer le filtrage spatial en deux sous-échantillonnages en utilisant pour chacun des sous-échantillonnages, des filtres orientés selon deux directions différentes, permet d’obtenir au sein d’une image, des zones ou partitions ayant une résolution différente, selon les facteurs d’échantillonnage mis en œuvre par les filtres. L’implémentation d’un traitement électronique dans un circuit programmable apte à réaliser des sous-échantillonnages à l’aide de filtre verticaux ou horizontaux est simple tout en nécessitant peu de mémoire et en limitant la latence de traitement. En adaptant finement les valeurs prises par les facteurs d’échantillonnage, il est possible d’obtenir des motifs très précis, chacun ayant une résolution spatiale propre, fonction des zones d’intérêt de l’image. Par exemple, plus la zone de l’image est affichée dans une zone proche de la fovéa de l’œil, plus la résolution spatiale est importante. Autrement dit un motif permet d’appliquer des facteurs de sous-échantillonnage différents en fonction des différentes zones de l’image, ces zones pouvant être définies dans la configuration initiale à l’aide de leurs coordonnées spatiales.
Lesfigures 4et5présentent respectivement deux images sous-échantillonnées selon deux configurations différentes des pas ou facteurs de sous-échantillonnage et des sous-ensembles de pixels concernés par chaque valeur de pas de sous-échantillonnage.
Chaque carré correspond à un groupe d’éléments d’une image. Le motif (bandes horizontales) de la résulte d’un seul sous-échantillonnage à l’aide d’un ensemble de différentes valeurs de pas d’échantillonnage appliqué à l’aide de filtres verticaux. Le motif de la résulte de l’application d’un premier sous-échantillonnage à l’aide d’un premier ensemble de différentes valeurs de pas d’échantillonnage appliqué à l’aide de filtres verticaux, suivi d’un deuxième sous-échantillonnage à l’aide d’un deuxième ensemble de différentes valeurs de pas d’échantillonnage appliqué à l’aide de filtres horizontaux. L’ordre d’application du premier et du deuxième sous-échantillonnage peut être inversé. Des motifs rectangulaires sont obtenus en fonction des valeurs des pas d’échantillonnage appliqués, et du nombre de pixels concernés par chaque pas d’échantillonnage. Plus la teinte d’un rectangle du motif est claire, plus la résolution spatiale de la zone correspondante de l’image est élevée. Inversement, plus la teinte est foncée, plus la résolution spatiale de la zone correspondante de l’image a été diminuée.
Lesfigures 6et7explicitent respectivement les premier et deuxième sous-échantillonnages spatiaux.
La schématise une image ou une partie d’image IMA1 à traiter. Les lignes de l’image sont organisées en L bandes horizontales successives BD1, BD2, BD3, BD4 et BD5. Plus généralement, L est un entier positif. Par exemple, chaque bande horizontale comprend un nombre de lignes fonction de la configuration du (ou des) filtre(s) utilisé(s) pour réaliser le sous-échantillonnage spatial (par exemple 8 lignes).
Un premier ensemble de pas de sous-échantillonnage ENS1 est alors appliqué à l’image IMA1 à l’aide d’un filtre vertical FLV. Ce premier ensemble ENS1 comprend dans cet exemple les valeurs de facteurs de sous-échantillonnage suivants : {1/3, 1/2, 1, 1/2, 1/3}. Ainsi, pour les lignes appartenant à la première BD1 et la cinquième bande BD5 horizontale, seul un pixel sur trois pixels successifs selon la direction verticale est conservé. Pour les lignes appartenant à la deuxième BD2 et la quatrième bande BD4 horizontale, seul un pixel sur deux pixels successifs est conservé selon la direction verticale. Enfin pour la troisième bande BD3 horizontale, l’ensemble des pixels sont conservés.
La valeur de chaque pixel conservé à l’issue du sous-échantillonnage, peut être interpolée à l’aide des méthodes connues que sont les algorithmes bilinéaire ou bi-cubique ou encore grâce à la méthode de Lanczos bien connue de l’homme du métier. En variante la valeur du pixel conservé peut être égale à sa valeur d’origine.
Une fois l’ensemble des bandes horizontales sous-échantillonnées, on obtient l’image résultante sous-échantillonnée IMAF1, telle que plus la bande représentée est sombre (les hachures sont les plus denses), plus le nombre de pixels restants est élevé.
La schématise une image ou une partie d’image IMA2 à traiter. Les colonnes de l’image sont organisées en M bandes verticales successives BD6, BD7, BD8, BD9, BD10, BD11, BD12, BD13 et BD14. Plus généralement, M est un entier positif. Par exemple, chaque bande verticale comprend un nombre de colonnes fonction de la configuration du filtre utilisé pour réaliser le sous-échantillonnage spatial (par exemple 8 colonnes).
Un deuxième ensemble de pas de sous-échantillonnage ENS2 est alors appliqué à l’image IMA2 à l’aide d’un filtre horizontal FLH. Ce deuxième ensemble ENS2 comprend dans cet exemple les valeurs de facteurs de sous-échantillonnage suivants : {1/8, 1/2,1, 1/2, 1/8, 1/2, 1, 1/2, 1/8}. Ainsi, pour les colonnes appartenant à la première BD6, la cinquième BD10 et la dernière BD14 bande verticale, seul un pixel sur huit pixels successifs est conservé selon la direction horizontale. Pour les colonnes appartenant à la deuxième BD7, la quatrième BD9, la sixième BD11 et la huitième BD13 bande verticale, seul un pixel sur deux pixels successifs est conservé selon la direction horizontale. Enfin pour la troisième BD8 et la septième bande BD12 verticale, l’ensemble des pixels sont conservés selon la direction horizontale.
De même que pour le sous-échantillonnage décrit sur la figure précédente, la valeur de chaque pixel conservé à l’issue du sous-échantillonnage peut être interpolée à l’aide des méthodes connues que sont les algorithmes bilinéaire ou bi-cubique ou encore grâce à la méthode de Lanczos bien connue de l’homme du métier. En variante la valeur du pixel conservé peut être égale à sa valeur d’origine.
Une fois le sous-échantillonnage réalisé, on obtient l’image résultante sous-échantillonnée IMAF2, telle que plus la bande représentée est sombre (les hachures sont les plus denses), plus le nombre de pixels restants est élevé.
Le premier et le deuxième sous-échantillonnage peuvent être successivement appliqués, indifféremment de l’ordre. Si le sous-échantillonnage des bandes horizontales est appliqué en premier, l’image de sortie IMA1F correspond alors à l’image à sous-échantillonner IMA2 du deuxième sous-échantillonnage des bandes verticales.
La schématise un motif traduisant une résolution non-uniforme de l’image entière doublement échantillonnée, ce motif se dessinant à l’issue de l’application successive des deux sous-échantillonnages spatiaux illustrés sur les figures 6 et 7.
La résolution spatiale de chaque partie ou tuile de l’image doublement sous-échantillonnée IMAF est fonction des valeurs des facteurs de sous-échantillonnage appliquées aux bandes incluant la tuile considérée. Finalement 8 valeurs différentes de résolutions spatiales uniformes Ri coexistent au sein de l’image IMAF, telles que R0<R1<R2<R3<R4<R5<R6<R7. Le double sous-échantillonnage selon deux directions différentes permet d’obtenir un motif de résolution spatiale complexe permettant de préserver une résolution maximale à certains endroits de l’image lorsque la résolution spatiale est égale à R7 (zones les plus claires). La réduction contrôlée de la résolution spatiale à certains endroits de l’image permet par ailleurs de réduire la quantité de données qui sera transmise.
Par exemple le motif de la peut être mis en œuvre lorsque la configuration d’affichage est associée à un visiocasque, comme celle représentée sur la . La résolution spatiale maximale R7 correspond alors aux zones situées face aux cercles centraux.
Selon un mode de réalisation, plus la valeur de la fréquence temporelle d’un groupe d’images est élevée, plus les valeurs des résolutions spatiales sont faibles. Par exemple, les moyens de prétraitement mettant en œuvre l’étape de prétraitement peut mémoriser une table de correspondance entre des valeurs de fréquence temporelle mises en œuvre dans l’étape E101 et des ensembles de pas de sous-échantillonnage à appliquer lors de l’étape E102. La table de correspondance peut mémoriser une valeur intermédiaire de résolution globale de l’image une fois sous-échantillonnée (par exemple divisée par un entier positif P par rapport à l’image d’origine. A une valeur intermédiaire de résolution globale de l’image correspond un ou plusieurs ensembles de pas de sous-échantillonnage, de façon que l’image complète soit en moyenne sous-échantillonnée de la valeur intermédiaire de résolution globale.
Par exemple, la configuration initiale peut comprendre comme consigne une quantité de données qu’il est possible de transmettre, consigne exprimée de la façon suivante :
- un taux de réduction global RED de la quantité de données initiales – RED peut être exprimée sous forme de valeurs positives entières ou décimales;
- un taux de sous-échantillonnage temporel autorisé TEMP (ce taux pouvant prendre des valeurs entières positives pour un traitement moins complexe, cette contrainte pouvant être levée si le contexte technique permet un traitement plus complexe).
Le taux de sous-échantillonnage spatial SPAT est alors obtenu à partir de la formule suivante : SPAT=RED/TEMP. Ce dernier peut prendre des valeurs positives entières ou non.
Par exemple, si le taux de réduction global est égal à RED=4, il vient :
-si TEMP=4, alors SPAT=1 ;
-si TEMP=3, alors SPAT=4/3 ;
-si TEMP=2, alors SPAT=2 ;
-si TEMP=1, alors SPAT=4.
Le ou les ensembles de pas de sous-échantillonnage sont obtenus à l’aide d’une table de correspondance par exemple définie par la configuration initiale en fonction de la valeur prise par SPAT.
On se réfère de nouveau à la . Optionnellement est mis en œuvre pour les images d’un groupe d’images une sous-étape de découpage des images E103. Cette étape précède l’étape de codage E2. Elle a pour but de décomposer chaque image du groupe d’images en k sous-images (k étant un entier positif). Par exemple, si k=2, chaque image est découpée en deux moitiés. Plus généralement, si la fréquence temporelle du groupe d’images en sortie de la sous-étape E101 est égale à fréquence d’origine divisée par N, chaque image est alors divisée en N sous-images lors de la sous-étape E103. Lorsque l’ensemble des images de la sous-séquence d’entrée sont traitées, celles-ci sont délivrées (E104) pour être codées.
Ainsi en sortie de la sous-étape E104, le groupe d’images traitées forme une sous-séquence de sortie à coder, cette sous-séquence de sortie ayant plutôt une résolution spatiale basse (la valeur étant égale en moyenne à la valeur intermédiaire de résolution globale) et une fréquence temporelle égale à la fréquence temporelle d’origine du fait de la décomposition des images en sous-images lors de la sous-étape E103. La conservation de la fréquence temporelle d’origine rend le prétraitement compatible avec un codage mis en œuvre à l’aide d’un encodeur fonctionnant à une fréquence d’entrée fixe.
La présente invention pourrait être combinée avec la proposition de la demande de brevet WO2020/025510 aux noms des demanderesses. Auquel cas, seules les sous-étapes E101 et E103 peuvent également être mises en œuvre. Dans ce cas le procédé résultant de la combinaison permettrait de diviser la quantité de données par 2 (si N=2) sans changement de la résolution et sans perte subjective de qualité visuelle également. Le procédé résultant de ladite combinaison (et le dispositif correspondant) offre donc trois variantes permettant de réduire la quantité de données à transmettre avec, selon la variante, un facteur de réduction variant de 2 à 4 dans le cas où N=2. Soit seule la fréquence temporelle est réduite, soit seule la résolution spatiale est dégradée ou soit la résolution spatiale et fréquence temporelle sont toutes les deux diminuées.
Le codage de l’étape E2 peut donc être réalisé à l’aide d’un codec standard à faible latence fonctionnant à résolution fixe (la résolution spatiale la plus faible, par exemple R0 sur la ) et à fréquence temporelle élevée (fréquence temporelle d’origine). Un circuit électronique mettant en œuvre des sous-échantillonnages par ligne et/ou par colonne selon l’invention peut être miniaturisé. Etant par ailleurs compatible, avec un codec standard il est alors possible de l’embarquer au sein d’un visiocasque sans surpoids notable, par exemple un casque VIVE™ de la société HTC.
Chaque sous-séquence de sortie codée est alors transmise (étape E3) via par exemple un canal de transmission sans fil (exemple non limitatif). Par exemple, les sous-séquences de sortie peuvent être destinées à plusieurs utilisateurs dans le cadre d’une application de réalité virtuelle impliquant plusieurs porteurs de visiocasques. Le canal de transmission sans fil est alors multi-utilisateurs. Par exemple, le protocole réseau sans-fil 60 GHz Wi-Fi WiGig peut être utilisé pour la transmission (la bande passante est de l’ordre de 7Gbps). Alternativement, le protocole Wi-Fi 5 offrant une bande passante de 600 Mbps peut être utilisé.
Chaque sous-séquence de sortie est reçue et décodée (étape E4). Le décodage mis en œuvre est fonction du codage implémenté lors de l’étape E2. Puis a lieu l’étape de post-traitement E5. Cette étape comprend une sous-étape E500 d’obtention d’une configuration de post-traitement. Cette sous-étape est détaillée plus en détail ci-après en référence à la .
Puis l’étape E5 comprend une sous-étape de recomposition d’images E501, dans le cas où la sous-étape de découpage des images E103 a été mise en œuvre lors de prétraitement E1. Si chaque image a été découpée en 2 moitiés lors de l’étape E103, chaque nouvelle image recomposée est obtenue en juxtaposant de façon appropriée deux images successives de la sous-séquence de sortie reçue et décodée. Une fois les images recomposées, une sous-étape de sur-échantillonnage E502 permettant d’augmenter la résolution spatiale des images recomposées. Le sur-échantillonnage est effectué selon les mêmes directions que le sous-échantillonnage, et à l’aide d’ensembles de pas de sur-échantillonnage de valeurs inverses aux valeurs de pas de sur-échantillonnage. La valeur de chaque nouveau pixel lié au sur-échantillonnage peut être extrapolée par exemple à l’aide des méthodes connues que sont les algorithmes bilinéaire ou bi-cubique ou encore grâce à la méthode de Lanczos bien connue de l’homme du métier. A la fin de la sous-étape de sur-échantillonnage E502, la résolution spatiale des images des images recomposées est égale à la résolution spatiale des images de la sous-séquence d’entrée avant l’étape de sous-échantillonnage E102. Enfin, si une sous-étape E101 de réduction de la fréquence temporelle a eu lieu en prétraitement, le post-traitement comprend une sous-étape E503 de restauration de la fréquence d’origine de la sous-séquence d’entrée. Pour ce faire, si la fréquence temporelle de la sous-séquence de sortie correspond à la fréquence temporelle de la sous-séquence d’entrée divisée par N, chaque image issue de de la sous-étape E502 est alors répétée N fois, de façon à restaurer la fréquence temporelle de la sous-séquence d’entrée. Ainsi est délivrée en entrée de l’étape d’affichage E6, une sous-séquence d’images décodées et post traitées, à la résolution spatiale et la fréquence temporelle maximales, égales à celles de la sous-séquence d’entrée.
Selon un premier mode de mise en œuvre, les filtres temporels et spatiaux sont prédéfinis et mémorisés à la fois pour le pré et le post traitement. Une table de correspondance associe alors une configuration à une sélection de filtres temporels et/ou spatiaux. Selon un deuxième mode de mise en œuvre, l’identification des filtres spatiaux et/ou temporels au moment du prétraitement est couplée à la génération et l’envoi de métadonnées dédiées, transmises au dispositif mettant en œuvre le post-traitement. La illustre le deuxième mode de mise en œuvre. La sous-étape E100 est décomposée elle-même en plusieurs sous-étapes. Une première de ces sous-étapes E1000 comprend une obtention de la configuration initiale et des paramètres associés à cette configuration initiale, par exemple : configuration se rapportant à une optique d’un visiocasque. Si les filtres pouvant être associés à la configuration initiale ne sont pas prédéfinis (par exemple préalablement mémorisés) T1001, dans ce cas (flèche « N »), le groupe d’images à traiter est lu E1002 puis analysé E1003. L’analyse peut comprendre une analyse du contenu des images (ou d’une image de référence parmi le groupe d’images) avec par exemple une détection de contours, une estimation de mouvements par exemple à l’aide de mesures effectuées par des capteurs de mouvement, une détermination d’un histogramme de valeurs des pixels. Cette analyse peut être mise en œuvre à l’aide d’un algorithme basé sur un apprentissage préalable (« machine learning » en anglais). L’étape d’analyse E1003 peut également comprendre une analyse d’informations externes telles que le mouvement du visiocasque porté par l’utilisateur ou l’analyse d’informations complémentaires aux images, telles que des informations de profondeur. A l’issue de l’analyse, les filtres optimaux pour réaliser les étapes de filtrage sont identifiés et sélectionnés (E1004) par exemple à l’aide d’une table de correspondance entre un résultat d’analyse de contenu et des filtres temporels et/ou spatiaux. Une vérification optionnelle (E1005) du paramétrage des filtres sélectionnés par rapport à une qualité minimale visuellement acceptable prédéterminée, peut être mise en œuvre. Si ce critère de qualité minimale n’est pas satisfait, une mise à jour des filtres temporels et/ou spatiaux peut être mise en œuvre.
Si des filtres pouvant être associés à cette configuration sont prédéfinis T1001, (flèche « Y »), ces derniers sont alors générés (E1006). Puis les images du groupe d’images à traiter sont lues (E1007) et leur contenu est analysé (E1008). En fonction du résultat de l’analyse, un test T1009 est mis en œuvre pour vérifier si une mise à jour des paramètres des filtres est autorisée. Si ce n’est pas le cas (flèche « N »), les filtrages E101, E102 et E103 sont alors mis en œuvre avec les filtres générés. Si une mise à jour est autorisée (flèche « Y »), un test T1010 est mis en œuvre pour vérifier la qualité des images qui résulterait d’un filtrage avec les filtres sélectionnés (par exemple par rapport à une qualité minimale visuellement acceptable prédéterminée) est suffisante ou non. Si la qualité est insuffisante (flèche « Y »), des filtres optimaux par rapport à la qualité visuelle minimale acceptable, sont identifiés et sélectionnés (E1004) à l’aide de la table de correspondance entre un résultat d’analyse de contenu et des filtres temporels et/ou spatiaux. La vérification optionnelle E1005 peut de nouveau être mise en œuvre. Si la qualité est suffisante (T1010, flèche « N »), les filtrages E101, E102 et E103 sont alors mis en œuvre avec les filtres générés.
Selon une autre variante non illustrée, les sous sous-étapes E1004, E1005, E1007 et E1008 ainsi que les tests T1009 et T1010 ne sont pas mis en œuvre. Les filtres générés (E1006) sont directement utilisés pour les filtrages E101, E102 et E103.
Dans un mode de mise en œuvre, la sous-étape E104 peut comprendre la réalisation d’un test T1041 pour vérifier si l’envoi de métadonnées est autorisé ou non. Si ce n’est pas le cas (flèche « N ») la sous-séquence de sortie à coder est transmise directement pour être encodée (étape E1043). Si l’envoi de métadonnées est autorisé (flèche « Y »), des métadonnées obtenues durant la sous-étape E100 peuvent être transmises directement en Ethernet ou tout autre moyen telle que les données auxiliaires aux images (E1042) pour la réalisation d’une ou plusieurs sous-étapes de filtrage E101, E102, E103 d’une part et d’autre part à destination du dispositif mettant en œuvre le post-traitement, les métadonnées pouvant ou non être synchronisées avec les images auxquelles elles se rapportent. Dans ce dernier cas de figure, les métadonnées sont transmises via des canaux auxiliaires au protocole de transmission utilisé pour la vidéo par exemple MJPEG, « Motion Joint Photographic Experts Group »). Les métadonnées peuvent représenter les filtres sélectionnés et leurs paramètres (par exemple à l’aide d’un identifiant désignant un filtre parmi une liste prédéterminée), ou des paramètres permettant de modifier ou configurer des filtres prédéfinis ou encore des paramètres décrivant entièrement les filtres à l’aide d’une liste de propriétés permettant de générer ces filtres.
L’échange de métadonnées entre l’émetteur et le récepteur est optionnel. Il peut être omis notamment dans le cas où lors du post-traitement E5, la configuration peut être obtenue directement à partir du format vidéo des sous-séquences de sortie par exemple.
Finalement un test T1044 vérifie si une nouvelle sous-séquence d’entrée est disponible. Si tel est le cas (flèche « Y »), une nouvelle sous-séquence d’entrée est lue E1007. Sinon (flèche « N ») l’étape de codage E2 est mise en œuvre.
La illustre un mode de mise en œuvre du post traitement E5. La sous-étape E500 comprend au préalable une lecture d’une configuration initiale (E5001) par exemple stockée dans une mémoire. Cette configuration initiale peut par exemple correspondre à un visiocasque. Un test T5002 vérifie si cette configuration initiale autorise l’obtention de filtres adaptés pour chaque sous-séquence de sortie ou si les filtres correspondant à la configuration obtenue sont valables pour un ensemble de sous-séquences de sortie. Si les filtres peuvent être mis à jour pour chaque sous-séquence de sortie (flèche « Y »), une configuration des filtres spatiaux et/ou temporels est obtenue (E5003), par exemple deux sous-échantillonnages spatiaux successifs, selon une direction verticale puis horizontale. Les filtres correspondants sont alors générés (E5004). Puis la sous-séquence de sortie à post-traiter est lue (E5005). Si les filtres ne peuvent pas être mis à jour pour chaque sous-séquence de sortie (flèche « N »), le procédé de post-traitement passe directement à l’étape de lecture de la sous-séquence de sortie à post-traiter (E5005).
Puis le post-traitement comprend une vérification de réception ou non de métadonnées correspondant à la sous-séquence de sortie considérée (T5006). Si des métadonnées ont été reçues (flèche « Y »), les filtres obtenus sont paramétrés (pas d’échantillonnages, fréquence de filtrage temporel…) lors d’une étape E5007. Les différents filtrages E501, E502 et E503 sont alors appliqués à la sous-séquence de sortie. Si une nouvelle sous-séquence de sortie est disponible pour le post-traitement (flèche « Y » d’un test T504), le procédé est réitéré. Sinon, le post-traitement est terminé (flèche « N »).
La illustre de façon schématique un mode de réalisation de moyens de prétraitement intégrés dans un dispositif de codage DC selon l’invention. Le dispositif comprend des moyens de lecture MLC1 aptes à lire des images d’une vidéo source SVD, par groupe d’images. Les images lues sont transmises à des moyens d’identification d’un prétraitement optimal MID1. Des moyens de signalisation MSGA sont aptes à générer des métadonnées MTDA décrivant le prétraitement optimal ou comprenant un identifiant de ce prétraitement optimal si les métadonnées le décrivant ne sont pas transmises au dispositif de post-traitement. Des moyens de génération MGNF1 sont aptes à générer des filtres paramétrés selon le prétraitement identifié par les moyens MID1 et en fonction d’une configuration initiale stockée dans une mémoire MEM. Dans ce mode de réalisation, le dispositif DPRT comprend des moyens aptes à générer des métadonnées MTDB décrivant les paramètres de filtrage des filtres générés.
Les moyens de prétraitement comprennent également des moyens de filtrage temporel MFT1, de sous-échantillonnage spatial MFS1 et de décomposition d’images MD1 aptes à filtrer les images de la vidéo source SVD en fonction des filtres générés par les moyens MGNF. Les images prétraitées IMPR forment des sous-séquences de sortie transmises avec les métadonnées MTDA et MTDB à un dispositif d’affichage couplé à un décodeur et un dispositif de posttraitement.
La illustre de façon schématique un mode de réalisation de moyens de post-traitement faisant partie d’un dispositif de décodage DDEC selon l’invention. Des moyens de lecture MLC2 sont configurés pour lire les images prétraitées IMPR des sous-séquences de sortie successives. Ces moyens MLC2 peuvent mettre en œuvre la lecture des images par exemple à l’aide de l’identifiant du prétraitement MTDA transmis simultanément aux images prétraitées afin de mettre en correspondance chaque image lue avec les métadonnées descriptives du prétraitement à appliquer, par exemple mémorisée dans une mémoire annexe sous forme de liste, la mémoire annexe n’étant pas représentée à des fins de simplifications. Chaque prétraitement est identifiable grâce à cet identifiant. Par exemple, la liste peut varier en fonction d’un résultat fourni par des moyens d’analyse (non représentés) des scènes présentes sur les images. Puis des moyens d’identification MID2 sont aptes à déterminer les filtrages de posttraitement à appliquer aux images des sous-séquences de sortie, à l’aide de l’identifiant précités MTDA. Les moyens d’identification MID2 sont aptes à sélectionner et paramétrer les filtres pour la mise en œuvre du posttraitement identifié. Des moyens de génération MGNF2 sont configurés pour générer des filtres adaptés au posttraitement à l’aide des métadonnées MTDB transmises simultanément aux images prétraitées. Les moyens de génération MGNF2 sont couplés à une mémoire MEM2 apte à stocker une configuration telle que décrit ci-avant.
Les moyens de post-traitement comprennent en outre des moyens de filtrage temporel MFT2, de sur-échantillonnage spatial MFS2 et de recomposition d’images MD2 aptes à filtrer les images lues par les moyens de lecture MLC2 en fonction du post-traitement identifié par les moyens MID2 et des paramètres générés par les moyens MGNF2. Les images reconstruites au format de la vidéo source MTDC sont délivrées en sortie.
La représente schématiquement un circuit électronique CIR apte à mettre en œuvre un procédé de prétraitement ou de posttraitement tel que décrit en référence aux figures 3, 9 et 10. Le circuit comprend un microprocesseur µP configuré pour piloter notamment les filtrages temporels mis en œuvre par les premiers moyens de filtrage spatiaux MFIL1, les sous ou sur-échantillonnage spatiaux et les décompositions ou recompositions d’images mis en œuvre par les deuxièmes moyens de filtrage temporels MFIL2. Par ailleurs le microprocesseur µP est apte à générer ou traiter (en post-traitement) les métadonnées de traitement mentionnées ci-avant. Le microprocesseur µP est également couplé à une mémoire MEM adaptée pour sauvegarder des configurations initiales ainsi que le cas échéant, les tables de correspondance précédemment mentionnées. Le microprocesseur µP et les moyens de filtrage spatiaux MFIL1 et temporels MFIL2 sont respectivement couplés à des moyens de communication d’entrée MCOME et de sortie MCOMS apte à échanger des données traitées ou à traiter avec un autre dispositif tel qu’un codeur ou un décodeur par exemple. Par exemple, les données transitant par les moyens de communication d’entrée MCOME peuvent comprendre les images des données vidéo sources délivrées aux moyens de filtrage spatiaux MFIL1 et des paramètres de configurations des moyens de filtrages fournies au microprocesseur µP. Les données transmises vis les moyens de communication d’entrée MCOMS peuvent comprendre par exemple les métadonnées de traitement générées par le microprocesseur µP ainsi que les images sous-échantillonnées spatialement et temporellement.

Claims (14)

  1. Procédé de codage d’images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes, le procédé comprenant la mise en œuvre des étapes suivantes
    c) obtention d’une configuration initiale (E100) représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence d’une ou plusieurs images de la séquence vidéo dites sous-séquence d’entrée,
    d1) réalisation d’un premier sous-échantillonnage spatial (E102) d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble (ENS1) d’au moins deux valeurs différentes de facteurs de sous-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence de sortie, et
    e) codage (E2) des images de la sous-séquence de sortie.
  2. Procédé selon la revendication précédente, dans lequel l’étape d1) comprend en outre un deuxième sous-échantillonnage spatial d’au moins une partie des éléments de l’image sous-échantillonnée en utilisant un filtre orienté selon une deuxième direction et comprenant un deuxième ensemble (ENS2) d’au moins deux valeurs différentes de facteurs de sous-échantillonnage, le deuxième ensemble de valeurs étant déterminé en fonction de ladite configuration initiale.
  3. Procédé selon l’une quelconque des revendications 1 ou 2, dans lequel un sous-échantillonnage spatial est réalisé à l’aide de filtres orientés selon l’une des directions suivantes :
    - horizontale,
    - verticale.
  4. Procédé selon l’une des revendications précédentes, dans lequel chaque valeur de facteur de sous-échantillonnage d’un ensemble de valeurs est respectivement appliquée à au moins un groupe de p éléments successifs selon la direction dans laquelle est orienté le filtre, p étant un entier positif.
  5. Procédé selon l’une des revendications précédentes, comprenant en outre une étape d’analyse (E1003, E1008) comprenant une analyse du contenu d’au moins une image de ladite sous-séquence d’entrée, et une étape de mise à jour des valeurs des facteurs de sous-échantillonnage préalablement à la mise en œuvre de l’étape d1), en fonction du résultat de l’analyse du contenu.
  6. Procédé selon l’un des revendications précédentes, comprenant en outre une étape d’analyse comprenant une analyse de mesures représentatives de mouvements effectués par un utilisateur, le dispositif d’affichage étant un visiocasque porté par ledit utilisateur, et une étape de mise à jour des valeurs des facteurs de sous-échantillonnage préalablement à la mise en œuvre de l’étape d1), en fonction du résultat de l’analyse des mesures.
  7. Procédé selon l’une des revendications précédentes, comprenant en outre une autre étape d’analyse comprenant une analyse de la qualité visuelle (E1005) des images de ladite sous-séquence de sortie, et une étape de mise à jour des valeurs de facteurs de sous-échantillonnage préalablement à la mise en œuvre de l’étape d1), si la qualité visuelle est inférieure à un seuil prédéterminé.
  8. Procédé selon l’une des revendications précédentes, comprenant une étape préalable (E101) comprenant les sous-étapes suivantes
    a) obtention à partir de ladite séquence vidéo, de sous-séquences dites initiales, et pour au moins une sous-séquence initiale :
    b1) détermination d’une information représentative du contenu d’au moins une image de la sous-séquence initiale, et en fonction de ladite information,
    b2) détermination pour la sous-séquence initiale, d’une fréquence de traitement, inférieure ou égale à la fréquence initiale d’affichage des images, en fonction de l’information déterminée, et
    b3) insertion, en fonction de la fréquence de traitement déterminée, de tout ou partie des images du groupe d’images dans une sous-séquence d’images formant une sous-séquence d’entrée.
  9. Procédé selon la revendication précédente, comprenant en outre une étape a posteriori (E103) pour les M images d’une sous-séquence de sortie, M étant un entier, ladite étape a postériori comprenant les sous-étapes suivantes
    d2) comparaison entre la fréquence de traitement associée aux images de la sous-séquence de sortie et la fréquence initiale d’affichage des images, et
    si la fréquence de traitement est inférieure à la fréquence initiale, découpage spatial de chacune des M images de la sous-séquence de sortie en N sous-images, N étant un entier dont la valeur est fonction du rapport entre la fréquence de traitement et la fréquence initiale, l’étape de codage e) correspondant au codage des M*N sous-images de la sous-séquence de sortie,
    sinon l’étape de codage e) correspond au codage desdites M images de la sous-séquence de sortie.
  10. Procédé selon la revendication précédente, comprenant en outre les étapes suivantes pour chaque sous-séquence de sortie
    • obtention d’une information représentative d’au moins l’un des éléments de la liste ci-dessous :
      • valeurs de facteurs de sous-échantillonnage,
      • mesures représentatives de mouvements effectués par un utilisateur, le dispositif d’affichage étant un visiocasque porté par ledit utilisateur,
      • caractéristiques structurelles du dispositif d’affichage,
      • fréquence de traitement, et
    • codage de ladite information.
  11. Procédé de décodage de données correspondant à des images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes, les images de la séquence vidéo étant regroupées en sous-séquences d’une ou plusieurs images dites sous-séquences de sortie, le procédé comprenant la mise en œuvre des étapes suivantes
    c1) obtention d’une configuration initiale (E5001) représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence de sortie;
    d11) réalisation d’un premier sur-échantillonnage spatial (E502) d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble d’au moins deux valeurs différentes de facteurs de sur-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence à décoder, et
    e1) décodage (E4) des images de la sous-séquence à décoder.
  12. Procédé selon la revendication précédente, dans lequel l’étape d11) comprend en outre un deuxième sur-échantillonnage spatial d’au moins une partie des éléments de l’image sur-échantillonnée en utilisant un filtre orienté selon une deuxième direction et comprenant un deuxième ensemble d’au moins deux valeurs différentes de facteurs de sur-échantillonnage, le deuxième ensemble de valeurs étant déterminé en fonction de ladite configuration initiale.
  13. Dispositif de codage (DC) d’images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes, le dispositif étant configuré pour mettre en œuvre les étapes suivantes
    c) obtention d’une configuration initiale représentative de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence d’une ou plusieurs images de la séquence vidéo dites sous-séquence d’entrée,
    d1) réalisation d’un premier sous-échantillonnage spatial d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble d’au moins deux valeurs différentes de facteurs de sous-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence de sortie, et
    e) codage des images de la sous-séquence de sortie.
  14. Dispositif de décodage (DDEC) de données correspondant à des images d’une séquence vidéo, chaque image étant formée d’éléments organisés en lignes et en colonnes, les images de la séquence vidéo étant regroupées en sous-séquences d’une ou plusieurs images dites sous-séquences de sortie, le dispositif étant configuré pour mettre en œuvre des étapes suivantes
    c1) obtention d’une configuration initiale représentatives de caractéristiques structurelles d’un dispositif d’affichage, et pour au moins une image d’une sous-séquence de sortie;
    d11) réalisation d’un premier sur-échantillonnage spatial d’au moins une partie des éléments de l’image en utilisant un filtre orienté selon une première direction et comprenant un premier ensemble d’au moins deux valeurs différentes de facteurs de sur-échantillonnage, le premier ensemble de valeurs étant déterminé en fonction de ladite configuration initiale, puis insertion de l’image résultante dans une sous-séquence à décoder, et
    e1) décodage des images de la sous-séquence à décoder.
FR2013944A 2020-12-22 2020-12-22 Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants. Pending FR3118380A1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
FR2013944A FR3118380A1 (fr) 2020-12-22 2020-12-22 Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants.
KR1020237023548A KR20230124619A (ko) 2020-12-22 2021-12-17 인코딩될 비디오 시퀀스의 이미지들을 인코딩하기 위한방법, 디코딩 방법, 공간 이미지 서브샘플링을 갖는 대응하는 디바이스들 및 시스템
EP21840565.2A EP4268464A1 (fr) 2020-12-22 2021-12-17 Procede de codage d'images d'une sequence video a coder, procede de decodage, dispositifs et systeme correspondants avec sous-échantillonage spatial d'image
US18/259,064 US20240056603A1 (en) 2020-12-22 2021-12-17 Method for encoding images of a video sequence to be encoded, decoding method, corresponding devices and system with spatial image sub-sampling
CN202180087163.6A CN116746158A (zh) 2020-12-22 2021-12-17 对待编码的视频序列的图像进行编码的方法、解码方法、具有空间图像子采样的相应装置和系统
PCT/EP2021/086398 WO2022136143A1 (fr) 2020-12-22 2021-12-17 Procede de codage d'images d'une sequence video a coder, procede de decodage, dispositifs et systeme correspondants avec sous-échantillonage spatial d'image
JP2023538080A JP2024500168A (ja) 2020-12-22 2021-12-17 空間画像サブサンプリングを用いた符号化予定の映像シーケンスの画像を符号化するための方法、復号方法、対応するデバイス及びシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2013944A FR3118380A1 (fr) 2020-12-22 2020-12-22 Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants.
FR2013944 2020-12-22

Publications (1)

Publication Number Publication Date
FR3118380A1 true FR3118380A1 (fr) 2022-06-24

Family

ID=75690351

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2013944A Pending FR3118380A1 (fr) 2020-12-22 2020-12-22 Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants.

Country Status (7)

Country Link
US (1) US20240056603A1 (fr)
EP (1) EP4268464A1 (fr)
JP (1) JP2024500168A (fr)
KR (1) KR20230124619A (fr)
CN (1) CN116746158A (fr)
FR (1) FR3118380A1 (fr)
WO (1) WO2022136143A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011090790A1 (fr) * 2010-01-22 2011-07-28 Thomson Licensing Procédés et appareils d'encodage et de décodage vidéo à super-résolution à base d'échantillonnage
US9066013B2 (en) * 2012-05-24 2015-06-23 Mediatek Inc. Content-adaptive image resizing method and related apparatus thereof
WO2016145243A1 (fr) * 2015-03-10 2016-09-15 Apple Inc. Techniques de sous-échantillonnage adaptatif de la couleur et de conversion de l'espace colorimétrique
WO2020025510A1 (fr) 2018-07-30 2020-02-06 Fondation B-Com Procede de formation d'une sequence d'images de sortie a partir d'une sequence d'images d'entree, procede de reconstruction d'une sequence d'images d'entree a partir d'une sequence d'images de sortie, dispositifs, equipement serveur, equipement client et programmes d'ordinateurs associes
US20200107060A1 (en) * 2018-09-28 2020-04-02 Apple Inc. Electronic Device Content Provisioning Adjustments based on Wireless Communication Channel Bandwidth Condition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011090790A1 (fr) * 2010-01-22 2011-07-28 Thomson Licensing Procédés et appareils d'encodage et de décodage vidéo à super-résolution à base d'échantillonnage
US9066013B2 (en) * 2012-05-24 2015-06-23 Mediatek Inc. Content-adaptive image resizing method and related apparatus thereof
WO2016145243A1 (fr) * 2015-03-10 2016-09-15 Apple Inc. Techniques de sous-échantillonnage adaptatif de la couleur et de conversion de l'espace colorimétrique
WO2020025510A1 (fr) 2018-07-30 2020-02-06 Fondation B-Com Procede de formation d'une sequence d'images de sortie a partir d'une sequence d'images d'entree, procede de reconstruction d'une sequence d'images d'entree a partir d'une sequence d'images de sortie, dispositifs, equipement serveur, equipement client et programmes d'ordinateurs associes
US20200107060A1 (en) * 2018-09-28 2020-04-02 Apple Inc. Electronic Device Content Provisioning Adjustments based on Wireless Communication Channel Bandwidth Condition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SKUPIN ROBERT ET AL: "HEVC tile based streaming to head mounted displays", 2017 14TH IEEE ANNUAL CONSUMER COMMUNICATIONS & NETWORKING CONFERENCE (CCNC), IEEE, 8 January 2017 (2017-01-08), pages 613 - 615, XP033125686, DOI: 10.1109/CCNC.2017.7983191 *

Also Published As

Publication number Publication date
JP2024500168A (ja) 2024-01-04
WO2022136143A1 (fr) 2022-06-30
US20240056603A1 (en) 2024-02-15
EP4268464A1 (fr) 2023-11-01
KR20230124619A (ko) 2023-08-25
CN116746158A (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
EP0547696B1 (fr) Système de transmission et/ou stockage de signaux correspondant à des images texturées
CA2834963C (fr) Procede pour commander une action, notamment une modification de nettete, a partir d&#39;une image numerique en couleurs
EP3005296B1 (fr) Fusion de plusieurs flux vidéo
EP0566188A1 (fr) Dispositif de segmentation d&#39;images
FR2660139A1 (fr) Procede de codage et de transmission a au moins deux niveaux de qualite d&#39;images numeriques appartenant a une sequence d&#39;images, et dispositifs correspondants.
FR2896371A1 (fr) Procede et dispositif de traitement d&#39;une sequence d&#39;images numeriques au format extensible
EP0566185A1 (fr) Sous-ensemble de codage d&#39;images avec correction de rafraichissement des données à coder, et sous-ensemble de décodage de signaux représentatifs de ces images
FR2886787A1 (fr) Procede et dispositif de codage et de decodage d&#39;une sequence d&#39;images
FR2996034A1 (fr) Procede pour creer des images a gamme dynamique etendue en imagerie fixe et video, et dispositif d&#39;imagerie implementant le procede.
FR2867329A1 (fr) Procede de codage d&#39;une sequence d&#39;images par analyse temporelle hierarchique.
FR3118380A1 (fr) Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants.
FR2684829A1 (fr) Methodes de synthese de signaux de texture et de transmission et/ou stockage de tels signaux, ainsi que dispositifs et systemes pour leur mise en óoeuvre.
FR2809572A1 (fr) Codage video de source avec prediction du mouvement et filtrage des effets de blocs
FR2634086A1 (fr) Dispositif de sous-echantillonnage temporel et d&#39;interpolation temporelle compensee en mouvement dans une sequence d&#39;images entrelacees, utilisation d&#39;un tel dispositif dans les dispositifs de codage et de decodage d&#39;un systeme de transmission d&#39;images de television a haute definition, et dispositifs de codage et de decodage pour un tel systeme
FR2822330A1 (fr) Procede de codage par blocs, de type mpeg, dans lequel on affecte une resolution a chaque bloc
EP0809408A1 (fr) Caméra à effets spéciaux
EP4104446A1 (fr) Procédé et dispositif de traitement de données de vidéo multi-vues
WO1991008546A1 (fr) Procede de compression d&#39;images par auto-organisation d&#39;un reseau neuronal
EP3991401A1 (fr) Procédé et dispositif de traitement de données de video multi-vues
FR2782878A1 (fr) Systeme de compression et de decompression de signaux video numeriques
FR3137240A1 (fr) Procédé de segmentation d’une pluralité de données, procédé de codage, procédé de décodage, dispositifs, systèmes et programme d’ordinateur correspondants
FR2717648A1 (fr) Procédé et dispostif d&#39;estimation de mouvement entre images de télévision d&#39;une séquence d&#39;images.
FR2956552A1 (fr) Procede de codage ou de decodage d&#39;une sequence video, dispositifs associes
FR2907298A1 (fr) Procede de transmission d&#39;images d&#39;un sujet,dispositif de transmission d&#39;images pour la mise en oeuvre du procede,et dispositif de production d&#39;images compatible.
FR2646576A1 (fr) Systeme d&#39;emission-reception pour la transmission d&#39;images couleur animees et du son a partir de canaux independants

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220624

PLFP Fee payment

Year of fee payment: 3

AU Other action affecting the ownership or exploitation of an industrial property right

Effective date: 20230228

PLFP Fee payment

Year of fee payment: 4