FR3137518A1 - Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés - Google Patents

Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés Download PDF

Info

Publication number
FR3137518A1
FR3137518A1 FR2206565A FR2206565A FR3137518A1 FR 3137518 A1 FR3137518 A1 FR 3137518A1 FR 2206565 A FR2206565 A FR 2206565A FR 2206565 A FR2206565 A FR 2206565A FR 3137518 A1 FR3137518 A1 FR 3137518A1
Authority
FR
France
Prior art keywords
data
data packet
artificial neural
neural network
packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2206565A
Other languages
English (en)
Inventor
Félix Henry
Gordon Clare
Mohsen Abdoli
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fondation B Com
Original Assignee
Orange SA
Fondation B Com
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA, Fondation B Com filed Critical Orange SA
Priority to FR2206565A priority Critical patent/FR3137518A1/fr
Priority to PCT/EP2023/067734 priority patent/WO2024003191A1/fr
Publication of FR3137518A1 publication Critical patent/FR3137518A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un flux de données comporte des paquets de données comprenant chacun au moins des premières données et des deuxièmes données. Un procédé de décodage de ce flux de données comprend les étapes suivantes : - identification, parmi lesdits paquets de données, d’un premier paquet de données (12) dont les premières données incluent une information (T1) indicative d’un type prédéterminé de paquet de données ; - traitement des deuxièmes données (NNC) du premier paquet de données pour obtenir un réseau de neurones artificiels ; - décodage des deuxièmes données (C) comprises dans un second paquet de données (14) parmi lesdits paquets de données, en utilisant au moins le réseau de neurones artificiels obtenu et de manière à produire des données représentatives d’un contenu audio ou vidéo. Un dispositif de décodage et un programme d’ordinateur associés sont également proposés. Figure pour l’abrégé : figure 4

Description

Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés Domaine technique de l'invention
La présente invention concerne le domaine technique du codage des contenus audio ou vidéo.
Elle concerne en particulier un procédé et un dispositif de décodage, ainsi qu’un programme d’ordinateur et un flux de données associés.
Etat de la technique
Il a été proposé d’utiliser des réseaux de neurones artificiels pour effectuer tout ou partie du décodage de données représentatives d’un contenu audio ou vidéo.
On connaît du document WO 2022/013 249 un procédé de décodage dans lequel on décode un indicateur pour déterminer si un réseau de neurones artificiels est codé dans le flux de données reçu ou fait partie d’un ensemble prédéterminé de réseaux de neurones artificiels, et dans lequel le réseau de neurones artificiels est ensuite utilisé pour décoder des données représentatives d’un contenu audio ou vidéo.
Présentation de l'invention
Dans ce contexte, la présente invention propose un procédé de décodage d’un flux de données comportant des paquets de données comprenant chacun au moins des premières données et des deuxièmes données, caractérisé en ce qu’il comprend les étapes suivantes :
- identification, parmi lesdits paquets de données, d’un premier paquet de données dont les premières données incluent une information indicative d’un type prédéterminé de paquet de données ;
- traitement des deuxièmes données du premier paquet de données pour obtenir un réseau de neurones artificiels ;
- décodage des deuxièmes données comprises dans un second paquet de données parmi lesdits paquets de données, en utilisant au moins le réseau de neurones artificiels obtenu et de manière à produire des données représentatives d’un contenu audio ou vidéo.
Les données permettant d’obtenir le réseau de neurones artificiels et les données décodables à l’aide de ce réseau de neurones artificiels pour reproduire le contenu audio ou vidéo sont ainsi transportées dans des paquets de données respectifs, ce qui facilite leur identification et leur utilisation au moment du décodage. Le premier paquet de données, qui contient les données permettant d’obtenir le réseau de neurones artificiels, est à cet égard spécifiquement identifié au moyen de l’information indicative du type prédéterminé de paquet de données.
Les deuxièmes données du premier paquet de données comprennent par exemple des données descriptives du réseau de neurones artificiels ; l’étape de traitement peut alors être une étape de décodage des données descriptives pour obtenir des paramètres du réseau de neurones artificiels.
Le premier paquet de données peut comprendre par ailleurs un identifiant du réseau de neurones artificiels. Cet identifiant peut être un élément d’une liste d’identifiants distincts associés respectivement à des réseaux de neurones artificiels distincts.
Le procédé peut comprendre par ailleurs une étape de réception d’un troisième paquet de données dont les premières données incluent une information indicative dudit type prédéterminé de paquet, et comprenant ledit identifiant, et/ou une étape de réutilisation dudit réseau de neurones artificiels obtenu pour décoder des deuxièmes données comprises dans un quatrième paquet de données parmi lesdits paquets de données. Ainsi, la présence de l’identifiant dans le troisième paquet de données indique que ce troisième paquet de données contient lui aussi des données utilisables pour obtenir le réseau de neurones artificiels défini dans le premier paquet de données, et ce réseau de neurones artificiels peut donc être réutilisé sans avoir à traiter à nouveau les données du troisième paquet de données.
Le second paquet de données peut lui aussi comprendre ledit identifiant. Autrement dit, l’identifiant compris dans le premier paquet de données et l’identifiant compris dans le second paquet de données sont identiques. L’identifiant peut permettre dans ce cas d’indiquer que c’est le réseau de neurones artificiels défini dans le premier paquet de données (qui contient cet identifiant) qui doit être utilisé pour décoder les données contenues dans le second paquet de données (qui contient également l’identifiant dans le cas présent).
D’autres possibilités sont toutefois envisageables pour indiquer le réseau de neurones à utiliser au décodage.
Le procédé peut comprendre une étape de réception d’un autre paquet de données contenant des paramètres relatifs à au moins une image dudit contenu ; ces paramètres peuvent dans ce cas comprendre ledit identifiant. Le réseau de neurones artificiels défini dans le premier paquet de données sera alors utilisé pour décoder les données permettant d’obtenir ladite au moins une image du contenu.
Selon un mode de réalisation envisageable, le premier paquet de données est, parmi les paquets de données dont les premières données incluent une information indicative dudit type prédéterminé de paquet, le dernier paquet précédant le second paquet de données dans le flux de données. Dans ce mode de réalisation, le réseau de neurones artificiels à utiliser pour le décodage des données du second paquet est ainsi celui défini dans le dernier paquet reçu ayant le type prédéterminé.
Selon une possibilité de réalisation, le second paquet de données comprend un pointeur vers le premier paquet de données.
Dans le même ordre d’idée, le procédé peut comprendre les étapes suivantes :
- lecture d’un drapeau dans le second paquet de données ;
- si le drapeau a une valeur prédéfinie, lecture, dans le second paquet de données, d’un pointeur vers le premier paquet de données.
Le procédé peut par ailleurs comprendre les étapes suivantes :
- réception d’un autre paquet de données contenant des paramètres relatifs à au moins une image dudit contenu
- lecture d’un drapeau parmi lesdits paramètres ;
- si le drapeau a une valeur prédéfinie, lecture, parmi lesdits paramètres, d’un pointeur vers le premier paquet de données.
Le pointeur peut désigner par exemple un emplacement dans une partie du flux de données relative à une séquence d’images distincte de la séquence d’images codée au moins en partie par les deuxièmes données du second paquet de données.
Par ailleurs, le premier paquet de données peut comprendre une information indicative du format de codage des deuxièmes données du premier paquet de données.
Le premier paquet de données peut débuter par un marqueur prédéfini et le second paquet de données peut dans ce cas lui également débuter par ledit marqueur prédéfini. Un tel marqueur identifie dans ce cas le début des paquets de données.
Les premières données d’un paquet de données sont par exemple comprises dans un en-tête de ce paquet de données, tandis que les deuxièmes données peuvent alors être comprises les données utiles (en anglais "payload") de ce paquet de données.
L’invention propose également un dispositif de décodage d’un flux de données comportant des paquets de données comprenant chacun au moins des premières données et des deuxièmes données, caractérisé en ce qu’il comprend un processeur configuré ou programmé pour :
- identifier, parmi lesdits paquets de données, un premier paquet de données dont les premières données incluent une information indicative d’un type prédéterminé de paquet de données ;
- traiter les deuxièmes données du premier paquet de données pour obtenir un réseau de neurones artificiels ;
- décoder les deuxièmes données comprises dans un second paquet de données parmi lesdits paquets de données, en utilisant au moins le réseau de neurones artificiels obtenu et de manière à produire des données représentatives d’un contenu audio ou vidéo.
L’invention propose aussi un programme d’ordinateur comprenant des instructions exécutables par un processeur et conçues pour mettre en œuvre un procédé tel que proposé ci-dessus, lorsque ces instructions sont exécutées par le processeur.
L’invention propose enfin un flux de données comportant des paquets de données comprenant chacun au moins des premières données et des deuxièmes données, caractérisé en ce que les paquets de données comprennent :
- un premier paquet de données dont les premières données incluent une information indicative d’un type prédéterminé de paquet de données et dont les deuxièmes données définissent un réseau de neurones artificiels ;
- un second paquet de données dont les deuxièmes données sont décodables en utilisant au moins ledit réseau de neurones artificiels de manière à produire des données représentatives d’un contenu audio ou vidéo.
Comme expliqué plus haut, le premier paquet de données peut comprendre un identifiant ; le flux de données peut comprendre un autre paquet de données qui comprend ledit identifiant, dont les premières données comprennent ladite information indicative du type prédéterminé de paquet de données, et dont les deuxièmes données sont identiques aux deuxièmes données du premier paquet de données.
Bien entendu, les différentes caractéristiques, variantes et formes de réalisation de l'invention peuvent être associées les unes avec les autres selon diverses combinaisons dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres.
Description détaillée de l'invention
De plus, diverses autres caractéristiques de l'invention ressortent de la description annexée effectuée en référence aux dessins qui illustrent des formes, non limitatives, de réalisation de l'invention et où :
représente les éléments principaux d’un dispositif de codage ;
représente schématiquement une première possibilité de réalisation pour un module de codage du dispositif de codage de la ;
représente schématiquement une seconde possibilité de réalisation pour le module de codage du dispositif de codage de la ;
représente un premier exemple de flux de données ;
représente un second exemple de flux de données ;
représente un troisième exemple de flux de données ;
représente un quatrième exemple de flux de données ;
représente un cinquième exemple de flux de données ;
représente un sixième exemple de flux de données ;
représente les éléments principaux d’un dispositif de décodage ;
représente schématiquement une première possibilité de réalisation pour un module de décodage du dispositif de décodage de la ;
représente schématiquement une seconde possibilité de réalisation pour le module de décodage du dispositif de décodage de la ;
est un logigramme présentant des étapes d’un procédé de décodage ;
est un logigramme montrant des étapes d’un procédé envisageable pour le décodage du flux de données de la ;
est un logigramme montrant des étapes d’un procédé envisageable pour le décodage du flux de données de la ;
est un logigramme montrant des étapes d’un procédé envisageable pour le décodage du flux de données de la ; et
est un logigramme montrant des étapes d’un procédé envisageable pour le décodage du flux de données de la .
Il est à noter que, sur ces figures, les éléments structurels et/ou fonctionnels communs aux différentes variantes peuvent présenter les mêmes références.
La représente un dispositif de codage utilisé dans le cadre de l’invention.
Ce dispositif de codage comprend un module de gestion 2, un module de codage 4, un module de formation de flux 6 et un module d‘émission de flux 8.
Chacun de ces modules peut être réalisé en pratique par un processeur programmé (par exemple au moyen d’instructions mémorisées dans une mémoire associée au processeur) pour mettre en œuvre les fonctionnalités décrites ci-dessous pour le module concerné (dans cet exemple, du fait de l’exécution par le processeur de certaines des instructions précitées). Par ailleurs, plusieurs modules peuvent en pratique être mis en œuvre au moyen d’un même processeur, par exemple du fait de l’exécution (par ce processeur) de plusieurs ensembles d’instructions correspondant respectivement aux différents modules. En variante, l’un ou l’autre des modules peut être réalisé au moyen d’un circuit intégré à application spécifique.
Le module de gestion 2 est configuré pour commander le fonctionnement du module de codage 4, en particulier pour déterminer quel processus de codage doit être utilisé pour coder des données B représentatives d’un contenu audio ou vidéo, comme cela sera expliqué ci-après.
Le module de codage 4 est configuré pour recevoir en entrée ces données B représentatives d’un contenu audio ou vidéo et pour générer en sortie, sur la base d’au moins une partie des données B, une représentation codée C de ce contenu. La taille de la représentation codée C (en nombre de bits) est normalement inférieure à la taille des données B correspondantes (en nombre de bits).
Dans le cas d’un contenu vidéo, les données B comprennent par exemple des valeurs respectivement associées à des pixels d’une image (ou d’une composante d’une image) de la séquence vidéo. Les données B peuvent ainsi être des valeurs de luminance ou des valeurs de chrominance respectivement associées à des pixels d’une composante d’une image de la séquence vidéo concernée.
Dans le cas d’un contenu audio, les données B sont des données représentatives d’un signal sonore, par exemple selon le format WAV (utilisé pour le stockage des disques compacts audio).
Afin de produire la représentation codée C sur la base des données B, le module de codage 4 utilise au moins un réseau de neurones artificiels N, N’.
Selon une première possibilité de réalisation illustrée en , les données B représentatives du contenu audio ou vidéo sont appliquées en entrée du réseau de neurones artificiels N, qui génère alors en sortie une partie correspondante de la représentation codée C.
Les données B appliquées en entrée du réseau de neurones artificiels N (c’est-à-dire appliquées à une couche d’entrée du réseau de neurones artificiels N) peuvent représenter un bloc d’une image, ou un bloc d’une composante d’une image (par exemple un bloc d’une composante de luminance ou de chrominance de cette image, ou un bloc d’une composante de couleur de cette image), ou une image d’une séquence vidéo, ou une composante d’une image d’une séquence vidéo (par exemple une composante de luminance ou de chrominance, ou une composante de couleur), ou encore une série d’images de la séquence vidéo.
On peut prévoir par exemple dans ce cas que certains au moins des neurones de la couche d’entrée reçoivent chacun une valeur de pixel d’une composante d’une image, valeur représentée par l’une des données B.
Selon une seconde possibilité de réalisation, le module de codage 4 applique aux données B représentatives du contenu audio ou vidéo un traitement comprenant plusieurs étapes, dont au moins une étape est réalisée au moyen d’un réseau de neurones artificiels N’.
Ainsi, comme illustré par exemple en , une partie Cj-1précédemment obtenue de la représentation codée est appliquée en entrée du réseau de neurones artificiels N’, ce qui permet de générer en sortie du réseau de neurones artificiels N’ des données prédites Pjqui sont soustraites aux données courantes Bjde manière à obtenir (en sortie du module de codage 4) une partie Cjde la représentation codée correspondant aux données courantes Bj.
Sur la , la référence 10 représente un module de retardement pour illustrer le fait qu’à l’instant de traitement des données courantes Bjpour obtenir la partie Cjde la représentation codée correspondante, c’est une partie préalablement obtenue Cj-1de la représentation codée qui est appliquée en entrée du réseau de neurones artificiels N’.
En pratique, la partie Cj-1est par exemple préalablement obtenue par traitement (par le module de codage 4) de données Bj-1relatives à une image précédant l’image représentée par les données courantes Bj.
En variante, la partie préalablement obtenue utilisée en entrée du réseau de neurones artificiels N’ peut être une partie de représentation codée correspondant à au moins un bloc de l’image voisin du bloc dont les valeurs de pixel sont représentées par les données courantes Bj.
Lors du codage, le module de gestion 2 détermine quel processus de codage (c’est-à-dire quel traitement effectué par le module de codage 4) doit être utilisé pour le codage d’un ensemble de données B représentatives du contenu audio ou vidéo.
Le module de gestion 2 détermine ainsi notamment quel réseau de neurones artificiels N, N’ doit être utilisé au sein du module de codage 4.
L’ensemble de données B pour lequel le module de gestion 2 détermine le processus (et notamment le réseau de neurones artificiels N, N’) à utiliser dépend de l’application concernée. Cet ensemble de données B est par exemple l’ensemble des données B relatives à une image donnée ou l’ensemble des données B relatives à une séquence d’images donnée.
Le module de gestion 2 sélectionne par exemple le réseau de neurones artificiels N, N’ à utiliser lors du codage de l’ensemble de données B parmi une pluralité de réseaux de neurones artificiels prédéfinis, par exemple afin de minimiser un critère débit-distorsion (qui tient compte de la taille de la représentation codée C et de la distorsion entre le contenu représenté par les données B et le contenu reconstruit sur la base de la représentation codée C).
En variante, le module de gestion 2 procède à une étape d’entraînement du réseau de neurones artificiels N, N’ de manière à optimiser un critère donné (par exemple le critère débit distorsion susmentionné) lors du traitement de l’ensemble de données B concerné, et commande au module de codage 4 d’utiliser le réseau de neurones artificiels ainsi entraîné pour la génération de la représentation codée C sur la base de l’ensemble de données B concernées.
Le module de gestion 2 peut ainsi produire (à destination notamment du module de formation de flux 6) une information i indicative du réseau de neurones artificiels à utiliser lors du décodage de la représentation codée C. Précisément, le module de gestion 2 peut fournir une telle information i pour chaque partie C de la représentation codée associé à un ensemble de données B tel que défini ci-dessus.
Dans certains cas, le réseau de neurones artificiels à utiliser pour le décodage de la représentation codée C est distinct du réseau de neurones artificiels N.
Par exemple, dans le cas de la (où le réseau de neurones artificiels N reçoit en entrée les données B et produit en sortie la représentation codée C), le réseau de neurones artificiels à utiliser pour le décodage de la représentation codée C est conçu (c’est-à-dire en pratique entraîné) de sorte à minimiser la distorsion des données B lors leurs passages successifs à travers le réseau de neurones artificiels N (pour produire la représentation codée C) et à travers le réseau de neurones artificiels à utiliser pour le décodage, et/ou à minimiser la taille de la représentation codée C (au sens d’un critère débit-distorsion).
Dans le cas où le module de gestion 2 sélectionne le réseau de neurones artificiels N parmi une pluralité de réseaux de neurones artificiels prédéfinis, le réseau de neurones artificiels à utiliser pour le décodage est celui associé de manière prédéfinie au réseau de neurones artificiels N sélectionné. L’information i peut alors désigner (par exemple au sein d’une liste de réseau de neurones artificiels) ce réseau associé au réseau de neurones artificiels N sélectionné.
Dans le cas où le module de gestion 2 obtient le réseau de neurones artificiels N au moyen d’une étape d’entraînement, cette étape d’entraînement peut permettre l’entraînement simultané du réseau de neurones artificiels à utiliser pour le décodage. L’information i peut alors comprendre des données descriptives du réseau de neurones artificiels à utiliser pour le décodage (ces données descriptives pouvant comprendre par exemple des poids respectivement associés aux neurones de ce réseau de neurones artificiels et déterminés lors de l’étape d’entraînement).
Le module de formation de flux 6 reçoit la représentation codée C produite par le module de codage 4 et l’information i fournie par le module de gestion 2, et construit sur la base de ces éléments un flux de données F. Le module de formation de flux 6 peut bien entendu recevoir en pratique d’autres données du module de codage 4 et/ou du module de gestion 6.
Le module de formation de flux 6 construit le flux de données F sous forme de différents paquets de données destinés à être successivement communiqués (par exemple transmis) au dispositif de décodage. Ces paquets de données sont par exemple respectivement des unités de la couche d’abstraction réseau (en anglais "NAL units" pour "Network Abstraction Layer unit s").
Le module de formation de flux 6 construit les différents paquets de données conformément à ce qui est décrit ci-dessous.
Dans l’exemple décrit ici, chaque paquet de données débute par un marqueur M prédéfini (c’est-à-dire formé d’une suite prédéfinie, ou motif prédéfini, de bits). Tout paquet de données débute donc ici par le même marqueur M, ce qui permet d’identifier le début d’un paquet de données à réception du flux. On propose par exemple que la valeur correspondant au marqueur M (c’est-à-dire la suite de bits formant le marquer M) soit interdite au sein du flux de données F en dehors du début des paquets de données.
En variante, on pourrait envisager d’autres moyens d’identification des paquets de données dans le flux de données F, par exemple une liste répertoriant les adresses des différents paquets de données dans le flux de données F.
Chaque paquet de données comprend ici en outre un identifiant de type qui désigne le type du paquet de données concerné parmi un ensemble prédéterminé de types possibles.
Dans les exemples décrits dans la suite, sont utilisés certains au moins des types de paquet de données suivants :
- un paquet de données portant des données descriptives d’un réseau de neurones artificiels (à utiliser pour le décodage), désigné par un premier identifiant de type, noté T1 dans la suite ;
- un paquet de données portant des données codées représentant un contenu audio ou vidéo (c’est-à-dire ici la représentation codée C obtenue au moyen du module de codage 4), désigné par un second identifiant de type, noté T2 dans la suite ;
- un paquet de données portant des paramètres relatifs au contenu audio ou vidéo, ou au processus de décodage à utiliser, désigné par un troisième identifiant, noté T3 dans la suite ;
- un paquet de données portant des données codées représentant un contenu audio ou vidéo, ces données codées étant toutefois obtenues par un processus de codage distinct (et nécessitant par conséquent un processus de décodage distinct) des données codées précitées contenues dans les paquets de données de type T2, ce dernier type de paquet de données étant désigné par un quatrième identifiant noté T4 dans la suite.
Il existe donc des paquets de données contenant une représentation codée du contenu (paquets de données de types T2 et T4 dans l’exemple décrit ici), des paquets de données contenant des données descriptives d’un réseau de neurones artificiels (par exemple des données codées selon un format donné et représentant ce réseau de neurones artificiels) – ici des paquets de données de type T1, et des paquets de données contentant des paramètres (ici des paquets de données de type T3).
Dans le mode de réalisation décrit ici, les paquets de données contenant des données descriptives d’un réseau de neurones artificiels (paquets de données de type T1) comprennent :
- un marqueur M ;
- un identifiant de type (formant des premières données pour ce paquet de données), ici de valeur T1 ;
- à titre facultatif, un identifiant NNI associé au réseau de neurones artificiels concerné (l’identifiant NNI faisant partie d’un ensemble prédéterminé d’identifiants respectivement associés à différents réseaux de neurones artificiels) ;
- à titre facultatif, un identifiant de format NNF indiquant le format des données descriptives NNC contenues dans le paquet de données ;
- les données NNC descriptives du réseau de neurones artificiels concerné (ces données descriptives NNC formant des deuxièmes données pour ce paquet de données).
L’identifiant de type T1 et éventuellement l’identifiant NNI et/ou l’identifiant de format NNF sont par exemple compris dans un en-tête du paquet de données ; les données descriptives NNC peuvent alors former quant à elles les données utiles (en anglais "payload") du paquet de données.
Le format de description (ou de codage) des données descriptives NNC (identifié le cas échéant par l’identifiant de format NNF) peut être par exemple le format NNR (MPEG-7 partie 17), le format NNEF ou le format ONNX. L’identifiant de format NNF peut en variante désigner un format admis par un outil de manipulation de réseaux de neurones artificiels, ou encore un format d’un identifiant de réseau de neurones artificiels parmi un ensemble prédéterminé de réseaux de neurones artificiels (les données NNC comprenant alors un tel identifiant).
L’utilisation d’un identifiant de format NNF dans le paquet de données n’est pas nécessaire lorsque le format utilisé est convenu (prédéfini) par le dispositif de codage et le dispositif de décodage (ou, autrement dit, qu’un seul format est utilisé par le dispositif de décodage).
Lorsqu’une partie C de la représentation codée a été produite par le module de codage 4 sur la base d’un ensemble de données B, le module de formation de flux 6 reçoit comme déjà indiqué (en provenance du module de gestion 2) l’information i indicative du réseau de neurones artificiels de décodage à utiliser pour le décodage de la partie C. Le module de formation de flux 6 peut ainsi déterminer sur la base de cette information i quelles données descriptives NNC doivent être placées dans un paquet de données de type T1 donné, comme cela ressortira des exemples donnés dans la suite.
Dans les modes de réalisation où un identifiant NNI est utilisé, on prévoit ici que tous les paquets de données contenant des données descriptives d’un réseau de neurones artificiels (c’est-à-dire ici tous les paquets de données de type T1) comprenant un identifiant NNI donné comprennent des données descriptives NNC identiques.
Dans l’exemple décrit ici, les paquets de données contenant une représentation codée du contenu (paquets de données de types T2 et T4) comprennent :
- un marqueur M ;
- un identifiant de type (formant des premières données pour ce paquet de données), ici de valeur T2 ou T4 (le type étant l’un des types disponibles pour la représentation codée du contenu) ;
- à titre facultatif, un identifiant NNI associé à un réseau de neurones artificiels (selon la même règle d’association que mentionné ci-dessus pour les paquets de données de type T1), ce réseau de neurones artificiels étant celui à utiliser pour le décodage de la représentation codée du contenu contenue dans le présent paquet de données ;
- à titre facultatif, un identifiant de localisation NNL tel qu’un pointeur de fichier qui indique la localisation dans le flux de données d’un paquet de données contenant des données descriptives du réseau de neurones artificiels à utiliser pour le décodage de la représentation codée du contenu contenue dans le présent paquet de données ;
- à titre facultatif, un indicateur de description distante DNN indiquant si un paquet de données contenant des données descriptives du réseau de neurones artificiels à utiliser est présent dans la partie du flux de données relative à la séquence d’images courante ou dans une partie du flux de données relative à une séquence d’image différente de la séquence d’image courante ;
- la représentation codée du contenu C concernée (qui est une partie de la représentation codée générée par le module de codage 4 et forme les deuxièmes données pour ce paquet de données).
Une séquence d’image est ici un ensemble d’images qui peuvent être obtenues par décodage d’une partie de la représentation codée du contenu (ici de la vidéo) sans nécessiter un accès à une autre partie de la représentation codée du contenu (ici de la vidéo).
L’identifiant de type T2, T4 et éventuellement l’identifiant NNI et/ou l’identifiant de localisation NNL et/ou l’indicateur de description distante sont par exemple compris dans un en-tête du paquet de données ; la représentation codée C peut alors former les données utiles (en anglais "payload") du paquet de données.
Parmi les paquets de données contenant une représentation codée du contenu, certains paquets peuvent avoir un type particulier pour identifier un point d’entrée dans le flux de données (ici le type correspondant à l’identifiant T4 dans l’exemple décrit plus bas). Dans ce cas, on peut prévoir par exemple que seuls les paquets de ce type (correspondant à un point d’entrée) peuvent contenir un identifiant NNI ou un identifiant de localisation NNL.
Selon une variante envisageable, l’identifiant NNI et/ou l’identifiant de localisation NNL et/ou l’indicateur de description distante DNN pourrait être contenus dans un paquet de données portant des paramètres relatifs à une image ou à une séquence d’images (paquet de données de type T3 dans l’exemple décrit ici).
On peut par ailleurs prévoir que le module de formation de flux 6 construise le flux de données F de sorte que tout paquet de données contenant une représentation codée du contenu (paquet de données de type T2 ou T4) et un identifiant NNI donné soit précédé (dans le flux de données F) par un paquet de données de type T1 contenant également cet identifiant NNI donné (et ainsi des données descriptives du réseau de neurones artificiels désigné par cet identifiant NNI donné).
On décrit à présent en référence aux figures 4 à 9 différents exemples de flux de données envisageables. Le décodage de ces flux de données envisageables est décrit plus loin.
Un premier exemple de flux de données est représenté sur la .
Dans cet exemple, le flux de données comprend un paquet de données 12 de type T1 et un paquet de données 14 (ultérieur dans le flux de données par rapport au paquet 12) de type T2.
Le paquet de données 12 comprend le marqueur M, un identifiant de type ayant la valeur T1, un identifiant NNI associé à un réseau de neurones artificiels donné, un identifiant de format NNF indiquant le format des données descriptives NNC (mentionnées ci-après) et ces données NNC descriptives du réseau de neurones artificiels donné.
Le paquet de données 14 comprend le marqueur M, un identifiant de type ayant la valeur T2, l’identifiant NNI associé au réseau de neurones artificiels donné (identique à l’identifiant contenu dans le paquet de données 12) et une partie de la représentation codée C générée par le module de codage 4 et décodable en utilisant notamment le réseau de neurones artificiels donné.
Un second exemple de flux de données est représenté sur la .
Dans cet exemple, le flux de données comprend dans cet ordre un paquet de données 16, un paquet de données 18 et un paquet de données 20. (D’autres paquets de données peuvent être présents dans le flux de données entre le paquet de données 16 et le paquet de données 18, et/ou entre le paquet de données 18 et le paquet de données 20.)
Le paquet de données 16 comprend le marqueur M, un identifiant de type ayant la valeur T1, un identifiant NNI associé à un réseau de neurones artificiels donné, et des données NNC descriptives du réseau de neurones artificiels donné.
Le paquet de données 18 comprend le marqueur M, un identifiant de type ayant la valeur T3 (correspondant comme indiqué ci-dessus à un paquet de données contenant des paramètres, relatifs à une image donnée ou à une séquence d’images donnée) et (parmi ces paramètres) un identifiant NNI associé au réseau de neurones artificiels donné.
Le paquet de données 20 comprend le marqueur M, un identifiant de type ayant la valeur T2 et une partie de la représentation codée C générée par le module de codage 4 et décodable en utilisant notamment le réseau de neurones artificiels donné.
Un troisième exemple de flux de données est représenté sur la .
Dans cet exemple, le flux de données comprend un paquet de données 22 et, ultérieurement dans le flux de données, un paquet de données 24.
Le paquet de données 22 comprend le marqueur M, un identifiant de type ayant la valeur T1, éventuellement un identifiant NNI associé à un réseau de neurones artificiels donné, et des données NNC descriptives du réseau de neurones artificiels donné.
Le paquet de données 24 comprend le marqueur M, un identifiant de type ayant la valeur T2 et une partie de la représentation codée C générée par le module de codage 4 et décodable en utilisant notamment le réseau de neurones artificiels donné.
Un quatrième exemple de flux de données est représenté sur la .
Dans cet exemple, le flux de données comprend dans cet ordre un paquet de données 26, un paquet de données 28 et un paquet de données 30. (D’autres paquets de données peuvent être présents dans le flux de données entre le paquet de données 26 et le paquet de données 28, et/ou entre le paquet de données 28 et le paquet de données 30.)
Le paquet de données 26 comprend le marqueur M, un identifiant de type ayant la valeur T1, un identifiant NNI associé à un réseau de neurones artificiels donné et des données NNC descriptives du réseau de neurones artificiels donné.
Le paquet de données 28 comprend le marqueur M, un identifiant de type ayant la valeur T4 (correspondant comme déjà indiqué à un point d’entrée dans le flux), l’identifiant NNI associé au réseau de neurones artificiels donné (identique à l’identifiant contenu dans le paquet de données 26) et une partie C de la représentation codée générée par le module de codage 4 et décodable en utilisant notamment le réseau de neurones artificiels donné.
Le paquet de données 30 comprend le marqueur M, un identifiant de type ayant la valeur T2 et une autre partie C’ de la représentation codée générée par le module de codage 4 et décodable en utilisant notamment le réseau de neurones artificiels donné.
Un cinquième exemple de flux de données est représenté sur la .
Dans cet exemple, le flux de données comprend dans cet ordre un paquet de données 32, un paquet de données 34, un paquet de données 36 et un paquet de données 38. (D’autres paquets de données peuvent être présents dans le flux de données entre ces différents paquets.)
Le paquet de données 32 comprend le marqueur M, un identifiant de type ayant la valeur T4 (correspondant comme déjà indiqué à un point d’entrée dans le flux), un indicateur de description distante DNN, un identifiant de localisation NNL et une partie C de la représentation codée générée par le module de codage 4.
Le paquet de données 34 comprend le marqueur M, un identifiant de type ayant la valeur T2 et une autre partie C’ de la représentation codée générée par le module de codage 4.
Les paquets de données 32 et 34 sont relatifs à la même séquence d’images S, c’est-à-dire que les parties C, C’ de la représentation codée font partie d’un ensemble de données codées permettant le décodage d’un ensemble d’images sans avoir recours à des données codées situées en dehors de cet ensemble de données codées.
Le paquet de données 36 comprend le marqueur M, un identifiant de type ayant la valeur T1 et des données NNC descriptives d’un réseau de neurones artificiels.
Le paquet de données 38 comprend le marqueur M, un identifiant de type ayant la valeur T2 et une partie C’’ de la représentation codée générée par le module de codage 4.
Les paquets de données 36 et 38 sont relatifs à une même séquence d’images S’ qui est distincte de la séquence d’images S.
L’indicateur de description distante DNN contenu dans le paquet de données 32 indique que le réseau de neurones artificiels à utiliser pour le décodage de la partie C (et de la partie C’) de la représentation codée n’est pas décrit par des données descriptives contenues dans la séquence d’images S, mais en dehors de cette séquence d’image S (ici dans la séquence d’images S’).
Le paquet de données 32 comprend ainsi l’identifiant de localisation NNL déjà mentionné, qui est ici un pointeur vers le paquet de données 36 (situé dans la séquence d’images S’).
Un tel pointeur peut être par exemple :
- une différence en nombre d’octets par rapport à la localisation du paquet de données 32 (cette différence pouvant être signée, c’est-à-dire avoir une valeur positive pour indiquer un nombre d’octets dans un sens – au sein du flux de données – ou une valeur négative pour indiquer un nombre d’octets dans l’autre sens) ;
- une différence en nombre d’octets par rapport au début du fichier (ou, autrement dit, du flux de données) ;
- une adresse physique de stockage en mémoire (qui aurait été réécrite par le dispositif de décodage lors du traitement du flux de données lors du stockage du réseau de neurones artificiels, puis dans toutes les références NNL vers ce réseau de neurones artificiels au cours d‘un prétraitement).
Un sixième exemple de flux de données est représenté sur la .
Dans cet exemple, le flux de données comprend dans cet ordre un paquet de données 40, un paquet de données 42, un paquet de données 44 et un paquet de données 46. (D’autres paquets de données peuvent être présents dans le flux de données entre ces différents paquets.)
Le paquet de données 40 comprend le marqueur M, un identifiant de type ayant la valeur T1, un identifiant NNI associé à un réseau de neurones artificiels donné et des données NNC descriptives du réseau de neurones artificiels donné.
Le paquet de données 42 comprend le marqueur M, un identifiant de type ayant la valeur T2, l’identifiant NNI (identique à celui contenu dans le paquet de données 40) et une partie C de la représentation codée générée par le module de codage 4 et décodable en utilisant notamment le réseau de neurones artificiels donné.
Le paquet de données 44 comprend le marqueur M, l’identifiant de type ayant la valeur T1, l’identifiant NNI associé au réseau de neurones artificiels donné et les données NNC descriptives du réseau de neurones artificiels donné (ces données NNC étant identiques aux données NNC contenues dans le paquet de données 40).
Le paquet de données 46 comprend le marqueur M, l’identifiant de type ayant la valeur T2, l’identifiant NNI (identique à celui contenu dans les paquets de données 40, 42 et 44) et une autre partie C’ de la représentation codée générée par le module de codage 4 et décodable en utilisant notamment le réseau de neurones artificiels donné.
L’utilisation d’un autre paquet de donnés 44 de type T1 et contenant les données NNC descriptives du réseau de neurones artificiels identifié par l’identifiant NNI permet au dispositif de décodage de lire éventuellement le flux de données dans un ordre différent de celui représenté en , par exemple de commencer la lecture du flux de données à un endroit différent du paquet de données 40 (accès aléatoire). D’autres paquets de données identiques aux paquets de données 40, 44 peuvent ainsi par exemple être présents à intervalles réguliers dans le flux de données.
Dans l’exemple décrit ici, le flux de données F construit par le module de formation de données 6 est émis sur un canal de communication (éventuellement après d’autres étapes de traitement, par exemple une étape de codage entropique) par le module d’émission de flux 8.
En variante, le flux de données F pourrait être mémorisé (par exemple sur un dispositif d’enregistrement, tel qu’un disque dur, du dispositif de codage) pour lecture et décodage ultérieurs (le dispositif de codage et le dispositif de décodage décrits ci-après étant par exemple dans ce cas un même dispositif électronique).
La représente un dispositif de décodage conforme à l’invention.
Ce dispositif de décodage comprend un module de réception de flux 50, un module d’analyse de flux 52, un module de décodage 54 et un module de configuration 56.
Chacun de ces modules peut être réalisé en pratique par un processeur programmé (par exemple au moyen d’instructions mémorisées dans une mémoire associée au processeur) pour mettre en œuvre les fonctionnalités décrites ci-dessous pour le module concerné (dans cet exemple, du fait de l’exécution par le processeur de certaines des instructions précitées). Par ailleurs, plusieurs modules peuvent en pratique être mis en œuvre au moyen d’un même processeur, par exemple du fait de l’exécution (par ce processeur) de plusieurs ensembles d’instructions correspondant respectivement aux différents modules. En variante, l’un ou l’autre des modules peut être réalisé au moyen d’un circuit intégré à application spécifique.
Le module de réception de flux 50 reçoit (par exemple via un canal de communication) un flux de données tel que le flux de données F construit par le module de formation de flux 6 et émis par le module d’émission 8.
Selon une variante déjà mentionnée, ce flux de données est lu sur un support d’enregistrement tel qu’un disque dur.
Le flux de données F (reçu par le module de réception de flux 50 ou lu sur un support d’enregistrement) est analysé par le module d’analyse de flux 52 comme décrit plus loin, ce qui permet d’identifier d’une part des données C, C’, C’’ formant une partie de la représentation codée du contenu et d’autre part un réseau de neurones artificiels à utiliser pour le décodage de ces données C, C’, C’’.
Le module de configuration 56 est alors conçu pour configurer le module de décodage 54 de manière à ce que le module de décodage décode les données C, C’, C’’ en utilisant le réseau de neurones artificiels identifié, afin de produire des données B’ représentatives du contenu audio ou vidéo, comme cela sera expliqué dans la suite dans le cadre de différents exemples.
Selon une première possibilité de réalisation du module de décodage 54 illustrée en , les données C, C’, C’’ (représentation codée du contenu) sont appliquées en entrée du réseau de neurones artificiels identifié N’’, qui génère alors en sortie les données B’ représentative du contenu audio ou vidéo.
Les données B’ produites en sortie du réseau de neurones artificiels N’’ correspondent aux données B appliquées en entrée du réseau de neurones artificiels N et peuvent ainsi représenter un bloc d’une image, ou un bloc d’une composante d’une image (par exemple un bloc d’une composante de luminance ou de chrominance de cette image, ou un bloc d’une composante de couleur de cette image), ou une image d’une séquence vidéo, ou une composante d’une image d’une séquence vidéo (par exemple une composante de luminance ou de chrominance, ou une composante de couleur), ou encore une série d’images de la séquence vidéo.
Dans ce cas, certains au moins des neurones de la couche de sortie du réseau de neurones artificiels N’’ produisent chacun une valeur de pixel d’une composante d’une image, valeur formant l’une des données B’.
Selon une seconde possibilité de réalisation, le module de décodage 54 applique aux données C, C’, C’’ (notées Cjsur la ) un traitement comprenant plusieurs étapes, dont au moins une étape est réalisée au moyen d’un réseau de neurones artificiels N’.
Ainsi, comme illustré par exemple en , une partie de la représentation codée Cj-1précédemment reçue ou lue dans le flux de données est appliquée en entrée du réseau de neurones artificiels N’, ce qui permet de générer en sortie du réseau de neurones artificiels N’ des données prédites Pjqui sont combinées (par exemple par addition) à la partie courante Cjde la représentation codée de manière à obtenir (en sortie du module de décodage 4) une partie B’jdes données représentatives du contenu audio ou vidéo.
On remarque que le réseau de neurones artificiels N’ utilisé pour le décodage (comme représenté en ) est ici identique au réseau de neurones artificiels N’ utilisé pour le codage (voir la décrite plus haut).
Sur la , la référence 60 représente un module de retardement pour illustrer le fait qu’à l’instant de traitement de la partie courante Cjde la représentation codée pour obtenir la partie correspondante B’j des données représentatives, c’est une partie préalablement reçue (ou lue) Cj-1de la représentation codée qui est appliquée en entrée du réseau de neurones artificiels N’.
En pratique, comme déjà indiqué pour le codage, la partie Cj-1est par exemple relative à une partie B’j-1représentative d’une image précédant l’image représentée par la partie B’j.
En variante, la partie préalablement reçue ou lue, utilisée en entrée du réseau de neurones artificiels N’, peut être une partie de représentation codée correspondant à au moins un bloc de l’image voisin du bloc dont les valeurs de pixel sont représentées par les données B’j.
La représente des étapes d’un exemple de procédé de décodage du flux de données F.
Ce procédé de décodage est notamment utilisable pour les exemples de flux de données décrits ci-dessus et représentés sur les figures 4 et 9. On utilisera de ce fait les références numériques mentionnées sur les figures 4 et 9 pour illustrer la description de ce procédé de décodage.
Ce procédé débute par une étape E2 à laquelle le module d’analyse 52 identifie (dans le flux de données F) le début d’un paquet de données 12, 14, 40, 42, 44, 46, ici grâce au marqueur M par lequel commence tout paquet de données.
Une fois le début d’un paquet de données identifié, le module d’analyse 54 peut identifier son type par lecture (et éventuellement décodage) de l’identifiant de type T (ou premières données) de ce paquet de données (étape E4), par exemple au sein de l’en-tête de ce paquet de données.
Le module d’analyse 54 détermine alors à l’étape E6 si le type indiqué par l’identifiant de type T est un type prédéterminé (correspondant ici au type T1). Comme déjà indiqué, ce type prédéterminé (désigné ici T1) est associé aux paquets de données qui contiennent des données indicatives d’un réseau de neurones artificiels.
En cas de détermination positive (flèche P) à l’étape E6, le procédé se poursuit à l’étape E8. (C’est le cas notamment lors du traitement des paquets de données 12, 40, 44.)
En cas de détermination négative (flèche N) l’étape E6, le procédé se poursuit à l’étape E16. (C’est le cas notamment lors du traitement des paquets de données 14, 42, 46.)
A l’étape E8, le module d’analyse 52 lit dans le flux de données F (et décode éventuellement) un identifiant NNI qui désigne un réseau de neurones artificiels particulier (l’identifiant NNI faisant partie d’un ensemble prédéterminé d’identifiants respectivement associés à différents réseaux de neurones artificiels).
Le module d’analyse 52 détermine alors à l’étape E10 (éventuellement par coopération avec le module de configuration 56) si le réseau de neurones artificiels désigné par l’identifiant NNI est mémorisé au sein du dispositif de décodage, par exemple suite à la réception préalable d’un paquet de données qui contenait déjà des données indicatives du réseau de neurones artificiels (tel que le paquet de données 40).
En cas de détermination positive (flèche P) à l’étape E10 (comme c’est le cas lors du traitement du paquet de données 44 si le paquet de données 40 a été préalablement traité), le réseau de neurones artificiels préalablement reçu et mémorisé pourra être ré-utilisé (lors d’un passage ultérieur à l’étape E22 décrite ci-dessous) et il n’est donc pas nécessaire de poursuivre le traitement du paquet de données courant : le procédé boucle alors à l’étape E2.
En revanche, en cas de détermination négative (flèche N) à l’étape E10 (comme c’est le cas lors du traitement du paquet de données 12 ou 40), le procédé se poursuit à l’étape E12 pour lecture dans le flux de données F et décodage de données NNC (secondes données du paquet de données courant) indicatives du réseau de neurones artificiels associé à l’identifiant NNI, en tenant compte éventuellement du format de codage de ces données NNC indiqué le cas échéant par l’identifiant de format NNF (cas du paquet de données 12), afin d’obtenir (par exemple de construire) le réseau de neurones artificiels.
Comme déjà indiqué, dans les exemples des figures 4 et 9 notamment, les données indicatives NNC sont des données descriptives du réseau de neurones artificiels, qui peuvent être décodées (par le module d’analyse du flux 52 ou le module de configuration 56) de manière à obtenir des paramètres du réseau de neurones artificiels, ces paramètres permettant au module de configuration 56 de configurer le module de décodage 54 de manière à ce que ce module de décodage 54 mette en œuvre notamment le réseau de neurones artificiels (désigné par l’identifiant NNI).
Les paramètres du réseau de neurones artificiels obtenus par décodage des données descriptives NNC sont alors mémorisés dans une mémoire du dispositif de décodage (par exemple une mémoire associée au module de configuration 56) à l’étape E14 et le procédé boucle à l’étape E2 pour traitement d’un nouveau paquet de données du flux de données F.
Lorsqu’il est déterminé à l’étape E6 que le type du paquet de données courant ne correspond pas au type prédéterminé T1, le procédé se poursuit comme déjà indiqué à l’étape E16 décrite à présent.
A l’étape E16, le module d’analyse de flux 52 détermine si le type T désigné par l’identifiant de type (ou premières données) du paquet de données courant 12, 14, 40, 42, 44, 46 fait partie des types associés aux paquets de données contenant une représentation codée du contenu (qui correspondent ici aux types T2 et T4).
En cas de détermination négative (flèche N) à l’étape E16, le procédé se poursuit à l’étape E18 pour décodage du paquet de données. Il s’agit par exemple du cas où le paquet de données contient des paramètres relatifs à une image ou à une séquence d’images (paquet de données de type T3 dans l’exemple décrit ici) et le décodage du paquet de données courant permet dans ce cas d’obtenir des paramètres relatifs à une image à décoder ou à la séquence d’image courante (en cours de décodage).
Le procédé boucle ensuite à l’étape E2 pour traitement d’un autre paquet de données.
En cas de détermination positive (flèche P) à l’étape E16, le procédé se poursuit par une étape E20 de lecture (et décodage éventuel) d’un identifiant NNI dans le flux de données F. Cet identifiant NNI désigne le réseau de neurones artificiels à utiliser pour le décodage de la représentation codée C, C’ contenue dans le paquet courant 14, 42, 46.
Les paramètres définissant ce réseau de neurones artificiels ont été préalablement obtenus au moyen des données indicatives de ce réseau de neurones artificiels contenues dans un paquet de données de type T1 préalablement reçu. Dans l’exemple décrit ici, ces paramètres ont été préalablement décodés sur la base des données descriptives NNC contenues dans un paquet de données de type T1 préalablement reçu (le paquet de données 12 dans le cas de la et, dans le cas de la , le paquet de données 40, ou, si le paquet de données 40 n’a pas été lu par le dispositif de décodage, le paquet de données 44).
Les paramètres ainsi obtenus (par exemple décodés) ont par ailleurs été mémorisés comme déjà expliqué dans une mémoire du dispositif de décodage (ici une mémoire associée au dispositif de configuration 56).
Le module de configuration 56 peut alors configurer le module de décodage 54 au moyen des paramètres du réseau de neurones artificiels désigné par l’identifiant NNI lu dans le flux de données à l’étape E20 de façon à ce que le module de décodage 54 puisse effectuer un décodage d’une représentation codée en utilisant ce réseau de neurones artificiels.
Le module d’analyse de flux 52 extrait alors la représentation codée C, C’ (deuxièmes données) du paquet courant et transmet cette représentation codée C, C’ au module de décodage 54 pour décodage de cette représentation codée C, C’ (étape E22) en utilisant le réseau de neurones artificiels précité (désigné par l’identifiant NNI lu à l’étape E20) afin d’obtenir en sortie du module de décodage 54 des données B’ représentatives du contenu audio ou vidéo (ces données étant par exemple des valeurs de pixels d’une partie au moins d’une image ou d’une composante d’une image).
La présente des étapes d’un procédé envisageable pour le décodage du flux de données de la .
Ce procédé comprend une étape E30 d’identification et d’analyse du paquet de données 16 par le module d’analyse de flux 52.
Cette étape comprend ici l’identification du début du paquet de données 16 au moyen du marqueur M, la détection de l’identifiant de type (premières données) correspondant au type prédéterminé T1 et la lecture (dans le flux de données) d’un identifiant NNI associé à un réseau de neurones artificiels et de données NNC (deuxièmes données) descriptives du réseau de neurones artificiels correspondant à l’identifiant NNI.
Le procédé peut alors comprendre une étape E32 de décodage des données NNC afin d’obtenir des paramètres du réseau de neurones artificiels, et de mémorisation des paramètres obtenus dans une mémoire du dispositif de décodage (par exemple une mémoire associée au module de configuration 56).
Ultérieurement, lors de l’étape E34, le module d’analyse de flux 52 identifie et analyse le paquet de données 18.
L’étape E34 comprend ici l’identification du début du paquet de données 18 au moyen du marqueur M, la détection de l’identifiant de type qui indique ici le type T3 correspondant aux paquets de données contenant des paramètres relatifs à au moins une image de la séquence d’image courante, et la lecture (dans le flux de données) des paramètres contenus dans le paquet de données 18, ces paramètres comprenant ici l’identifiant NNI.
Selon une possibilité de réalisation, les paramètres contenus dans le paquet de données 18 de type T3 peuvent concerner seulement l’image en cours de décodage (c’est-à-dire l’image dont des données représentatives seront obtenues par la prochaine opération de décodage au moyen du module de décodage 54).
La présence de l’identifiant NNI dans le paquet de données 18 indique dans ce cas que le réseau de neurones artificiels associé à l’identifiant NNI sera utilisé pour le décodage de données représentatives C associées à l’image en cours de décodage (afin d’obtenir des données B’ relatives à une partie au moins de l’image en cours de décodage).
Selon autre possibilité de réalisation, les paramètres contenus dans le paquet de données 18 de type T3 peuvent concerner toutes les images de la séquence d’images en cours de décodage.
La présence de l’identifiant NNI dans le paquet de données 18 indique dans ce cas que le réseau de neurones artificiels associé à l’identifiant NNI sera utilisé pour le décodage de données représentatives C associées aux différentes images de la séquence d’images courante (afin d’obtenir des données B’ relatives à une partie au moins de l’une des images de la séquence d’images courante).
Lors de l’étape E34, selon une possibilité de réalisation, le module de configuration 54 peut alors configurer le module de décodage 56 afin que le module de décodage 56 puisse décoder des données représentatives reçues dans le flux de données en utilisant le réseau de neurones artificiels désigné par l’identifiant NNI. Cette configuration peut en pratique être réalisée en lisant dans la mémoire précitée du dispositif de codage les paramètres du réseau de neurones artificiels (voir ci-dessous l’étape E32).
Ultérieurement, lors de l’étape E36, le module d’analyse de flux 52 identifie et analyse le paquet de données 20. On considère ici que ce paquet de données 20 est relatif à une image à laquelle s’appliquent les paramètres contenus dans le paquet de données 18 susmentionné.
L’étape E36 comprend ici l’identification du début du paquet de données 20 au moyen du marqueur M, la détection de l’identifiant de type qui indique ici le type T2 correspondant aux paquets de données contenant une représentation codée de la vidéo, et la lecture d’une partie C de la représentation codée (deuxièmes données du paquet de données 20).
Le procédé comprend alors une étape E38 de décodage de la partie C de la représentation codée par le module de décodage 54 en utilisant le réseau de neurones artificiels désigné par l’identifiant NNI.
La présente des étapes d’un procédé envisageable pour le décodage du flux de données de la .
Ce procédé comprend une étape E40 d’identification et d’analyse du paquet de données 22 par le module d’analyse de flux 52.
Cette étape comprend ici l’identification du début du paquet de données 22 au moyen du marqueur M, la détection de l’identifiant de type (premières données) correspondant au type prédéterminé T1 et la lecture de données NNC (deuxièmes données) descriptives d’un réseau de neurones artificiels.
L’étape E40 peut comprendre également la lecture et/ou le décodage d’un identifiant NNI associé à ce réseau de neurones artificiels. Comme expliqué dans d’autres modes de réalisation, cela permet, en cas de détection ultérieur d’un paquet de données de type T1 et comprenant le même identifiant NNI, de ne pas avoir à décoder à nouveau les données NNC descriptives du réseau de neurones artificiels.
Le procédé comprend alors une étape E42 de décodage des données NNC afin d’obtenir des paramètres du réseau de neurones artificiels, et de mémorisation des paramètres obtenus dans une mémoire du dispositif de décodage (par exemple une mémoire associée au module de configuration 56). Comme indiqué ci-dessus, dans les modes de réalisation où un identifiant NNI est utilisé au sein du paquet de données 22 et qu’un précédent paquet de données de type T1 et portant cet identifiant NNI a déjà été traité, cette étape peut être omise.
Lors de l’étape E42, le module de configuration 54 peut configurer le module de décodage 56 (au moyen des paramètres obtenus comme il vient d’être mentionné) afin que le module de décodage 54 puisse décoder les données représentatives suivantes reçues dans le flux de données en utilisant le réseau de neurones artificiels.
Le procédé comprend ensuite une étape E44 d’identification et d’analyse (par le module d’analyse de flux 52) du paquet de données 24. On considère ici qu’aucun paquet de données de type T1 n’est compris entre le paquet de données 22 et le paquet de données 24.
L’étape E44 comprend ici l’identification du début du paquet de données 24 au moyen du marqueur M, la détection de l’identifiant de type qui indique ici le type T2 correspondant aux paquets de données contenant une représentation codée de la vidéo, et la lecture (dans le flux de données) d’une partie C de la représentation codée (deuxièmes données du paquet de données 24).
Le procédé comprend alors une étape E46 de décodage de la partie C de la représentation codée par le module de décodage 54 en utilisant le réseau de neurones artificiels représenté par les données NNC contenues dans le paquet de données 22.
Ainsi, dans le présent mode de réalisation, le réseau de neurones artificiels utilisé pour le décodage de la représentation codée contenue dans un paquet de données 24 est défini (par des données indicatives, ici des données descriptives NNC, contenues) dans le dernier paquet de données de type T1 précédant ce paquet de données 24.
La présente des étapes d’un procédé envisageable pour le décodage du flux de données de la .
Ce procédé comprend une étape E50 d’identification et d’analyse du paquet de données 26 par le module d’analyse de flux 52.
Cette étape comprend ici l’identification du début du paquet de données 26 au moyen du marqueur M, la détection de l’identifiant de type (premières données) correspondant au type prédéterminé T1 et la lecture dans le flux d’un identifiant NNI associé à un réseau de neurones artificiels et de données NNC (deuxièmes données) descriptives du réseau de neurones artificiels correspondant à l’identifiant NNI.
Le procédé comprend alors une étape E52 de décodage des données NNC afin d’obtenir des paramètres du réseau de neurones artificiels, et de mémorisation des paramètres obtenus dans une mémoire du dispositif de décodage (par exemple une mémoire associée au module de configuration 56).
Ultérieurement, lors de l’étape E54, le module d’analyse de flux 52 identifie et analyse le paquet de données 28.
L’étape E54 comprend ici l’identification du début du paquet de données 28 au moyen du marqueur M, la détection de l’identifiant de type qui indique ici le type T4 correspondant aux paquets de données contenant une représentation codée du contenu et identifiant un point d’entrée dans le flux de données, et la lecture (dans le flux de données) de l’identifiant NNI et d’une première partie C de la représentation codée du contenu.
Le procédé peut alors se poursuivre par une étape E56 de décodage de cette première partie C de la représentation codée du contenu, par le module de décodage 54 et au moyen du réseau de neurones artificiels associé à cet identifiant NNI (tel que contenu dans le paquet de données 28). Pour ce faire, l’étape E56 peut éventuellement comprendre en pratique une étape de configuration du module de décodage 54 par le module de configuration 56 et au moyen des paramètres obtenus (et mémorisés) à l’étape E52.
Ultérieurement, lors de l’étape E58, le module d’analyse de flux 52 identifie et analyse le paquet de données 30.
L’étape E58 comprend ici l’identification du début du paquet de données 30 au moyen du marqueur M, la détection de l’identifiant de type qui indique ici le type T2 correspondant à des paquets de données contenant une représentation codée du contenu, et la lecture (dans le flux de données) d’une seconde partie C’ de la représentation codée du contenu.
En effet, comme déjà indiqué, on prévoit dans ce mode de réalisation que seuls les paquets de données correspondant à un point d’entrée possible dans le flux de données contiennent un identifiant (ici NNI) du réseau de neurones à utiliser pour le décodage des représentations codées du contenu.
Le procédé peut alors se poursuivre par une étape E60 de décodage de cette seconde partie C’ de la représentation codée du contenu, par le module de décodage 54 et au moyen du réseau de neurones artificiels associé l’identifiant NNI contenu dans le paquet de données 28 désigné comme point d’entrée possible par l’identifiant de type T4 contenu dans ce paquet de données 28.
La présente des étapes d’un procédé envisageable pour le décodage du flux de données de la .
Ce procédé comprend une étape E70 d’identification et d’analyse du paquet de données 32 par le module d’analyse de flux 52.
L’étape E70 comprend ici l’identification du début du paquet de données 32 au moyen du marqueur M, la détection de l’identifiant de type qui indique ici le type T4 correspondant aux paquets de données contenant une représentation codée du contenu et identifiant un point d’entrée dans le flux de données, et la lecture (dans le flux de données) de l’indicateur de description distante DNN, de l’identifiant de localisation NNL et d’une première partie C de la représentation codée du contenu.
On considère ici en effet que l’indicateur de description distante DNN a une valeur (par exemple la valeur 1) indiquant que le réseau de neurones artificiels à utiliser pour décoder la première partie C est décrit en dehors de la séquence courante S ; de ce fait, le module d’analyse de flux 52 lit l’identifiant de localisation NNL situé postérieurement (ici immédiatement après) l’indicateur de description distante DNN dans le flux de données.
Le module d’analyse de flux 52 parcourt alors le flux de données d’après les indications données par l’identifiant de localisation NNL (par exemple par parcours de la différence d’octets indiquée par l’identifiant de localisation NNL, ou par saut à l’adresse physique de stockage en mémoire indiquée par l’identifiant de localisation NNL) jusqu’à lire et analyser le paquet de données 36 (étape E72).
Cette étape E72 comprend ici l’identification du début du paquet de données 36 au moyen du marqueur M, la détection de l’identifiant de type (premières données) correspondant au type prédéterminé T1 et la lecture dans le flux de données de données NNC (deuxièmes données) descriptives d’un réseau de neurones artificiels.
Le procédé comprend alors une étape E74 de décodage des données NNC afin d’obtenir des paramètres du réseau de neurones artificiels, et de mémorisation des paramètres obtenus dans une mémoire du dispositif de décodage (par exemple une mémoire associée au module de configuration 56).
Le procédé peut alors se poursuivre par une étape E76 de décodage de la première partie C de la représentation codée du contenu, par le module de décodage 54 et au moyen du réseau de neurones artificiels précité (décodé à partir des données descriptives NNC contenues dans le paquet de données 36). Pour ce faire, l’étape E76 peut éventuellement comprendre en pratique une étape de configuration du module de décodage 54 par le module de configuration 56 et au moyen des paramètres obtenus (et mémorisés) à l’étape E74.
Ultérieurement, lors de l’étape E78, le module d’analyse de flux 52 identifie et analyse le paquet de données 34.
L’étape E78 comprend ici l’identification du début du paquet de données 34 au moyen du marqueur M, la détection de l’identifiant de type qui indique ici le type T2 correspondant à des paquets de données contenant une représentation codée du contenu, et la lecture (dans le flux de données) d’une seconde partie C’ de la représentation codée du contenu.
En effet, comme déjà indiqué, on prévoit dans ce mode de réalisation que seuls les paquets de données correspondant à un point d’entrée possible dans le flux de données contiennent un identifiant (ici NNI) du réseau de neurones à utiliser pour le décodage des représentations codées du contenu.
Le procédé peut alors se poursuivre par une étape E80 de décodage de cette seconde partie C’ de la représentation codée du contenu, par le module de décodage 54 et au moyen du réseau de neurones artificiels obtenu comme décrit ci-dessus aux étapes E74 et 76 au moyen de l’identifiant de localisation NNL contenu dans le paquet de données 32 de type T4 précédent le présent paquet de données 34.
Le traitement éventuel ultérieur du paquet de données 38 (lors du décodage de la séquence S’) n’est pas décrit ici.

Claims (17)

  1. Procédé de décodage d’un flux de données comportant des paquets de données comprenant chacun au moins des premières données et des deuxièmes données, caractérisé en ce qu’il comprend les étapes suivantes :
    - identification (E4, E6 ; E30 ; E40 ; E50 ; E72), parmi lesdits paquets de données, d’un premier paquet de données (12 ; 16 ; 22 ; 26 ; 36 ; 40) dont les premières données incluent une information (T1) indicative d’un type prédéterminé de paquet de données ;
    - traitement (E12 ; E32 ; E42 ; E52 ; E74) des deuxièmes données (NNC) du premier paquet de données pour obtenir un réseau de neurones artificiels ;
    - décodage (E22 ; E38 ; E46 ; E56 ; E60 ; E76 ; E80) des deuxièmes données (C ; C’) comprises dans un second paquet de données (14 ; 20 ; 24 ; 28 ; 30 ; 32 ; 34 ; 42 ; 46) parmi lesdits paquets de données, en utilisant au moins le réseau de neurones artificiels obtenu et de manière à produire des données représentatives d’un contenu audio ou vidéo.
  2. Procédé de décodage selon la revendication 1, dans lequel les deuxièmes données du premier paquet de données comprennent des données descriptives (NNC) du réseau de neurones artificiels, et dans lequel l’étape de traitement est une étape de décodage des données descriptives (NNC) pour obtenir des paramètres du réseau de neurones artificiels.
  3. Procédé de décodage selon la revendication 1 ou 2, dans lequel le premier paquet de données comprend un identifiant (NNI) du réseau de neurones artificiels.
  4. Procédé de décodage selon la revendication 3, dans lequel l’identifiant (NNI) est un élément d’une liste d’identifiants distincts associés respectivement à des réseaux de neurones artificiels distincts.
  5. Procédé de décodage selon la revendication 4, comprenant une étape de réception d’un troisième paquet de données (44) dont les premières données incluent une information (T1) indicative dudit type prédéterminé de paquet, et comprenant ledit identifiant (NNI), et une étape de réutilisation dudit réseau de neurones artificiels obtenu pour décoder des deuxièmes données (C’) comprises dans un quatrième paquet de données (46) parmi lesdits paquets de données.
  6. Procédé de décodage selon l’une des revendications 3 à 5, dans lequel le second paquet de données comprend ledit identifiant (NNI).
  7. Procédé de décodage selon l’une des revendications 4 à 6, comprenant une étape de réception d’un autre paquet de données (18) contenant des paramètres relatifs à au moins une image dudit contenu, dans lequel lesdits paramètres comprennent ledit identifiant (NNI).
  8. Procédé de décodage selon l’une des revendications 1 à 5, dans lequel le premier paquet de données (22) est, parmi les paquets de données dont les premières données incluent une information (T1) indicative dudit type prédéterminé de paquet, le dernier paquet précédant le second paquet (24) de données dans le flux de données.
  9. Procédé de décodage selon l’une des revendications 1 à 3, dans lequel le second paquet de données (32) comprend un pointeur (NNL) vers le premier paquet de données (36).
  10. Procédé de décodage selon l’une des revendications 1 à 3, comprenant les étapes suivantes :
    - lecture d’un drapeau (DNN) dans le second paquet de données (32) ;
    - si le drapeau a une valeur prédéfinie, lecture, dans le second paquet de données (32), d’un pointeur (NNL) vers le premier paquet de données (36).
  11. Procédé de décodage selon l’une des revendications 1 à 3, comprenant les étapes suivantes :
    - réception d’un autre paquet de données contenant des paramètres relatifs à au moins une image dudit contenu
    - lecture d’un drapeau parmi lesdits paramètres ;
    - si le drapeau a une valeur prédéfinie, lecture, parmi lesdits paramètres, d’un pointeur vers le premier paquet de données.
  12. Procédé de décodage selon l’une des revendications 9 à 11, dans lequel le pointeur (NNL) désigne un emplacement dans une partie du flux de données relative à une séquence d’images (S’) distincte de la séquence d’images (S) codée au moins en partie par les deuxièmes données (C) du second paquet de données (32).
  13. Procédé de décodage selon l’une des revendications 1 à 11, dans lequel le premier paquet de données comprend une information (NNF) indicative du format de codage des deuxièmes données (NNC) du premier paquet de données.
  14. Dispositif de décodage d’un flux de données comportant des paquets de données comprenant chacun au moins des premières données et des deuxièmes données, caractérisé en ce qu’il comprend un processeur configuré ou programmé pour :
    - identifier, parmi lesdits paquets de données, un premier paquet de données (12 ; 16 ; 22 ; 26 ; 36 ; 40) dont les premières données incluent une information (T1) indicative d’un type prédéterminé de paquet de données ;
    - traiter les deuxièmes données (NNC) du premier paquet de données pour obtenir un réseau de neurones artificiels ;
    - décoder les deuxièmes données (C ; C’) comprises dans un second paquet de données (14 ; 20 ; 24 ; 28 ; 30 ; 32 ; 34 ; 42 ; 46) parmi lesdits paquets de données, en utilisant au moins le réseau de neurones artificiels obtenu et de manière à produire des données représentatives d’un contenu audio ou vidéo.
  15. Programme d’ordinateur comprend des instructions exécutables par un processeur et conçues pour mettre en œuvre un procédé selon l’une des revendications 1 à 13, lorsque ces instructions sont exécutées par le processeur.
  16. Flux de données comportant des paquets de données comprenant chacun au moins des premières données et des deuxièmes données, caractérisé en ce que les paquets de données comprennent :
    - un premier paquet de données (12 ; 16 ; 22 ; 26 ; 36 ; 40) dont les premières données incluent une information (T1) indicative d’un type prédéterminé de paquet de données et dont les deuxièmes données (NNC) définissent un réseau de neurones artificiels ;
    - un second paquet de données (14 ; 20 ; 24 ; 28 ; 30 ; 32 ; 34 ; 42 ; 46) dont les deuxièmes données (C ; C’) sont décodables en utilisant au moins ledit réseau de neurones artificiels de manière à produire des données représentatives d’un contenu audio ou vidéo.
  17. Flux de données selon la revendication 16, dans lequel le premier paquet de données (40) comprend un identifiant (NNI), et dans lequel le flux de données comprend un autre paquet de données (44) qui comprend ledit identifiant (NNI), dont les premières données comprennent ladite information (T1) indicative du type prédéterminé de paquet de données, et dont les deuxièmes données sont identiques aux deuxièmes données (NNC) du premier paquet de données (40).
FR2206565A 2022-06-29 2022-06-29 Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés Pending FR3137518A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2206565A FR3137518A1 (fr) 2022-06-29 2022-06-29 Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés
PCT/EP2023/067734 WO2024003191A1 (fr) 2022-06-29 2023-06-28 Procédé et dispositif de décodage, programme d'ordinateur et flux de données associés

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2206565A FR3137518A1 (fr) 2022-06-29 2022-06-29 Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés
FR2206565 2022-06-29

Publications (1)

Publication Number Publication Date
FR3137518A1 true FR3137518A1 (fr) 2024-01-05

Family

ID=83188529

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2206565A Pending FR3137518A1 (fr) 2022-06-29 2022-06-29 Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés

Country Status (2)

Country Link
FR (1) FR3137518A1 (fr)
WO (1) WO2024003191A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022013249A2 (fr) 2020-07-17 2022-01-20 Fondation B-Com Procédé de décodage d'un flux de données, dispositif et flux de données associés
WO2022079545A1 (fr) * 2020-10-13 2022-04-21 Nokia Technologies Oy Transport et signalisation de représentations de réseaux de neurones

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045401A1 (fr) * 2020-08-27 2022-03-03 한국전자기술연구원 Codeur et décodeur de flux binaire d'apprentissage profond, et procédé associé
CN117121480A (zh) * 2021-02-05 2023-11-24 诺基亚技术有限公司 用于在媒体比特流内用信号通知神经网络的高级语法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022013249A2 (fr) 2020-07-17 2022-01-20 Fondation B-Com Procédé de décodage d'un flux de données, dispositif et flux de données associés
WO2022079545A1 (fr) * 2020-10-13 2022-04-21 Nokia Technologies Oy Transport et signalisation de représentations de réseaux de neurones

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHOI (TENCENT) B ET AL: "AHG9/AHG11: SEI message for carriage of neural network information for post filtering", no. JVET-U0091, 8 January 2021 (2021-01-08), XP030293216, Retrieved from the Internet <URL:https://jvet-experts.org/doc_end_user/documents/21_Teleconference/wg11/JVET-U0091-v3.zip JVET-U0091-v3.docx> [retrieved on 20210108] *

Also Published As

Publication number Publication date
WO2024003191A1 (fr) 2024-01-04

Similar Documents

Publication Publication Date Title
EP0416985B1 (fr) Procédé de multiplexage d&#39;un signal sonore avec un signal vidéo analogique et système correspondant de distribution d&#39;images fixes sonorisées
FR2590099A1 (fr) Procede pour transmettre une image de haute definition par un canal de communication a bande etroite
FR2844370A1 (fr) Document electronique de description d&#39;un service informatique
FR2702914A1 (fr) Dispositif de codage de suites d&#39;images constituées d&#39;images de nature film et d&#39;images de nature vidéo, et dispositif de décodage correspondant.
FR3025925A1 (fr) Procede de controle de modes de presentation de sous-titres
WO2022013249A2 (fr) Procédé de décodage d&#39;un flux de données, dispositif et flux de données associés
FR3137518A1 (fr) Procédé et dispositif de décodage, programme d’ordinateur et flux de données associés
FR2792150A1 (fr) Procedes et dispositis de codage et de decodage de signaux numeriques, et systemes les mettant en oeuvre
FR3006845A1 (fr) Procede d&#39;identification de terminal dans un systeme de fourniture de contenus multimedia
CN102833524A (zh) 一种对本地音频及呼叫方音频同时录像的控制方法
EP1520378B1 (fr) Systeme et procede de gestion sur un terminal de l architect ure dediee a un reseau de communication
EP1040619A1 (fr) Dispositif d&#39;authentification d&#39;images numeriques
FR2816793A1 (fr) Dispositif de traitement d&#39;information multimedia
WO2022263297A1 (fr) Procédés et dispositifs de décodage d&#39;une partie au moins d&#39;un flux de données, programme d&#39;ordinateur et flux de données associés
FR2847404A1 (fr) Procede d&#39;analyse recursive et statistique de communications reseaux
CN114679606B (zh) 一种基于Burst特征的视频流量识别方法、系统、电子设备及存储介质
WO2022069437A1 (fr) Procédé et dispositif électronique de décodage d&#39;un flux de données, programme d&#39;ordinateur et flux de données associés
EP2677708B1 (fr) Procédé de communication d&#39;un message audiovisuel, et système de communication
EP4183133A1 (fr) Decodage video parallelise utilisant un reseau de neurones
EP1192833B1 (fr) Procede pour la gestion du decodage et de la restitution d&#39;un signal sonore dans un systeme de transmission asynchrone
EP2225853B1 (fr) Moniteur de système de communication par messages amélioré
FR2771544A1 (fr) Procede de codage de la parole et terminaux pour la mise en oeuvre du procede
KR102150639B1 (ko) 디지털 데이터의 무결성을 검증할 수 있는 장치 및 디지털 데이터의 무결성을 검증할 수 있는 방법
EP3476110B1 (fr) Procédé et dispositif de traitement d&#39;un objet multimédia
WO2021123563A1 (fr) Analyse d&#39;un contenu multimedia

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240105

PLFP Fee payment

Year of fee payment: 3

TP Transmission of property

Owner name: FONDATION B-COM, FR

Effective date: 20240415