FR2927216A1 - Methode de transmission d'images numeriques et de reception de paquets de transport. - Google Patents

Methode de transmission d'images numeriques et de reception de paquets de transport. Download PDF

Info

Publication number
FR2927216A1
FR2927216A1 FR0850648A FR0850648A FR2927216A1 FR 2927216 A1 FR2927216 A1 FR 2927216A1 FR 0850648 A FR0850648 A FR 0850648A FR 0850648 A FR0850648 A FR 0850648A FR 2927216 A1 FR2927216 A1 FR 2927216A1
Authority
FR
France
Prior art keywords
data
digital image
video data
lines
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0850648A
Other languages
English (en)
Inventor
Ali Boudani
Gilles Straub
Mary Luc Champel
Philippe Lemonnier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR0850648A priority Critical patent/FR2927216A1/fr
Priority to EP09151554.4A priority patent/EP2086238B1/fr
Priority to US12/322,082 priority patent/US8599876B2/en
Publication of FR2927216A1 publication Critical patent/FR2927216A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23602Multiplexing isochronously with the video sync, e.g. according to bit-parallel or bit-serial interface formats, as SDI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64707Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless for transferring content from a first network to a second network, e.g. between IP and wireless

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Méthode de transmission d'images comprenant- une réception (41) d'une image numérique source comprenant des lignes de bourrage et des lignes de données, les lignes de données comprenant des données auxiliaires et des données vidéo.Afin d'optimiser l'utilisation d'un canal de transmission, la méthode comprend également :- un filtrage (42) des lignes de bourrage pour former des ensembles de données comprenant des données auxiliaires et des données vidéo ;- une découpe (43) des ensembles en fragments ;- une insertion (44) d'au moins un numéro d'image dans les fragments, chacune des données auxiliaires et des données vidéo étant associée à ce numéro ;- une insertion (45) des fragments dans des paquets de transport ; et- une transmission (46) des paquets de transport.L'invention concerne également la méthode de réception correspondante.

Description

Méthode de transmission d'images numériques et de réception de paquets de transport.
1. Domaine de l'invention.
La présente invention concerne le domaine de la vidéo et plus précisément de la transmission d'un flux vidéo sur un canal de communication et de la réception correspondante.
2. Arrière-plan technologique.
Selon l'état de l'art, des données audio/vidéo sont transmises entre une source et une destination selon des protocoles de communications et des formats spécifiques. Ainsi, les interfaces SDI (ou Interface Numérique Série de l'anglais Serial Digital Interface spécifiée dans la norme SMPTE 259M-2006 intitulée " SDTV1 Digital Signal/Data- Serial Digital Interface ) ou HD-SDI (ou SDI haute définition de l'anglais High Definition-SDI spécifié dans la norme SMPTE 292-2006 intitulée "1. 5 Gb/sl Signal/Data Serial Interface ) définissent des interfaces particulièrement bien adaptées à l'échange de flux de données audio/vidéo pour de la télévision. Par ailleurs, des réseaux du type internet sont très répandus et permettent la transmission de flux audio-vidéo. La norme RFC3497 intitulée RTP Payload Format for Society of Motion Picture and Television Engineers (SMPTE) 292M Video ou Format de données utiles RTP pour la Société des ingénieurs d'images animées et de télévision (SMPTE) 292M vidéo en français précise comment on peut transmettre un flux HD-SDI sur un réseau conforme au protocole RTP/IP (ou protocole de transport en temps réel sur un protocole internet ou Real time Transport Protocol on Internet Protocol en anglais). Cette technique présente l'inconvénient d'être relativement gourmande en bande passante. 3. Résumé de l'invention. L'invention a pour but de pallier ces inconvénients de l'art antérieur. Plus particulièrement, l'invention a pour objectif de permettre la transmission de données audio/vidéo sur un canal de transmission avec une optimisation de l'utilisation de la bande passante disponible sur le canal de transmission.
L'invention concerne une méthode de transmission d'images numériques (par exemple suivant un format SDI). Afin d'optimiser l'utilisation de la bande passante sur un canal de transmission, la méthode comprend : - une réception d'une image numérique source comprenant des lignes de bourrage et des lignes de données, les lignes de données comprenant des données auxiliaires et des données vidéo ; - un filtrage des lignes de bourrage pour former des ensembles de données comprenant des données auxiliaires et des données vidéo ; - une découpe des ensembles en fragments ; - une insertion d'au moins un numéro d'image dans les fragments, chacune des données auxiliaires et des données vidéo étant associée à un numéro d'image ; - une insertion des fragments dans des paquets de transport ; et - une transmission des paquets de transport. De cette manière, les lignes de bourrage n'étant pas présentes dans les paquets de transport, la bande passante nécessaire pour transporter ces paquets est réduite. Par ailleurs, le numéro de chaque image étant associé à chaque fragment présent dans les paquets de transport, une image avec les données vidéo et auxiliaires présentes dans l'image numérique source peut être construite à la réception des paquets de transport. On note que les étapes de filtrage, de découpe et d'insertions peuvent être isolées ou, au contraire, combinées partiellement ou totalement (deux ou plusieurs de ces étapes étant regroupées en une seule étape). Avantageusement, la méthode comprend une insertion d'une information représentative du format de l'image numérique source dans les fragments.
Selon une caractéristique particulière, l'étape de réception d'une image numérique source se fait sur une interface série (par exemple SDI ou HD-SDI). Selon une autre caractéristique particulière, l'étape de transmission des paquets de transport se fait sur une liaison suivant un protocole internet (par exemple IP). Avantageusement, les données vidéo de chaque fragment correspondent à une seule ligne d'image de l'image numérique source, la nature des données vidéo étant la même dans l'image numérique source et dans chaque fragment (c'est-à-dire, une donnée source correspondant à un pixel appartenant à une ligne dans l'image numérique source correspond à une donnée source du même pixel dans chaque fragment). On a ainsi une correspondance entre chaque ligne de l'image numérique source et chaque ligne de l'ensemble des fragments formés à partir de cette image source. Selon un autre mode de réalisation, les données vidéo de chaque fragment correspondent à au moins deux lignes de l'image numérique source, la nature des données vidéo étant la même dans l'image numérique source et dans chaque fragment. Selon une caractéristique avantageuse permettant de réduire encore plus la bande passante nécessaire, sans réduire de manière significative la qualité vidéo, la méthode comprend une étape de réduction de la taille de chaque donnée élémentaire.
Selon une autre caractéristique avantageuse permettant également de réduire encore plus la bande passante nécessaire, sans réduire de manière significative la qualité vidéo, la méthode comprend une étape de compression de données vidéo de l'image numérique source pour former au moins un ensemble de données vidéo comprimées, chaque fragment comprenant le ou les ensembles de données vidéo comprimées. Avantageusement, dans chaque image numérique source, les données vidéo sont non comprimées. C'est le cas lorsque dans l'image numérique, chaque pixel est représenté par des données vidéo qui lui sont propres. Ainsi, chaque donnée vidéo de l'image numérique est associée à un et un seul pixel. L'invention concerne également une méthode de réception de paquets de transport, chaque paquet de transport comprenant des données représentatives d'au moins une partie d'une image numérique. La méthode de réception est compatible avec la méthode de transmission et comprend - une réception d'au moins un paquet de transport, chaque paquet de transport comprenant au moins un fragment de données auxiliaires et/ou de données vidéo ; - une construction de lignes de données comprenant des données vidéo et pouvant contenir des données auxiliaires à partir d'au moins un fragment contenu dans le ou les paquets de transport ; - une insertion des lignes de données et une insertion de données de bourrage dans une image numérique, pour former une image numérique. Avantageusement, la méthode de réception comprend une réception d'une information représentative d'un format d'image numérique, la construction et l'insertion des lignes de données et de données de bourrages dans une image numérique étant effectuée conformément à l'information représentative d'un format d'image numérique. De cette manière, l'image numérique construite est compatible avec un format spécifique, l'emplacement des lignes dans l'image et l'emplacement des données dans les lignes étant définis par ce format spécifique en fonction respectivement du type de ligne (de bourrage ou de données) et des types de données (auxiliaires, vidéo ou de bourrage). Selon une caractéristique avantageuse, la méthode de réception 15 comprend une étape de transmission de l'image numérique à un équipement de destination. Selon une caractéristique particulière, la construction comprend une extraction de données vidéo de chaque fragment correspondent à au moins une ligne d'image, la nature des données vidéo étant la même dans 20 chaque fragment et dans l'image numérique. Selon une caractéristique particulière, la méthode de réception comprend une étape d'insertion de bits de bourrage dans chaque donnée élémentaire reçue. Ainsi, une image peut être construite en respectant un format d'image défini (par exemple, lorsque la taille des données vidéo est 25 réduite dans les paquets de transport. Selon une autre caractéristique, la méthode de réception comprend une étape de décodage de données vidéo comprimées pour former au moins un ensemble de données vidéo non comprimées. Avantageusement, dans l'image numérique, les données vidéo 30 sont non comprimées. L'invention concerne également : - un émetteur de paquets de transport correspondant ; - un système d'émission comprenant une source d'images numériques et un émetteur de paquets de transport ; 35 - un récepteur de paquets de transport correspondant ; - un système de réception comprenant récepteur de paquets de transport correspondant et un équipement de destination d'images numériques ; et - un système comprenant un émetteur de paquets de transport et un récepteur de paquets de transport.
4. Liste des figures. L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : la figure 1 illustre un exemple d'architecture de réseau de communication avec des éléments mettant en oeuvre l'invention ; les figures 2 et 3 présentent schématiquement, respectivement un émetteur et un récepteur appartenant au réseau de la figure 1, selon un mode particulier de réalisation de l'invention ; la figure 4 présente un procédé mis en oeuvre dans l'émetteur de la figure 2, selon un mode particulier de réalisation de l'invention ; la figure 5 présente un procédé mis en oeuvre dans le récepteur de la figure 3, selon un mode particulier de réalisation de l'invention ; les figures 6 et 7 illustrent schématiquement des images selon un format connu en soi ; les figures 8 à 10 illustrent schématiquement des paquets de données transmis par l'émetteur de la figure 2 vers le récepteur de la figure 3 selon différents modes de réalisation de l'invention ; et la figure 11 présente schématiquement les données échangées entre différents éléments du réseau de la figure 1.
5. Description détaillée de l'invention. L'invention permet une transmission et une réception d'images vidéo sur un canal de transmission. L'invention est particulièrement bien adaptée à la transmission de paquets de transport de données utiles issues d'images numériques, les images numériques étant reçues par un émetteur sous un format non comprimé (par exemple SDI ou HD-SDI) avec des lignes de bourrage et, éventuellement, des données de bourrage dans des lignes comprenant des données vidéo utiles. Elle est également particulièrement bien adaptée à la réception des paquets de transport ainsi transmis et à la construction d'images numériques sous un format non comprimé. Selon certains mode de réalisation (par exemple, lorsque des données auxiliaires et des données vidéo appartenant à une ligne de données sont transmises dans des paquets de transport en préservant le lien entre le numéro de la ligne et les données auxiliaires ou vidéo). L'invention permet avantageusement de conserver la synchronisation (sur une image donnée) entre les données auxiliaires (par exemple données audio associées à une image ou d'informations) et les données vidéo. Elle permet également de conserver l'intégralité des données auxiliaires. Suivant un mode de réalisation, selon lequel les données vidéo ne sont pas comprimées et les données élémentaires ne sont pas réduites, il n'y a aucune perte de qualité vidéo. La figure 1 représente un système audio/vidéo qui comprend : - une source audio/vidéo 10, par exemple du type diffuseur de flux vidéo ou serveur de flux vidéo ; - un émetteur 11 relié à la source 10 par un lien série, par exemple du type SDI ou HD-SDI, le lien série étant adapté à la transmission d'un flux audio/vidéo de la source 10 vers l'émetteur 11 ; - un réseau de communication 12, par exemple du type réseau point à point ou LAN (ou réseau local de l'anglais Local Area Network ) ou WAN (ou réseau à large couverture de l'anglais Wide Area Network ) (notamment du type réseau internet) ; - un récepteur 13 ; et - un appareil de destination 14, par exemple du type équipement de visualisation (notamment téléviseur) et/ou d'enregistrement de flux audio/vidéo, le lien série étant adapté à la transmission d'un flux audio/vidéo du récepteur 13 vers l'appareil 14. L'émetteur 11 et le récepteur 13 sont reliés entre via le réseau 12 qui est adapté à la transmission de paquets de transports, par exemple du type RTP/IP. La figure 2 illustre schématiquement une architecture de l'émetteur 11. L'émetteur 11 comprend, reliés entre eux par un bus 24 d'adresses et de données, transportant également un signal d'horloge : - un microprocesseur 21 (ou CPU) ; - une mémoire non volatile de type ROM (de l'anglais Read Only Memory ) 22 ; - une mémoire vive ou RAM (de l'anglais Random Access Memory ) 23 ; - une interface 25 vers une liaison série, l'interface 25 étant par exemple du type SDI ou HD-SDI et étant adaptée à la réception d'un flux d'images numériques ; - une interface 26 adaptée à l'émission de paquets de transports de l'émetteur 11 vers le réseau 12 ; et/ou - une interface MMI (ou interface homme/machine de l'anglais Man Machine Interface ) 27 adaptée à l'affichage d'informations pour un utilisateur et/ou l'entrée de données ou de paramètres (par exemple format des images d'un flux reçu par l'interface 25).
On observe que le mot registre utilisé dans la description des mémoires 22 et 23 désigne dans chacune des mémoires mentionnées, aussi bien une zone de mémoire de faible capacité (quelques données binaires) qu'une zone mémoire de grande capacité (permettant de stocker un programme entier ou tout ou partie des données représentatives d'un flux audio/vidéo reçu). La mémoire ROM 22 comprend notamment un programme prog 220 et une description 221 des formats d'image source que l'émetteur 11 est susceptible d'accepter. Les algorithmes mettant en oeuvre les étapes du procédé propre à l'invention et décrits ci-après sont stockés dans la mémoire ROM 22 associée à l'émetteur 11 mettant en oeuvre ces étapes. A la mise sous tension, le microprocesseur 21 charge et exécute les instructions de ces algorithmes. La mémoire vive 23 comprend notamment : -dans un registre 230, le programme de fonctionnement du microprocesseur 21 chargé à la mise sous tension de l'émetteur 11 ; - des images numériques en provenance de la source 10 dans un registre 231 ; - des données du type vidéo ou auxiliaires extraites d'images numériques provenant de la source 10 dans un registre 232 ; - des fragments d'images numériques dans un registre 233 ; - des paquets de transport, par exemple du type RTP/IP, dans un registre 234 ; - des numéros de lignes d'une image numérique dans un registre 235 ; - des numéros d'images numériques dans un registre 236 ; - un format d'image numérique (provenant de la source 10) dans un registre 237 ; - une valeur d'offset dans un registre 238 ; et - des adresses IP de l'émetteur 11 et du récepteur 13 dans un registre 239. La figure 3 illustre schématiquement le récepteur 13. Le récepteur 13 comprend, reliés entre eux par un bus 24 d'adresses et de données, transportant également un signal d'horloge : - un microprocesseur 31 (ou CPU) ; - une mémoire non volatile de type ROM 32 ; - une mémoire vive ou RAM 23 ; - une interface 35 vers une liaison série, l'interface 35 étant par exemple du type SDI ou HD-SDI et étant adaptée à la transmission d'un flux d'images numériques vers I appareil 14 ; - une interface 36 vers le réseau 12, l'interface 36 étant adaptée à la réception de paquets de transports en provenance du réseau 12 ; et/ou - une interface MMI (ou interface homme/machine de l'anglais Man Machine Interface ) 37 adaptée à l'affichage d'informations pour un utilisateur et/ou l'entrée de données ou de paramètres. On observe que le mot registre utilisé dans la description des mémoires 32 et 33 désigne dans chacune des mémoires mentionnées, aussi bien une zone de mémoire de faible capacité (quelques données binaires) qu'une zone mémoire de grande capacité (permettant de stocker un programme entier ou tout ou partie des données représentatives d'un flux audio/vidéo reçu). La mémoire ROM 32 comprend notamment un programme prog 320 et une description 321 des formats d'image source que le récepteur 13 est susceptible d'accepter. Les algorithmes mettant en oeuvre les étapes du procédé propre à l'invention et décrits ci-après sont stockés dans la mémoire ROM 32 associée au récepteur 2 mettant en oeuvre ces étapes. A la mise sous tension, le microprocesseur 31 charge et exécute les instructions de ces algorithmes. La mémoire vive 33 comprend notamment : -dans un registre 330, le programme de fonctionnement du microprocesseur 31 chargé à la mise sous tension du récepteur 13 ; - des images numériques à destination de l'équipement 14 dans un registre 331 ; - dans un registre 332, des données du type vidéo ou auxiliaires extraites de paquets de transport provenant de l'émetteur 11 et permettant de construire des images numériques pour une transmission vers l'équipement 14 ; - des fragments permettant de construire des images numériques dans un registre 333 ; - des paquets de transport, par exemple du type RTP/IP, en provenance du réseau 12 dans un registre 334 ; - des numéros de lignes d'une image numérique dans un registre 335 ; - des numéros d'images numériques dans un registre 336 ; - un format d'image numérique dans un registre 337 ; - une valeur d'offset dans un registre 338 ; et - des adresses IP de l'émetteur 11 et du récepteur 13 dans un registre 339.
La figure 11 illustre un exemple de communication entre la source 10, l'émetteur 11, le récepteur 13 et l'équipement de destination 14 (ces éléments sont représentés par des traits verticaux ; des actions, évènements et/ou transmissions successifs sont illustrés chronologiquement). Afin de faciliter la lecture de l'exemple, seul un élément de chaque type est mentionné. L'exemple peut être extrapolé à un nombre quelconque de sources, d'émetteurs, de récepteurs et d'équipements de destination, un ou plusieurs sources pouvant transmettre des images à un ou plusieurs émetteurs, chaque émetteur pouvant transmettre des paquets de transport à un ou plusieurs récepteurs, chaque récepteur pouvant décoder des paquets de transport reçus d'un ou plusieurs émetteurs et transmettre les images correspondantes à un ou plusieurs équipements de destination.
La source 10 transmet d'abord un flux 110 d'images numériques sources vers l'émetteur 11. Puis, au cours d'une étape 111, l'émetteur 11 filtre les images reçues en éliminant tout ou partie des lignes ou données de bourrage pour former des ensembles de données comprenant des données auxiliaires et/ou données vidéo extraites des images reçues puis des fragments avec leur descriptifs et enfin des paquets de transport. Ensuite, l'émetteur 11 transmet chaque paquet de transport vers le récepteur 13.
Puis, au cours d'une étape 113, le récepteur extrait de chaque paquet de transport les données utiles et construit à partir de un ou plusieurs paquets de transport une image 114. Ensuite, le récepteur 13 transmet à l'équipement de destination 14 l'image 114.
La figure 4 présente un procédé mis en oeuvre dans l'émetteur 11 selon une mise en oeuvre particulière de l'invention. Ce procédé commence par une phase d'initialisation 40 au cours de laquelle les différents paramètres de l'émetteur sont mis à jour. Puis, au cours d'une étape 41, l'émetteur 11 reçoit un flux d'images numériques de la source 10 via l'interface 35. Les images numériques comprennent des lignes de bourrage et des lignes de données. A titre illustratif, une telle image 6 est représentée en regard de la figure 6. L'image 6 est conforme à un format d'image source avec des données vidéo non comprimées et comprend n" lignes dont : - k lignes de bourrage (ou blanking lines en anglais) correspondant à une première zone de bourrage 60 et comprenant des lignes de suppression verticale ; -n lignes de données 6(k+1) à 6(k+n) ; - des lignes de bourrage vertical correspondant à une deuxième 30 zone de bourrage 62, et comprenant des lignes de suppression verticale ; et - n" lignes de données 6(k+n'+1) à 6(k+n'+n"). Le format d'image source définit le nombre de lignes de l'image source, le nombre et l'emplacement des lignes de bourrage vertical, ainsi 35 que le format de chaque ligne. Ce format mémorisé dans le registre 237 est par exemple prédéfini par configuration de l'émetteur 11, spécifié par l'utilisateur et/ou transmis par la source 10 via un lien quelconque.
Les formats d'image sont définis par des documents de normalisation ou spécifiques à un système. Des exemples de formats sources d'images possibles correspondant à un flux d'image HD-SDI sont décrit dans l'annexe A de la présente spécification, qui reprend l'annexe F de la norme SMPTE 292-2006 et indique comment retrouver les différents paramètres dépendant du format image et utilisés par l'invention. Pour un flux d'images numériques de type SDI à 625 lignes par image, on peut définir les paramètres suivants: - 24 lignes de bourrage dans la zone 60 ; - 288 lignes de données ; - 25 lignes de bourrage vertical dans la zone 62 ; et - 288 lignes de données. Chaque ligne de donnée comprend 144 points de données auxiliaires suivis de 720 points de données vidéo.
Suivant certains modes de réalisation, le format source (en tant qu'information représentative du format ou de sa description (incluant la taille d'une image, l'emplacement des lignes et des données de bourrage, l'emplacement des données vidéo) est transmis de la source à l'émetteur via un lien quelconque (par exemple lien utilisé pour l'envoi des images numériques de la source à l'émetteur ou autre lien). Le format source est par exemple transmis à chaque changement de format, au début d'une transmission de flux d'images numériques, suite à un évènement (par exemple en utilisant une annonce suivant un protocole quelconque (par exemple annonce de session SDP (ou protocole de description de session de l'anglais Session Description Protocol spécifique), périodiquement ou à chaque transmission d'image numérique (par exemple en utilisant un champ spécifique d'un message transportant l'image numérique). Selon d'autres modes de réalisation, le format source est paramétré dans l'émetteur. L'émetteur est alors, par exemple, adapté à une reconnaissance automatique du format (par exemple par identification de certains champs spécifiques (notamment les champs EAV et SAV), adapté à un seul format par défaut ou adapté à recevoir par un moyen quelconque une information sur le format utilisé (par exemple, via un serveur ou un utilisateur de l'émetteur).
La figure 7 illustre schématiquement une ligne 7 parmi les lignes de données de l'image 6 et conforme au format source 237. La ligne 7 comprend successivement : - une zone 70 de début de ligne comprenant à un champ EAV (ou End of Active Video en anglais ou Fin de vidéo active ) selon les normes SDI ; - des données auxiliaires (ou ancillary data en anglais) non vidéo dans une zone 71 ; - une zone de bourrage 72 (ou blanking level selon la norme SDI ou HD-SDI) ; - une marque 73 de début de vidéo active correspondant à un champ SAV (ou Start of Active Video en anglais) ; et - des données vidéo dans une zone 74. Selon une variante, la zone 74 comprend également des données auxiliaires. Les zones 71 et 72 sont optionnelles, certaines lignes 7 d'une image comprenant : - les zones 71 et 72 ; - une zone 71 et pas de zone 72 ; ou - une zone 72 et pas de zone 71. Selon une variante, la zone 70 de début d'une ligne 7 compatible avec la norme HD-SDI comprend un champ EAV, un numéro de ligne (noté 20 LN ou Line Number selon la norme HD-SDI) et un champ CRC (ou Cyclic Redundancy Check ou Vérification de Redondance Cyclique en français permettant de détecter des erreurs). Ensuite, au cours d'une étape 42, l'émetteur 11 filtre les lignes de bourrage d'une image numérique reçue lors de l'étape 41 ; plus 25 précisément, au cours de cette étape, l'émetteur 11 supprime les lignes des zones de bourrage 60 et 62. Selon une variante, au cours de cette étape 42, l'émetteur 11 supprime également les zones de bourrage 72 présentes dans les lignes de données de l'image reçue. L'émetteur 11 forme ainsi un ensemble de données comprenant des données auxiliaires et des données 30 vidéo. L'émetteur 11 peut supprimer les lignes et zones de bourrage parce qu'il connaît le format des images source. L'émetteur utilise pour cela la description de format source du registre 221 sur laquelle pointe le format source présent dans le registre 237. Ainsi, cette description 221 décrit avantageusement la taille d'une image source correspondant au format 237 35 et les lignes ou zones de bourrage à supprimer lors de l'étape 42. Selon une variante, le registre 237 indique directement les paramètres permettant la réalisation de l'étape 42 sans faire référence à un format d'image particulier. 10 15 Ensuite, au cours d'une étape 43, l'émetteur 11 découpe chaque ensemble de données en fragments d'une longueur maximale déterminée de sorte que chaque fragment puisse être inséré dans un paquet de transport sur le réseau 12. La longueur des fragments est inférieure ou égale à la longueur maximale d'un paquet de transport moins la taille d'un entête d'un paquet de transport et moins la taille d'une zone décrivant le fragment inséré dans le paquet de transport. Avantageusement, chaque fragment comprend des données auxiliaires et des données vidéo correspondant un nombre entier de lignes de données. Ainsi, le récepteur peut reconstituer chaque ligne plus facilement et n'est pas obligé d'attendre la réception d'un paquet de transport suivant pour terminer le traitement d'un ligne dont les données utiles auraient été reçues dans un paquet de transport précédent. Selon une variante de réalisation, l'émetteur 11 effectue une étape de compression des données entre l'étape 42 de filtrage et 43 de découpe en fragments, selon une méthode quelconque, par exemple selon un codage du type ZIP ou JPEG2000. Selon une autre variante, l'émetteur 11 effectue une réduction de la taille (ou shrink en anglais) des données élémentaires auxiliaires et/ou vidéo de l'image source. Ainsi, si chaque donnée élémentaire comprend un nombre déterminé de bits (par exemple dix), l'émetteur 11 supprime un ou plusieurs bits de poids faibles dans chaque donnée élémentaire pour former une donnée élémentaire réduite (ou shrinked en anglais) (comprenant par exemple huit bits).
Ensuite, au cours d'une étape 45, l'émetteur 11 insère au début de chaque paquet un descriptif des données auxiliaires et/ou vidéo du fragment. Des exemples de descriptif sont détaillés en regard des figures 8 à 10. Puis, au cours d'une étape 45, l'émetteur 11 insère chaque fragment dans un paquet de transport ; chaque paquet de transport comprend un entête selon le protocole de communication utilisé (par exemple entête du type RTP/IP) avec une indication (par exemple adresse IP) du destinataire du paquet (ici récepteur 13) et un fragment avec son descriptif. Selon une variante de réalisation de l'invention, un paquet de transport peut être adressé à plusieurs destinataires (adaptés à recevoir des paquets de transport et à les traiter selon l'invention) en utilisant une adresse du type multicast ou être diffusé plus largement en utilisant une adresse du type diffusion ( broadcast en anglais). Ensuite, au cours d'une étape 46, l'émetteur 11 transmet les paquets de transports construits au cours de l'étape 45 sur le réseau 12.
L'étape 41 est ensuite réitérée. La figure 5 présente un procédé mis en oeuvre dans le récepteur 13 selon une mise en oeuvre particulière de l'invention. Ce procédé commence par une phase d'initialisation 50 au cours de laquelle les différents paramètres du récepteur sont mis à jour.
Puis, au cours d'une étape 51, le récepteur 13 reçoit un ou plusieurs paquets de transport en provenance de l'émetteur 11, chaque paquet de transport comprenant au moins un fragment de données auxiliaires et/ou de données vidéo. Le récepteur 13 reçoit également dans les paquets de transport ou via un autre moyen une information représentative du format d'une image numérique à partir de laquelle les fragments de données auxiliaires et/ou de données vidéo ont été extrait. Ensuite, au cours d'une étape 52, le récepteur 13 extrait du ou des fragments présents dans le ou les paquets de transport reçus. Puis, au cours d'une étape 53, le récepteur construit une image source à partir du fragment ou des fragments reçus. A partir du descriptif de chaque fragment, le récepteur 13 vérifie que le paquet de transport ne comprend d'erreur (en fonction du champ 811 et d'un éventuel CRC). Si le paquet de transport ne comprend pas d'erreur, le récepteur extrait le numéro d'image des paquets de transport reçus et extraits tous les fragments des paquets de transport ayant ce numéro d'image. Le récepteur construit alors une image destination à partir d'au moins un fragment contenu dans le ou les paquets reçus de transport en : -insérant les lignes de bourrage correspondant au format de l'image, -construisant les lignes de données basées sur les données extraites des fragments associés à un même numéro d'image et en y insérant, si nécessaire des données de bourrage. Ainsi, le récepteur forme une image numérique destination. Avantageusement, le récepteur effectue la construction des lignes de données et l'insertion de données de bourrage dans une image numérique conformément à l'information représentative d'un format d'image numérique. La construction des lignes de données et l'insertion de ses éléments peut se faire dans un ordre quelconque : suivant certains mode de réalisation, le récepteur place d'abord les données auxiliaires ou vidéo dans les lignes de données puis y ajoute des données de bourrage ; suivant d'autres modes de réalisation, le récepteur définit par défaut une ligne de bourrage qu'il modifie en y insérant des données auxiliaires ou vidéo. Lorsque les données vidéo ne sont pas comprimées, avantageusement l'étape de construction 53 comprend une extraction de données vidéo de chaque fragment correspondent à au moins une ligne d'image, la nature des données vidéo étant la même (données vidéo non comprimées) dans chaque fragment et dans l'image numérique construite. Selon une variante de réalisation de l'invention, si l'émetteur a réduit la taille (ou shrink en anglais) des données élémentaires auxiliaires et/ou vidéo de l'image source, le récepteur effectue une augmentation de la taille des données pour les rendre compatibles avec le format des images devant être transmises à l'équipement 14. Pour cela, le récepteur insère des bits de bourrage dans chaque donnée élémentaire reçue. Ainsi, les bits de données élémentaires supprimés à l'émission sont remplacés par des bits de bourrage (par exemple bits nuls). Selon une variante de réalisation de l'invention, si les paquets de transport reçu comprennent des données comprimées (par exemple selon la norme JPEG2000), le réception met en oeuvre une extraction des données comprimées des paquets de transport, une étape de reconnaissance du format de compression utilisé (par exemple, par configuration ou par lecture d'une information représentative de ce format reçu dans un paquet de transport , reçu par un autre message ou mémorisé dans le récepteur) et une étape de décodage des données vidéo comprimées pour former au moins un ensemble de données vidéo non comprimées. L'étape de décodage est conforme à la méthode utilisée pour comprimer les données (par exemple décodage JPEG2000). Les données vidéo non comprimées former alors au moins un ensemble de données vidéo non comprimées et sont insérées dans des lignes de données conformément au format de l'image numérique destination (avantageusement celui correspondant à l'information représentative d'un format d'image numérique) lors de l'étape 53. Ces données vidéo sont alors utilisées comme indiqué précédemment pour construire une image numérique comprenant des lignes de données avec données vidéo et éventuellement des données auxiliaires et/ou des données de bourrage.
En parallèle, au cours d'une étape 54, le récepteur 13 extrait l'horodate à partir d'un champ horodate (en anglais time stamp ) présent dans l'entête 80 RTP/IP et génère une horloge qui a la même fréquence que l'horloge associée au flux d'images source reçues par l'émetteur 11.
Suite aux étapes 53 et 55, le récepteur 13 transmet à l'équipement 14 au moins une image numérique construite lors des étapes précédentes (par exemple une image numérique isolée ou un flux d'images numériques) via l'interface 35 selon une cadence correspondant à l'horloge générée à l'étape 54, ces images étant avantageusement au même format que les images sources transmises par la source 10 à l'émetteur 11. Selon une variante de réalisation du procédé de réception, les images transmises par le récepteur 13 à l'équipement 14 ne sont pas au même format que les images sources transmises par la source 10 à l'émetteur 11. Selon une mise en oeuvre particulière de cette variante, les données audio, auxiliaires et vidéo encapsulées dans des paquets de transport sont directement décodées par des décodeurs adaptés pour, par exemple, générer un signal sonore et/ou un signal vidéo pouvant être enregistré ou visualisé. Selon une autre mise en oeuvre particulière de cette variante, les données audio, auxiliaires et vidéo sont codées selon un autre format (par exemple MPEG) pour être jouées, enregistrées et/ou transmises vers d'autres destinataires. La figure 8 présente une structure d'un paquet de transport 8 comprenant un fragment avec des données relatives à une seule ligne d'une image numérique.
Le paquet 8 comprend : - un entête 80 correspondant à un entête compatible avec le protocole de communication sur le réseau 12 (par exemple entête RTP/IP) ; - un descriptif 81 de fragment ; et - des données de fragment 83 correspondant à des données auxiliaires et/ou vidéo correspondant à une ligne de données i. Le descriptif 81 de fragment comprend : - une information représentative d'un débit 810 correspondant au débit des données des images sources transmises par la source 10 à l'émetteur (par exemple 27OMbits/s) ; - une information L 811 qui indique une erreur dans les données 83, détectée par l'émetteur 11 ; lorsque ce champ est mis à jour par l'émetteur 11, il permet au récepteur d'être informé de la présence de cette erreur et d'agir en conséquence (par exemple lors d'un changement ( switching en anglais) de source ; ainsi, par exemple, le récepteur 13 peut mettre une PLL (de l'anglais Phase Lock Loop ou boucle à verrouillage de phase) en mode libre sans prendre en compte des paramètres corrompus ; - une information FNTC 812 correspondant au numéro d'image numérique auquel le fragment appartient (et inséré par l'émetteur à l'aide d'un compteur ou suite à une lecture d'un champ spécifique dans l'image source) ; - une information représentative du format source 813 associé à l'image numérique dont est extrait le fragment ; - un champ AN 814 qui indique le type des données (par exemple auxiliaires et/ou vidéo) ; - un champ 815 indiquant si les données vidéo ont été comprimées ou non par l'émetteur 11, et si oui, indiquant, si nécessaire le type de compression (par exemple réduction de la taille des données élémentaires ou compression JPEG2000) ; - un champ 817 indiquant le numéro de la ligne dans l'image numérique (obtenu par comptage des lignes dans l'image source ou par lecture d'un champ spécifique dans l'image source) ; - un champ 818 indiquant la taille des données 83 de la ligne transmise dans le paquet 8 ; - un champ 819 d'offset indiquant l'emplacement des données 83 dans la ligne transmise (l'offset est nul si la première données 83 du fragment correspond à un début de ligne ; l'offset pointe sur un emplacement dans la ligne, de la première données 83 du fragment (ce qui est le cas si cette ligne est transmise dans deux paquets de transport distincts)) ; -un champ 820 vide. La compression et son type peuvent être définis par des 35 paramètres de configuration ou par construction de l'émetteur 11. 10 15 20 25 30 Selon un mode de réalisation particulier, les données utiles d'une ligne entière sont comprises dans un seul fragment. Dans ce cas, le champ offset est nul. Selon une variante, les données auxiliaires et les données vidéo d'une ligne entière sont transmises dans deux fragments séparés. Dans ce cas, le champ offset du fragment comprenant uniquement des données auxiliaires est nul et le champ offset du fragment comprenant uniquement des données vidéo correspond à l'emplacement du champ SAV 73 dans la ligne. Selon un autre mode de réalisation de cette variante, les champs EAV 70 et SAV ne sont pas transmis et le champ offset est facultatif : dans ce cas, le récepteur 13 peut reconstruire une image entière compatible avec l'image source. La figure 9 présente une structure d'un paquet de transport 9 comprenant un fragment avec des données relatives à une ou plusieurs 15 lignes d'une image numérique. Les éléments communs aux structures 8 et 9 portent les mêmes références et ne sont pas décrits davantage. Dans l'hypothèse où le paquet 9 comprend deux fragments associés à une même image source, il inclut les éléments suivants : - un entête 80 ; - un descriptif 91 de fragments ; et - une zone 93 de données de fragments comprenant des données de fragment 83 correspondant à des données auxiliaires et/ou vidéo correspondant à une première ligne de données i et des données de fragment 930 correspondant à des données auxiliaires et/ou vidéo correspondant à une deuxième ligne de données j. Le descriptif 91 comprend : - une information représentative d'un débit 810 ; 30 - une information L 911 qui indique une erreur dans les données 93 ou 94, détectée par l'émetteur 11 ; - une information FNTC 812 correspondant au numéro d'image numérique auquel les fragments appartiennent ; - une information représentative du format source 813 associé à 35 l'image numérique dont sont extraits les fragments 93 et 94 ; - un champ A/V 814 ; 20 25 - un champ 815 indiquant si les données vidéo ont été comprimées ou non par l'émetteur 11, et, le cas échéant, le type de compression ; - un champ 916 correspondant au nombre de lignes dont des données sont présentes dans le paquet 9 (ici 2 par exemple) ; - un champ 817 indiquant le numéro de la ligne de données i dans l'image numérique ; - un champ 818 indiquant la taille des données 83 de la ligne de données i ; - un champ 819 d'offset indiquant l'emplacement des données 83 dans la ligne de données i ; - un champ 820 vide ; - un champ 917 indiquant le numéro de la ligne de données j dans l'image numérique ; - un champ 918 indiquant la taille des données 930 de la ligne de données j ; - un champ 919 d'offset indiquant l'emplacement des données 930 dans la ligne de données j ; et - un champ 920 vide.
Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment. En particulier, l'architecture du ou des émetteurs et du ou des récepteurs peut être différente de celle illustrées en figures 2 et 3, dans la fonction respective et/ou la forme des éléments (les fonctions des éléments électroniques peuvent notamment être regroupées dans un nombre restreint de composants ou, au contraire, éclatés dans plusieurs composants) et leur agencement. L'invention n'est pas limitée à une architecture de système telle que décrite en regard de la figure 1 mais concerne toute architecture mettant en oeuvre une liaison ou réseau reliant au moins un émetteur et au moins un récepteur, l'émetteur transmettant des images sources reçues vers le récepteur. L'invention peut également s'appliquer avec des protocoles de communications différents de ceux décrits précédemment. Ainsi, les paquets de transport peuvent être transmis d'un émetteur vers un ou plusieurs récepteurs selon un protocole de communication quelconque.
Par ailleurs, la découpe d'une image numérique par un émetteur en fragments puis l'insertion de fragments dans des paquets de transport peut se faire d'une manière quelconque, avec, par exemple, une, deux lignes par paquet de transport, voire une image entière dans un paquets de transport. Selon des modes de réalisation permettant une mise en oeuvre particulièrement simple à la fois coté émetteur et coté récepteur, chaque paquet de transport comprend toutes les données auxiliaires et les données vidéo d'une ligne de chaque image source. Selon d'autres modes de réalisation, les données auxiliaires ou vidéo d'une ligne sont transmis en partie dans un premier paquet de transport et en partie dans un ou plusieurs second paquets de transport ; selon ces modes, avantageusement les données auxiliaires et les données vidéo sont transmis dans des paquets de transport distincts, les données auxiliaires (en général, de plus petite taille que les données vidéo) pouvant être regroupées dans un seul paquet de transport. Par ailleurs, les données dans un paquet de transport ne sont pas nécessairement agencées de la même manière que dans les paquets décrits en détail précédemment. Ainsi, l'ordre des éléments peut différer. Par exemple, le descriptif d'un fragment peut être placé immédiatement avant le fragment correspondant dans un paquet de données comprenant au moins deux fragments, ce qui permet d'insérer les fragments dans un paquet de données au fur et à mesure de la réception des données correspondantes dans l'émetteur, et donc de diminuer la latence pour la transmission. L'architecture du système comprenant la source et au moins un émetteur est également non limitée aux exemples décrits précédemment. En particulier, selon différents modes de réalisation, la source et tout ou partie du ou des émetteurs peuvent être intégrés dans un même équipement, ou, au contraire, complètement séparés. De même, l'architecture du système comprenant un récepteur et au moins une destination d'images numériques est également non limitée aux exemples décrits précédemment. En particulier, selon différents modes de réalisation, le récepteur et tout ou partie d'une ou de plusieurs destinations peuvent être intégrés dans un même équipement, ou, au contraire, complètement séparés.
Par ailleurs, selon certains modes de réalisation, un émetteur et un récepteur sont adaptés à un seul format d'image source ou, selon d'autres modes de réalisation, un émetteur et un récepteur sont adaptés à au moins deux formats d'image source.
Annexe A
Les tableaux suivants reprennent les formats d'image source définis par l'annexe F de la norme SMPTE 292-2006, chaque colonne représentant successivement : - un identifiant de format ; - une nomenclature de système ; - des échantillons Luma ou RGB par ligne actives ; - un nombre de lignes actives par trame ; - un débit des trames (en Hz) - une fréquence fs d'échantillonnage (en MHz) ; - un nombre de période d'échantillonnage Luma pour une ligne complète ; et - le nombre de lignes complètes par trame.
Pour un format donné, la taille de l'image est définie par le nombre de lignes complètes par trame. Le nombre de lignes de bourrage est défini par soustraction de ce nombre de lignes et le nombre de lignes actives. L'emplacement de ces lignes de bourrage est indiqué dans d'autres documents normatifs (par exemple SMPTE 274M pour le premier tableau correspondant à une nomenclature 1920x1080 ou par SMPTE 296M pour le deuxième tableau correspondant à une nomenclature 1280x720). La structure de chaque ligne active (ou ligne de données vidéo) et l'emplacement des données de bourrage sont également déterminés par les documents de normalisation.
Systern System Luma or Actt`ve fines Freme rate Interface Luma Total ;tees N o. namenc{attire Ff'G`B' per frame (Hz) sampling sample per frame samples (AL/Fi frequency periods per per active fs (MHz) total fine inc lS;AL (SiTL 1 1920 1080i60;/P 1920 1080 60 148.5 2205 1125 2 1920 1080..59.94 P 1920 1080 1.001 148.5 2200 1125 1.001 3 1920 x 1080/ 0iP 1920 1080 50 148.5 2640 1125 4 1920 x 1080/6011 1920 1080 30 74.25 2200 1125 5 1920 1080,5M4/1 1920 12080 1 330 74.25 2200 111, 25 01 ,00 6 1920 1080150'1 1920 1080 50 74.25 2640 11125 1920 10 80/30!P 1920 1 080 30 74.25 2200 11 25 8 1920 r 1080/29.97 P 1920 1080 30 74.26 2200 11125 1. 001 i.Gl~ i 9 1920 x 108 25'P 1920 1080 25 74.25 2640 1 1125 10 '9920 1080124/P 1920 1080 24 74.25 2750 1125 # 1 1920 1089 23.98/P 1920 080 1.331 } 2750 111, 25 1.091 292721 6 23 System System Luma or Acttve lires Frame rats Luma or Luma Total liner No. nomenclature R"G'B' per frame (Ha) R'GB' sample per (rame samples (,AL/F? sampling pet-lods per per active frequenzy total fine inc l.91fAL) fa N111-1z) S/TL) 1280 x 720/60 1280 720 60 74,25 1650 750 2 1280 x 720/59.94 1280 720 60/1 .001 74.25 1.001 1650 75.0 1280 x 720/50 1280 720 50 74.25 1980 750 4 1280 x720/30 1280 720 30 74.25 3300 750 5 1280 720/29.97 1280 720 30/1.001 74.25/1.001 3300 750 6 1280 720/25 1280 720 25 74.25 3960 75D 1280 x 72G/24 1280 720 24 74.25 41:25 75.0 8 1280 x 720i/23.98 1280 720 24/1.001 74.25/1.0101 41:25 750

Claims (16)

REVENDICATIONS
1. Méthode de transmission d'images numériques (SDI), caractérisée en ce qu'elle comprend - une réception (41) d'une image numérique source comprenant des lignes de bourrage et des lignes de données, les lignes de données comprenant des données auxiliaires et des données vidéo ; - un filtrage (42) des lignes de bourrage pour former des ensembles de données comprenant des données auxiliaires et des données vidéo ; 10 - une découpe (43) des ensembles en fragments ; - une insertion (44) d'au moins un numéro d'image dans lesdits fragments, chacune des données auxiliaires et des données vidéo étant associée à un numéro d'image ; - une insertion (45) desdits fragments dans des paquets de transport ; et 15 - une transmission (46) desdits paquets de transport.
2. Méthode selon la revendication 1, caractérisée en ce qu'elle comprend une insertion d'une information représentative du format de l'image numérique source dans lesdits fragments.
3. Méthode selon l'une quelconque des revendications 1 et 2, caractérisée en l'étape de réception d'une image numérique source se fait sur une interface série. 25
4. Méthode selon l'une quelconque des revendications 1 et 2, caractérisée en l'étape de transmission desdits paquets de transport se fait sur une liaison (12) suivant un protocole internet.
5. Méthode selon l'une quelconque des revendications 1 à 4, 30 caractérisée en ce que les données vidéo de chaque fragment correspondent à une seule ligne d'image de l'image numérique source, la nature des données vidéo étant la même dans l'image numérique source et dans chaque fragment. 35
6. Méthode selon l'une quelconque des revendications 1 à 4, caractérisée en ce que les données vidéo de chaque fragment correspondent à au moins deux lignes de l'image numérique source, la 20nature des données vidéo étant la même dans l'image numérique source et dans chaque fragment.
7. Méthode selon l'une quelconque des revendications 1 à 6, caractérisée en ce qu'elle comprend une étape de réduction de la taille de chaque donnée élémentaire.
8. Méthode selon l'une quelconque des revendications 1 à 4, caractérisée en ce qu'elle comprend une étape de compression de données vidéo de l'image numérique source pour former au moins un ensemble de données vidéo comprimées, chaque fragment comprenant ledit au moins un ensemble de données vidéo comprimées.
9. Méthode selon l'une quelconque des revendications 1 à 8, 15 caractérisée en ce que dans chaque image numérique source, les données vidéo sont non comprimées. Note : dans l'image, chaque pixel est représenté par des données vidéo qui lui sont propres. Ainsi, chaque donnée vidéo est associée à un et un seul pixel. 20
10. Méthode de réception de paquets de transport, chaque paquet de transport comprenant des données représentatives d'au moins une partie d'une image numérique, caractérisée en ce qu'elle comprend - une réception (51) d'au moins un paquet de transport, chaque paquet de 25 transport comprenant au moins un fragment de données auxiliaires et/ou de données vidéo ; - une construction (53) de lignes de données comprenant des données vidéo et pouvant contenir des données auxiliaires à partir d'au moins un fragment contenu dans ledit au moins un paquet de transport ; 30 - une insertion desdites lignes de données et de données de bourrage dans une image numérique, pour former une image numérique.
11. Méthode selon la revendication 10, caractérisée en ce qu'elle comprend une réception d'une information représentative d'un format 35 d'image numérique, ladite construction et ladite insertion desdites lignes de données et de données de bourrages dans une image numérique étanteffectuée conformément à ladite information représentative d'un format d'image numérique.
12. Méthode selon l'une quelconque des revendications 10 et 11, 5 caractérisée en ce qu'elle comprend une étape de transmission (56) de l'image numérique à un équipement de destination.
13. Méthode selon l'une quelconque des revendications 10 à 12, caractérisée en ce que ladite construction comprend une extraction de 10 données vidéo de chaque fragment correspondent à au moins une ligne d'image, la nature des données vidéo étant la même dans chaque fragment et dans l'image numérique.
14. Méthode selon l'une quelconque des revendications 10 à 13, 15 caractérisée en ce qu'elle comprend une étape d'insertion de bits de bourrage dans chaque donnée élémentaire reçue.
15. Méthode selon l'une quelconque des revendications 10 à 14, caractérisée en ce qu'elle comprend une étape de décodage de données 20 vidéo comprimées pour former au moins un ensemble de données vidéo non comprimées.
16. Méthode selon l'une quelconque des revendications 10 à 14, caractérisée en ce que dans l'image numérique, les données vidéo sont non 25 comprimées.
FR0850648A 2008-02-01 2008-02-01 Methode de transmission d'images numeriques et de reception de paquets de transport. Withdrawn FR2927216A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR0850648A FR2927216A1 (fr) 2008-02-01 2008-02-01 Methode de transmission d'images numeriques et de reception de paquets de transport.
EP09151554.4A EP2086238B1 (fr) 2008-02-01 2009-01-28 Procédé de transmission d'images numériques et de réception de paquets de transport
US12/322,082 US8599876B2 (en) 2008-02-01 2009-01-29 Method of transmission of digital images and reception of transport packets

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0850648A FR2927216A1 (fr) 2008-02-01 2008-02-01 Methode de transmission d'images numeriques et de reception de paquets de transport.

Publications (1)

Publication Number Publication Date
FR2927216A1 true FR2927216A1 (fr) 2009-08-07

Family

ID=39884144

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0850648A Withdrawn FR2927216A1 (fr) 2008-02-01 2008-02-01 Methode de transmission d'images numeriques et de reception de paquets de transport.

Country Status (3)

Country Link
US (1) US8599876B2 (fr)
EP (1) EP2086238B1 (fr)
FR (1) FR2927216A1 (fr)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140052243A (ko) * 2012-10-23 2014-05-07 한국전자통신연구원 네트워크 데이터 서비스 장치 및 방법, 네트워크 데이터 서비스를 위한 클라이언트 단말 장치
CN104702908B (zh) * 2014-03-28 2018-03-06 杭州海康威视数字技术股份有限公司 一种智能信息传输方法、系统和装置
US11115623B2 (en) * 2018-05-07 2021-09-07 Maxim Integrated Products, Inc. Systems and methods for asymmetric image splitter with line mark memory
US11189210B2 (en) 2018-10-25 2021-11-30 Baylor University System and method for a multi-primary wide gamut color system
US11373575B2 (en) 2018-10-25 2022-06-28 Baylor University System and method for a multi-primary wide gamut color system
US11475819B2 (en) 2018-10-25 2022-10-18 Baylor University System and method for a multi-primary wide gamut color system
US11289000B2 (en) 2018-10-25 2022-03-29 Baylor University System and method for a multi-primary wide gamut color system
US11289003B2 (en) 2018-10-25 2022-03-29 Baylor University System and method for a multi-primary wide gamut color system
US11403987B2 (en) 2018-10-25 2022-08-02 Baylor University System and method for a multi-primary wide gamut color system
US10607527B1 (en) 2018-10-25 2020-03-31 Baylor University System and method for a six-primary wide gamut color system
US11062638B2 (en) 2018-10-25 2021-07-13 Baylor University System and method for a multi-primary wide gamut color system
US11532261B1 (en) 2018-10-25 2022-12-20 Baylor University System and method for a multi-primary wide gamut color system
US11069280B2 (en) 2018-10-25 2021-07-20 Baylor University System and method for a multi-primary wide gamut color system
US11315467B1 (en) 2018-10-25 2022-04-26 Baylor University System and method for a multi-primary wide gamut color system
US11069279B2 (en) 2018-10-25 2021-07-20 Baylor University System and method for a multi-primary wide gamut color system
US10997896B2 (en) 2018-10-25 2021-05-04 Baylor University System and method for a six-primary wide gamut color system
US11488510B2 (en) 2018-10-25 2022-11-01 Baylor University System and method for a multi-primary wide gamut color system
US11030934B2 (en) 2018-10-25 2021-06-08 Baylor University System and method for a multi-primary wide gamut color system
US11410593B2 (en) 2018-10-25 2022-08-09 Baylor University System and method for a multi-primary wide gamut color system
US11587491B1 (en) 2018-10-25 2023-02-21 Baylor University System and method for a multi-primary wide gamut color system
US10950161B2 (en) 2018-10-25 2021-03-16 Baylor University System and method for a six-primary wide gamut color system
US11037481B1 (en) 2018-10-25 2021-06-15 Baylor University System and method for a multi-primary wide gamut color system
US11043157B2 (en) 2018-10-25 2021-06-22 Baylor University System and method for a six-primary wide gamut color system
US10950162B2 (en) 2018-10-25 2021-03-16 Baylor University System and method for a six-primary wide gamut color system
US11341890B2 (en) 2018-10-25 2022-05-24 Baylor University System and method for a multi-primary wide gamut color system
US11082557B1 (en) * 2020-03-31 2021-08-03 T-Mobile Usa, Inc. Announcement or advertisement in text or video format for real time text or video calls

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0690630A2 (fr) * 1994-06-27 1996-01-03 Sony Corporation Interface numérique sériel utilisable pour des données vidéo et audio
US5923384A (en) * 1994-08-12 1999-07-13 Sony Corporation Data transmission system capable of routing and transmitting digital data of different types
EP1098531A2 (fr) * 1999-11-05 2001-05-09 Sony United Kingdom Limited Inclusion de paquets contenant des données internet dans des signaux SDI ou SDTI

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002455A (en) * 1994-08-12 1999-12-14 Sony Corporation Digital data transfer apparatus using packets with start and end synchronization code portions and a payload portion
US5650825A (en) * 1995-03-31 1997-07-22 Matsushita Electric Corporation Of America Method and apparatus for sending private data instead of stuffing bits in an MPEG bit stream
WO2000064156A1 (fr) * 1999-04-16 2000-10-26 Sony Corporation Procede de transmission de donnees et emetteur de donnees
GB2366926A (en) * 2000-09-06 2002-03-20 Sony Uk Ltd Combining material and data
JP4594923B2 (ja) * 2003-01-16 2010-12-08 ソニー ヨーロッパ リミテッド ビデオ/オーディオネットワーク
FR2893470B1 (fr) * 2005-11-16 2008-02-15 Canon Res Ct France Soc Par Ac Procede et dispositif de creation d'une sequence video representative d'une sequence video numerique et procedes et dispositifs de transmission et reception de donnees video associes
US7889765B2 (en) * 2005-11-30 2011-02-15 Time Warner Cable Inc. Apparatus and methods for utilizing variable rate program streams in a network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0690630A2 (fr) * 1994-06-27 1996-01-03 Sony Corporation Interface numérique sériel utilisable pour des données vidéo et audio
US5923384A (en) * 1994-08-12 1999-07-13 Sony Corporation Data transmission system capable of routing and transmitting digital data of different types
EP1098531A2 (fr) * 1999-11-05 2001-05-09 Sony United Kingdom Limited Inclusion de paquets contenant des données internet dans des signaux SDI ou SDTI

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"1.5 Gb/s Signal/Data Serial Interface", SMPTE STANDARD,, vol. 292-2006, 1 January 2006 (2006-01-01), pages 11pp, XP009108393 *
WILKINSON J H: "The serial digital data interface (SDDI)", BROADCASTING CONVENTION, INTERNATIONAL (CONF. PUBL. NO. 428) AMSTERDAM, NETHERLANDS 12-16 SEPT. 1996, LONDON, UK,IEE, UK, 12 September 1996 (1996-09-12), pages 425 - 430, XP006510058, ISBN: 978-0-85296-663-1 *

Also Published As

Publication number Publication date
US20090313669A1 (en) 2009-12-17
EP2086238A1 (fr) 2009-08-05
US8599876B2 (en) 2013-12-03
EP2086238B1 (fr) 2014-05-21

Similar Documents

Publication Publication Date Title
FR2927216A1 (fr) Methode de transmission d'images numeriques et de reception de paquets de transport.
JP4980913B2 (ja) トリック・プレイ用メタデータのビデオ伝送ストリームへの挿入
US9185335B2 (en) Method and device for reception of video contents and services broadcast with prior transmission of data
EP2060037B1 (fr) Methode de transmission d'informations de services dans differents types de reseaux de diffusion et unite de traitement desdites informations
US9602883B2 (en) Method for transmitting/receiving media and device for transmitting/receiving using same
KR101781873B1 (ko) 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신 장치
FR2903253A1 (fr) Procede permettant de determiner des parametres de compression et de protection pour la transmission de donnees multimedia sur un canal sans fil.
US20180131971A1 (en) Apparatus for transmitting broadcasting signal, apparatus for receiving broadcasting signal, method for transmitting broadcasting signal, and method for receiving broadcasting signal
US10237196B2 (en) Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal
US10362342B2 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
EP1977600B1 (fr) Methodes de diffusion ou de reception de services de video numeriques, appareils correspondants
EP1845685A1 (fr) Transmission perfectionnée de paquets IP de contenus, par adjonction à ces paquets IP de données d'information rélatives aux contenus
EP1798999B1 (fr) Procédé de gestion du comportement d'une application interactive lors de la diffusion d'un programme selon la norme DVB-H
FR2933213A1 (fr) Methode d'affichage d'interface utilisateur et methode d'emission correspondante
EP2063603B1 (fr) Procédé de transmission d'une séquence vidéo vers un terminal distant
EP3556103B1 (fr) Procédé et dispositif de diffusion numérique mis en oeuvre au sein d'un reseau de diffusion numérique
JP2011188302A (ja) デジタル放送の再送信におけるセクション編集装置、セクション編集方法およびセクション編集プログラム
WO2016151052A1 (fr) Procédé et dispositif de fourniture d'un flux de données, procédé et dispositif de traitement d'un flux de données, programmes d'ordinateur et media de stockage correspondants
EP2451163B1 (fr) Procédé de mémorisation d'un objet multimédia, structure de donnée et terminal associé
WO2009138480A1 (fr) Procede de transmission de donnees multimedia selon un protocole du type protocole internet
FR2827463A1 (fr) Procede de controle d'un flux de signaux de television recu par un decodeur de television et decodeur associe
EP2361481A1 (fr) Procédé et dispositif de transmission d'un fichier de données numériques selon la norme dmb
WO2009124779A2 (fr) Méthode d'optimisation de transmission d'un flux de trames audio à débit variable dans un flux de transport pour transmission sur un réseau

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20101029