FR3004052A1 - METHOD AND DEVICE FOR TRANSMITTING VIDEO CONTENT, METHOD AND DEVICE FOR RESTITUTING VIDEO CONTENT, VIDEO FLOW AND CORRESPONDING COMPUTER PROGRAM. - Google Patents

METHOD AND DEVICE FOR TRANSMITTING VIDEO CONTENT, METHOD AND DEVICE FOR RESTITUTING VIDEO CONTENT, VIDEO FLOW AND CORRESPONDING COMPUTER PROGRAM. Download PDF

Info

Publication number
FR3004052A1
FR3004052A1 FR1352883A FR1352883A FR3004052A1 FR 3004052 A1 FR3004052 A1 FR 3004052A1 FR 1352883 A FR1352883 A FR 1352883A FR 1352883 A FR1352883 A FR 1352883A FR 3004052 A1 FR3004052 A1 FR 3004052A1
Authority
FR
France
Prior art keywords
audio
tracks
video
component
video content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1352883A
Other languages
French (fr)
Inventor
Chantal Guionnet
Frederic Delagree
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR1352883A priority Critical patent/FR3004052A1/en
Publication of FR3004052A1 publication Critical patent/FR3004052A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/607Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for more than one sound signal, e.g. stereo, multilanguages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4856End-user interface for client configuration for language selection, e.g. for the menu or subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

L'invention concerne un procédé de transmission d'un contenu vidéo comprenant une composante vidéo et au moins une composante audio ou de sous-titrage. Selon l'invention, un tel procédé comprend les étapes suivantes : - identification (31) dans la ou les composantes audio ou de sous-titrage d'au moins deux pistes associées chacune à une source audio distincte, les pistes étant destinées à être restituées simultanément à la composante vidéo sur un terminal d'un utilisateur, affectation (32) à au moins une des pistes d'au moins une donnée d'identification, transmission (33) du contenu vidéo comprenant les pistes et de la ou des données d'identification dans un flux vidéo.The invention relates to a method for transmitting video content comprising a video component and at least one audio or subtitling component. According to the invention, such a method comprises the following steps: identification (31) in the audio or subtitling component or components of at least two tracks each associated with a distinct audio source, the tracks being intended to be reproduced simultaneously to the video component on a terminal of a user, assigning (32) to at least one of the tracks of at least one identification data, transmission (33) of the video content comprising the tracks and the data or data of identification in a video stream.

Description

Procédé et dispositif de transmission d'un contenu vidéo, procédé et dispositif de restitution d'un contenu vidéo, flux vidéo et programme d'ordinateur correspondants. 1. Domaine de l'invention Le domaine de l'invention est celui de la transmission ou diffusion de contenus vidéo, également appelés contenus audiovisuels, et la restitution personnalisée de tels contenus. De tels contenus vidéo sont par exemple diffusés dans un flux vidéo en direct (i.e. en « live » ou en temps réel, par rapport à la création du contenu vidéo) ou en différé (i.e. une fois la création effectuée), ou stockés sur un support d'enregistrement. Plus précisément, l'invention concerne la gestion des composantes audio et/ou de sous- titrage de tels contenus vidéo. 2. Art antérieur Les contenus vidéo actuels sont généralement composés d'une composante vidéo et d'une ou plusieurs composantes audio. Les composantes audio correspondent aux différentes langues et aux différents formats de diffusion accessibles, et sont classiquement transmises de façon synchronisée avec la composante vidéo. Par langue, il est fait référence dans la suite du document à toute langue parlée (anglais, français, chinois, etc). Par format de diffusion, encore appelé « qualité sonore », on entend par exemple un format appartenant au groupe comprenant les formats suivants : mono (pour monophonique), stéréo (pour stéréophonique), multicanal 5.1, multicanal 6.1, multicanal 7.1, DTS (de l'anglais « Digital Theater System »), Dolby, SDDS (de l'anglais « Sony Dynamic Digital Sound»), etc. Chaque composante audio comprend donc l'ensemble du rendu sonore : bruit de fond, musique, voix de tous les personnages, etc. Par exemple, comme illustré en figure 1, un contenu vidéo 11 comprend une composante vidéo 111, une première composante audio 112 correspondant à l'ensemble du rendu sonore en langue française (encore appelée « composante son français »), et une deuxième composante audio 113 correspondant à l'ensemble du rendu sonore en langue anglaise (encore appelée « composante son anglais »). Chaque composante audio est par exemple composée d'un identifiant de composante, d'une description, et des données audio. La transmission d'un tel contenu vidéo 11 met en oeuvre une transmission simultanée et synchronisée de la composante vidéo 111, de la composante son français 112 et de la composante son anglais 113. De tels contenus vidéos comprennent également, éventuellement, une ou plusieurs composantes de sous-titrage. Par sous-titrage, on entend la transcription écrite des dialogues ou des commentaires audio d'un contenu vidéo qui apparaît dans l'image, un sous-titre pouvant apparaître par exemple en haut, en bas de l'image, ou bien même encore directement dans l'image. Chaque composante de sous-titrage correspond à une langue spécifique. Si le contenu vidéo comprend plusieurs composantes audio ou de sous-titrage, l'utilisateur final peut choisir, lors de la restitution du contenu, la langue dans laquelle il souhaite visionner le contenu vidéo et/ou le format de diffusion, en sélectionnant la composante audio et/ou de sous-titrage correspondante. Suite au choix de l'utilisateur sur la langue et/ou la qualité, le décodeur décode uniquement les composantes choisies. En revanche, son choix est limité à ces composantes audio ou de sous-titrage, et il n'est pas possible pour l'utilisateur de construire une restitution plus personnalisée du contenu vidéo.Method and device for transmitting video content, method and device for rendering video content, video stream and corresponding computer program. FIELD OF THE DISCLOSURE The field of the invention is that of the transmission or broadcasting of video content, also called audiovisual content, and the personalized rendering of such content. Such video contents are for example broadcast in a live video stream (ie "live" or in real time, with respect to the creation of video content) or offline (ie once the creation has been made), or stored on a video stream. recording medium. More specifically, the invention relates to the management of audio components and / or subtitling of such video contents. 2. Prior art Current video contents are generally composed of a video component and one or more audio components. The audio components correspond to the different languages and to the different accessible broadcast formats, and are conventionally transmitted synchronously with the video component. By language, reference is made in the rest of the document to any spoken language (English, French, Chinese, etc.). By broadcast format, also called "sound quality", is meant for example a format belonging to the group comprising the following formats: mono (for monophonic), stereo (for stereophonic), multichannel 5.1, multichannel 6.1, multichannel 7.1, DTS (of English "Digital Theater System"), Dolby, SDDS (Sony Dynamic Digital Sound), etc. Each audio component therefore includes all the sound reproduction: background noise, music, voice of all the characters, etc. For example, as illustrated in FIG. 1, a video content 11 comprises a video component 111, a first audio component 112 corresponding to the entire sound reproduction in French (also called "French sound component"), and a second audio component 113 corresponding to the entire sound record in English (also called "English sound component"). Each audio component is for example composed of a component identifier, a description, and audio data. The transmission of such video content 11 implements a simultaneous and synchronized transmission of the video component 111, the French sound component 112 and the English sound component 113. Such video contents also include, optionally, one or more components subtitling. By subtitling, we mean the written transcription of dialogues or audio comments of video content that appears in the image, a subtitle that may appear for example at the top, bottom of the image, or even directly in the image. Each subtitling component corresponds to a specific language. If the video content includes several audio or subtitling components, the end user may choose, when rendering the content, the language in which he wishes to view the video content and / or the broadcast format, by selecting the component corresponding audio and / or subtitling. Following the choice of the user on the language and / or the quality, the decoder decodes only the selected components. On the other hand, its choice is limited to these audio or subtitling components, and it is not possible for the user to build a more personalized rendering of the video content.

Par exemple, comme illustré en figure 2, un décodeur 21 reçoit le contenu vidéo 11 comprenant la composante vidéo 111, la composante son français 112, et la composante son anglais 113. L'utilisateur peut alors sélectionner (211) la langue dans laquelle il souhaite visionner le contenu vidéo, et le décodeur décodera uniquement la composante audio correspondante. Ainsi, le décodeur restituera les composantes décodées, par exemple la composante vidéo 111 et la composante son français 112. Il existe donc un besoin pour de nouvelles techniques de transmission et de restitution de contenus vidéo, permettant d'améliorer ces techniques de l'art antérieur. 3. Exposé de l'invention L'invention propose une solution nouvelle sous la forme d'un procédé de transmission (et/ou stockage) d'un contenu vidéo comprenant une composante vidéo et au moins une composante audio ou de sous-titrage, comprenant les étapes suivantes : identification dans la ou les composantes audio ou de sous-titrage d'au moins deux pistes associées chacune à une source audio distincte, les pistes étant destinées à être restituées simultanément à la composante vidéo sur un terminal d'un utilisateur, affectation à au moins une des pistes d'au moins une donnée d'identification, transmission du contenu vidéo comprenant les pistes et de la ou des données d'identification dans un flux vidéo. L'invention propose ainsi d'améliorer les techniques existantes de transmission d'un contenu vidéo comprenant au moins une composante audio et/ou au moins une composante de sous-titrage, en transmettant au moins une donnée d'identification permettant d'identifier, ou encore d'accéder à, une sous-composante d'une composante audio ou d'une composante de sous-titrage, appelée piste, cette piste étant directement associée à une source audio. Par source audio, on entend la source audio « produisant » ou « générant » une piste (audio ou de sous-titrage), comme par exemple un personnage, un narrateur, un groupe de personnages, un générateur de musique, un générateur de bruitage, etc. La piste associée à une telle source correspond par exemple à la voix d'un tel personnage ou narrateur (ou cri pour un animal), à un bruit de fond (bruit de foule, bruit de troupeau, bruit d'ambiance, etc), une musique (bande originale de film, générique de jeu télévisé, etc), ou à la transcription écrite correspondante (ou plus précisément aux données correspondantes).For example, as illustrated in FIG. 2, a decoder 21 receives the video content 11 comprising the video component 111, the French sound component 112, and the English sound component 113. The user can then select (211) the language in which he wants to view the video content, and the decoder will only decode the corresponding audio component. Thus, the decoder will restore the decoded components, for example the video component 111 and the French sound component 112. There is therefore a need for new techniques for transmitting and rendering video contents, making it possible to improve these techniques of the art. prior. 3. DISCLOSURE OF THE INVENTION The invention proposes a new solution in the form of a transmission method (and / or storage) of a video content comprising a video component and at least one audio or subtitling component, comprising the steps of: identifying in the audio or subtitle component or components at least two tracks each associated with a distinct audio source, the tracks being intended to be simultaneously rendered to the video component on a user's terminal; , assigning at least one of the tracks of at least one identification data, transmission of the video content including the tracks and identification data or data in a video stream. The invention thus proposes to improve the existing techniques for transmitting video content comprising at least one audio component and / or at least one subtitling component, by transmitting at least one identification data item enabling identification, or accessing a sub-component of an audio component or a subtitling component, called a track, which track is directly associated with an audio source. By audio source, we mean the audio source "producing" or "generating" a track (audio or subtitling), such as for example a character, a narrator, a group of characters, a music generator, a sound generator etc. The track associated with such a source corresponds for example to the voice of such a character or narrator (or cry for an animal), to a background noise (crowd noise, herd noise, ambient noise, etc.), a music (film soundtrack, game show credits, etc.), or the corresponding written transcription (or more precisely the corresponding data).

Ainsi, si l'on considère que la ou les composantes audio ou de sous-titrage correspondent chacune à une langue distincte d'un contenu vidéo, une première piste audio peut être associée à un premier acteur, et correspondre à la voix du premier acteur, et une deuxième piste audio peut être associée à un deuxième acteur, et correspondre à la voix du deuxième acteur. De la même façon, si l'on considère une composante de sous-titrage, une première piste de sous-titrage peut être associée à un premier acteur, et correspondre à une transcription écrite des paroles du premier acteur, et une deuxième piste de sous-titrage peut être associée à un deuxième acteur, et correspondre à une transcription écrite des paroles du deuxième acteur. Il est alors possible d'identifier ces différentes pistes et de les transmettre « séparément » dans le flux vidéo. Côté restitution, il est alors possible de restituer uniquement la voix du premier acteur, ou la voix d'un premier acteur et une voix externe remplaçant la voix du deuxième acteur, ou encore la voix du premier acteur en français et la voix du deuxième acteur en anglais, etc. De la même façon, il est possible de restituer un sous-titre pour le premier acteur uniquement, ou un sous-titre en français pour le premier acteur et un sous-titre en anglais pour le deuxième acteur, etc. Il est ainsi possible pour l'utilisateur de construire une restitution plus personnalisée du contenu vidéo, grâce à la transmission des composantes audio et/ou de sous-titrage d'un contenu vidéo avec un niveau de segmentation plus « fin » ou « petit » (segmentation au niveau « piste ») que le niveau de segmentation classique (segmentation au niveau « composante »). En effet, les éléments audio formant une composante audio (ou une composante de sous-titrage) ne sont pas actuellement identifiables et accessibles individuellement en restitution. L'identification et la transmission de « pistes » selon l'invention permet, au niveau du terminal d'un utilisateur, d'accéder à ces pistes plutôt qu'à la composante globale, et offre donc à l'utilisateur la possibilité de construire une restitution plus personnalisée du contenu vidéo. En d'autres termes, grâce à l'invention, il est possible de transmettre de manière indépendante la piste associée à une source audio ainsi que la donnée d'identification de cette piste, ce qui permet à un utilisateur d'identifier aisément la contribution d'une source audio au sein du contenu vidéo. On maintient donc une séparation des sources en transmission, alors que selon l'art antérieur, on mixait l'ensemble des sources dans un même « canal ». En particulier, au moins une des sources audio est visible dans au moins une image du contenu vidéo.Thus, if it is considered that the audio or subtitling component or components each correspond to a language distinct from a video content, a first audio track may be associated with a first actor, and correspond to the voice of the first actor. , and a second audio track can be associated with a second actor, and correspond to the voice of the second actor. In the same way, if we consider a subtitling component, a first subtitle track can be associated with a first actor, and correspond to a written transcription of the lyrics of the first actor, and a second subtitle track. -titling can be associated with a second actor, and correspond to a written transcription of the lyrics of the second actor. It is then possible to identify these different tracks and transmit them "separately" in the video stream. Restitution side, it is then possible to restore only the voice of the first actor, or the voice of a first actor and an external voice replacing the voice of the second actor, or the voice of the first actor in French and the voice of the second actor in English, etc. In the same way, it is possible to restore a subtitle for the first actor only, or a subtitle in French for the first actor and a subtitle in English for the second actor, etc. It is thus possible for the user to build a more personalized rendering of the video content, through the transmission of audio components and / or subtitling of video content with a level of segmentation more "fine" or "small" (segmentation at the "track" level) than the standard segmentation level (segmentation at "component" level). Indeed, the audio elements forming an audio component (or a component of subtitling) are not currently identifiable and accessible individually in restitution. The identification and transmission of "tracks" according to the invention makes it possible, at the level of the terminal of a user, to access these tracks rather than the global component, and thus offers the user the possibility of constructing a more personalized rendering of the video content. In other words, thanks to the invention, it is possible to independently transmit the track associated with an audio source and the identification data of this track, which allows a user to easily identify the contribution an audio source within the video content. A separation of the sources in transmission is maintained, whereas according to the prior art, all the sources are mixed in the same "channel". In particular, at least one of the audio sources is visible in at least one image of the video content.

Ainsi, contrairement à l'audio-description où le traducteur d'image ne participe pas physiquement à la prise d'image, et n'est donc pas représenté par une image dans ce contenu vidéo, l'invention permet d'accéder à au moins deux pistes associées chacune à une source audio distincte, dont au moins une source qui intervient « physiquement » au moins une fois dans le contenu vidéo, i.e. que l'on visualise au moins une fois dans le contenu vidéo (acteur, présentateur d'un jeu télévisé, commentateur sportif, ...). Si l'on considère le cas où la source audio correspond à un groupe de personnages, ce groupe de personnage apparaît par exemple au moins une fois dans le contenu vidéo. Par exemple, il s'agit de la foule présente à un match de football ou à un concert retransmis en direct par une chaîne de télévision.Thus, unlike the audio description where the image translator does not physically participate in the image taking, and is therefore not represented by an image in this video content, the invention provides access to the image. at least two tracks each associated with a distinct audio source, including at least one source that "physically" intervenes at least once in the video content, ie that is displayed at least once in the video content (actor, presenter of a game show, sports commentator, ...). If we consider the case where the audio source corresponds to a group of characters, this group of characters appears for example at least once in the video content. For example, this is the crowd present at a football match or at a concert broadcast live by a television channel.

Par exemple, selon l'invention, la composante audio ou de sous-titrage est composée d'au moins trois pistes, d'une part deux pistes associées chacune à une source audio distincte, les deux sources audio distinctes étant représentées chacune par au moins une image du contenu vidéo, et d'autre part une autre piste associée à une source audio distincte non représentée par une image dans le contenu vidéo. Cet exemple correspond par exemple à deux acteurs apparaissant dans des images du contenu vidéo combinés avec de la musique, ou la contribution d'un traducteur d'image ou toute autre piste associée à une source audio non représentée par une image dans le contenu vidéo. Selon l'exemple ci-dessus, il est possible d'affecter une donnée d'identification à une des deux pistes associées à une source audio distincte représentée par au moins une image du contenu vidéo, et une autre donnée d'identification à la piste associée à la source audio non représentée par une image dans le contenu vidéo, par exemple la musique, ou la composante audio de « description » de l'audio-description. Ainsi, dans le cas où la composante audio est formée d'au moins trois pistes, des données d'identification distinctes sont affectées à au moins deux pistes associées à deux sources audio distinctes, cependant ces deux sources audio distinctes ne sont pas nécessairement toutes les deux représentées par au moins une image dans le contenu vidéo. Selon un autre exemple, il est également possible selon l'invention d'affecter autant de données d'identification qu'il y a de sources audio distinctes à intervenir dans le contenu vidéo. Selon une caractéristique particulière de l'invention, la ou les données d'identification identifient au moins une source audio. On peut donc avoir une seule donnée d'identification par source audio. Dans ce cas, une même donnée d'identification peut être affectée à une piste audio d'une composante audio et une piste de sous-titrage d'une composante de sous-titrage, si elles sont associées à la même source audio (par exemple au même acteur). Dans ce cas, des données supplémentaires peuvent être insérées dans le flux pour indiquer le type de données composant la piste (données audio, données de sous-titrage). On peut également avoir une donnée d'identification par ensemble ou groupe de sources audio. Par exemple, on peut avoir une même donnée d'identification pour tous les acteurs, ou une première donnée d'identification pour toutes les actrices féminines et une deuxième donnée d'identification pour tous les acteurs masculins, etc. Selon une autre caractéristique particulière, au moins une des pistes est définie pour au moins deux des composantes audio ou de sous-titrage. En d'autres termes, au moins une piste est commune à au moins deux langues distinctes ou à au moins deux formats distincts. En effet, il est par exemple possible selon l'invention d'avoir la même piste correspondant au bruit de fond ou à une musique pour un ensemble de langues. Une piste correspondant au bruit de la mer, à la bande originale d'un film, ou au générique d'un jeu par exemple peut donc être restituée quelle que soit la langue. Cet aspect permet donc d'éviter de transmettre autant de bruits de mer ou de musique qu'il y a de langues accessibles pour la restitution du contenu vidéo. Cet aspect présente donc l'avantage d'optimiser la quantité de données à transmettre en évitant de transmettre deux fois un même « contenu » (bruit de fond ou musique par exemple). Selon un mode de réalisation spécifique, le procédé de transmission est mis en oeuvre en temps réel.For example, according to the invention, the audio or subtitling component is composed of at least three tracks, on the one hand two tracks each associated with a distinct audio source, the two distinct audio sources being each represented by at least two tracks. an image of the video content, and secondly another track associated with a distinct audio source not represented by an image in the video content. This example corresponds for example to two actors appearing in images of the video content combined with music, or the contribution of an image translator or any other track associated with an audio source not represented by an image in the video content. In the example above, it is possible to assign identification data to one of the two tracks associated with a separate audio source represented by at least one image of the video content, and other identification data to the track. associated with the audio source not represented by an image in the video content, for example the music, or the audio component of "description" of the audio description. Thus, in the case where the audio component is formed of at least three tracks, separate identification data is assigned to at least two tracks associated with two separate audio sources, however these two separate audio sources are not necessarily all two represented by at least one image in the video content. According to another example, it is also possible according to the invention to assign as much identification data as there are separate audio sources to intervene in the video content. According to a particular characteristic of the invention, the identification data identifies at least one audio source. We can therefore have only one identification data per audio source. In this case, the same identification data can be assigned to an audio track of an audio component and a closed caption track of a subtitling component, if they are associated with the same audio source (for example to the same actor). In this case, additional data can be inserted into the stream to indicate the type of data that composes the track (audio data, subtitle data). One can also have an identification data per set or group of audio sources. For example, we can have the same identification data for all actors, or a first identification data for all female actresses and a second identification data for all male actors, etc. According to another particular characteristic, at least one of the tracks is defined for at least two of the audio or subtitling components. In other words, at least one track is common to at least two distinct languages or at least two distinct formats. Indeed, it is for example possible according to the invention to have the same track corresponding to background noise or music for a set of languages. A track corresponding to the sound of the sea, the soundtrack of a film, or the credits of a game for example can be restored regardless of the language. This aspect thus makes it possible to avoid transmitting as much sea noise or music as there are accessible languages for the restitution of the video content. This aspect therefore has the advantage of optimizing the amount of data to be transmitted by avoiding transmitting twice the same "content" (background noise or music for example). According to a specific embodiment, the transmission method is implemented in real time.

Par « mise en oeuvre en temps réel », il est entendu mise en oeuvre synchronisée en temps réel au regard de la génération du contenu vidéo. C'est par exemple le cas pour la diffusion en direct d'une émission de télévision, par exemple un journal télévisé. Dans un autre mode de réalisation, l'invention concerne un dispositif de transmission d'un contenu vidéo comprenant une composante vidéo et au moins une composante audio ou de sous- titrage. Selon l'invention, un tel dispositif comprend : un module d'identification, dans la ou les composantes audio ou de sous-titrage, d'au moins deux pistes associées chacune à une source audio distincte, les pistes étant destinées à être restituées simultanément à la composante vidéo sur un terminal d'un utilisateur, un module d'affectation à au moins une des pistes d'au moins une donnée d'identification, un module de transmission du contenu vidéo comprenant les pistes et de la ou des données d'identification dans un flux vidéo.By "real-time implementation", it is understood implementation synchronized in real time with respect to the generation of video content. This is for example the case for the live broadcast of a television program, for example a television newscast. In another embodiment, the invention relates to a device for transmitting video content comprising a video component and at least one audio or subtitling component. According to the invention, such a device comprises: an identification module, in the audio or subtitling component or components, of at least two tracks each associated with a separate audio source, the tracks being intended to be simultaneously reproduced; to the video component on a terminal of a user, a module for assigning to at least one of the tracks of at least one identification data, a module for transmitting the video content comprising the tracks and the data or data of identification in a video stream.

Un tel dispositif de transmission (et/ou stockage) est notamment adapté à mettre en oeuvre le procédé de transmission décrit précédemment. Il est par exemple intégré à un émetteur ou une tête de réseau d'un système de diffusion. Ce dispositif pourra bien sûr comporter les différentes caractéristiques relatives au procédé de transmission selon l'invention, qui peuvent être combinées ou prises isolément. Ainsi, les caractéristiques et avantages de ce dispositif sont les mêmes que ceux du procédé de transmission. Par conséquent, ils ne sont pas détaillés plus amplement. L'invention concerne par ailleurs un flux vidéo comprenant une composante vidéo et au moins une composante audio ou de sous-titrage, dans lequel au moins une des composantes audio ou de sous-titrage comprend au moins deux pistes associées chacune à une source audio distincte, les pistes étant destinées à être restituées simultanément à la composante vidéo sur un terminal d'un utilisateur. Selon l'invention, un tel flux vidéo comprend également au moins une donnée d'identification affectée à au moins une des pistes. Un tel flux vidéo peut être transmis en utilisant le procédé de transmission décrit précédemment. Il peut également être stocké sur un support de données, pour une lecture différée. Ce flux vidéo pourra bien sûr comporter les différentes caractéristiques relatives au procédé de transmission selon l'invention. L'invention concerne par ailleurs un procédé de restitution d'un contenu vidéo à partir d'un flux vidéo comprenant une composante vidéo, au moins une composante audio ou de sous- titrage, dans lequel au moins une des composantes audio ou de sous-titrage comprend au moins deux pistes associées chacune à une source audio distincte, les pistes étant destinées à être restituées simultanément à la composante vidéo sur un terminal d'un utilisateur. Un tel flux comprend également au moins une donnée d'identification affectée à au moins une des pistes.Such a transmission device (and / or storage) is particularly suitable for implementing the transmission method described above. It is for example integrated into a transmitter or headend of a broadcast system. This device may of course include the various characteristics relating to the transmission method according to the invention, which can be combined or taken separately. Thus, the features and advantages of this device are the same as those of the transmission method. Therefore, they are not detailed further. The invention further relates to a video stream comprising a video component and at least one audio or subtitle component, wherein at least one of the audio or subtitle components comprises at least two tracks each associated with a separate audio source. , the tracks being intended to be rendered simultaneously to the video component on a terminal of a user. According to the invention, such a video stream also comprises at least one identification datum assigned to at least one of the tracks. Such a video stream may be transmitted using the transmission method described above. It can also be stored on a data carrier, for a delayed reading. This video stream may of course include the various characteristics relating to the transmission method according to the invention. The invention also relates to a method for rendering a video content from a video stream comprising a video component, at least one audio or subtitling component, in which at least one of the audio or sub-audio components titration comprises at least two tracks each associated with a separate audio source, the tracks being intended to be simultaneously rendered to the video component on a terminal of a user. Such a stream also includes at least one identification data assigned to at least one of the tracks.

Selon l'invention, un tel procédé comprend les étapes suivantes : identification d'au moins une des pistes à partir de la ou des données d'identification, délivrant au moins une piste identifiée, restitution du contenu vidéo mettant en oeuvre une restitution simultanée : - de la composante vidéo et - d'au moins une des pistes identifiées ou d'au moins un contenu audio généré à partir d'une source externe remplaçant la ou les pistes identifiées. Un tel procédé est notamment adapté à recevoir et traiter un flux vidéo transmis selon le procédé de transmission décrit ci-dessus. Il permet notamment d'enregistrer, de télécharger, d'afficher sur un écran, etc, un contenu vidéo.According to the invention, such a method comprises the following steps: identification of at least one of the tracks from the identification data or data, delivering at least one identified track, restitution of the video content implementing a simultaneous restitution: the video component and at least one of the tracks identified or at least one audio content generated from an external source replacing the identified track or tracks. Such a method is particularly adapted to receive and process a video stream transmitted according to the transmission method described above. It allows to record, download, display on a screen, etc., video content.

En particulier, l'invention permet de restituer, au niveau d'un terminal, un sous-ensemble ou « portion » d'une composante audio ou d'une composante de sous-titrage, plutôt que l'intégralité d'une telle composante comme proposé dans l'art antérieur. Ce sous-ensemble correspond à une ou plusieurs pistes de type audio ou de sous-titrage associées chacune à une source audio parmi l'ensemble des pistes associées à la composante audio ou de sous-titrage. De ce fait, il est possible de construire une restitution plus personnalisée du contenu vidéo. L'ensemble des caractéristiques décrites précédemment au regard du procédé de transmission s'applique également au procédé de restitution. Ainsi, au regard de ces aspects précédemment décrits, le procédé de restitution selon l'invention permet notamment d'identifier les voix des différents acteurs ou les sous-titres associés à ces acteurs. En conséquence, il est par la suite possible de sélectionner la voix et/ou le sous-titre associés à un premier acteur, puis de restituer uniquement la voix et/ou le sous-titre associés à ce premier acteur ou une combinaison par défaut de la voix et/ou du sous-titre associés à ce premier acteur avec la piste audio et/ou de sous-titrage « bruit d'ambiance », et la piste audio « musique » par exemple la bande originale d'un film. Selon cet exemple, la voix d'un deuxième acteur peut ne pas être restituée, et un utilisateur peut effectuer un doublage oral du deuxième acteur (avec ou sans microphone, éventuellement en couplant son téléphone (« smartphone ») au dispositif de restitution). Il est donc possible de remplacer une ou plusieurs pistes par un contenu audio généré à partir d'une source externe. Selon l'invention, on entend par contenu audio généré à partir d'une source externe, un contenu qui n'a pas été transmis dans le flux vidéo et qui intervient uniquement lors de la restitution personnalisée du contenu vidéo, par exemple en remplacement d'une piste transmise dans le flux vidéo mais non décodée.In particular, the invention makes it possible to restore, at the level of a terminal, a subset or "portion" of an audio component or a subtitling component, rather than the entirety of such a component. as proposed in the prior art. This subset corresponds to one or more audio type or subtitle tracks each associated with an audio source among all the tracks associated with the audio or subtitling component. As a result, it is possible to build a more personalized rendering of video content. All the characteristics described previously with regard to the transmission method also apply to the rendering process. Thus, with regard to these aspects previously described, the rendering method according to the invention makes it possible in particular to identify the voices of the different actors or the sub-titles associated with these actors. As a result, it is subsequently possible to select the voice and / or subtitle associated with a first actor, then to render only the voice and / or subtitle associated with this first actor or a default combination of the voice and / or subtitle associated with this first actor with the audio track and / or subtitle "ambient noise", and the audio track "music" for example the soundtrack of a film. According to this example, the voice of a second actor may not be restored, and a user can perform an oral dubbing of the second actor (with or without microphone, possibly by coupling his phone ("smartphone") to the playback device). It is therefore possible to replace one or more tracks with audio generated from an external source. According to the invention, the term audio content generated from an external source, a content that has not been transmitted in the video stream and which intervenes only during the personalized rendering of the video content, for example in replacement of a track transmitted in the video stream but not decoded.

Selon une caractéristique particulière, l'étape de restitution met en oeuvre une étape de mixage du ou des contenus audio généré à partir d'une ou des sources externes avec au moins une piste d'une des composantes audio ou de sous-titrage, distincte de la ou des pistes identifiées pour être remplacées. En d'autres termes, afin de conserver la synchronisation entre les composantes vidéo et audio et/ou de sous-titrage, le contenu audio généré à partir d'une source externe utilisé pour remplacer une ou plusieurs pistes identifiées est mixé en temps réel avec les autres pistes de la composante audio ou de sous-titrage non remplacées. En particulier, le procédé de restitution comprend une étape préalable de réception du contenu audio généré à partir d'une source externe, lorsque la source externe est située à un lieu distant du terminal.According to a particular characteristic, the restitution step implements a step of mixing the audio content or generated from one or more external sources with at least one track of a separate audio or subtitling component. of the identified track (s) to be replaced. In other words, in order to maintain synchronization between the video and audio and / or subtitling components, the audio content generated from an external source used to replace one or more identified tracks is mixed in real time with other tracks of the audio or subtitle component not replaced. In particular, the rendering method comprises a prior step of receiving the audio content generated from an external source, when the external source is located at a remote location of the terminal.

Selon une autre caractéristique particulière, l'étape de restitution met en oeuvre une étape de mixage d'au moins une piste correspondant à une langue prédéterminée avec au moins une piste correspondant à une langue distincte. En effet, la transmission des composantes audio et/ou de sous-titrage d'un contenu vidéo avec un niveau de segmentation plus « fin » ou « petit » (segmentation au niveau « piste ») que le niveau de segmentation classique (segmentation au niveau « composante ») permet de mixer lors de la restitution des pistes associées à des langues différentes : par exemple restitution de la voix et/ou du sous-titrage en anglais pour le premier acteur et de la voix et/ou du sous-titrage en français pour le deuxième acteur.According to another particular characteristic, the restitution step implements a step of mixing at least one track corresponding to a predetermined language with at least one track corresponding to a distinct language. Indeed, the transmission of the audio and / or subtitling components of a video content with a level of segmentation more "fine" or "small" (segmentation at the "track" level) than the level of classical segmentation (segmentation at "component" level) allows mixing when restoring tracks associated with different languages: for example reproduction of voice and / or subtitling in English for the first actor and voice and / or subtitling in French for the second actor.

Selon une caractéristique particulière, au moins un nouveau contenu audio généré à partir d'une source externe est ajouté lors de la restitution du contenu vidéo. Il est ainsi possible de compléter le contenu vidéo initial, avec ou sans sélection de pistes, en lui ajoutant de nouvelles informations. Par exemple, il est possible d'ajouter une voix supplémentaire au contenu vidéo, pour commenter une rencontre sportive.According to one particular characteristic, at least one new audio content generated from an external source is added during the rendering of the video content. It is thus possible to supplement the initial video content, with or without selection of tracks, by adding new information to it. For example, it is possible to add an additional voice to the video content, to comment on a sporting event.

Selon un mode de réalisation spécifique, le procédé de restitution est mis en oeuvre en temps réel. En d'autres termes, la sélection de pistes à restituer, ou la restitution d'un contenu audio généré par une source externe en remplacement d'une piste, est effectué au fur et à mesure du traitement du flux vidéo.According to a specific embodiment, the rendering method is implemented in real time. In other words, the selection of tracks to be rendered, or the reproduction of audio content generated by an external source instead of a track, is performed as the video stream is processed.

Le flux vidéo n'est donc pas modifié lors de l'identification de pistes pour sélection/remplacement. C'est uniquement lors de la restitution du contenu vidéo que ces sélections/remplacements sont pris en compte. Dans un autre mode de réalisation, l'invention concerne un dispositif de restitution d'un contenu vidéo à partir d'un flux vidéo comprenant une composante vidéo, au moins une composante audio ou de sous-titrage, selon lequel au moins une des composantes audio ou de sous-titrage comprend au moins deux pistes associées chacune à une source audio distincte, les pistes étant destinées à être restituées simultanément à la composante vidéo sur un terminal d'un utilisateur. Un tel flux vidéo comprend également au moins une donnée d'identification affectée à au moins une des pistes.The video stream is therefore not modified when identifying tracks for selection / replacement. It is only during the restitution of the video content that these selections / replacements are taken into account. In another embodiment, the invention relates to a device for rendering a video content from a video stream comprising a video component, at least one audio or subtitling component, according to which at least one of the components audio or subtitling includes at least two tracks each associated with a separate audio source, the tracks being intended to be simultaneously rendered to the video component on a terminal of a user. Such a video stream also comprises at least one identification data assigned to at least one of the tracks.

Selon l'invention, un tel dispositif comprend : un module d'identification d'au moins une des pistes à partir de la ou des données d'identification, délivrant au moins une piste identifiée, un module de restitution du contenu vidéo mettant en oeuvre une restitution simultanée : - de la composante vidéo et - d'au moins une des pistes identifiées ou d'au moins un contenu audio généré à partir d'une source externe remplaçant la ou les pistes identifiées. Un tel dispositif de restitution (et/ou enregistrement) est notamment adapté à mettre en oeuvre le procédé de restitution décrit précédemment. Il est par exemple intégré à un terminal d'un utilisateur (téléviseur, ordinateur, téléphone portable, tablette, etc), éventuellement combiné avec un boîtier décodeur - en anglais « set-top box ». Ce dispositif pourra bien sûr comporter les différentes caractéristiques relatives au procédé de restitution décrit précédemment, qui peuvent être combinées ou prises isolément. Ainsi, les caractéristiques et avantages de ce dispositif sont les mêmes que ceux du procédé de restitution. Par conséquent, ils ne sont pas détaillés plus amplement. Dans encore un autre mode de réalisation, l'invention concerne un ou plusieurs programmes d'ordinateur comportant des instructions pour la mise en oeuvre du procédé de transmission et/ou des instructions pour la mise en oeuvre du procédé de restitution tels que décrits ci-dessus, lorsque ce ou ces programmes sont exécutés par un processeur.According to the invention, such a device comprises: a module for identifying at least one of the tracks from the identification data or data, delivering at least one identified track, a module for restoring the video content implementing simultaneous rendering: of the video component and of at least one of the identified tracks or at least one audio content generated from an external source replacing the identified track or tracks. Such a rendering device (and / or recording) is particularly suitable for implementing the restitution method described above. It is for example integrated in a terminal of a user (TV, computer, mobile phone, tablet, etc.), possibly combined with a set-top box. This device may of course include the various features relating to the restitution method described above, which can be combined or taken separately. Thus, the features and advantages of this device are the same as those of the rendering process. Therefore, they are not detailed further. In yet another embodiment, the invention relates to one or more computer programs comprising instructions for implementing the transmission method and / or instructions for implementing the restitution method as described hereinabove. above, when this or these programs are executed by a processor.

Les procédés selon l'invention peuvent donc être mis en oeuvre de diverses manières, notamment sous forme câblée ou sous forme logicielle. L'invention concerne aussi un support d'informations lisible par un ordinateur, et comportant des instructions d'un programme d'ordinateur tel que mentionné ci-dessus. 4. Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : - la figure 1, présentée en relation avec l'art antérieur, illustre la structure d'un contenu vidéo selon l'art antérieur ; - la figure 2, également présentée en relation avec l'art antérieur, illustre la restitution d'un contenu vidéo selon l'art antérieur ; - la figure 3 présente les principales étapes mises en oeuvre par un procédé de transmission d'un contenu vidéo selon un mode de réalisation de l'invention ; - la figure 4 présente les principales étapes mises en oeuvre par un procédé de restitution d'un contenu vidéo selon un mode de réalisation de l'invention ; - la figure 5 illustre la structure d'un contenu vidéo obtenu en mettant en oeuvre les étapes de la figure 3; - la figure 6 illustre la restitution d'un contenu vidéo obtenue en mettant en oeuvre les étapes de la figure 4; les figures 7A et 7B présentent les champs composant un contenu vidéo selon deux exemples de mise en oeuvre de l'invention ; les figures 8 et 9 illustrent respectivement la structure simplifiée d'un dispositif de transmission et la structure simplifiée d'un dispositif de restitution selon un mode de réalisation particulier de l'invention. 5. Description d'un mode de réalisation de l'invention 5.1 Principe général Le principe général de l'invention repose sur l'identification de pistes associées à des sources audio distinctes au sein d'une ou plusieurs composantes audio et/ou d'une ou plusieurs composantes de sous-titrage d'un contenu vidéo, et sur la transmission de pistes plutôt que sur la transmission d'une composante audio ou de sous-titrage globale, de façon à permettre à un utilisateur de construire une restitution plus personnalisée du contenu vidéo. En particulier, on note que de telles pistes peuvent être identifiées au sein de composantes audio ou de sous-titrage préalablement formées, ou bien être identifiées lors de la formation des composantes audio ou de sous-titrage du contenu vidéo. Les pistes ainsi identifiées peuvent être transmises en maintenant cette séparation en pistes dans le flux vidéo, au lieu d'être regroupées dans une composante globale « indivisible » comme proposé dans l'art antérieur. On présente en relation avec la figure 3 les principales étapes mises en oeuvre par un procédé de transmission d'un contenu vidéo C selon un mode de réalisation particulier de l'invention. On considère qu'un tel contenu vidéo comprend une composante vidéo, une ou plusieurs composantes audio, et éventuellement une ou plusieurs composantes de sous-titrage. On note qu'on entend ici par « composante vidéo » l'ensemble des données contribuant à la restitution des images du contenu vidéo, par « composante audio » l'ensemble des données contribuant à une restitution sonore complète du contenu vidéo, et par « composante de sous-titrage » l'ensemble des données contribuant à une restitution complète de sous-titres du contenu vidéo. L'invention n'est donc pas limitée à l'utilisation de « composantes » telles que définies dans la norme MPEG 2 par exemple.The methods according to the invention can therefore be implemented in various ways, in particular in hard-wired form or in software form. The invention also relates to a computer readable information medium, and comprising instructions of a computer program as mentioned above. 4. List of Figures Other features and advantages of the invention will appear more clearly on reading the following description of a particular embodiment, given as a simple illustrative and non-limiting example, and the accompanying drawings, among which: - Figure 1, presented in connection with the prior art, illustrates the structure of a video content according to the prior art; FIG. 2, also presented in relation with the prior art, illustrates the restitution of a video content according to the prior art; FIG. 3 presents the main steps implemented by a method for transmitting video content according to one embodiment of the invention; FIG. 4 shows the main steps implemented by a method of rendering a video content according to one embodiment of the invention; FIG. 5 illustrates the structure of a video content obtained by implementing the steps of FIG. 3; FIG. 6 illustrates the rendering of a video content obtained by implementing the steps of FIG. 4; FIGS. 7A and 7B show the fields composing a video content according to two examples of implementation of the invention; Figures 8 and 9 respectively illustrate the simplified structure of a transmission device and the simplified structure of a rendering device according to a particular embodiment of the invention. 5. Description of an embodiment of the invention 5.1 General principle The general principle of the invention is based on the identification of tracks associated with different audio sources within one or more audio and / or audio components. one or more components of subtitling of video content, and on the transmission of tracks rather than the transmission of an audio component or global subtitling, so as to allow a user to build a more personalized rendition video content. In particular, it is noted that such tracks can be identified within audio components or subtitling previously formed, or be identified during the formation of audio components or subtitling of video content. The tracks thus identified can be transmitted by maintaining this separation in tracks in the video stream, instead of being grouped in a global component "indivisible" as proposed in the prior art. The main steps implemented by a method for transmitting video content C according to a particular embodiment of the invention are presented in relation with FIG. Such video content is considered to comprise a video component, one or more audio components, and possibly one or more subtitling components. It is noted here that the term "video component" refers to all the data contributing to the restitution of the images of the video content, the "audio component" being the set of data contributing to a complete sound reproduction of the video content, and " subtitling component "all the data contributing to a complete rendering of subtitles of the video content. The invention is therefore not limited to the use of "components" as defined in the MPEG 2 standard for example.

Plus précisément, au cours d'une première étape 31, on identifie dans la ou les composantes audio ou de sous-titrage au moins deux pistes associées chacune à une source audio distincte. On note que ces pistes sont destinées à être restituées simultanément à la composante vidéo sur un terminal d'un utilisateur, notamment si elles sont sélectionnées par un utilisateur.More precisely, during a first step 31, at least two tracks each associated with a distinct audio source are identified in the audio or subtitling component or components. Note that these tracks are intended to be simultaneously rendered to the video component on a terminal of a user, especially if they are selected by a user.

Au cours d'une deuxième étape 32, on affecte à au moins une des pistes au moins une donnée d'identification D_id. Dans un mode de réalisation particulier, on affecte une donnée d'identification à chaque piste. On note que la première ou les deux premières étapes peuvent être mises en oeuvre en studio, lors de la création d'un contenu. Par exemple, on identifie différentes pistes au niveau de la prise de son, correspondant par exemple à un bruit d'ambiance et aux voix des différents acteurs. On affecte ensuite, soit en studio, soit lors de la construction du flux vidéo, des données d'identification aux différentes pistes. On peut donc considérer qu'on affecte un « canal » au bruit d'ambiance, et un « canal » aux voix des acteurs, et que ces deux canaux sont maintenus dans la chaine de diffusion (alors que le bruit d'ambiance et les voix des différents acteurs étaient mixés dans un unique « canal » selon l'art antérieur, formant ainsi un ensemble indivisible). Ces deux premières étapes peuvent également être mises en oeuvre en décomposant une ou plusieurs composantes audio et/ou de sous-titrage préalablement formées. Au cours d'une troisième étape 33, le contenu vidéo dans lequel les composantes audio ou de sous-titrage sont constituées de pistes séparées et la ou les données d'identification sont transmis dans un flux vidéo F, ou stockés sur un support pour une utilisation ultérieure. Les principales étapes mises en oeuvre côté restitution sont illustrées en figure 4. Plus précisément, un procédé de restitution d'un contenu vidéo à partir d'un flux vidéo F construit comme décrit en relation avec la figure 3 met en oeuvre une première étape 41 d'identification d'au moins une des pistes à partir de la ou des données d'identification, délivrant au moins une piste identifiée. Au cours d'une deuxième étape 42, le contenu est restitué, en restituant simultanément soit la composante vidéo et au moins une des pistes identifiées pour être restituées, soit la composante vidéo et au moins un contenu audio généré à partir d'une source externe remplaçant la ou les pistes identifiées pour être remplacées. On rappelle que l'invention peut s'appliquer aux flux vidéo transmis ou diffusés en direct (en anglais « live ») ou aux flux téléchargés. 5.2 Description d'un mode de réalisation particulier On décrit ci-après un mode de réalisation particulier de l'invention, selon lequel le contenu vidéo que l'on souhaite transmettre comprend une composante vidéo et deux composantes audio, l'une correspondant à la composante son français et l'autre à la composante son anglais. En reprenant les étapes de la figure 3, au cours de la première étape 31, on identifie dans les composantes audio son français et son anglais du contenu vidéo au moins deux pistes associées chacune à une source audio distincte.During a second step 32, at least one of the tracks is assigned at least one identification data D_id. In a particular embodiment, an identification data is assigned to each track. Note that the first or the first two steps can be implemented in the studio, when creating content. For example, different tracks are identified at the sound level, corresponding, for example, to ambient noise and the voices of the various actors. Then we assign, either in the studio or during the construction of the video stream, identification data to the different tracks. We can therefore consider that we assign a "channel" to the ambient noise, and a "channel" to the voices of the actors, and that these two channels are maintained in the broadcast channel (while the ambient noise and the voices of the various actors were mixed in a single "channel" according to the prior art, thus forming an indivisible whole). These first two steps can also be implemented by decomposing one or more audio and / or subtitling components previously formed. During a third step 33, the video content in which the audio or subtitle components consist of separate tracks and the identification data or data are transmitted in a video stream F, or stored on a support for a second time. subsequent use. The main steps implemented on the rendering side are illustrated in FIG. 4. More specifically, a method of restoring a video content from a video stream F constructed as described with reference to FIG. 3 implements a first step 41. identifying at least one of the tracks from the identification data or data, delivering at least one identified track. During a second step 42, the content is restored, by simultaneously reproducing either the video component and at least one of the tracks identified to be rendered, or the video component and at least one audio content generated from an external source replacing the identified track (s) to be replaced. It is recalled that the invention can be applied to video streams transmitted or broadcast live (in English "live") or downloaded streams. 5.2 Description of a particular embodiment A particular embodiment of the invention is described below, according to which the video content that it is desired to transmit comprises a video component and two audio components, one corresponding to the French sound component and the other to the English sound component. By repeating the steps of FIG. 3, during the first step 31, the sound components are identified in its French and English video content at least two tracks each associated with a distinct audio source.

Par exemple, en référence à la figure 5 qui représente un contenu vidéo 51, on identifie une première piste 521 correspondant à la voix de l'acteur 1 en son français, une deuxième piste 522 correspondant à la voix de l'acteur 2 en son français, une troisième piste 531 correspondant à la voix de l'acteur 1 en son anglais, une quatrième piste 532 correspondant à la voix de l'acteur 2 en son anglais, et une cinquième piste 541 correspondant au bruit de fond. On note que cette cinquième piste 541 correspondant au bruit de fond est commune aux composantes audio son français et son anglais, si l'on considère que le bruit de fond est invariant selon la langue. Elle n'est donc transmise qu'une seule fois et identifiée comme commune aux composantes audio français et anglais.For example, with reference to FIG. 5, which represents a video content 51, there is identified a first track 521 corresponding to the voice of the actor 1 in its French, a second track 522 corresponding to the voice of the actor 2 in its French, a third track 531 corresponding to the voice of the actor 1 in his English, a fourth track 532 corresponding to the voice of the actor 2 in his English, and a fifth track 541 corresponding to the background noise. Note that this fifth track 541 corresponding to the background noise is common to the sound components French and English sound, if we consider that the background noise is invariant depending on the language. It is thus transmitted only once and identified as common to the French and English audio components.

Il est ainsi possible d'identifier N pistes audio dans une composante audio, avec N un entier supérieur ou égal à 2. Par exemple, la composante audio son français est composée de trois pistes : la première piste 521 correspondant à la voix de l'acteur 1, la deuxième piste 522 correspondant à la voix de l'acteur 2, et la cinquième piste 541 correspondant au bruit de fond. Le contenu vidéo 51 comprend également une composante vidéo 511.It is thus possible to identify N audio tracks in an audio component, with N an integer greater than or equal to 2. For example, the sound component French sound is composed of three tracks: the first track 521 corresponding to the voice of the actor 1, the second track 522 corresponding to the voice of the actor 2, and the fifth track 541 corresponding to the background noise. The video content 51 also includes a video component 511.

En reprenant les étapes de la figure 3, au cours d'une deuxième étape 32, on affecte à au moins une des pistes au moins une donnée d'identification D_id. Par exemple, on affecte une donnée d'identification à chaque piste : voix1FR pour la première piste 521, voix2FR pour la deuxième piste 522, voix1GB pour la troisième piste 531, voix2GB pour la quatrième piste 532 et BF pour la cinquième piste 541.By repeating the steps of FIG. 3, during a second step 32, at least one of the tracks is assigned at least one identification data item D_id. For example, an identification data is assigned to each track: voice1FR for the first track 521, voice2FR for the second track 522, voice1GB for the third track 531, voice2GB for the fourth track 532 and BF for the fifth track 541.

Le contenu vidéo comprenant les pistes et la ou les données d'identification peuvent alors être transmis dans un flux vidéo, ou stockés sur un support pour une utilisation ultérieure. Selon un premier exemple illustré en figure 7A, la partie audio du contenu vidéo est transmise sous la forme de « composantes » telles que définies dans la norme MPEG 2, dans lesquelles on a identifié des pistes. Chaque composante audio est par exemple composée d'un identifiant de composante (IdC1, IdC2, ...), d'une description de la composante (DescrC1, ...), et, pour chaque piste de la composante audio, d'une donnée d'identification de la piste (IdP11, IdP12, ...), d'une description de la piste (DescrP11, DescrP12, ...), et des données audio de la piste (D_P11, D_P12, ...) selon ce mode de réalisation particulier. Ces différents champs pourront bien sûr être multiplexés lors de la transmission.The video content including the tracks and the at least one identification data can then be transmitted in a video stream, or stored on a medium for later use. According to a first example illustrated in FIG. 7A, the audio portion of the video content is transmitted in the form of "components" as defined in the MPEG 2 standard, in which tracks have been identified. Each audio component is for example composed of a component identifier (IdC1, IdC2, ...), a description of the component (DescrC1, ...), and for each track of the audio component, an identification data of the track (IdP11, IdP12, ...), a description of the track (DescrP11, DescrP12, ...), and audio data of the track (D_P11, D_P12, ... ) according to this particular embodiment. These different fields can of course be multiplexed during transmission.

Selon un deuxième exemple illustré en figure 7B, la partie audio du contenu vidéo est directement transmise sous forme de pistes composées chacune d'une donnée d'identification de la piste (IdP1, IdP2, ...), d'une description de la piste (DecrP1, DescrP2,...), et des données audio de la piste (D_P1, D_P2, ...). Il est ainsi possible de transmettre la voix de l'acteur 1 indépendamment de la voix de l'acteur 2, dans une même langue. On s'affranchit donc du niveau « composante » tel que défini dans la norme MPEG 2.According to a second example illustrated in FIG. 7B, the audio part of the video content is directly transmitted in the form of tracks each composed of a piece of track identification data (IdP1, IdP2, ...), a description of the track (DecrP1, DescrP2, ...), and audio data of the track (D_P1, D_P2, ...). It is thus possible to transmit the voice of the actor 1 independently of the voice of the actor 2, in the same language. Thus, the "component" level as defined in the MPEG 2 standard is dispensed with.

Côté restitution illustré en figure 6, un décodeur 61 reçoit le contenu vidéo comprenant les différentes pistes et la ou les données d'identification et décode au moins certaines pistes, destinées à être restituées simultanément à la composante vidéo sur un terminal 62 de l'utilisateur.On the restitution side illustrated in FIG. 6, a decoder 61 receives the video content comprising the different tracks and the identification data or data and decodes at least some tracks, intended to be rendered simultaneously to the video component on a terminal 62 of the user. .

En particulier, si le flux vidéo comprend la composante vidéo 511 et chaque composante audio, où chaque composante audio est composée d'un identifiant de composante, d'une description de la composante, et, pour chaque piste de la composante audio, d'une donnée d'identification de la piste, d'une description de la piste, et des données audio de la piste, l'utilisateur peut sélectionner (611) une ou plusieurs pistes audio à restituer et le décodeur 61 peut décoder uniquement ces pistes. Si le flux vidéo comprend la composante vidéo 511 et les différentes pistes, composées chacune d'une donnée d'identification de la piste, d'une description de la piste, et des données audio de la piste, l'utilisateur peut directement sélectionner (611) la ou les pistes à restituer qui l'intéressent et le décodeur 61 peut décoder uniquement ces pistes.In particular, if the video stream comprises the video component 511 and each audio component, where each audio component is composed of a component identifier, a description of the component, and, for each track of the audio component, an identification data of the track, a description of the track, and audio data of the track, the user can select (611) one or more audio tracks to be rendered and the decoder 61 can decode only these tracks. If the video stream comprises the video component 511 and the different tracks, each composed of a track identification data, a description of the track, and audio data of the track, the user can directly select ( 611) the one or more tracks to be rendered that interest it and the decoder 61 can decode only these tracks.

Par exemple, l'utilisateur peut sélectionner la première piste 521 correspondant à la voix de l'acteur 1 en son français à partir de l'identifiant voix1FR, la quatrième piste 532 correspondant à la voix de l'acteur 2 en son anglais à partir de l'identifiant voix2GB, et la cinquième piste 541 correspondant au bruit de fond à partir de l'identifiant BF. Il est ainsi possible de restituer un contenu audio avec les voix d'origine des acteurs, comme la voix de Sophie Marceau en français et la voix de Pierce Brosnan en anglais dans le film « Le Monde ne suffit pas ». Selon un autre exemple, dit de « karaoké », l'utilisateur peut sélectionner la première piste 521 correspondant à la voix de l'acteur 1 en son français à partir de l'identifiant voix1FR et la cinquième piste 541 correspondant au bruit de fond à partir de l'identifiant BF, et choisir de remplacer la deuxième piste 522 correspond à la voix de l'acteur 2 en français par un contenu audio externe, comme sa propre voix ou celle d'un ami. Pour ce faire, on peut par exemple connecter un microphone, ou n'importe quel équipement équipé d'un microphone (ordinateur, téléphone intelligent, tablette, etc) au décodeur 61 (par exemple un boîtier décodeur ou « set top box ») et « parodier » le texte de l'acteur 2, ou « jouer » le rôle de l'acteur 2. Le contenu audio ainsi généré peut alors être mixé aux autres pistes sélectionnées (première piste 521 correspondant à la voix de l'acteur 1 en son français et cinquième piste 541 correspondant au bruit de fond) et à la composante vidéo 511 pour construire une restitution plus personnalisée du contenu vidéo. Une telle opération peut être effectuée par un mixeur 612 apte à recevoir des données provenant de sources distinctes et à les mixer, et permet de conserver la synchronisation entre le contenu audio externe, les différentes pistes, et la composante vidéo. On cherche donc à restituer un contenu vidéo à partir d'un flux vidéo reçu par un décodeur (en direct ou en différé), et d'une voix externe transmise à ce même décodeur, en sélectionnant un sous-ensemble cohérent d'une composante audio comme la voix d'un personnage (correspondant à une piste) et en le remplaçant par un son comme une voix externe, afin de réaliser un rendu de type karaoké.For example, the user can select the first track 521 corresponding to the voice of the actor 1 in his French from the identifier voice1FR, the fourth track 532 corresponding to the voice of the actor 2 in his English from the voice2GB identifier, and the fifth track 541 corresponding to the background noise from the identifier BF. It is thus possible to reproduce audio content with the original voices of actors, such as the voice of Sophie Marceau in French and the voice of Pierce Brosnan in English in the film "The World is not enough". According to another example, called "karaoke", the user can select the first track 521 corresponding to the voice of the actor 1 in his French from the identifier voice1FR and the fifth track 541 corresponding to the background noise at from the identifier BF, and choosing to replace the second track 522 corresponds to the voice of the actor 2 in French by external audio content, such as his own voice or that of a friend. To do this, it is possible for example to connect a microphone, or any equipment equipped with a microphone (computer, smart phone, tablet, etc.) to the decoder 61 (for example a set-top box or "set top box") and "Parody" the text of the actor 2, or "play" the role of the actor 2. The audio content thus generated can then be mixed with the other selected tracks (first track 521 corresponding to the voice of the actor 1 in its French and fifth track 541 corresponding to background noise) and the video component 511 to build a more personalized rendering of video content. Such an operation can be performed by a mixer 612 able to receive data from different sources and to mix them, and makes it possible to maintain synchronization between the external audio content, the different tracks, and the video component. We therefore seek to render video content from a video stream received by a decoder (live or delayed), and an external voice transmitted to the same decoder, by selecting a coherent subset of a component audio as the voice of a character (corresponding to a track) and replacing it with a sound like an external voice, in order to render a karaoke type.

Dans cet exemple, la piste de sous-titrage associée à la même source audio que la piste audio remplacée (i.e. la piste de sous-titrage transcrivant les paroles de l'acteur 2 en français) peut être automatiquement sélectionnée, afin que l'utilisateur jouant le rôle de l'acteur 2 puisse lire le texte de l'acteur 2. Selon un autre exemple, l'utilisateur peut choisir de remplacer la première piste 521 correspondant à la voix de l'acteur 1 en son français par un premier contenu audio externe, généré par un premier ami, remplacer la deuxième piste 522 correspond à la voix de l'acteur 2 en français par un deuxième contenu audio externe généré par un deuxième ami, et sélectionner uniquement la cinquième piste 541 correspondant au bruit de fond (ou choisir de remplacer cette cinquième piste 541 par un troisième contenu audio externe généré par un troisième ami). Par exemple, trois amis passent la soirée ensemble et cherchent une distraction. Ils allument la télévision et tombent sur le film « Les tontons flingueurs », diffusé en direct et transmis selon le procédé de l'invention. Chacun peut alors choisir la piste associée à un acteur, et remplacer la voix de cet acteur par sa propre voix. En particulier, si un des amis a choisi un rôle féminin (respectivement masculin) alors qu'il est de sexe masculin (respectivement féminin), il est possible de choisir une option « femme » (respectivement « homme ») au niveau de l'interface de sélection et sa voix est modifiée en voix féminine (respectivement masculine) par le mixeur 612. Pour pouvoir activer cette option, on considère que les données d'identification associées aux pistes comprennent des informations précisant la « nature » de la piste, comme une voix aigüe, grave, etc.In this example, the closed caption track associated with the same audio source as the replaced audio track (ie the closed caption track transcribing Actor 2 lyrics into French) can be automatically selected, so that the user playing the role of the actor 2 can read the text of the actor 2. According to another example, the user can choose to replace the first track 521 corresponding to the voice of the actor 1 in his French by a first content external audio, generated by a first friend, replace the second track 522 corresponds to the voice of the actor 2 in French by a second external audio content generated by a second friend, and select only the fifth track 541 corresponding to the background noise ( or choose to replace this fifth track 541 with a third external audio content generated by a third friend). For example, three friends spend the evening together and look for a distraction. They turn on the television and fall on the film "Tontons flingueurs", broadcast live and transmitted according to the method of the invention. Everyone can then choose the track associated with an actor, and replace the voice of this actor by his own voice. In particular, if one of the friends has chosen a female role (respectively male) while it is male (respectively female), it is possible to choose a "woman" option (respectively "man") at the level of the selection interface and its voice is modified in female voice (respectively male) by the mixer 612. To enable this option, it is considered that the identification data associated with the tracks include information specifying the "nature" of the track, as an acute, serious voice, etc.

Il est ainsi possible de décoder uniquement certaines pistes et de les mixer avec un ou plusieurs contenus audio issus d'une ou plusieurs sources externes. En particulier, ces sources peuvent être « locales », i.e. situées au niveau du terminal de restitution et directement connectées au terminal de restitution, ou bien « distantes », i.e. située à un lieu distant du terminal. Il est également possible de combiner les contenus audio issus de sources locales et de sources distantes. Par exemple, nos trois amis précédents sont dans leurs appartements respectifs, et souhaitent regarder un même contenu vidéo. Chacun peut choisir la piste (i.e. la voix) qu'il souhaite interpréter. Le contenu audio généré par chacun des trois amis peut être récupéré par le décodeur respectif de chacun des amis. Chaque décodeur mixe alors les contenus audio des trois amis éventuellement avec d'autres pistes sélectionnées (comme le bruit de fond par exemple) et le restitue avec la composante vidéo sur le terminal de chaque utilisateur. Les contenus audio générés par les trois amis peuvent également être récupérés par une application intermédiaire distante, mise en oeuvre dans un équipement tiers du réseau, qui les mélange éventuellement avec d'autres pistes sélectionnées (comme le bruit de fond par exemple) et le rediffuse avec la composante vidéo à l'ensemble des amis. Selon encore un autre exemple, un opérateur peut diffuser une chaine de jeu/concours qui consiste à masquer la voix de certains personnages dans les vidéos diffusées. Un utilisateur peut alors identifier la ou les pistes correspondant à la voix du ou des personnages à masquer, et remplacer cette piste par sa propre voix. Le contenu vidéo ainsi généré peut être enregistré puis transféré ensuite au site concours, et la meilleure interprétation est déclarée gagnante. En résumé, le choix des différentes pistes peut être effectué en affichant, au niveau du terminal d'au moins un utilisateur, une interface de sélection, permettant de choisir une ou plusieurs pistes, associées à une ou plusieurs composantes audio, destinées à être restituées simultanément à la composante vidéo ou remplacées par un contenu audio externe. Il est également possible de faire apparaître au niveau de cette interface des contenus audio externes que l'on souhaite simplement ajouter en restitution au contenu vidéo initial. On note qu'il n'est pas possible de sélectionner deux pistes associées à la même source audio mais appartenant à des composantes audio différentes : par exemple, il n'est pas possible de sélectionner simultanément la première piste 521 correspondant à la voix de l'acteur 1 en son français et la troisième piste 531 correspondant à la voix de l'acteur 1 en son anglais. Par ailleurs, certaines pistes peuvent être sélectionnées par défaut, comme le bruit de fond. 5.3 Variantes Différentes variantes sont envisageables. En particulier, on a décrit différents exemples ci-dessus relatifs à l'identification d'un ensemble de pistes audio indépendantes d'une ou plusieurs composantes audio. Bien entendu, il est également possible d'identifier un ensemble de pistes de sous-titrage indépendantes d'une ou plusieurs composantes de sous-titrage, afin par exemple d'afficher le texte de l'acteur 1 en français et le texte de l'acteur 2 en anglais, ou d'afficher uniquement le texte de l'acteur 1 si on souhaite remplacer la piste audio associée à l'acteur 1 en français par un contenu audio externe.It is thus possible to decode only certain tracks and to mix them with one or more audio contents coming from one or several external sources. In particular, these sources may be "local", i.e. located at the rendering terminal and directly connected to the rendering terminal, or "remote", i.e. located at a location remote from the terminal. It is also possible to combine audio content from local and remote sources. For example, our three previous friends are in their respective apartments, and wish to watch the same video content. Everyone can choose the track (i.e. the voice) he wants to interpret. The audio content generated by each of the three friends can be retrieved by the respective decoder of each of the friends. Each decoder then mixes the audio contents of the three friends possibly with other selected tracks (such as background noise for example) and renders it with the video component on the terminal of each user. The audio contents generated by the three friends can also be retrieved by a remote intermediate application, implemented in a third party equipment of the network, which mixes them possibly with other selected tracks (like the background noise for example) and the rebroadcast with the video component to all of the friends. According to yet another example, an operator can broadcast a game / contest channel which consists in hiding the voice of certain characters in the broadcasted videos. A user can then identify the track or tracks corresponding to the voice of the character (s) to be masked, and replace this track with his / her own voice. The video content thus generated can be recorded and then transferred to the contest site, and the best interpretation is declared a winner. In summary, the choice of different tracks can be made by displaying, at the terminal of at least one user, a selection interface, for selecting one or more tracks, associated with one or more audio components, to be restored simultaneously with the video component or replaced by external audio content. It is also possible to display at this interface external audio content that you simply want to add in restitution to the original video content. Note that it is not possible to select two tracks associated with the same audio source but belonging to different audio components: for example, it is not possible to simultaneously select the first track 521 corresponding to the voice of the audio. actor 1 in his French and the third track 531 corresponding to the voice of the actor 1 in his English. In addition, some tracks can be selected by default, such as background noise. 5.3 Variants Different variants are possible. In particular, various examples above relating to the identification of a set of audio tracks independent of one or more audio components have been described. Of course, it is also possible to identify a set of closed caption tracks independent of one or more subtitling components, for example to display the text of the actor 1 in French and the text of the subtitles. actor 2 in English, or to display only the text of the actor 1 if one wishes to replace the audio track associated with the actor 1 in French by an external audio content.

Une piste de sous-titrage propre à un seul personnage est donc possible selon l'invention. Il est aussi possible de restituer la voix de l'acteur 1 en français et le sous-titrage associé à l'acteur 1 an anglais, et de restituer la voix de l'acteur 2 en anglais et le sous-titrage de l'acteur 2 en français. Il est ainsi possible de restituer des pistes appartenant à des composantes initiales différentes, ou de mixer différentes langues au niveau audio et/ou sous-titrage.A subtitling track specific to a single character is therefore possible according to the invention. It is also possible to restore the voice of the actor 1 in French and the subtitling associated with the actor 1 year English, and to restore the voice of the actor 2 in English and the subtitling of the actor 2 in French. It is thus possible to render tracks belonging to different initial components, or to mix different languages at audio level and / or subtitling.

Il est également possible d'ajouter, au moment de la restitution du contenu vidéo, un contenu généré par une source externe en complément à ce contenu vidéo restitué, et non uniquement en substitution. Ceci présente notamment un intérêt lorsque le contenu vidéo principal est créé à partir d'une base diffusée (comme l'édition nationale d'un journal télévisé), puis complété par des contenus externes (comme l'édition régionale du journal télévisé). Cette option peut également présenter un intérêt lorsque le contenu vidéo présente un match sportif, que des amis souhaitent commenter. Il est également possible d'ajouter des contenus externes sur d'autres actions que la lecture du flux vidéo, comme l'enregistrement. En effet, classiquement, lors de l'enregistrement au niveau d'un terminal d'un utilisateur d'un flux diffusé en direct, toutes les composantes (vidéo, audio, et éventuellement de sous-titrage) sont enregistrées, hors décodage. Selon l'invention, il est possible d'enregistrer un nouveau contenu généré en ajoutant un contenu généré par une source externe au contenu initial, ou d'enregistrer un nouveau contenu obtenu en remplaçant certaines pistes du contenu initial par un contenu généré par une source externe, voir de supprimer/invalider certaines pistes présentes dans le flux diffusé. Par ailleurs, dans les exemples décrits ci-dessus, on a considéré qu'on affectait une donnée d'identification par piste. On peut donc avoir une seule donnée d'identification par source audio. Dans ce cas, une même donnée d'identification peut être affectée à une piste audio d'une composante audio et une piste de sous-titrage d'une composante de sous-titrage, si elles sont associées à la même source audio (par exemple au même acteur). Dans ce cas, des données supplémentaires peuvent être insérées dans le flux pour indiquer le type de données composant la piste (données audio, données de sous-titrage). On peut également avoir une donnée d'identification par ensemble de source audio. Par exemple, on peut avoir une même donnée d'identification pour tous les acteurs, ou une première donnée d'identification pour toutes les actrices féminines et une deuxième donnée d'identification pour tous les acteurs masculins, etc. En particulier, une donnée d'identification peut être affectée à un groupe d'au moins deux pistes, le groupe étant formé selon un critère prédéterminé de regroupement caractéristique des sources audio associées à ces pistes. En d'autres termes, une même donnée d'identification est dans ce cas affectée à deux pistes associées à deux sources audio distinctes présentant une même caractéristique correspondant au critère de prédéterminé de regroupement. Cet aspect de l'invention permet par exemple de distinguer : un groupe de voix féminines ou un groupe de voix masculines selon un critère prédéterminé correspondant au sexe des sources audio associées auxdites sous-composantes voix du groupe, un groupe de voix d'enfants ou à l'inverse de personnes mûres selon un critère prédéterminé correspondant à l'âge des sources audio associées auxdites sous- composantes voix du groupe, un groupe de voix de cow-boys ou à l'inverse d'indiens selon un critère prédéterminé correspondant à l'appartenance à une tribu des sources audio associées auxdites sous-composantes voix du groupe, - un groupe de sons nocturnes ou à l'inverse diurnes selon un critère prédéterminé correspondant à la luminosité et/ou à la présence du jour dans les images du contenu vidéo, un groupe de sons en intérieur ou à l'inverse extérieur selon un critère prédéterminé de localisation des sources audio, - etc. Ainsi, selon cet aspect de l'invention, il y a moins de données d'identification que de pistes de la composante audio ou de sous-titrage. En effet, il y a par exemple autant de pistes indienl, indien2, indien3... indien N qu'il n'y a d'acteurs (au nombre de N) jouant le rôle d'indiens dans le contenu vidéo de type film, alors que seule une donnée d'identification « indien » est affectée à ces N pistes « indien ». Une telle affectation « partielle » permet de réduire le nombre de données d'identification à transmettre. Selon une autre variante, on peut également mettre en oeuvre une « double étape d'affectation », selon laquelle une donnée d'identification est affectée à chaque piste associée à cette source audio distincte, et une donnée d'identification est affectée à un groupe de pistes dont les sources audio correspondantes sont caractérisées par un même critère de regroupement prédéterminé. Ainsi, l'invention permet entre autres : - lors de la génération et de la transmission de flux, une identification de N pistes dans une composante audio ou de sous-titrage (lors de la formation de la composante ou par décomposition d'une composante existante), constituées par exemple du bruit de fond et des voix de chaque personnage du contenu vidéo, ou d'une transcription textuelle du bruit de fond et des voix de chaque personnage ; - un décodage sélectif en local de pistes choisies par l'usager, parmi toutes les composantes/pistes proposées. L'interface homme-machine du décodeur peut permettre à un utilisateur de choisir la ou les pistes transmises à restituer ou à remplacer par un ou des sons externes associés par exemple à des microphones, en plus (ou au lieu) de choisir la langue dans laquelle le contenu est joué (français, anglais, ...) ou la qualité (stéréo, 5.1, ...) un mixage en temps réel dans le décodeur entre les pistes décodées, issues du contenu vidéo ou de sources externes, pour la restitution d'un même contenu global. Les avantages de la solution proposée sont notamment : une extension des choix audio ou de sous-titrage par l'utilisateur ; une personnalisation du son par des sons extérieurs (issus d'autres sources) ; une possibilité de composition d'un contenu global à partir de sources distantes ; une possibilité de mixer différentes langues suivant les acteurs (panachage de pistes appartenant à des composantes initiales différentes). La solution permet donc à un opérateur d'offrir une nouvelle utilisation interactive et ludique de ces contenus diffusés, en proposant par exemple une option karaoké (éventuellement payante). L'option « karaoké » permet d'ajouter de la valeur aux contenus diffusés, et présente un intérêt à la fois sous forme de jeu mais aussi sous forme d'apprentissage dans l'entraînement à la diction et aux intonations On note qu'un flux transmis selon l'invention peut également être restitué de façon « classique ». L'invention offre ainsi un service supplémentaire, en plus de la restitution classique d'un contenu vidéo. 5.4 Description des dispositifs de transmission et de restitution selon l'invention On présente finalement, en relation avec les figures 8 et 9 respectivement, la structure simplifiée d'un dispositif de transmission mettant en oeuvre une technique de transmission d'un contenu vidéo et la structure d'un dispositif de restitution mettant en oeuvre une technique de restitution d'un contenu vidéo selon un mode de réalisation particulier de l'invention. Comme illustré en figure 8, un tel dispositif de transmission comprend une mémoire 81 comprenant une mémoire tampon, une unité de traitement 82, équipée par exemple d'un microprocesseur ,uP et pilotée par le programme d'ordinateur 83, mettant en oeuvre le procédé de transmission selon l'invention.It is also possible to add, at the time of the return of the video content, content generated by an external source in addition to this rendered video content, and not only in substitution. This is particularly relevant when the main video content is created from a broadcast base (such as the national edition of a newscast), and then supplemented with external content (such as the regional newscast edition). This option may also be of interest when the video content presents a sports match, which friends wish to comment on. It is also possible to add external content to other actions than playing the video stream, such as recording. Indeed, conventionally, when recording at a user's terminal of a stream broadcast live, all components (video, audio, and possibly subtitling) are recorded, out of decoding. According to the invention, it is possible to record new content generated by adding content generated by an external source to the original content, or to record new content obtained by replacing certain tracks of the initial content with content generated by a source external, see to delete / invalidate some tracks present in the stream broadcast. On the other hand, in the examples described above, it has been considered that an identification datum per track was affected. We can therefore have only one identification data per audio source. In this case, the same identification data can be assigned to an audio track of an audio component and a closed caption track of a subtitling component, if they are associated with the same audio source (for example to the same actor). In this case, additional data can be inserted into the stream to indicate the type of data that composes the track (audio data, subtitle data). One can also have an identification data per set of audio source. For example, we can have the same identification data for all actors, or a first identification data for all female actresses and a second identification data for all male actors, etc. In particular, identification data may be assigned to a group of at least two tracks, the group being formed according to a predetermined criterion of grouping characteristic of the audio sources associated with these tracks. In other words, the same identification data is in this case assigned to two tracks associated with two different audio sources having the same characteristic corresponding to the predetermined criterion of grouping. This aspect of the invention makes it possible, for example, to distinguish: a group of female voices or a group of male voices according to a predetermined criterion corresponding to the sex of the audio sources associated with said group voice sub-components, a group of children's voices or unlike mature people according to a predetermined criterion corresponding to the age of the audio sources associated with said group voice subcomponents, a group of cowboy voices or, conversely, Indians according to a predetermined criterion corresponding to the belonging to a tribe of the audio sources associated with said group voice subcomponents, - a group of nocturnal or diurnal sounds according to a predetermined criterion corresponding to the brightness and / or the presence of the day in the images of the group. video content, a group of sounds indoors or outdoors according to a predetermined criterion of location of audio sources, etc. Thus, according to this aspect of the invention, there is less identification data than tracks of the audio component or subtitling. Indeed, there are for example as many tracks indian, indian2, indian3 ... indian N that there are actors (in the number of N) playing the role of indians in the video content of film type , whereas only "Indian" identification data is assigned to these "Indian" N tracks. Such a "partial" assignment makes it possible to reduce the number of identification data to be transmitted. According to another variant, it is also possible to implement a "double assignment step", according to which identification data is assigned to each track associated with this distinct audio source, and identification data is assigned to a group tracks whose corresponding audio sources are characterized by the same predetermined grouping criterion. Thus, the invention makes it possible, inter alia, for: - during the generation and the transmission of flows, an identification of N tracks in an audio or subtitling component (during the formation of the component or by decomposition of a component existing), consisting for example of background noise and voices of each character of the video content, or a textual transcription of the background noise and voices of each character; a selective local decoding of tracks chosen by the user, among all the components / tracks proposed. The human-machine interface of the decoder can allow a user to choose the transmitted track or tracks to be restored or replaced by one or more external sounds associated for example with microphones, in addition to (or instead of) choosing the language in which content is played (French, English, ...) or the quality (stereo, 5.1, ...) a real-time mixing in the decoder between the decoded tracks, from the video content or from external sources, for the restitution of the same global content. The advantages of the proposed solution include: an extension of the audio choices or subtitling by the user; a personalization of the sound by external sounds (from other sources); a possibility of composing global content from remote sources; a possibility to mix different languages according to the actors (mix of tracks belonging to different initial components). The solution therefore allows an operator to offer a new interactive and fun use of these broadcast content, for example by offering a karaoke option (possibly paid). The option "karaoke" allows to add value to the content broadcast, and is of interest both in the form of a game but also in the form of learning in training in diction and intonations. transmitted stream according to the invention can also be restored in a "conventional" manner. The invention thus provides an additional service, in addition to the conventional rendering of video content. 5.4 Description of the transmission and reproduction devices according to the invention Finally, with reference to FIGS. 8 and 9 respectively, the simplified structure of a transmission device implementing a technique for transmitting video content and the structure of a rendering device implementing a technique for rendering a video content according to a particular embodiment of the invention. As illustrated in FIG. 8, such a transmission device comprises a memory 81 comprising a buffer memory, a processing unit 82, equipped for example with a microprocessor, uP and driven by the computer program 83, implementing the method transmission according to the invention.

A l'initialisation, les instructions de code du programme d'ordinateur 83 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement 82. L'unité de traitement 82 reçoit en entrée un contenu vidéo C à diffuser. Le microprocesseur de l'unité de traitement 82 met en oeuvre les étapes du procédé de transmission décrit précédemment, selon les instructions du programme d'ordinateur 83, pour identifier les pistes audio et /ou de sous-titres composant le contenu vidéo et leur affecter des données d'identification, et transmettre un flux vidéo F comprenant les données d'identification et le contenu vidéo. Pour cela, le dispositif de transmission comprend en outre : un module M_Id 84 d'identification d'au moins deux pistes associées chacune à une source audio distincte, lesdites pistes étant destinées à être restituées simultanément à ladite composante vidéo sur un terminal d'un utilisateur, un module M_D_id 85 d'affectation à au moins une des pistes d'au moins une donnée d'identification, et un module M_Tx 86 de transmission du contenu vidéo comprenant les pistes et de la ou des données d'identification dans le flux vidéo F. Ces modules sont pilotés par le microprocesseur de l'unité de traitement 82. Comme illustré en figure 9, un tel dispositif de restitution d'un contenu vidéo comprend quant à lui une mémoire 91 comprenant une mémoire tampon, une unité de traitement 92, équipée par exemple d'un microprocesseur ,uP, et pilotée par le programme d'ordinateur 93, mettant en oeuvre le procédé de restitution d'un contenu vidéo selon l'invention. A l'initialisation, les instructions de code du programme d'ordinateur 93 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement 92. L'unité de traitement 92 reçoit en entrée le flux vidéo F, ainsi qu'une sélection de pistes à restituer/remplacer. Le microprocesseur de l'unité de traitement 92 met en oeuvre les étapes du procédé de restitution décrit précédemment, selon les instructions du programme d'ordinateur 93, pour identifier les différentes pistes et construire une restitution plus personnalisée du contenu vidéo. Pour cela, le dispositif de restitution comprend en outre : un module M_D_id 94 d'identification d'au moins une piste à partir de la ou des données d'identification, délivrant au moins une piste identifiée, et un module M_rest 95 de restitution du contenu vidéo mettant en oeuvre une restitution simultanée : de la composante vidéo et d'au moins une des pistes identifiées ou d'au moins un contenu audio généré à partir d'une source externe remplaçant la ou les pistes identifiées. Ces modules sont pilotés par le microprocesseur de l'unité de traitement 92.At initialization, the code instructions of the computer program 83 are for example loaded into a RAM memory before being executed by the processor of the processing unit 82. The processing unit 82 receives as input a content video C to broadcast. The microprocessor of the processing unit 82 implements the steps of the transmission method described above, according to the instructions of the computer program 83, to identify the audio and / or subtitle tracks composing the video content and assign them identifying data, and transmitting a video stream F comprising the identification data and the video content. For this, the transmission device further comprises: a module M_Id 84 for identifying at least two tracks each associated with a distinct audio source, said tracks being intended to be simultaneously returned to said video component on a terminal of a user, a module M_D_id 85 assigning to at least one of the tracks of at least one identification data, and a module M_Tx 86 for transmitting the video content comprising the tracks and the identification data or data in the stream These modules are controlled by the microprocessor of the processing unit 82. As illustrated in FIG. 9, such a device for rendering a video content comprises a memory 91 comprising a buffer memory, a processing unit 92, equipped for example with a microprocessor, uP, and driven by the computer program 93, implementing the method of rendering a video content according to the invention. At initialization, the code instructions of the computer program 93 are for example loaded into a RAM memory before being executed by the processor of the processing unit 92. The processing unit 92 receives as input the stream F video, as well as a selection of tracks to render / replace. The microprocessor of the processing unit 92 implements the steps of the rendering method described above, according to the instructions of the computer program 93, to identify the different tracks and build a more personalized rendering of the video content. For this, the rendering device further comprises: a module M_D_id 94 identifying at least one track from the identification data or data, delivering at least one identified track, and a module M_rest 95 for restitution of the video content implementing simultaneous rendering: of the video component and at least one of the identified tracks or at least one audio content generated from an external source replacing the identified track or tracks. These modules are driven by the microprocessor of the processing unit 92.

Claims (13)

REVENDICATIONS1. Procédé de transmission d'un contenu vidéo comprenant une composante vidéo et au moins une composante audio ou de sous-titrage, caractérisé en ce qu'il comprend les étapes suivantes : identification (31) dans ladite au moins une composante audio ou de sous-titrage d'au moins deux pistes associées chacune à une source audio distincte, lesdites pistes étant destinées à être restituées simultanément à ladite composante vidéo sur un terminal d'un utilisateur, affectation (32) à au moins une desdites pistes d'au moins une donnée d'identification, transmission (33) dudit contenu vidéo comprenant lesdites au moins deux pistes et de ladite au moins une donnée d'identification dans un flux vidéo.REVENDICATIONS1. A method for transmitting video content comprising a video component and at least one audio or subtitling component, characterized in that it comprises the following steps: identification (31) in said at least one audio or sub-sub component. titling at least two tracks each associated with a distinct audio source, said tracks being intended to be simultaneously rendered to said video component on a terminal of a user, assignment (32) to at least one of said tracks of at least one identification data, transmission (33) of said video content comprising said at least two tracks and said at least one identification data in a video stream. 2. Procédé de transmission d'un contenu vidéo selon la revendication 1, caractérisé en ce qu'au moins une desdites sources audio est visible dans au moins une image dudit contenu vidéo.2. Method for transmitting video content according to claim 1, characterized in that at least one of said audio sources is visible in at least one image of said video content. 3. Procédé de transmission d'un contenu vidéo selon l'une quelconque des revendications 1 et 2, caractérisé en ce que ladite au moins une donnée d'identification identifie au moins une source audio.3. A method of transmitting video content according to any one of claims 1 and 2, characterized in that said at least one identification data identifies at least one audio source. 4. Procédé de transmission d'un contenu vidéo selon l'une quelconque des revendications 1 à 3, caractérisé en ce que la ou lesdites composantes audio ou de sous-titrage correspondent chacune à une langue et/ou une qualité sonore distincte.4. A method of transmitting video content according to any one of claims 1 to 3, characterized in that the one or more audio or subtitling components each correspond to a language and / or a distinct sound quality. 5. Procédé de transmission d'un contenu vidéo selon l'une quelconque des revendications 1 à 4, caractérisé en ce qu'au moins une desdites pistes est définie pour au moins deux desdites composantes audio ou de sous-titrage.5. A method of transmitting video content according to any one of claims 1 to 4, characterized in that at least one of said tracks is defined for at least two of said audio or subtitling components. 6. Flux vidéo comprenant une composante vidéo et au moins une composante audio ou de sous-titrage, au moins une desdites composantes audio ou de sous-titrage comprenant au moins deux pistes associées chacune à une source audio distincte, lesdites pistes étant destinées à être restituées simultanément à ladite composante vidéo sur un terminal d'un utilisateur, caractérisé en ce que ledit flux vidéo comprend également au moins une donnée d'identification affectée à au moins une desdites pistes.6. Video stream comprising a video component and at least one audio or subtitling component, at least one of said audio or subtitle components comprising at least two tracks each associated with a separate audio source, said tracks being intended to be simultaneously rendered to said video component on a terminal of a user, characterized in that said video stream also comprises at least one identification data assigned to at least one of said tracks. 7. Procédé de restitution d'un contenu vidéo à partir d'un flux vidéo comprenant une composante vidéo, au moins une composante audio ou de sous-titrage, au moins une desdites composantes audio ou de sous-titrage comprenant au moins deux pistes associées chacune à une source audio distincte, lesdites pistes étant destinées à être restituées simultanément à ladite composante vidéo sur un terminal d'un utilisateur, et ledit flux comprenant également au moins une donnée d'identification affectée à au moins une desdites pistes,caractérisé en ce que ledit procédé comprend les étapes suivantes : identification (41) d'au moins une desdites pistes à partir de ladite au moins une donnée d'identification, délivrant au moins une piste identifiée, restitution (42) dudit contenu vidéo mettant en oeuvre une restitution simultanée : - de ladite composante vidéo et - d'au moins une desdites pistes identifiées ou d'au moins un contenu audio généré à partir d'une source externe remplaçant ladite au moins une piste identifiée.7. Method for rendering a video content from a video stream comprising a video component, at least one audio or subtitling component, at least one of said audio or subtitling components comprising at least two associated tracks each to a separate audio source, said tracks being intended to be simultaneously rendered to said video component on a user's terminal, and said stream also comprising at least one identification data assigned to at least one of said tracks, characterized in that said method comprises the following steps: identification (41) of at least one of said tracks from said at least one identification data, delivering at least one identified track, restitution (42) of said video content implementing a restitution simultaneous: - of said video component and - of at least one of said identified tracks or of at least one audio content generated from a source this external replacing said at least one track identified. 8. Procédé de restitution d'un contenu vidéo selon la revendication 7, caractérisé en ce que ladite étape de restitution met en oeuvre une étape de mixage dudit au moins un contenu audio généré à partir d'une source externe avec au moins une piste d'une desdites composantes audio ou de sous-titrage, distincte de ladite au moins une piste identifiée.8. Process for rendering a video content according to claim 7, characterized in that said restitution step implements a step of mixing said at least one audio content generated from an external source with at least one audio track. one of said audio or subtitle components, separate from said at least one identified track. 9. Procédé de restitution d'un contenu vidéo selon l'une quelconque des revendication 7 et 8, caractérisé en ce que ladite étape de restitution met en oeuvre une étape de mixage d'au moins une piste correspondant à une langue prédéterminée avec au moins une piste correspondant à une langue distincte.9. A method of restoring a video content according to any one of claims 7 and 8, characterized in that said restitution step implements a step of mixing at least one track corresponding to a predetermined language with at least a track corresponding to a separate language. 10. Procédé de restitution d'un contenu vidéo selon l'une quelconque des revendication 7 à 9, caractérisé en ce qu'il comprend une étape préalable de réception dudit contenu audio généré à partir d'une source externe, lorsque ladite source externe est située à un lieu distant dudit terminal.10. Method for rendering a video content according to any one of claims 7 to 9, characterized in that it comprises a prior step of receiving said audio content generated from an external source, when said external source is located at a location remote from said terminal. 11. Dispositif de transmission d'un contenu vidéo comprenant une composante vidéo et au moins une composante audio ou de sous-titrage, caractérisé en ce qu'il comprend : un module d'identification (84), dans ladite au moins une composante audio ou de sous-titrage, d'au moins deux pistes associées chacune à une source audio distincte, lesdites pistes étant destinées à être restituées simultanément à ladite composante vidéo sur un terminal d'un utilisateur, un module d'affectation (85) à au moins une desdites pistes d'au moins une donnée d'identification, un module de transmission (86) dudit contenu vidéo comprenant lesdites au moins deux pistes et de ladite au moins une donnée d'identification dans un flux vidéo.11. Device for transmitting a video content comprising a video component and at least one audio or subtitling component, characterized in that it comprises: an identification module (84), in said at least one audio component or subtitling, at least two tracks each associated with a separate audio source, said tracks being intended to be simultaneously rendered to said video component on a terminal of a user, an assignment module (85) to at least one of said tracks of at least one identification data, a transmission module (86) of said video content comprising said at least two tracks and said at least one identification data in a video stream. 12. Dispositif de restitution d'un contenu vidéo à partir d'un flux vidéo comprenant une composante vidéo, au moins une composante audio ou de sous-titrage, au moins une desdites composantes audio ou de sous-titrage comprenant au moins deux pistes associées chacune à une source audio distincte, lesdites pistes étant destinées à être restituées simultanément à ladite composante vidéo sur un terminal d'un utilisateur, et ledit flux comprenant également au moinsune donnée d'identification affectée à au moins une desdites pistes, caractérisé en ce que ledit dispositif comprend : - un module d'identification (94) d'au moins une desdites pistes à partir de ladite au moins une donnée d'identification, délivrant au moins une piste identifiée, un module de restitution (95) dudit contenu vidéo mettant en oeuvre une restitution simultanée : de ladite composante vidéo et d'au moins une desdites pistes identifiées ou d'au moins un contenu audio généré à partir d'une source externe remplaçant ladite au moins une piste identifiée.12. Device for rendering a video content from a video stream comprising a video component, at least one audio or subtitling component, at least one of said audio or subtitling components comprising at least two associated tracks each to a separate audio source, said tracks being intended to be simultaneously rendered to said video component on a user's terminal, and said stream also comprising at least one identification data assigned to at least one of said tracks, characterized in that said device comprises: an identification module (94) of at least one of said tracks from said at least one identification data, delivering at least one identified track, a rendering module (95) of said video content setting simultaneous rendering of: said video component and at least one of said identified tracks or at least one audio content generated from a external source replacing said at least one identified track. 13. Programme d'ordinateur comportant des instructions pour la mise en oeuvre d'un procédé selon la revendication 1 ou selon la revendication 7 lorsque ledit programme est exécuté par un processeur.Computer program comprising instructions for carrying out a method according to claim 1 or claim 7 when said program is executed by a processor.
FR1352883A 2013-03-29 2013-03-29 METHOD AND DEVICE FOR TRANSMITTING VIDEO CONTENT, METHOD AND DEVICE FOR RESTITUTING VIDEO CONTENT, VIDEO FLOW AND CORRESPONDING COMPUTER PROGRAM. Withdrawn FR3004052A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1352883A FR3004052A1 (en) 2013-03-29 2013-03-29 METHOD AND DEVICE FOR TRANSMITTING VIDEO CONTENT, METHOD AND DEVICE FOR RESTITUTING VIDEO CONTENT, VIDEO FLOW AND CORRESPONDING COMPUTER PROGRAM.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1352883A FR3004052A1 (en) 2013-03-29 2013-03-29 METHOD AND DEVICE FOR TRANSMITTING VIDEO CONTENT, METHOD AND DEVICE FOR RESTITUTING VIDEO CONTENT, VIDEO FLOW AND CORRESPONDING COMPUTER PROGRAM.

Publications (1)

Publication Number Publication Date
FR3004052A1 true FR3004052A1 (en) 2014-10-03

Family

ID=48901100

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1352883A Withdrawn FR3004052A1 (en) 2013-03-29 2013-03-29 METHOD AND DEVICE FOR TRANSMITTING VIDEO CONTENT, METHOD AND DEVICE FOR RESTITUTING VIDEO CONTENT, VIDEO FLOW AND CORRESPONDING COMPUTER PROGRAM.

Country Status (1)

Country Link
FR (1) FR3004052A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113660537A (en) * 2021-09-28 2021-11-16 北京七维视觉科技有限公司 Subtitle generating method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1416728A1 (en) * 2002-11-04 2004-05-06 Samsung Electronics Co., Ltd. Language selection in digital broadcasting receiver
US20040120695A1 (en) * 2002-12-09 2004-06-24 Yasufumi Tsumagari Information playback apparatus and information playback method
WO2004098180A1 (en) * 2003-04-30 2004-11-11 Koninklijke Philips Electronics N.V. Video language filtering based on user profile
US20090079833A1 (en) * 2007-09-24 2009-03-26 International Business Machines Corporation Technique for allowing the modification of the audio characteristics of items appearing in an interactive video using rfid tags
US20110020774A1 (en) * 2009-07-24 2011-01-27 Echostar Technologies L.L.C. Systems and methods for facilitating foreign language instruction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1416728A1 (en) * 2002-11-04 2004-05-06 Samsung Electronics Co., Ltd. Language selection in digital broadcasting receiver
US20040120695A1 (en) * 2002-12-09 2004-06-24 Yasufumi Tsumagari Information playback apparatus and information playback method
WO2004098180A1 (en) * 2003-04-30 2004-11-11 Koninklijke Philips Electronics N.V. Video language filtering based on user profile
US20090079833A1 (en) * 2007-09-24 2009-03-26 International Business Machines Corporation Technique for allowing the modification of the audio characteristics of items appearing in an interactive video using rfid tags
US20110020774A1 (en) * 2009-07-24 2011-01-27 Echostar Technologies L.L.C. Systems and methods for facilitating foreign language instruction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113660537A (en) * 2021-09-28 2021-11-16 北京七维视觉科技有限公司 Subtitle generating method and device

Similar Documents

Publication Publication Date Title
US20230344960A1 (en) System and methods providing supplemental content to internet-enabled devices synchronized with rendering of original content
McHugh How podcasting is changing the audio storytelling genre
Richardson et al. Worlds in common?: television discourse in a changing Europe
Butler Television: Critical methods and applications
Kerins Beyond Dolby (stereo): Cinema in the digital sound age
CN108401192A (en) Video stream processing method, device, computer equipment and storage medium
Szarkowska et al. Text-to-speech audio description of voiced-over films. A case study of audio described Volver in Polish
JP2022106944A (en) Method and device for efficiently distributing and using audio message for high quality experience
JP2011182109A (en) Content playback device
Agulló et al. Making interaction with virtual reality accessible: rendering and guiding methods for subtitles
QUEEN Working with performed language: Movies, television, and music
EP1457048A2 (en) Control broadcast programme signal, control write and read systems, related production and broadcasting channel
Uricchio The recurrent, the recombinatory and the ephemeral
Kasuya et al. LiVRation: Remote VR live platform with interactive 3D audio-visual service
Gómez et al. ImmersiaTV: enabling customizable and immersive multi-screen TV experiences
JP6948934B2 (en) Content processing systems, terminals, and programs
Roe The evolution of animated documentary
FR3004052A1 (en) METHOD AND DEVICE FOR TRANSMITTING VIDEO CONTENT, METHOD AND DEVICE FOR RESTITUTING VIDEO CONTENT, VIDEO FLOW AND CORRESPONDING COMPUTER PROGRAM.
US8843961B2 (en) Multiple resolution audio and video systems, methods of production, delivery and uses thereof
Antonini And the Oscar goes to…: a study of the simultaneous interpretation of humour at the Academy Awards Ceremony
Orero Audio description personalisation
Lugmayr et al. E= MC2+ 1: a fully digital, collaborative, high-definition (HD) production from scene to screen
Draucker Participation as a tool for interactional work on twitter: A sociolinguistic approach to social media'engagement'
Schreer et al. Media production, delivery and interaction for platform independent systems: format-agnostic media
US11381628B1 (en) Browser-based video production

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20141128