FR3094165A1 - Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal - Google Patents

Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal Download PDF

Info

Publication number
FR3094165A1
FR3094165A1 FR1902842A FR1902842A FR3094165A1 FR 3094165 A1 FR3094165 A1 FR 3094165A1 FR 1902842 A FR1902842 A FR 1902842A FR 1902842 A FR1902842 A FR 1902842A FR 3094165 A1 FR3094165 A1 FR 3094165A1
Authority
FR
France
Prior art keywords
sequence
content
stream
personalization
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1902842A
Other languages
English (en)
Other versions
FR3094165B1 (fr
Inventor
Franz CANTARANO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Technologies GmbH
Original Assignee
Continental Automotive France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive France SAS filed Critical Continental Automotive France SAS
Priority to FR1902842A priority Critical patent/FR3094165B1/fr
Priority to PCT/EP2020/057823 priority patent/WO2020188097A1/fr
Publication of FR3094165A1 publication Critical patent/FR3094165A1/fr
Application granted granted Critical
Publication of FR3094165B1 publication Critical patent/FR3094165B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/10Arrangements for replacing or switching information during the broadcast or the distribution
    • H04H20/106Receiver-side switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/40Arrangements for broadcast specially adapted for accumulation-type receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • H04N21/2146Specialised server platform, e.g. server located in an airplane, hotel, hospital located in mass transportation means, e.g. aircraft, train or bus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4398Processing of audio elementary streams involving reformatting operations of audio signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/055Time compression or expansion for synchronising with other signals, e.g. video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/38Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
    • H04H60/40Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast time

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

L’invention concerne un procédé de synchronisation d’au moins un contenu audio de personnalisation avec un flux audio principal en cours de diffusion, le flux audio principal comportant une pluralité de séquences consécutives, le procédé étant tel qu’il comprend des étapes d’obtention d’une description du flux audio principal, comprenant au moins pour chaque séquence composant le flux principal, une indication temporelle de début de restitution de ladite séquence, de sélection d’au moins une séquence du flux principal selon au moins une durée et une priorité associées au contenu de personnalisation, d’adaptation du contenu de personnalisation selon une caractéristique de la au moins une séquence sélectionnée, de synchronisation du contenu de personnalisation adapté avec la au moins une séquence sélectionnée, et de transmission du contenu de personnalisation adapté et synchronisé vers au moins un terminal de restitution. Figure 2.

Description

Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal
L’invention appartient au domaine de la diffusion radiophonique. Elle concerne en particulier un procédé permettant de déterminer un instant optimal auquel restituer un contenu audio de personnalisation, tel qu’un bulletin d’info-trafic, lors de l’écoute d’un flux audio radiophonique.
Le développement d’internet et des objets connectés s’accompagne d’une diversité de nouveaux services offerts aux utilisateurs. En particulier, les services d’information et d’assistance connaissent un fort développement, et notamment les services d’information et d’assistance contextuels. On connait par exemple des assistants vocaux permettant aux utilisateurs de recevoir de l’information contextuelle, comme par exemple un bulletin météo géolocalisé, ou encore des systèmes de navigation connectés permettant au conducteur d’un véhicule de recevoir des informations relatives aux conditions de circulation. Dans le but d’améliorer l’expérience utilisateur, et pour ne pas détourner l’utilisateur d’une tâche qu’il est en train d’effectuer, de tels services communiquent avec l’utilisateur via un canal audio, par exemple par synthèse vocale.
De manière classique, lorsqu’un flux audio est déjà en cours de diffusion et qu’une information contextuelle doit être délivrée, le système interrompt la lecture du flux audio, restitue le message d’information, puis rétablit la lecture du flux. De tels systèmes sont par exemple mis en œuvre dans les véhicules pour donner des informations de guidage ou délivrer des bulletins d’info-trafic, ou dans les enceintes connectées dotées d’une fonction d’assistance vocale. L’interruption peut consister en une baisse du volume du flux principal, l’arrêt de sa restitution, ou bien sa suspension suivie d’une reprise différée. Le message est ainsi délivré au moment où il est disponible, sans tenir compte de la programmation du flux principal. L’interruption soudaine du flux principal pour restituer un tel message peut être désagréable, notamment par ce qu’elle prive arbitrairement l’utilisateur d’une partie de l’information en cours de diffusion sur le flux principal, mais aussi parce qu’elle dénature le flux en cours de diffusion. L’expérience utilisateur n’est donc pas optimale.
Ainsi, il existe un besoin pour une technique de restitution d’un contenu personnalisé qui ne présente pas les inconvénients précités.
A cet effet, il est proposé un procédé de synchronisation d’au moins un contenu audio de personnalisation avec un flux audio principal en cours de diffusion, le flux audio principal comportant une pluralité de séquences consécutives.
Le procédé est remarquable en ce qu’il est mis en œuvre par un dispositif comprenant une mémoire et un processeur configuré par des instructions stockées dans la mémoire et adaptées pour :
  • Obtenir une description du flux audio principal, comprenant au moins pour chaque séquence composant le flux principal, une indication temporelle de début de restitution de ladite séquence,
  • Sélectionner au moins une séquence du flux principal selon au moins une durée et une priorité associées au contenu de personnalisation à restituer,
  • Adapter le contenu de personnalisation selon une caractéristique de la au moins une séquence sélectionnée,
  • Synchroniser le contenu de personnalisation adapté avec la au moins une séquence sélectionnée, et
  • Transmettre le contenu de personnalisation adapté et synchronisé vers au moins un terminal de restitution.
On entend par synchronisation d’un contenu de personnalisation avec un flux audio principal le fait de faire correspondre un instant de restitution du contenu de personnalisation avec un instant particulier du flux audio principal. Il s’agit en particulier d’associer au contenu de personnalisation une indication temporelle de restitution basée sur une référence temporelle issue du flux principal.
L’invention repose sur l’identification d’une séquence particulière dans le flux principal qui puisse être substituée par le contenu de personnalisation sans que l’expérience utilisateur n’en soit affectée. Pour cela, la séquence est identifiée à partir de caractéristiques du contenu de personnalisation, notamment à partir de sa durée et de son importance.
Une telle disposition améliore l’expérience utilisateur, car le contenu personnalisé est restitué en accord avec la structure du flux principal. Ainsi, la restitution d’un contenu personnalisé n’interrompt pas le flux en cours de restitution de façon arbitraire. Au contraire, le contenu est adapté et synchronisé avec le flux principal de façon à être restitué à un emplacement favorable dans le flux principal.
Parce qu’il est peu probable qu’une séquence de durée exactement égale à la durée du contenu de personnalisation soit trouvée dans le flux principal, le procédé met en œuvre une étape d’adaptation du contenu de personnalisation, de façon à ce que sa durée coïncide avec la durée d’une séquence identifiée dans le flux principal.
Selon un mode de réalisation particulier, au moins une séquence sélectionnée dans le flux principal est sélectionnée parmi une pluralité de séquences consécutives du flux principal comprises dans une fenêtre temporelle particulière.
Le contenu personnalisé est synchronisé avec une séquence du flux principal sélectionnée dans une fenêtre temporelle prédéterminée à compter d’un instant de diffusion courant. Une telle disposition garantie que le contenu de personnalisation sera restitué dans un délai maîtrisé, et que sa restitution ne sera pas exagérément différée.
Selon un mode particulier de réalisation, le procédé est tel que la fenêtre temporelle est déterminée selon une priorité associée au contenu de personnalisation.
Plus la fenêtre temporelle dans laquelle est recherchée une séquence est grande, plus la probabilité de trouver une séquence dont la durée correspond au contenu de personnalisation est importante. Ainsi, le procédé permet d’augmenter la durée de la fenêtre temporelle de recherche lorsqu’une priorité associée au contenu de personnalisation est faible. Une telle disposition contribue à améliorer la qualité du flux restitué, en augmentant la probabilité de trouver une séquence de durée compatible avec la durée du contenu de personnalisation. A l’inverse, la durée de la fenêtre temporelle de recherche sera réduite lorsque le contenu de personnalisation a un caractère prioritaire, de façon à ce qu’il soit restitué sans tarder.
Selon une réalisation particulière, le procédé est tel que l’étape de sélection d’au moins une séquence du flux principal comprend :
  • Pour chaque séquence du flux principal comprise dans la fenêtre temporelle, calcul d’une différence entre la durée de la séquence considérée et la durée du contenu de personnalisation,
  • Sélection de la séquence du flux principal pour laquelle la différence calculée est la plus faible.
L’adaptation étant susceptible d’altérer la qualité du contenu de personnalisation, le procédé propose de synchroniser le contenu personnalisé avec une séquence du flux principal sélectionnée de façon à minimiser l’écart de durée entre la séquence sélectionnée et le contenu de personnalisation. Une différence de durée minimale permet de faciliter l’étape d’adaptation.
Selon un mode de réalisation particulier, le procédé est tel que l’adaptation temporelle est réalisée selon une technique de « time stretching », bien connue de l’homme de l’art.
Le time stretching permet de modifier la durée d’une séquence audio sans en altérer le timbre ou la tonalité. Ainsi, en adaptant le contenu de personnalisation de cette manière, il est possible de faire coïncider parfaitement un contenu de personnalisation avec une séquence particulière du flux principal. Le procédé peut par exemple permettre de restituer un contenu de personnalisation de durée supérieure à séquence identifiée dans le flux principal sans la tronquer. A l’inverse, lorsque le contenu de personnalisation est de durée inférieure à une séquence identifiée dans le flux principal, le procédé permet de faire coïncider le début et la fin du contenu de personnalisation avec le début et la fin de la séquence, mais aussi la fin. L’expérience utilisateur est ainsi améliorée.
Selon un mode particulier de réalisation, une séquence additionnelle est définie par combinaison d’au moins deux séquences consécutives du flux principal.
Ainsi, au moins deux séquences consécutives du flux principal peuvent être considérées comme une unique séquence additionnelle composite dont la durée correspond au cumul des durées des séquences combinées. Le nombre et les caractéristiques des séquences susceptibles d’être sélectionnées dans le flux principal pour synchroniser un contenu personnalisé particulier est ainsi augmenté.
De cette façon, lorsque la durée du contenu de personnalisation est nettement supérieure à la durée de la séquence du flux principal la plus longue dans la fenêtre temporelle considérée, il est proposé de rechercher dans la fenêtre temporelle une combinaison de séquences consécutives dont la durée cumulée s’approche le plus de la durée du contenu de personnalisation. Une telle disposition permet d’éviter d’avoir à adapter de manière trop important le contenu de personnalisation, ce qui conduirait à une restitution de qualité médiocre.
Selon un mode particulier de réalisation, une séquence additionnelle est définie entre une première et une deuxième séquences consécutives du flux principal, la séquence additionnelle comprenant au moins la fin de la première séquence et le début de la deuxième séquence.
Le procédé défini ainsi une séquence « virtuelle » additionnelle entre deux séquences consécutives du flux principal décrites dans le descripteur. Une telle séquence additionnelle s’étale sur la fin d‘une séquence et le début d’une séquence consécutive à la première séquence. Le procédé permet ainsi d’insérer un contenu de personnalisation de courte durée entre deux séquences du flux principal.
Selon un autre aspect, l’invention concerne un dispositif de synchronisation d’au moins un contenu de personnalisation avec un flux audio principal en cours de diffusion, le flux audio principal comportant une pluralité de séquences juxtaposées, le dispositif comprenant:
  • Un module de communication adapté pour obtenir une description du flux audio principal, comprenant au moins pour chaque séquence composant le flux principal, une indication temporelle de début de restitution de ladite séquence,
  • Un module de sélection, adapté pour sélectionner au moins une séquence du flux principal selon au moins une durée et une priorité associées au contenu de personnalisation,
  • Un module d’adaptation du contenu de personnalisation selon la au moins une séquence sélectionnée,
  • Un module de synchronisation du contenu de personnalisation adapté et synchronisé avec la au moins une séquence sélectionnée, et
  • Un module de communication configuré pour transmettre le contenu de personnalisation synchronisé vers au moins un dispositif de restitution.
L’invention concerne aussi un serveur comprenant un dispositif de synchronisation tel que décrit ci-avant.
L’invention concerne encore un terminal de restitution comprenant un tel dispositif de synchronisation.
Selon encore un autre aspect, l’invention concerne un support d’information comportant des instructions de programme d’ordinateur configurées pour mettre en œuvre les étapes d’un procédé de synchronisation tel que décrit précédemment, lorsque les instructions sont exécutées par un processeur.
Le support d'information peut être un support d'information non transitoire tel qu'un disque dur, une mémoire flash, ou un disque optique par exemple.
Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker des instructions. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, RAM, PROM, EPROM, un CD ROM ou encore un moyen d'enregistrement magnétique, par exemple un disque dur.
D'autre part, le support d'informations peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens.
Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Les différents modes ou caractéristiques de réalisation précités peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, aux étapes du procédé de synchronisation. Les serveurs, terminaux et dispositifs présentent au moins des avantages analogues à ceux conférés par le procédé auquel ils se rapportent.
La figure 1 représente une architecture adaptée pour mettre en œuvre le procédé de synchronisation selon un mode de réalisation particulier.
La figure 2 illustre les principales étapes du procédé de synchronisation selon une réalisation particulière,
La figure 3 illustre un flux audio et un descripteur des séquences composant le flux audio, selon un mode particulier de réalisation, et
La figure 4 représente de manière schématique un dispositif adapté pour mettre en œuvre le procédé de synchronisation selon une réalisation particulière.
Description détaillée de l’invention
La figure 1 représente un serveur de diffusion 100 dans un réseau de communication 101. Le serveur 100 diffuse un flux audio 102 à destination d’au moins un dispositif de restitution audio 103. Le serveur est par exemple un serveur de radio diffusant un programme radiophonique prédéfini. Le dispositif de restitution est par exemple un récepteur radio d’un véhicule, une enceinte connectée ou encore un terminal mobile de type smartphone.
La figure montre aussi un serveur 104 d’un réseau de communication 105. Le serveur 104 est adapté pour générer des contenus audio personnalisés à destination de l’utilisateur du récepteur 103. Par exemple, le serveur 104 peut produire des contenus audio 106 et 107 comprenant par exemple des informations d’info-trafic, un bulletin météo ou tout sorte d’information contextuelle ou non. Les contenus audio 106 et 107 sont des séquences audio personnalisées destinées à être restituées à l’utilisateur du récepteur 103.
La figure 1 représente également un dispositif 110 de synchronisation. Le dispositif 110 met en œuvre le procédé de synchronisation selon un mode de réalisation particulier pour produire des contenus adaptées 106’ et 107’ à partir des contenus personnalisées 106 et 107 et les synchroniser avec le flux principal 102 selon au moins une caractéristique du flux principal 102 et/ou au moins une caractéristique respective des contenus de personnalisations 106 et 107.
Sur la figure 1, les réseaux 101 et 105 sont distincts, mais ils peuvent être un seul et même réseau sans que l’invention nécessite d’être modifiée. De même, selon une réalisation particulière, les serveurs 100 et 104 peuvent être un seul et même serveur.
Un mode particulier de réalisation du procédé de synchronisation va maintenant être décrit en référence à la figure 2.
Le récepteur 103 reçoit le flux audio principal 102 diffusé par le serveur 100. Pour cela, le récepteur comprend une interface de communication lui permettant d’échanger des messages avec d’autres équipements, et en particulier de recevoir un flux audio diffusé par un serveur. Cette interface de communication est par exemple une interface de communication 3G, 4G ou 5G, ou une interface WiFi ou WiMax, mais il peut également s’agir d’un récepteur radio FM adapté pour recevoir un flux audio analogique, ou bien encore d’un récepteur RNT (Radio Numérique Terrestre). Selon un mode particulier de réalisation, le flux audio principal est un flux audio numérique compressé selon un format de codage approprié et diffusé par le serveur selon une technique de téléchargement continu (« streaming » en anglais).
Le flux audio principal 102 est composé d’une pluralité de séquences audio juxtaposées correspondant par exemple à parties musicales, des spots publicitaires, des séquences d’habillage sonores ou encore des bulletins d’informations. Ainsi, tous les récepteurs connectés à ce flux reçoivent la même succession de séquences audio, selon une programmation radiophonique prédéterminée.
Le dispositif 110 reçoit, lors d’une étape 200, une description 108 du flux principal 102. Pour cela, le dispositif 110 comprend une interface de communication lui permettant d’échanger des messages avec d’autres équipements, et en particulier de recevoir la description 108 du flux principal 102 diffusé par le serveur 100. Cette interface de communication est par exemple une interface de communication 3G, 4G ou 5G, ou une interface WiFi ou WiMax, mais il peut également s’agir d’une interface de communication filaire, comme par exemple une interface réseau Ethernet ou tout autre moyen de communication adapté. En variante, lorsque les serveurs 100 et 104 et le dispositif 110 sont compris dans une même entité, l’interface peut être un bus de communication local ou un gestionnaire de mémoire partagée.
La description 108 comprend notamment des indications temporelles relatives aux différentes séquences composant le flux principal. Par exemple, la description comprend une estampille temporelle de début de chacune des séquences composant le flux, et/ou la durée de chacune des séquences. Les estampilles temporelles sont relatives à une date de référence comme la date de restitution de la première séquence du flux ou tout autre date souhaitable. Selon une réalisation particulière, la description est transmise sous la forme d’un fichier XML comportant au moins des estampilles temporelles correspondant aux instants de diffusion des différentes séquences du flux principal. Il s’agit par exemple d’une liste de lecture, telle qu’une « playlist », ou un guide de programme électronique (EPG, pour Electronic Program Guide). Un exemple de descripteur est représenté sur la figure 3.
La figure 3 représente un exemple 108 de descripteur du flux audio 102. Le flux audio 102 est composé de séquences de différentes durées 301 à 308 juxtaposées. Le descripteur 108 comprend, pour chaque séquence du flux audio 102, une estampille temporelle TS correspondant à l’emplacement de la séquence dans le flux principal et une durée LEN en minutes de la séquence. Les séquences du flux principal sont listées dans le descripteur dans l’ordre de leur diffusion. En pratique, la composition d’un flux peut être déduite à partir de la durée et de l’ordre des séquences composant le flux audio. L’ordre de diffusion des séquences peut être déduit à partir des estampilles temporelles TS, ou à partir de l’ordre dans lequel les séquences sont listées dans le descripteur. La durée d’une séquence peut être donnée dans n’importe quel format souhaitable, comme par exemple en minutes, en secondes, ou encore en nombre d’échantillon audio composant la séquence.
Lors d’une étape 201, le dispositif 110 reçoit des contenus personnalisés 106 et 107 en provenance du serveur 104. Les contenus 106 et 107 sont par exemple des bulletins d’info-trafic personnalisés destinés à l’utilisateur du récepteur 103 et encodés selon un format de codage adapté. Les contenus 106 et 107 reçus peuvent être temporairement enregistrés dans une mémoire tampon du dispositif 110 en attendant d’être traités, par exemple dans une mémoire RAM ou un disque dur.
Lors d’une étape 202, le dispositif 110 analyse les contenus personnalisés 106 et 107 pour sélectionner, selon un critère de sélection particulier, au moins une séquence du flux 102 comprise dans une fenêtre temporelle particulière.
Selon un mode de réalisation particulier, le dispositif sélectionne un contenu personnalisé à traiter parmi les contenus 106 et 107 mémorisés dans la mémoire tampon selon la durée et une priorité associée à chaque contenu personnalisé. Dans le présent exemple, on considère que le contenu personnalisé 107 est associé à une priorité plus haute que le contenu personnalisé 106. Ainsi, le dispositif 110 traite en premier lieu le contenu personnalisé 107.
Pour cela, selon un mode de réalisation particulier, le dispositif 110 détermine la durée du contenu personnalisé 107 et recherche dans le flux 102 un emplacement optimal pour ce contenu 107. Le dispositif consulte l’entête du contenu audio 107 téléchargé pour en extraire sa durée. A partir du descripteur 108, le dispositif 110 compare, sur une fenêtre temporelle de recherche prédéterminée, la durée du contenu personnalisé 107 avec la durée de chaque séquence du flux principal 102 devant être jouée pendant la fenêtre temporelle. Par exemple, lorsque la fenêtre temporelle est fixée à dix minutes, le dispositif 110 compare la durée du contenu personnalisé avec la durée des séquences composant le flux principal devant être jouées dans les dix minutes qui suivent la réception du contenu de personnalisation 107.
Selon un mode particulier de réalisation, la durée de la fenêtre temporelle est déterminée selon une priorité associée à un contenu personnalisé. Une telle priorité correspond par exemple à un niveau d’importance du contenu. Le dispositif 110 obtient la priorité d’un contenu auprès du serveur 104, ou à partir d’un entête spécifique compris dans la séquence 107. Ainsi, plus le contenu de personnalisation est jugé important, c’est-à-dire plus sa priorité est élevée, plus la fenêtre temporelle dans laquelle est recherché une séquence est réduite. A l’inverse, lorsque le contenu personnalisé est de moindre importance, la fenêtre temporelle de recherche est allongée, permettant ainsi de différer la restitution pour assurer une meilleure intégration du contenu dans le flux 102. Bien entendu, ces fenêtres temporelles peuvent être décalées dans le temps afin de restituer les contenus de personnalisation correspondants sur des plages temporelles désirées, qui peuvent être différentes.
Selon un mode particulier, le dispositif 110 sélectionne la séquence du flux principal 102 pour laquelle la différence de durée calculée en valeur absolue, est la plus faible. Autrement dit, le dispositif 110 sélectionne, sur une fenêtre temporelle déterminée, la séquence du flux principal 102 dont la durée est la plus proche de la durée du contenu de personnalisation 107.
Lorsqu’une séquence du flux 102 est sélectionnée selon le contenu de personnalisation 107, le dispositif 110 sélectionne au moins une nouvelle séquence du flux principal 102 selon le deuxième contenu de personnalisation 106. La deuxième séquence du flux principal est sélectionnée dans une fenêtre temporelle de recherche associée au contenu de personnalisation 106, la deuxième séquence du flux principal étant distincte de la séquence déjà sélectionnée pour le contenu de personnalisation 107.
Lors d’une étape 203, le récepteur procède à une adaptation temporelle des contenus de personnalisation 106 et 107 pour que leur durée respective corresponde à la durée des séquences respectivement sélectionnées dans le flux principal. Selon un mode de réalisation particulier, l’adaptation comprend la mise en œuvre d’un algorithme de type « time stretch » permettant d’augmenter ou de réduire la durée d’un contenu audio sans en altérer la tonalité. Lorsqu’un contenu de personnalisation et la séquence sélectionnée dans le flux principal ont sensiblement la même durée, l’adaptation consiste à ne pas modifier le contenu de personnalisation. Selon un autre exemple, lorsque qu’un contenu de personnalisation est plus court que la séquence sélectionnée dans le flux principal, l’adaptation peut consister en l’ajout d’un habillage sonore avant le début et/ou après la fin du contenu de personnalisation de manière à ce que sa durée corresponde exactement à la durée de la séquence sélectionnée dans le flux principal.
Un exemple de mise en œuvre des étapes 202 et 203 va maintenant être décrit en relation avec la figure 3. La figure 3 représente un flux audio principal 102 composé de séquences 301 à 308 juxtaposées, et un descripteur 108 comprenant, pour chaque séquence du flux principal 102, une estampille temporelle TS correspondant à l’emplacement de la séquence dans le flux principal et une durée LEN en minutes de la séquence. La figure 3 montre aussi une première fenêtre temporelle dont la durée est par exemple T1 = 21 minutes. On constate que les séquences 301, 302 et 303 sont comprises dans la fenêtre temporelle T1.
La figure 3 montre aussi un contenu de personnalisation 107 dont la durée est par exemple de deux minute et associée à une priorité haute, et un deuxième contenu de personnalisation 106 d’une durée de huit minutes, associé à une priorité basse.
Selon une réalisation particulière, la priorité du contenu 107 étant supérieure à la priorité associée au contenu 106, le contenu 107 est traité en premier lieu. De cette façon, une séquence pour le contenu prioritaire peut être sélectionnée parmi un plus grand nombre de séquences du flux principal.
L’étape 202 consiste ainsi à comparer la durée du contenu 107 avec la durée de chacune des séquences 301, 302, 303 du flux principal 102 comprises dans la fenêtre temporelle T1, la fenêtre temporelle T1 étant déterminée, selon une réalisation particulière, selon la priorité associée du contenu 107. Les différences de durées sont de préférence calculées en valeur absolue. Les différences de durées entre le contenu 107 et les séquences 301, 302 et 303 sont respectivement de cinq minutes, une minute et onze minutes.
Ainsi, la séquence du flux principal dont la durée présente le moins d’écart avec la durée du contenu de personnalisation 107 est la séquence 302. Elle est donc sélectionnée par le récepteur lors de l’étape 203 et associée au contenu de personnalisation 107.
Il est ensuite procédé à la sélection d’une séquence du flux principal selon le contenu de personnalisation 106, sur une fenêtre temporelle T2. La priorité du contenu 106 étant basse, la fenêtre T2 est de durée supérieure à la fenêtre temporelle T1. Ainsi, il est recherché au moins une séquence du flux principal 102 parmi les séquences comprises dans la fenêtre T2, en excluant la séquence déjà sélectionnée selon le contenu prioritaire 107, c’est-à-dire parmi les séquences 301, 303, 304, 305, 306 et 307. Parmi ces séquences, la séquence 301 est celle qui présente le moins d’écart de durée avec le contenu 106. Toutefois, cet écart de deux minutes peut être considéré trop important pour permettre une adaptation convenable du contenu de personnalisation 106.
Selon un mode particulier de réalisation, lorsque la différence de durée entre la séquence sélectionnée et le contenu de personnalisation à synchroniser est supérieure à un seuil S, le procédé comporte une étape selon laquelle, pour chaque séquence du flux principal comprise dans la fenêtre temporelle prédéterminée, il est calculé une différence entre la durée du contenu de personnalisation et la durée de la séquence considérée combinée avec au moins une séquence suivante. Ainsi, la séquence sélectionnée correspond à une séquence composite obtenue par combinaison d’au moins deux séquences consécutives.
Le seuil S correspond à une différence de durée à partir de laquelle l’adaptation de la séquence secondaire n’est plus possible sans affecter l’expérience utilisateur. Le seuil peut être fixé de manière prédéterminée ou bien de façon plus avantageuse, être fixé selon la durée du contenu de personnalisation et/ou selon la technique d’adaptation envisagée. Par exemple, le seuil peut être fixé à 40% de la durée du contenu de personnalisation. Considérons par exemple la fenêtre temporelle T2 = 30 minutes et le contenu 106 de durée 8 minutes représentés sur la figure 3. Le seuil est fixé à 40% de la durée du contenu de personnalisation 106, soit 96 secondes. La durée du contenu 106 est comparée avec la durée de chacune des séquences 301, 303, 304, 305, 306 et 307 comprises dans la fenêtre temporelle T2 du flux 102. La première séquence du flux audio 102 dont l’écart est le plus faible avec la durée de la séquence 106 est la séquence 301. La différence de durée entre la séquence 106 et la séquence 301 est de deux minutes. Ainsi, l’écart de durée des séquences 106 et 301 est supérieur au seuil S.
En conséquence, le dispositif 110 calcule une différence entre la durée du contenu 106 et la durée de chacune des séquences du flux principal 102 combinée avec la séquence consécutive (excepté la séquence déjà sélectionnée pour la séquence 107). Ainsi, la durée du contenu 106 est comparée avec la durée de la séquence 303 additionnée avec la durée de la séquence 304 (12+1=13 minutes), puis avec la durée de la séquence 304 additionnée avec la durée de la séquence 305 (1+4=5 minutes), puis avec la durée de la séquence 305 additionnée avec la durée de la séquence 306 (4+4=8 minutes), etc. La durée cumulée des séquences 305 et 306 présente une différence nulle avec la durée du contenu 106. Ainsi, le dispositif 110 sélectionne à l’étape 202 une séquence composite correspondant à une combinaison des séquences 305 et 306.
En variante, le procédé peut évaluer la durée de plus de deux séquences consécutives si l’écart entre la durée de séquences combinées et d’un contenu de personnalisation est toujours supérieur à un seuil.
Selon un mode particulier de réalisation, de nouvelles séquences sont définies dans le flux principal 102 à partir du descripteur 108. En particulier, une nouvelle séquence peut être définie entre deux séquences consécutives. Ainsi, une séquence additionnelle de quelques secondes peut être définie entre la séquence 301 et 302 du flux 102 représenté sur la figure 1. Cette nouvelle séquence comprend par exemple les 3 dernières secondes de la séquence 301 et les 4 premières secondes de la séquence 302. Ainsi, un nouvel emplacement est disponible pour insérer un contenu personnalisé de très courte durée.
Selon un mode de réalisation particulier, certaines séquences du flux principal sont identifiées comme ne pouvant pas être substituées par un contenu de personnalisation. Par exemple, le descripteur 108 peut contenir des informations relatives au contenu des séquences diffusées. Le serveur 104 peut en outre comprendre un profil de l’utilisateur du récepteur 103 dans lequel sont par exemple renseignés des goûts musicaux et/ou des centres d’intérêts particuliers de l’utilisateur. Ainsi, selon une réalisation particulière, les séquences du flux principal susceptibles de présenter un intérêt particulier pour l’utilisateur ne sont pas sélectionnées.
Lorsqu’une séquence 302 du flux principal est sélectionnée selon le contenu 107, ce contenu 107 est étiré par un procédé de « time stretching » de façon à ce que sa durée soit égale à la durée de la séquence 302. Cette adaptation permet d’obtenir une séquence adaptée 107’ dont la durée coïncide avec la durée de la séquence sélectionnée dans le flux principal.
La durée du contenu 106 étant égale à la durée des séquences 305 et 306, l’adaptation n’est pas nécessaire. Ainsi, le contenu adapté 106’ est identique à la séquence 106.
Lors d’une étape 204, les contenus personnalisés adaptés 106’ et 107’ sont synchronisés avec les séquences [305, 306] et 302 respectivement sélectionnées dans le flux principal. La synchronisation comprend l’association d’un contenu personnalisé adapté avec des données de synchronisation, comme une estampille temporelle associée au début de la séquence sélectionnée dans le flux principal, en vue d’une restitution du contenu personnalisé adapté au moment où la séquence sélectionnée du flux principal doit être restituée. Par exemple, en référence à la figure 3, le contenu de personnalisation adapté 107’, est associée à l’instant de restitution 1006 de la séquence 302. De même, le contenu de personnalisation 106’ est associé avec l’estampille 1022 correspondant à l’instant de restitution de la séquence 305. Ces données de synchronisation sont par exemple associées aux contenus adaptées 106’ et 107’ grâce à un descripteur XML dans lequel sont renseignées les estampilles temporelles déterminées en association avec un identifiant des contenus 106’ et 107’ auxquels elles se rapportent.
Lors d’une étape 205, le dispositif 110 transmet au récepteur 103 les contenus de personnalisation adaptés et synchronisés 106’ et 107’ en vue de leur restitution synchronisée avec le flux principal 102. La transmission d’un contenu de personnalisation adapté et synchronisé à un récepteur comprend la transmission de données de synchronisation permettant au récepteur de restituer le contenu à un instant particulier. Ces données de synchronisation peuvent par exemple être entrelacées directement dans le flux, s’il s’agit d’un flux de type webradio, en utilisant par exemple la faculté d’insertion de métadonnées prévue dans la plupart des normes d’encodage et de diffusion audio.
A la réception d’un contenu adapté et synchronisé, le récepteur 103 l’enregistre dans une mémoire tampon et poursuit la restitution du flux principal 102. Lorsque le récepteur décode une trame ou un échantillon audio du flux 102, il compare l’estampille temporelle qui lui est associée avec la donnée de synchronisation associée au contenu mémorisé. Lorsque les estampilles coïncident, le récepteur 103 restitue les échantillons audio du contenu de personnalisation mémorisé à la place des échantillons audio du flux principal. Les échantillons du flux audio principal correspondant sont alors ignorés par le récepteur. Après avoir restitué le dernier échantillon audio du contenu personnalisé, le récepteur 103 reprend la lecture du flux principal. De cette façon, l’utilisateur du récepteur 103 perçoit un flux 102’ restitué par un haut-parleur 109 du récepteur 103 dans lequel les contenus personnalisés sont intégrés de manière transparente, en préservant la structure du flux diffusé 102.
Dans un mode particulier de réalisation, le dispositif 110 transmet en continu au récepteur 103 un flux de personnalisation partageant une même référence temporelle avec le flux principal et comprenant au moins un contenu de personnalisation adapté, le contenu adapté étant inséré dans le flux secondaire à un instant coïncidant avec l’instant de restitution de la séquence sélectionnée dans le flux principal, le flux secondaire étant transmis à un terminal de restitution en vue de sa restitution simultanée avec le flux principal.
Il est ainsi proposé de générer un flux de personnalisation continu comprenant un ou plusieurs contenus de personnalisation. Le flux de personnalisation généré dispose d’une base temporelle commune avec le flux principal, de sorte qu’une séquence associée à une estampille temporelle particulière dans le flux de personnalisation sera restituée au même moment qu’une séquence du flux principal associée à la même estampille. Une telle disposition simplifie les traitements au niveau du récepteur et permet ainsi de d’en réduire le coût : en effet, le flux de personnalisation étant généré par un serveur et transmis en continu de façon synchronisée avec un flux principal, le récepteur peut simplement jouer simultanément les flux reçus, en adaptant le volume du flux principal quand des échantillons audio non nuls sont reçus dans le flux de personnalisation. Les traitements dans le serveur peuvent en outre être mutualisés de façon à ce qu’un même flux de personnalisation généré puisse être transmis à une pluralité d’utilisateurs écoutant le même flux principal.
La figure 4 représente l’architecture d’un dispositif de synchronisation selon un mode particulier de réalisation.
Le dispositif comprend un espace de stockage 402, par exemple une mémoire MEM, une unité de traitement 401 équipée par exemple d’un processeur PROC. L’unité de traitement peut être pilotée par un programme 403, par exemple un programme d’ordinateur PGR, mettant en œuvre le procédé de synchronisation tel que décrit dans l’invention en référence aux figures 1 à 3, et notamment les étapes de :
  • Obtention une description du flux audio principal, comprenant au moins pour chaque séquence composant le flux principal, une indication temporelle de début de restitution de ladite séquence,
  • Sélection au moins une séquence du flux principal selon au moins une durée et une priorité associées au contenu de personnalisation,
  • Adaptation temporelle du contenu de personnalisation selon la au moins une séquence sélectionnée,
  • Synchronisation du contenu de personnalisation adapté avec la au moins une séquence sélectionnée, et
  • Transmission du contenu de personnalisation adapté et synchronisé vers au moins un terminal de restitution.
À l’initialisation, les instructions du programme d’ordinateur 403 sont par exemple chargées dans une mémoire RAM (Random Access Memory en anglais) avant d’être exécutées par le processeur de l’unité de traitement 401. Le processeur de l’unité de traitement 401 met en œuvre les étapes du procédé de synchronisation selon les instructions du programme d’ordinateur 403.
Pour cela, le dispositif 400 comprend, outre la mémoire 402, des moyens de communication 404 (COM) permettant au dispositif de se connecter à un réseau de télécommunication et d’échanger des données avec d’autres dispositifs par l’intermédiaire du réseau de télécommunications, et en particulier de recevoir un descripteur d’un flux audio principal diffusé par un serveur de diffusion, ainsi qu’une description des séquences audio composant le flux principal. Ces moyens de communication sont par exemple une interface réseau sans fil, permettant au dispositif de se connecter à un réseau d’accès cellulaire de type 3G, 4G ou 5G, ou encore une interface WiFi ou WiMax. L’interface de communication est pilotée par des instructions de programme d’ordinateur enregistrées dans la mémoire 402.
L’interface de communication 404 est en outre configurée pour permettre au dispositif de télécharger un contenu audio de personnalisation à partir d’un serveur.
Le dispositif 400 comprend également un module de sélection 405 (SEL) adapté pour sélectionner, à partir du descripteur du flux principal et du contenu de personnalisation, une séquence du flux principal comprise dans une fenêtre temporelle de telle sorte que la sélection minimise la différence de durée entre la séquence secondaire et la séquence sélectionnée dans le flux principal. Le module de sélection est par exemple mis en œuvre par des instructions de programme d’ordinateur enregistrées dans la mémoire 402 et configurées, lorsqu’elles sont exécutées par le processeur 401, pour comparer la durée de la séquence secondaire avec la description de chaque séquence du flux principal comprise dans une fenêtre temporelle prédéterminée afin de déterminer la séquence du flux principal avec laquelle la différence de durée est minimale.
Le dispositif 400 comprend aussi un module d’adaptation 406. Selon une réalisation particulière, le module d’adaptation met en œuvre un algorithme de type time-stretching visant à augmenter ou réduire la durée d’une séquence audio sans en modifier la tonalité. Ainsi, le module d’adaptation modifie la durée du contenu de personnalisation reçu de façon à ce qu’il coïncide avec la séquence sélectionnée dans le flux principal par le module de sélection 405.
Le dispositif 400 comprend aussi un module de synchronisation 407 adapté pour associer un contenu adapté par le module 406 à un instant de restitution correspondant à l’instant de restitution de la séquence sélectionnée dans le flux principal par le module de sélection 405. Le module 407 est mis en œuvre par des instructions de programme d’ordinateur enregistrées dans la mémoire 402 et configurées, lorsqu’elles sont exécutées par le processeur 401, pour obtenir à partir du descripteur du flux principal et de la séquence sélectionnée, une estampille temporelle correspondant à l’instant de restitution du premier échantillon audio de la séquence sélectionnée, et pour associer cette estampille temporelle au contenu adapté afin de permettre une restitution synchronisée du flux principal et du contenu personnalisé adapté.
L’interface de communication 404 du dispositif est en outre configurée pour transmettre le contenu de personnalisation adapté et des données de synchronisation à un récepteur.
Selon un mode de réalisation particulier, le dispositif 400 est intégré dans un serveur, tel que le serveur 104 de la figure 1.
Selon un mode de réalisation particulier, le dispositif 400 est intégré dans un terminal, tel qu’un autoradio, une enceinte connectée, un assistant vocal ou un smartphone.
Le dispositif 400 comporte alors en outre un module de mixage adapté pour mixer le flux principal et le contenu de personnalisation adapté et synchronisé, selon l’estampille temporelle associée au contenu adapté, et un module de restitution adapté pour convertir la séquence audio mixée en un signal analogique afin de la restituer via un haut-parleur.
Le module de mixage est mis en œuvre par des instructions de programme d’ordinateur configurées pour réduire le volume de chaque échantillon audio du flux principal dont l’estampille temporelle correspond à une estampille temporelle du contenu de personnalisation adapté de façon à produire un flux audio mixé dans lequel le contenu de personnalisation adapté remplace, lors de sa restitution, la séquence sélectionnée par le module de sélection.
Selon un mode particulier de réalisation, le flux principal est une séquence audiovisuelle comportant une composante audio et une composante vidéo, le contenu de personnalisation étant une séquence audiovisuelle comprenant également une composante audio et une composante vidéo. Les différentes étapes qui ont été décrites ci-avant s’appliquent de la même manière aux composantes audio et vidéo des séquences.

Claims (10)

  1. Procédé de synchronisation d’au moins un contenu audio de personnalisation avec un flux audio principal en cours de diffusion, le flux audio principal comportant une pluralité de séquences consécutives, le procédé étant caractérisé en ce qu’il est mis en œuvre par un dispositif comprenant une mémoire et un processeur configuré par des instructions stockées dans la mémoire et adaptées pour :
    • Obtenir (200) une description du flux audio principal, comprenant au moins pour chaque séquence composant le flux principal, une indication temporelle de début de restitution de ladite séquence,
    • Sélectionner (202) au moins une séquence du flux principal selon au moins une durée et une priorité associées au contenu de personnalisation,
    • Adapter (203) le contenu de personnalisation selon la au moins une séquence sélectionnée,
    • Synchroniser (204) le contenu de personnalisation adapté avec la au moins une séquence sélectionnée, et
    • Transmettre (205) le contenu de personnalisation synchronisé vers au moins un terminal de restitution.
  2. Procédé selon la revendication 1 dans lequel la au moins une séquence sélectionnée dans le flux principal est sélectionnée parmi une pluralité de séquences consécutives du flux principal comprises dans une fenêtre temporelle particulière.
  3. Procédé selon la revendication 2 dans lequel la fenêtre temporelle est déterminée selon la priorité associée au contenu de personnalisation.
  4. Procédé selon l’une quelconque des revendications 2 ou 3 dans lequel l’étape de sélection d’au moins une séquence du flux principal comprend :
    • Pour chaque séquence du flux principal comprise dans la fenêtre temporelle, calcul d’une différence de durée entre la séquence considérée et le contenu de personnalisation,
    • Sélection de la séquence du flux principal pour laquelle la différence calculée est la plus faible.
  5. Procédé selon l’une quelconque des revendications précédentes dans lequel l’étape d’adaptation du contenu de personnalisation est réalisée par une technique dite de time-stretching.
  6. Procédé selon l’une quelconque des revendications précédentes dans lequel une séquence additionnelle est définie par combinaison d’au moins deux séquences consécutives du flux principal.
  7. Dispositif de synchronisation d’au moins un contenu audio de personnalisation avec un flux audio principal en cours de diffusion, le flux audio principal comportant une pluralité de séquences juxtaposées, le dispositif comprenant:
    • Un module de communication (404) adapté pour obtenir une description du flux audio principal, comprenant au moins pour chaque séquence composant le flux principal, une indication temporelle de début de restitution de ladite séquence,
    • Un module de sélection (405), adapté pour sélectionner au moins une séquence du flux principal selon au moins une durée et une priorité associées au contenu de personnalisation,
    • Un module d’adaptation (406) du contenu de personnalisation selon la au moins une séquence sélectionnée,
    • Un module de synchronisation (407) du contenu de personnalisation adapté avec la au moins une séquence sélectionnée, et
    • Un module de communication (404) configuré pour transmettre le contenu de personnalisation adapté vers au moins un terminal de restitution.
  8. Serveur comprenant un dispositif de synchronisation selon la revendication 7.
  9. Terminal comprenant un dispositif de synchronisation selon la revendication 7.
  10. Support d’information comportant des instructions de programme d’ordinateur configurées pour mettre en œuvre les étapes d’un procédé de synchronisation selon l’une quelconque des revendications 1 à 6, lorsque les instructions sont exécutées par un processeur.
FR1902842A 2019-03-20 2019-03-20 Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal Active FR3094165B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1902842A FR3094165B1 (fr) 2019-03-20 2019-03-20 Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal
PCT/EP2020/057823 WO2020188097A1 (fr) 2019-03-20 2020-03-20 Procédé de restitution de contenus de personnalisation d'un flux radiophonique principal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1902842A FR3094165B1 (fr) 2019-03-20 2019-03-20 Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal
FR1902842 2019-03-20

Publications (2)

Publication Number Publication Date
FR3094165A1 true FR3094165A1 (fr) 2020-09-25
FR3094165B1 FR3094165B1 (fr) 2022-03-18

Family

ID=67441382

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1902842A Active FR3094165B1 (fr) 2019-03-20 2019-03-20 Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal

Country Status (2)

Country Link
FR (1) FR3094165B1 (fr)
WO (1) WO2020188097A1 (fr)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2872662A1 (fr) * 2004-06-30 2006-01-06 Thomson Licensing Sa Procede de visualisation de sequences audiovisuelles au niveau d'un recepteur, et recepteur apte a les visualiser
US20090031037A1 (en) * 2007-04-30 2009-01-29 Ando Media, Llc Method of streaming media and inserting additional content therein using buffering
US20120137015A1 (en) * 2010-11-30 2012-05-31 General Instrument Corporation Method of targeted ad insertion using http live streaming protocol
CN107943886A (zh) * 2017-11-15 2018-04-20 腾讯数码(天津)有限公司 一种音频内容的管理方法和客户端
WO2018104945A1 (fr) * 2016-12-07 2018-06-14 Hearmeout Ltd. Alimentation de conduite adaptative
US20180167649A1 (en) * 2015-06-17 2018-06-14 Sony Semiconductor Solutions Corporation Audio recording device, audio recording system, and audio recording method
EP3410701A1 (fr) * 2017-05-31 2018-12-05 Nxp B.V. Étirage du temps audio/vidéo

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2872662A1 (fr) * 2004-06-30 2006-01-06 Thomson Licensing Sa Procede de visualisation de sequences audiovisuelles au niveau d'un recepteur, et recepteur apte a les visualiser
US20090031037A1 (en) * 2007-04-30 2009-01-29 Ando Media, Llc Method of streaming media and inserting additional content therein using buffering
US20120137015A1 (en) * 2010-11-30 2012-05-31 General Instrument Corporation Method of targeted ad insertion using http live streaming protocol
US20180167649A1 (en) * 2015-06-17 2018-06-14 Sony Semiconductor Solutions Corporation Audio recording device, audio recording system, and audio recording method
WO2018104945A1 (fr) * 2016-12-07 2018-06-14 Hearmeout Ltd. Alimentation de conduite adaptative
EP3410701A1 (fr) * 2017-05-31 2018-12-05 Nxp B.V. Étirage du temps audio/vidéo
CN107943886A (zh) * 2017-11-15 2018-04-20 腾讯数码(天津)有限公司 一种音频内容的管理方法和客户端

Also Published As

Publication number Publication date
FR3094165B1 (fr) 2022-03-18
WO2020188097A1 (fr) 2020-09-24

Similar Documents

Publication Publication Date Title
CN107018427B (zh) 直播分享内容处理方法及装置
CN110495182B (zh) 计算机实施的方法及媒体客户端设备
US20150271546A1 (en) Synchronized provision of social media content with time-delayed video program events
EP3381196B1 (fr) Procédé de synchronisation d'un flux audio alternatif
EP2811749A1 (fr) Synchronisation de contenus multimédia sur deuxième écran
EP3826316B1 (fr) Équipement décodeur générant un ordre d'un profil audio à appliquer
FR3068554A1 (fr) Procede de transmission d'un contenu audio interrompu dans un recepteur hybride, systeme, recepteur et programme associe au procede
FR2850821A1 (fr) Systeme de sous-titrage dynamique de signaux de television et radiophoniques
FR3094165A1 (fr) Procédé de restitution de contenus de personnalisation d’un flux radiophonique principal
EP3890328B1 (fr) Procédé de gestion d'un flux audio lu de manière synchronisée sur une horloge de référence
EP3840388B1 (fr) Equipement décodeur à double liaison audio
EP3025477B1 (fr) Procede de synchronisation lors du traitement par un lecteur multimedia d'un contenu multimedia transmis par un service mbms
EP3501125B1 (fr) Procédé de synchronisation de deux flux de données ainsi que mise en oeuvre de ce procédé dans un récepteur
EP1219056A2 (fr) Systeme pour la transmission a un usager des informations relativement a un programme de radio et/ ou de television
EP2129130A1 (fr) Procédé de transmission simplifié d'un flux de signaux entre un émetteur et un appareil électronique
EP3092777B1 (fr) Procede de traitement d'erreur de restitution d'un contenu numerique
FR3098074A1 (fr) Procédé de transmission d’un contenu audio dans un récepteur hybride en recevant des manifestes émis par un serveur manageur, récepteur et serveur manageur associé
WO2016102895A1 (fr) Système de distribution de contenus multimédias
EP2854415B1 (fr) Procédé de transmission dynamique de données d'information relatives à un programme audio et/ou vidéo
FR3134268A1 (fr) Procédé de décrochage local dans un récepteur radio numérique
EP4199502A1 (fr) Dispositif et procede pour la restitution audio-video synchronisee
FR3042369A1 (fr) Enrichissement contextuel par reconnaissance audio
FR3111497A1 (fr) Procédé de gestion de la restitution d’un contenu multimédia sur des dispositifs de restitution.
WO2021144247A1 (fr) Procédé de décrochage d'un flux dans un multiplex à débit variable, ledit flux étant constitué d'une pluralité de chunks, site de diffusion et dispositifs associés
FR3100096A1 (fr) Systeme de restitution sonore deportee comportant un diffuseur audionumérique connecte a un recepteur audionumerique par au moins deux liaisons sans fil

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200925

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

TP Transmission of property

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Effective date: 20230807

PLFP Fee payment

Year of fee payment: 6