FR2967545A1 - SYSTEM AND METHOD FOR SYNCHRONIZING AN APPLICATION WITH AUDIO CONTENT - Google Patents

SYSTEM AND METHOD FOR SYNCHRONIZING AN APPLICATION WITH AUDIO CONTENT Download PDF

Info

Publication number
FR2967545A1
FR2967545A1 FR1059347A FR1059347A FR2967545A1 FR 2967545 A1 FR2967545 A1 FR 2967545A1 FR 1059347 A FR1059347 A FR 1059347A FR 1059347 A FR1059347 A FR 1059347A FR 2967545 A1 FR2967545 A1 FR 2967545A1
Authority
FR
France
Prior art keywords
audio data
time
content
application
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1059347A
Other languages
French (fr)
Other versions
FR2967545B1 (en
Inventor
Jacques Sagne
Remi Pecqueur
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Egonocast
Original Assignee
Egonocast
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Egonocast filed Critical Egonocast
Priority to FR1059347A priority Critical patent/FR2967545B1/en
Priority to PCT/EP2011/068415 priority patent/WO2012065805A1/en
Priority to EP11772979.8A priority patent/EP2641347A1/en
Publication of FR2967545A1 publication Critical patent/FR2967545A1/en
Application granted granted Critical
Publication of FR2967545B1 publication Critical patent/FR2967545B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/18Arrangements for synchronising broadcast or distribution via plural systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4398Processing of audio elementary streams involving reformatting operations of audio signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched

Abstract

Une application est à synchroniser avec un contenu audio destiné à être consommé par un terminal consommateur. Le contenu est fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle. L'application s'exécute selon une seconde référence temporelle. Synchroniser l'application avec le contenu audio comporte des étapes : d'obtention (6.4) de données audio dudit contenu horodatées, sur la base de la seconde référence temporelle, pour indiquer des instants respectifs de consommation par ledit terminal consommateur desdites données audio ; de détermination (6.6) d'informations de corrélation entre les données audio ; de détermination (6.7) d'une information de décalage temporel entre les première et seconde références temporelles, en fonction des informations de corrélation déterminées et d'informations d'horodatage des données ; et de synchronisation de l'application avec ledit contenu, sur la base de cette information de décalage temporel.An application is to synchronize with audio content to be consumed by a consumer terminal. The content is provided as a stream of audio data timestamped according to a first time reference. The application runs at a second time reference. Synchronizing the application with the audio content comprises steps of: obtaining (6.4) audio data of said timestamped content, based on the second time reference, to indicate respective times of consumption by said consumer terminal of said audio data; determining (6.6) correlation information between the audio data; determining (6.7) time offset information between the first and second time references, based on the determined correlation information and time stamp information of the data; and synchronizing the application with said content, based on this time offset information.

Description

La présente invention concerne la synchronisation d'une application, installée sur un terminal, dit terminal d'interactivité, avec un contenu audio destiné à être consommé par un terminal, dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle, ladite application s'exécutant selon une seconde référence temporelle. Les terminaux mobiles tels que les téléphones mobiles, et notamment les téléphones haut de gamme (aussi appelés smartphones en anglais ou téléphones intelligents en français), les assistants personnels numériques PDA (Persona/ Digital Assistant en anglais), les ordinateurs personnels de type tablette (tablet PC ou tablet Persona/ Computer en anglais, aussi appelé Tablette Electronique en français), et plus généralement tous les terminaux mobiles ou portables dotés de capacités multimédia sont des exemples de terminaux d'interactivité. Ces terminaux offrent des fonctionnalités toujours plus nombreuses à leurs utilisateurs. Ces fonctionnalités sont accessibles sous la forme de modules logiciels appelés applications. Grâce à l'étendue des fonctionnalités qu'ils proposent, ces terminaux mobiles d'interactivité deviennent de facto une interface privilégiée pour interagir avec un utilisateur. Bien que ces terminaux mobiles d'interactivité permettent généralement de visualiser des contenus audiovisuels, l'utilisateur préfère d'ordinaire, dans l'environnement domestique, visualiser de tels contenus sur un écran, éventuellement connecté à un boîtier décodeur (set-top box en anglais) permettant de recevoir du contenu diffusé (broadcast en anglais). En effet, les dimensions de l'écran sur lequel sont alors visualisés de tels contenus permettent une meilleure expérience utilisateur (user expérience en anglais). On parle alors de terminal consommateur. Comme exemples de terminaux consommateurs, on peut citer les postes de télévision, comportant un écran et des haut-parleurs, ou encore les haut-parleurs servant à diffuser le son lorsque ceux-ci ne sont pas intégrés avec l'écran, ou tout autre système audio. Afin d'augmenter cette expérience utilisateur, il est envisagé de permettre à l'utilisateur de visualiser de tels contenus audiovisuels sur un écran de taille de l'ordre de celles des postes de télévision actuels, tout en lui donnant la possibilité d'interagir avec ces contenus via un terminal mobile d'interactivité. Dans un tel contexte, étant donné que le terminal mobile d'interactivité, le boîtier décodeur et l'écran, ou le terminal consommateur, ne disposent pas d'une référence temporelle commune, il est nécessaire de synchroniser l'application interactive lancée sur le terminal mobile avec le contenu affiché par l'écran. En effet, pour une bonne expérience utilisateur, il est nécessaire que l'application gère l'interactivité avec l'utilisateur de manière synchronisée avec le contenu affiché. On peut noter qu'il n'apparaît pas souhaitable de réaliser la synchronisation de l'application avec le contenu par (i) asservissement de l'horloge du terminal mobile d'interactivité sur celle du terminal consommateur, puis (ii) synchronisation de l'horloge du terminal consommateur avec celle du flux sous la forme duquel le contenu est fourni. Cet asservissement pourrait par exemple être implémenté par la mise en oeuvre d'un protocole entre le terminal consommateur, par exemple l'écran du téléviseur, et le terminal mobile d'interactivité, ou encore par l'exploitation, à la fois par le terminal mobile d'interactivité et par le terminal consommateur, d'une horloge universelle. Cela aurait toutefois l'inconvénient de nécessiter soit le développement de protocoles à mettre en oeuvre conjointement par le terminal mobile d'interactivité et par le terminal consommateur, ce qui poserait des difficultés d'interopérabilité, soit l'intégration de la fonctionnalité d'horloge universelle dans de nombreux équipements multimédia, ce qui tendrait à augmenter le coût de tels équipements. Dans tous les cas, cela ne permettrait pas d'utiliser comme terminaux consommateurs des écrans déjà présents sur étagère (appelés legacy displays en anglais). Dans le cas où le terminal d'interactivité et le terminal consommateur sont réalisés par le même équipement, par exemple lorsque des données interactives sont présentées à l'utilisateur à même l'écran du poste de télévision et non sur un terminal mobile, on peut noter qu'un problème similaire de synchronisation se pose. La première référence temporelle utilisée pour horodater les données du flux transportant le contenu audiovisuel est en effet inconnue du terminal d'interactivité/consommateur. The present invention relates to the synchronization of an application, installed on a terminal, said interactivity terminal, with audio content intended to be consumed by a terminal, said consumer terminal, said content being provided in the form of a stream of audio data timestamped according to a first time reference, said application executing according to a second time reference. Mobile devices such as mobile phones, including high-end phones (also called English smartphones or smartphones in French), PDAs (Persona / Digital Assistant), tablet-like personal computers ( tablet PC or tablet Persona / Computer in English, also called Tablet Electronic French), and more generally all mobile or portable terminals with multimedia capabilities are examples of interactivity terminals. These terminals offer more and more features to their users. These features are accessible in the form of software modules called applications. Thanks to the range of functionalities they offer, these mobile interactivity terminals become de facto a privileged interface for interacting with a user. Although these mobile interactivity terminals generally make it possible to display audiovisual contents, the user usually prefers, in the home environment, to display such contents on a screen, possibly connected to a set-top box. English) to receive broadcast content (broadcast in English). Indeed, the dimensions of the screen on which are then viewed such content allow a better user experience (user experience in English). This is called a consumer terminal. Examples of consumer terminals include television sets, which include a screen and speakers, or loudspeakers used to broadcast the sound when they are not integrated with the screen, or any other audio system. In order to increase this user experience, it is envisaged to allow the user to view such audiovisual content on a screen of the order of those of the current television sets, while giving him the opportunity to interact with these contents via a mobile terminal of interactivity. In such a context, since the mobile interactivity terminal, the set-top box and the screen, or the consumer terminal, do not have a common time reference, it is necessary to synchronize the interactive application launched on the mobile terminal with the content displayed by the screen. Indeed, for a good user experience, it is necessary that the application manages the interactivity with the user synchronously with the displayed content. It may be noted that it does not appear desirable to synchronize the application with the content by (i) slaving the clock of the mobile terminal of interactivity to that of the consumer terminal, then (ii) synchronization of the the clock of the consumer terminal with that of the stream in the form of which the content is provided. This slaving could for example be implemented by the implementation of a protocol between the consumer terminal, for example the TV screen, and the mobile terminal of interactivity, or by operation, both by the terminal. mobile interactivity and the consumer terminal, a universal clock. However, this would have the disadvantage of requiring either the development of protocols to be implemented jointly by the mobile terminal of interactivity and by the consumer terminal, which would pose interoperability difficulties, or the integration of the clock functionality. universal in many multimedia equipment, which would tend to increase the cost of such equipment. In any case, this would not allow to use as consumer terminals screens already on the shelf (called legacy displays in English). In the case where the interactivity terminal and the consumer terminal are made by the same equipment, for example when interactive data are presented to the user on the screen of the television set and not on a mobile terminal, it is possible to note that a similar problem of synchronization arises. The first time reference used to time stamp the data of the stream carrying the audiovisual content is indeed unknown to the interactivity / consumer terminal.

Lorsque le flux de données est reçu via le boîtier décodeur, et alors même que la première référence temporelle utilisée pour horodater le flux audio diffusé pourrait être connue de ce boîtier décodeur, le décalage temporel existant entre le décodage du flux par le boîtier décodeur et la consommation effective des données par l'écran nuirait grandement à l'expérience utilisateur. De surcroît, on peut noter que selon certaines architectures, les données interactives ne transiteraient pas par le boîtier décodeur. On peut en outre remarquer que cette problématique de synchronisation se pose également lorsque le contenu est simplement un contenu audio plutôt qu'un contenu audiovisuel, les terminaux utilisés pouvant, à titre d'illustration, prendre la forme d'un terminal mobile pour le terminal d'interactivité et d'un poste de radio pour le terminal consommateur. Il est souhaitable de pallier ces différents inconvénients de l'état de la technique. L'invention concerne un système de synchronisation d'une application avec un contenu audio destiné à être consommé par un terminal, dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle, ladite application s'exécutant selon une seconde référence temporelle. Le système est tel qu'il comporte : des moyens d'obtention de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence temporelle, pour indiquer des instants respectifs de consommation par ledit terminal consommateur desdites données audio ; des moyens de détermination d'informations de corrélation entre lesdites données audio obtenues et lesdites données audio dudit flux ; des moyens de détermination d'une information de décalage temporel entre les première et seconde références temporelles, en fonction des informations de corrélation déterminées et d'informations d'horodatage des données selon les première et seconde références temporelles ; et des moyens de synchronisation de l'application avec ledit contenu, sur la base de l'information de décalage temporel déterminé. Ainsi, il est possible de synchroniser l'application sans avoir à asservir la référence temporelle, sur la base de laquelle elle s'exécute, avec la référence temporelle utilisée pour l'horodatage des données du flux sous la forme duquel le contenu est fourni. Selon un mode de réalisation particulier, l'application s'exécute sur un terminal distinct du terminal consommateur et lesdits moyens d'obtention de données audio dudit contenu comprennent des moyens d'enregistrement d'une partie du contenu audio consommé par le terminal consommateur. Ainsi, bien que l'application soit installée sur un terminal, dit terminal d'interactivité, auquel le contenu n'est pas destiné, il est possible de synchroniser l'application au contenu. Il est alors possible à l'utilisateur d'utiliser un terminal mobile d'interactivité pour interagir de manière synchronisée avec un contenu audiovisuel traité indépendamment par un terminal consommateur fixe, tel qu'un écran muni de haut-parleurs. Selon un mode de réalisation particulier, le terminal consommateur est connecté à un dispositif comportant des moyens de récupération dudit contenu à partir dudit flux de données audio horodatées selon la première référence temporelle, l'application s'exécute sur le terminal consommateur et le terminal consommateur comporte des moyens de génération, à partir dudit contenu audio, d'un flux de données audio horodatées selon la seconde référence temporelle. Ainsi, les données audio obtenues sont non-bruitées, le résultat de la corrélation entre les données audio horodatées selon les deux références temporelles s'en trouvant fiabilisé. De cette manière, il est donc possible de synchroniser avec un risque d'erreur négligeable l'application avec le contenu audio. Selon un mode de réalisation particulier, le système comporte des moyens de ré-échantillonnage des données audio obtenues et/ou des données audio dudit flux vers une fréquence cible. Ainsi, il est possible d'utiliser des dispositifs, que ce soit pour la génération dudit flux ou pour l'obtention des données audio horodatées selon la seconde référence temporelle, qui fonctionnent à des fréquences d'échantillonnage distinctes. Selon un mode de réalisation particulier, lesdits moyens de synchronisation comportent des moyens de prise en compte de ladite information de décalage temporel par ladite application. Ainsi, lorsque plusieurs telles applications sont mises en oeuvre sur des terminaux respectifs, par exemple pour un parc de terminaux mobiles d'interactivité, il est possible de déclencher des fonctionnalités de ces applications en utilisant une même notification générique, commune à tous les terminaux d'interactivité. When the data stream is received via the set-top box, and even if the first time reference used to time-stamp the broadcast audio stream could be known to this set-top box, the time difference between the decoding of the stream by the set-top box and the set-top box. effective data consumption by the screen would greatly harm the user experience. In addition, it can be noted that according to certain architectures, the interactive data would not transit through the set-top box. It may further be noted that this problem of synchronization also arises when the content is simply audio content rather than audiovisual content, the terminals used being able, by way of illustration, to take the form of a mobile terminal for the terminal interactivity and a radio for the consumer terminal. It is desirable to overcome these various disadvantages of the state of the art. The invention relates to a synchronization system of an application with an audio content intended to be consumed by a terminal, said consumer terminal, said content being provided in the form of a stream of audio data timestamped according to a first time reference, said application running according to a second time reference. The system is such that it comprises: means for obtaining audio data of said content, said audio data obtained being time stamped, on the basis of the second time reference, for indicating respective times of consumption by said consumer terminal of said audio data ; means for determining correlation information between said obtained audio data and said audio data of said stream; means for determining time offset information between the first and second time references, based on the determined correlation information and time stamp information of the data according to the first and second time references; and means for synchronizing the application with said content, based on the determined time shift information. Thus, it is possible to synchronize the application without having to slave the time reference, on the basis of which it runs, with the time reference used for the timestamp of the data of the stream in the form of which the content is provided. According to a particular embodiment, the application executes on a terminal separate from the consumer terminal and said means for obtaining audio data of said content comprise means for recording a portion of the audio content consumed by the consumer terminal. Thus, although the application is installed on a terminal, said interactivity terminal, to which the content is not intended, it is possible to synchronize the application to the content. It is then possible for the user to use an interactivity mobile terminal to interact synchronously with audiovisual content processed independently by a fixed consumer terminal, such as a screen provided with loudspeakers. According to a particular embodiment, the consumer terminal is connected to a device comprising means for recovering said content from said audio data stream timestamped according to the first temporal reference, the application executes on the consumer terminal and the consumer terminal. comprises means for generating, from said audio content, a stream of audio data timestamped according to the second time reference. Thus, the audio data obtained are non-noisy, the result of the correlation between the audio data timestamped according to the two temporal references being made reliable. In this way, it is therefore possible to synchronize with the risk of negligible error the application with the audio content. According to a particular embodiment, the system comprises means for resampling the audio data obtained and / or audio data from said stream to a target frequency. Thus, it is possible to use devices, either for the generation of said stream or for obtaining audio data timestamped according to the second time reference, which operate at different sampling frequencies. According to a particular embodiment, said synchronization means comprise means for taking into account said time shift information by said application. Thus, when several such applications are implemented on respective terminals, for example for a fleet of interactivity mobile terminals, it is possible to trigger functionalities of these applications by using the same generic notification, common to all the terminals. interactivity.

Selon un mode de réalisation particulier, lesdits moyens de synchronisation comportent des moyens de prise en compte de ladite information de décalage temporel par un dispositif transmettant à ladite application des événements liés audit contenu. Ainsi, il est possible de mettre en oeuvre une application qui n'a pas conscience du décalage temporel existant entre les références temporelles. Le développement de telles applications s'en trouve simplifié. Selon un mode de réalisation particulier, les moyens de détermination d'informations de corrélation comportent un filtre adapté (matched filter en anglais), basé sur une inversion temporelle desdites données audio obtenues, ou des moyens de génération d'empreintes acoustiques à partir desdites données obtenues et des données dudit flux et de comparaison des empreintes générées. Ainsi, il est possible de réaliser simplement et efficacement la corrélation entre les données audio horodatées selon les deux références temporelles. Selon un mode de réalisation particulier, le système comporte des moyens de modification de l'information de décalage temporel sur détection d'un démarrage de décodage de flux. Ainsi, lorsqu'un nouveau programme audiovisuel est sélectionné par l'utilisateur, les éventuelles désynchronisations temporelles liées à ce changement de contexte sont corrigées par adaptation de l'information de synchronisation temporelle. According to a particular embodiment, said synchronization means comprise means for taking into account said time shift information by a device transmitting to said application events related to said content. Thus, it is possible to implement an application that is unaware of the time difference between the time references. The development of such applications is simplified. According to a particular embodiment, the correlation information determination means comprise a matched filter (in English), based on a temporal inversion of said obtained audio data, or acoustic fingerprint generating means from said data. obtained and data of said flow and comparison of the generated fingerprints. Thus, it is possible to simply and effectively perform the correlation between the audio data timestamped according to the two temporal references. According to a particular embodiment, the system comprises means for modifying the time offset information on detection of a flow decoding start. Thus, when a new audiovisual program is selected by the user, any temporal desynchronizations related to this change of context are corrected by adaptation of the time synchronization information.

Selon un mode de réalisation particulier, ledit contenu audio fait partie d'un contenu audiovisuel. L'invention concerne également un procédé de synchronisation d'une application avec un contenu audio destiné à être consommé par un terminal, dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle, ladite application s'exécutant selon une seconde référence temporelle. Le procédé est tel qu'il comporte des étapes : d'obtention de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence temporelle, pour indiquer des instants respectifs de consommation par ledit terminal consommateur desdites données audio ; de détermination d'informations de corrélation entre lesdites données audio obtenues et lesdites données audio dudit flux ; de détermination d'une information de décalage temporel entre les première et seconde références temporelles, en fonction des informations de corrélation déterminées et d'informations d'horodatage des données selon les première et seconde références temporelles ; de synchronisation de l'application avec ledit contenu, sur la base de l'information de décalage temporel déterminé. L'invention concerne également un dispositif déterminant une information de décalage destinée à synchroniser une application avec un contenu audio destiné à être consommé par un terminal, dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle, ladite application s'exécutant selon une seconde référence temporelle. Le dispositif est tel qu'il comporte : des moyens d'obtention de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence temporelle, pour indiquer des instants respectifs de consommation par ledit terminal consommateur desdites données audio ; des moyens de détermination d'informations de corrélation entre lesdites données audio obtenues et lesdites données audio dudit flux ; des moyens de détermination de l'information de décalage temporel entre les première et seconde références temporelles, en fonction des informations de corrélation déterminées et d'informations d'horodatage des données selon les première et seconde références temporelles. L'invention concerne également un dispositif comportant une application à synchroniser avec un contenu audio destiné à être consommé par un terminal, dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle, ladite application s'exécutant selon une seconde référence temporelle. Le dispositif est tel qu'il comporte : des moyens d'obtention de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence temporelle, pour indiquer des instants respectifs de consommation par ledit terminal consommateur desdites données audio ; et, des moyens de transmission, à un dispositif destiné à synchroniser ladite application avec le contenu audio, desdites données audio obtenues et horodatées sur la base de la seconde référence temporelle. Les caractéristiques de l'invention mentionnées ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante d'un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels : - la Fig. 1 illustre schématiquement un système de synchronisation d'une application à un flux de donnés audio, selon un premier mode de réalisation de 20 l'invention ; - la Fig. 2 illustre schématiquement un système de synchronisation d'une application à un flux de donnés audio, selon un second mode de réalisation de l'invention ; - la Fig. 3 illustre schématiquement une architecture d'équipement du système 25 de synchronisation, tel qu'une plate-forme de service de synchronisation ou un terminal utilisateur, selon un mode de réalisation de l'invention ; - la Fig. 4 illustre schématiquement un algorithme mis en oeuvre par un terminal utilisateur, selon le premier mode de réalisation de l'invention ; - la Fig. 5 illustre schématiquement un algorithme mis en oeuvre par un 30 terminal utilisateur, selon le second mode de réalisation de l'invention ; - la Fig. 6 illustre schématiquement un algorithme mis en oeuvre par une plate- forme de service de synchronisation, selon un mode de réalisation de l'invention. De manière à synchroniser une application, installée sur un terminal, dit terminal d'interactivité, permettant à un utilisateur d'interagir avec un flux de données audio, il est proposé d'effectuer un horodatage des données audio correspondant aux instants où ces données sont consommées par un terminal, dit terminal consommateur, auquel elles sont destinées. Selon un premier exemple, les données audio sont issues d'un contenu audiovisuel et le terminal consommateur est un écran sur lequel est connecté un boîtier décodeur fournissant le flux de données après décodage. Selon un second exemple, les données audio sont issues d'un contenu audio et le terminal consommateur est un amplificateur, par exemple destiné au cinéma à la maison (home theater en anglais). Les informations d'horodatage et les données audio auxquelles elles sont associées, obtenues au niveau du terminal d'interactivité, sont alors transmises à une plate-forme de service de synchronisation, qui dispose du même contenu mais avec un horodatage effectué au niveau du réseau de diffusion, c'est-à-dire en amont du terminal consommateur. La référence temporelle utilisée au niveau du réseau de diffusion constitue la première référence temporelle. La plate-forme de service de synchronisation effectue alors une corrélation entre ces données et celles reçues du terminal d'interactivité, afin de déterminer à quelle portion du flux correspondent les données reçues du terminal d'interactivité. Une fois que cette corrélation est effectuée, les informations d'horodatage permettent de déterminer un décalage temporel entre la référence temporelle utilisée au niveau du réseau de diffusion, c'est-à-dire la première référence temporelle, et celle utilisée au niveau du terminal d'interactivité, c'est-à-dire la seconde référence temporelle. Ce décalage temporel est ensuite exploité pour synchroniser l'application, installée sur le terminal d'interactivité, sur des instants de consommation du flux par le terminal consommateur. La F i g . 1 illustre schématiquement un système de synchronisation de 25 l'application au flux de donnés audio, selon un premier mode de réalisation de l'invention. Un dispositif source 1.1, tel qu'une caméra ou une régie, fournit un contenu comportant des données audio via un lien 1.10, filaire ou sans-fil. Le lien 1.10 est connecté à la plate-forme de service de synchronisation 1.3 et à un équipement de 30 diffusion 1.2, ce qui leur permet de recevoir le flux de données fourni par la source 1.1. L'équipement de diffusion 1.2 encode le flux de données reçu via le lien 1.10, de manière à l'adapter pour être diffusé à des boîtiers décodeurs, typiquement installés dans des habitations. L'encodage effectué par l'équipement de diffusion 1.2 est par exemple conforme à la norme de diffusion de vidéo numérique terrestre DVB-T (Digital Video Broadcasting - Terrestrial en anglais), telle que décrite dans le document de spécification ETSI EN 300 744 V1.6.1 «Digital Video Broadcasting (DVB); Framing Structure, Channel Coding and Modulation for Digital Terrestrial Television ». Le flux ainsi encodé est alors reçu, dans une habitation, via un lien 1.11, par un boîtier décodeur 1.4. Le boîtier décodeur 1.4 est représenté sur la Fig.l de manière intégrée à un écran de télévision 1.16. Le boîtier décodeur 1.4 décode le flux reçu via le lien 1.11, c'est-à-dire qu'il effectue l'opération inverse de celle effectuée par l'équipement de diffusion 1.2. Il récupère ainsi le contenu, les données n'étant alors plus sous la forme du flux horodaté reçu par le boîtier décodeur 1.4. Une fois décodé, le flux est traité de manière à être adapté pour être affiché sur l'écran 1.16, en ce qui concerne les données vidéo, et diffusé sur des haut-parleurs, en ce qui concerne les données audio. L'ensemble constitué par la plate-forme de service de synchronisation 1.3, l'équipement de diffusion 1.2, les boîtiers décodeurs et éventuellement la source 1.1 forme le réseau de diffusion. Chaque dispositif du réseau de diffusion partage la même référence temporelle et leurs horloges internes sont synchronisées sur cette même référence temporelle. La plate-forme de service de synchronisation 1.3 comporte une horloge interne 1.13 qu'elle utilise comme référence temporelle pour l'horodatage et l'analyse des données du flux reçu via le lien 1.10, comme décrit ci-après en relation avec la Fig. 6. Le système de synchronisation comporte, outre la plate-forme de service de synchronisation 1.3, un terminal mobile 1.5 sur lequel peut être lancée l'application 1.15 permettant d'interagir avec un utilisateur en fonction du contenu affiché sur l'écran 1.16 et/ou diffusé sur les haut-parleurs. Ce terminal mobile 1.5 comporte une horloge interne 1.14 qu'il utilise comme référence temporelle pour horodater les données audio du flux consommées par l'écran 1.16, c'est-à-dire diffusées par les haut-parleurs, comme décrit ci-après en relation avec la Fig. 4. La plate-forme de service de synchronisation 1.3 et le terminal mobile 1.5 échangent des données via un lien 1.12, qui est par exemple une connexion établie via le réseau Internet. Ces données permettent de synchroniser l'application 1.15 avec le contenu affiché sur l'écran 1.16 et/ou diffusé sur les haut-parleurs, tel que décrit ci-après en relation avec les Figs. 4 et 6. L'application 1.15 permet la mise en oeuvre de services qui peuvent par exemple être classifiés de la façon suivante : - services de type « pousser » (push en anglais), permettant de présenter sur le terminal mobile 1.5 des données interactives en étroite relation avec le contenu affiché sur l'écran 1.16 et/ou diffusé sur les haut-parleurs ; - services de type « tirer » (pull en anglais), permettant à l'utilisateur de 5 requérir à tout moment, via le terminal mobile 1.5, des données complémentaires au contenu affiché sur l'écran 1.16 et/ou diffusé sur les haut-parleurs ; et - services de type « divertissement » (entertainment en anglais), permettant à l'utilisateur de répondre, via le terminal mobile 1.5, à des questions posées au fil du contenu affiché sur l'écran 1.16 et/ou diffusé sur les haut-parleurs, le terminal mobile 10 1.5 contrôlant les temps de réponse de l'utilisateur. D'autres classifications peuvent être utilisées, et notamment des combinaisons des services mentionnés ci-dessus, comme par exemple des services de type « pousser-tirer » (push-pull en anglais) permettant à l'utilisateur de récupérer sur le terminal mobile une information présente à un instant donné dans le contenu affiché 15 sur l'écran 1.16 et/ou diffusé sur les haut-parleurs. Ainsi, les données échangées via le lien 1.12 permettent aussi à l'application 1.15 de gérer l'interactivité avec l'utilisateur. En d'autres termes, ces données peuvent correspondre à des actions utilisateur exécutées via une interface homme-machine du terminal mobile 1.5 ou à des notifications événementielles transmises à l'application 20 1.15. La Fig. 2 illustre schématiquement un système de synchronisation de l'application au flux de donnés audio, selon un second mode de réalisation de l'invention. La Fig. 2 diffère de la Fig. 1 en ce que le boîtier décodeur 2.3 est un dispositif autonome (stand-alone device en anglais), c'est-à-dire qu'il n'est pas intégré 25 dans un écran. Le boîtier décodeur 2.3 est connecté à un écran 2.1 via un lien 2.2, qui permet de transmettre les données audiovisuelles décodées. Le lien 2.2 est par exemple conforme à la norme d'interface multimédia haute définition HDMI (pour High Definition Multimedia Interface en anglais), par exemple selon le document «High Definition Multimedia Interface Specification, Version 1.3, HDMI Licensing 30 LLC, 2006». L'écran 2.1 comporte une horloge interne 2.4, qu'il utilise comme référence temporelle pour horodater les données audio du flux qu'il consomme. L'écran 2.1 comporte aussi l'application 1.15. L'interactivité avec l'utilisateur est alors réalisée par le biais de l'écran 2.1, qui se substitue au terminal mobile 1.5 de la Fig. 1 dans ses relations avec la plate-forme de service de synchronisation 1.3 via le lien 1.12. La plate-forme de service de synchronisation 1.3 et l'écran 2.1 échangent des données via le lien 1.12 pour permettent de synchroniser l'application 1.15 avec le contenu affiché sur l'écran 2.1 et/ou diffusé sur des haut-parleurs, tel que décrit ci-après en relation avec les Figs. 5 et 6. La Fig. 3 illustre schématiquement, au moins partiellement, l'architecture du terminal mobile 1.5, de l'écran 2.1 ou de la plate-forme de service de synchronisation 1.3. Cette architecture schématique comporte, reliés par un bus de communication 3.1 : - un processeur, micro-processeur, microcontrôleur (noté lac) ou CPU (Central Processing Unit en anglais ou Unité Centrale de Traitement en français) 3.2 ; - une mémoire vive RAM (Random Access Memory en anglais ou Mémoire à Accès Aléatoire en français) 3.3 ; - une mémoire morte ROM (Read Only Memory en anglais ou Mémoire à Lecture Seule en français) 3.4 ; - un lecteur 3.5 de medium de stockage, tel qu'un lecteur de carte SD (Secure Digital Card en anglais ou Carte Numérique Sécurisée en français) ou un disque dur HDD (Hard Disk Drive en anglais) ; - des moyens d'interface 3.6 avec un réseau de communication, comme par 20 exemple avec le réseau Internet ; et - des moyens d'interface homme-machine 3.7, permettant notamment, en ce qui concerne le terminal mobile 1.5 et l'écran 2.1, d'interagir avec l'utilisateur. Le microcontrôleur 3.2 est capable d'exécuter des instructions chargées dans la RAM 3.3 à partir de la ROM 3.4, d'une mémoire externe, d'un support de stockage ou 25 d'un réseau de communication. Après mise sous tension, le microcontrôleur 3.2 est capable de lire de la RAM 3.3 des instructions et de les exécuter. Ces instructions forment un programme d'ordinateur. Ce programme d'ordinateur cause la mise en oeuvre, par le microcontrôleur 3.2, de tout ou partie des algorithmes décrits ci-après en relation avec les Figs. 4 à 6. 30 Tout ou partie des algorithmes décrits ci-après en relation avec les Figs. 4 à 6 peut être implémenté sous forme logicielle par exécution d'un ensemble d'instructions par une machine programmable, tel qu'un DSP (Digital Signal Processor en anglais ou Unité de Traitement de Signal Numérique en français) ou un microcontrôleur, tel que le microcontrôleur 3.2, ou être implémenté sous forme matérielle par une machine ou un composant dédié, tel qu'un FPGA (Field-Programmable Gate Array en anglais ou Matrice de Portes Programmable sur Champ en français) ou un ASIC (Application-Specific Integrated Circuit en anglais ou Circuit Intégré Spécifique à une Application en français). According to a particular embodiment, said audio content is part of an audiovisual content. The invention also relates to a method of synchronizing an application with an audio content intended to be consumed by a terminal, said consumer terminal, said content being provided in the form of a stream of audio data timestamped according to a first time reference, said application executing according to a second time reference. The method is such that it comprises steps of: obtaining audio data of said content, said audio data obtained being time stamped, on the basis of the second time reference, to indicate respective times of consumption by said consumer terminal of said audio data; ; determining correlation information between said obtained audio data and said audio data of said stream; determining a time offset information between the first and second time references, based on the determined correlation information and time stamp information of the data according to the first and second time references; synchronizing the application with said content, based on the determined time offset information. The invention also relates to a device determining an offset information for synchronizing an application with audio content intended to be consumed by a terminal, said consumer terminal, said content being provided in the form of a stream of audio data timestamped according to a first time reference, said application executing according to a second time reference. The device is such that it comprises: means for obtaining audio data of said content, said audio data obtained being time stamped, on the basis of the second time reference, to indicate respective times of consumption by said consumer terminal of said audio data ; means for determining correlation information between said obtained audio data and said audio data of said stream; means for determining the time shift information between the first and second time references, based on the determined correlation information and time stamp information of the data according to the first and second time references. The invention also relates to a device comprising an application to synchronize with audio content intended to be consumed by a terminal, said consumer terminal, said content being provided in the form of a stream of audio data timestamped according to a first time reference, said application running according to a second time reference. The device is such that it comprises: means for obtaining audio data of said content, said audio data obtained being time stamped, on the basis of the second time reference, to indicate respective times of consumption by said consumer terminal of said audio data ; and means for transmitting, to a device for synchronizing said application with the audio content, said audio data obtained and timestamped on the basis of the second time reference. The characteristics of the invention mentioned above, as well as others, will emerge more clearly on reading the following description of an exemplary embodiment, said description being given in relation to the attached drawings, among which: Fig. 1 schematically illustrates a system for synchronizing an application to an audio data stream, according to a first embodiment of the invention; FIG. 2 schematically illustrates a synchronization system of an application to an audio data stream, according to a second embodiment of the invention; FIG. 3 schematically illustrates an equipment architecture of the synchronization system, such as a synchronization service platform or a user terminal, according to an embodiment of the invention; FIG. 4 schematically illustrates an algorithm implemented by a user terminal, according to the first embodiment of the invention; FIG. 5 schematically illustrates an algorithm implemented by a user terminal, according to the second embodiment of the invention; FIG. 6 schematically illustrates an algorithm implemented by a synchronization service platform, according to one embodiment of the invention. In order to synchronize an application, installed on a terminal, said interactivity terminal, allowing a user to interact with a stream of audio data, it is proposed to perform a timestamp of the audio data corresponding to the times when these data are consumed by a terminal, said consumer terminal, which they are intended. According to a first example, the audio data is derived from audiovisual content and the consumer terminal is a screen to which a set-top box providing the data stream after decoding is connected. According to a second example, the audio data is derived from audio content and the consumer terminal is an amplifier, for example intended for home theater (home theater). The timestamp information and associated audio data, obtained at the interactivity terminal, are then transmitted to a synchronization service platform, which has the same content but with a time stamp performed at the network level. broadcast, that is to say upstream of the consumer terminal. The time reference used at the broadcast network is the first time reference. The synchronization service platform then performs a correlation between these data and those received from the interactivity terminal, in order to determine to which portion of the flow corresponds the data received from the interactivity terminal. Once this correlation is performed, the timestamp information makes it possible to determine a time offset between the time reference used at the broadcast network, ie the first time reference, and that used at the terminal. interactivity, that is to say the second time reference. This time shift is then used to synchronize the application, installed on the interactivity terminal, on times of consumption of the flow by the consumer terminal. The F i g. 1 schematically illustrates a synchronization system of the application to the audio data stream, according to a first embodiment of the invention. A source device 1.1, such as a camera or a controller, provides content with audio data via a link 1.10, wired or wireless. The link 1.10 is connected to the synchronization service platform 1.3 and to a broadcast equipment 1.2, which allows them to receive the data stream provided by the source 1.1. The broadcasting equipment 1.2 encodes the data stream received via the link 1.10, so as to adapt it to be broadcast to set-top boxes, typically installed in dwellings. The encoding carried out by the broadcasting equipment 1.2 is for example in accordance with the DVB-T (Digital Video Broadcasting - Terrestrial) digital terrestrial video broadcasting standard, as described in the ETSI EN 300 744 V1 specification document. .6.1 "Digital Video Broadcasting (DVB); Framing Structure, Channel Coding and Modulation for Digital Terrestrial Television. The stream thus encoded is then received, in a house, via a link 1.11, by a set-top box 1.4. The set-top box 1.4 is shown in FIG. 1 in a manner integrated with a television screen 1.16. The set-top box 1.4 decodes the stream received via the link 1.11, that is to say that it performs the opposite operation to that performed by the broadcast equipment 1.2. It thus retrieves the content, the data then no longer being in the form of the timestamped stream received by the set-top box 1.4. Once decoded, the stream is processed to be adapted to be displayed on screen 1.16, for video data, and broadcast on loudspeakers, with respect to the audio data. The set constituted by the synchronization service platform 1.3, the broadcast equipment 1.2, the set-top boxes and possibly the source 1.1 form the broadcast network. Each device of the broadcast network shares the same time reference and their internal clocks are synchronized to this same time reference. The synchronization service platform 1.3 comprises an internal clock 1.13 which it uses as a time reference for the time stamp and the analysis of the data of the stream received via the link 1.10, as described below in relation with FIG. 6. The synchronization system comprises, in addition to the synchronization service platform 1.3, a mobile terminal 1.5 on which the application 1.15 can be launched, making it possible to interact with a user according to the content displayed on the screen 1.16 and / or broadcast on the speakers. This mobile terminal 1.5 has an internal clock 1.14 that it uses as a time reference to time stamp the audio data of the stream consumed by the screen 1.16, that is to say broadcast by the speakers, as described below in relationship with FIG. 4. The synchronization service platform 1.3 and the mobile terminal 1.5 exchange data via a link 1.12, which is for example a connection established via the Internet. This data makes it possible to synchronize the application 1.15 with the content displayed on the screen 1.16 and / or broadcast on the loudspeakers, as described below in relation with FIGS. 4 and 6. The application 1.15 allows the implementation of services which can for example be classified as follows: - type services "push" (push in English), to present on the mobile terminal 1.5 interactive data closely related to the content displayed on screen 1.16 and / or broadcast on the speakers; pull services, enabling the user to request, at any time via the mobile terminal 1.5, data complementary to the content displayed on the screen 1.16 and / or broadcast on the loudspeakers; speakers; and - entertainment-type services (entertainment in English), allowing the user to answer, via the mobile terminal 1.5, questions asked over the content displayed on the screen 1.16 and / or broadcast on the speakers; speakers, the mobile terminal 10 1.5 controlling the response time of the user. Other classifications may be used, and in particular combinations of the above-mentioned services, for example push-pull services, enabling the user to recover on the mobile terminal a information present at a given moment in the content displayed on the screen 1.16 and / or broadcast on the speakers. Thus, the data exchanged via the link 1.12 also allow the application 1.15 to manage the interactivity with the user. In other words, this data can correspond to user actions executed via a human-machine interface of the mobile terminal 1.5 or to event notifications transmitted to the application 1.15. Fig. 2 schematically illustrates a system for synchronizing the application to the audio data stream, according to a second embodiment of the invention. Fig. 2 differs from FIG. 1 in that the set-top box 2.3 is a stand-alone device (ie, it is not integrated in a screen). The set-top box 2.3 is connected to a screen 2.1 via a link 2.2, which makes it possible to transmit the decoded audio-visual data. The link 2.2 is for example compliant with the HDMI high definition multimedia interface standard (for High Definition Multimedia Interface in English), for example according to the document "High Definition Multimedia Interface Specification, Version 1.3, HDMI Licensing LLC 30, 2006". The screen 2.1 has an internal clock 2.4, which it uses as a time reference to time stamp the audio data of the stream that it consumes. Screen 2.1 also includes the application 1.15. Interactivity with the user is then performed through the screen 2.1, which replaces the mobile terminal 1.5 of FIG. 1 in its relationship with the synchronization service platform 1.3 via link 1.12. The synchronization service platform 1.3 and the screen 2.1 exchange data via the link 1.12 to synchronize the application 1.15 with the content displayed on the screen 2.1 and / or broadcast on loudspeakers, such as described below in relation to FIGS. 5 and 6. FIG. 3 schematically illustrates, at least partially, the architecture of the mobile terminal 1.5, the screen 2.1 or the synchronization service platform 1.3. This schematic architecture comprises, connected by a communication bus 3.1: a processor, microprocessor, microcontroller (denoted lac) or CPU (Central Processing Unit in English or Central Processing Unit in French) 3.2; - Random Access Memory RAM (Random Access Memory in French) 3.3; - a ROM (Read Only Memory in English or Memory Read Only in French) 3.4; a 3.5 medium storage drive, such as a SD (Secure Digital Card) or HDD (Hard Disk Drive) hard disk drive; interface means 3.6 with a communication network, as for example with the Internet network; and man-machine interface means 3.7, allowing, in particular, with respect to the mobile terminal 1.5 and the screen 2.1, to interact with the user. The microcontroller 3.2 is capable of executing instructions loaded into the RAM 3.3 from the ROM 3.4, an external memory, a storage medium or a communication network. After powering on, microcontroller 3.2 is able to read instructions from RAM 3.3 and execute them. These instructions form a computer program. This computer program causes the implementation, by the microcontroller 3.2, of all or part of the algorithms described below in relation to FIGS. 4 to 6. All or some of the algorithms described below in connection with FIGS. 4 to 6 can be implemented in software form by executing a set of instructions by a programmable machine, such as a DSP (Digital Signal Processor in English or a Digital Signal Processing Unit in French) or a microcontroller, such as the microcontroller 3.2, or be implemented in hardware form by a machine or a dedicated component, such as an FPGA (Field Programmable Gate Array) or an ASIC (Application-Specific Integrated Circuit) in English or Integrated Circuit specific to an Application in French).

La plate-forme de service de synchronisation 1.3 comporte préférentiellement au moins un disque dur. Les données fournies par la source 1.1 sont stockées sur ce disque dur et sont préférentiellement organisées par mémoire tampon (buffer en anglais) circulaire. La plate-forme de service de synchronisation 1.3 peut ainsi stocker un nombre prédéfini de ces données ou les données correspondant à une durée de consommation prédéfinie, comme par exemple les données correspondant à un nombre N de secondes consécutives d'affichage de données vidéo et de diffusion de données audio associées dans un flux audiovisuel. Comme déjà mentionné, la plate-forme de service de synchronisation 1.3 effectue une étape de corrélation entre des données reçues de la source 1.1 et des données reçues du terminal mobile 1.5 ou de l'écran 2.1. Il convient de noter que la profondeur de mémoire tampon circulaire doit être suffisamment élevée afin que les données reçues de la source 1.1 pendant l'étape de corrélation ne viennent pas écraser les données de la fenêtre de calcul de l'étape de corrélation. La Fig. 4 illustre schématiquement un algorithme mis en oeuvre par le terminal mobile 1.5, selon le premier mode de réalisation de l'invention illustré à la Fig. 1. Dans une étape 4.1, le terminal mobile 1.5 reçoit un signal audio diffusé par les haut-parleurs associés à l'écran 1.16. Dans une étape 4.2 suivante, le terminal mobile 1.5 effectue, grâce à un microphone, un enregistrement d'une durée prédéterminée du signal audio diffusé par les haut-parleurs. Le terminal mobile 1.5 numérise alors le signal audio reçu. Dans une étape 4.3 suivante, le terminal mobile 1.5 détermine, grâce à la référence temporelle fournie par l'horloge 1.14, des informations d'horodatage des données audio numérisées pendant l'enregistrement effectué à l'étape 4.2. Les données audio numérisées sont ainsi marquées temporellement (time stamped en anglais) par référence à l'horloge 1.14, ce marquage représentant pour chaque donnée l'instant auquel cette donnée est consommée par les haut-parleurs associés à l'écran 1.16. Le temps de propagation du signal audio dans l'air est négligé vis-à-vis de la désynchronisation possible entre les références temporelles, du réseau de diffusion d'une part et du terminal mobile 1.5 d'autre part. Dans une variante de réalisation, le terminal mobile 1.5 effectue une correction de l'horodatage en prenant en compte une valeur de temps de propagation du signal audio dans l'air. Dans une étape 4.4 suivante, le terminal mobile 1.5 transmet à la plate-forme de service de synchronisation 1.3 les données numérisées, ainsi que les informations d'horodatage qui leur sont associées. Dans une étape 4.5 suivante, le terminal mobile 1.5 reçoit, en provenance de la plate-forme de service de synchronisation 1.3, une information de synchronisation temporelle. Cette information correspond à un décalage temporel, déterminé par la plate-forme de service de synchronisation 1.3, entre la référence temporelle utilisée par le terminal mobile 1.5 et celle utilisée au niveau du réseau de diffusion. Cette information de synchronisation est fournie à l'application 1.15 de manière à ajuster temporellement ses interactions avec l'utilisateur lors de la mise en oeuvre des services mentionnés en relation avec la Fig. 1. Ces interactions sont alors temporellement synchronisées avec le contenu affiché par l'écran 1.16 et/ou diffusé par les haut-parleurs qui lui sont associés. The synchronization service platform 1.3 preferably comprises at least one hard disk. The data provided by the source 1.1 are stored on this hard disk and are preferably organized by circular buffer (buffer). The synchronization service platform 1.3 can thus store a predefined number of these data or the data corresponding to a predefined consumption duration, such as, for example, the data corresponding to a number N of consecutive seconds of display of video data and data. broadcasting associated audio data in an audiovisual stream. As already mentioned, the synchronization service platform 1.3 performs a correlation step between data received from the source 1.1 and data received from the mobile terminal 1.5 or the screen 2.1. It should be noted that the circular buffer depth must be sufficiently high so that the data received from the source 1.1 during the correlation step does not overwrite the data of the calculation window of the correlation step. Fig. 4 schematically illustrates an algorithm implemented by the mobile terminal 1.5, according to the first embodiment of the invention illustrated in FIG. 1. In a step 4.1, the mobile terminal 1.5 receives an audio signal broadcast by the speakers associated with the screen 1.16. In a next step 4.2, the mobile terminal 1.5 performs, by means of a microphone, a recording of a predetermined duration of the audio signal broadcast by the loudspeakers. The mobile terminal 1.5 then scans the received audio signal. In a following step 4.3, the mobile terminal 1.5 determines, thanks to the time reference provided by the clock 1.14, timestamp information of the digitized audio data during the recording carried out in the step 4.2. The digitized audio data is thus time stamped in reference to the clock 1.14, this marking representing for each data the time at which this data is consumed by the speakers associated with the screen 1.16. The propagation time of the audio signal in the air is neglected with respect to the possible desynchronization between the time references of the broadcasting network on the one hand and the mobile terminal 1.5 on the other hand. In an alternative embodiment, the mobile terminal 1.5 performs a correction of the time stamping taking into account a value of the propagation time of the audio signal in the air. In a subsequent step 4.4, the mobile terminal 1.5 transmits to the synchronization service platform 1.3 the digitized data, as well as the timestamp information associated therewith. In a next step 4.5, the mobile terminal 1.5 receives, from the synchronization service platform 1.3, time synchronization information. This information corresponds to a time shift, determined by the synchronization service platform 1.3, between the time reference used by the mobile terminal 1.5 and that used at the broadcast network. This synchronization information is provided to the application 1.15 so as to adjust temporally its interactions with the user during the implementation of the services mentioned in connection with FIG. 1. These interactions are then temporally synchronized with the content displayed by the screen 1.16 and / or broadcast by the speakers associated with it.

La Fig. 5 illustre schématiquement un algorithme mis en oeuvre par l'écran 2.1, selon le second mode de réalisation de l'invention illustré à la Fig. 2. Dans une étape 5.1, l'écran 2.1 reçoit, via le lien 2.2 et en provenance du boîtier décodeur 2.3, un flux de données audiovisuelles décodées, afin de le consommer. L'écran 2.1 sélectionne alors un segment du flux de données consommées, correspondant à une durée de consommation prédéfinie, comme par exemple les données correspondant à un nombre N de secondes consécutives d'affichage de données vidéo et de diffusion de données audio associées dans le flux audiovisuel. Dans une étape 5.2 suivante, l'écran 2.1 détermine, grâce à la référence temporelle fournie par l'horloge 2.4, des informations d'horodatage des données audio consommées. Les données audio consommées sont ainsi marquées temporellement par référence à l'horloge 2.4, ce marquage représentant pour chaque donnée l'instant auquel cette donnée est consommée par l'écran 2.1. De cette manière, l'écran 2.1 génère, à partir du contenu audio, un flux de données audio horodatées selon sa propre référence temporelle. Fig. 5 schematically illustrates an algorithm implemented by the screen 2.1, according to the second embodiment of the invention illustrated in FIG. 2. In a step 5.1, the screen 2.1 receives, via the link 2.2 and from the set-top box 2.3, a stream of decoded audio-visual data, in order to consume it. The screen 2.1 then selects a segment of the consumed data stream, corresponding to a predefined consumption duration, for example the data corresponding to a number N of consecutive seconds of video data display and broadcasting of associated audio data in the audiovisual stream. In a next step 5.2, the screen 2.1 determines, thanks to the time reference provided by the clock 2.4, timestamp information consumed audio data. The consumed audio data are thus marked temporally by reference to the clock 2.4, this marking representing for each data the time at which this data is consumed by the screen 2.1. In this way, the screen 2.1 generates, from the audio content, a stream of audio data timestamped according to its own time reference.

Dans une étape 5.3 suivante, l'écran 2.1 transmet ces données à la plate-forme de service de synchronisation 1.3, ainsi que les informations d'horodatage qui leur sont associées. Dans une étape 5.4 suivante, l'écran 2.1 reçoit, en provenance de la plate-forme de service de synchronisation 1.3, l'information de synchronisation temporelle déjà mentionnée en relation avec la Fig. 4. In a next step 5.3, the screen 2.1 transmits these data to the synchronization service platform 1.3, as well as the timestamp information associated with them. In a next step 5.4, the screen 2.1 receives, from the synchronization service platform 1.3, the time synchronization information already mentioned in relation with FIG. 4.

La Fig. 6 illustre schématiquement un algorithme mis en oeuvre par la plate-forme de service de synchronisation 1.3, selon un mode de réalisation de l'invention. Dans une étape 6.1, la plate-forme de service de synchronisation 1.3 reçoit des données d'un flux via le lien 1.10. Dans une étape 6.2 suivante, la plate-forme de service de synchronisation 1.3 obtient des informations d'horodatage du flux. Ces informations d'horodatage sont générées sur la base de la référence temporelle du réseau de diffusion. Ces informations d'horodatage sont par exemple insérées par la source 1.1. Dans une variante de réalisation, ces informations d'horodatage sont générées par la plate-forme de service de synchronisation 1.3, au moyen de son horloge 1.13. Dans ce cas, l'équipement de diffusion 1.2 génère de la même manière des informations d'horodatage sur la base de son horloge interne, avant de les transmettre via le lien 1.11, les horloges internes des dispositifs du réseau de diffusion étant synchronisées sur la même référence temporelle. Dans une étape 6.3 suivante, la plate-forme de service de synchronisation 1.3 stocke les données reçues ainsi que les informations d'horodatage associées. Ces données sont non bruitées et constituent le flux de référence pour mettre en oeuvre l'étape de corrélation déjà mentionnée. Dans une étape 6.4 suivante, la plate-forme de service de synchronisation 1.3 reçoit des données audio et des informations d'horodatage associées, ces informations d'horodatage correspondant au moment où les données audio associées ont été consommées par le terminal auquel elles sont destinées, c'est-à-dire le terminal consommateur. Ces données audio et informations d'horodatage correspondent, dans les modes de réalisation décrits en relation avec les Figs. 4 et 5, respectivement à ce qui est transmis par le terminal mobile 1.5 dans l'étape 4.4 et par l'écran 2.1 dans l'étape 5.3. Dans une étape 6.5 optionnelle suivante, la plate-forme de service de synchronisation 1.3 effectue un ajustement en fréquence des données stockées à l'étape 6.3 et/ou de celles reçues à l'étape 6.4. L'étape de corrélation entre ces données devant être effectuée sur des données audio échantillonnées à la même fréquence, une fréquence cible est choisie. Par exemple, cette fréquence est choisie à 8 kHz. Dans le cas où la fréquence d'échantillonnage des données stockées à l'étape 6.3 et/ou de celles reçues à l'étape 6.4 diffère de la fréquence cible, une étape de ré-échantillonnage vers cette fréquence cible est effectuée. Fig. 6 schematically illustrates an algorithm implemented by the synchronization service platform 1.3, according to one embodiment of the invention. In a step 6.1, the synchronization service platform 1.3 receives data from a stream via the link 1.10. In a next step 6.2, the synchronization service platform 1.3 obtains timestamp information from the stream. This timestamp information is generated based on the timing reference of the broadcast network. This timestamp information is for example inserted by the source 1.1. In an alternative embodiment, this timestamp information is generated by the synchronization service platform 1.3, by means of its clock 1.13. In this case, the broadcasting equipment 1.2 likewise generates time stamp information on the basis of its internal clock, before transmitting it via the link 1.11, the internal clocks of the devices of the broadcasting network being synchronized on the basis of its internal clock. same time reference. In a next step 6.3, the synchronization service platform 1.3 stores the received data as well as the associated timestamp information. These data are non-noisy and constitute the reference flow to implement the correlation step already mentioned. In a next step 6.4, the synchronization service platform 1.3 receives audio data and associated timestamp information, which timestamp information corresponds to the moment when the associated audio data has been consumed by the terminal for which it is intended. , that is to say the consumer terminal. These audio data and time stamp information correspond, in the embodiments described with reference to FIGS. 4 and 5, respectively to what is transmitted by the mobile terminal 1.5 in step 4.4 and by the screen 2.1 in step 5.3. In a next optional step 6.5, the synchronization service platform 1.3 performs a frequency adjustment of the data stored in step 6.3 and / or those received in step 6.4. The correlation step between these data to be performed on sampled audio data at the same frequency, a target frequency is chosen. For example, this frequency is chosen at 8 kHz. In the case where the sampling frequency of the data stored in step 6.3 and / or those received in step 6.4 differs from the target frequency, a step of resampling to that target frequency is performed.

Dans une étape 6.6 suivante, la plate-forme de service de synchronisation 1.3 effectue l'étape de corrélation, c'est-à-dire qu'elle détermine des informations de corrélation entre les données stockées à l'étape 6.3 et celles reçues à l'étape 6.4. L'étape de corrélation consiste à déterminer à quelle portion du flux reçu de la source 1.1 correspondent les données reçues à l'étape 6.4. Pour ce faire, un filtre adapté (matched filtrr en anglais), aussi appelé filtre de North, peut être appliqué. Le filtre adapté est alors formé sur la base des données audio reçues à l'étape 6.4, temporellement inversées. L'utilisation d'un tel filtre permet avantageusement de maximiser le rapport signal-à-bruit, notamment lorsque les données reçues à l'étape 6.4 proviennent de l'enregistrement effectué par le terminal mobile 1.5 à l'étape 4.2. Il est également possible de mettre en oeuvre des techniques de génération et de comparaison d'empreintes acoustiques (audio fingerprint en anglais). De telles empreintes sont générées pour les données audio reçues à l'étape 6.4 et sont comparées à des empreintes générées de façon similaire pour les données audio reçues à l'étape 6.1, c'est-à-dire horodatées selon la première référence temporelle. La plate-forme de service de synchronisation 1.3 peut en outre mettre en oeuvre une étape de validation des résultats de l'étape de corrélation, de manière à vérifier leur cohérence temporelle. Dans une étape 6.7 suivante, une fois que la plate-forme de service de synchronisation 1.3 a déterminé le positionnement des données audio reçues à l'étape 6.4 parmi les données audio stockées à l'étape 6.3, elle détermine une information de synchronisation temporelle représentative du décalage temporel entre la référence temporelle utilisée par le réseau de diffusion et celle utilisée par le terminal d'interactivité, c'est-à-dire celui sur lequel est lancée l'application 1.15. In a next step 6.6, the synchronization service platform 1.3 performs the correlation step, i.e. it determines correlation information between the data stored in step 6.3 and those received at step 6.4. The correlation step consists in determining to which portion of the stream received from the source 1.1 corresponds the data received in step 6.4. To do this, an adapted filter (matched filtrr in English), also called North filter, can be applied. The matched filter is then formed based on the audio data received in step 6.4, temporally inverted. The use of such a filter advantageously makes it possible to maximize the signal-to-noise ratio, particularly when the data received in step 6.4 originates from the recording made by the mobile terminal 1.5 in step 4.2. It is also possible to implement acoustic fingerprint generation and comparison techniques. Such fingerprints are generated for the audio data received in step 6.4 and are compared to similarly generated fingerprints for the audio data received in step 6.1, i.e. time-stamped according to the first time reference. The synchronization service platform 1.3 may further implement a step of validating the results of the correlation step, so as to verify their temporal coherence. In a next step 6.7, once the timing service platform 1.3 has determined the positioning of the audio data received in step 6.4 from the audio data stored in step 6.3, it determines a representative time synchronization information temporal shift between the time reference used by the broadcast network and that used by the interactivity terminal, that is to say the one on which the application 1.15 is launched.

Dans une étape 6.8 suivante, la plate-forme de service de synchronisation 1.3 transmet l'information de synchronisation temporelle, déterminée à l'étape 6.7, au terminal d'interactivité. L'information de synchronisation temporelle est alors exploitée, ou prise en compte, au niveau de ce terminal d'interactivité. Ainsi, lorsque la plate-forme de service de synchronisation 1.3 reçoit les données du flux, comme indiqué lors de l'étape 6.1, elle est en mesure de détecter des événements inscrits dans le flux, avec des informations d'horodatage associées à ces événements. La plate-forme de service de synchronisation 1.3 peut ainsi propager cet événement à l'ensemble des applications 1.15 pour lesquelles l'étape de corrélation a été mise en oeuvre et pour lesquelles les informations de synchronisation, issues de l'étape 6.7, sont disponibles. Les applications 1.15 sont alors en mesure d'adapter les horodatages de ces événements grâce aux informations de synchronisation dont elles disposent respectivement. Cela permet à la plate-forme de service de synchronisation 1.3 de transmettre chaque événement sous la forme d'une même notification, identique pour chaque application 1.15. De manière alternative, cela permet de gérer la transmission des événements par un autre dispositif que la plate-forme de service de synchronisation 1.3, comme par exemple l'équipement de diffusion 1.2. La charge de traitement de la plate-forme de service de synchronisation 1.3 est ainsi allégée. Dans une variante de réalisation, l'information de synchronisation temporelle est exploitée, ou prise en compte, au niveau de la plate-forme de service de synchronisation 1.3. Les informations de synchronisation ne sont alors pas transmises aux applications 1.15. Lorsque la plate-forme de service de synchronisation 1.3 détecte un événement dans le flux, elle adapte l'horodatage associé à l'événement en prenant en compte l'information de synchronisation déterminée à l'étape 6.7, et ce, pour chaque application 1.15. La plate-forme de service de synchronisation 1.3 transmet alors à chaque application 1.15 une notification d'événement, dont l'information d'horodatage est adaptée à l'application 1.15 concernée. Les événements sont notifiés aux terminaux d'interactivité par indication de la valeur de la référence temporelle à laquelle cet événement doit avoir lieu dans le terminal d'interactivité, cette valeur temporelle pouvant être déterminée soit par rapport à la première référence temporelle (cas d'une notification générique) soit par rapport à la seconde référence temporelle (cas d'une notification particulière à chaque terminal d'interactivité). Ces notifications peuvent a priori être transmises aux terminaux sous différentes formes, comme par exemple des messages dédiés distincts des trames encapsulant les données audiovisuelles, des champs dédiés inclus directement dans les trames encapsulant les données audiovisuelles, ou tout autre moyen de signalisation. Les événements peuvent être fournis par la source 1.1 ou par un dispositif dédié placé, sur le lien 1.10, en aval de la source 1.1 et en amont de la plate-forme de service de synchronisation 1.3 et de l'équipement de diffusion 1.2. In a next step 6.8, the synchronization service platform 1.3 transmits the time synchronization information, determined in step 6.7, to the interactivity terminal. The time synchronization information is then exploited, or taken into account, at this interactivity terminal. Thus, when the synchronization service platform 1.3 receives the data from the stream, as indicated in step 6.1, it is able to detect events inscribed in the stream, with timestamp information associated with these events. . The synchronization service platform 1.3 can thus propagate this event to all the applications 1.15 for which the correlation step has been implemented and for which the synchronization information, from step 6.7, is available. . The applications 1.15 are then able to adapt the timestamps of these events with the synchronization information they have respectively. This allows the synchronization service platform 1.3 to transmit each event in the form of the same notification, identical for each application 1.15. Alternatively, it makes it possible to manage the transmission of the events by a device other than the synchronization service platform 1.3, such as for example the broadcast equipment 1.2. The processing load of the synchronization service platform 1.3 is thus lightened. In an alternative embodiment, the time synchronization information is exploited, or taken into account, at the level of the synchronization service platform 1.3. Synchronization information is not transmitted to 1.15 applications. When the synchronization service platform 1.3 detects an event in the stream, it adapts the time stamp associated with the event by taking into account the synchronization information determined in step 6.7, for each application 1.15 . The synchronization service platform 1.3 then transmits to each application 1.15 an event notification, whose timestamp information is adapted to the application 1.15 concerned. The events are notified to the interactivity terminals by indicating the value of the time reference at which this event must take place in the interactivity terminal, this time value being determinable with respect to the first time reference (case of a generic notification) or with respect to the second time reference (case of a particular notification to each interactivity terminal). These notifications can a priori be transmitted to the terminals in different forms, such as for example dedicated messages separate from the frames encapsulating audiovisual data, dedicated fields included directly in the frames encapsulating audiovisual data, or any other signaling means. The events can be provided by the source 1.1 or by a dedicated device placed on the link 1.10, downstream of the source 1.1 and upstream of the synchronization service platform 1.3 and the broadcast equipment 1.2.

La correspondance entre références temporelles est établie pour les données audio. Dans le cas où les références temporelles utilisées pour les données audio et vidéo sont distinctes, et que les événements sont liés aux données vidéo, chaque application 1.15 et/ou la plate-forme de service de synchronisation 1.3 sont en mesure de déterminer le décalage entre ces références temporelles. Il suffit de comparer les horodatages d'une donnée vidéo et d'une donnée audio associée dans le flux audiovisuel pour déterminer ce décalage. Ainsi, la différence entre ces références temporelles, combinée avec l'information de synchronisation déterminée à l'étape 6.7, permet de gérer de manière synchronisée des événements liés aux données vidéo. The correspondence between time references is established for the audio data. In the case where the time references used for the audio and video data are distinct, and the events are related to the video data, each application 1.15 and / or the synchronization service platform 1.3 are able to determine the offset between these temporal references. It suffices to compare the timestamps of a video data and associated audio data in the audiovisual stream to determine this offset. Thus, the difference between these time references, combined with the synchronization information determined in step 6.7, makes it possible to synchronously manage events related to the video data.

Une fois déterminé le décalage temporel entre la référence temporelle du réseau de diffusion et celle du terminal sur lequel est lancée l'application 1.15, il peut être mis en oeuvre des mécanismes permettant de corriger une dérive entre les références temporelles. L'exécution d'une nouvelle opération de synchronisation peut alors être initiée : - soit par l'utilisateur du terminal sur lequel est lancée l'application 1.15, par exemple lors d'une détection d'un décalage temporel visible entre les données interactives affichées par ce terminal et le contenu auquel elles se référent ; - soit par la plate-forme de service de synchronisation 1.3, par exemple à intervalles réguliers ou suite à l'expiration d'une temporisation. Once the temporal offset between the time reference of the broadcast network and that of the terminal on which the application 1.15 is launched, it is possible to implement mechanisms making it possible to correct a drift between the time references. The execution of a new synchronization operation can then be initiated: either by the user of the terminal on which the application 1.15 is launched, for example during a detection of a visible time shift between the displayed interactive data by this terminal and the content to which they refer; or by the synchronization service platform 1.3, for example at regular intervals or following the expiration of a timer.

En outre, des désynchronisations peuvent apparaître lorsque l'on bascule d'un contenu à un autre, c'est-à-dire, d'un flux à un autre, sur le boîtier décodeur 1.4 ou 2.3. Il est alors possible de réitérer l'opération de synchronisation. Cela peut être effectué sur détection du démarrage d'un flux dans le boîtier décodeur ou du démarrage de la consommation d'un flux par le terminal consommateur. Cette détection d'un démarrage de décodage de flux, par exemple résultant d'un changement de chaînes opéré par l'utilisateur peut provenir : - de notifications générées par le boîtier décodeur 1.4 ou 2.3 ; - de traitements spécifiques effectués par le terminal consommateur, par détection de discontinuité du signal audiovisuel ; - du terminal d'interactivité lui-même, dans le cas où celui-ci fait office de télécommande pour le boîtier décodeur 1.4 ou 2.3. L'information de synchronisation temporelle est alors modifiée en conséquence. Afin de corriger l'information de synchronisation temporelle déterminée à l'étape 6.7, il est possible de déterminer la correspondance entre la référence temporelle utilisée par le réseau de diffusion et une référence temporelle utilisée par le boîtier décodeur, puis de déterminer ultérieurement la dérive d'une telle correspondance lors d'un basculement d'un flux à un autre. Il est alors possible d'ajuster l'information de synchronisation temporelle déterminée à l'étape 6.7 grâce à la dérive déterminée. In addition, desynchronizations may occur when switching from one content to another, that is to say, from one stream to another, on the set-top box 1.4 or 2.3. It is then possible to repeat the synchronization operation. This can be done on detection of the start of a stream in the set-top box or the start of the consumption of a stream by the consumer terminal. This detection of a flow decoding start, for example resulting from a change of channels operated by the user can come from: - notifications generated by the set-top box 1.4 or 2.3; specific processing carried out by the consumer terminal, by detection of discontinuity of the audiovisual signal; - Interactivity terminal itself, in the case where it acts as a remote control for the set-top box 1.4 or 2.3. The time synchronization information is then modified accordingly. In order to correct the time synchronization information determined in step 6.7, it is possible to determine the correspondence between the time reference used by the broadcast network and a time reference used by the set-top box, and then to determine the drift of such a match when switching from one stream to another. It is then possible to adjust the time synchronization information determined in step 6.7 by the determined drift.

Selon une autre mise en oeuvre, le terminal consommateur dipose de deux modes de réception d'un même contenu. Le terminal consommateur est alors adapté pour recevoir deux flux, correspondant à un même contenu, par deux biais différents. Par exemple, un premier flux peut être reçu de manière diffusée, en provenance de l'équipement de diffusion 1.2 et un second flux est reçu, de manière point-à-point, via le réseau Internet. Ces deux flux disposent alors d'horodatages effectués sur la base de références temporelles distinctes. L'opération de corrélation peut alors être mise en oeuvre de manière à déterminer le décalage temporel entre ces deux flux. Des informations de corrélation d'un segment d'un de ces deux flux avec l'autre flux sont déterminées pour déterminer une information de synchronisation temporelle, c'est-à-dire un décalage temporel entre les deux références, de la même manière qu'aux étapes 6.6 et 6.7. Cette information de décalage temporel peut alors être utilisée pour permettre un basculement synchronisé d'un flux à l'autre, c'est-à-dire de manière transparente pour l'utilisateur. Un tel basculement est par exemple utile lorsque le terminal consommateur est un terminal mobile et que l'utilisateur pénètre dans une zone géographique non couverte selon l'un des deux modes de réception. According to another implementation, the consumer terminal has two modes of receiving the same content. The consumer terminal is then adapted to receive two streams, corresponding to the same content, by two different means. For example, a first stream can be received broadcast from the broadcast equipment 1.2 and a second stream is received, point-to-point, via the Internet. These two streams then have time stamps made on the basis of separate time references. The correlation operation can then be implemented so as to determine the time difference between these two flows. Correlation information of a segment of one of these two streams with the other stream is determined to determine a time synchronization information, i.e. a time offset between the two references, in the same manner as in steps 6.6 and 6.7. This time shift information can then be used to allow synchronized failover from one flow to another, i.e., transparently for the user. Such a switchover is for example useful when the consumer terminal is a mobile terminal and the user enters an uncovered geographical area according to one of the two reception modes.

Claims (12)

REVENDICATIONS1) Système de synchronisation d'une application (1.15), avec un contenu audio destiné à être consommé par un terminal (1.16;2.1), dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle (1.13), ladite application s'exécutant selon une seconde référence temporelle (1.14;2.4), caractérisé en ce qu'il comporte : - des moyens d'obtention (4.2;5.1;6.4) de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence temporelle, pour indiquer des instants respectifs de consommation par ledit terminal consommateur desdites données audio ; - des moyens de détermination (6.6) d'informations de corrélation entre lesdites données audio obtenues et lesdites données audio dudit flux ; - des moyens de détermination (6.7) d'une information de décalage temporel entre les première et seconde références temporelles, en fonction des informations de corrélation déterminées et d'informations d'horodatage des données selon les première et seconde références temporelles ; - des moyens de synchronisation (4.5;5.4;6.8) de l'application avec ledit contenu, sur la base de l'information de décalage temporel déterminé. CLAIMS1) Application synchronization system (1.15), with audio content to be consumed by a terminal (1.16; 2.1), said consumer terminal, said content being provided in the form of a timed audio data stream according to a first time reference (1.13), said application executing according to a second time reference (1.14; 2.4), characterized in that it comprises: means for obtaining (4.2; 5.1; 6.4) audio data of said content said obtained audio data being time stamped, based on the second time reference, for indicating respective times of consumption by said consumer terminal of said audio data; means for determining (6.6) correlation information between said obtained audio data and said audio data of said stream; means for determining (6.7) time offset information between the first and second time references, as a function of the determined correlation information and time stamp information of the data according to the first and second time references; means for synchronizing (4.5, 5.4, 6.8) the application with said content, on the basis of the determined time shift information. 2) Système selon la revendication 1, caractérisé en ce que l'application s'exécute sur un terminal (1.5) distinct du terminal consommateur (1.16) et en ce que lesdits moyens d'obtention de données audio dudit contenu comprennent des moyens d'enregistrement (4.2) d'une partie du contenu audio consommé par le terminal consommateur. 2) System according to claim 1, characterized in that the application runs on a terminal (1.5) separate from the consumer terminal (1.16) and in that said means for obtaining audio data of said content comprise means for recording (4.2) of a portion of the audio content consumed by the consumer terminal. 3) Système selon la revendication 1, caractérisé en ce que le terminal consommateur est connecté à un dispositif (2.3) comportant des moyens de récupération dudit contenu à partir dudit flux de données audio horodatées selon la première référence temporelle, en ce que l'application s'exécute sur le terminal consommateur et en ce que le terminal consommateur comporte des moyens de génération (5.2), à partir dudit contenu audio, d'un flux de données audio horodatées selon la seconde référence temporelle. 3) System according to claim 1, characterized in that the consumer terminal is connected to a device (2.3) having means for recovering said content from said stream of audio data timed according to the first time reference, in that the application executes on the consumer terminal and in that the consumer terminal comprises means for generating (5.2), from said audio content, a stream of audio data timed according to the second time reference. 4) Système selon l'une des revendications 1 à 3, caractérisé en ce qu'il comporte des moyens de ré-échantillonnage (6.5) des données audio obtenues et/ou des données audio dudit flux vers une fréquence cible. 4) System according to one of claims 1 to 3, characterized in that it comprises resampling means (6.5) audio data obtained and / or audio data of said stream to a target frequency. 5) Système selon l'une des revendications 1 à 4, caractérisé en ce que lesdits moyens de synchronisation comportent des moyens de prise en compte de ladite information de décalage temporel par ladite application. 5) System according to one of claims 1 to 4, characterized in that said synchronization means comprise means for taking into account said time shift information by said application. 6) Système selon l'une des revendications 1 à 4, caractérisé en ce que lesdits moyens de synchronisation comportent des moyens de prise en compte de ladite information de décalage temporel par un dispositif transmettant à ladite application des événements liés audit contenu. 6) System according to one of claims 1 to 4, characterized in that said synchronization means comprise means for taking into account said time shift information by a device transmitting to said application events related to said content. 7) Système selon l'une des revendications 1 à 6, caractérisé en ce que les moyens de détermination d'informations de corrélation comportent un filtre adapté, basé sur une inversion temporelle desdites données audio obtenues, ou des moyens de génération d'empreintes acoustiques à partir desdites données obtenues et des données dudit flux et de comparaison des empreintes générées. 7) System according to one of claims 1 to 6, characterized in that the correlation information determining means comprises a suitable filter, based on a temporal inversion of said audio data obtained, or acoustic fingerprint generating means from said obtained data and data of said stream and comparison of generated fingerprints. 8) Système selon l'une des revendications 1 à 7, caractérisé en ce qu'il comporte des moyens de modification de l'information de décalage temporel sur détection d'un démarrage de décodage de flux. 8) System according to one of claims 1 to 7, characterized in that it comprises means for changing the time shift information on detection of a flow decoding start. 9) Système selon l'une des revendications 1 à 8, caractérisé en ce que ledit contenu audio fait partie d'un contenu audiovisuel. 9) System according to one of claims 1 to 8, characterized in that said audio content is part of an audiovisual content. 10) Procédé de synchronisation d'une application (1.15) avec un contenu audio destiné à être consommé par un terminal (1.16;2.1), dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle (1.13), ladite application s'exécutant selon une seconde référence temporelle (1.14;2.4), caractérisé en ce qu'il comporte des étapes : - d'obtention (4.2;5.1;6.4) de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence temporelle, pourindiquer des instants respectifs de consommation par ledit terminal desdites données audio ; - de détermination (6.6) d'informations de corrélation entre lesdites données audio obtenues et lesdites données audio dudit flux ; - de détermination (6.7) d'une information de décalage temporel entre les première et seconde références temporelles, en fonction des informations de corrélation déterminées et d'informations d'horodatage des données selon les première et seconde références temporelles ; - de synchronisation (4.5;5.4;6.8) de l'application avec ledit contenu, sur la 10 base de l'information de décalage temporel déterminé. 10) A method of synchronizing an application (1.15) with audio content intended to be consumed by a terminal (1.16; 2.1), said consumer terminal, said content being provided in the form of a stream of audio data timestamped according to a first time reference (1.13), said application executing according to a second time reference (1.14; 2.4), characterized in that it comprises steps of: - obtaining (4.2; 5.1; 6.4) audio data of said content, said obtained audio data being timestamped, based on the second time reference, for indicating respective times of consumption by said terminal of said audio data; determining (6.6) correlation information between said audio data obtained and said audio data of said stream; - determining (6.7) time offset information between the first and second time references, based on the determined correlation information and time stamp information of the data according to the first and second time references; synchronization (4.5, 5.4, 6.8) of the application with said content, on the basis of the determined time shift information. 11) Dispositif (1.3) déterminant une information de décalage destinée à synchroniser une application (1.15) avec un contenu audio destiné à être consommé par un terminal (1.16;2.1), dit terminal consommateur, ledit contenu étant fourni sous 15 la forme d'un flux de données audio horodatées selon une première référence temporelle (1.13), ladite application s'exécutant selon une seconde référence temporelle (1.14;2.4), caractérisé en ce qu'il comporte : - des moyens d'obtention (6.4) de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence 20 temporelle, pour indiquer des instants respectifs de consommation par ledit terminal desdites données audio ; - des moyens de détermination (6.6) d'informations de corrélation entre lesdites données audio obtenues et lesdites données audio dudit flux ; - des moyens de détermination (6.7) de l'information de décalage temporel 25 entre les première et seconde références temporelles, en fonction des informations de corrélation déterminées et d'informations d'horodatage des données selon les première et seconde références temporelles. 11) Device (1.3) determining an offset information for synchronizing an application (1.15) with audio content to be consumed by a terminal (1.16; 2.1), said consumer terminal, said content being provided in the form of a stream of audio data timestamped according to a first temporal reference (1.13), said application executing according to a second temporal reference (1.14; 2.4), characterized in that it comprises: means for obtaining (6.4) data audio of said content, said obtained audio data being timestamped, based on the second time reference, for indicating respective times of said terminal consuming said audio data; means for determining (6.6) correlation information between said obtained audio data and said audio data of said stream; means (6.7) for determining the time offset information between the first and second time references, as a function of the determined correlation information and of the time stamp information of the data according to the first and second time references. 12) Dispositif (1.5;2.1) comportant une application (1.15) à synchroniser avec 30 un contenu audio destiné à être consommé par un terminal (1.16;2.1), dit terminal consommateur, ledit contenu étant fourni sous la forme d'un flux de données audio horodatées selon une première référence temporelle (1.13), ladite application s'exécutant selon une seconde référence temporelle (1.14;2.4), caractérisé en ce qu'il comporte :des moyens d'obtention (4.2;5.1) de données audio dudit contenu, lesdites données audio obtenues étant horodatées, sur la base de la seconde référence temporelle, pour indiquer des instants respectifs de consommation par ledit terminal desdites données audio ; - des moyens de transmission, à un dispositif (1.3) destiné à synchroniser ladite application avec le contenu audio, desdites données audio obtenues et horodatées sur la base de la seconde référence temporelle. 12) Device (1.5; 2.1) having an application (1.15) to be synchronized with audio content to be consumed by a terminal (1.16; 2.1), said consumer terminal, said content being provided in the form of a stream of time-stamped audio data according to a first temporal reference (1.13), said application executing according to a second time reference (1.14; 2.4), characterized in that it comprises: means (4.2, 5.1) for obtaining audio data from said content, said obtained audio data being timestamped, based on the second time reference, for indicating respective times of consumption by said terminal of said audio data; means for transmitting, to a device (1.3) intended to synchronize said application with the audio content, said audio data obtained and timestamped on the basis of the second time reference.
FR1059347A 2010-11-15 2010-11-15 SYSTEM AND METHOD FOR SYNCHRONIZING AN APPLICATION WITH AUDIO CONTENT Expired - Fee Related FR2967545B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1059347A FR2967545B1 (en) 2010-11-15 2010-11-15 SYSTEM AND METHOD FOR SYNCHRONIZING AN APPLICATION WITH AUDIO CONTENT
PCT/EP2011/068415 WO2012065805A1 (en) 2010-11-15 2011-10-21 System and method for synchronizing an application with audio content
EP11772979.8A EP2641347A1 (en) 2010-11-15 2011-10-21 System and method for synchronizing an application with audio content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1059347A FR2967545B1 (en) 2010-11-15 2010-11-15 SYSTEM AND METHOD FOR SYNCHRONIZING AN APPLICATION WITH AUDIO CONTENT

Publications (2)

Publication Number Publication Date
FR2967545A1 true FR2967545A1 (en) 2012-05-18
FR2967545B1 FR2967545B1 (en) 2012-12-07

Family

ID=44140773

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1059347A Expired - Fee Related FR2967545B1 (en) 2010-11-15 2010-11-15 SYSTEM AND METHOD FOR SYNCHRONIZING AN APPLICATION WITH AUDIO CONTENT

Country Status (3)

Country Link
EP (1) EP2641347A1 (en)
FR (1) FR2967545B1 (en)
WO (1) WO2012065805A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140114456A1 (en) * 2012-10-22 2014-04-24 Arbitron Inc. Methods and Systems for Clock Correction and/or Synchronization for Audio Media Measurement Systems
CN114630170B (en) * 2022-03-24 2023-10-31 抖音视界有限公司 Audio and video synchronization method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134531A (en) * 1997-09-24 2000-10-17 Digital Equipment Corporation Method and apparatus for correlating real-time audience feedback with segments of broadcast programs
WO2002013396A2 (en) * 2000-08-03 2002-02-14 Apel Steven G Audience survey system and method
WO2007093597A1 (en) * 2006-02-15 2007-08-23 Intime Media (Ireland) Limited Interactive services

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134531A (en) * 1997-09-24 2000-10-17 Digital Equipment Corporation Method and apparatus for correlating real-time audience feedback with segments of broadcast programs
WO2002013396A2 (en) * 2000-08-03 2002-02-14 Apel Steven G Audience survey system and method
WO2007093597A1 (en) * 2006-02-15 2007-08-23 Intime Media (Ireland) Limited Interactive services

Also Published As

Publication number Publication date
EP2641347A1 (en) 2013-09-25
FR2967545B1 (en) 2012-12-07
WO2012065805A1 (en) 2012-05-24

Similar Documents

Publication Publication Date Title
US9026668B2 (en) Real-time and retargeted advertising on multiple screens of a user watching television
US10880340B2 (en) Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
EP3381196B1 (en) Method for synchronising an alternative audio stream
EP3646548B1 (en) Method for transmitting interrupted audio content in a hybrid receiver, system, receiver, and program associated with said method
US20200213682A1 (en) Content exposure attribution based on renderings of related content across multiple devices
EP2932633B1 (en) Device and method for switching between a first data stream and a second data stream
FR2967545A1 (en) SYSTEM AND METHOD FOR SYNCHRONIZING AN APPLICATION WITH AUDIO CONTENT
EP3840388B1 (en) Dual audio-link decoder equipment
FR2980662A1 (en) METHOD FOR RECORDING CONTENT IN A FILE ON A SERVER AND CORRESPONDING DEVICE
WO2022218425A1 (en) Recording streaming method and apparatus, device, and medium
US20130331972A1 (en) System and method for synchronizing an application with audio content
EP3890328B1 (en) Method for managing an audio stream played synchronously usnig a reference clock
US20210006870A1 (en) Object detection from media data rendered on a device networked to a client device
FR2951340A1 (en) METHOD OF MANAGING ACCESS TO A MASKING RESISTANT COMMUNICATION NETWORK, COMPUTER PROGRAM PRODUCT AND CORRESPONDING DEVICES.
EP3661221A1 (en) Method for tracking an audiovisual transmission and device enabling implementation of same
FR3075543B1 (en) METHOD FOR DOWNLOADING A CHAIN FOR ZAPPING A DIGITAL CHAIN BASED ON USER BEHAVIOR
FR3111497A1 (en) A method of managing the reproduction of multimedia content on reproduction devices.
EP3718301B1 (en) Video conference communication
FR2984669A1 (en) Method for providing TV program to terminal equipment i.e. TV, involves utilizing metric for checking predetermined standard quality, and selecting identified source by intermediate device to provide digital video stream to equipment
FR2941112A1 (en) SYNCHRONIZED DIFFUSION OF A FLOW
EP2854415B1 (en) Method for dynamic transmission of information data relating to an audio and/or video programme
WO2014108621A1 (en) Device for synchronising the broadcasting of sound signals and sound broadcaster
WO2021032617A1 (en) Remote sound reproduction system comprising a digital audio broadcaster connected to a digital audio receiver by at least two wireless links
FR2962875A1 (en) SYNCHRONIZED DIFFUSION OF FLOW
FR3013873A1 (en) DATA COMMUNICATION METHOD, ELECTRONIC PAYMENT DEVICE, SYSTEM, COMPUTER PROGRAM PRODUCT AND CORRESPONDING MEDIUM.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

ST Notification of lapse

Effective date: 20180731