FR3035294A1 - METHOD FOR GENERATING SYNCHRONIZED SLIDESHOW WITH AUDIO EVENTS - Google Patents

METHOD FOR GENERATING SYNCHRONIZED SLIDESHOW WITH AUDIO EVENTS Download PDF

Info

Publication number
FR3035294A1
FR3035294A1 FR1500793A FR1500793A FR3035294A1 FR 3035294 A1 FR3035294 A1 FR 3035294A1 FR 1500793 A FR1500793 A FR 1500793A FR 1500793 A FR1500793 A FR 1500793A FR 3035294 A1 FR3035294 A1 FR 3035294A1
Authority
FR
France
Prior art keywords
image
file
time window
audio recording
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1500793A
Other languages
French (fr)
Inventor
Christophe Vaucher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOCLIP SA
Original Assignee
SOCLIP SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOCLIP SA filed Critical SOCLIP SA
Priority to FR1500793A priority Critical patent/FR3035294A1/en
Publication of FR3035294A1 publication Critical patent/FR3035294A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

L'invention concerne un procédé de génération d'un diaporama synchronisé avec des événements audio, le procédé comprenant des étapes consistant à : restituer un enregistrement audio, lire un fichier synchronisation lié à l'enregistrement audio et définissant des instants de début et de fin de fenêtres temporelles (EC1-EC11) associées respectivement à un rang d'image d'une séquence d'images, et des effets d'affichage à appliquer à une image durant chaque fenêtre temporelle, les instants de début et de fin de chaque fenêtre temporelle étant synchronisés avec des événements audio de l'enregistrement audio, et générer successivement des trames d'image en synchronisme avec la restitution de l'enregistrement audio, en déterminant pour chaque trame au moins une fenêtre temporelle active en fonction des instants de début de la trame et de début et de fin des fenêtres temporelles, et en déterminant l'image correspondant à chaque fenêtre temporelle active, en fonction du rang d'image associé à la fenêtre temporelle active, chaque trame étant formée à partir de l'image correspondant à chaque fenêtre temporelle active, en lui appliquant les effets d'affichage de la fenêtre temporelle active définis pour l'instant de début de trame.A method for generating a synchronized slide show with audio events, the method comprising the steps of: rendering an audio recording, playing a synchronization file related to the audio recording and defining start and end times time windows (EC1-EC11) associated respectively with an image rank of a sequence of images, and display effects to be applied to an image during each time window, the start and end times of each window time being synchronized with audio events of the audio recording, and successively generating picture frames in synchronism with the playback of the audio recording, determining for each frame at least one active time window according to the start times of the frame and start and end time windows, and determining the image corresponding to each active time window, e n function of the image rank associated with the active time window, each frame being formed from the image corresponding to each active time window, by applying to it the display effects of the active time window defined for the moment of start of frame

Description

1 PROCEDE DE GENERATION D'UN DIAPORAMA SYNCHRONISE AVEC DES EVENEMENTS AUDIO La présente invention concerne la présentation de données d'images en synchronisme avec des événements audio d'un enregistrement audio. Les logiciels d'édition vidéo conventionnels offrent aux utilisateurs la possibilité de modifier, gérer et créer différents types de contenu vidéo, 5 pouvant combiner et enchainer des séquences vidéo, du texte, des images fixes et des sons. Certains de ces logiciels peuvent permettre d'introduire des effets visuels tels que, progressivement rendre floue ou atténuer une image ou une séquence vidéo, et des transitions pour passer progressivement d'une image ou séquence vidéo à une autre. Ainsi grâce à 10 ces logiciels, l'utilisateur peut définir la durée d'affichage de chaque image fixe, et la durée de chaque transition, et attribuer un effet de transition. Cependant, la réalisation d'un diaporama à l'aide de tels logiciels reste longue et fastidieuse, si bien que ces logiciels sont peu utilisés. Par ailleurs, les procédés permettant de combiner un enregistrement 15 audio avec une séquence d'images ou un enchainement de séquences vidéo restent rudimentaires. Le brevet US 8 626 322 décrit un procédé pour analyser un enregistrement audio pour en extraire des données de caractérisation telles qu'un nombre de battements par minute, une force rythmique, une complexité harmonique, et pour combiner une séquence 20 d'images avec l'enregistrement audio sur la base des données de caractérisation. Il s'avère que les procédés d'analyse d'enregistrements audio ne sont pas fiables dans la mesure où ils ne parviennent pas toujours à extraire des données de caractérisation pertinentes pour synchroniser l'affichage d'une séquence d'images avec un enregistrement audio. En outre 25 ces procédés restent rudimentaires dans la mesure où ils ne permettent pas d'extraire d'un enregistrement audio des données de caractérisation suffisamment détaillées pour déterminer des effets à appliquer à une image affichée en fonction de ces données de caractérisation détaillées. En particulier, ces procédés d'analyse ne parviennent pas à distinguer les 30 différences sources sonores (instruments de musique, voix humaines) dans un enregistrement audio.TECHNICAL FIELD The present invention relates to the presentation of image data in synchronism with audio events of an audio recording. Conventional video editing software provides users with the ability to edit, manage, and create different types of video content that can combine and link video clips, text, still images, and sounds. Some of these softwares may allow to introduce visual effects such as, gradually blurring or attenuating an image or a video sequence, and transitions to progressively move from one image or video sequence to another. Thus with these software, the user can set the display duration of each still image, and the duration of each transition, and assign a transition effect. However, making a slide show using such software is long and tedious, so that these software are little used. Furthermore, methods for combining audio recording with an image sequence or a video sequence are still rudimentary. U.S. Patent No. 8,626,322 discloses a method for analyzing an audio recording for extracting characterization data such as a number of beats per minute, a rhythmic force, a harmonic complexity, and for combining an image sequence with the audio recording based on the characterization data. It turns out that audio record analysis methods are unreliable in that they fail to always extract relevant characterization data to synchronize the display of a sequence of images with an audio recording. . In addition, these methods are rudimentary in that they do not make it possible to extract from an audio recording sufficiently detailed characterization data to determine effects to be applied to a displayed image based on these detailed characterization data. In particular, these methods of analysis fail to distinguish sound source differences (musical instruments, human voices) in an audio recording.

3035294 2 Cette difficulté d'extraction est accentuée notamment lorsque l'enregistrement a subi un encodage ou une compression qui a entrainé la suppression de certaines informations, notamment certaines fréquences inaudibles par l'oreille humaine. Or ces informations sont souvent déterminantes pour faciliter l'extraction de ces données de caractérisation. Il est donc souhaitable de proposer un procédé permettant d'extraire d'une manière fiable d'un fichier audio des données de caractérisation permettant de synchroniser un diaporama et en particulier des effets d'affichage permettant d'animer les images du diaporama. Il peut être 10 également souhaitable de pouvoir définir précisément des effets d'affichage en fonction d'événement audio identifiés dans un enregistrement audio, et de pouvoir précisément synchroniser ces effets avec l'affichage d'images d'un diaporama.3035294 2 This difficulty of extraction is accentuated especially when the recording has undergone an encoding or a compression which led to the suppression of some information, notably certain frequencies inaudible by the human ear. However, this information is often crucial to facilitate the extraction of these characterization data. It is therefore desirable to provide a method for reliably extracting an audio file characterization data for synchronizing a slide show and in particular display effects for animating the images of the slide show. It may also be desirable to be able to accurately define audio event display effects identified in an audio recording, and to be able to accurately synchronize these effects with the display of images of a slide show.

15 Des modes de réalisation concernent un procédé de génération d'un diaporama synchronisé avec des événements audio, le procédé comprenant des étapes exécutées par un terminal et consistant à : mémoriser une séquence de données d'image comprenant des images ordonnées, restituer un enregistrement audio, lire un fichier synchronisation lié à l'enregistrement 20 audio et définissant des fenêtres temporelles d'affichage d'une image, chaque fenêtre temporelle étant définie par des données définissant des instants de début et de fin de la fenêtre temporelle, et étant associée à un rang d'image de la séquence de données d'image et à des données d'effet d'affichage à appliquer à une image à afficher durant la fenêtre temporelle, 25 les instants de début et de fin de chaque fenêtre temporelle étant synchronisés avec des événements audio de l'enregistrement audio, et générer successivement des trames d'image en synchronisme avec la restitution de l'enregistrement audio, chaque trame d'image étant à afficher pendant une période de trame, en déterminant pour chaque trame d'image : 30 au moins une fenêtre temporelle active en fonction d'un instant de début de trame et des données définissant les instants de début et de fin des fenêtres temporelles, une image de la séquence de données d'image, à afficher pour chaque fenêtre temporelle active, en fonction du rang d'image associé à la fenêtre temporelle active, et une animation d'affichage pour chaque image à 35 afficher, en fonction des données d'effet d'affichage de la fenêtre temporelle 3035294 3 active correspondante et de l'instant de début de trame, chaque trame d'image étant formée à partir de l'image correspondant à chaque fenêtre temporelle active, à laquelle est appliqué l'animation d'affichage déterminée pour l'image. Selon un mode de réalisation, une transition d'affichage entre deux images successives de la séquence de données d'image est définie par une période de chevauchement temporel de deux fenêtres temporelles successives, et une animation d'affichage de transition définie par les données d'effet d'affichage des deux fenêtres temporelles successives durant la période de chevauchement temporel. Selon un mode de réalisation, des instants médians des transitions d'affichage sont synchronisés avec des événements audio de l'enregistrement audio. Selon un mode de réalisation, le procédé comprend des étapes 15 d'affichage des trames d'image générées à l'écran du terminal, ou de génération d'une séquence vidéo rassemblant les trames d'image générées. Selon un mode de réalisation, les données d'effet d'affichage d'image de chaque fenêtre temporelle, définissent pour chaque période de trame comprise dans la fenêtre temporelle, au moins l'un des paramètres suivants : 20 une valeur et une vitesse de variation d'atténuation d'affichage d'image, une valeur et une vitesse de variation de zoom de l'image, un angle et une vitesse de rotation de l'image par rapport à une fenêtre d'affichage de l'image, une valeur, une vitesse et une direction de déplacement de l'image par rapport à une fenêtre d'affichage de l'image, une amplitude, une 25 fréquence de vibration et un paramètre soumis à la vibration choisi parmi une translation, une rotation, un zoom ou une atténuation de l'image, des variations géométriques du format de l'image, des variations de couleur de l'image, et une amplitude, et une fréquence de vibration à appliquer à un vibreur mécanique du terminal.Embodiments are directed to a method of generating a synchronized slideshow with audio events, the method comprising steps performed by a terminal including: storing an image data sequence including ordered images, rendering an audio recording , read a synchronization file related to the audio recording and defining time windows for displaying an image, each time window being defined by data defining times of beginning and end of the time window, and being associated with an image rank of the image data sequence and display effect data to be applied to an image to be displayed during the time window, the start and end times of each time window being synchronized with audio events of the audio recording, and successively generating picture frames in synchronism with the playback of the audio recording, each frame of image to be displayed during a frame period, determining for each frame of image: at least one active time window as a function of a frame start time and data defining the times of start and end of the time windows, an image of the image data sequence to be displayed for each active time window, according to the image rank associated with the active time window, and a display animation for each image to be displayed, based on the display effect data of the corresponding active time window and the frame start time, each frame of image being formed from the image corresponding to each active time window, to which is applied the display animation determined for the image. According to one embodiment, a display transition between two successive images of the image data sequence is defined by a time overlap period of two successive time windows, and a transition display animation defined by the data of the image data sequence. display effect of the two successive time windows during the time overlap period. According to one embodiment, median times of the display transitions are synchronized with audio events of the audio recording. According to one embodiment, the method comprises steps of displaying the image frames generated on the screen of the terminal, or of generating a video sequence gathering the generated image frames. According to one embodiment, the image display effect data of each time window define, for each frame period included in the time window, at least one of the following parameters: a value and a speed of image display attenuation variation, zoom image rate and speed of image, angle and rotational speed of the image with respect to a picture display window, a value, a speed and a direction of movement of the image with respect to a display window of the image, an amplitude, a vibration frequency and a parameter subjected to the vibration selected from among a translation, a rotation, a zooming or attenuation of the image, geometric variations of the image format, color variations of the image, and an amplitude, and a vibration frequency to be applied to a mechanical vibrator of the terminal.

30 Selon un mode de réalisation, les données d'effet d'affichage d'image de chaque fenêtre temporelle, comprennent pour chaque paramètre d'effet d'affichage un ensemble de points définissant une courbe de variation du paramètre d'effet d'affichage, s'étendant entre des instants de début et de fin de la fenêtre temporelle.According to one embodiment, the image display effect data of each time window comprise for each display effect parameter a set of points defining a variation curve of the display effect parameter. , extending between times of start and end of the time window.

3035294 4 Selon un mode de réalisation, le procédé comprend des étapes de fusion de plusieurs fichiers de synchronisation et de fusion correspondante des fichiers d'enregistrement audio associés. Selon un mode de réalisation, la fusion de plusieurs fichiers de synchronisation comprend des étapes de : disposition en première position dans un fichier résultant d'un fichier sélectionné parmi les fichiers de synchronisation à fusionner comportant une étiquette indiquant qu'il peut figurer au début d'un diaporama, disposition à la suite d'un fichier précédent inséré dans le fichier résultant, d'un fichier sélectionné parmi les fichiers de 10 synchronisation à fusionner comportant des étiquettes indiquant un volume sonore de début et/ou un nombre de battements de début ayant des valeurs proches d'un volume sonore de fin et d'un nombre de battements de fin indiqués dans le fichier précédent, et disposition en dernière position dans le fichier résultant d'un fichier sélectionné parmi les fichiers de synchronisation à fusionner comportant une étiquette indiquant qu'il peut figurer à la fin d'un diaporama. Des modes de réalisation concernent également un procédé de génération d'un fichier de synchronisation utilisable pour générer un diaporama synchronisé avec des événements audio, le procédé comprenant des étapes de génération d'un fichier de synchronisation principal consistant à : lire un fichier d'enregistrement audio à lier au fichier de synchronisation principal, et afficher dans une image d'interface homme-machine graphique une forme d'onde définie à partir du fichier d'enregistrement audio, recevoir d'un opérateur des actions identifiant des événements audio dans l'enregistrement audio, définir en relation avec les événements audio identifiés des instants de transition, définir des instants de début et de fin de fenêtres temporelles à partir des instants de transition, les instants de début et fin de chaque fenêtre temporelle correspondant respectivement à un instant de début d'une transition et un instant de fin d'une transition suivante, les instants de transitions et les instants de début et de fin des fenêtres temporelles étant définis en relation avec un axe temporel commun avec la forme d'onde, recevoir et traiter des commandes d'ajustement des durées des transitions, et ajuster les instants de début et de fin des fenêtres temporelles en fonction des durées ajustées des transitions, recevoir de l'opérateur des données d'effet de transition, et recevoir de l'opérateur des 3035294 5 données de paramètres d'effet d'affichage d'image pour une fenêtre temporelle, les données de paramètres d'effet d'affichage comprenant pour chaque paramètre spécifié des points d'une courbe de variation du paramètre entre les instants de début et de fin de la fenêtre temporelle, et 5 inscrire dans le fichier de synchronisation principal les données reçues et/ou définies pour chaque fenêtre temporelle et chaque transition. Selon un mode de réalisation, les instants de transition sont situés au milieu d'une transition, les instants de début et de fin des fenêtres temporelles étant définis en fonction d'une durée prédéfinie de transition 10 attribuée à chaque transition. Selon un mode de réalisation, le procédé comprend une étape de génération d'un fichier de synchronisation dérivé à partir du fichier de synchronisation principal, le fichier de synchronisation dérivé étant utilisé pour mettre en oeuvre le procédé de génération d'un diaporama défini 15 précédemment. Selon un mode de réalisation, la génération du fichier de synchronisation comprend des étapes de : extraction du fichier de synchronisation principal d'une série de fenêtres temporelles consécutives, définition de paramètres d'animation d'affichage des fenêtres temporelles 20 extraites, en fonction des paramètres d'effet d'affichage définis pour les fenêtres temporelles extraites, les paramètres d'animation étant directement exploitables par des fonctions d'animation d'image d'un système d'exploitation d'un terminal utilisé pour restituer le diaporama synchronisé avec des événements audio, et extraction du fichier d'enregistrement audio 25 correspondant d'un extrait d'enregistrement audio correspondant aux fenêtres temporelles extraites. Selon un mode de réalisation, certaines fenêtres temporelles définies dans le fichier de synchronisation principal comportent une indication que la fenêtre temporelle est associée à une même image que la fenêtre temporelle 30 précédente, la génération du fichier de synchronisation dérivé comprenant une étape de fusion de deux fenêtres temporelles consécutives associées à une même image. Selon un mode de réalisation, la génération du fichier de synchronisation dérivé comprenant des étapes d'introduction de transitions 35 de début et de fin de diaporama dans le fichier de synchronisation dérivé et 3035294 6 dans d'un extrait d'enregistrement audio correspondant au fichier de synchronisation dérivé. Des modes de réalisation concernent également un terminal configuré pour mettre en oeuvre le procédé de génération d'un diaporama défini 5 précédemment. Des modes de réalisation concernent également un terminal configuré pour mettre en oeuvre le procédé de génération d'un fichier de synchronisation défini précédemment.According to one embodiment, the method comprises steps of merging several synchronization files and corresponding merging of the associated audio recording files. According to one embodiment, the merging of several synchronization files comprises steps of: placing in the first position in a file resulting from a file selected from the synchronization files to be merged, including a label indicating that it can appear at the beginning of a slide show, disposition as a result of a previous file inserted in the resulting file, of a file selected from the synchronization files to be merged having labels indicating a start volume and / or a start number of beats having values close to an end sound volume and a number of end beats indicated in the previous file, and last position in the resulting file of a selected file among the synchronization files to be merged with a label indicating that it may appear at the end of a slide show. Embodiments also include a method of generating a synchronization file operable to generate a synchronized slideshow with audio events, the method comprising steps of generating a main synchronization file comprising: reading a recording file audio to be linked to the main synchronization file, and display in a graphical human-machine interface image a waveform defined from the audio recording file, receiving from an operator actions identifying audio events in the audio recording, define in connection with the identified audio events transition times, define start times and end times of time windows from the transition times, the start and end times of each time window respectively corresponding to a time of beginning of a transition and an end time of a next transition, the i nstants of transitions and the times of start and end time windows being defined in relation to a common time axis with the waveform, receive and process controls for adjusting the durations of transitions, and adjust the start times and end of time windows as a function of the adjusted transition times, receiving transition effect data from the operator, and receiving image display effect parameter data for the operator from the operator for a window time, the display effect parameter data comprising for each specified parameter points of a parameter variation curve between the start and end times of the time window, and write in the main synchronization file the data received and / or defined for each time window and each transition. According to one embodiment, the transition instants are located in the middle of a transition, the start and end times of the time windows being defined according to a predefined transition time attributed to each transition. According to one embodiment, the method comprises a step of generating a synchronization file derived from the main synchronization file, the derived synchronization file being used to implement the method of generating a slideshow defined previously. . According to one embodiment, the generation of the synchronization file comprises the steps of: extracting the main synchronization file from a series of consecutive time windows, defining animation parameters for displaying the extracted time windows, as a function of the display effect parameters defined for the extracted time windows, the animation parameters being directly exploitable by image animation functions of a terminal operating system used to render the synchronized slideshow with audio events, and extracting the corresponding audio recording file of an audio recording extract corresponding to the extracted time windows. According to one embodiment, certain time windows defined in the main synchronization file include an indication that the time window is associated with the same image as the previous time window, the generation of the derived synchronization file comprising a step of merging two consecutive time windows associated with the same image. According to one embodiment, the generation of the derived synchronization file comprising steps of introducing slide show start and end transitions into the derived sync file and into an audio recording snippet corresponding to the file. derived synchronization. Embodiments also relate to a terminal configured to implement the method of generating a slideshow defined above. Embodiments also relate to a terminal configured to implement the method of generating a synchronization file defined above.

10 Des exemples de réalisation de l'invention seront décrits dans ce qui suit, à titre non limitatif en relation avec les figures jointes parmi lesquelles : la figure 1 représente schématiquement un système permettant de générer des fichiers de synchronisation et de distribuer des fichiers d'enregistrement audio associés chacun à un fichier de synchronisation 15 d'affichage d'une série d'images, selon un mode de réalisation, les figures 2 et 3 représentent schématiquement des images affichées, selon un mode de réalisation, lors de la génération d'un fichier de de synchronisation, la figure 4 représente schématiquement une partie des données 20 d'affichage et de synchronisation relative à l'affichage d'une image de la série d'images, la figure 5 représente schématiquement une partie des données d'affichage et de synchronisation relative à une transition entre l'affichage de deux images successives, 25 la figure 6 représente schématiquement un mode de définition de données temporelles relatives à l'affichage des images et aux transitions entre l'affichage de deux images successives, la figure 7 représente des étapes d'un procédé de sélection d'images et d'un enregistrement audio pour générer un diaporama, 30 la figure 8 représente des étapes exécutées pour générer un diaporama à partir de données de synchronisation, d'un fichier d'enregistrement audio et de données d'image, la figure 9 représente une image affichée lors de l'exécution d'un procédé de tri d'images.Exemplary embodiments of the invention will be described in the following, without limitation in connection with the accompanying figures in which: Figure 1 schematically shows a system for generating synchronization files and distribute files of Each of the audio recordings associated with a synchronization file 15 for displaying a series of images, according to one embodiment, FIGS. 2 and 3 diagrammatically represent displayed images, according to one embodiment, during the generation of images. a synchronization file, FIG. 4 diagrammatically represents part of the display and synchronization data relating to the display of an image of the series of images, FIG. 5 schematically represents a part of the display data. and of synchronization relating to a transition between the display of two successive images, FIG. 6 schematically represents a mode of defined timing data relating to the display of images and the transitions between the display of two successive images, FIG. 7 represents steps of an image selection process and an audio recording to generate a slide show, FIG. 8 shows steps performed to generate a slide show from synchronization data, an audio recording file and image data, FIG. 9 represents an image displayed during the execution of a method of sorting images.

3035294 7 La figure 1 représente un système permettant de générer des fichiers de synchronisation et de distribuer des fichiers d'enregistrement audio associés chacun à un fichier de synchronisation, pour générer et afficher un diaporama à partir d'une série d'images. Le système comprend un serveur SRV et des terminaux d'utilisateurs FT, MT, pouvant se connecter au serveur SRV par l'intermédiaire d'un réseau NT tel que le réseau Internet. Le serveur SRV est connecté à une base de données DB et à des terminaux d'opérateurs GT configurés pour générer des fichiers de synchronisation MF, SF à partir de fichiers d'enregistrement audio AF, AFE. Les terminaux 10 d'utilisateur peuvent comprendre des ordinateurs personnels FT et des terminaux mobiles MT tels que des téléphones "intelligents" (smartphones) et des tablettes numériques. Le système peut également comprendre d'autres serveurs associés à chacun à une base de données contenant une partie des données 15 enregistrées dans la base de données DB, et notamment des fichiers d'enregistrement audio associés chacun à un fichier de synchronisation. Les adresses URL de ces serveurs ou des fichiers audio et de synchronisation qu'ils stockent peuvent être mémorisées dans la base de données DB.Fig. 1 shows a system for generating synchronization files and distributing audio recording files each associated with a synchronization file, for generating and displaying a slideshow from a series of images. The system includes an SRV server and FT, MT user terminals, which can connect to the SRV server via an NT network such as the Internet. The SRV server is connected to a DB database and GT operator terminals configured to generate MF, SF synchronization files from AF audio recording files, AFE. User terminals may include FT personal computers and MT mobile terminals such as "smart" phones (smartphones) and digital tablets. The system may also include other servers each associated with a database containing a portion of the data stored in the DB database, including audio recording files each associated with a synchronization file. The URLs of these servers or the audio and synchronization files they store can be stored in the DB database.

20 Pour générer les fichiers de synchronisation MF, SF, les terminaux d'opérateurs GT accèdent à la base de données DB par l'intermédiaire du serveur SRV, pour y sélectionner et obtenir des fichiers d'enregistrement audio AF. Les terminaux d'opérateurs GT sont configurés pour lire et restituer le fichier d'enregistrement audio sélectionné.To generate the MF, SF synchronization files, the GT operator terminals access the DB database via the SRV server to select and obtain AF audio recording files. The GT operator terminals are configured to play back and playback the selected audio recording file.

25 La figure 2 représente une image affichée par le terminal GT lorsque l'opérateur a sélectionné un fichier d'enregistrement audio AF. Dans ce qui suit, le terme "image" peut désigner une photographie numérique ou une image d'une séquence vidéo numérique, ou plus généralement un objet graphique ou un ensemble d'objets graphiques, chacun étant représenté par 30 une matrice de points ou susceptible d'être affiché sur un écran d'ordinateur ou de terminal mobile. L'image de la figure 2 présente une forme d'onde AWF représentative de deux voies stéréophoniques contenues dans le fichier d'enregistrement audio sélectionné. Cette image comporte également une barre de sélection 35 SLB et une barre de zoom ZS permettant de sélectionner une fenêtre 3035294 8 temporelle de la forme d'onde AWF à afficher spécifiquement à l'écran d'affichage. La zone d'affichage de la forme d'onde AWF comporte une barre verticale CPT affichée lors de la restitution sonore du fichier d'enregistrement audio sélectionné et constituant un curseur se déplaçant de la gauche vers la droite en indiquant l'instant de l'enregistrement audio en cours de restitution dans la forme d'onde AWF. La barre de zoom ZS s'étend sur toute la durée de l'enregistrement audio sélectionné et présente une zone foncée définissant la partie de l'enregistrement audio correspondant à la forme d'onde affichée AWF. L'opérateur peut déplacer les limites gauche et droite 10 de la zone foncée dans la barre de zoom ZS pour modifier la zone de la forme d'onde AWF affichée. La figure 3 représente une image affichée par le terminal GT lorsque l'opérateur a introduit des données de synchronisation dans le terminal GT. Ces données de synchronisation comprennent des fenêtres temporelles 15 ECO-EC11 d'affichage d'une image et des données de transition TT, numérotées de 1 à 11 sur la figure 3, entre chaque paire de fenêtres temporelles successives. Chaque fenêtre temporelle EC1-EC12 et chaque transition TT est définie par des données spécifiant des instants de début et de fin de la fenêtre temporelle ou de la transition. Les bords gauche et droit 20 des fenêtres temporelles ECO-EC11 et des transitions TT indiquent les instants de début et la fin de la fenêtre temporelle ou de la transition, par rapport à la forme d'onde AWF. L'opérateur du terminal GT a la possibilité de définir et de déplacer à sa guise les bords gauche et droit de chaque fenêtre temporelle et chaque transition en fonction de la forme d'onde AWF ou en 25 écoutant l'enregistrement audio correspondant et en repérant la position du curseur CPT aux instants remarquables de l'enregistrement audio. Chaque fenêtre temporelle EC1-EC11 est associée à un rang d'image d'une série d'images à spécifier par l'utilisateur d'un des terminaux FT, MT. La fenêtre temporelle ECO n'est associée à aucune image, mais correspond 30 à la période de blanc au début du fichier audio. La fenêtre ECO permet de définir une première transition TT, numérotée 1, pour l'affichage d'une première image de la série d'images. Les fenêtres temporelles ECO-EC11 sont réparties dans deux bandes horizontales pour permettre de définir des chevauchements entre les fenêtres temporelles, la durée de chaque 3035294 9 chevauchement correspondant à la durée d'une transition TT correspondante. L'image de la figure 3 présente également une barre de marquage MB dans laquelle l'opérateur peut introduire des marqueurs MK permettant 5 de repérer la structure musicale de l'enregistrement audio, et en particulier de délimiter des zones remarquables dans l'enregistrement audio, telles qu'une introduction, des couplets, un refrain, des phases de solo, etc., sélectionnées parmi une liste de types de zone. Chaque fenêtre temporelle EC1-EC11 permet de spécifier des 10 paramètres d'effets d'affichage d'une image à afficher durant la fenêtre temporelle. Ainsi, la figure 4 représente un exemple de contenu graphique d'une fenêtre temporelle EC<n> pouvant correspondre à l'une des fenêtres temporelles EC1-EC11 présentées dans l'image de la figure 3. La fenêtre temporelle EC<n> comporte plusieurs zones d'effet d'affichage EF1-EF6 15 spécifiant chacune un paramètre d'effet d'affichage. Chaque zone d'effet d'affichage spécifie pour un paramètre d'affichage respectif une courbe d'évolution de la valeur de ce paramètre. Chaque courbe d'évolution spécifiée dans une zone d'effet d'affichage EF1-EF6 s'étend entre les bords gauche et droit de la fenêtre temporelle EC<n>, c'est-à-dire entre les instants 20 de début et de fin de la fenêtre temporelle EC<n>. Chaque courbe d'évolution d'un paramètre d'affichage est définie par deux points d'extrémité gauche et droit et éventuellement des points intermédiaires, et par un segment de droite reliant les deux points de chaque paire de points consécutifs. Ainsi la courbe de l'effet d'affichage EF2 est définie par des 25 points PTO à PT5 et des segments SG1 à SG5 entre les points PTO-PT5. Les zones d'effet d'affichage EF1-EF6 peuvent indiquer un niveau neutre NL indiquant où est située la valeur du paramètre d'affichage n'introduisant pas de modification de l'image d'origine. Les positions des points sont définies entre 0 et 100% ou entre -100% et +100% d'une valeur maximale du 30 paramètre considéré indiquée dans une zone en haut à gauche de la zone d'effet d'affichage. Ainsi, les paramètres d'effets d'affichage peuvent définir par exemple un zoom, une rotation, une translation, une vibration, ou une atténuation de l'image. Les paramètres d'affichage peuvent comprendre par exemple : 35 - une valeur ZLV et une vitesse de variation ZSP de zoom, 3035294 10 - une valeur FLV entre 0 et 100% et une vitesse de variation FSP de transparence ou d'atténuation de l'image, - un angle RANG et une vitesse RSP de rotation de l'image par rapport à une fenêtre d'affichage de l'image, 5- une amplitude, une vitesse et une direction de translation de l'image par rapport à une fenêtre d'affichage de l'image, - une amplitude, une fréquence et une direction de vibration (en translation suivant x ou y, en rotation, en zoom ou en atténuation), - des variations géométriques du format de l'image, 10 - des variations de couleur de l'image, etc. Chaque fenêtre temporelle EC<n> peut comprendre un indicateur spécifiant si la fenêtre temporelle est associée à la même image (duplication d'image) que la fenêtre temporelle précédente EC<n-1> ou si elle est 15 associée à une image suivante dans la série d'images sélectionnée par l'utilisateur. Ainsi la fenêtre temporelle EC<n> comprend un bandeau inférieur divisé en une partie gauche TPM et une partie droite DPM, la partie droite DPM étant blanche ou colorée pour indiquer si l'image attribuée à la fenêtre temporelle précédente est également attribuée à cette fenêtre 20 temporelle. La partie droite TPM de ce bandeau peut être utilisée pour spécifier que la fenêtre temporelle est de préférence associée à une image identifiée comme remarquable par l'opérateur. Cette indication peut entrainer une modification du rang d'affichage de la série d'images sélectionnée par l'utilisateur.Fig. 2 shows an image displayed by the GT terminal when the operator has selected an audio recording file AF. In the following, the term "image" may refer to a digital photograph or an image of a digital video sequence, or more generally a graphic object or a set of graphic objects, each represented by a matrix of points or susceptible to be displayed on a computer screen or mobile terminal. The image of Figure 2 shows an AWF waveform representative of two stereophonic channels contained in the selected audio recording file. This image also includes an SLB selection bar and a ZS zoom bar for selecting a time window of the AWF waveform to be specifically displayed on the display screen. The display area of the AWF waveform has a vertical bar CPT displayed during the sound reproduction of the selected audio recording file and constituting a cursor moving from the left to the right indicating the instant of the audio recording being played back in the AWF waveform. The ZS zoom bar extends for the duration of the selected audio recording and has a dark area defining the portion of the audio recording corresponding to the displayed AWF waveform. The operator can move the left and right boundaries of the dark area in the ZS zoom bar to change the area of the displayed AWF waveform. FIG. 3 represents an image displayed by the GT terminal when the operator has introduced synchronization data into the terminal GT. These timing data include ECO-EC11 time slots for displaying an image and TT transition data, numbered 1 to 11 in Fig. 3, between each pair of successive time windows. Each time window EC1-EC12 and each transition TT is defined by data specifying start and end times of the time window or transition. The left and right edges of the ECO-EC11 time windows and TT transitions indicate the start times and the end of the time window or transition, with respect to the AWF waveform. The GT terminal operator has the ability to set and move the left and right edges of each time window and transition as desired according to the AWF waveform or by listening to the corresponding audio recording and by locating the position of the CPT cursor at the remarkable moments of the audio recording. Each time window EC1-EC11 is associated with an image rank of a series of images to be specified by the user of one of the FT, MT terminals. The ECO time window is not associated with any image, but corresponds to the blank period at the beginning of the audio file. The ECO window makes it possible to define a first TT transition, numbered 1, for displaying a first image of the series of images. The time windows ECO-EC11 are divided into two horizontal bands to allow overlaps between the time windows to be defined, the duration of each overlap corresponding to the duration of a corresponding TT transition. The image of FIG. 3 also shows a marker bar MB in which the operator can introduce markers MK for identifying the musical structure of the audio recording, and in particular for delimiting remarkable areas in the audio recording. such as an introduction, verses, chorus, solo phases, etc., selected from a list of zone types. Each time window EC1-EC11 makes it possible to specify display effect parameters of an image to be displayed during the time window. Thus, FIG. 4 represents an exemplary graphic content of a time window EC <n> that can correspond to one of the time windows EC1-EC11 presented in the image of FIG. 3. The time window EC <n> comprises a plurality of display effect zones EF1-EF6 each specifying a display effect parameter. Each display effect area specifies for a respective display parameter an evolution curve of the value of this parameter. Each evolution curve specified in a display effect area EF1-EF6 extends between the left and right edges of the time window EC <n>, i.e. between the start times and end of the time window EC <n>. Each evolution curve of a display parameter is defined by two left and right endpoints and possibly intermediate points, and a line segment connecting the two points of each pair of consecutive points. Thus the curve of the display effect EF2 is defined by points PTO to PT5 and segments SG1 to SG5 between the points PTO-PT5. The display effect areas EF1-EF6 may indicate a neutral level NL indicating where is located the value of the display parameter not introducing a modification of the original image. The positions of the points are defined between 0 and 100% or between -100% and + 100% of a maximum value of the parameter considered indicated in a zone at the top left of the display effect zone. Thus, the display effect parameters can define for example a zoom, a rotation, a translation, a vibration, or an attenuation of the image. The display parameters may comprise, for example: a ZLV value and a zooming speed ZSP, an FLV value between 0 and 100% and a FSP transparency or attenuation rate of change. image, - an angle RANG and a rotational speed RSP of the image with respect to a window for displaying the image, 5 - an amplitude, a speed and a direction of translation of the image with respect to a window for displaying the image, - an amplitude, a frequency and a direction of vibration (in translation along x or y, in rotation, in zoom or attenuation), - geometric variations of the image format, - color variations of the image, etc. Each time window EC <n> may include an indicator specifying whether the time window is associated with the same image (image duplication) as the previous time window EC <n-1> or whether it is associated with a subsequent image in the series of images selected by the user. Thus the time window EC <n> comprises an inferior band divided into a left part TPM and a right part DPM, the right part DPM being white or colored to indicate if the image attributed to the previous temporal window is also attributed to this window Time. The right portion TPM of this strip can be used to specify that the time window is preferably associated with an image identified as remarkable by the operator. This indication can cause a modification of the display rank of the series of images selected by the user.

25 La figure 5 représente en particulier les transitions TT<n> et TT<n+1> avant et après la fenêtre temporelle EC<n>. La transition TT<n> est située entre les fenêtres temporelles EC<n-1> et EC<n>, et la transition TT<n+1> est située entre les fenêtres temporelles EC<n> et EC<n+1>. La figure 6 représente sur un axe temporel les instants de début et de fin et les durées 30 des fenêtres temporelles EC<n-1>, EC<n> et EC<n+1> et des transitions TT<n> et TT<n+1>. Le bord gauche, c'est-à-dire l'instant de début ECP<n> de la fenêtre temporelle EC<n> correspond à l'instant de début de la transition TT<n>. Le bord droit, c'est-à-dire l'instant de fin de la fenêtre temporelle EC<n-1> correspond à l'instant de fin de la transition TT<n>. De 35 même, le bord gauche, c'est-à-dire l'instant de début ECP<n+1> de la 3035294 11 fenêtre temporelle EC<n+1> correspond à l'instant de début de la transition TT<n+1>. Le bord droit, c'est-à-dire l'instant de fin de la fenêtre temporelle EC<n> correspond à l'instant de fin de la transition TT<n+1>. Sur la figure 6, chaque fenêtre temporelle EC<n> est définie par une 5 position ECP<n> correspondant à l'instant de début de la fenêtre temporelle, et une durée ECW<n>. De même, chaque transition TT<n> est définie par une position TTP<n> correspondant à l'instant médian de la transition, et une durée TTW<n>. Ainsi, l'instant de début ECP<n> de la fenêtre temporelle EC<n> est égal à l'instant de début de la transition TT<n>, lequel est égal à 10 TTP<n> - TTVV<n>/2. L'instant de fin de la fenêtre temporelle EC<n> (égal à ECP<n> + ECW<n>) est égal à l'instant de fin de la transition TT<n+1>, c'est-à-dire à TTP<n+1> + TTW<n+1>/2. Le terminal GT est configuré pour permettre à un opérateur de spécifier graphiquement des fenêtres temporelles telles que définies 15 précédemment, en synchronisme avec des événements audio de l'enregistrement audio se trouvant dans le fichier audio sélectionné AF et dont la forme d'onde AWF est présentée en synchronisme avec les fenêtres temporelles (figure 3). Ces événements audio peuvent être détectés sur la forme d'onde affichée ou en écoutant l'enregistrement audio. Ces 20 événements audio peuvent également être détectés par un traitement de signal appliqué à l'enregistrement audio. Un tel traitement de signal peut fournir par exemple des diagrammes d'amplitude, de fréquence et/ou d'énergie en fonction du temps, qui peuvent être affichés à côté ou à la place de la forme d'onde AWF. Ces diagrammes visent à permettre à l'opérateur 25 de repérer plus facilement et précisément des événements liés aux rythmes de l'enregistrement audio, ne pouvant être discernés ni en écoutant l'enregistrement audio, ni en visualisant la forme d'onde AWF. Ces événements audio peuvent être par exemple un battement de rythme de l'enregistrement audio, un battement de caisse claire, un "riff' de guitare (une 30 courte succession d'accords jouée de manière répétitive), un placage d'accord de piano, etc. Un autre outil d'analyse de signal audio peut permettre de placer précisément une transition à l'instant d'apparition d'un battement ou d'un pic d'amplitude du son. Cet outil d'analyse peut être également configuré pour 35 positionner des transitions ou définir toute autre donnée utile à la définition 3035294 12 des effets d'affichage ou des courbes de variation de paramètres d'effet d'affichage, l'opérateur n'ayant ensuite plus qu'à affiner la position des transitions et préciser les effets d'affichage en fonction de sa perception de l'enregistrement audio. Le terminal GT peut également importer des 5 informations issues d'un traitement externe appliqué à l'enregistrement audio, permettant notamment de définir la position des transitions TT<n>, ou toute donnée utile à la détermination des paramètres d'effet d'affichage EF. Le terminal GT peut ainsi mettre en oeuvre plusieurs outils d'analyse de signal audio qui peuvent être activés par l'opérateur en cas de besoin, 10 pour seconder l'oreille humaine. A chaque occurrence d'un événement audio détecté, l'opérateur peut spécifier la position d'une transition en introduisant une commande sur le terminal GT, par exemple par un clic de souris, ou l'actionnement d'une touche de clavier dédiée, ce qui a pour effet de spécifier les instants TTP<n> 15 médians des transitions TT<n>. Cette opération a pour effet de créer des transitions TT<n> d'une durée prédéfinie et des fenêtres temporelles EC<n> entre les transitions. L'opérateur peut ensuite ajuster la durée de chaque transition TT<n> ou de chaque fenêtre temporelle EC<n>, ce qui a pour effet d'ajuster la durée de chaque fenêtre temporelle EC<n> ou de chaque 20 transition TT<n>. L'opérateur peut ensuite définir des effets d'affichage EF pour chaque fenêtre temporelle et un mode de transition pour chaque transition. A cet effet, le terminal GT est configuré pour permettre à l'opérateur d'ajouter ou supprimer des zones d'effet d'affichage EF et de déplacer et ajouter des points dans les zones d'effet d'affichage EF.In particular, FIG. 5 represents the transitions TT <n> and TT <n + 1> before and after the time window EC <n>. The transition TT <n> is located between the time windows EC <n-1> and EC <n>, and the transition TT <n + 1> is located between the time windows EC <n> and EC <n + 1> . FIG. 6 represents on a time axis the start and end times and the durations of the time windows EC <n-1>, EC <n> and EC <n + 1> and transitions TT <n> and TT < n + 1>. The left edge, that is, the start time ECP <n> of the time window EC <n> corresponds to the start time of the transition TT <n>. The right edge, that is to say the end time of the time window EC <n-1> corresponds to the end time of the transition TT <n>. Similarly, the left edge, i.e., the start time ECP <n + 1> of the time window EC <n + 1> corresponds to the start time of the transition TT < n + 1>. The right edge, that is to say the end time of the time window EC <n> corresponds to the end time of the transition TT <n + 1>. In FIG. 6, each time window EC <n> is defined by a position ECP <n> corresponding to the start time of the time window, and a duration ECW <n>. Likewise, each transition TT <n> is defined by a position TTP <n> corresponding to the median time of the transition, and a duration TTW <n>. Thus, the start time ECP <n> of the time window EC <n> is equal to the start time of the transition TT <n>, which is equal to 10 TTP <n> - TTVV <n> / 2. The end time of the time window EC <n> (equal to ECP <n> + ECW <n>) is equal to the end time of the transition TT <n + 1>, that is, tell TTP <n + 1> + TTW <n + 1> / 2. The terminal GT is configured to allow an operator to graphically specify time windows as defined above in synchronism with audio events of the audio recording in the selected audio file AF and whose AWF waveform is presented in synchronism with the time windows (Figure 3). These audio events can be detected on the displayed waveform or by listening to the audio recording. These audio events can also be detected by a signal processing applied to the audio recording. Such signal processing may provide, for example, amplitude, frequency and / or energy versus time diagrams, which may be displayed adjacent to or in place of the AWF waveform. These diagrams are intended to allow the operator to more easily and accurately identify events related to the timing of the audio recording, which can not be discerned either by listening to the audio recording or by viewing the AWF waveform. These audio events may be for example a beat of the audio recording, a snare drum, a guitar riff (a short succession of chords played repeatedly), a piano chord veneer , etc. Another audio signal analysis tool can be used to precisely place a transition at the instant of a beat or peak amplitude of the sound.This analysis tool can be configured as well. to position transitions or other useful data in the definition of the display effects or display effect parameter variation curves, the operator then only has to refine the position of the display effects. The GT terminal can also import information from external processing applied to the audio recording, in particular to define the effects of the display as a function of its perception of the audio recording. setting transitions TT <n>, or any data useful for determining EF display effect parameters. The GT terminal can thus implement several audio signal analysis tools that can be activated by the operator if necessary, to assist the human ear. At each occurrence of a detected audio event, the operator can specify the position of a transition by entering a command on the terminal GT, for example by a mouse click, or the operation of a dedicated keyboard key, this has the effect of specifying the instants TTP <n> 15 medians transitions TT <n>. This operation has the effect of creating transitions TT <n> of a predefined duration and time windows EC <n> between the transitions. The operator can then adjust the duration of each transition TT <n> or each time window EC <n>, which has the effect of adjusting the duration of each time window EC <n> or each transition TT < n>. The operator can then define EF display effects for each time window and a transition mode for each transition. For this purpose, the terminal GT is configured to allow the operator to add or delete EF display effect areas and to move and add points in the display effect areas EF.

25 Le terminal GT est également configuré pour offrir à l'opérateur des fonctions de copier-coller pour dupliquer des séquences de fenêtres temporelles et de transitions, qu'il peut associer à des phases répétitives de l'enregistrement audio. L'écran d'affichage du terminal GT peut comporter une fenêtre d'affichage d'une image, pour visualiser les effets obtenus sur 30 une série d'images, au fur et à mesure de la définition des fenêtres temporelles et des transitions. Une fois que l'opérateur a défini toutes les fenêtres temporelles d'un fichier d'enregistrement audio, toutes les données spécifiant ces fenêtres temporelles sont rassemblées dans un fichier de synchronisation principal 35 MF qui est introduit dans la base de données DB, associé avec le fichier 3035294 13 d'enregistrement audio correspondant AF. Un exemple de fichier de synchronisation principal est donné en Annexe L Ce fichier est écrit dans un langage standard tel que JSON (JavaScript Object Notation). Réciproquement, un tel fichier MF peut être lu et représenté graphiquement 5 sous la forme telle que présentée sur la figure 3. Le fichier de synchronisation principal MF introduit par un mot-clé "AudioCase" rassemblant la désignation d'un fichier d'enregistrement audio et des données synchronisation correspondant au fichier audio. Le fichier de synchronisation principal MF comprend un mot-clé "AudioFile" permettant 10 d'introduire un nom de fichier d'enregistrement audio. Le fichier de synchronisation principal MF comprend ensuite : - une liste de marqueurs introduite par le mot-clé "listMarkers", - une liste de d'étiquettes introduite par le mot-clé "tags". - une liste de zones introduite par le mot-clé "listZones", 15 - une liste de transitions introduite par le mot-clé "listTransition", - une liste de données de spécification de fenêtres temporelles, introduite par le mot-clé "listPhotoFile", et - une liste de fichiers de synchronisation dérivés, extraits du fichier de synchronisation principal, cette liste étant introduite par le mot-clé 20 "listSubCases", La liste de marqueurs correspond aux différents marqueurs MK introduits dans la barre de marquage MB. Chaque marqueur MK est associé dans la liste à une position définie par exemple en millisecondes depuis le début du fichier audio. La liste de zones correspond aux zones délimitées par 25 les marqueurs MK. Chaque zone de la liste est associée à un numéro 1, 2, 3, 4, 5, correspondant à un type de zone (introduction, couplet, refrain, solo, ...). Ces marqueurs peuvent être affichés par le terminal GT sur plusieurs lignes, chaque ligne étant assignée à une catégorie de marqueur, comme par exemple 30 - ligne 1 : marqueurs délimitant la structure couplet/refrain du morceau, - ligne 2: marqueurs repérant les motifs répétitifs à l'intérieur des refrains/couplets, - ligne 3 : marqueurs spécifiques introduits par l'opérateur, ligne 4 : autres marqueurs, 3035294 14 La liste des transitions définit chaque transition TT introduite par l'intermédiaire du terminal GT (figure 3). Chaque transition est définie par une durée de transition en millisecondes, introduite par le mot-clé "widthTransition", un type de transition, introduite par le mot-clé 5 "typeTransition, et une position en millisecondes, introduite par le mot-clé "position". La position de chaque transition correspond à l'instant médian de la transition TTP<n> comme indiqué sur la figure 6. Dans l'exemple de l'Annexe I, le type de transition est "FADE" signifiant que l'image suivante est affichée sur l'image précédente en ajustant son opacité de 0 à 100%.The GT terminal is also configured to provide the operator with copy-and-paste functions for duplicating time window and transition sequences, which it can associate with repetitive phases of the audio recording. The display screen of the GT terminal may include an image display window, to display the effects obtained on a series of images, as and when the time windows and transitions are defined. Once the operator has defined all the time windows of an audio recording file, all the data specifying these time windows are collected in a main FM 35 synchronization file which is inserted into the DB database, associated with it. the corresponding audio recording file AF 3035294. An example of a main synchronization file is given in Appendix L. This file is written in a standard language such as JSON (JavaScript Object Notation). Conversely, such an MF file can be read and graphically represented in the form as shown in Fig. 3. The main synchronization file MF introduced by a keyword "AudioCase" collating the designation of an audio recording file and synchronization data corresponding to the audio file. The main synchronization file MF includes an "AudioFile" keyword for entering an audio recording file name. The main synchronization file MF then comprises: a list of markers introduced by the keyword "listMarkers", a list of labels introduced by the keyword "tags". a list of zones introduced by the keyword "listZones", a list of transitions introduced by the keyword "listTransition", a list of data of specification of time windows, introduced by the keyword "listPhotoFile" and a list of derived synchronization files extracted from the main synchronization file, this list being introduced by the keyword "listSubCases". The list of markers corresponds to the various markers MK introduced in the marking bar MB. Each marker MK is associated in the list at a position defined for example in milliseconds since the beginning of the audio file. The zone list corresponds to the areas delimited by the MK markers. Each zone of the list is associated with a number 1, 2, 3, 4, 5, corresponding to a type of zone (introduction, verse, chorus, solo, ...). These markers can be displayed by the GT terminal on several lines, each line being assigned to a category of marker, for example 30 - line 1: markers delimiting the verse / chorus structure of the piece, - line 2: markers identifying repetitive patterns within the choruses / couplets, - line 3: specific markers introduced by the operator, line 4: other markers, 3035294 14 The list of transitions defines each TT transition introduced via the GT terminal (FIG. 3). Each transition is defined by a transition time in milliseconds, introduced by the keyword "widthTransition", a type of transition, introduced by the keyword 5 "typeTransition, and a position in milliseconds, introduced by the keyword" The position of each transition corresponds to the median time of the TTP <n> transition as shown in Figure 6. In the example of Appendix I, the transition type is "FADE" meaning that Next image is displayed on the previous image by adjusting its opacity from 0 to 100%.

10 D'autres types de transitions peuvent être mis en oeuvre en appliquant un zoom, une translation horizontale ou verticale, une rotation combinée à un zoom, etc. Dans la liste des fenêtres temporelles, chaque fenêtre temporelle comprend des mots-clés "isDUPLICATE", "isTOP" et "effect". Le mot-clé 15 isDUPLICATE" introduit une valeur booléenne indiquant si l'image correspondant à la fenêtre temporelle est identique à celle attribuée à la fenêtre temporelle précédente. Le mot-clé "isTOP" introduit une valeur booléenne indiquant si l'image correspondant à la fenêtre temporelle est une image indiquée comme remarquable par l'utilisateur. Le mot-clé "effect" 20 introduit une liste définissant tous les effets d'affichage EF1-EF6 à appliquer à l'image correspondante. Chaque élément de la liste "effect" comprend des mots-clés "duration", "timeposition", "param" et "typeEffect". Les mots-clés "duration" et "timeposition" introduisent respectivement la durée et l'instant de début de l'effet. Le mot-clé "typeEffect" définit un type d'effet d'affichage 25 correspondant à ceux définis pour les zones EF1-EF6. Le mot-clé "param" permet de définir les courbes spécifiées dans les zones EF1-EF6. Ce mot-clé introduit une liste d'effets d'affichage, chaque effet d'affichage étant introduit par le mot-clé "effectPoint". Chaque effet d'affichage est défini par une liste de points comprenant au moins un point de début et un point de fin de la 30 courbe, chaque point étant défini par des valeurs de coordonnées "x" et "y", une valeur maximum introduite par le mot-clé "max" sur laquelle est appliqué un pourcentage défini par la courbe, un type d'effet introduit par le mot-clé "name", et un type de paramètre introduit par le mot-clé "typeParam". Les types d'effet peuvent être par exemple : 35 - "f.level" pour définir une valeur d'atténuation, 3035294 15 - "tx.speed" et "tx.level", "ty.speed" et "ty.level" pour définir une vitesse et une valeur de translation en x et en y, - "z.speed" et "zievel" pour définir une vitesse et une valeur de zoom, - "r.speed" et "r.level" pour définir une vitesse et une valeur de rotation.Other types of transitions can be implemented by applying zoom, horizontal or vertical translation, rotation combined with zoom, and so on. In the list of time windows, each time window includes keywords "isDUPLICATE", "isTOP" and "effect". The keyword 15 isDUPLICATE "introduces a Boolean value indicating if the image corresponding to the time window is identical to that attributed to the previous time window The key word" isTOP "introduces a Boolean value indicating if the image corresponding to the time window is an image indicated as remarkable by the user The keyword "effect" 20 introduces a list defining all the display effects EF1-EF6 to be applied to the corresponding image Each element in the "effect" list "includes keywords" duration "," timeposition "," param "and" typeEffect "The keywords" duration "and" timeposition "respectively introduce the duration and start time of the effect. key "typeEffect" defines a type of display effect corresponding to those defined for zones EF1-EF6 The keyword "param" makes it possible to define the curves specified in zones EF1-EF6. introduces a list of display effects, each a display effect being introduced by the keyword "effectPoint". Each display effect is defined by a list of points including at least one start point and one end point of the curve, each point being defined by coordinate values "x" and "y", a maximum value entered. by the keyword "max" on which is applied a percentage defined by the curve, a type of effect introduced by the key word "name", and a type of parameter introduced by the key word "typeParam". The effect types can be for example: 35 - "f.level" to set an attenuation value, 3035294 15 - "tx.speed" and "tx.level", "ty.speed" and "ty.level" "to define a speed and a translation value in x and y, -" z.speed "and" zievel "to define a speed and a zoom value, -" r.speed "and" r.level "to define a speed and a value of rotation.

5 D'autres mots-clés pourraient être présents comme "isENERGY", "isPARTNER", "isPUB", etc... Le mot-clé "isENERGY" introduit une valeur booléenne indiquant si la fenêtre temporelle correspondante est une fenêtre de haute intensité énergétique audio. Le mot-clé "isPARTNER" introduit une valeur booléenne indiquant si la fenêtre temporelle correspondante est une 10 fenêtre destinée à accueillir une photo d'un partenaire commercial. Le mot-clé "isPUB" introduit une valeur booléenne indiquant si la fenêtre temporelle correspondante est une fenêtre destinée à accueillir une image publicitaire. La première fenêtre temporelle définie dans l'Annexe I est vide et correspond au blanc du début du fichier audio, soit par exemple la fenêtre 15 temporelle ECO de la figure 3. La seconde fenêtre temporelle correspond par exemple à la fenêtre EC1. A partir d'un fichier de synchronisation principal MF, il est possible d'extraire des fichiers de synchronisation dérivés SF. A cet effet, une ou plusieurs barres d'extraction SFB sont affichées sous la forme d'onde AWF 20 (figure 3). Dans l'exemple de la figure 3, des fichiers de synchronisation dérivés incluant les fenêtres temporelles EC1 à EC4, et incluant les fenêtres temporelles à partir de la fenêtre EC5 ont été extraits en positionnant manuellement le début et la fin d'une barre colorée dans les barres SFB. Cette opération a pour effet d'extraire un nombre entier de fenêtres 25 temporelles du fichier de synchronisation principal MF et de générer un fichier de synchronisation dérivé SF à partir des fenêtres temporelles extraites et des paramètres d'affichage associés, et d'extraire un fichier d'enregistrement audio AFE correspondant à la plage temporelle définie par les fenêtres temporelles extraites dans le fichier de synchronisation dérivé 30 SF. Le fichier de synchronisation dérivé SF est stocké dans la base de données DB, associé avec le fichier AFE correspondant. A ces deux fichiers, peuvent être ajoutés un fichier correspondant à la vignette de l'album de l'enregistrement audio d'où est extrait le fichier AFE, ainsi qu'un fichier CRC (Contrôle de redondance cyclique) permettant de vérifier l'intégrité des 3 35 autres fichiers. L'ensemble de ces trois fichiers peut être compressé, par 3035294 16 exemple sous la forme d'un fichier ZIP, avant d'être chargé dans la base de données DB. Les utilisateurs ont ensuite accès par téléchargement depuis leur terminal MT, FT aux fichiers de synchronisation dérivés SF et leurs fichiers d'extrait d'enregistrement audio AFE associés, ainsi stockés dans la 5 base de données DB. A chaque fois qu'un fichier de synchronisation dérivé SF est extrait d'un fichier de synchronisation principal MF, un élément peut être ajouté dans la liste "listSubFrames" des fichiers de synchronisation dérivés extraits, figurant dans le fichier de synchronisation principal MF. Un exemple de fichier de synchronisation dérivé SF est donné en 10 Annexe II. Ce fichier est écrit également dans un langage standard tel que JSON. Pour générer un fichier de synchronisation dérivé SF à partir d'un fichier de synchronisation principal MF, toutes les transitions et les effets d'affichage intégrés dans les fenêtres temporelles sont convertis en propriétés d'animation correspondant aux commandes de base de l'interface 15 graphique des différents terminaux MT, FT, et les fenêtres temporelles associées à une même image sont fusionnées ("isDUPLICATE":true). Un fichier de synchronisation dérivé SF contient donc une liste de fenêtres temporelles correspondant aux fenêtres temporelles EC<n> extraites du fichier de synchronisation principal MF, chaque fenêtre temporelle du fichier 20 SF étant associée à des propriétés d'animation résultant de la traduction des propriétés d'affichage de la fenêtre temporelle, lues dans le fichier MF, ces propriétés d'animation étant directement exploitables par le système d'exploitation (OS) du terminal MT, FT pour commander l'affichage des images du diaporama. Les ressources du terminal MT, FT mises en oeuvre 25 pour exploiter un fichier SF sont donc minimisées. Un terminal même bas de gamme peut donc exploiter un fichier SF définissant des d'effets d'affichage complexes et à une cadence élevée. Chaque fenêtre temporelle d'un fichier de synchronisation dérivé SF comprend des mots-clés "duration", "isTOP", "effect", "position" et "idPhoto".5 Other keywords could be present like "isENERGY", "isPARTNER", "isPUB", etc ... The key word "isENERGY" introduces a Boolean value indicating if the corresponding temporal window is a window of high intensity audio energy. The keyword "isPARTNER" introduces a Boolean value indicating whether the corresponding time window is a window for receiving a photo of a trading partner. The keyword "isPUB" introduces a Boolean value indicating whether the corresponding time window is a window intended to host an advertisement image. The first time window defined in Appendix I is empty and corresponds to the white of the beginning of the audio file, for example the ECO time window of FIG. 3. The second time window corresponds for example to the window EC1. From an MF master synchronization file it is possible to extract SF derived synchronization files. For this purpose, one or more extraction bars SFB are displayed in the AWF waveform 20 (FIG. 3). In the example of FIG. 3, derived synchronization files including the time windows EC1 to EC4, and including the time windows from the window EC5 have been extracted by manually positioning the beginning and the end of a colored bar in SFB bars. This operation has the effect of extracting an integer number of time windows from the main synchronization file MF and generating a derived SF synchronization file from the extracted time windows and associated display parameters, and extracting a file. AFE audio recording corresponding to the time range defined by the time windows extracted in the derived synchronization file SF. The SF derived synchronization file is stored in the DB database, associated with the corresponding AFE file. To these two files, can be added a file corresponding to the thumbnail of the album of the audio recording from which the AFE file is extracted, as well as a CRC (Cyclic redundancy check) file for checking the integrity of the other 35 files. All of these three files can be compressed, for example in the form of a ZIP file, before being loaded into the DB database. Users then have download access from their MT, FT terminal to SF derived synchronization files and their associated AFE audio recording snippet files, thus stored in the DB database. Whenever a SF derived synchronization file is extracted from a main MF synchronization file, an element can be added in the "listSubFrames" list of extracted derived synchronization files, contained in the main synchronization file MF. An example of a derived synchronization file SF is given in Annex II. This file is also written in a standard language such as JSON. To generate a SF derived synchronization file from a main MF sync file, all transitions and display effects integrated into the time windows are converted into animation properties corresponding to the basic commands of the interface. graph of the different terminals MT, FT, and the time slots associated with the same image are merged ("isDUPLICATE": true). A derived synchronization file SF therefore contains a list of time windows corresponding to the time windows EC <n> extracted from the main synchronization file MF, each time window of the file SF being associated with animation properties resulting from the translation of the properties. display of the time window, read in the MF file, these animation properties being directly exploitable by the operating system (OS) of the terminal MT, FT to control the display of images of the slide show. The resources of the terminal MT, FT implemented to operate an SF file are therefore minimized. Even a low end terminal can exploit a SF file defining complex display effects and at a high rate. Each time window of a SF derived synchronization file includes keywords "duration", "isTOP", "effect", "position" and "idPhoto".

30 Les mots-clés "duration" et "position" introduisent respectivement la durée et l'instant de début de la fenêtre temporelle, en millisecondes. Le mot-clé "isTOP" est simplement extrait du fichier de synchronisation principal MF. Le mot-clé "idPhoto" permet de spécifier un numéro de rang d'image attribué à la fenêtre temporelle, dans la série d'images associée au fichier de 35 synchronisation dérivé par l'utilisateur. Le mot-clé "effect" introduit une liste 3035294 17 définissant tous les effets d'affichage EF1-EF6 à appliquer à l'image correspondante. Chaque élément de la liste "effect" est introduit par le mot-clé "param" et définît un effet d'affichage. Chaque effet d'affichage est défini par une liste d'effets introduits chacun par le mot-clé "effectPoint", suivi d'un 5 type d'effet introduit par le mot-clé "typeEffect". Chaque mot-clé "effectPoint" est suivi d'une liste de coordonnées (x, y) de points, et d'un nom introduit par le mot-clé "narre". Les valeurs y des points sont calculées en multipliant le pourcentage défini pour le point correspondant dans le fichier de synchronisation principal MF par la valeur maximum introduite par le mot-clé 10 "max". Le mot-clé "typeEffect" définit un type de paramètre d'affichage. Ainsi, le mot-clé "typeEffect" peut être associé aux valeurs "SCALE" (pour définir une valeur de zoom), "OPACITY" (pour une valeur d'opacité), "TRANSLATE" (pour définir une amplitude et une direction de translation de l'image), "ROTATE" (pour définir un angle de rotation de l'image), ...The keywords "duration" and "position" respectively introduce the duration and start time of the time window, in milliseconds. The keyword "isTOP" is simply extracted from the main synchronization file MF. The keyword "idPhoto" makes it possible to specify an image rank number assigned to the time window, in the series of images associated with the user-derived synchronization file. The keyword "effect" introduces a list 3035294 17 defining all the display effects EF1-EF6 to be applied to the corresponding image. Each element of the "effect" list is introduced by the "param" keyword and defines a display effect. Each display effect is defined by a list of effects each introduced by the keyword "effectPoint", followed by a type of effect introduced by the keyword "typeEffect". Each keyword "effectPoint" is followed by a list of coordinates (x, y) of points, and a name introduced by the keyword "narrate". The y values of the points are calculated by multiplying the percentage defined for the corresponding point in the main synchronization file MF by the maximum value introduced by the keyword "max". The keyword "typeEffect" defines a type of display parameter. Thus, the keyword "typeEffect" can be associated with the values "SCALE" (to define a zoom value), "OPACITY" (for an opacity value), "TRANSLATE" (to define an amplitude and a direction of translation of the image), "ROTATE" (to define an angle of rotation of the image), ...

15 Le fichier de synchronisation dérivé SF donné en Annexe II spécifie une première fenêtre temporelle (correspondant à la fenêtre ECO de la figure 3 - "idPhoto":0)) commençant à l'instant -130 ms et durant 3160 ms. La première fenêtre temporelle se termine donc à l'instant 3030 ms. La deuxième fenêtre temporelle est affectée à l'image de rang 1 ("idPhoto":1), 20 commence à l'instant 2620 ms et dure 2287 ms. Il en résulte que les première et deuxième fenêtres temporelles se chevauchent pendant une durée de 410 ms définissant une première transition d'affichage de la première image. La deuxième fenêtre temporelle se termine à l'instant 4807 ms. La troisième fenêtre temporelle est affectée à l'image de rang 2 25 ("idPhoto":2), commence à l'instant 4647 ms et dure 1910 ms. Les deuxième et troisième fenêtres temporelles se chevauchent donc pendant une durée de 160 ms définissant une deuxième transition d'affichage entre les première et deuxième images. La troisième fenêtre temporelle se termine à l'instant 6557 ms. D'après le fichier de synchronisation dérivé figurant en Annexe II, il 30 peut ainsi être déterminé notamment que les transitions entre les deuxième et troisième images et entre les troisième et quatrième images durent 260 ms. Deux fichiers de synchronisation dérivés SF et les deux fichiers d'extrait d'enregistrement audio AFE associés peuvent être concaténés pour 35 former un unique fichier de synchronisation dérivé SF et un unique fichier 3035294 18 d'extrait d'enregistrement audio AFE. Il est préférable pour cela que les deux fichiers audio soient relatifs à un même genre musical et que la forme d'onde à la fin du premier fichier d'extrait d'enregistrement audio fusionné corresponde à la forme d'onde du début du second fichier d'extrait d'enregistrement audio fusionné. Les fichiers de synchronisation dérivés SF et leur fichier d'extrait d'enregistrement audio AFE associé peuvent ainsi être assemblés pour constituer de nouveaux fichiers de synchronisation dérivés SF associés à leur fichier d'extrait d'enregistrement audio AFE. Pour assurer une transition "douce" entre deux extraits d'enregistrement audio ainsi 10 assemblés, les fichiers de synchronisation dérivés SF peuvent comprendre des informations supplémentaires introduites par les étiquettes suivantes : - "isStart" indiquant si l'extrait d'enregistrement audio correspondant est utilisable ou non au début d'un diaporama (par exemple si volume sonore augmente progressivement au début de l'extrait d'enregistrement audio), 15 - "isEnd" indiquant si l'extrait d'enregistrement audio correspondant est utilisable ou non à la fin d'un diaporama (si volume sonore diminue progressivement à la fin de l'extrait d'enregistrement audio), - "StartLevel" indiquant un niveau de volume au début (typiquement durant les premières 100 à 300 ms) de l'extrait d'enregistrement audio 20 correspondant, - "EndLevel" indiquant un niveau de volume à la fin (typiquement durant les dernières 100 à 300 ms) de l'extrait d'enregistrement audio correspondant, - "CPM" indiquant un nombre moyen de fenêtres temporelles défilant par minute pour l'extrait d'enregistrement audio correspondant.The derived synchronization file SF given in Appendix II specifies a first time window (corresponding to the ECO window of FIG. 3 - "idPhoto": 0)) starting at the instant -130 ms and lasting 3160 ms. The first time window therefore ends at the instant 3030 ms. The second time slot is assigned to the rank 1 image ("idPhoto": 1), starts at the instant 2620 ms and lasts 2287 ms. As a result, the first and second time windows overlap for a duration of 410 ms defining a first display transition of the first image. The second time window ends at the moment 4807 ms. The third time window is assigned to the rank 2 image ("idPhoto": 2), starts at the instant 4647 ms and lasts 1910 ms. The second and third time windows thus overlap for a duration of 160 ms defining a second display transition between the first and second images. The third time window ends at the instant 6557 ms. From the derived timing file in Appendix II it can thus be determined in particular that the transitions between the second and third images and between the third and fourth images are 260 ms. Two SF derived sync files and the two associated AFE audio recording snippet files may be concatenated to form a single SF derived sync file and a single audio recording extract file AFE. It is preferable for this reason that the two audio files are related to the same musical genre and that the waveform at the end of the first merged audio recording extract file corresponds to the waveform of the beginning of the second file. merged audio recording extract. The SF derived synchronization files and their associated AFE audio recording snippet file can thus be assembled into new SF derived synchronization files associated with their AFE audio recording snippet file. To provide a "soft" transition between two audio record extracts thus assembled, the SF derived synchronization files may comprise additional information introduced by the following tags: - "isStart" indicating whether the corresponding audio recording extract is usable or not at the beginning of a slide show (for example if sound volume increases gradually at the beginning of the audio recording extract), 15 - "isEnd" indicating whether the corresponding audio recording extract is usable or not at the end of a slide show (if sound volume gradually decreases at the end of the audio recording extract), - "StartLevel" indicating a volume level at the beginning (typically during the first 100 to 300 ms) of the extract of corresponding audio recording 20, - "EndLevel" indicating a volume level at the end (typically during the last 100 to 300 ms) of the corresponding audio recording extract, - "CPM" indicates an average number of scrolling time slots per minute for the corresponding audio recording extract.

25 D'autres étiquettes peuvent être également prévues pour définir des limitations relatives au terminal MT, FT comme un débit maximum de fenêtres temporelles par minute ou un nombre maximum de fenêtres temporelles par rapport au temps total de restitution de l'extrait d'enregistrement audio AFE, un nombre maximum d'images affichées par 30 minute, etc. Pour obtenir une transition douce entre deux extraits d'enregistrement audio, les deux extraits d'enregistrement audio doivent remplir par exemple les conditions suivantes : - le rapport entre les nombres moyens de de fenêtres temporelles défilant par 35 minute du second extrait d'enregistrement audio, et du premier extrait 3035294 19 d'enregistrement audio, est par exemple compris entre 0,9xN et 1,1xN, ou entre 0,9/N et 1,1/N, N étant fixé typiquement à 1, 2 ou 4, le rapport entre le volume initial "StartLevel" au début du second extrait d'enregistrement audio, et le volume final "EndLevel" à la fin du premier 5 extrait d'enregistrement audio est par exemple compris entre 0.8 et 1.2, - le premier extrait d'enregistrement audio est utilisable au début d'un diaporama ("isStart":true), - le dernier extrait d'enregistrement audio est utilisable à la fin d'un diaporama ("isEnd":true).Other tags may also be provided for defining MT terminal limitations, FT such as a maximum bit rate per minute or a maximum number of time slots with respect to the total playback time of the audio recording clip. AFE, a maximum number of images displayed per 30 minutes, etc. To obtain a smooth transition between two audio recording extracts, the two audio recording extracts must fulfill, for example, the following conditions: the ratio between the average numbers of time slots running by 35 minutes of the second audio recording extract , and the first audio recording extract, for example is between 0.9xN and 1.1xN, or between 0.9 / N and 1.1 / N, N being typically set at 1, 2 or 4, the ratio between the initial volume "StartLevel" at the beginning of the second audio recording extract, and the final volume "EndLevel" at the end of the first 5 audio recording extract is for example between 0.8 and 1.2, - the first extract audio recording can be used at the beginning of a slide show ("isStart": true), - the last audio recording clip can be used at the end of a slide show ("isEnd": true).

10 La figure 7 représente des étapes S1 à S12 d'un procédé de sélection d'images et de données audio pour générer un diaporama. Ce procédé est mis en oeuvre par une application installée dans un terminal d'utilisateur FT, MT. A l'étape S1, un menu d'accueil est affiché pour permettre à l'utilisateur de générer un nouveau diaporama ou de sélectionner un diaporama se 15 trouvant dans la mémoire du terminal FT, MT ou accessible par ce dernier. A l'étape S2, si l'utilisateur sélectionne l'option de générer un nouveau diaporama, l'étape S3 est exécutée, sinon les étapes S10 et S11 sont exécutées. A l'étape S3, l'utilisateur a la possibilité de sélectionner des images ou des fichiers d'enregistrement audio, ou encore de mettre fin à la 20 génération d'un nouveau diaporama. Si l'utilisateur choisit de sélectionner des images, les étapes S6 à S9 sont exécutées. Si l'utilisateur choisit de sélectionner un fichier audio, les étapes S4 et S5 sont exécutées. Enfin, si l'utilisateur choisit de mettre fin à la création d'un nouveau diaporama, l'étape S11 ou S2 est exécutée.Figure 7 shows steps S1 to S12 of an image and audio data selection method for generating a slide show. This method is implemented by an application installed in an FT, MT user terminal. In step S1, a home menu is displayed to allow the user to generate a new slideshow or select a slideshow in the memory of the FT, MT terminal or accessed by the latter. In step S2, if the user selects the option to generate a new slide show, step S3 is executed, otherwise steps S10 and S11 are executed. In step S3, the user has the ability to select images or audio recording files, or to terminate the generation of a new slideshow. If the user chooses to select images, steps S6 to S9 are executed. If the user chooses to select an audio file, steps S4 and S5 are executed. Finally, if the user chooses to end the creation of a new slideshow, step S11 or S2 is executed.

25 A l'étape S4, un menu de sélection d'un genre musical est affiché. A la sélection d'un genre musical par l'utilisateur, une liste de fichiers d'enregistrement audio correspondant au genre musical sélectionné, est affichée à l'étape S5. A cet effet, le terminal FT, MT accède au serveur SRV pour obtenir cette liste et l'afficher à l'écran du terminal. Bien entendu, la 30 sélection d'un fichier d'enregistrement audio peut comprendre l'émission par le terminal FT, MT d'une requête de recherche introduite par l'utilisateur, à destination du serveur SRV, et la transmission en réponse par le serveur SRV d'une liste correspondant à la requête de recherche. A la réception d'une requête de recherche, le serveur SRV effectue une recherche dans la 35 base de données DB. Lorsque l'utilisateur a choisi un fichier d'enregistrement 3035294 20 audio, le terminal FT, MT transmet au serveur SRV un identifiant du fichier d'enregistrement audio sélectionné, et le serveur transmet en réponse des adresses (URL) pointant vers le fichier d'enregistrement audio AFE correspondant et vers le fichier de synchronisation dérivé associé SF, ces 5 fichiers pouvant être stockés sur le serveur SRV ou un autre serveur. A la réception de ces fichiers, le terminal FT, MT exécute à nouveau l'étape S3. A l'étape S6, le terminal FT, MT invite l'utilisateur à sélectionner des images stockées dans des dossiers ou dans des réseaux sociaux. Lorsque l'utilisateur a terminé sa sélection d'images, l'étape S7 est exécutée. A 10 l'étape S7, le terminal FT, MT invite l'utilisateur à sélectionner plusieurs images. Le terminal FT, MT offre également à l'utilisateur la possibilité d'éditer chaque image sélectionnée, par exemple pour la recadrer ou modifier des paramètres tels que la luminosité ou le contraste (étape S8). Cette édition peut être effectuée à chaque sélection d'image ou une fois que 15 toutes les images ont été sélectionnées. A l'étape S9, le terminal FT, MT offre à l'utilisateur la possibilité de mettre fin à la sélection d'images. Si l'utilisateur souhaite poursuivre la sélection d'images, l'étape S6 ou S7 est à nouveau exécutée, sinon l'étape S3 est exécutée. A l'étape S10, le terminal offre à l'utilisateur la possibilité de sélectionner un diaporama existant, c'est- 20 à-dire une liste d'images, un fichier de synchronisation dérivé SF et un fichier audio AFE associé, dans la mémoire du terminal. A l'étape S11, le terminal FT, MT offre à l'utilisateur la possibilité d'afficher le diaporama sélectionné ou de générer un fichier d'enregistrement vidéo à partir du diaporama sélectionné. A l'étape S12, le terminal FT, MT affiche la liste d'images du 25 diaporama sélectionné et restitue en synchronisme la bande sonore se trouvant dans le fichier audio AFE associé, en exploitant les données de synchronisation se trouvant dans le fichier SF associé. A l'étape S13, le terminal FT, MT génère une séquence vidéo correspondant à un enregistrement vidéo du diaporama sélectionné, et enregistre la séquence 30 vidéo dans un fichier. A l'issue des étapes S12 et S13, le terminal FT, MT exécute à nouveau l'étape S1. La figure 8 représente des étapes S21 à S28 exécutées par le terminal FT, MT durant l'étape S12. Les étapes S21 à S28 sont exécutées successivement par le terminal FT, MT. A l'étape S21, le terminal FT, MT 35 ouvre le fichier de synchronisation dérivé SF sélectionné par l'utilisateur. A 3035294 21 l'étape S22, le terminal FT, MT ouvre le fichier audio AFE correspondant au fichier SF et le transmet à un programme de restitution audio APLY. A l'étape S23, le terminal FT, MT initialise un compteur d'image n. A l'étape S24, le terminal FT, MT ouvre le fichier d'image de rang n dans la série d'image du 5 diaporama. A l'étape S25, le terminal FT, MT lit les paramètres d'affichage et les propriétés d'animation spécifiés pour la fenêtre temporelle EC<n> de rang n dans le fichier de synchronisation dérivé SF. A l'étape S26, le terminal FT, MT fournit l'image de rang n à afficher et les propriétés d'animation lues à son processeur graphique par l'intermédiaire du système d'exploitation du 10 terminal (et du pilote de processeur graphique GDRV). A l'étape S27, le terminal FT, MT incrémente de un le compteur d'image n. A l'étape S28, le terminal FT, MT teste si la dernière fenêtre temporelle EC<n> a été lue dans le fichier SF. Si tel est le cas, la restitution du diaporama est terminée, sinon le terminal FT, MT exécute à nouveau les étapes S24 à S28.In step S4, a selection menu of a musical genre is displayed. At the selection of a musical genre by the user, a list of audio recording files corresponding to the selected musical genre is displayed in step S5. For this purpose, the terminal FT, MT accesses the server SRV to obtain this list and display it on the screen of the terminal. Of course, the selection of an audio recording file may include the transmission by the FT, MT terminal of a search request entered by the user to the SRV server, and the transmission in response by the SRV server from a list corresponding to the search query. Upon receiving a search request, the SRV server searches the DB database. When the user has chosen an audio recording file, the FT, MT terminal transmits to the SRV server an identifier of the selected audio recording file, and the server transmits in response addresses (URLs) pointing to the audio file. corresponding AFE audio recording and to the associated derived synchronization file SF, these 5 files can be stored on the SRV server or another server. Upon receipt of these files, the FT, MT terminal executes step S3 again. In step S6, the terminal FT, MT invites the user to select images stored in folders or in social networks. When the user has finished selecting pictures, step S7 is executed. In step S7, the FT, MT terminal prompts the user to select multiple images. The FT, MT terminal also offers the user the possibility of editing each selected image, for example to crop or modify parameters such as brightness or contrast (step S8). This edition can be performed with each image selection or after all the images have been selected. In step S9, the terminal FT, MT offers the user the possibility of terminating the selection of images. If the user wishes to continue selecting images, step S6 or S7 is executed again, otherwise step S3 is executed. In step S10, the terminal provides the user with the ability to select an existing slideshow, i.e. a picture list, a SF derived sync file, and an associated AFE audio file, in the terminal memory. In step S11, the terminal FT, MT offers the user the possibility to display the selected slide show or to generate a video recording file from the selected slide show. In step S12, the FT, MT terminal displays the image list of the selected slideshow and synchronously renders the soundtrack contained in the associated AFE audio file, exploiting the synchronization data in the associated SF file. . In step S13, the terminal FT, MT generates a video sequence corresponding to a video recording of the selected slideshow, and saves the video sequence in a file. At the end of steps S12 and S13, the terminal FT, MT executes step S1 again. Fig. 8 shows steps S21 to S28 executed by the FT, MT terminal during step S12. Steps S21 to S28 are executed successively by the FT, MT terminal. In step S21, the terminal FT, MT 35 opens the derived synchronization file SF selected by the user. In step S22, the terminal FT, MT opens the audio file AFE corresponding to the file SF and transmits it to an audio reproduction program APLY. In step S23, the FT, MT terminal initializes an image counter n. In step S24, the FT, MT terminal opens the n-rank image file in the image series of the slideshow. In step S25, the FT, MT terminal reads the display parameters and the animation properties specified for the time window EC <n> of rank n in the derived synchronization file SF. In step S26, the FT, MT terminal provides the n-rank image to be displayed and the animation properties read to its graphics processor via the terminal operating system (and graphics processor driver). GDRV). In step S27, the terminal FT, MT increments the image counter n by one. In step S28, the terminal FT, MT tests whether the last time window EC <n> has been read in the file SF. If this is the case, the restitution of the slide show is completed, otherwise the terminal FT, MT executes again the steps S24 to S28.

15 A l'étape S26, le terminal FT, MT génère successivement des trames d'image, chaque trame d'image étant à afficher à un instant de début de trame pendant une période de trame de durée fixe (typiquement à 16,6 ms pour les "smartphones", correspondant à une fréquence de rafraichissement de l'écran du terminal FT, MT de 60 Hz). Chaque trame d'image correspond 20 au contenu de la mémoire vidéo du terminal à un instant donné, et donc à l'image affichée à l'écran du terminal à cet instant. A cet effet, le terminal FT, MT détermine pour chaque trame d'image : - au moins une fenêtre temporelle active en fonction de l'instant de début de trame et des instants de début et de fin des fenêtres temporelles EC<n> et 25 EC<n-1>, - une image PCT<n>, PCT<n-1> de la séquence de données d'image, à afficher pour chaque fenêtre temporelle active, en fonction du rang d'image associé à la fenêtre temporelle active, et - des paramètres d'animation d'affichage pour chaque image à afficher, en 3C fonction des données d'effet d'affichage de la fenêtre temporelle active correspondante, et de l'instant de début de trame, chaque trame d'image étant formée à partir de l'image correspondant à chaque fenêtre temporelle active, à laquelle sont appliquées les animations d'affichage déterminées pour l'image à l'instant de début de trame.In step S26, the terminal FT, MT successively generates image frames, each image frame to be displayed at a frame start time during a frame period of fixed duration (typically 16.6 msec). for "smartphones", corresponding to a frequency of refresh of the screen of the terminal FT, MT of 60 Hz). Each frame of image corresponds to the contents of the video memory of the terminal at a given moment, and therefore to the image displayed on the screen of the terminal at this moment. For this purpose, the terminal FT, MT determines for each image frame: at least one active time window as a function of the frame start time and the start and end times of the time windows EC <n> and 25 EC <n-1>, - a PCT image <n>, PCT <n-1> of the image data sequence, to be displayed for each active time window, according to the image rank associated with the window time, and - display animation parameters for each image to be displayed, in 3C function of the display effect data of the corresponding active time window, and the start time of the frame, each frame of image being formed from the image corresponding to each active time window, to which the display animations determined for the image at the start of frame are applied.

3035294 22 Les paramètres d'animation d'affichage sont calculés à chaque instant de début de trame, par interpolation linéaire à partir des segments .de droite définis par les coordonnées "x" et ''y" de points introduits par le mot-clé "effectPoint" dans le fichier SF, en respectant la période de trame. A l'étape S26, les paramètres d'animation d'affichage sont transmis aux fonctions d'animation du système d'exploitation du terminal FT, MT pour commander le processeur graphique. L'étape S13 diffère de l'étape S12 en ce que les trames calculées à l'étape S26 ne sont pas transmises aux fonctions d'animation d'image du 10 système d'exploitation du terminal FT, MT, mais sont encodées et compressées dans un fichier d'enregistrement vidéo au format MP4 par exemple. Selon un mode de réalisation, les images fixes affichées pendant une certaine durée sont encodées de manière optimisée en tenant compte du fait 15 que la plupart du temps, les images sont affichées de manière fixe. Selon un mode de réalisation, les trames calculées à l'étape S26 sont rassemblées en petites séquences vidéo d'une durée typique d'une seconde, qui sont ensuite encodées en parallèle, ces petites séquences vidéo encodées étant ensuite concaténées en une seule séquence vidéo finale. Ce 20 procédé permet de limiter considérablement la taille de l'espace de stockage temporaire nécessaire (pouvant atteindre plusieurs centaines de Mo (Mégaoctets) ou plusieurs Go (Gigaoctets) pour une séquence vidéo de quelques minutes) utilisé par le terminal. En effet, certains terminaux ne disposent que de quelques centaines de Mo.The display animation parameters are calculated at each start of the frame, by linear interpolation from the right-hand segments defined by the "x" and "y" coordinates of the points introduced by the keyword. "effectPoint" in the SF file, respecting the frame period In step S26, the display animation parameters are transmitted to the operating system functions of the FT, MT terminal to control the processor S13 differs from step S12 in that the frames calculated in step S26 are not transmitted to the image animation functions of the terminal operating system FT, MT, but are encoded and compressed in a video recording file in MP4 format for example According to one embodiment, the still images displayed for a certain duration are encoded in an optimized manner, taking into account that most of the time the images are displayed. of In one embodiment, the frames calculated in step S26 are gathered into small video sequences of a typical duration of one second, which are then encoded in parallel, these small encoded video sequences being then concatenated into a video. only final video sequence. This method greatly limits the size of the necessary temporary storage space (up to several hundred MB (megabytes) or several GB (gigabytes) for a few minutes of video footage) used by the terminal. Indeed, some terminals only have a few hundred MB.

25 Le terminal FT, MT peut également être configuré pour assembler des fichiers de synchronisation dérivés SF pour générer un unique diaporama dans lequel plusieurs extraits d'enregistrement audio sont enchainés. Une fois que l'utilisateur a sélectionné les images à insérer dans le diaporama à générer étapes S6 à S9), le terminal FT, MT constitue à partir des fichiers de 30 synchronisation dérivés SF enregistrés dans le terminal, un liste de fichiers de synchronisation dérivés SF définissant un nombre total de fenêtres temporelles sensiblement égal au nombre d'images choisies par l'utilisateur. Si le nombre d'images sélectionnées est insuffisant par rapport au nombre total de fenêtres temporelles des fichiers SF sélectionnés, le terminal peut 35 utiliser une seconde fois certaines des images sélectionnées, par exemple 3035294 73 les premières images. Si le nombre d'images sélectionnées est supérieur au nombre total de fenêtres temporelles des fichiers SF sélectionnés, le terminal peut utiliser supprimer certaines des images sélectionnées, par exemple les dernières images. Ensuite, le terminal FT, MT assemble les fichiers de 5 synchronisation dérivés sélectionnés et les fichiers d'extrait d'enregistrement audio associés, notamment en fonction des valeurs respectives des étiquettes isStart", "isEnd", "StartVolume", "EndVolume", et "CPM". A cet effet, le terminal FT, MT peut choisir en tant que premier fichier de synchronisation dérivé SF à assembler, un fichier de synchronisation 10 dérivé contenant une étiquette "isStart" à la valeur "true" et une étiquette "isEnd" à la valeur "false". Le terminal FT, MT peut choisir en tant que second ou nième fichier de synchronisation dérivé SF à assembler, un fichier de synchronisation dérivé contenant une étiquette "isEnd" à la valeur "false", et des étiquettes "StartVolume" et "CPM" ayant des valeurs proches (suivant 15 les règles indiquées précédemment) des étiquettes "EndVolume" et "CPM" du fichier de synchronisation dérivé sélectionné précédemment. Le terminal FT, MT peut enfin choisir en tant que dernier fichier de synchronisation dérivé SF à assembler, un fichier de synchronisation dérivé contenant une étiquette "isEnd" à la valeur "true", et des étiquettes "StartVolume" et "CPM" 20 ayant des valeurs proches (suivant les règles indiquées précédemment) des étiquettes "EndVolume" et "CPM" de l'avant dernier fichier de synchronisation dérivé sélectionné. Dans un mode de réalisation simplifié, le terminal MT, FT peut assembler plusieurs fichiers de synchronisation SF sans tenir compte des 25 valeurs des étiquettes "isEnd", "StartVolume", "EndVolume", et "CPM". Selon un autre mode de réalisation, lorsque le fichier de synchronisation SF comprend des paramètres "isSTART" et "isEND" à "false", un à quatre couples de fichiers de synchronisation SF et audio AFE peuvent être générés : 30 1) un premier couple avec les paramètres "isSTART" et "isEND" à "false", 2) un deuxième couple avec le paramètre "isSTART" à "true" et le paramètre "isEND" à "false", le fichier audio AFE correspondant étant modifié en lui apportant un fondu rapide entrant, 3035294 24 3) un troisième couple avec le paramètre "isSTART" à "false" et le paramètre "isEND" à "true", le fichier audio correspondant étant modifié en lui apportant un fondu rapide sortant, 4) un quatrième couple avec les paramètres "isSTART" et "isEND" à "true", pour lequel le fichier audio correspondant aura été modifié en lui apportant un fondu rapide entrant et un fondu rapide sortant. Ainsi, par exemple, le quatrième couple (ayant des paramètres "isSTART" et "isEND" à "true") peut être utilisé séparément, moyennant des opérations de fondu décrites dans ce qui suit.The FT, MT terminal may also be configured to assemble SF derived synchronization files to generate a single slide show in which several audio recording extracts are chained. Once the user has selected the images to be inserted into the slide show to generate steps S6 to S9), the terminal FT, MT constitutes from the SF derived synchronization files stored in the terminal, a list of derived synchronization files. SF defining a total number of time windows substantially equal to the number of images chosen by the user. If the number of images selected is insufficient relative to the total number of time windows of the selected SF files, the terminal may use a second time some of the selected images, for example the first images. If the number of images selected is greater than the total number of time windows of the selected SF files, the terminal may use delete some of the selected images, for example the latest images. Then, the FT, MT terminal assembles the selected derived synchronization files and the associated audio recording extract files, in particular according to the respective values of the labels isStart "," isEnd "," StartVolume "," EndVolume ", For this purpose, the FT, MT terminal can choose as a first derived SF synchronization file to be assembled, a derived synchronization file containing an "isStart" tag at the value "true" and a tag " isEnd "set to" false. The FT, MT terminal can choose as a second or nth derived SF synchronization file to be assembled, a derived synchronization file containing an "isEnd" tag set to "false", and labels "StartVolume" and "CPM" having values close (according to the previously mentioned rules) of the labels "EndVolume" and "CPM" of the derived synchronization file selected previously The terminal FT, MT can finally choose as the last SF derived synchronization file to be assembled, a derived synchronization file containing an "isEnd" tag set to "true", and "StartVolume" and "CPM" labels 20 having close values (according to the rules previously indicated) "EndVolume" and "CPM" labels of the second-to-last derived synchronization file selected. In a simplified embodiment, the MT, FT terminal can assemble several SF synchronization files without taking into account the values of the "isEnd", "StartVolume", "EndVolume", and "CPM" tags. According to another embodiment, when the synchronization file SF comprises parameters "isSTART" and "isEND" to "false", one to four pairs of SF and audio synchronization files AFE can be generated: 1) a first couple with the parameters "isSTART" and "isEND" to "false", 2) a second pair with the parameter "isSTART" to "true" and the parameter "isEND" to "false", the corresponding audio file AFE being modified in him providing a fast fade in, 3035294 24 3) a third pair with the parameter "isSTART" set to "false" and the parameter "isEND" to "true", the corresponding audio file being modified by providing a fast fade out, 4) a fourth pair with the parameters "isSTART" and "isEND" to "true", for which the corresponding audio file will have been modified by bringing it a fast fade in and a fast fade out. Thus, for example, the fourth pair (having parameters "isSTART" and "isEND" to "true") can be used separately, by means of the fade operations described in the following.

10 Selon un mode de réalisation, des transitions de début et de fin de diaporama sont introduites dans un fichier de synchronisation dérivé SF et dans le fichier audio AFE correspondant. Ces transitions sont appliquées à au début et à la fin d'enregistrement audio et aux première et dernière fenêtres temporelles du fichier SF. Les paramètres définissant ces transitions 15 et leur durée dépendent de paramètres audio (notamment le paramètre "CPM") extraits du fichier SF considéré. Les transitions de début et de fin appliquées à l'extrait d'enregistrement audio peuvent être de type fondu. L'intérêt de telles transitions de début et de fin est multiple. Elles permettent d'éviter les effets de "clic" audio apparaissant dans les morceaux audio 20 compressés lorsqu'ils sont coupés nets. Le début et la fin des morceaux audio ainsi fondus apparaissent bien plus naturels et agréables à l'oreille humaine qu'un morceau audio coupé net. Ainsi, il est possible de restituer un diaporama sur de nombreux extraits de fichiers audio, ce qui permet de proposer un grand nombre de morceaux audio adaptés à la restitution d'un 25 petit nombre d'images (quelques dizaines). En effet, les diaporamas les plus couramment générés comportent un petit nombre d'images. Par exemple, la transition de début, permettant notamment de préserver l'"attaque" d'un fichier SF, peut être un simple fondu de type "FADE" effectué dans la demi-largeur de la période de transition TT définie 30 au début du fichier SF. Par exemple, la transition de fin permettant de finir proprement le diaporama, peut être également un simple fondu de type "FADE" ayant une durée proportionnelle à la "tendance de beat" du fichier SF considéré. La "tendance de beat" peut être déterminée à partir de la durée la plus fréquente des fenêtres temporelles définies dans le fichier SF.According to one embodiment, slide show start and end transitions are introduced into a SF derived sync file and into the corresponding AFE audio file. These transitions are applied to the beginning and end of audio recording and the first and last time windows of the SF file. The parameters defining these transitions and their duration depend on audio parameters (in particular the "CPM" parameter) extracted from the SF file considered. The start and end transitions applied to the audio recording extract may be of the fade type. The interest of such beginning and ending transitions is multiple. They avoid the audio "click" effects that appear in compressed audio tracks when they are cut off. The beginning and the end of the melted audio pieces appear much more natural and pleasing to the human ear than a cut audio track. Thus, it is possible to render a slide show on numerous audio file extracts, which makes it possible to propose a large number of audio pieces adapted to the rendering of a small number of images (a few tens). Indeed, the most commonly generated slideshows include a small number of images. For example, the start transition, allowing in particular to preserve the "attack" of an SF file, can be a simple "FADE" type fade performed in the half-width of the TT transition period defined at the beginning of the SF file. For example, the end transition to finish the slide show cleanly can also be a simple "FADE" type fade having a duration proportional to the "beat trend" of the SF file considered. The "beat trend" can be determined from the most common duration of the time windows defined in the SF file.

35 Ainsi, plus l'enregistrement audio correspondant présente un débit lent en 303 5 2 94 25 terme de nombre de fenêtres temporelles par minute (paramètre "CPM"), plus le fondu de sortie sera long. Selon un mode de réalisation, le terminal FT, MT ordonne les images sélectionnées en fonction de leur date de création et du lieu de leur prise de 5 vue s'il s'agit de photographies ou de vidéos. Ces informations peuvent être également utilisées pour répartir les images en groupes d'images relatives à un même lieu ou un même événement, les groupes d'images étant attribués à des fichiers de synchronisation dérivés distincts. Selon un mode de réalisation, le terminal FT, MT est configuré pour 10 séparer en épisodes un ensemble d'images (photographies ou vidéos), en fonction de dates et lieux de prise de vues des images. Chaque épisode est ensuite associé à un fichier de synchronisation SF dans le genre préféré de l'utilisateur, correspondant le mieux avec le nombre d'images de l'épisode. Les épisodes sont ensuite concaténés comme décrit précédemment.Thus, the longer the corresponding audio recording has a slow rate of the number of time windows per minute (parameter "CPM"), the longer the fade out will be. According to one embodiment, the FT, MT terminal orders the images selected according to their date of creation and the place of their taking if they are photographs or videos. This information can also be used to distribute the images into groups of images relating to the same place or the same event, the groups of images being allocated to separate derived synchronization files. According to one embodiment, the FT, MT terminal is configured to separate in episodes a set of images (photographs or videos), according to dates and places of shooting images. Each episode is then associated with an SF sync file in the user's preferred genre, best matching the number of episode images. The episodes are then concatenated as previously described.

15 Selon un mode de réalisation, une séquence vidéo est associée à un fichier de synchronisation SF ou à une série de fenêtres temporelles définies dans un tel fichier, de la manière suivante. La séquence vidéo est transformée en une séquence d'images fixes en ne conservant que les images de la séquence vidéo correspondant sensiblement aux positions de 20 transitions TT de la série de fenêtres temporelles définie dans le fichier de synchronisation. Lors de la restitution du fichier audio AFE correspondant, les images extraites de la séquence vidéo sont animées en fonction des effets des fenêtres temporelles définis dans le fichier de synchronisation SF, comme le seraient n'importe quelle image. Ces dispositions permettent 25 d'obtenir un effet d'affichage de photographies prises en rafales, animées au rythme de la musique, ce qui est particulièrement bien adapté aux séquences vidéo de scènes sportives par exemple. Selon un mode de réalisation, certains effets inscrits dans le fichier de synchronisation MF, SF peuvent être non seulement appliqués aux trames 30 d'image affichées, mais aussi à d'autres périphériques directement ou indirectement reliés au terminal, tels que par exemple un vibreur mécanique intégré dans le terminal MT, un tel vibreur pouvant être piloté en fréquence et en amplitude, définis par des paramètres d'effets inscrits dans les fichiers de synchronisation MF, SF. Ainsi, des vibrations peuvent non seulement être 35 retranscrites en faisant vibrer l'image affichée à l'écran, mais aussi en faisant 3035294 26 vibrer le terminal MT que l'utilisateur tient dans sa main. De cette manière l'utilisateur peut percevoir des vibrations de manière synchrone, par sa main par l'intermédiaire du vibreur, par ses yeux par l'intermédiaire de l'écran d'affichage, et par ses oreilles par l'intermédiaire d'un casque audio. La présente demande concerne également un procédé de tri d'images qui peut être exécuté indépendamment du procédé de génération de diaporama décrit précédemment. A ce titre, ce procédé de tri constitue à lui seul une invention distincte susceptible d'être protégée indépendamment du procédé de génération de diaporama. En raison de la présence d'un capteur 10 d'image dans la plupart des téléphones mobiles, des milliers de photographies et de vidéos s'accumulent dans les mémoires des téléphones et des ordinateurs personnels, et sur les serveurs connectés à Internet. Un grand nombre de ces photographies, bien que souvent de bonne qualité, finissent par être oubliées de la personne qui les a prises. Ce procédé de tri 15 peut être mis en oeuvre sous la forme d'une application de tri d'image installée dans des terminaux tels que les terminaux FT, MT, dans le but d'offrir à l'utilisateur la possibilité de traiter ainsi rapidement un nombre important d'images et de constituer rapidement des listes d'images pouvant être utilisées notamment pour générer un diaporama.According to one embodiment, a video sequence is associated with an SF synchronization file or a series of time windows defined in such a file, in the following manner. The video sequence is transformed into a sequence of still images by keeping only the images of the video sequence corresponding substantially to the positions of TT transitions of the series of time windows defined in the synchronization file. When rendering the corresponding AFE audio file, the images extracted from the video sequence are animated according to the effects of the time windows defined in the SF synchronization file, as would be any image. These arrangements make it possible to obtain a display effect of photographs taken in bursts, animated to the rhythm of the music, which is particularly well suited to video sequences of sports scenes for example. According to one embodiment, certain effects inscribed in the synchronization file MF, SF can be applied not only to the image frames displayed, but also to other peripherals directly or indirectly connected to the terminal, such as for example a vibrator integrated in the MT terminal, such a vibrator can be controlled in frequency and amplitude, defined by effect parameters recorded in the MF, SF synchronization files. Thus, vibrations can not only be transcribed by vibrating the image displayed on the screen, but also by vibrating the MT terminal that the user holds in his hand. In this way the user can perceive vibrations synchronously, by his hand through the vibrator, by his eyes through the display screen, and by his ears through a headphones. The present application also relates to an image sorting method that can be executed independently of the slideshow generation method described above. As such, this sorting method alone constitutes a distinct invention capable of being protected independently of the slide generation method. Due to the presence of an image sensor in most mobile phones, thousands of photographs and videos accumulate in the memories of phones and personal computers, and on servers connected to the Internet. Many of these photographs, though often of good quality, end up being forgotten by the person who took them. This sorting method 15 can be implemented in the form of an image sorting application installed in terminals such as FT, MT terminals, in order to offer the user the possibility of processing thus quickly. a large number of images and quickly create lists of images that can be used in particular to generate a slide show.

20 Un mode de réalisation concerne donc un procédé de tri mis en oeuvre dans un terminal, le procédé comprenant des étapes consistant à : -a- afficher sur un écran du terminal, plusieurs parties correspondant chacune à une valeur respective d'un premier critère de tri, chaque partie étant elle-même divisée en plusieurs zones de tri correspondant chacune à 25 une valeur respective d'un second critère de tri, -b- afficher une image à trier dans une première fenêtre de l'écran du terminal, -c- recevoir d'un utilisateur une commande de tri consistant en une sélection de l'une des zones de tri d'une des parties affichées pour l'image 30 affichée dans la première fenêtre, -d- attribuer à l'image une valeur du premier critère de tri et une valeur du second critère de tri, en fonction de la zone de tri sélectionnée, et -e- répéter les étapes -b- à -d- pour chaque nouvelle image à trier. L'étape -b- d'affichage d'une image sur l'écran du terminal peut être 35 précédée d'une étape de réception d'un emplacement de fichiers sélectionné 3035294 27 par l'utilisateur. L'étape -d- peut consister à insérer dans un fichier contenant l'image ou dans le nom de ce fichier les valeurs des premier et second critères attribuées à l'image. L'étape -d- peut également ou alternativement consister à déplacer ou copier le fichier dans un dossier correspondant à la 5 valeur du premier critère et un sous-dossier correspondant à la valeur du second critère attribuée à l'image. L'étape -d- peut également ou alternativement consister à créer dans une table, un enregistrement associant un emplacement de fichier contenant l'image aux valeurs des premier et second critères attribuées à l'image.One embodiment therefore relates to a sorting method implemented in a terminal, the method comprising the steps of: displaying on a screen of the terminal, several parts each corresponding to a respective value of a first criterion of sorting, each part being itself divided into several sorting areas each corresponding to a respective value of a second sorting criterion, -b- displaying an image to be sorted in a first window of the terminal screen, -c receiving from a user a sorting command consisting of a selection of one of the sorting areas of one of the parts displayed for the image displayed in the first window, of attributing to the image a value of first sorting criterion and a second sorting criterion value, depending on the selected sorting area, and repeating steps -b- to -d- for each new image to be sorted. The step of displaying an image on the terminal screen may be preceded by a step of receiving a selected file location by the user. The step -d- can consist in inserting into a file containing the image or in the name of this file the values of the first and second criteria assigned to the image. The step -d- may also alternatively consist of moving or copying the file to a folder corresponding to the value of the first criterion and a subfolder corresponding to the value of the second criterion assigned to the image. The step -d- may also alternatively consist in creating in a table a record associating a file location containing the image with the values of the first and second criteria assigned to the image.

10 L'étape -e- peut également comprendre l'affichage de l'image qui vient d'être triée dans une seconde fenêtre de l'écran du terminal, le procédé comprenant la réception de l'utilisateur d'une commande désignant une zone de tri pour l'image affichée dans la seconde fenêtre, et l'attribution à l'image affichée dans la seconde fenêtre d'une valeur du premier critère de tri et 15 d'une valeur du second critère de tri, en fonction de la zone de tri sélectionnée. Le procédé peut également comprendre des étapes de réception d'une commande de désignation par l'utilisateur d'une des zones de tri, et d'affichage successif dans la première fenêtre des images ayant été 20 associée aux valeurs de critère de tri correspondant à la zone de tri désignée. L'utilisateur peut alors affecter de nouvelles valeurs de critère de tri à l'image affichée dans la première fenêtre. Le procédé peut également comprendre une étape de déplacement de tous les fichiers d'image correspondant à la zone de tri désignée dans un 25 dossier spécifique relatif aux valeurs des premier et second critères de tri. La figure 9 représente un exemple d'image affichée lors de l'exécution par le terminal FT, MT d'une application mettant en oeuvre le procédé de tri d'images. Cette image divise l'écran du terminal FT, MT, orienté en mode paysage, en plusieurs parties comprenant par exemple cinq parties 30 dénommées "CATI" à "CAT5" réparties le long des bords de l'écran d'affichage du terminal. Les parties "CATI" et "CAT2" sont disposées le long du bord supérieur de l'écran d'affichage. Les parties "CAT3" et "CAT4" sont disposées le long du bord inférieur de l'écran d'affichage. La partie "CAT5" est disposée le long du bord latéral gauche de l'écran d'affichage. Chaque 35 partie "CATI" à "CAT5" comprend plusieurs zones de tri, par exemple trois, 3035294 28 dénommées "QUI" à "QU3". La région centrale PCT de l'écran d'affichage est utilisée pour afficher une image à trier. Une autre zone d'affichage d'image PPCT est disposée au-dessus de la zone centrale d'affichage d'image PCT, entre les parties "CATI" et "CAT2". Dans une région latérale 5 droite de l'écran figurent deux zones PB et FD, la zone FB représentant une poubelle et la zone FD représentant un dossier ouvert. Dans une région centrale en partie inférieure de l'écran d'affichage se trouve une zone d'information IZ dans laquelle sont affichées des informations sur le tri en cours (nombre d'images restant à trier) et/ou des informations extraites de 10 l'image affichée dans la zone PCT. Bien entendu d'autres dispositions des parties "CATI" à "CAT5" peuvent être envisagées sans sortir du cadre de la présente invention. Egalement, le nombre des parties "CATI" à "CAT5" et le nombre de zones "QUI" à "QU3" peuvent être modifiés sans sortir du cadre de la présente invention. Le nombre de critères de tri n'est pas non plus 15 limité à deux, mais peut être étendu à plus de deux critères, moyennant par exemple une subdivision des de chacune des zones "QU1" à "QU3" en sous-zones correspondant chacune à une valeur de tri d'un troisième critère. En outre, les zones "QUI" à "QU3" ne sont pas nécessairement identiques dans les différentes parties "CATI" à "CAT5". Il peut également être prévu que les 20 libellés affichés des régions et des zones puissent être définis par l'utilisateur. Dans l'exemple de la figure 9, les parties "CATI" à "CAT5" sont affectées à une catégorie respective d'image (par exemple (famille, amis, travail, privé, autre, ...), tandis que les zones "QU1" à "QU3" sont affectées à 25 une qualité d'image respective (par exemple bonne, moyenne, mauvaise). Dans un premier temps, l'utilisateur doit désigner la zone FD pour sélectionner un dossier de fichiers d'image accessible par le terminal FT, MT. La sélection d'un dossier contenant des images entraine l'affichage par le terminal FT, MT d'une première image dans la zone PCT. Le tri des images 30 peut alors être effectué en déplaçant (avec le doigt ou un pointeur) l'image de la zone PCT vers l'une des zones "QUI" à "QU3" d'une des parties "CATI" à "CAT5" ou la zone PB. L'opération de déplacement de l'image de la zone PCT vers l'une des zones "QUI" à "QU3", a pour effet de sélectionner une région "CATx" parmi 35 les régions "CATI" à "CAT5" et une zone "QUy" parmi les zones "QUI" à 3035294 29 "QU3" de la région "QUy". Cette sélection peut avoir pour effet de déclencher on déplacement ou une copie par le terminal FT, MT du fichier contenant l'image affichée dans la zone PCT vers un sous-dossier du type "CATx/QUy" créé à cet effet, et/ou d'insérer des étiquettes de valeurs correspondant à 5 "CATx" et "QUy°' ou à leur libellés, dans le fichier contenant l'image ou dans le nom de ce fichier, et/ou encore d'insérer un enregistrement dans une table de base données, associant pour chaque image un emplacement de fichier d'image (par exemple un URL - Uniform Resource Locator) à des libellés de parties "CAT1" à "CAT5" et de zones "QU1" à "QU3" sélectionnées pour 10 chaque image. La sélection de la zone PB peut entrainer la suppression du fichier d'image correspondant, ou le déplacement de ce fichier dans un dossier d'images à supprimer, prévu à cet effet. Le déplacement de l'image de la zone PCT vers l'une des zones "QU1" à "QU3" et PB entraine également l'affichage d'une nouvelle image dans la zone PCT, et le transfert 15 de l'image qui vient d'être classée dans la zone PPCT. L'image affichée dans la zone PPCT peut également être déplacée sur l'une des zones "QU1" à "QU3", ce qui permet d'affecter une même image à plusieurs catégories. De cette manière, une simple désignation d'une des zones "QU1" à "QU3" permet d'effectuer un tri à double critère tel que par catégorie et par qualité.Step e may also include displaying the image that has just been sorted in a second window of the terminal screen, the method comprising receiving the user of a command designating a zone. sorting for the image displayed in the second window, and assigning to the image displayed in the second window a value of the first sorting criterion and a value of the second sorting criterion, depending on the selected sort area. The method may also include steps of receiving a designation command by the user of one of the sorting areas, and displaying successively in the first window of the images having been associated with the sorting criterion values corresponding to the designated sorting area. The user can then assign new sort criterion values to the image displayed in the first window. The method may also include a step of moving all the image files corresponding to the designated sorting area into a specific folder relating to the values of the first and second sort criteria. FIG. 9 represents an exemplary image displayed during execution by the FT, MT terminal of an application implementing the image sorting method. This image divides the screen of the terminal FT, MT, oriented in landscape mode, into several parts comprising for example five parts 30 called "CATI" to "CAT5" distributed along the edges of the display screen of the terminal. The "CATI" and "CAT2" portions are disposed along the upper edge of the display screen. The "CAT3" and "CAT4" portions are arranged along the lower edge of the display screen. The "CAT5" portion is disposed along the left side edge of the display screen. Each "CATI" to "CAT5" portion includes a plurality of sorting areas, for example three, 3035294 referred to as "QUI" to "QU3". The central PCT region of the display screen is used to display an image to be sorted. Another image display area PPCT is disposed above the central image display area PCT, between the "CATI" and "CAT2" portions. In a right side region of the screen are two areas PB and FD, the area FB representing a bin and the area FD representing an open file. In a central region in the lower part of the display screen is an information zone IZ in which information on the current sorting (number of images remaining to be sorted) and / or information extracted from 10 is displayed. the image displayed in the PCT area. Of course other provisions of the parts "CATI" to "CAT5" can be envisaged without departing from the scope of the present invention. Also, the number of "CATI" parts to "CAT5" and the number of "QUI" to "QU3" zones can be modified without departing from the scope of the present invention. The number of sorting criteria is also not limited to two, but can be extended to more than two criteria, for example by subdividing each of the zones "QU1" to "QU3" into subfields each corresponding to to a sort value of a third criterion. In addition, the zones "WHO" to "QU3" are not necessarily identical in the different parts "CATI" to "CAT5". It can also be expected that the displayed labels of the regions and zones can be defined by the user. In the example of FIG. 9, the parts "CATI" to "CAT5" are assigned to a respective category of image (for example (family, friends, work, private, other, etc.), while the zones "QU1" to "QU3" are assigned to respective image quality (e.g., good, average, bad) .First, the user must designate the FD area to select an accessible image file folder by the terminal FT, MT The selection of a folder containing images results in the display by the terminal FT, MT of a first image in the PCT zone.The sorting of the images 30 can then be performed by moving (with the finger or pointer) the image of the PCT zone to one of the "QUI" to "QU3" zones of one of the "CATI" to "CAT5" parts or the PB zone. image of the PCT zone to one of the "QUI" to "QU3" zones, has the effect of selecting a "CATx" region among the "CATI" to "CAT5" regions and a "QUy" zone among the zones " WHO "to 3035294 29" QU3 "from the region" QUy ". This selection may have the effect of triggering a move or a copy by the FT, MT terminal of the file containing the image displayed in the PCT zone to a subfolder of the "CATx / QUy" type created for this purpose, and / or to insert labels of values corresponding to 5 "CATx" and "QUy °" or their labels, in the file containing the image or in the name of this file, and / or to insert a record in a table database, associating for each image an image file location (for example a URL - Uniform Resource Locator) with labels of parts "CAT1" to "CAT5" and areas "QU1" to "QU3" selected for 10 each image The selection of the PB zone may result in the deletion of the corresponding image file, or the displacement of this file in a folder of images to be deleted, provided for this purpose. to one of the "QU1" to "QU3" zones and PB also causes the display of a new image in the PCT zone, and the transfer 15 of the image that has just been classified in the PPCT zone. The image displayed in the area PPCT can also be moved to one of the areas "QU1" to "QU3", which allows to assign the same image to several categories. In this way, a simple designation of one of the areas "QU1" to "QU3" makes it possible to carry out a double criteria sorting such as by category and by quality.

20 L'application de tri offre également la possibilité de faire pivoter l'image affichée dans la zone PCT, par exemple en posant deux doigts sur l'écran et en faisant tourner les deux doigts dans le sens désiré. Cette action a pour effet de modifier l'orientation de l'image dans le fichier d'image correspondant. Un double clic dans la zone PCT ou PPCT peut déclencher 25 l'affichage en plein écran de l'image. Un double clic sur l'image affichée en plein écran permet de retourner à l'image précédente telle que présentée sur la figure 9. Un clic sur l'une des zones "QU1" à "QU3" permet de faire défiler dans la zone PCT toutes les images ayant été attribuées à cette zone, ce qui permet éventuellement de changer leur catégorie d'affectation. Lorsque 30 toutes les images du dossier choisi à la suite d'un clic sur la zone FD ont été triées, l'utilisateur a la possibilité de choisir un autre dossier par un nouveau clic sur la zone FD. Une fois que toutes les images souhaitées ont été ainsi triées, l'application offre la possibilité de transférer dans un dossier choisi par l'utilisateur chaque groupe de fichiers d'image affectés à une zone "QU1" à 35 "QU3".The sorting application also offers the possibility of rotating the image displayed in the PCT area, for example by placing two fingers on the screen and rotating both fingers in the desired direction. This action changes the orientation of the image in the corresponding image file. A double click in the PCT or PPCT area may trigger the full screen display of the image. A double click on the image displayed in full screen allows to return to the previous image as shown in Figure 9. A click on one of the areas "QU1" to "QU3" can scroll in the PCT area all the images that have been assigned to this area, which can be used to change their assignment category. When all the images in the folder chosen following a click on the FD area have been sorted, the user has the possibility to choose another folder by a new click on the FD area. Once all the desired images have been sorted, the application offers the possibility of transferring to a user-selected folder each group of image files assigned to a "QU1" zone at 35 "QU3".

3035294 30 Les images dans chaque liste peuvent être ordonnées par date de création ou ordonnées par l'utilisateur. Il apparaîtra clairement à l'homme de l'art que la présente invention est susceptible de diverses variantes de réalisation et diverses applications.The images in each list can be ordered by date of creation or ordered by the user. It will be apparent to those skilled in the art that the present invention is capable of various alternative embodiments and various applications.

5 En particulier, l'invention n'est pas limitée à la définition des fenêtres temporelles par un instant de début et une durée et à la définition des transitions par un instant médian et une durée. Il va de soi que les fenêtres temporelles et les transitions peuvent être définies autrement, comme par exemple par des instants de début et de fin ou par des durées et des instants 10 de fin. 3035294 31" ANNEXE I (faisant partie intégrante de la description) Extrait de contenu d'un fichier de synchronisation principal 5 {"AudioCase":{"AudioFile":"06 xxxx.aac","barl nfo": {"IistTags": "masterframe_id":0, // identifiant du fichier de synchronisation "ppm_moy":101, // nombre moyen d'images affichées par minute 10 "ppm_min":7, // nombre ppm minimum "ppm_max":444, // nombre ppm maximum "cpm_moy":118, // nombre moyen de fenêtres temp. affichées par minute "cpm_min":7, // nombre cpm minimum "cpm_max":444, // nombre cpm maximum 15 "cpm_ppm":1, // ratio entre cpm et ppm "total_duration":191, // durée totale de l'enregistrement audio correspondant "nb_photo":324, // nombre correspondant d'images affichées "nb_photo_top":0, // nombre de fenêtres temp. privilégiées du fichier // 20 "version_fg":"V401", // version du logiciel de génération du fichier "masterframe_validated":true, // indicateur de validation du fichier "operateur_artistique":"ppp",// identifiant de l'opérateur ayant généré le fichier "validated_by":"vvv", // identifiant de l'opérateur ayant validé le fichier "validated_date":"ddd", // date de la validation du fichier 25 "last_update_date":"ddd", // date de dernière modification du fichier "song_title":"ttt","major":"mmm","album":"bbb","artist":"aaa", // références de // l'enregistrement audio correspondant "categories": // définition de catégories auxquelles rhit_of the_moment_end":"ddd", // appartient l'enregistrement 30 "best_year:null, // audio correspondant "mood":["mood_party","mood_bittersweet"], "pace":["pace_fast_rough"], "release_year":yyy,"countries":cc,"sung":dd, "gem":false,"deluxe":true, 35 "cur:false,"instrumentarfalse, 303 5 2 94 32 "genre"fgenre_techno","genre_dancel, "theme":["theme_2010"], nhit_of_the_momentstart":"ddd"), "comment_3":"","comment4":"","comment_2":4"","comment_1":"", // champs // réservés à l'insertion de commentaires {"listMarkers": [{"marker":277},{"marker":2756},{"marker":31915}, {"marker":37910},{"marker":43075},{"marker":48807}, {"marker":53820},{"marker":59954},{"marker":65551}, 10 {"marker":71181},{"marker":76093},{"marker":82395}, {"marker":88009},{"marker":93637},{"marker":98453}, {"marker":210852},{"marker":233575},{"marker":255965}, {"marker":258799},{"marker":260257},{"marker":261726}, 15 {"marker":264374},{"marker":265770},{"marker":267167}, {"marker":270011},{"marker":271376},{"marker":272824}, {"marker":275606},{"marker":277001},{"marker":278370}, {"marker":279044},{"marker":300436}], "listZones": 20 [{"zone":2},{"zone":1},{"zone":0},{"zone":1},{"zone":3},{"zone":3}, {"zone":5},{"zone":2},{"zone":3},{"zone":3},{"zone":5},{"zone":4}, {"zone":2},{"zone":4},{"zone":2},{"zone":4},{"zone":3},{"zone":3}, {"zone":3},{"zone":3},{"zone":3},{"zone":3},{"zone":3},{"zone":3}, 25 {"zone":6},{"zone":6},{"zone":5},{"zone":5},{"zone":4},{"zone":4}, {"zone":2},{"zone":2},{"zone":0},{"zone":6}11, "IistTransition": [{"widthTransition":451,"typeTransition":"FADE","position":286}, {"widthTransition":260,"typeTransition":"FADE","position":2709}, 30 {"widthTransition":260,"typeTransition":"FADE","position":4544}, {"widthTransition":260,"typeTransition":"FADE","position":6400}, {"widthTransition":260,"typeTransition":"FADE","position":7316}, {"widthTransition":260,"typeTransition":"FADE","position":9262}, {"widthTransition":260,"typeTransition":"FADE","position":10188} 35 ,{"widthTransition":260,"typeTransition":"FADE","position":12000}, 3035294 33 {"widthTransition":260,"typeTransition":"FADE","position":12963}, {"widthTransition":260,"typeTransition"."FADE","position":14764}, {"widthTransition":410,"typeTransition":"FADE","position":17589}, {"widthTransition":260,"typeTransition":"FADE","position":19541}, 5 {"widthTransition":10,"typeTransition":"FADE","position":324278), {"widthTransition":10,"typeTransition":"FADE","position":324673}, {"widthTransition":10,"typeTransition":"FADE","position":325079}, {"widthTransition":10,"typeTransition":"FADE","position":325486}], 10 "IistPhotoFile": [{"isDUPLICATE":false,"isTOP":false,"effect":1]}, {"isDU PLI CATE":false,"isTOP":false, "effect": [{"duration":2778,"timeposition":61,"param": 15 [{"effectPoint": [{"x":0,"y":0},{"x":1,"y":1}], "max":1 ,"name":"flevel","typeParam":0}], "typeEffect":"FADE"}, {"duration":2778,"timeposition":61,"param": 20 [{"effectPoint": [{"x":0,"y":0},{"x":1,"y":0}], "max":20,"name":"tx.speed","typeParam":1}, {"effectPoint": [{"x":0,"y":0},{"x":1,"y":0}], 25 "max":1,"name":"tx.level","typeParam":1}, {"effectPoint": [{"x":0,"y":0.5},{"x":1,"y":0.5}], "nnax":20,"name":"ty.speed","typeParam":1}, {"effectPoint": 30 [{"x":0,"y":0},{"x":1,"y":0}], "max":1,"name":"ty.level","typeParam":1}], typeEffect":"TRANSLATE"}D, {"isDUPLICATE":false,"isTOP":false, "effect": 35 [{"duration":2095,"timeposition":2579,"param": 3035294 34 [{"effectPoint": [{,ix":0,"y":0.5},{"x":1,"y":0.5}], "rnax":20,"name":"z.speed","typeParam":1 , reffectPoint": 5 [{"x":0, 0},{"x":1 "y":0}], "max":0.3,"name":"z.level","typeParam":1}], "typeEffect":"ZOOM"}, {"duration":2095,"timeposition":2579,"param": [{"effectPoint": 10 [{"x":0,"y":1}, {"x":0.08,"y":1}, {"x":0.12,"y":0.8}, {"x":0.19,"y":1}, {"x":0.2601,"y":0.9638}, 15 {"x":0.3130,"y":0.8}, {"x":0.3658,"y":0.9759}, {"x":0.4631,"y":1}, {"x":0.5243,"y":0.8}, {"x":0.5754,"y":1}, 20 {"x":0.7157,"y":1}, {"x":0.77,"y":0.8}, {"x":0.8070,"y":1}, {"x":1,"y":1}], "max":1,"name":".f. level","typeParam":0}], 25 "typeEffect":"FADE"}]}, risDUPLICATE":false,"isTOP":false,"effect": [{"duration":2116,"timeposition":4414,"param": [{"effectPoint": [{"x":0,"y":0.5},{"x":1,"y":0.5}], 30 "max":20,"name":"z.speed","typeParam":1}, {"effectPoint": [{"x":0,"y":0},{"x":1,"y":0}], "max":0.3,"name":"z.level","typeParam":1}], "typeEffect":"ZOOM"), 35 {"duration":2116,"timeposition":4414,"param": 3035294 35 [{"effectPoint": [{"x":0,"y":1}, {11x":0.1,"y":1}, {"x":0.12,"y":0.8}, {"x":0.15,"y":1}, {"x":0.28,"y":1}, {"x":0.33,"y":0.8}, {"x":0.35,"y":1}, {"x":0.4916,"y":1}, 10 {"x":0.5226,"y":0.8}, {"x":0.5521,"y":1}, {"x":0.6974,"y":1}, {"x":0.7291,"y":0.8}, {"x":0.7609,"y":1}, 15 {"x":0.94,"y":1}, {"x":0.96,"y":0.8}, {"x":1,"y":1}], "max":1,"name":"flevel","typeParam":01], "typeEffect":"FADEU 20 {"isDUPLICATE":false,"isTOP":false,"effect": [{"duration":1176,"timeposition":6270,"param": [{"effectPoint": [{"x":0,"y":0.5},{"x":1,"y":0.5}], "max":20,"name":"z.speed","typeParam":1}, 25 {"effectPoint": [{"x":0,"y":0},{"x":1,"y":0}], "max":0.3,"name":"z.level","typeParam":1}], "typeEffect":"ZOOM"}, {"duration":1176,"timeposition":6270,"param": 30 [{"effectPoint": [{"x":0,"y":1}, {"x":0.1,"y":1}, {"x":0.15,"y":0.8}, {"x":0.19,"y":1}, 35 {"x":0.4819,"y":1}, 3035294 36 {"x":0.5349,"y":0.8}, {"x":0.5831,"y":1}, {"e0 94,"y"*0.8}, {"x":1y:1}], "max":1,"name":"flevel","typeParam":0}], "typeEffect":"FADE"}]}, {"isDUPLICATE":faIse,"isTOP":faIse,"effecr: [{"duration":381,"timeposition":323902,"param": 10 [{"effectPoint": [{"x":0,"y":0},{"x":1,"y":0}], "max":1,"name":"f. level","typeParam":0}], "typeEffect":"FADEU, {"isDUPLICATE":false,"isTOP":false,"effect": 15 [{"duration":405,"timeposition":324273,"param": [{"effectPoinr: [{"x":0,"y":0},{"x":1,"y":0}], "max":1,"name":"f.level","typeParam":0}], "typeEffect":"FADE"}D, 20 {"isDUPLICATE":false,"isTOP":false,"effect": [{"duration":416,"timeposition":324668,"param": [{"effectPoint": [{"x":0,"y":0},{"x":1"y":0}], "max":1,"name":"f. level","typeParam":0}], 25 "typeEffect":"FADE"}]}, risDUPLICATF:false,"isTOP":false,"effect": [{"duration":417,"timeposition":325074,"param": [{"effectPoint":' [{"x":0,"y":0},{"x":1,"y":0}], 30 "max":1,"name":"flevel","typeParam":0}], "typeEffect":"FADE"}D, {"isDUPLICATE":false,"isTOP":false,"effect":0}], 3035294 37 ANNEXE II (faisant partie intégrante de la description) Extrait de contenu d'un fichier de unchronisation dérivé 5 {"SubFrameJSON":{"listEffectCarriers": [{"duration":3160,"isTOP":false, "effect": [{"param": [{"effectPoint": 10 [{"x":0, "y":1.0010}, {"x":1 "y":1.4619}], "name":"x"}, {"effectPoint": [{"x":0, "y":1.0010}, 15 {"x":1,"y":1.4619}], "name":"y"}], "typeEffect":"SCALE"}, {"param": [{"effectPoint": 20 [{"x":0 "y":0}, {"x":0.0524,"y":0.5427}, {"x":0.0773,"y":0.9167, {"x":0.0822,"y":0.9753}, {"x":0.8702, "y":0.9965}, 25 {"x":1,"y":0}], "name":"alpha"}], "typeEffect":"OPAC ITY"}, {"param": [{"effectPoint": 30 [{"x".0 "y":0}, {"x":1 "y":0}], "name":"y"}], "typeEffect":"TRANSLATE"}], "position":-130,"idPhoto":0}, 35 3035294 38 {"duration":2287,"isTOP":false, "effect": [{"param": [{"effectPoint": [{"x":0 "y":1.0010}, {"x":1 "y":1.2970}], "name":"x"), {"effectPoint": [{"x":0,"y":1.0010}, 10 {"x":1 ,"y":1.2970}], "name":"y"}], "typeEffect":"SCALE"}, {"param": [{"effectPoint": 15 [{"x"":0, ""y"":0}, {"x":0.1792,"y":1}, {"x":0.8863,"y":1}, {"x":1,"y":0}], "name":"alpha"}], 20 "typeEffect":"OPACITY"}, {"param": [{"effectPoint": [{"x":0 "y":0}, {"x":1,"y":0}], 25 "name":"y"}], "typeEffect":"TRANSLATE")], "position":2620,"idPhoto":1}, {"duration":1910,"isTOP":false, 30 "effect": [{"pararre: [{"effectPoint": [{"x": 0,""y":1.0010}, {"x":1,"y":1.2360}], 35 "name":"xl, 3035294 39 {"effectPoint": [{"x":0,"y":1.0010}, {"x":1,"y°':1.2360}], "name":"y"}], 5 "typeEffect":"SCALE"}, {"param": [{"effectPoint": [{"x":0 "y":0}, {"x":0.1361,"y":1}, 10 {"x":0.8638,"y":1}, {"x":1,"y":0}], "name":"alpha"}], "typeEffect":"OPACITY"}, {"param": 15 [{"effectPoint": [{'x':0 "y":0}, {"x":1 "y":0}] "name":"y"}], "typeEffect":"TRANSLATE"}], 20 "position":4647,"idPhoto":2}, {"duration":2959,"isTOP":false, "effect": [{"param": 25 [{"effectPoint": [{"x":0,"y":1.0010}, {"x":1, "y":1.4204}], "name":"x"), {"effectPoint": 30 [{"x":0,"y":1.0010}, {"x":1,"y":1.4204}], "name":"y"}], "typeEffect":"SCALE"}, {"param": 35 [{"effectPoint": 3 0 3 5 2 9 4 [{"x":0 ,"y":0), {"x":0.0878,"y":1}, {"x":0.9121,"y":1}, {"x":1 "y":0}] 5 "name":"alpha"}], "typeEffect":"OPACITY"), {"param": [{"effectPoint": [{"x":0 "y":0}, 10 {"x":1, "y":0}], "name":"y"}], "typeEffect":"TRANSLATE")], "position":6297,"id Photo":31, 15 {"duration":2106,"isTOP":false, "effect": [{"param": [{"effectPoint": [{"x":0, "y":1.0010}, 20 {"x":0.3945,"y":1.0943}, {"x":0.4563,"y":1.1777}, {"x":1,"y":1.3568)], "name":"x"), {"effectPoint": 25 [{"x":0,"y":1.0010}, {"x":0.3945,"y":1.0943}, {"x":0.4563,"y":1.1777}, {"x": 1,"y":1.3568}], "name":"y"}], 30 "typeEffect":"SCALE"}, {"param": [{"effectPoint": [{"x":0 "y":0}, {"x":0.0368,"y":0.2986}, 35 {"x":0.0466,"y":0.3402}, 3035294 41 {"x":0.1234y:0.9576}, {"x":0. 1806,"y":0 9998}, {"x":0 2486,"y":0.9004}, {"x":0.2820,"y":0.9985}, 5 {"x":0.3945,"y":0.9999}, {"x":0.4563,"y": 1.0007}, {"x":0.3982, "y":0.9933}, {"x":0.4490, "y":0.9006}, {"x":0.4958,"y":0.9997}, 10 {"x":0.6057,"y":1}, {"x":0.6617,"y":1}, {"x":0.6851,"y":0. 9020}, {"x":0.7242,"y":0.9985}, {"x":0.8599,"y":1 15 {"x":0.8765,"y":0.9358}, {"x":0.8849, "y":0.8416}, {"x":0.9267,"y":0.5921}, {"x":1, "y":0)], "name":"alpha"}], 20 "type Effect":"OPAC ITY"), {"param": [{"effectPoint": [{""x"":0 ""y"":0}, {""x"":1 ""y"":0}] 25 "name":"y"}], "type Effect":"TRANSLATE")], "position":8996,1dPhoto":4}, 30 {"d u ration": 1415,"isTOP":false, "effect": [{"param": [{"effectPoint": 35 [{"x":0,"y":1}, 3035294 42 {"x":0.2544,"y":1}, {"x":0.2579,"y":1.0638}, {"x":0.5003, "y"-:1.06382}, {"x":0.5038,"y":1.1363}, 5 {"x":0.7462,"y":1.13636}, {"x":0.7498, "y":1.2195}, {"x":1, "y":1.2195}], "name":"x"), {"effectPoint": 10 [{"x":0,"y":1}, {"x":0.2544,"y":1}, {"x":0.2579, "y":1.0638}, {"x":0.5003,"y":1.0638}, {"x":0.5038, "y":1.1363}, 15 {"x":0.7462,"y":1.1363}, {"x":0.7498, "y":1.2195}, {"x":1, "y":1.2195}], "name":"y"}], "typeEffect":"SCALE"), 20 {"param": [{"effectPoint": [{"x":0 "y":0}, {"x":0.0070,"y":1}, {"x":0.9929,"y":1}, 25 {"x":1, "y":0}], "name":"alpha"}], "typeEffect":"OPAC ITY"), {"param": [{"effectPoint": 30 [{"x":0, "y":0}, {"x":1, "y":0}], "name":"y"}], "typeEffect":"TRANSLATE"}], "position":24577,"idPhoto":12}, 35 3035294 43 {"duration":1391,"isTOP":false, "effect": [{"param": [{"effectPoint": [{"x":0,"y":1}, {"X":0.2501,"y":1}, {"x":0.2537, "y":1.0638}, {"x":0.4924, "y":1.0638}, {"x":0.4960, "y":1.1363}, 10 {"x":0.7426, "y":1.1363}, {"x":0.7462,"y": I .2195}, {"x":1, "y":1.2195}], "name":"x"}, {"effectPoint":[{"x":0,"y":1}, 15 {"x":0.2501,"y":1}, {"x":0.2537,"y": 1 .0638}, {"x":0.4924, "y":1.0638 {"x":0.4960,"y":1.1363}, {"x":0.7426,"y": 1 .I363}, 20 {"x":0.7462,"y":1.2195}, {"x":1 "y":1.2195}], "name":"y"}], "typeEffect":"SCALE"}, {"param": 25 [{"effectPoint": [{"x":0, "y":0}, {"x":0.007189072609633357,"y":1}, {"x":0.9928109273903667,"y": 1 }, {"x":1 "y":0}], 30 "name":"alpha"}], "typeEffect":"OPACITY"}, {"param": [{"effectPoint": [{"x":0,"y":0}, 35 {"x":1 "y":0}], 3035294 44 "name":"y"}], "typeEffect":"TRANSLATE"}], "position":25982,"id Photo": I 31]}} {"IistTags": 5 "subframe_id":20150317154219001, // identifiant du fichier "masterframe_id":20150317154219000, // identifiant du fichier // principal d'origine "sframelabel":"intro_1_part_1", // étiquette de l'extrait de // l'enregistrement audio correspondant 10 "subframe_previous_id":null, // identifiant du fichier précédent // extrait du fichier principal d'origine "subframe_nextid":null, // identifiant du fichier suivant // extrait du fichier principal d'origine "duration":38, // durée de l'extrait de l'enregistrement audio correspondant 15 "total_duration":191, // durée de l'enregistrement audio // correspondant au fichier principal d'origine "nb_photo":32}, // nombre correspondant d'images affichées "startTooth":0, // numéro de la première fenêtre temporelle "stopTooth":40, // numéro de la dernière fenêtre temporelle 20 "debit": 128, // débit en kb/s de l'enregistrement audio correspondant {"ppm_moy":0, "ppm_min":0, "cpm_min":0, "cpm_moy":0, 25 "cpm_max":0, "cpm_ppm":0, "ppm_max":0, "is_ end":false, "is_start":true, 30 "end_lever 17, "start_level":6, "nb_photo_top":0, "version_fg":"V401","artist":"aaa", "operateur_artistique":"ppp", 35 "masterframe_validated":true, 3035294 "validated_by":"vvv", "validated_date":"ddd", "last_update_date":"ddd", "categories": 5 {"hit_of the_moment_end":"ddd","best_year":null, "mood":["mood_party","mood_bittersweet","mood_sad"], "pace":["pace_fast_rough","pace_cooll, "release_year":yyy,"countries":["gb","fl,"sung":["uk"],"gem":false, "deluxe":true,"cult":false,"instrumental":false, 10 "genre"rgenre_techno","genre_dance","genre_pop","genre_technol, "theme":["theme_20101,"hit_of the_moment_start":"dddl, "album":"aaa","song_title":"ttt","major":"mmm", "comment_3":","comment_2":"","comment_1":"","comment_4":"", "stereo":true} 15In particular, the invention is not limited to the definition of time windows by a start time and duration and the definition of transitions by a median time and duration. It goes without saying that time windows and transitions can be defined differently, for example by start and end times or end times and times. 3035294 31 "APPENDIX I (integral to the description) Content excerpt from a master sync file 5 {" AudioCase ": {" AudioFile ":" 06 xxxx.aac "," barl nfo ": {" IistTags " : "masterframe_id": 0, // identifier of the synchronization file "ppm_moy": 101, // average number of images displayed per minute 10 "ppm_min": 7, // number ppm minimum "ppm_max": 444, // number of maximum ppm "cpm_moy": 118, // average number of windows displayed per minute "cpm_min": 7, // number cpm minimum "cpm_max": 444, // number cpm maximum 15 "cpm_ppm": 1, / / ratio between cpm and ppm "total_duration": 191, // total duration of the corresponding audio recording "nb_photo": 324, // corresponding number of images displayed "nb_photo_top": 0, // number of preferred temp windows of the file // 20 "version_fg": "V401", // version of the software of generation of the file "masterframe_validated": true, // indicator of validation of the file "operator_artistic": "ppp", // identifier of the opera r having generated the file "validated_by": "vvv", // identifier of the operator having validated the file "validated_date": "ddd", // date of the validation of the file 25 "last_update_date": "ddd", / / date of last modification of the file "song_title": "ttt", "major": "mmm", "album": "bbb", "artist": "aaa", // references of // the corresponding audio recording "categories": // definition of categories to which rhit_of the_moment_end ":" ddd ", // belongs to the record 30" best_year: null, // corresponding audio "mood": ["mood_party", "mood_bittersweet"], "pace ": [" pace_fast_rough "]," release_year ": yyy," countries ": cc," sung ": dd," gem ": false," deluxe ": true, 35" cur: false, "instrumentarfalse, 303 5 2 94 32 "genre" fgenre_techno "," genre_dancel, "theme": ["theme_2010"], nhit_of_the_momentstart ":" ddd ")," comment_3 ":" "," comment4 ":" "," comment_2 ": 4" " , "comment_1": "", // fields // reserved for inserting comments {"listMarkers": [{"marker": 277}, {"marker": 2756}, {"marker": 31915}, { "marker": 3 7910}, {"marker": 43075}, {"marker": 48807}, {"marker": 53820}, {"marker": 59954}, {"marker": 65551}, 10 {"marker": 71181 }, {"marker": 76093}, {"marker": 82395}, {"marker": 88009}, {"marker": 93637}, {"marker": 98453}, {"marker": 210852}, {"marker": 233575}, {"marker": 255965}, {"marker": 258799}, {"marker": 260257}, {"marker": 261726}, 15 {"marker": 264374}, { "marker": 265770}, {"marker": 267167}, {"marker": 270011}, {"marker": 271376}, {"marker": 272824}, {"marker": 275606}, {"marker" ": 277001}, {" marker ": 278370}, {" marker ": 279044}, {" marker ": 300436}]," listZones ": 20 [{" zone ": 2}, {" zone ": 1 }, {"zone": 0}, {"zone": 1}, {"zone": 3}, {"zone": 3}, {"zone": 5}, {"zone": 2}, {"zone": 3}, {"zone": 3}, {"zone": 5}, {"zone": 4}, {"zone": 2}, {"zone": 4}, {" zone ": 2}, {" zone ": 4}, {" zone ": 3}, {" zone ": 3}, {" zone ": 3}, {" zone ": 3}, {" zone " : 3}, {"zone": 3}, {"zone": 3}, {"zone": 3}, 25 {"zone": 6}, {"zone": 6}, {"zone": 5}, {"zone": 5}, {"zone": 4}, {"zone": 4}, {"zone": 2}, {"zone": 2}, {"zone": 0} , {"zone": 6} 11, "IistTransition": [{"widthTransition": 451, "transitionType": "FADE", "position": 286}, {"widthTransition": 260, "transitionType": "FADE", "position": 2709}, 30 {"widthTransition": 260, "transitionType": "FADE", "position": 4544}, {"widthTransition": 260, "typeTransition": "FADE", "position": 6400}, {"widthTransition": 260, "transitionType": "FADE", "position": 7316}, {"widthTransition": 260, "transitionType": "FADE", "position": 9262}, {"widthTransition": 260, "transitionType": "FADE", "position": 10188} 35, {"widthTransition": 260, "transitionType": "FADE", " position ": 12000}, 3035294 33 {" widthTransition ": 260," transitionType ":" FADE "," position ": 12963}, {" widthTransition ": 260," transitionType "," FADE "," position ": 14764 }, {"widthTransition": 410, "typeTransition": "FADE", "position": 17589}, {"widthTransition": 260, "typeTransition": "FADE", "position": 19541}, 5 {"widthTransition ": 10," typeTransition ":" FADE "," position ": 324278), {" widthTransition ": 10," typeTransition ":" FADE "," position ": 324673}, {" widthTransition ": 10," typeTransition ":" FADE "," position ": 325079}, {" widthTransition ": 10," transitionType ":" FADE "," position ": 3254 86}], 10 "IistPhotoFile": [{"isDUPLICATE": false, "isTOP": false, "effect": 1]}, {"isDU PLI CATE": false, "isTOP": false, "effect": [{"duration": 2778, "timeposition": 61, "param": 15 [{"effectPoint": [{"x": 0, "y": 0}, {"x": 1, "y" : 1}], "max": 1, "name": "flevel", "typeParam": 0}], "typeEffect": "FADE"}, {"duration": 2778, "timeposition": 61, " param ": 20 [{" effectPoint ": [{" x ": 0," y ": 0}, {" x ": 1," y ": 0}]," max ": 20," name ": "tx.speed", "typeParam": 1}, {"effectPoint": [{"x": 0, "y": 0}, {"x": 1, "y": 0}], 25 " max ": 1," name ":" tx.level "," typeParam ": 1}, {" effectPoint ": [{" x ": 0," y ": 0.5}, {" x ": 1," y ": 0.5}]," nnax ": 20," name ":" ty.speed "," typeParam ": 1}, {" effectPoint ": 30 [{" x ": 0," y ": 0} , {"x": 1, "y": 0}], "max": 1, "name": "ty.level", "typeParam": 1}], typeEffect ":" TRANSLATE "} D, { "isDUPLICATE": false, "isTOP": false, "effect": 35 [{"duration": 2095, "timeposition": 2579, "param": 3035294 34 [{"effectPoint": [{, ix ": 0 , "y": 0.5}, {"x": 1, "y": 0.5}], "rnax": 20, "name": "z.speed", "typeParam": 1, reffectPoint ": 5 [ {"x": 0, 0}, {"x": 1 "y": 0}], "max": 0.3, "name": "z.lev el "," typeParam ": 1}]," typeEffect ":" ZOOM "}, {" duration ": 2095," timeposition ": 2579," param ": [{" effectPoint ": 10 [{" x ": 0, "y": 1}, {"x": 0.08, "y": 1}, {"x": 0.12, "y": 0.8}, {"x": 0.19, "y": 1} , {"x": 0.2601, "y": 0.9638}, 15 {"x": 0.3130, "y": 0.8}, {"x": 0.3658, "y": 0.9759}, {"x": 0.4631 , "y": 1}, {"x": 0.5243, "y": 0.8}, {"x": 0.5754, "y": 1}, 20 {"x": 0.7157, "y": 1} , {"x": 0.77, "y": 0.8}, {"x": 0.8070, "y": 1}, {"x": 1, "y": 1}], "max": 1, "name": "f.. level "," typeParam ": 0}], 25" typeEffect ":" FADE "}]}, risDUPLICATE": false, "isTOP": false, "effect": [{"duration": 2116, "timeposition": 4414, "param": [{"effectPoint": [{"x": 0, "y": 0.5}, {"x": 1, "y": 0.5}], 30 "max": 20, " name ":" z.speed "," typeParam ": 1}, {" effectPoint ": [{" x ": 0," y ": 0}, {" x ": 1," y ": 0}] , "max": 0.3, "name": "z.level", "typeParam": 1}], "typeEffect": "ZOOM"), 35 {"duration": 2116, "timeposition": 4414, "param "{3035294} [{" effectPoint ": [{" x ": 0," y ": 1}, {11x": 0.1, "y": 1}, {"x": 0.12, "y": 0.8 }, {"x": 0.15, "y": 1}, {"x": 0.28, "y": 1}, {"x": 0.33, "y": 0.8}, {"x": 0.35 , "y": 1}, {"x": 0.4916, "y": 1}, 10 {"x": 0.5226, "y": 0.8}, {"x": 0.5521, "y": 1} , {"x": 0.6974, "y": 1}, {"x": 0.7291, "y": 0.8}, {"x": 0.7609, "y": 1}, 15 {"x": 0.94 , "y": 1}, {"x": 0.96, "y": 0.8}, {"x": 1, "y": 1}], "max": 1, "name": "flevel" , "typeParam": 01], "typeEffect": "FADEU 20 {" isDUPLICATE ": false," isTOP ": false," effect ": [{" duration ": 1176," timeposition ": 6270," param ": [{"effectPoint": [{"x": 0, "y": 0.5}, {"x": 1, "y": 0.5}], "max": 20, "name": "z.speed "," typeParam ": 1}, 25 {" effe ctPoint ": [{" x ": 0," y ": 0}, {" x ": 1," y ": 0}]," max ": 0.3," name ":" z.level "," typeParam ": 1}]," typeEffect ":" ZOOM "}, {" duration ": 1176," timeposition ": 6270," param ": 30 [{" effectPoint ": [{" x ": 0," y ": 1}, {" x ": 0.1," y ": 1}, {" x ": 0.15," y ": 0.8}, {" x ": 0.19," y ": 1}, 35 {" x ": 0.4819," y ": 1}, 3035294 36 {" x ": 0.5349," y ": 0.8}, {" x ": 0.5831," y ": 1}, {" e0 94, "y" * 0.8}, {"x": 1y: 1}], "max": 1, "name": "flevel", "typeParam": 0}], "typeEffect": "FADE"}]}, {" isDUPLICATE ": fIse," isTOP ": fIse," effecr: [{"duration": 381, "timeposition": 323902, "param": 10 [{"effectPoint": [{"x": 0, "y" : 0}, {"x": 1, "y": 0}], "max": 1, "name": "f. level "," typeParam ": 0}]," typeEffect ":" FADEU, {"isDUPLICATE": false, "isTOP": false, "effect": 15 [{"duration": 405, "timeposition": 324273, "param": [{"effectPoinr: [{" x ": 0," y ": 0}, {" x ": 1," y ": 0}]," max ": 1," name ":" f.level "," typeParam ": 0}]," typeEffect ":" FADE "} D, 20 {" isDUPLICATE ": false," isTOP ": false," effect ": [{" duration ": 416," timeposition ": 324668," param ": [{" effectPoint ": [{" x ": 0," y ": 0}, {" x ": 1" y ": 0}]," max ": 1, "name": "f. level "," typeParam ": 0}], 25" typeEffect ":" FADE "}]}, risDUPLICATF: false," isTOP ": false," effect ": [{" duration ": 417," timeposition ": 325074 , "param": [{"effectPoint": '[{"x": 0, "y": 0}, {"x": 1, "y": 0}], 30 "max": 1, " name ":" flevel "," typeParam ": 0}]," typeEffect ":" FADE "} D, {" isDUPLICATE ": false," isTOP ": false," effect ": 0}], 3035294 37 ANNEX II (as part of the description) Extracted content of a derived synchronization file 5 {"SubFrameJSON": {"listEffectCarriers": [{"duration": 3160, "isTOP": false, "effect": [{" param ": [{" effectPoint ": 10 [{" x ": 0," y ": 1.0010}, {" x ": 1" y ": 1.4619}]," name ":" x "}, {" effectPoint ": [{" x ": 0," y ": 1.0010}, 15 {" x ": 1," y ": 1.4619}]," name ":" y "}]," typeEffect ":" SCALE "}, {" param ": [{" effectPoint ": 20 [{" x ": 0" y ": 0}, {" x ": 0.0524," y ": 0.5427}, {" x ": 0.0773, "y": 0.9167, {"x": 0.0822, "y": 0.9753}, {"x": 0.8702, "y": 0.9965}, 25 {"x": 1, "y": 0}], "name": "alpha"}], "typeEffect": "OPAC ITY"}, {"param": [{"effectPoint": 30 [{"x" .0 "y": 0}, {"x" : 1 "y": 0}], "name": "y"}], "typeEffect ":" TRANSLATE "}]," position ": - 130," idPhoto ": 0}, 35 3035294 38 {" duration ": 2287," isTOP ": false," effect ": [{" param ": [{ "effectPoint": [{"x": 0 "y": 1.0010}, {"x": 1 "y": 1.2970}], "name": "x"), {"effectPoint": [{"x ": 0," y ": 1.0010}, 10 {" x ": 1," y ": 1.2970}]," name ":" y "}]," typeEffect ":" SCALE "}, {" param " : [{"effectPoint": 15 [{"x" ": 0," "y" ": 0}, {" x ": 0.1792," y ": 1}, {" x ": 0.8863," y " : 1}, {"x": 1, "y": 0}], "name": "alpha"}], 20 "typeEffect": "OPACITY"}, {"param": [{"effectPoint": [{"x": 0 "y": 0}, {"x": 1, "y": 0}], "name": "y"}], "typeEffect": "TRANSLATE")], "position": 2620, "idPhoto": 1}, {"duration": 1910, "isTOP": false, 30 "effect": [{"parre: [{" effectPoint ": [{" x ": 0, "" y ": 1.0010}, {" x ": 1," y ": 1.2360}], 35" name ":" xl, 3035294 39 {"effectPoint": [{"x": 0, "y": 1.0010}, {"x": 1, "y": 1.2360}], "name": "y"}], 5 "typeEffect": "SCALE"}, {"param": [{"effectPoint": [{"x": 0 "y": 0}, {"x": 0.1361, "y": 1}, 10 {"x": 0.8638, "y": 1}, {"x": 1, "y": 0}], "name": "alpha"}], "typeEffect": "OPACITY"}, {"param": 15 [{"effectPoint": [{'x': 0 "y" : 0}, {"x": 1 "y": 0}] "name": "y"}], "typeEffect": "TRANSLATE"}], 20 "position": 4647, "idPhoto": 2} , {"duration": 2959, "isTOP": false, "effect": [{"param": 25 [{"effectPoint": [{"x": 0, "y": 1.0010}, {"x" : 1, "y": 1.4204}], "name": "x"), {"effectPoint": 30 [{"x": 0, "y": 1.0010}, {"x": 1, "y ": 1.4204}]," name ":" y "}]," typeEffect ":" SCALE "}, {" param ": 35 [{" effectPoint ": 3 0 3 5 2 9 4 [{" x ": 0, "y": 0), {"x": 0.0878, "y": 1}, {"x": 0.9121, "y": 1}, {"x": 1 "y": 0}] 5 "name": "alpha"}], "typeEffect": "OPACITY"), {"param": [{"effectPoint": [{"x": 0 "y": 0}, 10 {"x" : 1, "y": 0}], "name": "y"}], "typeEffect": "TRANSLATE")], "position": 6297, "id Photo": 31, 15 {"duration": 2106, "isTOP": false, "effect": [{"param": [{"effectPoint": [{"x": 0, "y": 1.0010}, 20 {"x": 0.3945, "y" : 1.0943}, {"x": 0.4563, "y": 1.1777}, {"x": 1, "y": 1.3568)], "name": "x"), {"effectPoint": 25 [{ "x": 0, "y": 1.0010}, {"x": 0.3945, "y": 1.0943}, {"x": 0.4563, "y": 1.1777}, {"x": 1, "y ": 1.3568}]," name ":" y "}], 30" typeEffect ":" SCALE "}, {" param ": [{" effectPoint ": [{" x ": 0" y ": 0} , {"x" : 0.0368, "y": 0.2986, 35 {"x": 0.0466, "y": 0.3402}, 3035294 41 {"x": 0.1234y: 0.9576}, {"x": 0. 1806, "y": 0 9998}, {"x": 0 2486, "y": 0.9004}, {"x": 0.2820, "y": 0.9985}, 5 {"x": 0.3945, "y" : 0.9999}, {"x": 0.4563, "y": 1.0007}, {"x": 0.3982, "y": 0.9933}, {"x": 0.4490, "y": 0.9006}, {"x" : 0.4958, "y": 0.9997}, 10 {"x": 0.6057, "y": 1}, {"x": 0.6617, "y": 1}, {"x": 0.6851, "y": 0. 9020}, {"x": 0.7242, "y": 0.9985}, {"x": 0.8599, "y": 1 15 {"x": 0.8765, "y": 0.9358}, {"x": 0.8849 , "y": 0.8416}, {"x": 0.9267, "y": 0.5921}, {"x": 1, "y": 0)], "name": "alpha"}], 20 "type Effect ":" OPAC ITY "), {" param ": [{" effectPoint ": [{" "x" ": 0" "y" ": 0}, {" "x" ": 1" "y" ": 0}] 25" name ":" y "}]," Effect type ":" TRANSLATE ")]," position ": 8996,1dPhoto": 4}, 30 {"ration": 1415, "isTOP ": false," effect ": [{" param ": [{" effectPoint ": 35 [{" x ": 0," y ": 1}, 3035294 42 {" x ": 0.2544," y ": 1 }, {"x": 0.2579, "y": 1.0638}, {"x": 0.5003, "y" -: 1.06382}, {"x": 0.5038, "y": 1.1363}, 5 {"x" : 0.7462, "y": 1.13636}, {"x": 0.7498, "y": 1.2195}, {"x": 1, "y": 1.2195}], "name": "x"), " effectPoint ": 10 [{" x ": 0," y ": 1}, {" x ": 0.2544," y ": 1}, {" x ": 0.2579," y ": 1.0638}, {" x " ": 0.5003," y ": 1.0638}, {" x ": 0.5038," y ": 1.1363}, 15 {" x ": 0.7462," y ": 1.1363}, {" x ": 0.7498," y " : 1.2195}, {"x": 1, "y": 1.2195}], "name": "y"}], "typeEffect": "SCALE"), 20 {"param": [{"effectPoint": [{"x": 0 "y": 0}, {"x": 0.0070, "y": 1}, {"x": 0.9929, "y": 1}, 25 {"x": 1, "y": 0}], "name": "alpha"}], "ty peEffect ":" OPAC ITY "), {" param ": [{" effectPoint ": 30 [{" x ": 0," y ": 0}, {" x ": 1," y ": 0}] , "name": "y"}], "typeEffect": "TRANSLATE"}], "position": 24577, "idPhoto": 12}, 3035294 43 {"duration": 1391, "isTOP": false, "effect": [{"param": [{"effectPoint": [{"x": 0, "y": 1}, {"X": 0.2501, "y": 1}, {"x": 0.2537, "y": 1.0638, {"x": 0.4924, "y": 1.0638}, {"x": 0.4960, "y": 1.1363}, 10 {"x": 0.7426, "y": 1.1363 }, {"x": 0.7462, "y": I .2195}, {"x": 1, "y": 1.2195}], "name": "x"}, {"effectPoint": [{" x ": 0," y ": 1}, 15 {" x ": 0.2501," y ": 1}, {" x ": 0.2537," y ": 1 .0638}, {" x ": 0.4924, "y": 1.0638 {"x": 0.4960, "y": 1.1363}, {"x": 0.7426, "y": 1 .I363}, 20 {"x": 0.7462, "y": 1.2195}, {"x": 1 "y": 1.2195}], "name": "y"}], "typeEffect": "SCALE"}, {"param": 25 [{"effectPoint": [{"x" : 0, "y": 0}, {"x": 0.007189072609633357, "y": 1}, {"x": 0.9928109273903667, "y": 1}, {"x": 1 "y": 0} ], 30 "name": "alpha"}], "typeEffect": "OPACITY"}, {"param": [{"effectPoint": [{"x": 0, "y": 0}, 35 { "x": 1 "y": 0}], 3035294 44 "name": "y"}], "typeEffect": "TRANSLATE"}], "position": 2598 2, "id Photo": I 31]}} {"IistTags": 5 "subframe_id": 20150317154219001, // identifier of the file "masterframe_id": 20150317154219000, // identifier of the file // principal of origin "sframelabel": "intro_1_part_1", // extract tag from // the corresponding audio record 10 "subframe_previous_id": null, // previous file id // extract from the original main file "subframe_nextid": null, // id of the following file // extracted from the original main file "duration": 38, // duration of the extract of the corresponding audio recording 15 "total_duration": 191, // duration of the audio recording // corresponding to the original main file "nb_photo": 32}, // corresponding number of images displayed "startTooth": 0, // number of the first time window "stopTooth": 40, // number of the last time window 20 " bit rate ": 128, // bit rate in kb / s of the corresponding audio record {" ppm_moy ": 0," ppm_min ": 0," cpm_min ": 0," cpm_moy ": 0, 25" cpm_max ": 0," cpm_ppm ": 0," ppm_max ": 0," is_ end ": false," is_start ": true, 30" end_rise 17, "start_level": 6, "nb_photo_top": 0, "version_fg" : "V401", "artist": "aaa", "artistic_operator": "ppp", 35 "masterframe_validated": true, 3035294 "validated_by": "vvv", "validated_date": "ddd", "last_update_date": " ddd "," categories ": 5 {" hit_of the_moment_end ":" ddd "," best_year ": null," mood ": [" mood_party "," mood_bittersweet "," mood_sad "]," pace ": [" pace_fast_rough " , "pace_cooll," release_year ": yyy," countries ": [" gb "," fl, "sung": ["uk"], "gem": false, "deluxe": true, "cult": false, "instrumental": false, 10 "genre" rgenre_techno "," genre_dance "," genre_pop "," genre_technol, "theme": ["theme_20101," hit_of the_moment_start ":" dddl, "album": "aaa", "song_title ":" ttt "," major ":" mmm "," comment_3 ":", "comment_2": "", "comment_1": "", "comment_4": "", "stereo": true} 15

Claims (16)

REVENDICATIONS1. Procédé de génération d'un diaporama synchronisé avec des événements audio, le procédé comprenant des étapes exécutées par un terminal (FT, MT) et consistant à : mémoriser une séquence de données d'image comprenant des 5 images ordonnées, restituer un enregistrement audio (AFE), lire un fichier synchronisation (SE) lié à l'enregistrement audio et définissant des fenêtres temporelles (EC<n>) d'affichage d'une image (PCT<n>), chaque fenêtre temporelle étant définie par des données 10 (ECP<n>, ECW<n>) définissant des instants de début et de fin de la fenêtre temporelle, et étant associée à un rang (n) d'image de la séquence de données d'image et à des données d'effet d'affichage (EF1-EF6) à appliquer à une image à afficher durant la fenêtre temporelle, les instants de début et de fin de chaque fenêtre temporelle étant synchronisés avec des 15 événements audio de l'enregistrement audio, et générer successivement des trames d'image en synchronisme avec la restitution de l'enregistrement audio, chaque trame d'image étant à afficher pendant une période de trame, en déterminant pour chaque trame d'image : au moins une fenêtre temporelle active en fonction d'un instant 20 de début de trame et des données définissant les instants de début et de fin des fenêtres temporelles, une image de la séquence de données d'image, à afficher pour chaque fenêtre temporelle active, en fonction du rang d'image associé à la fenêtre temporelle active, et 25 une animation d'affichage pour chaque image à afficher, en fonction des données d'effet d'affichage de la fenêtre temporelle active correspondante et de l'instant de début de trame, chaque trame d'image étant formée à partir de l'image correspondant à chaque fenêtre temporelle active, à laquelle est appliqué l'animation 30 d'affichage déterminée pour l'image.REVENDICATIONS1. A method of generating a synchronized slideshow with audio events, the method comprising steps performed by a terminal (FT, MT) and comprising: storing an image data sequence including ordered images, rendering an audio recording ( AFE), read a synchronization file (SE) related to the audio recording and defining time windows (EC <n>) for displaying an image (PCT <n>), each time window being defined by data 10 (ECP <n>, ECW <n>) defining start and end times of the time window, and being associated with an image rank (n) of the image data sequence and data of display effect (EF1-EF6) to be applied to an image to be displayed during the time window, the start and end times of each time window being synchronized with audio events of the audio recording, and successively generate frames image in synchroni same with the playback of the audio recording, each frame of image being to be displayed during a frame period, determining for each frame of picture: at least one active time window as a function of a start of frame and data defining the start and end times of the time windows, an image of the image data sequence to be displayed for each active time window, according to the image rank associated with the active time window, and a display animation for each image to be displayed, based on the display effect data of the corresponding active time window and the start time of the frame, each image frame being formed from the image corresponding to each active time window, to which is applied the display animation determined for the image. 2.. Procédé selon la revendication 1, dans lequel une transition d'affichage (TT<n>) entre deux images successives (PCT<n-1>-PCT<n>) de 3035294 47 la séquence de données d'image est définie par une période de chevauchement temporel (TTW<n>) de deux fenêtres temporelles successives (EC<n-1>-EC<n>), et une animation d'affichage de transition définie par les données d'effet d'affichage (EF1-EF6) des deux fenêtres temporelles successives durant la période de chevauchement temporel.The method of claim 1, wherein a display transition (TT <n>) between two successive images (PCT <n-1> -PCT <n>) of the image data sequence is defined by a time overlap period (TTW <n>) of two successive time windows (EC <n-1> -EC <n>), and a transition display animation defined by the display effect data (EF1-EF6) of the two successive time windows during the time overlap period. 3. Procédé selon la revendication 1 ou 2, dans lequel des instants médians des transitions d'affichage (TT<n>) sont synchronisés avec des événements audio de l'enregistrement audio (AFE).The method of claim 1 or 2, wherein median times of the display transitions (TT <n>) are synchronized with audio events of the audio recording (AFE). 4. Procédé selon l'une des revendications 1 à 3, comprenant des étapes d'affichage des trames d'image générées à l'écran du terminal (FT, MT), ou de génération d'une séquence vidéo rassemblant les trames d'image générées.4. Method according to one of claims 1 to 3, comprising steps of displaying the image frames generated on the screen of the terminal (FT, MT), or of generating a video sequence gathering the frames of generated images. 5. Procédé selon l'une des revendications 1 à 4, dans lequel les données d'effet d'affichage d'image (EF1-EF6) de chaque fenêtre temporelle (EC<n>), définissent pour chaque période de trame comprise dans la fenêtre temporelle, au moins l'un des paramètres suivants : une valeur et une vitesse de variation d'atténuation d'affichage d'image, une valeur et une vitesse de variation de zoom de l'image, un angle et une vitesse de rotation de l'image par rapport à une fenêtre d'affichage de l'image, une valeur, une vitesse et une direction de déplacement de l'image par rapport à une fenêtre d'affichage de l'image, une amplitude, une fréquence de vibration et un paramètre soumis à la vibration choisi parmi une translation, une rotation, un zoom ou une atténuation de l'image, des variations géométriques du format de l'image, des variations de couleur de l'image, et une amplitude, et une fréquence de vibration à appliquer à un vibreur mécanique du terminal. 3035294 48The method according to one of claims 1 to 4, wherein the image display effect data (EF1-EF6) of each time window (EC <n>), define for each frame period included in the time window, at least one of the following parameters: a value and a rate of variation of the attenuation of image display, a value and a speed of variation of zoom of the image, an angle and a speed of rotation of the image with respect to a display window of the image, a value, a speed and a direction of movement of the image with respect to a display window of the image, an amplitude, a frequency of vibration and a parameter subjected to the vibration selected from a translation, a rotation, a zoom or an attenuation of the image, geometric variations of the image format, color variations of the image, and an amplitude, and a vibration frequency to be applied to a mechanical vibrator of the terminal. 3035294 48 6. Procédé selon la revendication 5, dans lequel les données d'effet d'affichage d'image (EF1-EF6) de chaque fenêtre temporelle (EC<n>), comprennent pour chaque paramètre d'effet d'affichage un ensemble de points définissant une courbe de variation du paramètre d'effet d'affichage, 5 s'étendant entre des instants de début et de fin de la fenêtre temporelle.The method of claim 5, wherein the image display effect data (EF1-EF6) of each time window (EC <n>) comprises for each display effect parameter a set of points defining a variation curve of the display effect parameter, extending between times of start and end of the time window. 7. Procédé selon l'une des revendications 1 à 6, comprenant des étapes de fusion de plusieurs fichiers de synchronisation (SF) et de fusion correspondante des fichiers d'enregistrement audio associés (AFE). 107. Method according to one of claims 1 to 6, comprising steps of merging several synchronization files (SF) and corresponding merge associated audio recording files (AFE). 10 8. Procédé selon la revendication 7, dans lequel la fusion de plusieurs fichiers de synchronisation (SF) comprend des étapes de : disposition en première position dans un fichier résultant d'un fichier sélectionné parmi les fichiers de synchronisation à fusionner comportant une 15 étiquette indiquant qu'il peut figurer au début d'un diaporama, disposition à la suite d'un fichier précédent inséré dans le fichier résultant, d'un fichier sélectionné parmi les fichiers de synchronisation à fusionner comportant des étiquettes indiquant un volume sonore de début et/ou un nombre de battements de début ayant des valeurs proches d'un 20 volume sonore de fin et d'un nombre de battements de fin indiqués dans le fichier précédent, et disposition en dernière position dans le fichier résultant d'un fichier sélectionné parmi les fichiers de synchronisation à fusionner comportant une étiquette indiquant qu'il peut figurer à la fin d'un diaporama. 25The method of claim 7, wherein the merging of a plurality of synchronization (SF) files comprises steps of: placing in the first position in a file resulting from a file selected from the merging synchronization files having a label indicating it may appear at the beginning of a slide show, layout as a result of a previous file inserted in the resulting file, of a file selected from the synchronization files to be merged having labels indicating a start volume and / or a number of start beats having values close to an end volume and a number of end beats indicated in the previous file, and last position in the resulting file of a selected file among the synchronization files to be merged with a label indicating that it can appear at the end of a slide show. 25 9. Procédé de génération d'un fichier de synchronisation utilisé par le procédé de génération d'un diaporama selon l'une des revendications 1 à 8, le procédé comprenant des étapes de génération d'un fichier de synchronisation principal (MF) consistant à : 30 lire un fichier d'enregistrement audio (AF) à lier au fichier de synchronisation principal, et afficher dans une image d'interface homme-machine graphique une forme d'onde (AWF) définie à partir du fichier d'enregistrement audio (AF), recevoir d'un opérateur des actions identifiant des événements audio dans l'enregistrement audio, 3035294 49 définir en relation avec les événements audio identifiés des instants (TTP<n>) de transition (TT<n>), définir des instants de début (ECP<n>) et de fin de fenêtres temporelles (EC<n>) à partir des instants de transition, les instants de début 5 et fin de chaque fenêtre temporelle correspondant respectivement à un instant de début d'une transition et un instant de fin d'une transition suivante, les instants de transitions et les instants de début et de fin des fenêtres temporelles étant définis en relation avec un axe temporel commun avec la forme d'onde, 10 recevoir et traiter des commandes d'ajustement des durées des transitions (TTW<n>), et ajuster les instants de début et de fin des fenêtres temporelles en fonction des durées ajustées des transitions, recevoir de l'opérateur des données d'effet de transition, et recevoir de l'opérateur des données de paramètres d'effet d'affichage 15 d'image pour une fenêtre temporelle, les données de paramètres d'effet d'affichage comprenant pour chaque paramètre spécifié des points d'une courbe de variation du paramètre entre les instants de début et de fin de la fenêtre temporelle, et inscrire dans le fichier de synchronisation principal les données 20 reçues et/ou définies pour chaque fenêtre temporelle et chaque transition.9. A method of generating a synchronization file used by the method of generating a slideshow according to one of claims 1 to 8, the method comprising steps of generating a main synchronization file (MF) consisting of : 30 play an audio recording (AF) file to link to the main synchronization file, and display in a graphical human-machine interface image a waveform (AWF) defined from the audio recording file ( AF), receiving from an operator actions identifying audio events in the audio recording, defining in conjunction with the identified audio events instants (TTP <n>) of transition (TT <n>), defining instants of start (ECP <n>) and end of time windows (EC <n>) from the transition instants, the start times 5 and end of each time window respectively corresponding to a start time of a transition and a moment of e end of a following transition, the transitions instants and the start and end times of the time windows being defined in relation to a common time axis with the waveform, receiving and processing time adjustment commands transitions (TTW <n>), and adjust the start and end times of the time windows according to the adjusted durations of the transitions, receive from the operator transition effect data, and receive data from the operator image display effect parameter parameters for a time window, the display effect parameter data including for each specified parameter points of a parameter variation curve between the start and end times of the time window, and write in the main synchronization file the data 20 received and / or defined for each time window and each transition. 10. Procédé selon la revendication 9, dans lequel les instants de transition sont situés au milieu d'une transition, les instants de début et de fin des fenêtres temporelles étant définis en fonction d'une durée prédéfinie de 25 transition attribuée à chaque transition.The method of claim 9, wherein the transition times are in the middle of a transition, the start and end times of the time windows being defined according to a predefined transition time assigned to each transition. 11. Procédé selon la revendication 9 ou 10, comprenant une étape de génération d'un fichier de synchronisation dérivé (SF) à partir du fichier de synchronisation principal (MF), le fichier de synchronisation dérivé étant 30 utilisé pour mettre en oeuvre le procédé selon l'une des revendications 1 à 8.The method of claim 9 or 10, including a step of generating a derived synchronization file (SF) from the main synchronization file (MF), the derived synchronization file being used to implement the method according to one of claims 1 to 8. 12. Procédé selon la revendication 11, dans lequel la génération du fichier de synchronisation (SF) comprend des étapes de : extraction du fichier de synchronisation principal (MF) d'une série de 35 fenêtres temporelles consécutives, 3035294 50 définition de paramètres d'animation d'affichage (EF1-EF6) des fenêtres temporelles extraites, en fonction des paramètres d'effet d'affichage définis pour les fenêtres temporelles extraites, les paramètres d'animation étant directement exploitables par des fonctions d'animation d'image d'un 5 système d'exploitation d'un terminal (FT, MT) utilisé pour restituer le diaporama synchronisé avec des événements audio, et extraction du fichier d'enregistrement audio (AF) correspondant d'un extrait d'enregistrement audio (AFE) correspondant aux fenêtres temporelles extraites. 10The method of claim 11, wherein the generation of the synchronization file (SF) comprises steps of: extracting the main synchronization file (MF) from a series of consecutive time windows 3035294 50 parameter definition of display animation (EF1-EF6) of the extracted time windows, according to the display effect parameters defined for the extracted time windows, the animation parameters being directly usable by image animation functions of a terminal operating system (FT, MT) used to render the synchronized slideshow with audio events, and extracting the corresponding audio recording (AF) file from a corresponding audio recording (AFE) extract extracted time windows. 10 13. Procédé selon l'une des revendications 11 et 12, dans lequel certaines fenêtres temporelles (EC<n>) définies dans le fichier de synchronisation principal (MF) comportent une indication que la fenêtre temporelle est associée à une même image que la fenêtre temporelle 15 précédente, la génération du fichier de synchronisation dérivé (SF) comprenant une étape de fusion de deux fenêtres temporelles consécutives associées à une même image.The method according to one of claims 11 and 12, wherein certain time windows (EC <n>) defined in the main synchronization file (MF) include an indication that the time window is associated with the same image as the window. previous temporal, the generation of the derived synchronization file (SF) comprising a step of merging two consecutive time windows associated with the same image. 14. Procédé selon l'une des revendications 11 à 13, dans lequel la 20 génération du fichier de synchronisation dérivé (SF) comprenant des étapes d'introduction de transitions de début et de fin de diaporama dans le fichier de synchronisation dérivé et dans d'un extrait d'enregistrement audio (AFE) correspondant au fichier de synchronisation dérivé. 25The method of one of claims 11 to 13, wherein generating the derived sync file (SF) comprising steps of introducing slide show start and end transitions into the derived sync file and into an audio recording extract (AFE) corresponding to the derived synchronization file. 25 15. Terminal configuré pour mettre en oeuvre le procédé selon l'une des revendications 1 à 8.Terminal configured to implement the method according to one of claims 1 to 8. 16. Terminal configuré pour mettre en oeuvre le procédé selon l'une des revendications 9 à 14. 3016. Terminal configured to implement the method according to one of claims 9 to 14. 30
FR1500793A 2015-04-15 2015-04-15 METHOD FOR GENERATING SYNCHRONIZED SLIDESHOW WITH AUDIO EVENTS Withdrawn FR3035294A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1500793A FR3035294A1 (en) 2015-04-15 2015-04-15 METHOD FOR GENERATING SYNCHRONIZED SLIDESHOW WITH AUDIO EVENTS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1500793A FR3035294A1 (en) 2015-04-15 2015-04-15 METHOD FOR GENERATING SYNCHRONIZED SLIDESHOW WITH AUDIO EVENTS

Publications (1)

Publication Number Publication Date
FR3035294A1 true FR3035294A1 (en) 2016-10-21

Family

ID=53776659

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1500793A Withdrawn FR3035294A1 (en) 2015-04-15 2015-04-15 METHOD FOR GENERATING SYNCHRONIZED SLIDESHOW WITH AUDIO EVENTS

Country Status (1)

Country Link
FR (1) FR3035294A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113885830A (en) * 2021-10-25 2022-01-04 北京字跳网络技术有限公司 Sound effect display method and terminal equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040122539A1 (en) * 2002-12-20 2004-06-24 Ainsworth Heather C. Synchronization of music and images in a digital multimedia device system
US20060152678A1 (en) * 2005-01-12 2006-07-13 Ulead Systems, Inc. Method for generating a slide show with audio analysis
US20100168881A1 (en) * 2008-12-30 2010-07-01 Apple Inc. Multimedia Display Based on Audio and Visual Complexity

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040122539A1 (en) * 2002-12-20 2004-06-24 Ainsworth Heather C. Synchronization of music and images in a digital multimedia device system
US20060152678A1 (en) * 2005-01-12 2006-07-13 Ulead Systems, Inc. Method for generating a slide show with audio analysis
US20100168881A1 (en) * 2008-12-30 2010-07-01 Apple Inc. Multimedia Display Based on Audio and Visual Complexity

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Text of ISO/IEC FDIS 23000-4 Musical Slide Show 2nd Edition", 84. MPEG MEETING;28-4-2008 - 2-5-2008; ARCHAMPS; (MOTION PICTUREEXPERT GROUP OR ISO/IEC JTC1/SC29/WG11),, no. N9843, 1 July 2008 (2008-07-01), XP030016337, ISSN: 0000-0040 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113885830A (en) * 2021-10-25 2022-01-04 北京字跳网络技术有限公司 Sound effect display method and terminal equipment

Similar Documents

Publication Publication Date Title
JP6736186B2 (en) System and method for generating audio files
CN112449231B (en) Multimedia file material processing method and device, electronic equipment and storage medium
Novak Japanoise: Music at the edge of circulation
US20100220197A1 (en) Assisted Video Creation Utilizing a Camera
CN113767644A (en) Automatic audio-video content generation
EP2393022A2 (en) Method for creating a media sequence using coherent groups of media files
US20070234214A1 (en) Web based video editing
Booth Mashup as temporal amalgam: Time, taste, and textuality
JP2018535499A (en) Integrating audio into a multi-view interactive digital media representation
WO2018076174A1 (en) Multimedia editing method and device, and smart terminal
JP2012094144A (en) Centralized database for 3-d and other information in videos
EP2338271A1 (en) Method and apparatus for generating a sequence of a plurality of images to be displayed whilst accompanied by audio
CN107111437A (en) Digital media message generation
JP2023501813A (en) VIDEO GENERATION METHOD AND APPARATUS, ELECTRONIC DEVICE, AND COMPUTER READABLE MEDIUM
JP2009301477A (en) Content editing device, method and program
Renzo et al. Technologically mediated transparency in music production
FR3039349A1 (en) METHOD FOR SYNCHRONIZING AN IMAGE STREAM WITH AUDIO EVENTS
FR3035294A1 (en) METHOD FOR GENERATING SYNCHRONIZED SLIDESHOW WITH AUDIO EVENTS
JP2012198380A (en) Display control device
Roy All the memory in the world, all the music in the world: Mediating musical patrimony in the digital age
Hua et al. Interactive video authoring and sharing based on two-layer templates
Einbond Subtractive Synthesis: noise and digital (un) creativity
CN108600614A (en) Image processing method and device
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
WO2016184193A1 (en) Method and apparatus for generating media files

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20161021

ST Notification of lapse

Effective date: 20161230