FR2940481A1 - METHOD, DEVICE AND SYSTEM FOR EDITING ENRICHED MEDIA - Google Patents

METHOD, DEVICE AND SYSTEM FOR EDITING ENRICHED MEDIA Download PDF

Info

Publication number
FR2940481A1
FR2940481A1 FR0807406A FR0807406A FR2940481A1 FR 2940481 A1 FR2940481 A1 FR 2940481A1 FR 0807406 A FR0807406 A FR 0807406A FR 0807406 A FR0807406 A FR 0807406A FR 2940481 A1 FR2940481 A1 FR 2940481A1
Authority
FR
France
Prior art keywords
media
editing
proxy
enriched
native
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0807406A
Other languages
French (fr)
Other versions
FR2940481B1 (en
Inventor
Jean Christophe Mielnik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR0807406A priority Critical patent/FR2940481B1/en
Priority to PCT/EP2009/067726 priority patent/WO2010072747A2/en
Priority to EP09796728A priority patent/EP2368245A2/en
Publication of FR2940481A1 publication Critical patent/FR2940481A1/en
Application granted granted Critical
Publication of FR2940481B1 publication Critical patent/FR2940481B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

L'invention concerne un procédé, dispositif et système pour l'édition de médias enrichis. La production d'un média enrichi selon l'invention comprend les étapes suivantes : - le recueil des médias natifs et des informations de synchronisation natives et la génération des médias adaptés dits médias mandataires, - l'édition simultanée des médias mandataires synchronisés et des informations de synchronisation, lors de laquelle un opérateur va placer des événements d'édition sur les médias mandataires synchronisés qui permettront de générer automatiquement et en une seule itération la version éditée des médias natifs d'une part, et placer, supprimer et/ou déplacer les informations de synchronisation, - la génération automatique et unique d'un média enrichi final à partir des médias natifs.The invention relates to a method, device and system for editing rich media. The production of an enriched medium according to the invention comprises the following steps: - the collection of native media and native synchronization information and the generation of adapted media called proxy media, - the simultaneous edition of the synchronized proxy media and information synchronization, during which an operator will place editing events on the synchronized proxy media which will automatically generate the edited version of the native media in one iteration and place, delete and / or synchronization information, - the automatic and unique generation of a final enriched media from native media.

Description

Procédé, dispositif et système pour l'édition de médias enrichis L'invention concerne la production de contenus de type média enrichi et plus particulièrement de médias enrichis destinés à la gestion du patrimoine intellectuel et pédagogique des entreprises. Les contenus de type média enrichi (ou richmedia) sont particulièrement adaptés à la restitution d'un événement de type présentiel, organisé devant un public. Il s'agit le plus souvent d'événements de type conférence, convention technique, présentation pédagogique. Le cas échéant, des événements peuvent être organisés spécifiquement pour la production d'un media enrichi, comme par exemple une session de formation io ou une présentation commerciale. La figure 1 représente un exemple de média enrichi. Un média enrichi 10 comprend généralement plusieurs cadres 11,12,13 dans lesquels sont placés des médias, lesquels sont synchronisés soit à partir des actions d'un utilisateur, soit à partir du séquencement temporel de la présentation. is On trouve généralement au moins un premier cadre 11 accueillant un média de type flux audio et/ou vidéo, aussi appelé média principal par la suite, et au moins un second cadre 12 accueillant un média tel que des transparents, par exemple, appelé média secondaire par la suite. Dans un média enrichi les médias sont synchronisés. L'utilisateur peut généralement accéder 20 directement à une partie donnée du média enrichi par le biais d'un index 13. La production de médias enrichis couvre un ensemble très large d'activités, depuis la création des sources, leur édition, leur indexation et la scénarisation (définissant l'agencement des médias), jusqu'à la diffusion et la gestion (archivage, distribution, protection) du patrimoine média enrichi ainsi 25 constitué. La segmentation de ces activités correspond encore aujourd'hui à une segmentation des métiers et des outils utilisés, la partie amont du cycle de production principalement dans le domaine de l'audiovisuel, la partie avale principalement dans le domaine de l'informatique et des 30 télécommunications. Dès que les productions dépassent un seuil de complexité minimal, nécessitant l'édition en post-production d'un ou plusieurs médias, de nombreux aller-retour sont nécessaires entre ces activités actuellement non-intégrées. Il s'ensuit des coûts de développement importants qui ne permettent pas aux entreprises de bénéficier pleinement du potentiel des médias enrichis, et notamment de leur efficacité inégalée en tant que vecteur de partage des connaissances et de gestion du patrimoine intellectuel. D'où par exemple le peu de présentations richmedia présentes sur l'internet, en comparaison de la quantité croissante de vidéos. Dans le contexte actuel de numérisation de la totalité des étapes de la production, la persistance de la segmentation courante des activités de production s'explique, en partie, par l'utilisation à chaque extrême de la chaîne de production de deux types très différents de représentation et de io manipulation de l'information numérique d'autre part : ^ En amont, une information principalement audiovisuelle la plus riche possible, extrêmement consommatrice en ressources, dont les formats sont spécialisés par type de média, afin d'optimiser la qualité du traitement du signal. 15 ^ En aval, en raison de la nécessité de manipuler et diffuser un grand nombre de médias simultanément, une information plus intégrée et fortement compressée, complétée de médias purement numériques (graphiques vectoriels et séquences midi par exemple), avec une priorité donnée à l'économie de ressources et non pas à la qualité du 20 signal. Un premier exemple de contenu richmedia donne la priorité à la qualité des médias, et non pas à leur scénarisation. Il s'agit typiquement de communications institutionnelles, dont l'interactivité est limitée, du type par exemple de celle qu'on trouve dans la plupart des titres DVD (à quelques 25 rares exceptions près, un nombre restreint de chapitres, pas d'indexation ni de navigation détaillées, d'où une perte considérable des qualités de vecteur de connaissance des contenus richmedia). A titre d'exemple, pour la production richmedia d'une conférence d'une journée, composé de 10 présentations richmedia d'une demi-heure chacune, il sera possible de 30 sélectionner la présentation à visionner, mais pas d'accéder à une indexation plus fine à l'intérieur de chaque présentation. Un second exemple de contenu richmedia donne la priorité à l'interactivité, au détriment de la qualité générale des médias. Il s'agit typiquement de cours retransmis en direct d'une université avec une 35 webcam, rediffusés off-line mais sans édition. The invention relates to the production of content of the enriched media type and more particularly to enriched media intended for the management of the intellectual and educational heritage of businesses. Rich media content (or richmedia) is particularly suitable for the presentation of a face-to-face event organized in front of an audience. These are most often conference-type events, technical convention, educational presentation. Where appropriate, events may be specifically organized for the production of an enriched media, such as a training session or commercial presentation. Figure 1 shows an example of rich media. An enriched medium 10 generally comprises several frames 11, 12, 13 in which are placed media, which are synchronized either from the actions of a user, or from the temporal sequencing of the presentation. There is generally at least one first frame 11 hosting an audio and / or video stream type media, also called main media afterwards, and at least one second frame 12 hosting a medium such as transparencies, for example, called media secondary thereafter. In rich media the media is synchronized. The user can generally directly access a given portion of the enriched media through an index 13. Rich media production covers a very wide range of activities from source creation, editing, indexing and indexing. scripting (defining the arrangement of the media), to the dissemination and management (archiving, distribution, protection) of the enriched media heritage thus constituted. The segmentation of these activities still corresponds today to a segmentation of trades and tools used, the upstream part of the production cycle mainly in the audiovisual field, the part swallows mainly in the field of computing and computers. telecommunications. As soon as the productions exceed a threshold of minimum complexity, requiring the post-production edition of one or more media, many round trips are necessary between these currently non-integrated activities. This results in significant development costs that do not allow companies to fully benefit from the potential of enriched media, including their unparalleled effectiveness as a vehicle for knowledge sharing and intellectual property management. Hence for example the few richmedia presentations on the internet, in comparison with the growing amount of videos. In the current context of digitization of all stages of production, the persistence of the current segmentation of production activities can be explained, in part, by the use at each extreme of the production chain of two very different types of production. Representation and manipulation of digital information on the other hand: ^ Upstream, mainly audiovisual information that is as rich as possible, extremely resource-intensive, whose formats are specialized by type of media, in order to optimize the quality of the information; signal processing. 15 ^ Downstream, due to the need to manipulate and distribute a large number of media simultaneously, more integrated and highly compressed information, supplemented with purely digital media (vector graphics and midi sequences for example), with a priority given to saving of resources and not the quality of the signal. A first example of richmedia content gives priority to the quality of the media, not to their scripting. Typically, this is institutional communication, the interactivity of which is limited, such as that found in most DVD titles (with a few rare exceptions, a small number of chapters, no indexation nor detailed navigation, resulting in a considerable loss of the qualities of knowledge vector richmedia contents). For example, for the richmedia production of a one-day conference, consisting of 10 richmedia presentations of half an hour each, it will be possible to select the presentation to be viewed, but not to access a presentation. finer indexing within each presentation. A second example of richmedia content gives priority to interactivity, to the detriment of the overall quality of the media. These are typically live courses broadcast from a university with a webcam, rebroadcast off-line but without editing.

La figure 2 représente un diagramme des étapes d'un processus d'édition de médias enrichis selon l'art connu. Ce processus est généralement composé de trois grandes étapes : le recueil des médias natifs 210, l'édition des médias 220 et la synchronisation de ces médias 230. FIG. 2 represents a diagram of the steps of an enriched media editing process according to the prior art. This process is generally composed of three main steps: the collection of native media 210, the edition of media 220 and the synchronization of these media 230.

Lors de l'étape de recueil des médias natifs 210, les médias sont recueillis de façon indépendante les uns des autres à l'unique exception de l'audio et de la vidéo des parties filmées. Le recueil des médias natifs se décompose en deux catégories principales : ^ la création 211 pour les médias de type présentation ou animation, io par exemple, ^ la captation 212 c'est-à-dire l'enregistrement avec au moins une caméra et un micro pour des médias de type film. Dans les deux cas, un travail très précis d'écriture est nécessaire, pour permettre la synchronisation ultérieure des médias. 15 La captation s'accompagne nécessairement d'une phase d'acquisition 213 qui peut être simultanée (stockage direct sur disque dur en cas d'enregistrement numérique directement sur disque) ou différée (conversion et stockage en cas d'enregistrement numérique sur cassette ou numérisation, conversion et stockage, en cas d'enregistrement analogique). 20 Lors de l'étape d'édition des médias 220, les différents médias natifs sont édités séparément. L'édition dépend du type de chacun des médias. On distingue l'édition des médias secondaires 221 et l'édition audiovisuelle 222. Les médias secondaires sont principalement du type présentation 25 (typiquement PowerPoint) ou animation (typiquement flash). Selon le degré de précision de l'édition nécessaire, l'édition de ces médias peut nécessiter la disponibilité de leur outil de création (par exemple pour un media dans un format non éditable type pdf, il faudra disposer de la source éditable non-pdf s'il y a des erreurs à corriger). 30 Après la captation et l'acquisition, les médias de type audiovisuel sont édités à l'aide d'un outil d'édition virtuelle, du type Avid Media Composer ou Final Cut Pro, qui repose sur la métaphore d'une piste temporelle et de pistes audio et vidéo synchronisées sur cette piste temporelle. L'édition des médias audiovisuels comprend généralement les tâches suivantes : ^ Une première tâche consiste à recaler les pistes au cas où l'enregistrement a été effectué en multi-caméra sans mixage en direct. Pour chaque recalage, il est nécessaire de repérer un point de recalage (le plus couramment : clap sonore, consonne accentuée ou flash photo, à défaut mouvement précis). ^ Une deuxième tâche consiste à visualiser dans le détail l'enregistrement de chaque conférence, pour identifier les coupes à effectuer, puis à effectuer ces coupes. C'est à cette occasion que sont identifiés les indexes qui seront utilisés dans l'étape de io synchronisation 230 pour créer ou modifier des liens de navigation hypermédia. ^ Une troisième tâche consiste à choisir quelle image montrer à chaque instant (choix du plan) au cas où l'enregistrement a été effectué en multi-caméra . 15 ^ Une quatrième tâche consiste à rajouter les effets nécessaires, par exemple les fondus en début et en fin de chaque conférence. ^ Une cinquième tâche consiste à ajuster les niveaux sonores. ^ Une sixième tâche consiste à exporter le résultat final de cette étape 220 dans un format adapté à l'étape de synchronisation 230. 20 L'étape de synchronisation 230 des médias comprend leur intégration spatiale et leur synchronisation temporelle. L'intégration spatiale permet de positionner des cadres dans lesquels viendront se placer les médias, lesquels seront synchronisés soit à partir des actions de l'utilisateur, soit à partir du séquencement temporel. 25 Les cadres accueillant les médias secondaires statiques permettent une synchronisation par événement interactif (aléatoire). L'utilisateur demande typiquement de passer d'une diapositive à la diapositive suivante en sélectionnant le bouton correspondant. Dans ce cas, les médias audiovisuels et les médias secondaires des autres cadres sont 30 avertis de cet événement et se synchronisent en conséquence. Les cadres accueillant les médias audiovisuels permettent une synchronisation 232 par indexation temporelle préalable 231 (séquentielle). Chaque index correspond typiquement à un moment du film où le présentateur est passé à la diapositive suivante. Dans ce cas, les médias informatiques statiques des autres cadres sont avertis de cet enchaînement et se synchronisent en conséquence. II est donc nécessaire dans un premier temps de réaliser l'indexation temporelle 231 des médias audiovisuels. Cette opération est effectuée en posant un index pour chaque transition. On obtient ainsi une liste d'indexes (liste de codes temporels). Ces indexes et codes temporels sont préalablement relevés dans l'étape d'édition, mais sans possibilité d'en vérifier le rendu final, ce qui n'est possible que dans la dernière étape. Inversement, s'il faut corriger ces données à partir du rendu contrôlable dans io cette dernière étape, ces corrections devront être à nouveau relevées lors d'un retour à l'étape d'édition. II est tout d'abord nécessaire pour l'intégration spatiale 233 de définir les différentes scènes (gabarits) dans lesquelles viendront se placer les médias synchronisés. II y a, par exemple, une scène principale pour la 15 conférence globale, et autant de scènes secondaires que de sessions à l'intérieur du workshop. Il est ensuite nécessaire d'importer les médias (audiovisuels et informatiques statiques) dans chacun des cadres qui leur sont réservés. Dans le cas des médias audiovisuels, ils doivent préalablement avoir été 20 indexés. Le processus d'édition de médias enrichis décrit ci-avant présente plusieurs inconvénients : ^ Il nécessite le plus souvent de nombreuses itérations entre les étapes d'édition 220 et de synchronisation 230 pour obtenir le 25 support souhaité. En effet aucune visualisation du rendu final n'est disponible lors de l'étape d'édition 220. Les problèmes de rendus n'apparaissent qu'après l'étape de synchronisation. • Chaque itération entre ces deux étapes consomme du temps et d'importantes ressources informatiques principalement en raison du 30 travail effectué séparément et séquentiellement sur les médias natifs d'une part et sur le(s) média(s) compressés d'autre part. ^ L'étape d'édition 220 et celle de synchronisation 230 requièrent l'intervention de différents types de personnel qualifié (monteur vidéo, monteur audio, graphiste, informaticien, présentateur, 35 spécialiste du domaine, etc.) . At the Native Media Collection Stage 210, media are collected independently of each other with the sole exception of the audio and video of the filmed portions. The collection of native media is divided into two main categories: the creation 211 for presentation or animation-type media, for example, capture 212, that is, recording with at least one camera and one microphone for film type media. In both cases, a very precise writing job is necessary, to allow the subsequent synchronization of the media. Capture is necessarily accompanied by an acquisition phase 213 which can be simultaneous (direct storage on hard disk in case of digital recording directly on disk) or delayed (conversion and storage in case of digital recording on tape or digitization, conversion and storage, in case of analog recording). During the step of editing the media 220, the different native media are edited separately. The edition depends on the type of each media. The secondary media edition 221 and the audiovisual edition 222 are distinguished. The secondary media are mainly presentation type 25 (typically PowerPoint) or animation (typically flash). Depending on the degree of precision of the edition required, the edition of these media may require the availability of their authoring tool (for example for a media in a non-editable format pdf type, it will be necessary to have the editable source non-pdf if there are errors to correct). After capture and acquisition, the audiovisual-type media are edited using a virtual editing tool, such as Avid Media Composer or Final Cut Pro, which is based on the metaphor of a timeline and audio and video tracks synchronized on this track. The editing of audiovisual media generally includes the following tasks: ^ A first task is to re-align the tracks in case the recording has been made in multi-camera without live mixing. For each registration, it is necessary to locate a registration point (most commonly: sound clap, accented consonant or photo flash, if not precise movement). ^ A second task is to visualize in detail the recording of each conference, to identify the cuts to be made, then to make these cuts. It is on this occasion that the indexes that will be used in the synchronization step 230 are identified to create or modify hypermedia navigation links. ^ A third task is to choose which image to show at each moment (choice of the plan) in case the recording has been done in multi-camera. A fourth task is to add the necessary effects, for example fades at the beginning and end of each lecture. ^ A fifth task is to adjust the sound levels. A sixth task is to export the final result of this step 220 in a format adapted to the synchronization step 230. The media synchronization step 230 includes their spatial integration and their time synchronization. The spatial integration makes it possible to position frames in which will be placed the media, which will be synchronized either from the actions of the user, or from the temporal sequencing. The frames hosting the static secondary media allow synchronization by interactive (random) event. The user typically asks to go from one slide to the next slide by selecting the corresponding button. In this case, the audiovisual media and secondary media of the other executives are notified of this event and synchronize accordingly. The frames hosting the audiovisual media allow synchronization 232 by prior temporal indexing 231 (sequential). Each index typically corresponds to a moment in the film where the presenter has moved to the next slide. In this case, the static computer media of other executives are notified of this sequence and synchronize accordingly. It is therefore necessary, in a first step, to perform the temporal indexing 231 of the audiovisual media. This is done by asking an index for each transition. This gives a list of indexes (list of time codes). These indexes and time codes are previously recorded in the editing step, but without the possibility of checking the final rendering, which is only possible in the last step. Conversely, if it is necessary to correct this data from the controllable rendering in this last step, these corrections will have to be taken again when returning to the editing step. It is first necessary for spatial integration to define the different scenes (templates) in which the synchronized media will be placed. There is, for example, a main stage for the global conference, and as many secondary scenes as sessions inside the workshop. It is then necessary to import the media (audiovisual and computer static) in each of the frames reserved for them. In the case of audiovisual media, they must have been indexed. The rich media editing process described above has several disadvantages: It most often requires many iterations between the editing and synchronization steps 230 to obtain the desired medium. Indeed no visualization of the final rendering is available during the editing step 220. The rendering problems appear only after the synchronization step. Each iteration between these two steps consumes time and substantial computing resources primarily because of the work done separately and sequentially on the native media on the one hand and on the compressed media (s) on the other hand. The editing step 220 and the synchronization step 230 require the intervention of different types of qualified personnel (video editor, audio editor, graphic designer, computer specialist, presenter, domain specialist, etc.).

On connaît par le document WO 2004/062258 un procédé pour produire une édition multimédia à partir de prestations orales sur la base d'un flux audio/vidéo préalablement enregistré et de documents complémentaires. Ce procédé comprend notamment une étape de collecte et de traitement de données hétérogènes associées éventuellement à des codes temporels. Les données collectées permettent de générer des tables d'accès sélectif permettant un accès ciblé à des séquences du flux audio/vidéo. Ce procédé est une variante du procédé décrit ci-dessus, et a donc notamment pour inconvénient de nécessiter une saisie manuelle des données hétérogènes et io de l'aller-retour coûteux entre étapes. On connaît par le document US2002/0133520 une méthode de préparation d'un enregistrement multimédia d'une présentation en direct. Cette méthode permet une synchronisation automatique entre un enregistrement audio/vidéo et les transparents commentés lors de la 15 présentation. Dans cette méthode, la possibilité d'édition des médias en post-production n'est pas prise en compte. D'où l'utilisation possible de cette approche dans les milieux académiques, mais impropre aux contraintes de contrôle de la communication dans le milieu industriel. L'invention vise à pallier les problèmes cités précédemment en 20 proposant un procédé, un dispositif et un système pour la production intégrée de médias enrichis. Le but de l'invention est de faciliter le processus de création de médias enrichis en facilitant la scénarisation, conservant une bonne qualité des médias et économe en ressources de traitement des médias. 25 A cet effet, l'invention a pour objet un procédé pour l'édition d'un média enrichi à partir d'une prestation orale, ledit média enrichi comprenant un premier média de type flux audio et/ou vidéo et au moins un second média, chacun desdits médias étant synchronisés, ledit procédé comportant une étape de recueil et d'acquisition (301) sous forme numérique des médias 30 et d'informations de synchronisation, lesdits médias acquis étant appelés médias natifs, ledit procédé étant caractérisé en ce qu'il comporte, en outre, les étapes suivantes : û la création d'un média mandataire pour chacun des médias natifs, un média mandataire étant une version adaptée du média natif auquel il est 35 associé, l'édition simultanée des médias mandataires synchronisés et des informations de synchronisation, comprenant la modification d'au moins un média mandataire, la mise à jour des informations de synchronisation de chacun desdits médias mandataires, la génération d'événements d'édition pour chacun des médias mandataires modifiés, un événement d'édition comprenant une modification sur un média mandataire et un code temporel, la création du média enrichi en reportant les événements d'édition sur chacun des médias natifs correspondants. io Selon une caractéristique de l'invention, l'étape d'édition simultanée comprend une étape d'indexation à partir des informations de synchronisation, les informations de synchronisation définissant des points de synchronisation, un index étant créé pour chacun desdits points de synchronisation. 15 Selon une caractéristique de l'invention, le media enrichi étant destiné à être lu sur un lecteur de média enrichi donné, l'étape de création du média enrichi comprend, en outre, la création, à partir des médias natifs, de médias compatibles avec le lecteur et la disposition des médias et des indexes conformément à l'organisation du lecteur selon un format donné. 20 L'invention a pour avantage de pouvoir être mise en oeuvre sans personnel qualifié pour éditer les médias enrichis. La génération des médias enrichis peut ainsi être effectuée par un utilisateur final ou par un spécialiste du domaine de la présentation orale. De plus, l'invention apporte un gain de temps et de ressources importants dûs à l'édition simultanée des médias 25 synchronisés, permettant la suppression des itérations entre les étapes du procedé d'édition selon l'art connu. Enfin, elle apporte également un gain de temps important dû à l'utilisation d'une seule étape de génération finale du support. L'invention est basée sur l'intégration de l'étape d'édition 220 et de 30 l'étape de synchronisation des médias 230, rendue possible par le remplacement de l'étape de recueil des médias natifs 210 par une étape de réalisation multimédia, dans laquelle l'ensemble des médias sont acquis de manière synchronisée, lors de l'événement organisé devant un public, de façon à disposer de la synchronisation initiale des médias dès la captation. 35 L'invention a donc pour avantage de regrouper l'ensemble du travail d'ingénierie au sein d'une unique étape d'édition, cette étape utilisant le dispositif d'édition selon l'invention. Le dispositif d'édition selon l'invention permet, d'une part, à tout instant, d'éditer les médias, sans avoir à changer d'environnement, donc sans avoir à effectuer de coûteuses conversions de format (ces modifications sont en fait effectuées sur des médias mandataires, à partir desquels il sera possible de les reporter automatiquement sur les médias natifs). L'invention permet d'autre part de donner la possibilité à tout instant de modifier la synchronisation sur cette base première, sans avoir à io changer d'environnement, donc sans avoir à effectuer de coûteuses conversions de format. L'invention a pour avantage de donner la possibilité pour le néophyte d'effectuer ce travail, sans avoir à disposer de connaissances ni audiovisuelles, ni informatiques. 15 L'invention sera mieux comprise et d'autres avantages apparaîtront à la lecture de la description détaillée faite à titre d'exemple non limitatif et à l'aide des figures parmi lesquelles : La figure 1, déjà présentée, représente un exemple de média enrichi. 20 La figure 2, déjà présentée, représente un diagramme des étapes d'un procédé d'édition de médias enrichis selon l'art connu. La figure 3 représente un diagramme des étapes du procédé d'édition de médias enrichis selon l'invention. La figure 4 représente un exemple de réalisation du dispositif 25 d'édition selon l'invention. La figure 5 représente un exemple de mise en oeuvre du dispositif selon l'invention. La figure 6 représente un exemple de réalisation du système selon l'invention. 30 Les figures 7a et 7b représentent respectivement un diagramme des étapes d'un procédé d'édition de média enrichis selon l'art connu et un diagramme des étapes du procédé d'édition de média enrichis selon l'invention. La production d'un média enrichi selon l'invention comprend les 35 étapes suivantes : ù le recueil des médias natifs et des informations de synchronisation natifs et la génération des médias adaptés dits médias mandataires, ù l'édition simultanée des médias mandataires synchronisés et des informations de synchronisation, lors de laquelle un opérateur va placer des événements d'édition sur les médias mandataires synchronisés qui permettront de générer automatiquement et en une seule itération la version éditée des médias natifs d'une part (avant éventuellement une ultime étape de compression), et placer, supprimer et/ou déplacer les informations de synchronisation, io ù la génération automatique et unique d'un média enrichi final à partir des médias natifs. La figure 3 représente un diagramme des étapes du procédé d'édition de médias enrichis à partir d'une prestation orale selon l'invention. On prend l'exemple d'une prestation orale telle qu'une conférence au cours 15 de laquelle l'orateur commente une présentation numérique. On souhaite, par exemple, obtenir un média enrichi comprenant un premier média de type flux audio/vidéo et un second média correspondant à des transparents, ces deux médias étant synchronisés. Le procédé comporte une étape de recueil et d'acquisition 301 20 sous forme numérique de médias et d'informations de synchronisation. Les médias ainsi acquis sont appelés médias natifs. Cette étape comprend une phase de captation permettant d'obtenir un média natif de type flux audio/vidéo. Cette étape comprend aussi une phase de recueil d'information de synchronisation pour les autres médias. Par exemple, dans le cas des 25 transparents, un dispositif permet d'enregistrer tout au long de la prestation orale, à quel moment l'orateur passe au transparent suivant. Les informations de synchronisation comprennent, par exemple, une série de codes temporels associés à une référence vers le média, dans le cas présent, un numéro de transparent et optionnellement d'autres données (par 30 exemple libellé de l'index). Le procédé selon l'invention comprend aussi une étape de création d'un média mandataire 302 pour chacun des médias natifs. Un média mandataire d'un média natif est une version adaptée à l'édition, par exemple une version compressée dudit média natif, permettant la création 35 d'événements d'édition dans un environnement léger, lesquels événements seront utilisés pour le report de ces éditions sur le média natif. Dans le cas d'un média natif de type flux audio et/ou vidéo, le média mandataire est, par exemple un flux audio et/ou vidéo compressé et présentant une résolution inférieure au média natif. Pour les transparents, un exemple de média mandataire peut-être celui des transparents débarrassés de leurs informations graphiques, ce qui permet dans un environnement allégé l'édition des parties textuelles, avant leur report sur les transparents natifs. Le procédé selon l'invention comprend aussi une étape d'édition simultanée des médias mandataires 303 synchronisés et des informations de lo synchronisation. Lors de l'édition, l'utilisateur est amené à appliquer différentes fonctions d'édition aux différents médias mandataires. Ces fonctions d'édition entraînent la modification d'au moins un de ces médias mandataires et sa répercussion sur les autres médias. Une des particularités de l'invention est que ces fonctions d'édition conservent la synchronisation 15 des médias mandataires en mettant à jour les informations de synchronisation. Par ailleurs, l'application des fonctions d'édition génère des événements d'édition pour chacun des médias mandataires modifiés, un événement d'édition indiquant par exemple une modification sur un média mandataire et un ou plusieurs codes temporels. 20 Dans le cas d'une fonction d'édition, telle qu'une coupe dans la vidéo, pouvant modifier plusieurs médias, la fonction de coupe génère un événement de coupe pour les autres médias, par exemple les transparents, afin de conserver la synchronisation. Les codes temporels de chacun des médias sont recalculés pour prendre en compte l'événement d'édition. 25 Cependant, une fonction d'édition peut impacter uniquement un seul média, par exemple, l'ajustement du volume sonore du flux audio/vidéo. La synchronisation des médias mandataires n'est alors pas affectée. Les tâches d'édition pour le flux audio/vidéo sont de même nature que celles de l'art antérieur mais elles sont appliquées simultanément à tous 30 les médias mandataires. Le procédé selon l'invention permet également l'édition des informations de synchronisation. A titre d'exemple, dans le cas d'un média secondaire de type transparent, les informations de synchronisation définissent des points de synchronisation correspondant au passage d'un 35 transparent à l'autre. Un ou plusieurs points de synchronisation sont souvent générés par erreur lors de la présentation captée (passage intempestif au transparent suivant, suivi d'un retour au transparent initial). Il est alors possible de supprimer tout ou partie de ces points de synchronisation. De même, la position initiale des points de synchronisation peut nécessiter un déplacement. Par ailleurs, les points de synchronisation initialement créés avec des portions de vidéo supprimées lors de l'édition sont également automatiquement supprimés. Il est également possible de créer de nouveaux points de synchronisation. Le procédé selon l'invention permet également la création, la io modification ou la suppression d'indexes ainsi que leur hiérarchisation. Il est possible de créer, modifier ou supprimer un index sur tout ou partie des points de synchronisation, et d'y attacher un libellé. La hiérarchisation permet dans le rendu final d'avoir des vues plus ou moins détaillées des indexes selon leur niveau de profondeur dans la hiérarchie. 15 Il est notamment possible pour les médias secondaires de type transparents de créer automatiquement les indexes lors de l'enregistrement initial des points de synchronisation, et d'utiliser cette indexation native comme point de départ pour l'édition des indexes. Le procédé selon l'invention comprend aussi une étape de 20 création du média enrichi 304 en reportant les événements d'édition sur chacun des médias natifs correspondants. Par un exemple, un événement d'édition représentant une coupe appliquée à un média mandataire lors de l'étape d'édition, définie par deux codes temporels indiquant le début et la fin de la coupe, sera appliqué au média natif correspondant de façon à obtenir 25 le même effet. La figure 4 représente un exemple de réalisation du dispositif d'édition selon l'invention. Le dispositif selon l'invention 400 comprend : ù des moyens pour la réception de médias mandataires 401, un média mandataire étant une version adaptée d'un média natif auquel il est 30 associé, des moyens pour la réception d'informations de synchronisation 402 des médias mandataires, un module pour l'édition simultanée des médias mandataires 403 et des informations de synchronisation, ledit module d'édition comprenant des moyens d'affichage des médias mandataires et des informations de synchronisation. Le module pour l'édition comprend en outre des moyens 404 pour l'édition et l'affichage d'indexes et des moyens pour la création automatiques 5 des indexes à partir des informations de synchronisation. Le dispositif d'édition selon l'invention est un support informatique qui peut prendre la forme, par exemple, d'un CD ROM permettant l'exécution sur un ordinateur de bureau des modules de traitement décrits ci-avant. L'édition étant basée sur les médias mandataires intégrés dans le dispositif io d'édition, la taille du support et la charge de calcul sont beaucoup plus faibles que pour une édition directe des médias natifs. La figure 5 représente un exemple de mise en oeuvre des moyens d'affichage 500 du dispositif d'édition de médias enrichis, selon l'invention. Les moyens d'affichage comprennent un premier cadre 501 is permettant une pré-visualisation du média enrichi et un second cadre 502 représentant une ligne temporelle enrichie. Le média enrichi comprend une vidéo 503, des transparents 504 et index 505 permettant d'accéder à différentes parties du média enrichi. Le second cadre 502 comprend une ligne temporelle 509 puis différentes lignes 20 représentant le séquencement des médias le long de cette ligne temporelle 509. Une première ligne 506 représente le séquencement des transparents et indique à quel moment quel transparent sera affiché. Une seconde ligne 507 représente le positionnement des différents indexes (chapitres) de la présentation. A chaque nouveau transparent correspond potentiellement un 25 indexe de niveau hiérarchique 1, lequel ne devient effectivement un index que s'il lui est attaché un libellé avec éventuellement modification du niveau hiérarchique. Le dispositif d'édition comprend des moyens 511 pour modifier le niveau hiérarchique d'un index, une flèche vers la gauche permettant d'augmenter le niveau hiérarchique d'un index, une flèche vers la droite 30 permettant de le diminuer. Une troisième ligne 508 indique à quels moments sont effectuées les différentes coupes dans la présentation ou toute autre opération d'édition audiovisuelle. Un curseur 510 placé sur la ligne temporelle 509 indique à quel instant se situe la pré-visualisation du média enrichi présentée dans le 35 premier cadre 501. Le déplacement du curseur le long de la ligne temporelle permet à l'utilisateur d'accéder aux différentes parties du média enrichi. Le second cadre permet de visualiser et de modifier facilement la façon dont les médias sont synchronisés. Les moyens d'affichage comprennent, en outre, un bouton de 5 lecture permettant de voir un aperçu du résultat final du média enrichi dans le premier cadre 501. Dans l'exemple correspondant à la figure 5, le média enrichi comprend cinq chapitres (Introduction, Richmedia, Demo, Application et Conclusion). La première ligne 506 comprend sept transparents. Lors de la io visualisation du média enrichi, les transparents 2 et 3 sont affichés lors du chapitre introduction, les transparents 4, 5 et 6 lors du chapitre Richmedia et le transparent 7 lors du chapitre Demo. L'invention concerne aussi un système pour la production d'un média enrichi à partir d'une prestation orale. La figure 6 représente un 15 exemple de réalisation du système selon l'invention. Un tel système comprend des moyens de mise en oeuvre informatiques comportant des modules de traitement et de stockage et des moyens d'affichage. Un tel système pour l'édition d'un média enrichi à partir d'une prestation orale comprend : 20 des moyens pour la captation et l'acquisition 601 de médias natifs à partir de ladite prestation orale, par exemple, des micros et des caméras, les médias natifs pouvant être stockés dans un espace de stockage dédié 607, des moyens pour l'acquisition 603 d'informations de synchronisation, par 25 exemple, un dispositif enregistrant un code temporel lors d'un changement de transparent de l'orateur, des moyens pour la création 602 de médias mandataires à partir des médias natifs, des moyens pour l'édition des médias mandataires et des informations de 30 synchronisation, lesdits moyens d'édition générant des événements d'édition, les moyens pour l'édition comprenant le dispositif pour l'édition 400 d'un média enrichi selon l'invention, des moyens pour la génération de média enrichi (605) à partir des événements d'édition et des médias natifs correspondants, ces moyens 35 étant, par exemple, un module 605 pour la génération d'ordres de création des médias enrichis 406 et le paramétrage d'un lecteur de média enrichi 607 à partir des événements d'édition, des informations de synchronisation et des médias natifs correspondants. Les moyens pour l'acquisition 603 d'informations de synchronisation, pour la création 602 de médias mandataires et pour l'édition des médias mandataires ainsi que le module pour la génération d'ordres de création sont mis en oeuvre par les moyens de traitement informatique du système. Les ordres de création des médias enrichis sont les ordres io permettant d'appliquer les événements d'édition des médias mandataires aux médias natifs. Ces ordres de création peuvent être issus de standards. Pour les médias audiovisuels, il s'agit du format appelé EDL (Edition Decision List) Une EDL comprend notamment une liste d'événements d'édition associés à un code temporel. Pour les autres médias, les ordres de 15 création sont définis de façon plus spécifique. Par exemple, dans le cas de transparents dont le média mandataire est un fichier texte, les ordres de création sont réalisés sous la forme d'une commande macro modifiant les transparents à partir des corrections appliquées au fichier texte. Le dispositif d'édition selon l'invention est indépendant des 20 lecteurs de médias enrichis. Néanmoins, une phase de paramétrage est nécessaire pour que le média enrichi généré soit compatible avec un lecteur donné. Ce paramétrage consiste à générer, à partir des médias natifs, des médias compatibles avec le lecteur et à disposer les médias et les indexes conformément à l'organisation du lecteur. 25 La figure 7a représente un diagramme des étapes d'un procédé d'édition de média enrichi selon l'art connu. Le procédé consiste à éditer de façon séparée chacun des médias (Media1, Media2, ... et Median) et chacun des indexes (i1,i2, ..., et in) respectifs pour ces médias. Une modification d'un index doit être reportée manuellement sur tous les autres index. L'édition est 30 représentée par une flèche circulaire sur chacun des médias et chacun des indexes. Le procédé aboutit à la création d'un média enrichi comprenant un contenant 701 regroupant les différents médias (Media1, Media2, ... et Median). Un index i permet d'accéder de façon synchronisée aux différentes parties des médias. Document WO 2004/062258 discloses a method for producing a multimedia edition from oral services on the basis of a previously recorded audio / video stream and complementary documents. This method notably comprises a step of collecting and processing heterogeneous data possibly associated with time codes. The collected data makes it possible to generate selective access tables allowing targeted access to sequences of the audio / video stream. This method is a variant of the method described above, and therefore has the particular disadvantage of requiring a manual input of heterogeneous data and the round trip between expensive steps. Document US2002 / 0133520 discloses a method for preparing a multimedia recording of a live presentation. This method allows automatic synchronization between an audio / video recording and the transparencies commented on during the presentation. In this method, the possibility of editing media in post-production is not taken into account. Hence the possible use of this approach in academic circles, but unfit for the constraints of control of communication in the industrial environment. The invention aims to overcome the aforementioned problems by providing a method, a device and a system for the integrated production of enriched media. The object of the invention is to facilitate the process of creating enriched media by facilitating scripting, maintaining good media quality and sparing media processing resources. For this purpose, the subject of the invention is a method for editing an enriched medium from an oral performance, said enriched medium comprising a first media of the audio and / or video stream type and at least one second media, each of said media being synchronized, said method comprising a step of collecting and acquiring (301) in digital form the media and synchronization information, said acquired media being called native media, said method being characterized in that it further comprises the steps of: creating a proxy media for each of the native media, a proxy media being an adapted version of the native media with which it is associated, the simultaneous edition of the synchronized proxy media and synchronization information, including modifying at least one proxy media, updating the synchronization information of each of said proxy media, the generator editing event ration for each of the modified proxy media, an editing event including a modification on a proxy media and a time code, the creation of the enriched media by posting the editing events on each of the corresponding native media. According to one characteristic of the invention, the simultaneous editing step comprises an indexing step from the synchronization information, the synchronization information defining synchronization points, an index being created for each of said synchronization points. According to one characteristic of the invention, the enriched media being intended to be read on a given rich media player, the step of creating the enriched media further comprises the creation, from the native media, compatible media with the player and the layout of the media and indexes according to the organization of the reader according to a given format. The invention has the advantage of being able to be implemented without qualified personnel to edit the enriched media. The generation of enriched media can thus be carried out by an end user or by a specialist in the field of oral presentation. In addition, the invention brings a saving of time and significant resources due to the simultaneous edition of the synchronized media, allowing the iterations to be deleted between the steps of the editing method according to the known art. Finally, it also brings a significant time saving due to the use of a single step of final generation of the support. The invention is based on the integration of the editing step 220 and the media synchronization step 230, made possible by replacing the native media collection step 210 with a multimedia production step. , in which all the media are acquired in a synchronized manner, during the event held in front of an audience, so as to have the initial synchronization of the media as soon as the capture. The invention therefore has the advantage of grouping all the engineering work within a single editing step, this step using the editing device according to the invention. The editing device of the invention allows, on the one hand, at any time, to edit the media, without having to change environment, so without having to perform expensive format conversions (these changes are in fact performed on proxy media, from which it will be possible to automatically postpone them to native media). The invention also makes it possible at any time to modify the synchronization on this basis, without having to change the environment, without having to perform expensive format conversions. The invention has the advantage of giving the opportunity for the neophyte to perform this work, without having to have knowledge or audiovisual or computer. The invention will be better understood and other advantages will become apparent on reading the detailed description given by way of nonlimiting example and with the aid of the figures among which: FIG. 1, already presented, represents an example of media enriched. FIG. 2, already presented, represents a diagram of the steps of an enriched media editing method according to the prior art. FIG. 3 represents a diagram of the steps of the enriched media editing method according to the invention. FIG. 4 represents an exemplary embodiment of the editing device according to the invention. FIG. 5 represents an exemplary implementation of the device according to the invention. FIG. 6 represents an exemplary embodiment of the system according to the invention. FIGS. 7a and 7b respectively show a diagram of the steps of an enriched media editing method according to the prior art and a diagram of the steps of the enriched media editing method according to the invention. The production of an enriched media according to the invention comprises the following steps: the collection of native media and native synchronization information and the generation of adapted media called proxy media, simultaneous editing of synchronized proxy media and synchronization information, during which an operator will place editing events on the synchronized proxy media which will automatically generate the edited version of the native media on one hand (possibly before an ultimate compression step) in a single iteration and placing, removing and / or moving the synchronization information, io the automatic and unique generation of a final enriched media from the native media. FIG. 3 represents a diagram of the steps of the method for editing enriched media from an oral performance according to the invention. An example is an oral performance such as a lecture at which the speaker comments on a digital presentation. For example, it is desired to obtain an enriched medium comprising a first media of the audio / video stream type and a second medium corresponding to transparencies, these two media being synchronized. The method includes a step of collecting and acquiring digital media 301 and synchronization information. The media thus acquired are called native media. This step includes a capture phase to obtain a native media type audio / video stream. This step also includes a phase of collecting synchronization information for the other media. For example, in the case of transparencies, a device allows recording throughout the oral performance, when the speaker goes to the next transparency. The synchronization information includes, for example, a series of time codes associated with a reference to the media, in this case a transparency number and optionally other data (eg indexed). The method of the invention also includes a step of creating a proxy media 302 for each of the native media. A proxy media of a native media is a version adapted to the edition, for example a compressed version of said native media, allowing the creation of editing events in a light environment, which events will be used for the postponement of these editions on the native media. In the case of a native media of the audio and / or video stream type, the proxy media is, for example, a compressed audio and / or video stream and having a lower resolution than the native media. For transparencies, an example of proxy media may be that of transparencies cleared of their graphic information, which allows in a lighter environment the editing of textual parts, before their transfer to native transparencies. The method according to the invention also comprises a step of simultaneous editing of the synchronized proxy media 303 and synchronization information. During editing, the user is required to apply different editing functions to different proxy media. These editing functions result in the modification of at least one of these proxy media and its impact on other media. One of the peculiarities of the invention is that these editing functions maintain the synchronization of the proxy media by updating the synchronization information. Moreover, the application of the editing functions generates editing events for each of the modified proxy media, an editing event indicating, for example, a modification on a proxy medium and one or more time codes. In the case of an editing function, such as a section in the video, which can modify several media, the cutting function generates a cutting event for the other media, for example transparencies, in order to maintain the synchronization. . The time codes of each media are recalculated to account for the editing event. However, an editing function can only impact a single medium, for example, adjusting the sound volume of the audio / video stream. The synchronization of the proxy media is not affected. The editing tasks for the audio / video stream are of the same nature as those of the prior art but they are applied simultaneously to all the proxy media. The method according to the invention also makes it possible to edit the synchronization information. By way of example, in the case of a transparent secondary medium, the synchronization information defines synchronization points corresponding to the transition from one transparency to another. One or more synchronization points are often generated by mistake during the sensed presentation (untimely passage to the next transparency, followed by a return to the initial transparency). It is then possible to delete all or part of these synchronization points. Likewise, the initial position of the sync points may require moving. In addition, synchronization points initially created with portions of video deleted during editing are also automatically deleted. It is also possible to create new synchronization points. The method according to the invention also allows the creation, modification or deletion of indexes and their hierarchization. It is possible to create, modify or delete an index on all or part of synchronization points, and to attach a label. The hierarchy allows in the final rendering to have more or less detailed views of the indexes according to their level of depth in the hierarchy. In particular, it is possible for the transparent secondary media to automatically create the indexes during the initial registration of the synchronization points, and to use this native indexing as a starting point for editing the indexes. The method of the invention also includes a step of creating the enriched media 304 by reporting the editing events to each of the corresponding native media. For example, an edit event representing a cut applied to a proxy media during the editing step, defined by two time codes indicating the beginning and end of the cut, will be applied to the corresponding native media so that get the same effect. FIG. 4 represents an exemplary embodiment of the editing device according to the invention. The device according to the invention 400 comprises: means for receiving proxy media 401, a proxy medium being an adapted version of a native medium to which it is associated, means for receiving synchronization information 402 proxy media, a module for simultaneous editing of the proxy media 403 and synchronization information, said editing module including means for displaying the proxy media and synchronization information. The module for editing further comprises means 404 for editing and displaying indexes and means for automatically creating indexes from the synchronization information. The editing device according to the invention is a computer medium that can take the form of, for example, a CD ROM for executing the processing modules described above on a desktop computer. As the edition is based on the proxy media included in the editing device, the size of the medium and the computational load are much smaller than for direct editing of the native media. FIG. 5 represents an exemplary implementation of the display means 500 of the enriched media editing device, according to the invention. The display means comprises a first frame 501 is for previewing the enriched media and a second frame 502 representing an enriched time line. The rich media includes a video 503, 504 transparencies and index 505 for accessing different parts of the enriched media. The second frame 502 includes a time line 509 and then different lines 20 representing the sequencing of the media along this timeline 509. A first line 506 represents the sequencing of the transparencies and indicates when which transparency will be displayed. A second line 507 represents the positioning of the various indexes (chapters) of the presentation. Each new transparency potentially corresponds to an index of hierarchical level 1, which effectively becomes an index only if it is attached a label with possibly changing the hierarchical level. The editing device comprises means 511 for modifying the hierarchical level of an index, an arrow to the left making it possible to increase the hierarchical level of an index, and an arrow to the right 30 making it possible to decrease it. A third line 508 indicates when the different sections are made in the presentation or any other audiovisual editing operation. A cursor 510 on the timeline 509 indicates when the pre-display of the rich media presented in the first frame 501 is present. Moving the cursor along the timeline allows the user to access different parts of the enriched media. The second frame makes it easy to view and edit how media is synchronized. The display means further includes a read button for previewing the final result of the enriched media in the first frame 501. In the example corresponding to FIG. 5, the enriched media comprises five chapters (Introduction , Richmedia, Demo, Application and Conclusion). The first line 506 comprises seven transparencies. When viewing the rich media, the transparencies 2 and 3 are displayed in the introduction chapter, the transparencies 4, 5 and 6 in the chapter Richmedia and transparency 7 in the chapter Demo. The invention also relates to a system for producing enriched media from an oral performance. Figure 6 shows an exemplary embodiment of the system according to the invention. Such a system comprises computer implementation means comprising processing and storage modules and display means. Such a system for editing an enriched media from an oral performance includes: means for capturing and acquiring native media 601 from said spoken performance, for example, microphones and cameras the native media that can be stored in a dedicated storage space 607, means for acquiring synchronization information 603, for example, a device recording a time code during a speaker transparency change, means for creating 602 proxy media from native media, means for editing proxy media and synchronization information, said editing means generating editing events, the means for editing comprising the device for the editing 400 of an enriched medium according to the invention, means for the generation of enriched media (605) from the editing events and the corresponding native media, these means 35 being, for example, a module 605 for the generation of rich media creation commands 406 and the setting of a rich media player 607 from the editing events, the synchronization information and the corresponding native media . The means for the acquisition 603 of synchronization information, for the creation 602 of proxy media and for the edition of the proxy media as well as the module for generating creation orders are implemented by the computer processing means of the system. The rich media creation orders are the commands for applying the proxy media editing events to the native media. These creation orders can come from standards. For audiovisual media, this is the format called EDL (Edition Decision List) An EDL includes a list of editing events associated with a timecode. For other media, creative orders are defined more specifically. For example, in the case of transparencies whose proxy is a text file, the creation orders are made in the form of a macro command modifying the transparencies from the corrections applied to the text file. The editing device according to the invention is independent of the enriched media players. Nevertheless, a parameterization phase is necessary so that the enriched media generated is compatible with a given reader. This setting consists in generating, from the native media, media compatible with the reader and arranging media and indexes according to the organization of the reader. Figure 7a shows a diagram of the steps of an enriched media editing method according to the prior art. The method consists of separately editing each of the media (Media1, Media2, ... and Median) and each of the respective indexes (i1, i2, ..., and in) for these media. A modification of an index must be reported manually on all other indexes. The edition is represented by a circular arrow on each of the media and each of the indexes. The method results in the creation of an enriched media including a container 701 grouping the different media (Media1, Media2, ... and Median). An index i provides synchronized access to different parts of the media.

La figure 7b représente un diagramme des étapes du procédé d'édition de média enrichi selon l'invention. Le procédé consiste à éditer de façon unique des médias mandataires (Media',, Media'2, ... et Media') regroupés dans un contenant 702, dit léger, qui est une version adaptée à l'édition et simplifiée du contenant final 701 du média enrichi. Un index i' unique est édité. Cette caractéristique simplifie le travail d'édition et en particulier supprime le problème du report des modifications d'un index à l'autre lors de l'édition. FIG. 7b represents a diagram of the steps of the enriched media editing method according to the invention. The method consists of uniquely editing proxy media (Media ',, Media'2, ... and Media') grouped in a lightweight container 702, which is a version adapted to the simplified edition of the final container. 701 of the enriched media. A unique index i 'is edited. This feature simplifies the editing work and in particular removes the problem of postponing changes from one index to another during editing.

Claims (6)

REVENDICATIONS1. Procédé pour l'édition d'un média enrichi à partir d'une prestation orale, ledit média enrichi comprenant un premier média de type flux audio et/ou vidéo et au moins un second média, chacun desdits médias étant synchronisés, ledit procédé comportant une étape de recueil et d'acquisition (301) sous forme numérique des médias et d'informations de synchronisation, lesdits médias acquis étant appelés médias natifs, ledit procédé étant caractérisé en ce qu'il comporte, en outre, les étapes suivantes : la création (302) d'un média mandataire pour chacun des médias natifs, io un média mandataire étant une version adaptée du média natif auquel il est associé, l'édition (303) simultanée des médias mandataires synchronisés et des informations de synchronisation, comprenant la modification d'au moins un média mandataire, la mise à jour des informations de synchronisation 15 de chacun desdits médias mandataires, la génération d'événements d'édition pour chacun des médias mandataires modifiés, un événement d'édition comprenant une modification sur un média mandataire et un code temporel, la création du média enrichi (304) en reportant les événements d'édition 20 sur chacun des médias natifs correspondants. REVENDICATIONS1. A method for editing an enriched media from an oral performance, said enriched media comprising a first media of the audio and / or video stream type and at least one second medium, each of said media being synchronized, said method comprising a step of collecting and acquiring (301) in digital form media and synchronization information, said acquired media being called native media, said method being characterized in that it further comprises the following steps: the creation (302) a proxy media for each of the native media, wherein a proxy media is an adapted version of the native media with which it is associated, the simultaneous editing (303) of the synchronized proxy media and synchronization information including the modification of at least one proxy media, updating the synchronization information of each of said proxy media, generating the editing events in for each of the modified proxy media, an editing event including a modification on a proxy media and a time code, the creation of the enriched media (304) by posting the editing events 20 on each of the corresponding native media. 2. Procédé pour l'édition d'un média enrichi selon la revendication 1, caractérisé en ce que l'étape d'édition simultanée (303) comprend une étape d'indexation à partir des informations de synchronisation, les 25 informations de synchronisation définissant des points de synchronisation, un index étant créé pour chacun desdits points de synchronisation. A method for editing an enriched media according to claim 1, characterized in that the simultaneous editing step (303) comprises an indexing step from the synchronization information, the synchronization information defining synchronization points, an index being created for each of said synchronization points. 3. Procédé pour l'édition d'un média enrichi selon l'une des revendications précédentes, caractérisé en ce que, le media enrichi étant 30 destiné à être lu sur un lecteur de média enrichi donné, l'étape de création du média enrichi comprend, en outre, la création, à partir des médias natifs, de médias compatibles avec le lecteur et la disposition des médias et des indexes conformément à l'organisation du lecteur selon un format donné. 3. Method for editing a rich media according to one of the preceding claims, characterized in that, the enriched media being intended to be read on a given rich media player, the step of creating the enriched media further includes creating, from the native media, media compatible with the reader and arranging the media and indexes according to the organization of the reader in a given format. 4. Dispositif pour l'édition d'un média enrichi (400) à partir de médias natifs et d'information de synchronisation acquis lors d'une prestation orale, ledit média enrichi comprenant un premier média de type flux audio et/ou vidéo et au moins un second média, chacun desdits médias étant synchronisé, ledit dispositif étant caractérisé en ce qu'il comprend : des moyens pour la réception de médias mandataires (401), un média mandataire étant une version adaptée d'un média natif auquel il est associé, des moyens pour la réception d'informations de synchronisation (402) des w médias mandataires, un module pour l'édition simultanée des médias mandataires (403) et des informations de synchronisation, ledit module d'édition comprenant des moyens d'affichage des médias mandataires et des informations de synchronisation. 15 4. Device for editing an enriched media (400) from native media and synchronization information acquired during an oral performance, said enriched media comprising a first media type audio stream and / or video and at least one second medium, each of said media being synchronized, said device being characterized in that it comprises: means for receiving proxy media (401), a proxy medium being an adapted version of a native media to which it is associated means for receiving synchronization information (402) of the proxy media, a module for simultaneous editing of the proxy media (403) and synchronization information, said editing module including display means proxy media and sync information. 15 5. Dispositif pour l'édition d'un média enrichi selon la revendication 4, caractérisé en ce que le module pour l'édition comprend, en outre, des moyens pour l'édition et l'affichage d'indexes à partir des informations de synchronisation. 20 5. Device for editing an enriched media according to claim 4, characterized in that the module for editing further comprises means for editing and displaying indexes from the information of synchronization. 20 6. Système pour la production d'un média enrichi à partir d'une prestation orale comprenant des moyens pour la captation et l'acquisition (601) de médias natifs à partir de ladite prestation orale, et des moyens pour l'acquisition (603) d'informations de synchronisation, ledit système étant 25 caractérisé en ce qu'il comprend, en outre : des moyens pour la création (602) de médias mandataires à partir des médias natifs, des moyens pour l'édition (400) des médias mandataires et des informations de synchronisation, lesdits moyens d'édition générant des 30 événements d'édition, lesdits moyens d'édition comprenant le dispositif pour l'édition d'un média enrichi selon l'une des revendications 4 ou 5. des moyens pour la génération de média enrichi (605) à partir des événements d'édition et des médias natifs correspondants. 6. System for producing an enriched media from an oral performance comprising means for capturing and acquiring (601) native media from said spoken performance, and means for acquiring (603 ) of synchronization information, said system being characterized in that it further comprises: means for creating (602) proxy media from native media, means for editing (400) media proxies and timing information, said editing means generating editing events, said editing means including the device for editing an enriched media according to one of claims 4 or 5. means for generating rich media (605) from the publishing events and corresponding native media.
FR0807406A 2008-12-23 2008-12-23 METHOD, DEVICE AND SYSTEM FOR EDITING ENRICHED MEDIA Expired - Fee Related FR2940481B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR0807406A FR2940481B1 (en) 2008-12-23 2008-12-23 METHOD, DEVICE AND SYSTEM FOR EDITING ENRICHED MEDIA
PCT/EP2009/067726 WO2010072747A2 (en) 2008-12-23 2009-12-22 Method, device, and system for editing rich media
EP09796728A EP2368245A2 (en) 2008-12-23 2009-12-22 Method, device, and system for editing rich media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0807406A FR2940481B1 (en) 2008-12-23 2008-12-23 METHOD, DEVICE AND SYSTEM FOR EDITING ENRICHED MEDIA

Publications (2)

Publication Number Publication Date
FR2940481A1 true FR2940481A1 (en) 2010-06-25
FR2940481B1 FR2940481B1 (en) 2011-07-29

Family

ID=40873511

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0807406A Expired - Fee Related FR2940481B1 (en) 2008-12-23 2008-12-23 METHOD, DEVICE AND SYSTEM FOR EDITING ENRICHED MEDIA

Country Status (3)

Country Link
EP (1) EP2368245A2 (en)
FR (1) FR2940481B1 (en)
WO (1) WO2010072747A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705932B2 (en) 2011-12-21 2014-04-22 Pelco, Inc. Method and system for displaying a timeline

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013009218A (en) * 2011-06-27 2013-01-10 Sony Corp Editing device, method, and program
GB2494437A (en) * 2011-09-08 2013-03-13 Hogarth Worldwide Ltd The handling and management of media files

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0920014A1 (en) * 1997-04-12 1999-06-02 Sony Corporation Editing device and editing method
US6211869B1 (en) * 1997-04-04 2001-04-03 Avid Technology, Inc. Simultaneous storage and network transmission of multimedia data with video host that requests stored data according to response time from a server
US20010008572A1 (en) * 1997-12-17 2001-07-19 Sony Corporation. Edited-list creating apparatus, editing apparatus and editing method
EP1126695A2 (en) * 2000-02-18 2001-08-22 Sony Corporation Video supply device and method
US20020133520A1 (en) * 2001-03-15 2002-09-19 Matthew Tanner Method of preparing a multimedia recording of a live presentation
US20020145622A1 (en) * 2001-04-09 2002-10-10 International Business Machines Corporation Proxy content editing system
US20030126609A1 (en) * 2002-01-03 2003-07-03 Aken Shiah Real-time rich media recording system and method
US6618058B1 (en) * 1999-06-07 2003-09-09 Sony Corporation Editing device and editing method
EP1376406A2 (en) * 2002-06-26 2004-01-02 Microsoft Corporation A system and process for creating an interactive presentation employing multi-media components
WO2004062258A2 (en) * 2002-12-27 2004-07-22 Motorola, Inc. Video deblocking method and apparatus
EP1503381A2 (en) * 2003-07-28 2005-02-02 Sony Corporation Editing system and control method thereof
US20060008247A1 (en) * 2004-07-08 2006-01-12 Miyuki Minami Editing apparatus and control method thereof, and program and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2849564B1 (en) * 2002-12-31 2005-04-15 Droit In Situ METHOD AND SYSTEM FOR PRODUCING MULTIMEDIA EDITION BASED ON ORAL BENEFITS
US8437409B2 (en) * 2006-12-06 2013-05-07 Carnagie Mellon University System and method for capturing, editing, searching, and delivering multi-media content

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6211869B1 (en) * 1997-04-04 2001-04-03 Avid Technology, Inc. Simultaneous storage and network transmission of multimedia data with video host that requests stored data according to response time from a server
EP0920014A1 (en) * 1997-04-12 1999-06-02 Sony Corporation Editing device and editing method
US20010008572A1 (en) * 1997-12-17 2001-07-19 Sony Corporation. Edited-list creating apparatus, editing apparatus and editing method
US6618058B1 (en) * 1999-06-07 2003-09-09 Sony Corporation Editing device and editing method
EP1126695A2 (en) * 2000-02-18 2001-08-22 Sony Corporation Video supply device and method
US20020133520A1 (en) * 2001-03-15 2002-09-19 Matthew Tanner Method of preparing a multimedia recording of a live presentation
US20020145622A1 (en) * 2001-04-09 2002-10-10 International Business Machines Corporation Proxy content editing system
US20030126609A1 (en) * 2002-01-03 2003-07-03 Aken Shiah Real-time rich media recording system and method
EP1376406A2 (en) * 2002-06-26 2004-01-02 Microsoft Corporation A system and process for creating an interactive presentation employing multi-media components
WO2004062258A2 (en) * 2002-12-27 2004-07-22 Motorola, Inc. Video deblocking method and apparatus
EP1503381A2 (en) * 2003-07-28 2005-02-02 Sony Corporation Editing system and control method thereof
US20060008247A1 (en) * 2004-07-08 2006-01-12 Miyuki Minami Editing apparatus and control method thereof, and program and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705932B2 (en) 2011-12-21 2014-04-22 Pelco, Inc. Method and system for displaying a timeline
WO2013096561A3 (en) * 2011-12-21 2014-07-17 Pelco, Inc. Video editor software with dual timeline: with proportional-thumbnails gaps-removed

Also Published As

Publication number Publication date
WO2010072747A2 (en) 2010-07-01
EP2368245A2 (en) 2011-09-28
WO2010072747A3 (en) 2010-09-16
FR2940481B1 (en) 2011-07-29

Similar Documents

Publication Publication Date Title
US10650349B2 (en) Methods and systems for collaborative media creation
US11157689B2 (en) Operations on dynamic data associated with cells in spreadsheets
US9032297B2 (en) Web based video editing
US20070162855A1 (en) Movie authoring
US20060204214A1 (en) Picture line audio augmentation
US20080195981A1 (en) System and method for creating portable interactive multimedia presentations
US8610713B1 (en) Reconstituting 3D scenes for retakes
CA2512055A1 (en) Method and system for producing a multimedia publication on the basis of prestations orales
EP2368245A2 (en) Method, device, and system for editing rich media
KR20130065866A (en) System for publishing records and publishing method using the same
Hua et al. Interactive video authoring and sharing based on two-layer templates
KR20200022995A (en) Content production system
Jago Adobe Premiere Pro Classroom in a Book (2022 Release)
WO2018005569A1 (en) Videos associated with cells in spreadsheets
Costello Non-Linear Editing
Leirpoll et al. The Cool Stuff in Premiere Pro: Learn advanced editing techniques to dramatically speed up your workflow
Team Adobe Creative Suite 6 Production Premium Classroom in a Book
Sawada Recast: an interactive platform for personal media curation and distribution
Davies et al. Video document
Droblas et al. ADOBE PREMIER PRO 2 BIBLE (With CD)
Droblas et al. ADOBE PREMIERE PRO CS3 BIBLE (With CD)
WO2010142729A1 (en) Method for generating and managing a model of multimedia sequences, corresponding reproduction device and method
FR2955184A1 (en) METHOD FOR AUTOMATICALLY PROCESSING DIGITAL DATA FOR DOUBLING OR POST SYNCHRONIZATION OF VIDEOS
Team Digital Video with Adobe Creative Cloud Classroom in a Book
Shaening-Pokrasso et al. Digital Video with Adobe Creative Cloud

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

ST Notification of lapse

Effective date: 20190906