FR2955184A1 - Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos - Google Patents

Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos Download PDF

Info

Publication number
FR2955184A1
FR2955184A1 FR1050307A FR1050307A FR2955184A1 FR 2955184 A1 FR2955184 A1 FR 2955184A1 FR 1050307 A FR1050307 A FR 1050307A FR 1050307 A FR1050307 A FR 1050307A FR 2955184 A1 FR2955184 A1 FR 2955184A1
Authority
FR
France
Prior art keywords
text
character
display
block
sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1050307A
Other languages
English (en)
Other versions
FR2955184B1 (fr
Inventor
Didier Calle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR1050307A priority Critical patent/FR2955184B1/fr
Publication of FR2955184A1 publication Critical patent/FR2955184A1/fr
Application granted granted Critical
Publication of FR2955184B1 publication Critical patent/FR2955184B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B31/00Associated working of cameras or projectors with sound-recording or sound-reproducing means
    • G03B31/04Associated working of cameras or projectors with sound-recording or sound-reproducing means in which sound track is not on, but is synchronised with, a moving-picture film
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3036Time code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention à pour objet un procédé de traitement automatique de données numériques destinées à doubler ou à post-synchroniser une vidéo via une unité de commande (1), comportant les étapes suivantes : - affichage d'une vidéo dans une première fenêtre (44), - affichage d'une liste comportant l'ensemble des personnages de la vidéo dans une fenêtre (45), - affichage d'un script textuel de tous les personnages de la vidéo en version originale dans une fenêtre (46), - affichage d'une time-line dans une fenêtre (47), caractérisé en ce que, - la time-line comporte deux zones (48, 49) distinctes, une zone de rendu (48) et une zone d'édition (49), l'affichage de ces deux zones étant réalisé simultanément.

Description

PROCEDE DE TRAITEMENT AUTOMATIQUE DE DONNEES NUMERIQUES DESTINEES A DES DOUBLAGES OU A DES POST- SYNCHRONISATIONS DE VIDEOS La présente invention concerne un procédé de traitement automatique de données numériques destinées à des doublages ou à des post-synchronisation de vidéos. Plus particulièrement, la présente invention a pour objet un procédé de doublage ou de post-synchronisation de vidéos en version originale.
Le marché du doublage de vidéos telles que des films, des documentaires ou des séries télévisées, etc.., s'est considérablement développé ces dernières années, du fait de la multiplication des chaînes télévisées publiques ou privées. En effet, ces dernières, soumises entre-elles à une forte concurrence au niveau des audiences, achètent énormément de programmes ou contenus audiovisuels étrangers doublés. Ce marché du doublage a complètement explosé avec la démocratisation des supports vidéo tels que les cassettes vidéo, les DVD, etc.., ou encore la dématérialisation du support avec internet, comme par exemple le streaming ou d'autres technologies.
La réalisation d'un projet de doublage dure entre trois et cinq semaines. Il faut compter, uniquement pour la France, un peu plus de 10000 heures de programmes doublés par an. Pour effectuer le doublage d'une vidéo, il est nécessaire de suivre un ensemble de phases successives, afin d'obtenir un doublage de qualité.
Une première phase appelée « phase de détection », consiste à repérer, image par image, les changements de plan, de scène ou séquence appelée généralement « boucle », les changements de personnage, de dialogue, de mouvement de bouche, les changements de son et de mimique, sur une bande rythmographique, en respectant une certaine codification. On entend par « bande rythmographique » un rouleau de papier glacé blanc, de 35mm de largeur, comme une pellicule de cinéma, sur lequel figurent des perforations, où chaque perforation est équivalente à deux images. Lors de ce repérage, il faut recourir en priorité à l'image, le son n'est utilisé que pour les dialogues hors champ ou semi-off. On entend par « dialogue semi-off », un dialogue où la bouche des personnages n'est pas
bien visible, par exemple, lorsque les personnages sont de dos ou de trois-quarts. Durant cette phase de détection, le détecteur, autrement dit la personne amenée à faire ce travail de détection, doit retranscrire, sur la bande rythmographique et en suivant des signes de détection, illustrés à la figure 1, tous les changements de plan et de séquence. Un changement de séquence permet de délimiter les boucles. Si la durée d'une séquence devient très longue, autrement dit, supérieure à une minute, le détecteur peut décider de délimiter la boucle par un changement de plan. Chaque boucle est numérotée en suivant l'ordre chronologique du film. Elle est ensuite associée à un time code « TC », composé de huit chiffres correspondant à chaque image tel que «heures:minutes:secondes:images». En général, le time code « TC » est incrusté dans la vidéo reçue par le détecteur. Afin de garantir le synchronisme avec la bande rythmographique, le détecteur fixe un premier repère appelé « Start », généralement trois secondes avant la première image de la vidéo. A chaque apparition d'un personnage dans une boucle, son nom doit apparaître devant la transcription de sa réplique. Il doit être inscrit de biais et être souligné pour le différencier de la réplique du personnage. Dans la mesure du possible, le détecteur doit attribuer une ligne de la bande rythmographique par personnage, qu'il gardera pendant la durée de la boucle et idéalement de la vidéo. D'autres signes de détection permettent de codifier l'expression physique des sons, sur la bouche des acteurs. Ces expressions physiques doivent être retranscrites par le détecteur, afin de permettre à l'auteur d'adapter ses dialogues aux mouvements des lèvres. Cinq catégories d'expressions physiques peuvent être distinguées : - Les labiales, qui sont des consonnes articulées sur les lèvres «b, m,p»; - Les demi-labiales, correspondant aux lettres « f, k, r, s, t, v, w, 30 th » (par exemple think) ; - Les grandes ouvertures, correspondant au « wh » (par exemple what) ; - Les sons en « o », « on », « ou », correspondant à une avancée buccale ; 35 - Les sons en « a » et « in », correspondant à un mouvement arrière de la bouche.
Tous les autres sons et manifestations des personnages doivent être codifiés par le détecteur sur la bande rythmographique. Le détecteur doit également réaliser un tableau appelé « croisillé » qui rassemble différentes informations comme les numéros de boucles, les time- codes correspondants, ainsi que le nom des personnages présents lors de ces boucles. Le détecteur transmet ensuite le croisillé à un directeur artistique afin que ce dernier organise l'enregistrement des voix avec les comédiens amenés à effectuer le doublage. En effet, pendant une séance d'enregistrement, à l'aide du croisillé, le directeur artistique regroupera les boucles correspondant au rôle de chaque comédien sans forcément suivre l'ordre chronologique de la vidéo. Cela, afin d'optimiser au maximum la présence des comédiens et de réduire les coûts. Une deuxième phase appelée « phase d'adaptation », consiste à traduire les dialogues de chaque personnage sur la bande rythmographique qui a été préalablement détectée lors de la phase de détection. Cette phase est réalisée par un auteur ou adaptateur. L'adaptateur reçoit une copie de la vidéo en version originale, ainsi que la liste des répliques de chaque personnage appelée par la suite « script ». C'est sur le script que l'adaptateur commence à chercher des adaptations aux mots qu'il ne connaît pas, avant de commencer à travailler sur la bande rythmographique. En cas d'incohérence, l'adaptateur doit se référer, de préférence, à la bande originale de la vidéo à doubler. Ensuite, l'adaptateur commence sa traduction en étirant ou en réduisant la taille des lettres, afin de reproduire le rythme syllabique détecté. Au fur et à mesure, l'adaptateur effectue une relecture à voix haute de la phrase qu'il vient de traduire, en même temps que défile la vidéo. Une fois l'oeuvre audiovisuelle adaptée, l'adaptateur réitère cette opération de relecture à haute voix, lors de la vérification, mais cette fois sans le son original et en présence du directeur artistique. Un adaptateur traduit en moyenne moins de dix minutes de bobine par jour. Ainsi, l'adaptation d'un long-métrage dure environ trois semaines. Une troisième phase appelée « phase de calligraphie », consiste à recopier au propre sur une bande de celluloïd transparente le texte adapté mais également les respirations, les cris, les rires, ainsi que tous les différents sons possibles qu'un acteur ou personnage peut produire tels que les sifflements, halètements, éructations, fredonnements, larmoiements,
mastications, voire les vomissements ou les exhalaisons de fumée de cigarette. Une quatrième phase concerne la « phase d'enregistrement ». Avant la phase d'enregistrement, le comédien visionne au moins une fois en version originale la boucle qu'il va devoir jouer, afin d'assimiler le jeu, le ton de l'acteur et la personnalité du personnage. Le(s) comédien(s) se place(nt) ensuite devant un écran de projection ou un moniteur de télévision et un microphone. II(s) doit(doivent) alors lire sur la bande calligraphiée, qui défile de droite à gauche huit fois moins vite que le film projeté, les mots de sa(leur) réplique et les prononcer au moment précis où ils passent sous un repère vertical fixe, appelé « barre de synchronisation », placé à gauche de l'image. Une cinquième et dernière phase appelée « phase de mixage » consiste à mélanger harmonieusement les voix doublées à une version internationale de la vidéo, qui comporte simplement la musique, les bruitages, les ambiances et les effets sonores. Dans l'état de la technique, pour réaliser la phase de détection et d'adaptation de manière traditionnelle, on utilise par exemple un dispositif appelé « machine Orphée » illustrée à la figure 2. Ce dispositif permet de faire défiler la bande rythmographique pour effectuer la détection et l'adaptation. Ce dispositif est désormais souvent associé à un ordinateur équipé d'un logiciel appelé « Cappella », permettant de piloter la machine Orphée et d'afficher l'image vidéo, évitant ainsi l'utilisation d'un magnétoscope. Le défileur de 35mm permet de naviguer image par image, en lecture, en accéléré ou en arrière, à travers la bande rythmographique synchronisée avec la vidéo. La détection et l'adaptation sont alors réalisées avec un crayon papier sur la bande au rythme de la vidéo. La machine Orphée est un outil fiable et facilement transportable grâce à sa taille réduite. De plus, elle garantit le synchronisme entre la bande et la vidéo, auquel les adaptateurs travaillant à plat n'ont pas accès. Enfin, la version couplée avec le logiciel Cappella permet la compatibilité avec les fichiers vidéo numériques, ce qui multiplie, aujourd'hui, les possibilités de travail. Cependant, cette méthode reste coûteuse (entre 10000 et 11000 euros selon les versions). De plus, les magnétoscopes avec lesquels fonctionnent les anciennes machines Orphée, ne sont plus produits ni
réparés. Les détecteurs et les adaptateurs travaillant avec ce type de machines sont dépendants de leur bon fonctionnement. L'interface du logiciel Cappella, illustrée figure 5, a fait l'objet d'un brevet divulgué dans le document FR2 765 354. Toutefois, les entreprises de doublage appelées dans la suite de la description « doubleurs », sont obligées de s'équiper d'un logiciel complémentaire appelé « Cappella Projection » pour assurer la compatibilité des différents supports utilisés lors de l'enregistrement. Un autre dispositif appelé « Cinéstyle », illustré à la figure 3, correspond à un périphérique d'écriture et de visualisation relié à un ordinateur. Ce dispositif permet aux professionnels du doublage de réaliser par l'intermédiaire d'une interface logicielle, voir figure 4, la détection, l'adaptation et la calligraphie sur une même bande rythmographique virtuelle, tout en gardant un aspect traditionnel, grâce à une tablette-écran et un stylet, muni d'une gomme. La détection s'effectue soit manuellement avec le stylet, soit en utilisant les boutons des différentes barres d'outils, permettant d'insérer sur la bande virtuelle tous les signes relatifs à l'image et au son. Toutefois, ce matériel reste très coûteux (entre 10000 et 20000 euros selon les versions). Par ailleurs, étant donnés la diversité et le coût des matériels existants, la compatibilité entre les différents systèmes reste pour le moment problématique. Il existe également d'autres logiciels tels que : - Le logiciel « Synchronos », qui est à l'heure actuel le plus utilisé dans les pays francophones. Avec ce logiciel, la détection peut se réaliser soit à l'aide d'un stylet, soit à l'aide d'annotations dactylographiées. Sur cet outil, chaque lettre d'une phrase peut être étirée librement, pour, par exemple, faire ressentir la manière avec laquelle le comédien doit prononcer les mots. - Le logiciel « Dubstudio », utilisé notamment dans les pays nord américains. Ce logiciel est, à la différence des autres, basé uniquement sur la reconnaissance vocale. Ce type d'approche rencontre certaines limites. En effet, un doublage de qualité s'appuie en priorité sur l'image, c'est-à-dire sur les ouvertures de bouche, et non sur le son. Il est fréquent qu'un comédien ouvre la bouche sans nécessairement parler. De plus, la reconnaissance vocale manque de fiabilité quand les voix se recouvrent ou quand il y a des bruits d'ambiance par exemple.
Cependant, l'ensemble des logiciels cités précédemment présentent tous les deux mêmes inconvénients majeurs. D'une part, la manipulation de ces outils reste complexe, entraînant un manque d'intuitivité rebutant les détecteurs et les adaptateurs. Ces derniers sont contraints de se concentrer sur des aspects techniques au lieu de se concentrer sur l'essence même de leur métier. D'autre part, ces outils imposent aux détecteurs une méthode de travail particulière qui ne correspond pas à celle dont ils ont l'habitude et pour laquelle ils ont développé une approche optimale qui leur est propre. Ce deuxième inconvénient, couplé au premier, fait que la phase de détection est plus lente que celle effectuée avec la méthode traditionnelle, utilisant par exemple la machine Orphée. Finalement, les difficultés rencontrées avec ces logiciels de l'état de la technique repoussent les professionnels du doublage qui préfèrent en majorité la méthode traditionnelle utilisant la bande rythmographique « physique ».
L'invention a pour but de résoudre ces inconvénients de l'état de la technique. Pour cela, l'invention propose un procédé de doublage de vidéo se présentant sous la forme d'une interface logicielle comportant une fenêtre destinée à visualiser une vidéo, une fenêtre destinée à lister l'ensemble des personnages de la vidéo, une fenêtre permettant de lire le script textuel de tous les personnages, ainsi qu'une bande virtuelle appelée « time-line ». La bande virtuelle comportant une zone d'édition et une zone de rendu s'affichent simultanément. L'ensemble de ces deux zones est organisé pour rendre ergonomique et intuitive l'édition des éléments de doublage des différents personnages. L'édition est très souple et s'adapte à toutes les méthodes de travail puisqu'aucun ordre dans la saisie des éléments de doublage n'est imposé. Ceci devient possible grâce à une structuration de la zone d'édition répartissant selon leur nature les données à éditer sur quatre pistes. L'invention concerne donc un procédé de traitement automatique de 30 données numériques destinées à doubler ou à post-synchroniser une vidéo via une unité de commande, comportant les étapes suivantes : - affichage d'une vidéo dans une première fenêtre, - affichage d'une liste comportant l'ensemble des personnages de la vidéo dans une fenêtre, 35 - affichage d'un script textuel de tous les personnages de la vidéo en version originale dans une fenêtre, - affichage d'une time-line dans une fenêtre, caractérisé en ce que, - la time-line comporte deux zones distinctes, une zone de rendu et une zone d'édition, l'affichage de ces deux zones étant réalisé 5 simultanément. L'invention comporte l'une quelconque des caractéristiques suivantes : - l'affichage de la zone de rendu, comporte les étapes suivantes : - affichage de données numériques concernant des boucles ou des changements de plan, 10 - affichage de données numériques concernant des signes de détection propre à un personnage particulier, - affichage du nom du personnage, - affichage du texte en version originale du personnage, - affichage du texte d'adaptation du personnage, 15 - réitération de chacune des étapes permettant l'affichage de la zone de rendu pour chaque personnage de la liste ; - lorsqu'un personnage est sélectionné dans la liste, l'affichage de la zone d'édition comporte les étapes suivantes : - affichage des signes de détection et du nom du personnage 20 sélectionné sur une piste, - affichage des blocs de texte en version originale associés au personnage sélectionné sur une piste, - affichage des blocs de texte d'adaptation associés au personnage sélectionné sur une piste, 25 - affichage des boucles ou des changements de plan sur une piste ; - lorsque la zone de rendu est sélectionnée via un dispositif de pointage tel qu'une souris, les étapes suivantes sont réalisées : - détermination du point P(x, y) pointé par le dispositif de 30 pointage sur la zone de rendu, - vérification que le point P(x, y) est inclus dans un rectangle englobant associé aux signes de détection, ou au nom d'un personnage, ou aux blocs de texte en version originale, ou aux blocs de texte d'adaptation, - lorsque le point P(x, y) est inclus dans un tel rectangle, le personnage associé à ce rectangle est déterminé puis sélectionné afin d'être édité dans la zone d'édition ; - lorsque la touche « Entrée » a été sélectionnée, les étapes suivantes 5 sont réalisées : - test d'intersections avec la barre de synchronisation, - détermination que le test d'intersection avec la barre de synchronisation n'est pas nul, - sélection du personnage associé à l'élément se trouvant en 10 intersection avec la barre de synchronisation, - détermination si l'élément se trouvant en intersection avec la barre de synchronisation est un bloc de texte, - édition du bloc de texte et placement d'un curseur à l'intérieur dudit bloc ; 15 - une sélection d'un personnage à éditer via un changement de ligne sur la zone de rendu comporte les étapes suivantes : - détermination d'une sollicitation de changement de ligne active, - si un changement de ligne active est détecté, alors une 20 recherche est effectuée sur la nouvelle ligne active avant la barre de synchronisation pour déterminer la présence d'un élément de doublage sur ladite ligne, - si l'élément de doublage présent sur la ligne active et situé avant la barre de synchronisation existe, alors une détermination du 25 personnage associé à l'élément de doublage est effectuée, - lorsque le personnage associé à l'élément de doublage est déterminé et sélectionné, une édition est effectuée dans la zone d'édition ; - les pistes comportent chacune trois parties, dont une partie 30 supérieure permettant la sélection d'un ou plusieurs blocs de texte, une partie centrale permettant l'édition de texte sur une ligne illimitée à gauche comme à droite avec un positionnement libre du curseur, une partie inférieure permettant de traiter la mise en forme du texte pour respecter le synchronisme avec les signes de détection ; 35 - le placement rapide du texte en version originale dans des blocs de texte comporte les étapes suivantes : - détermination d'une création, sur la piste de texte, d'un bloc de texte B1, débutant au début d'un signe S1, se terminant à la fin d'un signe SN et contenant un texte Ti, - placement automatique de la barre de synchronisation sur le début d'un signe Sn, - détermination d'une sélection d'une lettre dans le texte Tn-1, - détermination de la lettre sélectionnée, - création d'un bloc de texte Bn, sur la piste de texte, débutant sur la barre de synchronisation, se terminant à la fin du bloc Bn-1 et contenant le texte Tn, allant de la lettre sélectionnée jusqu'à la fin du texte Tn-1, - modification du bloc Bn-1 en le faisant terminer sur la barre de synchronisation et en supprimant du texte Tn-1 le contenu du texte Tn - le placement rapide du texte en version originale dans des blocs de texte, comporte les étapes suivantes : - placement de la barre de synchronisation sur la fin d'un signe Sn, - détermination de la saisie d'une lettre, - création sur la piste de texte d'un bloc de texte Bn, débutant sur la position de fin du bloc Bn-1 et terminant sur la barre de synchronisation, ledit bloc Bn contenant initialement un texte vide Tn composé du texte saisi TSn et du texte estimé TEn, - ajout de la lettre saisie au texte TSn, - recherche d'une première occurrence de TSn dans le script en version originale à partir d'une position Pn-1, - remplacement de TEn par le texte débutant à une position Pn et se terminant à une position Pn+k, - remplacement de Tn par le texte obtenu en concaténant TEn 30 à TSn, - affichage du bloc Bn avec son texte Tn, en différenciant la partie TSn et la partie TEn, - remplacement de TEn-1 par le texte débutant à la position Pn- 1 et se terminant à la position Pn en retirant la longueur du texte TSn, 35 - remplacement de Tn-1 par le texte obtenu en concaténant TEn-1 à TSn-1, 25
- affichage du bloc Bn-1 avec son texte Tn-1, en différenciant la partie TSn-1 et la partie TEn-1 ; - le placement automatique du texte en version originale dans des blocs de texte associés à des signes, comporte les étapes suivantes : - détermination du type de signe de Sn, - détermination de la première occurrence dans le texte Tm-1, située après la première lettre de Tm-1, et appartenant au groupe de lettres {m, b, p} si Sn est une labiale ou appartenant au groupe de lettres {f, v} si Sn est une demi-labiale, - détermination de la position Pm de cette occurrence, - création d'un bloc Bm débutant sur le début du signe Sn et se terminant sur la fin du signe SN et contenant le texte Tm allant de la position Pm jusqu'à la fin du texte Tm-1, - modification du bloc Bm-1 en le faisant terminer sur le début du signe Sn et en supprimant du texte Tm-1 le contenu du texte Tm ; L'invention a également pour objet une unité de commande comportant une mémoire programme et une mémoire de données connectées à un microprocesseur via un bus de communication, ladite unité de commande étant connectée à différents organes par l'intermédiaire d'un autre bus de communication, le premier bus de communication étant connecté au deuxième bus de communication via une interface d'entrée/sortie, caractérisée en ce qu'elle met en oeuvre le procédé selon l'une quelconque des caractéristiques précédentes. L'invention sera mieux comprise à la lecture de la description qui suit et à l'examen des figures qui l'accompagnent. Celles-ci ne sont présentées qu'à titre illustratif mais nullement limitatif de l'invention. Les figures montrent : - Figure 1 : Un tableau récapitulatif des signes de détection utilisés en fonction de l'image et du son (déjà décrite) ; - Figure 2 : Une représentation schématique de la machine Orphée (déjà décrite) ; - Figure 3 : Une représentation schématique du dispositif Cinéstyle (déjà décrite) ; - Figure 4 : Une représentation schématique de l'interface logicielle du 35 dispositif Cinéstyle (déjà décrite) ;
- Figure 5 : Une représentation schématique de l'interface logicielle Cappella (déjà décrite) ; - Figure 6 : Une représentation schématique de l'unité de commande selon l'invention ; - Figure 7 : Un diagramme fonctionnel du procédé selon l'invention ; - Figure 8 : Une représentation schématique de l'interface logicielle découlant de la mise en oeuvre du procédé selon l'invention ; - Figure 9 : Un diagramme fonctionnel du procédé réalisant l'affichage de la zone de rendu selon l'invention ; - Figure 10: Un diagramme fonctionnel du procédé réalisant l'affichage de la zone d'édition ; - Figure 11 : Un diagramme fonctionnel du procédé permettant d'éditer un personnage à partir d'une sélection sur la zone de rendu ; - Figure 12 : Un diagramme fonctionnel du procédé permettant d'éditer un personnage, lorsque la touche d'édition du clavier est sélectionnée ; - Figure 13 : Un diagramme fonctionnel du procédé permettant d'éditer un personnage, lorsqu'un changement de ligne active est effectué dans la zone de rendu ; - Figure 14 : Un diagramme fonctionnel du procédé permettant de 20 placer automatiquement du texte en version originale sur des signes de détection dans la zone d'édition ; - Figure 15: Un diagramme fonctionnel du procédé permettant de placer rapidement du texte en version originale dans la zone d'édition ; - Figure 16 : Une variante de réalisation du diagramme fonctionnel 25 selon la figure 15 ; - Figures 17a-17g : Des variantes d'utilisation possible d'une piste de texte selon l'invention ; La figure 6, illustre une représentation schématique de l'unité de commande selon l'invention. Elle montre une unité de commande 1 30 comportant une mémoire programme 2 et une mémoire de données 3 connectées à un microprocesseur 4 via un bus de communication 5. L'unité de commande 1 est connectée à différents organes par l'intermédiaire d'un autre bus de communication 6. L'unité de commande 1 comporte en outre, une interface d'entrée/sortie 7, permettant de relier les bus 5 et 6. Le bus de 35 communication 6 est connecté à un moniteur ou écran 8. Il est également connecté à une ou plusieurs interfaces homme/machine. Dans l'invention, on
entend par interface homme/machine un clavier 9, et/ou un dispositif de pointage comme une souris 10, et/ou un pavé numérique dédié 11, et/ou une poignée de commande dédiée 12, et/ou un stylet 13, lorsque l'écran 8 est tactile. D'autres organes sont aptes à être connectés à l'unité de commande 1, tel qu'un lecteur/enregistreur 14 analogique/numérique et/ou des hauts parleurs 15, et/ou une console de mixage 16, et/ou un vidéoprojecteur 17. Les actions menées par l'unité de commande 1, sont ordonnées par le microprocesseur 4. Le microprocesseur 4 produit en réponse aux codes instructions enregistrés dans la mémoire programme 2 des ordres destinés à mettre en oeuvre le procédé de l'invention, ainsi que les différents organes associés à l'unité de commande 1. La mémoire programme 2 comporte à cet effet plusieurs zones de programmes, correspondant respectivement à une suite d'étapes. La figure 7 est un exemple d'un diagramme fonctionnel du procédé selon l'invention. Ce procédé a pour but de permettre d'effectuer à la fois la phase de détection et la phase d'adaptation de manière plus intuitive et plus simple par rapport à l'état de la technique. A une étape 20, l'unité de commande 1 affiche une interface logicielle 41, illustrée à la figure 8, comportant : - des moyens de contrôle 42 de l'interface 41 au travers d'une barre de menu, afin d'ouvrir ou fermer ou configurer l'interface 41, - des moyens de gestion des projets 43 afin, par exemple, de créer, ouvrir, enregistrer des projets, - quatre fenêtres, dont une première fenêtre 44, apte à permettre la visualisation de la vidéo, une deuxième fenêtre 45, permettant le listage des personnages apparaissant dans la vidéo, une troisième fenêtre 46, permettant de visualiser le script des répliques des différents personnages de la vidéo en version originale et une quatrième fenêtre 47, affichant une bande virtuelle appelée par la suite « time-line ».
A une étape 21, l'unité de commande 1, détermine en fonction de la sélection de l'utilisateur, s'il s'agit d'un nouveau projet ou d'un projet existant précédemment sauvegardé. Si l'utilisateur sélectionne l'ouverture d'un projet existant précédemment sauvegardé, alors à une étape 22, l'unité de commande 1 35 charge et affiche la vidéo, la liste des personnages, le script en version
originale et la time-line associée à cette vidéo, respectivement dans les fenêtres 44, 45, 46 et 47. Si l'utilisateur sélectionne la création d'un nouveau projet, alors à une étape 23, l'unité de commande 1 invite l'utilisateur à lui indiquer l'emplacement du fichier vidéo faisant l'objet du nouveau projet. Les vidéos aptes à être visualisées peuvent être des fichiers vidéo ou être issues d'un signal vidéo externe. Les fichiers vidéo peuvent être de type QuickTime, autrement dit avec une extension « .mov », ou de type AVI, autrement dit avec une extension « .avi ».
Après avoir sélectionné le fichier vidéo, l'unité de commande 1, invite à l'étape 24, l'utilisateur à créer des personnages dans la fenêtre 45. Chaque personnage de la liste comporte quatre colonnes, dont une première colonne 45.1 qui indique l'ordre de création des personnages, une deuxième colonne 45.2 qui affiche le nom du personnage, une troisième colonne 45.3 et une quatrième colonne 45.4 qui précisent respectivement la ligne et la couleur attribuées à chaque personnage sur la time-line, pour identifier leurs éléments de détection ou d'adaptation. A tout moment, l'utilisateur dispose de la possibilité de modifier les propriétés d'un personnage, voire de le supprimer complètement de la liste.
A une étape 25, l'unité de commande 1 invite l'utilisateur à importer un fichier texte. Une fois importé, le fichier texte s'affiche dans la fenêtre 46. A une étape 26, l'unité de commande 1 affiche la time-line dans la fenêtre 47. La time-line permet de visualiser et d'éditer tous les éléments liés à la détection et à l'adaptation d'un contenu audiovisuel.
Un avantage de l'invention est de bénéficier dans cette interface d'une séparation entre une zone de rendu 48 et une zone d'édition 49, joint au fait que l'affichage de ces deux zones 48, 49, est réalisé simultanément. Cela permet d'éviter de basculer l'affichage entre un mode de visualisation et un mode d'édition comme cela se pratique dans les logiciels de l'état de la technique. A une étape 27, l'unité de commande 1 affiche dans la zone de rendu 48 la détection et l'adaptation de tous les personnages. Cette zone de rendu 48 n'est pas éditable. Elle rend compte du résultat final qui est projeté lors de l'enregistrement avec les comédiens, avec des informations supplémentaires comme les éléments de détection. En fait, la zone de rendu est équivalente à une bande rythmographique.
L'étape 27 comporte des étapes intermédiaires, illustrées à la figure 9, telles que définies ci-après : - A une étape 27.1, l'unité de commande 1 affiche les boucles et les changements de plan. - A une étape 27.2, l'unité de commande 1 affiche les signes de détection, les mal-vus et les voix-off d'un personnage indexé dans la liste à un ordre « i ». - A une étape 27.3, l'unité de commande 1 affiche le nom de ce personnage. - A une étape 27.4, l'unité de commande 1 affiche le texte en version originale correspondant à ce personnage. - A une étape 27.5, l'unité de commande 1 affiche le texte d'adaptation dudit personnage. - A une étape 27.6, l'unité de commande 1 détermine si l'index « i » du 15 personnage est égal à « n », « n » étant l'index du dernier personnage de la liste. - Si l'index « i » est différent de n, alors à une étape 27.7, les étapes 27.2 à 27.5 sont réitérées successivement pour chaque personnage, une ligne étant associée à chaque personnage. 20 A une étape 28, l'unité de commande 1 affiche dans la zone d'édition 49 quatre pistes, dont une première piste 51, permettant l'édition des signes de détection, une deuxième piste 52, permettant l'édition du texte en version originale, une troisième piste 53, permettant l'édition du texte de l'adaptation et une quatrième piste 54, permettant l'édition des boucles et changements 25 de plan. Les pistes 51, 52, 53 permettent d'éditer les éléments de doublage d'un seul personnage, celui sélectionné correspondant au nom de personnage 51.2. Les éléments se trouvant sur la piste 54 sont séparés de la piste 51 du fait qu'ils ne sont pas liés à un personnage en particulier. L'étape 28 comporte des étapes intermédiaires, illustrées à la figure 10, telles que 30 définies ci-après : - A une étape 28.1, l'unité de commande 1 détermine si un personnage est sélectionné dans la liste afin d'être édité dans la zone d'édition 49, - A une étape 28.2, si la piste 51 de détection est visible sur l'interface 35 41, l'unité de commande 1 affiche, sur cette piste 51, les signes de détection
51.1, les mal-vus et les voix-offs (non représentés) et les étiquettes de nom du personnage sélectionné 51.2. - A une étape 28.3, si la piste 52 permettant l'édition du texte en version originale est visible, l'unité de commande 1 affiche sur cette piste 52, des blocs de texte 52.1 en version originale du personnage sélectionné 51.2. - A une étape 28.4, si la piste 53 destinée à l'adaptation est visible, l'unité de commande 1 affiche sur cette piste 53, des blocs de texte 53.1 d'adaptation pour le personnage sélectionné 51.2. - A une étape 28.5, si la piste 54 pour répertorier les événements est 10 visible, l'unité de commande 1 affiche sur cette piste 54, les changements de plan 54.1 et les boucles (non représentées). Un autre avantage de l'invention se trouve au niveau de la sélection d'un personnage afin de l'éditer. En effet, à chaque fois que l'utilisateur doit éditer un personnage différent de celui apparaissant dans la zone d'édition, 15 celui-ci doit être préalablement sélectionné. Pour effectuer cette sélection, l'invention propose quatre méthodes. Dans une première méthode, la sélection du personnage à éditer s'effectue au moyen d'un dispositif de pointage, c'est-à-dire une souris ou un stylet, sur la zone de rendu. En effet, pour changer de personnage dans la 20 zone d'édition, il suffit de sélectionner un élément de doublage visible dans la zone de rendu appartenant à ce personnage tel qu'un signe de détection, du texte ou le nom du personnage. L'algorithme de cette méthode est illustré figure 11 et comporte les étapes suivantes : - A une étape 29, l'unité de commande 1 détermine si l'utilisateur a 25 sélectionné avec le dispositif de pointage la zone de rendu 48. - Si l'utilisateur a sélectionné avec le dispositif de pointage la zone de rendu alors, à une étape 29.1, le dispositif de pointage retourne à l'unité de commande 1 un point P(x, y) correspondant à la position du pointeur dudit dispositif. 30 - A une étape 29.2, l'unité de commande détermine si le point P(x, y) est inclus dans un rectangle englobant (non représenté) associé aux signes de détection, ou au nom d'un personnage, ou aux blocs de texte en version originale, ou aux blocs de texte d'adaptation. - Si le point P(x, y) est inclus dans un tel rectangle alors, à une étape 35 29.3, le personnage associé aux éléments de ce rectangle est sélectionné pour être édité dans la zone d'édition 49.
Dans une deuxième méthode, la sélection du personnage à éditer s'effectue en utilisant la touche d'édition du clavier, comme par exemple la touche « Entrée ». Le personnage sélectionné pour l'édition est celui qui est visible dans la zone de rendu et dont un élément de doublage tel qu'un signe, du texte ou le nom du personnage est situé sous la barre de synchronisation 55. Cette méthode permet, sans manipulation supplémentaire, d'éditer directement un bloc de texte du personnage sélectionné, si un tel bloc se trouve sous la barre de synchronisation 55. L'algorithme découlant de cette méthode comporte les étapes suivantes : - A une étape 30, l'unité de commande 1 détermine si la touche « Entrée » a été sélectionnée. - A une étape 30.1, lorsque la touche « Entrée » a été sélectionnée, l'unité de commande 1 teste les intersections avec la barre de synchronisation. - A une étape 30.2, l'unité de commande 1 détermine si le test effectué à l'étape 30.1 n'est pas nul. - A une étape 30.3, l'unité de commande 1 sélectionne le personnage associé à l'élément se trouvant en intersection avec la barre de synchronisation. - A une étape 30.4, l'unité de commande 1 détermine si l'élément se trouvant en intersection avec la barre de synchronisation est un bloc de texte. - A une étape 30.5, l'unité de commande 1 édite le bloc de texte et place le curseur à l'intérieur dudit bloc.
Dans une troisième méthode, la sélection du personnage à éditer s'effectue en changeant de ligne active sur la zone de rendu. En effet, sur la zone de rendu, les répliques des personnages sont placées verticalement selon un découpage en lignes de la zone de rendu. Il est alors possible d'utiliser, par exemple, les flèches haut et bas du clavier ou un périphérique externe, pour changer virtuellement la ligne active. C'est le dernier personnage apparaissant sur cette ligne qui est automatiquement sélectionné. La zone de rendu est découpée en « N » lignes horizontales, avec « n » la ligne de sélection active ayant une valeur comprise entre 0 et N-1. - A une étape 31, l'unité de commande 1 détermine si la ligne active a changé c'est-à-dire, si elle est passée soit à la ligne du dessus (k=(N+n-1)modulo(N)), soit à la ligne du dessous (k=(n+1)modulo(N)), - Si un changement de ligne active a été détecté alors, à une étape 5 31.1, l'unité de commande 1 cherche sur la ligne k le dernier élément de doublage situé avant la barre de synchronisation 55. - S'il existe un élément de doublage avant la barre de synchronisation alors, à une étape 31.2, l'unité de commande 1 sélectionne le personnage associé à cet élément de doublage. 10 - A une étape 31.3, l'unité de commande édite les éléments de doublage du personnage dans la zone édition 49. Dans une quatrième méthode, la sélection du personnage à éditer s'effectue via une liste horizontale dynamique (non représentée). Celle-ci se présente sous la forme d'un tableau d'une seule ligne et de plusieurs 15 colonnes. Chaque case de ce tableau contient un nom de personnage. Ce tableau présente les noms des personnages en les classant par ordre chronologique du début de la time-line jusqu'à la barre de synchronisation 55. Le nom du personnage le plus récent apparaît en tête de liste, par exemple dans la première case située à gauche dans le tableau. La 20 chronologie est appréciée en fonction des éléments associés à chaque personnage tels que le nom, les signes et les textes. Ce tableau est mis à jour dynamiquement au fur et à mesure du déplacement sur la time-line. La sélection du personnage à éditer peut se faire soit à l'aide d'un dispositif de pointage, comme la souris, en cliquant sur une case du tableau, soit en 25 utilisant plusieurs touches situées sur le clavier, comme par exemple les touches de fonction F1 à F12 si le tableau est constitué de 12 cases ou colonnes. Une variante simplifiée de la méthode précédente consiste à remplacer la liste dynamique par une pile dynamique où le nom du dernier 30 personnage sélectionné est toujours placé sur le dessus de la pile. Un nom placé sur le dessus de la pile est toujours préalablement retiré de la pile, de sorte qu'il y ait au maximum une seule occurrence de chaque nom dans la pile. Dans cette variante, le tableau présente les noms des personnages en les classant selon leur ordre chronologique de sélection. 35 Un autre avantage de l'invention est que chaque piste de texte, autrement dit la piste 52 destinée au texte en version originale et la piste 53
destinée au texte de l'adaptation, sont chacune organisée en trois parties. En effet, les deux pistes 52, 53, fonctionnent de manière identique. Elles permettent de saisir du texte, puis de le mettre en forme. Dans la suite, nous ne ferons donc aucune distinction entre ces deux pistes 52, 53, et nous parlerons plus simplement d'une piste de texte 52, 53. Pour des raisons assez évidentes, une seule de ces deux pistes 52, 53, peut être active à la fois pour être éditée. A tout moment, l'utilisateur peut basculer entre ces deux pistes 52, 53, en sélectionnant la piste 52, 53, de son choix au moyen d'un dispositif de pointage comme la souris ou d'une touche dédiée sur le clavier.
La piste 52, 53, inactive apparaît, par exemple, sur un fond gris foncé. Une piste de texte 52, 53, fonctionne comme dans un éditeur de texte classique, à la différence qu'il n'y a qu'une seule ligne et que cette ligne n'est pas limitée à gauche comme à droite. Comme dans un éditeur de texte, l'utilisateur positionne le curseur 58 à l'endroit où il veut saisir du texte, puis il fait une saisie à partir du clavier. A la différence d'un éditeur du texte, où le curseur ne peut être positionné que dans la zone de saisie délimitée par le premier et le dernier caractère du texte, ici le curseur peut être positionné sans contrainte sur toute la piste, même en l'absence de texte. Comme dans un éditeur de texte l'utilisateur a de nombreuses facilités pour manipuler le texte grâce aux outils comme le copier, le couper, le coller, le supprimer, etc. L'invention se distingue d'un éditeur de texte classique par le fait de pouvoir mettre en forme le texte saisi en étirant ou en comprimant des mots. Cette mise en forme est facilitée grâce à des points de contrôle 56.1, 56.2, 56.3, 56.4, illustrés figures 16a-16g, situés sous le texte.
Dans la suite de la description, nous utiliserons le terme « bloc de texte » pour désigner un ensemble de mots solidaires lors d'un étirement ou d'une compression. De même, nous utiliserons le terme « point de contrôle » pour désigner les points situés au début et à la fin du bloc permettant l'étirement ou la compression des mots.
Une piste de texte 52, 53 est découpée verticalement en trois parties (figurel7a), dont une partie supérieure 57.1, permettant la sélection d'un ou plusieurs blocs de texte 57, une partie centrale 57.2, permettant d'éditer le texte et une partie inférieure 57.3, permettant de mettre en forme le texte grâce aux points de contrôle 56.1, 56.2, 56.3, 56.4. La partie inférieure 57.3 permet de traiter la mise en forme du texte pour respecter le synchronisme avec les mouvements de bouche (signes de détection).
Pour sélectionner un bloc de texte 57, l'utilisateur clique à l'aide du dispositif de pointage dans la zone 57.1, située au-dessus de ce bloc. Le bloc ainsi sélectionné apparaît par exemple en bleu ciel. Pour sélectionner plusieurs blocs de texte, l'utilisateur peut par exemple utiliser la touche « Ctrl » du clavier pour ajouter à la sélection chaque bloc de texte en cliquant au-dessus dans la zone 57.1. Pour sélectionner plusieurs blocs contigus, l'utilisateur peut cliquer à gauche du premier bloc, puis faire glisser le dispositif de pointage jusqu'au dernier bloc. Les blocs ainsi sélectionnés apparaissent par exemple sur un fond bleu ciel.
Les blocs de texte sélectionnés peuvent ensuite être manipulés à l'aide d'outils tels que le couper, le copier, le coller, le supprimer, etc. Pour saisir du texte, l'utilisateur sélectionne, avec le dispositif de pointage, un emplacement dans la partie centrale de la piste de texte 52, 53. Le curseur 58 apparaît (figure 17b). L'utilisateur peut alors saisir son texte (figure 17c). Lorsque l'utilisateur commence à saisir son texte à l'intérieur d'un bloc de texte 57, le rectangle 59 (figure 17d) associé au bloc de texte apparaît, par exemple, sur un fond coloré pour symboliser le fait que ce bloc de texte 57 est en cours d'édition. Si l'utilisateur saisit directement du texte sans avoir placé le curseur, celui-ci est automatiquement positionné sur la barre de synchronisation 55. Lorsque l'utilisateur saisit du texte sur un emplacement vide, l'ensemble du texte forme un unique bloc 57 délimité par deux points de contrôle 56.1, 56.2. Le point de contrôle 56.1 de début est, par exemple, en gris foncé pour symboliser le fait qu'il est figé, tandis que le point de contrôle 56.2 de fin apparaît, par exemple, en vert pour symboliser le fait que la position de fin est libre ou non-figée. Pour sélectionner du texte, l'utilisateur place, par exemple, le pointeur de la souris à gauche du premier caractère à sélectionner. Il appuie sur le bouton gauche de la souris, puis sans relâcher le bouton, déplace le pointeur de la souris pour le positionner à droite du dernier caractère à sélectionner. Enfin, il relâche le bouton gauche de la souris. Lors du déplacement de la souris, un rectangle bleu, par exemple, symbolise le début et la fin de la sélection. Une fois l'opération terminée, les caractères réellement sélectionnés apparaissent en bleu ciel, par exemple. Un caractère est considéré comme sélectionné uniquement lorsqu'il est inclus dans le rectangle bleu de sélection.
Pour créer un point de contrôle 56.1, 56.2, à l'intérieur d'un bloc existant (figure 17e), l'utilisateur doit appuyer sur une touche dédiée du clavier comme, par exemple, la touche « Ctrl ». Puis, déplacer le pointeur de la souris sous le caractère où il souhaite poser le point de contrôle, dans la zone inférieure réservée aux points de contrôle 56.1, 56.2. Enfin, il relâche le bouton gauche de la souris. Lorsque l'utilisateur déplace le pointeur de la souris dans la zone réservée aux points de contrôle 56.1, 56.2, tout en appuyant sur la touche « Ctrl », un curseur gris apparaît sur le texte pour aider l'utilisateur dans son positionnement.
Pour sélectionner un seul point de contrôle 56.1, 56.2, l'utilisateur clique simplement dessus avec le bouton gauche de la souris. Celui-ci apparaît, par exemple, en bleu ciel avec un cercle concentrique. Pour sélectionner plusieurs points de contrôle 56.1, 56.2 (figure 17f), l'utilisateur place le pointeur de la souris à gauche du premier point à sélectionner. Il appuie ensuite sur le bouton gauche de la souris, puis sans relâcher le bouton, déplace le pointeur de la souris pour le positionner à droite du dernier point à sélectionner. Enfin, il relâche le bouton. Pour déplacer un seul point de contrôle 56.1, 56.2, l'utilisateur place le pointeur de la souris dessus, puis clique sur le bouton gauche de la souris.
Enfin, sans relâcher le bouton, déplace le pointeur de la souris sur la nouvelle position. Pour déplacer plusieurs points de contrôle 56.1, 56.2, 56.3, 56.4 (figure 17g), l'utilisateur commence par sélectionner les points de contrôle 56.1, 56.2, 56.3, 56.4, puis, place le pointeur de la souris sur l'un des points sélectionnés. Ensuite, il clique sur le bouton gauche de la souris. Enfin, sans relâcher le bouton, il déplace le pointeur de la souris sur la nouvelle position. Tous les points de contrôle sélectionnés se déplacent en même temps. Un autre avantage de l'invention est de fournir un procédé permettant de placer automatiquement le texte de la version originale sous les signes de détection lorsque le détecteur a déjà placé tous les signes d'une phrase. Ce procédé part du principe que certains signes peuvent être mis en correspondance directement avec certaines lettres. C'est notamment le cas pour les signes associés aux labiales et aux demi-labiales qui peuvent être mis en correspondance, respectivement, avec les lettres m, b, p et avec les lettres f, v. Ce procédé peut être utilisé initialement pour proposer au détecteur un premier placement du texte dans les étapes 33 et 34 qui seront
décrites par la suite, et apporter ainsi un gain de temps. Si nécessaire, le détecteur place ensuite « manuellement » le texte restant pour les signes qui n'ont pas été mis en correspondance avec des lettres du texte. Tout d'abord, on suppose que le détecteur de la catégorie Cl a placé tous les signes de détection sur la piste 51. Ensuite, on suppose qu'un texte a été sélectionné par le détecteur, si celui-ci utilise la méthode de l'étape 33, ou bien qu'un texte a été repéré par l'unité de commande 1 dans le script de la version originale, si le détecteur utilise la méthode de l'étape 34. Pour chaque signe de détection 51.1, l'unité de commande 1 détermine si le signe est une labiale ou une demi-labiale. Si le signe est une labiale, l'unité de commande 1 détermine la position de la première occurrence des lettres m, b ou p dans le texte. Si le signe est une demi-labiale, l'unité de commande 1 détermine la position de la première occurrence des lettres f ou v. Si cette occurrence existe, l'unité de commande 1 replace le texte, à partir de la position de cette occurrence, de manière à placer celle-ci au même niveau que le signe. L'algorithme illustré figure 14 propre à ce procédé est le suivant : On suppose, préalablement à l'algorithme, que le détecteur a placé tous les signes de la phrase notés S1 à SN, avec S1 marquant le début de la phrase et SN marquant la fin de la phrase. On suppose également que le détecteur a créé sur la piste du texte en version originale un bloc de texte B1, débutant au début du signe S1, se terminant à la fin du signe SN et contenant le texte Ti. - A une étape 32, l'unité de commande 1 détermine si le placement 25 automatique du texte est activé. Soit m l'index associé aux blocs de texte avec initialement m = 2. - Lorsque ces conditions sont réunies, à une étape 32.1, et pour chaque signe Sn, avec n variant de 2 à N, l'unité de commande 1 détermine si Sn est une labiale ou une demi-labiale. 30 - A une étape 32.2, l'unité de commande 1 détermine la première occurrence dans Tm-1, située après la première lettre de Tm-1, et appartenant au groupe de lettres {m, b, p} si Sn est une labiale ou appartenant au groupe de lettres {f, v} si Sn est une demi-labiale. - A une étape 32.3, l'unité de commande 1 détermine la position de 35 cette occurrence. Soit Pm sa position. - A une étape 32.4, l'unité de commande 1 crée un bloc Bm débutant sur le début du signe Sn et se terminant sur la fin du signe SN et contenant le texte Tm allant de la position Pm jusqu'à la fin du texte Tm-1. - A une étape 32.5, l'unité de commande 1 modifie le bloc Bm-1 en le 5 faisant terminer sur le début du signe Sn et en supprimant du texte Tm-1 le contenu du texte Tm. - A une étape 32.6, la variable m est incrémentée. Un autre avantage de l'invention est de fournir deux méthodes de placement assisté du texte en version originale sur la piste 52 s'adaptant aux 10 différentes façons de travailler des détecteurs que l'on peut répartir en trois catégories. En effet, une première catégorie Cl de détecteurs préfère placer d'abord tous les signes d'une phrase, puis écrire le texte associé à chaque signe. Une deuxième catégorie C2 de détecteurs préfère d'abord mettre en place le texte d'une phrase avant de placer les signes. Une troisième 15 catégorie C3 de détecteurs préfère, après avoir placé un signe, écrire immédiatement le texte correspondant pour ne pas avoir à revenir en arrière. L'invention propose ainsi une première méthode convenant aux détecteurs préférant utiliser un dispositif de pointage comme une souris ou un stylet pour placer le texte de la version originale sur la piste 52, et 20 accélérer sa mise en place. Cette méthode est d'abord décrite à travers la façon de travailler de la catégorie Cl de détecteurs. Nous verrons par la suite une variante pouvant convenir aux catégories C2 et C3 de détecteurs. Tout d'abord, le détecteur de catégorie Cl place tous les signes de détection de la phrase sur la piste 51. Ensuite, il sélectionne le texte se trouvant dans 25 la fenêtre 46 affichant le script en version originale. Cette sélection du texte se trouvant dans la fenêtre 46 place automatiquement le texte entre le signe de début et le signe de fin de phrase sur la piste 52 du texte en version originale. Pour chaque signe 51.1 de détection, l'unité de commande 1 place la barre de synchronisation 55 au début du signe. A chaque fois, le détecteur 30 sélectionne le caractère à placer au niveau de la barre de synchronisation en cliquant sur ce caractère avec par exemple le bouton gauche de la souris. A chaque clic, l'unité de commande 1 déplace la barre de synchronisation sur le début du signe suivant. Ceci, jusqu'à la fin de la phrase. Si le détecteur ne veut pas associer de caractère au signe courant, il lui suffit de cliquer par 35 exemple sur le bouton droit de la souris pour passer directement au signe suivant. L'algorithme (figure 15) propre à cette première méthode est le suivant : On suppose, préalablement à l'algorithme que le détecteur a placé tous les signes de la phrase notés S1 à SN, avec S1 marquant le début de la 5 phrase et SN marquant la fin de la phrase. Soit Ti, le texte sélectionné par le détecteur sur le script en version originale. - A une étape 33, l'unité de commande 1 détermine si le détecteur a créé sur la piste du texte en version originale un bloc de texte B1, débutant 10 au début du signe S1, se terminant à la fin du signe SN et contenant le texte Ti. - Lorsque ces conditions sont réunies, à une étape 33.1, et pour chaque signe Sn, avec n variant de 2 à N-1, l'unité de commande 1 place la barre de synchronisation sur le début du signe Sn. 15 - A une étape 33.2, l'unité de commande 1 détermine si le détecteur sélectionne dans le texte Tn-1 une lettre en cliquant dessus avec la souris. - A une étape 33.3, l'unité de commande 1 détermine la lettre qui a été sélectionnée. Soit L la lettre sélectionnée dans le texte Tn-1 du bloc Bn-1. - A une étape 33.4, l'unité de commande 1 crée sur la piste du texte en 20 version originale un bloc de texte Bn débutant sur la barre de synchronisation, se terminant à la fin du bloc Bn-1 et contenant le texte Tn, allant de la lettre L jusqu'à la fin du texte Tn-1. - A une étape 33.5, l'unité de commande 1 modifie le bloc Bn-1 en le faisant terminer sur la barre de synchronisation et en supprimant du texte Tn-25 1 le contenu du texte Tn. En variante à cet algorithme, dans le cas où il n'y a pas de signes sur la piste 51, le bloc B1 est placé sur la piste 52 en le faisant débuter sur la barre de synchronisation et en le faisant terminer à l'emplacement déterminé par la largeur totale du texte. 30 Ensuite, le détecteur déplace la barre de synchronisation 55, puis à chaque fois que le détecteur clique sur une lettre, l'unité de commande 1 exécute les étapes 33.2 à 33.5. Par rapport à l'algorithme précédent, la différence se situe au niveau du déplacement de la barre de synchronisation 55 qui s'effectue 35 manuellement au lieu de se faire automatiquement par rapport aux signes comme à l'étape 33.1. Cette variante convient à la catégorie C2 de
détecteurs. Elle convient également pour effectuer une détection en post-synchronisation sonore. En effet, dans ce type de détection, les signes sont inexistants puisqu'il n'y a pas de phase d'adaptation, mais uniquement une phase de placement du texte de la version originale. Cette variante peut également convenir à la catégorie C3 de détecteurs puisque le détecteur peut placer un signe avant ou après avoir cliquer sur la lettre L. Le début du signe est placé sur la fin du bloc précédent, tandis que la fin du signe est placée sur la barre de synchronisation 55. L'invention propose une deuxième méthode convenant aux détecteurs préférant utiliser le clavier pour placer le texte de la version originale sur la piste 52, et accélérer sa mise en place. Cette méthode est d'abord décrite à travers la façon de travailler de la catégorie C3 de détecteurs. Nous verrons par la suite une variante pouvant convenir aux catégories Cl et C2 de détecteurs. Tout d'abord, pour chaque signe 51.1 placé, le détecteur saisit, en même temps sur le clavier, une ou plusieurs lettres du texte associé au signe. Au moment où le détecteur saisit des lettres sous un signe, l'unité de commande 1 fait deux traitements simultanés à partir du texte du script en version originale se trouvant dans la fenêtre 46 : D'une part, l'unité de commande 1 complète, par exemple avec une couleur différente, le texte manquant en décidant de l'endroit où se situent les lettres saisies par le détecteur, dans le script en version originale. L'unité de commande 1, ne connaissant pas la limite de fin du texte à placer, elle indique simplement quelques mots qui permettent au détecteur d'apprécier si l'unité de commande 1 a bien repéré le bon début. Si l'unité de commande 1 n'a pas repéré le bon début, le détecteur ajoute une lettre, et ainsi de suite. La limite de fin sera décidée lors de la pose de lettres au prochain signe placé. D'autre part, l'unité de commande 1 détermine où se situe la fin du texte associé au signe précédent, grâce aux lettres saisies sur le signe courant. Si l'unité de commande 1 se trompe, le détecteur saisit plus de lettres. En plus d'apporter un gain de temps pour les détecteurs, l'invention évite aux détecteurs de sélectionner le texte avec la souris dans la fenêtre 46 du script en version originale.
L'algorithme illustré figure 16 propre à cette deuxième méthode est le suivant : On suppose, préalablement à l'algorithme que le détecteur a placé un signe Sn et qu'à une étape 34.1 la barre de synchronisation 55 est positionnée sur la fin du signe Sn. Soit T, le texte du script en version originale et soit Pn-1, la position 5 définie dans le texte T avant la pose du signe Sn. - L'unité de commande 1 détermine, à une étape 34.2, si le détecteur a saisi une lettre. - Si le détecteur a saisi une lettre, soit L cette lettre et à une étape 34.3, si le bloc Bn n'existe pas, l'unité de commande 1 crée sur la piste 52 un 10 bloc de texte Bn débutant sur la position de fin du bloc Bn-1 et terminant sur la barre de synchronisation et contenant initialement un texte vide Tn composé du texte saisi TSn et du texte estimé TEn. - A une étape 34.4, l'unité de commande 1 ajoute la lettre L au texte TSn. 15 - A une étape 34.5, l'unité de commande 1 cherche la première occurrence de TSn dans T à partir de la position Pn-1. Soit Pn la position située sur la première lettre suivant immédiatement cette occurrence. - A une étape 34.6, l'unité de commande 1, remplace TEn par le texte débutant à la position Pn et se terminant à la position Pn+k, où k est un 20 paramètre dépendant de la longueur du bloc Bn. - A une étape 34.7, l'unité de commande 1, remplace Tn par le texte obtenu en concaténant TEn à TSn. - A une étape 34.8, l'unité de commande 1 affiche le bloc Bn avec son texte Tn, en différenciant la partie TSn et la partie TEn grâce à l'utilisation 25 d'une couleur différente, par exemple. - A une étape 34.9, l'unité de commande 1 remplace TEn-1 par le texte débutant à la position Pn-1 et terminant à la position Pn en retirant la longueur du texte TSn. - A une étape 34.10, l'unité de commande remplace Tn-1 par le texte 30 obtenu en concaténant TEn-1 à TSn-1. - A une étape 34.11, l'unité de commande 1 affiche le bloc Bn-1 avec son texte Tn-1 en différenciant la partie TSn-1 et la partie TEn-1, grâce à l'utilisation d'une couleur différente, par exemple. Cet algorithme est réitéré après la pose de chaque signe. 35 En variante à cet algorithme, on suppose dans un deuxième mode de réalisation que le détecteur a placé préalablement à l'algorithme tous les
signes de la phrase notés S1 à SN, avec S1 marquant le début de la phrase et SN marquant la fin de la phrase. Soit T, le texte du script en version originale et soit P1, la position définie dans le texte T avant la pose des signes de la phrase courante. Pour chaque signe Sn, avec n variant de 1 à N, l'unité de commande 1 place la barre de synchronisation 55 sur la fin du signe Sn. Ensuite, l'unité de commande 1 exécute l'algorithme en itérant les étapes 34.1 à 34.10 tant que le détecteur n'a pas validé l'acceptation du texte Tn. Ce deuxième mode de réalisation convient à la catégorie Cl de détecteurs.
Dans un troisième mode de réalisation, on suppose préalablement à l'algorithme qu'il n'y a pas de signes sur la piste 51 et que le détecteur déplace la barre de synchronisation 55 « manuellement ». Dès que le détecteur saisit une lettre L, l'unité de commande 1 exécute l'algorithme en itérant les étapes 34.2 à 34.10 tant que le détecteur saisit une lettre et qu'il ne déplace pas la barre de synchronisation 55. Ce troisième mode de réalisation convient à la catégorie C2 de détecteurs. Il convient également pour effectuer une détection en post-synchronisation sonore.

Claims (1)

  1. REVENDICATIONS1 ù Procédé de traitement automatique de données numériques destinées à doubler ou à post-synchroniser une vidéo via une unité de 5 commande (1), comportant les étapes suivantes : - affichage d'une vidéo dans une première fenêtre (44), - affichage d'une liste comportant l'ensemble des personnages de la vidéo dans une fenêtre (45), - affichage d'un script textuel de tous les personnages de la 10 vidéo en version originale dans une fenêtre (46), - affichage d'une time-line dans une fenêtre (47), caractérisé en ce que, - la time-line comporte deux zones (48, 49) distinctes, une zone de rendu (48) et une zone d'édition (49), l'affichage de ces deux zones étant 15 réalisé simultanément. 2 ù Procédé selon la revendication 1, caractérisé en ce que l'affichage de la zone de rendu (48), comporte les étapes suivantes : - affichage de données numériques concernant des boucles ou des changements de plan, 20 - affichage de données numériques concernant des signes de détection propre à un personnage particulier, - affichage du nom du personnage, - affichage du texte en version originale du personnage, - affichage du texte d'adaptation du personnage, 25 - réitération de chacune des étapes permettant l'affichage de la zone de rendu pour chaque personnage de la liste. 3 ù Procédé selon la revendication 1 ou 2, caractérisé en ce que lorsqu'un personnage est sélectionné dans la liste, l'affichage de la zone d'édition (49) comporte les étapes suivantes : 30 - affichage des signes de détection et du nom du personnage sélectionné sur une piste (51), - affichage des blocs de texte en version originale associés au personnage sélectionné sur une piste (52), - affichage des blocs de texte d'adaptation associés au 35 personnage sélectionné sur une piste (53), - affichage des boucles ou des changements de plan sur une piste (54). 4 ù Procédé selon l'une des revendications 1 à 3, caractérisé en ce que lorsque la zone de rendu est sélectionnée via un dispositif de pointage 5 tel qu'une souris, - détermination du point P(x, y) pointé par le dispositif de pointage sur la zone de rendu (48), - vérification que le point P(x, y) est inclus dans un rectangle (59) englobant associé aux signes de détection, ou au nom d'un personnage, ou 10 aux blocs de texte en version originale, ou aux blocs de texte d'adaptation, - lorsque le point P(x, y) est inclus dans un tel rectangle (59), le personnage associé à ce rectangle est déterminé puis sélectionné afin d'être édité dans la zone d'édition. ù Procédé selon l'une des revendications 1 à 4, caractérisé en ce 15 que lorsque la touche « Entrée » est sélectionnée, les étapes suivantes sont effectuées: - test d'intersections avec la barre de synchronisation (55), - détermination que le test d'intersection avec la barre de synchronisation (55) n'est pas nul, 20 - sélection du personnage associé à l'élément se trouvant en intersection avec la barre de synchronisation (55), - détermination si l'élément se trouvant en intersection avec la barre de synchronisation est un bloc de texte (57), - édition du bloc de texte (57) et placement d'un curseur (58) à 25 l'intérieur dudit bloc (57). 6 ù Procédé selon l'une des revendications 1 à 5, caractérisé en ce que les pistes (52, 53) comportent chacune trois parties, dont une partie supérieure (57.1) permettant la sélection d'un ou plusieurs blocs de texte (57), une partie centrale (57.2) permettant l'édition de texte sur une ligne 30 illimitée à gauche comme à droite avec un positionnement libre du curseur, une partie inférieure (57.3) permettant de traiter la mise en forme du texte pour respecter le synchronisme avec les signes de détection. 7 ù Procédé selon l'une des revendications 1 à 6, caractérisé en ce que le placement automatique du texte en version originale dans des blocs 35 de texte associés à des signes comporte les étapes suivantes : - détermination du type de signe de Sn, - détermination de la première occurrence dans le texte Tm-1, située après la première lettre de Tm-1, et appartenant au groupe de lettres m, b, p, si Sn est une labiale ou appartenant au groupe de lettres f, v, si Sn est une demi-labiale, - détermination de la position Pm de cette occurrence, - création d'un bloc Bm sur la piste (52), débutant sur le début du signe Sn et se terminant sur la fin du signe SN et contenant le texte Tm allant de la position Pm jusqu'à la fin du texte Tm-1, - modification du bloc Bm-1 en le faisant terminer sur le début du signe Sn et en supprimant du texte Tm-1 le contenu du texte Tm. 8 ù Procédé selon l'une des revendications 1 à 7, caractérisé en ce que le placement rapide du texte en version originale dans des blocs de texte comporte les étapes suivantes : - détermination d'une création, sur la piste (52), d'un bloc de 15 texte B1, débutant au début d'un signe S1, se terminant à la fin d'un signe SN et contenant un texte Ti, - placement automatique de la barre de synchronisation (55) sur le début d'un signe Sn, - détermination d'une sélection d'une lettre dans le texte Tn-1, 20 - détermination de la lettre sélectionnée, - création d'un bloc de texte Bn, sur la piste (52), débutant sur la barre de synchronisation, se terminant à la fin du bloc Bn-1 et contenant le texte Tn, allant de la lettre sélectionnée jusqu'à la fin du texte Tn-1, - modification du bloc Bn-1 en le faisant terminer sur la barre de 25 synchronisation et en supprimant du texte Tn-1 le contenu du texte Tn. 9 ù Procédé selon l'une des revendications 1 à 7, caractérisé en ce que le placement rapide du texte en version originale dans des blocs de texte comporte les étapes suivantes : - placement de la barre de synchronisation (55) sur la fin d'un 30 signe Sn, - détermination de la saisie d'une lettre, - création sur la piste (52) d'un bloc de texte Bn, débutant sur la position de fin du bloc Bn-1 et terminant sur la barre de synchronisation, ledit bloc Bn contenant initialement un texte vide Tn composé du texte saisi TSn 35 et du texte estimé TEn, - ajout de la lettre saisie au texte TSn,- recherche d'une première occurrence de TSn dans le script en version originale à partir d'une position Pn-1, - remplacement de TEn par le texte débutant à une position Pn et se terminant à une position Pn+k, s - remplacement de Tn par le texte obtenu en concaténant TEn à TSn, - affichage du bloc Bn avec son texte Tn, en différenciant la partie TSn et la partie TEn, - remplacement de TEn-1 par le texte débutant à la position Pn-1 Zo et se terminant à la position Pn en retirant la longueur du texte TSn, - remplacement de Tn-1 par le texte obtenu en concaténant TEn- 1 à TSn-1, - affichage du bloc Bn-1 avec son texte Tn-1, en différenciant la partie TSn-1 et la partie TEn-1. 15 10 û Unité de commande (1) comportant une mémoire programme (2) et une mémoire de données (3) connectées à un microprocesseur (4) via un bus de communication (5), ladite unité de commande (1) étant connectée à différents organes par l'intermédiaire d'un autre bus de communication (6), le bus de communication (6) étant connecté au bus de communication (5) via 20 une interface d'entrée/sortie (7), caractérisée en ce qu'elle met en oeuvre le procédé selon l'une quelconque des revendications 1 à 9.
FR1050307A 2010-01-11 2010-01-18 Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos Active FR2955184B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1050307A FR2955184B1 (fr) 2010-01-11 2010-01-18 Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1050152A FR2955183B3 (fr) 2010-01-11 2010-01-11 Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos
FR1050307A FR2955184B1 (fr) 2010-01-11 2010-01-18 Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos

Publications (2)

Publication Number Publication Date
FR2955184A1 true FR2955184A1 (fr) 2011-07-15
FR2955184B1 FR2955184B1 (fr) 2013-01-18

Family

ID=43016871

Family Applications (2)

Application Number Title Priority Date Filing Date
FR1050152A Expired - Lifetime FR2955183B3 (fr) 2010-01-11 2010-01-11 Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos
FR1050307A Active FR2955184B1 (fr) 2010-01-11 2010-01-18 Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos

Family Applications Before (1)

Application Number Title Priority Date Filing Date
FR1050152A Expired - Lifetime FR2955183B3 (fr) 2010-01-11 2010-01-11 Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos

Country Status (1)

Country Link
FR (2) FR2955183B3 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514351B (zh) * 2012-06-28 2017-05-10 三星电子(中国)研发中心 一种多媒体文件的编辑方法、装置和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2765354A1 (fr) * 1997-06-25 1998-12-31 Gregoire Parcollet Systeme de synchronisation du doublage de films
WO2003023765A1 (fr) * 2001-09-12 2003-03-20 Ryshco Media Inc. Procede et dispositif pour traiter des donnees audiovisuelles a l'aide d'une reconnaissance vocale
DE102007039603A1 (de) * 2007-08-22 2009-02-26 Siemens Ag Verfahren zum Synchronisieren von medialen Datenströmen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2765354A1 (fr) * 1997-06-25 1998-12-31 Gregoire Parcollet Systeme de synchronisation du doublage de films
WO2003023765A1 (fr) * 2001-09-12 2003-03-20 Ryshco Media Inc. Procede et dispositif pour traiter des donnees audiovisuelles a l'aide d'une reconnaissance vocale
DE102007039603A1 (de) * 2007-08-22 2009-02-26 Siemens Ag Verfahren zum Synchronisieren von medialen Datenströmen

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CTM DEBRIE: "Off-line dubbing system cinestyle", 20061017, 17 October 2006 (2006-10-17), pages 79 - 80, XP007915646, Retrieved from the Internet <URL:http://www.ctmdebrie.com/pdf/Dubbing/p79&80-DubbingSystem_Cinestyle.pdf> [retrieved on 20101104] *
DUB SYNCHRO INC: "dubStudio Adaption Module", INTERNET CITATION, 10 November 2010 (2010-11-10), pages 1 - 3, XP007915709, Retrieved from the Internet <URL:http://www.dubsynchro.com/en/product/dubadaptation> [retrieved on 20101110] *
DUB SYNCHRO INC: "dubStudio Introduction", INTERNET CITATION, 10 November 2010 (2010-11-10), pages 1 - 10, XP007915710, Retrieved from the Internet <URL:http://www.dubsynchro.com/en/product/dubstudiointro> [retrieved on 20101110] *
KINHELIOS: "Synchronos", INTERNET CITATION, 10 November 2010 (2010-11-10), pages 1, XP007915705, Retrieved from the Internet <URL:http://www.synchronos.fr/img/s_interface_v5_1680x1050.jpg> [retrieved on 20101110] *
NOBLURWAY: "Commercialisation du logiciel Noblurway Mosaic", 20100101, 1 January 2010 (2010-01-01), pages 1 - 18, XP007915651, Retrieved from the Internet <URL:http://www.noblurway.com/fr/societe/actualites> [retrieved on 20101105] *

Also Published As

Publication number Publication date
FR2955183B3 (fr) 2012-01-13
FR2955184B1 (fr) 2013-01-18
FR2955183A3 (fr) 2011-07-15

Similar Documents

Publication Publication Date Title
US9031493B2 (en) Custom narration of electronic books
WO2020163185A1 (fr) Système d&#39;interprétation de langage visuel et interface utilisateur
JP4250301B2 (ja) 映像シーケンスを編集する方法及びシステム
US10423716B2 (en) Creating multimedia content for animation drawings by synchronizing animation drawings to audio and textual data
US20060075347A1 (en) Computerized notetaking system and method
WO2009000871A2 (fr) Procede de creation d&#39;une suite sonore de photographies, et appareil pour la creation et la reproduction d&#39;une telle suite sonore
Team Adobe Premiere Pro CS3 Classroom in a Book: Adobe Prem Pro CS3 Classroo_1
FR2955184A1 (fr) Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos
WO2012062485A1 (fr) Dispositif et procédé pour l&#39;enregistrement et la restitution d&#39;histoires lues
WO2010072747A2 (fr) Procede, dispositif et systeme pour l&#39;edition de medias enrichis
WO2011045116A1 (fr) Procede pour rajouter un contenu vocal a un contenu video et dispositif mettant en oeuvre le procede
FR2765354A1 (fr) Systeme de synchronisation du doublage de films
WO1998013819A1 (fr) Procede pour adjoindre a un signal sonore code de l&#39;information complementaire, notamment textuelle, destinee a etre visualisee
BE1019349A5 (fr) Procede et dispositif pour stocker et/ou reproduire du son et des images.
AU2002301447B2 (en) Interactive Animation of Sprites in a Video Production
Costello Non-Linear Editing
Wood Sony Vegas Pro 11 Beginner's Guide
Mollison Editing Basics
Watson Final Cut Pro 6 for Digital Video Editors Only
AU2521400A (en) Automated visual image editing system
FR2764088A1 (fr) Systeme de detection et de marquage de reperes sonores de synchronisation entre une bande son et un film
Adobe Systems Adobe Premiere Pro CS3
Droblas et al. ADOBE PREMIERE PRO CS3 BIBLE (With CD)
FR2891081A1 (fr) Procede et dispositif d&#39;elaboration d&#39;un dvd-video; programme, support d&#39;enregistrement et module d&#39;instanciation pour ce procede
Torta et al. Camtasia Studio and Beyond: The Complete Guide

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15