FR2547146A1 - Procede et dispositif pour l'audition de messages parles synthetises et pour la visualisation de messages graphiques correspondants - Google Patents
Procede et dispositif pour l'audition de messages parles synthetises et pour la visualisation de messages graphiques correspondants Download PDFInfo
- Publication number
- FR2547146A1 FR2547146A1 FR8309194A FR8309194A FR2547146A1 FR 2547146 A1 FR2547146 A1 FR 2547146A1 FR 8309194 A FR8309194 A FR 8309194A FR 8309194 A FR8309194 A FR 8309194A FR 2547146 A1 FR2547146 A1 FR 2547146A1
- Authority
- FR
- France
- Prior art keywords
- codes
- message
- spoken
- language
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
- H04N7/087—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
- H04N7/088—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
- H04N7/0882—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of character code signals, e.g. for teletext
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Systems (AREA)
- Digital Computer Display Output (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Abstract
DISPOSITIF POUR LA COORDINATION DE L'AUDITION DE MESSAGES PARLES AVEC LA VISUALISATION DE MESSAGES COMPOSES DE PAGES SUR UN DISPOSITIF D'AFFICHAGE, CARACTERISE EN CE QU'IL COMPORTE DES MOYENS DE MEMORISATION DE CODES CORRESPONDANT AU TEXTE ECRIT A VISUALISER, DES MOYENS 6 DE MEMORISATION DE CODES CORRESPONDANT AU MESSAGE PARLE A REPRODUIRE, DES MOYENS 7 D'ASSOCIATION DU TEXTE ET DE LA PAROLE CORRESPONDANT AUX CODES STOCKES DANS LESDITS MOYENS DE MEMORISATION 6, DES MOYENS 42A A 42C DE MEMORISATION DES ELEMENTS D'INTONATION DI, PI DES SEGMENTS SONORES FORMANT LE MESSAGE RECU, DES MOYENS 46A A 46C DE MEMORISATION DES ELEMENTS CONSTITUTIFS DU LANGAGE DANS LEQUEL LE MESSAGE EST RECU, DES MOYENS 48 DE COMBINAISON DESDITS ELEMENTS D'INTONATION AVEC LESDITS ELEMENTS CONSTITUTIFS ET DES MOYENS 47 DE SYNTHESE DU MESSAGE A REPRODUIRE SOUS LA COMMANDE DESDITS MOYENS DE COMBINAISON.
Description
La présente invention est relative à la
combinaison de signaux sonores avec des images apparaissant sur des dispositifs d'affichage et se rappor Le plus particulièrement a l'audition de messages 5 parlés correspondant à des messages composés de pages visualisés sur l'écran d'un tube à rayons cathodiques.
Des procédés et des dispositifs de visualisation de messages sur un dispositif d'affichage à trame balayée tel qu'un écran de tube à rayons 10 cathodiques sont décrits aux demandes de brevets n 00 26 392 80 26 393, 80 26 394, 80 26 395 appartenant
à la Demanderesse.
Les demandes de brevets précitées décrivent une technique permettant l'édition, la transmission, 15 la réception et la visualisation de messages contenant des informations typographiques pouvant être mélangées
à des données graphiques.
Ces techniques sont applicables tout particulièrrement à un système de télétexte tel que le sys20 tème Antiope.
L'invention vise à créer un système de télétexte parlant" qui permette d'adjoindre aux données typographiques et/ou graphiques visibles sur l'écran d'un tube cathodique, des données sonores correspon25 dantes, telles que par exemple des commentaires sur un texte écrit, sur une représentation graphique, ou autre. L'invention a donc pour objet un procédé pour la coordination de l'audition de messages parlés 30 avec la visualisation de messages composés de pages
sur un dispositif d'affichage, caractérisé en ce qu'il consiste à recevoir des signaux d'image et des signaux de parole codés au moyen de codes similaires, les codes correspondant à un texte écrit étant reconnaissa-
2547 1 46
bles par une première série de numéros de rangées de la page affectés à ces codes de texte écrit, tandis que les codes correspondant au message parlé sont reconnaissables par au moins une seconde série de numé5 ros de rangées de la page, affectés à ces codes de message parlé, à procéder à la discrimination des codes de texte écrit et des codes de message parlé, à stocker les codes de texte écrit dans un premier ensemble de mémoires, à stocker les codes de message 10 parlé dans un second ensemble de mémoires, à provoquer l'association des codes de texte écrit avec les codes du message parlé correspondant au moyen d'une table d'association, a reconstituer le message parlé à partir des codes contenus dans le second ensemble de mé15 moires en provoquant son émission audible suivant une
séquence prédéterminée avec l'affichage du texte écrit correspondant sur un écran de tube à rayons cathodiques.
L'invention a également pour objet un dispo20 sitif pour la coordination de l'audition de messages parlés avec la visualisation de messages composés de pages sur un dispositif d'affichage, caractérisé en ce qu'il comporte des moyens de mémorisation de codes correspondant au texte écrit à visualiser, des moyens 25 de mémorisation de codes correspondant au message parlé à reproduire, des moyens d'association du texte et de la parole correspondant aux codes stockés dans lesdits moyens de mémorisation, des moyens de mémorisation des éléments d'intonation des segments sonores 30 formant le message reçu, des moyens de mémorisation des éléments constitutifs du language dans lequel le message est reçu, des moyens de combinaison desdits éléments d'intonation avec lesdits éléments constitutifs et des moyens de synthèse du message à reproduire
sous la commande desdits moyens de combinaison.
L'invention sera mieux comprise à l'aide de
la description qui va suivre, d'un exemple de réalisation donnée uniquement à titre d'exemple e L faite en
se référant aux dessins annexés, sur lesquels: les Fig 'l A et 1 B représentent le schéma général d'un poste récepteur destiné à la visualisation de pages de télétexte conformément au système de télétexte " Antiope " et à l'audition de données sono10 res associées aux pages de télétexte; la Fig 2 est un schéma montrant l'organisation d'une page de texte à reproduire sous forme
écrite et parlée au moyen du récepteur de la Fig 1.
Avant d'entreprendre la description de l'in15 vention proprement dite, on va donner un aperçu de la
structure du système de vidéotexte Antiope auquel
l'invention va être essentiellement appliquée.
Ce système permet de transmettre des informations numériques sur les lignes de télévision non 20 utilisées.
A la réception, ces éléments binaires sont
regroupés en octets.
Ainsi, le système Antiope permet la transmission de caractères en codes ASCII par l'intermé25 diaire d'ondes herziennes Les données transmises sont structurées sous forme de magazines ou ensembles de pages. Un magazine comprend généralement une page
de garde, une page de sommaire et des pages d'informa30 tions, ces pages étant numérotées de O à 999.
Chaque page comporte un en-tête décrivant ses attributs et un ensemble de vingt cinq rangées
numérotées de O à 24.
Ces vingt cinq rangées de codes correspondent à vingt cinq rangées sur l'écran de télévision qui comportent chacune quarante colonnes
Il existe ainsi mille positions de caractères sur l'écran A chacune de ces positions de l'écran -currespond un mot de seize éléments binaires contenu 5 dans une mémoire de visualisation et décrivant le code du caractère à afficher ainsi que ses attributs (taille, couleur, etc).
Le code ASCII du caractère affiché est utilisé comme une adresse par le processeur de visuali10 sation pour lire dans la mémoire d'alphabet de l'ensemble la description de la forme du caractère.
On notera que cette mémoire d'alphabet peut
être une RAM Dans ce cas, la description des caractères à afficher peut elle-même être transmise par le 15 canal de télévision sous la forme d'une page spéciale
non affichable Une telle technique permet de changer d'alphabet de façon dynamique et ceci à la requête de l'utilisateur.
Cette technique est connue sous le nom "Dy20 namically Redefinable Character Sot ", DRCS.
D'autres systèmes de vidéotexte sont du genre terminal annuaire Ces systèmes utilisent le même système de codage des données que le système
ANTIOPE.
Ils diffèrent de ce système sur deux points principaux qui sont l'interactivité et le support de transmission.
Le système terminal annuaire est interactif.
L'utilisateur peut choisir des pages transmises Il 30 demande à la source émettrice d'envoyer les pages qui l'intéressent. Le support de transmission est une ligne téléphonique standard Un modem est nécessaire pour
émettre des données numériques.
Le poste de réception représenté à la Fig 1 et qui va maintenant être décrit est destiné à obtenir une réponse à la fois écrite et parlée à la requête de l'utilisateur.
A cet effet, il comporte un ensemble de rné5 moires ou mémoire composite 1 constitué de différentes sections affectées aux données de différentes natures.
Il comporte tout d'abord une mémoire tampon
2 destinée à stocker provisoirement des données d'entrée séparées du signal vidéo et du signal audio ap10 pliqué au terminal (flèche 3).
Une telle mémoire tampon est décrite en
détail à la demande de brevet hn 80 26 393 précitée, intitulée " Procdé et dispositif pour permettre l'échange d'informations entre des systèmes de traitement 15 d'informations à vitesses de traitement différentes".
En outre dans l'exemple considéré, l'ensemble de mémoires I comporte plusieurs zones 4 affectées à l'emmagasinage de pages d'informations devant être affichées, ces zones étant appelées mémoires de pages 20 et d'autres zones 5 affectées au stockage de l'information de caractères, appelées générateur de caractèreso Les zones 4 et la mémoire tampon 2 sont des
mémoires vives tandis que les zones 5 peuvent être 25 constituées par des mémoires mortes.
Outre ces mémoires destinées au stockage de données à visualiser, l'ensemble de mémoires comporte suivant l'invention des zônes destinées au stockage de données à reproduire sous forme sonore et notamment 30 parlée I 1 s'agit de zones 3 constituant des mémoires
de pages à prononcer.
Le nombre de zones 6 est égal à celui des
z 6 nes 4 de mémoires de pages d'informations à afficher.
Dans le présent exemple, il y a donc trois
de ces zones.
Aux mémoires 4 de pages afficher et 6 de
pages à prononcer est adjointe une table 7 d'association texte-parole.
La table 7 comporte autant de lignes 8 que
de mémoires de texte 4.
Chaque ligne 8 comporte un registre 9 contenant le numéro de la page correspondante, un registre 10 contenant l'adresse du texte de cette page à visua10 liser, et au moins un registre d'adresse correspondant à une langue dans laquelle les commentaires doivent
être prononcées.
Dans le présent exemple, on prévoit que ces
commentaires pourront être prononces dans trois lan15 gues à savoir, le français, l'anglais et l'allemand.
La table 7 comporte donc pour chaque ligne trois registres d'adresse 10 a, o 10 b, 10 c, pour les
trois langues précitées.
La table d'association 7 est reliée à un 20 registre de début de page 11 qui est un compteur appartenant à une pile de registre 12, celui-ci faisant
partie d'un circuit de commande 13 représenté essentiellement dans un cadre en trait mixte.
Ce circuit de commande assure la gestion du 25 contenu de la mémoire tampon 1 de la manière décrite
dans la demande de brevet n 80 26 393 précitée.
Comme indiqué dans cette demande, des registres de début de mémoire tampon DMT et de fin de mémoire tampon FMT ainsi que d'autres registres pour 30 stocker des adresses relatives à d'autres zônes de l'ensemble de mémoire 1 font également partie de la
pile de registres 12.
La pile de registres 12 est reliée au réseau de bus de données 14 connecté à un registre de données
, lui-même relié par un bus 16 à la mémoire 1, à un circuit séparateur" Didon" 17 du signal multiplexé 3 et à un dispositif 18 de traitement des données typographiques et graphiques destinées à être affichées 5 sur l'écran d'un tube 19, un décodeur 20 étant inséré entre le dispositif 18 et le tube 19.
Le circuit de commande 13 comporte en outre un accumulateur 21 relié à un bus d'adresses 22 communiquant avec un registre d'adresses 23 qui est connec10 té à son tour avec l'entrée d'adresses de l'ensemble
de mémoires 1, par un bus 24.
Un registre d'état 25 qui fait également partie du circuit de commande 13 est relié avec une
unité de traitement centrale 26.
Le dispositif d'affichage de télétexte comporte également une unité arithmétique et logique 27 chargée d'élaborer les adresses devant être envoyées à l'ensemble de mémoires 1 d'une part à partir de la pile de registres 12 et de l'accumulateur 21 par un 20 bus 28 et d'autre part à partir du dispositif 18 par un bus 29 sur lequel circulent les adresses en code ASCII des caractères stockés dans les générateurs de caractères 5 de l'ensemble de mémoires 1 Un circuit à base de temps 30 relié au dispositif séparateur didon 25 17 et aux autres organes du dispositif d'affichage par
des bus 31 assure la synchronisation des opérations.
Un registre de commande 32 assure la gestion
des données circulant dans les bus tandis qu'un dispositif 33 d'accès direct de type transparent assure la 30 gestion-de l'accès à l'ensemble de mémoire 1.
Un tel dispositif d'accès direct est décrit
à la demande de brevet n 77 31 140 déposée le 17 Octobre 1977 par la Demanderesse et intitulée" Dispositif d'accès direct à une mémoire associée à un micro-
processeur Le dispositif 33 d'accès direct est associé
à une logique de contrôle 34.
Le dispositif qui vient d'ê:re dcrit c u'5 porte en outre un clavier 35 qui en plus d'une touche de défilement vertical rangée par rangée en mode typographique, d'une touche 37 de défilement vertical ligne par ligne de la trame de l'image en mode typographique ou graphique et d'une touche 38 de défilement 10 horizontal de l'image, comporte des touches 39 à 41 de choix de la langue dans laquelle on souhaite que le
commentaire accompagnant le texte soit prononcé.
Avant de continuer la description de la
structure du poste récepteur de la Fig l, on va donner 15 ci-après quelques indications sur la technique de codage et de décodage des signaux sonores utilisés.
La technique de restitution des signaux sonores utilisés est fonction de la façon dont ces signaux sont codés à l'émission, Dans le présent exemple, on suppose que la
technique de codage de la parole utilisée ici fait appel à un dictionnaire de segments sonores stockés et à certaines transitions entre classes de segments sonores Ces éléments sont soit simplement concatènes 25 soit liés par des règles très simples.
Chaque langue peut être reproduite à partir
d'un ensemble spécifique de ces sons élémentaires.
Tous les mots d'une langue donnée sont construits à partir de ces sons de base Le choix des seg30 ments sonores et des transitions est effectué à partir
de la transcription phonologique ( sous forme de phonèmes) de la phrase à synthétiser.
Des règles phonétiques qui opérent en fon-
tion du contexte phonétique dans lequel est placé le phonème considéré permettent le choix des sons élémentaires.
Cette phase est appelée htranscrlptior wjhu5 némique-phonétique" Les phonèmes sont eux-mêmes obtenus à partir du texte orthographique grâce à un algorithme de transcription orthographique-phonémique.
Selon le code orthographique-phonémique-phonétique qui est transmis, ces algorithmes de trans1 i O cription sont ou non implantables sur le terminal ANTIOPE.
Chaque segment sonore du dictionnaire ainsi constitué représente un son destiné à être effectivement reproduit par un circuit synthétiseur auquel on 15 envoie périodiquement une structure de données ou éléments. A chaque segment sonore correspond donc une
suite limitée d'éléments La technique de codage de la prosodie consiste à associer à chaque élément deux 20 paramètres qui sont la durée de l'élément et la fréquence du son fondamental de cet élément.
On notera que l'ensemble des éléments associés à chaque segment sonore est invariable alors que les paramètres représentant la prosodie varient avec 25 chaque mot à prononcer.
La constitution d'un mot peut être représentée comme suit.
MOTJ = ú (SEGMENT SONORE) o (SEGMENT SONOR En) Un segment sonore a la constitution suivan30 te: SEGMENT SONORE = c(Element 1 > + durée + fondementale 1 o ú (élémentk) + duréek + fondamentalek k 3 Si l'on tient compte du fait que la liste
des éléments associés à un segment sonore est invari-
z 547146 ble, on constate que tout mot à prononcer avec l'intonation voulue est finalement caractérisé par l'expression: -C numéro de segment S 3 onore Y ' (dio pi 7 dans laquelle: d est la durée d'un élément de segment sonore; I est la fréquence fondamentale de l'élément; i est le rang de l'élément dans le segment sonore. La transmission d'un mot revient donc à
transmettre la séquence ci-dessus en supposant qu'à la réception, on dispose en mémoire-de la liste des élé15 ments associés à chaque segment sonore.
En revenant à l'architecture de la partie du dispositif destiné à assurer le traitement des signaux en vue d'engendrer le commentaire associé aux pages affichées, on trouve une mémoire de langue 42 formée 20 de trois mémoires 42 a, 42 b, 42 c associés respectivement aux registres d'adresse 10 a, 10 b, 10 c
pour les trois langues précitées.
Chacune de ces mémoires de langue comprend
autant de lignes 43 qu'il existe de segments sonores 25 nécessaire à la prononciation de la langue considérée.
Chaque ligne 43 contient un numéro 44 de
segment sonore, autant de couples 45 de termes (di,pi) qu'il y a d'éléments ou "frames" dans le segment sonore correspondant.
Ces couples de termes (dipi) déterminent
l'intonation des phrases du commentaire.
Les couples (di,pi) sont en fait les attributs des éléments constitutifs des segments sonores qui sont stockés dans des mémoires 46 a, 46 b,46 c, en forme de tables d'éléments constitutifs des segments
2 5 4 7 1 4 6
1 1
sonores pour les langues respectives.
Chacune de ces mémoires qui est dans ce cas
une mémoire morte est destinée au stockage de paramètres acoustiques ou c *icient, de eiltres ue forma5 tion du language sans intonation qui, en association avec les données mémorisées dans la mémoire de langue 42 a, 42 b ou 42 c commandent un synthétiseur de la parole 47 du type LPC (Linear predictive Coding) de type THS 5220 Dans le présent exemple, les mémoires de 10 langues 42 a à 42 c et les tables d'éléments constitutifs des segments sonores 46 sont connectées au synthétiseur 47 par l'intermédiaire d'un multiplexeur 48.
La sortie du synthétiseur est connectée à un haut-parleur 49 qui, si le tube cathodique est un tube 15 de téléviseur, peut également être le hautparleur de ceotéléviseur. Au lieu d'avoir autant de mémoires mortes 46 a à 46 c qu'il y a de langues programmées, on peut également disposer d'une seule RAM chargée de façon 20 dynamique avec les segments sonores correspondant à la langue désirée et ceci sur une commande préalable de sélection de langue qui provoque l'entrée des segments
sonores dans la RAM.
Le chargement de la RAM est commandé par 25 l'unité centrale de traitement 26 qui "attend" une page transmise contenant les éléments constitutifs des
segments sonores.
Dès la détection de cette page, la RAM est
chargée avec les segments sonores de la langue choi30 sie.
Le changement de langue est assuré en chassant de la RAM les éléments de segments s Onores de la langue utilisée précédemment et en les remplaçant de
façon analogue par d'autres éléments.
Le fonctionnement du dispositif qui vient
d'être décrit est le suivant.
Comme on l'a représenté à la Fig 2, une page
de toxtu à trarismettre est ubdivisée en rangées aux5 quelles on affecte des numéros.
A titre d'exemple, on affecte les numéros O
à 24 aux rangées de texte écrit à transmettre et à afficher.
Les numéros 30 à 40 sont affectés par exemp10 le aux rangées sur lesquelles sont inscrits les codes
correspondant à la parole en français.
Les numéros 41 à 50 sont affectés aux rangées sur lesquelles sont inscrits les codes correspondant à la parole en anglais.
Les numéros 51 à 60 sont affectés aux rangées sur lesquelles sont inscrits les codes correspondant à la parole en allemand.
L'information continue dans une page comporte: un code de début de page un code de numéro de page un en-tête Ensuite, chaque rangée est marquée par un code de début de rangée, suivi d'un code de numéro de 25 rangée qui permet une reconnaissance de l'appartenance
de la rangée à un texte écrit ou à un texte parlé.
Le code de numéro de rangée-est à son tour
suivi de codes d'informations proprement dites correspondant au texte à afficher ou à prononcer.
A la réception des signaux codés ainsi constitués, l'unité centrale de traitement 26 qui est avantageusement constituée par un microprocesseur TMS 7040 procède à la discrimination des rangées de texte écrit et des rangées de texte parlé et à leur stockage
dans les mémoires 4 ou 6 selon leur nature.
A ce stade du fonctionnement, si l'on veut
afficher d'abord le texte et faire suivre cet affichage par ie cormentai'n corespo -dant, or, émet les ratigées de chaque page en séquence, dans leur ordre naturel.
En effet, dans un tel cas, les rangées O à
24 correspondent au texte écrit seront d'abord reçues à l'entrée 3 et affichées aussitôt Les données rela10 tives à la parole ne seront reçues qu'ensuite.
Si on veut procéder à un affichage simultané avec le son, on mélange à l'émission les numéros des rangées de texte écrit et de son selon une séquence prédéterminée. Le table 7 d'association texte-parole pour
une page déjà décodée, dont les données sont stockées dans une mémoire 4 de page écrite et dans une mémoire de page parlée 6 est mise à jour en permanence en même temps qu'est assuré le rangement des signaux de texte 20 et de parole dans les mémoires respectives.
Si le dispositif fonctionne en plusieurs langues, il y a transmission de l'ensemble des rangées de chaque page correspondant aux textes parlés dans
toutes les langues.
Xl en résulte que toutes les langues programmées sont disponibles à chaque instant au niveau
de la réception.
Le choix de la langue dans laquelle le commentaire sera prononcé est abssuré par l'utilisateur 30 qui enfonce l'une des touches 38 à 41 du clavier 35.
L'unité centrale de traitement 26 commande
alors la table d'association 7 afin que celle-ci rende active la mémoire de langue 42 a à 42 c et la table d'éléments constitutifs 46 a à 46 c correspondant à-la la-
14 '
gue choisie.
Les données correspondant à une page à prononcer contenue dans 1-'une des mémoires 6 sont alors transmises a la memola ' e langue 42 a à 42 c correspon5 dante, et les segments sonores formés d'éléments constitués de couples de paramètres Idipi) d'intonation sont combinés avec les éléments constitutifs correspondants contenus dans la table 46 a à 46 c associée à la mémoire de langue concernée, dans le multiplexeur 10 48 qui commande à son tour le synthétiseur 47.
Les sons ainsi synthétisés sont émis par le, haut-parleur dans une séquence prédéterminée avec les
textes affichés sur l'écran du tube cathodique 19.
Dans la liste ci-après, on a indiqué à titre 15 d'exemple des composants capables d'assurer les fonctions des divers circuits du schéma de la Fig 19.
Mémoires 6 Mémoires 7 TMS 4164 Mémoires 42 a à 42 c Circuit séparateur 17 (TMS 3534 SN 96533 Synthétiseur 47 TMS 5220 Multiplexeur 48 Fonction du microprocesseur 26 (Fig 1 A) TMS 7040
Tous ces composants sont fabriqués et vendus 30 par la Demanderesse.
2547 146
Claims (10)
1 Procédé pour la coordination de l'audition de messages parlés avec la visualisation de messages composàs de pdges sur un dispositif d'affî5 chage, caractérisé en ce qu'il consiste à recevoir des signaux d'image et des signaux de parole codés au moyen de codes similaires, les codes correspondant à un texte écrit étant reconnaissables par une première série de numéros de rangées de la page affectés à ces 10 codes de texte écrit, tandis que les codes correspondant au message parlé sont reconnaissables par au moins une seconde série de numéros de rangées de la page, affectés à ces codes de message parlé, à procéder à la discrimination des codes de texte écrit et 15 des codes de message parlé, à stocker les codes de texte écrit dans un premier ensemble de mémoires, à stocker les codes de message parlé dans un second ensemble de mémoires, à provoquer l'association des codes de texte écrit avec les codes du message parlé 20 correspondant au moyen d'une table d'association, à
reconstituer le message parlé à partir des codes contenus dans le second ensemble de mémoire en provoquant son émission audible suivant une séquence prédéterminée avec l'affichage du texte écrit correspondant 25 sur un écran de tube à rayons cathodiques.
2 Procédé suivant la revendication 1, destiné à l'audition du message parlé dans une parmi plusieurs langues programmées, caractérisé en ce que les codes correspondant à un même message à prononcer 30 dans chaque langue sont reconnaissables par une série
de numéros de rangée de la page affectés respectivement aux langues programmées.
3 Procédé suivant la revendication 2, caractérisé en ce qu il consiste à recevoir les codes
2547 1 46
correspondant au message parlé dans toutes les langues programmées, à stocker les codes correspondant aux messages parlés dans chaque langue dans une mémoire cur-respoirloante du secrond ensemble da mémoires et à 5 commander la reconstitution du message parlé dans l'une des langues de son choix à partir des codes contenus dans ladite mémoire correspondante du second
ensemble de mémoires.
4 Procédé suivant l'une quelconque des re10 vendications précédentes, caractérisé en ce qu'il consiste à recevoir des codes de message parlé correspondant aux éléments d'intonation des segments sonores formant le message et à combiner les éléments d'intonation avec les éléments constitutifs desdits segments 15 sonores, contenus stockés dans ledit second ensemble
de mémoires.
Dispositif pour la coordination de l'audition de messages parlés avec la visualisation de messages composés de pages sur un dispositif d'affi20 chage, caractérisé en ce qu'il comporte des moyens ( 4,5) de mémorisation de codes correspondant au texte écrit à visualiser, des moyens ( 6) de mémorisation de codes correspondant au message parlé à reproduire, des moyens ( 7) d'association du texte et de la parole 25 correspondant aux codes stockés dans lesdits moyens de mémorisation ( 6), des moyens ( 42 a à 42 c) de mémorisation des éléments d'intonation (dipi) des segments sonores formant le message reçu, des moyens ( 46 a à 46 c) de mémorisation des éléments constitutifs du 30 language dans lequel le message est reçu, des moyens
( 48) de combinaison desdits éléments d'intonation avec lesdits éléments constitutifs et des moyens ( 47) de synthèse du message à reproduire sous la commande desdits moyens de combinaison.
2 5 4 7 1 4 6
. 6 Dispositif suivant la revendication 5, caractérisé en ce que lesdits moyens ( 7) d'association du texte et de la parole sont constitués par une table aj;;t uiu no mb'e ae i-gries ( 8; éyal au nombre de mémoi5 res de page ( 4} des moyens de mémorisation des codes de texte, chacune des lignes ( 8) comportant un premier registre ( 9) contenant le numéro de la page ( 4) correspondante, un second registre ( 10) contenant l'adresse du texte de cette page à visualiser, au moins 10 un troisième registre d'adresse ( 10 a,10 b,10 c) correspondant a une langue dans laquelle le message parlé
doit être prononcé.
7 Dispositif suivant la revendication 6, caractérisé en ce que ledit troisième registre d'a15 dresse est formé d'autant de registres d'adresses ( 10 a, 10 b, 10 c) qu'il y a de langues programmées dans
lesquelles le message parlé peut être prononcé.
8 Dispositif suivant l'une des revendications 5 à 7, caractérisé en ce que lesdits moyens de 20 mémorisation des éléments d'intonation (dipi) des
segments sonores comprennent au moins une mémoire de langue ( 42 a à 42 c) comprenant autant de lignes ( 43) qu'il y a de segments sonores nécessaires à la pronohciation de la langue considérée, chaque ligne ( 43) 25 contenant un numéro de segment sonore ( 44) et autant de couples de termes (di,pi) de durée et de fréquence
fondamentale qu'il y a d'éléments dans le segment sonore correspondant, lesdits couples de termes (di,pi) déterminant l'intonation avec laquelle le segment so30 nore doit être prononcé.
9, Dispositif suivant la revendication 8.
caractérisé en ce que lesdits moyens de mémorisation desdits éléments d'intonation comportent autant de mémoires de langues ( 42 a, à 42 c) qu'il y a de langues
programmées dans le dispositif.
Dispositif suivant l'une quelconque des
revendications 5 à 9, caractérisé en ce que les-moyens ae memorisation des éléments constitutifs du language 5 dans lequel le message parlé doit être prononcé comportent autant de mémoires contenant les paramètres desdits éléments constitutifs qu'il y a de langues
programmées.
11 Dispositif suivant la revendication 10, 10 caractérisé en ce que lesdites mémoires sont des mémoires mortes.
12 Dispositif suivant l'une quelconque des
revendications 5 à 9, caractérisé en ce que les moyens de mémorisation des éléments du language dans lequel 15 le message doit être prononce comportent une mémoire
vive (RAM) destinée à stocker de façon dynamique sous l'effet d'une commande de sélection de langue ( 39,40, 41) les paramètres desdits éléments constitutifs de la
langue choisie.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR8309194A FR2547146B1 (fr) | 1983-06-02 | 1983-06-02 | Procede et dispositif pour l'audition de messages parles synthetises et pour la visualisation de messages graphiques correspondants |
US06/614,351 US4700322A (en) | 1983-06-02 | 1984-05-25 | General technique to add multi-lingual speech to videotex systems, at a low data rate |
EP84401120A EP0128093A1 (fr) | 1983-06-02 | 1984-05-30 | Procédé général pour ajouter un système de langage polyglotte à des systèmes de vidéotexte, à vitesse de données réduite |
JP59112908A JPS6018080A (ja) | 1983-06-02 | 1984-06-01 | 音声情報を対応する画像情報と関連させて再生する方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR8309194A FR2547146B1 (fr) | 1983-06-02 | 1983-06-02 | Procede et dispositif pour l'audition de messages parles synthetises et pour la visualisation de messages graphiques correspondants |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2547146A1 true FR2547146A1 (fr) | 1984-12-07 |
FR2547146B1 FR2547146B1 (fr) | 1987-03-20 |
Family
ID=9289435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR8309194A Expired FR2547146B1 (fr) | 1983-06-02 | 1983-06-02 | Procede et dispositif pour l'audition de messages parles synthetises et pour la visualisation de messages graphiques correspondants |
Country Status (4)
Country | Link |
---|---|
US (1) | US4700322A (fr) |
EP (1) | EP0128093A1 (fr) |
JP (1) | JPS6018080A (fr) |
FR (1) | FR2547146B1 (fr) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2553555B1 (fr) * | 1983-10-14 | 1986-04-11 | Texas Instruments France | Procede de codage de la parole et dispositif pour sa mise en oeuvre |
US4829473A (en) * | 1986-07-18 | 1989-05-09 | Commodore-Amiga, Inc. | Peripheral control circuitry for personal computer |
GB8629291D0 (en) * | 1986-12-08 | 1987-01-14 | British Broadcasting Corp | Programming of broadcast receiving devices |
US5191410A (en) * | 1987-08-04 | 1993-03-02 | Telaction Corporation | Interactive multimedia presentation and communications system |
US5303148A (en) * | 1987-11-27 | 1994-04-12 | Picker International, Inc. | Voice actuated volume image controller and display controller |
JPH01148240A (ja) * | 1987-12-04 | 1989-06-09 | Toshiba Corp | 診断用音声指示装置 |
US5001745A (en) * | 1988-11-03 | 1991-03-19 | Pollock Charles A | Method and apparatus for programmed audio annotation |
US4959783A (en) * | 1989-04-06 | 1990-09-25 | Lotto Pick Quick Winning Odds, Ltd. | System and method for choosing random numbers and delivering such numbers to subscribers for playing games of chance |
JPH03150599A (ja) * | 1989-11-07 | 1991-06-26 | Canon Inc | 日本語音節の符号化方式 |
US5278943A (en) * | 1990-03-23 | 1994-01-11 | Bright Star Technology, Inc. | Speech animation and inflection system |
US5136655A (en) * | 1990-03-26 | 1992-08-04 | Hewlett-Pacard Company | Method and apparatus for indexing and retrieving audio-video data |
GB2246273A (en) * | 1990-05-25 | 1992-01-22 | Microsys Consultants Limited | Adapting teletext information for the blind |
US5388146A (en) * | 1991-11-12 | 1995-02-07 | Microlog Corporation | Automated telephone system using multiple languages |
US5481589A (en) * | 1991-11-12 | 1996-01-02 | Microlog Corporation | Detection of TDD signals in an automated telephone system |
US5294982A (en) * | 1991-12-24 | 1994-03-15 | National Captioning Institute, Inc. | Method and apparatus for providing dual language captioning of a television program |
US5375164A (en) * | 1992-05-26 | 1994-12-20 | At&T Corp. | Multiple language capability in an interactive system |
US5434776A (en) * | 1992-11-13 | 1995-07-18 | Microsoft Corporation | Method and system for creating multi-lingual computer programs by dynamically loading messages |
US6330334B1 (en) | 1993-03-15 | 2001-12-11 | Command Audio Corporation | Method and system for information dissemination using television signals |
US5590195A (en) * | 1993-03-15 | 1996-12-31 | Command Audio Corporation | Information dissemination using various transmission modes |
DE4405020C1 (de) * | 1994-02-17 | 1995-01-26 | Inst Rundfunktechnik Gmbh | Verfahren zum Empfangen von in einem Fernsehsignal übertragenen Daten |
US5524051A (en) * | 1994-04-06 | 1996-06-04 | Command Audio Corporation | Method and system for audio information dissemination using various modes of transmission |
SE513456C2 (sv) * | 1994-05-10 | 2000-09-18 | Telia Ab | Metod och anordning vid tal- till textomvandling |
DE19503419A1 (de) * | 1995-02-03 | 1996-08-08 | Bosch Gmbh Robert | Verfahren und Einrichtung zur Ausgabe von digital codierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache |
US5900908A (en) * | 1995-03-02 | 1999-05-04 | National Captioning Insitute, Inc. | System and method for providing described television services |
US5677739A (en) * | 1995-03-02 | 1997-10-14 | National Captioning Institute | System and method for providing described television services |
JPH0944189A (ja) * | 1995-05-24 | 1997-02-14 | Sanyo Electric Co Ltd | テキスト情報の合成音声読み上げ装置及び文字放送受信機 |
IL118230A0 (en) | 1995-05-25 | 1996-09-12 | Voquette Network Ltd | A vocal information system |
US5790423A (en) * | 1995-06-14 | 1998-08-04 | Audible, Inc. | Interactive audio transmission receiving and playback system |
KR0144388B1 (ko) * | 1995-08-24 | 1998-08-01 | 김광호 | 키폰시스템에서 언어다중화 표시방법 |
EP1458188B1 (fr) * | 1995-11-13 | 2008-10-01 | Gemstar Development Corporation | Procédé et dispositif d'affichage de données textuelles ou graphiques sur l'écran de récepteurs de télévision |
US6204885B1 (en) * | 1995-11-13 | 2001-03-20 | Gemstar Development Corp. | Method and apparatus for displaying textual or graphic data on the screen of television receivers |
EP0808063B1 (fr) * | 1996-05-15 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Méthode et appareil pour la réception de télétexte |
US5815671A (en) * | 1996-06-11 | 1998-09-29 | Command Audio Corporation | Method and apparatus for encoding and storing audio/video information for subsequent predetermined retrieval |
US5956629A (en) * | 1996-08-14 | 1999-09-21 | Command Audio Corporation | Method and apparatus for transmitter identification and selection for mobile information signal services |
US5926624A (en) | 1996-09-12 | 1999-07-20 | Audible, Inc. | Digital information library and delivery system with logic for generating files targeted to the playback device |
US7917643B2 (en) | 1996-09-12 | 2011-03-29 | Audible, Inc. | Digital information library and delivery system |
US5870084A (en) * | 1996-11-12 | 1999-02-09 | Thomson Consumer Electronics, Inc. | System and method for efficiently storing and quickly retrieving glyphs for large character set languages in a set top box |
US5966637A (en) * | 1996-11-12 | 1999-10-12 | Thomson Consumer Electronics, Inc. | System and method for receiving and rendering multi-lingual text on a set top box |
US6141002A (en) * | 1996-11-12 | 2000-10-31 | Opentv, Inc. | System and method for downloading and rendering glyphs in a set top box |
US6253237B1 (en) | 1998-05-20 | 2001-06-26 | Audible, Inc. | Personalized time-shifted programming |
US7051360B1 (en) | 1998-11-30 | 2006-05-23 | United Video Properties, Inc. | Interactive television program guide with selectable languages |
US8175977B2 (en) | 1998-12-28 | 2012-05-08 | Audible | License management for digital content |
AU4665200A (en) * | 1999-04-29 | 2000-11-17 | Jeffrey D. Marsh | System for storing, distributing, and coordinating displayed text of books with voice synthesis |
US6385581B1 (en) | 1999-05-05 | 2002-05-07 | Stanley W. Stephenson | System and method of providing emotive background sound to text |
EP1197085A1 (fr) * | 1999-07-16 | 2002-04-17 | United Video Properties, Inc. | Guide de programme de television interactif a selection de langues |
DE19963812A1 (de) | 1999-12-30 | 2001-07-05 | Nokia Mobile Phones Ltd | Verfahren zum Erkennen einer Sprache und zum Steuern einer Sprachsyntheseeinheit sowie Kommunikationsvorrichtung |
US7979914B2 (en) | 2001-06-25 | 2011-07-12 | Audible, Inc. | Time-based digital content authorization |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3021647A1 (de) * | 1980-06-09 | 1981-12-17 | Siemens AG, 1000 Berlin und 8000 München | Videotext-telekommunikationssystem |
EP0055167A1 (fr) * | 1980-12-12 | 1982-06-30 | TEXAS INSTRUMENTS FRANCE Société dite: | Procédé et dispositif pour la visualisation de messages sur un dispositif d'affichage à trame balayée tel qu'un écran d'un tube à rayons cathodiques par utilisation d'un ensemble mémoire composite |
EP0071716A2 (fr) * | 1981-08-03 | 1983-02-16 | Texas Instruments Incorporated | Vocodeur allophonique |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2126075C3 (de) * | 1971-05-26 | 1981-08-20 | Agfa-Gevaert Ag, 5090 Leverkusen | Wiedergabegerät für Bild- und Tonaufzeichnungen und plattenförmigen Aufzeichnungsträger hierfür |
GB2014765B (en) * | 1978-02-17 | 1982-05-12 | Carlson C W | Portable translator device |
JPS54114035A (en) * | 1978-02-25 | 1979-09-05 | Matsushita Electric Ind Co Ltd | Television picture receiver |
JPS5693073U (fr) * | 1979-12-19 | 1981-07-24 | ||
JPS6011360B2 (ja) * | 1981-12-15 | 1985-03-25 | ケイディディ株式会社 | 音声符号化方式 |
-
1983
- 1983-06-02 FR FR8309194A patent/FR2547146B1/fr not_active Expired
-
1984
- 1984-05-25 US US06/614,351 patent/US4700322A/en not_active Expired - Fee Related
- 1984-05-30 EP EP84401120A patent/EP0128093A1/fr not_active Withdrawn
- 1984-06-01 JP JP59112908A patent/JPS6018080A/ja active Granted
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3021647A1 (de) * | 1980-06-09 | 1981-12-17 | Siemens AG, 1000 Berlin und 8000 München | Videotext-telekommunikationssystem |
EP0055167A1 (fr) * | 1980-12-12 | 1982-06-30 | TEXAS INSTRUMENTS FRANCE Société dite: | Procédé et dispositif pour la visualisation de messages sur un dispositif d'affichage à trame balayée tel qu'un écran d'un tube à rayons cathodiques par utilisation d'un ensemble mémoire composite |
EP0071716A2 (fr) * | 1981-08-03 | 1983-02-16 | Texas Instruments Incorporated | Vocodeur allophonique |
Also Published As
Publication number | Publication date |
---|---|
JPS6018080A (ja) | 1985-01-30 |
EP0128093A1 (fr) | 1984-12-12 |
JPH0510874B2 (fr) | 1993-02-10 |
FR2547146B1 (fr) | 1987-03-20 |
US4700322A (en) | 1987-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2547146A1 (fr) | Procede et dispositif pour l'audition de messages parles synthetises et pour la visualisation de messages graphiques correspondants | |
Brondeel | Teaching subtitling routines | |
US6377925B1 (en) | Electronic translator for assisting communications | |
EP1362343B1 (fr) | Procede, module, dispositif et serveur de reconnaissance vocale | |
JP4127668B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
FR2470508A1 (fr) | Dispositif permettant une reproduction video interactive | |
FR2553555A1 (fr) | Procede de codage de la parole et dispositif pour sa mise en oeuvre | |
FR2923928A1 (fr) | Systeme d'interpretation simultanee automatique. | |
EP0141721A2 (fr) | Dispositif de réception dans un système de transmission d'informations vidéos asynchrones | |
CN114390220A (zh) | 一种动画视频生成方法及相关装置 | |
WO2024146338A1 (fr) | Procédé et appareil de génération de vidéo, dispositif électronique et support de stockage | |
EP1265225A1 (fr) | Dispositif générateur de signaux contenant de l'information vocale | |
WO1995016968A1 (fr) | Procede et dispositif pour transformer un premier message vocal dans une premiere langue, en un second message dans une seconde langue predeterminee | |
FR2753827A1 (fr) | Procede pour adjoindre a un signal sonore code de l'information complementaire, notamment textuelle, destinee a etre visualisee | |
EP0325509B1 (fr) | Dispositif de permutation de lignes de télévision par bloc | |
EP0054490A1 (fr) | Procédé et dispositif pour permettre l'échange d'information entre des systèmes de traitement d'information à vitesses de traitement différentes | |
EP0456742A1 (fr) | Appareil de traitement de la parole | |
JP3565927B2 (ja) | 多重受信装置 | |
FR2852438A1 (fr) | Systeme de traduction pour audioconference multilingue | |
JP2000047694A (ja) | 音声通信方法、音声情報生成装置および音声情報再生装置 | |
JP2006139710A (ja) | 携帯電話や携行端末における静止画漫画の再生方法 | |
JPS5831685A (ja) | 文字多重放送用受信機 | |
RU12269U1 (ru) | Телевизионное устройство для перевода сигналов звукового сопровождения с одного языка на другой | |
JP3350583B2 (ja) | 音声・画像・文字情報の同調出力方法 | |
CN118283288A (zh) | 生成视频的方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |