SE519244C2 - Anordning och metod vid talsyntes - Google Patents

Anordning och metod vid talsyntes

Info

Publication number
SE519244C2
SE519244C2 SE9504367A SE9504367A SE519244C2 SE 519244 C2 SE519244 C2 SE 519244C2 SE 9504367 A SE9504367 A SE 9504367A SE 9504367 A SE9504367 A SE 9504367A SE 519244 C2 SE519244 C2 SE 519244C2
Authority
SE
Sweden
Prior art keywords
face
polyphones
language
model
movement pattern
Prior art date
Application number
SE9504367A
Other languages
English (en)
Other versions
SE9504367D0 (sv
SE9504367L (sv
Inventor
Bertil Lyberg
Original Assignee
Telia Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telia Ab filed Critical Telia Ab
Priority to SE9504367A priority Critical patent/SE519244C2/sv
Publication of SE9504367D0 publication Critical patent/SE9504367D0/sv
Priority to DE69632901T priority patent/DE69632901T2/de
Priority to DK96850181T priority patent/DK0778560T3/da
Priority to EP96850181A priority patent/EP0778560B1/en
Priority to NO19965147A priority patent/NO311546B1/no
Priority to US08/760,811 priority patent/US5826234A/en
Publication of SE9504367L publication Critical patent/SE9504367L/sv
Publication of SE519244C2 publication Critical patent/SE519244C2/sv

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Description

30 35 519 244 .'.=:. 2 ett verkligt ansikte. För att kunna lagra ansiktsuttrycken registreras ett antal punkter i ansiktet på en försöksper- son som talar in det tal som utnyttjas för polyfonbanken.
Polyfoner för ett antal olika språk inspelas och registre- ras tillsammans med motsvarande ansiktsuttryck.
Försökspersonens rörelsemönster i ansiktet lagras i en da- tabank och utnyttjas för modelleringen av rörelsemönstren i det andra språket. Uppfinningen ger på detta sätt en uppsättning ansiktsuttryck som är förknippade med de olika polyfonerna. Dessa ansiktsuttryck sammansättes därefter till mot de av en eller flera sammansatta polyfonernas svarande ord och sentenser. På detta sätt erhålles ett mo- dellerat ansiktsuttryck vilket påföres en ansiktsavbild- ning av en talande person.
Vid ansiktsmodelleringen tas hänsyn till att olika polyfo- ner ges olika ansiktsuttryck eftersom hänsyn tas till kom- mande vokal- och konsonantsammansättningar. Ansiktsrörel- serna pàföres vidare en modell som påföres ett verkligt ansikte. Modellen kan vara två- eller tredimensionell-Vid nyttjandet av en tredimensionell modell utnyttjas lämpli- gen ett modellhuvud. De registrerade punkterna i ansiktet är härvid registrerade i tre dimensioner. Vid skapandet av ansiktet påföres en avbildning av det verkliga ansiktet på modellen vilket ger en naturtrogen bild av det verkliga ansiktet och dess rörelsemönster.
FÖRDELAR Uppfinningen ger en möjlighet att anpassa ett ansiktes rö- relsemönster till ett andra språk trots att personen talar ett språk som ej motsvaras av det mottagna språket. Att ansiktsuttrycket överensstämmer med det mottagna språket ökar talförstàelsen, eftersom förvirrande och vilseledande signaler i ansiktsuttrycken elimineras eller väsentligen undanröjas. oøooci 10 15 20 25 30 35 519 244 '.:I. .. 3 FIGURBESKRIVNING Fig. 1 visar ett polyfon och ett antal till polyfonen re- laterade punkter i ett ansikte.
Fig. 2 visar motsvarande som i fig. 1, där polyfonen seg- menterats.
Fig. 3 visar en mätutrustning M försedd med laser L, där en ljussignal A utsänds och en reflekterad signal B mottas för mätning av punkter 1-10 i ett ansikte.
Fig. 4 visar ett flödesschema för uppfinningen.
DETALJERAD BESKRIVNING I det följande beskrivs uppfinningen utifrån ritningarna och beteckningarna däri.
Föreliggande uppfinning avser en anordning och metod vid talsyntes. Ett tal registreras och polyfoner lagras. I samband med registrering av polyfonerna registreras även rörelsemönstret i ett ansikte. Registreringen av rörelse- mönstret i ansiktet sker genom att ett antal mätpunkter i ansiktet registreras samtidigt som polyfonerna registre- ras. I samband med översättning av en persons tal från ett språk till ett annat sammankopplas polyfonerna och aktuel- la rörelsemönster i ansiktet till en rörelsemodell i an- siktet. Den verkliga personens ansikte klistras därefter över modellen, varvid ett mot språket motsvarande rörelse- mönster erhålles. Uppfinningen ger sålunda intryck av att personen verkligen talar det aktuella språket.
I samband med inspelning av polyfoner, företrädesvis halv- stavelser, registreras rörelsemönster i olika delar av ett ansikte. Polyfonerna består av halvstavelser t.ex. spru, spri, kro etc. Vid inspelning av polyfonerna anordnas an- ordningar för samtidig registrering av ett antal mätpunk- ter i ansiktet hos en försöksperson. Mätpunkterna utgöres exempelvis av de i fig. 3 angivna punkterna 1-10. För var- je mätpunkt i ansiktet anordnas reflektorer eller motsva- cor-ao ÛOOIOI 10 15 20 25 30 35 519 244 f. .. 4 rande. Laserstrålar utsänds från en lasersändare L som är ansluten till en mätutrustning M. Mätutrustningen M re- gistrerar rörelsemönstret i respektive mätpunkter under intalning av ett naturligt tal. Talet kopplas till rörel- semönstret i respektive mätpunkter i ansiktet. Antalet mätpunkter i ansiktet är beroende av i vilken omfattning rörelsemönstret i ansiktet skall registreras. I vissa fall räcker det att registrera endast rörelsemönstret kring munnen och hakpartiet. I andra sammanhang eftersträvas mer fullständiga rörelsemönster i ansiktet där kindrörelser, ögonreaktioner, rörelser kring och i näspartiet önskas re- gistrerade. De inspelade orden delas in i polyfoner, halv- stavelser. Polyfonerna kopplas till motsvarande rörelse- mönster i ansiktets olika partier. Lagring sker därefter av polyfonerna och till polyfonerna hörande rörelsemönster i ansiktet. Lagringen sker i en databas där direkt kopp- ling mellan polyfonerna och de registrerade punkterna i ansiktet gjorts. En bank över de i ett eller flera språk förekommande polyfonerna erhålles på detta sätt. En männi- skas rörelsemönster i ansiktet är i viss mån beroende av vilket språk som talas. Av denna anledning inspelas poly- fonerna och ansiktsrörelserna företrädesvis för varje språk.
Varje polyfon segmenteras därefter i enlighet med fig. 2.
Segmenteringen av polyfonerna överförs även till rörelse- mönstren i ansiktet. På detta sätt kan representationen för enstaka bokstävers uttal överföras till motsvarande rörelsemönster i ansiktets olika delar.
En tillämpning av uppfinningen är exempelvis bildtelefoni mellan parter som talar olika språk. Vid en dylik tillämp- ning återfinns utrustningar i eller anslutbara till tele- nätet som registrerar och analyserar parternas tal. Talet igenkännes och översätts till motpartens språk. I samband med översättningen till det andra språket framtas de sen- tenser som skall uttalas. Sentenserna delas ned i polyfo- ner som hämtas ur databasen för det aktuella språket. I uflocøo 0 000001 10 15 20 25 30 35 519 244 5 beroende av vilka ord som skall uttalas sker därefter eventuellt en utsträckning eller förkortning av de enstaka ljudens, fonemens, uttalstid i polyfonet. I samband med att polyfonen uttas och justeras framtas även rörelse- mönstret i de olika delarna av ansiktet. I samband med att talsyntes genomförs påförs även motsvarande rörelsemönster en ansiktsmodell. Modellen utgör en ansiktsavbildning vil- ken anger de grundläggande dragen vid det aktuella språ- kets nyttjande. Vid framställning av talet klistras däref- ter den verkliga personens ansikte över modellen och ett för språket realistiskt rörelsemönster erhålles.
Med hänvisning till fig. 4 inbegriper uppfinningen ett första steg där en person inläser ett tal. Under inläs- ningen avläses ett antal mätpunkter i ansiktet. Mätpunk- terna avläses lämpligen med lasersignaler som riktas mot de aktuella mätpunkterna i ansiktet. De aktuella mätpunk- terna markeras med punkter Det intalade talet samt de tet registreras och lagras som reflektera lasersignalen. avlästa mätresultaten i ansik- I data- orden i halvstavelser till vil- därefter i en databas. basen anordnas de intalade ka halvstavelser motsvarande rörelsemönster i ansiktet hänföres.
I ett andra steg där en person talar ett språk som över- sätts till ett andra språk söks, efter översättningen, ak- tuella halvstavelser i det andra språket upp ur databasen.
Ur databasen framtas därefter motsvarande rörelsemönster i ansiktet. En segmentering av halvstavelser och motsvarande rörelsemönster i ansiktet genomförs därefter. En anpass- ning av segmenten sker därefter med hänsyn till de ord som skall framställas. Exempelvis skall segmenten utsträckas eller förkortas i tiden. Motsvarande ändring införs även för motsvarande segment i ansiktsrörelserna. När segmente- ring och anpassning genomförts skapas en modell av an- siktsrörelserna pà ett modellhuvud. Modellhuvudets uppgift är endast att ange vilka delar av ansiktet som ändras un- der talets framförande och saknar väsentligen karakteris- tiska drag hos en specifik människa. För att skapa en na- 0000!- 00000! 10 15 20 25 30 35 519 244 .. 6 turtrogen avbildning utnyttjas därefter den verkliga män- niskans avbildning. Denna avbildning kan finnas lagrad se- dan tidigare eller skapas av den bild som överförs av ta- laren vid inspelning av det första talet. Bilden av den verkliga talaren klistras/överlagras därefter på modellhu- vudet. Därefter framställs ljud och bild tillsammans och överförs till en mottagare. Den framställda avbildningen med tillhörande tal kommer härvid att uppfattas sà, att talaren talar det språk som mottagaren erhåller på ett na- turtroget sätt.
I det ovan beskrivna har bildtelefoni använts som exempel, men uppfinningen är tillämpar i alla sammanhang där en person skall föreställa att tala ett annat språk än denne ursprungligen talat. Tillämpningen kan således utnyttjas vid dubbning av filmer där ett realistiskt beteende efter- strävas.
Uppfinningen är även tillämpbar för registrering av det totala rörelsemönstret hos en person. I ett dylikt samman- hang anbringas mätpunkterna på ett antal mätpunkter över en försökspersons hela kropp. Mätpunkterna lagras liksom i det ovanstående för sammankoppling till en översättning av ett givet tal där rörelsemönstret först byggs upp en på modell, varpå den verkliga personens bild pàklistras/- överlagras.
I ytterligare utföringsform är uppfinningen utnyttjnings- bar för påförande av rörelsemönster på animerade filmer för erhållande av naturtrogna rörelser på t.ex. tecknade eller dataanimerade figurer. I ytterligare utföringsform registreras mätpunkterna l-10 i ansiktet tredimensionellt.
Den lagrade informationen utnyttjas därefter för skapande av en tredimensionell modell av rörelsemönstret på ett mo- dellhuvud. För att överföra det erhållna rörelsemönstret lpå en persons huvud páföres en avbildning av personens hu- vud modellen 11 genom påklistring. Påklistringen innebär att personens ansikte sker genom att en tredimensionell bild av personens ansikte framtas och överlagras modellhu- 100! ...w øonovo 519 244 . 7 vudet, varvid personen i fråga erhåller ett rörelsemönster som motsvaras av språkets rörelsemönster. Uppfinningen är inte begränsad till det i ovan beskrivna eller till nedan angivna patentkrav utan kan underkastas modifieringar inom ramen för uppfinningstanken.

Claims (24)

10 15 20 25 30 519 244 . 8 PATENTKRAV
1. Anordning för talsyntes vid översättning av tal pà ett språk till syntetiskt tal pà ett andra språk, där polyfoner som förekommer åtminstone i det andra språket är lagrade i en minnesenhet, och polyfonerna är uttagbara och sammansätt- ningsbara till ord och sentenser, kännetecknad av att i min- nesenheten är till polyfonerna hörande ansiktsuttryck lagra- de, att vid bildandet av orden och sentenserna är motsva- rande delar av ansiktsuttrycken sammansatta och pàförbara en ansiktsavbildning, att ansiktsavbildningen är given ett rö- relsemönster som väl överensstämmer med rörelsemönstret i ett verkligt ansikte och att talarens avbildning utnyttjas som ansiktsavbildningen.
2. Anordning enligt patentkrav 1, kännetecknad av att ett antal punkter i ett verkligt ansiktet är registrerade sam- tidigt som polyfonerna är registrerade.
3. Anordning enligt patentkrav 1-2, kännetecknad av att de lagrade ansiktsuttrycken för motsvarande polyfon är sam- manställningsbara till ett modellerat ansiktsuttryck.
4. Anordning enligt patentkrav 1-3, kännetecknad av att det modellerade ansiktsuttrycket är pàförbart ansiktsavbild- ningen.
5. Anordning enligt något av föregående patentkrav, kän- netecknad av att vid registrering av ansiktsuttrycken är ett flertal mätpunkter i verkliga ansikten registrerade tillsam- mans med polyfonerna.
6. Anordning enligt något av föregående patentkrav, kän- netecknad av att vid sammansättningen av polyfonerna är de motsvarande ansiktsuttrycken utnyttjade för modellbild- ningen. 10 15 20 25 30 voøntd 519 244 '.:I...1 <7
7. Anordning enligt något av de föregående patentkraven, kännetecknad av att ansiktsrörelserna är påförbara en modell av ett ansikte.
8. Anordning enligt patentkrav 7, kännetecknad av att det verkliga ansiktet är påförbart modellen varvid en person vartill det verkliga ansiktet hör är avbildningsbart med ett mot vid talöversättning svarande ansiktsuttryck, varvid per- sonen i fråga är given intrycket att tala det andra språket.
9. Anordning enligt något av föregående patentkrav, kän- netecknad av att bildpunktsupptagningen i det verkliga an- siktet är anordnat att ske tredimensionellt.
10. Anordning enligt patentkrav 9, kännetecknad av att ansiktets rörelsemönster är anordnat att överföras till en tredimensionell ansiktsmodell.
11. Anordning enligt patentkrav 10, kännetecknad av att den tredimensionella ansiktsmodellen utgöres av ett modell- huvud.
12. Anordning enligt patentkrav 11, kännetecknad av att talarens ansikte är sammanlagrat med modellhuvudet varvid en naturtrogen modell av talarens ansikte är erhållen.
13. Anordning enligt något av föregående patentkrav, kän- netecknad av att det verkliga ansiktet med till polyfonerna hörande ansiktsuttryck är reproducerbara i två eller tre di- mensioner.
14. Anordning enligt något av föregående patentkrav, kän- netecknad av att polyfonsammansättning och tillhörande rö- relsemönster i ansiktet är utnyttjbart vid bildkommunikation där personen talar ett första språk, och nämnda första språk översätts till ett andra språk, vilket andra språk återges hos en mottagare som ges intrycket att personen verkligen talar det andra språket. OQOOOU 10 15 20 25 30 519 244 .:I. /0
15. Anordning enligt något av föregående patentkrav, kän- netecknad av att àtergivningen av ansiktsuttryck är över- föringsbara till rörliga bilder vid talöversättning.
16. Anordning enligt patentkrav 15, kännetecknad av att de rörliga bilderna avser djur, människor eller tecknade fi- gurer.
17. Anordning enligt något av föregående patentkrav, kän- netecknad av att ansiktsuttrycken med tillhörande polyfoner är utnyttjbara vid bildanimering, t ex vid framställning av tecknade filmer.
18. Anordning enligt något av föregående patentkrav, kän- netecknad av att delbitar i polyfonerna är lagrade till- sammans med motsvarande rörelsemönster i ansiktet.
19. Anordning enligt patentkrav 18, kännetecknad av att vid skapandet av ord och sentenser polyfonernas delbitar är anpassningsbara till de skapade orden och sentenserna, var- vid motsvarande rörelsebitar i ansiktet modifieras i motsva- rande utsträckning.
20. Anordning enligt patentkrav 19, kânnetecknad av att rörelsemönstret i varje registrerad del av ansiktet är modi- fierad med hänsyn till polyfondelarnas modifiering.
21. Metod för talsyntes vid översättning av tal på ett språk till syntetiskt tal på ett andra språk, där polyfoner, som förekommer åtminstone i det andra språket, och deras delbitar lagras i en minnesenhet, och polyfonerna samman- sätts till ord och sentenser, kännetecknad av att i minnes- enheten lagras mot polyfonerna svarande rörelsemönster i ett ansikte, att polyfonerna och motsvarande rörelsemönster seg- menteras varvid polyfonernas och rörelsemönstrens delbitar modifieras med hänsyn till de bildade orden och sekvenserna, att rörelsemönstret pàföres en ansiktsavbildning vars rörel- semönster ges ett mot orden och sentenserna svarande rörel- Iøtvuiv 10 15 519 244 ll semönster och att talarens avbildning utnyttjas som an- siktsavbildningen.
22. Metod enligt patentkrav 21, kännetecknad av att ett antal punkter i ett verkligt ansikte registreras tillsammans med polyfonerna.
23. Metod enligt patentkrav 21 eller 22, kännetecknad av att ansiktsuttrycken och motsvarande polyfoner sammanställs till ett modellerat ansiktsuttryck som pâförs ansiktsavbild- ningen.
24. Metod enligt patentkrav 21, 22 eller 23, känneteck- nad av att vid registrering av ansiktsuttrycken registreras ett flertal mätpunkter i det verkliga ansiktet tillsammans med polyfonerna och vid sammansättning av polyfonerna ut- nyttjas de motsvarande ansiktsuttrycken för modellbild- ningen. 000000
SE9504367A 1995-12-06 1995-12-06 Anordning och metod vid talsyntes SE519244C2 (sv)

Priority Applications (6)

Application Number Priority Date Filing Date Title
SE9504367A SE519244C2 (sv) 1995-12-06 1995-12-06 Anordning och metod vid talsyntes
DE69632901T DE69632901T2 (de) 1995-12-06 1996-10-30 Vorrichtung und Verfahren zur Sprachsynthese
DK96850181T DK0778560T3 (da) 1995-12-06 1996-10-30 Indretning og fremgangsmåde til talesyntese
EP96850181A EP0778560B1 (en) 1995-12-06 1996-10-30 Device and method at speech synthesis
NO19965147A NO311546B1 (no) 1995-12-06 1996-12-03 Anordning og fremgangsmåte ved talesyntese
US08/760,811 US5826234A (en) 1995-12-06 1996-12-05 Device and method for dubbing an audio-visual presentation which generates synthesized speech and corresponding facial movements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE9504367A SE519244C2 (sv) 1995-12-06 1995-12-06 Anordning och metod vid talsyntes

Publications (3)

Publication Number Publication Date
SE9504367D0 SE9504367D0 (sv) 1995-12-06
SE9504367L SE9504367L (sv) 1997-06-07
SE519244C2 true SE519244C2 (sv) 2003-02-04

Family

ID=20400494

Family Applications (1)

Application Number Title Priority Date Filing Date
SE9504367A SE519244C2 (sv) 1995-12-06 1995-12-06 Anordning och metod vid talsyntes

Country Status (6)

Country Link
US (1) US5826234A (sv)
EP (1) EP0778560B1 (sv)
DE (1) DE69632901T2 (sv)
DK (1) DK0778560T3 (sv)
NO (1) NO311546B1 (sv)
SE (1) SE519244C2 (sv)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE520065C2 (sv) 1997-03-25 2003-05-20 Telia Ab Anordning och metod för prosodigenerering vid visuell talsyntes
SE519679C2 (sv) * 1997-03-25 2003-03-25 Telia Ab Metod vid talsyntes
SE511927C2 (sv) * 1997-05-27 1999-12-20 Telia Ab Förbättringar i, eller med avseende på, visuell talsyntes
US6016148A (en) * 1997-06-06 2000-01-18 Digital Equipment Corporation Automated mapping of facial images to animation wireframes topologies
US7366670B1 (en) * 1997-08-05 2008-04-29 At&T Corp. Method and system for aligning natural and synthetic video to speech synthesis
US6567779B1 (en) * 1997-08-05 2003-05-20 At&T Corp. Method and system for aligning natural and synthetic video to speech synthesis
DE69829947T2 (de) * 1997-09-01 2006-03-02 Koninklijke Philips Electronics N.V. Ein verfahren und gerät zum synchronisieren eines computeranimierten modells mit einem audiosignal
CA2323421C (en) * 1998-03-11 2008-09-23 Entropic, Inc. Face synthesis system and methodology
US20020069048A1 (en) * 2000-04-07 2002-06-06 Sadhwani Deepak Kishinchand Communication system
DE10018143C5 (de) * 2000-04-12 2012-09-06 Oerlikon Trading Ag, Trübbach DLC-Schichtsystem sowie Verfahren und Vorrichtung zur Herstellung eines derartigen Schichtsystems
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
AU2001292963A1 (en) * 2000-09-21 2002-04-02 The Regents Of The University Of California Visual display methods for use in computer-animated speech production models
US7203648B1 (en) 2000-11-03 2007-04-10 At&T Corp. Method for sending multi-media messages with customized audio
US6963839B1 (en) 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US7035803B1 (en) 2000-11-03 2006-04-25 At&T Corp. Method for sending multi-media messages using customizable background images
US6990452B1 (en) 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
US7091976B1 (en) 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US20080040227A1 (en) 2000-11-03 2008-02-14 At&T Corp. System and method of marketing using a multi-media communication system
US6976082B1 (en) 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
AU2002239550B2 (en) * 2000-11-17 2006-11-16 Tate & Lyle Technology Limited Meltable form of sucralose
US6778252B2 (en) * 2000-12-22 2004-08-17 Film Language Film language
US6661418B1 (en) * 2001-01-22 2003-12-09 Digital Animations Limited Character animation system
US7671861B1 (en) 2001-11-02 2010-03-02 At&T Intellectual Property Ii, L.P. Apparatus and method of customizing animated entities for use in a multi-media communication application
US7663628B2 (en) * 2002-01-22 2010-02-16 Gizmoz Israel 2002 Ltd. Apparatus and method for efficient animation of believable speaking 3D characters in real time
US7209882B1 (en) 2002-05-10 2007-04-24 At&T Corp. System and method for triphone-based unit selection for visual speech synthesis
US8788274B1 (en) 2003-07-03 2014-07-22 Jose Estevan Guzman Language converter and transmitting system
GB0606977D0 (en) * 2006-04-06 2006-05-17 Freemantle Media Ltd Interactive video medium
CN101971262A (zh) * 2007-12-21 2011-02-09 皇家飞利浦电子股份有限公司 用于播放图片的方法和设备
US8655152B2 (en) 2012-01-31 2014-02-18 Golden Monkey Entertainment Method and system of presenting foreign films in a native language
KR20140146965A (ko) * 2013-06-18 2014-12-29 삼성전자주식회사 디스플레이 장치, 서버를 포함하는 변환 시스템 및 디스플레이 장치의 제어 방법
KR102127351B1 (ko) 2013-07-23 2020-06-26 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
US9564128B2 (en) * 2013-12-09 2017-02-07 Qualcomm Incorporated Controlling a speech recognition process of a computing device
US9607609B2 (en) 2014-09-25 2017-03-28 Intel Corporation Method and apparatus to synthesize voice based on facial structures
WO2017137947A1 (en) * 2016-02-10 2017-08-17 Vats Nitin Producing realistic talking face with expression using images text and voice
US10657972B2 (en) * 2018-02-02 2020-05-19 Max T. Hall Method of translating and synthesizing a foreign language
US11908478B2 (en) 2021-08-04 2024-02-20 Q (Cue) Ltd. Determining speech from facial skin movements using a housing supported by ear or associated with an earphone

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111409A (en) * 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
US5293584A (en) * 1992-05-21 1994-03-08 International Business Machines Corporation Speech recognition system for natural language translation
US5687280A (en) * 1992-11-02 1997-11-11 Matsushita Electric Industrial Co., Ltd. Speech input device including display of spatial displacement of lip position relative to predetermined position
US5482048A (en) * 1993-06-30 1996-01-09 University Of Pittsburgh System and method for measuring and quantitating facial movements
JPH07302351A (ja) * 1994-05-09 1995-11-14 Canon Inc 画像・音声応答装置及び画像・音声応答方法
US5657426A (en) * 1994-06-10 1997-08-12 Digital Equipment Corporation Method and apparatus for producing audio-visual synthetic speech
US5615301A (en) * 1994-09-28 1997-03-25 Rivers; W. L. Automated language translation system

Also Published As

Publication number Publication date
NO311546B1 (no) 2001-12-03
NO965147L (no) 1997-06-09
SE9504367D0 (sv) 1995-12-06
DE69632901T2 (de) 2005-08-04
EP0778560B1 (en) 2004-07-14
NO965147D0 (no) 1996-12-03
EP0778560A2 (en) 1997-06-11
SE9504367L (sv) 1997-06-07
US5826234A (en) 1998-10-20
EP0778560A3 (en) 1998-09-09
DK0778560T3 (da) 2004-11-22
DE69632901D1 (de) 2004-08-19

Similar Documents

Publication Publication Date Title
SE519244C2 (sv) Anordning och metod vid talsyntes
Moberg Contributions to Multilingual Low-Footprint TTS System for Hand-Held Devices
US5940797A (en) Speech synthesis method utilizing auxiliary information, medium recorded thereon the method and apparatus utilizing the method
KR102306844B1 (ko) 비디오 번역 및 립싱크 방법 및 시스템
JPH11513144A (ja) 対話型言語トレーニング装置
KR20190046371A (ko) 얼굴 표정 생성 장치 및 방법
JP2003529861A5 (sv)
CN110767213A (zh) 一种韵律预测方法及装置
JP2008052628A (ja) アニメーションデータ作成装置及びアニメーションデータ作成プログラム
US6389396B1 (en) Device and method for prosody generation at visual synthesis
Beskow Trainable articulatory control models for visual speech synthesis
Minnis et al. Modeling visual coarticulation in synthetic talking heads using a lip motion unit inventory with concatenative synthesis
Serra et al. A proposal for a visual speech animation system for European Portuguese
CN115529500A (zh) 动态影像的生成方法和装置
JP2001517327A (ja) スピーチ合成方法
Hwang et al. Neural network-based F0 text-to-speech synthesiser for Mandarin
Brooke Computational aspects of visual speech: machines that can speechread and simulate talking faces
US20230245644A1 (en) End-to-end modular speech synthesis systems and methods
Wei et al. Speech animation based on Chinese mandarin triphone model
Morishima et al. Multimodal translation system using texture-mapped lip-sync images for video mail and automatic dubbing applications
Chen et al. Speech driven MPEG-4 based face animation via neural network
Granström et al. Eyebrow movements as a cue to prominence
Mažonavičiūtė et al. English talking head adaptation for Lithuanian speech animation
Kato et al. Generation of realistic facial animation of a CG avatar speaking a moraic language
Safabakhsh et al. AUT-Talk: a farsi talking head

Legal Events

Date Code Title Description
NUG Patent has lapsed