SE519244C2 - Anordning och metod vid talsyntes - Google Patents
Anordning och metod vid talsyntesInfo
- Publication number
- SE519244C2 SE519244C2 SE9504367A SE9504367A SE519244C2 SE 519244 C2 SE519244 C2 SE 519244C2 SE 9504367 A SE9504367 A SE 9504367A SE 9504367 A SE9504367 A SE 9504367A SE 519244 C2 SE519244 C2 SE 519244C2
- Authority
- SE
- Sweden
- Prior art keywords
- face
- polyphones
- language
- model
- movement pattern
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L2021/105—Synthesis of the lips movements from speech, e.g. for talking heads
Description
30 35 519 244 .'.=:. 2 ett verkligt ansikte. För att kunna lagra ansiktsuttrycken registreras ett antal punkter i ansiktet på en försöksper- son som talar in det tal som utnyttjas för polyfonbanken.
Polyfoner för ett antal olika språk inspelas och registre- ras tillsammans med motsvarande ansiktsuttryck.
Försökspersonens rörelsemönster i ansiktet lagras i en da- tabank och utnyttjas för modelleringen av rörelsemönstren i det andra språket. Uppfinningen ger på detta sätt en uppsättning ansiktsuttryck som är förknippade med de olika polyfonerna. Dessa ansiktsuttryck sammansättes därefter till mot de av en eller flera sammansatta polyfonernas svarande ord och sentenser. På detta sätt erhålles ett mo- dellerat ansiktsuttryck vilket påföres en ansiktsavbild- ning av en talande person.
Vid ansiktsmodelleringen tas hänsyn till att olika polyfo- ner ges olika ansiktsuttryck eftersom hänsyn tas till kom- mande vokal- och konsonantsammansättningar. Ansiktsrörel- serna pàföres vidare en modell som påföres ett verkligt ansikte. Modellen kan vara två- eller tredimensionell-Vid nyttjandet av en tredimensionell modell utnyttjas lämpli- gen ett modellhuvud. De registrerade punkterna i ansiktet är härvid registrerade i tre dimensioner. Vid skapandet av ansiktet påföres en avbildning av det verkliga ansiktet på modellen vilket ger en naturtrogen bild av det verkliga ansiktet och dess rörelsemönster.
FÖRDELAR Uppfinningen ger en möjlighet att anpassa ett ansiktes rö- relsemönster till ett andra språk trots att personen talar ett språk som ej motsvaras av det mottagna språket. Att ansiktsuttrycket överensstämmer med det mottagna språket ökar talförstàelsen, eftersom förvirrande och vilseledande signaler i ansiktsuttrycken elimineras eller väsentligen undanröjas. oøooci 10 15 20 25 30 35 519 244 '.:I. .. 3 FIGURBESKRIVNING Fig. 1 visar ett polyfon och ett antal till polyfonen re- laterade punkter i ett ansikte.
Fig. 2 visar motsvarande som i fig. 1, där polyfonen seg- menterats.
Fig. 3 visar en mätutrustning M försedd med laser L, där en ljussignal A utsänds och en reflekterad signal B mottas för mätning av punkter 1-10 i ett ansikte.
Fig. 4 visar ett flödesschema för uppfinningen.
DETALJERAD BESKRIVNING I det följande beskrivs uppfinningen utifrån ritningarna och beteckningarna däri.
Föreliggande uppfinning avser en anordning och metod vid talsyntes. Ett tal registreras och polyfoner lagras. I samband med registrering av polyfonerna registreras även rörelsemönstret i ett ansikte. Registreringen av rörelse- mönstret i ansiktet sker genom att ett antal mätpunkter i ansiktet registreras samtidigt som polyfonerna registre- ras. I samband med översättning av en persons tal från ett språk till ett annat sammankopplas polyfonerna och aktuel- la rörelsemönster i ansiktet till en rörelsemodell i an- siktet. Den verkliga personens ansikte klistras därefter över modellen, varvid ett mot språket motsvarande rörelse- mönster erhålles. Uppfinningen ger sålunda intryck av att personen verkligen talar det aktuella språket.
I samband med inspelning av polyfoner, företrädesvis halv- stavelser, registreras rörelsemönster i olika delar av ett ansikte. Polyfonerna består av halvstavelser t.ex. spru, spri, kro etc. Vid inspelning av polyfonerna anordnas an- ordningar för samtidig registrering av ett antal mätpunk- ter i ansiktet hos en försöksperson. Mätpunkterna utgöres exempelvis av de i fig. 3 angivna punkterna 1-10. För var- je mätpunkt i ansiktet anordnas reflektorer eller motsva- cor-ao ÛOOIOI 10 15 20 25 30 35 519 244 f. .. 4 rande. Laserstrålar utsänds från en lasersändare L som är ansluten till en mätutrustning M. Mätutrustningen M re- gistrerar rörelsemönstret i respektive mätpunkter under intalning av ett naturligt tal. Talet kopplas till rörel- semönstret i respektive mätpunkter i ansiktet. Antalet mätpunkter i ansiktet är beroende av i vilken omfattning rörelsemönstret i ansiktet skall registreras. I vissa fall räcker det att registrera endast rörelsemönstret kring munnen och hakpartiet. I andra sammanhang eftersträvas mer fullständiga rörelsemönster i ansiktet där kindrörelser, ögonreaktioner, rörelser kring och i näspartiet önskas re- gistrerade. De inspelade orden delas in i polyfoner, halv- stavelser. Polyfonerna kopplas till motsvarande rörelse- mönster i ansiktets olika partier. Lagring sker därefter av polyfonerna och till polyfonerna hörande rörelsemönster i ansiktet. Lagringen sker i en databas där direkt kopp- ling mellan polyfonerna och de registrerade punkterna i ansiktet gjorts. En bank över de i ett eller flera språk förekommande polyfonerna erhålles på detta sätt. En männi- skas rörelsemönster i ansiktet är i viss mån beroende av vilket språk som talas. Av denna anledning inspelas poly- fonerna och ansiktsrörelserna företrädesvis för varje språk.
Varje polyfon segmenteras därefter i enlighet med fig. 2.
Segmenteringen av polyfonerna överförs även till rörelse- mönstren i ansiktet. På detta sätt kan representationen för enstaka bokstävers uttal överföras till motsvarande rörelsemönster i ansiktets olika delar.
En tillämpning av uppfinningen är exempelvis bildtelefoni mellan parter som talar olika språk. Vid en dylik tillämp- ning återfinns utrustningar i eller anslutbara till tele- nätet som registrerar och analyserar parternas tal. Talet igenkännes och översätts till motpartens språk. I samband med översättningen till det andra språket framtas de sen- tenser som skall uttalas. Sentenserna delas ned i polyfo- ner som hämtas ur databasen för det aktuella språket. I uflocøo 0 000001 10 15 20 25 30 35 519 244 5 beroende av vilka ord som skall uttalas sker därefter eventuellt en utsträckning eller förkortning av de enstaka ljudens, fonemens, uttalstid i polyfonet. I samband med att polyfonen uttas och justeras framtas även rörelse- mönstret i de olika delarna av ansiktet. I samband med att talsyntes genomförs påförs även motsvarande rörelsemönster en ansiktsmodell. Modellen utgör en ansiktsavbildning vil- ken anger de grundläggande dragen vid det aktuella språ- kets nyttjande. Vid framställning av talet klistras däref- ter den verkliga personens ansikte över modellen och ett för språket realistiskt rörelsemönster erhålles.
Med hänvisning till fig. 4 inbegriper uppfinningen ett första steg där en person inläser ett tal. Under inläs- ningen avläses ett antal mätpunkter i ansiktet. Mätpunk- terna avläses lämpligen med lasersignaler som riktas mot de aktuella mätpunkterna i ansiktet. De aktuella mätpunk- terna markeras med punkter Det intalade talet samt de tet registreras och lagras som reflektera lasersignalen. avlästa mätresultaten i ansik- I data- orden i halvstavelser till vil- därefter i en databas. basen anordnas de intalade ka halvstavelser motsvarande rörelsemönster i ansiktet hänföres.
I ett andra steg där en person talar ett språk som över- sätts till ett andra språk söks, efter översättningen, ak- tuella halvstavelser i det andra språket upp ur databasen.
Ur databasen framtas därefter motsvarande rörelsemönster i ansiktet. En segmentering av halvstavelser och motsvarande rörelsemönster i ansiktet genomförs därefter. En anpass- ning av segmenten sker därefter med hänsyn till de ord som skall framställas. Exempelvis skall segmenten utsträckas eller förkortas i tiden. Motsvarande ändring införs även för motsvarande segment i ansiktsrörelserna. När segmente- ring och anpassning genomförts skapas en modell av an- siktsrörelserna pà ett modellhuvud. Modellhuvudets uppgift är endast att ange vilka delar av ansiktet som ändras un- der talets framförande och saknar väsentligen karakteris- tiska drag hos en specifik människa. För att skapa en na- 0000!- 00000! 10 15 20 25 30 35 519 244 .. 6 turtrogen avbildning utnyttjas därefter den verkliga män- niskans avbildning. Denna avbildning kan finnas lagrad se- dan tidigare eller skapas av den bild som överförs av ta- laren vid inspelning av det första talet. Bilden av den verkliga talaren klistras/överlagras därefter på modellhu- vudet. Därefter framställs ljud och bild tillsammans och överförs till en mottagare. Den framställda avbildningen med tillhörande tal kommer härvid att uppfattas sà, att talaren talar det språk som mottagaren erhåller på ett na- turtroget sätt.
I det ovan beskrivna har bildtelefoni använts som exempel, men uppfinningen är tillämpar i alla sammanhang där en person skall föreställa att tala ett annat språk än denne ursprungligen talat. Tillämpningen kan således utnyttjas vid dubbning av filmer där ett realistiskt beteende efter- strävas.
Uppfinningen är även tillämpbar för registrering av det totala rörelsemönstret hos en person. I ett dylikt samman- hang anbringas mätpunkterna på ett antal mätpunkter över en försökspersons hela kropp. Mätpunkterna lagras liksom i det ovanstående för sammankoppling till en översättning av ett givet tal där rörelsemönstret först byggs upp en på modell, varpå den verkliga personens bild pàklistras/- överlagras.
I ytterligare utföringsform är uppfinningen utnyttjnings- bar för påförande av rörelsemönster på animerade filmer för erhållande av naturtrogna rörelser på t.ex. tecknade eller dataanimerade figurer. I ytterligare utföringsform registreras mätpunkterna l-10 i ansiktet tredimensionellt.
Den lagrade informationen utnyttjas därefter för skapande av en tredimensionell modell av rörelsemönstret på ett mo- dellhuvud. För att överföra det erhållna rörelsemönstret lpå en persons huvud páföres en avbildning av personens hu- vud modellen 11 genom påklistring. Påklistringen innebär att personens ansikte sker genom att en tredimensionell bild av personens ansikte framtas och överlagras modellhu- 100! ...w øonovo 519 244 . 7 vudet, varvid personen i fråga erhåller ett rörelsemönster som motsvaras av språkets rörelsemönster. Uppfinningen är inte begränsad till det i ovan beskrivna eller till nedan angivna patentkrav utan kan underkastas modifieringar inom ramen för uppfinningstanken.
Claims (24)
1. Anordning för talsyntes vid översättning av tal pà ett språk till syntetiskt tal pà ett andra språk, där polyfoner som förekommer åtminstone i det andra språket är lagrade i en minnesenhet, och polyfonerna är uttagbara och sammansätt- ningsbara till ord och sentenser, kännetecknad av att i min- nesenheten är till polyfonerna hörande ansiktsuttryck lagra- de, att vid bildandet av orden och sentenserna är motsva- rande delar av ansiktsuttrycken sammansatta och pàförbara en ansiktsavbildning, att ansiktsavbildningen är given ett rö- relsemönster som väl överensstämmer med rörelsemönstret i ett verkligt ansikte och att talarens avbildning utnyttjas som ansiktsavbildningen.
2. Anordning enligt patentkrav 1, kännetecknad av att ett antal punkter i ett verkligt ansiktet är registrerade sam- tidigt som polyfonerna är registrerade.
3. Anordning enligt patentkrav 1-2, kännetecknad av att de lagrade ansiktsuttrycken för motsvarande polyfon är sam- manställningsbara till ett modellerat ansiktsuttryck.
4. Anordning enligt patentkrav 1-3, kännetecknad av att det modellerade ansiktsuttrycket är pàförbart ansiktsavbild- ningen.
5. Anordning enligt något av föregående patentkrav, kän- netecknad av att vid registrering av ansiktsuttrycken är ett flertal mätpunkter i verkliga ansikten registrerade tillsam- mans med polyfonerna.
6. Anordning enligt något av föregående patentkrav, kän- netecknad av att vid sammansättningen av polyfonerna är de motsvarande ansiktsuttrycken utnyttjade för modellbild- ningen. 10 15 20 25 30 voøntd 519 244 '.:I...1 <7
7. Anordning enligt något av de föregående patentkraven, kännetecknad av att ansiktsrörelserna är påförbara en modell av ett ansikte.
8. Anordning enligt patentkrav 7, kännetecknad av att det verkliga ansiktet är påförbart modellen varvid en person vartill det verkliga ansiktet hör är avbildningsbart med ett mot vid talöversättning svarande ansiktsuttryck, varvid per- sonen i fråga är given intrycket att tala det andra språket.
9. Anordning enligt något av föregående patentkrav, kän- netecknad av att bildpunktsupptagningen i det verkliga an- siktet är anordnat att ske tredimensionellt.
10. Anordning enligt patentkrav 9, kännetecknad av att ansiktets rörelsemönster är anordnat att överföras till en tredimensionell ansiktsmodell.
11. Anordning enligt patentkrav 10, kännetecknad av att den tredimensionella ansiktsmodellen utgöres av ett modell- huvud.
12. Anordning enligt patentkrav 11, kännetecknad av att talarens ansikte är sammanlagrat med modellhuvudet varvid en naturtrogen modell av talarens ansikte är erhållen.
13. Anordning enligt något av föregående patentkrav, kän- netecknad av att det verkliga ansiktet med till polyfonerna hörande ansiktsuttryck är reproducerbara i två eller tre di- mensioner.
14. Anordning enligt något av föregående patentkrav, kän- netecknad av att polyfonsammansättning och tillhörande rö- relsemönster i ansiktet är utnyttjbart vid bildkommunikation där personen talar ett första språk, och nämnda första språk översätts till ett andra språk, vilket andra språk återges hos en mottagare som ges intrycket att personen verkligen talar det andra språket. OQOOOU 10 15 20 25 30 519 244 .:I. /0
15. Anordning enligt något av föregående patentkrav, kän- netecknad av att àtergivningen av ansiktsuttryck är över- föringsbara till rörliga bilder vid talöversättning.
16. Anordning enligt patentkrav 15, kännetecknad av att de rörliga bilderna avser djur, människor eller tecknade fi- gurer.
17. Anordning enligt något av föregående patentkrav, kän- netecknad av att ansiktsuttrycken med tillhörande polyfoner är utnyttjbara vid bildanimering, t ex vid framställning av tecknade filmer.
18. Anordning enligt något av föregående patentkrav, kän- netecknad av att delbitar i polyfonerna är lagrade till- sammans med motsvarande rörelsemönster i ansiktet.
19. Anordning enligt patentkrav 18, kännetecknad av att vid skapandet av ord och sentenser polyfonernas delbitar är anpassningsbara till de skapade orden och sentenserna, var- vid motsvarande rörelsebitar i ansiktet modifieras i motsva- rande utsträckning.
20. Anordning enligt patentkrav 19, kânnetecknad av att rörelsemönstret i varje registrerad del av ansiktet är modi- fierad med hänsyn till polyfondelarnas modifiering.
21. Metod för talsyntes vid översättning av tal på ett språk till syntetiskt tal på ett andra språk, där polyfoner, som förekommer åtminstone i det andra språket, och deras delbitar lagras i en minnesenhet, och polyfonerna samman- sätts till ord och sentenser, kännetecknad av att i minnes- enheten lagras mot polyfonerna svarande rörelsemönster i ett ansikte, att polyfonerna och motsvarande rörelsemönster seg- menteras varvid polyfonernas och rörelsemönstrens delbitar modifieras med hänsyn till de bildade orden och sekvenserna, att rörelsemönstret pàföres en ansiktsavbildning vars rörel- semönster ges ett mot orden och sentenserna svarande rörel- Iøtvuiv 10 15 519 244 ll semönster och att talarens avbildning utnyttjas som an- siktsavbildningen.
22. Metod enligt patentkrav 21, kännetecknad av att ett antal punkter i ett verkligt ansikte registreras tillsammans med polyfonerna.
23. Metod enligt patentkrav 21 eller 22, kännetecknad av att ansiktsuttrycken och motsvarande polyfoner sammanställs till ett modellerat ansiktsuttryck som pâförs ansiktsavbild- ningen.
24. Metod enligt patentkrav 21, 22 eller 23, känneteck- nad av att vid registrering av ansiktsuttrycken registreras ett flertal mätpunkter i det verkliga ansiktet tillsammans med polyfonerna och vid sammansättning av polyfonerna ut- nyttjas de motsvarande ansiktsuttrycken för modellbild- ningen. 000000
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE9504367A SE519244C2 (sv) | 1995-12-06 | 1995-12-06 | Anordning och metod vid talsyntes |
DE69632901T DE69632901T2 (de) | 1995-12-06 | 1996-10-30 | Vorrichtung und Verfahren zur Sprachsynthese |
DK96850181T DK0778560T3 (da) | 1995-12-06 | 1996-10-30 | Indretning og fremgangsmåde til talesyntese |
EP96850181A EP0778560B1 (en) | 1995-12-06 | 1996-10-30 | Device and method at speech synthesis |
NO19965147A NO311546B1 (no) | 1995-12-06 | 1996-12-03 | Anordning og fremgangsmåte ved talesyntese |
US08/760,811 US5826234A (en) | 1995-12-06 | 1996-12-05 | Device and method for dubbing an audio-visual presentation which generates synthesized speech and corresponding facial movements |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE9504367A SE519244C2 (sv) | 1995-12-06 | 1995-12-06 | Anordning och metod vid talsyntes |
Publications (3)
Publication Number | Publication Date |
---|---|
SE9504367D0 SE9504367D0 (sv) | 1995-12-06 |
SE9504367L SE9504367L (sv) | 1997-06-07 |
SE519244C2 true SE519244C2 (sv) | 2003-02-04 |
Family
ID=20400494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE9504367A SE519244C2 (sv) | 1995-12-06 | 1995-12-06 | Anordning och metod vid talsyntes |
Country Status (6)
Country | Link |
---|---|
US (1) | US5826234A (sv) |
EP (1) | EP0778560B1 (sv) |
DE (1) | DE69632901T2 (sv) |
DK (1) | DK0778560T3 (sv) |
NO (1) | NO311546B1 (sv) |
SE (1) | SE519244C2 (sv) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE520065C2 (sv) | 1997-03-25 | 2003-05-20 | Telia Ab | Anordning och metod för prosodigenerering vid visuell talsyntes |
SE519679C2 (sv) * | 1997-03-25 | 2003-03-25 | Telia Ab | Metod vid talsyntes |
SE511927C2 (sv) * | 1997-05-27 | 1999-12-20 | Telia Ab | Förbättringar i, eller med avseende på, visuell talsyntes |
US6016148A (en) * | 1997-06-06 | 2000-01-18 | Digital Equipment Corporation | Automated mapping of facial images to animation wireframes topologies |
US7366670B1 (en) * | 1997-08-05 | 2008-04-29 | At&T Corp. | Method and system for aligning natural and synthetic video to speech synthesis |
US6567779B1 (en) * | 1997-08-05 | 2003-05-20 | At&T Corp. | Method and system for aligning natural and synthetic video to speech synthesis |
DE69829947T2 (de) * | 1997-09-01 | 2006-03-02 | Koninklijke Philips Electronics N.V. | Ein verfahren und gerät zum synchronisieren eines computeranimierten modells mit einem audiosignal |
CA2323421C (en) * | 1998-03-11 | 2008-09-23 | Entropic, Inc. | Face synthesis system and methodology |
US20020069048A1 (en) * | 2000-04-07 | 2002-06-06 | Sadhwani Deepak Kishinchand | Communication system |
DE10018143C5 (de) * | 2000-04-12 | 2012-09-06 | Oerlikon Trading Ag, Trübbach | DLC-Schichtsystem sowie Verfahren und Vorrichtung zur Herstellung eines derartigen Schichtsystems |
US7106887B2 (en) * | 2000-04-13 | 2006-09-12 | Fuji Photo Film Co., Ltd. | Image processing method using conditions corresponding to an identified person |
AU2001292963A1 (en) * | 2000-09-21 | 2002-04-02 | The Regents Of The University Of California | Visual display methods for use in computer-animated speech production models |
US7203648B1 (en) | 2000-11-03 | 2007-04-10 | At&T Corp. | Method for sending multi-media messages with customized audio |
US6963839B1 (en) | 2000-11-03 | 2005-11-08 | At&T Corp. | System and method of controlling sound in a multi-media communication application |
US7035803B1 (en) | 2000-11-03 | 2006-04-25 | At&T Corp. | Method for sending multi-media messages using customizable background images |
US6990452B1 (en) | 2000-11-03 | 2006-01-24 | At&T Corp. | Method for sending multi-media messages using emoticons |
US7091976B1 (en) | 2000-11-03 | 2006-08-15 | At&T Corp. | System and method of customizing animated entities for use in a multi-media communication application |
US20080040227A1 (en) | 2000-11-03 | 2008-02-14 | At&T Corp. | System and method of marketing using a multi-media communication system |
US6976082B1 (en) | 2000-11-03 | 2005-12-13 | At&T Corp. | System and method for receiving multi-media messages |
AU2002239550B2 (en) * | 2000-11-17 | 2006-11-16 | Tate & Lyle Technology Limited | Meltable form of sucralose |
US6778252B2 (en) * | 2000-12-22 | 2004-08-17 | Film Language | Film language |
US6661418B1 (en) * | 2001-01-22 | 2003-12-09 | Digital Animations Limited | Character animation system |
US7671861B1 (en) | 2001-11-02 | 2010-03-02 | At&T Intellectual Property Ii, L.P. | Apparatus and method of customizing animated entities for use in a multi-media communication application |
US7663628B2 (en) * | 2002-01-22 | 2010-02-16 | Gizmoz Israel 2002 Ltd. | Apparatus and method for efficient animation of believable speaking 3D characters in real time |
US7209882B1 (en) | 2002-05-10 | 2007-04-24 | At&T Corp. | System and method for triphone-based unit selection for visual speech synthesis |
US8788274B1 (en) | 2003-07-03 | 2014-07-22 | Jose Estevan Guzman | Language converter and transmitting system |
GB0606977D0 (en) * | 2006-04-06 | 2006-05-17 | Freemantle Media Ltd | Interactive video medium |
CN101971262A (zh) * | 2007-12-21 | 2011-02-09 | 皇家飞利浦电子股份有限公司 | 用于播放图片的方法和设备 |
US8655152B2 (en) | 2012-01-31 | 2014-02-18 | Golden Monkey Entertainment | Method and system of presenting foreign films in a native language |
KR20140146965A (ko) * | 2013-06-18 | 2014-12-29 | 삼성전자주식회사 | 디스플레이 장치, 서버를 포함하는 변환 시스템 및 디스플레이 장치의 제어 방법 |
KR102127351B1 (ko) | 2013-07-23 | 2020-06-26 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
US9564128B2 (en) * | 2013-12-09 | 2017-02-07 | Qualcomm Incorporated | Controlling a speech recognition process of a computing device |
US9607609B2 (en) | 2014-09-25 | 2017-03-28 | Intel Corporation | Method and apparatus to synthesize voice based on facial structures |
WO2017137947A1 (en) * | 2016-02-10 | 2017-08-17 | Vats Nitin | Producing realistic talking face with expression using images text and voice |
US10657972B2 (en) * | 2018-02-02 | 2020-05-19 | Max T. Hall | Method of translating and synthesizing a foreign language |
US11908478B2 (en) | 2021-08-04 | 2024-02-20 | Q (Cue) Ltd. | Determining speech from facial skin movements using a housing supported by ear or associated with an earphone |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5111409A (en) * | 1989-07-21 | 1992-05-05 | Elon Gasper | Authoring and use systems for sound synchronized animation |
US5293584A (en) * | 1992-05-21 | 1994-03-08 | International Business Machines Corporation | Speech recognition system for natural language translation |
US5687280A (en) * | 1992-11-02 | 1997-11-11 | Matsushita Electric Industrial Co., Ltd. | Speech input device including display of spatial displacement of lip position relative to predetermined position |
US5482048A (en) * | 1993-06-30 | 1996-01-09 | University Of Pittsburgh | System and method for measuring and quantitating facial movements |
JPH07302351A (ja) * | 1994-05-09 | 1995-11-14 | Canon Inc | 画像・音声応答装置及び画像・音声応答方法 |
US5657426A (en) * | 1994-06-10 | 1997-08-12 | Digital Equipment Corporation | Method and apparatus for producing audio-visual synthetic speech |
US5615301A (en) * | 1994-09-28 | 1997-03-25 | Rivers; W. L. | Automated language translation system |
-
1995
- 1995-12-06 SE SE9504367A patent/SE519244C2/sv not_active IP Right Cessation
-
1996
- 1996-10-30 DK DK96850181T patent/DK0778560T3/da active
- 1996-10-30 DE DE69632901T patent/DE69632901T2/de not_active Expired - Lifetime
- 1996-10-30 EP EP96850181A patent/EP0778560B1/en not_active Expired - Lifetime
- 1996-12-03 NO NO19965147A patent/NO311546B1/no not_active IP Right Cessation
- 1996-12-05 US US08/760,811 patent/US5826234A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
NO311546B1 (no) | 2001-12-03 |
NO965147L (no) | 1997-06-09 |
SE9504367D0 (sv) | 1995-12-06 |
DE69632901T2 (de) | 2005-08-04 |
EP0778560B1 (en) | 2004-07-14 |
NO965147D0 (no) | 1996-12-03 |
EP0778560A2 (en) | 1997-06-11 |
SE9504367L (sv) | 1997-06-07 |
US5826234A (en) | 1998-10-20 |
EP0778560A3 (en) | 1998-09-09 |
DK0778560T3 (da) | 2004-11-22 |
DE69632901D1 (de) | 2004-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
SE519244C2 (sv) | Anordning och metod vid talsyntes | |
Moberg | Contributions to Multilingual Low-Footprint TTS System for Hand-Held Devices | |
US5940797A (en) | Speech synthesis method utilizing auxiliary information, medium recorded thereon the method and apparatus utilizing the method | |
KR102306844B1 (ko) | 비디오 번역 및 립싱크 방법 및 시스템 | |
JPH11513144A (ja) | 対話型言語トレーニング装置 | |
KR20190046371A (ko) | 얼굴 표정 생성 장치 및 방법 | |
JP2003529861A5 (sv) | ||
CN110767213A (zh) | 一种韵律预测方法及装置 | |
JP2008052628A (ja) | アニメーションデータ作成装置及びアニメーションデータ作成プログラム | |
US6389396B1 (en) | Device and method for prosody generation at visual synthesis | |
Beskow | Trainable articulatory control models for visual speech synthesis | |
Minnis et al. | Modeling visual coarticulation in synthetic talking heads using a lip motion unit inventory with concatenative synthesis | |
Serra et al. | A proposal for a visual speech animation system for European Portuguese | |
CN115529500A (zh) | 动态影像的生成方法和装置 | |
JP2001517327A (ja) | スピーチ合成方法 | |
Hwang et al. | Neural network-based F0 text-to-speech synthesiser for Mandarin | |
Brooke | Computational aspects of visual speech: machines that can speechread and simulate talking faces | |
US20230245644A1 (en) | End-to-end modular speech synthesis systems and methods | |
Wei et al. | Speech animation based on Chinese mandarin triphone model | |
Morishima et al. | Multimodal translation system using texture-mapped lip-sync images for video mail and automatic dubbing applications | |
Chen et al. | Speech driven MPEG-4 based face animation via neural network | |
Granström et al. | Eyebrow movements as a cue to prominence | |
Mažonavičiūtė et al. | English talking head adaptation for Lithuanian speech animation | |
Kato et al. | Generation of realistic facial animation of a CG avatar speaking a moraic language | |
Safabakhsh et al. | AUT-Talk: a farsi talking head |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NUG | Patent has lapsed |