NO323734B1 - Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater - Google Patents

Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater Download PDF

Info

Publication number
NO323734B1
NO323734B1 NO20035109A NO20035109A NO323734B1 NO 323734 B1 NO323734 B1 NO 323734B1 NO 20035109 A NO20035109 A NO 20035109A NO 20035109 A NO20035109 A NO 20035109A NO 323734 B1 NO323734 B1 NO 323734B1
Authority
NO
Norway
Prior art keywords
speech
excitation
time series
codebook
linear prediction
Prior art date
Application number
NO20035109A
Other languages
English (en)
Other versions
NO20035109L (no
NO20035109D0 (no
Inventor
Tadashi Yamaura
Original Assignee
Research In Motion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=18439687&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=NO323734(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Publication of NO20035109L publication Critical patent/NO20035109L/no
Application filed by Research In Motion Ltd filed Critical Research In Motion Ltd
Publication of NO20035109D0 publication Critical patent/NO20035109D0/no
Publication of NO323734B1 publication Critical patent/NO323734B1/no

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/135Vector sum excited linear prediction [VSELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • G10L2019/0005Multi-stage vector quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0007Codebook element generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0012Smoothing of parameters of the decoder interpolation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Analogue/Digital Conversion (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

Teknisk område
Denne oppfinnelse gjelder fremgangsmåter for talekoding og dekoding av tale samt apparater for slik talekoding og dekoding ved utførelse av kompresjonskoding og -dekoding av et talesignal til et digitalsignal. Spesielt gjelder oppfinnelsen en fremgangsmåte for talekoding, en fremgangsmåte for taledekoding samt apparater for henholdsvis talekoding og taledekoding med det formål å gjengi tale med høy kvalitet og ved lave bit-takter.
Bakgrunnsteknikk
Innenfor den beslektede teknikk er kodeeksitert lineær prediksjon (Code-Excited Linear Prediction: CELP) velkjent som en effektiv talekodingsmetode, og dens teknikk er beskrevet i "Code-excited linear prediction (CELP): Highquality speech at very low bit rates", ICASSP 1985, sidene 937-940, av M. R. Schroeder og B. S. Atal i 1985.
Et annet eksempel for et system og en fremgangsmåte relatert til talekoding og -dekoding, der flere eksiteringskodebøker kobles inn på basis av en tonefrekvens som velges i en adaptiv kodebok, fremlegges i JP8,185,198.
Fig. 6 viser et eksempel på en fullstendig konfigurasjon av en CELP-talekodings- og taledekodingsmetode. I fig. 6 er det vist en kode 101, en dekoder 102, multipleksingsutstyr 103 og divisjonsutstyr 104.
Koderen 101 omfatter en innretning for lineær prediksjonsparameter-analysering 105, en innretning for lineær prediksjonsparameter-koding 106, et syntesefilter 107, en adaptiv kodebok 108, en eksiteringskodebok 109, en innretning 110 for forsterkningskoding, en innretning for avstandsberegning 111, samt en innretning for avveiing og addering 138. Dekoderen 102 omfatter en innretning for prediksjonsparameter-dekoding 112, et syntesefilter 113, en adaptiv kodebok 114, en eksiteringskodebok 115, en innretning for forsterkningsdekoding 116, og en innretning for avveiing og addering 139.
Ved CELP-talekoding blir tale innenfor en tidsramme på omkring 5-50 ms oppdelt i spektruminformasjon og eksiteringsinformasjon, samt kodet.
Det vil nå bli forklart hvorledes fremgangsmåten for CELP-tajekodingen virker. I koderen 101 analyserer innretningen for lineær prediksjonsparameter-analyse en inngangstale S101 og trekker ut en lineær prediksjonsparameter som utgjør spektruminformasjon for talen. Innretningen 106 for lineær prediksjonsparameter-koding koder denne lineære prediksjonsparameter og fastlegger en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 107.
Kodingen av eksiteringsinformasjonen vil nå bli forklart.
Et tidligere eksiteringssignal er lagret i den adaptive kodebok 108. Denne adaptive kodebok 108 avgir en tidsserievektor som tilsvarer en adaptiv kode som er tilført fra avstandsberegneren 111, og som er generert ved å gjenta det tidligere eksiteringssignal periodisk.
Flere tidsserievektorer som er utviklet ved reduksjon av taleforvrengning med henblikk på opplæring og den tilsvarende kodede tale er f.eks. lagret i eksiteringskodeboken 109. Denne eksiteringskodebok 109 avgir en tidsserievektor som tilsvarer en eksiteringskode tilført fra avstandsberegneren 111.
Hver av de tidsserievektorer som avgis fra den adaptive kodebok 108 og eksiteringskodeboken 109 avveies ved bruk av en tilsvarende forsterkning som frembringes av innretningen 110 for forsterkningskoding og adderes ved hjelp av innretningen 138 for avveiing og addering. Et addisjonsresultat blir så frembrakt og overføres til syntesefilteret 107 som eksiteringssignaler, og det dannes da en kodet tale. Innretningen for avstandsberegning 111 beregner en avstand eller forskjell mellom den kodede tale og inngangstalen S101 og søker etter en adaptiv kode, eksiteringskode og forsterkninger for å redusere denne forskjell til et minimum. Når den ovenfor omtalte koding er avsluttet, blir en lineær prediksjonsparameter-kode og den adaptive kode, eksiteringskoden og forsterkningskodene for å nedsette en forvrengning mellom inngangstalen og den kodede tale avgitt som et kodingsresultat.
Det vil nå bli forklart hvorledes fremgangsmåten for CELP-taledekodingen virker.
I dekoderen 102 dekoder innretningen 112 for lineær
prediksjonsparameter-dekoding den lineære prediksjonsparameterkode for den
lineære prediksjonsparameter, samt fastlegger den lineære prediksjonsparameter som en koeffisient for syntesefilteret 113. Den adaptive kodebok 114 avgir en tidsserievektor som tilsvarer en adaptiv kode, og som genereres ved å gjenta et tidligere eksiteringssignal periodisk. Eksiteringskodeboken 115 avgir en tidsserievektor som tilsvarer en eksiteringskode. Disse tidsserievektorer avveies ved bruk av til-
svarende forsterkninger, som da dekodes fra forsterkningskodene ved hjelp av innretningen 116 for forsterkningsdekoding, samt adderes ved hjelp av innretningen 139 for avveiing og addering. Det frembringes da et addisjonsresultat som avgis til syntesefilteret 113 som et eksitasjonssignal, og en utgangstale S103 frembringes på denne måte.
Blant de foreliggende metoder for CELP-talekoding og taledekoding er en forbedret fremgangsmåte for talekoding og -dekoding med henblikk på å reprodu-sere høykvalitetstale i samsvar med beslektet teknikk beskrevet i "Phonetically - based vector excitation coding of speech at 3.6 kbps," ICASSP 1989, sidene 49-52, av S. Wang og A. Gersho i 1989.
Fig. 7 viser et eksempel på en fullstendig konfigurasjon av fremgangsmåten for talekoding og taledekoding i henhold til den beslektede teknikk, og samme henvisningstegn er her anvendt som for de viste innretninger i fig. 6.
I fig. 7 omfatter koderen 101 en bestemmelsesinnretning 117 for taletilstanden, en omkoplingsinnretning 118 for eksiteringskodebok, en første eksiteringskodebok 119 og en andre eksiteringskodebok 120. Dekoderen 102 omfatter en omkoplingsinnretning 121 for eksiteringskodebok, en første eksiteringskodebok 122 og en andre eksiteringskodebok 123.
Det vil nå bli forklart hvorledes fremgangsmåten for koding og dekoding virker i denne konfigurasjon. I koderen 101 analyserer bestemmelseinnretningen 117 for taletilstanden inngangstalen S101, og bestemmer om talen befinner seg i én av to tilstander, f.eks. stemt eller ustemt. Omkoplingsinnretningen 118 for eksiteringskodebok kopler inn den av eksiteringskodebøkene som skal anvendes ved kodingen på grunnlag av resultatet av en taletilstandsbestemmelse. Hvis f.eks. talen er stemt, anvendes da den første eksiteringskodebok 119, og hvis talen er ustemt, så vil den andre eksiteringskodebok 120 bli brukt. Omkoplingsinnretningen 118 for eksiteringskodebok koder så hvilken eksiteringskodebok som er anvendt ved kodingen.
I dekoderen 102 kopler omkoplingsinnretningen 121 for eksiteringskodebok om mellom den første eksiteringskodebok 122 og den andre eksiteringskodebok
123 basert på en kodeanvisning som angir hvilken eksiteringskodebok som er blitt anvendt i koderen 101, slik at den eksiteringskodebok som er blitt anvendt i koderen 101 også anvendes i dekoderen 102.1 samsvar med denne konfigurasjon ut-
nyttes således eksitasjonskodebøker som til enhver tid er egnet for koding i de forskjellige taletilstander, og disse eksiteringskodebøker koples inn på grunnlag av en tilsvarende tilstand av en inngangstale. På denne måte kan tale gjengis med høy kvalitet.
En fremgangsmåte for talekodingen og -dekoding som går ut på omkopling mellom flere eksiteringskodebøker uten økning av overføringsbitantallet og i samsvar med den beslektede teknikk er angitt i japansk ugransket offentliggjort patent-søknad 8-185198. Disse flere eksiteringskodebøker koples inn på grunnlag av en tonefrekvens som velges i en adaptiv kodebok, og en eksiteringskodebok som er egnet for å angi egenskaper ved en inngangstale kan da anvendes uten at over-føringsdata økes.
Som angitt for den fremgangsmåte for talekoding og taledekoding som er vist i fig. 6 i samsvar med kjent beslektet teknikk, anvendes en enkelt eksiteringskodebok for å frembringe en syntetisk tale. Støvfrie tidsserievektorer med mange pulser bør lagres i eksiteringskodeboken for å frembringe en kodet tale av høy kvalitet selv ved lave bit-takter. Når det da foreligger tale med støy, f.eks. bak-grunnsstøy, frikative konsonanter, etc, kodes og syntetiseres, vil det være et problem at en kodet tale frembringer en unaturlig lyd, f.eks. "Jiri-Jiri" og "Chiri-ChSri". Dette problem kan løses, hvis eksiteringskodeboken omfatter bare støy-tidsserievektorer. I dette tilfelle vil imidlertid kvaliteten av den kodede tale bli de-gradert i sin helhet.
Ved den forbedrede fremgangsmåte for talekoding og taledekoding som er vist i fig. 7 og er i samsvar med beslektet tidligere teknikk, blir da de flere eksiter-ingskodebøker koplet inn på grunnlag av inngangstalens tilstand for derved å frembringe en kodet tale. Det vil da være mulig å bruke en eksiteringskodebok som omfatter støy-tidsserievektorer innenfor en ustemt støyperiode av inngangstalen samt en eksiteringskodebok som omfatter støvfrie tidsserievektorer innenfor en stemt periode som er forskjellig fra den utstemte støyperiode, er angitt som et eksempel. Selv om en tale med støy blir kodet og syntetisert vil da ikke noen unaturlig lyd, f.eks. "Jiri-Jiri", blir frembrakt. Da imidlertid den eksiteringskodebok som anvendes ved kodingen også brukes ved dekodingen, vil det være nødvendig å kode og overføre data som angir hvilken eksiteringskodebok som er brukt. Dette blir da en hindring for å oppnå lave bit-takter.
I henhold til fremgangsmåten for talekoding og -dekoding ved omkopling mellom flere eksiteringskodebøker uten å øke en overførings bitantall i samsvar med den beslektede teknikk, blir eksiteringskodebøkene koplet om på grunnlag av en tonehøydeperiode valgt i den adaptive kodebok. Den tonehøydeperiode som velges i den adaptive kodebok vil imidlertid avvike fra en faktisk tonehøydeperiode i en tale, og det vil være umulig å fastslå om en tilstand av en inngangstale faktisk er støy eller ikke støy bare ut fra en verdi av tonehøydeperioden. Det problem at den kodede tale innenfor en støyfylt periode av talen er unaturlig kan da ikke løses på denne måte.
Foreliggende oppfinnelse har imidlertid som formål å løse de ovenfor angit-te problemer. Særlig tar oppfinnelsen sikte på å frembringe fremgangsmåter for koding og dekoding av tale samt apparater for å gjengi tale med høy kvalitet selv ved lave bit-takter.
Beskrivelse av oppfinnelsen
Oppfinnelsen fremlegger en fremgangsmåte for taledekoding ifølge kodeeksitert lineærprediksjon (CELP), som kjennetegnes ved at den mottar en kodet
tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok. Fremgangsmåten for taledekoding omfatter trinnene (1) å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken, (2) å avgjøre om modifikasjon av tidsserievektorer er nødvendig, (3) å modifisere tidsserievektoren slik at antall sampler med null amplitudeverdi endres hvis modifikasjon av-gjøres å være nødvendig, (4) en avgivelse av tidsserievektoren og (5) syntetisering av tale ved å benytte den avgitte tidsserievektoren.
Som et annet aspekt ved oppfinnelsen presenteres et apparat for taledekoding ifølge kodeeksitert lineær prediksjon (CELP), der taledekodingsanordningen
mottar en kodet tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok. Apparatet kjennetegnes det omfatter en tidsserievektormoduleringsanordning for å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken og å avgjøre om modifikasjon av tidsserievektoren er
nødvendig, og for å modifisere tidsserievektoren slik at antall sampler med null
amplitudeverdi endres hvis modifikasjon avgjøres å være nødvendig, og for å avgi tidsserievektoren. Apparatet omfatter også en talesyntetiseringsanordning for å syntetisere en tale ved å bruke den avgitte tidsserievektoren.
Kort beskrivelse av tegningene
Fig. 1 viser et blokkskjema for en fullstendig konfigurasjon av et apparat for koding og dekoding av tale i en utførelse 1 i henhold til oppfinnelsen. Fig. 2 viser en tabell for å forklare en evaluering av støynivået i den utfør-else 1 i henhold til oppfinnelsen og som er vist i fig. 1. Fig. 3 angir et blokkskjema for en fullstendig konfigurasjon av et apparat for koding og dekoding av tale i en utførelse 3 i henhold til foreliggende oppfinnelse. Fig. 4 viser et blokkskjema av en fullstendig konfigurasjon av et apparat for koding og dekoding av tale i en utførelse 5 i henhold til oppfinnelsen. Fig. 5 viser et skjematisk linjekart for å forklare en beslutningsprosess ved avveiing i en utførelse 5 som er vist i fig. 4. Fig. 6 viser et blokkdiagram for en fullstendig konfigurasjon for et apparat for CELP-koding og -dekoding av tale i henhold til beslektet tidligere teknikk. Fig. 7 viser et blokkskjema for en fullstendig konfigurasjon av et apparat for forbedret CELP-koding og -dekoding av tale i henhold til beslektet tidligere teknikk.
Beste modus for utførelse av oppfinnelsen
Utførelser av foreliggende oppfinnelse vil nå bli forklart med henvisning til tegningene.
Utførelse 1
Fig. 1 viser en fullstendig konfigurasjon som angir en fremgangsmåte for talekoding og taledekoding i en utførelse 1 i henhold til foreliggende oppfinnelse. I fig. 1 er det vist en koder 1, en dekoder 2, en multiplekser 3 og en divisjonsenhet 4. Koderen 1 omfatter en analysator 5 for en lineær prediksjonsparameter, en
koder 6 for lineær prediksjonsparameter, et syntesefilter 7, en adaptiv kodebok 8, en forsterkningskoder 10, en avstandsberegner 11, en første eksiteringskodebok 19, en andre eksiteringskodebok 20, en støynivåevaluator 24, en omkopler 25 for
eksiteringskodebøker og en innretning for avveiing og addering. Dekoderen 2 omfatter en dekoder 12 for lineær prediksjonsparameter, et syntesefilter 13, en adaptiv kodebok 14, en første eksiteringskodebok 22, en andre eksiteringskodebok 23, en støynivåevaluator 26, en omkopler 27 for eksiteringskodebøker, en forsterk-ningsdekoder 16, og en innretning 39 for avveiing og addering. I fig. 1 er analysatoren 5 for lineær prediksjonsparameter en spektruminformasjonsanalysator for å analysere en inngangstale S1 samt for å trekke ut en lineær prediksjonsparameter som angir spektruminformasjon for talen. Koderen 6 for prediksjonsparameter er en spektruminformasjonskoder for koding av den lineære prediksjonsparameter som gir spektruminformasjon og for å fastlegge en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 7. De første eksiteringskodebøker 19 og 22 lagrer flere sett av støvfrie tidsserievektorer, og de andre eksiteringskode-bøker 20 og 23 lagrer flere sett av tidsserievektorer med støy. Støynivåevaluator-ene 24 og 26 evaluerer støynivåer, og omkoplerne 25 og 27 for omkopling av eksi-teringskodebøker er innrettet for å kople om mellom slike kodebøker på grunnlag av støynivået.
Arbeidsoperasjonene vil nå bli forklart.
I koderen 1 analyserer analysatoren 5 for lineær prediksjonsparameter inngangstalen S1 og ekstraherer fra denne en lineær prediksjonsparameter som ut-gjør spektruminformasjon for vedkommende tale. Koderen 6 for lineær prediksjonsparameter koder denne lineære prediksjonsparameter. Koderen 6 for lineær prediksjonsparameter innstiller så en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 7, og avgir også denne kodede lineære prediksjonsparameter til støynivåevaluatoren 24.
Kodingen av eksiteringsinformasjon vil nå bli forklart.
Tidligere eksiteringssignal er lagret i den adaptive kodebok 8, og en tidsserievektor som tilsvarer en adaptiv kode som er innført av avstandsberegnin-gen 11, og som genereres ved å gjenta et tidligere eksiteringssignal periodisk, avgis på utgangssiden. Støynivåevaluatoren 24 evaluerer et støynivå i en bestemt kodingsperiode på grunnlag av den kodede lineære prediksjonsparameter som er tilført fra koderen 6 for lineær prediksjonsparameter og den adaptive kode, f.eks. en spektrum-gradient, en korttids prediksjonsforsterkning og tonehøydefluktuasjon slik som vist i fig. 2, og avgir et evalueringsresultat til omkopleren 25 for eksita-sjonskodebøker. Denne omkopler 25 for eksiteringskodebøker kopler om eksita-sjonskodebøkene for koding basert på evalueringen av støynivået. Hvis f.eks. støynivået er lavt, benyttes den første eksiteringskodebok 19, og hvis støynivået er høyt anvendes den andre eksiteringskodebok 20.
Den første eksiteringskodebok 19 lagrer flere støvfrie tidsserievektorer, f.eks. flere tidsserievektorer som er opplært ved reduksjon av en forvrengning mellom en innlæringstale og dens kodede tale versjon. Den andre eksiteringskodebok 20 lagrer flere tidsserievektorer med støy, f.eks. et antall slike tidsserievektorer som er generert ut i fra tilfeldig støy. Såvel den første eksiteringskodebok 19 og den andre eksiteringskodebok 20 avgir en tidsserievektor som tilsvarer hver sin eksiteringskode som innføres fra avstandsberegneren 11. Hver av tidsserievektorene fra den adaptive kodebok 8 og enten den første eksiteringskodebok 19 eller den andre eksiteringskodebok 20 blir avveiet ved bruk av en tilsvarende forsterkning som avgis fra forsterkningskoderen 10 og adderes ved hjelp av innretningen 38 for avveiingen og addisjon. Et oppnådd addisjonsresultat avgis til syntesefilteret 7 som eksiteringssignaler, og det frembringes en kodet tale. Avstandsberegneren 11 beregneren en forskjell mellom den kodede tale og inngangstalen S1, samt søker en adaptiv kode, samt eksiteringskode og forstekning for å nedsette forskjellen til et minimum. Når kodingen er over avgis den lineære prediksjonsparameterkode og en adaptiv kode, eksiteringskode og forsterkningskode for ned-settelse av forvrengningsforskjellen mellom inngangstale og den kodede tale som et kodingsresultat S2. Dette er kjennetegnende arbeidsprosesser innenfor fremgangsmåten for talekoding i utførelse 1.
Dekoderen 2 vil nå bli forklart. I dekoderen 2 dekoder dekoderenheten 12 for lineær prediksjonsparameter den lineære prediksjonsparameterkode til lineær prediksjonsparameter og innstiller denne kodede lineære prediksjonsparameter som en koeffisient for syntesefilteret 13, samt avgir på sin utgangsside den dekodede lineære prediksjonsparameter til støynivåevaluatoren 26.
Dekodingen av eksiteringsinformasjonen vil nå bli forklart. Den adaptive kodebok 14 avgir en tidsserievektor som tilsvarer en adaptiv kode og som genereres ved å gjenta et tidligere eksiteringssignal periodisk. Støynivåevaluatoren 26 evaluerer et støynivå ved å bruke den dekodede lineære prediksjonsparameter som er tilført fra dekodingsenheten 12 for lineær prediksjonsparameter og den adaptive kode på samme måte som støynivåevaluatoren 24 i koderen 1, og avgir et evalueringsresultat til omkopleren 27 for eksiteringskodebøker. Denne omkopler 27 for eksiteringskodebøker kopler om mellom den første eksiteringskodebok 22 og den andre eksiteringskodebok 23 på grunnlag av evalueringsresultatet med hensyn til støynivå på samme måte som eksiteringskodebok-omkopleren 25 i koderen 1.
Flere støvfrie tidsserievektorer, f.eks. flere slike vektorer som genereres ved innlæring for reduksjon av forvrengningsforskjell mellom en innlæringstale og dens tilsvarende kodede taleversjon, lagres i den første eksiteringskodebok 22. Flere tidsserievektorer med støy, f.eks. flere vektorer som er generert ut i fra tilfeldig støy, lagres i den andre eksiteringskodebok 23. Såvel den første som den andre eksiteringskodebok avgir en tidsserievektor tilsvarende hver sin eksiteringskode. Disse tidsserievektorer fra den adaptive kodebok 14 og enten den første eksiteringskodebok 22 eller den andre eksiteringskodebok 23 avveies ved anvendelse av forskjellige forsterkninger, som er dekodet fra forsterkningskodene fra forsterkningsdekoderen 16, samt adderes ved hjelp av innretningen 39 for avveiing og addering. Et addisjonsresultat overføres til syntesefilteret 13 som et eksiteringssignal, og det frembringes da en utgangstale S3. Disse arbeidsoperasjoner er karakteristiske prosesser i utførelse 1 av fremgangsmåten for taledekoding.
I utførelse 1 evalueres støynivået i inngangstalen ved å bruke koden og kodingsresultatet, og forskjellige eksiteringskodebøker anvendes basert på evalueringsresultatet. Tale av høy kvalitet kan således reproduseres ved hjelp av en forholdsvis liten datamengde.
I utførelse 1 er de flere tidsserievektorer lagret i hver av eksiteringskode-bøkene 19,20,22 og 23. Denne utførelse kan virkeliggjøres i den utstrekning minst én tidsserievektor er lagret i hver av eksiteringskodebøkene.
Utførelse 2
I utførelse 1 utføres omkopling mellom to eksiteringskodebøker. Det er imidlertid også mulig å benytte tre eller flere eksiteringskodebøker som da omkop-les i samsvar med et støynivå.
I utførelse 2 kan en egnet eksiteringskodebok anvendes til og med for en middelmådig tale, f.eks. med lett støy, i tillegg til de to nevnte taletyper, nemlig med og uten støy. På dette grunnlag kan således tale av høy kvalitet reproduseres.
Utførelse 3
Fig. 3 viser en fullstendig konfigurasjon for en fremgangsmåte for såvel talekoding som taledekoding i henhold til utførelse 3 for denne oppfinnelse. I fig. 3 anvendes samme henvisningstegn for komponenter som tilsvarer komponentene i fig. 1.1 fig. 3 lagrer eksiteringskodebøkene 28 og 30 tidsserievektorer med støy, og prøvetakerne 29 og 31 innstiller en amplitudeverdi for en stikkprøve med lav amplitude til null i tidssertevektorene.
Arbeidsoperasjonene vil nå bli forklart. I koderen 1 analyserer analysatoren 5 for lineær prediksjonsparameter inngangstalen S1 og trekker ut fra denne en lineær prediksjonsparameter, som utgjør spektruminformasjon for vedkommende tale. Koderen 6 for lineær prediksjonsparameter koder så denne lineære prediksjonsparameter. Koderen 6 innstiller så den kodede lineære prediksjonsparameter som en koeffisient for syntesefilteret 7, og avgjør også på sin utgangsside den kodede lineære prediksjonsparameter til støynivåevaluatoren 24.
Kodingen av eksiteringsinformasjon vil nå bli forklart. Et tidligere eksiteringssignal er lagret i den adaptive kodebok 8, og en tidsserievektor som tilsvarer
en adaptiv kode innført fra avstandsberegneren 11, og som genereres ved å gjenta det tidligere eksiteringssignal periodisk, avgis på utgangssiden. Støynivåevalua-toren 24 evaluerer et støynivå innenfor en tilsvarende kodingsperiode ved bruk av den kodede lineære prediksjonsparameter som er innført fra koderen 6 for lineær prediksjonsparameter, samt en adaptiv kode, f.eks. en spektrum-gradient, en korttids prediksjonsforsterkning samt tonehøydefluktuering, og avgir et evalueringsresultat til prøvetakeren 29.
Eksiteringskodeboken 28 lagrer flere tidsserievektorer som f.eks. er generert fra tilfeldig støy, samt avgir en tidsserievektor som tilsvarer en eksiteringskode tilført fra avstandsberegneren 11. Hvis støynivået er lavt i evalueringsresultatet for støyen, avgir prøvetakeren 29 en tidsserievektor hvor en amplitude for en stikk-prøve med amplitudeverdi under en bestemt verdi innenfor de tidsserievektorer som er tilført fra eksiteringskodeboken 28, f.eks. settes til null. Hvis støynivået er høyt, så avgir prøvetakeren 29 den tidsserievektor som er tilført fra eksiteringskodeboken 28 uten modifikasjon. Hver av tidsserievektorene fra den adaptive kodebok 8 og prøvetakeren 29 avveies ved anvendelse av en tilhørende forsterkning tilført fra forsterkningskoderen 10, samt adderes ved hjelp av innretningen 38 for avveiing og addisjon. Et addisjonsresultat avgis til syntesefilteret 7 som eksiteringssignaler, og kodet tale blir da frembrakt. Avstandsberegneren 11 beregner en forskjell mellom den kodede tale og inngangstalen S1, og søker etter en adaptiv kode, eksiteringskode og forsterkning for å nedsette denne forskjell til et minimum. Når kodingen er ferdig, blir den lineære prediksjonsparameterkode og den adaptive kode, samt eksiteringskoden og forsterkningskoden for å nedsette forvrengningsforskjellen mellom inngangstale og den kodede tale avgitt som koderesultat S2. Disse prosesser utgjør da karakteristiske arbeidsoperasjoner i fremgangsmåten for talekoding i utførelse 3.
Dekoderen 2 vil nå bli nærmere forklart. I dekoderen 2 blir den lineære prediksjonsparameterkode dekodet til lineær prediksjonsparameter av dekoderenheten 12 for denne parameter. Denne dekoderenhet 12 for lineær prediksjonsparameter innstiller den lineære prediksjonsparameter som en koeffisient for syntesefilteret 13, og avgir også på sin utgangsside denne lineære prediksjonsparameter til støynivåevaluatoren 26.
Dekodingen av eksitasjonsinformasjon skal nå bli forklart. Den adaptive kodebok 14 avgir en tidsserievektor som tilsvarer en adaptiv kode generert ved å gjenta et tidligere eksiteringssignal periodisk. Støynivåevaluatoren 26 evaluerer støynivå ved å anvende den dekodede lineære prediksjonsparameter som er inn-ført fra dekoderenheten 12 for slik parameter samt den adaptive kode på samme måte som støynivåevaluatoren 24 i koderen 1, samt avgir et evalueringsresultat til stikkprøveren 31.
Eksiteringskodeboken 30 avgir en tidsserievektor som tilsvarer en eksiteringskode. Stikkprøveren 31 avgir en tidsserievektor basert på evalueringsresultatet med hensyn til støynivå ved samme prosess som utføres av stikkprøveren 29 i koderen 1. Hver av de tidsserievektorer som avgis fra den adaptive kodebok 14 og stikkprøveren 31 avveies ved å bruke en tilsvarende forsterkning som frembringes av forsterkningskoderen 16, og vektorene adderes ved hjelp av innretningen 39 for avveiing og addisjon. Et addisjonsresultat overføres til syntesefilteret 13 som et eksiteringssignal, og en utgangstale S3 blir da frembrakt.
I utførelse 3 opprettes en eksiteringskodebok som lagrer tidsserievektorer med støy, og en eksitering med et lavt støynivå kan genereres ved å ta eksiteringssignal-stikkprøver basert på et evalueringsresultat av talens støynivå. Tale med høy kvalitet kan således reproduseres ut i fra en forholdsvis liten datamengde. Da det således ikke er nødvendig å opprette flere eksiteringskodebøker, kan datalageret for å lagre eksiteringskodebøker reduseres.
Utførelse 4
I utførelse 3 blir tidsserievektorene enten punktprøvet eller ikke. Det er
imidlertid også mulig å forandre en terskelverdi for en punktprøveamplitude basert på støynivået ved utprøvningen. I en utførelse 4 kan en egnet tidsserievektor genereres og også anvendes for en tale av midlere type, f.eks. én med svak støy, i tillegg til de to nevnte taletyper, nemlig med og uten støy. På denne måte kan således tale med høy kvalitet reproduseres.
Utførelse 5
Fig. 4 viser en fullstendig konfigurasjon for en fremgangsmåte for talekoding samt en fremgangsmåte for dekoding av tale i en utførelse 5 av foreliggende oppfinnelse, og samme henvisningstegn anvendes for enheter som tilsvarer enhe-tene i fig. 1.
I fig. 4 lagrer første eksiteringskodebøker 32 og 35 tidsserievektorer med støy, mens andre eksiteringskodebøker 33 og 36 lagrer støyfrie tidsserievektorer. Aweiingsbestemmere 34 og 37 er også vist.
Arbeidsfunksjonene vil nå bli forklart. I koderen 1 blir inngangstalen S1 ana-lysert av analysatoren 5 for lineær prediksjonsparameter, og en slik lineær parameter ekstraheres og angir da spektruminformasjon for talen. Koderen 6 for lineær prediksjonsparameter vil da kode denne lineære prediksjonsparameter. Koderen 6 vil så innstille en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 7, samt også avgi denne kodede prediksjonsparameter til støynivå-evaluatoren 24.
Kodingen av eksiteringsinformasjon vil nå bli forklart. Den adaptive kodebok 8 lagrer et tidligere eksiteringssignal og avgir en tidsserievektor som tilsvarer en adaptiv kode som er tilført fra avstandsberegneren 11, og som genereres ved å gjenta det tidligere eksiteringssignal periodisk. Støynivåevaluatoren 24 evaluerer et støynivå innenfor en tilsvarende kodingsperiode ved å anvende den kodede lineære prediksjonsparameter som er tilført fra koderen 6 for slik parameter samt den adaptive kode, f.eks. en spektrum-gradient, en kortsiktig prediksjonsforsterkning og en tonehøyde-fluktuasjon, og avgir et evalueringsresultat til avveiingsbe-stemmeren 34.
Den første eksiteringskodebok 32 lagrer flere tidsserievektorer med støy og som f.eks. er generert fra tilfeldig støy, og avgir en tidsserievektor som tilsvarer en eksiteringskode. Den andre eksiteringskodebok 33 lagrer flere tidsserievektorer som er generert ved innlæring og med henblikk på å redusere eventuell forvrengning mellom en innlæringstale og dens kodede taleuttrykk, samt for å avgi en tidsserievektor som tilsvarer en eksiteringskode tilført fra avstandsberegneren 11. Av-veiingsbestemmeren 34 fastlegger en avstemningsverdi som avgis til tidsserievektoren fra den første eksiteringskodebok 32 samt tidsserievektoren fra den andre eksiteringskodebok 33 basert på evalueringsresultatet med hensyn til støynivå og som tilføres fra støynivåevaluatoren 24, slik som f.eks. angitt i fig. 5. Hver av tidsserievektorene fra den første eksiteringskodebok 32 og den andre eksiteringskodebok 33 avveies ved bruk av den vektverdi som avgis fra aweiingsbestemmeren 34, og adderes til hverandre. I tidsserievektorer som avgis fra den adaptive kodebok 38 og de tidsserievektorer som genereres ved avveiing og addering, blir avveiet ved bruk av tilsvarende forsterkninger som frembringes av forsterkningskoderen 10, samt adderes til hverandre ved hjelp av innretningen 38 for avveiing og addisjon. Et addisjonsresultat avgis så til syntesefilteret 7 som eksiteringssignaler, og en kodetale blir da frembrakt. Avstandsberegneren 11 beregner en forskjell mellom den kodede tale og inngangstalen S1, og søker etter en adaptiv kode, eksiteringskode og forsterkning for å nedsette denne forskjell til et minimum. Når kodingen er fullført, blir så den lineære prediksjonsparameterkode, den adaptive kode, eksiteringskoden og forsterkningskoden for å nedsette forvrengningen mellom inngangstalen og den kodede tale, avgitt som et kodingsresultat.
Dekoderen 2 vil nå bli nærmere forklart. I dekoderen 2 dekodes den lineære prediksjonsparameterkode til lineær prediksjonsparameter ved hjelp av dekodingsenheten 12 for en slik lineær parameter. Denne dekodingsenhet 12 for lineær prediksjonsparameter innstiller så den frembrakte lineære prediksjonsparameter som koeffisient for syntesefilteret 13, samt avgi også den lineære prediksjonsparameter til støyevaluatoren 26.
Dekodingen av eksiteringsinformasjon vil nå bli forklart. Den adaptive kodebok 14 avgir en tidsserievektor som tilsvarer en adaptiv kode ved å gjenta et tidligere eksiteringssignal periodisk. Støynivåevaluatoren 26 evaluerer et støynivå ved å anvende den dekodede lineære prediksjonsparameter som er tilført fra dekodingsenheten 12 for slik lineær parameter, samt den adaptive kode på samme måte som ved støynivåevaluatoren 24 i koderen 1, samt avgir et evalueringsresultat til aweiingsbestemmeren 37.
Den første eksiteringskodebok 35 og den andre eksiteringskodebok 36 avgir tidsvektorer som tilsvarer eksiteringskoder. Aweiingsbestemmeren 37 foretar avveiing på grunnlag av det støynivå-evalueringsresultat som er tilført fra støynivå-evaluatoren 26 etter samme metode som utføres av aweiingsbestemmeren 34 i koderen 1. Hver av tidsserievektorene fra den første eksiteringskodebok 35 og den andre eksiteringskodebok 36 aweies ved bruk av en tilsvarende vektverdi som frembringes av aweiingsbestemmeren 37, og adderes til hverandre. Den tidsserievektor som avgis fra den adaptive kodebok 14 og den tidsserievektor som genereres ved aweiing og addering, blir aweiet ved bruk av de tilsvarende forsterkninger dekodet ut i fra forsterkningskoder fra forsterkningsdekoderen 16, og addert til hverandre ved hjelp av innretningen 39 for avveiing og addering. Det frembringer således et addisjonsresultat som avgis til syntesefilteret 13 som et eksiteringssignal, og en utgangstale S3 blir da frembrakt.
I utførelse 5 blir talens støynivå evaluert ved bruk av en kode og et kodingsresultat, og tidsserievektoren med støy og den støvfrie tidsserievektor avveies på grunnlag av evalueringsresultatet, samt adderes til hverandre. Tale av høy kvalitet kan da reproduseres ved hjelp av en forholdsvis liten datamengde.
Utførelse 6
I utførelsene 1-5 er det også mulig å forandre forsterkningskodebøker på grunnlag av evalueringsresultatet med hensyn til støynivå. I utførelsen 6 kan det anvendes en meget egnet forsterkningskodebok basert på eksiteringskodeboken. På denne måte kan da kvalitetstale reproduseres.
Utførelse 7
I utførelsene 1-6 blir talens støynivå evaluert og eksiteringskodebøkene omkoplet på grunnlag av evalueringsresultatet. Det er imidlertid også mulig å fastlegge og evaluere begynnende stemt tone, plosiv konsonant, etc, og utføre omkopling mellom eksiteringskodebøkene på grunnlag av et tilsvarende evalueringsresultat. I utførelsen 7 er talen i tillegg til talens støytilstand klassifisert mer detal-jert, f.eks. med hensyn til begynnende stemt tonetilstand, plosiv konsonant etc, og en egnet eksiteringskodebok kan da anvendes for hver tilstand. På denne måte kan da høykvalitetstale reproduseres.
Utførelse 8
I utførelsene 1-6 blir støynivået innenfor kodingsperioden evaluert ved bruk av en spektrum-gradient, en kortsiktig prediksjonsforsterkning og tonehøydefluktu-ering. Det er imidlertid også mulig å evaluere støynivået ved å bruke et forhold mellom en forsterkningsverdi og en utgangsverdi fra den adaptive kodebok.
Industriell anvendbarhet
Ved fremgangsmåtene for henholdsvis koding og dekoding av tale samt apparatene for henholdsvis talekoding og taledekoding i henhold til foreliggende oppfinnelse blir støynivået for en tale evaluert innenfor en bestemt kodingsperiode ved å anvende en kode eller et kodingsresultat med hensyn til minst én av parametrene spektrum-informasjon, effektinformasjon og tonehøydeinformasjon, og forskjellige eksiteringskodebøker kan utnyttes på grunnlag av evalueringsresultatet. På denne måte kan tale av høy kvalitet reproduseres av en forholdsvis liten datamengde.
Ved fremgangsmåten for talekoding og taledekoding i henhold til foreliggende oppfinnelse er det opprettet flere eksiteringskodebøker som lagrer eksiter-inger ved forskjellige støynivåer, og omkopling finner sted mellom disse flere eksi-teringskodebøker basert på evaluering av talens støynivå. På denne måte kan høy kvalitetstale reproduseres ved bruk av en forholdsvis liten datamengde.
Ved fremgangsmåtene for henholdsvis talekoding og taledekoding i henhold til foreliggende oppfinnelse blir støynivåene for de tidsserievektorer som er lagret i eksiteringskodebøkene forandret på grunnlag av evaluering av talens støy-nivå. Ut i fra dette kan en høykvalitetstale reproduseres ved hjelp av en forholdsvis liten datamengde.
Ved fremgangsmåten for talekoding og fremgangsmåten for taledekoding i henhold til oppfinnelsen anvendes en eksiteringskodebok som lagrer tidsserievektorer med støy, og en tidsserievektor med lavt støynivå genereres ved punktprøv-ing av signalstikkprøver i tidsserievektorene basert på evaluering av talens støy-nivå. Ut i fra dette kan tale med høy kvalitet reproduseres ved bruk av en forholdsvis liten datamengde.
Ved fremgangsmåter for henholdsvis talekoding og taledekoding i henhold til oppfinnelsen opprettes en første eksiteringskodebok, støy-tidsserievektorer og en annen eksiteringskodebok for lagring av støvfrie tidsserievektorer, og tidsserievektoren i den første eksiteringskodebok og tidsserievektoren i den andre eksiteringskodebok avveies på grunnlag av evalueringsresultatet med hensyn til støyni-vået i talen, samt addert til hverandre for å generere en tidsserievektor. En høy-kvalitetstale kan på denne måte reproduseres med bruk av forholdsvis liten datamengde.

Claims (2)

1. Fremgangsmåte for taledekoding ifølge kodeeksitert lineærprediksjon (CELP), karakterisert ved at fremgangsmåten for taledekoding mottar en kodet tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok, idet fremgangsmåten for taledekoding omfatter: å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken; å avgjøre om modifikasjon av tidsserievektoren er nødvendig; hvis modifikasjon avgjøres å være nødvendig, å modifisere tidsserievektoren slik at antall sampler med null amplitudeverdi endres; avgivelse av tidsserievektoren; og syntetisering av en tale ved å benytte den avgitte tidsserievektoren.
2. Apparat for taledekoding ifølge kodeeksitert lineær prediksjon (CELP), der taledekodingsanordningen mottar en kodet tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok karakterisert ved at taledekodingsapparatetomfatter en ttdsserievektormoduleringsanordning for å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken og å avgjøre om modifikasjon av tidsserievektoren er nødvendig, og for å modifisere tidsserievektoren slik at antall sampler med null amplitudeverdi endres hvis modifikasjon avgjøres å være nødvendig, og for å avgi tidsserievektoren; og en talesyntetiseringsanordning for å syntetisere en tale ved å bruke den avgitte tidsserievektoren.
NO20035109A 1997-12-24 2003-11-17 Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater NO323734B1 (no)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP35475497 1997-12-24
PCT/JP1998/005513 WO1999034354A1 (en) 1997-12-24 1998-12-07 Sound encoding method and sound decoding method, and sound encoding device and sound decoding device

Publications (3)

Publication Number Publication Date
NO20035109L NO20035109L (no) 2000-06-23
NO20035109D0 NO20035109D0 (no) 2003-11-17
NO323734B1 true NO323734B1 (no) 2007-07-02

Family

ID=18439687

Family Applications (3)

Application Number Title Priority Date Filing Date
NO20003321A NO20003321D0 (no) 1997-12-24 2000-06-23 FremgangsmÕte for talekoding, fremgangsmÕte for laledekoding, samt deres apparater
NO20035109A NO323734B1 (no) 1997-12-24 2003-11-17 Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater
NO20040046A NO20040046L (no) 1997-12-24 2004-01-06 Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater

Family Applications Before (1)

Application Number Title Priority Date Filing Date
NO20003321A NO20003321D0 (no) 1997-12-24 2000-06-23 FremgangsmÕte for talekoding, fremgangsmÕte for laledekoding, samt deres apparater

Family Applications After (1)

Application Number Title Priority Date Filing Date
NO20040046A NO20040046L (no) 1997-12-24 2004-01-06 Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater

Country Status (11)

Country Link
US (18) US7092885B1 (no)
EP (8) EP1426925B1 (no)
JP (2) JP3346765B2 (no)
KR (1) KR100373614B1 (no)
CN (5) CN1737903A (no)
AU (1) AU732401B2 (no)
CA (4) CA2722196C (no)
DE (3) DE69837822T2 (no)
IL (1) IL136722A0 (no)
NO (3) NO20003321D0 (no)
WO (1) WO1999034354A1 (no)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1426925B1 (en) 1997-12-24 2006-08-02 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for speech decoding
EP1116219B1 (en) * 1999-07-01 2005-03-16 Koninklijke Philips Electronics N.V. Robust speech processing from noisy speech models
CA2378012A1 (en) * 1999-07-02 2001-01-11 Ravi Chandran Coded domain echo control
JP2001075600A (ja) * 1999-09-07 2001-03-23 Mitsubishi Electric Corp 音声符号化装置および音声復号化装置
JP4619549B2 (ja) * 2000-01-11 2011-01-26 パナソニック株式会社 マルチモード音声復号化装置及びマルチモード音声復号化方法
JP4510977B2 (ja) * 2000-02-10 2010-07-28 三菱電機株式会社 音声符号化方法および音声復号化方法とその装置
FR2813722B1 (fr) * 2000-09-05 2003-01-24 France Telecom Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif
JP3404016B2 (ja) * 2000-12-26 2003-05-06 三菱電機株式会社 音声符号化装置及び音声符号化方法
JP3404024B2 (ja) 2001-02-27 2003-05-06 三菱電機株式会社 音声符号化方法および音声符号化装置
JP3566220B2 (ja) 2001-03-09 2004-09-15 三菱電機株式会社 音声符号化装置、音声符号化方法、音声復号化装置及び音声復号化方法
KR100467326B1 (ko) * 2002-12-09 2005-01-24 학교법인연세대학교 추가 비트 할당 기법을 이용한 음성 부호화 및 복호화를위한 송수신기
US20040244310A1 (en) * 2003-03-28 2004-12-09 Blumberg Marvin R. Data center
CN101176147B (zh) * 2005-05-13 2011-05-18 松下电器产业株式会社 语音编码装置以及频谱变形方法
CN1924990B (zh) * 2005-09-01 2011-03-16 凌阳科技股份有限公司 Midi音讯的播放架构和方法与其应用的多媒体装置
JPWO2007129726A1 (ja) * 2006-05-10 2009-09-17 パナソニック株式会社 音声符号化装置及び音声符号化方法
US8712766B2 (en) * 2006-05-16 2014-04-29 Motorola Mobility Llc Method and system for coding an information signal using closed loop adaptive bit allocation
RU2462769C2 (ru) * 2006-10-24 2012-09-27 Войсэйдж Корпорейшн Способ и устройство кодирования кадров перехода в речевых сигналах
EP2088588B1 (en) 2006-11-10 2013-01-09 Panasonic Corporation Parameter decoding device, parameter encoding device, and parameter decoding method
US20100049508A1 (en) * 2006-12-14 2010-02-25 Panasonic Corporation Audio encoding device and audio encoding method
US8160872B2 (en) * 2007-04-05 2012-04-17 Texas Instruments Incorporated Method and apparatus for layered code-excited linear prediction speech utilizing linear prediction excitation corresponding to optimal gains
EP2269188B1 (en) * 2008-03-14 2014-06-11 Dolby Laboratories Licensing Corporation Multimode coding of speech-like and non-speech-like signals
US9056697B2 (en) * 2008-12-15 2015-06-16 Exopack, Llc Multi-layered bags and methods of manufacturing the same
US8649456B2 (en) 2009-03-12 2014-02-11 Futurewei Technologies, Inc. System and method for channel information feedback in a wireless communications system
US8675627B2 (en) * 2009-03-23 2014-03-18 Futurewei Technologies, Inc. Adaptive precoding codebooks for wireless communications
US9070356B2 (en) * 2012-04-04 2015-06-30 Google Technology Holdings LLC Method and apparatus for generating a candidate code-vector to code an informational signal
US9208798B2 (en) 2012-04-09 2015-12-08 Board Of Regents, The University Of Texas System Dynamic control of voice codec data rate
IN2015DN02595A (no) 2012-11-15 2015-09-11 Ntt Docomo Inc
PL3008726T3 (pl) 2013-06-10 2018-01-31 Fraunhofer Ges Forschung Urządzenie i sposób kodowania obwiedni sygnału audio, przetwarzania i dekodowania przez modelowanie reprezentacji sumy skumulowanej z zastosowaniem kwantyzacji i kodowania rozkładu
MY187944A (en) 2013-10-18 2021-10-30 Fraunhofer Ges Forschung Concept for encoding an audio signal and decoding an audio signal using deterministic and noise like information
MY180722A (en) 2013-10-18 2020-12-07 Fraunhofer Ges Forschung Concept for encoding an audio signal and decoding an audio signal using speech related spectral shaping information
CN107369454B (zh) * 2014-03-21 2020-10-27 华为技术有限公司 语音频码流的解码方法及装置
EP3859734B1 (en) * 2014-05-01 2022-01-26 Nippon Telegraph And Telephone Corporation Sound signal decoding device, sound signal decoding method, program and recording medium
US9934790B2 (en) 2015-07-31 2018-04-03 Apple Inc. Encoded audio metadata-based equalization
JP6759927B2 (ja) * 2016-09-23 2020-09-23 富士通株式会社 発話評価装置、発話評価方法、および発話評価プログラム
WO2018084305A1 (ja) * 2016-11-07 2018-05-11 ヤマハ株式会社 音声合成方法
US10878831B2 (en) 2017-01-12 2020-12-29 Qualcomm Incorporated Characteristic-based speech codebook selection
JP6514262B2 (ja) * 2017-04-18 2019-05-15 ローランドディー.ジー.株式会社 インクジェットプリンタおよび印刷方法
CN112201270B (zh) * 2020-10-26 2023-05-23 平安科技(深圳)有限公司 语音噪声的处理方法、装置、计算机设备及存储介质
EP4053750A1 (en) * 2021-03-04 2022-09-07 Tata Consultancy Services Limited Method and system for time series data prediction based on seasonal lags

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0197294A (ja) 1987-10-06 1989-04-14 Piran Mirton 木材パルプ等の精製機
CA2019801C (en) 1989-06-28 1994-05-31 Tomohiko Taniguchi System for speech coding and an apparatus for the same
JPH0333900A (ja) * 1989-06-30 1991-02-14 Fujitsu Ltd 音声符号化方式
US5261027A (en) 1989-06-28 1993-11-09 Fujitsu Limited Code excited linear prediction speech coding system
JP2940005B2 (ja) * 1989-07-20 1999-08-25 日本電気株式会社 音声符号化装置
CA2021514C (en) * 1989-09-01 1998-12-15 Yair Shoham Constrained-stochastic-excitation coding
US5754976A (en) * 1990-02-23 1998-05-19 Universite De Sherbrooke Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech
JPH0451200A (ja) * 1990-06-18 1992-02-19 Fujitsu Ltd 音声符号化方式
US5293449A (en) * 1990-11-23 1994-03-08 Comsat Corporation Analysis-by-synthesis 2,4 kbps linear predictive speech codec
JP2776050B2 (ja) 1991-02-26 1998-07-16 日本電気株式会社 音声符号化方式
US5680508A (en) * 1991-05-03 1997-10-21 Itt Corporation Enhancement of speech coding in background noise for low-rate speech coder
US5396576A (en) * 1991-05-22 1995-03-07 Nippon Telegraph And Telephone Corporation Speech coding and decoding methods using adaptive and random code books
JPH05232994A (ja) 1992-02-25 1993-09-10 Oki Electric Ind Co Ltd 統計コードブック
JPH05265496A (ja) * 1992-03-18 1993-10-15 Hitachi Ltd 複数のコードブックを有する音声符号化方法
JP3297749B2 (ja) 1992-03-18 2002-07-02 ソニー株式会社 符号化方法
US5495555A (en) 1992-06-01 1996-02-27 Hughes Aircraft Company High quality low bit rate celp-based speech codec
DE69328399T2 (de) * 1992-09-30 2000-10-19 Hudson Soft Co Ltd Sprachdaten-Verarbeitung
CA2108623A1 (en) 1992-11-02 1994-05-03 Yi-Sheng Wang Adaptive pitch pulse enhancer and method for use in a codebook excited linear prediction (celp) search loop
JP2746033B2 (ja) * 1992-12-24 1998-04-28 日本電気株式会社 音声復号化装置
SG43128A1 (en) * 1993-06-10 1997-10-17 Oki Electric Ind Co Ltd Code excitation linear predictive (celp) encoder and decoder
JP2624130B2 (ja) 1993-07-29 1997-06-25 日本電気株式会社 音声符号化方式
JPH0749700A (ja) 1993-08-09 1995-02-21 Fujitsu Ltd Celp型音声復号器
CA2154911C (en) * 1994-08-02 2001-01-02 Kazunori Ozawa Speech coding device
JPH0869298A (ja) 1994-08-29 1996-03-12 Olympus Optical Co Ltd 再生装置
JP3557662B2 (ja) * 1994-08-30 2004-08-25 ソニー株式会社 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置
JPH08102687A (ja) * 1994-09-29 1996-04-16 Yamaha Corp 音声送受信方式
JPH08110800A (ja) 1994-10-12 1996-04-30 Fujitsu Ltd A−b−S法による高能率音声符号化方式
JP3328080B2 (ja) * 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
JPH08179796A (ja) * 1994-12-21 1996-07-12 Sony Corp 音声符号化方法
JP3292227B2 (ja) 1994-12-28 2002-06-17 日本電信電話株式会社 符号励振線形予測音声符号化方法及びその復号化方法
EP0944038B1 (en) * 1995-01-17 2001-09-12 Nec Corporation Speech encoder with features extracted from current and previous frames
KR0181028B1 (ko) * 1995-03-20 1999-05-01 배순훈 분류 디바이스를 갖는 개선된 비디오 신호 부호화 시스템
JPH08328598A (ja) * 1995-05-26 1996-12-13 Sanyo Electric Co Ltd 音声符号化・復号化装置
US5864797A (en) 1995-05-30 1999-01-26 Sanyo Electric Co., Ltd. Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors
JP3515216B2 (ja) * 1995-05-30 2004-04-05 三洋電機株式会社 音声符号化装置
JPH0922299A (ja) 1995-07-07 1997-01-21 Kokusai Electric Co Ltd 音声符号化通信方式
US5819215A (en) * 1995-10-13 1998-10-06 Dobson; Kurt Method and apparatus for wavelet based data compression having adaptive bit rate control for compression of digital audio or other sensory data
JP3680380B2 (ja) * 1995-10-26 2005-08-10 ソニー株式会社 音声符号化方法及び装置
EP0773533B1 (en) 1995-11-09 2000-04-26 Nokia Mobile Phones Ltd. Method of synthesizing a block of a speech signal in a CELP-type coder
FI100840B (fi) * 1995-12-12 1998-02-27 Nokia Mobile Phones Ltd Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin
JP4063911B2 (ja) 1996-02-21 2008-03-19 松下電器産業株式会社 音声符号化装置
JPH09281997A (ja) * 1996-04-12 1997-10-31 Olympus Optical Co Ltd 音声符号化装置
GB2312360B (en) 1996-04-12 2001-01-24 Olympus Optical Co Voice signal coding apparatus
JP3094908B2 (ja) 1996-04-17 2000-10-03 日本電気株式会社 音声符号化装置
KR100389895B1 (ko) * 1996-05-25 2003-11-28 삼성전자주식회사 음성 부호화 및 복호화방법 및 그 장치
JP3364825B2 (ja) 1996-05-29 2003-01-08 三菱電機株式会社 音声符号化装置および音声符号化復号化装置
JPH1020891A (ja) * 1996-07-09 1998-01-23 Sony Corp 音声符号化方法及び装置
JP3707154B2 (ja) * 1996-09-24 2005-10-19 ソニー株式会社 音声符号化方法及び装置
JP3174742B2 (ja) 1997-02-19 2001-06-11 松下電器産業株式会社 Celp型音声復号化装置及びcelp型音声復号化方法
CN1262994C (zh) 1996-11-07 2006-07-05 松下电器产业株式会社 噪声消除器
US5867289A (en) * 1996-12-24 1999-02-02 International Business Machines Corporation Fault detection for all-optical add-drop multiplexer
SE9700772D0 (sv) 1997-03-03 1997-03-03 Ericsson Telefon Ab L M A high resolution post processing method for a speech decoder
US6167375A (en) * 1997-03-17 2000-12-26 Kabushiki Kaisha Toshiba Method for encoding and decoding a speech signal including background noise
CA2202025C (en) 1997-04-07 2003-02-11 Tero Honkanen Instability eradicating method and device for analysis-by-synthesis speeech codecs
US6029125A (en) 1997-09-02 2000-02-22 Telefonaktiebolaget L M Ericsson, (Publ) Reducing sparseness in coded speech signals
US6058359A (en) * 1998-03-04 2000-05-02 Telefonaktiebolaget L M Ericsson Speech coding including soft adaptability feature
JPH11119800A (ja) 1997-10-20 1999-04-30 Fujitsu Ltd 音声符号化復号化方法及び音声符号化復号化装置
EP1426925B1 (en) 1997-12-24 2006-08-02 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for speech decoding
US6415252B1 (en) * 1998-05-28 2002-07-02 Motorola, Inc. Method and apparatus for coding and decoding speech
US6453289B1 (en) * 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
US6385573B1 (en) * 1998-08-24 2002-05-07 Conexant Systems, Inc. Adaptive tilt compensation for synthesized speech residual
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
ITMI20011454A1 (it) 2001-07-09 2003-01-09 Cadif Srl Procedimento impianto e nastro a base di bitume polimero per il riscaldamento superficiale ed ambiantale delle strutture e delle infrastrutt

Also Published As

Publication number Publication date
CN1494055A (zh) 2004-05-05
US8447593B2 (en) 2013-05-21
EP1596368A2 (en) 2005-11-16
EP2154679A3 (en) 2011-12-21
US7747441B2 (en) 2010-06-29
US20080065375A1 (en) 2008-03-13
EP1686563A2 (en) 2006-08-02
EP2154680A3 (en) 2011-12-21
US20050256704A1 (en) 2005-11-17
US20130024198A1 (en) 2013-01-24
DE69736446D1 (de) 2006-09-14
NO20035109L (no) 2000-06-23
CA2636684C (en) 2009-08-18
US20110172995A1 (en) 2011-07-14
CA2315699C (en) 2004-11-02
CN1790485A (zh) 2006-06-21
EP2154679A2 (en) 2010-02-17
CA2636552C (en) 2011-03-01
US20140180696A1 (en) 2014-06-26
EP2154679B1 (en) 2016-09-14
US7747432B2 (en) 2010-06-29
KR100373614B1 (ko) 2003-02-26
US8190428B2 (en) 2012-05-29
NO20003321L (no) 2000-06-23
US20080071524A1 (en) 2008-03-20
US20160163325A1 (en) 2016-06-09
US9263025B2 (en) 2016-02-16
JP2009134303A (ja) 2009-06-18
US8688439B2 (en) 2014-04-01
CA2722196A1 (en) 1999-07-08
CN100583242C (zh) 2010-01-20
NO20003321D0 (no) 2000-06-23
DE69736446T2 (de) 2007-03-29
EP1052620A1 (en) 2000-11-15
CA2636552A1 (en) 1999-07-08
EP2154680A2 (en) 2010-02-17
CA2315699A1 (en) 1999-07-08
US20050171770A1 (en) 2005-08-04
DE69825180T2 (de) 2005-08-11
US20080071525A1 (en) 2008-03-20
US20090094025A1 (en) 2009-04-09
EP1426925A1 (en) 2004-06-09
CN1283298A (zh) 2001-02-07
EP2154680B1 (en) 2017-06-28
CA2636684A1 (en) 1999-07-08
IL136722A0 (en) 2001-06-14
JP3346765B2 (ja) 2002-11-18
US20080071526A1 (en) 2008-03-20
CN1143268C (zh) 2004-03-24
US20130204615A1 (en) 2013-08-08
US7092885B1 (en) 2006-08-15
US9852740B2 (en) 2017-12-26
EP1596368B1 (en) 2007-05-23
US20080071527A1 (en) 2008-03-20
US7747433B2 (en) 2010-06-29
NO20040046L (no) 2000-06-23
US7383177B2 (en) 2008-06-03
US7363220B2 (en) 2008-04-22
US7937267B2 (en) 2011-05-03
EP1686563A3 (en) 2007-02-07
CN1658282A (zh) 2005-08-24
KR20010033539A (ko) 2001-04-25
US8352255B2 (en) 2013-01-08
DE69837822T2 (de) 2008-01-31
DE69825180D1 (de) 2004-08-26
US20080065394A1 (en) 2008-03-13
JP4916521B2 (ja) 2012-04-11
EP1596368A3 (en) 2006-03-15
EP2154681A3 (en) 2011-12-21
AU732401B2 (en) 2001-04-26
EP1052620B1 (en) 2004-07-21
EP1426925B1 (en) 2006-08-02
EP1596367A3 (en) 2006-02-15
US20080065385A1 (en) 2008-03-13
EP1596367A2 (en) 2005-11-16
DE69837822D1 (de) 2007-07-05
NO20035109D0 (no) 2003-11-17
EP1052620A4 (en) 2002-08-21
US20070118379A1 (en) 2007-05-24
WO1999034354A1 (en) 1999-07-08
CA2722196C (en) 2014-10-21
EP2154681A2 (en) 2010-02-17
US20120150535A1 (en) 2012-06-14
US7742917B2 (en) 2010-06-22
AU1352699A (en) 1999-07-19
CN1737903A (zh) 2006-02-22

Similar Documents

Publication Publication Date Title
NO323734B1 (no) Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater
CA2453122C (en) A method for speech coding, method for speech decoding and their apparatuses

Legal Events

Date Code Title Description
CREP Change of representative

Representative=s name: WITTMANN HERNANDEZ PATENTANWALTE

MK1K Patent expired