NO323734B1 - Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater - Google Patents
Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater Download PDFInfo
- Publication number
- NO323734B1 NO323734B1 NO20035109A NO20035109A NO323734B1 NO 323734 B1 NO323734 B1 NO 323734B1 NO 20035109 A NO20035109 A NO 20035109A NO 20035109 A NO20035109 A NO 20035109A NO 323734 B1 NO323734 B1 NO 323734B1
- Authority
- NO
- Norway
- Prior art keywords
- speech
- excitation
- time series
- codebook
- linear prediction
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 230000005284 excitation Effects 0.000 claims description 165
- 239000013598 vector Substances 0.000 claims description 97
- 238000012986 modification Methods 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 description 47
- 238000011156 evaluation Methods 0.000 description 24
- 230000015572 biosynthetic process Effects 0.000 description 21
- 238000003786 synthesis reaction Methods 0.000 description 21
- 238000001228 spectrum Methods 0.000 description 14
- 238000005303 weighing Methods 0.000 description 11
- 230000003321 amplification Effects 0.000 description 6
- 238000003199 nucleic acid amplification method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/135—Vector sum excited linear prediction [VSELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/083—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
- G10L19/107—Sparse pulse excitation, e.g. by using algebraic codebook
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/125—Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0002—Codebook adaptations
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0004—Design or structure of the codebook
- G10L2019/0005—Multi-stage vector quantisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0007—Codebook element generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0011—Long term prediction filters, i.e. pitch estimation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0012—Smoothing of parameters of the decoder interpolation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0016—Codebook for LPC parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Analogue/Digital Conversion (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Description
Teknisk område
Denne oppfinnelse gjelder fremgangsmåter for talekoding og dekoding av tale samt apparater for slik talekoding og dekoding ved utførelse av kompresjonskoding og -dekoding av et talesignal til et digitalsignal. Spesielt gjelder oppfinnelsen en fremgangsmåte for talekoding, en fremgangsmåte for taledekoding samt apparater for henholdsvis talekoding og taledekoding med det formål å gjengi tale med høy kvalitet og ved lave bit-takter.
Bakgrunnsteknikk
Innenfor den beslektede teknikk er kodeeksitert lineær prediksjon (Code-Excited Linear Prediction: CELP) velkjent som en effektiv talekodingsmetode, og dens teknikk er beskrevet i "Code-excited linear prediction (CELP): Highquality speech at very low bit rates", ICASSP 1985, sidene 937-940, av M. R. Schroeder og B. S. Atal i 1985.
Et annet eksempel for et system og en fremgangsmåte relatert til talekoding og -dekoding, der flere eksiteringskodebøker kobles inn på basis av en tonefrekvens som velges i en adaptiv kodebok, fremlegges i JP8,185,198.
Fig. 6 viser et eksempel på en fullstendig konfigurasjon av en CELP-talekodings- og taledekodingsmetode. I fig. 6 er det vist en kode 101, en dekoder 102, multipleksingsutstyr 103 og divisjonsutstyr 104.
Koderen 101 omfatter en innretning for lineær prediksjonsparameter-analysering 105, en innretning for lineær prediksjonsparameter-koding 106, et syntesefilter 107, en adaptiv kodebok 108, en eksiteringskodebok 109, en innretning 110 for forsterkningskoding, en innretning for avstandsberegning 111, samt en innretning for avveiing og addering 138. Dekoderen 102 omfatter en innretning for prediksjonsparameter-dekoding 112, et syntesefilter 113, en adaptiv kodebok 114, en eksiteringskodebok 115, en innretning for forsterkningsdekoding 116, og en innretning for avveiing og addering 139.
Ved CELP-talekoding blir tale innenfor en tidsramme på omkring 5-50 ms oppdelt i spektruminformasjon og eksiteringsinformasjon, samt kodet.
Det vil nå bli forklart hvorledes fremgangsmåten for CELP-tajekodingen virker. I koderen 101 analyserer innretningen for lineær prediksjonsparameter-analyse en inngangstale S101 og trekker ut en lineær prediksjonsparameter som utgjør spektruminformasjon for talen. Innretningen 106 for lineær prediksjonsparameter-koding koder denne lineære prediksjonsparameter og fastlegger en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 107.
Kodingen av eksiteringsinformasjonen vil nå bli forklart.
Et tidligere eksiteringssignal er lagret i den adaptive kodebok 108. Denne adaptive kodebok 108 avgir en tidsserievektor som tilsvarer en adaptiv kode som er tilført fra avstandsberegneren 111, og som er generert ved å gjenta det tidligere eksiteringssignal periodisk.
Flere tidsserievektorer som er utviklet ved reduksjon av taleforvrengning med henblikk på opplæring og den tilsvarende kodede tale er f.eks. lagret i eksiteringskodeboken 109. Denne eksiteringskodebok 109 avgir en tidsserievektor som tilsvarer en eksiteringskode tilført fra avstandsberegneren 111.
Hver av de tidsserievektorer som avgis fra den adaptive kodebok 108 og eksiteringskodeboken 109 avveies ved bruk av en tilsvarende forsterkning som frembringes av innretningen 110 for forsterkningskoding og adderes ved hjelp av innretningen 138 for avveiing og addering. Et addisjonsresultat blir så frembrakt og overføres til syntesefilteret 107 som eksiteringssignaler, og det dannes da en kodet tale. Innretningen for avstandsberegning 111 beregner en avstand eller forskjell mellom den kodede tale og inngangstalen S101 og søker etter en adaptiv kode, eksiteringskode og forsterkninger for å redusere denne forskjell til et minimum. Når den ovenfor omtalte koding er avsluttet, blir en lineær prediksjonsparameter-kode og den adaptive kode, eksiteringskoden og forsterkningskodene for å nedsette en forvrengning mellom inngangstalen og den kodede tale avgitt som et kodingsresultat.
Det vil nå bli forklart hvorledes fremgangsmåten for CELP-taledekodingen virker.
I dekoderen 102 dekoder innretningen 112 for lineær
prediksjonsparameter-dekoding den lineære prediksjonsparameterkode for den
lineære prediksjonsparameter, samt fastlegger den lineære prediksjonsparameter som en koeffisient for syntesefilteret 113. Den adaptive kodebok 114 avgir en tidsserievektor som tilsvarer en adaptiv kode, og som genereres ved å gjenta et tidligere eksiteringssignal periodisk. Eksiteringskodeboken 115 avgir en tidsserievektor som tilsvarer en eksiteringskode. Disse tidsserievektorer avveies ved bruk av til-
svarende forsterkninger, som da dekodes fra forsterkningskodene ved hjelp av innretningen 116 for forsterkningsdekoding, samt adderes ved hjelp av innretningen 139 for avveiing og addering. Det frembringes da et addisjonsresultat som avgis til syntesefilteret 113 som et eksitasjonssignal, og en utgangstale S103 frembringes på denne måte.
Blant de foreliggende metoder for CELP-talekoding og taledekoding er en forbedret fremgangsmåte for talekoding og -dekoding med henblikk på å reprodu-sere høykvalitetstale i samsvar med beslektet teknikk beskrevet i "Phonetically - based vector excitation coding of speech at 3.6 kbps," ICASSP 1989, sidene 49-52, av S. Wang og A. Gersho i 1989.
Fig. 7 viser et eksempel på en fullstendig konfigurasjon av fremgangsmåten for talekoding og taledekoding i henhold til den beslektede teknikk, og samme henvisningstegn er her anvendt som for de viste innretninger i fig. 6.
I fig. 7 omfatter koderen 101 en bestemmelsesinnretning 117 for taletilstanden, en omkoplingsinnretning 118 for eksiteringskodebok, en første eksiteringskodebok 119 og en andre eksiteringskodebok 120. Dekoderen 102 omfatter en omkoplingsinnretning 121 for eksiteringskodebok, en første eksiteringskodebok 122 og en andre eksiteringskodebok 123.
Det vil nå bli forklart hvorledes fremgangsmåten for koding og dekoding virker i denne konfigurasjon. I koderen 101 analyserer bestemmelseinnretningen 117 for taletilstanden inngangstalen S101, og bestemmer om talen befinner seg i én av to tilstander, f.eks. stemt eller ustemt. Omkoplingsinnretningen 118 for eksiteringskodebok kopler inn den av eksiteringskodebøkene som skal anvendes ved kodingen på grunnlag av resultatet av en taletilstandsbestemmelse. Hvis f.eks. talen er stemt, anvendes da den første eksiteringskodebok 119, og hvis talen er ustemt, så vil den andre eksiteringskodebok 120 bli brukt. Omkoplingsinnretningen 118 for eksiteringskodebok koder så hvilken eksiteringskodebok som er anvendt ved kodingen.
I dekoderen 102 kopler omkoplingsinnretningen 121 for eksiteringskodebok om mellom den første eksiteringskodebok 122 og den andre eksiteringskodebok
123 basert på en kodeanvisning som angir hvilken eksiteringskodebok som er blitt anvendt i koderen 101, slik at den eksiteringskodebok som er blitt anvendt i koderen 101 også anvendes i dekoderen 102.1 samsvar med denne konfigurasjon ut-
nyttes således eksitasjonskodebøker som til enhver tid er egnet for koding i de forskjellige taletilstander, og disse eksiteringskodebøker koples inn på grunnlag av en tilsvarende tilstand av en inngangstale. På denne måte kan tale gjengis med høy kvalitet.
En fremgangsmåte for talekodingen og -dekoding som går ut på omkopling mellom flere eksiteringskodebøker uten økning av overføringsbitantallet og i samsvar med den beslektede teknikk er angitt i japansk ugransket offentliggjort patent-søknad 8-185198. Disse flere eksiteringskodebøker koples inn på grunnlag av en tonefrekvens som velges i en adaptiv kodebok, og en eksiteringskodebok som er egnet for å angi egenskaper ved en inngangstale kan da anvendes uten at over-føringsdata økes.
Som angitt for den fremgangsmåte for talekoding og taledekoding som er vist i fig. 6 i samsvar med kjent beslektet teknikk, anvendes en enkelt eksiteringskodebok for å frembringe en syntetisk tale. Støvfrie tidsserievektorer med mange pulser bør lagres i eksiteringskodeboken for å frembringe en kodet tale av høy kvalitet selv ved lave bit-takter. Når det da foreligger tale med støy, f.eks. bak-grunnsstøy, frikative konsonanter, etc, kodes og syntetiseres, vil det være et problem at en kodet tale frembringer en unaturlig lyd, f.eks. "Jiri-Jiri" og "Chiri-ChSri". Dette problem kan løses, hvis eksiteringskodeboken omfatter bare støy-tidsserievektorer. I dette tilfelle vil imidlertid kvaliteten av den kodede tale bli de-gradert i sin helhet.
Ved den forbedrede fremgangsmåte for talekoding og taledekoding som er vist i fig. 7 og er i samsvar med beslektet tidligere teknikk, blir da de flere eksiter-ingskodebøker koplet inn på grunnlag av inngangstalens tilstand for derved å frembringe en kodet tale. Det vil da være mulig å bruke en eksiteringskodebok som omfatter støy-tidsserievektorer innenfor en ustemt støyperiode av inngangstalen samt en eksiteringskodebok som omfatter støvfrie tidsserievektorer innenfor en stemt periode som er forskjellig fra den utstemte støyperiode, er angitt som et eksempel. Selv om en tale med støy blir kodet og syntetisert vil da ikke noen unaturlig lyd, f.eks. "Jiri-Jiri", blir frembrakt. Da imidlertid den eksiteringskodebok som anvendes ved kodingen også brukes ved dekodingen, vil det være nødvendig å kode og overføre data som angir hvilken eksiteringskodebok som er brukt. Dette blir da en hindring for å oppnå lave bit-takter.
I henhold til fremgangsmåten for talekoding og -dekoding ved omkopling mellom flere eksiteringskodebøker uten å øke en overførings bitantall i samsvar med den beslektede teknikk, blir eksiteringskodebøkene koplet om på grunnlag av en tonehøydeperiode valgt i den adaptive kodebok. Den tonehøydeperiode som velges i den adaptive kodebok vil imidlertid avvike fra en faktisk tonehøydeperiode i en tale, og det vil være umulig å fastslå om en tilstand av en inngangstale faktisk er støy eller ikke støy bare ut fra en verdi av tonehøydeperioden. Det problem at den kodede tale innenfor en støyfylt periode av talen er unaturlig kan da ikke løses på denne måte.
Foreliggende oppfinnelse har imidlertid som formål å løse de ovenfor angit-te problemer. Særlig tar oppfinnelsen sikte på å frembringe fremgangsmåter for koding og dekoding av tale samt apparater for å gjengi tale med høy kvalitet selv ved lave bit-takter.
Beskrivelse av oppfinnelsen
Oppfinnelsen fremlegger en fremgangsmåte for taledekoding ifølge kodeeksitert lineærprediksjon (CELP), som kjennetegnes ved at den mottar en kodet
tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok. Fremgangsmåten for taledekoding omfatter trinnene (1) å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken, (2) å avgjøre om modifikasjon av tidsserievektorer er nødvendig, (3) å modifisere tidsserievektoren slik at antall sampler med null amplitudeverdi endres hvis modifikasjon av-gjøres å være nødvendig, (4) en avgivelse av tidsserievektoren og (5) syntetisering av tale ved å benytte den avgitte tidsserievektoren.
Som et annet aspekt ved oppfinnelsen presenteres et apparat for taledekoding ifølge kodeeksitert lineær prediksjon (CELP), der taledekodingsanordningen
mottar en kodet tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok. Apparatet kjennetegnes det omfatter en tidsserievektormoduleringsanordning for å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken og å avgjøre om modifikasjon av tidsserievektoren er
nødvendig, og for å modifisere tidsserievektoren slik at antall sampler med null
amplitudeverdi endres hvis modifikasjon avgjøres å være nødvendig, og for å avgi tidsserievektoren. Apparatet omfatter også en talesyntetiseringsanordning for å syntetisere en tale ved å bruke den avgitte tidsserievektoren.
Kort beskrivelse av tegningene
Fig. 1 viser et blokkskjema for en fullstendig konfigurasjon av et apparat for koding og dekoding av tale i en utførelse 1 i henhold til oppfinnelsen. Fig. 2 viser en tabell for å forklare en evaluering av støynivået i den utfør-else 1 i henhold til oppfinnelsen og som er vist i fig. 1. Fig. 3 angir et blokkskjema for en fullstendig konfigurasjon av et apparat for koding og dekoding av tale i en utførelse 3 i henhold til foreliggende oppfinnelse. Fig. 4 viser et blokkskjema av en fullstendig konfigurasjon av et apparat for koding og dekoding av tale i en utførelse 5 i henhold til oppfinnelsen. Fig. 5 viser et skjematisk linjekart for å forklare en beslutningsprosess ved avveiing i en utførelse 5 som er vist i fig. 4. Fig. 6 viser et blokkdiagram for en fullstendig konfigurasjon for et apparat for CELP-koding og -dekoding av tale i henhold til beslektet tidligere teknikk. Fig. 7 viser et blokkskjema for en fullstendig konfigurasjon av et apparat for forbedret CELP-koding og -dekoding av tale i henhold til beslektet tidligere teknikk.
Beste modus for utførelse av oppfinnelsen
Utførelser av foreliggende oppfinnelse vil nå bli forklart med henvisning til tegningene.
Utførelse 1
Fig. 1 viser en fullstendig konfigurasjon som angir en fremgangsmåte for talekoding og taledekoding i en utførelse 1 i henhold til foreliggende oppfinnelse. I fig. 1 er det vist en koder 1, en dekoder 2, en multiplekser 3 og en divisjonsenhet 4. Koderen 1 omfatter en analysator 5 for en lineær prediksjonsparameter, en
koder 6 for lineær prediksjonsparameter, et syntesefilter 7, en adaptiv kodebok 8, en forsterkningskoder 10, en avstandsberegner 11, en første eksiteringskodebok 19, en andre eksiteringskodebok 20, en støynivåevaluator 24, en omkopler 25 for
eksiteringskodebøker og en innretning for avveiing og addering. Dekoderen 2 omfatter en dekoder 12 for lineær prediksjonsparameter, et syntesefilter 13, en adaptiv kodebok 14, en første eksiteringskodebok 22, en andre eksiteringskodebok 23, en støynivåevaluator 26, en omkopler 27 for eksiteringskodebøker, en forsterk-ningsdekoder 16, og en innretning 39 for avveiing og addering. I fig. 1 er analysatoren 5 for lineær prediksjonsparameter en spektruminformasjonsanalysator for å analysere en inngangstale S1 samt for å trekke ut en lineær prediksjonsparameter som angir spektruminformasjon for talen. Koderen 6 for prediksjonsparameter er en spektruminformasjonskoder for koding av den lineære prediksjonsparameter som gir spektruminformasjon og for å fastlegge en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 7. De første eksiteringskodebøker 19 og 22 lagrer flere sett av støvfrie tidsserievektorer, og de andre eksiteringskode-bøker 20 og 23 lagrer flere sett av tidsserievektorer med støy. Støynivåevaluator-ene 24 og 26 evaluerer støynivåer, og omkoplerne 25 og 27 for omkopling av eksi-teringskodebøker er innrettet for å kople om mellom slike kodebøker på grunnlag av støynivået.
Arbeidsoperasjonene vil nå bli forklart.
I koderen 1 analyserer analysatoren 5 for lineær prediksjonsparameter inngangstalen S1 og ekstraherer fra denne en lineær prediksjonsparameter som ut-gjør spektruminformasjon for vedkommende tale. Koderen 6 for lineær prediksjonsparameter koder denne lineære prediksjonsparameter. Koderen 6 for lineær prediksjonsparameter innstiller så en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 7, og avgir også denne kodede lineære prediksjonsparameter til støynivåevaluatoren 24.
Kodingen av eksiteringsinformasjon vil nå bli forklart.
Tidligere eksiteringssignal er lagret i den adaptive kodebok 8, og en tidsserievektor som tilsvarer en adaptiv kode som er innført av avstandsberegnin-gen 11, og som genereres ved å gjenta et tidligere eksiteringssignal periodisk, avgis på utgangssiden. Støynivåevaluatoren 24 evaluerer et støynivå i en bestemt kodingsperiode på grunnlag av den kodede lineære prediksjonsparameter som er tilført fra koderen 6 for lineær prediksjonsparameter og den adaptive kode, f.eks. en spektrum-gradient, en korttids prediksjonsforsterkning og tonehøydefluktuasjon slik som vist i fig. 2, og avgir et evalueringsresultat til omkopleren 25 for eksita-sjonskodebøker. Denne omkopler 25 for eksiteringskodebøker kopler om eksita-sjonskodebøkene for koding basert på evalueringen av støynivået. Hvis f.eks. støynivået er lavt, benyttes den første eksiteringskodebok 19, og hvis støynivået er høyt anvendes den andre eksiteringskodebok 20.
Den første eksiteringskodebok 19 lagrer flere støvfrie tidsserievektorer, f.eks. flere tidsserievektorer som er opplært ved reduksjon av en forvrengning mellom en innlæringstale og dens kodede tale versjon. Den andre eksiteringskodebok 20 lagrer flere tidsserievektorer med støy, f.eks. et antall slike tidsserievektorer som er generert ut i fra tilfeldig støy. Såvel den første eksiteringskodebok 19 og den andre eksiteringskodebok 20 avgir en tidsserievektor som tilsvarer hver sin eksiteringskode som innføres fra avstandsberegneren 11. Hver av tidsserievektorene fra den adaptive kodebok 8 og enten den første eksiteringskodebok 19 eller den andre eksiteringskodebok 20 blir avveiet ved bruk av en tilsvarende forsterkning som avgis fra forsterkningskoderen 10 og adderes ved hjelp av innretningen 38 for avveiingen og addisjon. Et oppnådd addisjonsresultat avgis til syntesefilteret 7 som eksiteringssignaler, og det frembringes en kodet tale. Avstandsberegneren 11 beregneren en forskjell mellom den kodede tale og inngangstalen S1, samt søker en adaptiv kode, samt eksiteringskode og forstekning for å nedsette forskjellen til et minimum. Når kodingen er over avgis den lineære prediksjonsparameterkode og en adaptiv kode, eksiteringskode og forsterkningskode for ned-settelse av forvrengningsforskjellen mellom inngangstale og den kodede tale som et kodingsresultat S2. Dette er kjennetegnende arbeidsprosesser innenfor fremgangsmåten for talekoding i utførelse 1.
Dekoderen 2 vil nå bli forklart. I dekoderen 2 dekoder dekoderenheten 12 for lineær prediksjonsparameter den lineære prediksjonsparameterkode til lineær prediksjonsparameter og innstiller denne kodede lineære prediksjonsparameter som en koeffisient for syntesefilteret 13, samt avgir på sin utgangsside den dekodede lineære prediksjonsparameter til støynivåevaluatoren 26.
Dekodingen av eksiteringsinformasjonen vil nå bli forklart. Den adaptive kodebok 14 avgir en tidsserievektor som tilsvarer en adaptiv kode og som genereres ved å gjenta et tidligere eksiteringssignal periodisk. Støynivåevaluatoren 26 evaluerer et støynivå ved å bruke den dekodede lineære prediksjonsparameter som er tilført fra dekodingsenheten 12 for lineær prediksjonsparameter og den adaptive kode på samme måte som støynivåevaluatoren 24 i koderen 1, og avgir et evalueringsresultat til omkopleren 27 for eksiteringskodebøker. Denne omkopler 27 for eksiteringskodebøker kopler om mellom den første eksiteringskodebok 22 og den andre eksiteringskodebok 23 på grunnlag av evalueringsresultatet med hensyn til støynivå på samme måte som eksiteringskodebok-omkopleren 25 i koderen 1.
Flere støvfrie tidsserievektorer, f.eks. flere slike vektorer som genereres ved innlæring for reduksjon av forvrengningsforskjell mellom en innlæringstale og dens tilsvarende kodede taleversjon, lagres i den første eksiteringskodebok 22. Flere tidsserievektorer med støy, f.eks. flere vektorer som er generert ut i fra tilfeldig støy, lagres i den andre eksiteringskodebok 23. Såvel den første som den andre eksiteringskodebok avgir en tidsserievektor tilsvarende hver sin eksiteringskode. Disse tidsserievektorer fra den adaptive kodebok 14 og enten den første eksiteringskodebok 22 eller den andre eksiteringskodebok 23 avveies ved anvendelse av forskjellige forsterkninger, som er dekodet fra forsterkningskodene fra forsterkningsdekoderen 16, samt adderes ved hjelp av innretningen 39 for avveiing og addering. Et addisjonsresultat overføres til syntesefilteret 13 som et eksiteringssignal, og det frembringes da en utgangstale S3. Disse arbeidsoperasjoner er karakteristiske prosesser i utførelse 1 av fremgangsmåten for taledekoding.
I utførelse 1 evalueres støynivået i inngangstalen ved å bruke koden og kodingsresultatet, og forskjellige eksiteringskodebøker anvendes basert på evalueringsresultatet. Tale av høy kvalitet kan således reproduseres ved hjelp av en forholdsvis liten datamengde.
I utførelse 1 er de flere tidsserievektorer lagret i hver av eksiteringskode-bøkene 19,20,22 og 23. Denne utførelse kan virkeliggjøres i den utstrekning minst én tidsserievektor er lagret i hver av eksiteringskodebøkene.
Utførelse 2
I utførelse 1 utføres omkopling mellom to eksiteringskodebøker. Det er imidlertid også mulig å benytte tre eller flere eksiteringskodebøker som da omkop-les i samsvar med et støynivå.
I utførelse 2 kan en egnet eksiteringskodebok anvendes til og med for en middelmådig tale, f.eks. med lett støy, i tillegg til de to nevnte taletyper, nemlig med og uten støy. På dette grunnlag kan således tale av høy kvalitet reproduseres.
Utførelse 3
Fig. 3 viser en fullstendig konfigurasjon for en fremgangsmåte for såvel talekoding som taledekoding i henhold til utførelse 3 for denne oppfinnelse. I fig. 3 anvendes samme henvisningstegn for komponenter som tilsvarer komponentene i fig. 1.1 fig. 3 lagrer eksiteringskodebøkene 28 og 30 tidsserievektorer med støy, og prøvetakerne 29 og 31 innstiller en amplitudeverdi for en stikkprøve med lav amplitude til null i tidssertevektorene.
Arbeidsoperasjonene vil nå bli forklart. I koderen 1 analyserer analysatoren 5 for lineær prediksjonsparameter inngangstalen S1 og trekker ut fra denne en lineær prediksjonsparameter, som utgjør spektruminformasjon for vedkommende tale. Koderen 6 for lineær prediksjonsparameter koder så denne lineære prediksjonsparameter. Koderen 6 innstiller så den kodede lineære prediksjonsparameter som en koeffisient for syntesefilteret 7, og avgjør også på sin utgangsside den kodede lineære prediksjonsparameter til støynivåevaluatoren 24.
Kodingen av eksiteringsinformasjon vil nå bli forklart. Et tidligere eksiteringssignal er lagret i den adaptive kodebok 8, og en tidsserievektor som tilsvarer
en adaptiv kode innført fra avstandsberegneren 11, og som genereres ved å gjenta det tidligere eksiteringssignal periodisk, avgis på utgangssiden. Støynivåevalua-toren 24 evaluerer et støynivå innenfor en tilsvarende kodingsperiode ved bruk av den kodede lineære prediksjonsparameter som er innført fra koderen 6 for lineær prediksjonsparameter, samt en adaptiv kode, f.eks. en spektrum-gradient, en korttids prediksjonsforsterkning samt tonehøydefluktuering, og avgir et evalueringsresultat til prøvetakeren 29.
Eksiteringskodeboken 28 lagrer flere tidsserievektorer som f.eks. er generert fra tilfeldig støy, samt avgir en tidsserievektor som tilsvarer en eksiteringskode tilført fra avstandsberegneren 11. Hvis støynivået er lavt i evalueringsresultatet for støyen, avgir prøvetakeren 29 en tidsserievektor hvor en amplitude for en stikk-prøve med amplitudeverdi under en bestemt verdi innenfor de tidsserievektorer som er tilført fra eksiteringskodeboken 28, f.eks. settes til null. Hvis støynivået er høyt, så avgir prøvetakeren 29 den tidsserievektor som er tilført fra eksiteringskodeboken 28 uten modifikasjon. Hver av tidsserievektorene fra den adaptive kodebok 8 og prøvetakeren 29 avveies ved anvendelse av en tilhørende forsterkning tilført fra forsterkningskoderen 10, samt adderes ved hjelp av innretningen 38 for avveiing og addisjon. Et addisjonsresultat avgis til syntesefilteret 7 som eksiteringssignaler, og kodet tale blir da frembrakt. Avstandsberegneren 11 beregner en forskjell mellom den kodede tale og inngangstalen S1, og søker etter en adaptiv kode, eksiteringskode og forsterkning for å nedsette denne forskjell til et minimum. Når kodingen er ferdig, blir den lineære prediksjonsparameterkode og den adaptive kode, samt eksiteringskoden og forsterkningskoden for å nedsette forvrengningsforskjellen mellom inngangstale og den kodede tale avgitt som koderesultat S2. Disse prosesser utgjør da karakteristiske arbeidsoperasjoner i fremgangsmåten for talekoding i utførelse 3.
Dekoderen 2 vil nå bli nærmere forklart. I dekoderen 2 blir den lineære prediksjonsparameterkode dekodet til lineær prediksjonsparameter av dekoderenheten 12 for denne parameter. Denne dekoderenhet 12 for lineær prediksjonsparameter innstiller den lineære prediksjonsparameter som en koeffisient for syntesefilteret 13, og avgir også på sin utgangsside denne lineære prediksjonsparameter til støynivåevaluatoren 26.
Dekodingen av eksitasjonsinformasjon skal nå bli forklart. Den adaptive kodebok 14 avgir en tidsserievektor som tilsvarer en adaptiv kode generert ved å gjenta et tidligere eksiteringssignal periodisk. Støynivåevaluatoren 26 evaluerer støynivå ved å anvende den dekodede lineære prediksjonsparameter som er inn-ført fra dekoderenheten 12 for slik parameter samt den adaptive kode på samme måte som støynivåevaluatoren 24 i koderen 1, samt avgir et evalueringsresultat til stikkprøveren 31.
Eksiteringskodeboken 30 avgir en tidsserievektor som tilsvarer en eksiteringskode. Stikkprøveren 31 avgir en tidsserievektor basert på evalueringsresultatet med hensyn til støynivå ved samme prosess som utføres av stikkprøveren 29 i koderen 1. Hver av de tidsserievektorer som avgis fra den adaptive kodebok 14 og stikkprøveren 31 avveies ved å bruke en tilsvarende forsterkning som frembringes av forsterkningskoderen 16, og vektorene adderes ved hjelp av innretningen 39 for avveiing og addisjon. Et addisjonsresultat overføres til syntesefilteret 13 som et eksiteringssignal, og en utgangstale S3 blir da frembrakt.
I utførelse 3 opprettes en eksiteringskodebok som lagrer tidsserievektorer med støy, og en eksitering med et lavt støynivå kan genereres ved å ta eksiteringssignal-stikkprøver basert på et evalueringsresultat av talens støynivå. Tale med høy kvalitet kan således reproduseres ut i fra en forholdsvis liten datamengde. Da det således ikke er nødvendig å opprette flere eksiteringskodebøker, kan datalageret for å lagre eksiteringskodebøker reduseres.
Utførelse 4
I utførelse 3 blir tidsserievektorene enten punktprøvet eller ikke. Det er
imidlertid også mulig å forandre en terskelverdi for en punktprøveamplitude basert på støynivået ved utprøvningen. I en utførelse 4 kan en egnet tidsserievektor genereres og også anvendes for en tale av midlere type, f.eks. én med svak støy, i tillegg til de to nevnte taletyper, nemlig med og uten støy. På denne måte kan således tale med høy kvalitet reproduseres.
Utførelse 5
Fig. 4 viser en fullstendig konfigurasjon for en fremgangsmåte for talekoding samt en fremgangsmåte for dekoding av tale i en utførelse 5 av foreliggende oppfinnelse, og samme henvisningstegn anvendes for enheter som tilsvarer enhe-tene i fig. 1.
I fig. 4 lagrer første eksiteringskodebøker 32 og 35 tidsserievektorer med støy, mens andre eksiteringskodebøker 33 og 36 lagrer støyfrie tidsserievektorer. Aweiingsbestemmere 34 og 37 er også vist.
Arbeidsfunksjonene vil nå bli forklart. I koderen 1 blir inngangstalen S1 ana-lysert av analysatoren 5 for lineær prediksjonsparameter, og en slik lineær parameter ekstraheres og angir da spektruminformasjon for talen. Koderen 6 for lineær prediksjonsparameter vil da kode denne lineære prediksjonsparameter. Koderen 6 vil så innstille en kodet lineær prediksjonsparameter som en koeffisient for syntesefilteret 7, samt også avgi denne kodede prediksjonsparameter til støynivå-evaluatoren 24.
Kodingen av eksiteringsinformasjon vil nå bli forklart. Den adaptive kodebok 8 lagrer et tidligere eksiteringssignal og avgir en tidsserievektor som tilsvarer en adaptiv kode som er tilført fra avstandsberegneren 11, og som genereres ved å gjenta det tidligere eksiteringssignal periodisk. Støynivåevaluatoren 24 evaluerer et støynivå innenfor en tilsvarende kodingsperiode ved å anvende den kodede lineære prediksjonsparameter som er tilført fra koderen 6 for slik parameter samt den adaptive kode, f.eks. en spektrum-gradient, en kortsiktig prediksjonsforsterkning og en tonehøyde-fluktuasjon, og avgir et evalueringsresultat til avveiingsbe-stemmeren 34.
Den første eksiteringskodebok 32 lagrer flere tidsserievektorer med støy og som f.eks. er generert fra tilfeldig støy, og avgir en tidsserievektor som tilsvarer en eksiteringskode. Den andre eksiteringskodebok 33 lagrer flere tidsserievektorer som er generert ved innlæring og med henblikk på å redusere eventuell forvrengning mellom en innlæringstale og dens kodede taleuttrykk, samt for å avgi en tidsserievektor som tilsvarer en eksiteringskode tilført fra avstandsberegneren 11. Av-veiingsbestemmeren 34 fastlegger en avstemningsverdi som avgis til tidsserievektoren fra den første eksiteringskodebok 32 samt tidsserievektoren fra den andre eksiteringskodebok 33 basert på evalueringsresultatet med hensyn til støynivå og som tilføres fra støynivåevaluatoren 24, slik som f.eks. angitt i fig. 5. Hver av tidsserievektorene fra den første eksiteringskodebok 32 og den andre eksiteringskodebok 33 avveies ved bruk av den vektverdi som avgis fra aweiingsbestemmeren 34, og adderes til hverandre. I tidsserievektorer som avgis fra den adaptive kodebok 38 og de tidsserievektorer som genereres ved avveiing og addering, blir avveiet ved bruk av tilsvarende forsterkninger som frembringes av forsterkningskoderen 10, samt adderes til hverandre ved hjelp av innretningen 38 for avveiing og addisjon. Et addisjonsresultat avgis så til syntesefilteret 7 som eksiteringssignaler, og en kodetale blir da frembrakt. Avstandsberegneren 11 beregner en forskjell mellom den kodede tale og inngangstalen S1, og søker etter en adaptiv kode, eksiteringskode og forsterkning for å nedsette denne forskjell til et minimum. Når kodingen er fullført, blir så den lineære prediksjonsparameterkode, den adaptive kode, eksiteringskoden og forsterkningskoden for å nedsette forvrengningen mellom inngangstalen og den kodede tale, avgitt som et kodingsresultat.
Dekoderen 2 vil nå bli nærmere forklart. I dekoderen 2 dekodes den lineære prediksjonsparameterkode til lineær prediksjonsparameter ved hjelp av dekodingsenheten 12 for en slik lineær parameter. Denne dekodingsenhet 12 for lineær prediksjonsparameter innstiller så den frembrakte lineære prediksjonsparameter som koeffisient for syntesefilteret 13, samt avgi også den lineære prediksjonsparameter til støyevaluatoren 26.
Dekodingen av eksiteringsinformasjon vil nå bli forklart. Den adaptive kodebok 14 avgir en tidsserievektor som tilsvarer en adaptiv kode ved å gjenta et tidligere eksiteringssignal periodisk. Støynivåevaluatoren 26 evaluerer et støynivå ved å anvende den dekodede lineære prediksjonsparameter som er tilført fra dekodingsenheten 12 for slik lineær parameter, samt den adaptive kode på samme måte som ved støynivåevaluatoren 24 i koderen 1, samt avgir et evalueringsresultat til aweiingsbestemmeren 37.
Den første eksiteringskodebok 35 og den andre eksiteringskodebok 36 avgir tidsvektorer som tilsvarer eksiteringskoder. Aweiingsbestemmeren 37 foretar avveiing på grunnlag av det støynivå-evalueringsresultat som er tilført fra støynivå-evaluatoren 26 etter samme metode som utføres av aweiingsbestemmeren 34 i koderen 1. Hver av tidsserievektorene fra den første eksiteringskodebok 35 og den andre eksiteringskodebok 36 aweies ved bruk av en tilsvarende vektverdi som frembringes av aweiingsbestemmeren 37, og adderes til hverandre. Den tidsserievektor som avgis fra den adaptive kodebok 14 og den tidsserievektor som genereres ved aweiing og addering, blir aweiet ved bruk av de tilsvarende forsterkninger dekodet ut i fra forsterkningskoder fra forsterkningsdekoderen 16, og addert til hverandre ved hjelp av innretningen 39 for avveiing og addering. Det frembringer således et addisjonsresultat som avgis til syntesefilteret 13 som et eksiteringssignal, og en utgangstale S3 blir da frembrakt.
I utførelse 5 blir talens støynivå evaluert ved bruk av en kode og et kodingsresultat, og tidsserievektoren med støy og den støvfrie tidsserievektor avveies på grunnlag av evalueringsresultatet, samt adderes til hverandre. Tale av høy kvalitet kan da reproduseres ved hjelp av en forholdsvis liten datamengde.
Utførelse 6
I utførelsene 1-5 er det også mulig å forandre forsterkningskodebøker på grunnlag av evalueringsresultatet med hensyn til støynivå. I utførelsen 6 kan det anvendes en meget egnet forsterkningskodebok basert på eksiteringskodeboken. På denne måte kan da kvalitetstale reproduseres.
Utførelse 7
I utførelsene 1-6 blir talens støynivå evaluert og eksiteringskodebøkene omkoplet på grunnlag av evalueringsresultatet. Det er imidlertid også mulig å fastlegge og evaluere begynnende stemt tone, plosiv konsonant, etc, og utføre omkopling mellom eksiteringskodebøkene på grunnlag av et tilsvarende evalueringsresultat. I utførelsen 7 er talen i tillegg til talens støytilstand klassifisert mer detal-jert, f.eks. med hensyn til begynnende stemt tonetilstand, plosiv konsonant etc, og en egnet eksiteringskodebok kan da anvendes for hver tilstand. På denne måte kan da høykvalitetstale reproduseres.
Utførelse 8
I utførelsene 1-6 blir støynivået innenfor kodingsperioden evaluert ved bruk av en spektrum-gradient, en kortsiktig prediksjonsforsterkning og tonehøydefluktu-ering. Det er imidlertid også mulig å evaluere støynivået ved å bruke et forhold mellom en forsterkningsverdi og en utgangsverdi fra den adaptive kodebok.
Industriell anvendbarhet
Ved fremgangsmåtene for henholdsvis koding og dekoding av tale samt apparatene for henholdsvis talekoding og taledekoding i henhold til foreliggende oppfinnelse blir støynivået for en tale evaluert innenfor en bestemt kodingsperiode ved å anvende en kode eller et kodingsresultat med hensyn til minst én av parametrene spektrum-informasjon, effektinformasjon og tonehøydeinformasjon, og forskjellige eksiteringskodebøker kan utnyttes på grunnlag av evalueringsresultatet. På denne måte kan tale av høy kvalitet reproduseres av en forholdsvis liten datamengde.
Ved fremgangsmåten for talekoding og taledekoding i henhold til foreliggende oppfinnelse er det opprettet flere eksiteringskodebøker som lagrer eksiter-inger ved forskjellige støynivåer, og omkopling finner sted mellom disse flere eksi-teringskodebøker basert på evaluering av talens støynivå. På denne måte kan høy kvalitetstale reproduseres ved bruk av en forholdsvis liten datamengde.
Ved fremgangsmåtene for henholdsvis talekoding og taledekoding i henhold til foreliggende oppfinnelse blir støynivåene for de tidsserievektorer som er lagret i eksiteringskodebøkene forandret på grunnlag av evaluering av talens støy-nivå. Ut i fra dette kan en høykvalitetstale reproduseres ved hjelp av en forholdsvis liten datamengde.
Ved fremgangsmåten for talekoding og fremgangsmåten for taledekoding i henhold til oppfinnelsen anvendes en eksiteringskodebok som lagrer tidsserievektorer med støy, og en tidsserievektor med lavt støynivå genereres ved punktprøv-ing av signalstikkprøver i tidsserievektorene basert på evaluering av talens støy-nivå. Ut i fra dette kan tale med høy kvalitet reproduseres ved bruk av en forholdsvis liten datamengde.
Ved fremgangsmåter for henholdsvis talekoding og taledekoding i henhold til oppfinnelsen opprettes en første eksiteringskodebok, støy-tidsserievektorer og en annen eksiteringskodebok for lagring av støvfrie tidsserievektorer, og tidsserievektoren i den første eksiteringskodebok og tidsserievektoren i den andre eksiteringskodebok avveies på grunnlag av evalueringsresultatet med hensyn til støyni-vået i talen, samt addert til hverandre for å generere en tidsserievektor. En høy-kvalitetstale kan på denne måte reproduseres med bruk av forholdsvis liten datamengde.
Claims (2)
1. Fremgangsmåte for taledekoding ifølge kodeeksitert lineærprediksjon (CELP),
karakterisert ved at fremgangsmåten for taledekoding mottar en kodet tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok, idet fremgangsmåten for taledekoding omfatter: å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken; å avgjøre om modifikasjon av tidsserievektoren er nødvendig; hvis modifikasjon avgjøres å være nødvendig, å modifisere tidsserievektoren slik at antall sampler med null amplitudeverdi endres; avgivelse av tidsserievektoren; og syntetisering av en tale ved å benytte den avgitte tidsserievektoren.
2. Apparat for taledekoding ifølge kodeeksitert lineær prediksjon (CELP), der taledekodingsanordningen mottar en kodet tale og syntetiserer en tale ved å bruke minst en eksitasjonskodebok
karakterisert ved at taledekodingsapparatetomfatter en ttdsserievektormoduleringsanordning for å tilveiebringe en tidsserievektor med et antall sampler med null amplitudeverdi fra eksitasjonskodeboken og å avgjøre om modifikasjon av tidsserievektoren er nødvendig, og for å modifisere tidsserievektoren slik at antall sampler med null amplitudeverdi endres hvis modifikasjon avgjøres å være nødvendig, og for å avgi tidsserievektoren; og en talesyntetiseringsanordning for å syntetisere en tale ved å bruke den avgitte tidsserievektoren.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35475497 | 1997-12-24 | ||
PCT/JP1998/005513 WO1999034354A1 (en) | 1997-12-24 | 1998-12-07 | Sound encoding method and sound decoding method, and sound encoding device and sound decoding device |
Publications (3)
Publication Number | Publication Date |
---|---|
NO20035109L NO20035109L (no) | 2000-06-23 |
NO20035109D0 NO20035109D0 (no) | 2003-11-17 |
NO323734B1 true NO323734B1 (no) | 2007-07-02 |
Family
ID=18439687
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20003321A NO20003321D0 (no) | 1997-12-24 | 2000-06-23 | FremgangsmÕte for talekoding, fremgangsmÕte for laledekoding, samt deres apparater |
NO20035109A NO323734B1 (no) | 1997-12-24 | 2003-11-17 | Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater |
NO20040046A NO20040046L (no) | 1997-12-24 | 2004-01-06 | Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20003321A NO20003321D0 (no) | 1997-12-24 | 2000-06-23 | FremgangsmÕte for talekoding, fremgangsmÕte for laledekoding, samt deres apparater |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20040046A NO20040046L (no) | 1997-12-24 | 2004-01-06 | Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater |
Country Status (11)
Country | Link |
---|---|
US (18) | US7092885B1 (no) |
EP (8) | EP1426925B1 (no) |
JP (2) | JP3346765B2 (no) |
KR (1) | KR100373614B1 (no) |
CN (5) | CN1737903A (no) |
AU (1) | AU732401B2 (no) |
CA (4) | CA2722196C (no) |
DE (3) | DE69837822T2 (no) |
IL (1) | IL136722A0 (no) |
NO (3) | NO20003321D0 (no) |
WO (1) | WO1999034354A1 (no) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1426925B1 (en) | 1997-12-24 | 2006-08-02 | Mitsubishi Denki Kabushiki Kaisha | Method and apparatus for speech decoding |
EP1116219B1 (en) * | 1999-07-01 | 2005-03-16 | Koninklijke Philips Electronics N.V. | Robust speech processing from noisy speech models |
CA2378012A1 (en) * | 1999-07-02 | 2001-01-11 | Ravi Chandran | Coded domain echo control |
JP2001075600A (ja) * | 1999-09-07 | 2001-03-23 | Mitsubishi Electric Corp | 音声符号化装置および音声復号化装置 |
JP4619549B2 (ja) * | 2000-01-11 | 2011-01-26 | パナソニック株式会社 | マルチモード音声復号化装置及びマルチモード音声復号化方法 |
JP4510977B2 (ja) * | 2000-02-10 | 2010-07-28 | 三菱電機株式会社 | 音声符号化方法および音声復号化方法とその装置 |
FR2813722B1 (fr) * | 2000-09-05 | 2003-01-24 | France Telecom | Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif |
JP3404016B2 (ja) * | 2000-12-26 | 2003-05-06 | 三菱電機株式会社 | 音声符号化装置及び音声符号化方法 |
JP3404024B2 (ja) | 2001-02-27 | 2003-05-06 | 三菱電機株式会社 | 音声符号化方法および音声符号化装置 |
JP3566220B2 (ja) | 2001-03-09 | 2004-09-15 | 三菱電機株式会社 | 音声符号化装置、音声符号化方法、音声復号化装置及び音声復号化方法 |
KR100467326B1 (ko) * | 2002-12-09 | 2005-01-24 | 학교법인연세대학교 | 추가 비트 할당 기법을 이용한 음성 부호화 및 복호화를위한 송수신기 |
US20040244310A1 (en) * | 2003-03-28 | 2004-12-09 | Blumberg Marvin R. | Data center |
CN101176147B (zh) * | 2005-05-13 | 2011-05-18 | 松下电器产业株式会社 | 语音编码装置以及频谱变形方法 |
CN1924990B (zh) * | 2005-09-01 | 2011-03-16 | 凌阳科技股份有限公司 | Midi音讯的播放架构和方法与其应用的多媒体装置 |
JPWO2007129726A1 (ja) * | 2006-05-10 | 2009-09-17 | パナソニック株式会社 | 音声符号化装置及び音声符号化方法 |
US8712766B2 (en) * | 2006-05-16 | 2014-04-29 | Motorola Mobility Llc | Method and system for coding an information signal using closed loop adaptive bit allocation |
RU2462769C2 (ru) * | 2006-10-24 | 2012-09-27 | Войсэйдж Корпорейшн | Способ и устройство кодирования кадров перехода в речевых сигналах |
EP2088588B1 (en) | 2006-11-10 | 2013-01-09 | Panasonic Corporation | Parameter decoding device, parameter encoding device, and parameter decoding method |
US20100049508A1 (en) * | 2006-12-14 | 2010-02-25 | Panasonic Corporation | Audio encoding device and audio encoding method |
US8160872B2 (en) * | 2007-04-05 | 2012-04-17 | Texas Instruments Incorporated | Method and apparatus for layered code-excited linear prediction speech utilizing linear prediction excitation corresponding to optimal gains |
EP2269188B1 (en) * | 2008-03-14 | 2014-06-11 | Dolby Laboratories Licensing Corporation | Multimode coding of speech-like and non-speech-like signals |
US9056697B2 (en) * | 2008-12-15 | 2015-06-16 | Exopack, Llc | Multi-layered bags and methods of manufacturing the same |
US8649456B2 (en) | 2009-03-12 | 2014-02-11 | Futurewei Technologies, Inc. | System and method for channel information feedback in a wireless communications system |
US8675627B2 (en) * | 2009-03-23 | 2014-03-18 | Futurewei Technologies, Inc. | Adaptive precoding codebooks for wireless communications |
US9070356B2 (en) * | 2012-04-04 | 2015-06-30 | Google Technology Holdings LLC | Method and apparatus for generating a candidate code-vector to code an informational signal |
US9208798B2 (en) | 2012-04-09 | 2015-12-08 | Board Of Regents, The University Of Texas System | Dynamic control of voice codec data rate |
IN2015DN02595A (no) | 2012-11-15 | 2015-09-11 | Ntt Docomo Inc | |
PL3008726T3 (pl) | 2013-06-10 | 2018-01-31 | Fraunhofer Ges Forschung | Urządzenie i sposób kodowania obwiedni sygnału audio, przetwarzania i dekodowania przez modelowanie reprezentacji sumy skumulowanej z zastosowaniem kwantyzacji i kodowania rozkładu |
MY187944A (en) | 2013-10-18 | 2021-10-30 | Fraunhofer Ges Forschung | Concept for encoding an audio signal and decoding an audio signal using deterministic and noise like information |
MY180722A (en) | 2013-10-18 | 2020-12-07 | Fraunhofer Ges Forschung | Concept for encoding an audio signal and decoding an audio signal using speech related spectral shaping information |
CN107369454B (zh) * | 2014-03-21 | 2020-10-27 | 华为技术有限公司 | 语音频码流的解码方法及装置 |
EP3859734B1 (en) * | 2014-05-01 | 2022-01-26 | Nippon Telegraph And Telephone Corporation | Sound signal decoding device, sound signal decoding method, program and recording medium |
US9934790B2 (en) | 2015-07-31 | 2018-04-03 | Apple Inc. | Encoded audio metadata-based equalization |
JP6759927B2 (ja) * | 2016-09-23 | 2020-09-23 | 富士通株式会社 | 発話評価装置、発話評価方法、および発話評価プログラム |
WO2018084305A1 (ja) * | 2016-11-07 | 2018-05-11 | ヤマハ株式会社 | 音声合成方法 |
US10878831B2 (en) | 2017-01-12 | 2020-12-29 | Qualcomm Incorporated | Characteristic-based speech codebook selection |
JP6514262B2 (ja) * | 2017-04-18 | 2019-05-15 | ローランドディー.ジー.株式会社 | インクジェットプリンタおよび印刷方法 |
CN112201270B (zh) * | 2020-10-26 | 2023-05-23 | 平安科技(深圳)有限公司 | 语音噪声的处理方法、装置、计算机设备及存储介质 |
EP4053750A1 (en) * | 2021-03-04 | 2022-09-07 | Tata Consultancy Services Limited | Method and system for time series data prediction based on seasonal lags |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0197294A (ja) | 1987-10-06 | 1989-04-14 | Piran Mirton | 木材パルプ等の精製機 |
CA2019801C (en) | 1989-06-28 | 1994-05-31 | Tomohiko Taniguchi | System for speech coding and an apparatus for the same |
JPH0333900A (ja) * | 1989-06-30 | 1991-02-14 | Fujitsu Ltd | 音声符号化方式 |
US5261027A (en) | 1989-06-28 | 1993-11-09 | Fujitsu Limited | Code excited linear prediction speech coding system |
JP2940005B2 (ja) * | 1989-07-20 | 1999-08-25 | 日本電気株式会社 | 音声符号化装置 |
CA2021514C (en) * | 1989-09-01 | 1998-12-15 | Yair Shoham | Constrained-stochastic-excitation coding |
US5754976A (en) * | 1990-02-23 | 1998-05-19 | Universite De Sherbrooke | Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech |
JPH0451200A (ja) * | 1990-06-18 | 1992-02-19 | Fujitsu Ltd | 音声符号化方式 |
US5293449A (en) * | 1990-11-23 | 1994-03-08 | Comsat Corporation | Analysis-by-synthesis 2,4 kbps linear predictive speech codec |
JP2776050B2 (ja) | 1991-02-26 | 1998-07-16 | 日本電気株式会社 | 音声符号化方式 |
US5680508A (en) * | 1991-05-03 | 1997-10-21 | Itt Corporation | Enhancement of speech coding in background noise for low-rate speech coder |
US5396576A (en) * | 1991-05-22 | 1995-03-07 | Nippon Telegraph And Telephone Corporation | Speech coding and decoding methods using adaptive and random code books |
JPH05232994A (ja) | 1992-02-25 | 1993-09-10 | Oki Electric Ind Co Ltd | 統計コードブック |
JPH05265496A (ja) * | 1992-03-18 | 1993-10-15 | Hitachi Ltd | 複数のコードブックを有する音声符号化方法 |
JP3297749B2 (ja) | 1992-03-18 | 2002-07-02 | ソニー株式会社 | 符号化方法 |
US5495555A (en) | 1992-06-01 | 1996-02-27 | Hughes Aircraft Company | High quality low bit rate celp-based speech codec |
DE69328399T2 (de) * | 1992-09-30 | 2000-10-19 | Hudson Soft Co Ltd | Sprachdaten-Verarbeitung |
CA2108623A1 (en) | 1992-11-02 | 1994-05-03 | Yi-Sheng Wang | Adaptive pitch pulse enhancer and method for use in a codebook excited linear prediction (celp) search loop |
JP2746033B2 (ja) * | 1992-12-24 | 1998-04-28 | 日本電気株式会社 | 音声復号化装置 |
SG43128A1 (en) * | 1993-06-10 | 1997-10-17 | Oki Electric Ind Co Ltd | Code excitation linear predictive (celp) encoder and decoder |
JP2624130B2 (ja) | 1993-07-29 | 1997-06-25 | 日本電気株式会社 | 音声符号化方式 |
JPH0749700A (ja) | 1993-08-09 | 1995-02-21 | Fujitsu Ltd | Celp型音声復号器 |
CA2154911C (en) * | 1994-08-02 | 2001-01-02 | Kazunori Ozawa | Speech coding device |
JPH0869298A (ja) | 1994-08-29 | 1996-03-12 | Olympus Optical Co Ltd | 再生装置 |
JP3557662B2 (ja) * | 1994-08-30 | 2004-08-25 | ソニー株式会社 | 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置 |
JPH08102687A (ja) * | 1994-09-29 | 1996-04-16 | Yamaha Corp | 音声送受信方式 |
JPH08110800A (ja) | 1994-10-12 | 1996-04-30 | Fujitsu Ltd | A−b−S法による高能率音声符号化方式 |
JP3328080B2 (ja) * | 1994-11-22 | 2002-09-24 | 沖電気工業株式会社 | コード励振線形予測復号器 |
JPH08179796A (ja) * | 1994-12-21 | 1996-07-12 | Sony Corp | 音声符号化方法 |
JP3292227B2 (ja) | 1994-12-28 | 2002-06-17 | 日本電信電話株式会社 | 符号励振線形予測音声符号化方法及びその復号化方法 |
EP0944038B1 (en) * | 1995-01-17 | 2001-09-12 | Nec Corporation | Speech encoder with features extracted from current and previous frames |
KR0181028B1 (ko) * | 1995-03-20 | 1999-05-01 | 배순훈 | 분류 디바이스를 갖는 개선된 비디오 신호 부호화 시스템 |
JPH08328598A (ja) * | 1995-05-26 | 1996-12-13 | Sanyo Electric Co Ltd | 音声符号化・復号化装置 |
US5864797A (en) | 1995-05-30 | 1999-01-26 | Sanyo Electric Co., Ltd. | Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors |
JP3515216B2 (ja) * | 1995-05-30 | 2004-04-05 | 三洋電機株式会社 | 音声符号化装置 |
JPH0922299A (ja) | 1995-07-07 | 1997-01-21 | Kokusai Electric Co Ltd | 音声符号化通信方式 |
US5819215A (en) * | 1995-10-13 | 1998-10-06 | Dobson; Kurt | Method and apparatus for wavelet based data compression having adaptive bit rate control for compression of digital audio or other sensory data |
JP3680380B2 (ja) * | 1995-10-26 | 2005-08-10 | ソニー株式会社 | 音声符号化方法及び装置 |
EP0773533B1 (en) | 1995-11-09 | 2000-04-26 | Nokia Mobile Phones Ltd. | Method of synthesizing a block of a speech signal in a CELP-type coder |
FI100840B (fi) * | 1995-12-12 | 1998-02-27 | Nokia Mobile Phones Ltd | Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin |
JP4063911B2 (ja) | 1996-02-21 | 2008-03-19 | 松下電器産業株式会社 | 音声符号化装置 |
JPH09281997A (ja) * | 1996-04-12 | 1997-10-31 | Olympus Optical Co Ltd | 音声符号化装置 |
GB2312360B (en) | 1996-04-12 | 2001-01-24 | Olympus Optical Co | Voice signal coding apparatus |
JP3094908B2 (ja) | 1996-04-17 | 2000-10-03 | 日本電気株式会社 | 音声符号化装置 |
KR100389895B1 (ko) * | 1996-05-25 | 2003-11-28 | 삼성전자주식회사 | 음성 부호화 및 복호화방법 및 그 장치 |
JP3364825B2 (ja) | 1996-05-29 | 2003-01-08 | 三菱電機株式会社 | 音声符号化装置および音声符号化復号化装置 |
JPH1020891A (ja) * | 1996-07-09 | 1998-01-23 | Sony Corp | 音声符号化方法及び装置 |
JP3707154B2 (ja) * | 1996-09-24 | 2005-10-19 | ソニー株式会社 | 音声符号化方法及び装置 |
JP3174742B2 (ja) | 1997-02-19 | 2001-06-11 | 松下電器産業株式会社 | Celp型音声復号化装置及びcelp型音声復号化方法 |
CN1262994C (zh) | 1996-11-07 | 2006-07-05 | 松下电器产业株式会社 | 噪声消除器 |
US5867289A (en) * | 1996-12-24 | 1999-02-02 | International Business Machines Corporation | Fault detection for all-optical add-drop multiplexer |
SE9700772D0 (sv) | 1997-03-03 | 1997-03-03 | Ericsson Telefon Ab L M | A high resolution post processing method for a speech decoder |
US6167375A (en) * | 1997-03-17 | 2000-12-26 | Kabushiki Kaisha Toshiba | Method for encoding and decoding a speech signal including background noise |
CA2202025C (en) | 1997-04-07 | 2003-02-11 | Tero Honkanen | Instability eradicating method and device for analysis-by-synthesis speeech codecs |
US6029125A (en) | 1997-09-02 | 2000-02-22 | Telefonaktiebolaget L M Ericsson, (Publ) | Reducing sparseness in coded speech signals |
US6058359A (en) * | 1998-03-04 | 2000-05-02 | Telefonaktiebolaget L M Ericsson | Speech coding including soft adaptability feature |
JPH11119800A (ja) | 1997-10-20 | 1999-04-30 | Fujitsu Ltd | 音声符号化復号化方法及び音声符号化復号化装置 |
EP1426925B1 (en) | 1997-12-24 | 2006-08-02 | Mitsubishi Denki Kabushiki Kaisha | Method and apparatus for speech decoding |
US6415252B1 (en) * | 1998-05-28 | 2002-07-02 | Motorola, Inc. | Method and apparatus for coding and decoding speech |
US6453289B1 (en) * | 1998-07-24 | 2002-09-17 | Hughes Electronics Corporation | Method of noise reduction for speech codecs |
US6385573B1 (en) * | 1998-08-24 | 2002-05-07 | Conexant Systems, Inc. | Adaptive tilt compensation for synthesized speech residual |
US6104992A (en) * | 1998-08-24 | 2000-08-15 | Conexant Systems, Inc. | Adaptive gain reduction to produce fixed codebook target signal |
ITMI20011454A1 (it) | 2001-07-09 | 2003-01-09 | Cadif Srl | Procedimento impianto e nastro a base di bitume polimero per il riscaldamento superficiale ed ambiantale delle strutture e delle infrastrutt |
-
1998
- 1998-12-07 EP EP03090370A patent/EP1426925B1/en not_active Expired - Lifetime
- 1998-12-07 EP EP09014422.1A patent/EP2154679B1/en not_active Expired - Lifetime
- 1998-12-07 CA CA2722196A patent/CA2722196C/en not_active Expired - Lifetime
- 1998-12-07 EP EP05015793A patent/EP1596368B1/en not_active Expired - Lifetime
- 1998-12-07 CN CNA2005100895281A patent/CN1737903A/zh active Pending
- 1998-12-07 EP EP09014424A patent/EP2154681A3/en not_active Ceased
- 1998-12-07 EP EP98957197A patent/EP1052620B1/en not_active Expired - Lifetime
- 1998-12-07 WO PCT/JP1998/005513 patent/WO1999034354A1/ja active Application Filing
- 1998-12-07 CN CN2005100563318A patent/CN1658282A/zh active Pending
- 1998-12-07 CA CA002636684A patent/CA2636684C/en not_active Expired - Lifetime
- 1998-12-07 DE DE69837822T patent/DE69837822T2/de not_active Expired - Lifetime
- 1998-12-07 US US09/530,719 patent/US7092885B1/en not_active Expired - Lifetime
- 1998-12-07 DE DE69825180T patent/DE69825180T2/de not_active Expired - Fee Related
- 1998-12-07 CN CN200510088000A patent/CN100583242C/zh not_active Expired - Lifetime
- 1998-12-07 EP EP06008656A patent/EP1686563A3/en not_active Withdrawn
- 1998-12-07 CN CNA031584632A patent/CN1494055A/zh active Pending
- 1998-12-07 IL IL13672298A patent/IL136722A0/xx unknown
- 1998-12-07 AU AU13526/99A patent/AU732401B2/en not_active Expired
- 1998-12-07 DE DE69736446T patent/DE69736446T2/de not_active Expired - Lifetime
- 1998-12-07 CA CA2636552A patent/CA2636552C/en not_active Expired - Lifetime
- 1998-12-07 EP EP05015792A patent/EP1596367A3/en not_active Ceased
- 1998-12-07 CN CNB988126826A patent/CN1143268C/zh not_active Expired - Lifetime
- 1998-12-07 EP EP09014423.9A patent/EP2154680B1/en not_active Expired - Lifetime
- 1998-12-07 KR KR10-2000-7007047A patent/KR100373614B1/ko active IP Right Grant
- 1998-12-07 CA CA002315699A patent/CA2315699C/en not_active Expired - Lifetime
- 1998-12-07 JP JP2000526920A patent/JP3346765B2/ja not_active Expired - Lifetime
-
2000
- 2000-06-23 NO NO20003321A patent/NO20003321D0/no not_active Application Discontinuation
-
2003
- 2003-11-17 NO NO20035109A patent/NO323734B1/no not_active IP Right Cessation
-
2004
- 2004-01-06 NO NO20040046A patent/NO20040046L/no not_active Application Discontinuation
-
2005
- 2005-03-28 US US11/090,227 patent/US7363220B2/en not_active Expired - Fee Related
- 2005-07-26 US US11/188,624 patent/US7383177B2/en not_active Expired - Fee Related
-
2007
- 2007-01-16 US US11/653,288 patent/US7747441B2/en not_active Expired - Fee Related
- 2007-10-29 US US11/976,830 patent/US20080065375A1/en not_active Abandoned
- 2007-10-29 US US11/976,883 patent/US7747433B2/en not_active Expired - Fee Related
- 2007-10-29 US US11/976,878 patent/US20080071526A1/en not_active Abandoned
- 2007-10-29 US US11/976,840 patent/US7747432B2/en not_active Expired - Fee Related
- 2007-10-29 US US11/976,841 patent/US20080065394A1/en not_active Abandoned
- 2007-10-29 US US11/976,828 patent/US20080071524A1/en not_active Abandoned
- 2007-10-29 US US11/976,877 patent/US7742917B2/en not_active Expired - Fee Related
-
2008
- 2008-12-11 US US12/332,601 patent/US7937267B2/en not_active Expired - Fee Related
-
2009
- 2009-01-30 JP JP2009018916A patent/JP4916521B2/ja not_active Expired - Lifetime
-
2011
- 2011-03-28 US US13/073,560 patent/US8190428B2/en not_active Expired - Fee Related
-
2012
- 2012-02-17 US US13/399,830 patent/US8352255B2/en not_active Expired - Fee Related
- 2012-09-14 US US13/618,345 patent/US8447593B2/en not_active Expired - Fee Related
-
2013
- 2013-03-11 US US13/792,508 patent/US8688439B2/en not_active Expired - Fee Related
-
2014
- 2014-02-25 US US14/189,013 patent/US9263025B2/en not_active Expired - Fee Related
-
2016
- 2016-02-12 US US15/043,189 patent/US9852740B2/en not_active Expired - Fee Related
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
NO323734B1 (no) | Fremgangsmate for talekoding, fremgangsmate for taledekoding, samt deres apparater | |
CA2453122C (en) | A method for speech coding, method for speech decoding and their apparatuses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
CREP | Change of representative |
Representative=s name: WITTMANN HERNANDEZ PATENTANWALTE |
|
MK1K | Patent expired |