DE3244476A1 - Digitaler sprachprozessor - Google Patents
Digitaler sprachprozessorInfo
- Publication number
- DE3244476A1 DE3244476A1 DE19823244476 DE3244476A DE3244476A1 DE 3244476 A1 DE3244476 A1 DE 3244476A1 DE 19823244476 DE19823244476 DE 19823244476 DE 3244476 A DE3244476 A DE 3244476A DE 3244476 A1 DE3244476 A1 DE 3244476A1
- Authority
- DE
- Germany
- Prior art keywords
- signal
- speech
- representative
- generating
- interval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005284 excitation Effects 0.000 claims description 79
- 230000004044 response Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 9
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000007423 decrease Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- FTGYKWAHGPIJIT-UHFFFAOYSA-N hydron;1-[2-[(2-hydroxy-3-phenoxypropyl)-methylamino]ethyl-methylamino]-3-phenoxypropan-2-ol;dichloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CN(C)CCN(C)CC(O)COC1=CC=CC=C1 FTGYKWAHGPIJIT-UHFFFAOYSA-N 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 102100025151 Adenylate kinase 8 Human genes 0.000 description 1
- 101710127483 Adenylate kinase 8 Proteins 0.000 description 1
- 101000836983 Homo sapiens Secretoglobin family 1D member 1 Proteins 0.000 description 1
- 241000158147 Sator Species 0.000 description 1
- 102100028659 Secretoglobin family 1D member 1 Human genes 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- PHTXVQQRWJXYPP-UHFFFAOYSA-N ethyltrifluoromethylaminoindane Chemical compound C1=C(C(F)(F)F)C=C2CC(NCC)CC2=C1 PHTXVQQRWJXYPP-UHFFFAOYSA-N 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Monitoring And Testing Of Transmission In General (AREA)
- Analogue/Digital Conversion (AREA)
Description
Digitaler Sprachprozessor
Die Erfindung bezieht sich auf Sprachverarbeitung, insbesondere auf digitale Sprachcodierungseinrichtungen.
Digital arbeitende Sprach-Nachrichtensysteme mit Sprachspeicher- und Sprachausgabeeinrichtungen setzen Signalkompression ein, um die zum Speichern und/oder übertragen
benötigte Bitrate zu verringern. Ein Sprachmuster enthält bekanntlich Redundanz, die für seine nach außen in
Erscheinung tretende Qualität nicht entscheidend ist. Das Entfernen von redundanten Komponenten des Sprachmusters
verringert die zum Zusammensetzen einer Kopie der Sprache benötigte Anzahl von Digitalcodes beträchtlich.
Die subjektiv empfundene Qualität der Sprachkopie hängt jedoch von den Kompressions- und Codierungsmethoden
ab.
Ein bekanntes digitales Sprachcodierungssystem, wie es
ζ. B. in der US-PS 3 624 302 beschrieben ist, beinhaltet die lineare Voraussage- oder Prädiktoranalyse eines
eingegebenen Sprachsignals. Das Sprachsignal wird in -aufeinanderfolgende
Intervalle aufgeteilt, und es wird ein für die Sprache in dem Intervall repräsentativer
Satz von Parametern erzeugt. Der Parametersatz enthält
lineare Prädiktorkoeffizientensignale, die kennzeichnend
sind für die Spektralhüllkurve der Sprache in dem Intervall, sowie Tonhöhen- und Stinunhaftigkeitssignale,
die der Spracherregung entsprechen. Diese Parametersignale können mit einer viel geringeren Bitrate codiert
werden als die Sprachsignal-Wellenform selbst. Aus den Parametersignalcodes wird durch Synthese eine Kopie des
eingegebenen Sprachsignäls gebildet. Die Syntheseeinrichtung enthält im allgemeinen ein Modell oder eine
Nachbildung des Mundhohlraums. In dem Modell werden die Erregungsimpulse in einem Allpol-Voraussagefilter durch
die für die Spektralhüllkurve repräsentativen Prädiktor~
koeffizienten modifiziert. _.
Die oben erläuterte tonhöhenerregte lineare Prädiktor- oder Voraussagecodierung ist äußerst wirksam. Die erzeugte
Sprachkopie klingt jedoch synthetisch und ist häufig
schwierig zu verstehen. Im allgemeinen resultiert die
geringe Sprachqualität aus einem Mangel an Entsprechung zwischen Sprachmuster und dem verwendeten linearen Voraussagemodell.
Fehler im Tonhöhencode oder Fehler bei der Bestimmung, ob das Sprachintervall stimmhaft oder
stimmlos ist, bewirken, daß die Kopie der Sprache gestört oder unnatürlich klingt. Ähnliche Probleme ergeben
sich auch bei der Formantcodierung von Sprache. Andere Codierungsanordnungen, bei denen die Spracherregung
aus dem nach der Voraussage erhaltenen Rest erhalten wird, z. B. ADPCM oder APC, schaffen eine spürbare Verbesserung, da die Erregung nicht von einem ungenauen
Modell abhängt. Bei diesen Systemen liegt die Erregungs-Bitrate jedoch wenigstens um eine Größenordnung höher
als bei dem linearen Voraussagemodell. Versuche, die Erregungs-Bitrate
in den Rest-Systemen zu senken, haben durchwegs zu einer wesentlichen Qualitätsverschlechterung
geführt. Es ist ein Ziel der Erfindung, eine verbesserte Sprachcodierung hoher Qualität bei Bitraten zu
erhalten, die niedriger liegen als bei Restcodierungsmethoden.
Die Erfindung ist auf eine Verarbeitungsanordnung für ein sequentielles Muster gerichtet, bei der das sequentielle
Master in aufeinanderfolgende Zeitintervalle aufgeteilt wird. In jedem Zeitintervall werden ein für das se-
quentielle Muster des Intervalls repräsentatives Signal
und ein künstliches Mustersignal gebildet. Ansprechend auf die Signale für das sequentielle Muster des Intervalls und das kün&liche Muster wird ein codiertes Signal
gebildet, welches sich zum Verringern des Unterschieds zwischen dem sequentiellen Muster des Intervalls
und dem künstlichen Muster eignet, um das sequentielle Muster darzustellen.
Gemäß einem Aspekt der Erfindung wird ein Sprachmuster
in aufeinanderfolgende Zeitintervalle aufgeteilt. In jedem Intervall werden ein für das Sprachmuster des Intervalls
repräsentatives Signal und ein für eine künstliche Sprache repräsentatives Signal gebildet. Ein den
Unterschieden zwischen dem Signal für die Sprache in dem Intervall und dem Signal für die künstliche Sprache entsprechendes
Signal wird erzeugt. Es wird ein Signal gebildet, das geeignet ist, das für die künstliche Sprache
in dem Intervall repräsentative Signal so zu modifizieren, daß das dem Unterschied entsprechende Signal verringert
wird.
In einer Ausführungsform der Erfindung wird für jeden
Zeitrahmen eines Sprachsignals ein Satz von Prädiktor-
2/3
BAD ORlGSNAL
oder Voraussageparametersignalen erzeugt. Ansprechend auf das Zeitrahmen-Sprachsignal und die Zeitrahmen-Prädiktorparameter
wird ein Voraussagerestsignal gebildet* Das Voraussagerestsignal wird durch ein erstes Voraussagefilter
geschickt, um für den Zeitrahmen ein sprachekennzeichnendes Signal zu erzeugen. In einem zweiten
Voraussagefilter wird aus den Rahmen-Prädiktorparametern
für den Zeitrahmen ein eine künstliche Sprache repräsentierendes Signal erzeugt. Ansprechend auf das für die
Sprache und das für die künstliche Sprache repräsentative Signal jedes Zeitrahmens wird ein codiertes Erregungssignal erzeugt und dem zweiten Voraussagefilter zugeführt,
um das spürbar gewichtete mittlere Differenzquadrat zwischen dem für die Sprache des Rahmens repräsentativen
und dem für die künstliche Sprache repräsentativen Signal zu minimieren. Das codierte Erregungssignal und die
Prädiktorparametersignale werden zum Zusammensetzen einer Kopie des Zeitrahmen-Sprachmusters herangezogen.
Im folgenden wird die Erfindung anhand von Ausführungsbeispielen näher erläutert. Es zeigen:
Fig. 1 ein Blockdiagramm einer Sprachprozessorschaltung nach der Erfindung,
Fig. 2 ein Blockdiagramm eines Prozessors zum Bilden
eines Erregungssignals, der in der Schaltung nach Fig. 1 einsetzbar ist,
Fig. 3 ein FIußdlagramm, das die Arbeitsweise der Schaltung
zum Bilden des Erregungssignals gemäß Fig. 1 veranschaulicht,
Fig. 4 und 5 Flußdiagramme, die die Arbeitsweise der in
Fig. 1 gezeigten Schaltung veranschaulichen,
Fig. 6 ein Zeitdiagramm, welches die Arbeitsweise der Schaltung zum Bilden eines Erregungssignals, die
in den Fig. 1 und 2 dargestellt ist, veranschaulicht, und
Fig. 7 Wellenzüge, die die Sprachverarbeitung nach der
Erfindung veranschaulichen.
Fig. 1 zeigt ein allgemeines Blockdiagramm eines erfindungsgemäßen
Sprachprozessors. Gemäß Fig. 1 wird ein Sprachmuster, beispielsweise eine gesprochene Nachricht,
von einem Mikrophon 101 empfangen. Das von diesem abgegebene entsprechende analoge Sprachsignal wird In einer
Filter- und Abtastschaltung 113 eines Voraussageanaly-
sators 110 bandbegrenzt und in eine Folge von Impulsabtastwerten
umgesetzt. Durch die Filterung können Frequenzanteile des Sprachsignals oberhalb von 4,0 kHz
herausgefiltert werden, wobei die Abtastrate in bekannter Weise 8,0 kHz beträgt. Die zeitliche Steuerung der
Abtastungen wird durch einen von einem Taktgeber 103 gelieferten Abtasttakt CL gesteuert. Jeder von der
schaltung 113 kommende Abtastwert wird in einem Analog/
Digital-Umsetzer 115 in einen Digitalcode umgesetzt, der
kennzeichnend für die Amplitude des Abtastwertes ist.
Die Folge der Sprach-Abtastwerte gelangt an einen Prädiktorparameter-Rechner
(LPC-Rechner) 119, der in bekannter Weise die Sprachsignale in 10 bis 20 ms lange
Intervalle unterteilt und einen Satz von linearen Prädiktorkoeffizientensignalen
a, , k = 1, 2, ..., ρ erzeugt,
die kennzeichnend sind für das vorausgesagte Kurzzeitspektrum der N >> ρ Sprachabtastwerte jedes Intervalls.
Die von dem A/D-Umsetzer 115 kommenden Sprachabtastwerte werden in einer Verzögerungsschaltung 117 verzögert, um
Zeit für die Bildung der Signale a, zu schaffen. Die verzögerten Abtastwerte gelangen an den Eingang eines
Voraussagerestgenerators 118. Der Voraussagerestgenerator spricht in an sich bekannter Weise auf die verzöger-
ten Sprachabtastwerte und die Prädiktorparameter a. an,
um ein dem Unterschied, d. h. der Differenz zwischen
den beiden Signalen entsprechendes Signal zu bilden. Die für jeden Rahmen in dem Voraussageanalysator 110
erfolgende Bildung der Prädiktor- oder Voraussageparameter sowie des Voraussagerestsignals kann mit der in
der US-PS 3 740 476 beschriebenen Anordnung oder irgend einer anderen hierfür geeigneten Anordnung durchgeführt
werden. ■ ■
Während die Prädiktorparametersignale afc eine effiziente
Darstellung des Kurzzeit-Sprachspektrums bilden, unterliegt das Restsignal im allgemeinen großen Schwankungen
von Intervall zu Intervall und weist eine hohe Bitrate auf, die für viele Anwendungsfalle ungeeignet ist. In dem'
tonhöhenerregten Vocoder werden nur die Spitzen des Restsignals als Tonhöhenimpulscodes übertragen» Die sich
hierbei ergebende Qualität ist im allgemeinen jedoch schlecht. Der Wellenzug 701 in Fig. 7 veranschaulicht
ein typisches, sich über zwei Zeitrahmen erstreckendes Sprachmuster. Der Wellenzug 703 zeigt das Voraussagerestsignal,
das von dem Muster des Wellenzugs 701 und den Prädiktorparametern der Rahmen abgeleitet ist. Wie
man leicht sieht, ist der Wellenzug 703 relativ kompli-
ziert, so daß den Spitzen entsprechende Codierungs-Tonhöhenimpulse
keine angemessene Approximation des Voraussagerests schaffen. Erfindungsgemäß empfängt ein Erregungscodeprozessor
120 das Restsignal d, und die Prädiktorparameter a, des Rahmens und erzeugt einen Intervall-Erregungscode,
der eine vorbestimmte Anzahl von Bitstellen hat. Der sich ergebende Erregungscode gemäß des
Wellenzugs 705 weist eine relativ niedrige und konstante Bitrate auf. Der Wellenzug 707 zeigt eine Kopie des
Sprachmusters des Wellenzugs 701, die aus dem Erregungscode und den Prädiktorparametern der Rahmen zusammengesetzt
ist. Wie man anhand eines Vergleichs der Wellenzüge 701 und 702 sieht, wird bei viel niedrigeren
Bitraten ein Sprachverlauf höherer Qualität durch die anpassende Voraussagecodierung erhalten.
Das Voraussagerestsignal d, und die Prädiktorparametersignale
a, jedes aufeinanderfolgenden Rahmens werden von der Schaltung 110 zu Beginn jedes aufeinanderfolgenden
Rahmens an die zum Bilden eines Erregungssignals dienende Schaltung 120 gegeben. Die Schaltung 120 erzeugt
ein mehrere Elemente enthaltenden Rahmen-Erregungscode EC mit einer vorbestimmten Anzahl von Bitstellen
für jeden Rahmen. Jeder Erregungscode entspricht einer Folge von ΙέϊέΙ Impulsen, die kennzeichnend sind
für die Erregungsfunktion des Rahmens. Die Amplitude ß.
und die Stelle m. jedes Impulses innerhalb des Rahmens wird in der zum Bilden des Erregungssignals dienenden
Schaltung festgelegt, so daß das Zusammensetzen einer Kopie des Rahmen-Sprachsignals aus dem Erregungssignal
und den Prädiktorparametersignalen des Rahmens möglich ist. In einem Codierer 131 werden die Signale ßv und m.
codiert und mit den Prädiktorparametersignalen des Rahmens in einem Multiplexer 135 einer Multiplexbildung
unterworfen, um ein dem Rahmen-Sprachmuster entsprechendes digitales Signal zu erhalten.
In der zum Bilden des Erregungssignals dienenden Schaltung 120 werden das Voraussagerestsignal d, und die
Prädiktorparametersignale a, eines Rahmens über Verknüpfungsglieder
122 bzw. 124 an ein Filter 121 gelegt. Zu Beginn jedes Rahmens öffnet ein Rahmentaktsignal PC
die Gatter 122 und 124, wodurch die Signale d. an das
Filter 122 und die Signale a, an die Filter 121 und 123
gelangen. Das Filter 121 ist derart ausgebildet, daß es das Signal d, so modifiziert, daß das Quantisierungsspektrum des Fehlersignals in dessen Formantbereichen
konzentriert wird. Wie in der US-PS 4 133 976 beschrieben
ist, bewirkt diese Filteranordnung, daß der Fehler in den Signalbereichen hoher Energie des Spektrums
3 2U-476
- 26 maskiert wird.
Die übertragungsfunktion des Filters 121 ist in der Schreibweise der z-Transformation:
1 - B(z)
wobei B(ζ) durch die Rahmen-Prädiktorparameter a, gesteuert
wird.
Das Voraussagefilter 123 empfängt vom Rechner 119 die Rahmen-Prädiktorparametersignale und von dem Erregungssignalprozessor
127 ein künstliches Erregungssignal EC. Das Filter 123 hat eine übertragungsfunktion
gemäß Gleichung (1). Das Filter 121 bildet ansprechend auf den Voraussagerest d. ein gewichtetes Rahmen-Sprachsignal
y, während das Filter 123 ansprechend auf das von dem Signalprozessor 127 kommende Erregungssignal ein gewichtetes künstliches Sprachsignal y erzeugt.
Die Signale y und y werden in einem Korrelationsprozessor 125 korreliert, wobei der Korrelationsprozessar
125 ein der gewichteten Differenz zwischen den Signalen entsprechendes Signal E erzeugt. Das Signal
E wird an den Signalprozessor 127 gelegt, um das Er-
regungssignal EC so einzustellen, daß die Differenzen
zwischen .dem vom Filter 121 kommenden, für die gewichtete
Sprache repräsentativen Signal und dem vom. Filter 123
kommenden, für die gewichtete künstliche Sprache repräsentativen Signal verringert werden.
Das Erregungssignal ist eine Folge von 1έ i έΙ Impulsen.
Jeder Impuls besitzt eine Amplitude ß. und eine Stelle m. . Der Prozessor 127 bildet sukzessiv die Signale β..,
m., die die Differenzen zwischen dem gewichteten Rahmen-Sprachsignal
vom Filter 121 und dem gewichteten Rahmen-Kunstsprachsignal vom Filter 123 verringern. Das gewichtete
Rahmen-Sprachsignal beträgt
Σ dkhn„R 1 i η
< N (2)
und das gewichtete Kunstsprache-Signal des Rahmens be«
trägt
> = Σ β . h 1 C p.
< N ■η j=1 'j n-m. - -
(3)
wobei h die Impulsantwort des Filters 121 oder des Filters
123 ist.
Das in der schaltung 120 gebildete Erregungssignal ist
ein codiertes Signal mit den Elementen ß., m , i = 1, 2, ..., I. Jedes Element stellt einen Impuls in dem Zeitrahmen
dar. ß, ist die Amplitude des Impulses und m, ist
die Stelle des Impulses innerhalb des Rahmens. Der Korrelationssignalgenerator 125 erzeugt sukzessive ein Korrelationssignal
für jedes Element. Jedes Element kann zu einer Zeit 1 £ q <. Q innerhalb des Zeitrahmens angeordnet
sein. Folglich bildet der Korrelationsprozessor Q mögliche Kandidaten für das Element i nach Maßgabe der
Gleichung (4):
V9
wobei . x "
Der Erregungssignalgenerator 127 empfängt die Signale C. von dem Korrelationssignalgenerator, wählt dasjenige
Signal C, aus, das den größten Absolutwert aufweist, und bildet das i-te Element des codierten Signals.
(6)
wobei q die Stelle desjenigen Korrelationssignals ist, das den größten Absolutwert aufweist. Der Index i wird
auf i + 1 erhöht, und das Signal y" am Ausgang des
Voraussagefilters 123 wird modifiziert. Die Verarbeitung
entsprechend den Gleichungen (4), (5) und (6) wird wiederholt, um das Element ß ., m.+1 zu bilden. Nach
der Bildung des Elements B1, m wird das Signal mit den
Elementen B1, m1, B , m , ·.., ß., m. zum Codierer 131
übertragen. In an sich bekannter Weise quantisiert der Codierer 131 die Elemente ß.m, und bildet ein codiertes
Signal, das sich für die übertragung zu einem Verbindungsnetz 140 eignet.
Jedes der !Tilter 121 und 123 in Fig. 1 kann ein Transversalfilter
von dem Typ sein, wie er in der US-PS 4 133 beschrieben ist. Jeder der Prozessoren 125 und 127 kann
eine der an sich bekannten Prozessoranordnungen sein f
die sich zum Berechnen der Gleichungen (4) und (6) eignen, beispielsweise kann es sich um das C.S.P., Inc. Macro
Arithmetic Processor System 100 oder eine andere be-
kannte Prozessoranordnung handeln. Der Prozessor 125 enthält einen Festspeicher, der permanent Programmbefehle
zum Steuern der Bildung der Signale C. nach Maßgabe der Gleichung (4) speichert. Der Prozessor 127
enthält einen Festspeicher, der dauernd Programmbefehle zum Auswählen der Signalelemente R., m. nach
Gleichung (6) speichert, wie es an sich bekannt ist. Die Programrobefehle in dem Prozessor 125 sind dem beiliegenden
Anhang A entnehmbar, in dem die Befehle in FORTRAN angegeben sind. Die Programmbefehle im Prozessor
127 sind in FORTRAN-Sprache im Anhang B aufgelistet.
Fig. 3 zeigt ein Flußdiagramm, welches die Arbeitsweise
der Prozessoren 125 und 127 für jeden Zeitrahmen veranschaulicht. Gemäß Fig. 3 werden in dem Kästchen
305 die Impulsantwortsignale h ansprechend auf die Rahmen-Prädiktorparameter für die übertragungsfunktion
nach Gleichung (1) erzeugt. Dies geschieht nach Empfang des Signals FC vom Taktgeber 103 in Fig. 1,
was durch das Wartekästchen 303 angedeutet ist. In dem Kästchen 307 werden der Elementindex i und der Erregungsimpuls-Stellenindex
q auf 1 voreingestellt (ini-
324Λ476
tialisiert). Nach Erhalt der Signale y und $ .« von
den Voraussagefiltern 12-1 bzw. 123 wird gemäß Kästchen
309 das Signal C. gebildet. Der Stellenindex q wird im Kästchen 311 erhöht, und es erfolgt die Bildung der
nächsten Stelle C, .
Nachdem für das Erregungssignalelement i im Prozessor 125 das Signal C.Q gebildet ü, wird der Prozessor 127
aktiviert. Der Index q wird in dem Prozessor 127 gemäß
Kästchen 315 zu Beginn auf 1 eingestellt, während der Index i sowie die Signale C , die in dem Prozessor
gebildet wurden, zum Prozessor 127 übertragen werden. Das
Signal C *, das das Signal C. mit dem größten Absolutwert
darstellt, wird ebenso wie dessen Stelle q im Kästchen 317 auf Null eingestellt.■Die Absolutwerte der
Signale C, werden mit dem Signal C. * verglichen, und der größte dieser Absolutwerte wird als Signal C. * in
der die Kästchen 319, 321, 323 und 325 umfassenden Schleife gespeichert.
Nachdem das Signal C. vom Prozessor 125 verarbeitet
ist, wird vom Kästchen 325 aus das Kästchen 327 betreten, Die Stelle m. des Erregungscodeelements wird auf q" eingestellt,
und die Amplitude ß. des Erregungscodeele-
itients wird nach Maßgabe der Gleichung (6) erzeugt. Das
Element ß^ni. wird gemäß Kästchen 328 an das Voraussagefilter
123 gegeben, und im Kästchen 329 wird der Index i erhöht. Nach Bildung des Elements ßjin des Rahmens
wird von dem Entscheidungskästchen 331 aus erneut das Wartekästchen 303 betreten.
Die Prozessoren 125 und 127 gelangen dann bis zu dem
Rahmentaktimpuls FC des nächsten Rahmens in den Wartezustand.
Der Erregungscode in dem Prozessor 127 gelangt außerdem
an den Codierer 131. Der Codierer setzt den vom Prozessor 127 kommenden Erregungscode in eine zur Verwendung
in dem Netzwerk 140 geeignete Form um. Die Prädiktorparametersignale
a, für den Rahmen werden über eine Verzögerungsschaltung 133 an einen Eingang des Multiplexers
135 gelegt. Das vom Codierer 131 kommende Erregungscodesignal
EC gelangt an den anderen Eingang des Multiplexers. Die im Multiplexbetrieb verarbeiteten Erregungs-
und Prädiktorparametercodes für den Rahmen werden dann zum Netzwerk 140 gesendet.
Bei dem Netzwerk 140 kann es sich um ein Nachrichten-
system, den Nachrichtenspeicher einer Sprachspeicheranordnung oder um eine Vorrichtung handeln, die zum
Speichern einer vollständigen Nachricht oder des Vokabulars
vorgeschriebener Nachrichteneinheiten, ζ. B. von
Worten, Phonemen, usw. dient, die in Sprachsynthesevorrichtungen eingesetzt werden. Unabhängig davon, um
welche Nachrichteneinheit es sich handelt, wird die von der Schaltung 120 kommende Folge von Rahmencodes über
das Netzwerk 140 zu der Sprachsynthesevorrichtung 150
übertragen. Die Synthesevorrichtung verwendet ihrerseits die von der Schaltung 120 kommenden Rahmen-Erregungscodes
sowie die Rahmen-Prädiktorparametercodes, um eine Kopie des Sprachmusters zusammenzusetzen.
Ein in der Synthesevorrichtung 150 enthaltener Demultiplexer 152 separiert den Erregungscode EC eines Rahmens
von dessen Prädiktorparametern a, . Nachdem der Erregungscode
in einem Decoder 153 in eine Folge von Erregungsimpulsen decodiert ist, wird er an den Erregungseingang eines Sprachsynthesefilters 154 gegeben» An die
Parametereingänge des Filters 154 werden die a, -Codes
gegeben. Das Filter 154 bildet in Abhängigkeit der Erregungssignale
und der Prädiktorparametersignale eine codierte Kopie des Rahmen-Sprachsignals, wie es an sich
3244Λ76
bekannt ist. Ein D/A-Umsetzer 156 setzt die codierte
Kopie in ein Analogsignal um, das über ein Tiefpaßfilter
158 gegeben und von einem Wandler 160 in ein Sprachmuster
umgewandelt wird.
Eine alternative Anordnung zum Bilden des Erregungscodes in der Schaltung 120 kann auf dem gewichteten mittleren
Fehlerquadrat zwischen den Signalen y und y beruhen. Nach Bildung der Werte ß, und m. für den i-ten Erregungssignalimpuls
beträgt dieses gewichtete mittlere Fehlerquadrat
1 .
(7)
h - J1 ('. - 3!, »A-
wobei h die n-te Abtastung der Impulsantwort von H(z), m. die Stelle des j-ten Impulses des Erregungscodesignals
und ß. die Amplitude des j-ten Impulses ist.
Die Impulsstelle und die Impulsamplitude werden sequentiell erzeugt. Das i-te Element der Erregung bestimmt sich
durch die Minimierung von E. in Gleichung (7). Die Gleichung (7) kann man umschreiben zu
"2H
1-1 Σ /* h
(9)
so daß die β.,πι. vorausgehenden bekannten Erregungscodeeleraente
nur in dem ersten Term auftreten.
Wie bekannt ist, kann der den Wert E. minimierende Wert von ß. durch Differenzieren der Gleichung (8) nach ß.
und Setzen von
(9)
erhalten werden. Folglich beträgt der optimale Wert für
ßi
k=m.. -1
(10)
^ = i -hnVk ° ^ k ^ K
(11)
die Autokorrelationskoeffizienten des Impulsantwortsignals
h, des Voraussagefilters sind.
β. in Gleichung (10) ist eine Funktion der Impulsstelle
und wird für jeden möglichen Wert bestimmt. Dann wird der größte der ß.-Werte an den in Frage kommenden Impulsstellen
ausgewählt. Nach dem Erhalt der Werte ß. und ra. werden die Werte ßi+,f ra 1+1 erzeugt, indem die Gleichung
(10) in ähnlicher Weise gelöst wird. Der erste Term der
m +K
Gleichung (10), d. h., £ d. φ' , entspricht dem
k=m-K K K"mi
für die Sprache repräsentativen Signal des Rahmens am Ausgang des Voraussagefilters 121. Der zweite Term in
i-1
Gleichung (10), d. h., £ ß-0 » entspricht dem für
j=1 3 mj"m±
die künstliche Sprache repräsentativen Signal des Rahmens am Ausgang des Voraussagefilters 123. ß. ist die
Amplitude eines Erregungsimpulses an der Stelle m., der die Differenz zwischen dem ersten und dem zweiten Term
minimiert.
Die in Fig. 2 dargestellte Datenverarbeitungsschaltung
stellt eine alternative Anordnung bezüglich der in Fig.
dargestellten Schaltung 120 zum Bilden des Erregungssignals dar. Die Schaltung nach Fig. 2 liefert ansprechend
auf das Rahmen-Voraussagerestsignal d. und die Rahmen-Prädiktorparametersignale a nach Maßgabe der
Gleichung (10) den Erregungscode für jeden Rahmen des Sprachmusters, und sie kann das oben erwähnte C.S.P..,
Inc. Macro Arithmetic Processor System 100 oder eine
andere bekannte Prozessoranordnung enthalten.
Gemäß Fig. 2 empfängt der Prozessor 210 die Prädiktorparametersignale
a, und die Voraussagerestsignale d für
κ. η
jeden aufeinanderfolgenden Rahmen des Sprachmusters von
der Schaltung 110 über den Speicher 218. Der Prozessor bildet die Erregungscode-Signalelemente ß..m , S2 111O' **'*
ß m unter Steuerung von Befehlen, die dauernd in einem
Festspeicher für ein Voraussagefilter-Unterprogramm und einem Festspeicher 205 für ein Unterprogramm zur Erregungsverarbeitung gespeichert sind. Das Voraussagetilter-Unterprogramm
in dem ROM 201 ist in dem beiliegenden Anhang C aufgelistet, das Unterprogramm für die Erregungsverarbeitung in dem ROM 205 ist im Anhang D aufgelistet.
Der Prozessor 210 enthält einen gemeinsamen Bus 225,
einen Datenspeicher 230, einen Zentralprozessor 240,
eine Steuerungsschnittstelle 220, und eine Eingabe/Ausgabe-(E/A-)Schnittstelle
260. In an sich bekannter Weise steuert der Zentralprozessor 240 die Arbeitsabfolge der
anderen Einheiten des Prozessors 210 in Abhängigkeit von von der Steuerung 215 kommenden codierten Befehlen. Der
Arithmetikprozessor 250 .führt die arithmetischen Rechnungen der von dem Datenspeicher 2 30 kommenden codierten
Signale in Abhängigkeit von vom Zentralprozessor 240 kommenden Steuersignalen dur.ch. Der Datenspeicher 230
speichert nach Anweisung des Zentralprozessors 240 Signale und liefert diese Signale an den Arithmetikprozessor
250 und an die E/A-Schnittstelle 260. Die Steuerungsschnittstelle 220 bildet eine Nachrichtenverbindung für
die Programmbefehle im ROM 201 und im ROM 205 mit dem Zentralprozessor 240 über die Steuerung 215, und die
E/A-Schnittstelle 260 ermöglicht es, daß die Signale d^
und a, in den Datenspeicher 230 gelangen, und sie gibt die Ausgangssignale ß. und m. von dem Datenspeicher an
den Codierer 131 in Fig. 1.
Die Arbeitsweise der Schaltung nach Fig. 2 ist in dem in Fig. 4 dargestellten Flußdiagramm für die Filterparameterverarbeitung,
in dem in Fig. 5 gezeigten Flußdiagramm für die Erregungscodeverarbeitung und in dem in
Fig. 6 gezeigten Zeitdiagramm veranschaulicht. Beim
Start des Sprachsignals wird das Kästchen 410 in Fig.. 4
über das Kästchen 405 betreten, und der Rahmenzähler r wird durch einen vom Taktgeber 103 kommenden einzelnen
Impuls ST auf den ersten Rahmen eingestellt. Fig. 6
zeigt die Arbeitsweise der Schaltung nach Fig. 1 und 2
für zwei aufeinanderfolgende Rahmen. Zwischen den Zeitpunkten
t und t„ in dem ersten Rahmen bildet der Voraussageanalysator
110 die Sprachmusterabtastungen des Rahmens r+2 gemäß Wellenform 605 unter Steuerung der Abtasttaktimpulse
des Wellenzugs 601. Der Analysator 110 erzeugt die Signale a, entsprechend dem Rahmen r+1 zwi~
sehen den Zeitpunkten t und t~, und er bildet zwischen
den Zeitpunkten t^ und t, das Voraussagerestsignal d.,
wie es durch den Wellenzug 607 angedeutet ist. Zwischen den Zeitpunkten t und t.. tritt das Signal FC (Wellenform
603) auf. Die Signale d, von dem Restsignalgenerator 118, die zuvor während des vorausgehenden Rahmens
im Speicher 218 gespeichert wurden, werden über die E/ASchnittstelle 260 und den gemeinsamen Bus 225 unter
Steuerung des Zentralprozessors 240 in den Datenspeicher 230 gegeben. Wie in Fig. 4 durch das Tätigkeitskästchen 415 angedeutet ist, erfolgen diese Tätigkeiten
in Abhängigkeit des Rahmentaktsignals FG. Die Rahmen-Prädiktorparametersignale
a, von dem Prädlktorparameter-
K.
rechner 119, die zuvor während des vorausgehenden Rah4-mens
im Speicher 218 gespeichert wurden, werden ebenfalls in den Speicher 230 eingegeben, wie durch das
Kästchen 420 angedeutet ist. Diese Arbeitsschritte erfolgen zwischen den Zeitpunkten t und t. in Fig. 6.
Nachdem die Rahmensignale d, und a, in den Speicher 2 30
eingegeben sind, wird das Kästchen 4 25 betreten, und es werden die Voraussagefilterkoeffizienten b, entsprechend
der übertragungsfunktion der Gleichung (1)
bk = akak k = 1, 2, ..., ρ (12)
in dem Arithmetikprozessor 250 erzeugt und in den Daten speicher 230 eingegeben. Bei einer Abtastrate von 8 kHz
beträgt ρ typischerweise 16 und ca typischerweise 0,85.
Dann werden in dem Arithemtikprozessor 250 die Voraussagefilter-Impulsantwortsignale
h.
min(k-1,p)
Σ W-i k=1,2,...K (13)
berechnet und in dem Datenspeicher 230 gespeichert. Wenn das Impulsantwortsignal h„ gespeichert ist, wird das
Kästchen 435 betreten, und es werden die Voraussagefilter-Autokorrelationssignale
gemäß Gleichung (11) erzeugt und gespeichert. .
Im Zeitpunkt t2 in Fig. 6 trennt die Steuerung 215 das
ROM 201 von der Schnittstelle 220 und verbindet das ROM 205, das das Unterprogramm für die Erregungsverarbeitung
speichert, mit der Schnittstelleo Dann wird die
Bildung der Erregungsimpulscodes β , m. eingeleitet, wie aus dem Flußdiagramm nach Fig. 5 hervorgeht. Zwischen
den Zeitpunkten t und t. in Fig. 6 wird die Folge der
Erregungsimpulse gebildet. Am Anfang wird der Erregungsimpulsindex i auf 1 eingestellt, während der Impulsstellenindex
q auf 1 eingestellt wird (Kästchen 505). ß- wird im Kästchen 510 auf Null eingestellt, und es
wird in das Kästchen 515 eingetreten, um ß. = ß-ti zu ^e"
stimmen, ß-- ist der optimale Erregungsimpuls an der
Stelle q = 1 des Rahmens. Dann wird der Absolutwert von B11 mit dem zuvor gespeicherten Wert B1 im Entscheidungskästchen
520 verglichen. Da B1 zu Beginn den Wert Null hat, wird der Code m. auf q = 1 eingestellt, und
der Code ß. wird auf B11 eingestellt (Kästchen 525).
Dann wird im Kästchen 530 der Stellenindex q erhöht, und
14/15
es wird über das Entscheidungskästchen 535 das Kästchen 515 betreten, um das Signal ß-2 zu erzeugen. Für
sämtliche Impulsstellenwerte 16q^Q wird die die Kästchen
515, 520, 525, 530 und 535 umfassende Schleife
wiederholt durchlaufen. Nach der Q-ten Iteration sind
die erste Erregungsimpulsamplitude B1 = ß. * und die
zugehörige Stelle m. = q* in dem Speicher 230 gespeichert.
Auf diese Weise wird der erste der I Erregungsimpulse bestimmt. Gemäß dem in Fig. 7 gezeigten Wellenzug
705 tritt der Rahmen r zwischen den Zeitpunkten t und t. auf. Der Erregungscode für den Rahmen besteht
aus acht Impulsen. Der erste Impuls mit der Amplitude
ß. und der Stelle m1 tritt im Zeitpunkt tml in Fig. 7
auf, wie es für den Index i = 1 gemäß dem in Fig. 5 gezeigten Flußdiagramm bestimmt wird.
In dem Kästchen 545 wird der Index i auf den nachfolgenden
Erregungsimpuls erhöht, und über die Kästchen und 510 wird das Tätigkeitskästchen 515 betreten. Nach
Abschluß jeder Iteration der Schleife zwischen den Kästchen 510 und 550 wird das Erregungssignal modifiziert,
um das Signal gemäß Gleichung (7) weiter zu verringern. Nach Abschluß der zweiten Iteration wird der Impuls
ß2m„ (Zeitpunkt t 2 im Wellenzug 705) gebildet. Dann
werden sukzessive mit dem Erhöhen des Index i die Erregungsimpulse
ß3nu (Zeitpunkt t _), ß.m. (Zeitpunkt t .) s
ß5m_ (Zeitpunkt t ,.) , ßßm 6 (Zeitpunkt t -) , ß^m» (Zeitpunkt t 7) und ßgm8 (Zeitpunkt t „) gebildet.
Nach der I-ten Iteration (Wellenzug 609 bei t.) wird
vom Entscheidungskästchen 550 aus das Kästchen 555 betreten, und dort wird der laufende Rahmen-Erregungscode
ß.,m.. , ß2 m2' ·'* ßTmT erzeu9*-. In dem Kästchen 560 wird
der Rahmenindex erhöht, und im Zeitpunkt t_ gemäß Fig. 6
werden im Kästchen 415 die Voraussagetilter-Verarbeitungsschritte
gemäß Fig. 4 für den nächsten Rahmen durchgeführt. Nach dem Auftreten des Taktsignals FC für den
nächsten Rahmen im Zeitpunkt t_ in Fig. 6 werden die Prädiktorparaiaetersignale
für den Rahmen r-5-3 gebildet (Wellenzug 605 zwischen den Zeitpunkten t_ und W.), es
werden für den Rahmen r+2 die Signale a, und d, gebildet
(Wellenzug 607 zwischen den Zeitpunkten t„ und t,.,),
und es wird für den Rahmen r+1 der Erregungscode gebildet
(Wellenzug 609 zwischen den Zeitpunkten 't„ und
t12).
Von dem Prozessor nach Fig. 2 wird über die E/A-Schnittstelle
260 der Rahmen-Erregungscode an den in Fig. 1
gezeigten Codierer 131 gegeben. Der Codierer 131 arbeitet
in der oben geschilderten Weise, indem er den Erregungscode zur Beaufschlagung des Netzwerks 140
quantisiert und formatiert. Die Prädiktorparametersignale
a, des Rpl^nens gelangen über die Verzögerungsschaltung
133 an den einen Eingang des Multiplexers 135, so daß der Rahmen-Erregungscode vom Codierer 131 mit
ihnen in geeigneter Weise gemultiplext wird.
Die Erfindung wurde unter Bezugnahme auf spezielle Ausführungsbeispiele
beschrieben-. Im Rahmen der Erfindung sind jedoch abweichende Ausführungsformen möglich. Beispielsweise
wurden bei den hier beschriebenen Ausführungsbeispielen lineare Prädiktorparameter und ein Prädiktor-
oder Voraussagerest verwendet. Die linearen Prädiktorparameter können durch Formantparameter oder
andere bekannte Sprachparameter ersetzt werden. Die Voraussagefilter können dann so angeordnet sein, daß sie
auf die verwendeten Sprachparameter und das Sprachsignal ansprechen, so daß das in der Schaltung 120 nach
Fig. 1 gebildete Erregungssignal in Kombination mit den SprachparameterSignalen dazu verwendet wird, eine
Kopie des Sprachmusters in dem Rahmen gemäß der Erfindung zusammenzusetzen. Die Codierungsanordnung nach
BAD
der Erfindung kann erweitert werden auf andere sequentielle Muster, wie z. B. biologische oder geologische
Muster, um aus diesen eine effiziente Darstellung zu gewinnen.
Anhang A
C THIS' SUBROUTINE IMPLEMENTS BOX NOS 125-FIG.
C ++++++ CORRELATION SIGNAL GENERATOR +*++++
COMMON Y(110),YHAT(110),H( 15 )·, CK 110) , A( 15 ) ,F( 16) ,
SBETA(12),M(12) INTEGER I,K,Q,QSTAR,QMAX
DATA NLPC/16/,KMAX/15/,NMA X/110/,
CQM AX/9 5/,A LPHA/O.85/,IMAX/12/
C++++ COMPUTE COEFFICIENTS FOR THE PREDICTIVE FILTER G=1
D010U=1,NLPC G=G*AL'PHA F(K)=A(K)*G
3OX 305 FIG.
COMPUIE IMPULSE RESPONSE OF
PREDICTIVE FILTER H(Z) H(O) IS STORED AS H( 1) ,1UD IS
STORED ,AS H(2) , AND SO ON
D0102K=2,NLPC ■ H(K)=O
DO102I=1,K-1 H(K)=H(K)+F(I)*H(K-I)
D010.3K = NLPC+1 ,KMAX H(K)=O
D0103I=1,NLPC H(K)=H(K)+F(I)*H(K-I)
SUMSQH=O D0104K=1,KKAX SUMSQH = SUMS2H+HCO*H(K)
C++++ SET INITIAL EXCITATION SIGNAL COUNT - BOX 1 = 1
0 = 1
Q=1
CONTINUE
C++++ COMPUTE CORRELATION SIGNAL - BOX DO2OU'-2,NKAX
CI(Q)=CI(Q)+(Y(N)-YHAT(N))*H(N-Q+1)
IF(Q.LE.QMAX)GOT0200 CALL' Β0Χ127(Ι,SUMSQH)
1 = 1+1
IF(I.LE.IMAX)GOT0500
IF(I.LE.IMAX)GOT0500
BAD ORIGINAL
RETURN
END
END
Anhang B
C THIS SUBROUTINE IMPLEMENTS BOX HOS 127 - FIG. C + + ++++ EXCITATION SIGNAL GENERATOR
COKMON Y(11O),YHAT(11O) ,H-<15),CI(11O>,A(16-,FC16'),
£BETA(12),M(12)
INTEGER I,K,Q,QSTAR,QtUX
DATA ΝΙΡΟ/Ιδ/,ΚΜΑΧ/Ιδ/,ΙίΜΑΧ/ΙΙΟ/,ΟΜΑΧ^δ/,
£ALPHA/0.85/, IMAX/12/ ·
FIND PEAK OF THE CORRELATION SIGNAL
BOX 315-325
0=1
0=1
QSTAR=O
CIQSTAR = O ,·
CIQSTAR = O ,·
IF(ABS(CI(Q)).LT.ABS(CIQSTAR))3ΌΤ0301 · ·■
QSTAR=Q
CIQSTAR=CI(O) * .
Q=Q+1
IF(Q.LE.QKAX)G0T0300
IF(Q.LE.QKAX)G0T0300
M(I)=QSTAR
RETURN
END
END
Anhang C
C THIS SUBROUTINE IMPLEMENTS ROM 201 - FIG0
e ++++++ PREDICTIVE FILTER ++++'++
COMMON D( 110} ,H (15) ,BET AK 8 0), A ( 16) -,F( 1 6 ),
εΡΗΙ(15)/ΒΕΙΑ(12)/Μ(12)
INTEGER I,K,Q,QSTAa,QMAX
DATA NLPC/ie/fKMAX/IS/fNMAX/iiO/fQMltX/aO/,
CALiHA-/0.85/, IM ΑΧ/1-2/
C++++ READ PREDICTIVE RESIDUAL SIGNAL - BOX CALL INPUT (D(29),80)
C++++ REHD PREDICTION PARAMETERS - BDX 420 .
CALL INPUT(A,15) .
COMPUTE COEFFICIENTS FDR THF. PREDICTIVE C++++ FILTER - BOX 425
G= 1
G= 1
D0101K=1,NLPC
G=G*ALPHA
F(K)=A(K)*G
G=G*ALPHA
F(K)=A(K)*G
C++++ COMPUTE IMPULSE RESPONSE OF PREDICTIVE
C++++ FILTER H(Z)
C++++ -H(O) IS STORED AS H(D , H(D C++++ IS STORED AS H(2), AND SO ON
C++++ BOX H(1)a1 D0102K=2,NL?C H(K)=O
D0102I=1,K-1 H(K)=H(K)+F(I)*H(K-I)
DO103K=NL°v+1,KMAX
H(K)=O D0103I=1,NLPC H(K)=H(K)+F(I)*H(K-I)
C+ + + + COMPUTE AUTOCORRELATION FUNCTION' SIGNALS C++++
BOX 435
DOIOHK=I,KMAX PHI(K)=O DOIOUN=K,KMAX
PHI(K)=PHI(K)+H(N)*H(N+K-1)
RETURN END
Anhang D
C THIS SUBROUTINE IMPLEMENTS ROM 205 - FIG. 2 C ++++++ EXCITATION PROCESSING ++++++.
COFMON D( 110) ,H(15)>BETAI(80),A(16), ε PHK15),EETA(12), Mi 12)
INTEGER I,K,Q,QSTAR,QKAX
DATA. NLPC/16/,KMAX/15/,NMAX/110/,2MAX/90/,
&ALPHA/0.85/, IMAX/12/
C++++ COMPUTE INITIAL BETAI SIGNAL (1=1) C++++ TESM NO 1 EQUATION 10 AND BOX 515
DO105Q=1,0MAX
BETAI(Q)=O
DO105N=Q,Q+2*KMAX-2
K=N-KMAX+1
105 B ETAI (Q)=BETAI(Q)+D(N)*PHI(1 + IA3S(K-Q))
C++++ SET INITIAL EXCITATION SIGNAL COUNT - EOX 505 1 = 1 · .
CONTINUE BEIAMAX=O
CONTINUE
C++++ COMPUTE BETAI SIGNAL IF(I. EQ. 1 )G.OTO300
- BO* 515
D0201J=1,1-1
.BETaIO) = BEIAI(Q) -BETA(J)-PHI (1+IABS(M(J) -Q))
.BETaIO) = BEIAI(Q) -BETA(J)-PHI (1+IABS(M(J) -Q))
C++++ FIND PEAK OF THE BETAI SIGNAL - BOX 520-525
IF(ABS(BETAI(Q)).LT.BETAMAX)G0T0301
M(I)=Q ·
BETAXAXeABS(BETAI(Q)) BEIA(I)=BETAI(Q)/PHI(I) '
Q=2+1
IFQ.LE.3MAX)GOTO2OO ·
IFQ.LE.3MAX)GOTO2OO ·
1 = 1+1
IF(I.LE.IMAX)GOT0500
IF(I.LE.IMAX)GOT0500
CALL OUTPUT(BETa,IMAX)
CALL OUTPUT(M,IMAX) ■ ·
D05K=1,29 ■ ' -
D.(K) = D(K+30)'-
REIURH " . '
END
Claims (1)
- BLUMBACH · W&S&R ^B£'RG^s%-. KRAMER ZWIRNER · HOFFfVIANNPATENTANWÄLTE IN MÜNCHEN UND WIESBADENPatenlconsult RadeckestraOe 43 800D München 60 Telefon (089) 883603/883604 Telex 05-212313 Telegramme Patentconsult Patentconsult Sonnenborger Straße 43 6200 Wiesbaden Telefon (06121) 562943/561998 Telex 04-186237 Telegramme PatentconsultWestern Electric Company, Incorporated New York, N.Y., USAPatentansprüche1. Verfahren zum Verarbeiten eines sequentiellen Musters, bei dem das sequentielle Muster in aufeinanderfolgende Zeitintervalle aufgeteilt wird und ein für jedes Zeitintervall des sequentiellen Musters repräsentatives Signal erzeugt wird,dadurch gekennzeichnet·, daß für das Intervall ein für ein künstliches Muster repräsentatives Signal erzeugt wird, daß ein Signal gebildet wird, welches geeignet ist, den Unterschied zwischen dem für das sequentielle Muster und dem für das künstliche Muster repräsentativen Signal für das Intervall zu verringern, und daß das gebildete Signal zum Zusammensetzen einer Kopie des sequentiellen Musters des Intervalls verwendet wird»München: R. Kramer Dipl.-'.ng.. V/. Weser Ofpl.-Phys. Df. rer. nat. . E. Hoffmann Dipl.-Ing. Wiesbaden: P. G. Blumbadi Dlpl.-Ing. · P. Bergen Prof. Dr jur. Dipl.-Ing., Pot.-Ass.. Pet.-Anw.bis 1979 . G. Zwirner Dipl.-Ing. Dipl.-W.-Ing.2. Verfahren zum Verarbeiten eines Sprachmusters nach Anspruch 1,dadurch gekennzeichnet , daß das zum Verringern des Unterschieds geeignete Signal dadurch gebildet wird, daß ein den Unterschieden zwischen dem für die Sprache in dem Intervall und dem für künstliche Sprache repräsentativen Signal entsprechendes Signal erzeugt wird, und daß ein Signal gebildet wird, welches sich zum Modifizieren des für die künstliche Sprache repräsentativen Signals eignet, um das dem Unterschied entsprechende Signal zu verringern.3. Verfahren nach Anspruch 2,dadurch gekennzeichnet, daß zum Erzeugen eines für die Sprache repräsentativen Signals ein Satz von Sprachparametersignalen erzeugt wird, die repräsentativ für das Sprachmuster in dem Intervall sind, und ansprechend.auf die Sprachparametersignale und das Sprachmuster ein für die Sprache repräsentatives Signal erzeugt wird, daß zum Erzeugen eines für die künstliche Sprache repräsentativen Signals ansprechend auf die Sprachparametersignale das für künstliche Sprache in dem Intervallrepräsentative Signal gebildet wird, und daß zusn Bilden des Signals ansprechend auf das dem Unterschied entsprechende Signal ein erstes Signal erzeugt und ansprechend auf das erste Signal das für die künstliche Sprache in.dem Intervall repräsentative Signal modifiziert wird, · ·4„ Verfahren nach Anspruch 3, . '\ dadurch gekennzeichnet , daß beim Erzeugen der Sprachparametersignale ein Satz von Signalen erzeugt wird, die repräsentativ für das Intervall-Sprachspektrum sind«5. Verfahren nach Anspruch 4, ■ "" " dadurch gekennzeichnet , daß' zum Erzeugen der Intervall-Sprachspektrum-Signale ansprechend auf das Intervall-Sprachmuster ein Satz von linearen Prädiktorpärametersignalen gebildet wird, daß zum Erzeugen des für die Sprache repräsentativen Signals ansprechend auf das Intervall-Sprachmuster und die linearen Prädiktorparametersignale des Intervalls ein Voraussage-Restsignal erzeugt und die Ii= nearen Prädiktorparametersignale mit den Voraussageparametersignalen kombiniert werden? und daß zum Er--A-zeugen des ersten Signals ansprechend auf das der Differenz entsprechende Signal ein codiertes Signal mit wenigstens einem Element erzeugt und ansprechend auf das codierte Signalelement das für die künstliche Sprache in dem Intervall repräsentative Signal modifiziert wird.6. Verfahren nach Anspruch 5,dadurch gekennzeichnet , daß zum Erzeugen des ersten Signals ansprechend auf das dem Unterschied entsprechende Signal mit einer vorbestimmten Häufigkeit ein codiertes Signalelement erzeugt wird und ansprechend auf die codierten Signalelemente das für die künstliche Sprache in dem·Intervall repräsentative Signal modifiziert wird.7. Verfahren nach Anspruch 6,dadurch gekennzeichnet , daß zum Erzeugen des dem Unterschied entsprechenden Signals ein Signal erzeugt wird, welches kennzeichnend ist für die Korrelation zwischen dem für die Sprache in dem Intervall und dem für die künstliche Sprache in dem Intervall repräsentativen Signal.8. Verfahren nach Anspruch 5, "dadurch gekennzeichnet , zum Erzeugen des dem unterschied entsprechenden Sig~ nals ein Signal erzeugt wird„ welches kennzeichnend ist für das mittlere Differenzquädrat zwischen-dem für die Sprache in dem Intervall und dem für. die künstliche Sprache repräsentativen Signal,.S. Verfahren nach Anspruch 2„dadurch gekennzeichnet g daß ein codiertes Signal erzeugt wird, welches sich zwecks Verringerung des dem Unterschied entsprechenden Signals zum Modifizieren des für die künstliche Sprache repräsentativen Signals eignet.10» Verfahren nach Anspruch 9 „dadurch gekennzeichnet , «Saß . das erzeugte codierte Signal und die Sprachparametersignale kombiniert werden, um ein für das Sprachmuster repräsentatives codiertes Signal zu erzeugen.11. Verfahren nach Anspruch 9,dadurch gekennzeichnet e daß beim Erzeugen des Sprachmustersignals ansprechend aufein Rahmen-Sprachmuster ein Satz von linearen torparametersignalen für den Rahmen erzeugt wird, daß zum Erzeugen des für die Sprache in dem Rahmen repräsentativen Signals ansprechend auf die linearen PrädiktorparameterSignaIe des Rahmens und das Rahmen-Sprachmuster ein Voraussage-Restsignal erzeugt wird, und daß das für die Sprache in dem Rahmen repräsentative Signal ansprechend auf die linearen Prädiktorparametersignale des Rahmens und das Rahmen-Voraussagerestsignal gebildet wird.12. Verfahren nach Anspruch 11,dadurch gekennzeichnet, daß beim Erzeugen des codierten Signals ansprechend auf das dem Unterschied entsprechende Signal ein codiertes Signal mit wenigstens einem Element erzeugt wird, und daß ansprechend auf die codierten Signalelemente das für die künstliche Sprache in dem Rahmen repräsentative Signal modifiziert wird.13. Verfahren nach Anspruch 11,dadurch gekennzeichnet , daß beim Erzeugen des Signals ansprechend auf das dem Unterschied entsprechende Signal ein mehrere Elemente32U476enthaltendes codiertes Signal durch skuzessives Erzeugen eines codierten Signalelements erzeugt wird/ und daß ansprechend auf die codierten Signalelemente das für die künstliche Sprache repräsentative Signal modifiziert wird.14. Verfahren nach einem der Ansprüche 2 bis 13, dadurch gekennzeichnet, daß das gebildete Signal zum Zusammensetzen einer Kopie des Intervall-Sprachmusters verwendet wird.15. Prozessor für sequentielle Muster, mit einer Einrichtung zum Aufteilen eines sequentiellen Musters in aufeinanderfolgende Zeitintervalle und einer Einrichtung zum Erzeugen eines für das sequentielle Muster repräsentativen Signals für jedes Zeitintervall,gekennzeichnet durch eine Einrichtung zum Erzeugen eines künstlichen Sprachmusters für das Intervall, eine Signalbildungseinrichtung zum Bilden eines Signals, welches geeignet ist, den Unterschied zwischen dem für das sequentielle Muster repräsentativen Signal und dem künstlichen Signal zu verringern, und eine Einrichtung, die unter Verwendung des gebildeten Signalseine Kopie des sequentiellen Musters des Intervalls zusammensetzt.16.) Sprachprozessor, mit einer Einrichtung zum Unterteilen eines Sprachmusters in aufeinanderfolgende Zeitintervalle und einer Einrichtung zum Erzeugen eines für das Sprachmuster jedes Intervalls repräsentativen Signals,gekennzeichnet durch eine Einrichtung zum Erzeugen eines für eine künstliche Sprache repräsentativen Signals für das Zeitintervall, eine Einrichtung zum Erzeugen eines Signals, welches den Unterschieden zwischen dem für die Sprache in dem Intervall und dem für die künstliche Sprache repräsentativen Signal entspricht, und eine Einrichtung zum Bilden eines Signals, welches geeignet ist, das für die kürfitliche Sprache repräsentative Signal zum Verringern des dem Unterschied entsprechenden Signals zu modifizieren.17. Sprachprozessor nach Anspruch 16, dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen eines für die Sprache repräsentativen Signals eine Einrichtung besitzt zum Erzeugen eines Satzes von Sprachparametersignalenfür das Sprachmuster in dem Intervall und eine Einrichtung, die auf die Sprachparametersignale und das Sprachmuster anspricht, um das für die Sprache repräsentative Signal zu erzeugen, daß die Einrichtung zum Erzeugen eines für die künstliche Sprache repräsentativen Signals eine Einrichtung enthält, die auf die Sprachparametersignale anspricht, um das für die künstliche Sprache in dem Intervall repräsentative Signal zu bilden, und daß die Signalbildungs» schaltung eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung aufweist, die ein erstes Signal erzeugt, und eine Einrichtung enthält, die auf das erste Signal anspricht, um das für die künstliche Sprache in dem Intervall repräsentative Signal zu modifizieren. , - ■_18. Sprachprozessor nach Anspruch 17, . dadurch gekennzeichnet, daß die Einrichtung zum Erzeugen des Sprachparämetersignals eine Einrichtung enthält zum Erzeugen eines Satzes von Signalen, der repräsentativ ist für das Sprachmusterspektrum des Intervalls.19. Sprachprozessor nach Anspruch 18,dadurch gekennz ei chnet, daßdie Einrichtung zum Erzeugen des Sprachparametersig* nals eine auf das Sprachmuster des Intervalls ansprechende Einrichtung enthält, die einen Satz von linearen Prädiktorparametersignalen erzeugt, daß die Einrichtung., zum Erzeugen eines für die Sprache repräsentativen Signals eine auf das Sprachmuster des
Intervalls und die linearen Prädiktorparametersigna-Ie ansprechende Einrichtung aufweist, die ein Voraussagerestsignal erzeugt, und eine Einrichtung enthält ,zum Kombinieren der linearen Prädiktorparametersignale des Intervalls mit dem Voraussagerestsignal, um das für die Sprache in dem Intervall repräsentative Signal zu bilden, und daß die Einrichtung zum Erzeugen des ersten Signals eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung aufweist, die ein codiertes Signal erzeugt, welches wenigstens ein Element aufweist, und eine Einrichtung besitzt,
die auf das codierte Signalelement anspricht, um das künstliche Signal des Intervalls zu modifizieren.20. Sprachprozessor nach Anspruch 19,dadurch gekennzeichnet , daßdie Einrichtung zum Erzeugen des ersten Signals eine N-mal betätigte Einrichtung aufweist, um ansprechendauf das dem Unterschied entsprechende Signal zum Erzeugen eines codierten Signalelements ein N Elemente aufweisendes codiertes Signal zu"erzeugen,.und daß eine auf das codierte Signalelement ansprechende Einrichtung vorgesehen ist, die das für die künstliche Sprache in dem Intervall repräsentative Signal modifiziert. V21. Sprachprozessor nach Anspruch 20,dadurch gekennzeichnet ,- daß die Einrichtung zum Erzeugen des dem Unterschied entsprechenden Signals eine Einrichtung aufweist zum Erzeugen eines Signals, welches kennzeichnend ist für die Korrelation zwischen dem für die Sprache des Intervalls und dem für die künstliche Sprache repräsentativen Signal.22. Sprachprozessor nach Anspruch 15,dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des dem Unterschied entsprechenden Signals eine Einrichtung aufweist sum Erzeugen eines Signals, welches kennzeichnend ist für das mittlere Differenzquadrat zwischen dem für die Sprache in dem Intervall und dem für die künstli-- 12 ehe Sprache repräsentativen Signal.23. Sprachprozessor nach Anspruch 16, gekennzeichnet durch eine Einrichtung zum Erzeugen eines codierten Signals, welches geeignet ist, zwecks Verkleinerung des dem Unterschied entsprechenden Signals das für die künstliche Sprache repräsentative Signal zu modifizieren.24. Sprachprozessor nach Anspruch 23, gekennzeichnet durch eine Einrichtung zum Kombinieren des erzeugten codierten Signals und der Sprachparametersignale, um ein für das Sprachmuster repräsentatives codiertes Signal zu bilden.25. Sprachprozessor nach Anspruch 23,dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen der Sprachparametersignale eine auf das Sprachmuster ansprechende Einrichtung enthält, die einen Satz von linearen Prädiktorparametersignalen erzeugt, daß die Einrichtung zum Erzeugen eines für die Sprache repräsentativen Signals eine auf die linearen Prädiktorparametersignale und das Sprachmuster ansprechende Einrichtung enthält, dieein Voraussagerestsignal erzeugt, und daß eine Einrichtung vorgesehen ist, die auf die linearen Prädiktorparametersignale und das Voraussagerestsignal anspricht, um das für die Sprache repräsentative Signal zu bilden.26. Sprachprozessor nach Anspruch 25,dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des codierten Signals eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung aufweist, um ein codiertes Signal mit wenigstens einem Element zu erzeugen, und eine Einrichtung enthält, die auf das codierte Signalelement anspricht und in der Lage ist, das für die künstliche Sprache repräsentative Signal zu modifizieren. -----27. Sprachprozessor nach Anspruch 25,dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des codierten Signals eine Einrichtung enthält zum Erzeugen eines mehrere Elemente enthaltenden codierten Signals mit einer Einrichtung,, die sukzessive arbeitet, um ansprechend auf das dem Unterschied entsprechende Signal ein codier-tes Signalelement zu erzeugen, und zum Modifiziereil des für die künstliche Sprache repräsentativen Signals in Abhängigkeit der codierten Signalelemente.28. Sprachprozessor nach Anspruch 16, gekennzeichnet durch eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung zum Erzeugen eines codierten Erregungssignals für das Intervall und zum Anlegen des codierten Erregungssignals an die Einrichtung zum Erzeugen eines für die künstliche Sprache repräsentativen Signals, um das dem Unterschied entsprechende Signal zu verringern.29. Sprachprozessor nach Anspruch 28, gekennzeichnet durch eine auf das codierte Erregungssignal und die Prädiktorparametersignale ansprechende Einrichtung zum Zusammensetzen einer Kopie des Sprachmusters.30. Sprachprozessor nach Anspruch 28 oder 29, dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des codierten Erregungssignals eine Einrichtung enthält, die sukzessive ar-beitet, um ein mehrere Elemente enthaltendes codiertes Signal zu erzeugen und die auf das dem Unterschied entsprechende Signal anspricht,, um ein Element des mehrere Elemente enthaltenden Codes zu bilden, und um ansprechend auf die codierten Signalelemente das für die künstliche Sprache repräsentative Signal zu modifizieren.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US06/326,371 US4472832A (en) | 1981-12-01 | 1981-12-01 | Digital speech coder |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3244476A1 true DE3244476A1 (de) | 1983-07-14 |
DE3244476C2 DE3244476C2 (de) | 1988-01-21 |
Family
ID=23271926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19823244476 Granted DE3244476A1 (de) | 1981-12-01 | 1982-12-01 | Digitaler sprachprozessor |
Country Status (8)
Country | Link |
---|---|
US (1) | US4472832A (de) |
JP (2) | JPS6046440B2 (de) |
CA (1) | CA1181854A (de) |
DE (1) | DE3244476A1 (de) |
FR (1) | FR2517452B1 (de) |
GB (1) | GB2110906B (de) |
NL (1) | NL193037C (de) |
SE (2) | SE456618B (de) |
Families Citing this family (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4720863A (en) * | 1982-11-03 | 1988-01-19 | Itt Defense Communications | Method and apparatus for text-independent speaker recognition |
JPS59153346A (ja) * | 1983-02-21 | 1984-09-01 | Nec Corp | 音声符号化・復号化装置 |
EP0119033B1 (de) * | 1983-03-11 | 1987-04-15 | Prutec Limited | Sprachcodiereinrichtung |
US4731846A (en) * | 1983-04-13 | 1988-03-15 | Texas Instruments Incorporated | Voice messaging system with pitch tracking based on adaptively filtered LPC residual signal |
US4667340A (en) * | 1983-04-13 | 1987-05-19 | Texas Instruments Incorporated | Voice messaging system with pitch-congruent baseband coding |
US4638451A (en) * | 1983-05-03 | 1987-01-20 | Texas Instruments Incorporated | Microprocessor system with programmable interface |
CA1219079A (en) * | 1983-06-27 | 1987-03-10 | Tetsu Taguchi | Multi-pulse type vocoder |
US4669120A (en) * | 1983-07-08 | 1987-05-26 | Nec Corporation | Low bit-rate speech coding with decision of a location of each exciting pulse of a train concurrently with optimum amplitudes of pulses |
NL8302985A (nl) * | 1983-08-26 | 1985-03-18 | Philips Nv | Multipulse excitatie lineair predictieve spraakcodeerder. |
CA1236922A (en) * | 1983-11-30 | 1988-05-17 | Paul Mermelstein | Method and apparatus for coding digital signals |
CA1223365A (en) * | 1984-02-02 | 1987-06-23 | Shigeru Ono | Method and apparatus for speech coding |
US4701954A (en) * | 1984-03-16 | 1987-10-20 | American Telephone And Telegraph Company, At&T Bell Laboratories | Multipulse LPC speech processing arrangement |
EP0163829B1 (de) * | 1984-03-21 | 1989-08-23 | Nippon Telegraph And Telephone Corporation | Sprachsignaleverarbeitungssystem |
US4709390A (en) * | 1984-05-04 | 1987-11-24 | American Telephone And Telegraph Company, At&T Bell Laboratories | Speech message code modifying arrangement |
JPS60239798A (ja) * | 1984-05-14 | 1985-11-28 | 日本電気株式会社 | 音声信号符号化/復号化装置 |
US4872202A (en) * | 1984-09-14 | 1989-10-03 | Motorola, Inc. | ASCII LPC-10 conversion |
CA1249061A (en) * | 1984-12-25 | 1989-01-17 | Takashi Mochizuki | Method and apparatus for encoding/decoding image signal |
US4675863A (en) | 1985-03-20 | 1987-06-23 | International Mobile Machines Corp. | Subscriber RF telephone system for providing multiple speech and/or data signals simultaneously over either a single or a plurality of RF channels |
FR2579356B1 (fr) * | 1985-03-22 | 1987-05-07 | Cit Alcatel | Procede de codage a faible debit de la parole a signal multi-impulsionnel d'excitation |
NL8500843A (nl) * | 1985-03-22 | 1986-10-16 | Koninkl Philips Electronics Nv | Multipuls-excitatie lineair-predictieve spraakcoder. |
US4944013A (en) * | 1985-04-03 | 1990-07-24 | British Telecommunications Public Limited Company | Multi-pulse speech coder |
US4912764A (en) * | 1985-08-28 | 1990-03-27 | American Telephone And Telegraph Company, At&T Bell Laboratories | Digital speech coder with different excitation types |
US4890328A (en) * | 1985-08-28 | 1989-12-26 | American Telephone And Telegraph Company | Voice synthesis utilizing multi-level filter excitation |
US4720861A (en) * | 1985-12-24 | 1988-01-19 | Itt Defense Communications A Division Of Itt Corporation | Digital speech coding circuit |
US4827517A (en) * | 1985-12-26 | 1989-05-02 | American Telephone And Telegraph Company, At&T Bell Laboratories | Digital speech processor using arbitrary excitation coding |
USRE34247E (en) * | 1985-12-26 | 1993-05-11 | At&T Bell Laboratories | Digital speech processor using arbitrary excitation coding |
US4935963A (en) * | 1986-01-24 | 1990-06-19 | Racal Data Communications Inc. | Method and apparatus for processing speech signals |
CA1323934C (en) * | 1986-04-15 | 1993-11-02 | Tetsu Taguchi | Speech processing apparatus |
US4868867A (en) * | 1987-04-06 | 1989-09-19 | Voicecraft Inc. | Vector excitation speech or audio coder for transmission or storage |
US4969192A (en) * | 1987-04-06 | 1990-11-06 | Voicecraft, Inc. | Vector adaptive predictive coder for speech and audio |
US4890327A (en) * | 1987-06-03 | 1989-12-26 | Itt Corporation | Multi-rate digital voice coder apparatus |
US4817157A (en) * | 1988-01-07 | 1989-03-28 | Motorola, Inc. | Digital speech coder having improved vector excitation source |
US4896361A (en) * | 1988-01-07 | 1990-01-23 | Motorola, Inc. | Digital speech coder having improved vector excitation source |
US5285520A (en) * | 1988-03-02 | 1994-02-08 | Kokusai Denshin Denwa Kabushiki Kaisha | Predictive coding apparatus |
JP2625998B2 (ja) * | 1988-12-09 | 1997-07-02 | 沖電気工業株式会社 | 特徴抽出方式 |
SE463691B (sv) * | 1989-05-11 | 1991-01-07 | Ericsson Telefon Ab L M | Foerfarande att utplacera excitationspulser foer en lineaerprediktiv kodare (lpc) som arbetar enligt multipulsprincipen |
US5261027A (en) * | 1989-06-28 | 1993-11-09 | Fujitsu Limited | Code excited linear prediction speech coding system |
JPH0332228A (ja) * | 1989-06-29 | 1991-02-12 | Fujitsu Ltd | ゲイン―シェイプ・ベクトル量子化方式 |
US5263119A (en) * | 1989-06-29 | 1993-11-16 | Fujitsu Limited | Gain-shape vector quantization method and apparatus |
JPH0365822A (ja) * | 1989-08-04 | 1991-03-20 | Fujitsu Ltd | ベクトル量子化符号器及びベクトル量子化復号器 |
US5235669A (en) * | 1990-06-29 | 1993-08-10 | At&T Laboratories | Low-delay code-excited linear-predictive coding of wideband speech at 32 kbits/sec |
SE467806B (sv) * | 1991-01-14 | 1992-09-14 | Ericsson Telefon Ab L M | Metod att kvantisera linjespektralfrekvenser (lsf) vid beraekning av parametrar foer ett analysfilter ingaaende i en talkodare |
US5301274A (en) * | 1991-08-19 | 1994-04-05 | Multi-Tech Systems, Inc. | Method and apparatus for automatic balancing of modem resources |
US5659659A (en) * | 1993-07-26 | 1997-08-19 | Alaris, Inc. | Speech compressor using trellis encoding and linear prediction |
US5546383A (en) | 1993-09-30 | 1996-08-13 | Cooley; David M. | Modularly clustered radiotelephone system |
US5602961A (en) * | 1994-05-31 | 1997-02-11 | Alaris, Inc. | Method and apparatus for speech compression using multi-mode code excited linear predictive coding |
AU696092B2 (en) * | 1995-01-12 | 1998-09-03 | Digital Voice Systems, Inc. | Estimation of excitation parameters |
SE508788C2 (sv) * | 1995-04-12 | 1998-11-02 | Ericsson Telefon Ab L M | Förfarande att bestämma positionerna inom en talram för excitationspulser |
JP3137176B2 (ja) * | 1995-12-06 | 2001-02-19 | 日本電気株式会社 | 音声符号化装置 |
DE19643900C1 (de) * | 1996-10-30 | 1998-02-12 | Ericsson Telefon Ab L M | Nachfiltern von Hörsignalen, speziell von Sprachsignalen |
US5839098A (en) | 1996-12-19 | 1998-11-17 | Lucent Technologies Inc. | Speech coder methods and systems |
US5832443A (en) * | 1997-02-25 | 1998-11-03 | Alaris, Inc. | Method and apparatus for adaptive audio compression and decompression |
US6003000A (en) * | 1997-04-29 | 1999-12-14 | Meta-C Corporation | Method and system for speech processing with greatly reduced harmonic and intermodulation distortion |
US7392180B1 (en) | 1998-01-09 | 2008-06-24 | At&T Corp. | System and method of coding sound signals using sound enhancement |
US6182033B1 (en) | 1998-01-09 | 2001-01-30 | At&T Corp. | Modular approach to speech enhancement with an application to speech coding |
US5963897A (en) * | 1998-02-27 | 1999-10-05 | Lernout & Hauspie Speech Products N.V. | Apparatus and method for hybrid excited linear prediction speech encoding |
US6516207B1 (en) * | 1999-12-07 | 2003-02-04 | Nortel Networks Limited | Method and apparatus for performing text to speech synthesis |
US7295614B1 (en) | 2000-09-08 | 2007-11-13 | Cisco Technology, Inc. | Methods and apparatus for encoding a video signal |
JP4209257B2 (ja) | 2003-05-29 | 2009-01-14 | 三菱重工業株式会社 | 分散型コントローラとその動作方法、及び、分散型コントローラを備えるフォークリフト |
EP2595146A1 (de) * | 2011-11-17 | 2013-05-22 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | Verfahren und Vorrichtung zur Untersuchung der Verständlichkeit eines verrauschten Sprachsignals |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3624302A (en) * | 1969-10-29 | 1971-11-30 | Bell Telephone Labor Inc | Speech analysis and synthesis by the use of the linear prediction of a speech wave |
DE2435654A1 (de) * | 1974-07-24 | 1976-02-05 | Gretag Ag | Verfahren und vorrichtung zur analyse und synthese von menschlicher sprache |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3346695A (en) * | 1963-05-07 | 1967-10-10 | Gunnar Fant | Vocoder system |
US3740476A (en) * | 1971-07-09 | 1973-06-19 | Bell Telephone Labor Inc | Speech signal pitch detector using prediction error data |
JPS5246642A (en) * | 1975-10-09 | 1977-04-13 | Mitsubishi Metal Corp | Swimming pool |
JPS5343403A (en) * | 1976-10-01 | 1978-04-19 | Kokusai Denshin Denwa Co Ltd | System for analysing and synthesizing voice |
US4130729A (en) * | 1977-09-19 | 1978-12-19 | Scitronix Corporation | Compressed speech system |
US4133976A (en) * | 1978-04-07 | 1979-01-09 | Bell Telephone Laboratories, Incorporated | Predictive speech signal coding with reduced noise effects |
US4184049A (en) * | 1978-08-25 | 1980-01-15 | Bell Telephone Laboratories, Incorporated | Transform speech signal coding with pitch controlled adaptive quantizing |
JPS5648690A (en) * | 1979-09-28 | 1981-05-01 | Hitachi Ltd | Sound synthesizer |
-
1981
- 1981-12-01 US US06/326,371 patent/US4472832A/en not_active Ceased
-
1982
- 1982-11-18 CA CA000415816A patent/CA1181854A/en not_active Expired
- 1982-11-22 SE SE8206641A patent/SE456618B/sv not_active IP Right Cessation
- 1982-11-25 FR FR8219772A patent/FR2517452B1/fr not_active Expired
- 1982-11-29 GB GB08233923A patent/GB2110906B/en not_active Expired
- 1982-11-30 NL NL8204641A patent/NL193037C/nl not_active IP Right Cessation
- 1982-12-01 JP JP57209489A patent/JPS6046440B2/ja not_active Expired
- 1982-12-01 DE DE19823244476 patent/DE3244476A1/de active Granted
-
1985
- 1985-07-25 JP JP60163090A patent/JPH0650437B2/ja not_active Expired - Lifetime
-
1987
- 1987-10-27 SE SE8704178A patent/SE467429B/sv not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3624302A (en) * | 1969-10-29 | 1971-11-30 | Bell Telephone Labor Inc | Speech analysis and synthesis by the use of the linear prediction of a speech wave |
DE2435654A1 (de) * | 1974-07-24 | 1976-02-05 | Gretag Ag | Verfahren und vorrichtung zur analyse und synthese von menschlicher sprache |
Also Published As
Publication number | Publication date |
---|---|
NL8204641A (nl) | 1983-07-01 |
SE8704178D0 (sv) | 1987-10-27 |
JPS6156400A (ja) | 1986-03-22 |
SE8206641L (sv) | 1983-06-02 |
JPS6046440B2 (ja) | 1985-10-16 |
NL193037C (nl) | 1998-08-04 |
SE8704178L (sv) | 1987-10-27 |
FR2517452B1 (fr) | 1986-05-02 |
GB2110906A (en) | 1983-06-22 |
CA1181854A (en) | 1985-01-29 |
JPS58105300A (ja) | 1983-06-23 |
SE467429B (sv) | 1992-07-13 |
JPH0650437B2 (ja) | 1994-06-29 |
DE3244476C2 (de) | 1988-01-21 |
NL193037B (nl) | 1998-04-01 |
GB2110906B (en) | 1985-10-02 |
US4472832A (en) | 1984-09-18 |
SE8206641D0 (sv) | 1982-11-22 |
FR2517452A1 (fr) | 1983-06-03 |
SE456618B (sv) | 1988-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3244476A1 (de) | Digitaler sprachprozessor | |
DE3041423C1 (de) | Verfahren und Vorrichtung zur Verarbeitung eines Sprachsignals | |
DE2945414C2 (de) | Sprachsignal-Voraussageprozessor und Verfahren zur Verarbeitung eines Sprachleistungssignals | |
DE19811039B4 (de) | Verfahren und Vorrichtungen zum Codieren und Decodieren von Audiosignalen | |
DE2115258C3 (de) | Verfahren und Anordnung zur Sprachsynthese aus Darstellungen von individuell gesprochenen Wörtern | |
DE69910240T2 (de) | Vorrichtung und verfahren zur wiederherstellung des hochfrequenzanteils eines überabgetasteten synthetisierten breitbandsignals | |
DE19647298C2 (de) | Kodiersystem | |
CA1222568A (en) | Multipulse lpc speech processing arrangement | |
DE69633944T2 (de) | Verfahren und gerät zum kodieren von digitalen daten | |
DE19604273C2 (de) | Verfahren und Vorrichtung zum Durchführen einer Suche in einem Kodebuch im Hinblick auf das Kodieren eines Klangsignales, Zellkommunikationssystem, Zellnetzwerkelement und mobile Zell-Sender-/Empfänger-Einheit | |
DE60121405T2 (de) | Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen | |
DE69631318T2 (de) | Verfahren und Vorrichtung zur Erzeugung von Hintergrundrauschen in einem digitalen Übertragungssystem | |
DE3036680C2 (de) | Sprachsynthesizer mit dehnbarer und komprimierbarer Sprachzeit | |
DE69735097T2 (de) | Verfahren und vorrichtung zur verbesserung der sprachqualität in tandem-sprachkodierern | |
DE60219351T2 (de) | Signaländerungsverfahren zur effizienten kodierung von sprachsignalen | |
DE602004006211T2 (de) | Verfahren zur Maskierung von Paketverlusten und/oder Rahmenausfall in einem Kommunikationssystem | |
DE69932460T2 (de) | Sprachkodierer/dekodierer | |
DE2229149A1 (de) | Verfahren zur Übertragung von Sprache | |
DE69820362T2 (de) | Nichtlinearer Filter zur Geräuschunterdrückung in linearen Prädiktions-Sprachkodierungs-Vorrichtungen | |
DE69033510T3 (de) | Numerischer sprachcodierer mit verbesserter langzeitvorhersage durch subabtastauflösung | |
DE60309651T2 (de) | Verfahren zur Sprachkodierung mittels verallgemeinerter Analyse durch Synthese und Sprachkodierer zur Durchführung dieses Verfahrens | |
EP1023777B1 (de) | Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms | |
DE3019823C2 (de) | ||
DE60101827T2 (de) | Relative Pulsposition für einen CELP-Sprachkodierer | |
DE4491015C2 (de) | Verfahren zum Erzeugen eines Spektralrauschbewertungsfilters zur Verwendung in einem Sprachcoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: AT & T TECHNOLOGIES, INC., NEW YORK, N.Y., US |
|
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Free format text: BLUMBACH, KRAMER & PARTNER, 65193 WIESBADEN |