DE3244476A1 - Digitaler sprachprozessor - Google Patents

Digitaler sprachprozessor

Info

Publication number
DE3244476A1
DE3244476A1 DE19823244476 DE3244476A DE3244476A1 DE 3244476 A1 DE3244476 A1 DE 3244476A1 DE 19823244476 DE19823244476 DE 19823244476 DE 3244476 A DE3244476 A DE 3244476A DE 3244476 A1 DE3244476 A1 DE 3244476A1
Authority
DE
Germany
Prior art keywords
signal
speech
representative
generating
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19823244476
Other languages
English (en)
Other versions
DE3244476C2 (de
Inventor
Bishnu Saroop 07974 Murray Hill N.J. Atal
Joel Richard 07208 Elizabeth N.J. Remde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
Western Electric Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Western Electric Co Inc filed Critical Western Electric Co Inc
Publication of DE3244476A1 publication Critical patent/DE3244476A1/de
Application granted granted Critical
Publication of DE3244476C2 publication Critical patent/DE3244476C2/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Monitoring And Testing Of Transmission In General (AREA)
  • Analogue/Digital Conversion (AREA)

Description

Beschreibung
Digitaler Sprachprozessor
Die Erfindung bezieht sich auf Sprachverarbeitung, insbesondere auf digitale Sprachcodierungseinrichtungen.
Digital arbeitende Sprach-Nachrichtensysteme mit Sprachspeicher- und Sprachausgabeeinrichtungen setzen Signalkompression ein, um die zum Speichern und/oder übertragen benötigte Bitrate zu verringern. Ein Sprachmuster enthält bekanntlich Redundanz, die für seine nach außen in Erscheinung tretende Qualität nicht entscheidend ist. Das Entfernen von redundanten Komponenten des Sprachmusters verringert die zum Zusammensetzen einer Kopie der Sprache benötigte Anzahl von Digitalcodes beträchtlich. Die subjektiv empfundene Qualität der Sprachkopie hängt jedoch von den Kompressions- und Codierungsmethoden ab.
Ein bekanntes digitales Sprachcodierungssystem, wie es
ζ. B. in der US-PS 3 624 302 beschrieben ist, beinhaltet die lineare Voraussage- oder Prädiktoranalyse eines eingegebenen Sprachsignals. Das Sprachsignal wird in -aufeinanderfolgende Intervalle aufgeteilt, und es wird ein für die Sprache in dem Intervall repräsentativer Satz von Parametern erzeugt. Der Parametersatz enthält lineare Prädiktorkoeffizientensignale, die kennzeichnend sind für die Spektralhüllkurve der Sprache in dem Intervall, sowie Tonhöhen- und Stinunhaftigkeitssignale, die der Spracherregung entsprechen. Diese Parametersignale können mit einer viel geringeren Bitrate codiert werden als die Sprachsignal-Wellenform selbst. Aus den Parametersignalcodes wird durch Synthese eine Kopie des eingegebenen Sprachsignäls gebildet. Die Syntheseeinrichtung enthält im allgemeinen ein Modell oder eine Nachbildung des Mundhohlraums. In dem Modell werden die Erregungsimpulse in einem Allpol-Voraussagefilter durch die für die Spektralhüllkurve repräsentativen Prädiktor~ koeffizienten modifiziert. _.
Die oben erläuterte tonhöhenerregte lineare Prädiktor- oder Voraussagecodierung ist äußerst wirksam. Die erzeugte Sprachkopie klingt jedoch synthetisch und ist häufig schwierig zu verstehen. Im allgemeinen resultiert die
geringe Sprachqualität aus einem Mangel an Entsprechung zwischen Sprachmuster und dem verwendeten linearen Voraussagemodell. Fehler im Tonhöhencode oder Fehler bei der Bestimmung, ob das Sprachintervall stimmhaft oder stimmlos ist, bewirken, daß die Kopie der Sprache gestört oder unnatürlich klingt. Ähnliche Probleme ergeben sich auch bei der Formantcodierung von Sprache. Andere Codierungsanordnungen, bei denen die Spracherregung aus dem nach der Voraussage erhaltenen Rest erhalten wird, z. B. ADPCM oder APC, schaffen eine spürbare Verbesserung, da die Erregung nicht von einem ungenauen Modell abhängt. Bei diesen Systemen liegt die Erregungs-Bitrate jedoch wenigstens um eine Größenordnung höher als bei dem linearen Voraussagemodell. Versuche, die Erregungs-Bitrate in den Rest-Systemen zu senken, haben durchwegs zu einer wesentlichen Qualitätsverschlechterung geführt. Es ist ein Ziel der Erfindung, eine verbesserte Sprachcodierung hoher Qualität bei Bitraten zu erhalten, die niedriger liegen als bei Restcodierungsmethoden.
Die Erfindung ist auf eine Verarbeitungsanordnung für ein sequentielles Muster gerichtet, bei der das sequentielle Master in aufeinanderfolgende Zeitintervalle aufgeteilt wird. In jedem Zeitintervall werden ein für das se-
quentielle Muster des Intervalls repräsentatives Signal und ein künstliches Mustersignal gebildet. Ansprechend auf die Signale für das sequentielle Muster des Intervalls und das kün&liche Muster wird ein codiertes Signal gebildet, welches sich zum Verringern des Unterschieds zwischen dem sequentiellen Muster des Intervalls und dem künstlichen Muster eignet, um das sequentielle Muster darzustellen.
Gemäß einem Aspekt der Erfindung wird ein Sprachmuster in aufeinanderfolgende Zeitintervalle aufgeteilt. In jedem Intervall werden ein für das Sprachmuster des Intervalls repräsentatives Signal und ein für eine künstliche Sprache repräsentatives Signal gebildet. Ein den Unterschieden zwischen dem Signal für die Sprache in dem Intervall und dem Signal für die künstliche Sprache entsprechendes Signal wird erzeugt. Es wird ein Signal gebildet, das geeignet ist, das für die künstliche Sprache in dem Intervall repräsentative Signal so zu modifizieren, daß das dem Unterschied entsprechende Signal verringert wird.
In einer Ausführungsform der Erfindung wird für jeden Zeitrahmen eines Sprachsignals ein Satz von Prädiktor-
2/3
BAD ORlGSNAL
oder Voraussageparametersignalen erzeugt. Ansprechend auf das Zeitrahmen-Sprachsignal und die Zeitrahmen-Prädiktorparameter wird ein Voraussagerestsignal gebildet* Das Voraussagerestsignal wird durch ein erstes Voraussagefilter geschickt, um für den Zeitrahmen ein sprachekennzeichnendes Signal zu erzeugen. In einem zweiten Voraussagefilter wird aus den Rahmen-Prädiktorparametern für den Zeitrahmen ein eine künstliche Sprache repräsentierendes Signal erzeugt. Ansprechend auf das für die Sprache und das für die künstliche Sprache repräsentative Signal jedes Zeitrahmens wird ein codiertes Erregungssignal erzeugt und dem zweiten Voraussagefilter zugeführt, um das spürbar gewichtete mittlere Differenzquadrat zwischen dem für die Sprache des Rahmens repräsentativen und dem für die künstliche Sprache repräsentativen Signal zu minimieren. Das codierte Erregungssignal und die Prädiktorparametersignale werden zum Zusammensetzen einer Kopie des Zeitrahmen-Sprachmusters herangezogen.
Im folgenden wird die Erfindung anhand von Ausführungsbeispielen näher erläutert. Es zeigen:
Fig. 1 ein Blockdiagramm einer Sprachprozessorschaltung nach der Erfindung,
Fig. 2 ein Blockdiagramm eines Prozessors zum Bilden eines Erregungssignals, der in der Schaltung nach Fig. 1 einsetzbar ist,
Fig. 3 ein FIußdlagramm, das die Arbeitsweise der Schaltung zum Bilden des Erregungssignals gemäß Fig. 1 veranschaulicht,
Fig. 4 und 5 Flußdiagramme, die die Arbeitsweise der in Fig. 1 gezeigten Schaltung veranschaulichen,
Fig. 6 ein Zeitdiagramm, welches die Arbeitsweise der Schaltung zum Bilden eines Erregungssignals, die in den Fig. 1 und 2 dargestellt ist, veranschaulicht, und
Fig. 7 Wellenzüge, die die Sprachverarbeitung nach der Erfindung veranschaulichen.
Fig. 1 zeigt ein allgemeines Blockdiagramm eines erfindungsgemäßen Sprachprozessors. Gemäß Fig. 1 wird ein Sprachmuster, beispielsweise eine gesprochene Nachricht, von einem Mikrophon 101 empfangen. Das von diesem abgegebene entsprechende analoge Sprachsignal wird In einer Filter- und Abtastschaltung 113 eines Voraussageanaly-
sators 110 bandbegrenzt und in eine Folge von Impulsabtastwerten umgesetzt. Durch die Filterung können Frequenzanteile des Sprachsignals oberhalb von 4,0 kHz herausgefiltert werden, wobei die Abtastrate in bekannter Weise 8,0 kHz beträgt. Die zeitliche Steuerung der Abtastungen wird durch einen von einem Taktgeber 103 gelieferten Abtasttakt CL gesteuert. Jeder von der schaltung 113 kommende Abtastwert wird in einem Analog/ Digital-Umsetzer 115 in einen Digitalcode umgesetzt, der kennzeichnend für die Amplitude des Abtastwertes ist.
Die Folge der Sprach-Abtastwerte gelangt an einen Prädiktorparameter-Rechner (LPC-Rechner) 119, der in bekannter Weise die Sprachsignale in 10 bis 20 ms lange Intervalle unterteilt und einen Satz von linearen Prädiktorkoeffizientensignalen a, , k = 1, 2, ..., ρ erzeugt, die kennzeichnend sind für das vorausgesagte Kurzzeitspektrum der N >> ρ Sprachabtastwerte jedes Intervalls. Die von dem A/D-Umsetzer 115 kommenden Sprachabtastwerte werden in einer Verzögerungsschaltung 117 verzögert, um Zeit für die Bildung der Signale a, zu schaffen. Die verzögerten Abtastwerte gelangen an den Eingang eines Voraussagerestgenerators 118. Der Voraussagerestgenerator spricht in an sich bekannter Weise auf die verzöger-
ten Sprachabtastwerte und die Prädiktorparameter a. an,
um ein dem Unterschied, d. h. der Differenz zwischen den beiden Signalen entsprechendes Signal zu bilden. Die für jeden Rahmen in dem Voraussageanalysator 110 erfolgende Bildung der Prädiktor- oder Voraussageparameter sowie des Voraussagerestsignals kann mit der in der US-PS 3 740 476 beschriebenen Anordnung oder irgend einer anderen hierfür geeigneten Anordnung durchgeführt werden. ■ ■
Während die Prädiktorparametersignale afc eine effiziente Darstellung des Kurzzeit-Sprachspektrums bilden, unterliegt das Restsignal im allgemeinen großen Schwankungen von Intervall zu Intervall und weist eine hohe Bitrate auf, die für viele Anwendungsfalle ungeeignet ist. In dem' tonhöhenerregten Vocoder werden nur die Spitzen des Restsignals als Tonhöhenimpulscodes übertragen» Die sich hierbei ergebende Qualität ist im allgemeinen jedoch schlecht. Der Wellenzug 701 in Fig. 7 veranschaulicht ein typisches, sich über zwei Zeitrahmen erstreckendes Sprachmuster. Der Wellenzug 703 zeigt das Voraussagerestsignal, das von dem Muster des Wellenzugs 701 und den Prädiktorparametern der Rahmen abgeleitet ist. Wie man leicht sieht, ist der Wellenzug 703 relativ kompli-
ziert, so daß den Spitzen entsprechende Codierungs-Tonhöhenimpulse keine angemessene Approximation des Voraussagerests schaffen. Erfindungsgemäß empfängt ein Erregungscodeprozessor 120 das Restsignal d, und die Prädiktorparameter a, des Rahmens und erzeugt einen Intervall-Erregungscode, der eine vorbestimmte Anzahl von Bitstellen hat. Der sich ergebende Erregungscode gemäß des Wellenzugs 705 weist eine relativ niedrige und konstante Bitrate auf. Der Wellenzug 707 zeigt eine Kopie des Sprachmusters des Wellenzugs 701, die aus dem Erregungscode und den Prädiktorparametern der Rahmen zusammengesetzt ist. Wie man anhand eines Vergleichs der Wellenzüge 701 und 702 sieht, wird bei viel niedrigeren Bitraten ein Sprachverlauf höherer Qualität durch die anpassende Voraussagecodierung erhalten.
Das Voraussagerestsignal d, und die Prädiktorparametersignale a, jedes aufeinanderfolgenden Rahmens werden von der Schaltung 110 zu Beginn jedes aufeinanderfolgenden Rahmens an die zum Bilden eines Erregungssignals dienende Schaltung 120 gegeben. Die Schaltung 120 erzeugt ein mehrere Elemente enthaltenden Rahmen-Erregungscode EC mit einer vorbestimmten Anzahl von Bitstellen für jeden Rahmen. Jeder Erregungscode entspricht einer Folge von ΙέϊέΙ Impulsen, die kennzeichnend sind
für die Erregungsfunktion des Rahmens. Die Amplitude ß. und die Stelle m. jedes Impulses innerhalb des Rahmens wird in der zum Bilden des Erregungssignals dienenden Schaltung festgelegt, so daß das Zusammensetzen einer Kopie des Rahmen-Sprachsignals aus dem Erregungssignal und den Prädiktorparametersignalen des Rahmens möglich ist. In einem Codierer 131 werden die Signale ßv und m. codiert und mit den Prädiktorparametersignalen des Rahmens in einem Multiplexer 135 einer Multiplexbildung unterworfen, um ein dem Rahmen-Sprachmuster entsprechendes digitales Signal zu erhalten.
In der zum Bilden des Erregungssignals dienenden Schaltung 120 werden das Voraussagerestsignal d, und die Prädiktorparametersignale a, eines Rahmens über Verknüpfungsglieder 122 bzw. 124 an ein Filter 121 gelegt. Zu Beginn jedes Rahmens öffnet ein Rahmentaktsignal PC die Gatter 122 und 124, wodurch die Signale d. an das Filter 122 und die Signale a, an die Filter 121 und 123
gelangen. Das Filter 121 ist derart ausgebildet, daß es das Signal d, so modifiziert, daß das Quantisierungsspektrum des Fehlersignals in dessen Formantbereichen konzentriert wird. Wie in der US-PS 4 133 976 beschrieben ist, bewirkt diese Filteranordnung, daß der Fehler in den Signalbereichen hoher Energie des Spektrums
3 2U-476
- 26 maskiert wird.
Die übertragungsfunktion des Filters 121 ist in der Schreibweise der z-Transformation:
1 - B(z)
wobei B(ζ) durch die Rahmen-Prädiktorparameter a, gesteuert wird.
Das Voraussagefilter 123 empfängt vom Rechner 119 die Rahmen-Prädiktorparametersignale und von dem Erregungssignalprozessor 127 ein künstliches Erregungssignal EC. Das Filter 123 hat eine übertragungsfunktion gemäß Gleichung (1). Das Filter 121 bildet ansprechend auf den Voraussagerest d. ein gewichtetes Rahmen-Sprachsignal y, während das Filter 123 ansprechend auf das von dem Signalprozessor 127 kommende Erregungssignal ein gewichtetes künstliches Sprachsignal y erzeugt. Die Signale y und y werden in einem Korrelationsprozessor 125 korreliert, wobei der Korrelationsprozessar 125 ein der gewichteten Differenz zwischen den Signalen entsprechendes Signal E erzeugt. Das Signal E wird an den Signalprozessor 127 gelegt, um das Er-
regungssignal EC so einzustellen, daß die Differenzen zwischen .dem vom Filter 121 kommenden, für die gewichtete Sprache repräsentativen Signal und dem vom. Filter 123 kommenden, für die gewichtete künstliche Sprache repräsentativen Signal verringert werden.
Das Erregungssignal ist eine Folge von 1έ i έΙ Impulsen. Jeder Impuls besitzt eine Amplitude ß. und eine Stelle m. . Der Prozessor 127 bildet sukzessiv die Signale β.., m., die die Differenzen zwischen dem gewichteten Rahmen-Sprachsignal vom Filter 121 und dem gewichteten Rahmen-Kunstsprachsignal vom Filter 123 verringern. Das gewichtete Rahmen-Sprachsignal beträgt
Σ dkhnR 1 i η < N (2)
und das gewichtete Kunstsprache-Signal des Rahmens be« trägt
> = Σ β . h 1 C p. < N ■η j=1 'j n-m. - -
(3)
wobei h die Impulsantwort des Filters 121 oder des Filters 123 ist.
Das in der schaltung 120 gebildete Erregungssignal ist ein codiertes Signal mit den Elementen ß., m , i = 1, 2, ..., I. Jedes Element stellt einen Impuls in dem Zeitrahmen dar. ß, ist die Amplitude des Impulses und m, ist die Stelle des Impulses innerhalb des Rahmens. Der Korrelationssignalgenerator 125 erzeugt sukzessive ein Korrelationssignal für jedes Element. Jedes Element kann zu einer Zeit 1 £ q <. Q innerhalb des Zeitrahmens angeordnet sein. Folglich bildet der Korrelationsprozessor Q mögliche Kandidaten für das Element i nach Maßgabe der Gleichung (4):
V9
wobei . x "
Der Erregungssignalgenerator 127 empfängt die Signale C. von dem Korrelationssignalgenerator, wählt dasjenige Signal C, aus, das den größten Absolutwert aufweist, und bildet das i-te Element des codierten Signals.
(6)
wobei q die Stelle desjenigen Korrelationssignals ist, das den größten Absolutwert aufweist. Der Index i wird auf i + 1 erhöht, und das Signal y" am Ausgang des Voraussagefilters 123 wird modifiziert. Die Verarbeitung entsprechend den Gleichungen (4), (5) und (6) wird wiederholt, um das Element ß ., m.+1 zu bilden. Nach der Bildung des Elements B1, m wird das Signal mit den Elementen B1, m1, B , m , ·.., ß., m. zum Codierer 131 übertragen. In an sich bekannter Weise quantisiert der Codierer 131 die Elemente ß.m, und bildet ein codiertes Signal, das sich für die übertragung zu einem Verbindungsnetz 140 eignet.
Jedes der !Tilter 121 und 123 in Fig. 1 kann ein Transversalfilter von dem Typ sein, wie er in der US-PS 4 133 beschrieben ist. Jeder der Prozessoren 125 und 127 kann eine der an sich bekannten Prozessoranordnungen sein f die sich zum Berechnen der Gleichungen (4) und (6) eignen, beispielsweise kann es sich um das C.S.P., Inc. Macro Arithmetic Processor System 100 oder eine andere be-
kannte Prozessoranordnung handeln. Der Prozessor 125 enthält einen Festspeicher, der permanent Programmbefehle zum Steuern der Bildung der Signale C. nach Maßgabe der Gleichung (4) speichert. Der Prozessor 127 enthält einen Festspeicher, der dauernd Programmbefehle zum Auswählen der Signalelemente R., m. nach Gleichung (6) speichert, wie es an sich bekannt ist. Die Programrobefehle in dem Prozessor 125 sind dem beiliegenden Anhang A entnehmbar, in dem die Befehle in FORTRAN angegeben sind. Die Programmbefehle im Prozessor 127 sind in FORTRAN-Sprache im Anhang B aufgelistet.
Fig. 3 zeigt ein Flußdiagramm, welches die Arbeitsweise der Prozessoren 125 und 127 für jeden Zeitrahmen veranschaulicht. Gemäß Fig. 3 werden in dem Kästchen 305 die Impulsantwortsignale h ansprechend auf die Rahmen-Prädiktorparameter für die übertragungsfunktion nach Gleichung (1) erzeugt. Dies geschieht nach Empfang des Signals FC vom Taktgeber 103 in Fig. 1, was durch das Wartekästchen 303 angedeutet ist. In dem Kästchen 307 werden der Elementindex i und der Erregungsimpuls-Stellenindex q auf 1 voreingestellt (ini-
324Λ476
tialisiert). Nach Erhalt der Signale y und $ .« von den Voraussagefiltern 12-1 bzw. 123 wird gemäß Kästchen 309 das Signal C. gebildet. Der Stellenindex q wird im Kästchen 311 erhöht, und es erfolgt die Bildung der nächsten Stelle C, .
Nachdem für das Erregungssignalelement i im Prozessor 125 das Signal C.Q gebildet ü, wird der Prozessor 127 aktiviert. Der Index q wird in dem Prozessor 127 gemäß Kästchen 315 zu Beginn auf 1 eingestellt, während der Index i sowie die Signale C , die in dem Prozessor gebildet wurden, zum Prozessor 127 übertragen werden. Das Signal C *, das das Signal C. mit dem größten Absolutwert darstellt, wird ebenso wie dessen Stelle q im Kästchen 317 auf Null eingestellt.■Die Absolutwerte der Signale C, werden mit dem Signal C. * verglichen, und der größte dieser Absolutwerte wird als Signal C. * in der die Kästchen 319, 321, 323 und 325 umfassenden Schleife gespeichert.
Nachdem das Signal C. vom Prozessor 125 verarbeitet ist, wird vom Kästchen 325 aus das Kästchen 327 betreten, Die Stelle m. des Erregungscodeelements wird auf q" eingestellt, und die Amplitude ß. des Erregungscodeele-
itients wird nach Maßgabe der Gleichung (6) erzeugt. Das Element ß^ni. wird gemäß Kästchen 328 an das Voraussagefilter 123 gegeben, und im Kästchen 329 wird der Index i erhöht. Nach Bildung des Elements ßjin des Rahmens wird von dem Entscheidungskästchen 331 aus erneut das Wartekästchen 303 betreten.
Die Prozessoren 125 und 127 gelangen dann bis zu dem Rahmentaktimpuls FC des nächsten Rahmens in den Wartezustand.
Der Erregungscode in dem Prozessor 127 gelangt außerdem an den Codierer 131. Der Codierer setzt den vom Prozessor 127 kommenden Erregungscode in eine zur Verwendung in dem Netzwerk 140 geeignete Form um. Die Prädiktorparametersignale a, für den Rahmen werden über eine Verzögerungsschaltung 133 an einen Eingang des Multiplexers 135 gelegt. Das vom Codierer 131 kommende Erregungscodesignal EC gelangt an den anderen Eingang des Multiplexers. Die im Multiplexbetrieb verarbeiteten Erregungs- und Prädiktorparametercodes für den Rahmen werden dann zum Netzwerk 140 gesendet.
Bei dem Netzwerk 140 kann es sich um ein Nachrichten-
system, den Nachrichtenspeicher einer Sprachspeicheranordnung oder um eine Vorrichtung handeln, die zum
Speichern einer vollständigen Nachricht oder des Vokabulars vorgeschriebener Nachrichteneinheiten, ζ. B. von Worten, Phonemen, usw. dient, die in Sprachsynthesevorrichtungen eingesetzt werden. Unabhängig davon, um welche Nachrichteneinheit es sich handelt, wird die von der Schaltung 120 kommende Folge von Rahmencodes über das Netzwerk 140 zu der Sprachsynthesevorrichtung 150 übertragen. Die Synthesevorrichtung verwendet ihrerseits die von der Schaltung 120 kommenden Rahmen-Erregungscodes sowie die Rahmen-Prädiktorparametercodes, um eine Kopie des Sprachmusters zusammenzusetzen.
Ein in der Synthesevorrichtung 150 enthaltener Demultiplexer 152 separiert den Erregungscode EC eines Rahmens von dessen Prädiktorparametern a, . Nachdem der Erregungscode in einem Decoder 153 in eine Folge von Erregungsimpulsen decodiert ist, wird er an den Erregungseingang eines Sprachsynthesefilters 154 gegeben» An die Parametereingänge des Filters 154 werden die a, -Codes gegeben. Das Filter 154 bildet in Abhängigkeit der Erregungssignale und der Prädiktorparametersignale eine codierte Kopie des Rahmen-Sprachsignals, wie es an sich
3244Λ76
bekannt ist. Ein D/A-Umsetzer 156 setzt die codierte Kopie in ein Analogsignal um, das über ein Tiefpaßfilter 158 gegeben und von einem Wandler 160 in ein Sprachmuster umgewandelt wird.
Eine alternative Anordnung zum Bilden des Erregungscodes in der Schaltung 120 kann auf dem gewichteten mittleren Fehlerquadrat zwischen den Signalen y und y beruhen. Nach Bildung der Werte ß, und m. für den i-ten Erregungssignalimpuls beträgt dieses gewichtete mittlere Fehlerquadrat
1 .
(7)
h - J1 ('. - 3!, »A-
wobei h die n-te Abtastung der Impulsantwort von H(z), m. die Stelle des j-ten Impulses des Erregungscodesignals und ß. die Amplitude des j-ten Impulses ist.
Die Impulsstelle und die Impulsamplitude werden sequentiell erzeugt. Das i-te Element der Erregung bestimmt sich durch die Minimierung von E. in Gleichung (7). Die Gleichung (7) kann man umschreiben zu
"2H
1-1 Σ /* h
(9)
so daß die β.,πι. vorausgehenden bekannten Erregungscodeeleraente nur in dem ersten Term auftreten.
Wie bekannt ist, kann der den Wert E. minimierende Wert von ß. durch Differenzieren der Gleichung (8) nach ß. und Setzen von
(9)
erhalten werden. Folglich beträgt der optimale Wert für ßi
k=m.. -1
(10)
^ = i -hnVk ° ^ k ^ K
(11)
die Autokorrelationskoeffizienten des Impulsantwortsignals h, des Voraussagefilters sind.
β. in Gleichung (10) ist eine Funktion der Impulsstelle und wird für jeden möglichen Wert bestimmt. Dann wird der größte der ß.-Werte an den in Frage kommenden Impulsstellen ausgewählt. Nach dem Erhalt der Werte ß. und ra. werden die Werte ßi+,f ra 1+1 erzeugt, indem die Gleichung (10) in ähnlicher Weise gelöst wird. Der erste Term der
m +K
Gleichung (10), d. h., £ d. φ' , entspricht dem
k=m-K K K"mi
für die Sprache repräsentativen Signal des Rahmens am Ausgang des Voraussagefilters 121. Der zweite Term in
i-1
Gleichung (10), d. h., £ ß-0 » entspricht dem für
j=1 3 mj"m±
die künstliche Sprache repräsentativen Signal des Rahmens am Ausgang des Voraussagefilters 123. ß. ist die Amplitude eines Erregungsimpulses an der Stelle m., der die Differenz zwischen dem ersten und dem zweiten Term minimiert.
Die in Fig. 2 dargestellte Datenverarbeitungsschaltung stellt eine alternative Anordnung bezüglich der in Fig.
dargestellten Schaltung 120 zum Bilden des Erregungssignals dar. Die Schaltung nach Fig. 2 liefert ansprechend auf das Rahmen-Voraussagerestsignal d. und die Rahmen-Prädiktorparametersignale a nach Maßgabe der Gleichung (10) den Erregungscode für jeden Rahmen des Sprachmusters, und sie kann das oben erwähnte C.S.P.., Inc. Macro Arithmetic Processor System 100 oder eine andere bekannte Prozessoranordnung enthalten.
Gemäß Fig. 2 empfängt der Prozessor 210 die Prädiktorparametersignale a, und die Voraussagerestsignale d für
κ. η
jeden aufeinanderfolgenden Rahmen des Sprachmusters von der Schaltung 110 über den Speicher 218. Der Prozessor bildet die Erregungscode-Signalelemente ß..m , S2 111O' **'* ß m unter Steuerung von Befehlen, die dauernd in einem Festspeicher für ein Voraussagefilter-Unterprogramm und einem Festspeicher 205 für ein Unterprogramm zur Erregungsverarbeitung gespeichert sind. Das Voraussagetilter-Unterprogramm in dem ROM 201 ist in dem beiliegenden Anhang C aufgelistet, das Unterprogramm für die Erregungsverarbeitung in dem ROM 205 ist im Anhang D aufgelistet.
Der Prozessor 210 enthält einen gemeinsamen Bus 225, einen Datenspeicher 230, einen Zentralprozessor 240,
eine Steuerungsschnittstelle 220, und eine Eingabe/Ausgabe-(E/A-)Schnittstelle 260. In an sich bekannter Weise steuert der Zentralprozessor 240 die Arbeitsabfolge der anderen Einheiten des Prozessors 210 in Abhängigkeit von von der Steuerung 215 kommenden codierten Befehlen. Der Arithmetikprozessor 250 .führt die arithmetischen Rechnungen der von dem Datenspeicher 2 30 kommenden codierten Signale in Abhängigkeit von vom Zentralprozessor 240 kommenden Steuersignalen dur.ch. Der Datenspeicher 230 speichert nach Anweisung des Zentralprozessors 240 Signale und liefert diese Signale an den Arithmetikprozessor 250 und an die E/A-Schnittstelle 260. Die Steuerungsschnittstelle 220 bildet eine Nachrichtenverbindung für die Programmbefehle im ROM 201 und im ROM 205 mit dem Zentralprozessor 240 über die Steuerung 215, und die E/A-Schnittstelle 260 ermöglicht es, daß die Signale d^ und a, in den Datenspeicher 230 gelangen, und sie gibt die Ausgangssignale ß. und m. von dem Datenspeicher an den Codierer 131 in Fig. 1.
Die Arbeitsweise der Schaltung nach Fig. 2 ist in dem in Fig. 4 dargestellten Flußdiagramm für die Filterparameterverarbeitung, in dem in Fig. 5 gezeigten Flußdiagramm für die Erregungscodeverarbeitung und in dem in Fig. 6 gezeigten Zeitdiagramm veranschaulicht. Beim
Start des Sprachsignals wird das Kästchen 410 in Fig.. 4 über das Kästchen 405 betreten, und der Rahmenzähler r wird durch einen vom Taktgeber 103 kommenden einzelnen Impuls ST auf den ersten Rahmen eingestellt. Fig. 6 zeigt die Arbeitsweise der Schaltung nach Fig. 1 und 2 für zwei aufeinanderfolgende Rahmen. Zwischen den Zeitpunkten t und t„ in dem ersten Rahmen bildet der Voraussageanalysator 110 die Sprachmusterabtastungen des Rahmens r+2 gemäß Wellenform 605 unter Steuerung der Abtasttaktimpulse des Wellenzugs 601. Der Analysator 110 erzeugt die Signale a, entsprechend dem Rahmen r+1 zwi~ sehen den Zeitpunkten t und t~, und er bildet zwischen den Zeitpunkten t^ und t, das Voraussagerestsignal d., wie es durch den Wellenzug 607 angedeutet ist. Zwischen den Zeitpunkten t und t.. tritt das Signal FC (Wellenform 603) auf. Die Signale d, von dem Restsignalgenerator 118, die zuvor während des vorausgehenden Rahmens im Speicher 218 gespeichert wurden, werden über die E/ASchnittstelle 260 und den gemeinsamen Bus 225 unter Steuerung des Zentralprozessors 240 in den Datenspeicher 230 gegeben. Wie in Fig. 4 durch das Tätigkeitskästchen 415 angedeutet ist, erfolgen diese Tätigkeiten in Abhängigkeit des Rahmentaktsignals FG. Die Rahmen-Prädiktorparametersignale a, von dem Prädlktorparameter-
K.
rechner 119, die zuvor während des vorausgehenden Rah4-mens im Speicher 218 gespeichert wurden, werden ebenfalls in den Speicher 230 eingegeben, wie durch das Kästchen 420 angedeutet ist. Diese Arbeitsschritte erfolgen zwischen den Zeitpunkten t und t. in Fig. 6.
Nachdem die Rahmensignale d, und a, in den Speicher 2 30 eingegeben sind, wird das Kästchen 4 25 betreten, und es werden die Voraussagefilterkoeffizienten b, entsprechend der übertragungsfunktion der Gleichung (1)
bk = akak k = 1, 2, ..., ρ (12)
in dem Arithmetikprozessor 250 erzeugt und in den Daten speicher 230 eingegeben. Bei einer Abtastrate von 8 kHz beträgt ρ typischerweise 16 und ca typischerweise 0,85. Dann werden in dem Arithemtikprozessor 250 die Voraussagefilter-Impulsantwortsignale h.
min(k-1,p)
Σ W-i k=1,2,...K (13)
berechnet und in dem Datenspeicher 230 gespeichert. Wenn das Impulsantwortsignal h„ gespeichert ist, wird das
Kästchen 435 betreten, und es werden die Voraussagefilter-Autokorrelationssignale gemäß Gleichung (11) erzeugt und gespeichert. .
Im Zeitpunkt t2 in Fig. 6 trennt die Steuerung 215 das ROM 201 von der Schnittstelle 220 und verbindet das ROM 205, das das Unterprogramm für die Erregungsverarbeitung speichert, mit der Schnittstelleo Dann wird die Bildung der Erregungsimpulscodes β , m. eingeleitet, wie aus dem Flußdiagramm nach Fig. 5 hervorgeht. Zwischen den Zeitpunkten t und t. in Fig. 6 wird die Folge der Erregungsimpulse gebildet. Am Anfang wird der Erregungsimpulsindex i auf 1 eingestellt, während der Impulsstellenindex q auf 1 eingestellt wird (Kästchen 505). ß- wird im Kästchen 510 auf Null eingestellt, und es wird in das Kästchen 515 eingetreten, um ß. = ß-ti zu ^e" stimmen, ß-- ist der optimale Erregungsimpuls an der Stelle q = 1 des Rahmens. Dann wird der Absolutwert von B11 mit dem zuvor gespeicherten Wert B1 im Entscheidungskästchen 520 verglichen. Da B1 zu Beginn den Wert Null hat, wird der Code m. auf q = 1 eingestellt, und der Code ß. wird auf B11 eingestellt (Kästchen 525).
Dann wird im Kästchen 530 der Stellenindex q erhöht, und 14/15
es wird über das Entscheidungskästchen 535 das Kästchen 515 betreten, um das Signal ß-2 zu erzeugen. Für sämtliche Impulsstellenwerte 16q^Q wird die die Kästchen 515, 520, 525, 530 und 535 umfassende Schleife wiederholt durchlaufen. Nach der Q-ten Iteration sind die erste Erregungsimpulsamplitude B1 = ß. * und die zugehörige Stelle m. = q* in dem Speicher 230 gespeichert. Auf diese Weise wird der erste der I Erregungsimpulse bestimmt. Gemäß dem in Fig. 7 gezeigten Wellenzug 705 tritt der Rahmen r zwischen den Zeitpunkten t und t. auf. Der Erregungscode für den Rahmen besteht aus acht Impulsen. Der erste Impuls mit der Amplitude ß. und der Stelle m1 tritt im Zeitpunkt tml in Fig. 7 auf, wie es für den Index i = 1 gemäß dem in Fig. 5 gezeigten Flußdiagramm bestimmt wird.
In dem Kästchen 545 wird der Index i auf den nachfolgenden Erregungsimpuls erhöht, und über die Kästchen und 510 wird das Tätigkeitskästchen 515 betreten. Nach Abschluß jeder Iteration der Schleife zwischen den Kästchen 510 und 550 wird das Erregungssignal modifiziert, um das Signal gemäß Gleichung (7) weiter zu verringern. Nach Abschluß der zweiten Iteration wird der Impuls ß2m„ (Zeitpunkt t 2 im Wellenzug 705) gebildet. Dann
werden sukzessive mit dem Erhöhen des Index i die Erregungsimpulse ß3nu (Zeitpunkt t _), ß.m. (Zeitpunkt t .) s ß5m_ (Zeitpunkt t ,.) , ßßm 6 (Zeitpunkt t -) , ß^m» (Zeitpunkt t 7) und ßgm8 (Zeitpunkt t „) gebildet.
Nach der I-ten Iteration (Wellenzug 609 bei t.) wird vom Entscheidungskästchen 550 aus das Kästchen 555 betreten, und dort wird der laufende Rahmen-Erregungscode ß.,m.. , ß2 m2' ·'* ßTmT erzeu9*-. In dem Kästchen 560 wird der Rahmenindex erhöht, und im Zeitpunkt t_ gemäß Fig. 6 werden im Kästchen 415 die Voraussagetilter-Verarbeitungsschritte gemäß Fig. 4 für den nächsten Rahmen durchgeführt. Nach dem Auftreten des Taktsignals FC für den nächsten Rahmen im Zeitpunkt t_ in Fig. 6 werden die Prädiktorparaiaetersignale für den Rahmen r-5-3 gebildet (Wellenzug 605 zwischen den Zeitpunkten t_ und W.), es werden für den Rahmen r+2 die Signale a, und d, gebildet (Wellenzug 607 zwischen den Zeitpunkten t„ und t,.,), und es wird für den Rahmen r+1 der Erregungscode gebildet (Wellenzug 609 zwischen den Zeitpunkten 't„ und t12).
Von dem Prozessor nach Fig. 2 wird über die E/A-Schnittstelle 260 der Rahmen-Erregungscode an den in Fig. 1
gezeigten Codierer 131 gegeben. Der Codierer 131 arbeitet in der oben geschilderten Weise, indem er den Erregungscode zur Beaufschlagung des Netzwerks 140 quantisiert und formatiert. Die Prädiktorparametersignale a, des Rpl^nens gelangen über die Verzögerungsschaltung 133 an den einen Eingang des Multiplexers 135, so daß der Rahmen-Erregungscode vom Codierer 131 mit ihnen in geeigneter Weise gemultiplext wird.
Die Erfindung wurde unter Bezugnahme auf spezielle Ausführungsbeispiele beschrieben-. Im Rahmen der Erfindung sind jedoch abweichende Ausführungsformen möglich. Beispielsweise wurden bei den hier beschriebenen Ausführungsbeispielen lineare Prädiktorparameter und ein Prädiktor- oder Voraussagerest verwendet. Die linearen Prädiktorparameter können durch Formantparameter oder andere bekannte Sprachparameter ersetzt werden. Die Voraussagefilter können dann so angeordnet sein, daß sie auf die verwendeten Sprachparameter und das Sprachsignal ansprechen, so daß das in der Schaltung 120 nach Fig. 1 gebildete Erregungssignal in Kombination mit den SprachparameterSignalen dazu verwendet wird, eine Kopie des Sprachmusters in dem Rahmen gemäß der Erfindung zusammenzusetzen. Die Codierungsanordnung nach
BAD
der Erfindung kann erweitert werden auf andere sequentielle Muster, wie z. B. biologische oder geologische Muster, um aus diesen eine effiziente Darstellung zu gewinnen.
Anhang A
C THIS' SUBROUTINE IMPLEMENTS BOX NOS 125-FIG. C ++++++ CORRELATION SIGNAL GENERATOR +*++++
COMMON Y(110),YHAT(110),H( 15 )·, CK 110) , A( 15 ) ,F( 16) , SBETA(12),M(12) INTEGER I,K,Q,QSTAR,QMAX
DATA NLPC/16/,KMAX/15/,NMA X/110/, CQM AX/9 5/,A LPHA/O.85/,IMAX/12/
C++++ COMPUTE COEFFICIENTS FOR THE PREDICTIVE FILTER G=1
D010U=1,NLPC G=G*AL'PHA F(K)=A(K)*G
3OX 305 FIG.
COMPUIE IMPULSE RESPONSE OF
PREDICTIVE FILTER H(Z) H(O) IS STORED AS H( 1) ,1UD IS
STORED ,AS H(2) , AND SO ON
D0102K=2,NLPC ■ H(K)=O
DO102I=1,K-1 H(K)=H(K)+F(I)*H(K-I)
D010.3K = NLPC+1 ,KMAX H(K)=O
D0103I=1,NLPC H(K)=H(K)+F(I)*H(K-I)
SUMSQH=O D0104K=1,KKAX SUMSQH = SUMS2H+HCO*H(K)
C++++ SET INITIAL EXCITATION SIGNAL COUNT - BOX 1 = 1
0 = 1
Q=1
CONTINUE
C++++ COMPUTE CORRELATION SIGNAL - BOX DO2OU'-2,NKAX CI(Q)=CI(Q)+(Y(N)-YHAT(N))*H(N-Q+1)
IF(Q.LE.QMAX)GOT0200 CALL' Β0Χ127(Ι,SUMSQH)
1 = 1+1
IF(I.LE.IMAX)GOT0500
BAD ORIGINAL
RETURN
END
Anhang B
C THIS SUBROUTINE IMPLEMENTS BOX HOS 127 - FIG. C + + ++++ EXCITATION SIGNAL GENERATOR
COKMON Y(11O),YHAT(11O) ,H-<15),CI(11O>,A(16-,FC16'), £BETA(12),M(12)
INTEGER I,K,Q,QSTAR,QtUX
DATA ΝΙΡΟ/Ιδ/,ΚΜΑΧ/Ιδ/,ΙίΜΑΧ/ΙΙΟ/,ΟΜΑΧ^δ/, £ALPHA/0.85/, IMAX/12/ ·
FIND PEAK OF THE CORRELATION SIGNAL
BOX 315-325
0=1
QSTAR=O
CIQSTAR = O ,·
IF(ABS(CI(Q)).LT.ABS(CIQSTAR))3ΌΤ0301 · ·■ QSTAR=Q
CIQSTAR=CI(O) * .
Q=Q+1
IF(Q.LE.QKAX)G0T0300
M(I)=QSTAR
RETURN
END
Anhang C
C THIS SUBROUTINE IMPLEMENTS ROM 201 - FIG0 e ++++++ PREDICTIVE FILTER ++++'++
COMMON D( 110} ,H (15) ,BET AK 8 0), A ( 16) -,F( 1 6 ), εΡΗΙ(15)/ΒΕΙΑ(12)/Μ(12)
INTEGER I,K,Q,QSTAa,QMAX
DATA NLPC/ie/fKMAX/IS/fNMAX/iiO/fQMltX/aO/, CALiHA-/0.85/, IM ΑΧ/1-2/
C++++ READ PREDICTIVE RESIDUAL SIGNAL - BOX CALL INPUT (D(29),80)
C++++ REHD PREDICTION PARAMETERS - BDX 420 . CALL INPUT(A,15) .
COMPUTE COEFFICIENTS FDR THF. PREDICTIVE C++++ FILTER - BOX 425
G= 1
D0101K=1,NLPC
G=G*ALPHA
F(K)=A(K)*G
C++++ COMPUTE IMPULSE RESPONSE OF PREDICTIVE
C++++ FILTER H(Z)
C++++ -H(O) IS STORED AS H(D , H(D C++++ IS STORED AS H(2), AND SO ON
C++++ BOX H(1)a1 D0102K=2,NL?C H(K)=O D0102I=1,K-1 H(K)=H(K)+F(I)*H(K-I)
DO103K=NL°v+1,KMAX H(K)=O D0103I=1,NLPC H(K)=H(K)+F(I)*H(K-I)
C+ + + + COMPUTE AUTOCORRELATION FUNCTION' SIGNALS C++++ BOX 435
DOIOHK=I,KMAX PHI(K)=O DOIOUN=K,KMAX PHI(K)=PHI(K)+H(N)*H(N+K-1)
RETURN END
Anhang D
C THIS SUBROUTINE IMPLEMENTS ROM 205 - FIG. 2 C ++++++ EXCITATION PROCESSING ++++++.
COFMON D( 110) ,H(15)>BETAI(80),A(16), ε PHK15),EETA(12), Mi 12)
INTEGER I,K,Q,QSTAR,QKAX
DATA. NLPC/16/,KMAX/15/,NMAX/110/,2MAX/90/, &ALPHA/0.85/, IMAX/12/
C++++ COMPUTE INITIAL BETAI SIGNAL (1=1) C++++ TESM NO 1 EQUATION 10 AND BOX 515
DO105Q=1,0MAX
BETAI(Q)=O
DO105N=Q,Q+2*KMAX-2
K=N-KMAX+1
105 B ETAI (Q)=BETAI(Q)+D(N)*PHI(1 + IA3S(K-Q))
C++++ SET INITIAL EXCITATION SIGNAL COUNT - EOX 505 1 = 1 · .
CONTINUE BEIAMAX=O
CONTINUE
C++++ COMPUTE BETAI SIGNAL IF(I. EQ. 1 )G.OTO300
- BO* 515
D0201J=1,1-1
.BETaIO) = BEIAI(Q) -BETA(J)-PHI (1+IABS(M(J) -Q))
C++++ FIND PEAK OF THE BETAI SIGNAL - BOX 520-525 IF(ABS(BETAI(Q)).LT.BETAMAX)G0T0301
M(I)=Q ·
BETAXAXeABS(BETAI(Q)) BEIA(I)=BETAI(Q)/PHI(I) '
Q=2+1
IFQ.LE.3MAX)GOTO2OO ·
1 = 1+1
IF(I.LE.IMAX)GOT0500
CALL OUTPUT(BETa,IMAX)
CALL OUTPUT(M,IMAX) ■ ·
D05K=1,29 ■ ' -
D.(K) = D(K+30)'-
REIURH " . '
END

Claims (1)

  1. BLUMBACH · W&S&R ^B£'RG^s%-. KRAMER ZWIRNER · HOFFfVIANN
    PATENTANWÄLTE IN MÜNCHEN UND WIESBADEN
    Patenlconsult RadeckestraOe 43 800D München 60 Telefon (089) 883603/883604 Telex 05-212313 Telegramme Patentconsult Patentconsult Sonnenborger Straße 43 6200 Wiesbaden Telefon (06121) 562943/561998 Telex 04-186237 Telegramme Patentconsult
    Western Electric Company, Incorporated New York, N.Y., USA
    Patentansprüche
    1. Verfahren zum Verarbeiten eines sequentiellen Musters, bei dem das sequentielle Muster in aufeinanderfolgende Zeitintervalle aufgeteilt wird und ein für jedes Zeitintervall des sequentiellen Musters repräsentatives Signal erzeugt wird,
    dadurch gekennzeichnet·, daß für das Intervall ein für ein künstliches Muster repräsentatives Signal erzeugt wird, daß ein Signal gebildet wird, welches geeignet ist, den Unterschied zwischen dem für das sequentielle Muster und dem für das künstliche Muster repräsentativen Signal für das Intervall zu verringern, und daß das gebildete Signal zum Zusammensetzen einer Kopie des sequentiellen Musters des Intervalls verwendet wird»
    München: R. Kramer Dipl.-'.ng.. V/. Weser Ofpl.-Phys. Df. rer. nat. . E. Hoffmann Dipl.-Ing. Wiesbaden: P. G. Blumbadi Dlpl.-Ing. · P. Bergen Prof. Dr jur. Dipl.-Ing., Pot.-Ass.. Pet.-Anw.bis 1979 . G. Zwirner Dipl.-Ing. Dipl.-W.-Ing.
    2. Verfahren zum Verarbeiten eines Sprachmusters nach Anspruch 1,
    dadurch gekennzeichnet , daß das zum Verringern des Unterschieds geeignete Signal dadurch gebildet wird, daß ein den Unterschieden zwischen dem für die Sprache in dem Intervall und dem für künstliche Sprache repräsentativen Signal entsprechendes Signal erzeugt wird, und daß ein Signal gebildet wird, welches sich zum Modifizieren des für die künstliche Sprache repräsentativen Signals eignet, um das dem Unterschied entsprechende Signal zu verringern.
    3. Verfahren nach Anspruch 2,
    dadurch gekennzeichnet, daß zum Erzeugen eines für die Sprache repräsentativen Signals ein Satz von Sprachparametersignalen erzeugt wird, die repräsentativ für das Sprachmuster in dem Intervall sind, und ansprechend.auf die Sprachparametersignale und das Sprachmuster ein für die Sprache repräsentatives Signal erzeugt wird, daß zum Erzeugen eines für die künstliche Sprache repräsentativen Signals ansprechend auf die Sprachparametersignale das für künstliche Sprache in dem Intervall
    repräsentative Signal gebildet wird, und daß zusn Bilden des Signals ansprechend auf das dem Unterschied entsprechende Signal ein erstes Signal erzeugt und ansprechend auf das erste Signal das für die künstliche Sprache in.dem Intervall repräsentative Signal modifiziert wird, · ·
    4„ Verfahren nach Anspruch 3, . '\ dadurch gekennzeichnet , daß beim Erzeugen der Sprachparametersignale ein Satz von Signalen erzeugt wird, die repräsentativ für das Intervall-Sprachspektrum sind«
    5. Verfahren nach Anspruch 4, ■ "" " dadurch gekennzeichnet , daß' zum Erzeugen der Intervall-Sprachspektrum-Signale ansprechend auf das Intervall-Sprachmuster ein Satz von linearen Prädiktorpärametersignalen gebildet wird, daß zum Erzeugen des für die Sprache repräsentativen Signals ansprechend auf das Intervall-Sprachmuster und die linearen Prädiktorparametersignale des Intervalls ein Voraussage-Restsignal erzeugt und die Ii= nearen Prädiktorparametersignale mit den Voraussageparametersignalen kombiniert werden? und daß zum Er-
    -A-
    zeugen des ersten Signals ansprechend auf das der Differenz entsprechende Signal ein codiertes Signal mit wenigstens einem Element erzeugt und ansprechend auf das codierte Signalelement das für die künstliche Sprache in dem Intervall repräsentative Signal modifiziert wird.
    6. Verfahren nach Anspruch 5,
    dadurch gekennzeichnet , daß zum Erzeugen des ersten Signals ansprechend auf das dem Unterschied entsprechende Signal mit einer vorbestimmten Häufigkeit ein codiertes Signalelement erzeugt wird und ansprechend auf die codierten Signalelemente das für die künstliche Sprache in dem·Intervall repräsentative Signal modifiziert wird.
    7. Verfahren nach Anspruch 6,
    dadurch gekennzeichnet , daß zum Erzeugen des dem Unterschied entsprechenden Signals ein Signal erzeugt wird, welches kennzeichnend ist für die Korrelation zwischen dem für die Sprache in dem Intervall und dem für die künstliche Sprache in dem Intervall repräsentativen Signal.
    8. Verfahren nach Anspruch 5, "
    dadurch gekennzeichnet , zum Erzeugen des dem unterschied entsprechenden Sig~ nals ein Signal erzeugt wird„ welches kennzeichnend ist für das mittlere Differenzquädrat zwischen-dem für die Sprache in dem Intervall und dem für. die künstliche Sprache repräsentativen Signal,.
    S. Verfahren nach Anspruch 2„
    dadurch gekennzeichnet g daß ein codiertes Signal erzeugt wird, welches sich zwecks Verringerung des dem Unterschied entsprechenden Signals zum Modifizieren des für die künstliche Sprache repräsentativen Signals eignet.
    10» Verfahren nach Anspruch 9
    dadurch gekennzeichnet , «Saß . das erzeugte codierte Signal und die Sprachparametersignale kombiniert werden, um ein für das Sprachmuster repräsentatives codiertes Signal zu erzeugen.
    11. Verfahren nach Anspruch 9,
    dadurch gekennzeichnet e daß beim Erzeugen des Sprachmustersignals ansprechend auf
    ein Rahmen-Sprachmuster ein Satz von linearen torparametersignalen für den Rahmen erzeugt wird, daß zum Erzeugen des für die Sprache in dem Rahmen repräsentativen Signals ansprechend auf die linearen PrädiktorparameterSignaIe des Rahmens und das Rahmen-Sprachmuster ein Voraussage-Restsignal erzeugt wird, und daß das für die Sprache in dem Rahmen repräsentative Signal ansprechend auf die linearen Prädiktorparametersignale des Rahmens und das Rahmen-Voraussagerestsignal gebildet wird.
    12. Verfahren nach Anspruch 11,
    dadurch gekennzeichnet, daß beim Erzeugen des codierten Signals ansprechend auf das dem Unterschied entsprechende Signal ein codiertes Signal mit wenigstens einem Element erzeugt wird, und daß ansprechend auf die codierten Signalelemente das für die künstliche Sprache in dem Rahmen repräsentative Signal modifiziert wird.
    13. Verfahren nach Anspruch 11,
    dadurch gekennzeichnet , daß beim Erzeugen des Signals ansprechend auf das dem Unterschied entsprechende Signal ein mehrere Elemente
    32U476
    enthaltendes codiertes Signal durch skuzessives Erzeugen eines codierten Signalelements erzeugt wird/ und daß ansprechend auf die codierten Signalelemente das für die künstliche Sprache repräsentative Signal modifiziert wird.
    14. Verfahren nach einem der Ansprüche 2 bis 13, dadurch gekennzeichnet, daß das gebildete Signal zum Zusammensetzen einer Kopie des Intervall-Sprachmusters verwendet wird.
    15. Prozessor für sequentielle Muster, mit einer Einrichtung zum Aufteilen eines sequentiellen Musters in aufeinanderfolgende Zeitintervalle und einer Einrichtung zum Erzeugen eines für das sequentielle Muster repräsentativen Signals für jedes Zeitintervall,
    gekennzeichnet durch eine Einrichtung zum Erzeugen eines künstlichen Sprachmusters für das Intervall, eine Signalbildungseinrichtung zum Bilden eines Signals, welches geeignet ist, den Unterschied zwischen dem für das sequentielle Muster repräsentativen Signal und dem künstlichen Signal zu verringern, und eine Einrichtung, die unter Verwendung des gebildeten Signals
    eine Kopie des sequentiellen Musters des Intervalls zusammensetzt.
    16.) Sprachprozessor, mit einer Einrichtung zum Unterteilen eines Sprachmusters in aufeinanderfolgende Zeitintervalle und einer Einrichtung zum Erzeugen eines für das Sprachmuster jedes Intervalls repräsentativen Signals,
    gekennzeichnet durch eine Einrichtung zum Erzeugen eines für eine künstliche Sprache repräsentativen Signals für das Zeitintervall, eine Einrichtung zum Erzeugen eines Signals, welches den Unterschieden zwischen dem für die Sprache in dem Intervall und dem für die künstliche Sprache repräsentativen Signal entspricht, und eine Einrichtung zum Bilden eines Signals, welches geeignet ist, das für die kürfitliche Sprache repräsentative Signal zum Verringern des dem Unterschied entsprechenden Signals zu modifizieren.
    17. Sprachprozessor nach Anspruch 16, dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen eines für die Sprache repräsentativen Signals eine Einrichtung besitzt zum Erzeugen eines Satzes von Sprachparametersignalen
    für das Sprachmuster in dem Intervall und eine Einrichtung, die auf die Sprachparametersignale und das Sprachmuster anspricht, um das für die Sprache repräsentative Signal zu erzeugen, daß die Einrichtung zum Erzeugen eines für die künstliche Sprache repräsentativen Signals eine Einrichtung enthält, die auf die Sprachparametersignale anspricht, um das für die künstliche Sprache in dem Intervall repräsentative Signal zu bilden, und daß die Signalbildungs» schaltung eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung aufweist, die ein erstes Signal erzeugt, und eine Einrichtung enthält, die auf das erste Signal anspricht, um das für die künstliche Sprache in dem Intervall repräsentative Signal zu modifizieren. , - ■_
    18. Sprachprozessor nach Anspruch 17, . dadurch gekennzeichnet, daß die Einrichtung zum Erzeugen des Sprachparämetersignals eine Einrichtung enthält zum Erzeugen eines Satzes von Signalen, der repräsentativ ist für das Sprachmusterspektrum des Intervalls.
    19. Sprachprozessor nach Anspruch 18,
    dadurch gekennz ei chnet, daß
    die Einrichtung zum Erzeugen des Sprachparametersig* nals eine auf das Sprachmuster des Intervalls ansprechende Einrichtung enthält, die einen Satz von linearen Prädiktorparametersignalen erzeugt, daß die Einrichtung., zum Erzeugen eines für die Sprache repräsentativen Signals eine auf das Sprachmuster des
    Intervalls und die linearen Prädiktorparametersigna-Ie ansprechende Einrichtung aufweist, die ein Voraussagerestsignal erzeugt, und eine Einrichtung enthält ,zum Kombinieren der linearen Prädiktorparametersignale des Intervalls mit dem Voraussagerestsignal, um das für die Sprache in dem Intervall repräsentative Signal zu bilden, und daß die Einrichtung zum Erzeugen des ersten Signals eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung aufweist, die ein codiertes Signal erzeugt, welches wenigstens ein Element aufweist, und eine Einrichtung besitzt,
    die auf das codierte Signalelement anspricht, um das künstliche Signal des Intervalls zu modifizieren.
    20. Sprachprozessor nach Anspruch 19,
    dadurch gekennzeichnet , daß
    die Einrichtung zum Erzeugen des ersten Signals eine N-mal betätigte Einrichtung aufweist, um ansprechend
    auf das dem Unterschied entsprechende Signal zum Erzeugen eines codierten Signalelements ein N Elemente aufweisendes codiertes Signal zu"erzeugen,.und daß eine auf das codierte Signalelement ansprechende Einrichtung vorgesehen ist, die das für die künstliche Sprache in dem Intervall repräsentative Signal modifiziert. V
    21. Sprachprozessor nach Anspruch 20,
    dadurch gekennzeichnet ,- daß die Einrichtung zum Erzeugen des dem Unterschied entsprechenden Signals eine Einrichtung aufweist zum Erzeugen eines Signals, welches kennzeichnend ist für die Korrelation zwischen dem für die Sprache des Intervalls und dem für die künstliche Sprache repräsentativen Signal.
    22. Sprachprozessor nach Anspruch 15,
    dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des dem Unterschied entsprechenden Signals eine Einrichtung aufweist sum Erzeugen eines Signals, welches kennzeichnend ist für das mittlere Differenzquadrat zwischen dem für die Sprache in dem Intervall und dem für die künstli-
    - 12 ehe Sprache repräsentativen Signal.
    23. Sprachprozessor nach Anspruch 16, gekennzeichnet durch eine Einrichtung zum Erzeugen eines codierten Signals, welches geeignet ist, zwecks Verkleinerung des dem Unterschied entsprechenden Signals das für die künstliche Sprache repräsentative Signal zu modifizieren.
    24. Sprachprozessor nach Anspruch 23, gekennzeichnet durch eine Einrichtung zum Kombinieren des erzeugten codierten Signals und der Sprachparametersignale, um ein für das Sprachmuster repräsentatives codiertes Signal zu bilden.
    25. Sprachprozessor nach Anspruch 23,
    dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen der Sprachparametersignale eine auf das Sprachmuster ansprechende Einrichtung enthält, die einen Satz von linearen Prädiktorparametersignalen erzeugt, daß die Einrichtung zum Erzeugen eines für die Sprache repräsentativen Signals eine auf die linearen Prädiktorparametersignale und das Sprachmuster ansprechende Einrichtung enthält, die
    ein Voraussagerestsignal erzeugt, und daß eine Einrichtung vorgesehen ist, die auf die linearen Prädiktorparametersignale und das Voraussagerestsignal anspricht, um das für die Sprache repräsentative Signal zu bilden.
    26. Sprachprozessor nach Anspruch 25,
    dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des codierten Signals eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung aufweist, um ein codiertes Signal mit wenigstens einem Element zu erzeugen, und eine Einrichtung enthält, die auf das codierte Signalelement anspricht und in der Lage ist, das für die künstliche Sprache repräsentative Signal zu modifizieren. -----
    27. Sprachprozessor nach Anspruch 25,
    dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des codierten Signals eine Einrichtung enthält zum Erzeugen eines mehrere Elemente enthaltenden codierten Signals mit einer Einrichtung,, die sukzessive arbeitet, um ansprechend auf das dem Unterschied entsprechende Signal ein codier-
    tes Signalelement zu erzeugen, und zum Modifiziereil des für die künstliche Sprache repräsentativen Signals in Abhängigkeit der codierten Signalelemente.
    28. Sprachprozessor nach Anspruch 16, gekennzeichnet durch eine auf das dem Unterschied entsprechende Signal ansprechende Einrichtung zum Erzeugen eines codierten Erregungssignals für das Intervall und zum Anlegen des codierten Erregungssignals an die Einrichtung zum Erzeugen eines für die künstliche Sprache repräsentativen Signals, um das dem Unterschied entsprechende Signal zu verringern.
    29. Sprachprozessor nach Anspruch 28, gekennzeichnet durch eine auf das codierte Erregungssignal und die Prädiktorparametersignale ansprechende Einrichtung zum Zusammensetzen einer Kopie des Sprachmusters.
    30. Sprachprozessor nach Anspruch 28 oder 29, dadurch gekennzeichnet , daß die Einrichtung zum Erzeugen des codierten Erregungssignals eine Einrichtung enthält, die sukzessive ar-
    beitet, um ein mehrere Elemente enthaltendes codiertes Signal zu erzeugen und die auf das dem Unterschied entsprechende Signal anspricht,, um ein Element des mehrere Elemente enthaltenden Codes zu bilden, und um ansprechend auf die codierten Signalelemente das für die künstliche Sprache repräsentative Signal zu modifizieren.
DE19823244476 1981-12-01 1982-12-01 Digitaler sprachprozessor Granted DE3244476A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US06/326,371 US4472832A (en) 1981-12-01 1981-12-01 Digital speech coder

Publications (2)

Publication Number Publication Date
DE3244476A1 true DE3244476A1 (de) 1983-07-14
DE3244476C2 DE3244476C2 (de) 1988-01-21

Family

ID=23271926

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19823244476 Granted DE3244476A1 (de) 1981-12-01 1982-12-01 Digitaler sprachprozessor

Country Status (8)

Country Link
US (1) US4472832A (de)
JP (2) JPS6046440B2 (de)
CA (1) CA1181854A (de)
DE (1) DE3244476A1 (de)
FR (1) FR2517452B1 (de)
GB (1) GB2110906B (de)
NL (1) NL193037C (de)
SE (2) SE456618B (de)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4720863A (en) * 1982-11-03 1988-01-19 Itt Defense Communications Method and apparatus for text-independent speaker recognition
JPS59153346A (ja) * 1983-02-21 1984-09-01 Nec Corp 音声符号化・復号化装置
EP0119033B1 (de) * 1983-03-11 1987-04-15 Prutec Limited Sprachcodiereinrichtung
US4731846A (en) * 1983-04-13 1988-03-15 Texas Instruments Incorporated Voice messaging system with pitch tracking based on adaptively filtered LPC residual signal
US4667340A (en) * 1983-04-13 1987-05-19 Texas Instruments Incorporated Voice messaging system with pitch-congruent baseband coding
US4638451A (en) * 1983-05-03 1987-01-20 Texas Instruments Incorporated Microprocessor system with programmable interface
CA1219079A (en) * 1983-06-27 1987-03-10 Tetsu Taguchi Multi-pulse type vocoder
US4669120A (en) * 1983-07-08 1987-05-26 Nec Corporation Low bit-rate speech coding with decision of a location of each exciting pulse of a train concurrently with optimum amplitudes of pulses
NL8302985A (nl) * 1983-08-26 1985-03-18 Philips Nv Multipulse excitatie lineair predictieve spraakcodeerder.
CA1236922A (en) * 1983-11-30 1988-05-17 Paul Mermelstein Method and apparatus for coding digital signals
CA1223365A (en) * 1984-02-02 1987-06-23 Shigeru Ono Method and apparatus for speech coding
US4701954A (en) * 1984-03-16 1987-10-20 American Telephone And Telegraph Company, At&T Bell Laboratories Multipulse LPC speech processing arrangement
EP0163829B1 (de) * 1984-03-21 1989-08-23 Nippon Telegraph And Telephone Corporation Sprachsignaleverarbeitungssystem
US4709390A (en) * 1984-05-04 1987-11-24 American Telephone And Telegraph Company, At&T Bell Laboratories Speech message code modifying arrangement
JPS60239798A (ja) * 1984-05-14 1985-11-28 日本電気株式会社 音声信号符号化/復号化装置
US4872202A (en) * 1984-09-14 1989-10-03 Motorola, Inc. ASCII LPC-10 conversion
CA1249061A (en) * 1984-12-25 1989-01-17 Takashi Mochizuki Method and apparatus for encoding/decoding image signal
US4675863A (en) 1985-03-20 1987-06-23 International Mobile Machines Corp. Subscriber RF telephone system for providing multiple speech and/or data signals simultaneously over either a single or a plurality of RF channels
FR2579356B1 (fr) * 1985-03-22 1987-05-07 Cit Alcatel Procede de codage a faible debit de la parole a signal multi-impulsionnel d'excitation
NL8500843A (nl) * 1985-03-22 1986-10-16 Koninkl Philips Electronics Nv Multipuls-excitatie lineair-predictieve spraakcoder.
US4944013A (en) * 1985-04-03 1990-07-24 British Telecommunications Public Limited Company Multi-pulse speech coder
US4912764A (en) * 1985-08-28 1990-03-27 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech coder with different excitation types
US4890328A (en) * 1985-08-28 1989-12-26 American Telephone And Telegraph Company Voice synthesis utilizing multi-level filter excitation
US4720861A (en) * 1985-12-24 1988-01-19 Itt Defense Communications A Division Of Itt Corporation Digital speech coding circuit
US4827517A (en) * 1985-12-26 1989-05-02 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech processor using arbitrary excitation coding
USRE34247E (en) * 1985-12-26 1993-05-11 At&T Bell Laboratories Digital speech processor using arbitrary excitation coding
US4935963A (en) * 1986-01-24 1990-06-19 Racal Data Communications Inc. Method and apparatus for processing speech signals
CA1323934C (en) * 1986-04-15 1993-11-02 Tetsu Taguchi Speech processing apparatus
US4868867A (en) * 1987-04-06 1989-09-19 Voicecraft Inc. Vector excitation speech or audio coder for transmission or storage
US4969192A (en) * 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
US4890327A (en) * 1987-06-03 1989-12-26 Itt Corporation Multi-rate digital voice coder apparatus
US4817157A (en) * 1988-01-07 1989-03-28 Motorola, Inc. Digital speech coder having improved vector excitation source
US4896361A (en) * 1988-01-07 1990-01-23 Motorola, Inc. Digital speech coder having improved vector excitation source
US5285520A (en) * 1988-03-02 1994-02-08 Kokusai Denshin Denwa Kabushiki Kaisha Predictive coding apparatus
JP2625998B2 (ja) * 1988-12-09 1997-07-02 沖電気工業株式会社 特徴抽出方式
SE463691B (sv) * 1989-05-11 1991-01-07 Ericsson Telefon Ab L M Foerfarande att utplacera excitationspulser foer en lineaerprediktiv kodare (lpc) som arbetar enligt multipulsprincipen
US5261027A (en) * 1989-06-28 1993-11-09 Fujitsu Limited Code excited linear prediction speech coding system
JPH0332228A (ja) * 1989-06-29 1991-02-12 Fujitsu Ltd ゲイン―シェイプ・ベクトル量子化方式
US5263119A (en) * 1989-06-29 1993-11-16 Fujitsu Limited Gain-shape vector quantization method and apparatus
JPH0365822A (ja) * 1989-08-04 1991-03-20 Fujitsu Ltd ベクトル量子化符号器及びベクトル量子化復号器
US5235669A (en) * 1990-06-29 1993-08-10 At&T Laboratories Low-delay code-excited linear-predictive coding of wideband speech at 32 kbits/sec
SE467806B (sv) * 1991-01-14 1992-09-14 Ericsson Telefon Ab L M Metod att kvantisera linjespektralfrekvenser (lsf) vid beraekning av parametrar foer ett analysfilter ingaaende i en talkodare
US5301274A (en) * 1991-08-19 1994-04-05 Multi-Tech Systems, Inc. Method and apparatus for automatic balancing of modem resources
US5659659A (en) * 1993-07-26 1997-08-19 Alaris, Inc. Speech compressor using trellis encoding and linear prediction
US5546383A (en) 1993-09-30 1996-08-13 Cooley; David M. Modularly clustered radiotelephone system
US5602961A (en) * 1994-05-31 1997-02-11 Alaris, Inc. Method and apparatus for speech compression using multi-mode code excited linear predictive coding
AU696092B2 (en) * 1995-01-12 1998-09-03 Digital Voice Systems, Inc. Estimation of excitation parameters
SE508788C2 (sv) * 1995-04-12 1998-11-02 Ericsson Telefon Ab L M Förfarande att bestämma positionerna inom en talram för excitationspulser
JP3137176B2 (ja) * 1995-12-06 2001-02-19 日本電気株式会社 音声符号化装置
DE19643900C1 (de) * 1996-10-30 1998-02-12 Ericsson Telefon Ab L M Nachfiltern von Hörsignalen, speziell von Sprachsignalen
US5839098A (en) 1996-12-19 1998-11-17 Lucent Technologies Inc. Speech coder methods and systems
US5832443A (en) * 1997-02-25 1998-11-03 Alaris, Inc. Method and apparatus for adaptive audio compression and decompression
US6003000A (en) * 1997-04-29 1999-12-14 Meta-C Corporation Method and system for speech processing with greatly reduced harmonic and intermodulation distortion
US7392180B1 (en) 1998-01-09 2008-06-24 At&T Corp. System and method of coding sound signals using sound enhancement
US6182033B1 (en) 1998-01-09 2001-01-30 At&T Corp. Modular approach to speech enhancement with an application to speech coding
US5963897A (en) * 1998-02-27 1999-10-05 Lernout & Hauspie Speech Products N.V. Apparatus and method for hybrid excited linear prediction speech encoding
US6516207B1 (en) * 1999-12-07 2003-02-04 Nortel Networks Limited Method and apparatus for performing text to speech synthesis
US7295614B1 (en) 2000-09-08 2007-11-13 Cisco Technology, Inc. Methods and apparatus for encoding a video signal
JP4209257B2 (ja) 2003-05-29 2009-01-14 三菱重工業株式会社 分散型コントローラとその動作方法、及び、分散型コントローラを備えるフォークリフト
EP2595146A1 (de) * 2011-11-17 2013-05-22 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Verfahren und Vorrichtung zur Untersuchung der Verständlichkeit eines verrauschten Sprachsignals

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3624302A (en) * 1969-10-29 1971-11-30 Bell Telephone Labor Inc Speech analysis and synthesis by the use of the linear prediction of a speech wave
DE2435654A1 (de) * 1974-07-24 1976-02-05 Gretag Ag Verfahren und vorrichtung zur analyse und synthese von menschlicher sprache

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3346695A (en) * 1963-05-07 1967-10-10 Gunnar Fant Vocoder system
US3740476A (en) * 1971-07-09 1973-06-19 Bell Telephone Labor Inc Speech signal pitch detector using prediction error data
JPS5246642A (en) * 1975-10-09 1977-04-13 Mitsubishi Metal Corp Swimming pool
JPS5343403A (en) * 1976-10-01 1978-04-19 Kokusai Denshin Denwa Co Ltd System for analysing and synthesizing voice
US4130729A (en) * 1977-09-19 1978-12-19 Scitronix Corporation Compressed speech system
US4133976A (en) * 1978-04-07 1979-01-09 Bell Telephone Laboratories, Incorporated Predictive speech signal coding with reduced noise effects
US4184049A (en) * 1978-08-25 1980-01-15 Bell Telephone Laboratories, Incorporated Transform speech signal coding with pitch controlled adaptive quantizing
JPS5648690A (en) * 1979-09-28 1981-05-01 Hitachi Ltd Sound synthesizer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3624302A (en) * 1969-10-29 1971-11-30 Bell Telephone Labor Inc Speech analysis and synthesis by the use of the linear prediction of a speech wave
DE2435654A1 (de) * 1974-07-24 1976-02-05 Gretag Ag Verfahren und vorrichtung zur analyse und synthese von menschlicher sprache

Also Published As

Publication number Publication date
NL8204641A (nl) 1983-07-01
SE8704178D0 (sv) 1987-10-27
JPS6156400A (ja) 1986-03-22
SE8206641L (sv) 1983-06-02
JPS6046440B2 (ja) 1985-10-16
NL193037C (nl) 1998-08-04
SE8704178L (sv) 1987-10-27
FR2517452B1 (fr) 1986-05-02
GB2110906A (en) 1983-06-22
CA1181854A (en) 1985-01-29
JPS58105300A (ja) 1983-06-23
SE467429B (sv) 1992-07-13
JPH0650437B2 (ja) 1994-06-29
DE3244476C2 (de) 1988-01-21
NL193037B (nl) 1998-04-01
GB2110906B (en) 1985-10-02
US4472832A (en) 1984-09-18
SE8206641D0 (sv) 1982-11-22
FR2517452A1 (fr) 1983-06-03
SE456618B (sv) 1988-10-17

Similar Documents

Publication Publication Date Title
DE3244476A1 (de) Digitaler sprachprozessor
DE3041423C1 (de) Verfahren und Vorrichtung zur Verarbeitung eines Sprachsignals
DE2945414C2 (de) Sprachsignal-Voraussageprozessor und Verfahren zur Verarbeitung eines Sprachleistungssignals
DE19811039B4 (de) Verfahren und Vorrichtungen zum Codieren und Decodieren von Audiosignalen
DE2115258C3 (de) Verfahren und Anordnung zur Sprachsynthese aus Darstellungen von individuell gesprochenen Wörtern
DE69910240T2 (de) Vorrichtung und verfahren zur wiederherstellung des hochfrequenzanteils eines überabgetasteten synthetisierten breitbandsignals
DE19647298C2 (de) Kodiersystem
CA1222568A (en) Multipulse lpc speech processing arrangement
DE69633944T2 (de) Verfahren und gerät zum kodieren von digitalen daten
DE19604273C2 (de) Verfahren und Vorrichtung zum Durchführen einer Suche in einem Kodebuch im Hinblick auf das Kodieren eines Klangsignales, Zellkommunikationssystem, Zellnetzwerkelement und mobile Zell-Sender-/Empfänger-Einheit
DE60121405T2 (de) Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen
DE69631318T2 (de) Verfahren und Vorrichtung zur Erzeugung von Hintergrundrauschen in einem digitalen Übertragungssystem
DE3036680C2 (de) Sprachsynthesizer mit dehnbarer und komprimierbarer Sprachzeit
DE69735097T2 (de) Verfahren und vorrichtung zur verbesserung der sprachqualität in tandem-sprachkodierern
DE60219351T2 (de) Signaländerungsverfahren zur effizienten kodierung von sprachsignalen
DE602004006211T2 (de) Verfahren zur Maskierung von Paketverlusten und/oder Rahmenausfall in einem Kommunikationssystem
DE69932460T2 (de) Sprachkodierer/dekodierer
DE2229149A1 (de) Verfahren zur Übertragung von Sprache
DE69820362T2 (de) Nichtlinearer Filter zur Geräuschunterdrückung in linearen Prädiktions-Sprachkodierungs-Vorrichtungen
DE69033510T3 (de) Numerischer sprachcodierer mit verbesserter langzeitvorhersage durch subabtastauflösung
DE60309651T2 (de) Verfahren zur Sprachkodierung mittels verallgemeinerter Analyse durch Synthese und Sprachkodierer zur Durchführung dieses Verfahrens
EP1023777B1 (de) Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms
DE3019823C2 (de)
DE60101827T2 (de) Relative Pulsposition für einen CELP-Sprachkodierer
DE4491015C2 (de) Verfahren zum Erzeugen eines Spektralrauschbewertungsfilters zur Verwendung in einem Sprachcoder

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: AT & T TECHNOLOGIES, INC., NEW YORK, N.Y., US

D2 Grant after examination
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Free format text: BLUMBACH, KRAMER & PARTNER, 65193 WIESBADEN