DE19540859A1 - Removing unwanted speech components from mixed sound signal - Google Patents

Removing unwanted speech components from mixed sound signal

Info

Publication number
DE19540859A1
DE19540859A1 DE1995140859 DE19540859A DE19540859A1 DE 19540859 A1 DE19540859 A1 DE 19540859A1 DE 1995140859 DE1995140859 DE 1995140859 DE 19540859 A DE19540859 A DE 19540859A DE 19540859 A1 DE19540859 A1 DE 19540859A1
Authority
DE
Germany
Prior art keywords
components
speech components
sound signal
word
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1995140859
Other languages
German (de)
Inventor
Michael Pieper
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Thomson Brandt GmbH
Original Assignee
Deutsche Thomson Brandt GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Thomson Brandt GmbH filed Critical Deutsche Thomson Brandt GmbH
Priority to DE1995140859 priority Critical patent/DE19540859A1/en
Publication of DE19540859A1 publication Critical patent/DE19540859A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The method involves determining the word and/or set boundaries, analysing the speech components lying within the boundaries for the characteristics, and storing the data pattern sets representing the information contents of the speech components with minimal redundancy derived during a single or multiple learning phase. During the operating phases, the continuously analysed characteristics are compared with the stored data pattern sets, and are weighted with the inverse speech components if a coincidence or similarity is detected.

Description

Die Erfindung betrifft ein Verfahren zur Entfernung unerwünschter Sprachkomponenten aus einem Tonsignalgemisch nach dem Oberbegriff des Anspruchs 1.The invention relates to a method for removal unwanted speech components from a sound signal mixture the preamble of claim 1.

Bei Übertragung von Sportveranstaltungen wünschen manche Fernsehzuschauer, lediglich die Originalgeräuschkulisse zu hören, während der Kommentar eines Kommentators als störend empfunden wird. Sofern es sich um eine Stereoübertragung handelt, könnte der Kommentatorton zwar durch Differenzbildung der Signale der beiden Stereokanäle eliminiert werden, durch diese Maßnahme wird aber auch das Originalgeräusch bei Signalen verfälscht, die aus der Mitte kommen.When broadcasting sporting events, some wish TV viewers, just the original soundscape too hear while a commentator's comment is distracting is felt. Unless it's a stereo broadcast could act, the commentary tone could by difference the signals of the two stereo channels are eliminated by however, this measure also becomes the original noise for signals adulterated that come from the middle.

Der Erfindung liegt die Aufgabe zugrunde, Sprachkomponenten, die einem Tonsignal zugefügt wurden, unter Beibehaltung des ursprünglichen Tonsignals aus dem Tonsignalgemisch zu entfernen.The invention has for its object language components were added to a sound signal while maintaining the to remove the original sound signal from the sound signal mixture.

Diese Aufgabe wird bei einem Verfahren nach dem Oberbegriff des Anspruchs 1 durch die im kennzeichnenden Teil angegebenen Merkmale gelöst.This task is carried out in a method according to the preamble of Claim 1 by the specified in the characterizing part Features resolved.

Die erfindungsgemäße Lösung basiert auf der Überlegung, daß der Kommentatorton charakteristische Merkmale aufweist, wie z. B. typische Spektralkomponenten, in denen er sich von dem ursprünglichen Tonsignal im Tonsignalgemisch unterscheidet. Mit diesen Merkmalen gelingt daher eine hinreichende Beschreibung des Kommentatortons, ohne dabei sämtliche Wörter oder Wortkombinationen kennen zu müssen.The solution according to the invention is based on the consideration that the Commentary tone has characteristic features, such as. B. typical spectral components in which it differs from the original sound signal in the sound signal mixture differs. With these features are therefore adequately described of the commentary tone, without using all the words or Need to know combinations of words.

Die Wort- und/oder Satzgrenzen der Sprachkomponenten können durch Auswertung der Signalenergie und der Nulldurchgangsrate des analogen Tonsignalgemisches ermittelt werden. Damit gelingt es, die Zahl und Länge der Musterdatensätze zu begrenzen und kurze Rechen- und Reaktionszeiten zu erzielen. The word and / or sentence boundaries of the language components can by evaluating the signal energy and the zero crossing rate of the analog sound signal mixture can be determined. It works to limit the number and length of sample data sets and to achieve short computing and response times.  

Vorzugsweise wird die Analyse der Sprachkomponenten und der Vergleich mit Musterdatensätzen durch neuronale Netze durchgeführt. Neuronale Netze arbeiten ähnlich wie das menschliche Gehirn und zeichnen sich aufgrund der parallelen Arbeitsweise durch Echtzeitfähigkeit, Abstraktion und Lernfähigkeit aus.Preferably, the analysis of the language components and the Comparison with sample data sets by neural networks carried out. Neural networks work similarly to that human brain and stand out due to the parallel Working through real-time ability, abstraction and Ability to learn.

Nachfolgend wird das erfindungsgemäße Verfahren anhand der Zeichnung erläutert. In dieser zeigt:The method according to the invention is described below with reference to FIG Drawing explained. In this shows:

Fig. 1 ein einfaches Blockschaltbild und, Fig. 1 is a simple block diagram,

Fig. 2 ein Flußdiagramm zur Durchführung des Verfahrens. Fig. 2 is a flow chart for performing the method.

Fig. 1 zeigt den Tonsignalweg eines Fernsehempfängers, mit einem ein neuronales Netz umfassenden Signalprozessor. An den Eingang des Signalprozessors gelang das im Fernsehsignal enthaltene Tonsignalgemisch. Der Signalprozessor welcher durch ein Steuersignal der Fernbedienung des Fernsehempfängers ein- und ausschaltbar ist, eliminiert im eingeschalteten Zustand eine Sprachkomponente aus einem Tonsignalgemisch, die dem ursprünglichen Tonsignal zugemischt wurde. Fig. 1 shows the audio signal path of a television receiver, with a signal processor comprising a neural network. The audio signal mixture contained in the television signal succeeded at the input of the signal processor. The signal processor, which can be switched on and off by a control signal from the remote control of the television receiver, in the switched-on state eliminates a speech component from a sound signal mixture which was mixed into the original sound signal.

Fig. 2 zeigt ein Flußdiagramm zur Durchführung des Verfahrens. In einem ersten Verfahrensschritt werden aus dem Tonsignal Wortgrenzen der Sprachkomponenten ermittelt, indem die Signalenergie und der Nulldurchgangsrate des analogen Tonsignalgemisches ausgewertet wird. In einem zweiten Verfahrensschritt werden typische Merkmale der Sprachkomponenten analysiert. Dies kann durch eine Verarbeitung des digitalisierten Tonsignals im Zeit- oder Frequenzbereich erfolgen. In einer ein- oder mehrmaligen Lernphase als drittem Verfahrensschritt werden Parameter gewonnen, die den Informationsgehalt der Sprachkomponenten mit einem Minimum an Redundanz repräsentieren. Diese Parameter bestimmen den Merkmalsvektor, der das Sprachsignal für einen bestimmten Zeitabschnitt beschreibt, und werden als Musterdatensätze in einem vierten Verfahrensschritt gespeichert. Fig. 2 shows a flow chart for carrying out the method. In a first method step, word boundaries of the speech components are determined from the sound signal by evaluating the signal energy and the zero crossing rate of the analog sound signal mixture. In a second process step, typical features of the speech components are analyzed. This can be done by processing the digitized audio signal in the time or frequency domain. In a single or multiple learning phase as a third procedural step, parameters are obtained that represent the information content of the language components with a minimum of redundancy. These parameters determine the feature vector that describes the speech signal for a specific time period and are stored as sample data records in a fourth method step.

Sobald eine Datei mit ausreichend Musterdatensätzen vorhanden ist, müssen die Verfahrensschritte drei und vier nicht wiederholt werden.As soon as a file with sufficient sample data sets is available steps three and four do not have to be repeated.

In einem fünften Verfahrensschritt werden nun die laufend analysierten Merkmale mit den Musterdatensätzen verglichen und in einem sechsten Verfahrensschritt werden bei Übereinstimmung oder Ähnlichkeit mit gespeicherten Musterdatensätzen die im Tonsignalgemisch vorhandenen Sprachkomponenten mit inversen Sprachkomponenten gewichtet. Dadurch werden die unerwünschten Sprachkomponenten eliminiert, so daß nur noch das ursprüngliche Tonsignal erhalten bleibt.In a fifth step, they are now running analyzed features compared with the sample data sets and in a sixth step, if there is agreement or similarity with stored sample data records that are in the Sound signal mix existing speech components with inverse Language components weighted. This will make the unwanted Language components eliminated so that only the original The audio signal is retained.

Die Verfahrensschritte zwei bis sechs werden mittels eines neuronalen Netzes durch geführt. Ein neuronales Netz besteht aus einer Vielzahl gleichartiger Elemente, die sowohl Informationen speichern, sie verarbeiten als auch weiterleiten, und zwar tun sie dies prinzipiell alle gleichzeitig. Die Elemente werden als Neuronen in Analogie zu den Nervenzellen bezeichnet. Es gibt Netze, die vollständig verbunden sind oder Schichtenmodelle. Beim Schichtenmodell gibt es mehrere Ebenen, die das Netz untergliedern. In der Eingangsschicht sind die Eingänge der Neuronen mit der Außenwelt verbunden. Sie dienen der Eingabe von Daten in das Netz. Die Ausgänge der Neuronen der ersten Schicht sind mit den Neuronen der zweiten Schicht verbunden, deren Ausgänge mit den Eingängen der dritten Schicht. Ist die dritte Schicht die letzte Schicht, dann sind die Ausgänge der dritten Schicht gleichzeitig die Ausgänge des Netzes.Process steps two to six are carried out using a neural network performed by. A neural network consists of a large number of similar elements, both information save, process and forward them, and do so in principle they all do this at the same time. The elements are as Neurons in analogy to nerve cells. There are Networks that are fully connected or layered models. In the layer model, there are several levels that the network subdivide. In the input layer are the inputs of the Neurons connected to the outside world. They are used to enter Data in the network. The outputs of the first layer neurons are connected to the second layer neurons whose Outputs with the inputs of the third layer. Is the third Layer the last layer, then the outputs are the third Layer the outputs of the network at the same time.

Die Neuronen gewichten die Eingangssignale individuell. Die Gewichtung entspricht einem Multiplikationsfaktor, dessen Vorzeichen zugleich Erregung oder Hemmung verkörpert. Die Gewichtungsfaktoren sind zunächst zufällig initialisiert. Ein solches neuronales Netz kann die Lösung einer gewünschten Aufgabe, also im Anwendungsbeispiel die Elimination von unerwünschten Sprachkomponenten aus einem Tonsignalgemisch lernen, indem an die Eingänge des Netzes verschiedene gültige Eingangszustände angelegt werden. Im Anwendungsbeispiel handelt es sich um Sprachkomponenten, ursprüngliche Tonsignale ohne Sprachkomponenten und Tonsignalgemische aus ursprünglichen Tonsignalen mit Sprachkomponenten. Die Ausgangszustände entsprechen anfangs noch nicht den gewünschten Größen. Dann werden die Gewichtungsfaktoren solange geändert, bis das Ergebnis dem gewünschten ähnlicher wird oder ihm entspricht, also das ursprüngliche Tonsignal ohne Sprachkomponenten erscheint. Dies wird mit verschiedenen Eingangszuständen wiederholt. Ein mögliches Verfahren zur Ermittlung der notwendigen Veränderungen im Netz ist die Fehlerrückführung. Dabei wird die Differenz aus dem jeweiligen Ausgangssignal eines Ausgangsneurons und seinem Sollwert gebildet und so zur Veränderung der Parameter des Neurons und der Neuronen angewendet, von denen es seine Signale erhält.The neurons weight the input signals individually. The Weighting corresponds to a multiplication factor, the The sign also embodies excitement or inhibition. The weighting factors are initially randomized. Such a neural network can solve a desired one Task, i.e. in the application example the elimination of unwanted speech components from a sound signal mixture learn by applying various valid to the inputs of the network Input states are created. Acting in the application example  it is speech components, original sound signals without Speech components and sound signal mixtures from original Sound signals with speech components. The initial states initially do not match the desired sizes. Then the weighting factors are changed until the Result becomes more similar or corresponds to the desired one so the original sound signal without speech components appears. This comes with different input states repeated. A possible method for determining the The necessary changes in the network is fault feedback. The difference from the respective output signal is one Output neurons and its setpoint are formed and so for Change the parameters of the neuron and neurons from which it receives its signals.

Claims (3)

1. Verfahren zur Entfernung unerwünschter Sprachkomponenten aus einem Tonsignalgemisch, dadurch gekennzeichnet, daß Wort- und/oder Satzgrenzen der Sprachkomponenten ermittelt werden, daß die innerhalb der ermittelten Wort- und/oder Satzgrenzen liegenden Sprachkomponenten auf Merkmale analysiert werden, daß in einer ein- oder mehrmaligen Lernphase die Merkmale, die den Informationsgehalt der Sprachkomponenten mit einem Minimum an Redundanz repräsentieren, als Musterdatensätze gespeichert werden und daß in einer Betriebsphase die laufend analysierten Merkmale mit den Musterdatensätzen verglichen werden und bei Übereinstimmung oder Ähnlichkeit mit inversen Sprachkomponenten gewichtet werden.1. A method for removing unwanted speech components from a sound signal mixture, characterized in that word and / or sentence boundaries of the speech components are determined, that the speech components within the determined word and / or sentence boundaries are analyzed for features that in one or repeated learning phase, the characteristics that represent the information content of the language components with a minimum of redundancy, are saved as sample data sets and that in an operating phase the continuously analyzed characteristics are compared with the sample data sets and are weighted if they match or are similar to inverse language components. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Wort- und/oder Satzgrenzen der Sprachkomponenten durch Auswertung der Signalenergie und der Nulldurchgangsrate des analogen Tonsignalgemisches ermittelt werden.2. The method according to claim 1, characterized in that the Word and / or sentence boundaries of the language components Evaluation of the signal energy and the zero crossing rate of the analogue audio signal mixture can be determined. 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Analyse der Sprachkomponenten und der Vergleich mit Musterdatensätzen durch neuronale Netze durchgeführt wird.3. The method according to claim 1 or 2, characterized in that the analysis of the language components and the comparison with Pattern records are performed through neural networks.
DE1995140859 1995-11-03 1995-11-03 Removing unwanted speech components from mixed sound signal Withdrawn DE19540859A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1995140859 DE19540859A1 (en) 1995-11-03 1995-11-03 Removing unwanted speech components from mixed sound signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1995140859 DE19540859A1 (en) 1995-11-03 1995-11-03 Removing unwanted speech components from mixed sound signal

Publications (1)

Publication Number Publication Date
DE19540859A1 true DE19540859A1 (en) 1997-05-28

Family

ID=7776456

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1995140859 Withdrawn DE19540859A1 (en) 1995-11-03 1995-11-03 Removing unwanted speech components from mixed sound signal

Country Status (1)

Country Link
DE (1) DE19540859A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2796486A1 (en) * 1999-07-16 2001-01-19 Ibm Chosen word replacement speech editing technique having audio signal statistical word model memory with trial input compared and where match found innocuous word replaced.
DE10020756B4 (en) * 2000-04-27 2004-08-05 Harman Becker Automotive Systems (Becker Division) Gmbh Device and method for the noise-dependent adaptation of an acoustic useful signal
WO2006018532A1 (en) * 2004-07-23 2006-02-23 Colliard Isabel Helene Isabo Electrochemical compensation oscillator for the biological protection of living organisms
EP1939859A3 (en) * 2006-12-25 2013-04-24 Yamaha Corporation Sound signal processing apparatus and program
DE102020134752A1 (en) 2020-12-22 2022-06-23 Digi Sapiens - Digital Learning GmbH METHOD OF EVALUATING THE QUALITY OF READING A TEXT, COMPUTER PROGRAM PRODUCT, COMPUTER READABLE MEDIA AND EVALUATION DEVICE

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3149134C2 (en) * 1980-12-19 1987-05-07 At & T Technologies, Inc., New York, N.Y. Method and apparatus for determining endpoints of a speech expression
DE3211313C2 (en) * 1981-03-27 1988-06-16 At & T Technologies, Inc., New York, N.Y., Us
DE4120308A1 (en) * 1991-06-20 1992-12-24 Standard Elektrik Lorenz Ag DEVICE AND METHOD FOR RECOGNIZING LANGUAGE
DE4306508A1 (en) * 1993-03-03 1994-09-08 Philips Patentverwaltung Method and arrangement for determining words in a speech signal
DE3236832C2 (en) * 1981-10-05 1995-10-19 Exxon Corp Method and device for speech analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3149134C2 (en) * 1980-12-19 1987-05-07 At & T Technologies, Inc., New York, N.Y. Method and apparatus for determining endpoints of a speech expression
DE3211313C2 (en) * 1981-03-27 1988-06-16 At & T Technologies, Inc., New York, N.Y., Us
DE3236832C2 (en) * 1981-10-05 1995-10-19 Exxon Corp Method and device for speech analysis
DE4120308A1 (en) * 1991-06-20 1992-12-24 Standard Elektrik Lorenz Ag DEVICE AND METHOD FOR RECOGNIZING LANGUAGE
DE4306508A1 (en) * 1993-03-03 1994-09-08 Philips Patentverwaltung Method and arrangement for determining words in a speech signal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2796486A1 (en) * 1999-07-16 2001-01-19 Ibm Chosen word replacement speech editing technique having audio signal statistical word model memory with trial input compared and where match found innocuous word replaced.
DE10020756B4 (en) * 2000-04-27 2004-08-05 Harman Becker Automotive Systems (Becker Division) Gmbh Device and method for the noise-dependent adaptation of an acoustic useful signal
WO2006018532A1 (en) * 2004-07-23 2006-02-23 Colliard Isabel Helene Isabo Electrochemical compensation oscillator for the biological protection of living organisms
EP1939859A3 (en) * 2006-12-25 2013-04-24 Yamaha Corporation Sound signal processing apparatus and program
DE102020134752A1 (en) 2020-12-22 2022-06-23 Digi Sapiens - Digital Learning GmbH METHOD OF EVALUATING THE QUALITY OF READING A TEXT, COMPUTER PROGRAM PRODUCT, COMPUTER READABLE MEDIA AND EVALUATION DEVICE
DE102020134752B4 (en) 2020-12-22 2023-04-20 Digi Sapiens - Digital Learning GmbH METHOD OF EVALUATING THE QUALITY OF READING A TEXT, COMPUTER PROGRAM PRODUCT, COMPUTER READABLE MEDIA AND EVALUATION DEVICE

Similar Documents

Publication Publication Date Title
DE3510660C2 (en)
DE2659096C2 (en)
DE69013738T2 (en) Speech coding device.
DE2919085A1 (en) PRE-PROCESSING METHOD AND DEVICE FOR A VOICE RECOGNITION DEVICE
DE2524804A1 (en) METHOD AND DEVICE FOR AUTOMATIC SPEECH RECOGNITION
EP1523719A2 (en) Device and method for characterising an information signal
DE2622423C3 (en) Electrical arrangement for the transmission or storage of a speech or sound signal in coded form
EP1280138A1 (en) Method for audio signals analysis
DE3043516C2 (en) Method and device for speech recognition
DE69629934T2 (en) REVERSED TRANSFORM NARROW / BROADBAND TONSYNTHESIS
WO2005122135A1 (en) Device and method for converting an information signal into a spectral representation with variable resolution
DE4328752B4 (en) Voice recognition system
DE2949582A1 (en) METHOD AND ARRANGEMENT FOR DETERMINING TONE HEIGHT IN HUMAN LANGUAGE
DE3018508A1 (en) VOICE ANALYZER
DE69430034T2 (en) Digital signal processing device
DE3226637C2 (en) Device for generating an artificial reverberation
DE2355640A1 (en) ARRANGEMENT FOR SPECTRAL ANALYSIS OF ELECTRICAL SIGNALS
DE102004028693B4 (en) Apparatus and method for determining a chord type underlying a test signal
DE19540859A1 (en) Removing unwanted speech components from mixed sound signal
DE3226619C2 (en)
DE69427726T2 (en) Quantisierungsgerät
DE2657430A1 (en) DEVICE FOR SYNTHETIZING HUMAN LANGUAGE
DE4124493C1 (en)
DE3335026A1 (en) DIGITAL DATA PROCESSING CIRCUIT
WO1987003995A1 (en) Process for speech recognition in a noisy environment

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee