DE19734905C1 - Electronic sound generator for re-synthesizer - Google Patents

Electronic sound generator for re-synthesizer

Info

Publication number
DE19734905C1
DE19734905C1 DE1997134905 DE19734905A DE19734905C1 DE 19734905 C1 DE19734905 C1 DE 19734905C1 DE 1997134905 DE1997134905 DE 1997134905 DE 19734905 A DE19734905 A DE 19734905A DE 19734905 C1 DE19734905 C1 DE 19734905C1
Authority
DE
Germany
Prior art keywords
vco
classifier
sound generator
electronic sound
oscillators
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE1997134905
Other languages
German (de)
Inventor
Marcus Hoehn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HOEHN MARCUS DIPL WIRTSCH ING
Original Assignee
HOEHN MARCUS DIPL WIRTSCH ING
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HOEHN MARCUS DIPL WIRTSCH ING filed Critical HOEHN MARCUS DIPL WIRTSCH ING
Priority to DE1997134905 priority Critical patent/DE19734905C1/en
Application granted granted Critical
Publication of DE19734905C1 publication Critical patent/DE19734905C1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/002Instruments using voltage controlled oscillators and amplifiers or voltage controlled oscillators and filters, e.g. Synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/10Instruments in which the tones are generated by means of electronic generators using generation of non-sinusoidal basic tones, e.g. saw-tooth
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/165Polynomials, i.e. musical processing based on the use of polynomials, e.g. distortion function for tube amplifier emulation, filter coefficient calculation, polynomial approximations of waveforms, physical modeling equation solutions
    • G10H2250/201Parabolic or second order polynomials, occurring, e.g. in vacuum tube distortion modeling or for modeling the gate voltage to drain current relationship of a JFET
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

One or more oscillators (VCO K1...Kn) are activated or deactivated in accordance with control signals (K(x), A(x)) obtained from a signal characteristic to be reproduced based on pattern recognition (KL), so that the oscillators are actively switched for the oscillation waveform most similar to the one to be reproduced. A waveform memory (WT) stores several different waveforms. A method of electronic sound production is also claimed.

Description

Die Erfindung bezieht sich auf einen elektronischen Klangerzeu­ ger mit einer Mehrzahl von Oszillatoren unterschiedlicher Schwingungsform bzw. mit einem Oszillator mit einem Wellenform­ speicher (WT) mit einer Vielzahl unterschiedlicher Wellenformen (W1. . .Wn).The invention relates to an electronic sound generator ger with a plurality of different oscillators Waveform or with an oscillator with a waveform memory (WT) with a variety of different waveforms (W1 ... Wn).

Unter einem Resynthesizer versteht der Fachmann auf dem Gebiet der Musikelektronik einen elektronischen Klangerzeuger, mit welchem ein realer Klang in Form eines Schwingungsverlaufs auf künstlichem Wege nachgebildet werden kann.A resynthesizer is understood by those skilled in the art the music electronics an electronic sound generator, with which has a real sound in the form of a waveform can be reproduced in an artificial way.

Nach dem bekannten Stand der Technik wird zur Nachbildung von Klängen in erster Linie der gewünschte Schwingungsverlauf des nachzubildenden Klanges in einer Auflösung entsprechend der ge­ wünschten Qualität digitalisiert und als sogenanntes Audio-Sam­ ple als digitale Wellenform gespeichert. Diese digitale Wellenform wird anschließend mit einer der zu erzeugenden Ton­ höhe entsprechenden Frequenz aus dem Speicher ausgelesen und mittels eines dadurch angesteuerten Oszillators hörbar gemacht. Elektronische Klangerzeuger, die nach diesem Prinzip arbeiten, werden allgemein als Sample-Player-Synthesizer bezeichnet.According to the known prior art is used to replicate Sounds primarily the desired waveform of the simulated sound in a resolution corresponding to the ge desired quality digitized and as so-called audio Sam ple saved as a digital waveform. This digital Waveform is then created using one of the tones to be generated corresponding frequency read from the memory and made audible by means of an oscillator driven thereby. Electronic sound generators that work on this principle are commonly referred to as sample player synthesizers.

Anhand des Funktionsprinzips dieser bekannten Klangerzeuger wird bereits deutlich, daß es sich um ein rein quantitatives Verfahren handelt, denn der genannte Speicher wird ohne Rück­ sicht auf die jeweiligen Amplituden und Frequenzanforderungen des nachzubildenden Schwingungsverlaufs mit einer konstanten Abtastrate von in der Regel 88.200 Bytes bei 44,1 kHz Sampling-Rate und 16-Bit-Auflösung pro Sekunde gefüllt. Es handelt sich also gewissermaßen um einen "Schnappschuß" des Audiomaterials, wobei die Struktur und der Aufbau des Schallereignisses nicht bekannt sind. Dementsprechend kann bei der Wiedergabe des Klan­ ges kein Einfluß auf die Wurzeln des Klanges genommen werden, um diesen weiterzubilden. Es kann lediglich durch Nachbearbei­ tung des gespeicherten Schallereignisses (z. B. durch Filterung mit einem Tiefpaß etc.) Einfluß genommen werden, was jedoch Probleme wie den bekannten "Mickey-Mouse-Effekt" bei der Trans­ ponierung der gespeicherten Frequenz in andere Tonfrequenzbe­ reiche aufgrund einer Stauchung bzw. Dehnung des ursprünglichen Zeitgefüges sowie aufgrund einer Verschiebung von charakteri­ stischen Formanten des Klanges nicht löst. Dieses Phänomen ist insbesondere bei nachzubildenden Naturklängen unerwünscht, so daß eine Möglichkeit einer Resynthese eines Schallereignisses gewünscht ist, bei der dessen Struktur und Aufbau beeinflußbar sind.Based on the functional principle of these well-known sound generators it is already clear that this is a purely quantitative Proceeds because the memory mentioned is without return view of the respective amplitudes and frequency requirements of the vibration curve to be simulated with a constant Sampling rate of usually 88,200 bytes at 44.1 kHz sampling rate and 16-bit resolution per second. It is about a kind of "snapshot" of the audio material, but the structure and structure of the sound event is not are known. Accordingly, when playing the clan no influence on the roots of the sound, to further educate them. It can only be done by reworking the stored sound event (e.g. by filtering  with a low pass, etc.) can be influenced, however Problems like the well-known "Mickey Mouse Effect" with the Trans ponation of the stored frequency in other audio frequency range due to compression or stretching of the original Timing and due to a shift in character static formants of the sound. This phenomenon is undesirable especially with natural sounds to be reproduced, so that a possibility of resynthesizing a sound event is desired, whose structure and structure can be influenced are.

Ein aus der US-PS 5 138 924 bekannter Ansatz dafür beruht in erster Linie auf einem Verfahren, bei dem bereits digitalisiertes Audiomaterial (z. B. nach dem im vorangehenden beschriebenen Verfahren) durch eine Analyse gemäß einem physikalischen Modell in ein Spektrum (Fre­ quenz-Zusammensetzung eines Klanges) zerlegt wird, welches der Architektur der additiven Synthese entspricht. Bei der Erzeu­ gung bzw. Resynthese des nachzubildenden Klanges wird dann ent­ sprechend diesem Modell und den gewonnenen Parametern nach der additiven Synthese der Klang generiert. Dies geschieht dadurch, daß ein Gesamtklang aus einer Vielzahl von Sinusschwingungen entsprechend der mit dem Modell gewonnenen Parameter zusammen­ gesetzt wird. Basierend auf der Erkenntnis von Fourier, wonach sich jeder beliebige Klang durch die gezielte Addition einzel­ ner Sinusteiltöne abbilden läßt, welche sich in Grundton und Obertöne (ganzzahlige Vielfache des Grundtones) klassifizieren lassen, werden die im Ausgangs klang vorhandenen Sinusteiltöne mittels der additiven Synthese nach genau dem für die Analyse verwendeten physikalischen Modell (z. B. eine Fourier-Analyse) wieder zusammengesetzt.An approach for this known from US Pat. No. 5,138,924 is based primarily on a process in which already digitized audio material (e.g. by the method described above) by a Analysis according to a physical model in a spectrum (Fre sequence composition of a sound), which is the Architecture corresponds to additive synthesis. When generating supply or resynthesis of the sound to be reproduced is then ent speaking of this model and the parameters obtained according to the additive synthesis of the sound generated. This happens because that an overall sound from a variety of sine waves according to the parameters obtained with the model is set. Based on Fourier's finding that any sound through the specific addition individually ner sine part tones can be mapped, which can be in the fundamental and Classify overtones (integer multiples of the fundamental) let the sine-part tones present in the output sound using additive synthesis to do exactly that for analysis used physical model (e.g. a Fourier analysis) reassembled.

Die dabei auftretenden Probleme einer solchen Nachbildung sind offensichtlich, denn jeder musikalische Klang ändert sich im Verlauf seiner Dauer, indem Lautstärken, Frequenzen und Phasen­ lagen der einzelnen Teiltöne permanent variieren. Um eine Re­ synthese nach diesem bekannten Prinzip in einer musikalisch sinnvollen Form in einem Resynthesizer zu realisieren, müßten die Änderungen in Echtzeit für jeden einzelnen Teilton nicht nur berechnet, sondern - im Hinblick auf eine weitreichende Klangbeeinflussung - auch manipuliert werden können. Um authen­ tische Ergebnisse zu erreichen sind für komplexe Schallereig­ nisse mindestens 256, häufig gar 1024 Obertöne zu berücksichti­ gen. Soll der Resynthesizer dann auch noch Polyphonie ermögli­ chen, so sind bei einer 16-stimmigen Polyphonie bis zu 16 384 Teiltöne in Echtzeit zu erzeugen. Dies ist nach dem heutigen Stand der Technik mit vertretbarem Aufwand nicht realisierbar.The problems that arise with such a replica are obviously, because every musical sound changes in the Course of its duration, by volume, frequency and phase the positions of the individual partials vary permanently. To be a re synthesis according to this well-known principle in a musical to realize meaningful form in a resynthesizer the changes in real time for each individual partial tone are not  only calculated, but - with a view to a far-reaching Sound influencing - can also be manipulated. To authenticate Table results are to be achieved for complex sonic equipment Please consider at least 256, often even 1024 overtones The resynthesizer should then also enable polyphony Chen, there are up to 16 384 in a 16-voice polyphony Generate partials in real time. This is after today State of the art not feasible with reasonable effort.

Aufgabe der vorliegenden Erfindung ist es daher, einen elektro­ nischen Klangerzeuger sowie ein dazugehöriges Klangerzeugungs­ verfahren zu schaffen, mit dem eine Resynthese eines nachzubil­ denden Klanges in Echtzeit ermöglicht wird.The object of the present invention is therefore an electro African sound generator as well as an associated sound generator to create a process with which a resynthesis of a post sound is made possible in real time.

Zur Lösung dieser Aufgabe wird ein Elektronischer Klangerzeuger nach dem Oberbegriff des Anspruchs 1 dadurch weitergebildet, daß ein oder mehrere Oszillatoren in Abhängigkeit von mit Mit­ teln zur automatischen Mustererkennung aus einem nachzubilden­ den Schwingungsverlauf gewonnenen Steuersignalen so aktivierbar oder deaktivierbar sind, daß der oder die Oszillatoren mit der dem nachzubildenden Schwingungsverlauf ähnlichsten Schwingungs­ form aktiv geschaltet sind.An electronic sound generator is used to solve this task further developed according to the preamble of claim 1, that one or more oscillators depending on with Mit for automatic pattern recognition from one control signals obtained in this way can be activated or can be deactivated that the or the oscillators with the the vibration pattern most similar to the vibration pattern to be simulated form are activated.

Nach einer alternativen Lösung der Aufgabe gemäß der vorliegen­ den Erfindung wird ein elektronischer Klangerzeuger mit einem Oszillator mit einem Wellenformspeicher mit einer Vielzahl unterschiedlicher Wellenformen dadurch weitergebil­ det, daß der Oszillator in Abhängigkeit von mit Mitteln zur au­ tomatischen Mustererkennung aus einem nachzubildenden Schwingungsverlauf gewonnenen Steuersignalen, so ansteuerbar ist, daß der Oszillator eine Schwingung entsprechend der dem nachzubildenden Schwingungsverlauf ähnlichsten Wellenform oder Kombination von Wellenformen erzeugt.For an alternative solution to the task according to the present the invention is an electronic sound generator with a Oscillator with a waveform memory with a variety different waveforms det that the oscillator depending on means for au tomato pattern recognition from a replica Control signals obtained from the vibration curve, can be controlled so that the oscillator oscillates according to the vibration curve to be simulated most similar waveform or combination of waveforms generated.

In einer ersten vorteilhaften Ausgestaltung des elektronischen Klangerzeugers gemäß der vorliegenden Erfindung ist als Mittel zur automatischen Mustererkennung ein neuronales Netz vorgese­ hen ist. Damit sind geeignete Steuersignale besonders gut ableitbar, weil über die Lernfähigkeit des neuronalen Netzes unter Ausnutzung von dessen Abstraktionsfähigkeit intelligente Steuersignale zur Aktivierung des/der bestgeeignetsten Oszilla­ toren generierbar sind.In a first advantageous embodiment of the electronic Sound generator according to the present invention is as an agent a neural network for automatic pattern recognition hen is. Suitable control signals are therefore particularly good  derivable because of the learning ability of the neural network using its abstraction ability intelligent Control signals to activate the most suitable Oszilla gates can be generated.

Nach weiteren vorteilhaften Ausgestaltungen des elektronischen Klangerzeugers gemäß der vorliegenden Erfindung sind als Mittel zur automatischen Mustererkennung ein geometrischer Klassifika­ tor, insbesondere ein Euklid'scher Abstandsklassifikator oder ein City-Block Abstandsklassifikator, vorgesehen.According to further advantageous configurations of the electronic Sound generator according to the present invention are as means a geometric classic for automatic pattern recognition tor, in particular a Euclidean distance classifier or a city block distance classifier is provided.

In einer weiteren vorteilhaften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung ist als Mittel zur automatischen Mustererkennung ein statistischer Klassifikator, insbesondere ein Maximum-Likelihood Klassifika­ tor oder ein Mahalanobis Abstandsklassifikator, vorgesehen.In a further advantageous embodiment of the electronics rule sound generator according to the present invention is as A means for automatic pattern recognition a statistical Classifier, especially a maximum likelihood classifier tor or a Mahalanobis distance classifier.

In einer weiteren vorteil-haften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung ist als Mittel zur automatischen Mustererkennung ein Polynomklassifika­ tor, insbesondere linearer Polynomklassifikator oder ein qua­ dratischer Polynomklassifikator, vorgesehen.In a further advantageous embodiment of the electronics rule sound generator according to the present invention is as Automatic pattern recognition means a polynomial classifier gate, in particular a linear polynomial classifier or a qua dratic polynomial classifier.

In einer weiteren vorteilhaften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung ist als Mittel zur automatischen Mustererkennung ein heuristischer Klassifikator, insbesondere ein Nächster-Nachbar-Klassifikator mit Zufallsstichprobe oder ein Nächster-Nachbar-Klassifikator mit Säubern und Reduktionsalgorithmus, vorgesehen.In a further advantageous embodiment of the electronics rule sound generator according to the present invention is as Means for automatic pattern recognition a heuristic Classifier, especially a nearest neighbor classifier with random sample or a nearest neighbor classifier with cleaners and reduction algorithm.

In einer weiteren vorteilhaften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung dient ein Amplitudenspektrum des nachzubildenden Schwingungsverlaufs als Eingangssignal für das Mittel zur automatischen Mustererken­ nung, welches insbesondere mittels einer Fourriertransformation gewinnbar ist.In a further advantageous embodiment of the electronics The sound generator according to the present invention is used Amplitude spectrum of the vibration curve to be simulated as Input signal for the means for automatic pattern recognition voltage, which in particular by means of a Fourier transformation is recoverable.

In einer weiteren vorteilhaften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung sind Steuersignale in Intervallen von jeweils einer ganzen oder ei­ ner halben Schwingungsperiode des nachzubildenden Schwin­ gungsverlaufs vorgebbar.In a further advantageous embodiment of the electronics rule sound generator according to the present invention  Control signals at intervals of one whole or one egg half a period of oscillation of the person to be simulated predetermined course.

In einer weiteren vorteilhaften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung sind die Steuersignale in einem Speichermittel ablegbar und daraus pro­ portional zur Frequenz der zu erzeugenden Tonhöhe abrufbar.In a further advantageous embodiment of the electronics rule sound generator according to the present invention are Control signals can be stored in a storage medium and from it pro can be called up in proportion to the frequency of the pitch to be generated.

In einer weiteren vorteilhaften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung ist ein Mittel zum Glätten der Übergänge des von unterschiedlichen ak­ tivierten oder deaktivierten Oszillatoren generierten Ausgangs­ schwingungsverlaufs vorgesehen.In a further advantageous embodiment of the electronics The sound generator according to the present invention is a Means for smoothing the transitions of different ac activated or deactivated oscillators generated output provided vibration path.

In einer weiteren vorteilhaften Ausgestaltung des elektroni­ schen Klangerzeugers gemäß der vorliegenden Erfindung schwingt jeder durch die jeweiligen Steuersignale aktivierte Oszillator mit der Frequenz der zu erzeugenden Tonhöhe.In a further advantageous embodiment of the electronics rule sound generator vibrates according to the present invention each oscillator activated by the respective control signals with the frequency of the pitch to be generated.

Desweiteren wird gemäß vorliegender Erfindung ein Verfahren zur elektronischen Klangerzeugung geschaffen, mit dem eine Resyn­ these mittels eines elektronischen Klangerzeugers der eingangs genannten Art besonders effektiv in Echtzeit ermöglicht wird. Dies wird erreicht, indem ein oder mehrere Oszillatoren in Ab­ hängigkeit von mit Mitteln zur automatischen Mustererkennung aus einem nachzubildenden Schwingungsverlauf gewonnenen Steuer­ signalen so aktiviert oder deaktiviert werden, daß der oder die Oszillatoren mit der dem nachzubildenden Schwingungsverlauf ähnlichsten Schwingungsform aktiv geschaltet wird.Furthermore, according to the present invention, a method for electronic sound generator created with which a Resyn thesis using an electronic sound generator at the beginning mentioned type is made particularly effective in real time. This is achieved by using one or more oscillators in Ab dependency of means for automatic pattern recognition tax obtained from a vibration curve to be simulated signals are activated or deactivated so that the or Oscillators with the waveform to be simulated most similar form of vibration is activated.

Vorteile und Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im folgenden näher erläu­ tert. Dabei zeigen:Advantages and embodiments of the invention are in the Drawings are shown and are explained in more detail below tert. Show:

Fig. 1 Blockschaltbild eines Resynthesizers gemäß der vorliegen­ den Erfindung mit einer Mehrzahl von Oszillatoren unter­ schiedlicher Schwingungsform, Fig. 1 a block diagram according to the present Resynthesizers the invention having a plurality of oscillators under schiedlicher waveform,

Fig. 2 Blockschaltbild eines Resynthesizers nach Fig. 1 mit opti­ mierten Steuersignalen zur Aktivierung/Deaktivierung der Oszillatoren und Fig. 2 block diagram of a resynthesizer of FIG. 1 with optimized control signals for activating / deactivating the oscillators and

Fig. 3 Blockschaltbild eines Resynthesizers nach Fig. 2 mit Wellenformspeicher zur Realisierung einer Mehrzahl von Oszillatoren unterschiedlicher Schwingungsform. Fig. 3 is a block diagram of a Resynthesizers of FIG. 2 with waveform memory for implementing a plurality of oscillators of different waveform.

Dabei sind Elemente mit gleicher Funktionalität mit gleichen Bezugszeichen gekennzeichnet.Elements with the same functionality are the same Reference numbers marked.

In der Darstellung gemäß Fig. 1 ist ein Blockschaltbild eines möglichen Resynthesizers gemäß der vorliegenden Erfindung ge­ zeigt, welcher eine Mehrzahl von Oszillatoren VCO_K1. . .VCO_Kn unterschiedlicher Schwingungsform aufweist. Die Schwingungsfor­ men sind insbesondere Sinusschwingung, Dreieckschwingung, Säge­ zahnschwingung, sowie Rechteckschwingungen mit unterschiedli­ chem Pulsbreitenverhältnis. Darüber hinaus sind auch andere Spektren denkbar. Alle Oszillatoren können mit diskreten elek­ tronischen Bauelementen, mit integrierten Oszillatorschaltkrei­ sen oder auch als virtuelle Oszillatoren in Form von digitalen Modellen realisiert werden, wobei in letzterem Fall die ge­ wünschte Ausgangsschwingung des Oszillators in einem oder meh­ reren Mikroprozessoren (nicht gezeigt) entsprechend dem digita­ len Modell des gewünschten Oszillators berechnet wird und über einen Digital/Analogwandler (nicht gezeigt) in ein elektrisches Schwingungssignal gewandelt wird.In the illustration of FIG. 1 is a block diagram of a possible Resynthesizers according shows ge of the present invention having a plurality of oscillators VCO_K1. . .VCO_Kn has different waveforms. The Schwingungsfor men are in particular sinusoidal, triangular, sawtooth, and rectangular vibrations with different pulse width ratio. Other spectra are also conceivable. All oscillators can be realized with discrete electronic components, with integrated oscillator circuits or as virtual oscillators in the form of digital models, in the latter case the desired output oscillation of the oscillator in one or more microprocessors (not shown) according to the digita len Model of the desired oscillator is calculated and converted into an electrical vibration signal via a digital / analog converter (not shown).

Die Oszillatoren VCO_K1. . .VCO_Kn werden über eine Schnittstelle MIDI angesteuert. Dabei kann es sich vorteilhafterweise um eine Schnittstelle nach dem "Music-Instruments-Digital-Interface" Standard handeln, welche auf der Tastatur KB eines Keyboards/Syn­ thesizers oder Digital-Pianos gespielte Noteninformationen in einen seriellen digitalen Datenstrom wandelt. Aus diesen die Noteninformationen repräsentierenden Daten werden Ansteuersi­ gnale für die Oszillatoren VCO_K1. . .VCO_Kn gewonnen, insbeson­ dere wird die der Tonhöhe einer auf der Tastatur KB gespielten Note entsprechende Schwingungsfrequenz vorgegeben. Daneben wird auch ein Triggersignal T generiert, mit dem der Anschlagzeit­ punkt einer Taste und damit verbunden einer Note signalisiert wird. Dies bedeutet auch den Schwingungsstartzeitpunkt für die Oszillatoren VCO_K1. . .VCO_Kn.The VCO_K1 oscillators. . .VCO_Kn are via an interface MIDI controlled. This can advantageously be a Interface according to the "Music Instruments Digital Interface" Act standard, which on the keyboard KB of a keyboard / syn note information played by thesizers or digital pianos converts into a serial digital data stream. From these the Data representing note information becomes control signals for the VCO_K1 oscillators. . .VCO_Kn won, especially the other is that of the pitch played on the keyboard KB Note appropriate vibration frequency specified. Next to it  also generates a trigger signal T with which the attack time point of a key and associated note becomes. This also means the start of vibration for the VCO_K1 oscillators. . .VCO_Kn.

Zusätzlich gelangt das Triggersignal T auch an einen Speicher SP, vorzugsweise einen flüchtigen oder Nicht-Festwert-Speicher, in dem Steuersignale A(x) und K(x) zur Aktivierung bzw. Deakti­ vierung einzelner oder mehrerer Oszillatoren VCO_K1. . .VCO_Kn abgelegt sind. Mit dem Triggersignal T wird darüber hinaus ein Zähler (nicht gezeigt) gestartet und proportional der Frequenz der gewünschten Tonhöhe getaktet, welcher den Parameter x in­ krementiert und so unterschiedliche Speicheradressen des Spei­ chers SP adressiert. Auf diese Weise wird eine Folge von im Speicher SP abgelegten Steuersignalen A(x) und K(x) passend zur gewünschten Tonfrequenz ausgegeben.In addition, the trigger signal T also reaches a memory SP, preferably a volatile or non-fixed value memory, in the control signals A (x) and K (x) for activation or deactivation crossing of one or more oscillators VCO_K1. . .VCO_Kn are filed. With the trigger signal T is also a Counter (not shown) started and proportional to the frequency the desired pitch, which the parameter x in incremented and so different memory addresses of the memory chers SP addressed. In this way a sequence of im Control signals A (x) and K (x) stored in memory SP match the desired audio frequency.

Die Steuersignale A(x) gelangen an jeweils jedem Oszillator VCO_K1. . .VCO_Kn nachgeschaltete Verstärkerstufen VCA. Die Steu­ ersignale A(x) stellen Amplitudenwerte dar und wirken auf die Verstärkerstufen VCA ein. Bevorzugterweise können die Verstär­ kerstufen auch als digital gesteuerte Verstärkerstufen DCA aus­ geprägt sein, wodurch sie direkt durch digitale Speicherinfor­ mationen beeinflußbar sind.The control signals A (x) arrive at each oscillator VCO_K1. . .VCO_Kn downstream amplifier stages VCA. The tax The signals A (x) represent amplitude values and act on the Amplifier stages VCA. Preferably, the reinforcement kerst stage also as digitally controlled amplifier stages DCA characterized by what they directly by digital storage information mations can be influenced.

Auf jede Verstärkerstufe folgt jeweils ein Schalter, beispiels­ weise ein analoger CMOS-Schalter, welcher durch die Steuersi­ gnale K(x) angesteuert wird. Die Steuersignale K(x) stellen bi­ näre Aktivierungssignale dar, welche bei einem logischen Wert von "Null" den jeweils zugeordneten Oszillator VCO_K1. . .VCO_Kn deaktivien bzw. bei einem logischen Wert von "Eins" aktivieren. Selbstverständlich ist auch eine entsprechende negative Logik denkbar.A switch follows each amplifier stage, for example an analog CMOS switch, which is controlled by the control signal K (x) is controlled. The control signals K (x) represent bi represent activation signals which are at a logical value from "zero" the respectively assigned oscillator VCO_K1. . .VCO_Kn Deactivate or activate with a logical value of "one". Of course there is also a corresponding negative logic conceivable.

Die Steuersignale A(x) und K(x) besitzen beispielsweise folgen­ de Form:
The control signals A (x) and K (x) have the following form, for example:

A(x) = (A1(x), A2(x). . .An(x)) = (5,3. . .10) und
A (x) = (A1 (x), A2 (x) ... An (x)) = (5.3 ... 10) and

K(x) = (K1(x), K2(x). . .Kn(x)) = (1,0. . .1)K (x) = (K1 (x), K2 (x).. .Kn (x)) = (1.0.. .1)

Die so aktiv bzw. inaktiv geschalteten Oszillatorsignale mit den jeweiligen konditionierten Amplitudenwerten werden einem Verknüpfungsglied VG zugeführt und dort zu einer Gesamtschwin­ gung überlagert bzw. gemischt. Das Verknüpfungsglied VG kann somit auch als kleine Mixer- oder Mischpulteinheit betrachtet werden. Ausgangsseitig steht am Verknüpfungsglied eine Ausgangs­ schwingung an, die mit weiteren, untenstehend näher erläuterten Klangformungsmitteln weiterbearbeitet werden kann.The oscillator signals switched so active or inactive with the respective conditioned amplitude values are one Logic link VG supplied and there to a total vibration overlaid or mixed. The link VG can thus also viewed as a small mixer or mixer unit become. On the output side there is an output on the logic element vibration, which with others, explained in more detail below Sound shaping agents can be processed further.

Im folgenden soll nun näher erläutert werden, nach welchen Kri­ terien die im Speicher SP abgelegten Steuersignale A(x) und K(x) gewonnen werden.In the following it will now be explained in more detail, according to which criteria series the control signals A (x) and stored in the memory SP K (x) can be obtained.

Wie eingangs erläutert, handelt es sich bei einem Resynthesizer um einen Klangerzeuger, mit dem ein vorliegender Klang bzw. Schwingungsverlauf reproduziert werden kann. Ausgangspunkt ist somit ein zu reproduzierender Schwingungsverlauf. Dieser liegt beispielsweise als sog. Audiosample SAMPLE in digitalisierter Form vor. Bei der Digitalisierung ist zu beachten, daß Quanti­ sierungsfehler und Aliasingeffekte (korrekte Filterung im Rah­ men des Shannon-Theorems: Abtastfrequenz beträgt das Doppelte der höchsten Signalfrequenz) vermieden werden und hochwertige Analog/Digitalwandler eingesetzt werden. Der gewünschte Klang­ verlauf liegt damit als Folge von Amplitudenwerten A(t) über einen Zeitverlauf t als Audiosample SAMPLE vor.As explained at the beginning, it is a resynthesizer a sound generator with which an existing sound or Vibration course can be reproduced. The starting point is thus a waveform to be reproduced. This lies for example as a so-called audio sample SAMPLE in digitized Form before. When digitizing, please note that Quanti errors and aliasing effects (correct filtering in frame of the Shannon theorem: sampling frequency is double the highest signal frequency) can be avoided and high quality Analog / digital converter can be used. The desired sound The course is over as a result of amplitude values A (t) a time course t as an audio sample SAMPLE.

Darauf aufbauend erfolgt eine Frequenzanalyse dieses Audiosamp­ le SAMPLE. Dazu sind insbesondere Verfahren der Fourier-Analyse geeignet. Danach läßt sich jede komplexe Schwingungsform durch Überlagerung von Sinusschwingungen nachbilden, welche sich in ihrer Frequenz unterscheiden. Besonders geeignet sind hierfür Verfahren wie die Fast-Fourier-Transformation FFT oder die Dis­ krete-Fourier-Transformation DFT, mit denen ein Klangverlauf A(t) aus dem Zeitbereich t in den Frequenzbereich transformiert werden kann. Dabei wird eine harmonische Analyse bzw. digitale Analyse durchgeführt und das Amplitudenspektrum SP des Audio­ samples SAMPLE ermittelt. Building on this, a frequency analysis of this audio sample is carried out le SAMPLE. Fourier analysis methods are particularly useful for this suitable. After that, every complex waveform can be analyzed Recreate the superposition of sinusoidal vibrations, which differ in their frequency. Are particularly suitable for this Methods like the Fast Fourier Transform FFT or the Dis krete-Fourier transform DFT, with which a sound curve A (t) is transformed from the time domain t into the frequency domain can be. A harmonious analysis or digital Analysis performed and the amplitude spectrum SP of the audio samples SAMPLE determined.  

Bei der DFT geht man davon aus, daß sich eine Schwingung peri­ odisch wiederholt. Damit eignet sich die DFT besonders zur Um­ wandlung zyklischen Schwingungsverläufe in ein harmonisches Spektrum. Zur Durchführung einer DFT greift man auf folgende prinzipielle Berechnungsvorschrift zurück:
DFT is based on the assumption that an oscillation is repeated periodically. This makes the DFT particularly suitable for converting cyclical waveforms into a harmonic spectrum. The following basic calculation rule is used to carry out a DFT:

Dabei beschreibt T ein Abtastintervall über den Zeitbereich t des Klangverlaufs A(t) und n die Anzahl der Intervalle.T describes a sampling interval over the time range t of the sound course A (t) and n the number of intervals.

Mathematische Details zur Realisierung eines DFT-Algorithmus finden sich bespielsweise in "Signalverarbeitung: numerische Verarbeitung digitaler Signale/Schrüfer, E., München; Wien: Hanser-Verlag 1990, S. 147ff.". Desweiteren existiert eine Vielzahl für die Bearbeitung von digitalem Audiomaterial opti­ mierter DFT- und FFT-Algorithmen.Mathematical details for the implementation of a DFT algorithm can be found, for example, in "Signal Processing: Numerical Processing of digital signals / Schrüfer, E., Munich; Vienna: Hanser-Verlag 1990, pp. 147ff. ". Furthermore there is one Variety for the processing of digital audio material opti mated DFT and FFT algorithms.

Bei Naturklängen ist ein solcher zyklischer Verlauf in der Re­ gel nicht gegeben. Daher greift man bei sich fortlaufend verän­ dernden Klängen zur FFT, welche jedoch prinzipiell auch in der Lage ist, zyklische Klangverläufe zu analysieren. Der Grundge­ danke der FFT ist die Zerlegung der Amplitudenfolge A(t) des Audiosamples SAMPLE in mehrere kleinere Teil folgen, die dann getrennt transformiert werden (Überlagerungssatz der Sy­ stemtheorie). Besonders effizient und damit Rechenzeit sparend ist eine Aufteilung in Folgen mit einer Anzahl von Amplituden­ werten A(t), die eine Potenz zur Basis 2 ist (sog. Radix-2-Algorithmen, vgl. "Signalverarbeitung: numerische Ver­ arbeitung digitaler Signale/Schrüfer, E., München; Wien: Han­ ser-Verlag 1990, S. 339ff.").With natural sounds, such a cyclical course is in the right gel not given. Therefore, you constantly change yourself changing sounds to the FFT, which in principle also in the It is able to analyze cyclical sound patterns. The basic thanks to the FFT is the decomposition of the amplitude sequence A (t) of the Audio samples follow SAMPLE into several smaller parts, which then can be transformed separately (overlay theorem of Sy stem theory). Particularly efficient and therefore saves computing time is a division into sequences with a number of amplitudes value A (t), which is a power to base 2 (so-called Radix-2 algorithms, cf. "Signal processing: numerical ver processing of digital signals / Schrüfer, E., Munich; Vienna: Han ser Verlag 1990, pp. 339ff. ").

Bei vorliegender Erfindung werden die Amplitudenwerte A(t) des Audiosamples SAMPLE vorzugsweise in Abschnitte unterteilt, die einer ganzen oder bei höherer Genauigkeit einer halben Schwin­ gungsperiode dem zu reproduzierenden Schwingungsverlaufs entspre­ chen. Auf diese Weise wird das Audiosample SAMPLE mit x Schwingungsperioden in Teilfolgen A(t1) bis A(tx), sog. Zeitfenster, zerlegt. Die aneinandergereihten Teilfolgen A(t1) bis A(tx) beschreiben somit wieder den ursprünglichen Schwin­ gungsverlauf A(t), welcher sich selbstverständlich über die Zeit t in seiner Schwingungsform ändern kann. Besonders vor­ teilhaft ist es auch, die Teil folgen zwar mit dem Nulldurchgang jeder Halbwelle (bei halben Schwingungsperioden) oder jeder po­ sitiven Halbwelle (bei ganzen Schwingungsperioden) zu beginnen, jedoch die Länge der einzelnen Teil folgen und damit das Zeit­ fenster mit der Folge von Amplitudenwerten darüberhinausgehend auf eine Anzahl zu verlängern, die eine Potenz zur Basis 2 ist (siehe obige Erläuterungen zur FFT).In the present invention, the amplitude values A (t) of the Samples audio samples preferably divided into sections that a whole or, with higher accuracy, half a swin period corresponds to the waveform to be reproduced chen. In this way the audio sample SAMPLE with x Vibration periods in partial sequences A (t1) to A (tx), so-called  Time window, disassembled. The strings A (t1) lined up to A (tx) thus again describe the original Schwin course A (t), which is of course about the Time t can change in its waveform. Especially before It is also partial, the parts follow with the zero crossing every half wave (with half oscillation periods) or every po to start a sitative half-wave (with whole oscillation periods), however follow the length of each part and hence the time beyond that window with the sequence of amplitude values extend to a number that is a power to base 2 (see above explanations for FFT).

Jede der Teilfolgen A(t1) bis A(tx) wird nun eigens aufeinan­ derfolgend durch eine Signalverarbeitungsstufe FFT in ein zuge­ höriges Amplitudenspektrum SP1 bis SPx transformiert. Je nach erforderlicher Genauigkeit wird die Anzahl der Spektren bemes­ sen, die durch die FFT ermittelt werden. Das jeweils resultie­ rende Amplitudenspektrum SP als Betrag der Spektralfunktion be­ steht somit aus einem Grundton (reine Sinusschwingung), auch 1. Harmonische H1 oder Fundamentale genannt, welche in der Regel den lautesten Ton eines Spektrums darstellt und daher für die wahrnehmbare Tonhöhe verantwortlich ist. Daneben treten weitere Harmonische H2 bis Hy (ebenfalls reine Sinusschwingungen ent­ sprechend Fourier-Ansatz) auf, die auch als Obertöne, Teiltöne oder Partialtöne bezeichnet werden, wobei y die Anzahl der Obertöne und damit Genauigkeit des Amplitudenspektrums bedingt. Besonders geeignet sind Werte von y größer gleich 32. Diese Harmonischen H2 bis Hy sind ganzzahlige Vielfache des Grundtons H1 (z. B. liegt der Grundton bei 440 Hz, so liegt die zweite Har­ monische H2 bzw. der erste Oberton bei 880 Hz usw.). Alle Fre­ quenzen lassen sich durch die der ersten Harmonischen H1 tei­ len, wodurch die entsprechende Kennzahl H2, H3 etc. der Harmo­ nischen resultiert.Each of the partial sequences A (t1) to A (tx) is now one on the other followed by a signal processing stage FFT in a audible amplitude spectrum SP1 to SPx transformed. Depending on The number of spectra is measured with the required accuracy which are determined by the FFT. The result rende amplitude spectrum SP be the amount of the spectral function stands for a fundamental tone (pure sine wave), also 1. Harmonics called H1 or Fundamentals, which are usually represents the loudest tone of a spectrum and therefore for the perceptible pitch is responsible. There are also more Harmonic H2 to Hy (also pure sine waves ent speaking Fourier approach), also called overtones, partials or partial tones, where y is the number of Harmonics and thus accuracy of the amplitude spectrum conditional. Values of y greater than or equal to 32 are particularly suitable. These Harmonics H2 to Hy are integer multiples of the fundamental H1 (e.g. the fundamental is at 440 Hz, the second Har is monical H2 or the first overtone at 880 Hz etc.). All fre sequences can be divided by the first harmonics H1 len, whereby the corresponding code H2, H3 etc. of the Harmo niches results.

Aus dem jeweiligen Amplitudenspektrum ist damit ersichtlich, welche Sinustöne in welche Lautstärken am zu reproduzierenden Teilbereich A(t1) bis A(tx) des Klanges bzw. Audiosamples SAMP­ LE beteiligt sind. From the respective amplitude spectrum it can be seen which sine tones in which volume to reproduce Subarea A (t1) to A (tx) of the sound or audio samples SAMP LE are involved.  

Als Beispiel sei darauf hingewiesen, daß ein Sinuston leglich aus der entsprechenden ersten Harmonischen H1 besteht, wobei der Betrag von H1 der Amplitude und damit der Lautstärke des Sinustons entspricht:
As an example, it should be pointed out that a sine tone consists of the corresponding first harmonic H1, the amount of H1 corresponding to the amplitude and thus the volume of the sine tone:

Sinusschwingung = H1 mit voller AmplitudeSinusoidal vibration = H1 with full amplitude

Der spektrale Aufbau einer Sägezahnschwingung läßt sich damit folgendermaßen darstellen:
Sägezahnschwingung = H1 mit voller Amplitude, H2 mit halber Amplitude, H3 mit einem Drittel der Amplitude, H4 mit einem Viertel der Amplitude usw.
The spectral structure of a sawtooth wave can be represented as follows:
Sawtooth wave = H1 with full amplitude, H2 with half amplitude, H3 with a third of the amplitude, H4 with a quarter of the amplitude, etc.

Der spektrale Aufbau einer Rechteckschwingung zeichnet sich da­ durch aus, daß gegenüber dem Spektrum der Sägezahnschwingung alle geradzahligen Harmonischen H2, H4 usw. fehlen.The spectral structure of a square wave stands out by from that versus the spectrum of the sawtooth vibration all even harmonics H2, H4 etc. are missing.

Für jede Teilfolge A(t1) bis A(tx) wird somit in der Signalvor­ verarbeitungsstufe FFT ein zugehöriges Amplitudenspektrum SP1 bis SPx mit jeweils den Harmonischen H1 bis Hy bestimmt. Die Werte dieser Harmonischen dienen nun im weiteren Verlauf zur Ansteuerung einer Klassifikationseinheit KL.For each partial sequence A (t1) to A (tx) is thus in the signal processing stage FFT an associated amplitude spectrum SP1 to SPx with the harmonics H1 to Hy determined. The Values of these harmonics are now used in the further course Activation of a classification unit KL.

Diese Klassifikationseinheit KL kann mit unterschiedlichen Klassifikatoren bzw. Klassifikationsverfahren realisiert wer­ den. Allen im folgenden dargestellten Klassifikationsverfahren ist gemeinsam, daß zwischen einer Trainingsphase bzw. Lernphase und einer Recallphase bzw. Echtzeitsbetriebsphase, welche die Resynthese ermöglicht, unterschieden wird.This classification unit KL can have different Classifiers and classification procedures are implemented the. All the classification procedures shown below is common that between a training phase or learning phase and a recall phase or real-time operating phase, which the Resynthesis enables, a distinction is made.

In der Trainingsphase wird der Klassifikator konditioniert, in­ dem eine dem nachzuempfindenden Schwingungsverlauf zugeordnete Wissensbasis ermittelt wird. Dazu wird der Klassifikator mit Trainingsdaten beaufschlagt, die aus Daten der zur Resynthese vorgesehenen Oszillatoren VCO_K1. . .VCO_Kn gemäß den im voran­ gehenden erläuterten Signalvorverarbeitungsschritten mit FFT oder DFT abgeleitet werden. Damit wird für jeden Oszillator VCO_K1. . .VCO_Kn und folgedessen für die jeweils zugehörige Schwingungsform ein zugehöriges Amplitudenspektrum SP mit den Harmonischen H1 bis Hy ermittelt. Sofern ein Oszillator VCO_K1. . .VCO_Kn eine zyklische Schwingungsform erzeugt - was nicht notwendig, aber die Regel ist - wird dafür lediglich eine ein­ zige Teilfolge von Amplitudenwerten A(t) benötigt und entspre­ chend auch nur ein einzelnes Amplitudenspektrum SP ermittelt.In the training phase, the classifier is conditioned in the one associated with the vibration pattern to be sensed Knowledge base is determined. The classifier is used for this Training data acted upon from the data for resynthesis provided oscillators VCO_K1. . .VCO_Kn according to the above outgoing signal preprocessing steps with FFT or DFT can be derived. This is for every oscillator VCO_K1. . .VCO_Kn and consequently for the associated one Waveform an associated amplitude spectrum SP with the  Harmonics H1 to Hy determined. Unless an oscillator VCO_K1. . .VCO_Kn creates a cyclic waveform - which is not necessary, but the rule is - it will only be one only partial sequence of amplitude values A (t) is required and corresponds accordingly only a single amplitude spectrum SP is determined.

Jeder Klassifikator besitzt die Eigenschaft, ein Eingangsmuster ausgangsseitig einer von mehreren Klassen K1 bis Kn zuzuordnen, wobei n die Anzahl der Klassen beschreibt. Deshalb werden sol­ che Klassifikatoren auch dem technischen Gebiet der automati­ schen Mustererkennung zugerechnet. Die einzelnen Klassen sind bei vorliegender Erfindung die Oszillatoren VCO_K1. . .VCO_Kn. Das Eingangsmuster stellen die Harmonischen H1 bis Hy des je­ weiligen einem Oszillator VCO_K1. . .VCO_Kn zugehörigen Ampli­ tudenspektrums SP dar. Allgemein betrachtet bildet der Klassi­ fikator somit einen Eingangsvektor mit der Dimension y auf ei­ nen Ausgangsvektor mit der Dimension n ab, womit es sich um ein multidimensionales Klassifikationsproblem handelt. Die Kriteri­ en, nach denen eine Zuordnung zu den Klassen K1 bis Kn erfolgt, werden in der Trainingsphase festgelegt und in der zugehörigen Wissensbasis abgespeichert.Each classifier has the property of an input pattern assign one of several classes K1 to Kn on the output side, where n describes the number of classes. Therefore sol che classifiers also the technical field of automati pattern recognition. The individual classes are in the present invention, the oscillators VCO_K1. . .VCO_Kn. The input pattern represents the harmonics H1 to Hy each because of an oscillator VCO_K1. . .VCO_Kn associated ampli tudenspektrums SP. Generally speaking, the class forms fikator thus an input vector with the dimension y on ei NEN output vector with the dimension n, which is a multidimensional classification problem. The criteria s, which are assigned to classes K1 to Kn, are determined in the training phase and in the associated one Knowledge base saved.

In der Recallphase bzw. Echtzeitsbetriebsphase werden dann die per Signalvorverarbeitung FFT aus dem nachzubildenden Schwin­ gungsverlauf des Audiosamples SAMPLE für jede der x Teilfolgen A(t1) bis A(tx) ermittelten Amplitudenspektren SP1 bis SPx mit den jeweiligen Harmonischen H1 bis Hy als Eingangsvektor der Klassifikationseinheit KL zugeführt und in KL anhand der Wis­ sensbasis für jede der x Teilfolgen mindestens einer Klasse der n Oszillatoren VCO_K1. . .VCO_Kn zugewiesen.Then in the recall phase or real-time operating phase via signal preprocessing FFT from the Schwin to be simulated development of the audio sample SAMPLE for each of the x partial sequences A (t1) to A (tx) ascertained amplitude spectra SP1 to SPx the respective harmonics H1 to Hy as the input vector of the Classification unit KL supplied and in KL based on the Wis basis for each of the x partial sequences of at least one class of n VCO_K1 oscillators. . .VCO_Kn assigned.

Sofern keine eindeutige Zuweisung zu einer der n Klassen K1 bis Kn und damit verbunden der Oszillatoren VCO_K1. . .VCO_Kn mög­ lich ist, so macht sich das bemerkbar, indem eventuell mehrere Klassen K1 bis Kn mit jeweils geringerer Zuordnungswahrschein­ lichkeit zugeordnet werden. Darauf aufbauend sind mehrere Stra­ tegien denkbar, um eine bestmögliche Zuordnung zu erreichen. Denkbar ist insbesondere, stets nur eine Klasse aus K1 bis Kn zuzuordnen, indem die Klasse mit der größten Zuordnungswahrscheinlichkeit (dem größten absoluten Wert im Ausgangsvektor K der Klassifikatoreinheit KL) gewählt (logisch "Eins") und damit allein der zugehörige Oszillator aktiviert wird, während alle anderen Klassen außer Betracht bleiben (lo­ gisch "Null") bzw. Oszillatoren deaktiviert werden. Eine andere Strategie, welche dem Ausführungsbeispiel nach Fig. 1 zugrunde­ liegt, besteht darin, mehrere Klassen entsprechend ihrer Zuord­ nungswahrscheinlichkeit zu wählen, indem ein Schwellwert für die Zuordnungswahrscheinlichkeit gewählt wird und alle Klassen, deren Zuordnungswahrscheinlichkeit gleich oder über dem Schwellwert liegt, gewählt werden (logisch "Eins"), während solche Klassen mit unter dem Schwellwert liegender Zuordnungs­ wahrscheinlichkeit nicht gewählt (logisch "Null") werden. Das bedeutet, daß auch mehrere Klassen gewählt und damit verbunden Oszillatoren VCO K1. . .VCO_Kn gleichzeitig aktiviert werden können, deren Ausgangsschwingungen dann mittels des Verknüp­ fungsglieds VG überlagert bzw. gemischt werden. Die Maßnahmen der geschilderten Strategien sind Bestandteil der Klassifika­ toreinheit KL.Unless there is a clear assignment to one of the n classes K1 to Kn and the oscillators VCO_K1 associated therewith. . .VCO_Kn is possible, this becomes noticeable by possibly assigning several classes K1 to Kn, each with a lower probability of assignment. Building on this, several strategies are conceivable in order to achieve the best possible allocation. In particular, it is conceivable to always assign only one class from K1 to Kn by selecting the class with the greatest probability of assignment (the largest absolute value in the output vector K of the classifier unit KL) (logical "one") and thus activating the associated oscillator only while All other classes are disregarded (logical "zero") or oscillators are deactivated. Another strategy, which is the basis of the exemplary embodiment according to FIG. 1, consists in choosing several classes according to their assignment probability by choosing a threshold value for the assignment probability and selecting all classes whose assignment probability is equal to or above the threshold value ( logical "one"), while such classes with an assignment probability below the threshold are not chosen (logical "zero"). This means that several classes are selected and the oscillators VCO K1 connected to them. . .VCO_Kn can be activated at the same time, the output vibrations of which are then superimposed or mixed by means of the link VG. The measures of the strategies described are part of the KL classifier unit.

Am Ausgang der Klassifikatoreinheit KL steht somit für jede der x Teil folgen des nachzubildenden Schwingungsverlaufs des Audio­ samples SAMPLE ein Ausgangsvektor K an, welcher im Speicher S als der jeweiligen Teilfolge zugeordnetes Steuersignal K(x) ab­ gelegt ist. Daneben werden nach dem Ausführungsbeispiel gemäß Fig. 1 auch jeweils für jede der x Teilfolgen die Amplitudenwer­ te A der beispielsweise ersten Harmonischen H1 im Speicher S als der jeweiligen Teilfolge zugeordnetes Steuersignal A(x) ab­ gelegt. Mit diesen Steuersignalen erfolgt dann in der Recall- bzw. Echtzeitphase auf die eingangs dargegestellte Weise die An­ steuerung der Oszillatoren VCO_K1. . .VCO_Kn.At the output of the classifier unit KL there is therefore an output vector K for each of the x partial sequences of the vibration pattern of the audio sample SAMPLE to be simulated, which is stored in the memory S as a control signal K (x) assigned to the respective partial sequence. In addition, according to the exemplary embodiment according to FIG. 1, the amplitude values A of the first harmonics H1, for example, are stored in the memory S for each of the x partial sequences as the control signal A (x) assigned to the respective partial sequence. These control signals are then used to control the oscillators VCO_K1 in the recall or real-time phase in the manner shown at the beginning. . .VCO_Kn.

Im folgenden sollen nun unterschiedliche Klassifikatoren für die Klassifikatoreinheit KL dargestellt werden, mit denen eine Realisierung der vorangehend beschriebenen Erfindung besonders vorteilhaft möglich ist.In the following, different classifiers for the classifier unit KL are shown, with which one Realization of the invention described above in particular is advantageously possible.

Die Aufgabe eines Klassifikationssystemes besteht zunächst darin, einem M-dimensionalen Eingangsvektor, dem Merkmalsvektor v, genau eine von K Klassen zuzuordnen. Dazu muß eine geeignete Abbildungsfunktion f(v) ermittelt werden, die einen Merkmals­ vektor genau einer Klasse k zuweist. Die hierfür in Frage kom­ menden Klassifikationsalgorithmen sollen nun dargestellt wer­ den, wobei die Zahl unterschiedlicher Klassen im folgenden - abweichend von den vorangehenden Ausführungen - mit K bezeich­ net wird.The task of a classification system initially exists therein, an M-dimensional input vector, the feature vector  v to assign exactly one of K classes. To do this, a suitable one Mapping function f (v) can be determined, which is a feature vector assigns exactly one class k. The question in question classification algorithms should now be presented the, the number of different classes in the following - deviating from the previous explanations - denoted by K is not.

Als Eingabe erhält das Klassifikationssystem den Merkmalsvektor v und bei bekannter Klasse (überwacht lernende Dimensionierung) einen Zielvektor y. Ausgehend vom Merkmalsvektor v werden so­ viele Entscheidungen D(v) berechnet wie Klassen K vorhanden sind. In der anschließenden Minimum- oder Maximumsuche (dazu im folgenden) wird derjenige Unterscheidungswert dk(v) isoliert, der die bestmögliche Zuordnung zu einer der Klassen k erlaubt. Im weiteren besteht noch die Möglichkeit, eine Zurückweisungs­ schwelle D0 zu durchlaufen. Damit kann es jedoch passieren, daß keiner der Unterscheidungswerte dk(v) über dieser Schwelle liegt und somit keine geeignete Klasse für die Zuordnung des Merk­ malsvektors v gefunden wird. Läßt man diese Zurückweisungs­ schwelle weg, die in der Regel auch nur schwer bestimmt werden kann, so zwingt man das Klassifikationssystem dazu, sich für eine der K Klassen zu entscheiden. Da es erwünscht ist, auf je­ den Fall ein Ergebnis zu erhalten, wurde die Stufe der Zurück­ weisung bei der Implementierung der Klassifikatoren nicht berücksichtigt.As input, the classification system receives the feature vector v and, if the class is known (monitors learning dimensioning), a target vector y. Starting from the feature vector v, as many decisions D (v) are calculated as there are classes K. In the subsequent minimum or maximum search (in the following) the distinctive value d k (v) is isolated that allows the best possible allocation to one of the classes k. Furthermore, there is the possibility of going through a rejection threshold D 0 . However, it can happen that none of the distinguishing values d k (v) lies above this threshold and thus no suitable class for the assignment of the feature vector v is found. If you omit this rejection threshold, which is usually difficult to determine, you force the classification system to choose one of the K classes. Since it is desirable to get a result in each case, the level of rejection was not taken into account when implementing the classifiers.

Man kann die Aufgabe der Optimierung des Erkennungssystems, der Konstruktion eines optimalen Klassifikators, demnach in die beiden Bausteine Schätzfunktion dk(v) und Minimum-Maximum-Suche zerlegen. Die zentrale Bedeutung kommt dabei der Ermittlung der Schätzfunktion zu, die den Merkmalsvektor v in einen Schätzvek­ tor d transformiert. Das sich anschließende Bewertungssystem führt nun eine Bewertung der tatsächlichen Klassenzuordnung durch, ausgedrückt durch den Zielvektor y und der mutmaßlichen Bedeutung d. Wichtig ist in diesem Zusammenhang, daß der die wahre Bedeutung anzeigende Zielvektor y (für die Klassifikation stets ein Einheitsvektor mit der Eins für die Klassenzugehörig­ keit an der entsprechenden Position) unmittelbar als zu schät­ zende Größe aufgefaßt wird.The task of optimizing the recognition system, the construction of an optimal classifier, can therefore be broken down into the two building blocks, estimation function d k (v) and minimum-maximum search. The central importance here is the determination of the estimation function, which transforms the feature vector v into an estimation vector d. The subsequent evaluation system now carries out an evaluation of the actual class assignment, expressed by the target vector y and the presumed meaning d. It is important in this context that the target vector indicating the true meaning (for the classification always a unit vector with the one for the class membership at the appropriate position) is immediately understood as a quantity to be estimated.

Optimierungsziel ist nach dem sogenannten Quadratmittelansatz die Minimierung des Betragsquadrates des Fehlervektors |y-d|2. Da die Minimierung über den gesamten Prozeß erfolgen muß, wird zur Formulierung der folgenden Optimierungsbedingung der Erwartungswert E verwendet.
The optimization goal according to the so-called square mean approach is to minimize the amount square of the error vector | yd | 2nd Since the minimization must take place over the entire process, the expected value E is used to formulate the following optimization condition.

S2 = E{|y-d|2} = MINIMUM (2)S 2 = E {| yd | 2 } = MINIMUM (2)

Die beiden Vektoren y und d sind formal gleich aufgebaut. Dabei nehmen die Komponenten des Zielvektors y nur die Werte Null oder Eins an, da die Klassenzugehörigkeit k aufgrund der über­ wacht lernenden Dimensionierung eindeutig bekannt ist. Die Kom­ ponente yk ist somit ein eindeutiger Indikator für die Klassen­ zugehörigkeit zur Klasse k. Dagegen ist die Komponente dk(v) des Schätzvektors d eine Klassenzugehörigkeitsschätzung und sollte möglichst den Wert Eins besitzen, sofern der Merkmalsvektor v aus der Klasse k stammt. Andernfalls soll dk(v) möglichst den Wert Null betragen. Die als Schätzfunktion oder auch als Re­ gressionsfunktion bezeichnete Funktion d(v) liefert in ihren Komponenten somit Rückschlußwahrscheinlichkeiten. Damit führt die Quadratmitteloptimierung zu der bedingten Wahrscheinlich­ keit p (k|v) als Unterscheidungsfunktion.The two vectors y and d have the same structure. The components of the target vector y only assume the values zero or one, since the class membership k is clearly known due to the dimensioning that is to be monitored. The component y k is therefore a clear indicator of the class belonging to class k. In contrast, the component d k (v) of the estimate vector d is a class membership estimate and should have the value one if possible, provided the feature vector v comes from the class k. Otherwise, d k (v) should be zero if possible. The function d (v) referred to as the estimation function or also as the regression function thus provides probabilities of inference in its components. The square mean optimization leads to the conditional probability p (k | v) as a differentiating function.

Um einen optimalen Klassifikator realisieren zu können, müßten an dieser Stelle die Form oder die Parameter bekannt sein, die die Rückschlußwahrscheinlichkeit p(k|v) beschreiben. Dies ist jedoch nicht der Fall. Aus diesem Grund müssen approximative Lösungen für die wahre Beschreibung der Rückschlußwahrscheinlichkeit p (k|v) gefunden werden. Solche approximativen Lösungsansätze werden als Klassifikations­ algorithmen im folgenden beschrieben. Ein weiteres Problem stellt die Tatsache dar, daß die Lernstichproben, in denen die Merkmalsvektoren zur Dimensionierung des Klassifikationssystems ermittelt werden, die Eigenschaften des zugehörigen Musters möglichst vollständig wiedergeben sollten. Tatsächlich kann durch die Stichprobe die tatsächliche Lage der Muster im Merk­ malsraum nur näherungsweise ermittelt werden. Der Idealfall, daß die durch die Stichprobe gewonnenen Realisationen der Mu­ sterklassen mit der tatsächlichen Population kongruent sind, wird in der Praxis jedoch nicht zu erreichen sein. Aus diesem Grund werden die durch die Lernstichprobe ermittelten Realisa­ tionen der Musterklassen als Näherung der tatsächlichen Popula­ tion der Musterklassen verwendet. Ein Merkmalsvektor v wird demjenigen Objekt oder Ereignis zugeordnet, zu dessen Realisa­ tion der Musterklasse er die höchste Rückschlußwahrscheinlich­ keit liefert.In order to be able to implement an optimal classifier, at this point, the shape or parameters to be known that describe the probability of inference p (k | v). This is but not the case. For this reason, approximative Solutions for the true description of the  Inference probability p (k | v) can be found. Such approximate approaches are called classifications algorithms described below. Another Problem represents the fact that the learning samples in which the Feature vectors for dimensioning the classification system the properties of the associated pattern are determined should reproduce as completely as possible. In fact can by the random sample the actual position of the samples in the memo painting room can only be determined approximately. The ideal case that the realizations of the Mu classes are congruent with the actual population, will not be achievable in practice. For this The reason is the Realisa determined by the learning sample pattern class as an approximation of the actual population tion of the pattern classes used. A feature vector v becomes assigned to the object or event for whose Realisa tion of the model class is the most likely to be inferred speed delivers.

Als mögliche Vorgehensweisen zur Bestimmung von Klassifikati­ onsverfahren kommen folgende Ansätze in Frage:
The following approaches are considered as possible approaches for determining classification methods:

  • - statistischer Ansatz- statistical approach
  • - geometrischer Ansatz- geometric approach
  • - Polynomansatz- polynomial approach
  • - nichtparametrischer Ansatz- nonparametric approach

Diese Ansätze werden im weiteren Verlauf dargestellt.These approaches are presented in the further course.

Der statistische AnsatzThe statistical approach

Beim statistischen Lösungsansatz zur Klassifikation werden die Musterklassen im Merkmalsraum mit Hilfe von Verteilungsfunktio­ nen oder Verteilungsdichten erfaßt. Dabei wird der Merkmalsvek­ tor v eines Musters als Wert einer Zufallsvariablen aufgefaßt, dessen Beobachtung dann eine Information über die vorliegende Musterklasse liefert. Die Zuweisung erfolgt somit nach Ge­ sichtspunkten der maximalen Wahrscheinlichkeit. Die Schätzfunk­ tion muß also die Wahrscheinlichkeit dafür liefern, daß ein Merkmalsvektor v in eine bestimmte Klasse k gehört. Dazu muß jedoch die Verteilungsdichte innerhalb einer Klasse bekannt sein. Anhand der Verteilungsfunktion läßt sich dann die Wahr­ scheinlichkeit für alle Klassen k berechnen und durch anschlie­ ßende Maximumsuche bestimmen, daß der Merkmalsvektor in der Klasse k liegt.In the statistical approach to classification, the Sample classes in the characteristic space with the help of distribution functions NEN or distribution densities recorded. The feature vec tor v of a pattern is taken as the value of a random variable, whose observation then provides information about the present Pattern class supplies. The assignment is therefore made according to Ge viewpoints of the maximum probability. The estimation radio tion must therefore provide the probability that a  Feature vector v belongs to a certain class k. To do this however, the distribution density within a class is known be. The truth can then be determined using the distribution function Calculate the probability for all classes k and then ßende maximum search determine that the feature vector in the Class k lies.

Da sich viele stochastische Abläufe in der Natur und der Tech­ nik durch die Normalverteilung beschreiben lassen, wird häufig die klassenspezifische Verteilung der M-dimensionalen Zufalls­ variablen (in Form des Merkmalsvektors v) als Normalverteilung beschrieben.Since there are many stochastic processes in nature and tech Let nik described by the normal distribution is common the class-specific distribution of M-dimensional randomness variable (in the form of the feature vector v) as a normal distribution described.

Dabei beschreibt µ den
Μ describes the

Erwartungswert E{v} = µ (6)
Expected value E {v} = µ (6)

der kontinuierlichen Zufallsvariablen v (Merkmalsvektor) und K die entsprechende symmetrische
the continuous random variable v (feature vector) and K the corresponding symmetric

Kovarianzmatrix E{(v - µ) (v - µ)T} = K (7)Covariance matrix E {(v - µ) (v - µ) T } = K (7)

Der Erwartungswert µ wird auch als Schwerpunkt- oder Zen­ troidvektor bezeichnet. Die Koeffizienten der Kovarianzmatrix stellen ein Maß für die Abhängigkeit der Zufallsvariablen v dar, wobei KOV(vx, vy) = 0 anzeigt, daß die x-te Zufallsvaria­ ble mit der y-ten Zufallsvariablen unkorrelliert ist. Für den eindimensionalen Fall M = 1 erhält man somit die bekannte "Gaußsche Glockenkurve". Im zweidimensionalen Fall M = 2 be­ schreiben die Konturen konstanter Wahrscheinlichkeitsdichte p(v) konzentrische Ellipsoide, wobei die Wahrscheinlichkeits­ dichte, ausgehend vom Zentroidvektor µ, aufgrund des exponenti­ ellen Zusammenhangs der Normalverteilung gleichmäßig vom Zen­ trum aus abnimmt. The expected value µ is also referred to as the center of gravity or centroid vector. The coefficients of the covariance matrix represent a measure of the dependency of the random variable v, where KOV (v x , v y ) = 0 indicates that the xth random variable is uncorrelated with the yth random variable. For the one-dimensional case M = 1 one obtains the well-known "Gaussian bell curve". In the two-dimensional case M = 2, the contours of constant probability density p (v) describe concentric ellipsoids, the probability density, starting from the centroid vector µ, decreasing evenly from the center due to the exponential relationship of the normal distribution.

Für das Maß der Abnahme der Wahrscheinlichkeitsdichte zeichnen die Koeffizienten der inversen Kovarianzmatrix K-1 verantwort­ lich. Im M-dimensionalen Fall werden die Wahrscheinlichkeits­ dichten im Merkmalsraum somit durch M-dimensionale Ellipsoide beschrieben. Es wird deutlich, daß die Anzahl der Parameter zur Beschreibung der Normalverteilung mit zunehmender Dimension des Klassifikationsproblemes schnell ansteigt. Diese Feststellung wird uns im weiteren Verlauf noch beschäftigen.The coefficients of the inverse covariance matrix K -1 are responsible for the measure of the decrease in the probability density. In the M-dimensional case, the probability densities in the feature space are thus described by M-dimensional ellipsoids. It becomes clear that the number of parameters for describing the normal distribution increases rapidly with increasing dimension of the classification problem. This statement will concern us further in the further course.

Jedoch lassen sich an dieser Stelle folgende interessante Ei­ genschaften der Normalverteilung festhalten:
However, the following interesting properties of the normal distribution can be recorded here:

  • - die Normalverteilung läßt sich durch die beiden Parameter Zentroidwert µ und Kovarianzmatrix K vollständig beschreiben- The normal distribution can be determined by the two parameters Centroid value µ and covariance matrix K complete describe
  • - durch Linearkombination zweier normalverteilter Variablen entsteht wieder eine normalverteilte stochastische Variable- by linear combination of two normally distributed variables a normally distributed stochastic variable is created again
  • - wenn zwei normalverteilte Variablen unkorreliert sind (KOV[vx, vy] = 0), so sind diese auch statistisch unabhängig- If two normally distributed variables are uncorrelated (KOV [v x , v y ] = 0), they are also statistically independent

Diese Eigenschaften sind für die nun folgende Ableitung einer Entscheidungsfunktion zur Klassifikation von großer Bedeutung. Gleichwohl stellt sich dabei die Frage, inwieweit die klassen­ spezifischen Objekte bzw. Ereignisse überhaupt die Eigenschaft besitzen, normalverteilt zu sein. Es ist nicht sehr plausibel, daß in allen realen Anwendungen die Wahrscheinlichkeitsvertei­ lungen so einfach und regelmäßig normalverteilt sind. Auch läßt sich eine Normalverteilung bei der zumeist großen Dimension der Klassifikationsprobleme nicht ohne weiteres durch statistische Tests beantworten. Aus diesem Grund geht man in der Praxis den umgekehrten Weg, indem man das Normalverteilungsmodell als praktikable Annäherung an die Realität zugrunde legt, und dann, wenn der Klassifikatortyp ein befriedigendes Ergebnis liefert, den Schluß zieht, daß die Normalverteilungshypothese richtig war. In der Regel wird diese Vorgehensweise in der Praxis durch gute Klassifikationsergebnisse bestätigt.These properties are one for the following derivation Decision function for classification of great importance. Nevertheless, the question arises to what extent the classes specific objects or events possess to be normally distributed. It’s not very plausible that in all real applications the probability distribution lungs are so simple and regularly distributed normally. Also lets a normal distribution in the mostly large dimension of Classification problems are not easily caused by statistical Answer tests. For this reason, one goes in practice reverse way by using the normal distribution model as practicable approximation to reality, and then, if the classifier type gives a satisfactory result, concludes that the normal distribution hypothesis is correct was. As a rule, this procedure is followed in practice good classification results confirmed.

Maximum-Likelihood KlassifikatorMaximum likelihood classifier

Dem Maximum-Likelihood Klassifikator liegt ein statistischer Ansatz mit Annahme der Normalverteilung zugrunde. Zur Ableitung einer entsprechenden Entscheidungsfunktion bzw. Schätzgleichung d(v) müssen dazu einige Wahrscheinlichkeiten definiert werden:
p(k) apriori-Wahrscheinlichkeit der Musterklasse k;
p(v) Wahrscheinlichkeit der Merkmalsvektoren v;
Rk Bereich des Merkmalsraumes, in dem die Merk­ malsvektoren v zur Musterklasse k klassifiziert werden;
p(v im Bereich Rk|k) Wahrscheinlichkeit, daß Merk­ malsvektor v zur Musterklasse k klassifiziert wird;
C = [ckj Verlustmatrix (es tritt der Verlust ckj ein, wenn v aus der Klasse k stammt, jedoch zur Klasse j klas­ sifiziert wird
The maximum likelihood classifier is based on a statistical approach assuming the normal distribution. To derive a corresponding decision function or estimation equation d (v), some probabilities have to be defined:
p (k) a priori probability of the model class k;
p (v) probability of the feature vectors v;
R k area of the feature space in which the feature vectors v are classified into the pattern class k;
p (v in the range R k | k) probability that feature vector v is classified into the pattern class k;
C = [c kj loss matrix (loss c kj occurs if v comes from class k, but is classified to class j

Damit ergibt sich die Wahrscheinlichkeit, daß ein Merkmalsvek­ tor v aus der Klasse k auftritt und zu k klassifiziert wird wie folgt
This results in the probability that a feature vector v from class k occurs and is classified as k as follows

p(k) p(v im Bereich Rk|k) (8)
p (k) p (v in the range R k | k) (8)

und analog dazu berechnet sich die Wahrscheinlichkeit, daß ein Merkmalsvektor v aus der Klasse k auftritt und falsch zur Klas­ se j klassifiziert wird nach
and analogously, the probability that a feature vector v from class k occurs and is incorrectly classified into class j is calculated according to

p(k) p(v im Bereich Rj|k) (9)p (k) p (v in the range R j | k) (9)

Der bei der Klassifikation eines Merkmalsvektors v zu einer der K Klassen zu erwartende Verlust ist somit gegeben durch
The loss to be expected when classifying a feature vector v to one of the K classes is thus given by

Zur Ableitung einer optimalen Entscheidungsfunktion gilt es al­ so die Bereiche R des Merkmalsraumes so zu wählen, daß der zu erwartende Verlust minimiert wird. Das ist dann der Fall, wenn ein Merkmalsvektor v in Rk liegt und gleichzeitig gilt:
To derive an optimal decision function, it is therefore necessary to select the areas R of the feature space so that the expected loss is minimized. This is the case if a feature vector v lies in R k and the following also applies:

Einen Klassifikator, der nach dieser Entscheidungsregel arbei­ tet, bezeichnet man auch als "Bayes'schen Klassifikator" (siehe hierzu auch [3]). Diese allgemeine Form ist dann optimal, wenn alle statistischen Annahmen zutreffen und die Verlustmatrix C bekannt ist. Für letztere verwendet man in der Praxis vereinfa­ chend eine sogenannte antiproportionale Kostenmatrix, d. h., daß bei richtiger Klassifizierung kein Verlust (cii = 0), bei fal­ scher Klassifizierung jedoch stets derselbe Verlust (c1j = i << j) eintritt. Einen nach dieser als Maximum-Likelihood-Ent­ scheidungsregel schätzenden Klassifikator bezeichnet man dementsprechend als Maximum-Likelihood Klassifikator.A classifier that works according to this decision rule is also referred to as a "Bayesian classifier" (see also [3]). This general form is optimal if all statistical assumptions are correct and the loss matrix C is known. In practice, a so-called anti-proportional cost matrix is used for the latter, which means that if the classification is correct, there is no loss (c ii = 0), but if the classification is incorrect, the same loss always occurs (c 1j = i << j). A classifier which estimates this as a maximum likelihood decision rule is accordingly referred to as a maximum likelihood classifier.

Mit der Annahme einer antiproportionalen Kostenmatrix verein­ facht sich obige Bedingung zu:
With the assumption of an anti-proportional cost matrix, the above condition is simplified:

p() - p(k)p(/k) < p() - p(j)p(/j), mit j ε [0, . . ., K - 1],j ≠ k (12)p () - p (k) p (/ k) <p () - p (j) p (/ j), with j ε [0,. . ., K - 1], j ≠ k (12)

Da sich für die Wahrscheinlichkeit p(v) dabei immer derselbe Wert ergibt, kann dieser Term weggelassen werden und es resul­ tiert für die Schätzgleichung
Since the probability p (v) is always the same, this term can be omitted and results in the estimation equation

dk() = p(k)p(/k) (13)
d k () = p (k) p (/ k) (13)

die sich nur noch aus dem Produkt der Auftrittswahrscheinlich­ keit der zugehörigen Klasse p(k) und der Wahrscheinlichkeits­ verteilung innerhalb einer Klasse p(v|k) berechnet. Wenn man die in den Vorüberlegungen zum statistischen Ansatz ermittelten Terme bezüglich der Normalverteilung einsetzt, so erhält man die Schätzgleichung für den Maximum-Likelihood Klassifikator:
which is now only calculated from the product of the probability of occurrence of the associated class p (k) and the probability distribution within a class p (v | k). If one uses the terms determined in the preliminary considerations for the statistical approach with regard to the normal distribution, one obtains the estimation equation for the maximum likelihood classifier:

Aufgrund der bereits oben angesprochenen Eigenschaften der Nor­ malverteilung und der Monotonie des Logarithmus beeinflußt es die Entscheidung nicht, wenn sämtliche Schätzgleichungen dk(v) der gleichen monotonen Abbildung
Due to the properties of the normal distribution and the monotony of the logarithm already mentioned above, it does not affect the decision if all the estimation equations d k (v) of the same monotone mapping

unterwor­ fen werden und diese somit logarithmiert werden. subordinate open and logarithmic.  

Somit ergibt sich folgende endgültige Schätzgleichung zur Be­ stimmung der maximalen Rückschlußwahrscheinlichkeit:
This results in the following final estimation equation for determining the maximum inference probability:

Da diese Schätzgleichung eine quadratische Funktion bezüglich des Merkmalsvektors v darstellt, erhält man also einen quadra­ tischen Klassifikator, dessen Entscheidungsfunktion sich dem­ entsprechend geometrisch als Paraboloid über dem Merkmalsraum deuten läßt. Für jede Musterklasse existiert ein solcher Para­ boloid, wobei das Klassifikationsergebnis umso eindeutiger aus­ fallen wird, je weiter die Paraboloide im Merkmalsraum vonein­ ander entfernt liegen. Die Rückschlußwahrscheinlichkeit steigt mit zunehmender Nähe zum Zentroidvektor. Im M-dimensionalen Klassifikationsproblem werden die unterschiedlichen Musterklas­ sen durch Hyperparaboloide getrennt. Die Gebiete sind nicht notwendigerweise zusammenhängend und besonders beim Zerfall der Klassengebiete kann eine recht komplizierte Begrenzung entstehen.Because this estimation equation is a quadratic function with respect to of the feature vector v, you get a quadra table classifier, the decision-making function of which accordingly geometrically as a paraboloid over the feature space lets interpret. There is such a para for each sample class boloid, the classification result being all the more clear will fall, the further the paraboloid in the feature space others are distant. The probability of inference increases with increasing proximity to the centroid vector. In the M-dimensional The different sample classes become classification problems separated by hyperparaboloids. The areas are not necessarily coherent and especially when the Class areas can be a fairly complicated limitation arise.

Problematisch für die Klassifikation stellt sich vor allem die Konstellation dar, daß sich einzelne Klassengebiete überschnei­ den und ein Merkmalsvektor innerhalb dieser Schnittmenge liegt. Solche Durchdringungen beinhalten ein hohes Risiko der Fehl­ klassifikation, das im Zuge der statistischen Entscheidung­ stheorie nicht weiter minimiert werden kann. Solche Probleme lassen sich somit nur durch eine geeignete Merkmalsextraktion vermeiden. Für diese lassen sich jedoch bis heute keine Metho­ den und Regeln aufstellen, die eine systematische Vorgehenswei­ se ermöglichen würden. Bei dieser Aufgabe ist somit in hohem Maße der Sachverstand und der Einfallsreichtum des Ingenieurs gefordert.Above all, the classification is problematic Constellation shows that individual class areas overlap and a feature vector lies within this intersection. Such penetrations involve a high risk of failure classification in the course of the statistical decision theory cannot be further minimized. Such problems can only be achieved by a suitable feature extraction avoid. To this day, however, no metho can be used and establish rules that follow a systematic approach would enable. This task is therefore high Measures the expertise and ingenuity of the engineer required.

Ein weiteres Problem stellt die bereits erwähnte Tatsache dar, daß es sich beim Maximum-Likelihood Klassifikator um einen qua­ dratischen Klassifikator handelt. Die beiden ersten Terme der vorangehenden Schätzgleichung (15) ln(Pk) und -1/2 ln(detKk) sind konstant und können somit vor der Klassifikation berechnet werden, so daß sie den Rechenaufwand nur unwesentlich beein­ flussen. Wie anhand des experimentellen Teils dieser Diplomar­ beit in einem späteren Kapitel deutlich werden wird, ist der Rechenaufwand (und auch der Speicherplatzaufwand) des letzten Termes ungleich höher. Durch die erforderlichen Matrizenmulti­ plikationen zur Bildung der quadratischen Form, die für jede Klassifikation eines Merkmalsvektors v durchgeführt werden müs­ sen, steigt der Rechenaufwand mit wachsender Dimension M um die Ordnung O(M2) an. Aus diesem Grund werden im folgenden Maßnah­ men zur Vereinfachung der Klassifikation und zur Verringerung des Rechenaufwandes beschrieben.Another problem is the fact that the maximum likelihood classifier is a quadratic classifier. The first two terms of the preceding estimation equation (15) ln (P k ) and -1/2 ln (detK k ) are constant and can therefore be calculated before the classification, so that they have only an insignificant influence on the computational effort. As will be clear from the experimental part of this diploma thesis in a later chapter, the computation effort (and also the storage space requirement) of the last term is much higher. Due to the required matrix multiplications for the formation of the quadratic form, which must be carried out for each classification of a feature vector v, the computing effort increases with the dimension M by the order O (M 2 ). For this reason, measures to simplify the classification and reduce the computing effort are described below.

Mahalanobis AbstandsklassifikatorMahalanobi's distance classifier

Eine deutliche Vereinfachung des Maximum-Likelihood Klassifika­ tors läßt sich durch die Annahme erzielen, daß die klassenspe­ zifischen Kovarianzmatrizen Kk identisch sind und außerdem die klassenspezifischen Auftrittswahrscheinlichkeiten pk gleich sind:
A significant simplification of the maximum likelihood classifier can be achieved by assuming that the class-specific covariance matrices K k are identical and that the class-specific occurrence probabilities p k are the same:

p(v|k) = N(µk, K) und p(k) = Pk = 1/k (16)p (v | k) = N (µ k , K) and p (k) = P k = 1 / k (16)

Für diesen Fall läßt sich die Entscheidungsfunktion nach Glei­ chung (3-14) durch eine monotone Abbildung
In this case, the decision function according to equation (3-14) can be represented by a monotonous mapping

wesentlich vereinfachen zur folgenden Schätzgleichung des Mahalanobis Abstandsklassifikators:
simplify considerably to the following estimation equation of the Mahalanobis distance classifier:

Auf die Berücksichtigung der klassenspezifischen Auftrittswahr­ scheinlichkeit p(k) kann verzichtet werden, da diese bei der Berechnung der Rückschlußwahrscheinlichkeit für alle Klassen identisch ist. Man erhält dadurch eine lineare Schätzfunktion bezüglich des Merkmalsvektors v, so daß die Zahl der erforder­ lichen numerischen Operationen gegenüber dem quadratischen Klassifikator deutlich verringert werden können. Zudem ist der zweite Term konstant und kann vor der Klassifikation berechnet werden. Daneben reduziert sich auch der Aufwand zur Parameter­ speicherung in der Lernphase enorm, da nicht mehr für jede Klasse eine Kovarianzmatrix gespeichert werden muß, sondern nur noch der vorberechnete Vektor µk TK-1.The class-specific probability of occurrence p (k) can be dispensed with, since this is identical for all classes when calculating the probability of inference. This gives a linear estimator with respect to the feature vector v, so that the number of required numerical operations can be significantly reduced compared to the quadratic classifier. In addition, the second term is constant and can be calculated before the classification. In addition, the effort for parameter storage in the learning phase is reduced enormously, since it is no longer necessary to save a covariance matrix for each class, but only the precalculated vector µ k T K -1 .

Für die statistische Annahme identischer Kovarianzmatrizen las­ sen sich vor allem bei nachrichtentechnischen Klassifikations­ aufgaben gute Ergebnisse erzielen, da dort häufig Fälle auftre­ ten, in denen sich ein Merkmalsvektor v aus der additiven Über­ lagerung eines gegebenen Sollwertes (Signal) und einer zufälli­ gen normalverteilten und für alle Klassen gleichen Störvaria­ blen (Rauschen) zusammensetzt.For the statistical assumption of identical covariance matrices read are particularly useful for communications classifications tasks achieve good results because cases often occur there ten in which a feature vector v results from the additive transfer storage of a given setpoint (signal) and a random genetically distributed disturbance varieties that are the same for all classes blen (noise).

Die Schätzgleichung des Mahalanobis Abstandsklassifikators läßt sich geometrisch - in Fortführung der Betrachtungen des quadra­ tischen Klassifikators - folgendermaßen deuten. Die Klassenge­ biete werden nun durch (M-1)-dimensionale lineare Unterräume separiert. Dies sind im dreidimensionalen Fall Trennebenen oder im zweidimensionalen Fall Trenngeraden zwischen den einzelnen Klassen.The Mahalanobis distance classifier's equation lets themselves geometrically - in continuation of the considerations of the quadra table classifier - interpret as follows. The class limit are now offered by (M-1) -dimensional linear subspaces separated. In the three-dimensional case, these are separation planes or in the two-dimensional case, dividing lines between the individual Classes.

Wie die Bezeichnung Abstandsklassifikator schon andeutet, läßt sich der lineare Klassifikator geometrisch auch als Abstand vom Merkmalsvektor v zum Zentroidvektor µ deuten. Verzichtet man im Zuge der Vereinfachung der Entscheidungsfunktion nach Gleichung (14) auf die Entfernung des konstanten Faktors 1/2 vTK-1v, so erhält man als Schätzgleichung
As the term distance classifier already indicates, the linear classifier can also be interpreted geometrically as the distance from the feature vector v to the centroid vector µ. If one does not remove the constant factor 1/2 v T K -1 v in the course of simplifying the decision function according to equation (14), the result is an estimation equation

dk() = ( - k)TK-1( - k) (17)d k () = (- k ) T K -1 (- k ) (17)

Da die Abbildung zur Herleitung letzterer Schätzgleichung mono­ ton fallend ist, ergibt sich die Klassifikation nunmehr durch eine Minimumentscheidung. Der geometrische Ort aller Merkmals­ vektoren v, die vermöge dieser auch als Mahalanobis-Distanz be­ zeichneten Größe denselben Abstand zu einer Musterklasse k be­ sitzen, beschreiben ein M-dimensionales Ellipsoid. Im zweidimensionalen Merkmalsraum wird dieser Abstand dementspre­ chend als Ellipse dargestellt.Since the figure for deriving the latter estimation equation mono is falling, the classification is now given by a minimal decision. The geometric location of all features vectors v that can also be used as Mahalanobis distance the same distance from a sample class k sit, describe an M-dimensional ellipsoid. in the  this distance is accordingly two-dimensional feature space shown as an ellipse.

Damit ist auch schon die Überleitung zu einer anderen Klassifi­ kationsstrategie, dem geometrischen Ansatz, geschaffen. Dieser Ansatz soll im weiteren näher verfolgt werden.This is the transition to another classifi cation strategy, the geometric approach. This Approach will be pursued in more detail below.

Der geometrische AnsatzThe geometric approach

Die Idee, die dem geometrischen Ansatz zugrunde liegt, besteht in der Berechnung von Trennfunktionen zwischen den einzelnen Musterklassen. Da nämlich - wie im vorangehenden Abschnitt deutlich wurde - für den statistischen Ansatz bestimmte aprio­ ri-Informationen bezüglich der Verteilungsdichte und der Auf­ trittswahrscheinlichkeiten vorhanden sein müssen und sich die Berechnung einer M-dimensionalen Verteilungsdichte als sehr aufwendig erwiesen hat, lassen sich die statistischen Klassifi­ katoren aufgrund der genannten Einschränkungen nicht für jedes beliebige Klassifikationsproblem einsetzen. Gesucht wird des­ halb eine Klassifikationsstrategie, die ohne die notwendige Kenntnis von Verteilungsdichten auskommt. Diese Forderung er­ füllt der geometrische Ansatz, bei dem ein Merkmalsvektor v als ein Punkt im M-dimensionalen Merkmalsraum aufgefaßt wird. Eine Klassifikation wird durch das Auffinden einer Hyperfläche er­ möglicht, die die Merkmalsvektoren einer Klasse von denen einer anderen Klasse trennt. Beim geometrischen Ansatz wird die Ent­ scheidungsfunktion somit durch Trennflächen bzw. Trennfunktio­ nen oder durch Kombinationen davon realisiert. Jedoch ist auch diese Vorgehensweise nicht unproblematisch. So können die Trennflächen, ähnlich wie die Verteilungsdichten beim statisti­ schen Ansatz, theoretisch beliebige Formen annehmen. Auch beim geometrischen Ansatz müssen in der Praxis daher Einschränkungen gemacht werden, indem man sich auf einfache Formen der Trenn­ funktionen beschränkt. Zudem muß die Art und Weise der Trennung zwischen den Klassen beim geometrischen Ansatz anders interpre­ tiert werden. Während beim statistischen Ansatz eine Maximie­ rung der Rückschlußwahrscheinlichkeit zur Klassifikation führt, erfordert die geometrische Interpretation eine Minimierung des Abstandes zwischen einem Merkmalsvektor und den einzelnen Klas­ senschwerpunkten, den bereits eingeführten Zentroidvektoren. Zunächst kann der Merkmalsraum aufgrund der Trennfläche nur in zwei Bereiche geteilt werden. Für mehrere Trennflächen lassen sich jedoch auch mehrere Klassen unterscheiden.The idea on which the geometric approach is based exists in the calculation of separation functions between the individual Sample classes. Because - as in the previous section became clear - aprio intended for the statistical approach ri information regarding the distribution density and the up Probabilities of occurrence must exist and the Calculation of an M-dimensional distribution density as very has proven to be complex, the statistical classifi kator not for everyone due to the restrictions mentioned use any classification problem. We are looking for half a classification strategy without the necessary Knowledge of distribution densities. This request he fills the geometric approach, in which a feature vector v as a point in the M-dimensional feature space is understood. A Classification is achieved by finding a hypersurface possible, which are the feature vectors of a class of which one separates another class. With the geometric approach, the Ent divorce function thus by separating surfaces or separating function NEN or realized by combinations thereof. However, too this approach is not without problems. So they can Dividing surfaces, similar to the distribution densities in the statistical approach, theoretically take any form. Also at In practice, geometric approaches therefore have limitations be made by looking at simple forms of separation limited functions. In addition, the way of separation interpre differently between the classes in the geometric approach be animals. While the statistical approach is a maxim the probability of inference leads to classification, the geometric interpretation requires a minimization of the  Distance between a feature vector and the individual classes focus, the already introduced centroid vectors. First, the feature space can only be in because of the interface two areas can be divided. Leave for multiple partitions however, several classes also differ.

Euklid'scher AbstandsklassifikatorEuclidean distance classifier

Wie anhand des Mahalanobis Abstandsklassifikators deutlich wur­ de, lassen sich geometrische Klassifikatoren aus den statisti­ schen Klassifikatoren ableiten. Der mit dem geometrischen An­ satz verbundenen Forderung eines Verzichts auf Verteilungsdich­ ten kann durch den Spezialfall unkorrelierter Merkmale Rechnung getragen werden. Anschaulich bedeutet dies, daß alle Klassen die gleiche rotationssymmetrische Verteilung aufweisen und sich nunmehr lediglich durch ihre Schwerpunkte, die Zentroidvektoren p unterscheiden. Auf die Kovarianzmatrix K kann verzichtet wer­ den, indem man an ihrer Stelle eine mit der Streuung multipli­ zierte Einheitsmatrix I annimmt:
As became clear from the Mahalanobis distance classifier, geometric classifiers can be derived from the statistical classifiers. The requirement of not using distribution densities associated with the geometric approach can be met by the special case of uncorrelated features. This clearly means that all classes have the same rotationally symmetrical distribution and now differ only in their focal points, the centroid vectors p. The covariance matrix K can be dispensed with by assuming in its place a unit matrix I multiplied by the scatter:

K=σ2I (19)K = σ 2 I (19)

Eingesetzt in die Ausgangsform der Schätzgleichungen (14) er­ hält man dadurch nach einigen Vereinfachungen:
Inserted into the initial form of the estimation equations (14) it is obtained after a few simplifications:

Aus Gleichung (3-20) läßt mit dieser Vereinfachung durch die monoton fallende Abbildung
With this simplification, from equation (3-20), the monotonically falling figure shows

folgende einfache Schätzgleichung für den Euklid'schen Abstandsklassifi­ kator ableiten:
derive the following simple estimation equation for the Euclidean distance classifier:

dk() = |-k|2 = ||2 + |k|2 - 2k T (21)d k () = | - k | 2 = || 2 + | k | 2 - 2 k T (21)

Die Schätzfunktion beschreibt also nichts anderes als das Eu­ klid'sche Abstandsquadrat zwischen dem Merkmalsvektor v und dem Zentroidvektor µ. Geometrisch läßt sich die Klassifikation somit einfach als eine Minimierung des Abstandes zwischen den Klassenmittelpunkten (Zentroidvektoren) und dem zu klassifizie­ renden Merkmalsvektor deuten. Im zweidimensionalen Merkmalsraum werden die Schätzfunktionen nunmehr durch Kreise beschrieben, die Trennflächen bleiben Ebenen, da der Klassifikator weiterhin linear bezüglich der Merkmalsvektoren v ist. Die Trennflächen stehen nun jedoch senkrecht auf den Verbindungslinien zwischen den einzelnen Klassenschwerpunkten.The estimator therefore describes nothing other than the Eu klid'sche square between the feature vector v and the Centroid vector µ. The classification can be defined geometrically  thus simply as a minimization of the distance between the Class midpoints (centroid vectors) and the to be classified interpret the characteristic vector. In the two-dimensional feature space the estimation functions are now described by circles, the dividing surfaces remain levels because the classifier continues is linear with respect to the feature vectors v. The parting surfaces are now perpendicular to the connecting lines between the individual major subjects.

Übertragen auf den M-dimensionalen Merkmalsraum werden die Ent­ scheidungsfunktionen somit zu Hyperkugeln, die Trennflächen zu Hyperebenen.Transferred to the M-dimensional feature space, the Ent So divorce functions to form hyperspheres that separate partitions Hyperplanes.

Wenn man Gleichung 21 näher betrachtet, so läßt sich leicht er­ kennen, daß der Term |v|2 konstant ist und somit weggelassen werden kann. Der Euklid'sche Abstandsklassifikator ist daher wesentlich einfacher zu implementieren als seine statistischen Vorgänger. Auch in bezug auf den Rechenaufwand bietet er we­ sentlich günstigere Bedingungen.If we take a closer look at equation 21, it is easy to know that the term | v | 2 is constant and can therefore be omitted. The Euclidean distance classifier is therefore much easier to implement than its statistical predecessor. It also offers considerably more favorable conditions in terms of computing effort.

City-Block-KlassifikatorCity block classifier

Durch eine einfache Abwandlung der geometrischen Abstandsbe­ rechnung läßt sich aus der Schätzgleichung ein weiterer geome­ trischer Klassifikator ableiten. Indem man den geometrischen Abstand anstelle der Quadrierung durch Betragsbildung berech­ net, erhält man die Schätzgleichung für den City-Block-Klassifikator:
By simply modifying the geometric distance calculation, a further geometric classifier can be derived from the estimation equation. By calculating the geometric distance instead of the squaring by forming an amount, one obtains the estimation equation for the city block classifier:

dk() = | - k| (22)d k () = | - k | (22)

Diese Schreibweise ist anschaulich als eine komponentenweise Addition der Beträge über alle Merkmale M zu interpretieren. Da eine Realisierung dieses Klassifikators für die Lernphase eben­ falls nur die Berechnung der Zentroidvektoren µ erfordert, be­ darf es keiner zusätzlichen Routinen zur Implementierung der Lernphase des City-Block-Klassifikators, da auf die Trainings­ daten (Wissensbasis) des Euklid'schen Abstandsklassifikators zurückgegriffen werden kann. This notation is descriptive as a component Add the amounts to be interpreted across all characteristics M. There a realization of this classifier for the learning phase if only the calculation of the centroid vectors requires µ, be there may be no additional routines to implement the Learning phase of the city block classifier because of the training data (knowledge base) of the Euclidean distance classifier can be used.  

Der PolynomansatzThe polynomial approach

Da die beim geometrischen Ansatz betrachteten Trennflächen zur Separierung der Musterklassen im Merkmalsraum nicht beliebig komplizierte Formen annehmen können, geht man beim Polynoman­ satz einen anderen Weg. Wie bei den Vorüberlegungen zu den un­ terschiedlichen Klassifikationsstrategien anhand des optimalen Klassifikationssystemes gezeigt wurde, kann die Unterschei­ dungs- bzw. Trennfunktion beliebige Formen annehmen. Ein Weg zur Klassifikation kann demnach darin bestehen, daß man ver­ sucht, diese optimale Unterscheidungsfunktion zu approximieren. Um jedoch eine mathematisch faßbare Form zu erhalten, müssen einige Einschränkungen gemacht werden. Grundsätzlich kann jede beliebige mathematische Funktion in Form einer Reihenentwick­ lung beschrieben werden. Diese Methode der Darstellung ist je­ doch für eine Implementierung ungeeignet. Es empfiehlt sich, sich auf eine bestimmte Funktionenklasse zu beschränken. Ein möglicher Approximationsansatz besteht in der Beschreibung ei­ ner Unterscheidungsfunktion in Form von Polynomen, wie man sie auch bei Methoden der Ausgleichsrechnung benutzt. Theoretisch kann durch ein Polynom M-ten Grades jede beliebige mathemati­ sche Funktion angenähert werden. Da in der Praxis ein vollstän­ diger Polynomansatz kaum durchführbar ist, beschränkt man sich zumeist auf Polynomapproximationen bis zur 3. Ordnung.Since the separating surfaces considered in the geometrical approach to Separation of the pattern classes in the characteristic space is not arbitrary complex shapes can be taken with the Polynoman set another way. As with the preliminary considerations for the un different classification strategies based on the optimal Classification system has been shown, the difference can take any shape. One way for classification can therefore consist in ver seeks to approximate this optimal distinctive function. However, in order to obtain a mathematically comprehensible form, some restrictions are made. Basically everyone can any mathematical function in the form of a series development be described. This method of representation is ever but unsuitable for an implementation. It is advisable, restrict yourself to a certain class of functions. A a possible approximation approach consists in the description ei ner distinctive function in the form of polynomials, as one can also used in methods of compensation calculation. Theoretically can be any mathematical by an M-th degree polynomial cal function can be approximated. As a complete in practice polynomial approach is hardly feasible, one limits oneself mostly on 3rd order polynomial approximations.

Im folgenden soll nun die allgemeine Form des Polynomansatzes zur Beschreibung der Unterscheidungsfunktionen dargestellt werden:
In the following, the general form of the polynomial approach for the description of the differentiation functions will be presented:

Das Polynom setzt sich also wie allgemein bekannt aus den Pro­ dukttermen der Koeffizienten a und den Komponenten des Merk­ malsvektors v zusammen. Der Merkmalsvektor v besitze die Dimen­ sion M, wonach sich der allgemeine Polynomansatz aus den kon­ stanten Merkmalskomponenten und deren Kombinationen bis zum Grad der angestrebten Ordnung beschreiben läßt. Um eine an­ schaulichere Form des Polynomansatzes zu erhalten, empfiehlt es sich, die Merkmalskomponenten nach folgendem Schema umzubenennen:
As is generally known, the polynomial is composed of the product terms of the coefficients a and the components of the feature vector v. The feature vector v has the dimension M, after which the general polynomial approach can be described from the constant feature components and their combinations to the degree of the desired order. In order to obtain a more descriptive form of the polynomial approach, it is advisable to rename the feature components according to the following scheme:

x0 = 1, x1 = v1, x2 = v2, . . ., xM = vM, xM+1 = v1 2, xM+2 = v1v2,. . . (24)x 0 = 1, x 1 = v 1 , x 2 = v 2,. . ., x M = v M , x M + 1 = v 1 2 , x M + 2 = v 1 v 2,. . . (24)

Damit läßt sich die Schätzgleichung des Polynomansatzes in der kompakteren Vektorschreibweise formulieren:
This enables the estimation equation of the polynomial approach to be formulated in the more compact vector notation:

Die Polynomstruktur wird demnach durch die Abb. x(v) be­ schrieben, die den um die Polynomterme erweiterten Merkmalsvek­ tor v widerspiegelt. Für jede Klasse k existiert zudem ein Koeffizientenvektor a, der die für die jeweilige Schätzfunktion einer Klasse zu optimierenden Parameter erfaßt.The polynomial structure is therefore shown by Fig. X (v) wrote the feature vek extended by the polynomial terms gate v reflects. There is also a for each class k Coefficient vector a, which for the respective estimator parameters to be optimized in a class.

Faßt man alle diese Koeffizientenvektoren aller K Klassen zu einer Matrix und alle Schätz-werte d zu einem Schätzvektor zu­ sammen, so läßt sich der vollständige Polynomansatz kompakt formulieren zu:
If all these coefficient vectors of all K classes are combined into a matrix and all estimated values d are combined into one estimated vector, the complete polynomial approach can be formulated compactly:

() = AT() (26)() = AT () (26)

Ein weiteres Problem stellt im folgenden noch die Bestimmung der optimalen Koeffizienten a dar. Wie die zu schätzenden Para­ meter, Zentroidvektoren µ beim geometrischen Ansatz und zusätz­ lich die Kovarianzmatrix K beim statistischen Ansatz, so müssen auch beim Polynomklassifikator die optimalen Koeffizienten a in einer Lernphase bestimmt werden. Die Koeffizienten sind dann optimal, wenn sie die wahre Entscheidungsfunktion in Form des Polynoms widerspiegeln. Eine erste Einschränkung bildet in dieser Hinsicht die Beschränkung auf Polynome bis zu einem be­ stimmten Grad. Diese Frage des Einflusses der Ordnung des Po­ lynoms soll jedoch erst in den beiden folgenden Abschnitten er­ örtert werden. Zur Herleitung einer Bestimmungsgleichung für die Lösung wird daher wiederum der vollständige Polynomansatz betrachtet, da die optimale Bestimmungsgleichung unabhängig von der Ordnung des Polynomansatzes ist.The determination poses another problem in the following of the optimal coefficients a. Like the para to be estimated meters, centroid vectors µ for the geometric approach and additional Lich the covariance matrix K in the statistical approach, so must also the optimal coefficients a in for the polynomial classifier during a learning phase. The coefficients are then optimal if they have the true decision function in the form of Reflect polynomials. A first limitation is in In this regard, the restriction to polynomials up to one be agreed degrees. This question of the influence of the order of the bottom However, lynoms should only be discussed in the following two sections be discussed. To derive an equation for  the solution is therefore again the complete polynomial approach considered because the optimal equation is independent of the order of the polynomial approach.

Ausgangspunkt bildet wieder der Quadratmittelansatz |y - d|2, also die Minimierung des Betragsquadrates des Fehlervektors über den gesamten Prozeß:
The starting point again is the square mean approach | y - d | 2 , i.e. minimizing the amount square of the error vector over the entire process:

S2 = E{| - AT()|} (27)S 2 = E {| - AT () |} (27)

S als Funktion der gesuchten Koeffizienten a gilt es zu opti­ mieren. Das Extremum von S befindet sich an der Stelle, an der die partiellen Ableitungen nach den Koeffizienten verschwinden. Da die 2. Ableitung der Matrix A nach den Koeffizienten stets positiv ist (Matrix ist nicht negativ definit), erhält man das gesuchte Minimum. Der besseren Übersicht halber werden die fol­ genden Formeln anhand einer einzelnen Klasse k dargestellt:
S as a function of the sought coefficients a must be optimized. The extreme of S is at the point where the partial derivatives vanish according to the coefficients. Since the 2nd derivative of the matrix A after the coefficients is always positive (matrix is not a negative definite), you get the minimum you are looking for. For the sake of clarity, the following formulas are shown using a single class k:

Indem man diese Gleichungen auflöst und yk auf die rechte Seite bringt, erhält man die sogenannten Normalgleichungen, die fol­ gendes lineares Gleichungssystem bezüglich der Koeffizienten ak für gegebene Polynomvektoren x bilden:
By solving these equations and placing y k on the right side, one obtains the so-called normal equations, which form the following system of linear equations with respect to the coefficients a k for given polynomial vectors x:

Auch dieses Gleichungssystem läßt sich in der Vektorschreibwei­ se zur Bestimmung der Koeffizienten für eine bestimmte Klasse k wie folgt formulieren:
This system of equations can also be formulated in vector writing to determine the coefficients for a specific class k as follows:

E{()()T}k = E{()k} (30)E {() () T } k = E {() k } (30)

Faßt man die einzelnen Koeffizientenvektoren ak wieder zu einer Matrix A zusammen, so erhält man eine kompakte Schreibweise für die optimalen Bestimmungsgleichungen über das gesamte Erkennungsproblem:
Combining the individual coefficient vectors a k into a matrix A again gives a compact notation for the optimal determination equations over the entire recognition problem:

E{()()T}A = E{()T} (31)E {() () T } A = E {() T } (31)

Diese Schreibweise ist so zu interpretieren, daß der linke Term die quadratische Matrix aus den Erfahrungswerten über die ge­ samte Lernstichprobe - und zwar unabhängig von der Klasse k - beschreibt. Er wird multipliziert mit der Matrix A, die die ge­ suchten Koeffizientenvektoren ak liefert. Besondere Bedeutung kommt dem rechten Term zu. Die Schreibweise ist so zu verste­ hen, daß der Zielvektor y eine Ausblendeigenschaft bezüglich der Werte des Polynomvektors x besitzt. Das bedeutet, daß die rechte Seite immer den Erfahrungswert über die Polynomvektoren x einer bestimmten Klasse k darstellt. Ganz besonders zu beach­ ten ist hierbei die Tatsache, daß zur Berechnung des Erfah­ rungswertes zwar nur diejenigen Polynomvektoren eingehen, die zur jeweiligen Klasse k gehören. Die Berechnung des Erwartungs­ wertes vollzieht sich jedoch über den gesamten Stichprobenum­ fang (!). Dieses lineare Gleichungssystem läßt sich z. B. mit dem Gauß-Jordan-Algorithmus lösen. Zur Erzielung einer eindeu­ tigen Lösung (grundsätzlich besteht die Möglichkeit einer Lö­ sungsvielfalt) und einer kurzen Rechenzeit empfehlen sich spezielle Pivotstrategien zur praktischen Handhabung des Polynomansatzes.This notation is to be interpreted in such a way that the left term describes the quadratic matrix from the empirical values over the entire learning sample - regardless of the class k. It is multiplied by the matrix A, which supplies the sought coefficient vectors a k . The right term is particularly important. The notation is to be understood in such a way that the target vector y has a blanking property with regard to the values of the polynomial vector x. This means that the right side always represents the empirical value over the polynomial vectors x of a certain class k. Of particular note is the fact that only those polynomial vectors that belong to the respective class k are included in the calculation of the empirical value. However, the expected value is calculated over the entire sample size (!). This linear system of equations can e.g. B. solve with the Gauss-Jordan algorithm. To achieve an unambiguous solution (there is always the possibility of a variety of solutions) and a short computing time, special pivot strategies are recommended for practical handling of the polynomial approach.

Die so berechneten Koeffizienten a beschreiben in Abhängigkeit vom realisierten Polynomgrad eine approximative Abbildung der realen Unterscheidungsfunktion und werden zur Klassifikation in die Schätzgleichung nach Gl. 25, 26 eingesetzt. Eine anschauli­ chere Interpretation des Polynomansatzes ergibt sich, wenn man statt des Zielvektors y die Wahrscheinlichkeit p(v) = E{y|v} in die Optimierungsbedingung einsetzt. Man kann die Schätzgröße dk somit als Rückschlußwahrscheinlichkeit auffassen. Das hat zur Folge, daß die Summe der Schätzwerte dk über alle Klassen K im­ mer den Wert Eins ergeben muß:
The coefficients a calculated in this way describe an approximate mapping of the real differentiation function depending on the degree of polynomial implemented and are classified in the estimation equation according to Eq. 25, 26 used. A clearer interpretation of the polynomial approach is obtained if instead of the target vector y the probability p (v) = E {y | v} is used in the optimization condition. The estimate d k can thus be interpreted as the probability of inference. The result of this is that the sum of the estimated values d k over all classes K must always result in the value one:

Im Idealfall liefert der Schätzwert der richtigen Klasse den Wert Eins und die Werte der übrigen Klassen betragen Null. In der Praxis wird somit ein Merkmalsvektor v immer derjenigen Klasse k zugeordnet, die den größten Schätzwert d liefert. Oder wenn man die Schätzwerte als Rückschlußwahrscheinlichkeit in­ terpretiert, so wird der Schätzwert mit der höchsten Wahr­ scheinlichkeit klassifiziert.Ideally, the estimate of the correct class will provide that Value one and the values of the other classes are zero. In in practice, a feature vector v will always be one Assigned to class k, which provides the greatest estimated value d. Or if one estimates the estimates as the probability of inference in interpreted, the estimated value with the highest true classified as probability.

Linearer PolynomklassifikatorLinear polynomial classifier

Nach den ausführlichen Betrachtungen zum vollständigen Polyno­ mansatz sollen nun für die Praxis relevante Ausführungen in Ab­ hängigkeit der Ordnung des Polynoms betrachtet werden. Der ein­ fachste Ansatz ist der lineare Polynomklassifikator. Dabei ge­ hen die M Komponenten des Merkmalsvektors v sowie ein konstan­ ter Term v0 in die Berechnung ein. Der so gebildete Polynomvek­ tor des linearen Ansatzes hat folgende Form:
After the detailed considerations of the complete polynomial approach, what is relevant in practice should now be considered depending on the order of the polynomial. The simplest approach is the linear polynomial classifier. The M components of the feature vector v and a constant term v 0 are included in the calculation. The polynomial vector of the linear approach thus formed has the following form:

Der Merkmalsvektor v wird somit um das Glied nullten Grades in diesem Ansatz der Ordnung eins erweitert und bildet den Po­ lynomvektor x.The feature vector v is thus around the zero degree element in This approach of order one expands and forms the bottom lynomial vector x.

Anschaulich legt der lineare Polynomklassifikator somit lineare Trennfunktionen in den Merkmalsraum. Im zweidimensionalen Raum werden die Klassen somit durch eine Gerade separiert, im M-di­ mensionalen Merkmalsraum durch Hyperebenen. Hinsichtlich des Rechenaufwandes ist der lineare Polynomklassifikator auch bei hochdimensionalen Klassifikationsproblemen gut zu handhaben, da sich die wesentlichen Rechenroutinen auf die Lösung des linea­ ren Gleichungssystemes der Ordnung M+1 beschränken. Jedoch sind die Möglichkeiten zur Approximation der realen Unterscheidungs­ funktionen beschränkt, da wie erwähnt lediglich Geraden angenä­ hert werden können. Komplexe Formen von Unterscheidungsfunktio­ nen lassen sich daher mit dem linearen Ansatz nur unzureichend beschreiben.The linear polynomial classifier thus clearly sets linear ones Separation functions in the feature space. In two-dimensional space the classes are thus separated by a straight line, in M-di dimensional feature space through hyperplanes. Regarding the The linear polynomial classifier also involves computing effort to handle high-dimensional classification problems well the main arithmetic routines focus on the solution of the linea limit their system of equations of order M + 1. However are the possibilities to approximate the real distinction limited functions, since, as mentioned, only approximate straight lines can be heard. Complex forms of differentiation Therefore, the linear approach is insufficient describe.

Quadratischer PolynomklassifikatorSquare polynomial classifier

Ähnlich wie beim linearen Ansatz muß der Merkmalsvektor v um bestimmte Terme erweitert werden. Dies sind neben dem konstan­ ten Term v0 nun auch alle Kombinationen zweiten Grades, die sich aus den M Merkmalskomponenten v bilden lassen. Gemäß dem Ansatz zur Berechnung der möglichen Kombinationen mit Wiederholung aus der Statistik ergibt sich folgende allgemeine Bestimmungsglei­ chung für die Dimension des Polynomvektors x für Polynomansätze höheren Grades:
Similar to the linear approach, the feature vector v must be extended by certain terms. In addition to the constant term v 0, these are now also all second-degree combinations that can be formed from the M feature components v. According to the approach for calculating the possible combinations with repetition from the statistics, the following general determination equation results for the dimension of the polynomial vector x for higher degree polynomial approaches:

Dabei bezeichnet M wie bisher die Anzahl der aus Signalvorver­ arbeitung und Merkmalsextraktion entstandenen Komponenten, G steht für den Grad des Polynomansatzes. Dabei wird deutlich, daß der Aufwand bezüglich Rechengeschwindigkeit und Speicher­ platz enorm ansteigt. Die Approximationsmatrix A z. B. steigt quadratisch mit der Dimension des Polynomvektors x. Das hat zur Folge, daß sich alle Polynomansätze ab der dritten Ordnung bei Klassifikationsproblemen mit einer höheren Anzahl an Merkmals­ komponenten v in der Praxis nicht mehr beherrschen lassen. Zwar wäre ein höherer Grad des Polynomansatzes im Hinblick auf eine möglichst gute Approximation der realen Unterscheidungsfunktion wünschenswert, jedoch macht vor allem der Fall, daß bei günsti­ gen Klassifikationsergebnissen eine Hardwarerealisierung ange­ strebt wird, eine höhere Ordnung als den quadratischen Ansatz nahezu unmöglich.In this case, M denotes the number of signal pre-ver processing and feature extraction of the resulting components, G stands for the degree of the polynomial approach. It becomes clear that the effort in terms of computing speed and memory space increases enormously. The approximation matrix A z. B. increases quadratic with the dimension of the polynomial vector x. That has to Consequence that all polynomial approaches from the third order on Classification problems with a higher number of features components can no longer be mastered in practice. Though would be a higher degree of the polynomial approach with respect to one best possible approximation of the real distinction function desirable, but above all makes the case that at favorable hardware implementation according to classification results aspires to a higher order than the quadratic approach almost impossible.

Für den quadratischen Ansatz berechnet sich der Polynomvektor x nach den Vorüberlegungen somit wie folgt:
For the quadratic approach, the polynomial vector x is calculated as follows after the preliminary considerations:

Während im Fall des linearen Polynomklassifikators die Klassen­ gebiete im zweidimensionalen Merkmalsraum durch Geraden sepa­ riert wurden, so sind nunmehr quadratische Kurven möglich. Da­ durch können wesentlich komplexere Unterscheidungsfunktionen an­ genähert werden. Ein Problem läßt sich jedoch auch durch den Polynomansatz noch nicht greifen. Es sind dies die Fälle, in denen das Gebiet einer Musterklasse im Merkmalsraum nicht ge­ schlossen ist, sondern mehrere Regionen einnimmt bzw. in mehre­ re Cluster zerfällt. Solche unterteilten Klassengebiete lassen sich weder geometrisch, noch statistisch und mit Hilfe des Po­ lynomansatzes beschreiben. Aus diesem Grund soll im folgenden eine völlig andere Klassifikationsstrategie dargestellt werden, die dieser Problematik Rechnung trägt.While in the case of the linear polynomial classifier, the classes areas in the two-dimensional feature space by straight lines sepa square curves are now possible. There through can do much more complex distinctive functions to be approached. A problem can also be solved by the Do not yet use the polynomial approach. These are the cases in which the area of a model class in the feature space is not ge is closed, but occupies several regions or in several re cluster disintegrates. Let such subdivided class areas neither geometrically nor statistically and with the help of the buttocks describe the lynomial approach. For this reason, the following a completely different classification strategy is presented that takes this problem into account.

Der nichtparametrische AnsatzThe nonparametric approach

Der nichtparametrische Ansatz besitzt den Vorteil, daß keine Kenntnisse über Verteilungsdichte oder Form der Unterschei­ dungsfunktionen der einzelnen Musterklassen vorhanden sein muß. Es handelt sich mithin um einen modellfreien Klassifikator. Der Grundgedanke, der dieser Klassifikationsstrategie zugrunde liegt, ist die Annahme, daß Cluster, deren Merkmalsvektoren im Merkmalsraum nahe beieinander liegen, zu einer Musterklasse ge­ hören. Dies ist genau die Konstellation, daß sich eine Muster­ klasse aus mehreren Klassengebieten zusammensetzt. Der nichtpa­ rametrische Ansatz ist somit sehr eng mit dem geometrischen An­ satz verbunden, der auf eine Minimierung des Abstandes zum Schwerpunkt der einzelnen Klassen beruht. Jedoch müssen im Hin­ blick auf ein mögliches Auftreten mehrerer Cluster einer Mu­ sterklasse dementsprechend auch für jedes einzelne Gebiet einer Klasse ein eigener Zentroidvektor bestimmt werden. Man bezeich­ net einen solchen nichtparametrischen Klassifikator deshalb auch als Nächster-Nachbar-Klassifikator. Eine Klassifikation beruht einfach darauf, denjenigen Zentroidvektor eines Clusters zu bestimmen, der dem Merkmalsvektor im Merkmalsraum am näch­ sten liegt. Eine Möglichkeit der Berechnung des Abstandes wurde mit der Euklid'schen Distanz bereits vorgestellt. Da es jedoch häufig nicht bekannt ist, wie die Cluster im Merkmalsraum verteilt sind und somit auch keine Aussage über die entspre­ chende Klassenzugehörigkeit gemacht werden kann, scheitert eine direkte Berechnung der Clusterschwerpunkte.The nonparametric approach has the advantage that none Knowledge of distribution density or form of the difference The functions of the individual sample classes must be available. It is therefore a model-free classifier. Of the The basic idea behind this classification strategy is the assumption that clusters whose feature vectors in the Feature space are close together, ge to a sample class Listen. This is exactly the constellation that is a pattern class composed of several class areas. The non-pa Rametric approach is therefore very close to the geometric approach sentence connected to minimize the distance to the The focus of each class is based. However, in the way look at a possible occurrence of several clusters of a Mu accordingly also one for each individual area Class a custom centroid vector can be determined. You designate therefore such a nonparametric classifier also as a nearest neighbor classifier. A classification is simply based on that centroid vector of a cluster to determine the closest to the feature vector in the feature space most lies. One way of calculating the distance was already presented with the Euclidean distance. However, since it it is often not known how the clusters in the feature space  are distributed and therefore no statement about the corresponding appropriate class membership, one fails direct calculation of the cluster focus.

Eine Möglichkeit zur Bestimmung von Referenzvektoren (d. h. Vek­ toren, die ähnlich den Zentroidvektoren ein Cluster einer be­ stimmten Klasse k im Merkmalsraum repräsentieren) besteht dar­ in, einfach die Informationen einer zufällig gezogenen Lern­ stichprobe direkt als Wissensbasis zur Nächster-Nachbar-Klassi­ fikation abzuspeichern. Dieses Verfahren eines sogenannten Nächster-Nachbar-Klassifikators mit Zufallsstichprobe kann zwar durchaus zufriedenstellende Ergebnisse liefern, jedoch besteht immer das Risiko, daß die Zufallsstichprobe "zufällig" nicht jeweils mindestens einen Merkmalsvektor aus allen vorhandenen Clustern aufnimmt. Damit ist eine optimale Klassifikation durch Bestimmung des nächsten Nachbarn nur noch unvollständig und da­ her ungenügend möglich. Oder aber müßte man, um dieses Risiko zu minimieren, einen sehr großen Anteil der vorhandenen Merk­ malsvektoren in das Referenzset aufnehmen. Ein solches Vorgehen wirkt sich jedoch negativ auf den Speicherplatzbedarf sowie auf die Rechengeschwindigkeit zur Klassifikation aus, da eine große Anzahl redundanter Merkmalsvektoren im Referenzset abgespei­ chert und bei der Bestimmung des nächsten Nachbarn mit berech­ net werden muß. In Anbetracht dieses unbefriedigenden Ergebnis­ ses soll im weiteren ein systematisches Verfahren zur Gewinnung eines optimalen Referenzvektorensets dargestellt werden.One way to determine reference vectors (i.e., Vek gates that, like the centroid vectors, form a cluster of be represent agreed class k in the feature space) in, simply the information of a randomly drawn learning sample directly as a knowledge base for the nearest neighbor class save the specification. This process of a so-called Nearest neighbor classifier with random sample can give quite satisfactory results, but it exists always the risk that the random sample is not "random" in each case at least one feature vector from all available Clustering. This is an optimal classification Determination of the next neighbor is incomplete and there insufficiently possible. Or else one would have to take this risk to minimize a very large proportion of the existing memo Include paint vectors in the reference set. Such an approach however, negatively affects storage space requirements as well the computational speed for classification, since a big one Number of redundant feature vectors saved in the reference set and calculates when calculating the nearest neighbor must be net. Given this unsatisfactory result It is also intended to be a systematic process for extraction of an optimal reference vector set.

Der ReduktionsalgorithmusThe reduction algorithm

Der Reduktionsalgorithmus zur Bestimmung eines nach Anzahl und Verteilung im Merkmalsraum optimalen Referenzvektorensets be­ ruht darauf, daß nur solche Merkmalsvektoren in die Referenzli­ ste aufgenommen werden, die sich unmittelbar an der Klassen­ grenze befinden. Dazu werden zu Beginn alle Trainingsvektoren in einer Liste angeordnet und eine zweite Liste zur Aufnahme der Referenzvektoren initialisiert. Nun wird in einem ersten Schritt der erste Trainingsvektor in das Referenzset aufgenom­ men und im folgenden sukzessive jeder Trainingsvektor anhand des aktuellen Referenzsets klassifiziert. Wird der entsprechen­ de Trainingsvektor falsch klassifiziert, so wird er in das Re­ ferenzset aufgenommen. Anschaulich bedeutet dieser Vorgang, daß nur solche Vektoren aufgenommen werden, die an der Klassengren­ ze liegen und deshalb leicht einer falschen Klasse zugeordnet werden. Hat man auf diese Weise alle Trainingsvektoren abgear­ beitet, untersucht man in einem zweiten Schritt, ob einzelnen Referenzvektoren durch später in die Referenzliste aufgenommene Vektoren überflüssig geworden sind. Dazu werden in einem zwei­ ten Schritt alle Referenzvektoren gegeneinander klassifiziert und solche Referenzvektoren, die richtig klassifiziert werden, aus dem Referenzset entfernt. Dadurch wird verhindert, daß die Liste der Referenzvektoren unnötig groß wird. Anschließend wie­ derholt man Schritt 1 und 2 solange, wie entweder weitere Trai­ ningsvektoren in das Referenzset aufgenommen werden oder aber in Schritt 2 wieder aus dem Referenzset entfernt werden. Diese Funktionsweise des Reduktionsalgorithmus ist in folgender Über­ sicht noch einmal stichwortartig aufgeführt.
The reduction algorithm for determining a reference vector set that is optimal in terms of number and distribution in the feature space is based on the fact that only those feature vectors are included in the reference list that are located directly at the class boundary. For this purpose, all training vectors are initially arranged in a list and a second list for recording the reference vectors is initialized. Now, in a first step, the first training vector is included in the reference set and in the following, each training vector is successively classified using the current reference set. If the corresponding training vector is classified incorrectly, it is included in the reference set. This process clearly means that only those vectors are included that lie on the class boundary and are therefore easily assigned to a wrong class. Once all training vectors have been processed in this way, a second step is used to examine whether individual reference vectors have become superfluous as a result of vectors later added to the reference list. For this purpose, in a second step, all reference vectors are classified against each other and those reference vectors that are classified correctly are removed from the reference set. This prevents the list of reference vectors from becoming unnecessarily large. Then repeat steps 1 and 2 as long as either further training vectors are included in the reference set or in step 2 are removed from the reference set. This functionality of the reduction algorithm is listed again in the following overview.

  • 1: Alle Trainingsvektoren in einer Liste organisieren1: Organize all training vectors in a list
  • 2: Referenzliste initialisieren (zu Beginn leer)2: Initialize reference list (initially empty)
  • 3: Ersten Vektor der Trainingsliste anwählen3: Select the first vector of the training list
  • 4: Trainingsvektor anhand der Vektoren der Referenzliste klassifizieren4: Training vector based on the vectors of the reference list classify
  • 5: Bei Fehlklassifikation (oder leerer Referenzliste) den Trainingsvektor in die Referenzliste aufnehmen5: In case of incorrect classification (or empty reference list) the Include the training vector in the reference list
  • 6: Nächsten Vektor der Trainingsliste auswählen6: Select the next vector in the training list
  • 7: Gehe zu 4, solange Trainingsliste nicht zu Ende7: Go to 4 as long as training list doesn't end
  • 8: Ersten Vektor der Referenzliste anwählen8: Select the first vector of the reference list
  • 9: Gewählten Vektor anhand der anderen Vektoren der Refe­ renzliste klassifizieren9: Selected vector based on the other vectors of the refe Classify border list
  • 10: Bei Fehlklassifikation gehe zu 1210: If misclassified go to 12
  • 11: Gewählten Vektor aus der Referenzliste entfernen11: Remove the selected vector from the reference list
  • 12: Nächsten Vektor der Referenzliste auswählen12: Select the next vector in the reference list
  • 13: Gehe zu 9, solange Referenzliste nicht zu Ende13: Go to 9 as long as reference list doesn't end
  • 14: Gehe zu 3, solange Referenzliste bei 5 oder 11 verän­ dert wurde14: Go to 3 as long as reference list changes at 5 or 11 was changed
  • 15: Lösche alle ehemaligen Trainingsvektoren15: Delete all former training vectors
  • 16: Ende16: end

Als Ergebnis der Reduktion erhält man ein Set von Referenzvek­ toren, das es ermöglicht, die Trainingsvektoren zu hundert Pro­ zent richtig zu klassifizieren. Wenn man die räumliche Vertei­ lung der Referenzvektoren näher betrachtet, so bestätigt sich die Annahme, daß vor allem an den Klassengrenzen Referenzvekto­ ren angesiedelt sind. Vor allem dann, wenn die Cluster im Merk­ malsraum weit voneinander entfernt liegen, ist die Zahl der be­ nötigten Referenzvektoren gering. Anders im Fall, daß die Clu­ ster sehr nah beieinander liegen. Hier ist die Anzahl der Refe­ renzvektoren eines Clusters im Referenzset erheblich größer, da die einzelnen Klassengebiete exakter voneinander abgegrenzt werden müssen.As a result of the reduction, a set of reference vectors is obtained tors, which enables the training vectors to be a hundred pro to classify correctly. If you look at the spatial distribution If the reference vectors are considered in more detail, it is confirmed  the assumption that reference vector, especially at class boundaries ren are located. Especially when the clusters in Merk painting space far apart, is the number of be required reference vectors low. It is different in the case that the Clu are very close to each other. Here is the number of refes reference vectors of a cluster in the reference set are considerably larger because the individual class areas more precisely delimited from each other Need to become.

Das Säubern der TrainingsvektorenCleaning the training vectors

An diesem Punkt wird aber auch ein Problem berührt, das in den bisherigen Betrachtungen kaum erwähnt wurde. Es ist dies die häufig vorkommende Überlappung von Clustern unterschiedlicher Klassen im Merkmalsraum. Dadurch bedingt werden fast alle im Überlappungsgebiet vorhandenen Trainingsvektoren in die Refe­ renzliste aufgenommen, um Fehlklassifikationen zu vermeiden. Um diesen Effekt einzuschränken, wird ein Verfahren vorgeschlagen, durch das das Trainingsvektorenset im Vorfeld der Reduktion von einzelnen besonders exponierten Vektoren im Grenzbereich be­ freit wird. Zur Durchführung dieses als Säuberungsalgorithmus bezeichneten Verfahrens müssen für jede Klasse zwei Parameter angegeben werden, die die Intensität des Säuberungsprozesses bestimmen. Der erste Parameter p1 beeinflußt die Breite des zu säubernden Gebietes im Merkmalsraum. Er bestimmt die Anzahl der zu untersuchenden nächsten Nachbarn. Mit dem zweiten Parameter p2 wird die Anzahl der richtig unter den p1 zu klassifizierenden nächsten Nachbarn festgelegt. Er bestimmt darüber, wann ein Vektor aus dem Trainingsvektorenset entfernt wird. Der Säube­ rungsalgorithmus läuft demnach folgendermaßen ab. Man wählt den ersten Trainingsvektor aus der vollständigen Trainingsliste aus, bestimmt die p1 nächsten Nachbarn und beläßt ihn im Trai­ ningsvektorenset, sofern p2 der p1 bestimmten nächsten Nachbarn zur Klasse des ausgewählten Trainingsvektors gehören. Ebenso verfährt man mit den übrigen Trainingsvektoren. Zum besseren Überblick sei der Säuberungsalgorithmus noch einmal in folgen­ der Übersicht dargestellt.
At this point, however, a problem is touched that has hardly been mentioned in previous considerations. This is the frequently occurring overlap of clusters of different classes in the characteristic space. As a result, almost all training vectors in the overlap area are included in the reference list to avoid misclassifications. In order to limit this effect, a method is proposed by which the training vector set is freed up in the run-up to the reduction of individual particularly exposed vectors in the border area. In order to carry out this process, known as the cleaning algorithm, two parameters must be specified for each class, which determine the intensity of the cleaning process. The first parameter p 1 influences the width of the area to be cleaned in the feature space. It determines the number of nearest neighbors to be examined. With the second parameter p 2 , the number of the nearest neighbors to be classified correctly among the p 1 is determined. It determines when a vector is removed from the training vector set. The cleaning algorithm therefore runs as follows. One selects the first training vector from the complete training list, determines the p 1 nearest neighbors and leaves it in the training vector set, provided that p 2 of the p 1 determined nearest neighbors belong to the class of the selected training vector. The same applies to the other training vectors. For a better overview, the cleaning algorithm is shown again in the following overview.

  • 1: Alle Trainingsvektoren in einer Liste organisieren1: Organize all training vectors in a list
  • 2: Liste für gesäuberte Vektoren initialisieren (zu Beginn leer)2: Initialize list for cleaned vectors (to Beginning empty)
  • 3: Ersten Trainingsvektor der Liste anwählen3: Select the first training vector from the list
  • 4: Die p1 nächsten Nachbarn aus der Trainingsliste bestimmen4: Determine the nearest p 1 neighbors from the training list
  • 5: Falls mindestens p2 dieser p1 Nachbarn zur Klasse des ausgewählten Vektors gehören, trage den Vektor in die Liste der gesäuberten Vektoren ein5: If at least p 2 of these p 1 neighbors belong to the class of the selected vector, enter the vector in the list of cleaned vectors
  • 6: Nächstes Element der Trainingsliste auswählen6: Select the next element in the training list
  • 7: Gehe zu 4, solange Trainingsliste nicht zu Ende7: Go to 4 as long as training list doesn't end
  • 8: Lösche alle alten Trainingsvektoren8: Delete all old training vectors
  • 9: Ende9: end

Der Vorteil einer Säuberung vor der anschließenden Reduktion liegt darin, daß eine deutlich bessere Generalisierung und so mit eine weitere Verringerung der Referenzvektorenzahl erreicht werden kann.The advantage of cleaning before the subsequent reduction is that there is a much better generalization and so achieved with a further reduction in the reference vector number can be.

Nachdem nun die theoretischen Grundlagen der einzelnen Klassi­ fikationsstrategien dargelegt wurden, sollen im weiteren Ver­ lauf zunächst beispielhafte Realisierungen der verschiedenen Klassifikatoren beschrieben werden.Now that the theoretical basics of the individual classi fiction strategies are set out in the following Ver first run exemplary implementations of the various Classifiers are described.

Euklid'scher AbstandsklassifikatorEuclidean distance classifier Funktionsweisefunctionality

In der Lernphase wird aus den Merkmalsvektoren der Lernstich­ probe für jede einzelne Klasse der Zentroidvektor berechnet. Dazu wird der vorhandene Speicher dynamisch angefordert, die maximale Anzahl der zu verarbeitenden Vektoren berechnet und anschließend die Merkmalsdatei eingelesen. Eine sequentielle Abarbeitung der Merkmalsdatei konnte aufgrund der Möglichkeit zur Skalierung nicht realisiert werden. Eine solche sequentiel­ le Verarbeitung scheidet bei den folgenden komplizierteren Klassifikatoren jedoch von vornherein aus. Anschließend werden die Zentroidvektoren nach folgender Formel berechnet:
In the learning phase, the centroid vector is calculated from the feature vectors of the learning sample for each individual class. To do this, the available memory is dynamically requested, the maximum number of vectors to be processed is calculated and the characteristics file is then read in. A sequential processing of the characteristics file could not be realized due to the possibility of scaling. Such sequential processing is however ruled out from the outset in the following more complicated classifiers. The centroid vectors are then calculated using the following formula:

Die Zentroidvektoren werden in die Trainingsdatei geschrieben und der allokierte Speicher wird wieder freigegeben.The centroid vectors are written into the training file and the allocated memory is released again.

Das Lernprogramm für den Euklid'schen Abstandsklassifikator bildet auch gleichzeitig die Grundlage für den City-Block-Klas­ sifikator, da sich dieser nur in der Berechnung des geometri­ schen Abstandes unterscheidet, die in der Klassifikationsphase erfolgt.The tutorial for the Euclidean distance classifier also forms the basis for the City Block class sificator, since this is only in the calculation of the geometri distance, that in the classification phase he follows.

Maximum-Likelihood-KlassifikatorMaximum likelihood classifier Funktionsweisefunctionality

Die Lernphase erfolgt nach demselben Schema wie zuvor. Auch die Berechnung der Zentroidvektoren zur Bestimmung der Kovarianzma­ trizen wird nach Gleichung 35 vorgenommen. Die Kovarianzmatri­ zen werden nach folgender Vorschrift berechnet:
The learning phase follows the same pattern as before. The calculation of the centroid vectors for determining the covariance matrices is also carried out according to equation 35. The covariance matrices are calculated according to the following rule:

Die für die spätere Berechnung der Schätzgleichung zur Klassi­ fikation erforderliche Inversion der Kovarianzmatrizen erfolgt mit Hilfe des Gauß-Jordan-Algorithmus mit vollständiger Pivoti­ sierung, indem die Kovarianzmatrix durch Lösen des Gleichungs­ systemes sukzessive in eine Einheitsmatrix übergeführt wird.The for the later calculation of the estimation equation for the classi required inversion of the covariance matrices using the Gauss-Jordan algorithm with full pivot by the covariance matrix by solving the equation system is successively converted into a uniform matrix.

Die Berechnung der Determinante jeder Kovarianzmatrix erfolgt, indem die quadratische Matrix Kk in ihre obere Dreiecksform ge­ bracht wird, so daß alle Elemente unterhalb der Hauptdiagonalen zu Null werden. Die entsprechende Determinante ergibt sich dann aus dem Produkt der Elemente über die Hauptdiagonale. Die Um­ formung in die obere Dreiecksgestalt erfolgt mit Hilfe des CROUT'schen Algorithmus im Zuge einer LR-Zerlegung. Danach kann jede quadratische Matrix A in zwei Matrizen L und R zerlegt werden, so daß gilt:
The calculation of the determinant of each covariance matrix is carried out by bringing the square matrix K k into its upper triangular shape, so that all elements below the main diagonal become zero. The corresponding determinant then results from the product of the elements over the main diagonal. The transformation into the upper triangular shape takes place with the help of the CROUT algorithm in the course of an LR decomposition. Then each square matrix A can be broken down into two matrices L and R, so that:

A = LR (37)A = LR (37)

Dabei sind L eine Dreiecksmatrix der Form
L are a triangular matrix of the form

und R besitzt folgende Gestalt:
and R has the following form:

In der Gl. 36 sind somit M2 Gleichungen enthalten, aus denen sich die Unbekannten rij und lij berechnen lassen:
In the Eq. 36 there are M 2 equations from which the unknowns r ij and l ij can be calculated:

i<j: li0r0j + li1r1j +. . .+rij = aij
i=j: li0r0j + li1r1j +. . .+rjj = aij
i<: li0r0j + li1r1j +. . .+lijrjj = aij (40)
i <j: l i0 r 0j + l i1 r 1j +. . . + r ij = a ij
i = j: l i0 r 0j + l i1 r 1j +. . . + r jj = a ij
i <: l i0 r 0j + l i1 r 1j +. . . + l ij r jj = a ij (40)

Mit dem schon erwähnten Crout-Algorithmus lassen sich diese Gleichungen nach folgendem Verfahren auflösen:
With the Crout algorithm already mentioned, these equations can be solved using the following procedure:

Da die Determinante zur späteren Klassifikation ohnehin log­ arithmiert werden muß, wird dies direkt bei der Bestimmung der Determinante getan. Das erspart zum einen Rechenzeit in der Klassifikationsphase, zum anderen werden "overflow errors" vermieden, die im Zuge der Multiplikation über die Hauptdiago­ nale vor allem bei großen Matrizen auftreten können. Der Log­ arithmus der Determinante berechnet sich somit nach:
Since the determinant has to be log arithmetic anyway for later classification, this is done directly when determining the determinant. On the one hand, this saves computing time in the classification phase, and on the other hand, "overflow errors" are avoided, which can occur in the course of multiplication via the main dialogs, especially with large matrices. The log arithm of the determinant is thus calculated according to:

ln(det Kk) = ln(r00) + ln(r11) +. . .+ ln(rMM) (43)ln (det K k ) = ln (r 00 ) + ln (r 11 ) +. . . + ln (r MM ) (43)

Mahalanobis AbstandsklassifikatorMahalanobi's distance classifier Funktionsweisefunctionality

Bezüglich der Berechnung gilt sinngemäß das unter dem Maximum-Like­ lihood-Klassifikator gesagte. Jedoch wird im Zuge der Ver­ einfachung, die die Gleichheit der Kovarianzmatrizen aller Klassen voraussetzt, nur eine inverse über alle Klassen gemit­ telte Kovarianzmatrix gebildet. Die Inversion wird wiederum mit Hilfe des Gauß-Jordan-Algorithmus durchgeführt, indem die Kova­ rianzmatrix durch Lösen des Gleichungssystemes in eine Ein­ heitsmatrix übergeführt wird. Aufgrund der Vorverarbeitung für die Klassifikation ist der Speicherplatzbedarf der Trainingsda­ tei dieses linearen statistischen Klassifikators gering.With regard to the calculation, the same applies under the maximum like lihood classifier said. However, in the course of Ver simplification which is the equality of the covariance matrices of all Requires classes, only one inverse across all classes partial covariance matrix formed. The inversion is again with Help the Gauss-Jordan algorithm performed by the Kova Rianzmatrix by solving the system of equations in one unit matrix is transferred. Due to preprocessing for the classification is the storage space requirement of the training data Part of this linear statistical classifier is low.

Linearer PolynomklassifikatorLinear polynomial classifier Funktionsweisefunctionality

Die Dimension eines Koeffizientenvektors ist um eins gegenüber der Dimension des Klassifikationsproblemes erhöht, da der kon­ stante Term mit dem Wert Eins hinzugefügt werden muß. Die Er­ weiterung um den konstanten Term erfolgt direkt beim Einlesen der Merkmalsvektoren. Gemäß dem Ansatz zur Bestimmung der opti­ malen Koeffizientenmatrix A ist folgendes Gleichungssystem zu lösen:
The dimension of a coefficient vector is increased by one compared to the dimension of the classification problem, since the constant term with the value one must be added. The extension by the constant term takes place directly when reading in the feature vectors. According to the approach for determining the optimal coefficient matrix A, the following system of equations has to be solved:

E{T} k = E{k k} (44)E { T } k = E { k k } (44)

Dabei muß für jede Klasse k ein solches lineares Gleichungssy­ stem nach dem Koeffizientenvektor ak aufgelöst werden. Der linke Term beschreibt eine Matrix, die den Erwartungswert aus der Vektormultiplikation des Mittelwertvektors über die gesamte Lernstichprobe mit seinem transponierten Pendant enthält. Hier­ in gehen somit alle Merkmalsvektoren unabhängig von ihrer Klas­ senzugehörigkeit ein. Anders hingegen beim Term der rechten Seite. Dieser beschreibt den Mittelwertvektor einer bestimmten Klasse k. Der Erwartungswert wird jedoch wiederum über die ge­ samte Lernstichprobe, also alle Merkmalsvektoren der Trainings­ datei, gebildet. Dabei kommt dem Zielvektor yk eine Art Aus­ blendeigenschaft zu, indem nur solche Merkmalsvektoren aufsum­ miert werden, die der bearbeiteten Klasse k angehören. Die ma­ thematische Lösung der K linearen Gleichungssysteme erfolgt mit dem Gauß-Jordan-Algorithmus mit vollständiger Pivotisierung.Such a linear system of equations must be resolved for each class k according to the coefficient vector a k . The left term describes a matrix that contains the expected value from the vector multiplication of the mean vector over the entire learning sample with its transposed counterpart. All feature vectors are included here regardless of their class affiliation. The term on the right is different. This describes the mean vector of a certain class k. However, the expected value is in turn formed over the entire learning sample, i.e. all feature vectors of the training file. The target vector y k has a kind of blanking property in that only those feature vectors are summed up that belong to the processed class k. The mathematical solution of the K linear equation systems is carried out with the Gauss-Jordan algorithm with full pivoting.

Der Vektor ak wird demnach um die Matrix Z und E{xk yk T} um die Einheitsmatrix erweitert. Es müssen also die Koeffizienten a und die Elemente der Matrix Z bestimmt werden, wobei letztere die Inverse der Matrix E{x xT} darstellt. Dabei wird die Matrix E{x xT} spaltenweise in die Einheitsmatrix überführt. Dies wird durch fortgesetzte Zeilen- und Spaltenvertauschungen und Erset­ zen von Zeilen des linearen Gleichungssystemes durch Linearkom­ binationen mit anderen Zeilen erreicht. Nach Beendigung dieser Umrechnungen enthält die rechte Seite in ihrer ersten Spalte den Lösungsvektor mit den Koeffizienten ak und die übrigen Spal­ ten beschreiben die Inverse von E{x xT}.The vector a k is accordingly expanded by the matrix Z and E {x k y k T } by the unit matrix. The coefficients a and the elements of the matrix Z must therefore be determined, the latter representing the inverse of the matrix E {xx T }. The matrix E {xx T } is transferred column by column into the unit matrix. This is achieved by continued interchanging of rows and columns and replacing rows of the linear system of equations by linear combinations with other rows. After these conversions have been completed, the right-hand side contains the solution vector with the coefficients a k in its first column and the remaining columns describe the inverse of E {xx T }.

Zur genauen Vorgehensweise: zuerst wird die erste Gleichung durch das Element x00 dividiert und somit selbst zu eins. An­ schließend werden die übrigen Zeilen i = (1, 2, . . ., M) jeweils durch die Differenz der gerade bearbeiteten Zeile i und der mit xi0 multiplizierten ersten Zeile ersetzt. Auf diese Weise werden alle Elemente xi0 zu null und somit die erste Spalte von E{x xT} identisch mit der ersten Spalte der Einheitsmatrix. Für die üb­ rigen Spalten geht man analog vor, so daß sich folgender Algo­ rithmus ergibt:
For the exact procedure: first the first equation is divided by the element x 00 and thus itself one. Then the remaining lines i = (1, 2, ... , M) are each replaced by the difference between the line i being processed and the first line multiplied by x i0 . In this way, all elements x i0 become zero and thus the first column of E {xx T } is identical to the first column of the unit matrix. The same procedure is followed for the other columns, so that the following algorithm results:

  • - für alle Zeilen i = 0, 1, . . ., M- for all lines i = 0, 1,. . ., M
  • - dividiere Zeile i durch Diagonalelement xii - divide line i by diagonal element x ii
  • - ersetze alle Zeilen j = 0, 1, . . ., M; j << i durch Linearkombinationen der Zeilen i und j nach der Vorschrift: Zeile j = Zeile j - xji Zeile i- replace all lines j = 0, 1,. . ., M; j << i by linear combinations of lines i and j according to the rule: line j = line j - x ji line i

Diese Veränderungen werden sowohl auf der linken als auch auf der rechten Seite durchgeführt. Zur Stabilisierung und im Hin­ blick auf den Erhalt einer eindeutigen Lösung wird die voll­ ständige Pivotisierung angewandt. Dazu wird das Element, wel­ ches durch Zeilen- und Spaltenvertauschungen auf die Hauptdia­ gonale gebracht werden kann und das den größten Betrag besitzt, als Pivotelement gewählt. Um Spalten, die bereits mit der Ein­ heitsmatrix übereinstimmen, nicht wieder zu verändern, dürfen nur Zeilen unterhalb der aktuellen Pivotzeile bzw. rechts der aktuellen Pivotspalte vertauscht werden. Trotz dieser Stabili­ sierungsmaßnahme kann es jedoch vorkommen, daß die Matrix sin­ gulär ist und die Berechnungen abgebrochen werden müssen. Das Programm gibt eine entsprechende Meldung am Bildschirm aus. Solche Fälle sind jedoch sehr selten. Vereinzelt hilft bei sol­ chen Problemen noch, eine der beiden Skalierungsoptionen zu verwenden. Dadurch können Rechenungenaugikeiten vermieden wer­ den, die dazu führen können, daß ein Diagonalelement zu Null und dadurch die Matrix singulär wird (Determinante = 0).These changes are both on the left and on the right side. For stabilization and in the rear looking at the receipt of a clear solution that becomes full constant pivoting applied. For this the element, wel ches by swapping rows and columns on the main slide gonal can be brought and which has the largest amount, chosen as pivot element. To columns that are already with the one agreement matrix, may not be changed again only lines below the current pivot line or to the right of current pivot column can be swapped. Despite this stabilization However, it can happen that the matrix sin is valid and the calculations have to be canceled. The The program displays a corresponding message on the screen. However, such cases are very rare. Occasionally helps with sol problems, one of the two scaling options use. This avoids calculation accuracy those that can lead to a diagonal element becoming zero and thereby the matrix becomes singular (determinant = 0).

Quadratischer PolynomklassifikatorSquare polynomial classifier Funktionsweisefunctionality

Die Funktionsweise des quadratischen Polynomklassifikators ent­ spricht im wesentlichen der zur Lösung des linearen Ansatzes. Jedoch müssen die Merkmalsvektoren nicht nur um den konstanten Term, sondern auch um die quadratischen Terme erweitert werden. The operation of the quadratic polynomial classifier ent speaks essentially the one for solving the linear approach. However, the feature vectors need not only be around the constant Term, but also to be expanded by the quadratic terms.  

Entsprechend den Ausführungen zur Herleitung des quadratischen Ansatzes im vorigen Kapitel ergibt sich die Dimension des qua­ dratischen Polynomvektors nach:
According to the explanations for the derivation of the quadratic approach in the previous chapter, the dimension of the quadratic polynomial vector results from:

Die Erweiterung um den konstanten Term und um die quadratischen Kombinationen ohne Wiederholung wurde durch die Multiplikation des Merkmalsvektors v mit seinem transponierten Pendant er­ reicht. Man erhält eine Quadratische Matrix. Nimmt man deren Elemente der oberen oder der unteren Dreiecksform inklusive der Hauptdiagonalelemente, so besitzt man die gesuchten Kombinatio­ nen zweiten Grades. Diese Vorgehensweise sei anhand der oberen Dreiecksform erläutert.
The extension by the constant term and by the quadratic combinations without repetition was achieved by multiplying the feature vector v by its transposed counterpart. A square matrix is obtained. If you take the elements of the upper or lower triangular shape including the main diagonal elements, you have the second-degree combinations you are looking for. This procedure is explained using the upper triangular shape.

Auf diese Weise erfolgt die Erweiterung der Merkmalsvektoren um die Terme zweiter Ordnung. Die Erweiterung wird direkt beim Einlesen der Merkmalsvektoren aus der Datei mit der Lernstich­ probe vorgenommen. Um ähnliche Berechnungen in der Klassifika­ tionsphase zu vermeiden, wird die Dimension der Polynomvektoren in die Trainingsdatei geschrieben. Die beiden Formeln machen deutlich, wie schnell der Speicherplatz- und Rechenaufwand bei Klassifikationsproblemen höherer Ordnung ansteigen kann.In this way, the feature vectors are expanded by the second-order terms. The extension will be done directly at Reading the feature vectors from the file with the learning stitch sample made. To make similar calculations in the classifica avoidance phase, the dimension of the polynomial vectors written in the training file. Do the two formulas clear how quickly the storage and computing effort Classification problems of higher order can increase.

Nächster-Nachbar-Klassifikator mit ZufallsstichprobeNearest neighbor classifier with random sample Funktionsweisefunctionality

Über die Standardfunktion zur Zufallszahlenerzeugung unter C werden für jede Klasse die gewünschte Anzahl von Merkmalsvekto­ ren in das Referenzset aufgenommen. Zur Generierung der Zu­ fallszahlen wird ein Startwert eingegeben. Dieser Startwert besitzt den Vorteil, daß mit ihm immer wieder dieselbe Zufalls­ zahlenreihe reproduziert werden kann. Aus diesem Grund wird der Startwert auch mit in die Trainingsdatei gespeichert, um später die Auswahl der Referenzvektoren nachvollziehen zu können.Using the standard function for generating random numbers under C the desired number of feature vectors for each class included in the reference set. To generate the Zu if numbers are entered, a start value is entered. This starting value  has the advantage that it is always the same coincidence number series can be reproduced. For this reason, the Start value also saved in the training file with later to be able to understand the selection of the reference vectors.

Nächster-Nachbar-Klassifikator mit ReduktionsalgorithmusNearest neighbor classifier with reduction algorithm Funktionsweisefunctionality

Zur Funktionsweise wird auf die Ausführungen bei der Herleitung der Algorithmen zum Säubern und Reduzieren verwiesen. Die Klas­ sifikation im Zuge der Berechnungen wird mit der Formel der Eu­ klid'schen Distanz (Gl. 21) vorgenommen. Anstelle des Zen­ troidvektors wird dabei jedoch der entsprechende Referenzvektor verwendet.How it works is based on the explanations in the derivation of the algorithms for cleaning and reducing. The class The calculation in the course of the calculations is based on the formula of the EU Klidian distance (Eq. 21). Instead of zen However, the corresponding reference vector becomes troidvector used.

Neuronale NetzeNeural Networks

Im menschlichen Gehirn sind ca. 10 Milliarden Nervenzellen vor­ handen, von denen jedes im Schnitt mit 1000 bis 10 000 anderen verbunden ist. Auf dieser enormen Parallelität und Konnektivi­ tät beruhen menschliche mentale Fähigkeiten. Die Eigenschaften wie Selbstorganisation, Trainierbarkeit, Fehlertoleranz und vor allem die Fähigkeit zum Generalisieren eines solchen Systems versucht man sich auch in elektronischen Systemen zunutze zu machen. Dabei versucht man aber nicht den Schaltplan des Ge­ hirns zu ergründen, sondern man erfaßt formal die Eigenschaften einer Einzelkomponente, dem Neuron, und erhält so ein einfaches mathematisches Modell eines Neurons. Generell bestehen neurona­ le Netze aus Knoten und Kanten. Letztere verbinden die einzel­ nen Knoten miteinander. Ein Netzknoten enthält ein Summations­ glied, welches alle Eingangssignale addiert, und eine nichtli­ neare Übertragungsfunktion. Die Netzkanten enthalten Bewer­ tungsgewichte, die ein Signal verstärken oder abschwächen. Erst wenn die Summe der gewichteten Eingangssignale einen bestimmten Schwellwert übersteigt, gibt das Neuron ein Ausgangssignal ab.There are approximately 10 billion nerve cells in the human brain act, each with an average of 1000 to 10,000 others connected is. On this enormous parallelism and connectivity human mental abilities. The properties such as self-organization, trainability, fault tolerance and above the ability to generalize such a system one tries to take advantage of it also in electronic systems do. But you do not try the circuit diagram of the Ge brain, but you formally grasp the properties a single component, the neuron, and thus receives a simple one mathematical model of a neuron. Generally there are neurona le networks of knots and edges. The latter connect the individual a knot with each other. A network node contains a summation link, which adds all input signals, and a non-link linear transfer function. The mesh edges contain evaluators weights that amplify or weaken a signal. First if the sum of the weighted input signals is a certain one Exceeds the threshold value, the neuron emits an output signal.

Hierbei erkennt man die Analogie zum biologischen Neuron. Den Neuronen entsprechen die Netzknoten, den Dentriten bzw. den Synapsen die Netzkanten und den Aktionspotentialen, die über den Axon an die Folgeneuronen weitergeleitet werden, entspre­ chen Eingangs- und Ausgangswerte. Für diese Nachbildung eines biologischen Neurons hat sich auch der Begriff PERCEPTRON ein­ gebürgert. Charakteristisch für ein neuronales Netz sind die Netzwerktopologie und das Lernverfahren. Außer der Topologie ist die Art und Weise, wie das Netzwerk Informationen spei­ chert, entscheidend. In diesem Vorgang, den man auch als Lernen oder Training bezeichnet, werden die Schwellwerte und Gewichte eingestellt. Sie stellen die Wissensbasis des Netzwerkes dar.Here you can see the analogy to the biological neuron. The Neurons correspond to the network nodes, the dentrites and the  Synapses the network edges and the action potentials beyond the axon is passed on to the subsequent neurons Chen input and output values. For this replica of a biological neurons, the term PERCEPTRON is also used citizens. They are characteristic of a neural network Network topology and the learning process. Except for the topology is the way the network stores information chert, crucial. In this process, which is also called learning or training, are the thresholds and weights set. They represent the network's knowledge base.

Das mehrschichtige Perceptron mit Error-BackpropagationThe multi-layer perceptron with error back propagation

Inzwischen gibt es eine ganze Anzahl verschiedener Netzwerk­ strukturen mit unterschiedlichen Eigenschaften. Eines davon ist das mehrschichtige Perceptron mit Error-Backpropagation-Algo­ rithmus. Dabei handelt es sich um ein rekursives Lernverfahren, das inzwischen als ein modernes Standardverfahren bezeichnet werden kann.There are now quite a number of different networks structures with different properties. One of them is the multilayer perceptron with error back propagation algo rhythm. It is a recursive learning process, which is now referred to as a modern standard process can be.

Mathematisch betrachtet bilden neuronale Netze Eingangsvektoren (Merkmalsvektoren) auf Ausgangsvektoren ab. Das Verfahren be­ ruht auf der Überlegung, daß das Netz die richtige Reaktion auf einen Merkmalsvektor lernt, und zwar aus seinen eigenen Feh­ lern. Entscheidend für das Lernverhalten ist die Wahl der Akti­ vierungsfunktion. Unter Aktivierung versteht man die Reaktion auf die angelegten Signale. Dabei hat sich eine lineare Akti­ vierungsfunktion als unbefriedigend herausgestellt, da sie eine Reihe von Nachteilen besitzt. So ist ein Netz aus linearen Per­ ceptronen einfach nicht in der Lage, das Standardproblem der EXOR-Funktion zu lernen. Selbst wenn man beliebig viele lineare Neuronen zu einem komplizierten Netz verschaltet, so ist das Ergebnis ein lineares Netz und als solches durch ein einziges Neuron ersetzbar. Aus diesem Grund verwendet man eine logisti­ sche Aktivierungsfunktion (Sigmoid-Funktion).Mathematically speaking, neural networks form input vectors (Feature vectors) on output vectors. The procedure be rests on the consideration that the network is responding correctly learns a feature vector from its own mistake learn. The choice of shares is decisive for learning behavior vation function. Activation is the reaction on the applied signals. There has been a linear act tion function was found to be unsatisfactory because it is a Has a number of disadvantages. So is a network of linear per ceptronen simply unable to solve the standard problem of Learn EXOR function. Even if you have any number of linear This is how neurons are interconnected to form a complex network Result a linear network and as such by a single one Neuron replaceable. For this reason, a logisti is used cal activation function (sigmoid function).

Man erkennt, daß sie nur Werte zwischen 0 und 1 annehmen kann, also nach oben und unten beschränkt ist. Zusätzlich besitzt sie einen Aktivierungsschwellwert, nämlich den Wendepunkt. Da man die günstigste Lage dieses Schwellwertes nicht von vornherein kennt, muß dieser genau wie die Kantengewichte gelernt werden.You can see that it can only take values between 0 and 1, is limited up and down. In addition, she owns an activation threshold, namely the turning point. Since one  the most favorable location of this threshold is not a priori knows, this must be learned just like the edge weights.

Gewichte und Schwellwerte kann man grundsätzlich gleich behan­ deln, wenn man letztere als Signalverbindungen von ständig ak­ tivierten Neuronen auffaßt (es liegt ständig das Signal 1 an). Zunächst werden die Gewichte und Schwellen mit zufälligen Wer­ ten initialisiert, die jedoch nicht gleich sein dürfen, da sonst das System nicht lernen kann. Legt man nun einen Ein­ gangsvektor an die Inputschicht des Netzes, so wird dieser mit­ tels einer Matrizenmultiplikation auf die Hiddenschicht gege­ ben. Über weitere Matrizenmultiplikationen wird die Hidden­ schicht erst auf eventuell weiter vorhandene Zwischenschichten und schließlich auf die Outputschicht abgebildet. Dieser Vor­ gang der Vorwärtsausbreitung wird auch nach seiner englischen Bezeichnung "Forward-Propagation" genannt. Der sich ergebende Ausgangsvektor weicht zu Beginn aufgrund der Initialisierung durch Zufallswerte von dem gewünschten Zielvektor ab. Anschlie­ ßend-erfolgt die Rückwärtskorrektur, die dem Netzwerktyp seinen Namen gegeben hat, nämlich BACKPROPAGATION. Dazu berechnet man durch Bilden der Differenz von gewünschtem und erhaltenem Out­ put einen Fehlerwert, das sogenannte Delta. Die Gewichte und Schwellen aller Signalverbindungen, die zu dem behandelten Neu­ ron führen, müssen in Abhängigkeit von Delta geändert werden. Dies geschieht durch Multiplikation des Delta mit allen Signa­ len der Neuronen aus der Zwischenschicht proportional zum Er­ gebnis. So geht man für alle Neuronen zwischen Hiddenschicht und Outputschicht vor und erreicht auf diese Weise eine Korrek­ tur der gesamten Gewichtsmatrix. Diesen Vorgang nennt man die Delta-Regel.Basically, weights and threshold values can be handled immediately deln if the latter as signal connections from constantly ak activated neurons (signal 1 is constantly present). First, the weights and thresholds with random who initialized, which must not be the same, however otherwise the system cannot learn. Now put an on gangsvector to the input layer of the network, this is with by means of a matrix multiplication on the hid layer ben. The Hidden layer only on any intermediate layers that may still be present and finally mapped onto the output layer. This before course of forward propagation is also after its English Name called "forward propagation". The resulting one Output vector initially deviates due to initialization by random values from the desired target vector. Then ßend-is the backward correction, which is the network type Has given names, namely BACKPROPAGATION. To do this, calculate by forming the difference between the desired and the received out put an error value, the so-called delta. The weights and Thresholds of all signal connections to the treated new ron must be changed depending on the delta. This is done by multiplying the delta by all Signa len of the neurons from the intermediate layer proportional to the Er result. So you go for all neurons between Hiddenschicht and output layer and in this way achieves a correction of the entire weight matrix. This process is called the Delta rule.

Ebenso geht man für die davorliegenden Schichten vor, bis man sich zur Eingangsschicht vorgearbeitet hat. Dabei stellt sich aber folgendes Problem. Für die zu ändernden mittleren Schich­ ten gibt es keine konkreten Sollwerte! Die Lösung bildet ein rekursives Vorgehen, die sogenannte generalisierte Delta-Regel. Man berechnet die neuen Delta-Werte unter Heranziehung der Del­ tas der Output-Schicht. Bei größeren als dreischichtigen Netzwerken geht man genauso vor, nur daß man die Delta-Werte der jeweils zuletzt bearbeitenden Schicht in die Berechnung einbringen muß. Man erkennt, daß es sich um eine rekursive Be­ rechnungsvorschrift handelt.Do the same for the layers in front of you until you has worked its way to the entrance layer. It turns out but the following problem. For the middle layer to be changed there are no concrete setpoints! The solution is imagining recursive approach, the so-called generalized delta rule. The new delta values are calculated using the del tas of the output layer. For larger than three-layer  Networking is done exactly the same way, except that you have the delta values the last working shift in the calculation must bring. It can be seen that it is a recursive loading invoice rule.

Bei diesem Lernalgorithmus nach dem Gradientenabstiegsverfahren wird die Richtung, in die sich der Fehler am schnellsten än­ dert, ermittelt. Ein spezieller Parameter, die Lernrate, be­ stimmt die Schrittweite und soll starke Oszillationen der Feh­ lerterme verhindern. Es ist jedoch nicht gewährleistet, daß das System wirklich zum kleinstmöglichen Fehler gelangt. Es kann nämlich zufällig in ein sogenanntes lokales Minimum geraten, dessen Fehlerwert über dem kleinstmöglichen liegt. Das System gelangt dann nicht mehr aus dieser "Falle" heraus. Ein sehr an­ schauliches- Beispiel für dieses Phänomen ist das einer Berg­ tour. Wenn der Ausgangspunkt zufällig ist und der Algorithmus lautet, immer den steilsten Weg abwärts zu gehen, so ist das keine Garantie dafür, aus dem Gebirge heraus zu finden. Man ge­ rät vielleicht in einen Talkessel. Dies läßt sich unter Umstän­ den nur dann erreichen, wenn man über andere Hügel, also auch bergauf geht. Wenn man sich klarmacht, daß sich beim neuronalen Netz um eine "multidimensionale" Bergtour handelt, so wird die Dimension dieses Problemes deutlich. Das Wissen um die lokalen Minima ist wichtig und wird uns später bei der Auswertung der Simulationsergebnisse erneut begegnen.With this learning algorithm according to the gradient descent method becomes the direction in which the error changes the fastest dert, determined. A special parameter, the learning rate, be agrees the step size and should strong oscillations of the mis prevent reading terms. However, there is no guarantee that the System really came to the smallest possible error. It can namely accidentally getting into a so-called local minimum, whose error value is above the smallest possible. The system then no longer gets out of this "trap". A very beginning vivid example of this phenomenon is that of a mountain trip. If the starting point is random and the algorithm is to always go down the steepest path, that's how it is no guarantee of finding your way out of the mountains. Man perhaps advises in a basin. This can be done under certain circumstances you can only reach it if you cross other hills, so also going uphill. If you realize that the neural Network is a "multidimensional" mountain tour Dimension of this problem clearly. Knowledge of the local Minima is important and will help us later when evaluating the Encounter simulation results again.

Die mathematische UmsetzungThe mathematical implementation

Hier sollen nicht alle Formeln und Gleichungen vollständig her­ geleitet werden. Es werden nur die Berechnungsvorschriften in­ soweit erklärt, wie sie für die Umsetzung von Bedeutung sind. Als Modell dient ein dreischichtige Netz mit einer Input-, ei­ ner Hidden- und einer Output-Schicht.Not all formulas and equations are to be found here completely be directed. Only the calculation rules in as far as explained how they are important for the implementation. A three-layer network with an input, egg serves as a model a hidden and an output layer.

Gesamtfehler für ein Lernmuster p:
Total errors for a learning pattern p:

tpk = gewünschter Zielwert
Opk = Aktivierung des entspr. Neurons
p = Lernmuster
k = Ausgangselement k
t pk = desired target value
O pk = activation of the corresponding neuron
p = learning pattern
k = output element k

Gesamtfehler des neuronalen Netzes:
Total error of the neural network:

Korrekturwert für die Gewichtungsfaktoren zwischen Element j der Hidden- und Element k der Output-Schicht (Delta):
Correction value for the weighting factors between element j of the hidden and element k of the output layer (delta):

Δwij = β.δk.Oj (50)Δw ij = β.δ k .O j (50)

Mit β ist die Lernrate bezeichnet, ein Proportionalitätsfaktor zw. 0 und 1, der die Geschwindigkeit des Lernprozesses be­ stimmt. Je kleiner er ist, desto langsamer wird gelernt, jedoch umso stabiler ist das Gesamtsystem (typischer Wert: 0,2-0,7).Β is the learning rate, a proportionality factor between 0 and 1, which be the speed of the learning process Right. The smaller it is, the slower it is learned, however the overall system is all the more stable (typical value: 0.2-0.7).

Bei Verwendung der Sigmoid-Aktivierungsfunktion (1/(1+e-Input)) errechnet sich der Fehlerterm δk für das Element k einer Output­ schicht nach:
When using the sigmoid activation function (1 / (1 + e input )), the error term δ k for the element k of an output layer is calculated according to:

δk = Ok.(1 - Ok).(tk - Ok) (51)
δ k = O k . (1 - O k ). (t k - O k ) (51)

Oj = Ausgangswert der vorgeschalteten Schicht
tk = gewünschter Zielwert
O j = output value of the upstream layer
t k = desired target value

Es gibt keinen Zielwert mit dem verglichen werden kann. Deshalb erfolgt eine rekursive Berechnung unter Einbeziehung des Deltas der Vorschicht.
There is no target value to compare with. Therefore, a recursive calculation takes into account the delta of the previous shift.

wij (Ls) = β.δj.Oi + α.Δwij (Ls - 1) (52)w ij (L s ) = β.δ j .O i + α.Δw ij (L s - 1) (52)

Der zweite Term der Formel berücksichtigt die Vergangenheit des Lernprozesses. Änderungen des Gewichtungsfaktors beim vorherge­ henden Lernschritt (Ls - 1) werden mit einbezogen. Dadurch kann die Oszillation der Ausgangswerte gedämpft werden, da die Kor­ rektur der Gewichtungsfaktoren nich 10405 00070 552 001000280000000200012000285911029400040 0002019734905 00004 10286t jeder kleinen Änderung des Fehlergradienten folgt. Der Term wird häufig als Momentum bezeichnet.The second term of the formula takes into account the past of the learning process. Changes in the weighting factor in the previous learning step (L s - 1) are included. This can dampen the oscillation of the output values, since the correction of the weighting factors does not follow every small change in the error gradient, not the 10405 00070 552 001000280000000200012000285911029400040 0002019734905 00004 10286t. The term is often referred to as momentum.

Die Summation über k ermittelt den Fehler, den anteilig alle nachgeschalteten Neuronen einbringen.
α = Gewichtungsfaktor des Momentumterms (Faktor zw. 0 und 1; typischer Wert: < 0,9)
Ls = Anzahl der Lernschritte
The summation over k determines the error that all downstream neurons introduce proportionately.
α = weighting factor of the momentum term (factor between 0 and 1; typical value: <0.9)
L s = number of learning steps

Im folgenden soll wieder auf die eingangs verwendeten Bezeich­ nungen zurückgegriffen werden.In the following, reference should be made again to the designation used can be used.

Eine Maßnahme, die zur Verringerung des Schaltungsaufwands bei­ trägt, ist eine Auslagerung der Trainingsphase auf einen exter­ nen Rechner, um dann die dort ermittelte Wissensbasis zu über­ nehmen und lediglich die Schaltungselemente zur Durchführung der Recallphase in Echtzeit auf dem Resynthesizer vorzusehen. In allen Fällen vorteilhaft ist eine Möglichkeit zum Nachladen von Wissensbasen über ein externes Speichermedium wie Diskette oder CD-ROM in die Klassifikatoreinheit KL. Damit wird es er­ möglicht, mit unterschiedlichsten Trainingsergebnissen eine Re­ synthese des Ausgangsklanges vorzunehmen, was die Flexibilität des Resynthesizers nach der vorliegenden Erfindung weiter steigert.A measure that helps reduce circuitry is outsourcing the training phase to an external NEN computer to then use the knowledge base determined there take and only the circuit elements to carry out the recall phase in real time on the resynthesizer. In all cases, an option to reload is advantageous of knowledge bases via an external storage medium such as a floppy disk or CD-ROM in the classifier unit KL. With that he becomes possible, with different training results a re Synthesize the output sound, giving flexibility of the resynthesizer according to the present invention increases.

In der Darstellung nach Fig. 2 ist eine abgewandelte Ausfüh­ rungsform eines Resynthesizers gemäß der vorliegenden Erfindung gezeigt, welche sich lediglich in Details vom Blockschaltbild nach Fig. 1 unterscheidet. Die Veränderungen betreffen die Steuersignale zur Aktivierung/Deaktivierung der Oszillatoren VCO_K1. . .VCO_Kn. Dabei sind die Steuersignale A(x) und K(x) zu einem einzelnen Steuersignal K(x) zusammengefaßt und damit der Schaltungsaufwand und der Speicherbedarf im Speicher S re­ duziert. Ermöglicht wird dies, indem auf jeder Verstärkerstufe VCA nachgeschaltete Schaltelemente verzichtet wird und eine Ak­ tivierung/Deaktivierung der Oszillatoren VCO_K1. . .VCO_Kn al­ lein über die Verstärkerstufen VCO erfolgt, indem diese durch das neue Steuersignal K(x) angesteuert werden und eine Verstär­ kung von NULL einer Deaktivierung eines Oszillators entspricht.In the illustration of FIG. 2 is a modified form of exporting is approximately Resynthesizers according to the present invention is shown which differs only in details from the block diagram of FIG. 1. The changes concern the control signals for activating / deactivating the oscillators VCO_K1. . .VCO_Kn. The control signals A (x) and K (x) are combined to form a single control signal K (x), thus reducing the circuitry and memory requirements in the memory S. This is made possible by dispensing with downstream switching elements on each amplifier stage VCA and activating / deactivating the oscillators VCO_K1. . .VCO_Kn al lein takes place via the amplifier stages VCO by these being controlled by the new control signal K (x) and an amplification of ZERO corresponds to a deactivation of an oscillator.

Die Steuersignale K(x) besitzen nicht mehr die mit Bezug auf Fig. 1 erläuterte binäre Form, sondern entsprechen einer Multi­ plikation der ursprünglichen Steuersignale A(x) und K(x). Dar­ aus ergibt sich für das oben erwähnte Beispiel:
The control signals K (x) no longer have the binary form explained with reference to FIG. 1, but correspond to a multiplication of the original control signals A (x) and K (x). This results in the example mentioned above:

K'(x) = A(x).K(x) =
(A1(x), A2(x). . .An(x)).(K1(x), K2(x). . .Kn(x)) =
(5,3 . . . 10).(1,0 . . . 1) = (5,0 . . . 10) (54)
K '(x) = A (x) .K (x) =
(A1 (x), A2 (x)... An (x)). (K1 (x), K2 (x).. .Kn (x)) =
(5.3 ... 10). (1.0 ... 1) = (5.0 ... 10) (54)

In der Darstellung nach Fig. 3 ist eine abgewandelte Ausfüh­ rungsform eines Resynthesizers gemäß der vorliegenden Erfindung gezeigt, welche sich hinsichtlich des Aufbaus der Mehrzahl von Oszillatoren vom Blockschaltbild nach Fig. 1 und Fig. 2 unter­ scheidet. Darin wird nicht mehr für jede Schwingungsform und damit Klasse K1 bis Kn ein eigener Oszillator VCO_K1. . .VCO_Kn verwendet, sondern es wird ein Wellenformspeicher WT vorgese­ hen, in dem die einzelnen Schwingungsverläufe als Wellenformen W1 bis Wn in digitalisierter Form als Audiosamples abgelegt sind. Durch diese Wellenformen W1 bis Wn wird eine einzelne Verstärkerstufe VCA angesteuert.In the illustration of FIG. 3 shows a modified form of exporting is approximately Resynthesizers according to the present invention is shown, which in terms of the structure of the plurality of oscillators from the block diagram of Fig. 1 and Fig. 2 differs. There is no longer a separate oscillator VCO_K1 for each waveform and thus class K1 to Kn. . .VCO_Kn is used, but a waveform memory WT is provided, in which the individual waveforms are stored as waveforms W1 to Wn in digital form as audio samples. A single amplifier stage VCA is driven by these waveforms W1 to Wn.

Ein Oszillator wird dadurch realisiert, daß je nach Steuersi­ gnal K(x) die der zugeordneten Klasse K1 bis Kn bzw. dem zuge­ ordneten Oszillator VCO_K1. . .VCO_Kn entsprechende Wellenform W1 bis Wn aus dem Wellenformspeicher WT proportional zur gewünschten Tonfrequenz ausgelesen wird und diese digitalen Au­ diodaten über einen Digital/Analogwandler (nicht gezeigt) in ein analoges Schwingungssignal umgesetzt werden, welches dann nachfolgend mit der Verstärkerstufe VCA verstärkt wird. Bedingt das jeweilige Steuersignal K(x) eine Aktivierung mehrerer Klas­ sen K1 bis Kn bzw. Oszillatoren VCO_K1. . .VCO_Kn, so werden die entsprechenden- Wellenformen W1 bis Wn parallel ausgelesen und digital/analog umgesetzt, wobei dann bereits vor der Digi­ tal/Analogwandlung eine Verknüpfung (nicht gezeigt) der paral­ lel anfallenden Wellenformdaten nach den bezüglich Fig. 1 darge­ stellten Möglichkeiten erfolgt. Durch einen solchen Aufbau wird der Schaltungsaufwand erheblich reduziert und darüber hinaus besteht eine einfachere Möglichkeit, auch nicht-zyklische Wel­ lenformen oder Wellenformen mit unharmonischen Signalanteilen als eigene Klassen K1 bis Kn einzubeziehen.An oscillator is realized in that, depending on the control signal K (x), the assigned class K1 to Kn or the assigned oscillator VCO_K1. . .VCO_Kn corresponding waveform W1 to Wn is read out from the waveform memory WT in proportion to the desired audio frequency and these digital audio data are converted into an analog oscillation signal via a digital / analog converter (not shown), which is then subsequently amplified with the amplifier stage VCA. The respective control signal K (x) requires activation of several classes K1 to Kn or oscillators VCO_K1. . .VCO_Kn, the corresponding waveforms W1 to Wn are read out in parallel and implemented digitally / analogously, with a link (not shown) of the parallel waveform data then being made before the digi / analog conversion according to the possibilities shown with reference to FIG. 1 . With such a structure, the circuit complexity is considerably reduced and, moreover, there is an easier possibility to include non-cyclic wave forms or wave forms with inharmonic signal components as separate classes K1 to Kn.

Allen drei vorteilhaften Ausführungsformen nach den Fig. 1 bis 3 gemeinsam ist das Problem, daß dann, wenn entsprechend den Steuersignalen A(x) oder auch nur K(x) eine "Umschaltung" von einer Klasse K1 bis Kn auf eine andere Klasse erfolgt, der Übergang der Oszillatorsignale VCO_K1. . .VCO_Kn bzw. Wellen­ formen W1. . .Wn im Nulldurchgang nicht immer stetig verläuft. Aus diesem Grund kann eine Glättung des resynthetisierten Aus­ gangsschwingungsverlaufs erfolgen. Eine solche mögliche Glät­ tungsstufe GL wird nach der Verknüpfung VG von Teilschwingungen zur Gesamtschwingung eingefügt, so auch in den Fig. 1 bis 3 gezeigt.Common to all three advantageous embodiments according to FIGS. 1 to 3 is the problem that if, according to the control signals A (x) or only K (x), a "switchover" from one class K1 to Kn to another class takes place, the transition of the oscillator signals VCO_K1. . .VCO_Kn or waves form W1. . .Wn not always running continuously at zero crossing. For this reason, the resynthesized output oscillation curve can be smoothed. Such a possible smoothing level GL is inserted after the linkage VG of partial vibrations to the overall vibration, as is also shown in FIGS. 1 to 3.

Mögliche Glättungsverfahren sind insbesondere Mittelwertbildung über ein vorgebbares Intervall, linearer Ausgleich durch bei­ spielsweise drei Punkte oder auch die Bestimmung eines Aus­ gleichspolynoms 3. Ordnung (vgl. hierzu u. a. "Signalverarbei­ tung: numerische Verarbeitung digitaler Signale/Schrüfer, E., München; Wien: Hanser-Verlag 1990, S. 110ff.").Possible smoothing methods are in particular averaging over a predeterminable interval, linear compensation by at for example three points or the determination of an end same-order 3rd order polynomial (see, inter alia, "Signal Processing tion: numerical processing of digital signals / Schrüfer, E., Munich; Vienna: Hanser-Verlag 1990, p. 110ff. ").

Anhand der genannten Glättungsverfahren wird deutlich, daß die­ se besonders vorteilhaft auf der digitalen Ebene mittels eines geeignet programmierten Mikroprozessors oder digitalen Signalprozessors durchgeführt werden können. Aus diesem Grund empfiehlt es sich, alle Schaltelemente bis einschließlich der Verknüpfung VG auf digitaler Ebene durchzuführen, indem sowohl die Generierung von Schwingungsverläufen durch die Oszillatoren VCO_K1. . .VCO_Kn bzw. die Wellenformen W1. . .Wn sowie deren Verstärkung und eventuelle Verknüpfung bzw. Mischung rein digi­ tal erfolgen und erst nach der Glättung des resynthetisierten Ausgangsschwingungsverlaufs eine Digital/Analogwandlung durch­ geführt wird. Daran wird deutlich, daß sich der Resynthesizer gemäß der vorliegenden Erfindung besonders vorteilhaft und ef­ fektiv als digitaler Resynthesizer realisieren läßt.Based on the smoothing process mentioned it is clear that the se particularly advantageous on the digital level by means of a suitably programmed microprocessor or digital  Signal processor can be performed. For this reason it is recommended that all switching elements up to and including the Link VG to perform at the digital level by both the generation of waveforms by the oscillators VCO_K1. . .VCO_Kn or the waveforms W1. . .Wn and their Reinforcement and possible linking or mixing purely digi Tal occur and only after smoothing the resynthesized Output waveform through a digital / analog conversion to be led. This shows that the resynthesizer according to the present invention particularly advantageous and ef fectively implemented as a digital resynthesizer.

Desweiteren besteht die Möglichkeit, den Speicher S zyklisch auszulesen, gestartet durch das Triggersignal T. Dabei ist im Rahmen einer während des Spiels auf dem Keyboard KB vorgenomme­ nen Tonhöhenbeugung (sog. Pitch-Bending) die Auslesefrequenz der Steuersignale A(x) bzw. K(x) aus dem Speicher S über den oben erwähnten Zähler variierbar.Furthermore, there is the possibility of storing the memory S cyclically read out, started by the trigger signal T. Frame made during the game on the keyboard KB pitch bending (so-called pitch bending) the readout frequency the control signals A (x) or K (x) from the memory S via the variable counter mentioned above.

In allen Ausführungsbeispielen kann die am Ausgang des Verknüp­ fungsglieds VG bzw. bei Glättung an der Glättungsstufe GL an­ stehende reproduzierte Schwingungsform durch Klangbearbietungs­ stufen nach dem Geschmack des Musikers weiterbearbeitet bzw. abgewandelt werden. Solche Klangbearbietungsstufen können nach einer Digital/Analogwandlung als analoge Schaltungen mit dis­ kreter Elektronik oder ebenfalls auf digitaler Ebene durchge­ führt werden, wobei in letzterem Fall eine Digital/Analogwand­ lung erst am Ausgang des Resynthesizers erfolgt. In den Block­ schaltbildern nach den Fig. 1 bis 3 ist der Ausgang symbolisch mit einem Lautsprecher gekennzeichnet.In all of the exemplary embodiments, the reproduced waveform at the output of the link VG or in the case of smoothing at the smoothing stage GL can be further processed or modified by sound processing stages according to the taste of the musician. Such sound processing stages can be carried out after a digital / analog conversion as analog circuits with discrete electronics or also on a digital level, in the latter case a digital / analog conversion only taking place at the output of the resynthesizer. In the block diagrams according to FIGS . 1 to 3, the output is symbolically marked with a loudspeaker.

Insbesondere kann zur Klangbearbietung in einer Filterstufe F die Grenzfrequenz des Klangs variert werden, z. B. die obere Grenzfrequenz durch einen Tiefpaß-Filter oder die untere Grenz­ frequenz durch ein Hochpaß-Filter. Auch Bandpaß- und Bandsper­ re-Filter sind einsetzbar. Desweiteren kann eine darauffolgende Amplituden-, Filterfrequenz- oder Tonhöhenhüllkurve ADSR vorge­ sehen werden, mit der der zeitliche Verlauf der entsprechenden Klangparameter in geeigneter Weise auf die Art des reproduzier­ ten Klangverlaufs (z. B. Flächenklang, Perkussiver Klang, Piano­ klang etc.) eingestellt werden kann. Desweiteren sind Modula­ tionen der Tonhöhe, der Amplitude oder der Filterfrequenz möglich.In particular, for sound processing in a filter stage F the cutoff frequency of the sound can be varied, e.g. B. the upper one Cut-off frequency through a low-pass filter or the lower limit frequency through a high-pass filter. Also bandpass and bandpass re-filters can be used. Furthermore, a subsequent one Amplitude, filter frequency or pitch envelope ADSR pre will be seen with the timeline of the corresponding  Sound parameters in a suitable manner on the type of reproduce th sound pattern (e.g. flat sound, percussive sound, piano sound etc.) can be set. Furthermore there are modules the pitch, the amplitude or the filter frequency possible.

Durch den Resynthesizer gemäß der vorliegenden Erfindung lassen sich somit Klänge in der Trainingsphase lernen und in der Re­ callphase bzw. Echtzeitwiedergabephase mit geringem Speicherbe­ darf resynthetisieren. Auch wenn häufig keine hundertprozentig Identische Reproduktion des Ausgangsklanges möglich ist, so ist der resynthetisierte Klang dem Ausgangs klang doch äußerst ähn­ lich und kann vom Musiker mit den weiteren Klangbearbeitungs­ möglichkeiten geeignet weitergeformt werden, wodurch mannigfal­ tige Möglichkeiten zum Kreieren neuer, auf dem resynthetisier­ ten Ausgangsklang aufbauender Klänge ermöglicht wird. Darüber hinaus besteht die Möglichkeit, vor allem unharmonische Signalanteile (Teiltöne eines Spektrums, welche keine ganzzah­ ligen Vielfachen des Grundtons sind; insbesondere hauchiges Klangmaterial), welche in eigens dafür vorgesehenen Oszillator­ modellen oder im Falle der Ausführungsform nach Fig. 3 als Wel­ lenformen vorgesehen sind, dem resynthetisierten Signal zuzumi­ schen, wodurch sich die klangliche Vielfalt des Resynthesizers gemäß der vorliegenden Erfindung noch weiter steigern läßt.The resynthesizer according to the present invention can thus be used to learn sounds in the training phase and to resynthesize them in the recall phase or real-time playback phase with a low memory requirement. Even if it is often not possible to reproduce the output sound 100% identically, the resynthesized sound is extremely similar to the output sound and can be suitably reshaped by the musician with the other sound processing options, thereby creating diverse possibilities for creating new, resynthesized output sound building sounds is made possible. In addition, there is the possibility, especially inharmonic signal components (partials of a spectrum, which are not integer multiples of the fundamental; especially breathy sound material), which are provided in specially designed oscillator models or in the embodiment according to FIG. 3 are provided as wave forms , zuzumi rule the resynthesized signal, whereby the tonal diversity of the resynthesizer according to the present invention can be further increased.

Alle in der vorstehenden Beschreibung erwähnten bzw. in den Fi­ guren dargestellten Merkmale sollen, sofern der bekannte Stand der Technik dies zuläßt, für sich allein oder in Kombination als unter die Erfindung fallend angesehen werden.All mentioned in the above description or in the Fi guren shown features should, provided the known state the technology allows this, alone or in combination are considered to be within the scope of the invention.

Die vorangehende Beschreibung bevorzugter Ausführungsformen nach der Erfindung sind zum Zwecke der Veranschaulichung ange­ geben. Diese sind nicht erschöpfend. Auch ist die Erfindung nicht auf die genaue angegebene Form beschränkt, sondern es sind zahlreiche Modifikationen und Änderungen im Rahmen der vorstehend angegebenen technischen Lehre möglich. Eine bevor­ zugte Ausführungsform wurde gewählt und beschrieben, um die prinzipiellen Details der Erfindung und praktische Anwendungen zu verdeutlichen, um den Fachmann in die Lage zu versetzen, die Erfindung zu realisieren. Eine Vielzahl bevorzugter Ausfüh­ rungsformen sowie weitere Modifikationen kommen bei speziellen Anwendungsgebieten in Betracht.The foregoing description of preferred embodiments according to the invention are for the purpose of illustration give. These are not exhaustive. The invention is also not limited to the exact form specified, but it are numerous modifications and changes under the Technical teaching specified above possible. One before preferred embodiment was chosen and described to principal details of the invention and practical applications  to clarify in order to enable the expert to Realize invention. A variety of preferred designs Forms and other modifications come with special Areas of application into consideration.

Claims (13)

1. Elektronischer Klangerzeuger mit einer Mehrzahl von Oszillatoren unterschiedlicher Schwingungsform, dadurch gekennzeichnet, daß ein oder mehrere Oszillatoren (VCO_K1. . .VCO_Kn) in Abhängigkeit von mit Mitteln zur automatischen Mustererkennung (KL) aus einem nachzubildenden Schwingungsverlauf (A(t)) gewonnenen Steuersignalen (K(x), A(x)) so aktivierbar oder deaktivierbar sind, daß der oder die Oszillatoren (VCO_K1. . .VCO_Kn) mit der dem nachzubildenden Schwingungsverlauf (A(t)) ähnlichsten Schwingungsform aktiv geschaltet sind.1. Electronic sound generator with a plurality of oscillators of different waveforms, characterized in that one or more oscillators (VCO_K1... VCO_Kn) are obtained as a function of control signals obtained with means for automatic pattern recognition (KL) from a vibration curve (A (t)) to be simulated (K (x), A (x)) can be activated or deactivated in such a way that the oscillator (s) (VCO_K1 ... VCO_Kn) are activated with the most similar form of oscillation to the oscillation curve (A (t)) to be simulated. 2. Elektronischer Klangerzeuger mit einem Oszillator mit einem Wellenformspeicher (WT) mit einer Vielzahl unterschiedlicher Wellenformen (W1. . .Wn) dadurch gekennzeichnet, daß der Oszillator in Abhängigkeit von mit Mitteln zur automatischen Mustererkennung (KL) aus einem nachzubildenden Schwingungsverlauf (A(t)) gewonnenen Steuersignalen (K(x), A(x)) so ansteuerbar ist, daß der Oszillator eine Schwingung entsprechend der dem nachzubildenden Schwingungsverlauf (A(t)) ähnlichsten Wellenform oder Kombination von Wellenformen erzeugt.2. Electronic sound generator with an oscillator with one Waveform memory (WT) with a variety different waveforms (W1 ... Wn) characterized in that the oscillator depending on with means for automatic pattern recognition (KL) from one reproduced waveform (A (t)) obtained Control signals (K (x), A (x)) can be controlled so that the An oscillator corresponding to the oscillation the most similar vibration pattern (A (t)) Waveform or combination of waveforms. 3. Elektronischer Klangerzeuger nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß als Mittel zur automatischen Mustererkennung (KL) ein neuronales Netz vorgesehen ist.3. Electronic sound generator according to claim 1 or 2, characterized in that as a means for automatic pattern recognition (KL) neural network is provided. 4. Elektronischer Klangerzeuger nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß als Mittel zur automatischen Mustererkennung (KL) ein geometrischer Klassifikator, insbesondere ein Euklid'scher Abstandsklassifikator oder ein City-Block Abstandsklassifikator, vorgesehen ist. 4. Electronic sound generator according to claim 1 or 2, characterized in that as a means for automatic pattern recognition (KL) geometric classifier, especially an Euclidean Distance classifier or a city block Distance classifier is provided.   5. Elektronischer Klangerzeuger nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß als Mittel zur automatischen Mustererkennung (KL) ein statistischer Klassifikator, insbesondere ein Maximum-Likelihood Klassifikator oder ein Mahalanobis Abstandsklassifikator, vorgesehen ist.5. Electronic sound generator according to claim 1 or 2, characterized in that as a means for automatic pattern recognition (KL) statistical classifier, especially a Maximum likelihood classifier or a Mahalanobis Distance classifier is provided. 6. Elektronischer Klangerzeuger nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß als Mittel zur automatischen Mustererkennung (KL) ein Polynomklassifikator, insbesondere ein linearer Polynomklassifikator oder ein quadratischer Polynomklassifikator, vorgesehen ist.6. Electronic sound generator according to claim 1 or 2, characterized in that as a means for automatic pattern recognition (KL) Polynomial classifier, especially a linear one Polynomial classifier or a quadratic Polynomial classifier is provided. 7. Elektronischer Klangerzeuger nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß als Mittel zur automatischen Mustererkennung (KL) ein heuristischer Klassifikator, insbesondere ein Nächster-Nachbar-Klassifikator mit Zufallsstichprobe oder ein Nächster-Nachbar-Klassifikator mit Säubern und Reduktionsalgorithmus, vorgesehen ist.7. Electronic sound generator according to claim 1 or 2, characterized in that as a means for automatic pattern recognition (KL) heuristic classifier, especially a Nearest neighbor classifier with random sample or a nearest neighbor classifier with cleaners and Reduction algorithm is provided. 8. Elektronischer Klangerzeuger nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß ein Amplitudenspektrum (SP) des nachzubildenden Schwingungsverlaufs (A(t)) als Eingangssignal für das Mittel zur automatischen Mustererkennung (KL) dient, welches insbesondere mittels einer Fourriertransformation (FFT) gewinnbar ist.8. Electronic sound generator according to one of claims 1 to 7, characterized in that an amplitude spectrum (SP) of the model Vibration curve (A (t)) as an input signal for the Means for automatic pattern recognition (KL), which in particular by means of a Fourier transformation (FFT) is obtainable. 9. Elektronischer Klangerzeuger nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß Steuersignale (K(x), A(x)) zur Aktivierung oder Deaktivierung der Mehrzahl von Oszillatoren (VCO_K1. . .VCO_Kn) oder zur Ansteuerung des Oszillators mit Wellenformspeicher (WT) in Intervallen (x) von jeweils einer ganzen oder einer halben Schwingungsperiode des nachzubildenden Schwingungsverlaufs (A(t)) vorgebbar sind.9. Electronic sound generator according to one of claims 1 to 8th, characterized in that Control signals (K (x), A (x)) for activation or Deactivation of the majority of oscillators (VCO_K1. .VCO_Kn) or to control the oscillator with Waveform memory (WT) in intervals (x) of each  a whole or half an oscillation period of the to be reproduced vibration curve (A (t)) can be specified. 10. Elektronischer Klangerzeuger nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die Steuersignale (K(x), A(x)) zur Aktivierung oder Deaktivierung der Mehrzahl von Oszillatoren (VCO_K1. . .VCO_Kn) oder zur Ansteuerung des Oszillators mit Wellenformspeicher (WT) in einem Speichermittel (S) ablegbar und daraus proportional zur Frequenz der zu erzeugenden Tonhöhe abrufbar sind.10. Electronic sound generator according to one of claims 1 to 9, characterized in that the control signals (K (x), A (x)) for activation or Deactivation of the majority of oscillators (VCO_K1. .VCO_Kn) or to control the oscillator with Waveform memory (WT) in a memory means (S) depositable and hence proportional to the frequency of the generating pitch are available. 11. Elektronischer Klangerzeuger nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß ein Mittel zum Glätten (GL) der Übergänge des von unterschiedlichen aktivierten oder deaktivierten Oszillatoren (VCO_K1. . .VCO_Kn oder WT) generierten Ausgangsschwingungsverlaufs vorgesehen ist.11. Electronic sound generator according to one of claims 1 to 10, characterized in that a means for smoothing (GL) the transitions of the different activated or deactivated Oscillators (VCO_K1 ... VCO_Kn or WT) generated Output vibration curve is provided. 12. Elektronischer Klangerzeuger nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, daß jeder durch die jeweiligen Steuersignale (K(x), A(x)) aktivierte Oszillator (VCO_K1. . .VCO_Kn oder WT) mit der Frequenz der zu erzeugenden Tonhöhe schwingt.12. Electronic sound generator according to one of claims 1 to 11, characterized in that each by the respective control signals (K (x), A (x)) activated oscillator (VCO_K1 ... VCO_Kn or WT) with the Frequency of the pitch to be generated oscillates. 13. Verfahren zur elektronischen Klangerzeugung mit einer Mehrzahl von Oszillatoren unterschiedlicher Schwingungsform, dadurch gekennzeichnet, daß ein oder mehrere Oszillatoren (VCO_K1. . .VCO_Kn) in Abhängigkeit von mit Mitteln zur automatischen Mustererkennung (KL) aus einem nachzubildenden Schwingungsverlauf (A(t)) gewonnenen Steuersignalen (K(x), A(x)) so aktiviert oder deaktiviert werden, daß der oder die Oszillatoren (VCO_K1. . .VCO_Kn) mit der dem nachzubildenden Schwingungsverlauf (A(t)) ähnlichsten Schwingungsform aktiv geschaltet wird.13. Process for electronic sound generation with a Majority of oscillators different Waveform, characterized in that one or more oscillators (VCO_K1 ... VCO_Kn) in Dependence on using means for automatic Pattern recognition (KL) from a replica Vibration curve (A (t)) obtained control signals (K (x), A (x)) can be activated or deactivated so that the or the oscillators (VCO_K1 ... VCO_Kn) with the  the most similar vibration pattern (A (t)) Waveform is activated.
DE1997134905 1997-08-12 1997-08-12 Electronic sound generator for re-synthesizer Expired - Fee Related DE19734905C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1997134905 DE19734905C1 (en) 1997-08-12 1997-08-12 Electronic sound generator for re-synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1997134905 DE19734905C1 (en) 1997-08-12 1997-08-12 Electronic sound generator for re-synthesizer

Publications (1)

Publication Number Publication Date
DE19734905C1 true DE19734905C1 (en) 1999-07-29

Family

ID=7838741

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997134905 Expired - Fee Related DE19734905C1 (en) 1997-08-12 1997-08-12 Electronic sound generator for re-synthesizer

Country Status (1)

Country Link
DE (1) DE19734905C1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10012145A1 (en) * 2000-03-13 2001-09-27 Christian Popella Identification and classification of human speech uses a sampling and classification process based on an expert system
DE102005017758B3 (en) * 2005-04-18 2006-08-03 Stefan Stenzel & Frank Schneider (GbR)(vertretungsberechtigter Gesellschafter Stefan Stenzel, Bruckner Str.14, 53340 Meckenheim) Reflective optical proximity sensor arrangement for e.g. piano, has electronic circuit measuring cyclic position of keys, and neural network evaluating measured data for producing digital control data for electronic tone producer
CN116843656A (en) * 2023-07-06 2023-10-03 滁州正汇科技有限公司 Plastic coating control method and system for steel belt pipe

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4185531A (en) * 1977-06-24 1980-01-29 Oberheim Electronics, Inc. Music synthesizer programmer
US4345500A (en) * 1980-04-28 1982-08-24 New England Digital Corp. High resolution musical note oscillator and instrument that includes the note oscillator
US5138924A (en) * 1989-08-10 1992-08-18 Yamaha Corporation Electronic musical instrument utilizing a neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4185531A (en) * 1977-06-24 1980-01-29 Oberheim Electronics, Inc. Music synthesizer programmer
US4345500A (en) * 1980-04-28 1982-08-24 New England Digital Corp. High resolution musical note oscillator and instrument that includes the note oscillator
US5138924A (en) * 1989-08-10 1992-08-18 Yamaha Corporation Electronic musical instrument utilizing a neural network

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10012145A1 (en) * 2000-03-13 2001-09-27 Christian Popella Identification and classification of human speech uses a sampling and classification process based on an expert system
DE10012145C2 (en) * 2000-03-13 2002-02-21 Christian Popella Method and device for the acoustic detection of disease-related physical changes in the voice image apparatus
DE102005017758B3 (en) * 2005-04-18 2006-08-03 Stefan Stenzel & Frank Schneider (GbR)(vertretungsberechtigter Gesellschafter Stefan Stenzel, Bruckner Str.14, 53340 Meckenheim) Reflective optical proximity sensor arrangement for e.g. piano, has electronic circuit measuring cyclic position of keys, and neural network evaluating measured data for producing digital control data for electronic tone producer
CN116843656A (en) * 2023-07-06 2023-10-03 滁州正汇科技有限公司 Plastic coating control method and system for steel belt pipe
CN116843656B (en) * 2023-07-06 2024-03-15 安徽正汇汽配股份有限公司 Plastic coating control method and system for steel belt pipe

Similar Documents

Publication Publication Date Title
Weigend Time series prediction: forecasting the future and understanding the past
Murray-Smith A local model network approach to nonlinear modelling
DE69014613T2 (en) GENETIC SYNTHESIS OF NEURONAL NETWORKS.
DE112018006189T5 (en) ROBUST GRADIENT WEIGHT COMPRESSION SCHEMES FOR DEEP LEARNING APPLICATIONS
DE69629486T2 (en) CONTROL STRUCTURE FOR SOUND SYNTHESIS
Sitte et al. Neural networks approach to the random walk dilemma of financial time series
Nourani et al. Data mining based on wavelet and decision tree for rainfall-runoff simulation
EP1523719A2 (en) Device and method for characterising an information signal
DE112020005610T5 (en) IDENTIFYING OPTIMAL WEIGHTS TO IMPROVE PREDICTIVE ACCURACY IN MACHINE LEARNING METHODS
DE112019005226T5 (en) Data processing method, data processing device and data processing program
DE60125536T2 (en) ARRANGEMENT FOR GENERATING ELEMENT SEQUENCES
DE102018127802A1 (en) HYBRID CLASSIFIER OF A PULSED NEURONAL NETWORK AND SUPPORT VECTOR MACHINE
DE19734905C1 (en) Electronic sound generator for re-synthesizer
DE102004028693B4 (en) Apparatus and method for determining a chord type underlying a test signal
DE112021003761T5 (en) PREDICTIVE MODELS WITH DECOMPOSABLE HIERARCHICAL LEVELS CONFIGURED TO PRODUCE INTERPRETABLE RESULTS
DE112020002547T5 (en) NOISE AND SIGNAL MANAGEMENT FOR RPU ARRAY
Hermann et al. Sonification of markov chain monte carlo simulations
Holzmann Reservoir computing: a powerful black-box framework for nonlinear audio processing
Hiew et al. An adaptive fuzzy system for modeling chaos
DE19917434C1 (en) Device for signal computation and synthesis, especially for digital sound synthesis, has adders with delays dependent on sampling frequency, stimulation device and controller
Staroletov A hierarchical temporal memory model in the sense of Hawkins
DE19734735C2 (en) Classification procedure with a neural network
Nasir et al. Monthly streamflow forecasting with auto-regressive integrated moving average
DE19731499A1 (en) Process for selection of higher order terms for holographic neural network
DE19540859A1 (en) Removing unwanted speech components from mixed sound signal

Legal Events

Date Code Title Description
8100 Publication of the examined application without publication of unexamined application
D1 Grant (no unexamined application published) patent law 81
8322 Nonbinding interest in granting licenses declared
8320 Willingness to grant licenses declared (paragraph 23)
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee