WO2009015655A2 - Verfahren und vorrichtung zur automatischen mustererkennung - Google Patents

Verfahren und vorrichtung zur automatischen mustererkennung Download PDF

Info

Publication number
WO2009015655A2
WO2009015655A2 PCT/DE2008/001256 DE2008001256W WO2009015655A2 WO 2009015655 A2 WO2009015655 A2 WO 2009015655A2 DE 2008001256 W DE2008001256 W DE 2008001256W WO 2009015655 A2 WO2009015655 A2 WO 2009015655A2
Authority
WO
WIPO (PCT)
Prior art keywords
data
sequence
model data
electronic data
sequences
Prior art date
Application number
PCT/DE2008/001256
Other languages
English (en)
French (fr)
Other versions
WO2009015655A3 (de
Inventor
Clemens GÜHMANN
Steffen KÜHN
Original Assignee
Technische Universität Berlin
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universität Berlin filed Critical Technische Universität Berlin
Priority to US12/671,248 priority Critical patent/US20100217572A1/en
Priority to EP08801094A priority patent/EP2174267A2/de
Publication of WO2009015655A2 publication Critical patent/WO2009015655A2/de
Publication of WO2009015655A3 publication Critical patent/WO2009015655A3/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions

Definitions

  • the invention relates to a method and a device for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system.
  • the goal of such pattern recognition is to find out the occurrence of sequences or sequences of properties in sequentially formed electronic data.
  • the patterns to be found are not exactly definable because they may vary in shape and extent.
  • An example is the problem of machine-language recognition, since essential standard methods of the prior art have been developed in the context of this task.
  • Another application is finding fault patterns in machine signals. For example, the detection of knocking burns in gasoline engines by means of structure-borne noise signals, in which a very similar problem is involved (Lachmann et al .: Detecting knocking burns from disturbed knock sensor signals by means of signal separation, Sensory in the motor vehicle, Expert Verlag, 114 -123).
  • HMM hidden Markov models
  • a problem here is that the pattern sequences or sequences tend to vary in length, with two differently sized pattern sequences or sequences belonging to the same class. Sequences are thus not vectors, that is, there is no feature space and no probability distribution can be determined. The use of feature-vector-based classifiers is thus prevented.
  • HMMs are parametric models, that is, they provide a limiting framework that is not always must fit. Parametric models are therefore often affected simultaneously by under- and over-adaptation to the example data.
  • HMMs basically require the Markov property to be satisfied.
  • Another example is the assumption of temporal invariance within a state. As a rule, both assumptions are never fully fulfilled, which results in a fundamental structural underfitting.
  • a pattern recognition method which deals with the recognition of feature sequences - concretely with the recognition of speech - is described in DE 697 11 392 T2.
  • Another field of application of pattern recognition of feature sequences or sequences relates to knock detection in connection with motors. This will be discussed in more detail below.
  • Tapping burns are unwanted deviations from normal combustion. Normal burns are triggered by the spark plug spark and are associated with a moderate pressure increase in the cylinder. Knocking burns, however, generate high pressure peaks and can thus lead to damage to the engine. They often occur when the ignition occurs too early. A later ignition can remedy, but leads to a reduction in engine performance, and thus to an increase in fuel consumption. It therefore makes sense to choose the ignition timing so that just no knocking occurs. Since the Klopfhe Trent an engine depends on external influences, a knock-dependent control of the ignition timing is required. A reliable detection of knocking burns is indispensable.
  • a knocking combustion can be determined on the basis of the pressure curve in the interior of the cylinder.
  • sensors for detecting this measurement are expensive and wear out quickly, so that other measures must be used for series operation.
  • Structure-borne noise sensors attached to the engine block are inexpensive and provide indirect information about the combustion taking place inside the engine.
  • knocking burns can be detected via sound peaks.
  • the advantages of the use of structure-borne noise instead of the pressure are paid for with a more complicated and error-prone evaluation, because other effects can be noticeable in structure-borne noise.
  • neural networks are difficult to use and do not always lead to reproducible results since many parameters (network structure, transfer functions) must be specified a priori.
  • the weights of the network must be optimized numerically numerically, often only suboptima are found.
  • HMMs are an alternative approach.
  • the temporal and the spectral variability of the signals in the form of a stochastic automaton will be described on the basis of a given example or training data set.
  • the actual structure-borne sound signals are converted into time sequences of spectral vectors using STFT ⁇ "Short Time Fourier Transforms.”
  • the temporal pattern of the spectral vectors-the feature sequences-can be modeled by an HMM.
  • HMMs can only be used to a limited extent for knock detection, since HMMs can only model relatively short sequences, preferably short, non-stochastic sequences, due to the averaging properties of the states. Furthermore, they have similar disadvantages as neural networks.
  • the object of the invention is a method and a device for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in specify a data processing system with which a reliable detection of patterns in the sequence of electronic data can be executed in a simplified manner.
  • the object is achieved by a method for automatic pattern recognition according to independent claim 1 and an apparatus for automatic pattern recognition according to independent claim 5.
  • the invention encompasses the idea of a method for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in which automatic electronic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in an analysis of the sequence of electronic data is compared with parameterized model data representing at least one pattern sequence and in which the at least one pattern sequence is detected when it is determined in the analysis that model data comprised by the parameterized model data associated with the at least one pattern sequence has a similarity threshold Similarity measure occur, wherein in forming the parameterized model data training data by means of a dynamic-time warping method to a set of feature vectors of equal length and with a the same information content as the training data are processed, from which the parameterized model data are derived.
  • an apparatus for automatic pattern recognition in a sequence of electronic data by electronic data processing comprising a data processing system comprising: pattern recognition means configured to, in an analysis, sequence the electronic data with parameterized model data comparing at least one pattern sequence and recognizing the at least one pattern sequence if it is determined in the analysis that model data included in the parameterized model data associated with the at least one pattern sequence has a similarity measure exceeding a similarity threshold, and
  • Model data generating means configured to generate the parameterized model data using the training data and thereby the training data by means of a dynamic-time warping method to a set of feature vectors of equal length and to process with the same information content as the training data from which the parameterized model data are derived, and
  • Providing means configured to provide electronically evaluable recognition information about recognizing the at least one pattern sequence for output.
  • a preferred embodiment of the invention provides that the parameterized model data are derived from the set of feature vectors by parameterizing a feature vector-based classifier.
  • a Bayes classifier with kernel window density estimation is used as the feature vector-based classifier.
  • An expedient development of the invention provides that the similarity measure for a subsequence of electronic data examined at the time j of the analysis is determined from the sequence of electronic data as follows:
  • X j are the elements of the sequence of electronic data, p t , (•) and p e , (•) the z-th elements of a total of N elements of the parametric model data and c and a m are constants to be chosen empirically.
  • the sought similarity measure at time y is L (NJ).
  • the method may be used in conjunction with various automatic pattern recognition technologies including, but not limited to, machine signal analysis such as engine knock analysis, ECG signal analysis, speech recognition, gene sequence analysis, image analysis, and thermal image data evaluation.
  • machine signal analysis such as engine knock analysis, ECG signal analysis, speech recognition, gene sequence analysis, image analysis, and thermal image data evaluation.
  • speech recognition for the quality control of machine-forged components belong.
  • thermal image data evaluation for the quality control of machine-forged components belong.
  • the data to be analyzed and the example and training data in electronic form and corresponding measurement or analysis variables are available.
  • Fig. 1 is a schematic representation of a structure of a knock control for an engine
  • Fig. 2 shows an example of the data to be processed in the knock control
  • Fig. 3 is a schematic representation which describes the relationship between measured structure-borne sound signals and sequentially arranged electronic data.
  • the pattern recognition method comprises three sub-aspects that can be considered separately, namely (i) a data set transformation, (ii) a parameter determination of a model, and (iii) the application of the parameterized model for recognizing sequences or sequences in sequentially arranged electronic data in turn can represent a wide variety of information content.
  • a transformation of an example or training data set into feature vectors takes place, which makes hidden random variables accessible and direct comparability possible. It is assumed that there are three training or example sequences for the parameter determination:
  • the example or training data set each represents electronically evaluable information about one or more patterns of measurable size to be later recognized.
  • 5 3 ⁇ a, *, *, b, b, b r c r *, d, d r *, e r *, £, £, *, g, g).
  • the star symbols can be replaced without loss of information by the predecessor symbols, as always a back transformation would be possible by the attached binary vectors and there are the feature vectors
  • a probability density p (m) can be estimated. This describes the structure and randomness of the data both in time and in amplitude.
  • a kernel approach for example a Parzen approach, can be used (Parzen: On estimation of a probability density and mode, Annais of Mathematical Statistics, VoI 33: 1065-1076, 1962):
  • n is the number of feature vectors
  • d the dimension of the feature vectors
  • s (si, ..., S r J ⁇ is a smoothing parameter to be estimated
  • m ⁇ (mu, ..., w ⁇ r is the k th feature vector
  • Gaussian functions 0 (m - m ,, s) and ⁇ (m - m ⁇ s) are combined with i ⁇ j into a single Gaussian function ⁇ ' ⁇ (m - m', sj) whose similarity is big enough.
  • the new parameters occur as a result of the forming process , s' and m'on.
  • the resulting model of the distribution is after the
  • the vector dimension d can then be reduced in the same way.
  • Each of the resulting q Gaussian functions ⁇ ⁇ va. - va k ',%' k ) is a specialist for a subset of the data and consists of a product of scalar Gaussian functions.
  • the scalar Gaussian functions thereby model either a local probability density in time or in amplitude, depending on the component of the feature vector m, which consists of a sequence S and a binary distortion vector ⁇ .
  • Emission densities and transition densities are merely the factors of the product (9) in recoded form.
  • the pararnetrization phase is over. The following part describes how the model can be applied efficiently. The sub-aspect concerning the application of the actual pattern recognition model follows.
  • the method works like a digital filter, i.
  • a measure is output which gives information about the current similarity. If this similarity measure exceeds a given threshold, then a suitable appearing reaction can take place.
  • the evaluation of the sequence S is also possible synchronously to a measurement, since only the current measured value is needed.
  • the probability distributions p x ⁇ (-) and />,, (•) result from the relation (10).
  • the parameter a m is at least as large to choose, so that applies to all p n (a m ) «0.
  • the value L (N, j) is the sought similarity measure at time j, which indicates how closely the currently observed sequence resembles one of the sequences from the parameterization phase. Overall, there are q of these values. The largest of these is relevant and is compared to the detection threshold to signal a detection event when it is exceeded.
  • An implementation of L (i, j) in the form of a ring buffer is possible.
  • the method described above describes in a general way the proposed process of pattern recognition, as it can be used in various application cases. In the following, application examples for the use of the pattern recognition method will now be described in more detail.
  • Fig. 1 shows a schematic representation of a structure of a knock control for a motor.
  • a structure-borne sound signal is continuously recorded and digitized by means of an analog-to-digital conversion with a sufficiently high sampling rate.
  • the time signal thus becomes a sequence of scalars.
  • this sequence is converted by means of an STFT into a sequence of spectral vectors (spectrogram: amplitude spectrum or power density spectrum), which describe the expression of certain frequency components over time.
  • the spectral vectors can then be logarithmized and converted into cepstral vectors by means of a discrete cosine transformation.
  • This step is not mandatory.
  • the vector sequences will be referred to hereinafter as feature vector sequences to abstract from the specific type of preprocessing that is completed. The actual recognition takes place exclusively on the basis of these feature vector sequences as generally explained above.
  • example or training data must be recorded with the help of an engine test stand.
  • the type of engine to be controlled is placed at different speeds and for each cylinder in the knocking and non-knocking area.
  • the cylinder internal pressure is measured. These data are required in order to be able to clearly judge whether a concretely measured structure-borne noise signal corresponds to a knocking or a non-knocking combustion (see Fig. 2).
  • the recorded structure-borne noise data are prepared by cutting out all areas in which there is an overpressure in the simultaneously measured pressure signal.
  • the knocking strength of each structure-borne sound fragment is determined on the basis of the pressure signal and connected to it (labeled).
  • the pressure signals are bandpass filtered and rectified. The remaining maximum amplitude represents a measure of the current strength of knocking.
  • a data set of structure-borne sound fragments is available, with which the knock detection can be parameterized. The pressure signals are then no longer needed.
  • the first model is for the detection of knocking burns, the second for the detection of non-knocking burns. In this way the task can be reduced to a simple classification problem.
  • the starting point for the parameterization are the structure-borne sound fragments cut out of the continuous structure-borne noise signal and labeled with the knocking strength.
  • the model for non-knocking burns is parameterized only with those structure-borne sound fragments whose knock strength lies below a previously defined threshold S 1 . Accordingly, the model for the knocking burns is parameterized with the help of clearly knocking structure-borne sound fragments.
  • the knock intensity must exceed a threshold ⁇ 2 .
  • Both thresholds S 1 and s 2 may be the same. However, it makes sense to choose S 2 slightly larger than S x . Apart from the database used, both models are otherwise completely identical. Likewise, the parameterization phase is not different from each other, so it is sufficient to describe them using a single model.
  • the pattern recognition it is more favorable for the pattern recognition not to analyze the structure-borne sound signals directly, but rather feature vector sequences derived therefrom, ie sequences of feature vectors.
  • a structure-borne sound fragment thus becomes a feature vector sequence (see Fig. 3). Since the structure-borne sound fragments differ in their length, the feature vector sequences generated by the preprocessing differ in their length. A direct comparison is not possible.
  • dealing with the classification problem with classical feature vector-based pattern recognition methods is impossible because they require that a self-contained feature space exists and thus allow implicit estimation of the probability distribution of the example data set.
  • model for pattern recognition can be used in the manner explained above. Since two models were generated during the parameterization phase, namely once for knocking and once for non-knocking burns, two of these values exist. Depending on which of these values is greater, either a knocking or a non-knocking combustion is present. If both values are low, there is either no combustion at the moment or the sensor is damaged. The engine control unit thus has the opportunity to detect a failure of the knock detection, which is important in order to avoid damage to the engine.
  • the method described allows a continuous search for knocking burns.
  • the method like a digital filter, can provide a criterion for the instantaneous knock magnitude at each sampling instant.
  • no a priori specifications are required and the determination of the parameters is largely constructive, i. without numerical optimization.
  • Some of the applications are based on time signals. In these applications, it is relatively obvious at which point the method of sequencing is usefully employed. can be set. For example, in the signal analysis of ECG signals (ECG electrocardiogram) directly the time signal can be used. It is then a use of the above-described method for automatic pattern recognition in a signal analysis of ECG signals. In this way, sequences in the ECG signals can be determined, which may indicate arrhythmias.
  • a model For each command word a model is created.
  • the corresponding examples are preprocessed and converted into spectral vector sequences. These are the actual sequences from which characteristic vectors of the same length are then generated in the manner already described (formulas (1) to (4)). With the aid of the described parameterization (formulas (5) to (10)) the models are subsequently generated.
  • the relationship (11) then allows the use of the generated models to analyze a continuous audio signal. If the similarity measure for each model constantly calculated to a certain If the time exceeds the predefined threshold, it can be assumed that the continuously examined audio signal currently contained an utterance which was similar to the command words used in the parameterization of the corresponding model. A message of the associated label appears to the user of the system as recognition of his spoken utterance and can be used to trigger certain useful actions.
  • the patterns to be searched consist of certain significant code fragments, ie sequences or sequences of bytes describing the behavior of the code.
  • variations are often added to certain parts of the code that, while not modifying the actual behavior, result in a changed sequence of bytes.
  • NOP machine instructions No Operation
  • the procedure for locating malicious program code using the method described above is to describe the byte sequences of different modified versions by a common model and to search for the occurrence of the virus with this. For this, the byte sequences of the formulas (1) to (4) are correspondingly transformed into feature vectors of fixed length. Subsequently, the parameterization of the model takes place. It is then a use of the above-described method for automatic pattern recognition in virus scanning.
  • a handwritten text can be interpreted as a sequence or sequence of XY coordinates.
  • these sequences can not be directly compared.
  • the invention provides a direct way of processing such data.
  • the task could be to check the signature or signature of a person, e.g. to authenticate a laptop.
  • the necessary hardware, a touchpad and a computer for the evaluation are already included in the devices.
  • Each sequence begins when a touch is registered on the touchpad and ends when it has not been touched for a while.
  • the first coordinate of the sequence may be subtracted from all remaining coordinates of the sequence. This will ensure that each coordinate sequence starts at the origin (0,0).
  • time signals are often used which can be interpreted directly as sequences, namely current or voltage characteristics.
  • Other sensor data in which interference by transfer functions takes place can be examined in the form of spectrograms (see knock detection above).
  • sequence recognition can be sensibly used.
  • it is typical that these are almost always detail problems, for example part of a controller, part of process monitoring or the like. It is then a use of the above-described method for automatic pattern recognition in the control or process monitoring of a machine or plant, wherein the sequence of electronic data represents data acquired for the control or the process monitoring, whereby previously associated sample or training data is acquired were.
  • Another application of the pattern recognition method is the evaluation of thermal image data for quality control of machined forged components.
  • Forged components occasionally show cracks. Visually, the cracks are usually not easy to recognize. However, the respective cooling behavior deviates from areas with cracks and areas without cracks.
  • images of the forged components are recorded by means of a thermal imaging camera for a short time.
  • the cooling of a component corresponds to a change in a gray value image G (x, y, t) formed by the thermal imaging camera over a time t. Since the position of the component with respect to the thermal imaging camera does not change during the recording, the image coordinates x and y (pixels) are assigned to a respective area of the component surface.
  • the temporal behavior of the gray value can be approximately described here by means of a decaying exponential function:
  • the parameter I (x, y) can preferably be estimated by means of linear regression. Further parameters describing the cooling are possible.
  • each column Sp (x) (V (x, l), V (x, 2), V (x, 3), ...) of the secondary image V (x, y) as a vector interpret.
  • the task of finding the position of the component and the comparison with a reference is thus reduced to a sequence detection problem which can be solved with the pattern recognition method according to the invention.
  • the reference image (reference) is formed for example by means of the method according to the invention from several example sequences of defect-free components
  • a method for automatic pattern recognition is described above, which can be used in a variety of applications by analyzing corresponding electronic data, which comprise an information associated with the respective application, in the manner explained above.
  • the starting point of the method here is first the generation of a set of feature vectors of equal length or dimension from training or example data by means of a dynamic-time warping method.
  • feature vectors are generated, which can then be examined in principle with the aid of any classifiers for pattern recognition.
  • a neural network eg a multilayer perceptron
  • bis- hop Neural networks for Pattern Recognition, Clarendon Press, Oxford, 1995.
  • the generation of the set of feature vectors constitutes an independent aspect of the invention, which develops its advantages independently of the subsequent choice of the classifier and thus in connection with various classifiers.
  • the described method for automatic pattern recognition can advantageously be used in particular in connection with the following applications: machine speech recognition, handwriting recognition, gene sequence analysis, search for malicious program code (virus scanner), medical technology applications such as cardiac pacemakers or electrocardiograms and mechanical diagnostic applications such as knock detection.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem, bei dem in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten verglichen wird, die wenigstens eine Mustersequenz repräsentieren, und bei dem die wenigstens eine Mustersequenz erkannt wird, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten umfasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlichkeitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, wobei beim Bilden der parametrisierten Modelldaten Trainingsdaten mittels eines Dynamic-Time-Warping-Verfahrens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten verarbeitet werden, aus denen die parametrisierten Modelldaten abgeleitet werden. Ferner betrifft die Erfindung eine Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung mit einem Datenverarbeitungssystem.

Description

Verfahren und Vorrichtung zur automatischen Mustererkennung
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem.
Hintergrund der Erfindung
Allgemein ist es das Ziel solcher Mustererkennung, das Auftreten von Sequenzen oder Folgen von Eigenschaften in sequentiell gebildeten elektronischen Daten herauszufinden. In einer Vielzahl praktischer Anwendungen sind die zu findenden Muster nicht exakt definierbar, da sie in ihrer Form und in ihrer Ausdehnung variieren können. Als Beispiel ist das Problem der maschinellen Spracherkennung zu nennen, da wesentliche Standardverfahren aus dem Stand der Technik im Kontext dieser Aufgabenstellung entwickelt wurden. Eine weitere Anwen- düng betrifft das Auffinden von Fehlermustern in Maschinensignalen. Zum Beispiel gehört hierzu das Erkennen von klopfenden Verbrennungen in Otto-Motoren anhand von Körperschallsignalen, bei dem sich ein sehr ähnliches Problem stellt (Lachmann et al.: Erkennung klopfender Verbrennungen aus gestörten Klopfsensorsignalen mittels Signaltrennung, Senso- rik im Kraftfahrzeug, Expert Verlag, 114-123). Die entwickelten Verfahren werden aber zum Beispiel auch beim Durchsuchen von KfZ-CAN-Bus-Daten nach Fehlermustern erforderlich (Isernhagen et al.: Intelligent signal processing in an automated measurement data analysis System. In Proceedings of the 2007 IEEE Symposium on Computational Intelligence in Image and Signal Processing (CHSP 2007), Seiten 83-87, 2007) oder beim Vergleich von Ist- und Sollwertkurvenverläufen bei der Spezifikationsüberprüfung (Rebeschieß et al.: Automatisier- ter closed-loop-Softwaretest eingebetteter Motorsteuerfunktionen, 11. Software & Systems Quality Conferences 2006, 7. ICS Test, 2006).
Im Bereich der Spracherkennung haben sich als Lösung für das Problem der Sequenzklassifikation die so genannten Hidden-Markov-Modelle (HMM) etabliert und stellen den Stand der Technik dar (Gernot: Mustererkennung mit Markov-Modellen, Teubner, 2003). Die grundlegende Idee besteht hierbei darin, eine Sequenz oder Folge als das Ergebnis einer Kette von Wahrscheinlichkeitsdichteverteilungen zu beschreiben. Weiterhin wird auch der Übergang von einer Verteilung zu nachfolgenden Verteilungen statistisch modelliert. HMMs werden daher auch als zweistufige stochastische Prozesse im Rahmen der Mustererkennung bezeichnet. Sie sind recht leistungsfähig, haben aber auch Nachteile.
Die Klassifikation und das Erkennen von Sequenzen oder Folgen unterscheiden sich schein- bar grundsätzlich von konventionellen Mustererkennungsaufgaben, bei denen Merkmalsvektoren fester Dimension analysiert werden. Solche Verfahren und Geräte zur Musterkennung sind beispielsweise aus den Dokumenten DE 694 25 166 T2, DE 697 04 201 T2 und DE 10 2006 045 218 Al, und darüber hinaus umfassend aus der Fachliteratur bekannt (vgl. zum Beispiel Duda et al.: Pattern Classification^ John Wiley & Sons, 2000). Sie alle haben ge- meinsam, dass sie auf der Schätzung einer Wahrscheinlichkeitsverteilung pro Klasse oder wenigstens auf der Schätzung von Klassengrenzen aufbauen. HMMs sind deutlich anders, was durch die Verschiedenheit der zu analysierenden Datenstruktur bedingt ist. HMMs analysieren Sequenzen, das heißt Folgen von Merkmalen, Zahlenwerten, Symbolen oder Vektoren. Ein Problem besteht hierbei darin, dass die Mustersequenzen oder -folgen in der Regel in ihrer Länge variieren, wobei zwei verschieden lange Mustersequenzen oder -folgen der gleichen Klasse angehören können. Sequenzen sind somit keine Vektoren, das heißt, es existiert kein Merkmalsraum und es kann keine Wahrscheinlichkeitsverteilung bestimmt werden. Der Einsatz merkmalsvektorbasierter Klassifikatoren wird so verhindert.
Der Lösungsansatz von HMMs besteht darin, dass eine beobachtete Sequenz O = {x/, ..., Xn) - die im Fachterminus der HMMs Observationsfolge genannt wird - die Realisierung einer Folge von Zufallsvariablen Su S2, ■■-, Sm darstellt. Das impliziert eine zusätzliche verborgene Stufe, denn eine deterministische Zuordnung einer konkreten Observation xt mit t e [l,nj zu einer Zufallsvariablen Sτ mit τ e [l,m] ist nicht möglich. Aus diesem Grund wird sie durch einen stochastischen Prozess beschrieben, welcher den Übergang von einer Zustandsvariablen zu einer anderen durch Übergangswahrscheinlichkeiten modelliert. Der speziellen Form der Daten ist damit Rechnung getragen. Aus dieser Architektur folgen aber auch einige Nachteile, denn die Zweistufigkeit erhöht die Komplexität gegenüber merkmalsvektorbasierten Klassifikatoren deutlich. Die Modellparameter müssen daher numerisch optimiert werden, was einer- seits nicht immer zu guten Parameterwerten fuhren muss und auch aufwendig ist.
Eine weitere Einschränkung von HMMs besteht darin, dass es sich um parametrische Modelle handelt, das heißt, sie geben einen einschränkenden Rahmen vor, der nicht immer zu den Da- ten passen muss. Parametrische Modelle sind daher oft gleichzeitig von Unter- und Überanpassung an die Beispieldaten betroffen. Als Beispiel wird an dieser Stelle daraufhingewiesen, dass HMMs grundsätzlich voraussetzen, dass die Markov-Eigenschaft erfüllt ist. Ein anderes Beispiel ist die Annahme der zeitlichen Invarianz innerhalb eines Zustandes. Beide Annah- men sind in der Regel niemals vollständig erfüllt, was eine grundsätzliche strukturbedingte Unteranpassung zur Folge hat.
Ein Mustererkennungsverfahren, welches sich mit der Erkennung von Merkmalssequenzen - konkret mit der Erkennung von Sprache - beschäftigt, ist in DE 697 11 392 T2 beschrieben. Ein weiteres Anwendungsgebiet der Mustererkennung von Merkmalssequenzen oder -folgen betrifft die Klopferkennung im Zusammenhang mit Motoren. Hierauf wird im Folgenden näher eingegangen.
Bei klopfenden Verbrennungen handelt es sich um ungewollte Abweichungen von der Nor- malverbrennung. Normale Verbrennungen werden durch den Funken der Zündkerze ausgelöst und sind mit einem moderaten Druckanstieg im Zylinder verbunden. Klopfende Verbrennungen hingegen erzeugen hohe Druckspitzen und können so zu einer Beschädigung des Motors führen. Sie treten häufig dann auf, wenn die Zündung zu früh erfolgt. Eine spätere Zündung kann Abhilfe schaffen, führt jedoch zu einer Verringerung der Motorleistung, und damit zu einer Erhöhung des Kraftstoffverbrauches. Es ist daher sinnvoll, den Zündzeitpunkt so zu wählen, dass gerade noch kein Klopfen auftritt. Da die Klopfheigung eines Motors von äußeren Einflüssen abhängt, wird eine klopfabhängige Regelung des Zündzeitpunktes erforderlich. Eine sichere Erkennung klopfender Verbrennungen ist dafür unabdingbar.
Prinzipiell kann eine klopfende Verbrennung anhand des Druckverlaufes im Inneren des Zylinders festgestellt werden. Sensoren zum Erfassen dieser Messgröße sind jedoch teuer und verschleißen schnell, so dass für den Serienbetrieb andere Messgrößen verwendet werden müssen. Am Motorblock befestigte Körperschallsensoren sind preiswert und liefern indirekte Informationen über die Verbrennung, die im Inneren des Motors stattfindet. Insbesondere lassen sich klopfende Verbrennungen über Schallspitzen detektieren. Die Vorteile der Verwendung von Körperschall anstelle des Druckes werden mit einer komplizierteren und fehleranfälligeren Auswertung erkauft, denn auch andere Effekte können sich im Körperschall bemerkbar machen. Für die Detektierung klopfender Verbrennungen anhand von Körperschallsignalen sind digitale Filter zum Erkennen klopftypischer Frequenzen (vgl. DE 101 38 110 Al) oder einfache merkmalsvektorbasierte Klassifikatoren (vgl. DE 103 52 860 Al) auf Basis bestimmter Kennwerte oder Merkmale bekannt, die durch Mittelwertbildung, Integration oder dergleichen ge- wonnen werden (vgl. EP 1 309 841 Bl oder EP 1 184 651 A2). Solche Methoden sind prinzipbedingt fehleranfällig, da bei der Merkmalsbildung meist viel relevante Information verloren geht, insbesondere zeitliche Abhängigkeiten. In dem Dokument DE 103 00 204 Al soll mittels Bildung von Zeitfenstern dieser Nachteil abgemildert werden. Die dabei entstehende Struktur kann als ein einfacher Zustandsautomat interpretiert werden.
Andere Verfahren versuchen, mit Hilfe des Körperschallsignals ein virtuelles Drucksignal zu erzeugen. In dem Dokument DE 197 41 884 C2 wird dafür beispielsweise ein Neuronales Netz verwendet. Neuronale Netze sind allerdings schwierig in der Anwendung und führen nicht immer zu reproduzierbaren Ergebnissen, da viele Parameter (Netzstruktur, Transfer- funktionen) a-priori vorzugeben sind. Die Gewichte des Netzes müssen aufwendig numerisch optimiert werden, wobei oft nur Suboptima gefunden werden.
HMMs sind ein alternativer Ansatz. Hierbei wird anhand eines gegebenen Beispiel- oder Trainingsdatensatzes die zeitliche und die spektrale Variabilität der Signale in Form eines stochastischen Automaten beschrieben. Dazu werden die eigentlichen Körperschallsignale mittels STFT {„Short Time Fourier Transform ") in Zeitfolgen von Spektralvektoren gewandelt. Das zeitliche Muster der Spektralvektoren - die Merkmalssequenzen - lassen sich durch ein HMM modellieren.
Trotz der prinzipiellen Eignung von HMMs können diese nur bedingt für die Klopferkennung eingesetzt werden, da HMMs kurze Sequenzen, vorzugsweise kurze, nichtstochastische Sequenzen, aufgrund von Mittelungseigenschaften der Zustände nur verhältnismäßig schlecht modellieren können. Weiterhin weisen sie ähnliche Nachteile wie Neuronale Netze auf.
Zusammenfassung der Erfindung
Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem anzugeben, mit denen auf vereinfachte Art und Weise eine zuverlässige Erkennung von Mustern in der Sequenz elektronischer Daten ausführbar ist.
Erfindungsgemäß wird die Aufgabe durch ein Verfahren zur automatischen Mustererkennung nach dem unabhängigen Anspruch 1 und eine Vorrichtung zur automatischen Mustererkennung nach dem unabhängigen Anspruch 5 gelöst.
Die Erfindung umfasst den Gedanken eines Verfahrens zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Da- tenverarbeitungssystem, bei dem zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem, bei dem in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten verglichen wird, die wenigstens eine Mustersequenz repräsentieren, und bei dem die wenigstens eine Mustersequenz erkannt wird, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten umfasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlichkeitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, wobei beim Bilden der parametrisierten Modelldaten Trainingsdaten mittels eines Dynamic-Time-Warping- Verfahrens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten verarbeitet werden, aus denen die parametrisierten Modelldaten abgeleitet werden.
Nach einem weiteren Aspekt der Erfindung ist eine Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung, mit einem Datenverarbeitungssystem geschaffen, welches die folgenden Merkmale aufweist: - Mustererkennungsmittel, die konfiguriert sind, in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten zu vergleichen, die wenigstens eine Mustersequenz repräsentieren, und die wenigstens eine Mustersequenz zu erkennen, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten umfasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlich- keitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, und
- Modeldatenerzeugungsmittel, die konfiguriert sind, die parametrisierten Modelldaten unter Verwendung der Trainingsdaten zu erzeugen und hierbei die Trainingsdaten mittels eines Dynamic-Time-Warping- Verfalirens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten zu verarbeiten, aus denen die parametrisierten Modelldaten abgeleitet werden, und
- Bereitstellungsmittel, die konfiguriert sind, eine elektronisch auswertbare Erkennungsinformation über das Erkennen der wenigstens einen Mustersequenz für eine Ausgabe be- reitzustellen.
Mit Hilfe der Umwandlung der Trainings- oder Beispieldaten unter Anwendung eines Dyna- mic-Time-Warping- Verfahrens (Myers et al: A comparative study of several dynamic time- warping algorithms for connected word recognition. The Bell System Technical Journal, 60(7):1389-1409, September 1981) zu dem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten wird erreicht, dass bei der Mustererkennung ein komponentenweiser Vergleich möglich ist. Sequenzen oder Folgen, die in ihrer Länge variieren, erlauben dieses nicht. Aus den Trainingsdaten entstehen so Merkmalsvektoren fester Dimension und zu den Trainings- oder Beispieldaten gleichen Informati- onsgehaltes. Die Umwandlung in Merkmalsvektoren gleichen Informationsgehaltes bedeutet, dass eine Rekonstruktion der Trainingsdaten aus dem Satz von Merkmalsvektoren ohne zusätzliche Informationen möglich ist. Insbesondere bleibt eine zeitliche Verzerrungsinformation erhalten, die den Trainingsdaten zu eigen ist. Es existiert dann ein Satz von Merkmalsvektoren, welcher anschließend mittels beliebiger klassischer merkmalsvektorbasierter Klassifi- katoren ausgewertet werden kann. Das Problem der Mustererkennung wird auf eine als solche bekannte Klassifikationsaufgabe zurückgeführt. Es werden keine zweistufigen stochastischen Prozesse benötigt, wie dieses bei den HMMs der Fall ist.
Eine bevorzugte Weiterbildung der Erfindung sieht vor, dass die parametrisierten Modell- daten aus dem Satz von Merkmalsvektoren abgeleitet werden, indem ein merkmalsvektorbasierter Klassifikator parametrisiert wird.
Bei einer zweckmäßigen Ausgestaltung der Erfindung kann vorgesehen sein, dass als merkmalsvektorbasierter Klassifikator ein Bayes-Klassifikator mit Kernel-Window-Dichte- Schätzung verwendet wird. Eine zweckmäßige Weiterbildung der Erfindung sieht vor, dass das Ähnlichkeitsmaß für eine zum Zeitpunkt j der Analyse untersuchte Teilsequenz elektronischer Daten aus der Sequenz elektronischer Daten wie folgt ermittelt wird:
L(J, j) := jnaxJzCz - 1, ; - a) + log(pt l (α))}+ c \og(pe l (Xj ))
wobei Xj die Elemente der Sequenz elektronischer Daten, pt , (•) und pe , (•) die z-ten Elemente von insgesamt N Elementen der parametrisierten Modelldaten und c und am empirisch zu wählende Konstanten sind. Das gesuchte Ähnlichkeitsmaß zum Zeitpunkt y ist L(NJ).
Das Verfahren kann in Verbindung mit verschiedenen Technologien zur automatischen Mustererkennung genutzt werden, wozu insbesondere eine Maschinensignalanalyse wie zum Beispiel eine Klopfanalyse bei einem Motor, eine Signalanalyse von EKG-Signalen, einer Spracherkennung, eine Gensequenzanalyse, eine Bildanalyse und eine Auswertung von Wär- mebilddaten, beispielsweise für die Qualitätskontrolle bei maschinell geschmiedeten Bauelementen, gehören. Es liegen dann jeweils die zu analysierenden Daten und die Beispiel- und Trainingsdaten in elektronischer Form und entsprechende Mess- oder Analysegrößen repräsentierend vor.
Beschreibung bevorzugter Ausführungsbeispiele der Erfindung
Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf Figuren einer Zeichnung näher erläutert. Hierbei zeigen:
Fig. 1 eine schematische Darstellung eines Aufbaus einer Klopfregelung für einen Motor, Fig. 2 ein Beispiel für die bei der Klopfregelung zu verarbeitenden Daten und
Fig. 3 eine schematische Darstellung, welche den Zusammenhang zwischen gemessenen Körperschallsignalen und sequenziell angeordneten elektronischen Daten beschreibt.
Das Verfahren zur Mustererkennung umfasst drei Teilaspekte, die getrennt betrachtet werden können, nämlich (i) eine Datensatztransformation, (ii) eine Parameterbestimmung eines Modells und (iii) die Anwendung des parametrisierten Modells zum Erkennen von Sequenzen oder Folgen in sequenziell angeordneten elektronischen Daten, welche ihrerseits verschiedensten Informationsgehalt repräsentieren können. In einem ersten Schritt findet eine Transformation eines Beispiel- oder Trainingsdatensatzes in Merkmalsvektoren statt, wodurch versteckte Zufallsvariablen zugänglich werden und eine direkte Vergleichbarkeit ermöglicht wird. Es sei angenommen, dass drei Trainings- oder Bei- spielsequenzen für die Parameterbestimmung gegeben sind:
51 = {a,a,b,b,b,d,d,d,e,f,g}
52 = {a,a,a,b,b,c,c,d,d,e,e,f,f,f,g,g} (1) S3= {a,b,b,b,c,d,d,e,f,f,g,g}.
Um die Erklärung einfach zu halten, wurden Symbolsequenzen verwendet. Anstelle von Symbolen können aber auch reelle Zahlen oder Vektoren verwendet werden. Für diese wird dann lediglich ein Vergleichskriterium benötigt: Bei reellen Zahlen beispielsweise der Absolutbetrag der Differenz und bei Vektoren ein Distanzmaß, wie der Euklidische Abstand. Bei Symbolen ist das Vergleichskriterium insofern entartet, als dass der Abstand Null ist, wenn zwei Symbole gleich sind, andernfalls ist der Abstand Eins.
In den verschiedenen Anwendungsfällen repräsentiert der Beispiel- oder Trainingsdatensatz jeweils elektronisch auswertbare Information über ein oder mehrere Muster einer messbaren Größe, welche später erkannt werden sollen.
Es ist zu erkennen, dass die drei Sequenzen (1) nichtlineare Verzerrungen enthalten. Diese können kompensiert werden. Eine Entzerrung ergibt:
S1 = {a,a,*,b,b,b,*,*,d,d,d,e, *,£,*, *rg,*}
52 = {a,a,a,b,b,* ,c,c,d,d,* ,e,e,f,f,f,g,g} (2)
53 = {a,* ,* ,b,b,brcr* ,d,dr* ,er* ,£,£,* ,g,g) .
Damit die Sequenzen gleich werden, wurden Sterne eingefügt, welche eine erforderliche Wiederholung des Vorgängersymbols kennzeichnen. Bei Sequenzen von reellen Zahlen oder Vektoren kann mittels einer Entzerrung keine vollständige Gleichheit erreicht werden. Hier lässt sich jedoch immer eine Entzerrung finden, die den Abstand zwischen den Sequenzen minimiert. Ein Verfahren, welches das leistet, ist das Dynamic-Time-Warping Verfahren. Die erforderlichen Dehnungen pro Beispielsequenz lassen sich mit Hilfe binärer Vektoren beschreiben
S1 = {1,1,0,1,1,1,0,0,1,1,1,1,0,1,0,0,1,0} δ2 = {1,1,1,1,1,0,1,1,1,1,0,1,1,1,1,1,1,1} (3) δ3 = {1,0,0,1,1,1,1,0,1,1,0,1,0,1,1,0,1,1},
welche immer eine Eins enthalten, wenn in der ursprünglichen Sequenz an dieser Stelle ein Symbol vorhanden war. Ansonsten ist der Eintrag Null. Die entzerrten Sequenzen (2) und die Verzerrungsvektoren (3) werden zu
m'± = {a,ar*,bfb,br*,*rd,d,dre/*ffr*r *,g,*, 1,1, 0,1, 1,1, 0,0, 1,1, 1,1, 0,1, 0,0, 1,0} m' 2 = {a,a,a,brb,*,c,c,d,d, *, ere,£, £, f,g,g, 1,1,1,1,1,0,1,1,1,1,0,1,1,1,1,1,1,1} m'3 = {a,*,*,brbrb,c,*,d,d, *,e, *,£,£, *,gr,g, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 0, 1, 0, 1, 1, 0, 1, 1}
kombiniert. Die Sternsymbole können dabei ohne Informationsverlust durch die Vorgängersymbole ersetzt werden, da immer eine Rücktransformation durch die angehängten binären Vektoren möglich wäre und es entstehen die Merkmalsvektoren
Ul1 == {arara,brbrb,brbrd,drdre,er£r£r£rgrg, 1,1, 0,1, 1,1, 0,0, 1,1, 1,1, 0,1, 0,0, 1,0) iπ2 == {{ aa,,aa,,aa,, bb,rbb,,bb,,cc,,cc,,dd,,dd,,dd,,ee,,ee,,f£,, ££,, f£,,gg,,gg,, 1l,,11,,11,,11,, 11,,00,,11,,11,,11,,11,,00,,11,,11,,11,,11,,11,,11,,11}} (4) m3 = {a,a,a,b,b,b,crc,drd,d,e,e,f,f,f ^^,1,0,0,1,1,1,1,0,1,1,0,1,0,1,1,0,1,1} .
Es wird angemerkt, dass die vorderen Hälften der Vektoren nahezu gleich sind. Dieser Effekt tritt jedoch nur bei Symbolsequenzen auf. Bei Sequenzen von reellen Zahlen oder Vektoren würden sich die Einträge lediglich ähneln. Der entscheidende Vorteil dieser Datensatztransformation besteht darin, dass die in den Trainingsdaten an sich versteckten Verzerrungen explizit werden und dass Merkmalsvektoren entstanden sind. Die Verzerrungsinformation ist im Übrigen jedoch gleich in den ursprünglichen Trainingsdaten und den erzeugten Merkmalsvek- toren. Als Folge dieser Anpassung ist nun ein komponentenweiser Vergleich möglich. Sequenzen, die in ihrer Länge variieren, erlauben das nicht.
Im nun folgenden Teilaspekt erfolgt die Parameterbestimmung des Modells. Mit Hilfe des Beispiel- oder Trainingsdatensatzes (4) lässt sich eine Wahrscheinlichkeitsdichte p(m) schätzen. Diese beschreibt Struktur und Zufälligkeit der Daten sowohl in der Zeit, als auch in der Amplitude. Für die Modellierung der Wahrscheinlichkeitsdichte lässt sich ein Kernel- Ansatz, beispielsweise ein Parzen- Ansatz, verwenden (Parzen: On estimation of a probability density andmode. Annais of Mathematical Statistics, VoI 33: 1065-1076, 1962):
p(m) * - 1 ∑ " φ(iΑ- mk,s) mit (5)
Figure imgf000011_0001
Hierbei ist n die Anzahl an Merkmalsvektoren, d die Dimension der Merkmalsvektoren, s = (si, ..., SrJτ ein zu schätzender Glättungsparameter und m^ = (mu, ...,w^r der k-te Merkmalsvektor des Datensatzes. Der einzige offene Parameter s kann mit Hilfe einer Fixpunktite- ration so bestimmt werden, sodass die Vorhersagefähigkeit der Dichteschätzung ^(m) maximal wird (Duin: On the choice ofthe smoothing parameters for parzen estimators of probability density functions. IEEE Transactions on Computers, Vol. C-25, No. 11: 1175-1179, 1976).
Zur Verringerung der Datenmenge, werden anschließend solche Gaußfunktionen 0(m - m,,s) und ^(m - m^s) mit i ≠ j zu einer einzigen Gaußfunktion α'^(m - m',sj) zusammengefasst, deren Ähnlichkeit groß genug ist. Dabei treten durch die Umformung die neuen Parameter
Figure imgf000011_0002
, s' und m'auf. Das resultierende Modell der Verteilung lautet nach der
Zusammenfassung
^(m) « -∑αt^(m - mt'st) ' (6)
wobei q sehr viel kleiner als n sein kann. Die Formeln für die Parameter a[ , s[ und mj sind
Figure imgf000011_0003
Der Ausdruck (m, -mj2 ist dabei komponentenweise zu verstehen, d.h. jede Komponente des Vektors m, - m, wird einzeln quadriert. Vor der Zusammenfassung gilt s, = s und a, = 1 für alle / = 1, ..., n. Als Kriterium für die Ähnlichkeit zweier Gaußfunktionen ^(m - m^s,) und φ(m - mj,Sj) eignet sich
Figure imgf000012_0001
Das Modell p(m) der Wahrscheinlichkeitsverteilung besteht nach der Kompression aus einer Summe von q Gaußverteilungen ^(m - m^., s^.) gewichtet mit den Faktoren ak' mit Jc = 1, ..., q. Die Vektordimension d kann anschließend auf die gleiche Weise verringert werden.
Jede der entstandenen q Gaußfunktionen φ{va. — vak' ,%'k) ist Spezialist für einen Teilbereich der Daten und besteht aus einem Produkt skalarer Gaußfunktionen. Die skalaren Gaußfunktionen modellieren dabei entweder eine lokale Wahrscheinlichkeitsdichte in der Zeit oder aber in der Amplitude, je nach der Komponente des Merkmalsvektors m, der aus einer Sequenz S und einem binären Verzerrungsvektor δ besteht. Jede der q Gaußfunktion
u φ(m-m'k,sk' ) = Y[- r exp K -O2 (9)
24,
kann nach rückgängig machen der Merkmalsvektorcodierung als
φ(m-mk' ,s'k) = Ylpe,(x) .pυ(δ) (10)
/=1
interpretiert werden. Dabei bestimmen die Anteile von sk' und m^, die aus den Verzerrungsvektoren δ herrühren, die Parameter für die Übergangsdichten pn(δ) und die Anteile die direkt aus den Sequenzen 5 stammen die Parameter für die Emissionsdichten pe ι (x) . Die
Emissionsdichten und die Übergangsdichten sind lediglich die Faktoren des Produktes (9) in umkodierter Form. Die Pararnetrisierungsphase ist damit beendet. Der folgende Teil beschreibt, wie das Modell effizient angewendet werden kann. Es folgt nun der Teilaspekt betreffend die Anwendung des Modells zur tatsächlichen Mustererkennung.
Während der Anwendungsphase wird eine Sequenz S dahingehend untersucht, ob irgendwo Muster auftreten, die zu den Sequenzen des Beispieldatensatzes ähnlich sind. Dabei muss die Transformation, die während der Parametrisierungsphase durchgeführt wurde, implizit auch für die beobachtete Sequenz S erfolgen. Das mit der nachfolgenden Formel (11) angegebene Verfahren ist hierzu in effizienter Weise in der Lage.
Prinzipiell arbeitet das Verfahren wie ein digitaler Filter, d.h. zu jedem Element der zu untersuchenden Sequenz S wird ein Maß ausgegeben, welches Auskunft über die momentane Ähnlichkeit gibt. Überschreitet dieses Ähnlichkeitsmaß eine gegebene Schwelle, so kann eine geeignet erscheinende Reaktion erfolgen. Die Auswertung der Sequenz S ist auch synchron zu einer Messung möglich, denn es wird immer nur der aktuelle Messwert benötigt.
Intern arbeitet der Filter folgendermaßen: Für jedes der q Modelle (Siehe Formel (6)) wird eine Matrix L angelegt und mit -∞ initialisiert. Sie wird pro Zeitschritt j für alle i = 1, ..., N mit Hilfe der Formel
L(i,j) - l,j - ά) + log(ptJ(a))}+ clog(pej(x y) (11)
Figure imgf000013_0001
aktualisiert. Die Wahrscheinlichkeitsverteilungen px ι(-) und />, ,(•) ergeben sich aus der Beziehung (10). Der Parameter am ist dabei mindestens so groß zu wählen, so dass für alle pn(am) « 0 gilt. Der Parameter c dient der Gewichtung und muss empirisch ermittelt werden. Im einfachsten Fall kann c = 1 gewählt werden. Der Wert L(N, j) ist das gesuchte Ähnlichkeitsmaß zum Zeitpunkt j, welches angibt, wie stark die momentan beobachtete Sequenz einer der Sequenzen aus der Parametrisierungsphase ähnelt. Insgesamt existieren q dieser Werte. Der größte davon ist relevant und wird mit der Erkennungsschwelle verglichen, um bei deren Überschreitung ein Erkennungsereignis zu signalisieren. Eine Implementierung von L(i, j) in Form eines Ringpuffers ist möglich. Das vorangehend beschriebene Verfahren beschreibt in allgemeiner Weise den vorgeschlagenen Prozess der Mustererkennung, wie es in verschiedenen Anwendungsfallen genutzt werden kann. Im Folgenden werden nun Anwendungsbeispiele für die Nutzung des Mustererkennungsverfahrens näher beschrieben.
Beispiel 1
Eine Anwendung des Mustererkennungsverfahrens ist die Klopferkennung bei Motoren, auf die im Folgenden noch näher eingegangen wird. Fig. 1 zeigt eine schematische Darstellung eines Aufbaus einer Klopfregelung für einen Motor.
Es wird davon ausgegangen, dass mit Hilfe eines geeigneten Sensors ein Körperschallsignal kontinuierlich aufgenommen und mittels einer Analog-Digital-Wandlung mit hinreichend hoher Abtastrate digitalisiert wird. Das Zeitsignal wird damit zu einer Sequenz von Skalaren. Im nächsten Schritt wird diese Sequenz mittels einer STFT in eine Sequenz von Spektralvektoren (Spektrogramm: Amplitudenspektrum oder Leistungsdichtespektrum) gewandelt, welche die Ausprägung bestimmter Frequenzanteile über die Zeit beschreiben. Die Spektralvektoren können anschließend logarithmiert und mittels einer Diskreten Kosinustransformation in Cepstralvektoren gewandelt werden. Dieser Schritt ist jedoch nicht zwingend erforderlich. Die Vektorsequenzen werden im Weiteren als Merkmalsvektorsequenzen bezeichnet, um von der konkreten Art der Vorverarbeitung zu abstrahieren, die damit abgeschlossen ist. Die eigentliche Erkennung erfolgt ausschließlich auf Basis dieser Merkmalsvektorsequenzen wie sie oben allgemein erläutert wurden.
Bevor die Klopferkennung eingesetzt werden kann, muss eine Parametrisierung stattfinden. Dazu müssen mit Hilfe eines Motorenteststandes Beispiel- oder Trainingsdaten aufgenommen werden. Hierbei wird der zu regelnde Motorentyp bei verschiedenen Drehzahlen und für jeden Zylinder in den klopfenden und nichtklopfenden Bereich gebracht. Zusätzlich wird neben den Körperschallsignalen mit geeigneten Sensoren der Zylinderinnendruck gemessen. Diese Da- ten sind erforderlich, um eindeutig beurteilen zu können, ob ein konkret gemessenes Körperschallsignal einer klopfenden oder einer nichtklopfenden Verbrennung entspricht (vgl. Fig. 2). Anschließend werden die aufgezeichneten Körperschalldaten aufbereitet, indem alle Bereiche ausgeschnitten werden, bei denen im gleichzeitig gemessenen Drucksignal ein Überdruck vorliegt. Zusätzlich wird anhand des Drucksignals die Klopfstärke eines jeden Körperschallfragmentes ermittelt und mit diesem verbunden (gelabelt). Die Drucksignale werden dazu bandpassgefiltert und gleichgerichtet. Die verbleibende Maximalamplitude stellt ein Maß für die aktuelle Stärke des Klopfens dar. Nach diesem Schritt steht ein Datensatz von Körperschallfragmenten zur Verfügung, mit dem die Klopferkennung parametrisiert werden kann. Die Drucksignale werden anschließend nicht länger benötigt.
Für die Klopferkennung werden zwei Modelle parametrisiert. Das erste Modell dient der Erkennung klopfender Verbrennungen, das zweite zur Erkennung nicht klopfender Verbrennungen. Auf diese Weise kann die Aufgabenstellung auf ein einfaches Klassifikationsproblem zurückgeführt werden. Ausgangspunkt für die Parametrisierung sind die aus dem kontinuierlichen Körperschallsignal ausgeschnittenen und mit der Klopfstärke gelabelten Körperschall- fragmente.
Das Modell für die nichtklopfenden Verbrennungen wird nur mit solchen Körperschallfragmenten parametrisiert, deren Klopfstärke unterhalb einer zuvor definierten Schwelle S1 liegt. Entsprechend wird das Modell für die klopfenden Verbrennungen mit Hilfe eindeutig klop- fender Körperschallfragmente parametrisiert. Die Klopfstärke muss dazu eine Schwelle ε2 überschreiten. Beide Schwellen S1 und s2 können gleich sein. Es ist jedoch praktisch sinnvoll S2 etwas größer als Sx zu wählen. Bis auf die verwendete Datenbasis sind beide Modelle ansonsten vollkommen identisch. Ebenso unterscheidet sich die Parametrisierungsphase nicht voneinander, sodass es ausreichend ist, diese anhand eines einzigen Modells zu be- schreiben.
In aller Regel ist es für die Mustererkennung günstiger, nicht direkt die Körperschallsignale zu analysieren, sondern daraus abgeleitete Merkmalsvektorsequenzen, also Folgen von Merkmalsvektoren. Bei diesem konkreten Beispiel ist es, wie bereits beschrieben, sinnvoll, Körperschallsignale zunächst in kurze überlappende gleichlange Zeitfenster zu unterteilen und von diesen jeweils die Amplituden oder Leistungsdichtespektren zu berechnen. Jedes dieser Spektren kann als Merkmalsvektor fester Dimension aufgefasst werden. Ein Körperschallfragment wird so zu einer Merkmalsvektorsequenz (vgl. Fig. 3). Da sich die Körperschallfragmente in ihrer Länge unterscheiden, unterscheiden sich auch die durch die Vorverarbeitung erzeugten Merkmalsvektorsequenzen in ihrer Länge. Ein direkter Vergleich ist so nicht möglich. Ebenso ist eine Behandlung des Klassifikationsproblems mit klassischen merkmalsvektorbasierten Mustererkennungsverfahren unmöglich, da diese voraussetzen, dass ein in sich abgeschlossener Merkmalsraum existiert und somit eine implizite Schätzung der Wahrscheinlichkeitsverteilung des Beispieldatensatzes möglich ist.
Gemäß dem oben beschriebenen Verfahren werden nun Merkmalsvektoren gebildet, die an- schließend zur Parametrisierung des Modells genutzt werden, wie dieses oben erläutert ist. Anschließend kann das Modell zur Mustererkennung in der vorangehend erläuterten Art und Weise verwendet werden. Da während der Parametrisierungsphase zwei Modelle erzeugt wurden, nämlich einmal für klopfende und einmal für nichtklopfende Verbrennungen, existieren zwei dieser Werte. Je nachdem welcher dieser Werte größer ist, liegt entweder eine klop- fende oder eine nichtklopfende Verbrennung vor. Sind beide Werte niedrig, findet momentan entweder keine Verbrennung statt, oder der Sensor ist beschädigt. Das Motorsteuergerät hat damit die Möglichkeit, einen Ausfall der Klopferkennung zu detektieren, was wichtig ist, um eine Beschädigung des Motors zu vermeiden.
Das beschriebene Verfahren ermöglicht ein zeitkontinuierliches Suchen nach klopfenden Verbrennungen. Darunter ist zu verstehen, dass das Verfahren, ähnlich einem digitalen Filter, zu jedem Abtastzeitpunkt ein Kriterium für die momentane Klopfstärke zur Verfügung stellen kann. Überdies sind keine a-priori Vorgaben erforderlich und die Bestimmung der Parameter erfolgt weitgehend konstruktiv, d.h. ohne numerische Optimierung.
Wie vorangehend in Verbindung mit der Klopferkennung erläutert, können auch andere Problemstellungen in Verbindung mit einer Mustererkennung auf ein Sequenzerkennungsproblem zurückgeführt werden, was nachfolgend näher erläutert wird.
Beispiel 2
Einige der Anwendungen basieren auf Zeitsignalen. Bei diesen Anwendungen ist es relativ offensichtlich, an welcher Stelle das Verfahren zur Sequenzerkennung nutzbringend einge- setzt werden kann. Beispielsweise kann bei der Signalanalyse von EKG-Signalen (EKG - Elektrokardiogramm) direkt das Zeitsignal verwendet werden. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung bei einer Signalanalyse von EKG-Signalen. Auf diese Weise können Sequenzen in den EKG- Signalen ermittelt werden, die gegebenenfalls auf Rhythmusstörungen hindeuten.
Beispiel 3
Auch die Anwendung der automatischen Mustererkennung in Verbindung mit Spracherken- nung basiert auf Zeitsignalen. Beim Erkennen von Sprache ist es jedoch sinnvoll, eine Vorverarbeitung der Zeitsignale, bei welchen es sich in diesem konkreten Fall um Audiosignale handelt, durchzuführen. Hierzu werden äquivalent zur oben beschriebenen Vorgehensweise bei der Klopferkennung die Schallsignale in Folgen von Spektralvektoren gewandelt. Der Vorteil dieser Transformation besteht darin, dass sich die aus physikalischen Gründen irrele- vanten Phasen aus den Signalen so leicht entfernen lassen. Fig. 3 trifft daher auch für den Anwendungsfall der maschinellen Spracherkennung zu.
Die einfachste Anwendung einer maschinellen Spracherkennung besteht darin, einzelne vor- definierte Kommandowörter zu erkennen. Dazu ist mindestens ein Mikrophon und ein Mikro- prozessor erforderlich, welcher zusätzlich in der Lage sein muss, die analogen Audiosignale digital einzulesen. Um zur Kommandoworterkennung das oben beschriebene Verfahren einzusetzen, ist es zunächst erforderlich, einen Beispieldatensatz mit dieser Messvorrichtung aufzunehmen. Für jedes Kommandowort müssen mindestens einige Beispiele aufgezeichnet werden. Anschließend werden diese aufbereitet und gelabelt, d.h. es wird maschinenlesbar gekennzeichnet, um welches Kommando wort es sich bei jedem konkreten Beispiel handelt.
Für jedes Kommando wort wird nun ein Modell erzeugt. Dazu werden die entsprechenden Beispiele vorverarbeitet und in Spektralvektorfolgen gewandelt. Dieses sind die eigentlichen Sequenzen, aus denen dann in der bereits beschriebenen Weise (Formeln (1) bis (4)) Merk- malsvektoren gleicher Länge erzeugt werden. Mit Hilfe der beschriebenen Parametrisierung (Formeln (5) bis (10)) werden anschließend die Modelle erzeugt. Die Beziehung (11) ermöglicht dann die Nutzung der erzeugten Modelle zur Analyse eines kontinuierlichen Audiosignals. Falls das für jedes Modell ständig berechnete Ähnlichkeitsmaß zu einem bestimmten Zeitpunkt die vordefinierte Schwelle überschreitet, kann davon ausgegangen werden, dass das kontinuierlich untersuchte Audiosignal aktuell eine Äußerung enthalten hat, welche zu den Kommandowörtern ähnlich war, welche bei der Parametrisierung des entsprechenden Modells verwendet wurden. Eine Meldung des damit verbundenen Labels erscheint dem Benutzer des Systems als Erkennung seiner gesprochenen Äußerung und kann zur Triggerung bestimmter nützlicher Aktionen genutzt werden.
Beispiel 4
Bei einem Virenscanner bestehen die zu suchenden Muster aus bestimmten signifikanten Codefragmenten, also Folgen oder Sequenzen von Bytes die das Verhalten des Codes beschreiben. Damit Viren nicht so leicht zu finden sind, werden häufig Variationen an bestimmten Teilen des Codes eingefügt, die zwar das eigentliche Verhalten nicht verändern, aber zu einer geänderten Bytefolge führen. Beispielsweise können an beliebigen Stellen des Codes NOP- Maschinenbefehle (No Operation) eingefügt werden. Auch andere Codesequenzen, die letztlich nichts bewirken, lassen sich einfügen.
Die Vorgehensweise zum Auffinden schädlichen Programmcodes mit Hilfe des oben beschriebenen Verfahrens besteht darin, die Bytefolgen verschiedener veränderter Versionen durch ein gemeinsames Modell zu beschreiben und mit diesem nach dem Auftreten des Virus zu suchen. Dazu werden die Bytefolgen den Formeln (1) bis (4) entsprechend in Merkmalsvektoren fester Länge transformiert. Darauf anschließend erfolgt die Parametrisierung des Modells. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung beim Virenscannen.
Beispiel 5
Ein sehr ähnlicher Problemkreis ist die Suche nach Genen oder ähnlichen Genen in DNA- Sequenzen. Hierbei wird anstelle von Byte-Sequenzen nach Aminosäure-Sequenzen gesucht. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung (Gensequenzen) bei der Gensequenzanalyse, wobei die Sequenz elektronischer Daten eine Gensequenz repräsentiert. Beispiel 6
Nicht ganz so offensichtlich ist die Anwendung in der Bildanalyse, da hier zweidimensionale Datenstrukturen vorliegen. Einige dieser Aufgabenstellungen lassen sich auf ein Sequenzanalyseproblem zurückführen. Ein handschriftlich geschriebener Text beispielsweise, kann als eine Sequenz oder Folge von X-Y-Koordinaten interpretiert werden. Infolge variabler Schreibgeschwindigkeiten können diese Sequenzen jedoch nicht direkt verglichen werden. Die Erfindung bietet jedoch eine direkte Möglichkeit zur Verarbeitung solcher Daten. Bei- spielsweise könnte die Aufgabenstellung darin bestehen, die Unterschrift oder Signatur einer Person zu überprüfen um z.B. eine Authentifizierung eines Laptops durchzuführen. Die notwendige Hardware, ein Touchpad und ein Computer für die Auswertung ist in den Geräten bereits enthalten.
Jede Sequenz beginnt, wenn eine Berührung auf dem Touchpad registriert wird und endet, wenn für eine gewisse Zeit keine Berührung mehr empfangen wurde. Damit die Position, an der die Unterschrift oder Signatur geschrieben wird, keinen Einfluss ausübt, kann die erste Koordinate der Sequenz von allen restlichen Koordinaten der Sequenz subtrahiert werden. Dadurch wird sichergestellt, dass jede Koordinatensequenz am Ursprung (0,0) beginnt.
Um nun die Unterschrift oder Signatur einer Person erkennen zu können, werden einige Beispiele benötigt, aus denen entsprechend den Formeln (1) bis (4) die Merkmalsvektoren fester Länge erzeugt werden. Darauf aufbauend wird anschließend das Modell parametrisiert (Formeln (5) bis (10)). Nachdem das Modell fertig parametrisiert ist, kann es dazu verwendet werden, alle empfangenen Koordinatensequenzen entweder ständig oder nur auf Anforderung mit dem gespeicherten Modell zu vergleichen. Hierzu kann die Formel (11) eingesetzt werden. Beispiel 7
Bei der Maschinensignalanalyse werden häufig Zeitsignale verwendet, die sich direkt als Sequenzen interpretieren lassen, nämlich Strom- oder Spannungsverläufe. Andere Sensordaten, bei denen eine Störung durch Übertragungsfunktionen stattfindet, können in Form von Spektrogrammen untersucht werden (vgl. Klopferkennung oben). In der Regel existieren beim Maschinen- und Anlagenbau ausgesprochen viele Anwendungen, bei denen sich die beschriebene Sequenzerkennung sinnvoll einsetzen lässt. Typisch hierbei ist jedoch, dass es sich fast immer um Detailprobleme handelt, zum Beispiel einen Teil einer Steuerung, einen Teil einer Prozessüberwachung oder dergleichen. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung bei der Steuerung oder der Prozessüberwachung einer Maschine oder einer Anlage, wobei die Sequenz elektronischer Daten für die Steuerung oder die Prozessüberwachung erfasste Daten repräsentieren, wobei zuvor zugehörige Beispiel- oder Trainingsdaten erfasst wurden.
Beispiel 8
Eine weitere Anwendung des Mustererkennungsverfahrens ist die Auswertung von Wärmebilddaten für die Qualitätskontrolle bei maschinell hergestellten geschmiedeten Bauelemen- ten. Geschmiedete Bauelemente weisen gelegentlich Risse auf. Rein visuell lassen sich die Risse meist nicht gut erkennen. Allerdings weicht das jeweilige Abkühlverhalten von Bereichen mit Rissen und von Bereichen ohne Risse voneinander ab. Um solche Abweichungen erfassen zu können, werden für eine kurze Zeit Bilder der geschmiedeten Bauelemente mittels einer Wärmebildkamera aufgenommen. Die Abkühlung eines Bauelementes entspricht einer Veränderung eines mittels der Wärmebildkamera gebildeten Grauwertbildes G(x,y,t) über eine Zeit t. Da sich die Lage des Bauelementes gegenüber der Wärmebildkamera während der Aufnahme nicht verändert, sind die Bildkoordinaten x und y (Pixel) einem jeweiligen Bereich der Bauteiloberfläche zugeordnet. Das zeitliche Verhalten des Grauwertes lässt sich hierbei näherungsweise mittels einer abklingenden Exponentialfunktion beschreiben:
G(x, y, t) « G(x, y,0) exp(- l(x, y) t) Der Parameter l(x,y) lässt sich vorzugsweise mittels linearer Regression abschätzen. Weitere die Abkühlung beschreibende Parameter sind möglich. Für jede Bildkoordinate x und y wird so ein Parametervektor V(x,y) gebildet, welcher beispielsweise im einfachsten Fall nur eindimensional ist: V(x,y) = l(x,y).
Da jeder Bildkoordinate x und y genau ein Parametervektor V(x,y) zugeordnet ist, kann das Ergebnis dieser Vorverarbeitung als ein Grauwertbild (eindimensionaler Parametervektor) oder als ein Falschfarbenbild (mehrdimensionaler Parametervektor) dargestellt werden. Ein abweichendes Abkühlverhalten in solchen Sekundärbildern V(x,y) ist visuell sofort als eine ungewöhnliche Verfärbung erkennbar. Für eine maschinelle Auswertung ist es aber störend, dass die Lage und die Ausrichtung der Bauelemente im Sekundärbild von Fall zu Fall variiert. Diese Variation hat verfahrenstechnische Gründe und zeigt sich im Wesentlichen als eine horizontale Verschiebung beziehungsweise Verzerrung. Ein einfacher Vergleich mit einem Referenzbild ist daher nicht möglich
Es ist hingegen möglich, jede Spalte Sp (x) = (V(x,l), V(x,2), V(x,3),...) des Sekundärbildes V(x,y) als einen Vektor zu interpretieren. Die Abfolge der Spalten S(x) von links nach rechts bildet dann eine Folge von Vektoren S = Sp(I), Sp(2),Sp(3),... und somit eine Sequenz. Die Aufgabenstellung des Findens der Lage des Bauelementes und des Vergleichs mit einer Refe- renz wird somit auf ein Sequenzerkennungsproblem reduziert, welches sich mit dem erfindungsgemäßen Mustererkennungsverfahren lösen lässt. Das Referenzbild (Referenz) wird beispielsweise mittels des erfindungsgemäßen Verfahrens aus mehreren Beispielssequenzen von fehlerfreien Bauelementen gebildet
Insgesamt ist vorangehend ein Verfahren zur automatischen Mustererkennung beschrieben, welches in vielfältigen Anwendungen eingesetzt werden kann, indem entsprechende elektronische Daten, die eine dem jeweiligen Anwendungsfall zugeordnete Information umfassen, in der oben erläuterten Art und Weise analysiert werden. Ausgangspunkt des Verfahrens ist hierbei zunächst die Erzeugung eines Satzes von Merkmalsvektoren gleicher Länge oder Di- mension aus Trainings- oder Beispieldaten mittels eines Dynamic-Time-Warping-Verfahrens. Auf diese Weise werden Merkmalsvektoren erzeugt, die anschließend prinzipiell mit Hilfe beliebiger Klassifikatoren zur Mustererkennung untersucht werden können. Beispielsweise könnte auch ein Neuronales Netz (z.B. ein Multilagen-Perzeptron) Verwendung finden (Bis- hop: Neural networks für Pattern Recognition, Clarendon Press, Oxford, 1995). Zahlreiche andere Klassifikatoren wie Support- Vector-Machines, Polynomklassifikatoren oder Entscheidungsbaumverfahren sind ebenfalls möglich (Niemann: Klassifikation von Mustern, 1995). Allerdings müssen dazu alle Klassifikatoren das Problem lösen, die während der Anwen- dungsphase notwendige Entzerrung der beobachteten Sequenzen effizient durchzuführen. In ihrer Grundform ist keines der genannten Verfahren dazu in der Lage.
Unabhängig von der anschließenden Ausführung des Klassifikationsverfahrens stellt die Erzeugung des Satzes von Merkmalsvektoren einen selbstständigen Aspekt der Erfindung dar, welcher seine Vorteile unabhängig von der anschließenden Wahl des Klassifikators und somit im Zusammenhang mit verschiedensten Klassifikatoren entfaltet.
Das beschriebene Verfahren zur automatischen Mustererkennung kann vorteilhafter Weise insbesondere im Zusammenhang mit den folgenden Anwendungen genutzt werden: maschi- nelle Spracherkennung, Handschrifterkennung, Gensequenzanalyse, Suche nach schädlichem Programmcode (Virenscanner), Medizintechnikanwendungen wie Herzschrittmacher oder Elektrokardiogramm und maschinelle Diagnoseanwendungen wie Klopferkennung.
Die in der vorstehenden Beschreibung, den Ansprüchen und der Zeichnung offenbarten Merk- male der Erfindung können sowohl einzeln als auch in beliebiger Kombination für die Verwirklichung der Erfindung in ihren verschiedenen Ausführungsformen von Bedeutung sein.

Claims

Ansprüche
1. Verfahren zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem, bei dem in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten verglichen wird, die wenigstens eine Mustersequenz repräsentieren, und bei dem die wenigstens eine Mustersequenz erkannt wird, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten umfasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlichkeitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, wobei beim Bilden der parametrisierten Modelldaten Trainingsdaten mittels eines Dynamic-Time-Warping- Verfahrens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten verarbeitet werden, aus denen die parametrisierten Modelldaten abgeleitet werden.
2. Verfahren nach Anspruch 1, dadurch g ek e nn z e i c hn e t, dass die parametrisierten Modelldaten aus dem Satz von Merkmalsvektoren abgeleitet werden, indem ein merk- malsvektorbasierter Klassifϊkator parametrisiert wird.
3. Verfahren nach Anspruch 2, dadurch g ek e n n z e i c h n e t, dass als merkmalsvektorba- sierter Klassifϊkator ein Bayes-Klassifikator mit Parzen- Window-Dichteschätzung verwendet wird.
4. Verfahren nach mindestens einem der vorangehenden Ansprüche, dadurch g ek e nn - z e i c hn e t, dass das Ähnlichkeitsmaß L(NJ) für eine zum Zeitpunkt j der Analyse untersuchte Teilsequenz elektronischer Daten aus der Sequenz elektronischer Daten wie folgt ermittelt wird:
L(i> ■/) := β Jp^ J1^' - 1, 7 ~ α) + log(A,( (0O))+ c 1Og(X, O, )) wobei Xj die Elemente der Sequenz elektronischer Daten, pt , (•) und pe , (•) die /-ten E- lemente von insgesamt N Elementen der parametrisierten Modelldaten und c und am empirisch zu wählende Konstanten sind.
Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung, mit einem Datenverarbeitungssystem, welches die folgenden Merkmale aufweist:
- Mustererkennungsmittel, die konfiguriert sind, in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten zu vergleichen, die wenigstens eine Mustersequenz repräsentieren, und die wenigstens eine Mustersequenz zu erkennen, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten um- fasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlichkeitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, und - Modeldatenerzeugungsmittel, die konfiguriert sind, die parametrisierten Modelldaten unter Verwendung der Trainingsdaten zu erzeugen und hierbei die Trainingsdaten mittels eines Dynamic-Time-Warping- Verfahrens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten zu verarbeiten, aus denen die parametrisierten Modelldaten abgeleitet werden, und - Bereitstellungsmittel, die konfiguriert sind, eine elektronisch auswertbare Erkennungsinformation über das Erkennen der wenigstens einen Mustersequenz für eine Ausgabe bereitzustellen.
PCT/DE2008/001256 2007-07-31 2008-07-31 Verfahren und vorrichtung zur automatischen mustererkennung WO2009015655A2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/671,248 US20100217572A1 (en) 2007-07-31 2008-07-31 Method and device for automatic pattern recognition
EP08801094A EP2174267A2 (de) 2007-07-31 2008-07-31 Verfahren und vorrichtung zur automatischen mustererkennung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007036277A DE102007036277A1 (de) 2007-07-31 2007-07-31 Verfahren und Vorrichtung zur automatischen Mustererkennung
DE102007036277.5 2007-07-31

Publications (2)

Publication Number Publication Date
WO2009015655A2 true WO2009015655A2 (de) 2009-02-05
WO2009015655A3 WO2009015655A3 (de) 2009-03-26

Family

ID=40175840

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2008/001256 WO2009015655A2 (de) 2007-07-31 2008-07-31 Verfahren und vorrichtung zur automatischen mustererkennung

Country Status (4)

Country Link
US (1) US20100217572A1 (de)
EP (1) EP2174267A2 (de)
DE (1) DE102007036277A1 (de)
WO (1) WO2009015655A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694331A (zh) * 2020-05-11 2020-09-22 杭州传化智能制造科技有限公司 生产工艺参数调整的系统、方法和计算机设备
US20220165065A1 (en) * 2019-10-31 2022-05-26 Aptiv Technologies Limited Multi-Domain Neighborhood Embedding and Weighting of Sampled Data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009011826A2 (en) * 2007-07-13 2009-01-22 Dolby Laboratories Licensing Corporation Time-varying audio-signal level using a time-varying estimated probability density of the level
DE102015204208A1 (de) * 2015-03-10 2016-09-15 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Steuereinheit zur Überwachung einer Kommunikationsverbindung
CN110634050B (zh) * 2019-09-06 2023-04-07 北京无限光场科技有限公司 一种鉴别房源类型的方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0391044A2 (de) 1989-04-03 1990-10-10 Cadix Inc. Mustererzeugungsverfahren für die Handschriftregistrierung
DE19650541A1 (de) 1996-12-05 1998-06-10 Siemens Ag Verfahren zur Ermittlung eines Referenzschriftzugs anhand mehrerer Musterschriftzüge
DE19741884C2 (de) 1997-09-23 2000-12-21 Daimler Chrysler Ag Verfahren zur Bestimmung relevanter Größen, die den Zylinderdruck in den Zylindern einer Brennkraftmaschine repräsentieren
EP1184651A2 (de) 2000-09-01 2002-03-06 Robert Bosch Gmbh Verfahren zur Klopferkennung bei Brennkraftmaschinen
DE10138110A1 (de) 2000-08-11 2002-03-21 Bosch Gmbh Robert Verfahren zur Klopferkennung bei Brennkraftmaschinen
DE10300204A1 (de) 2003-01-08 2004-07-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klopferkennung
DE10352860A1 (de) 2003-11-10 2005-06-09 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur Auswertung miteinander korrelierender Messdaten

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69425166T2 (de) 1993-02-26 2001-03-15 Canon Kk Verfahren und Gerät zur Mustererkennung
DE69704201T2 (de) 1996-07-05 2001-10-11 Osmetech Plc Crewe Mustererkennung mittels neuronalen netzes
WO1998005028A1 (en) 1996-07-29 1998-02-05 British Telecommunications Public Limited Company Pattern recognition
KR100580618B1 (ko) * 2002-01-23 2006-05-16 삼성전자주식회사 생리 신호의 단시간 모니터링을 통한 사용자 정서 인식장치 및 방법
US8346482B2 (en) * 2003-08-22 2013-01-01 Fernandez Dennis S Integrated biosensor and simulation system for diagnosis and therapy
US7223234B2 (en) * 2004-07-10 2007-05-29 Monitrix, Inc. Apparatus for determining association variables
US7519461B2 (en) * 2005-11-02 2009-04-14 Lear Corporation Discriminate input system for decision algorithm

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0391044A2 (de) 1989-04-03 1990-10-10 Cadix Inc. Mustererzeugungsverfahren für die Handschriftregistrierung
DE19650541A1 (de) 1996-12-05 1998-06-10 Siemens Ag Verfahren zur Ermittlung eines Referenzschriftzugs anhand mehrerer Musterschriftzüge
DE19741884C2 (de) 1997-09-23 2000-12-21 Daimler Chrysler Ag Verfahren zur Bestimmung relevanter Größen, die den Zylinderdruck in den Zylindern einer Brennkraftmaschine repräsentieren
DE10138110A1 (de) 2000-08-11 2002-03-21 Bosch Gmbh Robert Verfahren zur Klopferkennung bei Brennkraftmaschinen
EP1309841B1 (de) 2000-08-11 2005-09-14 Robert Bosch Gmbh Klopferkennung bei brennkraftmaschinen mit modifizierung bei änderung einer filtercharakteristik oder zylinderindividueller änderung
EP1184651A2 (de) 2000-09-01 2002-03-06 Robert Bosch Gmbh Verfahren zur Klopferkennung bei Brennkraftmaschinen
DE10300204A1 (de) 2003-01-08 2004-07-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klopferkennung
DE10352860A1 (de) 2003-11-10 2005-06-09 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur Auswertung miteinander korrelierender Messdaten

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C. BAHLMANN, ADVANCED SEQUENCE CLASSIFICATION TECHNIQUES APPLIED TO ONLINE HANDWRITING RECOGNITION, 31 October 2004 (2004-10-31)
M. DE WACHTER ET AL.: "Template-Based Continuous Speech Reecognition", IEEE TRANSACTIONS AN AUDIO, SPEECH AND LANGUAGE PROCESSING, vol. 15, no. 4, 1 May 2007 (2007-05-01), pages 1377 - 1390
R.P. RAMACHANDRAN ET AL.: "Pattern Recognition", vol. 35, 1 December 2002, ELSEVIER, article "Speaker recognition - general classifier approaches and data fusion methods", pages: 2801 - 2821

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220165065A1 (en) * 2019-10-31 2022-05-26 Aptiv Technologies Limited Multi-Domain Neighborhood Embedding and Weighting of Sampled Data
US11693090B2 (en) * 2019-10-31 2023-07-04 Aptiv Technologies Limited Multi-domain neighborhood embedding and weighting of sampled data
CN111694331A (zh) * 2020-05-11 2020-09-22 杭州传化智能制造科技有限公司 生产工艺参数调整的系统、方法和计算机设备

Also Published As

Publication number Publication date
DE102007036277A1 (de) 2009-02-05
US20100217572A1 (en) 2010-08-26
WO2009015655A3 (de) 2009-03-26
EP2174267A2 (de) 2010-04-14

Similar Documents

Publication Publication Date Title
EP3938807A2 (de) Verfahren zur erkennung von hindernisobjekten sowie zur prognose der veränderung der position bekannter hindernisobjekte anhand von signalen mehrerer sensoren und zur kompression sowie dekompression von zu den obigen zwecken verwendeten sensorsignalen
DE202017102238U1 (de) Aktorsteuerungssystem
DE102018200724A1 (de) Verfahren und Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples"
DE202017102235U1 (de) Trainingssystem
EP1193688A2 (de) Verfahren zur Ermittlung eines Eigenraums zur Darstellung einer Mehrzahl von Trainingssprechern
DE102017220307A1 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE60002290T2 (de) Verfahren zum Nachweis von Anomalien in einem Signal
WO2009015655A2 (de) Verfahren und vorrichtung zur automatischen mustererkennung
EP2172820A1 (de) Verfahren und System zur automatisierten Analyse von Prozessdaten
EP1193689A2 (de) Verfahren zur Ermittlung eines Eigenraums zur Darstellung einer Mehrzahl von Trainingssprechern
DE19636074C2 (de) Lernfähiges Bildverarbeitungssystem zur Klassierung
EP1193687A2 (de) Sprecheradaption für die Spracherkennung
DE102019211672A1 (de) Trainingsverfahren für ein künstliches neuronales Netzwerk
DE102010028845A1 (de) Verfahren und Vorrichtung zur Aufpralldetektion in Fahrzeugen
EP1989662B1 (de) Verfahren zum erkennen von objekten und objekterkennungssystem
EP3786853A1 (de) Komprimieren eines tiefen neuronalen netzes
EP3857455A1 (de) Maschinelles lernsystem, sowie ein verfahren, ein computerprogramm und eine vorrichtung zum erstellen des maschinellen lernsystems
EP1281157A1 (de) Verfahren und anordnung zum ermitteln eines objekts in einem bild
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
EP3701428B1 (de) Verfahren und vorrichtung zum verbessern der robustheit eines maschinellen lernsystems
WO2006134011A1 (de) Verfahren zur rechnergestützten verarbeitung von digitalen daten
EP1400951B1 (de) Verfahren zur rechnergestützten Spracherkennung, Spracherkennungssystem und Steuereinrichtung zum Steuern eines technischen Systems und Telekommunikationsgerät
WO2020233991A1 (de) Verfahren zum betreiben eines tiefen neuronalen netzes
EP1889754B1 (de) Verfahren und Vorrichtung zur Ansteuerung von Personenschutzmitteln und Computerprogrammprodukt
WO2002017127A2 (de) Verfahren und vorrichtung zur korrelationsanalyse von datenfolgen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08801094

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 2008801094

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12671248

Country of ref document: US