EP2174267A2 - Method and apparatus for automatic pattern recognition - Google Patents

Method and apparatus for automatic pattern recognition

Info

Publication number
EP2174267A2
EP2174267A2 EP08801094A EP08801094A EP2174267A2 EP 2174267 A2 EP2174267 A2 EP 2174267A2 EP 08801094 A EP08801094 A EP 08801094A EP 08801094 A EP08801094 A EP 08801094A EP 2174267 A2 EP2174267 A2 EP 2174267A2
Authority
EP
European Patent Office
Prior art keywords
data
sequence
model data
electronic data
sequences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP08801094A
Other languages
German (de)
French (fr)
Inventor
Clemens GÜHMANN
Steffen KÜHN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Universitaet Berlin
Original Assignee
Technische Universitaet Berlin
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universitaet Berlin filed Critical Technische Universitaet Berlin
Publication of EP2174267A2 publication Critical patent/EP2174267A2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions

Definitions

  • the invention relates to a method and a device for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system.
  • the goal of such pattern recognition is to find out the occurrence of sequences or sequences of properties in sequentially formed electronic data.
  • the patterns to be found are not exactly definable because they may vary in shape and extent.
  • An example is the problem of machine-language recognition, since essential standard methods of the prior art have been developed in the context of this task.
  • Another application is finding fault patterns in machine signals. For example, the detection of knocking burns in gasoline engines by means of structure-borne noise signals, in which a very similar problem is involved (Lachmann et al .: Detecting knocking burns from disturbed knock sensor signals by means of signal separation, Sensory in the motor vehicle, Expert Verlag, 114 -123).
  • HMM hidden Markov models
  • a problem here is that the pattern sequences or sequences tend to vary in length, with two differently sized pattern sequences or sequences belonging to the same class. Sequences are thus not vectors, that is, there is no feature space and no probability distribution can be determined. The use of feature-vector-based classifiers is thus prevented.
  • HMMs are parametric models, that is, they provide a limiting framework that is not always must fit. Parametric models are therefore often affected simultaneously by under- and over-adaptation to the example data.
  • HMMs basically require the Markov property to be satisfied.
  • Another example is the assumption of temporal invariance within a state. As a rule, both assumptions are never fully fulfilled, which results in a fundamental structural underfitting.
  • a pattern recognition method which deals with the recognition of feature sequences - concretely with the recognition of speech - is described in DE 697 11 392 T2.
  • Another field of application of pattern recognition of feature sequences or sequences relates to knock detection in connection with motors. This will be discussed in more detail below.
  • Tapping burns are unwanted deviations from normal combustion. Normal burns are triggered by the spark plug spark and are associated with a moderate pressure increase in the cylinder. Knocking burns, however, generate high pressure peaks and can thus lead to damage to the engine. They often occur when the ignition occurs too early. A later ignition can remedy, but leads to a reduction in engine performance, and thus to an increase in fuel consumption. It therefore makes sense to choose the ignition timing so that just no knocking occurs. Since the Klopfhe Trent an engine depends on external influences, a knock-dependent control of the ignition timing is required. A reliable detection of knocking burns is indispensable.
  • a knocking combustion can be determined on the basis of the pressure curve in the interior of the cylinder.
  • sensors for detecting this measurement are expensive and wear out quickly, so that other measures must be used for series operation.
  • Structure-borne noise sensors attached to the engine block are inexpensive and provide indirect information about the combustion taking place inside the engine.
  • knocking burns can be detected via sound peaks.
  • the advantages of the use of structure-borne noise instead of the pressure are paid for with a more complicated and error-prone evaluation, because other effects can be noticeable in structure-borne noise.
  • neural networks are difficult to use and do not always lead to reproducible results since many parameters (network structure, transfer functions) must be specified a priori.
  • the weights of the network must be optimized numerically numerically, often only suboptima are found.
  • HMMs are an alternative approach.
  • the temporal and the spectral variability of the signals in the form of a stochastic automaton will be described on the basis of a given example or training data set.
  • the actual structure-borne sound signals are converted into time sequences of spectral vectors using STFT ⁇ "Short Time Fourier Transforms.”
  • the temporal pattern of the spectral vectors-the feature sequences-can be modeled by an HMM.
  • HMMs can only be used to a limited extent for knock detection, since HMMs can only model relatively short sequences, preferably short, non-stochastic sequences, due to the averaging properties of the states. Furthermore, they have similar disadvantages as neural networks.
  • the object of the invention is a method and a device for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in specify a data processing system with which a reliable detection of patterns in the sequence of electronic data can be executed in a simplified manner.
  • the object is achieved by a method for automatic pattern recognition according to independent claim 1 and an apparatus for automatic pattern recognition according to independent claim 5.
  • the invention encompasses the idea of a method for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in which automatic electronic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in an analysis of the sequence of electronic data is compared with parameterized model data representing at least one pattern sequence and in which the at least one pattern sequence is detected when it is determined in the analysis that model data comprised by the parameterized model data associated with the at least one pattern sequence has a similarity threshold Similarity measure occur, wherein in forming the parameterized model data training data by means of a dynamic-time warping method to a set of feature vectors of equal length and with a the same information content as the training data are processed, from which the parameterized model data are derived.
  • an apparatus for automatic pattern recognition in a sequence of electronic data by electronic data processing comprising a data processing system comprising: pattern recognition means configured to, in an analysis, sequence the electronic data with parameterized model data comparing at least one pattern sequence and recognizing the at least one pattern sequence if it is determined in the analysis that model data included in the parameterized model data associated with the at least one pattern sequence has a similarity measure exceeding a similarity threshold, and
  • Model data generating means configured to generate the parameterized model data using the training data and thereby the training data by means of a dynamic-time warping method to a set of feature vectors of equal length and to process with the same information content as the training data from which the parameterized model data are derived, and
  • Providing means configured to provide electronically evaluable recognition information about recognizing the at least one pattern sequence for output.
  • a preferred embodiment of the invention provides that the parameterized model data are derived from the set of feature vectors by parameterizing a feature vector-based classifier.
  • a Bayes classifier with kernel window density estimation is used as the feature vector-based classifier.
  • An expedient development of the invention provides that the similarity measure for a subsequence of electronic data examined at the time j of the analysis is determined from the sequence of electronic data as follows:
  • X j are the elements of the sequence of electronic data, p t , (•) and p e , (•) the z-th elements of a total of N elements of the parametric model data and c and a m are constants to be chosen empirically.
  • the sought similarity measure at time y is L (NJ).
  • the method may be used in conjunction with various automatic pattern recognition technologies including, but not limited to, machine signal analysis such as engine knock analysis, ECG signal analysis, speech recognition, gene sequence analysis, image analysis, and thermal image data evaluation.
  • machine signal analysis such as engine knock analysis, ECG signal analysis, speech recognition, gene sequence analysis, image analysis, and thermal image data evaluation.
  • speech recognition for the quality control of machine-forged components belong.
  • thermal image data evaluation for the quality control of machine-forged components belong.
  • the data to be analyzed and the example and training data in electronic form and corresponding measurement or analysis variables are available.
  • Fig. 1 is a schematic representation of a structure of a knock control for an engine
  • Fig. 2 shows an example of the data to be processed in the knock control
  • Fig. 3 is a schematic representation which describes the relationship between measured structure-borne sound signals and sequentially arranged electronic data.
  • the pattern recognition method comprises three sub-aspects that can be considered separately, namely (i) a data set transformation, (ii) a parameter determination of a model, and (iii) the application of the parameterized model for recognizing sequences or sequences in sequentially arranged electronic data in turn can represent a wide variety of information content.
  • a transformation of an example or training data set into feature vectors takes place, which makes hidden random variables accessible and direct comparability possible. It is assumed that there are three training or example sequences for the parameter determination:
  • the example or training data set each represents electronically evaluable information about one or more patterns of measurable size to be later recognized.
  • 5 3 ⁇ a, *, *, b, b, b r c r *, d, d r *, e r *, £, £, *, g, g).
  • the star symbols can be replaced without loss of information by the predecessor symbols, as always a back transformation would be possible by the attached binary vectors and there are the feature vectors
  • a probability density p (m) can be estimated. This describes the structure and randomness of the data both in time and in amplitude.
  • a kernel approach for example a Parzen approach, can be used (Parzen: On estimation of a probability density and mode, Annais of Mathematical Statistics, VoI 33: 1065-1076, 1962):
  • n is the number of feature vectors
  • d the dimension of the feature vectors
  • s (si, ..., S r J ⁇ is a smoothing parameter to be estimated
  • m ⁇ (mu, ..., w ⁇ r is the k th feature vector
  • Gaussian functions 0 (m - m ,, s) and ⁇ (m - m ⁇ s) are combined with i ⁇ j into a single Gaussian function ⁇ ' ⁇ (m - m', sj) whose similarity is big enough.
  • the new parameters occur as a result of the forming process , s' and m'on.
  • the resulting model of the distribution is after the
  • the vector dimension d can then be reduced in the same way.
  • Each of the resulting q Gaussian functions ⁇ ⁇ va. - va k ',%' k ) is a specialist for a subset of the data and consists of a product of scalar Gaussian functions.
  • the scalar Gaussian functions thereby model either a local probability density in time or in amplitude, depending on the component of the feature vector m, which consists of a sequence S and a binary distortion vector ⁇ .
  • Emission densities and transition densities are merely the factors of the product (9) in recoded form.
  • the pararnetrization phase is over. The following part describes how the model can be applied efficiently. The sub-aspect concerning the application of the actual pattern recognition model follows.
  • the method works like a digital filter, i.
  • a measure is output which gives information about the current similarity. If this similarity measure exceeds a given threshold, then a suitable appearing reaction can take place.
  • the evaluation of the sequence S is also possible synchronously to a measurement, since only the current measured value is needed.
  • the probability distributions p x ⁇ (-) and />,, (•) result from the relation (10).
  • the parameter a m is at least as large to choose, so that applies to all p n (a m ) «0.
  • the value L (N, j) is the sought similarity measure at time j, which indicates how closely the currently observed sequence resembles one of the sequences from the parameterization phase. Overall, there are q of these values. The largest of these is relevant and is compared to the detection threshold to signal a detection event when it is exceeded.
  • An implementation of L (i, j) in the form of a ring buffer is possible.
  • the method described above describes in a general way the proposed process of pattern recognition, as it can be used in various application cases. In the following, application examples for the use of the pattern recognition method will now be described in more detail.
  • Fig. 1 shows a schematic representation of a structure of a knock control for a motor.
  • a structure-borne sound signal is continuously recorded and digitized by means of an analog-to-digital conversion with a sufficiently high sampling rate.
  • the time signal thus becomes a sequence of scalars.
  • this sequence is converted by means of an STFT into a sequence of spectral vectors (spectrogram: amplitude spectrum or power density spectrum), which describe the expression of certain frequency components over time.
  • the spectral vectors can then be logarithmized and converted into cepstral vectors by means of a discrete cosine transformation.
  • This step is not mandatory.
  • the vector sequences will be referred to hereinafter as feature vector sequences to abstract from the specific type of preprocessing that is completed. The actual recognition takes place exclusively on the basis of these feature vector sequences as generally explained above.
  • example or training data must be recorded with the help of an engine test stand.
  • the type of engine to be controlled is placed at different speeds and for each cylinder in the knocking and non-knocking area.
  • the cylinder internal pressure is measured. These data are required in order to be able to clearly judge whether a concretely measured structure-borne noise signal corresponds to a knocking or a non-knocking combustion (see Fig. 2).
  • the recorded structure-borne noise data are prepared by cutting out all areas in which there is an overpressure in the simultaneously measured pressure signal.
  • the knocking strength of each structure-borne sound fragment is determined on the basis of the pressure signal and connected to it (labeled).
  • the pressure signals are bandpass filtered and rectified. The remaining maximum amplitude represents a measure of the current strength of knocking.
  • a data set of structure-borne sound fragments is available, with which the knock detection can be parameterized. The pressure signals are then no longer needed.
  • the first model is for the detection of knocking burns, the second for the detection of non-knocking burns. In this way the task can be reduced to a simple classification problem.
  • the starting point for the parameterization are the structure-borne sound fragments cut out of the continuous structure-borne noise signal and labeled with the knocking strength.
  • the model for non-knocking burns is parameterized only with those structure-borne sound fragments whose knock strength lies below a previously defined threshold S 1 . Accordingly, the model for the knocking burns is parameterized with the help of clearly knocking structure-borne sound fragments.
  • the knock intensity must exceed a threshold ⁇ 2 .
  • Both thresholds S 1 and s 2 may be the same. However, it makes sense to choose S 2 slightly larger than S x . Apart from the database used, both models are otherwise completely identical. Likewise, the parameterization phase is not different from each other, so it is sufficient to describe them using a single model.
  • the pattern recognition it is more favorable for the pattern recognition not to analyze the structure-borne sound signals directly, but rather feature vector sequences derived therefrom, ie sequences of feature vectors.
  • a structure-borne sound fragment thus becomes a feature vector sequence (see Fig. 3). Since the structure-borne sound fragments differ in their length, the feature vector sequences generated by the preprocessing differ in their length. A direct comparison is not possible.
  • dealing with the classification problem with classical feature vector-based pattern recognition methods is impossible because they require that a self-contained feature space exists and thus allow implicit estimation of the probability distribution of the example data set.
  • model for pattern recognition can be used in the manner explained above. Since two models were generated during the parameterization phase, namely once for knocking and once for non-knocking burns, two of these values exist. Depending on which of these values is greater, either a knocking or a non-knocking combustion is present. If both values are low, there is either no combustion at the moment or the sensor is damaged. The engine control unit thus has the opportunity to detect a failure of the knock detection, which is important in order to avoid damage to the engine.
  • the method described allows a continuous search for knocking burns.
  • the method like a digital filter, can provide a criterion for the instantaneous knock magnitude at each sampling instant.
  • no a priori specifications are required and the determination of the parameters is largely constructive, i. without numerical optimization.
  • Some of the applications are based on time signals. In these applications, it is relatively obvious at which point the method of sequencing is usefully employed. can be set. For example, in the signal analysis of ECG signals (ECG electrocardiogram) directly the time signal can be used. It is then a use of the above-described method for automatic pattern recognition in a signal analysis of ECG signals. In this way, sequences in the ECG signals can be determined, which may indicate arrhythmias.
  • a model For each command word a model is created.
  • the corresponding examples are preprocessed and converted into spectral vector sequences. These are the actual sequences from which characteristic vectors of the same length are then generated in the manner already described (formulas (1) to (4)). With the aid of the described parameterization (formulas (5) to (10)) the models are subsequently generated.
  • the relationship (11) then allows the use of the generated models to analyze a continuous audio signal. If the similarity measure for each model constantly calculated to a certain If the time exceeds the predefined threshold, it can be assumed that the continuously examined audio signal currently contained an utterance which was similar to the command words used in the parameterization of the corresponding model. A message of the associated label appears to the user of the system as recognition of his spoken utterance and can be used to trigger certain useful actions.
  • the patterns to be searched consist of certain significant code fragments, ie sequences or sequences of bytes describing the behavior of the code.
  • variations are often added to certain parts of the code that, while not modifying the actual behavior, result in a changed sequence of bytes.
  • NOP machine instructions No Operation
  • the procedure for locating malicious program code using the method described above is to describe the byte sequences of different modified versions by a common model and to search for the occurrence of the virus with this. For this, the byte sequences of the formulas (1) to (4) are correspondingly transformed into feature vectors of fixed length. Subsequently, the parameterization of the model takes place. It is then a use of the above-described method for automatic pattern recognition in virus scanning.
  • a handwritten text can be interpreted as a sequence or sequence of XY coordinates.
  • these sequences can not be directly compared.
  • the invention provides a direct way of processing such data.
  • the task could be to check the signature or signature of a person, e.g. to authenticate a laptop.
  • the necessary hardware, a touchpad and a computer for the evaluation are already included in the devices.
  • Each sequence begins when a touch is registered on the touchpad and ends when it has not been touched for a while.
  • the first coordinate of the sequence may be subtracted from all remaining coordinates of the sequence. This will ensure that each coordinate sequence starts at the origin (0,0).
  • time signals are often used which can be interpreted directly as sequences, namely current or voltage characteristics.
  • Other sensor data in which interference by transfer functions takes place can be examined in the form of spectrograms (see knock detection above).
  • sequence recognition can be sensibly used.
  • it is typical that these are almost always detail problems, for example part of a controller, part of process monitoring or the like. It is then a use of the above-described method for automatic pattern recognition in the control or process monitoring of a machine or plant, wherein the sequence of electronic data represents data acquired for the control or the process monitoring, whereby previously associated sample or training data is acquired were.
  • Another application of the pattern recognition method is the evaluation of thermal image data for quality control of machined forged components.
  • Forged components occasionally show cracks. Visually, the cracks are usually not easy to recognize. However, the respective cooling behavior deviates from areas with cracks and areas without cracks.
  • images of the forged components are recorded by means of a thermal imaging camera for a short time.
  • the cooling of a component corresponds to a change in a gray value image G (x, y, t) formed by the thermal imaging camera over a time t. Since the position of the component with respect to the thermal imaging camera does not change during the recording, the image coordinates x and y (pixels) are assigned to a respective area of the component surface.
  • the temporal behavior of the gray value can be approximately described here by means of a decaying exponential function:
  • the parameter I (x, y) can preferably be estimated by means of linear regression. Further parameters describing the cooling are possible.
  • each column Sp (x) (V (x, l), V (x, 2), V (x, 3), ...) of the secondary image V (x, y) as a vector interpret.
  • the task of finding the position of the component and the comparison with a reference is thus reduced to a sequence detection problem which can be solved with the pattern recognition method according to the invention.
  • the reference image (reference) is formed for example by means of the method according to the invention from several example sequences of defect-free components
  • a method for automatic pattern recognition is described above, which can be used in a variety of applications by analyzing corresponding electronic data, which comprise an information associated with the respective application, in the manner explained above.
  • the starting point of the method here is first the generation of a set of feature vectors of equal length or dimension from training or example data by means of a dynamic-time warping method.
  • feature vectors are generated, which can then be examined in principle with the aid of any classifiers for pattern recognition.
  • a neural network eg a multilayer perceptron
  • bis- hop Neural networks for Pattern Recognition, Clarendon Press, Oxford, 1995.
  • the generation of the set of feature vectors constitutes an independent aspect of the invention, which develops its advantages independently of the subsequent choice of the classifier and thus in connection with various classifiers.
  • the described method for automatic pattern recognition can advantageously be used in particular in connection with the following applications: machine speech recognition, handwriting recognition, gene sequence analysis, search for malicious program code (virus scanner), medical technology applications such as cardiac pacemakers or electrocardiograms and mechanical diagnostic applications such as knock detection.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

The invention relates to a method for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in which in an analysis the sequence of electronic data is compared with parametrized model data which represent at least one pattern sequence, and in which the at least one pattern sequence is recognized if it is ascertained during the analysis that model data, which the parametrized model data comprise and which are associated with the at least one pattern sequence, occur with a similarity measure which exceeds a similarity measure threshold, wherein during the formation of the parametrized model data, training data are processed by means of a dynamic time warping method to form a set of feature vectors of the same length and with the same information content as the training data from which the parametrized model data are derived. Furthermore, the invention relates to an apparatus for automatic pattern recognition in a sequence of electronic data by means of electronic data processing with a data processing system.

Description

Verfahren und Vorrichtung zur automatischen Mustererkennung Method and device for automatic pattern recognition
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem.The invention relates to a method and a device for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system.
Hintergrund der ErfindungBackground of the invention
Allgemein ist es das Ziel solcher Mustererkennung, das Auftreten von Sequenzen oder Folgen von Eigenschaften in sequentiell gebildeten elektronischen Daten herauszufinden. In einer Vielzahl praktischer Anwendungen sind die zu findenden Muster nicht exakt definierbar, da sie in ihrer Form und in ihrer Ausdehnung variieren können. Als Beispiel ist das Problem der maschinellen Spracherkennung zu nennen, da wesentliche Standardverfahren aus dem Stand der Technik im Kontext dieser Aufgabenstellung entwickelt wurden. Eine weitere Anwen- düng betrifft das Auffinden von Fehlermustern in Maschinensignalen. Zum Beispiel gehört hierzu das Erkennen von klopfenden Verbrennungen in Otto-Motoren anhand von Körperschallsignalen, bei dem sich ein sehr ähnliches Problem stellt (Lachmann et al.: Erkennung klopfender Verbrennungen aus gestörten Klopfsensorsignalen mittels Signaltrennung, Senso- rik im Kraftfahrzeug, Expert Verlag, 114-123). Die entwickelten Verfahren werden aber zum Beispiel auch beim Durchsuchen von KfZ-CAN-Bus-Daten nach Fehlermustern erforderlich (Isernhagen et al.: Intelligent signal processing in an automated measurement data analysis System. In Proceedings of the 2007 IEEE Symposium on Computational Intelligence in Image and Signal Processing (CHSP 2007), Seiten 83-87, 2007) oder beim Vergleich von Ist- und Sollwertkurvenverläufen bei der Spezifikationsüberprüfung (Rebeschieß et al.: Automatisier- ter closed-loop-Softwaretest eingebetteter Motorsteuerfunktionen, 11. Software & Systems Quality Conferences 2006, 7. ICS Test, 2006).In general, the goal of such pattern recognition is to find out the occurrence of sequences or sequences of properties in sequentially formed electronic data. In a variety of practical applications, the patterns to be found are not exactly definable because they may vary in shape and extent. An example is the problem of machine-language recognition, since essential standard methods of the prior art have been developed in the context of this task. Another application is finding fault patterns in machine signals. For example, the detection of knocking burns in gasoline engines by means of structure-borne noise signals, in which a very similar problem is involved (Lachmann et al .: Detecting knocking burns from disturbed knock sensor signals by means of signal separation, Sensory in the motor vehicle, Expert Verlag, 114 -123). However, the developed methods are also required, for example, for searching motor vehicle CAN bus data for error patterns (Isernhagen et al .: Intelligent Signal Processing in An Automated Measurement Data Analysis System.) In Proceedings of the 2007 IEEE Symposium on Computational Intelligence in Image and Signal Processing (CHSP 2007), pp. 83-87, 2007) or when comparing actual and setpoint curves during specification checking (Rebeschieß et al .: Automated closed-loop software test of embedded motor control functions, 11. Software & Systems Quality Conferences 2006, 7th ICS Test, 2006).
Im Bereich der Spracherkennung haben sich als Lösung für das Problem der Sequenzklassifikation die so genannten Hidden-Markov-Modelle (HMM) etabliert und stellen den Stand der Technik dar (Gernot: Mustererkennung mit Markov-Modellen, Teubner, 2003). Die grundlegende Idee besteht hierbei darin, eine Sequenz oder Folge als das Ergebnis einer Kette von Wahrscheinlichkeitsdichteverteilungen zu beschreiben. Weiterhin wird auch der Übergang von einer Verteilung zu nachfolgenden Verteilungen statistisch modelliert. HMMs werden daher auch als zweistufige stochastische Prozesse im Rahmen der Mustererkennung bezeichnet. Sie sind recht leistungsfähig, haben aber auch Nachteile.In the field of speech recognition, the so-called hidden Markov models (HMM) have become established as the solution to the problem of sequence classification and represent the state of the art (Gernot: pattern recognition with Markov models, Teubner, 2003). The basic idea here is to describe a sequence or sequence as the result of a chain of probability density distributions. Furthermore, the transition from a distribution to subsequent distributions is modeled statistically. HMMs are therefore also referred to as two-stage stochastic processes in the context of pattern recognition. They are quite powerful, but also have disadvantages.
Die Klassifikation und das Erkennen von Sequenzen oder Folgen unterscheiden sich schein- bar grundsätzlich von konventionellen Mustererkennungsaufgaben, bei denen Merkmalsvektoren fester Dimension analysiert werden. Solche Verfahren und Geräte zur Musterkennung sind beispielsweise aus den Dokumenten DE 694 25 166 T2, DE 697 04 201 T2 und DE 10 2006 045 218 Al, und darüber hinaus umfassend aus der Fachliteratur bekannt (vgl. zum Beispiel Duda et al.: Pattern Classification^ John Wiley & Sons, 2000). Sie alle haben ge- meinsam, dass sie auf der Schätzung einer Wahrscheinlichkeitsverteilung pro Klasse oder wenigstens auf der Schätzung von Klassengrenzen aufbauen. HMMs sind deutlich anders, was durch die Verschiedenheit der zu analysierenden Datenstruktur bedingt ist. HMMs analysieren Sequenzen, das heißt Folgen von Merkmalen, Zahlenwerten, Symbolen oder Vektoren. Ein Problem besteht hierbei darin, dass die Mustersequenzen oder -folgen in der Regel in ihrer Länge variieren, wobei zwei verschieden lange Mustersequenzen oder -folgen der gleichen Klasse angehören können. Sequenzen sind somit keine Vektoren, das heißt, es existiert kein Merkmalsraum und es kann keine Wahrscheinlichkeitsverteilung bestimmt werden. Der Einsatz merkmalsvektorbasierter Klassifikatoren wird so verhindert.The classification and recognition of sequences or sequences seem to be fundamentally different from conventional pattern recognition tasks in which feature vectors of fixed dimension are analyzed. Such methods and devices for pattern recognition are known, for example, from the documents DE 694 25 166 T2, DE 697 04 201 T2 and DE 10 2006 045 218 A1, and furthermore comprehensively from the specialist literature (cf., for example, Duda et al .: Pattern Classification ^ John Wiley & Sons, 2000). They all have in common that they rely on the estimation of a probability distribution per class, or at least on the estimation of class boundaries. HMMs are significantly different, due to the diversity of the data structure being analyzed. HMMs analyze sequences, ie sequences of features, numerical values, symbols or vectors. A problem here is that the pattern sequences or sequences tend to vary in length, with two differently sized pattern sequences or sequences belonging to the same class. Sequences are thus not vectors, that is, there is no feature space and no probability distribution can be determined. The use of feature-vector-based classifiers is thus prevented.
Der Lösungsansatz von HMMs besteht darin, dass eine beobachtete Sequenz O = {x/, ..., Xn) - die im Fachterminus der HMMs Observationsfolge genannt wird - die Realisierung einer Folge von Zufallsvariablen Su S2, ■■-, Sm darstellt. Das impliziert eine zusätzliche verborgene Stufe, denn eine deterministische Zuordnung einer konkreten Observation xt mit t e [l,nj zu einer Zufallsvariablen Sτ mit τ e [l,m] ist nicht möglich. Aus diesem Grund wird sie durch einen stochastischen Prozess beschrieben, welcher den Übergang von einer Zustandsvariablen zu einer anderen durch Übergangswahrscheinlichkeiten modelliert. Der speziellen Form der Daten ist damit Rechnung getragen. Aus dieser Architektur folgen aber auch einige Nachteile, denn die Zweistufigkeit erhöht die Komplexität gegenüber merkmalsvektorbasierten Klassifikatoren deutlich. Die Modellparameter müssen daher numerisch optimiert werden, was einer- seits nicht immer zu guten Parameterwerten fuhren muss und auch aufwendig ist.The solution approach of HMMs is that an observed sequence O = {x / , ..., X n ) - which is called in the technical term of the HMMs observation sequence - the realization of a sequence of random variables Su S 2 , ■■ -, S m represents. This implies an additional hidden step, because a deterministic assignment of a concrete observation x t with te [l, nj to a random variable S τ with τ e [l, m] is not possible. For this reason, it is described by a stochastic process that models the transition from one state variable to another through transition probabilities. The special form of the data is taken into account. However, some disadvantages also follow from this architecture, since the two-stage significantly increases the complexity compared to feature-vector-based classifiers. The model parameters therefore have to be optimized numerically, which on the one hand does not always have to lead to good parameter values and is also expensive.
Eine weitere Einschränkung von HMMs besteht darin, dass es sich um parametrische Modelle handelt, das heißt, sie geben einen einschränkenden Rahmen vor, der nicht immer zu den Da- ten passen muss. Parametrische Modelle sind daher oft gleichzeitig von Unter- und Überanpassung an die Beispieldaten betroffen. Als Beispiel wird an dieser Stelle daraufhingewiesen, dass HMMs grundsätzlich voraussetzen, dass die Markov-Eigenschaft erfüllt ist. Ein anderes Beispiel ist die Annahme der zeitlichen Invarianz innerhalb eines Zustandes. Beide Annah- men sind in der Regel niemals vollständig erfüllt, was eine grundsätzliche strukturbedingte Unteranpassung zur Folge hat.Another limitation of HMMs is that they are parametric models, that is, they provide a limiting framework that is not always must fit. Parametric models are therefore often affected simultaneously by under- and over-adaptation to the example data. As an example, it should be noted that HMMs basically require the Markov property to be satisfied. Another example is the assumption of temporal invariance within a state. As a rule, both assumptions are never fully fulfilled, which results in a fundamental structural underfitting.
Ein Mustererkennungsverfahren, welches sich mit der Erkennung von Merkmalssequenzen - konkret mit der Erkennung von Sprache - beschäftigt, ist in DE 697 11 392 T2 beschrieben. Ein weiteres Anwendungsgebiet der Mustererkennung von Merkmalssequenzen oder -folgen betrifft die Klopferkennung im Zusammenhang mit Motoren. Hierauf wird im Folgenden näher eingegangen.A pattern recognition method, which deals with the recognition of feature sequences - concretely with the recognition of speech - is described in DE 697 11 392 T2. Another field of application of pattern recognition of feature sequences or sequences relates to knock detection in connection with motors. This will be discussed in more detail below.
Bei klopfenden Verbrennungen handelt es sich um ungewollte Abweichungen von der Nor- malverbrennung. Normale Verbrennungen werden durch den Funken der Zündkerze ausgelöst und sind mit einem moderaten Druckanstieg im Zylinder verbunden. Klopfende Verbrennungen hingegen erzeugen hohe Druckspitzen und können so zu einer Beschädigung des Motors führen. Sie treten häufig dann auf, wenn die Zündung zu früh erfolgt. Eine spätere Zündung kann Abhilfe schaffen, führt jedoch zu einer Verringerung der Motorleistung, und damit zu einer Erhöhung des Kraftstoffverbrauches. Es ist daher sinnvoll, den Zündzeitpunkt so zu wählen, dass gerade noch kein Klopfen auftritt. Da die Klopfheigung eines Motors von äußeren Einflüssen abhängt, wird eine klopfabhängige Regelung des Zündzeitpunktes erforderlich. Eine sichere Erkennung klopfender Verbrennungen ist dafür unabdingbar.Tapping burns are unwanted deviations from normal combustion. Normal burns are triggered by the spark plug spark and are associated with a moderate pressure increase in the cylinder. Knocking burns, however, generate high pressure peaks and can thus lead to damage to the engine. They often occur when the ignition occurs too early. A later ignition can remedy, but leads to a reduction in engine performance, and thus to an increase in fuel consumption. It therefore makes sense to choose the ignition timing so that just no knocking occurs. Since the Klopfheigung an engine depends on external influences, a knock-dependent control of the ignition timing is required. A reliable detection of knocking burns is indispensable.
Prinzipiell kann eine klopfende Verbrennung anhand des Druckverlaufes im Inneren des Zylinders festgestellt werden. Sensoren zum Erfassen dieser Messgröße sind jedoch teuer und verschleißen schnell, so dass für den Serienbetrieb andere Messgrößen verwendet werden müssen. Am Motorblock befestigte Körperschallsensoren sind preiswert und liefern indirekte Informationen über die Verbrennung, die im Inneren des Motors stattfindet. Insbesondere lassen sich klopfende Verbrennungen über Schallspitzen detektieren. Die Vorteile der Verwendung von Körperschall anstelle des Druckes werden mit einer komplizierteren und fehleranfälligeren Auswertung erkauft, denn auch andere Effekte können sich im Körperschall bemerkbar machen. Für die Detektierung klopfender Verbrennungen anhand von Körperschallsignalen sind digitale Filter zum Erkennen klopftypischer Frequenzen (vgl. DE 101 38 110 Al) oder einfache merkmalsvektorbasierte Klassifikatoren (vgl. DE 103 52 860 Al) auf Basis bestimmter Kennwerte oder Merkmale bekannt, die durch Mittelwertbildung, Integration oder dergleichen ge- wonnen werden (vgl. EP 1 309 841 Bl oder EP 1 184 651 A2). Solche Methoden sind prinzipbedingt fehleranfällig, da bei der Merkmalsbildung meist viel relevante Information verloren geht, insbesondere zeitliche Abhängigkeiten. In dem Dokument DE 103 00 204 Al soll mittels Bildung von Zeitfenstern dieser Nachteil abgemildert werden. Die dabei entstehende Struktur kann als ein einfacher Zustandsautomat interpretiert werden.In principle, a knocking combustion can be determined on the basis of the pressure curve in the interior of the cylinder. However, sensors for detecting this measurement are expensive and wear out quickly, so that other measures must be used for series operation. Structure-borne noise sensors attached to the engine block are inexpensive and provide indirect information about the combustion taking place inside the engine. In particular, knocking burns can be detected via sound peaks. The advantages of the use of structure-borne noise instead of the pressure are paid for with a more complicated and error-prone evaluation, because other effects can be noticeable in structure-borne noise. For the detection of knocking burns on the basis of structure-borne noise signals, digital filters for recognizing knocking-typical frequencies (see DE 101 38 110 A1) or simple feature-vector-based classifiers (see DE 103 52 860 A1) are known on the basis of specific characteristic values or features or the like can be obtained (see EP 1 309 841 B1 or EP 1 184 651 A2). Such methods are error-prone in principle, since in the feature formation usually much relevant information is lost, especially temporal dependencies. In document DE 103 00 204 A1, this disadvantage is alleviated by the formation of time windows. The resulting structure can be interpreted as a simple state machine.
Andere Verfahren versuchen, mit Hilfe des Körperschallsignals ein virtuelles Drucksignal zu erzeugen. In dem Dokument DE 197 41 884 C2 wird dafür beispielsweise ein Neuronales Netz verwendet. Neuronale Netze sind allerdings schwierig in der Anwendung und führen nicht immer zu reproduzierbaren Ergebnissen, da viele Parameter (Netzstruktur, Transfer- funktionen) a-priori vorzugeben sind. Die Gewichte des Netzes müssen aufwendig numerisch optimiert werden, wobei oft nur Suboptima gefunden werden.Other methods attempt to generate a virtual pressure signal using the structure-borne sound signal. In the document DE 197 41 884 C2, for example, a neural network is used for this purpose. However, neural networks are difficult to use and do not always lead to reproducible results since many parameters (network structure, transfer functions) must be specified a priori. The weights of the network must be optimized numerically numerically, often only suboptima are found.
HMMs sind ein alternativer Ansatz. Hierbei wird anhand eines gegebenen Beispiel- oder Trainingsdatensatzes die zeitliche und die spektrale Variabilität der Signale in Form eines stochastischen Automaten beschrieben. Dazu werden die eigentlichen Körperschallsignale mittels STFT {„Short Time Fourier Transform ") in Zeitfolgen von Spektralvektoren gewandelt. Das zeitliche Muster der Spektralvektoren - die Merkmalssequenzen - lassen sich durch ein HMM modellieren.HMMs are an alternative approach. In this case, the temporal and the spectral variability of the signals in the form of a stochastic automaton will be described on the basis of a given example or training data set. For this purpose, the actual structure-borne sound signals are converted into time sequences of spectral vectors using STFT {"Short Time Fourier Transforms." The temporal pattern of the spectral vectors-the feature sequences-can be modeled by an HMM.
Trotz der prinzipiellen Eignung von HMMs können diese nur bedingt für die Klopferkennung eingesetzt werden, da HMMs kurze Sequenzen, vorzugsweise kurze, nichtstochastische Sequenzen, aufgrund von Mittelungseigenschaften der Zustände nur verhältnismäßig schlecht modellieren können. Weiterhin weisen sie ähnliche Nachteile wie Neuronale Netze auf.Despite the general suitability of HMMs, these can only be used to a limited extent for knock detection, since HMMs can only model relatively short sequences, preferably short, non-stochastic sequences, due to the averaging properties of the states. Furthermore, they have similar disadvantages as neural networks.
Zusammenfassung der ErfindungSummary of the invention
Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem anzugeben, mit denen auf vereinfachte Art und Weise eine zuverlässige Erkennung von Mustern in der Sequenz elektronischer Daten ausführbar ist.The object of the invention is a method and a device for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in specify a data processing system with which a reliable detection of patterns in the sequence of electronic data can be executed in a simplified manner.
Erfindungsgemäß wird die Aufgabe durch ein Verfahren zur automatischen Mustererkennung nach dem unabhängigen Anspruch 1 und eine Vorrichtung zur automatischen Mustererkennung nach dem unabhängigen Anspruch 5 gelöst.According to the invention the object is achieved by a method for automatic pattern recognition according to independent claim 1 and an apparatus for automatic pattern recognition according to independent claim 5.
Die Erfindung umfasst den Gedanken eines Verfahrens zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Da- tenverarbeitungssystem, bei dem zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem, bei dem in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten verglichen wird, die wenigstens eine Mustersequenz repräsentieren, und bei dem die wenigstens eine Mustersequenz erkannt wird, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten umfasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlichkeitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, wobei beim Bilden der parametrisierten Modelldaten Trainingsdaten mittels eines Dynamic-Time-Warping- Verfahrens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten verarbeitet werden, aus denen die parametrisierten Modelldaten abgeleitet werden.The invention encompasses the idea of a method for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in which automatic electronic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in an analysis of the sequence of electronic data is compared with parameterized model data representing at least one pattern sequence and in which the at least one pattern sequence is detected when it is determined in the analysis that model data comprised by the parameterized model data associated with the at least one pattern sequence has a similarity threshold Similarity measure occur, wherein in forming the parameterized model data training data by means of a dynamic-time warping method to a set of feature vectors of equal length and with a the same information content as the training data are processed, from which the parameterized model data are derived.
Nach einem weiteren Aspekt der Erfindung ist eine Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung, mit einem Datenverarbeitungssystem geschaffen, welches die folgenden Merkmale aufweist: - Mustererkennungsmittel, die konfiguriert sind, in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten zu vergleichen, die wenigstens eine Mustersequenz repräsentieren, und die wenigstens eine Mustersequenz zu erkennen, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten umfasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlich- keitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, undAccording to another aspect of the invention, there is provided an apparatus for automatic pattern recognition in a sequence of electronic data by electronic data processing, comprising a data processing system comprising: pattern recognition means configured to, in an analysis, sequence the electronic data with parameterized model data comparing at least one pattern sequence and recognizing the at least one pattern sequence if it is determined in the analysis that model data included in the parameterized model data associated with the at least one pattern sequence has a similarity measure exceeding a similarity threshold, and
- Modeldatenerzeugungsmittel, die konfiguriert sind, die parametrisierten Modelldaten unter Verwendung der Trainingsdaten zu erzeugen und hierbei die Trainingsdaten mittels eines Dynamic-Time-Warping- Verfalirens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten zu verarbeiten, aus denen die parametrisierten Modelldaten abgeleitet werden, undModel data generating means configured to generate the parameterized model data using the training data and thereby the training data by means of a dynamic-time warping method to a set of feature vectors of equal length and to process with the same information content as the training data from which the parameterized model data are derived, and
- Bereitstellungsmittel, die konfiguriert sind, eine elektronisch auswertbare Erkennungsinformation über das Erkennen der wenigstens einen Mustersequenz für eine Ausgabe be- reitzustellen.Providing means configured to provide electronically evaluable recognition information about recognizing the at least one pattern sequence for output.
Mit Hilfe der Umwandlung der Trainings- oder Beispieldaten unter Anwendung eines Dyna- mic-Time-Warping- Verfahrens (Myers et al: A comparative study of several dynamic time- warping algorithms for connected word recognition. The Bell System Technical Journal, 60(7):1389-1409, September 1981) zu dem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten wird erreicht, dass bei der Mustererkennung ein komponentenweiser Vergleich möglich ist. Sequenzen oder Folgen, die in ihrer Länge variieren, erlauben dieses nicht. Aus den Trainingsdaten entstehen so Merkmalsvektoren fester Dimension und zu den Trainings- oder Beispieldaten gleichen Informati- onsgehaltes. Die Umwandlung in Merkmalsvektoren gleichen Informationsgehaltes bedeutet, dass eine Rekonstruktion der Trainingsdaten aus dem Satz von Merkmalsvektoren ohne zusätzliche Informationen möglich ist. Insbesondere bleibt eine zeitliche Verzerrungsinformation erhalten, die den Trainingsdaten zu eigen ist. Es existiert dann ein Satz von Merkmalsvektoren, welcher anschließend mittels beliebiger klassischer merkmalsvektorbasierter Klassifi- katoren ausgewertet werden kann. Das Problem der Mustererkennung wird auf eine als solche bekannte Klassifikationsaufgabe zurückgeführt. Es werden keine zweistufigen stochastischen Prozesse benötigt, wie dieses bei den HMMs der Fall ist.Using the conversion of training or sample data using a dynamic time-warping method (Myers et al: A Comparative Study of Several Dynamic Time-Warping Algorithms for Connected Word Recognition, The Bell System Technical Journal, 60 (7 ): 1389-1409, September 1981) to the set of feature vectors of equal length and with the same information content as the training data, it is achieved that a pattern-by-component comparison is possible in pattern recognition. Sequences or sequences that vary in length do not allow this. From the training data, feature vectors of a fixed dimension and the training or example data of the same information content are generated. The conversion into feature vectors of equal information content means that reconstruction of the training data from the set of feature vectors is possible without additional information. In particular, temporal distortion information that is inherent in the training data is retained. There then exists a set of feature vectors, which can then be evaluated by means of any classical feature-vector-based classifiers. The problem of pattern recognition is attributed to a classification task known as such. No two-stage stochastic processes are needed, as is the case with the HMMs.
Eine bevorzugte Weiterbildung der Erfindung sieht vor, dass die parametrisierten Modell- daten aus dem Satz von Merkmalsvektoren abgeleitet werden, indem ein merkmalsvektorbasierter Klassifikator parametrisiert wird.A preferred embodiment of the invention provides that the parameterized model data are derived from the set of feature vectors by parameterizing a feature vector-based classifier.
Bei einer zweckmäßigen Ausgestaltung der Erfindung kann vorgesehen sein, dass als merkmalsvektorbasierter Klassifikator ein Bayes-Klassifikator mit Kernel-Window-Dichte- Schätzung verwendet wird. Eine zweckmäßige Weiterbildung der Erfindung sieht vor, dass das Ähnlichkeitsmaß für eine zum Zeitpunkt j der Analyse untersuchte Teilsequenz elektronischer Daten aus der Sequenz elektronischer Daten wie folgt ermittelt wird:In an expedient embodiment of the invention it can be provided that a Bayes classifier with kernel window density estimation is used as the feature vector-based classifier. An expedient development of the invention provides that the similarity measure for a subsequence of electronic data examined at the time j of the analysis is determined from the sequence of electronic data as follows:
L(J, j) := jnaxJzCz - 1, ; - a) + log(pt l (α))}+ c \og(pe l (Xj ))L (J, j): = jnaxJzCz - 1,; - a) + log (p tl (α))} + c \ og (p el (Xj))
wobei Xj die Elemente der Sequenz elektronischer Daten, pt , (•) und pe , (•) die z-ten Elemente von insgesamt N Elementen der parametrisierten Modelldaten und c und am empirisch zu wählende Konstanten sind. Das gesuchte Ähnlichkeitsmaß zum Zeitpunkt y ist L(NJ).where X j are the elements of the sequence of electronic data, p t , (•) and p e , (•) the z-th elements of a total of N elements of the parametric model data and c and a m are constants to be chosen empirically. The sought similarity measure at time y is L (NJ).
Das Verfahren kann in Verbindung mit verschiedenen Technologien zur automatischen Mustererkennung genutzt werden, wozu insbesondere eine Maschinensignalanalyse wie zum Beispiel eine Klopfanalyse bei einem Motor, eine Signalanalyse von EKG-Signalen, einer Spracherkennung, eine Gensequenzanalyse, eine Bildanalyse und eine Auswertung von Wär- mebilddaten, beispielsweise für die Qualitätskontrolle bei maschinell geschmiedeten Bauelementen, gehören. Es liegen dann jeweils die zu analysierenden Daten und die Beispiel- und Trainingsdaten in elektronischer Form und entsprechende Mess- oder Analysegrößen repräsentierend vor.The method may be used in conjunction with various automatic pattern recognition technologies including, but not limited to, machine signal analysis such as engine knock analysis, ECG signal analysis, speech recognition, gene sequence analysis, image analysis, and thermal image data evaluation. For example, for the quality control of machine-forged components belong. In each case, the data to be analyzed and the example and training data in electronic form and corresponding measurement or analysis variables are available.
Beschreibung bevorzugter Ausführungsbeispiele der ErfindungDescription of preferred embodiments of the invention
Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf Figuren einer Zeichnung näher erläutert. Hierbei zeigen:In the following the invention will be explained in more detail by means of embodiments with reference to figures of a drawing. Hereby show:
Fig. 1 eine schematische Darstellung eines Aufbaus einer Klopfregelung für einen Motor, Fig. 2 ein Beispiel für die bei der Klopfregelung zu verarbeitenden Daten undFig. 1 is a schematic representation of a structure of a knock control for an engine, Fig. 2 shows an example of the data to be processed in the knock control and
Fig. 3 eine schematische Darstellung, welche den Zusammenhang zwischen gemessenen Körperschallsignalen und sequenziell angeordneten elektronischen Daten beschreibt.Fig. 3 is a schematic representation which describes the relationship between measured structure-borne sound signals and sequentially arranged electronic data.
Das Verfahren zur Mustererkennung umfasst drei Teilaspekte, die getrennt betrachtet werden können, nämlich (i) eine Datensatztransformation, (ii) eine Parameterbestimmung eines Modells und (iii) die Anwendung des parametrisierten Modells zum Erkennen von Sequenzen oder Folgen in sequenziell angeordneten elektronischen Daten, welche ihrerseits verschiedensten Informationsgehalt repräsentieren können. In einem ersten Schritt findet eine Transformation eines Beispiel- oder Trainingsdatensatzes in Merkmalsvektoren statt, wodurch versteckte Zufallsvariablen zugänglich werden und eine direkte Vergleichbarkeit ermöglicht wird. Es sei angenommen, dass drei Trainings- oder Bei- spielsequenzen für die Parameterbestimmung gegeben sind:The pattern recognition method comprises three sub-aspects that can be considered separately, namely (i) a data set transformation, (ii) a parameter determination of a model, and (iii) the application of the parameterized model for recognizing sequences or sequences in sequentially arranged electronic data in turn can represent a wide variety of information content. In a first step, a transformation of an example or training data set into feature vectors takes place, which makes hidden random variables accessible and direct comparability possible. It is assumed that there are three training or example sequences for the parameter determination:
51 = {a,a,b,b,b,d,d,d,e,f,g}5 1 = {a, a, b, b, b, d, d, d, e, f, g}
52 = {a,a,a,b,b,c,c,d,d,e,e,f,f,f,g,g} (1) S3= {a,b,b,b,c,d,d,e,f,f,g,g}.5 2 = {a, a, a, b, b, c, c, d, d, e, e, f, f, f, g, g} (1) S 3 = {a, b, b, b , c, d, d, e, f, f, g, g}.
Um die Erklärung einfach zu halten, wurden Symbolsequenzen verwendet. Anstelle von Symbolen können aber auch reelle Zahlen oder Vektoren verwendet werden. Für diese wird dann lediglich ein Vergleichskriterium benötigt: Bei reellen Zahlen beispielsweise der Absolutbetrag der Differenz und bei Vektoren ein Distanzmaß, wie der Euklidische Abstand. Bei Symbolen ist das Vergleichskriterium insofern entartet, als dass der Abstand Null ist, wenn zwei Symbole gleich sind, andernfalls ist der Abstand Eins.To keep the explanation simple, symbol sequences were used. Instead of symbols, real numbers or vectors can also be used. For these, only a comparison criterion is needed: For real numbers, for example, the absolute value of the difference and for vectors a distance measure, such as the Euclidean distance. For symbols, the comparison criterion is degenerate in that the distance is zero if two symbols are equal, otherwise the distance is one.
In den verschiedenen Anwendungsfällen repräsentiert der Beispiel- oder Trainingsdatensatz jeweils elektronisch auswertbare Information über ein oder mehrere Muster einer messbaren Größe, welche später erkannt werden sollen.In the various applications, the example or training data set each represents electronically evaluable information about one or more patterns of measurable size to be later recognized.
Es ist zu erkennen, dass die drei Sequenzen (1) nichtlineare Verzerrungen enthalten. Diese können kompensiert werden. Eine Entzerrung ergibt:It can be seen that the three sequences (1) contain nonlinear distortions. These can be compensated. An equalization yields:
S1 = {a,a,*,b,b,b,*,*,d,d,d,e, *,£,*, *rg,*}S 1 = {a, a, *, b, b, b, *, *, d, d, d, e, *, £, *, * r g, *}
52 = {a,a,a,b,b,* ,c,c,d,d,* ,e,e,f,f,f,g,g} (2)5 2 = {a, a, a, b, b, *, c, c, d, d, *, e, e, f, f, f, g, g} (2)
53 = {a,* ,* ,b,b,brcr* ,d,dr* ,er* ,£,£,* ,g,g) .5 3 = {a, *, *, b, b, b r c r *, d, d r *, e r *, £, £, *, g, g).
Damit die Sequenzen gleich werden, wurden Sterne eingefügt, welche eine erforderliche Wiederholung des Vorgängersymbols kennzeichnen. Bei Sequenzen von reellen Zahlen oder Vektoren kann mittels einer Entzerrung keine vollständige Gleichheit erreicht werden. Hier lässt sich jedoch immer eine Entzerrung finden, die den Abstand zwischen den Sequenzen minimiert. Ein Verfahren, welches das leistet, ist das Dynamic-Time-Warping Verfahren. Die erforderlichen Dehnungen pro Beispielsequenz lassen sich mit Hilfe binärer Vektoren beschreibenIn order for the sequences to become equal, stars have been inserted which indicate a required repetition of the predecessor symbol. For sequences of real numbers or vectors, complete equality can not be achieved by equalization. Here, however, an equalization can always be found which minimizes the distance between the sequences. One method that does this is the Dynamic-Time-Warping method. The required strains per example sequence can be described using binary vectors
S1 = {1,1,0,1,1,1,0,0,1,1,1,1,0,1,0,0,1,0} δ2 = {1,1,1,1,1,0,1,1,1,1,0,1,1,1,1,1,1,1} (3) δ3 = {1,0,0,1,1,1,1,0,1,1,0,1,0,1,1,0,1,1},S 1 = {1,1,0,1,1,1,0,0,1,1,1,1,0,1,0,0,1,0} δ 2 = {1,1,1, 1,1,0,1,1,1,1,0,1,1,1,1,1,1,1} (3) δ 3 = {1,0,0,1,1,1,1 , 0,1,1,0,1,0,1,1,0,1,1}
welche immer eine Eins enthalten, wenn in der ursprünglichen Sequenz an dieser Stelle ein Symbol vorhanden war. Ansonsten ist der Eintrag Null. Die entzerrten Sequenzen (2) und die Verzerrungsvektoren (3) werden zuwhich always contain a one if there was an icon in the original sequence at this point. Otherwise, the entry is zero. The equalized sequences (2) and the distortion vectors (3) become
m'± = {a,ar*,bfb,br*,*rd,d,dre/*ffr*r *,g,*, 1,1, 0,1, 1,1, 0,0, 1,1, 1,1, 0,1, 0,0, 1,0} m' 2 = {a,a,a,brb,*,c,c,d,d, *, ere,£, £, f,g,g, 1,1,1,1,1,0,1,1,1,1,0,1,1,1,1,1,1,1} m'3 = {a,*,*,brbrb,c,*,d,d, *,e, *,£,£, *,gr,g, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 0, 1, 0, 1, 1, 0, 1, 1}m = {a, a r *, b f b, b r *, r * d, d, d e r / f r * f * r * g, *, 1.1, 0.1, 1 , 1, 0,0, 1,1, 1,1, 0,1, 0,0, 1,0} m ' 2 = {a, a, a, b r b, *, c, c, d, d, *, e r e, £, £, f, g, g, 1,1,1,1,1,0,1,1,1,1,1,1,1,1,1,1,1, 1,1} m ' 3 = {a, *, *, b r b r b, c, *, d, d, *, e, *, £, £, *, gr, g, 1, 0, 0 , 1,1,1,1,1,0,1,1,10,1,1}
kombiniert. Die Sternsymbole können dabei ohne Informationsverlust durch die Vorgängersymbole ersetzt werden, da immer eine Rücktransformation durch die angehängten binären Vektoren möglich wäre und es entstehen die Merkmalsvektorencombined. The star symbols can be replaced without loss of information by the predecessor symbols, as always a back transformation would be possible by the attached binary vectors and there are the feature vectors
Ul1 == {arara,brbrb,brbrd,drdre,er£r£r£rgrg, 1,1, 0,1, 1,1, 0,0, 1,1, 1,1, 0,1, 0,0, 1,0) iπ2 == {{ aa,,aa,,aa,, bb,rbb,,bb,,cc,,cc,,dd,,dd,,dd,,ee,,ee,,f£,, ££,, f£,,gg,,gg,, 1l,,11,,11,,11,, 11,,00,,11,,11,,11,,11,,00,,11,,11,,11,,11,,11,,11,,11}} (4) m3 = {a,a,a,b,b,b,crc,drd,d,e,e,f,f,f ^^,1,0,0,1,1,1,1,0,1,1,0,1,0,1,1,0,1,1} .Ul 1 == {a r a r a, b r b r b, b r b r d, d r d r e, e r £ r r r r r , 1,1,1,11 , 1, 0.0, 1.1, 1.1, 0.1, 0.0, 1.0) iπ 2 == {{aa aa ,, ,, ,, aa bb, r ,, bb bb, , cc ,, cc ,, dd ,, dd ,, dd ,, ee ,, ee ,, f ,,,, ,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, ,, 11,, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11}} (4) m 3 = {a, a, a, b, b, b, c r c, d r d, d, e, e, f, f, f ^^, 1,0,0,1,1,1,1,0 , 1,1,0,1,0,1,1,0,1,1}.
Es wird angemerkt, dass die vorderen Hälften der Vektoren nahezu gleich sind. Dieser Effekt tritt jedoch nur bei Symbolsequenzen auf. Bei Sequenzen von reellen Zahlen oder Vektoren würden sich die Einträge lediglich ähneln. Der entscheidende Vorteil dieser Datensatztransformation besteht darin, dass die in den Trainingsdaten an sich versteckten Verzerrungen explizit werden und dass Merkmalsvektoren entstanden sind. Die Verzerrungsinformation ist im Übrigen jedoch gleich in den ursprünglichen Trainingsdaten und den erzeugten Merkmalsvek- toren. Als Folge dieser Anpassung ist nun ein komponentenweiser Vergleich möglich. Sequenzen, die in ihrer Länge variieren, erlauben das nicht.It is noted that the front halves of the vectors are nearly equal. However, this effect only occurs with symbol sequences. For sequences of real numbers or vectors, the entries would only be similar. The decisive advantage of this data set transformation is that the distortions inherent in the training data become explicit and that feature vectors have arisen. Incidentally, however, the distortion information is the same in the original training data and the generated feature vectors. As a result of this adaptation, a component-wise comparison is now possible. Sequences that vary in length do not allow this.
Im nun folgenden Teilaspekt erfolgt die Parameterbestimmung des Modells. Mit Hilfe des Beispiel- oder Trainingsdatensatzes (4) lässt sich eine Wahrscheinlichkeitsdichte p(m) schätzen. Diese beschreibt Struktur und Zufälligkeit der Daten sowohl in der Zeit, als auch in der Amplitude. Für die Modellierung der Wahrscheinlichkeitsdichte lässt sich ein Kernel- Ansatz, beispielsweise ein Parzen- Ansatz, verwenden (Parzen: On estimation of a probability density andmode. Annais of Mathematical Statistics, VoI 33: 1065-1076, 1962):In the following sub-aspect, the parameter determination of the model takes place. Using the example or training data set (4), a probability density p (m) can be estimated. This describes the structure and randomness of the data both in time and in amplitude. For the modeling of the probability density, a kernel approach, for example a Parzen approach, can be used (Parzen: On estimation of a probability density and mode, Annais of Mathematical Statistics, VoI 33: 1065-1076, 1962):
p(m) * - 1 ∑ " φ(iΑ- mk,s) mit (5) p (m) * - 1 Σ "φ (iΑ- m k , s) with (5)
Hierbei ist n die Anzahl an Merkmalsvektoren, d die Dimension der Merkmalsvektoren, s = (si, ..., SrJτ ein zu schätzender Glättungsparameter und m^ = (mu, ...,w^r der k-te Merkmalsvektor des Datensatzes. Der einzige offene Parameter s kann mit Hilfe einer Fixpunktite- ration so bestimmt werden, sodass die Vorhersagefähigkeit der Dichteschätzung ^(m) maximal wird (Duin: On the choice ofthe smoothing parameters for parzen estimators of probability density functions. IEEE Transactions on Computers, Vol. C-25, No. 11: 1175-1179, 1976).Here n is the number of feature vectors, d the dimension of the feature vectors, s = (si, ..., S r J τ is a smoothing parameter to be estimated and m ^ = (mu, ..., w ^ r is the k th feature vector The only open parameter s can be determined with the aid of a fixed point ration so that the predictive capability of the density estimate ^ (m) becomes the maximum (Duin: On the choice of the smoothing parameters for parse estimators of probability density functions, IEEE Transactions on Computers, Vol. C-25, No. 11: 1175-1179, 1976).
Zur Verringerung der Datenmenge, werden anschließend solche Gaußfunktionen 0(m - m,,s) und ^(m - m^s) mit i ≠ j zu einer einzigen Gaußfunktion α'^(m - m',sj) zusammengefasst, deren Ähnlichkeit groß genug ist. Dabei treten durch die Umformung die neuen Parameter , s' und m'auf. Das resultierende Modell der Verteilung lautet nach derTo reduce the amount of data, such Gaussian functions 0 (m - m ,, s) and ^ (m - m ^ s) are combined with i ≠ j into a single Gaussian function α '^ (m - m', sj) whose similarity is big enough. The new parameters occur as a result of the forming process , s' and m'on. The resulting model of the distribution is after the
ZusammenfassungSummary
^(m) « -∑αt^(m - mt'st) ' (6)^ (m) "-Σ α t ^ (m - m t 's t)' (6)
wobei q sehr viel kleiner als n sein kann. Die Formeln für die Parameter a[ , s[ und mj sindwhere q can be much smaller than n. The formulas for the parameters a [, s [and mj are
Der Ausdruck (m, -mj2 ist dabei komponentenweise zu verstehen, d.h. jede Komponente des Vektors m, - m, wird einzeln quadriert. Vor der Zusammenfassung gilt s, = s und a, = 1 für alle / = 1, ..., n. Als Kriterium für die Ähnlichkeit zweier Gaußfunktionen ^(m - m^s,) und φ(m - mj,Sj) eignet sichThe expression (m, -mj 2 is to be understood component by component, ie each component of the Vector m, - m, is individually squared. Before the summary s, = s and a, = 1 for all / = 1, ..., n. As a criterion for the similarity of two Gaussian functions ^ (m - m ^ s,) and φ (m - m j , S j ) is suitable
Das Modell p(m) der Wahrscheinlichkeitsverteilung besteht nach der Kompression aus einer Summe von q Gaußverteilungen ^(m - m^., s^.) gewichtet mit den Faktoren ak' mit Jc = 1, ..., q. Die Vektordimension d kann anschließend auf die gleiche Weise verringert werden.The model p (m) of the probability distribution after compression consists of a sum of q Gaussian distributions ^ (m - m ^., S ^.) Weighted by the factors a k 'with Jc = 1, ..., q. The vector dimension d can then be reduced in the same way.
Jede der entstandenen q Gaußfunktionen φ{va. — vak' ,%'k) ist Spezialist für einen Teilbereich der Daten und besteht aus einem Produkt skalarer Gaußfunktionen. Die skalaren Gaußfunktionen modellieren dabei entweder eine lokale Wahrscheinlichkeitsdichte in der Zeit oder aber in der Amplitude, je nach der Komponente des Merkmalsvektors m, der aus einer Sequenz S und einem binären Verzerrungsvektor δ besteht. Jede der q GaußfunktionEach of the resulting q Gaussian functions φ {va. - va k ',%' k ) is a specialist for a subset of the data and consists of a product of scalar Gaussian functions. The scalar Gaussian functions thereby model either a local probability density in time or in amplitude, depending on the component of the feature vector m, which consists of a sequence S and a binary distortion vector δ. Each of the q Gaussian function
u φ(m-m'k,sk' ) = Y[- r exp K -O2 (9)u φ (m-m ' k , s k ') = Y [-r exp K -O 2 (9)
24,24
kann nach rückgängig machen der Merkmalsvektorcodierung alscan undo the feature vector coding as
φ(m-mk' ,s'k) = Ylpe,(x) .pυ(δ) (10)φ (mm k ', s' k) = YIp e, (x) .p υ (δ) (10)
/=1/ = 1
interpretiert werden. Dabei bestimmen die Anteile von sk' und m^, die aus den Verzerrungsvektoren δ herrühren, die Parameter für die Übergangsdichten pn(δ) und die Anteile die direkt aus den Sequenzen 5 stammen die Parameter für die Emissionsdichten pe ι (x) . Diebe interpreted. The proportions of s k 'and m ^, which originate from the distortion vectors δ, determine the parameters for the transition densities p n (δ) and the components which derive directly from the sequences 5 the parameters for the emission densities p e ι (x) , The
Emissionsdichten und die Übergangsdichten sind lediglich die Faktoren des Produktes (9) in umkodierter Form. Die Pararnetrisierungsphase ist damit beendet. Der folgende Teil beschreibt, wie das Modell effizient angewendet werden kann. Es folgt nun der Teilaspekt betreffend die Anwendung des Modells zur tatsächlichen Mustererkennung.Emission densities and transition densities are merely the factors of the product (9) in recoded form. The pararnetrization phase is over. The following part describes how the model can be applied efficiently. The sub-aspect concerning the application of the actual pattern recognition model follows.
Während der Anwendungsphase wird eine Sequenz S dahingehend untersucht, ob irgendwo Muster auftreten, die zu den Sequenzen des Beispieldatensatzes ähnlich sind. Dabei muss die Transformation, die während der Parametrisierungsphase durchgeführt wurde, implizit auch für die beobachtete Sequenz S erfolgen. Das mit der nachfolgenden Formel (11) angegebene Verfahren ist hierzu in effizienter Weise in der Lage.During the application phase, a sequence S is examined as to whether patterns similar to the sequences of the example data set occur anywhere. In this case, the transformation that was carried out during the parameterization phase must implicitly also take place for the observed sequence S. The method given by the following formula (11) is capable of doing so efficiently.
Prinzipiell arbeitet das Verfahren wie ein digitaler Filter, d.h. zu jedem Element der zu untersuchenden Sequenz S wird ein Maß ausgegeben, welches Auskunft über die momentane Ähnlichkeit gibt. Überschreitet dieses Ähnlichkeitsmaß eine gegebene Schwelle, so kann eine geeignet erscheinende Reaktion erfolgen. Die Auswertung der Sequenz S ist auch synchron zu einer Messung möglich, denn es wird immer nur der aktuelle Messwert benötigt.In principle, the method works like a digital filter, i. For each element of the sequence S to be examined, a measure is output which gives information about the current similarity. If this similarity measure exceeds a given threshold, then a suitable appearing reaction can take place. The evaluation of the sequence S is also possible synchronously to a measurement, since only the current measured value is needed.
Intern arbeitet der Filter folgendermaßen: Für jedes der q Modelle (Siehe Formel (6)) wird eine Matrix L angelegt und mit -∞ initialisiert. Sie wird pro Zeitschritt j für alle i = 1, ..., N mit Hilfe der FormelInternally, the filter works as follows: For each of the q models (see formula (6)), a matrix L is created and initialized with -∞. It is calculated per time step j for all i = 1, ..., N using the formula
L(i,j) - l,j - ά) + log(ptJ(a))}+ clog(pej(x y) (11) L (i, j) - l, j - ά) + log (p tJ (a))} + clog (p ej (xy) (11)
aktualisiert. Die Wahrscheinlichkeitsverteilungen px ι(-) und />, ,(•) ergeben sich aus der Beziehung (10). Der Parameter am ist dabei mindestens so groß zu wählen, so dass für alle pn(am) « 0 gilt. Der Parameter c dient der Gewichtung und muss empirisch ermittelt werden. Im einfachsten Fall kann c = 1 gewählt werden. Der Wert L(N, j) ist das gesuchte Ähnlichkeitsmaß zum Zeitpunkt j, welches angibt, wie stark die momentan beobachtete Sequenz einer der Sequenzen aus der Parametrisierungsphase ähnelt. Insgesamt existieren q dieser Werte. Der größte davon ist relevant und wird mit der Erkennungsschwelle verglichen, um bei deren Überschreitung ein Erkennungsereignis zu signalisieren. Eine Implementierung von L(i, j) in Form eines Ringpuffers ist möglich. Das vorangehend beschriebene Verfahren beschreibt in allgemeiner Weise den vorgeschlagenen Prozess der Mustererkennung, wie es in verschiedenen Anwendungsfallen genutzt werden kann. Im Folgenden werden nun Anwendungsbeispiele für die Nutzung des Mustererkennungsverfahrens näher beschrieben.updated. The probability distributions p x ι (-) and />,, (•) result from the relation (10). The parameter a m is at least as large to choose, so that applies to all p n (a m ) «0. The parameter c serves the weighting and must be determined empirically. In the simplest case c = 1 can be chosen. The value L (N, j) is the sought similarity measure at time j, which indicates how closely the currently observed sequence resembles one of the sequences from the parameterization phase. Overall, there are q of these values. The largest of these is relevant and is compared to the detection threshold to signal a detection event when it is exceeded. An implementation of L (i, j) in the form of a ring buffer is possible. The method described above describes in a general way the proposed process of pattern recognition, as it can be used in various application cases. In the following, application examples for the use of the pattern recognition method will now be described in more detail.
Beispiel 1example 1
Eine Anwendung des Mustererkennungsverfahrens ist die Klopferkennung bei Motoren, auf die im Folgenden noch näher eingegangen wird. Fig. 1 zeigt eine schematische Darstellung eines Aufbaus einer Klopfregelung für einen Motor.One application of the pattern recognition method is the knock detection in motors, which will be discussed in more detail below. Fig. 1 shows a schematic representation of a structure of a knock control for a motor.
Es wird davon ausgegangen, dass mit Hilfe eines geeigneten Sensors ein Körperschallsignal kontinuierlich aufgenommen und mittels einer Analog-Digital-Wandlung mit hinreichend hoher Abtastrate digitalisiert wird. Das Zeitsignal wird damit zu einer Sequenz von Skalaren. Im nächsten Schritt wird diese Sequenz mittels einer STFT in eine Sequenz von Spektralvektoren (Spektrogramm: Amplitudenspektrum oder Leistungsdichtespektrum) gewandelt, welche die Ausprägung bestimmter Frequenzanteile über die Zeit beschreiben. Die Spektralvektoren können anschließend logarithmiert und mittels einer Diskreten Kosinustransformation in Cepstralvektoren gewandelt werden. Dieser Schritt ist jedoch nicht zwingend erforderlich. Die Vektorsequenzen werden im Weiteren als Merkmalsvektorsequenzen bezeichnet, um von der konkreten Art der Vorverarbeitung zu abstrahieren, die damit abgeschlossen ist. Die eigentliche Erkennung erfolgt ausschließlich auf Basis dieser Merkmalsvektorsequenzen wie sie oben allgemein erläutert wurden.It is assumed that with the help of a suitable sensor, a structure-borne sound signal is continuously recorded and digitized by means of an analog-to-digital conversion with a sufficiently high sampling rate. The time signal thus becomes a sequence of scalars. In the next step, this sequence is converted by means of an STFT into a sequence of spectral vectors (spectrogram: amplitude spectrum or power density spectrum), which describe the expression of certain frequency components over time. The spectral vectors can then be logarithmized and converted into cepstral vectors by means of a discrete cosine transformation. However, this step is not mandatory. The vector sequences will be referred to hereinafter as feature vector sequences to abstract from the specific type of preprocessing that is completed. The actual recognition takes place exclusively on the basis of these feature vector sequences as generally explained above.
Bevor die Klopferkennung eingesetzt werden kann, muss eine Parametrisierung stattfinden. Dazu müssen mit Hilfe eines Motorenteststandes Beispiel- oder Trainingsdaten aufgenommen werden. Hierbei wird der zu regelnde Motorentyp bei verschiedenen Drehzahlen und für jeden Zylinder in den klopfenden und nichtklopfenden Bereich gebracht. Zusätzlich wird neben den Körperschallsignalen mit geeigneten Sensoren der Zylinderinnendruck gemessen. Diese Da- ten sind erforderlich, um eindeutig beurteilen zu können, ob ein konkret gemessenes Körperschallsignal einer klopfenden oder einer nichtklopfenden Verbrennung entspricht (vgl. Fig. 2). Anschließend werden die aufgezeichneten Körperschalldaten aufbereitet, indem alle Bereiche ausgeschnitten werden, bei denen im gleichzeitig gemessenen Drucksignal ein Überdruck vorliegt. Zusätzlich wird anhand des Drucksignals die Klopfstärke eines jeden Körperschallfragmentes ermittelt und mit diesem verbunden (gelabelt). Die Drucksignale werden dazu bandpassgefiltert und gleichgerichtet. Die verbleibende Maximalamplitude stellt ein Maß für die aktuelle Stärke des Klopfens dar. Nach diesem Schritt steht ein Datensatz von Körperschallfragmenten zur Verfügung, mit dem die Klopferkennung parametrisiert werden kann. Die Drucksignale werden anschließend nicht länger benötigt.Before the knock detection can be used, a parameterization must take place. For this purpose, example or training data must be recorded with the help of an engine test stand. Here, the type of engine to be controlled is placed at different speeds and for each cylinder in the knocking and non-knocking area. In addition to the structure-borne sound signals with appropriate sensors, the cylinder internal pressure is measured. These data are required in order to be able to clearly judge whether a concretely measured structure-borne noise signal corresponds to a knocking or a non-knocking combustion (see Fig. 2). Subsequently, the recorded structure-borne noise data are prepared by cutting out all areas in which there is an overpressure in the simultaneously measured pressure signal. In addition, the knocking strength of each structure-borne sound fragment is determined on the basis of the pressure signal and connected to it (labeled). The pressure signals are bandpass filtered and rectified. The remaining maximum amplitude represents a measure of the current strength of knocking. After this step, a data set of structure-borne sound fragments is available, with which the knock detection can be parameterized. The pressure signals are then no longer needed.
Für die Klopferkennung werden zwei Modelle parametrisiert. Das erste Modell dient der Erkennung klopfender Verbrennungen, das zweite zur Erkennung nicht klopfender Verbrennungen. Auf diese Weise kann die Aufgabenstellung auf ein einfaches Klassifikationsproblem zurückgeführt werden. Ausgangspunkt für die Parametrisierung sind die aus dem kontinuierlichen Körperschallsignal ausgeschnittenen und mit der Klopfstärke gelabelten Körperschall- fragmente.Two models are parameterized for knock detection. The first model is for the detection of knocking burns, the second for the detection of non-knocking burns. In this way the task can be reduced to a simple classification problem. The starting point for the parameterization are the structure-borne sound fragments cut out of the continuous structure-borne noise signal and labeled with the knocking strength.
Das Modell für die nichtklopfenden Verbrennungen wird nur mit solchen Körperschallfragmenten parametrisiert, deren Klopfstärke unterhalb einer zuvor definierten Schwelle S1 liegt. Entsprechend wird das Modell für die klopfenden Verbrennungen mit Hilfe eindeutig klop- fender Körperschallfragmente parametrisiert. Die Klopfstärke muss dazu eine Schwelle ε2 überschreiten. Beide Schwellen S1 und s2 können gleich sein. Es ist jedoch praktisch sinnvoll S2 etwas größer als Sx zu wählen. Bis auf die verwendete Datenbasis sind beide Modelle ansonsten vollkommen identisch. Ebenso unterscheidet sich die Parametrisierungsphase nicht voneinander, sodass es ausreichend ist, diese anhand eines einzigen Modells zu be- schreiben.The model for non-knocking burns is parameterized only with those structure-borne sound fragments whose knock strength lies below a previously defined threshold S 1 . Accordingly, the model for the knocking burns is parameterized with the help of clearly knocking structure-borne sound fragments. The knock intensity must exceed a threshold ε 2 . Both thresholds S 1 and s 2 may be the same. However, it makes sense to choose S 2 slightly larger than S x . Apart from the database used, both models are otherwise completely identical. Likewise, the parameterization phase is not different from each other, so it is sufficient to describe them using a single model.
In aller Regel ist es für die Mustererkennung günstiger, nicht direkt die Körperschallsignale zu analysieren, sondern daraus abgeleitete Merkmalsvektorsequenzen, also Folgen von Merkmalsvektoren. Bei diesem konkreten Beispiel ist es, wie bereits beschrieben, sinnvoll, Körperschallsignale zunächst in kurze überlappende gleichlange Zeitfenster zu unterteilen und von diesen jeweils die Amplituden oder Leistungsdichtespektren zu berechnen. Jedes dieser Spektren kann als Merkmalsvektor fester Dimension aufgefasst werden. Ein Körperschallfragment wird so zu einer Merkmalsvektorsequenz (vgl. Fig. 3). Da sich die Körperschallfragmente in ihrer Länge unterscheiden, unterscheiden sich auch die durch die Vorverarbeitung erzeugten Merkmalsvektorsequenzen in ihrer Länge. Ein direkter Vergleich ist so nicht möglich. Ebenso ist eine Behandlung des Klassifikationsproblems mit klassischen merkmalsvektorbasierten Mustererkennungsverfahren unmöglich, da diese voraussetzen, dass ein in sich abgeschlossener Merkmalsraum existiert und somit eine implizite Schätzung der Wahrscheinlichkeitsverteilung des Beispieldatensatzes möglich ist.As a rule, it is more favorable for the pattern recognition not to analyze the structure-borne sound signals directly, but rather feature vector sequences derived therefrom, ie sequences of feature vectors. In this specific example, it is useful, as already described, to subdivide structure-borne sound signals first into short overlapping equal-length time windows and to calculate the amplitudes or power density spectra from each of them. Each of these spectra can be considered as a feature vector of fixed dimension. A structure-borne sound fragment thus becomes a feature vector sequence (see Fig. 3). Since the structure-borne sound fragments differ in their length, the feature vector sequences generated by the preprocessing differ in their length. A direct comparison is not possible. Similarly, dealing with the classification problem with classical feature vector-based pattern recognition methods is impossible because they require that a self-contained feature space exists and thus allow implicit estimation of the probability distribution of the example data set.
Gemäß dem oben beschriebenen Verfahren werden nun Merkmalsvektoren gebildet, die an- schließend zur Parametrisierung des Modells genutzt werden, wie dieses oben erläutert ist. Anschließend kann das Modell zur Mustererkennung in der vorangehend erläuterten Art und Weise verwendet werden. Da während der Parametrisierungsphase zwei Modelle erzeugt wurden, nämlich einmal für klopfende und einmal für nichtklopfende Verbrennungen, existieren zwei dieser Werte. Je nachdem welcher dieser Werte größer ist, liegt entweder eine klop- fende oder eine nichtklopfende Verbrennung vor. Sind beide Werte niedrig, findet momentan entweder keine Verbrennung statt, oder der Sensor ist beschädigt. Das Motorsteuergerät hat damit die Möglichkeit, einen Ausfall der Klopferkennung zu detektieren, was wichtig ist, um eine Beschädigung des Motors zu vermeiden.According to the method described above, feature vectors are then formed, which are then used to parameterize the model, as explained above. Subsequently, the model for pattern recognition can be used in the manner explained above. Since two models were generated during the parameterization phase, namely once for knocking and once for non-knocking burns, two of these values exist. Depending on which of these values is greater, either a knocking or a non-knocking combustion is present. If both values are low, there is either no combustion at the moment or the sensor is damaged. The engine control unit thus has the opportunity to detect a failure of the knock detection, which is important in order to avoid damage to the engine.
Das beschriebene Verfahren ermöglicht ein zeitkontinuierliches Suchen nach klopfenden Verbrennungen. Darunter ist zu verstehen, dass das Verfahren, ähnlich einem digitalen Filter, zu jedem Abtastzeitpunkt ein Kriterium für die momentane Klopfstärke zur Verfügung stellen kann. Überdies sind keine a-priori Vorgaben erforderlich und die Bestimmung der Parameter erfolgt weitgehend konstruktiv, d.h. ohne numerische Optimierung.The method described allows a continuous search for knocking burns. By this is meant that the method, like a digital filter, can provide a criterion for the instantaneous knock magnitude at each sampling instant. Moreover, no a priori specifications are required and the determination of the parameters is largely constructive, i. without numerical optimization.
Wie vorangehend in Verbindung mit der Klopferkennung erläutert, können auch andere Problemstellungen in Verbindung mit einer Mustererkennung auf ein Sequenzerkennungsproblem zurückgeführt werden, was nachfolgend näher erläutert wird.As discussed above in connection with knock detection, other problems associated with pattern recognition can also be attributed to a sequence detection problem, which will be discussed in more detail below.
Beispiel 2Example 2
Einige der Anwendungen basieren auf Zeitsignalen. Bei diesen Anwendungen ist es relativ offensichtlich, an welcher Stelle das Verfahren zur Sequenzerkennung nutzbringend einge- setzt werden kann. Beispielsweise kann bei der Signalanalyse von EKG-Signalen (EKG - Elektrokardiogramm) direkt das Zeitsignal verwendet werden. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung bei einer Signalanalyse von EKG-Signalen. Auf diese Weise können Sequenzen in den EKG- Signalen ermittelt werden, die gegebenenfalls auf Rhythmusstörungen hindeuten.Some of the applications are based on time signals. In these applications, it is relatively obvious at which point the method of sequencing is usefully employed. can be set. For example, in the signal analysis of ECG signals (ECG electrocardiogram) directly the time signal can be used. It is then a use of the above-described method for automatic pattern recognition in a signal analysis of ECG signals. In this way, sequences in the ECG signals can be determined, which may indicate arrhythmias.
Beispiel 3Example 3
Auch die Anwendung der automatischen Mustererkennung in Verbindung mit Spracherken- nung basiert auf Zeitsignalen. Beim Erkennen von Sprache ist es jedoch sinnvoll, eine Vorverarbeitung der Zeitsignale, bei welchen es sich in diesem konkreten Fall um Audiosignale handelt, durchzuführen. Hierzu werden äquivalent zur oben beschriebenen Vorgehensweise bei der Klopferkennung die Schallsignale in Folgen von Spektralvektoren gewandelt. Der Vorteil dieser Transformation besteht darin, dass sich die aus physikalischen Gründen irrele- vanten Phasen aus den Signalen so leicht entfernen lassen. Fig. 3 trifft daher auch für den Anwendungsfall der maschinellen Spracherkennung zu.The use of automatic pattern recognition in connection with speech recognition is also based on time signals. When recognizing speech, however, it makes sense to perform a preprocessing of the time signals, which in this specific case are audio signals. For this purpose, the sound signals are converted into sequences of spectral vectors equivalent to the procedure described above in the knock detection. The advantage of this transformation is that the phases that are irrelevant for physical reasons can be easily removed from the signals. Therefore, Fig. 3 also applies to the case of machine voice recognition.
Die einfachste Anwendung einer maschinellen Spracherkennung besteht darin, einzelne vor- definierte Kommandowörter zu erkennen. Dazu ist mindestens ein Mikrophon und ein Mikro- prozessor erforderlich, welcher zusätzlich in der Lage sein muss, die analogen Audiosignale digital einzulesen. Um zur Kommandoworterkennung das oben beschriebene Verfahren einzusetzen, ist es zunächst erforderlich, einen Beispieldatensatz mit dieser Messvorrichtung aufzunehmen. Für jedes Kommandowort müssen mindestens einige Beispiele aufgezeichnet werden. Anschließend werden diese aufbereitet und gelabelt, d.h. es wird maschinenlesbar gekennzeichnet, um welches Kommando wort es sich bei jedem konkreten Beispiel handelt.The simplest use of machine speech recognition is to recognize individual predefined command words. This requires at least a microphone and a microprocessor, which additionally has to be able to read in the analog audio signals digitally. In order to use the method described above for command word recognition, it is first necessary to record an example data record with this measuring device. For each command word at least a few examples must be recorded. These are then prepared and labeled, i. It is machine-readable which command word it is at each concrete example.
Für jedes Kommando wort wird nun ein Modell erzeugt. Dazu werden die entsprechenden Beispiele vorverarbeitet und in Spektralvektorfolgen gewandelt. Dieses sind die eigentlichen Sequenzen, aus denen dann in der bereits beschriebenen Weise (Formeln (1) bis (4)) Merk- malsvektoren gleicher Länge erzeugt werden. Mit Hilfe der beschriebenen Parametrisierung (Formeln (5) bis (10)) werden anschließend die Modelle erzeugt. Die Beziehung (11) ermöglicht dann die Nutzung der erzeugten Modelle zur Analyse eines kontinuierlichen Audiosignals. Falls das für jedes Modell ständig berechnete Ähnlichkeitsmaß zu einem bestimmten Zeitpunkt die vordefinierte Schwelle überschreitet, kann davon ausgegangen werden, dass das kontinuierlich untersuchte Audiosignal aktuell eine Äußerung enthalten hat, welche zu den Kommandowörtern ähnlich war, welche bei der Parametrisierung des entsprechenden Modells verwendet wurden. Eine Meldung des damit verbundenen Labels erscheint dem Benutzer des Systems als Erkennung seiner gesprochenen Äußerung und kann zur Triggerung bestimmter nützlicher Aktionen genutzt werden.For each command word a model is created. For this purpose, the corresponding examples are preprocessed and converted into spectral vector sequences. These are the actual sequences from which characteristic vectors of the same length are then generated in the manner already described (formulas (1) to (4)). With the aid of the described parameterization (formulas (5) to (10)) the models are subsequently generated. The relationship (11) then allows the use of the generated models to analyze a continuous audio signal. If the similarity measure for each model constantly calculated to a certain If the time exceeds the predefined threshold, it can be assumed that the continuously examined audio signal currently contained an utterance which was similar to the command words used in the parameterization of the corresponding model. A message of the associated label appears to the user of the system as recognition of his spoken utterance and can be used to trigger certain useful actions.
Beispiel 4Example 4
Bei einem Virenscanner bestehen die zu suchenden Muster aus bestimmten signifikanten Codefragmenten, also Folgen oder Sequenzen von Bytes die das Verhalten des Codes beschreiben. Damit Viren nicht so leicht zu finden sind, werden häufig Variationen an bestimmten Teilen des Codes eingefügt, die zwar das eigentliche Verhalten nicht verändern, aber zu einer geänderten Bytefolge führen. Beispielsweise können an beliebigen Stellen des Codes NOP- Maschinenbefehle (No Operation) eingefügt werden. Auch andere Codesequenzen, die letztlich nichts bewirken, lassen sich einfügen.In a virus scanner, the patterns to be searched consist of certain significant code fragments, ie sequences or sequences of bytes describing the behavior of the code. For viruses to be less easy to find, variations are often added to certain parts of the code that, while not modifying the actual behavior, result in a changed sequence of bytes. For example, NOP machine instructions (No Operation) can be inserted anywhere on the code. Other code sequences, which ultimately cause nothing, can be inserted.
Die Vorgehensweise zum Auffinden schädlichen Programmcodes mit Hilfe des oben beschriebenen Verfahrens besteht darin, die Bytefolgen verschiedener veränderter Versionen durch ein gemeinsames Modell zu beschreiben und mit diesem nach dem Auftreten des Virus zu suchen. Dazu werden die Bytefolgen den Formeln (1) bis (4) entsprechend in Merkmalsvektoren fester Länge transformiert. Darauf anschließend erfolgt die Parametrisierung des Modells. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung beim Virenscannen.The procedure for locating malicious program code using the method described above is to describe the byte sequences of different modified versions by a common model and to search for the occurrence of the virus with this. For this, the byte sequences of the formulas (1) to (4) are correspondingly transformed into feature vectors of fixed length. Subsequently, the parameterization of the model takes place. It is then a use of the above-described method for automatic pattern recognition in virus scanning.
Beispiel 5Example 5
Ein sehr ähnlicher Problemkreis ist die Suche nach Genen oder ähnlichen Genen in DNA- Sequenzen. Hierbei wird anstelle von Byte-Sequenzen nach Aminosäure-Sequenzen gesucht. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung (Gensequenzen) bei der Gensequenzanalyse, wobei die Sequenz elektronischer Daten eine Gensequenz repräsentiert. Beispiel 6A very similar problem area is the search for genes or similar genes in DNA sequences. This searches for amino acid sequences instead of byte sequences. It is then a use of the above-described method for automatic pattern recognition (gene sequences) in gene sequence analysis, wherein the sequence of electronic data represents a gene sequence. Example 6
Nicht ganz so offensichtlich ist die Anwendung in der Bildanalyse, da hier zweidimensionale Datenstrukturen vorliegen. Einige dieser Aufgabenstellungen lassen sich auf ein Sequenzanalyseproblem zurückführen. Ein handschriftlich geschriebener Text beispielsweise, kann als eine Sequenz oder Folge von X-Y-Koordinaten interpretiert werden. Infolge variabler Schreibgeschwindigkeiten können diese Sequenzen jedoch nicht direkt verglichen werden. Die Erfindung bietet jedoch eine direkte Möglichkeit zur Verarbeitung solcher Daten. Bei- spielsweise könnte die Aufgabenstellung darin bestehen, die Unterschrift oder Signatur einer Person zu überprüfen um z.B. eine Authentifizierung eines Laptops durchzuführen. Die notwendige Hardware, ein Touchpad und ein Computer für die Auswertung ist in den Geräten bereits enthalten.Not so obvious is the application in the image analysis, since there are two-dimensional data structures. Some of these problems can be attributed to a sequence analysis problem. For example, a handwritten text can be interpreted as a sequence or sequence of XY coordinates. However, due to variable writing speeds, these sequences can not be directly compared. However, the invention provides a direct way of processing such data. For example, the task could be to check the signature or signature of a person, e.g. to authenticate a laptop. The necessary hardware, a touchpad and a computer for the evaluation are already included in the devices.
Jede Sequenz beginnt, wenn eine Berührung auf dem Touchpad registriert wird und endet, wenn für eine gewisse Zeit keine Berührung mehr empfangen wurde. Damit die Position, an der die Unterschrift oder Signatur geschrieben wird, keinen Einfluss ausübt, kann die erste Koordinate der Sequenz von allen restlichen Koordinaten der Sequenz subtrahiert werden. Dadurch wird sichergestellt, dass jede Koordinatensequenz am Ursprung (0,0) beginnt.Each sequence begins when a touch is registered on the touchpad and ends when it has not been touched for a while. In order for the position at which the signature or signature is written to have no effect, the first coordinate of the sequence may be subtracted from all remaining coordinates of the sequence. This will ensure that each coordinate sequence starts at the origin (0,0).
Um nun die Unterschrift oder Signatur einer Person erkennen zu können, werden einige Beispiele benötigt, aus denen entsprechend den Formeln (1) bis (4) die Merkmalsvektoren fester Länge erzeugt werden. Darauf aufbauend wird anschließend das Modell parametrisiert (Formeln (5) bis (10)). Nachdem das Modell fertig parametrisiert ist, kann es dazu verwendet werden, alle empfangenen Koordinatensequenzen entweder ständig oder nur auf Anforderung mit dem gespeicherten Modell zu vergleichen. Hierzu kann die Formel (11) eingesetzt werden. Beispiel 7In order to be able to recognize the signature or signature of a person, some examples are needed, from which according to formulas (1) to (4) the feature vectors of fixed length are generated. Based on this, the model is then parameterized (formulas (5) to (10)). After the model has been fully parameterized, it can be used to compare all received coordinate sequences either constantly or only on demand with the stored model. For this purpose, the formula (11) can be used. Example 7
Bei der Maschinensignalanalyse werden häufig Zeitsignale verwendet, die sich direkt als Sequenzen interpretieren lassen, nämlich Strom- oder Spannungsverläufe. Andere Sensordaten, bei denen eine Störung durch Übertragungsfunktionen stattfindet, können in Form von Spektrogrammen untersucht werden (vgl. Klopferkennung oben). In der Regel existieren beim Maschinen- und Anlagenbau ausgesprochen viele Anwendungen, bei denen sich die beschriebene Sequenzerkennung sinnvoll einsetzen lässt. Typisch hierbei ist jedoch, dass es sich fast immer um Detailprobleme handelt, zum Beispiel einen Teil einer Steuerung, einen Teil einer Prozessüberwachung oder dergleichen. Es handelt sich dann um eine Verwendung des oben beschriebenen Verfahrens für eine automatische Mustererkennung bei der Steuerung oder der Prozessüberwachung einer Maschine oder einer Anlage, wobei die Sequenz elektronischer Daten für die Steuerung oder die Prozessüberwachung erfasste Daten repräsentieren, wobei zuvor zugehörige Beispiel- oder Trainingsdaten erfasst wurden.In machine signal analysis, time signals are often used which can be interpreted directly as sequences, namely current or voltage characteristics. Other sensor data in which interference by transfer functions takes place can be examined in the form of spectrograms (see knock detection above). As a rule, many applications exist in mechanical and plant engineering, where the described sequence recognition can be sensibly used. However, it is typical that these are almost always detail problems, for example part of a controller, part of process monitoring or the like. It is then a use of the above-described method for automatic pattern recognition in the control or process monitoring of a machine or plant, wherein the sequence of electronic data represents data acquired for the control or the process monitoring, whereby previously associated sample or training data is acquired were.
Beispiel 8Example 8
Eine weitere Anwendung des Mustererkennungsverfahrens ist die Auswertung von Wärmebilddaten für die Qualitätskontrolle bei maschinell hergestellten geschmiedeten Bauelemen- ten. Geschmiedete Bauelemente weisen gelegentlich Risse auf. Rein visuell lassen sich die Risse meist nicht gut erkennen. Allerdings weicht das jeweilige Abkühlverhalten von Bereichen mit Rissen und von Bereichen ohne Risse voneinander ab. Um solche Abweichungen erfassen zu können, werden für eine kurze Zeit Bilder der geschmiedeten Bauelemente mittels einer Wärmebildkamera aufgenommen. Die Abkühlung eines Bauelementes entspricht einer Veränderung eines mittels der Wärmebildkamera gebildeten Grauwertbildes G(x,y,t) über eine Zeit t. Da sich die Lage des Bauelementes gegenüber der Wärmebildkamera während der Aufnahme nicht verändert, sind die Bildkoordinaten x und y (Pixel) einem jeweiligen Bereich der Bauteiloberfläche zugeordnet. Das zeitliche Verhalten des Grauwertes lässt sich hierbei näherungsweise mittels einer abklingenden Exponentialfunktion beschreiben:Another application of the pattern recognition method is the evaluation of thermal image data for quality control of machined forged components. Forged components occasionally show cracks. Visually, the cracks are usually not easy to recognize. However, the respective cooling behavior deviates from areas with cracks and areas without cracks. In order to detect such deviations, images of the forged components are recorded by means of a thermal imaging camera for a short time. The cooling of a component corresponds to a change in a gray value image G (x, y, t) formed by the thermal imaging camera over a time t. Since the position of the component with respect to the thermal imaging camera does not change during the recording, the image coordinates x and y (pixels) are assigned to a respective area of the component surface. The temporal behavior of the gray value can be approximately described here by means of a decaying exponential function:
G(x, y, t) « G(x, y,0) exp(- l(x, y) t) Der Parameter l(x,y) lässt sich vorzugsweise mittels linearer Regression abschätzen. Weitere die Abkühlung beschreibende Parameter sind möglich. Für jede Bildkoordinate x und y wird so ein Parametervektor V(x,y) gebildet, welcher beispielsweise im einfachsten Fall nur eindimensional ist: V(x,y) = l(x,y).G (x, y, t) «G (x, y, 0) exp (- l (x, y) t) The parameter I (x, y) can preferably be estimated by means of linear regression. Further parameters describing the cooling are possible. For each image coordinate x and y, a parameter vector V (x, y) is thus formed which, for example, in the simplest case is only one-dimensional: V (x, y) = 1 (x, y).
Da jeder Bildkoordinate x und y genau ein Parametervektor V(x,y) zugeordnet ist, kann das Ergebnis dieser Vorverarbeitung als ein Grauwertbild (eindimensionaler Parametervektor) oder als ein Falschfarbenbild (mehrdimensionaler Parametervektor) dargestellt werden. Ein abweichendes Abkühlverhalten in solchen Sekundärbildern V(x,y) ist visuell sofort als eine ungewöhnliche Verfärbung erkennbar. Für eine maschinelle Auswertung ist es aber störend, dass die Lage und die Ausrichtung der Bauelemente im Sekundärbild von Fall zu Fall variiert. Diese Variation hat verfahrenstechnische Gründe und zeigt sich im Wesentlichen als eine horizontale Verschiebung beziehungsweise Verzerrung. Ein einfacher Vergleich mit einem Referenzbild ist daher nicht möglichSince each image coordinate x and y is assigned exactly one parameter vector V (x, y), the result of this preprocessing can be represented as a gray value image (one-dimensional parameter vector) or as a false color image (multi-dimensional parameter vector). A different cooling behavior in such secondary images V (x, y) is visually immediately recognizable as an unusual discoloration. For a machine evaluation, however, it is disturbing that the position and orientation of the components in the secondary image varies from case to case. This variation has procedural reasons and manifests itself essentially as a horizontal shift or distortion. A simple comparison with a reference image is therefore not possible
Es ist hingegen möglich, jede Spalte Sp (x) = (V(x,l), V(x,2), V(x,3),...) des Sekundärbildes V(x,y) als einen Vektor zu interpretieren. Die Abfolge der Spalten S(x) von links nach rechts bildet dann eine Folge von Vektoren S = Sp(I), Sp(2),Sp(3),... und somit eine Sequenz. Die Aufgabenstellung des Findens der Lage des Bauelementes und des Vergleichs mit einer Refe- renz wird somit auf ein Sequenzerkennungsproblem reduziert, welches sich mit dem erfindungsgemäßen Mustererkennungsverfahren lösen lässt. Das Referenzbild (Referenz) wird beispielsweise mittels des erfindungsgemäßen Verfahrens aus mehreren Beispielssequenzen von fehlerfreien Bauelementen gebildetOn the other hand, it is possible to assign each column Sp (x) = (V (x, l), V (x, 2), V (x, 3), ...) of the secondary image V (x, y) as a vector interpret. The sequence of columns S (x) from left to right then forms a sequence of vectors S = Sp (I), Sp (2), Sp (3), ... and thus a sequence. The task of finding the position of the component and the comparison with a reference is thus reduced to a sequence detection problem which can be solved with the pattern recognition method according to the invention. The reference image (reference) is formed for example by means of the method according to the invention from several example sequences of defect-free components
Insgesamt ist vorangehend ein Verfahren zur automatischen Mustererkennung beschrieben, welches in vielfältigen Anwendungen eingesetzt werden kann, indem entsprechende elektronische Daten, die eine dem jeweiligen Anwendungsfall zugeordnete Information umfassen, in der oben erläuterten Art und Weise analysiert werden. Ausgangspunkt des Verfahrens ist hierbei zunächst die Erzeugung eines Satzes von Merkmalsvektoren gleicher Länge oder Di- mension aus Trainings- oder Beispieldaten mittels eines Dynamic-Time-Warping-Verfahrens. Auf diese Weise werden Merkmalsvektoren erzeugt, die anschließend prinzipiell mit Hilfe beliebiger Klassifikatoren zur Mustererkennung untersucht werden können. Beispielsweise könnte auch ein Neuronales Netz (z.B. ein Multilagen-Perzeptron) Verwendung finden (Bis- hop: Neural networks für Pattern Recognition, Clarendon Press, Oxford, 1995). Zahlreiche andere Klassifikatoren wie Support- Vector-Machines, Polynomklassifikatoren oder Entscheidungsbaumverfahren sind ebenfalls möglich (Niemann: Klassifikation von Mustern, 1995). Allerdings müssen dazu alle Klassifikatoren das Problem lösen, die während der Anwen- dungsphase notwendige Entzerrung der beobachteten Sequenzen effizient durchzuführen. In ihrer Grundform ist keines der genannten Verfahren dazu in der Lage.Overall, a method for automatic pattern recognition is described above, which can be used in a variety of applications by analyzing corresponding electronic data, which comprise an information associated with the respective application, in the manner explained above. The starting point of the method here is first the generation of a set of feature vectors of equal length or dimension from training or example data by means of a dynamic-time warping method. In this way, feature vectors are generated, which can then be examined in principle with the aid of any classifiers for pattern recognition. For example, a neural network (eg a multilayer perceptron) could also be used (bis- hop: Neural networks for Pattern Recognition, Clarendon Press, Oxford, 1995). Numerous other classifiers such as support vector machines, polynomial classifiers or decision tree methods are also possible (Niemann: Klassifikation von Muster, 1995). However, all classifiers must solve the problem of efficiently performing the necessary equalization of the observed sequences during the application phase. In its basic form, none of the above methods is capable of doing so.
Unabhängig von der anschließenden Ausführung des Klassifikationsverfahrens stellt die Erzeugung des Satzes von Merkmalsvektoren einen selbstständigen Aspekt der Erfindung dar, welcher seine Vorteile unabhängig von der anschließenden Wahl des Klassifikators und somit im Zusammenhang mit verschiedensten Klassifikatoren entfaltet.Regardless of the subsequent execution of the classification method, the generation of the set of feature vectors constitutes an independent aspect of the invention, which develops its advantages independently of the subsequent choice of the classifier and thus in connection with various classifiers.
Das beschriebene Verfahren zur automatischen Mustererkennung kann vorteilhafter Weise insbesondere im Zusammenhang mit den folgenden Anwendungen genutzt werden: maschi- nelle Spracherkennung, Handschrifterkennung, Gensequenzanalyse, Suche nach schädlichem Programmcode (Virenscanner), Medizintechnikanwendungen wie Herzschrittmacher oder Elektrokardiogramm und maschinelle Diagnoseanwendungen wie Klopferkennung.The described method for automatic pattern recognition can advantageously be used in particular in connection with the following applications: machine speech recognition, handwriting recognition, gene sequence analysis, search for malicious program code (virus scanner), medical technology applications such as cardiac pacemakers or electrocardiograms and mechanical diagnostic applications such as knock detection.
Die in der vorstehenden Beschreibung, den Ansprüchen und der Zeichnung offenbarten Merk- male der Erfindung können sowohl einzeln als auch in beliebiger Kombination für die Verwirklichung der Erfindung in ihren verschiedenen Ausführungsformen von Bedeutung sein. The features of the invention disclosed in the above description, the claims and the drawing may be of significance both individually and in any combination for the realization of the invention in its various embodiments.

Claims

Ansprüche claims
1. Verfahren zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung in einem Datenverarbeitungssystem, bei dem in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten verglichen wird, die wenigstens eine Mustersequenz repräsentieren, und bei dem die wenigstens eine Mustersequenz erkannt wird, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten umfasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlichkeitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, wobei beim Bilden der parametrisierten Modelldaten Trainingsdaten mittels eines Dynamic-Time-Warping- Verfahrens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten verarbeitet werden, aus denen die parametrisierten Modelldaten abgeleitet werden.A method for automatic pattern recognition in a sequence of electronic data by means of electronic data processing in a data processing system, in which the sequence of electronic data is compared in an analysis with parametric model data representing at least one pattern sequence, and wherein the at least one pattern sequence is detected, if determining, in the analysis, that model data comprised of the parameterized model data associated with the at least one pattern sequence occurs with a similarity measure exceeding a similarity threshold, wherein in forming the parameterized model data, training data is converted to a set of by a dynamic-time warping method Feature vectors of the same length and with the same information content as the training data are processed, from which the parameterized model data are derived.
2. Verfahren nach Anspruch 1, dadurch g ek e nn z e i c hn e t, dass die parametrisierten Modelldaten aus dem Satz von Merkmalsvektoren abgeleitet werden, indem ein merk- malsvektorbasierter Klassifϊkator parametrisiert wird.2. Method according to claim 1, characterized in that the parameterized model data are derived from the set of feature vectors by parameterizing a feature-vector-based classifi- cator.
3. Verfahren nach Anspruch 2, dadurch g ek e n n z e i c h n e t, dass als merkmalsvektorba- sierter Klassifϊkator ein Bayes-Klassifikator mit Parzen- Window-Dichteschätzung verwendet wird.3. Method according to claim 2, characterized in that a classifier based on classifiers is a Bayes classifier with Parzen window density estimation.
4. Verfahren nach mindestens einem der vorangehenden Ansprüche, dadurch g ek e nn - z e i c hn e t, dass das Ähnlichkeitsmaß L(NJ) für eine zum Zeitpunkt j der Analyse untersuchte Teilsequenz elektronischer Daten aus der Sequenz elektronischer Daten wie folgt ermittelt wird:4. Method according to at least one of the preceding claims, characterized in that the similarity measure L (NJ) for a subsequence of electronic data examined at the time j of the analysis is determined from the sequence of electronic data as follows:
L(i> ■/) := β Jp^ J1^' - 1, 7 ~ α) + log(A,( (0O))+ c 1Og(X, O, )) wobei Xj die Elemente der Sequenz elektronischer Daten, pt , (•) und pe , (•) die /-ten E- lemente von insgesamt N Elementen der parametrisierten Modelldaten und c und am empirisch zu wählende Konstanten sind. L (i > ■ / ): = β Jp ^ J 1 ^ ' - 1, 7 ~ α ) + lo g ( A, ( (0 O ) ) + c 1 O g ( X, O, )) where X j are the elements of the sequence of electronic data, p t , (•) and p e , (•) the / th elements of a total of N elements of the parameterized model data and c and a m are constants to be chosen empirically.
Vorrichtung zur automatischen Mustererkennung in einer Sequenz elektronischer Daten mittels elektronischer Datenverarbeitung, mit einem Datenverarbeitungssystem, welches die folgenden Merkmale aufweist:Apparatus for automatic pattern recognition in a sequence of electronic data by means of electronic data processing, comprising a data processing system having the following features:
- Mustererkennungsmittel, die konfiguriert sind, in einer Analyse die Sequenz elektronischer Daten mit parametrisierten Modelldaten zu vergleichen, die wenigstens eine Mustersequenz repräsentieren, und die wenigstens eine Mustersequenz zu erkennen, wenn bei der Analyse ermittelt wird, dass von den parametrisierten Modelldaten um- fasste Modelldaten, welche der wenigstens einen Mustersequenz zugeordnet sind, mit einem eine Ähnlichkeitsmaßschwelle überschreitenden Ähnlichkeitsmaß auftreten, und - Modeldatenerzeugungsmittel, die konfiguriert sind, die parametrisierten Modelldaten unter Verwendung der Trainingsdaten zu erzeugen und hierbei die Trainingsdaten mittels eines Dynamic-Time-Warping- Verfahrens zu einem Satz von Merkmalsvektoren gleicher Länge und mit einem gleichen Informationsgehalt wie die Trainingsdaten zu verarbeiten, aus denen die parametrisierten Modelldaten abgeleitet werden, und - Bereitstellungsmittel, die konfiguriert sind, eine elektronisch auswertbare Erkennungsinformation über das Erkennen der wenigstens einen Mustersequenz für eine Ausgabe bereitzustellen. Pattern recognition means configured to compare, in an analysis, the sequence of electronic data with parameterized model data representing at least one pattern sequence and to recognize the at least one pattern sequence if the analysis determines that model data comprised by the parameterized model data assigned to the at least one pattern sequence having a similarity measure exceeding a similarity threshold, and - model data generating means configured to generate the parameterized model data using the training data, and thereby the training data to a set by a dynamic-time warping method feature vectors of equal length and informational content as the training data from which the parameterized model data is derived, and providing means configured to provide electronically evaluable recognition to provide gsinformation about recognizing the at least one pattern sequence for an output.
EP08801094A 2007-07-31 2008-07-31 Method and apparatus for automatic pattern recognition Withdrawn EP2174267A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007036277A DE102007036277A1 (en) 2007-07-31 2007-07-31 Method and device for automatic pattern recognition
PCT/DE2008/001256 WO2009015655A2 (en) 2007-07-31 2008-07-31 Method and apparatus for automatic pattern recognition

Publications (1)

Publication Number Publication Date
EP2174267A2 true EP2174267A2 (en) 2010-04-14

Family

ID=40175840

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08801094A Withdrawn EP2174267A2 (en) 2007-07-31 2008-07-31 Method and apparatus for automatic pattern recognition

Country Status (4)

Country Link
US (1) US20100217572A1 (en)
EP (1) EP2174267A2 (en)
DE (1) DE102007036277A1 (en)
WO (1) WO2009015655A2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009011826A2 (en) * 2007-07-13 2009-01-22 Dolby Laboratories Licensing Corporation Time-varying audio-signal level using a time-varying estimated probability density of the level
DE102015204208A1 (en) * 2015-03-10 2016-09-15 Bayerische Motoren Werke Aktiengesellschaft Method and control unit for monitoring a communication connection
CN110634050B (en) * 2019-09-06 2023-04-07 北京无限光场科技有限公司 Method, device, electronic equipment and storage medium for identifying house source type
US11281917B2 (en) * 2019-10-31 2022-03-22 Aptiv Technologies Limited Multi-domain neighborhood embedding and weighting of point cloud data
CN111694331B (en) * 2020-05-11 2021-11-02 杭州睿疆科技有限公司 System, method and computer equipment for adjusting production process parameters

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02263275A (en) * 1989-04-03 1990-10-26 Kiyadeitsukusu:Kk Preparing system for register pattern of handwritten character
DE69425166T2 (en) 1993-02-26 2001-03-15 Canon Kk Method and device for pattern recognition
DE69704201T2 (en) 1996-07-05 2001-10-11 Osmetech Plc Crewe PATTERN RECOGNITION BY MEANS OF NEURONAL NETWORK
WO1998005028A1 (en) 1996-07-29 1998-02-05 British Telecommunications Public Limited Company Pattern recognition
DE19650541C2 (en) * 1996-12-05 1999-05-12 Siemens Ag Method for determining a first reference lettering on the basis of several sample lettering
DE19741884C2 (en) 1997-09-23 2000-12-21 Daimler Chrysler Ag Method for determining relevant quantities that represent the cylinder pressure in the cylinders of an internal combustion engine
KR100828963B1 (en) 2000-08-11 2008-05-14 로베르트 보쉬 게엠베하 Knock recognition in internal combustion engines with modifications by changing filter characteristics or cylinder specific changes
DE10043498A1 (en) 2000-09-01 2002-03-14 Bosch Gmbh Robert Knock detection method for internal combustion engines
KR100580618B1 (en) * 2002-01-23 2006-05-16 삼성전자주식회사 Apparatus and method for recognizing user emotional status using short-time monitoring of physiological signals
DE10300204A1 (en) 2003-01-08 2004-07-22 Robert Bosch Gmbh Knock detection method and apparatus
US8346482B2 (en) * 2003-08-22 2013-01-01 Fernandez Dennis S Integrated biosensor and simulation system for diagnosis and therapy
DE10352860B4 (en) 2003-11-10 2013-10-31 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Method for evaluating correlated measuring data
US7223234B2 (en) * 2004-07-10 2007-05-29 Monitrix, Inc. Apparatus for determining association variables
US7519461B2 (en) * 2005-11-02 2009-04-14 Lear Corporation Discriminate input system for decision algorithm

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2009015655A2 *

Also Published As

Publication number Publication date
DE102007036277A1 (en) 2009-02-05
US20100217572A1 (en) 2010-08-26
WO2009015655A2 (en) 2009-02-05
WO2009015655A3 (en) 2009-03-26

Similar Documents

Publication Publication Date Title
EP3938807A2 (en) Method for recognising obstacles and for predicting the change of position of known obstacles by means of signals from a plurality of sensors and for compressing and decompressing sensor signals used for the above purposes
DE202017102238U1 (en) Aktorsteuerungssystem
DE102018200724A1 (en) Method and device for improving the robustness against "Adversarial Examples"
DE202017102235U1 (en) training system
EP1193688A2 (en) Method for determining an eigenspace to represent a plurality of trainingsspeakers
DE102017220307A1 (en) Device and method for recognizing traffic signs
DE60002290T2 (en) Method of detecting anomalies in a signal
EP2174267A2 (en) Method and apparatus for automatic pattern recognition
EP2172820A1 (en) Method and system for automated analysis of process data
EP1193689A2 (en) Method for the computation of an eigenspace for the representation of a plurality of training speakers
DE19636074C2 (en) Learning-capable image processing system for classification
EP1193687A2 (en) Speaker adaptation for a speech recognition
DE102019211672A1 (en) Training method for an artificial neural network
DE102010028845A1 (en) Method of detecting vehicle crash, involves directing processed oscillation signal to time domain by performing quefrency analysis to form time domain oscillation signal from which signal components with high/low quefrencies are separated
EP1989662B1 (en) Method for identifying objects, and object identification system
EP3786853A1 (en) Compression of a deep neural network
EP3857455A1 (en) Machine learning system and a method, a computer program and a device for creating the machine learning system
EP1281157A1 (en) Method and device for determining an object in an image
DE102021204040A1 (en) Method, device and computer program for creating training data in the vehicle
EP3701428B1 (en) Method and apparatus for improving the robustness of a machine learning system
WO2006134011A1 (en) Method for the computer-assisted processing of digital data
EP1400951B1 (en) Method for computerized speech recognition, a speech recognition system and a control system for controlling a technical system and telecommunication system
WO2020233991A1 (en) Method for operating a deep neural network
EP1889754B1 (en) Method and device for actuating personal protection device and computer program product
WO2002017127A2 (en) Method and device for the correlation analysis of data series

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20100128

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA MK RS

17Q First examination report despatched

Effective date: 20100823

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20140201