EP1789909A1 - Method for assigning a digital image to a class of a classification system - Google Patents

Method for assigning a digital image to a class of a classification system

Info

Publication number
EP1789909A1
EP1789909A1 EP05776279A EP05776279A EP1789909A1 EP 1789909 A1 EP1789909 A1 EP 1789909A1 EP 05776279 A EP05776279 A EP 05776279A EP 05776279 A EP05776279 A EP 05776279A EP 1789909 A1 EP1789909 A1 EP 1789909A1
Authority
EP
European Patent Office
Prior art keywords
class
image
values
shape
numerical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP05776279A
Other languages
German (de)
French (fr)
Other versions
EP1789909B1 (en
Inventor
Günther Coen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BFI VDEH Institut fuer Angewandte Forschung GmbH
Original Assignee
BFI VDEH Institut fuer Angewandte Forschung GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BFI VDEH Institut fuer Angewandte Forschung GmbH filed Critical BFI VDEH Institut fuer Angewandte Forschung GmbH
Publication of EP1789909A1 publication Critical patent/EP1789909A1/en
Application granted granted Critical
Publication of EP1789909B1 publication Critical patent/EP1789909B1/en
Not-in-force legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/186Extraction of features or characteristics of the image by deriving mathematical or geometrical properties from the whole image
    • G06V30/188Computation of moments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the invention relates to a method for assigning a digital image to a class of a classification system.
  • Optical error detection methods were carried out in the past by quality assurance personnel. These have considered the object to be checked or an image representation of the object to be checked and recognized possible errors.
  • weld seams are checked for types of defects by means of X-ray images, such as, for example, cracks, insufficient penetration, binding defects, slag, slag lines, pores, hose pores, wort I, root defects, heavy metal inclusions and edge offset.
  • X-ray images such as, for example, cracks, insufficient penetration, binding defects, slag, slag lines, pores, hose pores, wort I, root defects, heavy metal inclusions and edge offset.
  • it is known to view radioscopic images of castings in order to detect defects in the casting, for example foreign inclusions, gas inclusions, voids, such as yarn pockets or spongy voids, cracks or core supports.
  • the industry standard EN 1435 describes the classification system for weld defects.
  • the errors detected in welds and identified by means of X-ray images are divided into the 30 different classes, for example classes for the faults such as cracking
  • the faults such as cracking
  • each letter forms its own class, so that, for example, there are 26 classes for the capital letter alphabet, namely for the characters (A, B, C, D, E, F, G, H, I 1 J, K, L, M, N, O, P, Q, R, S, T, U, V, W, X, Y, Z).
  • OCR technologies Optical Character Recognition
  • the published European patent specifications 0 854 435 B1 and 0 649 113 B1 cover, for example, the technical field of optical character recognition (Optical Character Recognition).
  • Image preprocessing is the computer-aided improvement of the quality (processing: denoising, smoothing) of the respective digital image for easier visual perception of the information content of this image for the viewer.
  • Image analysis is the computer-aided evaluation of the information content of the respective digital image by automatic and reproducible structuring, recognition and understanding of this image.
  • the analysis of image sequences means the computer-aided evaluation of the information content of the respective sequence of digital images by automatic and reproducible structuring, recognition and understanding of all individual images of this sequence and by automatic and reproducible understanding of the context of the sequence of individual images follow-up.
  • Image archiving is the computer-aided compression and storage of digital images together with indexing search descriptors from a controlled vocabulary.
  • Imaging means the computer-aided generation of synthetic graphics and digital images for the visualization and explanation of the information content of complex processes on image and symbol level for the human observer.
  • the technique of associating the contents of digital images with a class of a classification system is a method of image analysis. This can be subdivided into three subareas: segmentation, object recognition and image understanding.
  • Segmentation is understood to mean the automatic and reproducible structuring of the respective digital image by separating the objects relevant for the analysis of the image from each other and from the background of the image.
  • Object recognition is the automatic and reproducible zierbare classification of the separated objects.
  • Image comprehension can be understood as the automatic and reproducible interpretation of the respective digital image by context evaluation of the classified, separated objects.
  • the technique of associating digital images with a class of a classification system is a method of object recognition.
  • the object recognition can be understood as a subarea of the pattern recognition and indeed as the subarea of the pattern recognition, which recognizes as pattern only planar objects in images.
  • the images are regularly displayed by an image composed of pixels, whereby the content of each pixel and its position in the image must be known in order to display the image.
  • the images can be stored in color images, grayscale images and binary images, with binary images as the content attribute, for example, only taking the values 0 and 1 for black and white.
  • malsvektoren ⁇ ( ⁇ ', ⁇ 2, ⁇ 3, ⁇ - *, ⁇ s, ⁇ , ⁇ 7), whose coordinates are dimensionless shape features done so that in particular size differences between the objects to be recognized and the objects used for the preparation of Ver ⁇ equal table meaningless. Furthermore, within the set of dimensionless shape features .phi. / By the coordinate reference to the feature vector .phi., An unambiguous order with respect to the relevance of the features for the object recognition in digital image processing is given, so that it is clear that the first feature .phi..sub.r is the most important is.
  • the object of the invention is to propose a method for assigning the content of a digital image to a class of a classification system, with which also characters of more complex form can be reliably recognized.
  • the invention is based on the idea of determining the image to be analyzed of a predetermined number of numerical shape features ⁇ m with m as count index running from 1 to F, where ⁇ m is a transformed expression of dimensionless, scaled, normalized, centralized pola ⁇ ren moment p m is.
  • These mutually independent shape features ⁇ m can be compared for matching the content of the digital image with stored in a table values for these shape features. If the values of all determined F shape features ⁇ m coincide with the F shape features ⁇ m stored for a class in the table, the image content of the analyzed image belongs to this class. Due to digital In this case, it is preferable to work with approximate values, so that a class assignment is also already output when the calculated F shape features ⁇ m approximately coincide with the F stored features ⁇ m of a class.
  • the numerical shape features ⁇ m proposed according to the invention for image analysis are independent of one another in such a way that a large number of shape features can be established without the dependency of the shape features on one another arises. As a result, an unambiguous assignment of the image contents to be recognized to a designated class can be achieved.
  • the method according to the invention is, in particular, independent of the relative position of the content to be recognized relative to the receiving device. Also, for example, rotated by 60 ° or 180 ° objects can be clearly assigned zuge ⁇ .
  • the method is based on the computation of a sequence of F functionally independent, dimensionless features of the separated, bounded content in the respective image.
  • the image is displayed in a conventional manner by N pixels, wherein a pixel in a predetermined coordinate system at the location (Xj, y j), and the image is on the coordinates (0,0) to (Xi ma ⁇ , yim a x) and imax is the maximum number of pixels in the direction of the x-coordinate and ymax is the maximum number of pixels in the direction of the y-coordinate and each pixel is assigned a content attribute data [j, i].
  • the content attribute is for a binary-represented image in which the respective pixel content assumes, for example, either the value 1 or 0 for black or white, for example a single value deposited in a table, and data [j, i] representatively for the value in this table at the location associated with the pixel.
  • the content attribute data [j, i] is representative of a vector which contains these three values for the respective pixel contains.
  • Data [j, i] can also be representative of other vectors, if other color representations are used, or greyscale representations, data [j, i] can also be representative of the magnitude of such a vector, if a multi-color representation is converted from a multi-color representation, for example an RGB representation, into a greyscale or even binary representation before the use of the classification method according to the invention.
  • data [j, i] can also stand for the individual value of the red representation, or green representation, or blue representation in the pixel.
  • the classification method is then carried out, for example, exclusively on the basis of a representation, for example the red representation, the method then being carried out in the same way as for the binary representation above. It is then also possible to use binary values 1 and 0 for data [j, i] at the image point, where 1 stands, for example, for red and 0 for empty.
  • the classification method can be performed in parallel for the different color representations, ie parallel for a binary red representation, a binary green representation and a binary blue representation. This increases the accuracy of the classification.
  • W 0 1 (Abf * ⁇ * ⁇ ⁇ (y -0,5) * ⁇ / ⁇ 4 /, /]
  • ⁇ a width of the pixel in x-coordinates direction
  • ⁇ b width of the pixel in y-coordinates direction data
  • ö, i] content attribute of the pixel at the position (y j , X 1 )
  • m continuous number from 1 to F.
  • the predetermined coordinate system is particularly preferably a Cartesian coordinate system, since most digital images define the pixels via a Cartesian coordinate system.
  • an image content is defined by the arrangement of pixels of the same content attribute.
  • the F-determined shape features of the image content yield a feature vector in a bounded, F-dimensional subarea (unit hypercube) of the F-dimensional feature space.
  • the content classification finally takes place by problem-specific clustering of this n-dimensional unit hypercube.
  • the classification system can be, for example, a given industry standard, such as EN 1435.
  • each person can form his own class.
  • the F shape features ⁇ m which characterize the fingerprint or the iris image of the person to be recognized, are filed.
  • the image of the iris taken by a recording unit for example a camera, is analyzed by the method according to the invention, wherein the F shape features ⁇ m of the recorded iris are calculated and compared with the shape feature values stored in the table. If there is an (approximate) agreement with all the values of the features ⁇ m of a class, then the system recognizes the person who is characterized by this class.
  • a method of least squares for example according to Gauss, can preferably be used.
  • the aforementioned method steps can be carried out for a plurality of groups with F numerical shape features ⁇ m , for example in a group for values of a red representation, in a group for values of a green representation and in a group for values of a blue representation.
  • the aforementioned method steps can also be carried out on content attributes data [j, i] which contain as vector the individual values of the individual color representations. Divisional calculation operations are then preferably carried out on the amounts of the vectors.
  • the shape feature ⁇ m is the transformation
  • the shape characteristic to be compared with the values stored in the table is preferably the shape feature ⁇ m obtained by means of the aforementioned transformation.
  • the series of F shape features can be subjected to an orthogonalization method, as is carried out, for example, according to E. Schmidt.
  • the shape characteristic to be compared can be converted in particular such that a series of F shape features ⁇ i, ⁇ 2, ⁇ 3 for a circle. ⁇ 4, ⁇ s ••• ⁇ F with values of 1, 0,0,0,0 ... 0 results.
  • the number F of the shape features is increased until the values of the shape features having the highest order numbers m decrease in all classes with increasing order number.
  • the values of the respective shape feature ⁇ m determined for the at least 29 samples per class can be arithmetically averaged to determine a value to be used for this class for this feature.
  • the number F can also be determined by way of a rotational ellipse determination method.
  • Such "cluster processes” are described, for example, in H. Niemann, Klasstechnik von Muster, Springer Verlag, Berlin, 1983, page 200ff.
  • the inventive method for assigning the content of a digital image in a class of a classification system is preferably used in the optical inspection of components, in particular in the optical surface chenenspektion. Furthermore, the method can be used for quality assurance, texture, shape and contour analysis, photogrammetry, character and character recognition, person recognition, robotic vision or the evaluation of radiographic or radioscopic images, ultrasound images and nuclear spin Tomography are used.
  • the images with respect to which the object recognition is carried out are "optical" images from the spectral range of visible light or radiographic or radioscopic Images or even synthetic imagery.
  • the method can therefore also be used in the field of optical surface inspection, such as in quality assurance, texture, shape and contour analysis, photogrammetry, character and character recognition, person recognition, robotic vision or the evaluation of radiographic or radioscopic images, ultrasound images and magnetic resonance tomography.
  • Fig. 1 shows three different representations of a first character to be recognized
  • Fig. 2 shows three representations of a second character to be recognized
  • FIG. 3 shows three representations of a third character to be recognized.
  • the letters A, B and C are respectively in three forms of representation i) normal, ii) normal but rotated by 90 °, iii) same orientation as normal but smaller. Furthermore, in addition to the centered orientations shown in the figures, one positioning on the left and one positioning on the right were examined.
  • ⁇ a width of the pixel in x-coordinate direction
  • ⁇ b width of the pixel in y-coordinate direction

Abstract

Disclosed is a method for assigning the content of a digital image to a class of a classification system. Said method comprises the following steps: —a predetermined number of F numerical shape characteristics ψm are determined; —the value of each shape characteristic of the F numerical shape characteristics determined for the image is compared to the value filed in a table for the respective shape characteristic, values for the individual numerical shape characteristics being allocated to each class in the table; —the class in which the F numerical shape characteristics determined for said image correspond best to the values of the numerical shape characteristics indicated in the table for said class is output as the class into which the image that is to be recognized is classified.

Description

Betriebsforschungsinstitut VDEh-Institut für angewandte Forschung GmbH Betriebsforschungsinstitut VDEh-Institute for Applied Research GmbH
Sohnstraße 65, 40042 DüsseldorfSohnstrasse 65, 40042 Dusseldorf
"Verfahren zur Zuordnung eines digitalen Bildes in eine Klasse eines Klassifizierungssvstems""Method for Assigning a Digital Image to a Class of a Classification System"
Die Erfindung betrifft ein Verfahren zur Zuordnung eines digitalen Bildes in eine Klasse eines Klassifizierungssystems.The invention relates to a method for assigning a digital image to a class of a classification system.
Mit der zunehmenden Automatisierung industrieller Prozesse erhält die Au¬ tomatisierung der Fehlererkennung auf Grundlage optischer Analysemetho¬ den zunehmend an Bedeutung. Optische Fehlererkennungsverfahren wur¬ den in der Vergangenheit von Qualitätssicherungspersonal durchgeführt. Diese haben das zu überprüfende Objekt oder eine Bilddarstellung des zu überprüfenden Objekts betrachtet und mögliche Fehler erkannt. Beispiels¬ weise werden Schweißnähte anhand von Röntgenbildern auf Fehlertypen, wie beispielsweise Risse, ungenügende Durchschweißungen, Bindefehler, Schlacke, Schlackenzeilen, Poren, Schlauchporen, Würze I kerben, Wurzel¬ fehler, Schwermetalleinschlüsse und Kantenversatz überprüft. Ferner ist es bekannt, radioskopische Bilder von Gußteilen zu betrachten, um Fehler in dem Gußteil zu erkennen, beispielsweise Fremdeinschlüsse, Gasein¬ schlüsse, Lunker, wie Fadenlunker oder schwammige Lunker, Risse oder Kernstützen. Da solche Fehler ihrer Art nach ähnlich, ihrer Ausprägung und Form nach jedoch unterschiedlich sein können, ist man bei der industriellen Fehlerüberprüfung dazu übergegangen, Fehler verschiedenen Klassen zu¬ zuordnen, wobei die jeweilige Klasse Fehler der gleichen Art enthält. Die In¬ dustrienorm EN 1435 beschreibt beispielsweise das Klassifizierungssystem für Schweißnahtfehler. Gemäß dieser Norm werden die bei Schweißnähten auftretenden, anhand von Röntgenbildern erkannten Fehler in die 30 ver- schiedene Klassen eingeteilt, beispielsweise Klassen für die Fehler Riß, wie beispielsweise Längsriß oder Querriß, ungenügende Durchschweißung, Bin¬ defehler, Fremdeinschlüsse, wie Schlacke, Schlackenzeile, Gaseinschlüsse, wie Pore oder Schlauchpore, oder Schwermetalleinschluß, Einbrandkerben, Würze I kerbe, Wurzelfehler, und Kantenversatz. Mit der Automatisierung der Prozesse ist man nun bestrebt, das optische Erkennen von Fehlern und Zu¬ ordnen dieser Fehler in vorgegebene Klassen durch Bildanalyse mit digitalen Bildaufnahmetechniken aufgenommener und gespeicherter Bilder zu errei¬ chen. Herkömmliche automatisierte Fehlererkennungsmethoden auf Grund¬ lage digitaler Bilder verwenden einen sogenannten "heuristischen Ansatz". Hier werden in einer Bildverarbeitungseinheit Referenzbilder abgelegt und durch einen Bildvergleich versucht, den Inhalt eines digitalen Bildes einem dieser Referenzmuster zuzuordnen.With the increasing automation of industrial processes, the automation of error detection on the basis of optical analysis methods is becoming increasingly important. Optical error detection methods were carried out in the past by quality assurance personnel. These have considered the object to be checked or an image representation of the object to be checked and recognized possible errors. By way of example, weld seams are checked for types of defects by means of X-ray images, such as, for example, cracks, insufficient penetration, binding defects, slag, slag lines, pores, hose pores, wort I, root defects, heavy metal inclusions and edge offset. Furthermore, it is known to view radioscopic images of castings in order to detect defects in the casting, for example foreign inclusions, gas inclusions, voids, such as yarn pockets or spongy voids, cracks or core supports. Since such errors may be similar in nature, but different in their shape and form, in the case of industrial error checking, errors have been assigned to different classes, the respective class containing errors of the same type. For example, the industry standard EN 1435 describes the classification system for weld defects. According to this standard, the errors detected in welds and identified by means of X-ray images are divided into the 30 different classes, for example classes for the faults such as cracking For example, longitudinal crack or transverse crack, insufficient Durchschweißung, Bin¬ defehler, foreign inclusions, such as slag, slag lines, gas inclusions, such as pore or hose pore, or heavy metal inclusion, Einbrandkerben, wort I score, root error, and edge offset. With the automation of the processes, efforts are now being made to achieve the optical recognition of errors and assigning these errors to given classes by image analysis with digital image recording techniques of recorded and stored images. Conventional automated error detection methods based on digital images use a so-called "heuristic approach". Here reference images are stored in an image processing unit and attempted by an image comparison to assign the content of a digital image to one of these reference patterns.
Auf anderen technologischen Gebieten wird die Zuordnung von Bildinhalten zu Klassen eines Klassifizierungssystems beispielsweise in der Schrifterken¬ nung eingesetzt. Hier bildet beispielsweise jeder Buchstabe seine eigene Klasse, so daß für das Großbuchstabenalphabet beispielsweise 26 Klassen bestehen, nämlich für die Zeichen (A, B, C, D, E, F, G, H, I1 J, K, L, M, N, O, P, Q, R, S, T, U, V, W, X, Y, Z). Die OCR-Technologien (Optical Character Recognition) analysieren das durch einen Scanner erzeugte digitale Abbild einer geschriebenen Seite und ordnen die singularisierten Buchstabenzei¬ chen den vorgegebenen Klassen zu. Im Ergebnis "erkennt" die OCR-Tech- nologie den Text und kann die klassifizierten Zeichen einem Textverarbei¬ tungsprogramm als editierbare Buchstabenreihenfolge übergeben. Die er- teilten europäischen Patentschriften 0 854 435 B1 und 0 649 113 B1 be¬ fassen sich beispielsweise mit dem technischen Gebiet der Zeichenerken¬ nung (Optical Character Recognition).In other technological fields, the assignment of image contents to classes of a classification system is used, for example, in text recognition. Here, for example, each letter forms its own class, so that, for example, there are 26 classes for the capital letter alphabet, namely for the characters (A, B, C, D, E, F, G, H, I 1 J, K, L, M, N, O, P, Q, R, S, T, U, V, W, X, Y, Z). The OCR technologies (Optical Character Recognition) analyze the digital image of a written page generated by a scanner and assign the singularized letter symbols to the given classes. As a result, the OCR technology "recognizes" the text and can pass the classified characters to a text processing program as an editable letter order. The published European patent specifications 0 854 435 B1 and 0 649 113 B1 cover, for example, the technical field of optical character recognition (Optical Character Recognition).
Zunehmend läßt sich die Technik der Bildverarbeitung in Bereiche unter- schiedlicher Teilprozesse unterteilen, deren Technologien sich unabhängig von einander weiterentwickeln. Diese Bereiche werden häufig in die Bildvor¬ verarbeitung, Bildanalyse, Analyse von Bildfolgen, Bildarchivierung und das sogenannte Imaging gegliedert. Unter Bildvorverarbeitung versteht man die computergestützte Verbesserung der Qualität (Aufbereitung: Entrauschung, Glättung) des jeweiligen digitalen Bildes zur leichteren visuellen Wahrnehmung des Informationsgehaltes die¬ ses Bildes für den Betrachter.Increasingly, the technology of image processing can be subdivided into areas of different subprocesses whose technologies evolve independently of each other. These areas are frequently subdivided into image preprocessing, image analysis, analysis of image sequences, image archiving and so-called imaging. Image preprocessing is the computer-aided improvement of the quality (processing: denoising, smoothing) of the respective digital image for easier visual perception of the information content of this image for the viewer.
Unter Bildanalyse versteht man die computergestützte Auswertung des In¬ formationsgehaltes des jeweiligen digitalen Bildes durch automatisches und reproduzierbares Strukturieren, Erkennen und Verstehen dieses Bildes.Image analysis is the computer-aided evaluation of the information content of the respective digital image by automatic and reproducible structuring, recognition and understanding of this image.
Unter der Analyse von Bildfolgen versteht man die computergestützte Aus¬ wertung des Informationsgehaltes der jeweiligen Folge von digitalen Bildern durch automatisches und reproduzierbares Strukturieren, Erkennen und Ver¬ stehen aller Einzelbilder dieser Folge und durch automatisches und reprodu¬ zierbares Verstehen des Kontextes der Abfolge der Einzelbilder dieser BiId- folge.The analysis of image sequences means the computer-aided evaluation of the information content of the respective sequence of digital images by automatic and reproducible structuring, recognition and understanding of all individual images of this sequence and by automatic and reproducible understanding of the context of the sequence of individual images Follow-up.
Unter Bildarchivierung versteht man die computergestützte Kompression und Speicherung von digitalen Bildern zusammen mit indizierenden Suchdes¬ kriptoren aus einem kontrollierten Vokabular.Image archiving is the computer-aided compression and storage of digital images together with indexing search descriptors from a controlled vocabulary.
Unter Imaging versteht man die computergestützte Erzeugung synthetischer Graphiken und digitaler Bilder zur Visualisierung und Erläuterung des Infor¬ mationsgehaltes komplexer Prozesse auf Bild- und Symbolebene für den menschlichen Betrachter.Imaging means the computer-aided generation of synthetic graphics and digital images for the visualization and explanation of the information content of complex processes on image and symbol level for the human observer.
Die Technik des Zuordnens der Inhalte digitaler Bilder zu einer Klasse eines Klassifizierungssystems ist ein Verfahren der Bildanalyse. Diese läßt sich in drei Teilbereiche: Segmentierung, Objekterkennung und Bildverstehen un¬ terteilen.The technique of associating the contents of digital images with a class of a classification system is a method of image analysis. This can be subdivided into three subareas: segmentation, object recognition and image understanding.
Unter Segmentierung versteht man das automatische und reproduzierbare Strukturieren des jeweiligen digitalen Bildes durch Separieren der für die Analyse des Bildes relevanten Objekte voneinander und vom Bildhinter¬ grund. Unter Objekterkennung versteht man die automatische und reprodu- zierbare Klassifikation der separierten Objekte. Das Bildverstehen kann auf¬ gefaßt werden als das automatische und reproduzierbare Interpretieren des jeweiligen digitalen Bildes durch Kontextbewertung der klassierten, sepa¬ rierten Objekte. Die Technik des Zuordnens digitaler Bilder zu einer Klasse eines Klassifizierungssystems ist ein Verfahren der Objekterkennung.Segmentation is understood to mean the automatic and reproducible structuring of the respective digital image by separating the objects relevant for the analysis of the image from each other and from the background of the image. Object recognition is the automatic and reproducible zierbare classification of the separated objects. Image comprehension can be understood as the automatic and reproducible interpretation of the respective digital image by context evaluation of the classified, separated objects. The technique of associating digital images with a class of a classification system is a method of object recognition.
Die Objekterkennung kann aufgefaßt werden als ein Teilgebiet der Musterer¬ kennung und zwar als das Teilgebiet der Mustererkennung, das als Muster nur ebene Objekte in Bildern erkennt.The object recognition can be understood as a subarea of the pattern recognition and indeed as the subarea of the pattern recognition, which recognizes as pattern only planar objects in images.
Die Darstellung der Bilder erfolgt regelmäßig durch ein aus Bildpunkten zu¬ sammengesetztes Bild, wobei zur Darstellung des Bilds der Inhalt eines je¬ den Bildpunktes und dessen Lage im Bild bekannt sein muß. Abhängig von dem Inhaltsattribut lassen sich die Bilder in Farbbilder, Grauwertbilder und Binärbilder, wobei Binärbilder als Inhaltsattribut beispielsweise nur die Werte 0 und 1 für schwarz und weiß annehmen.The images are regularly displayed by an image composed of pixels, whereby the content of each pixel and its position in the image must be known in order to display the image. Depending on the content attribute, the images can be stored in color images, grayscale images and binary images, with binary images as the content attribute, for example, only taking the values 0 and 1 for black and white.
Ein in der Technik häufig eingesetztes Verfahren zur Zuordnung eines digi¬ talen Bildes in eine Klasse eines Klassifizierungssystems, das jahrzehntelang erfolgreich zur Unterscheidung militärischer Flugzeuge (Freund-Feind- Erkennung) eingesetzt wurde, ist aus M. K. Hu: "Visual Pattern Recognition by Moment Invariants", IRE Trans. Info. Theory, vol. IT-8, 1962, pp. 179-187 und R. C. Gonzalez, R. E. Woods: "Digital Image Processing", Addison- Wesley Publishing Company, 1992, pp. 514-518 bekannt. Auf der Basis der so genannten normierten, zentralisierten axialen Momente, die durch Bilda¬ nalysetechniken aus der Bildwiedergabe gewonnen werden, läßt sich durch Skalierung für jedes beliebige, separierte, beschränkte, ebene Objekt in ei¬ nem Binärbild eine endliche Folge {φ/} von 7 dimensionslosen Formmerkma¬ len erzeugen. Betrachtet man die 7 Folgenglieder <j>/(0 < / < lo = 7) als die Ko- ordinaten eines Merkmalsvektors Φ=(φ*, φ2, φa, φ<, φs, φβ, φz), der Element ei¬ nes 7-dimensionalen, euklidischen Merkmalsraums M7 ist, dann induziert dieses Verfahren eine Objekterkennung in diesem 7-dimensionalen Merk¬ malsraum M7. Sie hat, gemessen an der Objekterkennung mittels heuristi¬ scher Merkmale die Vorteile, daß die Klassierung ausschließlich mit Merk- malsvektoren Φ=(Φ', φ2, φ3, φ-*, φs, φβ, φ7), deren Koordinaten dimensionslose Formmerkmale sind, geschieht, so daß insbesondere Größenunterschiede zwischen den zu erkennenden Objekten und den für die Erstellung der Ver¬ gleichstabelle verwendeten Objekten bedeutungslos sind. Ferner ist inner- halb der Menge der dimensionslosen Formmerkmale φ/ durch den Koordina¬ tenbezug zum Merkmalsvektors Φ eine eindeutige Reihenfolge bezüglich der Relevanz der Merkmale für die Objekterkennung in der digitalen Bildverar¬ beitung vorgegeben, so daß eindeutig ist, daß das erste Merkmal φr das wichtigste ist.A method frequently used in technology for assigning a digital image to a class of a classification system that has been used successfully for decades to distinguish military aircraft (friend-enemy recognition) is known from MK Hu: "Visual Pattern Recognition by Moment Invariants". , IRE Trans. Info. Theory, vol. IT-8, 1962, pp. 179-187 and RC Gonzalez, RE Woods: "Digital Image Processing", Addison-Wesley Publishing Company, 1992, p. 514-518 known. On the basis of the so-called normalized, centralized axial moments, which are obtained from image reproduction by means of image analysis techniques, a finite sequence {φ /} can be obtained by scaling for any, separated, bounded, planar object in a binary image 7 generate dimensionless shape characteristics len. If we consider the 7 sequence terms <j> / (0 </ <lo = 7) as the coordinates of a feature vector Φ = (φ *, φ2, φa, φ <, φs, φβ, φz), the element ei¬ nes 7-dimensional, Euclidean feature space M7, then this method induces an object recognition in this 7-dimensional feature space M7. It has, compared to the object recognition by means of heuristic features, the advantages that the classification is carried out exclusively with characteristics. malsvektoren Φ = (Φ ', φ2, φ3, φ- *, φs, φβ, φ7), whose coordinates are dimensionless shape features done so that in particular size differences between the objects to be recognized and the objects used for the preparation of Ver¬ equal table meaningless. Furthermore, within the set of dimensionless shape features .phi. / By the coordinate reference to the feature vector .phi., An unambiguous order with respect to the relevance of the features for the object recognition in digital image processing is given, so that it is clear that the first feature .phi..sub.r is the most important is.
Dennoch ist dieses Verfahren nachteilbehaftet, da die Zahl der verfügbaren dimensionslosen Formmerkmale auf 7 begrenzt ist und somit bei komplexen Objekten eine Fehlklassifizierung erfolgen kann, wenn sich für zwei unter¬ schiedliche Klassen gleiche Werte für die 7 dimensionslosen Formmerkmale ergeben.Nevertheless, this method is disadvantageous, since the number of available dimensionless shape features is limited to 7 and thus can be misclassified for complex objects, if the same values for the two dimensionless shape features result for two different classes.
Vor diesem Hintergrund liegt der Erfindung die Aufgabe zugrunde, ein Ver¬ fahren zum Zuordnen des Inhalts eines digitalen Bildes in eine Klasse eines Klassifizierungssystems vorzuschlagen, mit dem auch Zeichen komplexerer Form sicher erkannt werden können.Against this background, the object of the invention is to propose a method for assigning the content of a digital image to a class of a classification system, with which also characters of more complex form can be reliably recognized.
Diese Aufgabe wird mit den Verfahren gemäß dem Anspruch 1 gelöst. Vor¬ teilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This object is achieved by the method according to claim 1. Advantageous embodiments are specified in the subclaims.
Die Erfindung geht von dem Grundgedanken aus, für das zu analysierende Bild einer vorbestimmte Anzahl von numerischen Formmerkmalen Ψm mit m als Zählindex, der von 1 bis F läuft, zu ermitteln, wobei Ψm ein transformierter Ausdruck des dimensionslosen, skalierten, normierten, zentralisierten, pola¬ ren Moment pm ist. Diese voneinander unabhängigen Formmerkmale ψm können zur Zuordnung des Inhalts des digitalen Bildes mit in einer Tabelle abgelegten Werten für diese Formmerkmale verglichen werden. Bei einer Übereinstimmung der Werte sämtlicher ermittelter F Formmerkmale ψm mit den für eine Klasse in der Tabelle abgelegten F Formmerkmalen ψm gehört der Bildinhalt des analysierten Bildes dieser Klasse an. Aufgrund der Digitali- sierung ist hierbei bevorzugt mit Nährungswerten zu arbeiten, so daß eine Klassenzuordnung auch bereits dann ausgegeben wird, wenn die berech¬ neten F Formmerkmale ψm näherungsweise mit den F abgelegten Form¬ merkmalen ψm einer Klasse übereinstimmen.The invention is based on the idea of determining the image to be analyzed of a predetermined number of numerical shape features Ψ m with m as count index running from 1 to F, where Ψ m is a transformed expression of dimensionless, scaled, normalized, centralized pola¬ ren moment p m is. These mutually independent shape features ψ m can be compared for matching the content of the digital image with stored in a table values for these shape features. If the values of all determined F shape features ψ m coincide with the F shape features ψ m stored for a class in the table, the image content of the analyzed image belongs to this class. Due to digital In this case, it is preferable to work with approximate values, so that a class assignment is also already output when the calculated F shape features ψ m approximately coincide with the F stored features ψ m of a class.
Im Gegensatz zu der aus dem Stand der Technik bekannten auf 7 Form¬ merkmale begrenzten Methode sind die erfindungsgemäß zu Bildanalyse vorgeschlagenen numerischen Formmerkmale ψm derart unabhängig von¬ einander, daß eine große Zahl von Formmerkmalen aufgestellt werden kann, ohne das eine Abhängigkeit der Formmerkmale zueinander entsteht. Da¬ durch kann eine eindeutige Zuordnung der zuerkennenden Bildinhalte in eine vorgesehene Klasse erreicht werden.In contrast to the method known from the prior art, which is limited to 7 form features, the numerical shape features ψ m proposed according to the invention for image analysis are independent of one another in such a way that a large number of shape features can be established without the dependency of the shape features on one another arises. As a result, an unambiguous assignment of the image contents to be recognized to a designated class can be achieved.
Das erfindungsgemäße Verfahren ist insbesondere unabhängig von der re- lativen Lage des zu erkennenden Inhalts zu der Aufnahmevorrichtung. Auch um beispielsweise 60° oder 180° gedrehte Objekte können eindeutig zuge¬ ordnet werden.The method according to the invention is, in particular, independent of the relative position of the content to be recognized relative to the receiving device. Also, for example, rotated by 60 ° or 180 ° objects can be clearly assigned zuge¬.
Das Verfahren basiert auf der Berechnung einer Folge von F funktional un- abhängigen, dimensionslosen Merkmalen des separierten, beschränkten Inhalts im jeweils vorliegenden Bild.The method is based on the computation of a sequence of F functionally independent, dimensionless features of the separated, bounded content in the respective image.
Das Bild wird in herkömmlicher Weise durch N Bildpunkte dargestellt, wobei ein Bildpunkt in einem vorbestimmten Koordinatensystem an dem Ort (Xj, yj) liegt und das Bild sich über die Koordinaten (0,0) bis (Ximaχ, yimax) erstreckt und imax die maximale Zahl der Bildpunkte in Richtung der x-Koordinate und ymax die maximale Zahl der Bildpunkte in Richtung der y-Koordinate ist und jedem Bildpunkt ein Inhaltsattribut data [j,i] zugeordnet ist.The image is displayed in a conventional manner by N pixels, wherein a pixel in a predetermined coordinate system at the location (Xj, y j), and the image is on the coordinates (0,0) to (Xi ma χ, yim a x) and imax is the maximum number of pixels in the direction of the x-coordinate and ymax is the maximum number of pixels in the direction of the y-coordinate and each pixel is assigned a content attribute data [j, i].
Das Inhaltsattribut ist für eine binär-dargestelltes Bild, bei dem der jeweilige Bildpunktinhalt beispielsweise entweder den Wert 1 oder 0 für schwarz oder weiß annimmt, beispielsweise ein einzelner Wert, der in einer Tabelle abge¬ legt ist, und data [j,i] stellvertretend für den Wert in dieser Tabelle am dem dem Bildpunkt zugeordneten Ort ist. Bei farbigen Bildern, bei denen sich das Inhaltsattribut jedes Bildpunkt beispielsweise aus drei Werten für die 3 Far¬ bendarstellung "rot,grün,blau" (RGB-Darstellung) zusammensetzt, ist das Inhaltsattribut data [j,i] beispielsweise stellvertretend für einen Vektor, der diese drei Werte für den jeweiligen Bildpunkt enthält. Data[j,i] kann auch stellvertretend für andere Vektoren sein, falls andere Farbdarstellungen ver¬ wendet werden, bzw. Graustufendarstellungen, data [j,i] kann auch stellver¬ tretend für den Betrag eines solchen Vektors stehen, wenn eine Mehrfar¬ bendarstellung vor dem Einsatz des erfindungsgemäßen Klassifizierungs¬ verfahrens von einer Mehrfarbendarstellung, beispielsweise einer RGB-Dar- Stellung, in eine Graustufen oder sogar binäre Darstellung umgewandelt wird.The content attribute is for a binary-represented image in which the respective pixel content assumes, for example, either the value 1 or 0 for black or white, for example a single value deposited in a table, and data [j, i] representatively for the value in this table at the location associated with the pixel. For colored pictures where the For example, if the content attribute of each pixel is composed of three values for the three color representations "red, green, blue" (RGB representation), the content attribute data [j, i] is representative of a vector which contains these three values for the respective pixel contains. Data [j, i] can also be representative of other vectors, if other color representations are used, or greyscale representations, data [j, i] can also be representative of the magnitude of such a vector, if a multi-color representation is converted from a multi-color representation, for example an RGB representation, into a greyscale or even binary representation before the use of the classification method according to the invention.
Bei einer Farbdarstellung, beispielsweise einer RGB-Darstellung, kann data[j,i] zudem auf für den Einzelwert der Rot-Darstellung, bzw. Grün-Dar¬ stellung, bzw. Blau-Darstellung im Bildpunkt stehen. Das Klassifizierungs- verfahren wird dann beispielsweise ausschließlich anhand einer Darstellung, beispielsweise der Rot-Darstellung, durchgeführt, wobei das Verfahren dann gleich dem vorstehenden Verfahren für Binär-Darstellungen durchgeführt wird. Es können dann ebenfalls binäre Werte 1 und 0 für data[j,i] am Bild¬ punkt verwendet werden, wobei 1 beispielsweise für rot und 0 für leer steht. Ebenso kann das Klassifizierungsverfahren parallel für die verschiedenen Farb-Darstellungen durchgeführt werden, also parallel für eine binäre Rot- Darstellung, eine binäre Grün-Darstellung und eine binäre Blau-Darstellung. Hierdurch wird die Genauigkeit der Klassifizierung erhöht.In a color representation, for example an RGB representation, data [j, i] can also stand for the individual value of the red representation, or green representation, or blue representation in the pixel. The classification method is then carried out, for example, exclusively on the basis of a representation, for example the red representation, the method then being carried out in the same way as for the binary representation above. It is then also possible to use binary values 1 and 0 for data [j, i] at the image point, where 1 stands, for example, for red and 0 for empty. Likewise, the classification method can be performed in parallel for the different color representations, ie parallel for a binary red representation, a binary green representation and a binary blue representation. This increases the accuracy of the classification.
Das in das numerische Formmerkmal ψm transformierte Moment pm berech¬ net sich ausThe numeric in the shape feature ψ m transformed moment p m berech¬ net from
J max ; maxJ max; Max
A = w00 = Δo * Ab * ∑ £ύfata[/,/]A = w 00 = Δo * Ab * Σ £ ύfata [/, /]
/ = 1 ι = l v„ υ„/ = 1 ι = l v "υ"
Rm =R m =
On m 0,0O n m 0,0
/ max i max υm = Aa * Ab * Σ ∑ ∑(Ä(y,0)"ώta[/,'1/ max i max υ m = Aa * Ab * Σ Σ Σ (λ (y, 0) "ώta [/, '1
/ = 1 Σ I = I τ-.\2/ = 1 Σ I = I τ -. \ 2
RU, 0 = >/((' - 0>5) * Δα - x)2 + ((; - 0,5) * Ab - y)RU, 0 => / (('- 0> 5) * Δα - x) 2 + ((- 0.5) * Ab - y)
'1,0 m, 0,0'1.0 m, 0.0
"V1 "V 1
^ = wo,o y max / max^ = w o, oy max / max
/«, 0 = (Aa)2 * Ab * ∑ ∑(z - 0,5) * Jαtof;,/] l =\ /=1 y max i max/ «, 0 = (Aa) 2 * Ab * Σ Σ (z - 0.5) * Jαtof;, /] l = \ / = 1 y max i max
W0 1 = (Abf * Δα * ∑ ∑(y -0,5) * </α4/,/]W 0 1 = (Abf * Δα * Σ Σ (y -0,5) * </ α4 /, /]
/=1 ,=l/ = 1, = l
Δa = Breite des Bildpunktes in x-Koordinaten Richtung Δb = Breite des Bildpunktes in y-Koordinaten Richtung data ö,i] = Inhaltsattribut des Bildpunkts an der Stelle (yj, X1) m = Durchlaufende Zahl von 1 bis F.Δa = width of the pixel in x-coordinates direction Δb = width of the pixel in y-coordinates direction data ö, i] = content attribute of the pixel at the position (y j , X 1 ) m = continuous number from 1 to F.
Das vorbestimmte Koordinatensystem ist besonders bevorzugt ein kartesi- sche Koordinatensystem, da die meisten digitalen Bilder die Bildpunkte über ein kartesisches Koordinatensystem definieren. Es können jedoch auch an¬ dere Koordinatensysteme, beispielsweise polare Koordinatensysteme einge¬ setzt werden.The predetermined coordinate system is particularly preferably a Cartesian coordinate system, since most digital images define the pixels via a Cartesian coordinate system. However, it is also possible to use other coordinate systems, for example polar coordinate systems.
Während derzeit digitale Bilder in der Regel mit 1 bis zu 3 Millionen BiId- punkten (pixel) dargestellt werden können, ist zu erwarten, daß sich die Zahl N mit dem Fortschritt der Bildaufnahme und -Verarbeitungstechnik zuneh¬ mend erhöht, so daß die vorgenannten Summenfunktionen annähernd in Integralfunktionen übergehen.Whereas currently digital images can generally be represented with 1 to 3 million image points (pixels), it is to be expected that the number N will increase progressively with the progress of image acquisition and processing technology, so that the abovementioned summation functions approximately transition into integral functions.
Insbesondere wird ein Bildinhalt durch die Anordnung von Bildpunkten glei¬ chen Inhaltsattributs definiert. Die F ermittelten Formmerkmale des Bildinhalts ergeben einen Merkmals¬ vektor in einem beschränkten, F-dimensionalen Teilbereich (Einheits-Hyper- würfel) des F-dimensionalen Merkmalsraum. Die Inhaltsklassierung ge¬ schieht schließlich durch problemspezifisches Clustern dieses n-dimensio- nalen Einheits-Hyperwürfels.In particular, an image content is defined by the arrangement of pixels of the same content attribute. The F-determined shape features of the image content yield a feature vector in a bounded, F-dimensional subarea (unit hypercube) of the F-dimensional feature space. The content classification finally takes place by problem-specific clustering of this n-dimensional unit hypercube.
Das Klassifizierungssystem kann beispielsweise eine vorgegebene Indu¬ strienorm sein, wie beispielsweise die EN 1435. Bei der Personenerkennung kann beispielsweise jede Person eine eigene Klasse bilden. So werden in der Vergleichstabelle die F Formmerkmale ψm , die den Fingerabdruck oder das Iris-Bild der zu erkennenden Person charakterisieren, abgelegt. Zur Personenerkennung wird das von einer Aufnahmeeinheit, beispielsweise Kamera, aufgenommene Bild der Iris nach dem erfindungsgemäßen Verfahren analysiert, wobei die F Formmerkmale ψm der aufgenommenen Iris berechnet werden und mit den in der Tabelle abgelegten Formmerkmals- Werten verglichen werden. Ergibt sich eine (annäherungsweise) Übereinstimmung mit allen Werten der Formmerkmale ψm einer Klasse, so hat das System die Person, die durch diese Klasse charakterisiert wird erkannt. Für die Bestimmung der näherungsweisen Übereinstimmung kann vorzugsweise eine Methode der kleinsten Quadrate, beispielsweise nach Gauss, verwendet werden.The classification system can be, for example, a given industry standard, such as EN 1435. In the case of person recognition, for example, each person can form his own class. Thus, in the comparison table, the F shape features ψ m , which characterize the fingerprint or the iris image of the person to be recognized, are filed. For person recognition, the image of the iris taken by a recording unit, for example a camera, is analyzed by the method according to the invention, wherein the F shape features ψ m of the recorded iris are calculated and compared with the shape feature values stored in the table. If there is an (approximate) agreement with all the values of the features ψ m of a class, then the system recognizes the person who is characterized by this class. For the determination of the approximate match, a method of least squares, for example according to Gauss, can preferably be used.
Wird ein digitales Bild erkannt, daß in einer anderen als einer Binär-Darstel- lung dargestellt wird, so können die vorgenannten Verfahrensschritte für mehrere Gruppen mit F numerischen Formmerkmalen ψm durchgeführt wer¬ den, beispielsweise in einer Gruppe für Werte einer Rot-Darstellung, in einer Gruppe für Werte einer Grün-Darstellung und in einer Gruppe für Werte einer Blau-Darstellung. Alternativ können die vorgenannten Verfahrensschritte auch an Inhaltsattributen data[j,i] durchgeführt werden, die als Vektor die einzelnen Werte der einzelnen Farb-Darstellungen enthalten. Divisions-Re¬ chenoperationen werden dann bevorzugt an den Beträgen der Vektoren durchgeführt. In einer bevorzugten Ausführungsform wird das Formmerkmal ψm durch die TransformationIf a digital image is recognized that is displayed in a representation other than a binary representation, the aforementioned method steps can be carried out for a plurality of groups with F numerical shape features ψ m , for example in a group for values of a red representation, in a group for values of a green representation and in a group for values of a blue representation. Alternatively, the aforementioned method steps can also be carried out on content attributes data [j, i] which contain as vector the individual values of the individual color representations. Divisional calculation operations are then preferably carried out on the amounts of the vectors. In a preferred embodiment, the shape feature ψ m is the transformation
ermittelt. Als Transformation von ψm zu pm sind jedoch auch andere Trans¬ formationen, sogar eine Gleichsetzung ψm = p"' möglich.determined. As a transformation from ψ m to p m , however, other transformations, even an equation ψ m = p "'are possible.
Das mit den in der Tabelle abgelegten Werten zu vergleichende Formmerk- mal ist vorzugsweise das mittels der vorgenannten Transformation gewon¬ nene Formmerkmal ψm. Vor dem Vergleich mit den Tabellenwerten oder in der Transformation aus pm kann die Reihe der F Formmerkmale einem Or- thogonalisierungsverfahren unterworfen werden, wie es beispielsweise nach E. Schmidt durchgeführt wird. Hierbei können die zu vergleichenden Form- merkmal insbesondere derart umgerechnet werden, daß sich für einen Kreis eine Reihe von F Formmerkmalen ψi, ψ2, ψ3. ψ4, ψs ••• ΨF mit Werten von 1 ,0,0,0,0 ... 0 ergibt.The shape characteristic to be compared with the values stored in the table is preferably the shape feature ψ m obtained by means of the aforementioned transformation. Before the comparison with the table values or in the transformation from p m , the series of F shape features can be subjected to an orthogonalization method, as is carried out, for example, according to E. Schmidt. In this case, the shape characteristic to be compared can be converted in particular such that a series of F shape features ψi, ψ2, ψ3 for a circle. ψ4, ψs ••• ΨF with values of 1, 0,0,0,0 ... 0 results.
Um die Zahl F der numerischen Formmerkmale ψm festzulegen, kann aus mehreren, insbesondere mehr als 29 Proben pro Klasse des Klassifizie¬ rungssystems die Zahl F ausgehend von F=1 soweit erhöht werden, daß sich die für die Proben einer Klasse ermittelten Werte für das jeweilige Form¬ merkmal ψm zu mindestens in einem numerischen Wert für mindestens ein Formmerkmal ψm von dem numerischen Wert dieses Formmerkmals ψm der anderen Klasse unterscheidet. Besonders bevorzugt wird die Zahl F der Formmerkmale soweit erhöht, bis die Werte der Formmerkmale mit den höchsten Ordnungsziffern m in allen Klassen mit zunehmender Ordnungs¬ ziffer abnehmen. Die für die mindestens 29 Proben pro Klasse ermittelten Werte des jeweiligen Formmerkmals ψm können zur Bestimmung eines, für diese Klasse für dieses Formmerkmal einzusetzenden Werts arithmetisch gemittelt werden. Die nachfolgende wiedergegebene Tabelle nur zur Veranschaulichung frei gewählter Zahlenwerten zeigt, daß für die Bestimmung des Schweißnaht¬ fehlers auf die Zugehörigkeit zu den Fehlerklassen "Riß", "Pore", "Schlauchpore" eine Zahl F=1 von numerischen Formmerkmalen ψm nicht hinreichend präzise ist, da ψi sowohl für den Riß-Klasse als auch die Schlauchporen-Klassen nahezu gleiche Werte annimmt. Erst durch die Hin¬ zunahme des zweiten numerischen Formmerkmals ψ2 wird die Zuordnung eindeutig. Es zeigt sich, daß trotz der ähnlichen Zahlenwerte für ψ2 in der Klasse "Pore" und "Schlauchpore", dieses System aus nur zwei Formmerk¬ malen ψ12 geeignet ist, die 3 Fehler präzise zu klassifizieren.In order to determine the number F of numerical shape features ψ m , the number F, starting from F = 1, can be increased from several, in particular more than 29, samples per class of the classification system to such an extent that the values determined for the samples of one class for the class respective shape feature zu m differs from the numerical value of this shape feature ψ m of the other class in at least one numerical value for at least one shape feature ψ m . Particularly preferably, the number F of the shape features is increased until the values of the shape features having the highest order numbers m decrease in all classes with increasing order number. The values of the respective shape feature ψ m determined for the at least 29 samples per class can be arithmetically averaged to determine a value to be used for this class for this feature. The following reproduced table only to illustrate freely selected numerical values shows that a number F = 1 of numerical shape features ψ m is not sufficiently precise for the determination of the weld defect on belonging to the defect classes "crack", "pore", "pore pores" is that ψi assumes nearly the same values for both the crack class and the tube pore classes. Only by the addition of the second numerical feature ψ 2 is the assignment clear. It turns out that despite the similar numerical values for ψ 2 in the class "pore" and "hose pore", this system of only two shape features ψ 1 , ψ 2 is suitable for precisely classifying the 3 errors.
Die Zahl F kann jedoch auch im Wege eines Rotationsellipsen-Bestim¬ mungsverfahren ermittelt werden. Derartig "Cluster-Verfahren" werden bei¬ spielsweise in H. Niemann, Klassifikation von Mustern, Springer Verlag, Ber¬ lin, 1983, Seite 200ff beschrieben.However, the number F can also be determined by way of a rotational ellipse determination method. Such "cluster processes" are described, for example, in H. Niemann, Klassifikation von Muster, Springer Verlag, Berlin, 1983, page 200ff.
Das erfindungsgemäße Verfahren zur Zuordnung des Inhalts eines digitalen Bildes in eine Klasse eines Klassifizierungssystems wird bevorzugt bei der optischen Inspektion von Bauteilen, insbesondere bei der optischen Oberflä¬ cheninspektion eingesetzt. Ferner kann das Verfahren bei der Qualitätssi¬ cherung, der Textur-, Form- und Konturanalyse, der Photogrammetrie, der Zeichen- und Schrifterkennung, der Personenerkennung, der Robot-Vision oder der Auswertung von radiographischen oder radioskopischen Bildern, Ultraschall-Bildern und Kernspinn-Tomographie eingesetzt werden.The inventive method for assigning the content of a digital image in a class of a classification system is preferably used in the optical inspection of components, in particular in the optical surface chenenspektion. Furthermore, the method can be used for quality assurance, texture, shape and contour analysis, photogrammetry, character and character recognition, person recognition, robotic vision or the evaluation of radiographic or radioscopic images, ultrasound images and nuclear spin Tomography are used.
Dabei spielt es keine Rolle, ob es sich bei den Bildern, bezüglich derer die Objekterkennung durchgeführt wird, um "optische" Bilder aus dem Spektral¬ bereich des sichtbaren Lichts oder um radiographische bzw. radioskopische Bilder oder gar um synthetische Bilder aus dem Bereich Imaging handelt. Das Verfahren kann daher im Bereich der optischen Oberflächeninspektion ebenso eingesetzt werden, wie etwa bei der Qualitätssicherung, der Textur-, Form- und Konturanalyse, der Photogrammetrie, der Zeichen- und Schrifter- kennung, der Personenerkennung, der Robot-Vision oder der Auswertung von radiographischen bzw. radioskopischen Bildern, Ultraschall-Bildern und Kernspin-Tomographien.It does not matter whether the images with respect to which the object recognition is carried out are "optical" images from the spectral range of visible light or radiographic or radioscopic Images or even synthetic imagery. The method can therefore also be used in the field of optical surface inspection, such as in quality assurance, texture, shape and contour analysis, photogrammetry, character and character recognition, person recognition, robotic vision or the evaluation of radiographic or radioscopic images, ultrasound images and magnetic resonance tomography.
Wenn man im Rahmen dieses breiten Spektrums möglicher Anwendungen ein konkretes Problem der Objekterkennung angeht, dann steht der Komple¬ xitätsgrad des Problems von Beginn an fest:If one addresses a specific problem of object recognition in the context of this broad spectrum of possible applications, then the degree of complexity of the problem is clear from the beginning:
Es ist bekannt, in wie viele verschiedene Objektklassen K die zu erkennen¬ den Objekte einsortiert werden sollen. Im Gegensatz zur Klassierung auf der Basis heuristischer Merkmale kann bei dem neuen, algorithmischen Verfah¬ ren bezüglich jeder Objektklasse die Anzahl der Freiheitsgrade der Form anhand einer repräsentativen Stichprobe von Testobjekten experimentell ermittelt werden. Die Klassierung geschieht ausschließlich mit Merkmals¬ vektoren Ψ = (ψ/, ψä ψA ψ4 ψÄ ...., ψp). Der Merkmalsvektor jedes beliebigen, separierten, beschränkten, ebenen Objekts im Bild liegt im Innern eines beschränkten, normierten F-dimensionalen Teilbereichs ("Einheits-Hyper- würfel") eines F-dimensionalen Merkmalsraums. Die Musterklassierung ge¬ schieht durch problemspezifisches Clustern des Inneren dieses F-dimensio¬ nalen Einheits-Hyperwürfels.It is known in how many different object classes K the objects to be recognized are to be sorted. In contrast to the classification on the basis of heuristic features, the number of degrees of freedom of the form can be determined experimentally with reference to a representative sample of test objects in the new, algorithmic method with respect to each object class. The classification is done exclusively with feature vectors Ψ = (ψ / , ψ ä ψ A ψ 4 ψ Ä ...., ψp). The feature vector of any separated, bounded, planar object in the image lies inside a bounded, normalized F-dimensional subarea ("unit hypercube") of an F-dimensional feature space. Pattern classification takes place by problem-specific clustering of the interior of this F-dimensional unit hypercube.
Nachfolgend wird die Erfindung anhand einer, lediglich ein Ausführungsbei¬ spiel darstellende Zeichnung näher erläutert. Darin zeigenThe invention will be explained in more detail below with reference to a drawing which merely represents an exemplary embodiment. Show in it
Fjg. 1 drei unterschiedliche Wiedergaben eines ersten zu erkennenden Zeichens;Fig. 1 shows three different representations of a first character to be recognized;
Fig. 2 drei Darstellungen eines zweiten zu erkennenden Zeichens undFig. 2 shows three representations of a second character to be recognized and
Fig. 3 drei Darstellungen eines dritten zu erkennenden Zeichens. In den Figuren 1 , 2 und 3 sind die Buchstaben A, B und C jeweils in drei Darstellungsformen i) normal, ii) normal, aber um 90 ° gedreht, iii) gleiche Ausrichtung wie normal, jedoch kleiner dargestellt. Ferner wurde neben den in den Fig. dargestellten zentrierten Ausrichtungen noch eine Positionierung links und eine Positionierung rechts untersucht.3 shows three representations of a third character to be recognized. In Figures 1, 2 and 3, the letters A, B and C are respectively in three forms of representation i) normal, ii) normal but rotated by 90 °, iii) same orientation as normal but smaller. Furthermore, in addition to the centered orientations shown in the figures, one positioning on the left and one positioning on the right were examined.
Die nachfolgende Tabelle zeigt die Werte für ψi, wobei ψi nach der Bezie¬ hungThe following table shows the values for ψi, where ψi after the relationship
berechnet wurde.was calculated.
p1 ergibt sich dabei aus folgenden Beziehungenp 1 results from the following relationships
px = kι R] p x = k ι R ]
/ max πnax/ max πnax
A = m0 0 = Aa * Ab * J^1 ∑data[j,i]A = m 0 0 = Aa * Ab * J ^ 1 Σdata [j, i]
/ = 1 /=1/ = 1 / = 1
, i _ y. υ,, i _ y . υ,
R' = ^ = υn m 0,0R '= ^ = υ n m 0.0
RU, i) = V((/ - 0,5) * Aa - xf + (U - 0,5) * Ab - y -)\2RU, i) = V ((/ - 0.5) * Aa - xf + (U - 0.5) * Ab - y -) \ 2
mo,o y = m o, oy =
W0,0 mlfi W 0.0 m lfi
/ max i max/ max i max
W0 1 = (Ab)2 * Aa * ∑ ∑(/ " 0=5) * <foto[/,/]W 0 1 = (Ab) 2 * Aa * Σ Σ (/ "0 = 5) * <photo [/, /]
7 = 1 / = l7 = 1 / = l
Δa = Breite des Bildpunktes in x-Koordinaten RichtungΔa = width of the pixel in x-coordinate direction
= Δa = 0,3175 mm= Δa = 0.3175 mm
Δb = Breite des Bildpunktes in y-Koordinaten RichtungΔb = width of the pixel in y-coordinate direction
= Δb = 0,3175 mm data [j,i] = Inhaltsattribut des Bildpunkts an der Stelle (y,, Xi)= Δb = 0.3175 mm data [j, i] = content attribute of the pixel at the location (y ,, Xi)
Mit den vorgenannten Beziehung und den jeweiligen Datenfeldern für die jeweiligen Darstellungen, in denen Inhaltsattribute an den Stellen (yj, x,) abgelegt sind, ergeben sich die in der folgenden Tabelle wiedergegebenen Werte:With the aforementioned relationship and the respective data fields for the respective representations in which content attributes are stored at the points (y j , x,), the values shown in the following table result:
Tabelle der nummerischen Werte für das Formmerkmal ψiTable of numeric values for the characteristic ψi
Man erkennt, daß der Wert ψi für den Buchstaben A Werte um 0,57 ein¬ nimmt, für den Buchstaben B Werte um 0,6 und für den Buchstaben C Werte um 0,44. Unabhängig von der tatsächlichen Lage und Größe des Buchstabens kann mit dem erfindungsgemäßen Verfahren somit ein vorher definiertes Zeichen eindeutig erkannt werden. It can be seen that the value ψi assumes values of 0.57 for the letter A, values of 0.6 for the letter B and values of 0.44 for the letter C. Regardless of the actual position and size of the letter can thus be clearly recognized by the inventive method a previously defined character.

Claims

Patentansprüche: claims:
1. Verfahren zur Zuordnung des Inhalts eines digitalen Bildes in eine Klasse eines Klassifizierungssystems, wobei das Bild durch N Bildpunkte dargestellt wird, wobei ein Bildpunkt in einem vorbestimmtenA method for assigning the content of a digital image to a class of a classification system, wherein the image is represented by N pixels, wherein a pixel in a predetermined
Koordinatensystem an dem Ort (Xj, yj) liegt und das Bild sich über dieCoordinate system is located at the location (Xj, y j ) and the image is above the
Koordinaten (0,0) bis (ximax, yimax) erstreckt und imax die maximale Zahl der Bildpunkte in Richtung der x-Koordinate und jmax die maximale Zahl der Bildpunkte in Richtung der y-Koordinate ist und jedem Bildpunkt mindestens ein numerisches Inhaltsattribut data[j,i] zugeordnet ist, mit den folgenden Schritten:Coordinates (0,0) to (ximax, yimax) and imax is the maximum number of pixels in the x-coordinate direction and jmax is the maximum number of pixels in the y-coordinate direction and each pixel has at least one numeric content attribute data [j , i] is associated with the following steps:
Ermitteln mindestens einer Gruppe einer vorbestimmten Anzahl von F numerischen Formmerkmalen ψm mit m als Zählindex, wobei ψm ein transformierter Ausdruck des Moments pm ist und pm sich ausDetermining at least one group of a predetermined number of F numerical shape features ψ m with m as a count index, where ψ m is a transformed expression of the moment p m and p m from
pm = K Rm p m = KR m
On m 0,0 i] R(j,i) = yj((i - 0,5) * Aa - xγ + ((j - 0,5) * Ab - y — \)2O n m 0.0 i] R (j, i) = yj ((i - 0.5) * Aa - xγ + ((j - 0.5) * Ab - y - \) 2
x = • wo,o wo,i y =x = • w o, o w o, iy =
0,0 7 max / max muo = (Aa)2 * Δ6 * ∑ £(/ - 0,5) * ύforta[/,/]0.0 7 max / max m uo = (Aa) 2 * Δ6 * Σ £ (/ - 0.5) * ύforta [/, /]
7 = 1 ι=l j max /max7 = 1 ι = l j max / max
W0,, = (Δfc)2 * Δa * ∑ £(y - 0,5) * cVc7to[/,/]W 0 ,, = (Δfc) 2 * Δa * Σ £ (y - 0.5) * cVc7to [/, /]
7 = 1 ι = l7 = 1 ι = l
Δa = Breite des Bildpunktes in x-Koordinaten Richtung Δb = Breite des Bildpunktes in y-Koordinaten Richtung data [j,i] = Inhaltsattribut des Bildpunkts an der Stelle (yj, Xj) m = eine mit der Zählung der Formmerkmale durchlaufendeΔa = width of the pixel in x-coordinates direction Δb = width of the pixel in y-coordinates direction data [j, i] = content attribute of the pixel at the position (y j , Xj) m = one passing through the count of the shape features
Zahl von 1 bis F ergibt,Number from 1 to F,
Vergleichen des Werts jedes Formmerkmals der für das Bild bestimmten F nummerischen Formmerkmale in der mindestens einen Gruppe mit den in einer Tabelle zu dem jeweiligen Formmerkmal dieser Gruppe abgelegten Wert, wobei in der Tabelle jeder Klasse Werte für die einzelnen nummerischen Formmerkmale dieser Gruppe zugeordnet sind, - Ausgabe der Klasse als Zuordnungsklasse, in die das zu er¬ kennende Bild klassifiziert wurde, bei der die für das Bild be¬ stimmten F nummerischen Formmerkmale den in der Tabelle für diese Klasse angegebenen Werten der nummerischen Formmerkmale am besten entsprechen.Comparing the value of each shape feature of the F numerical shape features determined for the image in the at least one group with the value stored in a table for the respective shape feature of that group, wherein in the table of each class values for each numerical shape feature are assigned to that group, Output of the class as an assignment class into which the image to be determined has been classified, in which the numerical shape features determined for the image best correspond to the values of the numerical features specified in the table for this class.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, daß das Formmerkmalen ψm durch die Transformation2. The method according to claim 1, characterized in that the shape features ψ m by the transformation
ermittelt wird.is determined.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die3. The method according to claim 1 or 2, characterized in that the
Zahl F der nummerischen Formmerkmalen ψm aus mindestens 29 Proben pro Klasse des Klassifizierungssystems ermittelt wird, indem dieNumber F of the numerical shape characteristics ψ m is obtained from at least 29 samples per class of the classification system by the
Zahl F soweit erhöht wird, daß sich die für die Proben einer Klasse ermittelten Werte für die Formmerkmale ψm zumindest in ihrem num¬ merischen Wert für mindestens ein Formmerkmale ψm von den num¬ merischen Werten dieses Formmerkmals ψm der anderen Klassen unterscheiden.Number F is increased as far as that for the samples of a class determined values for the shape features ψ m at least in their numer¬ merischen value for at least one shape features ψ m different from the numer¬ merischen values of this shape feature ψ m the other classes.
4. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 3 zur Zuordnung von Fehlern von Gußteilen zu in einer Industrie-Norm defi¬ nierten Fehlerklassen, wobei das digitale Bild mittels Radioskopie er¬ zeugt wird.4. Use of the method according to one of claims 1 to 3 for the assignment of defects of castings to defi¬ ned in an industry standard ned error classes, wherein the digital image by means of radioscopy er¬ testifies.
5. Verwendung des Verfahren nach einem der Ansprüche 1 bis 3 zur Zuordnung von Fehlern von Schweißnähten zu in einer Industrie-Norm definierten Fehlerklassen, wobei das digitale Bild mittels Radioskopie erzeugt wird.5. Use of the method according to one of claims 1 to 3 for the assignment of defects of welds to error classes defined in an industry standard, wherein the digital image is generated by means of radioscopy.
6. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 3 zur Erkennung von aus Papier wiedergegebenen Objekten, wie Buchstaben oder Tönen in einer Notendarstellung, wobei das digitale Bild mittels einem Scanner erzeugt wird. 6. Use of the method according to any one of claims 1 to 3 for the recognition of reproduced from paper objects, such as letters or tones in a score, wherein the digital image is generated by means of a scanner.
EP05776279A 2004-09-03 2005-09-01 Method for assigning a digital image to a class of a classification system Not-in-force EP1789909B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102004043149 2004-09-03
DE102005001224A DE102005001224A1 (en) 2004-09-03 2005-01-10 Method for assigning a digital image to a class of a classification system
PCT/EP2005/009427 WO2006027158A1 (en) 2004-09-03 2005-09-01 Method for assigning a digital image to a class of a classification system

Publications (2)

Publication Number Publication Date
EP1789909A1 true EP1789909A1 (en) 2007-05-30
EP1789909B1 EP1789909B1 (en) 2009-08-19

Family

ID=35395937

Family Applications (1)

Application Number Title Priority Date Filing Date
EP05776279A Not-in-force EP1789909B1 (en) 2004-09-03 2005-09-01 Method for assigning a digital image to a class of a classification system

Country Status (6)

Country Link
US (1) US7876964B2 (en)
EP (1) EP1789909B1 (en)
CN (1) CN101048784B (en)
AT (1) ATE440342T1 (en)
DE (2) DE102005001224A1 (en)
WO (1) WO2006027158A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101461879B1 (en) * 2012-12-17 2014-11-13 현대자동차 주식회사 System and method for welding inspection
CN104519416B (en) * 2014-11-28 2018-04-06 四川长虹电器股份有限公司 A kind of method and system of the vertical fingerprint of DTV

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69230713T2 (en) 1991-11-04 2000-07-20 Canon Kk Device and method for optical character recognition
US5539840A (en) 1993-10-19 1996-07-23 Canon Inc. Multifont optical character recognition using a box connectivity approach
US5963670A (en) * 1996-02-12 1999-10-05 Massachusetts Institute Of Technology Method and apparatus for classifying and identifying images
US6404923B1 (en) * 1996-03-29 2002-06-11 Microsoft Corporation Table-based low-level image classification and compression system
US6470094B1 (en) * 2000-03-14 2002-10-22 Intel Corporation Generalized text localization in images
US6580824B2 (en) * 2001-05-14 2003-06-17 Hewlett-Packard Development Company, L.P. Classification of photos with sepia tones

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2006027158A1 *

Also Published As

Publication number Publication date
ATE440342T1 (en) 2009-09-15
US20090214123A1 (en) 2009-08-27
US7876964B2 (en) 2011-01-25
CN101048784B (en) 2010-05-05
WO2006027158A1 (en) 2006-03-16
DE102005001224A1 (en) 2006-03-09
EP1789909B1 (en) 2009-08-19
DE502005007957D1 (en) 2009-10-01
CN101048784A (en) 2007-10-03

Similar Documents

Publication Publication Date Title
DE102014214448B4 (en) Device and method for recognizing a traffic sign
DE102007013971B4 (en) Method and device for determining a cell contour of a cell
DE60307967T2 (en) IMAGE PROCESSING FOR THE STUDY OF THE APPEARANCE
EP2656277B1 (en) Device and method for determining objects in a colour photograph
DE4133590A1 (en) METHOD FOR CLASSIFYING SIGNALS
WO2010133204A1 (en) Apparatus and method for identifying the creator of a work of art
DE112019005143T5 (en) SYSTEM FOR CO-REGISTRATION OF MEDICAL IMAGES USING A CLASSIFICATOR
DE102012002321B4 (en) Method for recognizing a given pattern in an image data set
DE102021100444A1 (en) MICROSCOPY SYSTEM AND METHOD FOR EVALUATION OF IMAGE PROCESSING RESULTS
DE102019133685A1 (en) Information processing system and procedures
EP3123393B1 (en) Method for the optical detection of symbols
DE3246631C2 (en) Character recognition device
EP1789909A1 (en) Method for assigning a digital image to a class of a classification system
DE102015205502A1 (en) Image processing method and image processing system for extracting distorted circular picture elements
DE102005049017B4 (en) Method for segmentation in an n-dimensional feature space and method for classification based on geometric properties of segmented objects in an n-dimensional data space
DE19801400A1 (en) Automatic analysis and classification of Hep-2 cell patterns
DE112019004112T5 (en) SYSTEM AND PROCEDURE FOR ANALYSIS OF MICROSCOPIC IMAGE DATA AND FOR GENERATING A NOTIFIED DATA SET FOR TRAINING THE CLASSIFICATORS
DE19834718C2 (en) Digital image processing for a quality control system
DE102017116882B4 (en) Print inspection device for the optical inspection of a print image of a print object
DE1549893A1 (en) Method and arrangement for the electronic classification of original images
DE4495111C2 (en) Method for determining a set of characteristic features in the context of object recognition
DE102004018174B4 (en) Method of acquiring forms from images with cases and case-based recognition of objects in digital images, computer program product and digital storage medium for carrying out this method
DE19939732C2 (en) Method for the automatic detection and identification of objects in multispectral remote sensing data
DE102022206025A1 (en) Population classification using point cloud features
DE112022001435T5 (en) PARTIAL SEARCH DEVICE, PARTIAL SEARCH PROGRAM AND PARTIAL SEARCH METHOD

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20070402

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

17Q First examination report despatched

Effective date: 20070911

DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

REF Corresponds to:

Ref document number: 502005007957

Country of ref document: DE

Date of ref document: 20091001

Kind code of ref document: P

LTIE Lt: invalidation of european patent or patent extension

Effective date: 20090819

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091219

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091130

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

NLV1 Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act
PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

REG Reference to a national code

Ref country code: IE

Ref legal event code: FD4D

BERE Be: lapsed

Owner name: BETRIEBSFORSCHUNGSINSTITUT VDEH INSTITUT FUR ANGE

Effective date: 20090930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091119

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091221

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20090930

Ref country code: IE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

Effective date: 20100531

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20100520

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20091119

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20091019

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20090930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20090930

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091120

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20090930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20090901

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20091119

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20101125

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20090901

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100220

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090819

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502005007957

Country of ref document: DE

Effective date: 20130403

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20130403