DE10220512A1 - Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine - Google Patents

Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine

Info

Publication number
DE10220512A1
DE10220512A1 DE2002120512 DE10220512A DE10220512A1 DE 10220512 A1 DE10220512 A1 DE 10220512A1 DE 2002120512 DE2002120512 DE 2002120512 DE 10220512 A DE10220512 A DE 10220512A DE 10220512 A1 DE10220512 A1 DE 10220512A1
Authority
DE
Germany
Prior art keywords
recordings
pixel
pixels
value
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2002120512
Other languages
English (en)
Other versions
DE10220512B4 (de
Inventor
Ralf Loser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gebrueder Heller Maschinenfabrik GmbH
Original Assignee
Gebrueder Heller Maschinenfabrik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gebrueder Heller Maschinenfabrik GmbH filed Critical Gebrueder Heller Maschinenfabrik GmbH
Priority to DE2002120512 priority Critical patent/DE10220512B4/de
Publication of DE10220512A1 publication Critical patent/DE10220512A1/de
Application granted granted Critical
Publication of DE10220512B4 publication Critical patent/DE10220512B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Bei dem Verfahren wird vom Objekt eine Aufnahme gemacht, wobei häufig der Kontrast zwischen dem Objekt und dem Bildhintergrund schlecht ist. DOLLAR A Um das Verfahren so auszubilden, daß die Objekte zuverlässig auch bei ungünstigen Einsatzbedingungen vermessen bzw. erkannt werden können, wird vom Objekt eine Anzahl von Bildern mit Bildpunkten aufgenommen. Aus den Farbwerten jedes Bildpunktes aller Bilder mit den gleichen Bildpunkten der jeweils anderen Bilder wird eine Differenz der Farbwerte gebildet und die Differenzwerte jedes Bildpunktes werden betragsmäßig addiert. DOLLAR A Das Verfahren eignet sich zum Vermessen und Erkennen von Objekten, die sich nur wenig vom Hintergrund abheben.

Description

  • Die Erfindung betrifft ein Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine, nach dem Oberbegriff des Anspruches 1.
  • In vielen Bereichen der industriellen Automation und Fertigung werden Bildverarbeitungssysteme eingesetzt, um Produktionsabläufe zu verbessern. Diese Systeme arbeiten im Vergleich zu menschlichen Sichtprüfern ermüdungs- und fehlerfrei, wodurch die Prozeßsicherheit und somit die Wirtschaftlichkeit erhöht wird. Die Systeme bestehen im wesentlichen aus einer elektronischen Kamera mit einem Bildsensor, meist ein CCD- oder CMOS-Chip, einer Software zur Bildauswertung und einer Beleuchtungseinrichtung. Die Systeme erzielen derzeit die höchste Zuverlässigkeit bei definierten und konstanten Umgebungsbedingungen, zum Beispiel Normlicht, eine konstante Oberflächenbeschaffenheit des Prüfobjektes usw.
  • Auch in Werkzeugmaschinen werden Bildverarbeitungssysteme eingesetzt, beispielsweise zur Vermessung von Werkzeugen und Werkstücken oder zur Werkstücktyperkennung. Die Vermessung von Werkzeugen erfolgt zu verschiedenen Zwecken. Erstens dient sie zur präzisen Fertigung der Werkstücke durch präzise Ermittlung der Schneidkanten, zweitens zur Erkennung von Werkzeugbruch und dadurch zur Erhöhung der Prozeßsicherheit. Neben Einzelwerkzeugen können selbstverständlich auch gleichzeitig mehrere Werkzeuge überprüft werden, zum Beispiel eine große Anzahl von Bohrern in Mehrspindelbohrköpfen. Die Kamera nimmt Bilder auf und wertet sie aus. Zur Auswertung bestehen verschiedene Verfahren.
  • Bei einem bekannten Verfahren wird ein aufgenommenes Bild mit einem Referenzbild verglichen, das zuvor von Referenzobjekten aufgenommen worden ist. Aufgrund eines Vergleiches werden Abweichungen der Ist-Kontur von der Soll-Kontur festgestellt und erforderliche Aktionen ausgelöst (sogenannte template matching).
  • Bei einem weiteren Verfahren sucht die Bildverarbeitungssoftware Kanten und vergleicht die Ist-Kanten mit vorher definierten Soll- Kanten. Die Erkennung der Kanten erfolgt durch Auswertung der Bildpunkte in der Weise, daß starke Helligkeitsunterschiede innerhalb des Bildes als Kanten definiert werden.
  • Bei einem weiteren Verfahren wird das Bild segmentiert. Dabei werden Flächen gleicher Helligkeit als eine Einheit interpretiert. Die Größe der Fläche wird anhand der Anzahl der Bildpunkte ermittelt und mit einem Referenzwert verglichen. Ein Bohrwerkzeug, eingespannt in ein Bohrfutter, stellt beispielsweise eine solche Einheit dar. Das Verfahren ist auch unter der Bezeichnung "Blob-Analyse" bekannt.
  • Diese Verfahren haben allesamt den Nachteil, daß sie nur dann zufriedenstellend funktionieren, wenn der Kontrast zwischen Objekt und Bildhintergrund ausreichend hoch ist. Gerade im Arbeitsraum von Werkzeugmaschinen wird diese Bedingung nur selten erreicht, weil der Hintergrund und das Objekt oftmals ähnliche Reflexionseigenschaften haben.
  • Heutige Bildverarbeitungssysteme arbeiten sehr zuverlässig, wenn konstante Bedingungen herrschen. In der Praxis hat sich allerdings herausgestellt, daß diese Systeme häufig unzuverlässig arbeiten. Aus diesem Grunde sind bereits installierte Systeme wieder außer Betrieb genommen worden. In Werkzeugmaschinen herrschen sich ständig ändernde Bedingungen. Werkzeuge, Werkstücke, der Arbeitsraum sowie die Beleuchtungseinrichtung werden von Spänen und Kühlschmierstoffen verunreinigt. Dadurch ändern sich Bildkontrast, Beleuchtungsstärke und, durch Spanablagerungen, die Konturen der Objekte. Diese hohe Varianz der Umgebungsbedingungen verursacht häufig fehlerhafte Bildverarbeitungsergebnisse. Bei Maschinen, die voll- oder teilautomatisiert zur Produktion hoher Stückzahlen eingesetzt werden, wird höchste Prozeßsicherheit gefordert. Eine fehlerhafte Bildverarbeitung, die im Extremfall zur Zerstörung von Werkzeugen oder Maschinenteilen führen kann, ist nicht einsetzbar. Ein weiteres, durch die Varianz der Umgebungsbedingungen verursachtes Problem liegt darin, die sogenannte "wahre Kante" eines Objektes optisch zu erkennen und von sogenannte "falschen Kanten" unterscheiden zu können. Falsche Kanten werden durch Schattenwürfe und Reflexionen erzeugt. Die Bildauswertung kann dann nicht zweifelsfrei erkennen, welches die wahre Kante ist. Von dieser Problematik sind die drei zuvor genannten Verfahren in gleicher Weise betroffen.
  • Ein Lösungsansatz ist in "Verfahren zur wissensunabhängigen automatischen Bildoptimierung in der technischen Sichtprüfung", Prof. Pfeifer, RWTH Aachen, dargestellt. Dieser Ansatz sieht die Auswertung von Mehrbildserien des gleichen Motives vor, wobei jedes Einzelbild unter einer anderen Beleuchtungssituation aufgenommen wird. Dazu wird um das Objektiv der Kamera ein Leuchtring mit einzeln ansteuerbaren LEDs angebracht. Über die Auswertung der Mehrbildserie können die falschen Kanten aufgrund ihres charakteristischen Verhaltens von wahren Kanten unterschieden werden. Der Schwerpunkt des Verfahrens liegt dabei nicht auf den originären Grauwertbildern, sondern auf hoch paßgefilterten Kantenbildern. Vor dem Vergleich von Konturen in zwei Bildern der Mehrbildserie werden diese durch eine gezielte Dilatation künstlich verbreitert.
  • Ein ganz spezielles Problem tritt bei Mehrspindelbohrköpfen auf, bei denen die Helligkeitswerte der einzelnen Bohrer innerhalb des Meßausschnittes aufgrund der räumlichen Staffelung der Werkzeuge verschieden sind, wobei sich für jeden Bohrer individuelle Schwellenwerte zur Abgrenzung von Kanten ergeben.
  • Zusätzlich erschwert wird die Erkennung und/oder Vermessung von Bohrern mit gewendelten Spannuten, wie sie häufig in Mehrspindelbohrköpfen eingesetzt werden. Bei Rotation des Werkzeuges ergibt sich eine zylinderförmige, einhüllende Mantelfläche, die aber aufgrund des Verlaufes der gewendelten Spannut bei stehendem Werkzeug unterbrochen ist. In der Projektion des Bohrers auf dem Bildsensor treten dann Unterbrechungen in der zylinderförmigen Mantelfläche auf. Die Lage der Unterbrechung tritt bei Bildaufnahmen zufällig auf. Eine Einzelbildmessung führt somit zu fehlerhaften Ergebnissen.
  • Der Erfindung liegt die Aufgabe zugrunde, das gattungsgemäße Verfahren so auszubilden, daß die Objekte zuverlässig auch bei ungünstigen Einsatzbedingungen vermessen bzw. erkannt werden können.
  • Diese Aufgabe wird beim gattungsgemäßen Verfahren erfindungsgemäß mit den kennzeichnenden Merkmalen des Anspruches 1 gelöst.
  • Beim erfindungsgemäßen Verfahren wird vom Objekt eine Anzahl von Bildern mit einer entsprechenden Anzahl von Bildpunkten aufgenommen. Die Farbwerte jedes Bildpunktes aller Bilder wird mit dem gleichen Bildpunkt der jeweils anderen Bilder durch Differenzbildung verglichen. Die dabei entstehenden Differenzwerte werden betragsmäßig addiert. Bei einer vorteilhaften Weiterbildung werden die so erzielten Summenwerte unter Berücksichtigung der Farbtiefe normiert. Infolge des erfindungsgemäßen Verfahrens lassen sich Objekte, die sich nur wenig vom Hintergrund abheben, einwandfrei vermessen bzw. erkennen.
  • Mit dem erfindungsgemäßen Verfahren können insbesondere Werkzeuge und Werkstücke in Werkzeugmaschinen zuverlässig vermessen und/oder erkannt werden. Von diesen Werkzeugen oder Werkstücken werden während der Bewegung mehrere Aufnahmen gemacht. Die Bewegung des Objektes kann rotatorisch oder translatorisch sein. Am vorteilhaftesten ist eine rotatorische Bewegung. Die bei den Aufnahmen entstehenden Bilder werden in einer mehrstufigen Rechenoperation zu einem einzigen Bild generiert, das das Objekt mit hohem Kontrast vom Bildhintergrund abhebt.
  • Es ist aber auch möglich, das Objekt während der Aufnahmen nicht zu bewegen. Statt dessen wird eine Beleuchtungseinrichtung eingesetzt, die mehrere, unabhängig voneinander ansteuerbare Lichtquellen aufweist. Für jedes Einzelbild wird eine der Lichtquellen oder eine Kombination aus mehreren der Lichtquellen angesteuert.
  • Im Ergebnis werden somit die Bildpunkte besonders berücksichtigt, die während der Aufnahme der Einzelbilder Änderungen erfahren haben. Durch die Rotation des Objektes während der Aufnahme ändern sich die Reflexionsverhältnisse ständig, während der Bildhintergrund konstant bleibt. Dadurch kann die Werkzeugkontur mit dem erfindungsgemäßen Verfahren eindeutig ermittelt werden. Das Verfahren ist somit unabhängig von Schwankungen in der Beleuchtungssituation, wie sie durch Verschmutzung des Arbeitsraumes oder ähnliches hervorgerufen werden können. Das erfindungsgemäße Verfahren eignet sich darum für den harten Einsatz in der Produktion. Die Störanfälligkeit ist gegenüber den bekannten Verfahren um ein Vielfaches geringer.
  • Weitere Merkmale der Erfindung ergeben sich aus den weiteren Ansprüchen, der Beschreibung und den Zeichnungen.
  • Die Erfindung wird anhand eines in den Zeichnungen dargestellten Ausführungsbeispieles näher erläutert. Es zeigen
  • Fig. 1 schematisch einen Bildsensor mit einzelnen Bildpunkten,
  • Fig. 2 den Bildsensor gemäß Fig. 1 mit einem Meßobjekt im Erfassungsbereich sowie in die Bildpunkte eingetragene Grauwerte,
  • Fig. 3 ein Histogramm mit der Häufigkeitsverteilung der Grauwerte aus dem Einzelbild gemäß Fig. 2,
  • Fig. 4 eine Mehrbildserie des Objektes aus Fig. 2 mit den jeweiligen Grauwerten sowie Tabellen mit Ergebnissen einer Differenzbildberechnung,
  • Fig. 5 zeigt die Rechenergebnisse einer Betragsbildung,
  • Fig. 6 zeigt die Rechenergebnisse nach einer Addition der Beträge der Summenwerte,
  • Fig. 7 zeigt die Rechenergebnisse einer Normierung,
  • Fig. 8 zeigt ein Histogramm mit der Häufigkeitsverteilung der Grauwerte nach der Normierung gemäß Fig. 7.
  • Mit dem im folgenden beschriebenen Verfahren können Objekte 10, insbesondere Werkzeuge oder Werkstücke in Bearbeitungsmaschinen, zuverlässig vermessen werden. Für die Vermessung wird wenigstens eine elektronische Kamera eingesetzt, die wenigstens einen Bildsensor 1 aufweist, der beispielsweise ein CCD- oder CMOS-Chip ist. Dieser Bildsensor 1 ist in Fig. 1 beispielhaft und sehr vereinfacht dargestellt. Er weist 16 Bildpunkte P auf, die in vier Spalten A bis D und in vier Zeilen I bis IV angeordnet sind. Der Bildsensor 1 hat in Wirklichkeit eine sehr hohe Zahl von Bildpunkten. Je höher die Bildpunktzahl ist, desto genauer und zuverlässiger kann das jeweilige Objekt erfaßt werden. Die Bildpunkte P sind lichtempfindlich und können unterschiedliche Helligkeiten erfassen. Der Erfassungsbereich geht von schwarz über unterschiedliche Graustufen bis weiß. Für die Bildauswertung wird jeder Graustufe ein Zahlenwert zugeordnet, wobei man dann von Grauwerten spricht. Meist wird der Bereich zwischen schwarz und weiß in 256 Farbstufen eingeteilt, was einer Farbtiefe von 8 bit entspricht. Der Farbe schwarz wird beispielsweise der Wert 0 und der Farbe weiß 255 zugeordnet. Die zwischen diesen beiden Extremwerten liegenden Graustufen erhalten entsprechend ihrer Helligkeit Werte zwischen 1 und 254.
  • Ein Sensor für die Erkennung von Farbtönen arbeitet prinzipiell gleich, verwendet jedoch anstelle nur eines Kanals für die Helligkeit je einen Kanal für die Farben rot, grün und blau. Die Farbtiefe pro Kanal beträgt auch dann üblicherweise 8 bit.
  • Es sind auch Sensoren bekannt, die eine höhere Farbtiefe aufweisen. So sind auch Verfahren bekannt, die beispielsweise mit 12, 14 oder 16 bit Farbtiefe arbeiten.
  • Fig. 2 zeigt den Bildsensor 1, in dessen Erfassungsbereich sich ein Objekt 10 befindet, das auf die Bildpunkte BII, CII, DII, BIII, CIII, DIII projiziert wird. Für jeden dieser Bildpunkte ist ein Grauwert 4eingetragen, dessen Wert sich aus der Beleuchtungssituation, der Oberflächenbeschaffenheit des zu vermessenden Objektes und anderen Faktoren ergibt. Aus den Zahlenwerten in den genannten Bildpunkten ist ersichtlich, daß der Hintergrund mit gleichmäßigen Helligkeitswerten erfaßt wird. Das Objekt 10 hebt sich teilweise deutlich vor dem Hintergrund ab, es treten jedoch auch Bildpunkte auf, deren Grauwerte gleich sind wie der Hintergrund. Das Objekt 10 kann beispielsweise ein Bohrer in einer Werkzeugmaschine sein, der aufgrund seines metallischen Glanzes teilweise heller erscheint als der Bildhintergrund.
  • In Fig. 3 sind die Grauwerte 4 des Bildsensors 1 aus Fig. 2 in einem Histogramm eingetragen. Hierin wird die Häufigkeit eines Grauwertes 4 auf der Grauwertskala kumulativ aufgetragen. Die Verteilung zeigt, daß die Grauwerte 4 des Objekts 10 in einem Bereich 8 zwischen 140 und 175 liegen. Die Grauwerte 4 des Hintergrunds liegen in einem Bereich 5 zwischen 139 und 141. Die Grauwerte 4 erstrecken sich somit über einen Bereich 6 von 139 bis 175, was einem Grauwertumfang von 36 entspricht (175-139). Der Signalabstand 7, der den kleinsten Abstand der Grauwerte 4 zwischen Objekt 10 und dem Hintergrund darstellt, ist im Beispiel aus Fig. 2 nicht mehr vorhanden, weil sich die Grauwertbereiche von Objekt 10 und Hintergrund überschneiden. Dies hat zur Folge, daß es für die Bildauswertung schwierig ist, die Konturen des Objektes 10 vom Hintergrund zu unterscheiden.
  • Beim beschriebenen Verfahren wird der Kontrast bzw. Helligkeitsunterschied zwischen dem Objekt 10 und dem Hintergrund so verstärkt, daß das Objekt 10 einwandfrei erfaßt werden kann.
  • Fig. 4 zeigt eine Mehrbildserie mit den Bildern B1 bis B4 des zu messenden Objektes 10 aus Fig. 2 mit den jeweiligen Grauwerten sowie Tabellen T1 bis T6. Die Bilder B1 bis B4 zeigen jeweils den Bildsensor 1 mit 16 Bildpunkten, die in vier Spalten A bis D und in vier Zeilen I bis IV angeordnet sind. In den Tabellen T1 bis T6, die ebenfalls vier Spalten A bis D und vier Zeilen I bis IV aufweisen, werden die Differenzwerte aus den Bildern B1 bis B4 für die jeweiligen Bildpunkte eingetragen. In der Tabelle T1 wird die Differenz der Grauwerte in den einzelnen Bildpunkten der Bilder B1 und B2 eingetragen. Entsprechend werden in Tabelle T2 die Differenzen der Grauwerte in den einzelnen Bildpunkten von Bild B1 und Bild B3 eingetragen. In gleicher Weise enthält die Tabelle T3 die Differenzwerte B1 - B4, die Tabelle T4 die Differenzwerte von B2 - B3, die Tabelle T5 die Differenzwerte B2 - B4 und die Tabelle T6 die Differenzwerte B3 - B4. In diesen Tabellen T1 bis T6 sind die Differenzwerte der Grauwerte für jeden einzelnen Bildpunkt eingetragen.
  • Die vier Bilder B1 bis B4 können beispielsweise während einer Umdrehung eines Bohrers als Objekt 10 mit gleichmäßigem Winkelabstand aufgenommen werden. Aufgrund der wendelförmigen Spannut eines Bohrers ist es jedoch vorteilhaft, die Aufnahmen in einem Winkelbereich zu machen, der einer vollen Umdrehung, dividiert durch die Anzahl der Spannuten, entspricht. Während einer vollständigen Umdrehung wiederholen sich nämlich die Reflexionsmuster bei jeder Spannut wieder, so daß neue Informationen nicht gewonnen werden können. Das Verfahren ist aber gerade bei Veränderungen der Helligkeit besonders wirkungsvoll. Durch die Rotation des Bohrers ergeben sich entlang der einhüllenden Mantellinie Reflexionen unterschiedlicher Stärke, die sich dann in unterschiedlichen Grauwerten auf dem Bildsensor 1 niederschlagen. Die Helligkeit des Bildhintergrundes außerhalb der Mantellinie bleibt dabei unverändert.
  • In einer ersten Operation erfolgt eine Berechnung der Differenz der Grauwerte eines jeden Bildpunktes des ersten Bildes B1 mit den gleichen Bildpunkten der folgenden Bilder, also mit dem zweiten, dritten und vierten Bild. So ist beispielsweise die Differenz der Grauwerte im Bildpunkt AI von Bild B1 und B2 0. Dementsprechend ist im Bildpunkt Al in Tabelle T1 der Wert 0 eingetragen. Auf diese Weise werden für die einzelnen Bildpunkte die entsprechenden Differenzwerte ermittelt und in die entsprechenden Tabellen T1 bis T6 eingetragen.
  • Es werden somit sämtliche möglichen Differenzen zwischen den vier Bildern B1 bis B4 errechnet und in den Tabellen T1 bis T6 abgelegt.
  • Bei einer zweiten anschließenden Rechenoperation werden von den berechneten Differenzwerten in den Tabellen T1 bis T6 die Beträge gebildet. Sie sind in Fig. 5 in den Tabellen T7 bis T12 angegeben.
  • In einer dritten Rechenoperation werden alle Beträge des jeweiligen Bildpunktes addiert. Tabelle T13 in Fig. 6 enthält wiederum die vier Spalten A bis D und die vier Zeilen I bis IV. In die entsprechenden Felder werden die Summen der einzelnen Bildpunkte gemäß den Tabellen T7 bis T12 eingetragen. So wird im Bildpunkt AI der Tabelle T13 die Summe der Bildpunkte AI der Tabellen T7 bis T12 eingetragen, im Ausführungsbeispiel der Wert 0. Entsprechend werden in die anderen Bildpunkte der Tabelle T13 die Summen der Beträge der entsprechenden Bildpunkte der Tabellen T7 bis T12 eingetragen.
  • Es ist zu erkennen, daß aufgrund der beschriebenen drei Rechenoperationen die Grauwerte in den interessierenden Bildpunkten BII bis DII und BIII bis DIII wesentlich höher sind als die restlichen Bildpunkte in Tabelle T13. Dadurch hebt sich die Kontur des Objektes 10 deutlich vom Bildhintergrund (Bildpunkte AI bis DI, AI bis AIV, AIV bis DIV) ab, so daß eine genaue Konturbestimmung des Objektes 10 möglich ist. Aufgrund der beschriebenen Rechenoperationen sind die Differenzbeträge bei starken Helligkeitsänderungen hoch und bei schwachen Helligkeitsänderungen gering. Durch die Addition der Beträge ergibt sich ein großer wertmäßiger Unterschied der Bereiche mit starker Helligkeitsänderung und der Bereiche mit gleichbleibender Helligkeit. Die in Fig. 6 aufgeführten Formeln zeigen die Ermittlung der minimalen und maximalen Grauwertsummen. In dieser mathematischen Schreibweise steht der Index i für die Spalte und der Index j für die Zeile. GW steht für Grauwert. Die Ermittlung der beiden Werte wird für die nachfolgende Normierung benötigt.
  • Fig. 7 zeigt die Normierung der Tabelle T13 gemäß Fig. 6. Der höchste in der Tabelle T13 vorkommende Summenwert wird ermittelt und im Ausführungsbeispiel auf den Wert 255 gesetzt. In Tabelle T13 ist der höchste Summenwert dem Bildpunkt BIII mit 101 zugeordnet. Dementsprechend wird dieser Bildpunkt in Tabelle T14 auf den Wert 255 gesetzt. Grund hierfür ist die Beibehaltung der 8-bit-Struktur, die kurze Berechnungszeiten ermöglicht. Ausgehend von diesem höchsten Summenwert werden dann die anderen Bildpunkte in Tabelle T14 unter Berücksichtigung der in Tabelle T13 angegebenen Werte berechnet. Die Normierungswerte dieser weiteren Bildpunkte ergeben sich daraus, daß der Grauwert eines jeweiligen Bildpunktes in Tabelle T13 mit dem Verhältnis von 255 dividiert durch den höchsten Summenwert multipliziert wird. Beispielsweise wird der im Bildpunkt BII angegebene Summenwert 100 multipliziert mit 255 und durch den höchsten Summenwert, also 101, dividiert. Dies ergibt einen Wert von 252. Dementsprechend ist in Tabelle T14 an den Bildpunkten BII, CIII und DIII der Wert 252 eingetragen.
  • In Fig. 7 ist eine Berechnungsformel angegeben, die alternativ zu der oben beschriebenen Berechnungsformel angewendet werden kann. Vorteilhaft bei dieser Berechnungsformel ist, daß der Grauwertumfang nach der Normierung dann die gesamte Farbtiefe umfaßt, bei 8 bit Farbtiefe dann 256. Dies ist besonders dann vorteilhaft, wenn nach der Betragsaddition keine Werte auftreten, die 0 betragen oder die weit von 0 entfernt liegen. In solchen Fällen wird der Grauwertumfang auf den gesamten Umfang der Farbtiefe aufgespreizt, wodurch sich eine bessere Auswertung ergibt. Selbstverständlich funktioniert das Verfahren auch ohne die Normierung. Der Hauptgrund für die Normierung ist lediglich in der Optimierung der Rechenzeit zu sehen.
  • Der höchste in Tabelle T13 und in der Formel vorkommende Summenwert ist im Ausführungsbeispiel auf den Wert 255 gesetzt worden. Wird die Berechnung auf der Grundlage von zum Beispiel 16 bit durchgeführt, dann ist dieser Wert nicht 255, sondern 216, d. h. 65536.
  • Fig. 8 zeigt das Histogramm der Grauwerte gemäß Fig. 7. Ein Vergleich dieses Histogrammes mit dem Histogramm gemäß Fig. 3 zeigt, daß aufgrund der beschriebenen Rechenoperationen die Verteilung der normierten Grauwerte gemäß Fig. 7 in einem Bereich 8 des Objektes 10 zwischen 250 und 255 und die Grauwerte des Bildhintergrundes in einem Bereich 5 zwischen 0 und 18 liegen. Besonders vorteilhaft ist der große Signalabstand 7, d. h. der Abstand zwischen der unteren und der oberen Grauwertgruppe, wodurch eine einwandfreie und zuverlässige Erfassung der Kontur des Objektes 10 gewährleistet ist. Dieser Signalabstand 7 ist beim Histogramm gemäß Fig. 3 praktisch nicht vorhanden. Andererseits ist der Abstand 6 zwischen dem kleinsten und dem höchsten normierten Grauwert um ein Vielfaches größer als beim Histogramm gemäß Fig. 3, in das die nicht umgerechneten Grauwerte eingetragen sind. Der Bereich 6 der normierten Grauwerte erfaßt praktisch alle Grauwerte der Grauwertskala, reicht von 0 bis 255.
  • Der große Signalabstand 7 trennt die beiden Grauwertbereiche deutlich voneinander, wodurch eine sichere Erfassung der Objektkontur ermöglicht wird. Der Signalabstand 7 wird besonders hoch bei hoher und prinzipiell bei zunehmender Größe der Bilderserie, sofern die einzelnen Bilder aufgrund unterschiedlichen Reflexionsverhaltens unterschiedliche Grauwerte aufweisen.
  • Das beschriebene Verfahren arbeitet zuverlässig unabhängig davon, ob das zu vermessende Objekt 10 oder der Hintergrund heller oder dunkler ist. Aufgrund der beschriebenen Differenz- und Betragsbildung wird das Verfahren von solchen Randbedingungen nicht beeinflußt.
  • Während der Aufnahmen kann das zu vermessende Objekt unbeweglich angeordnet sein. Es ist aber auch möglich, das Objekt 10 zwar ortsfest anzuordnen, jedoch während der Aufnahmen um seine Drehachse zu rotieren. Im beschriebenen Ausführungsbeispiel ist als Objekt 10 ein Bohrer beschrieben worden, der für die verschiedenen Aufnahmen um seine Achse gedreht wird. Die Aufnahmen können hierbei während wenigstens eines Bruchteiles einer vollen Umdrehung des Objektes 10 um seine Achse hergestellt werden. Es ist aber auch möglich, die Aufnahmen während der Drehung des Objektes 10 um seine Achse in gleichen Winkelabständen herzustellen. Je nach Ausbildung des Objektes 10 lassen sich die Aufnahmen während der Drehung des Objektes um seine Achse auch in ungleichen Winkelabständen herstellen.
  • Bei einer entsprechenden Ausbildung des Objektes 10 ist es auch möglich, das Objekt während der Aufnahmen zu verschieben oder gar eine Bewegung auf einer beliebigen räumlichen Bahn ausführen zu lassen.
  • Bevorzugt wird für die Aufnahmen eine Digitalkamera eingesetzt, die mit wenigstens einem Bildsensor 1 versehen ist. Zur Beleuchtung des Objektes 10 kann das Umgebungslicht eingesetzt werden. Sollte es allerdings zu schwach sein, kann auch eine Beleuchtungseinrichtung herangezogen werden. Sie kann beispielsweise konstantes Licht abstrahlen.
  • Bei einer komplizierteren Kontur des zu vermessenden Objektes 10 empfiehlt es sich, eine Beleuchtungseinrichtung mit mehreren räumlich unterschiedlich angeordneten Lichtquellen einzusetzen, die vorteilhaft einzeln ansteuerbar sind. Dadurch kann das zu vermessende Objekt 10 optimal ausgeleuchtet werden, so daß die Kontur des Objektes 10 zuverlässig in der beschriebenen Weise erfaßt werden kann.
  • Der Bildsensor der Kamera kann so ausgebildet sein, daß er nur Graustufen oder auch Farben erfaßt.
  • Der Bildsensor 1 weist vorteilhaft eine Vielzahl von Bildpunkten (Pixel) auf. Je höher die Anzahl dieser Bildpunkte 1 ist, desto genauer kann die Kontur des Objektes 10 erfaßt werden. Jedem Bildpunkt wird eine Farbtiefe bzw. ein Grauwert von wenigstens 2 bit zugeordnet. Um eine bessere Helligkeitsdifferenzierung zu erhalten, weist jeder Bildpunkt 1 vorteilhaft eine Farbtiefe von 8 bit oder mehr auf.

Claims (27)

1. Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine, bei dem vom Objekt wenigstens eine Aufnahme gemacht wird, dadurch gekennzeichnet, daß vom Objekt (10) eine Anzahl von n Bildern mit m Bildpunkten (P) aufgenommen wird, daß aus den Farbwerten jedes Bildpunktes aller Bilder mit den gleichen Bildpunkten (P) der jeweils anderen Bilder eine Differenz der Farbwerte gebildet wird, und daß die Differenzwerte jedes Bildpunktes (P) betragsmäßig addiert werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Summenwerte der m Bildpunkte (P) unter Berücksichtigung der Farbtiefe normiert werden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß zur Normierung derjenige Bildpunkt (P) ermittelt wird, der den höchsten betragsmäßigen Summenwert aufweist.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß der Bildpunkt (P) mit dem höchsten betragsmäßigen Summenwert auf einen Wert normiert wird, der dem sich aus der Farbtiefe ergebenden Maximalwert entspricht.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die übrigen Bildpunkte (P) durch Multiplikation mit dem Verhältnis aus dem sich aus der Farbtiefe ergebenden Maximalwert und dem höchsten betragsmäßigen Summenwert normiert werden.
6. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß zur Normierung derjenige Bildpunkt (P) ermittelt wird, der den niedrigsten betragsmäßigen Summenwert aufweist.
7. Verfahren nach einem der Ansprüche 2, 3 oder 6, dadurch gekennzeichnet, daß die Normierung aller Bildpunkte (P) erfolgt, indem vom jeweiligen betragsmäßigen Summenwert der betragsmäßig niedrigste Summenwert subtrahiert wird, daß diese Differenz multipliziert wird mit dem sich aus der Farbtiefe ergebenden Maximalwert, und daß dieses Produkt dividiert wird durch die Differenz von betragsmäßig höchstem Summenwert und betragsmäßig niedrigstem Summenwert.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß das Objekt (10) während der Aufnahmen stillsteht.
9. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß das Objekt (10) während der Aufnahmen ortsfest angeordnet ist, jedoch um seine Achse rotiert.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die Aufnahmen während wenigstens eines Bruchteiles einer vollen Umdrehung des Objektes (10) um seine Achse hergestellt werden.
11. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die Aufnahmen während der Drehung des Objektes (10) um seine Achse in gleichen Winkelabständen hergestellt werden.
12. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die Aufnahmen während der Drehung des Objektes (10) um seine Achse in ungleichen Winkelabständen hergestellt werden.
13. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß das Objekt (10) während der Aufnahmen verschoben wird.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß das Objekt (10) während der Aufnahmen eine lineare Bewegung ausführt.
15. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß das Objekt (10) während der Aufnahmen eine Bewegung auf einer beliebigen räumlichen Bahn ausführt.
16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß zur Erstellung der Aufnahmen eine Digitalkamera eingesetzt wird.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß die Digitalkamera wenigstens einen Bildsensor (1) aufweist.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß zur Erstellung der Aufnahmen Umgebungslicht verwendet wird.
19. Verfahren nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, daß zur Erstellung der Aufnahmen eine Beleuchtungseinrichtung verwendet wird.
20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß die Beleuchtungseinrichtung konstantes Licht ausstrahlt.
21. Verfahren nach Anspruch 19 oder 20, dadurch gekennzeichnet, daß die Beleuchtungseinrichtung mehrere räumlich unterschiedlich angeordnete Lichtquellen aufweist.
22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, daß die Lichtquellen einzeln angesteuert werden.
23. Verfahren nach einem der Ansprüche 17 bis 22, dadurch gekennzeichnet, daß der Bildsensor (1) Farben erfaßt.
24. Verfahren nach einem der Ansprüche 17 bis 22, dadurch gekennzeichnet, daß der Bildsensor (1) Graustufen erfaßt.
25. Verfahren nach einem der Ansprüche 17 bis 24, dadurch gekennzeichnet, daß der Bildsensor (1) eine Mehrzahl von Bildpunkten (Pixel P) aufweist.
26. Verfahren nach einem der Ansprüche 1 bis 25, dadurch gekennzeichnet, daß jeder Bildpunkt (P) eine Farbtiefe von wenigstens 2 bit aufweist.
27. Verfahren nach einem der Ansprüche 1 bis 26, dadurch gekennzeichnet, daß jeder Bildpunkt (P) eine Farbtiefe von 8 bit aufweist.
DE2002120512 2002-05-08 2002-05-08 Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine Expired - Fee Related DE10220512B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002120512 DE10220512B4 (de) 2002-05-08 2002-05-08 Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002120512 DE10220512B4 (de) 2002-05-08 2002-05-08 Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine

Publications (2)

Publication Number Publication Date
DE10220512A1 true DE10220512A1 (de) 2003-11-27
DE10220512B4 DE10220512B4 (de) 2005-10-27

Family

ID=29285202

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002120512 Expired - Fee Related DE10220512B4 (de) 2002-05-08 2002-05-08 Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine

Country Status (1)

Country Link
DE (1) DE10220512B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202007002260U1 (de) * 2007-02-15 2008-06-26 Leuze Electronic Gmbh & Co Kg Optoelektronische Vorrichtung
AT519699A1 (de) * 2017-03-10 2018-09-15 Steger Heinrich Bearbeitungsvorrichtung für ein dentales Werkstück
DE102020204633A1 (de) 2020-04-09 2021-10-14 c-Com GmbH Sensorsystem und Verfahren zur Bestimmung einer Werkzeuginformation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19502640C1 (de) * 1995-01-20 1996-07-11 Daimler Benz Ag Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202007002260U1 (de) * 2007-02-15 2008-06-26 Leuze Electronic Gmbh & Co Kg Optoelektronische Vorrichtung
AT519699A1 (de) * 2017-03-10 2018-09-15 Steger Heinrich Bearbeitungsvorrichtung für ein dentales Werkstück
DE102020204633A1 (de) 2020-04-09 2021-10-14 c-Com GmbH Sensorsystem und Verfahren zur Bestimmung einer Werkzeuginformation

Also Published As

Publication number Publication date
DE10220512B4 (de) 2005-10-27

Similar Documents

Publication Publication Date Title
DE3937950C2 (de)
DE102006040365B4 (de) System und Verfahren zum Beurteilen einer bearbeiteten Oberfläche einer Metallgusskomponente
DE69533013T2 (de) Münzerkennungsvorrichtung
DE10062251C2 (de) Vorrichtung und Verfahren zur Qualitätsüberprüfung eines Körpers
EP2619525B1 (de) Verfahren zum optischen antasten einer kante in oder an einem oberlächenbereich
DE10240877A1 (de) Fehlerklassifikations-/Inspektions-System
DE2518077A1 (de) Elektrooptisches system zur bestimmung der orientierung bzw. lage von gegenstaenden, wie werkstuecken oder aehnlichem
DE102014107143B4 (de) System und Verfahren zur Messung der Verschiebung einer Objektoberfläche
DE102013203344A1 (de) Informationsanzeigesystem und Verfahren zur Unterstützung der Analyse von Inspektionsergebnissen von Leiterplatten
DE3637001A1 (de) Verfahren und vorrichtung zum pruefen der aeusseren form eines eine symmetrie aufweisenden gegenstandes
DE102017219244B4 (de) Inspektionsbedingungsbestimmungseinrichtung, inspektionsbedingungsbestimmungsverfahren und inspektionsbedingungsbestimmungsprogramm
DE102007039982B3 (de) Verfahren zur optischen Inspektion und Visualisierung der von scheibenförmigen Objekten gewonnenen optischen Messerwerte
DE10205691A1 (de) Verfahren zum Überprüfen der Funktonssicherheit eines Bildsensors sowie Vorrichtung mit einem Bildsensor
EP2787485A1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE19840969C2 (de) Verfahren und Vorrichtung zum optoelektronischen Ermitteln der Tragbilder an Zahnflanken von Zahnrädern
DE102016100134A1 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
DE3402855C2 (de)
WO2001023869A1 (de) Vorrichtung und verfahren zur oberflächeninspektion eines kontinuierlich zulaufenden bandmaterials
EP0661108A2 (de) Verfahren zum optischen Sortieren von Schüttgut
DE10220512B4 (de) Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine
DE102006042956A1 (de) Verfahren zur optischen Inspektion Visualisierung der von den scheibenförmigen Objekten gewonnenen optischen Messwerte
DE10153581A1 (de) Verfahren und Vorrichtung zur Ermittlung der Wirkkontur von Rotationswerkzeugen
DE10331593A1 (de) Verfahren zur Defektsegmentierung in Strukturen auf Halbleitersubstraten
EP1988506A2 (de) Verfahren zur automatischen Ermittlung von Prüfbereichen, Prüfverfahren und Prüfsystem
EP0987541A1 (de) Einrichtung und Verfahren zur optischen Qualitätsprüfung einer Rohrinnenoberfläche

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee