DE102022203359A1 - Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, Lasermaterialbearbeitungsanlage, Verfahren und Computerprogramm - Google Patents

Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, Lasermaterialbearbeitungsanlage, Verfahren und Computerprogramm Download PDF

Info

Publication number
DE102022203359A1
DE102022203359A1 DE102022203359.0A DE102022203359A DE102022203359A1 DE 102022203359 A1 DE102022203359 A1 DE 102022203359A1 DE 102022203359 A DE102022203359 A DE 102022203359A DE 102022203359 A1 DE102022203359 A1 DE 102022203359A1
Authority
DE
Germany
Prior art keywords
designed
workpiece
event
monitoring device
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022203359.0A
Other languages
English (en)
Inventor
Reiner Ramsayer
Meiko Boley
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102022203359A1 publication Critical patent/DE102022203359A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/20Bonding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/36Removing material
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Plasma & Fusion (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Überwachungsvorrichtung 9, insbesondere für eine Lasermaterialbearbeitungsanlage 1, die zur Bearbeitung eines Werkstücks 5 ausgebildet ist, mit einem Führungsmodul und einem Dynamic-Vision-Sensor, wobei der Dynamic-Vision-Sensor einen Erfassungsbereich 10 aufweist und ausgebildet ist, eine lokale Helligkeitsänderung im Erfassungsbereich 10 zu detektieren und als Ereignisbild (12) bereitzustellen, wobei das Ereignisbild (12) auf lokalen Sensorkoordinaten basiert, wobei das Führungsmodul ausgebildet ist, den Erfassungsbereich 10 und/oder den Dynamic-Vision-Sensor entlang einer Messaufnahmebahn über einen Abschnitt des Werkstücks 5 zu bewegen, wobei der Dynamic-Vision-Sensor ausgebildet ist, bei der Bewegung entlang der Messaufnahmebahn die Ereignisbilder (12) aufzunehmen, mit einer Auswerteeinheit, wobei der Auswerteeinheit die Ereignisbilder (12) und jeweils zu den Eingangsbildern gehörige globale Aufnahmepositionen bereitgestellt sind, wobei die Auswerteeinheit ausgebildet und/oder eingerichtet ist, basierend auf der globalen Aufnahmeposition und den Ereignisbildern (12) zumindest eine Position zumindest eines Teils des Werkstücks 5 zu bestimmen.

Description

  • Stand der Technik
  • Die Erfindung betrifft eine Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, wobei die Lasermaterialbearbeitungsanlage zur Bearbeitung eines Werkstücks ausgebildet ist und die Position des Werkstücks basierend auf von einem Sensor erfassten Daten bestimmt wird.
  • Vorrichtungen zum Fügen sind in der Fertigung weit verbreitet. Insbesondere in der industriellen Fertigung finden Fügevorrichtung zum Löten und/oder Schweißen Einsatz. Hierbei werden Fügeteile mittels Verlöten, eines Schweißpunktes und/oder einer Schweißnaht in einem Fügeprozess verbunden. Damit sichergestellt werden kann, dass dieser Prozess und/oder das daraus hergestellte Werkstück eine bestimmte Qualität erfüllt, ist es häufig vorgesehen, den Fügeprozess, die Fügeteile oder das Fügewerkzeug mittels Sensoren zu überwachen. Hierzu werden beispielsweise Videokameras eingesetzt.
  • Die Druckschrift DE 10 2008 042 261 A1 beschreibt ein Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät. Basierend auf einem Sensorsystem erfolgt ein räumliches Navigieren des Handhabungsgerät, beispielsweise zum Greifen und Ablegen. Hierzu werden Einzelmessungen durchgeführt und Messwerte über die Lage des Objekts bestimmt.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wird eine Überwachungsvorrichtung mit den Merkmalen des Anspruchs 1 vorgeschlagen. Ferner wird eine Lasermaterialbearbeitungsanlage mit den Merkmalen des Anspruchs 11, ein Verfahren zur Positionsbestimmung mit den Merkmalen des Anspruchs 14 und ein Computerprogramm mit den Merkmalen des Anspruchs 15 vorgeschlagen. Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den Unteransprüchen, der Beschreibung und den beigefügten Figuren.
  • Der Erfindung liegt die Aufgabe zu Grunde, eine Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage bereitzustellen, welche einen wirtschaftlich effizienten Einsatz der Lasermaterialbearbeitungsanlage ermöglicht, insbesondere auch für die Serienfertigung. Insbesondere ermöglicht die Überwachungsvorrichtung eine kostengünstige Sensorüberwachung mit hoher zeitlicher Auflösung und reduzierter Datenmenge, insbesondere reduzierter Bilddatenmenge. Im Speziellen ist durch eine reduzierte Datenmenge auch eine Sensorüberwachung und Datenspeicherung, beispielsweise zu Qualitätssicherungszwecken, auch während und/oder parallel zu der Lasermaterialbearbeitung.
  • Es wird eine Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, vorgeschlagen. Die Lasermaterialbearbeitungsanlage ist beispielsweise zur einer auf einem Laser basierenden Bearbeitung eines Werkstücks ausgebildet, z.B. als eine laserbasierte Fügeeinrichtung. Die Überwachungsvorrichtung ist insbesondere integrierbar, integriert und/oder nachrüstbar in die Lasermaterialbearbeitungsanlage. Die Überwachungsvorrichtung ist zur Überwachung der Lasermaterialbearbeitungsanlage, der laserbasierten Bearbeitung des Werkstücks, des Fügeverfahrens und/oder eines Verfahrensschrittes der laserbasierten Bearbeitung ausgebildet. Beispielsweise ist die Überwachungsvorrichtung ausgebildet, eine Überwachung zur Qualitätssicherung, Regelung, insbesondere Prozessregelung, und/oder Betriebssicherheit durchzuführen und/oder zu unterstützen.
  • Die Lasermaterialbearbeitungsanlage weist eine Lasereinrichtung zur Bearbeitung des Werkstücks mit einem Laser, beispielsweise zum Fügen, Aufschmelzen und/oder Schweißen. Insbesondere weist die Lasermaterialbearbeitungsanlage einen Laseroptikbereich auf, wobei der Laseroptikbereich insbesondere in einem Gehäuse der Lasermaterialbearbeitungsanlage angeordnet ist und/oder zur Handhabung und/oder zur Anordnung während der Bearbeitung ausgebildet ist. insbesondere verläuft mindestens ein Teil eines Laserstrahlengangs, kurz Strahlengang genannt, zur Bearbeitung des Werkstücks im Laseroptikbereich. Die Lasermaterialbearbeitungsanlage ist zur Herstellung und/oder Bearbeitung eines Werkstücks ausgebildet, das Werkstück wird im Speziellen auch als Bauteil bezeichnet.
  • Die Überwachungsvorrichtung weist einen Dynamic-Vision-Sensor auf. Der Dynamic-Vision-Sensor wird insbesondere auch als Eventkamera, neuromorphische Kamera und/oder silicon retina bezeichnet. Der Dynamic-Vision-Sensor weist eine Mehrzahl an Pixeln auf und ist im Speziellen ausgebildet, für die einzelnen Pixel unabhängig und/oder asynchron von den anderen Pixeln eine Helligkeitsänderung im jeweiligen Pixel zu detektieren und/oder auszugeben, wobei im Speziellen Pixel für die keine Helligkeitsänderung feststellbar ist stumm bleiben und/oder kein Signal ausgeben. Es ist eine Überlegung des Dynamic-Vision-Sensors für Pixel unabhängig eine auf Helligkeitsänderung basierendes Ausgabesignal zu bestimmen, sodass insbesondere nur Veränderungen detektiert und ausgegeben werden, wobei statische Szenen oder Pixel stumm bleiben ohne eine Ausgabe. Insbesondere ist der Dynamic-Vision-Sensor ausgebildet, eine Helligkeitsänderung ab einem vorgegebenen und/oder einstellbaren Schwellenwert als solche zu detektieren. Vorzugsweise ist der Dynamic-Vision-Sensor ausgebildet, zur Ausgabe eines Pixels Zusatzinformationen zu bestimmen und/oder anzugeben, beispielsweise eine Pixeladresse, einen Zeitstempel, eine Polarität und/oder ein Ansteige/Absteigeverhalten der Helligkeitsänderung. Der Dynamic-Vision-Sensor weist vorzugsweise eine Zeitauflösung besser als eine Mikrosekunde und/oder eine Dynamik besser als 120 dB auf. Der Dynamic-Vision-Sensor ist insbesondere in und/oder an der Lasermaterialbearbeitungsanlage anordenbar, befestigbar und/oder montierbar.
  • Die Überwachungsvorrichtung umfasst ein Führungsmodul. Speziellen teilen sich die Überwachungsvorrichtung und die Lasermaterialbearbeitungsanlage das Führungsmodul. Der Dynamic-Vision-Sensor ist vorzugsweise mit dem Führungsmodul wirkverbunden, beispielsweise an dem Führungsmodul befestigt. Der Dynamic-Vision-Sensor weist einen Erfassungsbereich auf. Im Speziellen ist der Dynamic-Vision-Sensor so mit dem Führungsmodul verbunden, dass das Führungsmodul den Dynamic-Vision-Sensor bewegt und/oder verfährt. Alternativ und/oder ergänzend ist das Führungsmodul ausgebildet und/oder eingerichtet, eine optische Ablenkung und/oder Bewegung des Erfassungsbereichs zu bewirken und/oder einen Strahlengang des Dynamic-Vision-Sensors, insbesondere des Erfassungsbereichs, abzulenken und/oder zu bewegen. Der Dynamic-Vision-Sensor ist ausgebildet, Helligkeitsänderungen in seinem Erfassungsbereich zu erfassen, zu detektieren und/oder abzubilden. Insbesondere wird unter Helligkeitsänderungen auch eine Intensitätsänderung von einfallendem Licht verstanden. Im Speziellen ist der Dynamic-Vision-Sensor ausgebildet, von Veränderungen, die von einer Relativbewegung zwischen Werkstück und Erfassungsbereich herrühren als Helligkeitsänderungen zu detektieren. Insbesondere ist der Dynamic-Vision-Sensor ausgebildet, ein Ereignisbild zu erzeugen und/oder für den Erfassungsbereich aufzunehmen. Insbesondere umfasst das Ereignisbild die erfassten Helligkeitsänderungen, wobei das Ereignisbild Bildpunkte umfasst, wobei jeden Bildpunkt insbesondere jeweils einem Pixel des Dynamic-Vision-Sensors zugeordnet ist. Das Ereignisbild basiert auf Sensorkoordinaten, wobei die Sensorkoordinaten beispielsweise auf den Pixeln des Dynamic-Vision-Sensors und/oder den Bildpunkten basieren. Die Sensorkoordinaten sind beispielsweise Koordinaten des Ereignisbildes, z.B. basierend auf einer Breite und Höhe des Ereignisbildes.
  • Der Dynamic-Vision-Sensor ist vorzugsweise ausgebildet, die lokale Helligkeitsänderung als Ereignisdaten bereitzustellen, beispielsweise als Daten, Tabelle oder Ereignisbild. Insbesondere umfassen die Ereignisdaten Signale und/oder Informationen aus Pixeln für die eine Helligkeitsänderung detektiert ist, wobei die Ereignisdaten vorzugsweise keine Daten oder Informationen aus Pixeln umfassen die keine Helligkeitsänderung detektiert haben. Im Vergleich zu üblichen optischen Bildern und/oder Aufnahmen umfassen die Ereignisdaten damit im Speziellen nur Informationen Signale und/oder Daten aus Pixeln die Änderungen insbesondere Helligkeitsänderungen, detektiert haben und keine Informationen, Signale und/oder Daten aus Pixeln für die die Szene statisch bleibt, so dass die Ereignisdaten im Vergleich zu üblichen Bilddaten einer optischen Aufnahme datenreduziert sind.
  • Das Führungsmodul ist ausgebildet und/oder eingerichtet den Dynamic-Vision-Sensor und/oder den Erfassungsbereich des Dynamic-Vision-Sensors zu bewegen und/oder abzulenken, insbesondere relativ zu dem Werkstück. Dabei kann der Dynamic-Vision-Sensor selbst bewegt werden oder bei stationärem Dynamic-Vision-Sensor der Erfassungsbereich abgelenkt und/oder bewegt werden. Beispielsweise umfasst das Führungsmodul eine kinematische Kette, im Speziellen eine Roboter- oder Linearkinematik. Alternativ und/oder ergänzend umfasst das Führungsmodul Ablenkmittel, beispielsweise optische Spiegel, Linsen und/oder Blenden, zur Ablenkung und/oder Bewegung des Erfassungsbereichs. Das Führungsmodul ist ausgebildet und/oder eingerichtet, den Dynamic-Vision-Sensor und/oder den Erfassungsbereich entlang einer Messaufnahmebahn zu bewegen, wobei die Messaufnahmebahn insbesondere eine Bahn und/oder Trajektorie im dreidimensionalen Raum ist. Im Speziellen beschreibt die Messaufnahmebahn eine Bahn und/oder Trajektorie des Erfassungsbereichs, im Speziellen eine Bahn und/oder Trajektorie auf einer Oberfläche des Werkstücks. Das Führungsmodul ist im Speziellen ausgebildet, den Dynamic-Vision-Sensor entlang der Messaufnahmebahn so zu bewegen und/oder den Erfassungsbereich so zu bewegen, dass der Erfassungsbereich des Dynamic-Vision-Sensors mindestens entlang eines Abschnitts des Werkstücks oder über das gesamte Werkstück geführt wird. Mit anderen Worten wird der Dynamic-Vision-Sensor und/oder der Erfassungsbereich von dem Führungsmodul so bewegt und/oder die Messaufnahmebahn ist so gewählt, dass der Dynamic-Vision-Sensor bei der Bewegung entlang der Messaufnahmebahn Ereignisbilder des Abschnitts des Werkstücks aufnehmen kann. Der Dynamic-Vision-Sensor ist ausgebildet, während der Bewegung entlang der Messaufnahmebahn mindestens ein, insbesondere eine Mehrzahl, an Ereignisbildern aufzunehmen, insbesondere zeigend einen Teil oder den ganzen Abschnitt des Werkstücks. Im Speziellen wird als Ereignisbild eine Sammlung aufeinanderfolgender Ereignisse, insbesondere Pixelevents, verstanden.
  • Die Überwachungseinrichtung weist eine Auswerteeinheit auf. Die Auswerteeinheit kann softwaretechnisch oder hardwaretechnisch ausgebildet sein. Insbesondere kann die Auswerteeinheit integriert oder Teil des Dynamic-Vision-Sensor sein. Der Auswerteeinheit sind die Ereignisbilder bereitgestellt. Ferner sind der Auswerteeinheit insbesondere die Messaufnahmebahn bereitgestellt. Die Ereignisbilder umfassen vorzugsweise einen Zeitstempel und/oder eine globale Position des Dynamic-Vision-Sensors und/oder Ablenkung des Erfassungsbereichs zur Aufnahmezeit, wobei die globale Position des Dynamic-Vision-Sensors und/oder die Ablenkung des Erfassungsbereichs zum Aufnahmezeitpunkt des Ereignisbildes auch Aufnahmeposition des Ereignisbildes genannt wird. Insbesondere ist die Auswerteeinheit ausgebildet basierend auf dem Zeitstempel und/oder der Messaufnahmebahn die globale Aufnahmeposition zu bestimmen. Die globale Aufnahmeposition ist insbesondere durch einen Punkt im Raum gegeben, beispielsweise als Raumkoordinate im globalen Raum, im Raum der Lasermaterialbearbeitungsanlage und/oder einem Weltkoordinatensystem. Der Auswerteeinheit sind insbesondere für die Ereignisbilder jeweils die globale Aufnahmeposition bereitgestellt und/oder die Auswerteeinheit bestimmt die zugehörige globale Aufnahmeposition.
  • Die Auswerteeinheit ist ausgebildet, basierend auf dem Ereignisbild und/oder den Ereignisbildern und der zu den Ereignisbildern gehörigen globalen Aufnahmepositionen zumindest eine Position zumindest eines Teils des Werkstücks zu bestimmen, insbesondere eine globale Position des Werkstücks zu bestimmen. Dies basiert insbesondere auf der Überlegung, dass durch die Verrechnung des Ereignisbildes mit der bekannten Position des Dynamic-Vision-Sensors bzw. der globalen Aufnahmeposition aus den detektierten Ereignissen bzw. Helligkeitsänderungen eine Repräsentation des Betrachteten Objekts generiert werden kann, wobei durch das Bewegen des Dynamic-Vision-Sensors bzw. des Erfassungsbereichs entlang der bekannten Messaufnahmebahn über das Werkstück die Ereignisse und/oder das Ereignisbild von den lokalen Koordinaten, insbesondere den Sensorkoordinaten, auf das globale Koordinatensystem gemappt und/oder transformiert werden können, sodass daraus die Position des Werkstücks bestimmt werden kann.
  • Die Erfindung basiert auf der Überlegung, eine Event-basierten Kamera (Dynamic-Vision-Sensor) zur Bauteillageerkennung und Bauteilvermessung zu verwenden, wobei eine Bewegung der eventbasierten Kamera und/oder dessen Erfassungsbereich in einer bekannten Bahn (Messaufnahmebahn), beispielsweise durch eine Laserbearbeitungsoptik und/oder einen Großfeldscanner hindurch, vorgesehen ist. Die Bewegung kann im Speziellen von einem Scanner, dem Führungsmodul und/oder der Lasermaterialbearbeitungsanlage gesteuert sein. Dabei ist insbesondere die Messaufnahmebahn im Maschinen-, Werkstück- oder Bewegungskoordinatensystem mit Raum-Zeit-Koordinaten (x,y,z,t) beschrieben und/oder festgelegt. Der Dynamic-Vision-Sensor ist zur Registrierung der durch die Bewegung resultierenden Intensitätsänderungen als Events ausgebildet, wobei die Events vorzugsweise in Sensorkoordinaten, auch Kamerakoordinaten genannt (xK,yK,tK) bestimmt und/oder bereitgestellt sind. Durch eine Verrechnung der globalen Aufnahmeposition mit der Eventposition im Bild zur Erzeugung eines globalen Gesamtbildes wird insbesondere die Position des Werkstücks bestimmt.
  • Dies hat insbesondere den Vorteil, dass der Dynamic-Vision-Sensor Events, insbesondere Helligkeitsänderungen und/oder Ereignisse, erzeugt und/oder detektiert, wenn sich die Intensität auf einem Pixel ändert, was durch die Bewegung des Dynamic-Vision-Sensors erzeugt wird und/oder erzeugt ist. Insbesondere werden in Bezug auf den Dynamic-Vision-Sensor Helligkeitsänderungen, Events und Ereignisse im Wesentlichen gleichbedeutend verwendet. Im Speziellen haben die Events keine Bewegungsunschärfe, was eine sehr hohe Bewegungsgeschwindigkeit (Aufnahmegeschwindigkeit) des Dynamic-Vision-Sensors bei gleichbleibend hoher räumlicher Auflösung erlaubt. Durch die bekannte Bahngeometrie der Messaufnahmebahn können die einzelnen Events einem globalen Ort zuordnet werden. Insbesondere wird das Sichtfeld der Kamera durch einen Laserscanner wesentlich vergrößert ohne an Auflösung zu verlieren. Die reine Aufnahmezeit eines Werkstücks, beispielsweise eines Stators einer E-Maschine, kann mindestens um einen erheblichen Faktor, im Speziellen mindestens Faktor 20, verringert werden.
  • Eine Ausgestaltung der Erfindung sieht vor, dass die Auswerteeinheit ausgebildet und/oder eingerichtet ist, ein globales Gesamtbild zu generieren und/oder zu bestimmen. Das globale Gesamtbild wird von der Auswerteeinrichtung insbesondere basierend auf dem mindestens einen und/oder eine Mehrzahl von Ereignisbildern und der zu dem und/oder zu den Ereignisbildern gehörenden Aufnahmeposition, im Speziellen der globalen Aufnahmeposition, bestimmt. Beispielsweise werden die Ereignisse und/oder die lokalen Helligkeitsänderungen, insbesondere umfasst von dem und/oder den Ereignisbildern, basierend auf der globalen Aufnahmeposition zu dem globalen Gesamtbild verarbeitet und/oder zusammengesetzt. Das globale Gesamtbild zeigt insbesondere den Abschnitt des Werkstücks und/oder das Werkstück. Beispielsweise ist das globale Gesamtbild ausgebildet, das Werkstück und/oder den Abschnitt des Werkstückes global abzubilden und/oder zu zeigen, beispielsweise aus der Perspektive des Strahlengangs und/oder der Laseroptik der Lasermaterialbearbeitungsanlage.
  • Besonders bevorzugt ist es, dass die Auswerteeinheit ausgebildet und/oder eingerichtet ist, eine Bauteilvermessung durchzuführen, wobei unter der Bauteilvermessung beispielsweise die Vermessung des Werkstückes und/oder des Abschnittes des Werkstücks verstanden wird. Die Bauteilvermessung durch die Auswerteeinheit erfolgt insbesondere basierend auf dem und/oder den Ereignisbildern und/oder der zu den Ereignisbildern gehörigen Aufnahmeposition. Ferner kann es vorgesehen sein, bei einer bekannten Geometrie und/oder Abmessung eines Bauteils und/oder Werkstückes basierend auf den Ereignisbildern und der zugehörigen Aufnahmeposition der Ereignisbilder eine Kalibration der Überwachungsvorrichtung, insbesondere des Dynamic-Vision-Sensors durchzuführen. Beispielsweise kann es vorgesehen sein in regelmäßigen Abständen ein Referenzwerkstück zur Kalibration und/oder Qualitätssicherung der Überwachungsvorrichtung zu nutzen, insbesondere dessen Position zu bestimmen und/oder daran die Bauteilvermessung durchzuführen.
  • Insbesondere ist es vorgesehen, dass die Lasermaterialbearbeitungsanlage einen Laseroptikbereich aufweist. Der Laseroptik ist beispielsweise im Gehäuse und/oder in der Umgebung des Werkstückes während der Bearbeitung durch die Lasermaterialbearbeitungsanlage angeordnet. Der Laseroptikbereich umfasst beispielsweise einen Teil und/oder Abschnitt des Strahlengangs des Lasers zur Bearbeitung des Werkstücks. Insbesondere ist es vorgesehen, dass die Meßaufnahmebahn mindestens abschnittsweise im Laseroptikbereich, im Strahlengang der Lasermaterialbearbeitungsanlage und/oder Umgebung des Werkstückes verläuft. Beispielsweise ist die Meßaufnahmebahn an eine Kontur, Geometrie und/oder Abmessung des Werkstückes angepasst. Beispielsweise folgt die Meßaufnahmebahn der Kontur des Werkstückes. Beispielsweise ist die Meßaufnahmebahn angeordnet und/oder ausgebildet, dass der Erfassungsbereich des Dynamik-Vision-Sensors in einer Bearbeitungsebene des Lasers der Lasermaterialbearbeitungsanlage liegt und/oder bewegt wird. Besonders bevorzugt ist es, dass die Meßaufnahmebahn eine geschlossene Bahn darstellt, beispielsweise durch Ringschluss.
  • Insbesondere ist es vorgesehen, dass die Meßaufnahmebahn in globalen Koordinaten und/oder Koordinaten der Lasermaterialbearbeitungsanlage definiert ist, bereitgestellt ist und/oder bestimmt wird. Insbesondere ist die Meßaufnahmebahn definiert, hinterlegt und/oder bereitgestellt in Koordinaten der Lasermaterialbearbeitungsanlage und/oder in den globalen Koordinaten. Mit anderen Worten sind der Auswerteeinheit die Meßaufnahmebahn und die Ereignisse bzw. die Ereignisbilder in verschiedenen Koordinatensystem bereitgestellt.
  • Besonders bevorzugt ist es, dass die Ereignisse im Ereignisbild in lokalen Koordinaten, insbesondere den Sensorkoordinaten, umfasst sind. Die Sensorkoordinaten sind beispielsweise Bildkoordinaten, beispielsweise gegeben durch die Pixelierung des Dynamic-Vision-Sensors und/oder durch Bildpunkte der Ereignisbilder. Insbesondere sind Ereignisse in den Ereignisbildern in 2-dimensionale Koordinaten, vorzugsweise zusammen mit einem Zeitstempel, hinterlegt und/oder gespeichert. Der Auswerteeinheit sind somit vorzugsweise die Ereignisbilder und/oder die Ereignisse in den Ereignisbildern basierend auf Sensorkoordinaten bereitgestellt, wobei die Meßaufnahmebahn in globalen Koordinaten bereitgestellt ist, wobei die Auswerteeinheit insbesondere zu der Transformation zwischen den beiden Koordinatensysteme ausgebildet ist. Beispielsweise ist die Auswerteeinheit ausgebildet, basierend auf der globalen Aufnahmeposition eines Ereignisbildes die Ereignisse, Events und/oder Bildpunkte des Ereignisbildes in das globale Koordinatensystem zu transformieren und/oder zum mappen. Insbesondere erfolgt das Transformieren und/oder Mapping der Ereignisbilder und/oder der Ereignisse in den Ereignisbildern basierend auf der bekannten und/oder ermittelten Meßaufnahmebahn, wobei die Meßaufnahmebahn insbesondere in den globalen Koordinaten bekannt und/oder bestimmt
  • Eine Ausgestaltung der Erfindung sieht vor, dass die Auswerteeinheit ausgebildet und/oder eingerichtet ist, Ereignisse einer Mehrzahl an Ereignisbildern und/oder eine Mehrzahl an Ereignisbildern zu kumulieren und/oder aufzusummieren. Insbesondere werden die Ereignisse gleicher Orte aus eine Mehrzahl an Ereignisbildern kumuliert und/oder aufsummiert. Beispielsweise werden mehrere Bereiche und/oder Teilbereiche des Werkstückes und/oder des Abschnittes des Werkstückes in verschiedenen Ereignisbildern aufgenommen und/oder abgebildet, insbesondere werden Ereignisse für die gleichen Bereiche und/oder Teilbereiche ermittelt, wobei durch das kumulieren und/oder aufsummieren Erkenntnisse aus eine Mehrzahl von Ereignisfiltern genutzt werden.
  • Insbesondere ist es vorgesehen, dass die Auswerteeinheit ausgebildet und/oder eingerichtet ist, eine globale Eventkarte zu bestimmen. Die globale Eventkarte basiert insbesondere auf den aufsummierten und/oder kumulierten Ereignissen, insbesondere den kumulierten und/oder aufsummierten Einzelbildern. Beispielsweise basiert dies auf der Transformation und/oder dem Mapping von Ereignissen auf globale Koordinaten, wobei Ereignisse für gleiche globale Koordinaten aufsummiert und/oder kumuliert werden und/oder darauf basierend die globale Eventkarte bestimmt wird.
  • Besonders bevorzugt ist es, dass die Überwachungsvorrichtung eine Beleuchtungseinrichtung aufweist. Beispielsweise ist die Beleuchtungseinrichtung Teil der des Führungsmoduls. Die Beleuchtungseinrichtung ist ausgebildet und/oder eingerichtet den Erfassungsbereich des Dynamic-Vision-Sensors, insbesondere das Werkstück und/oder den Abschnitt des Werkstückes, zur Aufnahme der Ereignisbilder zu beleuchten.
  • Besonders bevorzugt ist es, dass der Dynamic-Vision-Sensor einen Dynamikbereich von mindestens 100 dB, im Speziellen von mindestens 120 dB aufweist.
  • Einen weiteren Gegenstand der Erfindung bildet eine Lasermaterialbearbeitungsanlage, wobei die Lasermaterialbearbeitungsanlage die Überwachungsvorrichtung umfasst. Beispielsweise ist die Lasermaterialbearbeitungseinlage eine Anlage zum Laserfügen, Laserschweißen, Laserappellation und/oder laserbasierten Oberflächenbehandlung. Besonders bevorzugt ist es, dass die Bearbeitung des Werkstückes durch die Lasermaterialbearbeitungsanlage, insbesondere durch den Laser der Lasermaterialbearbeitungsanlage, gleichzeitig und/oder parallel zur Aufnahme der Ereignisbilder erfolgt. Dadurch ist es möglich, schon während der Bearbeitung des Werkstückes Bilder zur Bestimmung der Position, insbesondere zur Nachführung und/oder Positionierung des Werkstückes aufzunehmen.
  • Besonders bevorzugt umfasst die Laserbearbeitungsanlage, im Speziellen die Auswerteeinheit der Überwachungsvorrichtung, eine Steuereinrichtung. Der Steuereinrichtung ist insbesondere die Position des Werkstücks, insbesondere globale Position und/oder Werkstückabmessung, bereitgestellt. Die Steuereinrichtung ist ausgebildet und/oder eingerichtet, basierend auf den Ergebnissen der Überwachungsvorrichtung, insbesondere basierend auf den Ergebnissen der Auswerteeinheit das Werkstück in der Lasermaterialbearbeitungsanlage zu positionieren und/oder nachzuführen. Im Speziellen ist die Steuereinrichtung ausgebildet und/oder eingerichtet, den Laser der Lasermaterialbearbeitungsanlage zur Bearbeitung des Werkstückes basierend auf der von der Auswerteeinheit bestimmten Position anzusteuern und/oder zu führen.
  • Einen weiteren Gegenstand der Erfindung bildet ein Verfahren zur Positionsbestimmung eines Werkstückes, insbesondere unter Verwendung der Überwachungsvorrichtung. Das Verfahren sieht vor, dass ein Dynamic-Vision-Sensor oder der Erfassungsberiech des Dynamic-Vision-Sensors entlang einer Meßaufnahmebahn bewegt wird, insbesondere entlang der Meßaufnahmebahn so bewegt wird, dass ein Abschnitt des Werkstückes und/oder das Werkstück im Erfassungsbereich des Dynamik-Vision-Sensors liegt. Während der Bewegung entlang der Meßaufnahmebahn, insbesondere während der Bewegung über das Werkstück und/oder den Abschnitt des Werkstückes, werden vom Dynamik-Vision-sensor ein oder mehrere Ereignisbilder aufgenommen. Das Ereignisbild bildet ab und/oder umfasst lokale Helligkeitsänderungen in dem Erfassungsbereich, wobei die Helligkeitsänderung beispielsweise basierend auf der Bewegung entlang der Messaufnahmebahn erzeugt sind. Basierend auf den aufgenommenen Ereignisbildern und der bekannten Meßaufnahmebahn bzw. der zu der dem Ereignisbild gehörigen globalen Position wird die Position des Werkstücks ermittelt und/oder bestimmt, wobei die Position des Werkstückes als globale Position und/oder in globalen Koordinaten ermittelt und/oder bestimmt wird.
  • Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, insbesondere mit Programmcodemitteln. Das Computerprogramm ist ausgebildet und/oder eingerichtet zur Ausführung auf einem Computer und/oder der Überwachungsvorrichtung. Das Computerprogramm ist ausgebildet und/oder eingerichtet bei seiner Ausführung das Verfahren zur Positionsbestimmung des Werkstückes und/oder Verfahrensschritte des Verfahrens auszuführen und/oder zu implementieren.
  • Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
    • 1 zeigt ein Ausführungsbeispiel einer Lasermaterialbearbeitungsanlage;
    • 2 ein Werkstück mit Erfassungsbereiche verschiedene Ereignisbilder;
    • 3 Beispiel eines Ereignisbildes;
    • 4 umgerechnete Ereignisbild;
    • 5 schematisches Flussdiagramm zur Positionsbestimmung eines Werkstücks.
  • 1 zeigt ein Ausführungsbeispiel einer Lasermaterialbearbeitungsanlage 1. Die Lasermaterialbearbeitungsanlage 1 ist beispielsweise als ein Großfeldscanner ausgebildet. Die Lasermaterialbearbeitungsanlage 1 umfasst eine Laserquelle 2, wobei von der Laserquelle 2 ein Laserstrahl 3 erzeugt wird und entlang eine Strahlengang, insbesondere durch einen Laseroptikbereich 4 geführt wird. Der Laser 3 wird zur Materialbearbeitung eines Werkstückes 5 durch ein Ablenkungsmodul 6 auf das Werkstück 5 fokussiert und/oder abgelenkt. Der Laser 3 dient beispielsweise zur Ablation und/oder dem Aufschmelzen des Werkstückes 5.
  • Das Werkstück 5 ist in einem Anlagenraum 7 angeordnet und/oder positioniert, wobei das Werkstück 5 insbesondere in dem Anlagenraum 7 verfahrbar und/oder verschiedentlich anordenbar ist. Die Position des Werkstückes 5 ist insbesondere in globalen Koordinaten, beispielsweise einem globalen Koordinatensystem 8 mit den Koordinaten XG und YG beschrieben. insbesondere ist die Position des Werkstückes 5 in diesen Koordinaten, bzw. globalen Koordinaten und/oder auch globale Position genannt, zu bestimmen und/oder gewünscht.
  • Zur Bestimmung der Position und/oder Lage des Werkstückes 5 umfasst die Lasermaterialbearbeitungsanlage 1 eine Überwachungsvorrichtung 9. Die Überwachungsvorrichtung 9 umfasst einen Dynamic-Vision-Sensor, wobei der Dynamic-Vision-Sensor einen Erfassungsbereich 10 aufweist. Der Dynamic-Vision-Sensor ist ausgebildet, Helligkeitsänderungen in seinem Erfassungsbereich 10 zu detektieren und als Ereignisse 11 zu speichern, beispielsweise als ein Ereignisbild 12. Insbesondere kann das Ereignisbild 12 als eine Liste und/oder Tabelle mit den Ereignissen 11, auch Events genannt ausgebildet sein, beispielsweise als eine Liste von Koordinaten an denen ein Ereignis 11 und/oder Event detektiert wurde. Das Ereignisbild 12 und/oder die Koordinaten der Ereignisse 11 im Ereignisbild 12 basieren insbesondere auf einem auf Sensorkoordinaten und/oder einen Sensor Koordinatensystem. Die Sensorkoordinaten werden insbesondere mit XS und YS bezeichnet.
  • Die Überwachungsvorrichtung 9 umfasst ein Führungsmodul. Das Führungsmodul ist ausgebildet den Erfassungsbereich 10 über einen Abschnitt des Werkstückes 5 und/oder das Werkstück 5 zu bewegen. Beispielsweise kann hierzu eine Ablehnungseinheit 6, insbesondere im Bereich der Ablenkeinheit 6 des Lasers 3 vorgesehen sein und/oder von der Ablenkeinheit 6 des Lasers 3 gebildet sein. Das Führungsmodul, insbesondere die Ablenkeinheit 6, ist ausgebildet, den Erfassungsbereich 10 entlang einer Meßaufnahmebahn 13 zu verschieben. Das Führungsmodul führt und/oder bewegten Erfassungsbereich 10 des Dynamic-Vision-Sensors über das Werkstück 5, sodass nach und nach verschiedene Bereiche und/oder Abschnitte des Werkstückes 5 im Erfassungsbereich des Dynamic-Vision-Sensors liegen. Der Dynamic-Vision-Sensor detektiert die aus der Bewegung des Erfassungsbereichs resultierenden Helligkeitsänderungen in seinem Erfassungsbereich 10 als Ereignisse 11.
  • Die Überwachungsvorrichtung 9 umfasst eine Auswerteeinheit, wobei die Auswerteeinheit ausgebildet ist, die Position des Werkstückes 5 basierend auf dem Ereignisbild 12 und/oder den Ereignissen 11 resultierend aus der Bewegung des Erfassungsbereichs 10 über das Werkstück 5 zu bestimmen. Hierzu erfolgt eine Transformation der Ereignisse 11 und/oder Events detektiert vom Dynamic-Vision-Sensor in das globale Koordinatensystem 8 und/oder in globale Koordinaten. Hierzu können insbesondere Transformationen wie Translation, Rotation und/oder Scherung finden. Beispielsweise kann als Transformation eines Ereignisses 11 am Punkt E1 (XS, YS) im Sensorkoordinatensystem in globale Koordinaten E1 (XG, YG) umgerechnet werden. Hierzu kann beispielsweise die Gleichung E ( x G , y G ) = S ( x G , y G ) + T r a n s f o r m a t i o n ( E ( x S , y S ) )
    Figure DE102022203359A1_0001
    angewendet werden, wobei S (XG, YG) die Scannerposition des Lasers 3 in globalen Koordinaten beschreibt.
  • 2 zeigt beispielhaft ein Werkstück 5 in Form eines Stators mit Pins 14 einer E-Maschine. Ferner sind Erfassungsbereiche 10a, b, c und d des Dynamic-Vision-Sensors zu verschiedenen Zeiten t1, t2, t3 und tn eingezeichnet. Hierzu wird vom Führungsmodul der Erfassungsbereich 10 entlang der Messaufnahmebahn 13 über das Werkstück 5 bewegt.
  • Die Meßaufnahmebahn 13 ist in diesem Ausführungsbeispiel ringförmig ausgebildet. Da die Ereignisse 11, bzw. die Events, kontinuierlich ohne Bewegungsunschärfe erzeugt werden und vom Dynamic-Vision-Sensor aufgenommen werden, kann der Erfassungsbereich 10 sehr schnell über das Werkstück 5 geführt werden. Der Dynamic-Vision-Sensor detektiert beim Überstreifen und/oder seiner Bewegung über Werkstückes 5, beispielsweise der Pins 14, Helligkeitssprünge und zeichnet diese als Ereignisse 11 auf.
  • Betrachtet man beispielsweise die Ereignisse 11 die der Dynamic-Vision-Sensor in einem Zeitabschnitt t1 bis t1+Δt sieht und summiert diese auf, erhält man das Ereignisbild 12 aus 3. Die Ereignisse 12 sind beispielsweise durch Bildpunkte im Ereignisbild 12 dargestellt. Im Ereignisbild 12 sind die Pins 14 selbst zunächst nicht erkennbar. Durch die Verrechnung des Ereignisbildes 12 mit der globalen Position des Dynamic-Vision-Sensors und/oder des Erfassungsbereichs wird aus dem Ereignisbild bzw. den zugehörigen Ereignissen wieder eine Repräsentation des aufgenommenen Werkstücks 5 generiert.
  • 4 zeigt hierzu schematisch die Rekonstruktion des Werkstücks 5. Jedes Ereignis 11 der Ereignisbilder 12 wurde in ein globales Koordinatensystem umgerechnet, sodass die globale Repräsentation der Ereignisse 11 erhalten wurde. Hierbei stellt jedes Karo 15 bzw. jeder dargestellte Punkt. Wieder ein Ereignis 11 dar, welches nun im globalen Koordinatensystem 8 repräsentiert ist. Die gestrichelte Linie 16 zeigt die aus den Ereignissen 11 bzw. Karos 15 ermittelte Bauteilgeometrie.
  • 5 zeigt ein Ausführungsbeispiel des Verfahrens zur Positionsbestimmung des Werkstückes 5. In einem ersten Verfahrensschritt 100 wird der Dynamic-Vision-Sensor über das Werkstück 5, im Speziellen der Erfassungsbereich 10 des Dynamic-Vision-Sensors, entlang einer Meßaufnahmebahn 13 bewegt. Während des Führens bzw. des Bewegens des Erfassungsbereichs 10 über das Werkstück 5 werden in einem Verfahrensschritt 200a vom Dynamic-Vision-Sensor Ereignisbilder 12 aufgenommen. Die Ereignisbilder 12 umfassen Ereignisse 11, hier als Repräsentanten für Helligkeitsänderungen im Erfassungsbereich 10. Die Ereignisse 11 sind im Ereignisbild 12 in einem Sensorkoordinatensystem 12 angegeben und/oder gespeichert. Ferner wird in einem Verfahrensschritt 200b die Meßaufnahmebahn 13, bzw. die Position Dynamic-Vision-Sensor und/oder des Erfassungsbereichs 10 aufgenommen und/oder gespeichert. Die Meßaufnahmebahn 13 und/oder die Position des Erfassungsbereichs 10 wird in einem globalen Koordinatensystem 8 aufgenommen und/oder ermittelt.
  • In dem Verfahrensschritt 300 erfolgt das Mapping der Ereignisse 11 der Ereignisbilder 12 in das globales Koordinatensystem 8. Hierzu können Transformationsalgorithmen der Bildverarbeitung herangezogen werden insbesondere Translation, Rotation und ähnliche geometrische Transformationen. Die in das globale Koordinatensystem 8 transformierten und/oder gemappten Ereignisse 11 werden im Verfahrensschritt 500 für gleiche globalen Positionen aufsummiert. Insbesondere können so Fehler aus unterschiedlicher Ereignisbildern 12 ausgeglichen werden.
  • In dem Verfahrensschritt 500 wird eine globale Eventkarte, auch Ereigniskarte genannt, erzeugt. Dies basiert insbesondere auf der Kartierung und/oder Speicherung der summierten Ereignisse im globalen Koordinatensystem 8.
  • Im Verfahrensschritt 600 wird basierend auf der globalen Eventkarte, insbesondere den Ereignissen 11 transformiert auf das globale Koordinatensystem 8, die Position des Werkstücks und/oder Bauteils im globalen Koordinatensystem 8 bestimmt und/oder ermittelt. Basierend auf der bestimmten Position des Werkstückes und/oder des Bauteils kann dieses zur weiteren Bearbeitung in der Lasermaterialbearbeitungsanlage nachgeführt, justiert und/oder umpositioniert werden
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008042261 A1 [0003]

Claims (15)

  1. Überwachungsvorrichtung (9), insbesondere für eine Lasermaterialbearbeitungsanlage (1), die zur Bearbeitung eines Werkstücks (5) ausgebildet ist, mit einem Führungsmodul und einem Dynamic-Vision-Sensor, wobei der Dynamic-Vision-Sensor einen Erfassungsbereich (10) aufweist und ausgebildet ist, eine lokale Helligkeitsänderung im Erfassungsbereich (10) zu detektieren und als Ereignisbild (12) bereitzustellen, wobei das Ereignisbild (12) auf lokalen Sensorkoordinaten basiert, wobei das Führungsmodul ausgebildet ist, den Erfassungsbereich (10) und/oder den Dynamic-Vision-Sensor entlang einer Messaufnahmebahn über einen Abschnitt des Werkstücks (5) zu bewegen, wobei der Dynamic-Vision-Sensor ausgebildet ist, bei der Bewegung entlang der Messaufnahmebahn die Ereignisbilder (12) aufzunehmen, mit einer Auswerteeinheit, wobei der Auswerteeinheit die Ereignisbilder (12) und jeweils zu den Eingangsbildern gehörige globale Aufnahmepositionen bereitgestellt sind, wobei die Auswerteeinheit ausgebildet und/oder eingerichtet ist, basierend auf der globalen Aufnahmeposition und den Ereignisbildern (12) zumindest eine Position zumindest eines Teils des Werkstücks (5) zu bestimmen.
  2. Überwachungsvorrichtung (9) nach Anspruch 1, dadurch gekennzeichnet, dass die Auswerteeinheit ausgebildet und/oder eingerichtet ist, basierend auf der globalen Aufnahmeposition und den Ereignisbildern (12) ein globales Gesamtbild des Abschnitts des Werkstücks (5) zu bestimmen.
  3. Überwachungsvorrichtung (9) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Auswerteeinheit ausgebildet und/oder eingerichtet ist, basierend auf der globalen Aufnahmeposition und den Ereignisbildern (12) eine Bauteilvermessung durchzuführen.
  4. Überwachungsvorrichtung (9) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Lasermaterialbearbeitungsanlage (1) einen Laseroptikbereich (4) aufweist, wobei die Messaufnahmebahn mindestens abschnittsweise im Laseroptikbereich (4) verläuft und/oder angeordnet ist.
  5. Überwachungsvorrichtung (9) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Messaufnahmebahn in globalen Koordinaten und/oder in Koordinaten der Lasermaterialbearbeitungsanlage (1) definiert ist und/oder zur Ansteuerung der Bewegung angewendet wird.
  6. Überwachungsvorrichtung (9) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit ausgebildet ist, die Ereignisse (11) des auf den lokalen Sensorkoordinaten basierenden Ereignisbildes (12) in ein globales Koordinatensystem (8) zu transformieren und/oder zu mappen.
  7. Überwachungsvorrichtung (9) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit ausgebildet ist, die Ereignisse (11) einer Mehrzahl an Ereignisbildern (12) für gleiche globale Orte zu kumulieren und/oder aufzusummieren.
  8. Überwachungsvorrichtung (9) nach Anspruch 7, dadurch gekennzeichnet, dass die Auswerteeinheit ausgebildet ist, basierend auf den kumulierten und/oder aufsummierten Ereignissen (11) eine globale Eventkarte zu bestimmen.
  9. Überwachungsvorrichtung (9) nach einem der vorherigen Ansprüche, gekennzeichnet durch eine Beleuchtungseinrichtung zur Beleuchtung des Abschnitts des Werkstücks (5) bei der Aufnahme der Ereignisbilder (12).
  10. Überwachungsvorrichtung (9) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Dynamic-Vision-Sensor einen Dynamikbereich von mindestens 100 dB aufweist.
  11. Lasermaterialbearbeitungsanlage (1) mit der Überwachungsvorrichtung (9) nach einem der vorherigen Ansprüche.
  12. Lasermaterialbearbeitungsanlage (1) nach Anspruch 11, dadurch gekennzeichnet, dass der Dynamic-Vision-Sensor zur Aufnahme und/oder Beobachtung der Lasermaterialbearbeitung ausgebildet ist.
  13. Lasermaterialbearbeitungsanlage (1) nach Anspruch 11 oder 12, gekennzeichnet durch eine Steuereinrichtung, wobei die Steuereinrichtung ausgebildet ist das Werkstück (5) basierend auf der durch die Auswerteeinheit bestimmte Position nachzuführen und/oder zu positionieren.
  14. Verfahren zur Positionsbestimmung eines Werkstückes (5), insbesondere unter Verwendung der Überwachungsvorrichtung (9) nach einem der Ansprüche 1 bis 10, wobei ein Dynamic-Vision-Sensor und/oder ein Erfassungsberiech des Dynamic-Vision-Sensors entlang einer Meßaufnahmebahn (13) bewegt wird, wobei während der Bewegung entlang der Meßaufnahmebahn (13), vom Dynamik-Vision-Sensor ein oder mehrere Ereignisbilder (12) aufgenommen, wobei das Ereignisbild (12) lokale Helligkeitsänderungen in dem Erfassungsbereich (10) umfasst und/oder beschreibt, wobei basierend auf den Ereignisbildern (12) und der Meßaufnahmebahn (13) und/oder der zu der dem Ereignisbild (12) gehörigen globalen Position zumindest eine Position zumindest eines Teils des Werkstücks (5) ermittelt und/oder bestimmt wird.
  15. Computerprogramm ausgebildet und/oder eingerichtet zur Ausführung auf einem Computer und/oder der Überwachungsvorrichtung (9), wobei das Computerprogramm ist ausgebildet und/oder eingerichtet bei seiner Ausführung das Verfahren zur Positionsbestimmung des Werkstückes (5) und/oder Verfahrensschritte des Verfahrens nach Anspruch 14 auszuführen und/oder zu implementieren.
DE102022203359.0A 2021-11-10 2022-04-05 Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, Lasermaterialbearbeitungsanlage, Verfahren und Computerprogramm Pending DE102022203359A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021212652.9 2021-11-10
DE102021212652 2021-11-10

Publications (1)

Publication Number Publication Date
DE102022203359A1 true DE102022203359A1 (de) 2023-05-11

Family

ID=86053070

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022203359.0A Pending DE102022203359A1 (de) 2021-11-10 2022-04-05 Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, Lasermaterialbearbeitungsanlage, Verfahren und Computerprogramm

Country Status (1)

Country Link
DE (1) DE102022203359A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117798522A (zh) * 2024-03-01 2024-04-02 深圳欧斯普瑞智能科技有限公司 基于机器视觉的激光切割头精确定位方法
CN117968600A (zh) * 2024-04-02 2024-05-03 皓星智能装备(东莞)有限公司 一种电机定子尺寸检测设备及其检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008042261A1 (de) 2008-09-22 2010-04-01 Robert Bosch Gmbh Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008042261A1 (de) 2008-09-22 2010-04-01 Robert Bosch Gmbh Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117798522A (zh) * 2024-03-01 2024-04-02 深圳欧斯普瑞智能科技有限公司 基于机器视觉的激光切割头精确定位方法
CN117798522B (zh) * 2024-03-01 2024-05-17 深圳欧斯普瑞智能科技有限公司 基于机器视觉的激光切割头精确定位方法
CN117968600A (zh) * 2024-04-02 2024-05-03 皓星智能装备(东莞)有限公司 一种电机定子尺寸检测设备及其检测方法

Similar Documents

Publication Publication Date Title
DE102005022095B4 (de) Verfahren und Vorrichtung zur Bestimmung einer lateralen Relativbewegung zwischen einem Bearbeitungskopf und einem Werkstück
DE102022203359A1 (de) Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, Lasermaterialbearbeitungsanlage, Verfahren und Computerprogramm
EP2886239B1 (de) Verfahren und vorrichtung zur überwachung und regelung der bearbeitungsbahn bei einem laser-fügeprozess
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE2356491C3 (de) Steueranordnung für eine Schweißeinrichtung
DE10361018B4 (de) Verfahren zum Erkennen einer auf einem Substrat aufzubringenden Struktur mit mehreren Kameras sowie eine Vorrichtung hierfür
WO2004085957A1 (de) Verfahren zur berührungslosen dynamischen erfassung des profils eines festkörpers
DE10335501A1 (de) Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl
EP3102361B1 (de) Verfahren zum identifizieren einer randkontur einer an einem bearbeitungskopf gebildeten öffnung und bearbeitungsmaschine
DE3901185A1 (de) Verfahren sowie vorrichtung zur beruehrungslosen messung der deformation und des verschleisses von schienen
DE102005045854B3 (de) Verfahren und System zur Kalibrierung einer Kamera in Produktionsmaschinen
WO2007039641A1 (de) Verfahren zur berührungslosen dynamischen erfassung des profils eines festkörpers
EP2131145A1 (de) Optische Überwachungseinrichtung
DE102016102579A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Vielzahl von Raumkoordinaten an einem Gegenstand
DE102019209376A1 (de) Vorrichtung und Verfahren zur Überwachung eines Laserbearbeitungsprozesses, Verwendung einer ereignisbasierten Kamera, Computerprogramm und Speichermedium
DE102018217940A1 (de) Verfahren und Bearbeitungsmaschine zum Bearbeiten eines Werkstücks
DE102006049627A1 (de) Verfahren und Vorrichtung zur Feinpositionierung eines Werkzeugs mit einer Handhabungseinrichtung
EP0701104A2 (de) Lichtschnitt-Triangulations-Verfahren und Vorrichtung zur on-line-Vermessung von bewegten Profilen
DE202010008808U1 (de) Bearbeitungswerkzeug
DE102008052579A1 (de) Sicherheitssystem für eine Arbeitsvorrichtung
DE102020205641A1 (de) Überwachungseinrichtung für eine Fügevorrichtung, Fügevorrichtung und Verfahren
DE102021117714A1 (de) Automatische Nahterkennung für einen Schweißprozess
DE102012016073A1 (de) Anordnung und Verfahren zur Bestimmung der Stellung eines Effektors an einem Mechanismus
EP4145233A1 (de) Konturtreuebestimmung für eine laserschneidmaschine
EP3594624B1 (de) Verfahren zur wegstreckenmessung sowie system zur wegstreckenmessung

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B23K0026030000

Ipc: G01B0011000000