DE102013017795B3 - Prozessüberwachungsverfahren und -vorrichtung - Google Patents

Prozessüberwachungsverfahren und -vorrichtung Download PDF

Info

Publication number
DE102013017795B3
DE102013017795B3 DE102013017795.2A DE102013017795A DE102013017795B3 DE 102013017795 B3 DE102013017795 B3 DE 102013017795B3 DE 102013017795 A DE102013017795 A DE 102013017795A DE 102013017795 B3 DE102013017795 B3 DE 102013017795B3
Authority
DE
Germany
Prior art keywords
image
data
processing
raw
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013017795.2A
Other languages
English (en)
Other versions
DE102013017795C5 (de
Inventor
Christian Truckenbrodt
Eckhard Lessmüller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lessmueller Lasertechnik GmbH
Original Assignee
Lessmueller Lasertechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=52430470&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102013017795(B3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Lessmueller Lasertechnik GmbH filed Critical Lessmueller Lasertechnik GmbH
Priority to DE102013017795.2A priority Critical patent/DE102013017795C5/de
Application granted granted Critical
Publication of DE102013017795B3 publication Critical patent/DE102013017795B3/de
Publication of DE102013017795C5 publication Critical patent/DE102013017795C5/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means

Landscapes

  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Plasma & Fusion (AREA)
  • Mechanical Engineering (AREA)
  • Laser Beam Processing (AREA)

Abstract

Verfahren und Vorrichtung zur Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung (1) zur Bearbeitung eines Werkstücks (26) mittels eines hochenergetischen Strahls (14), in dem bzw. der folgende Schritte durchgeführt werden: Erfassen von Prozessdaten der Bearbeitungsvorrichtung (1); Erfassen von Bildrohdaten eines Bildes einer Bearbeitungsstelle (24) eines Werkstücks (26) mittels eines Bildsensors (71); Verarbeiten der erfassten Bildrohdaten mittels eines Bildrohdatenverarbeitungsalgorithmus zu Bilddaten, und Auswerten der Bilddaten mittels eines Bilddatenauswertealgorithmus, wobei das Erfassen der Bildrohdaten und/oder Verarbeiten der Bildrohdaten und/oder Auswerten der Bilddaten basierend auf den erfassten Prozessdaten erfolgt.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Bearbeitungsstrahls.
  • Schmelzfüge- oder Schneid- bzw. Trennbearbeitungen können mit einem hochenergetischen Bearbeitungsstrahl, wie einem Elektronenstrahl oder Laserstrahl, aber auch mit einem Lichtbogen präzise durch Fokussieren des Bearbeitungsstrahls auf dem zu bearbeitenden Werkstück durchgeführt werden. Das präzise Positionieren der Bearbeitungsstelle, das präzise Steuern und Positionieren des Bearbeitungsstrahls, entsprechende Regelung der Bearbeitungsvorrichtung und eine entsprechende Online-Qualitätskontrolle und sind unerlässlich zur Erfüllung heutiger Qualitätsanforderungen.
  • Aus der DE 10 2004 043 076 A1 ist die Verwendung mehrerer auf eine Bearbeitungsstelle gerichteter Kameras bekannt. Dabei liefert jede Kamera Ist-Bilder von dem Werkstück, von der Bearbeitungsstelle und der Bearbeitungsspur, d. h. der bearbeiteten Stelle. Diese erfassten Ist-Bilder werden anschließend mit Soll-Bildern verglichen. Im Ergebnis des Vergleichs werden Stellsignale generiert, die Stellelementen zugeführt werden, welche ein oder mehrere Prozessgrößen beeinflussen.
  • Aus der DE 10 2004 001 168 ist ein Verfahren und eine Vorrichtung zur Nahtführung beim Laserstrahlschweißen bekannt. Dabei werden vor dem Schweißen Soll-Ist-Abweichungen bezüglich der Positionierung des Werkstücks untersucht und korrigiert. Die optischen Komponenten zur Vermessung des Werkstücks nutzen dabei zu Verringerung von Fehlmessungen annähernd denselben optischen Weg wie der Bearbeitungsstrahl.
  • Aus der DE 10 2009 057 209 A1 ist eine mit einer Scanner-Optik ausgestalte Vorrichtung zur Materialbearbeitung mittels Laser, insbesondere zum Laserschweißen bekannt. Die Vorrichtung enthält einen mit der Scanner-Optik mitbeweglichen Bildsensor und einen seitlich an der Schweißoptik montierten Projektor, der dazu dient, Messlicht in Form von Messstrukturen in dem Bereich auf das zu bearbeitende Werkstück zu projizieren, in dem die zu verschweißende Fügekante erwartet wird. Die Vorrichtung ist so ausgebildet, dass der Bildsensor das vom Projektor abgestrahlte Messlicht nach Reflexion am Werkstück erfasst. Der Laserbearbeitungsstrahl ist somit in der Scanner-Optik in mindestens einem Bereich der Optik koaxial zu oder annähernd koaxial zu der Einfallsachse des Sensors, sodass sich Positions- und Geometriefehler aus dem optischen oder mechanischen Gesamtaufbau nicht auf das Messergebnis auswirken.
  • Aus der DE 10 2007 024 789 B3 ist ein Verfahren zum Erkennen von Fehlern an einer Schweißnaht bekannt, bei dem Strahlung, die von einer sich an ein flüssiges Schmelzbad anschließenden erstarrten Schmelze emittiert wird, zweidimensional ortsaufgelöst detektiert wird und die detektierte Strahlung entlang zumindest eines Profilschnitts durch Vergleichen mit einem Referenzwert ausgewertet wird.
  • Aus der DE 10 2011 078 276 B3 ist ein Verfahren zum Erkennen von Fehlern während eines Laserbearbeitungsprozesses sowie eine Laserbearbeitungsvorrichtung bekannt. In demselben wird werkstückseitig emittierte Strahlung detektiert und ein Detektionsfeldausschnitt, das anhand von Steuerdaten zum Steuern der Bewegung des Laserstrahls entlang der Bearbeitungsbahn oder anhand von zuvor ermittelten Ist-Positionsdaten des Laserstrahls entlang der Schweiß- oder Schneidbahn ausgewählt wird, ausgewertet. Somit wird sichergestellt, dass der Detektionsfeldausschnitt mit dem vorauseilenden Laserbrennfleck des Lasers synchronisiert mitgeführt werden kann. Das heißt, die Schweißnaht kann während ihres Entstehens an den immer gleichen Bahnabschnitten relativ zum über dem Werkstück bewegten Brennfleck des Laserstrahls auf Fehler hin überprüft werden.
  • Aus der US 7,043,330 B2 ist ein System zum Überwachen und Steuern eines Laserschweißprozesses in Echtzeit bekannt, wobei mit einem Bildsensor erfasste Eigenschaften zum Einstellen des Laserprozesses verwendet werden.
  • Aus der WO 2007/053973 A1 ist ein Verfahren und eine Vorrichtung zur Bewertung von Fügestellen von Werkstücken bekannt, bei dem bzw. bei der ein kombiniertes Bild der Fügestelle mit einem Lichtschnittmuster und Grauwertbild im selben Sensor, aber in zwei verschiedenen Bereichen aufgenommen wird, das Grauwertbild ausgewertet wird und somit die Qualität der Fügestelle erkannt wird.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren bzw. eine Vorrichtung anzugeben, mit dem bzw. der eine Online-Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Strahls insbesondere dahingehend verbessert werden kann, dass die Erkennungszuverlässigkeit von Fehlern sowie die Regelung des Bearbeitungsprozesses weiter verbessert wird.
  • Diese Aufgabe wird gelöst durch ein Verfahren gemäß dem unabhängigen Patentanspruch 1 bzw. eine Vorrichtung gemäß dem unabhängigen Patentanspruch 6. Weitere vorteilhafte Ausgestaltungen sind in den abhängigen Patentansprüchen angegeben.
  • Das Verfahren und die Vorrichtung erlauben, die mittels einer Kamera aufgenommenen Bilder zuverlässig und präzise zur Prozessüberwachung bzw. Prozesssteuerung zu verwenden. Die allgemein als „Bildverarbeitung” bezeichnete Verarbeitung soll im Weiteren zumindest in die folgenden drei Prozesse unterteilt sein.
  • Die „Bildrohdatenerfassungseinheit” umfasst beispielsweise einen CCD oder CMOS Bildsensor. Vor dem Bildsensor können beispielsweise eine steuerbare Fokussieroptik zum Einstellen des Fokussierpunktes bzw. der Brennweite und/oder ein Mechanismus zum Vorschalten verschiedener Filter zum Filtern bestimmter Wellenlängen und/oder eine oder mehrere steuerbare Beleuchtungsvorrichtung zur Beleuchtung des Werkstücks ausgebildet sein. Die Belichtungsseinstellung etc. können automatisch oder manuell vor dem Aufnehmen eines Bildes eingestellt werden. Die Beleuchtungsvorrichtung(en) umfassen beispielsweise Beleuchtungsvorrichtungen, die einen Beleuchtungsstrahlengang koaxial zum Bearbeitungsstrahlengang der Laserschweißvorrichtung herstellen können, oder Beleuchtungsvorrichtungen, die einen Beleuchtungsstrahl unter einem gewünschten Winkel auf die Bearbeitungsstelle auftreffen lassen. Mit dem Bildsensor werden im Weiteren als „Bildrohdaten” bezeichnete Bilder einer Bearbeitungsstelle durch Belichtung des Bildsensors und anschließender Speicherung der gewonnenen Bildrohdaten erfasst. Die Bilderfassung erfolgt durch einen „Bildrohdatenerfassungsalgorithmus”, durch den beispielsweise die Belichtungsart (automatisch/manuell), Belichtungsdauer, der/die verwendete/-n Filter, die gewünschte Beleuchtung etc. festgelegt wird. Somit wird sichergestellt, dass die vom Bildsensor erfassten Bildrohdaten ausreichende Qualität für die weitere Verarbeitung aufweisen. Bevorzugt wird immer der gesamte von dem Bildsensor erfasste Bildbereich als Bildrohdaten gespeichert, ohne dass eine Vorauswahl oder ein „digitaler Zoom” auf bestimmte Ausschnitte des Bildes erfolgt.
  • In einem nächsten Schritt werden dieselben Bildrohdaten beispielsweise in Abhängigkeit von ihrer späteren Verwendung (Auswertung) mittels des „Bildrohdatenverarbeitungsalgorithmus” zu „Bilddaten” verarbeitet. Beispielsweise wird aus den Bildrohdaten (beispielsweise RAW Format, Wärmebild etc.) ein Farbbild, S/W-Bild, ein Graustufenbild, ein Histogramm, eine Intensitätskurve oder Ähnliches der Bearbeitungsstelle oder des Werkstücks erzeugt. Des Weiteren können beispielsweise spezielle Algorithmen zur besseren Darstellung von Merkmalen bzw. Eigenschaften der Bildrohdaten, die bei der späteren Auswertung besonders relevant sind, verwendet werden. Beispielsweise können Bildrohdaten oder Bereiche davon so verarbeitet werden, dass sie anschließend mit besonders hohem/-r Kontrast/Farbsättigung/Belichtung etc. in den Bilddaten dargestellt werden.
  • Die somit gewonnen Bilddaten werden in einem nächsten Schritt mittels eines „Bilddatenauswertealgorithmus” ausgewertet. Beispielsweise wird mittels des Bilddatenauswertealgorithmus überprüft, ob eine vorgegebene Referenzform einer Schweißnaht auf dem Bild zu erkennen ist, ob ein Bearbeitungspunkt einer Referenzform entspricht usw.
  • Der Bildrohdatenverarbeitungsalgorithmus und der Bilddatenauswertealgorithmus können auch in einem Algorithmus/Verfahren verwirklicht werden, in dem ein oder mehrere Parameter in Abhängigkeit von den Prozessdaten (Prozess-Ist-Daten) veränderlich sind.
  • Das Erfassen, Verarbeiten und Auswerten eines Bildes einer Bearbeitungsstelle gemäß dem Verfahren nach Patentanspruch 1 erlaubt die einzelnen Prozesse zum Erfassen, Verarbeiten und Auswerten der Bilder zu optimieren bzw. diese unter optimalen Bedingungen auszuführen. Hierfür werden die erfassten Prozessdaten herangezogen.
  • Beispielsweise können Einstellungen zum Erfassen der Bildrohdaten des Bildes der Bearbeitungsstelle, wie beispielsweise Belichtungseinstellungen (Blende, Belichtungszeit) und/oder Filter und/oder Beleuchtungseinstellungen bzw. Beleuchtungsparameter für verschiedene Wellenlängen, basierend auf Ortskoordinaten der Bearbeitungsvorrichtung voreingestellt werden, sodass die Zeit zum Erfassen der Bildrohdaten verkürzt werden kann und die Qualität der Bildrohdaten erhöht werden kann. Des Weiteren Beispielsweise können in einer Speichereinheit Auftreffwinkel des Bearbeitungsstrahls auf dem Werkstück in Abhängigkeit von Ortskoordinaten der Bearbeitungsvorrichtung gespeichert sein. Die gespeicherten Werte können vor einer Bilderfassung (d. h., zumindest vor der oben genannten Bildrohdatenerfassung und/oder Bildrohdatenverarbeitung und/oder Bilddatenauswertung) ausgelesen werden. Beispielsweise aus einem weiteren gespeicherten Kennfeld kann anschließend eine dem Auftreffwinkel entsprechende Einstellung (Parameter, Algorithmen) für die Bilderfassung ausgewählt werden. Optional oder zusätzlich können beispielsweise Bearbeitungsstrahlleistung, Winkel zwischen Beleuchtungsstrahlengang/Bildstrahlengang (d. h., der Winkel unter dem Bildstrahlen von der Werkstückoberfläche weg strahlen) und Bauteiloberfläche, Position des Bildsensors, etc. berücksichtigt werden. Die somit erfolgte Auswahl eines Bilderfassungsparameters basierend auf Prozess-Ist-Daten kann somit eine Bilderfassung verbessern und beschleunigen, da die richtige Belichtungsdauer schon voreingestellt ist. Eine zeitintensive automatische Belichtungseinstellung kann entfallen.
  • Auf dieselbe Weise wie bei der die Bilderfassung können sowohl die Art und Weise der Bildverarbeitung und der Bildauswertung (d. h., die Algorithmen/Verfahren, die in diesen verwendet werden) und/oder in diesen verwendete Parameter in Abhängigkeit von den erfassten Prozess-Ist-Daten vorausgewählt und optimiert werden. Beispielsweise kann, falls in der späteren Bildauswertung die Erkennung von zwei relativ schwach sichtbaren Fügekanten erforderlich ist, ein Bildverarbeitungsalgorithmus ausgewählt oder dahingehend modifiziert werden, sodass die Bilddaten, die mit ihm erzeugt werden, besonders gut zur Darstellung solcher Kanten geeignet sind (beispielsweise hohe Kontraste im S/W-Bild mit langer Belichtungszeit, so dass letztendlich nur die Kanten sichtbar sind). Ebenso kann der Bilddatenauswertealgorithmus dahingehend ausgewählt bzw. modifiziert werden, (lass nur nach zwei Kanten, die in bestimmter Relation zueinander stehen, gesucht wird. In einem weiteren Beispiel wird ein Graubild, welches mittels eines Bilderfassungsalgorithmus von dem Bildsensor aufgenommen wird (beispielsweise mit Pixel(helligkeits)werten von 0 bis 255), mit einem bestimmten Grenzwert, hier beispielweise 170, zu einem Binärbild verarbeitet. D. h., Pixel mit einer Helligkeit von 170 werden weiß und alle Pixel mit einer darunter liegenden Helligkeitswerten werden schwarz. Da eine Schweißkante heller als ihre Umgebung ist, erscheint auf dem somit erzeugten Bild bzw. den so erzeugten Bilddaten die Schweißnaht/als weißer Bereich. Der weiße und der Schwarze Bereich sind an einer definierten Kante voneinander abgegrenzt. Da die Helligkeit der Scheißnaht von bestimmten Prozessparameter und damit dessen Daten abhängt (beispielsweise Auftreffwinkel, Bearbeitungsstrahlleistung, Winkel zwischen Beleuchtungsstrahlengang/Bildstrahlengang und Bauteiloberfläche etc.), wird der Grenzwert in Abhängigkeit von diesen Prozessdaten ausgewählt.
  • Des Weiteren erlaubt das Auswerten der Bilddaten mittels eines Bilddatenauswertealgorithmus basierend auf den erfassten Prozessdaten beispielsweise das Anpassen von Grenzwerten in Abhängigkeit von entsprechenden Prozessdaten. Beispielsweise kann ein gewünschter Strahlungsintensitätsgrenzwert in Abhängigkeit von der gewählten Schutzgasmenge eingestellt werden. Zurückkommend auf das obige Beispiel des Binärbilds wird das erzeugte Binärbild auf die Lage der Scheißnaht hin ausgewertet. D. h., mit Hilfe eines Kantenfilters bzw. Schweißnahtbestimmungsalgorithmus wird die genaue Position der Schweißnaht im Binärbild bestimmt. Anhand der Prozessdaten weiß eine Bilddatenauswerteeinheit, ob die Kante horizontal, vertikal oder schräg im Bild liegt. Liegt sie horizontal, wird beispielsweise ein „Soebel_X Filter” verwendet. Liegt sie vertikal, wird beispielsweise ein „Soebel_Y Filter” verwendet. Liegt sie schräg, kann beispielsweise eine „Hough-Transformation” (Algorithmus) eingesetzt werden.
  • Weitere Merkmale und Zweckmäßigkeiten ergeben sich aus der Beschreibung von Ausführungsformen anhand der Figuren. Von den Figuren zeigt:
  • 1 ein Prinzipschaubild einer Bearbeitungsvorrichtung, in der das erfindungsgemäße Verfahren gemäß der ersten Ausführungsform angewendet werden kann, bzw. die erfindungsgemäße Vorrichtung gemäß einer Ausführungsform verwendet werden kann,
  • 2 ein vereinfachtes Blockschaltbild einer Verarbeitungsvorrichtung gemäß der Ausführungsform,
  • 3 ein vereinfachtes Blockschaltbild einer Datenverarbeitungseinheit des erfindungsgemäßen Verfahrens bzw. der erfindungsgemäßen Vorrichtung gemäß der Ausführungsform,
  • 4 ein vereinfachtes Grundfunktionsschema einer in 3 gezeigten Auswähleinheit,
  • 5 eine schematische Ansicht eines ersten Anwendungsbeispiels,
  • 6 eine schematische Ansicht eines zweiten Anwendungsbeispiels,
  • 7 eine schematische Ansicht eines dritten Anwendungsbeispiels,
  • 8 in 8a, 8b und 8c schematische Ansichten eines vierten Anwendungsbeispiels.
  • 1 zeigt ein schematisches Prinzipschaubild einer Bearbeitungsvorrichtung 1 zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Strahls. Insbesondere zeigt 1 eine Prinzipschaubild einer im Wesentlichen bekannten Laser-Scanner-Schweißvorrichtung (Laserscanner) mit einem Scankopf 10. Zu dem Scankopf 10 wird über eine Transportfaser 3 aus einer Laserstrahlenquelle 12 ein Bearbeitungsstrahl (hier Laserstrahl) 14 zugeführt. Der Laserstrahl 14 wird nach Austritt aus der Transportfaser 3 durch eine Kollimationslinse 16 kollimiert und trifft anschließend auf einen dichroitischen Spiegel 18 auf, der für die Wellenlänge des Laserstrahls 14 reflektiv ist. Durch den dichroitischen Spiegel 18 wird der Laserstrahl 14 durch eine Fokussiervorrichtung in Form einer Fokussierlinse 20 auf einen Scanspiegel 22 reflektiert. Die Fokussierlinse 20 ist in der Richtung des Laserstrahls 14 zwischen dem dichroitischen Laserspiegel 18 und dem Scanspiegel 22 beweglich, um den Fokuspunkt des Laserstrahls 14 auf der Bearbeitungsstelle einzustellen. Alternativ oder zusätzlich kann die Kollimationslinse 16 in Strahlenrichtung bewegt werden. Der Scanspiegel 22 weist in der Regel zwei aufeinander stehende, jeweils um eine Achse frei bewegliche Spiegel auf, mit denen die Richtung des Laserstrahls 14 nach einer Reflexion am Scanspiegel 22 im Wesentlichen frei einstellbar ist. Nach der Reflexion am Scanspiegel 22 trifft der Laserstrahl auf eine Bearbeitungsstelle 24 eines Werkstücks 26, das auf einem Werktisch 28 positioniert ist, auf. Der Laserstrahl 14 verläuft in einem so genannten Bearbeitungsstrahlengang bzw. bildet diesen aus.
  • Weiter weist der Scannkopf 10 eine Kameravorrichtung 30 auf, die hinter dem dichroitischen Spiegel 18 und einem zweiten Umlenkelement 19 angeordnet ist. Durch die Kameravorrichtung 30 werden von der Werkstückoberfläche ausgehende Strahlen erfasst. Insbesondere werden Bildstrahlen 31 erfasst, die durch einen nachfolgend beschriebenen Bildstrahlengang zu der Kameravorrichtung 30 gelangen und dort das Bild der Bearbeitungsstelle bzw. des Werkstücks abbilden. Die Bildstrahlen werden auf der Werkstückoberfläche im Bereich der Bearbeitungsstelle 24 emittiert bzw. reflektiert und treffen nach der Reflexion am Scanspiegel 22 auf den dichroitischen Spiegel 18. Der dichroitischen Spiegel 18 ist so ausgebildet, dass er für die Wellenlängen der Bildstrahlen 31 durchlässig ist. Somit werden die Bildstrahlen 31 von dem dichroitischen Spiegel 18 nicht abgelenkt (Auskopplung aus dem Bearbeitungsstrahlengang) und gelangen auf das zweite Umlenkelement 19, das in geradliniger Verlängerung der durch den Scanspiegel 22 bzw. die Fokussierlinse 20 und den dichroitischen Spiegel 18 verlaufenden Achse liegt. Das zweite Umlenkelement 19 ist beispielsweise wiederum ein dichroitischer Spiegel oder ein Lochspiegel, mit dem die Bildstrahlen 31 vollständig oder teilweise zu der Kameravorrichtung 30 reflektiert werden (Auskopplung aus einem unten beschriebenen Beleuchtungsstrahlengang). Bevorzugt weist die Kameravorrichtung 30 eine Kameralinse 32 zur Fokussierung der Bildstrahlen 31 in der Kamera auf.
  • Zusätzlich zu der Kameravorrichtung 30 ist bevorzugt eine koaxiale oder quasikoaxiale Beleuchtungsquelle 29 vorgesehen. Die Beleuchtungsstrahlen 33 einer solchen integrierten Beleuchtungsquelle werden durch das zweite Umlenkelement 19 nicht umgelenkt (d. h., das zweite Umlenkelement 19 ist für die Beleuchtungsstrahlen durchlässig) und verlaufen nach dem zweiten Umlenkelement 19 entgegengesetzt zu den Bildstrahlen 31. Durch das Vorsehen von Beleuchtungsquellen 29 bzw. das Beleuchten der Bearbeitungsstelle 24 auf dem Werkstück 26 kann ein Licht mit einer anderen Frequenz und Intensität als die Strahlung des Laserstrahls und dem thermischen Leuchten aus der Prozesszone aufgenommen und elektronisch ausgewertet werden. Ein Beispiel für die Ein und Auskopplung von Beleuchtungsstrahlen und Bildstrahlen ist beispielsweise in der DE 10 2011 119 478 A1 angegeben.
  • Zusätzlich oder alternativ zu der Beleuchtungsquelle 29 kann der Scankopf 10 eine externe Beleuchtungsquelle 34 zur Beleuchtung der Werkstückoberfläche aufweisen, die außerhalb einer Ein- bzw. -Austrittsöffnung 35 des Bearbeitungsstrahls 14 aus dem Scankopf 10 angeordnet ist. Optional weist der Scankopf 10 weiter eine Hilfsmaterialzuführeinrichtung 36 auf, mittels der der Bearbeitungsstelle 24 Hilfsmaterial 37, beispielsweise ein Schweißdraht oder ähnliches, zugeführt werden kann.
  • Der Scankopf 10 selbst wird in bevorzugt mehreren Raumrichtungen beweglich und/oder drehbar gehalten. Bevorzugt wird der Scankopf 10 von einem Roboterarm 38 gehalten, der den Scankopf 10 innerhalb eines vorbestimmten Raums sowohl translatorisch als auch rotatorisch frei bewegen kann. Mittels einer in 1 nicht gezeigten Steuervorrichtung kann somit der Laserstrahl 14 in seinem Fokuspunkt auf eine Bearbeitungsstelle 24 eines Werkstücks 26 entlang einer vorbestimmten Bahn über das Werkstück 26 bewegt werden. Die Bewegung kann dabei nur durch den Scanspiegel 22 oder den Roboterarm 38 oder eine überlagerte Bewegung beider Komponenten erzeugt werden.
  • Dadurch, dass die Bildstrahlen 31 durch Reflexion an dem Scanspiegel 22 koaxial zum Bearbeitungsstrahlengang 14 verlaufen, folgen die Bildstrahlen 31 bei einer Veränderung der Position bzw. Richtung des Scanspiegels 22 bzw. des Scankopfes 10 automatisch der entsprechenden Veränderung der Bearbeitungsstelle 24 auf dem Werkstück 26. Das heißt, die Bildstrahlen 31 werden synchronisiert mit dem Laserstrahl 14 mitbewegt. Die optionalen Beleuchtungsstrahlen 33 werden ebenfalls synchronisiert mit dem Laserstrahl 14 mitbewegt.
  • 2 zeigt den funktionalen Aufbau der Signalver- und -bearbeitung in der beschriebenen Laserbearbeitungsvorrichtung gemäß der ersten Ausführungsform. Die einzelnen, in 2 dargestellten funktionalen Einheiten sind in dem Scankopf 10 vorgesehen, können aber auch außerhalb des Scankopfes 10, beispielsweise auf einer Bodenplatte angebracht werden. Des Weiteren können einzelne in 2 dargestellte Einheiten integral oder als einzelne Einheiten sowohl durch Software oder Hardware oder Software und Hardware ausgebildet sein.
  • Der gesamte Bearbeitungsvorgang, dessen Erfassung, Auswertung, Überwachung, Korrektur und ähnliches wird in der vorliegenden Ausführungsform mittels einer Datenverarbeitungseinheit 50, wie sie in 2 beispielhaft schematisch dargestellt ist, ausgeführt, gesteuert und/oder geregelt. In die Datenverarbeitungseinheit 50 wird ein Soll-Bearbeitungsvorgang eingegeben. Beispielsweise werden Koordinaten einer Soll-Schweißnaht in die Datenverarbeitungseinheit eingegeben. Alternativ kann die Datenverarbeitungseinheit einen Soll-Bearbeitungsvorgang erlernen. Das Erlernen kann beispielsweise über einen Scanner erfolgen. Die Datenverarbeitungseinheit 50 verarbeitet den eingegeben Soll-Bearbeitungsvorgang zu Prozess-Soll-Daten und übermittelt diese an einen Prozessregler 60. Der Prozessregler 60 weist beispielsweise einen Laserstrahlquellenregler zur Einstellung der Stärke des Laserstrahls, einen Bearbeitungsoptikregler zur Einstellung der Bearbeitungsoptik (Fokuspunkt), einen Schutzgasregler zur Einstellung der Schutzgasmenge, einen Roboter-/Scanspiegelregler zur Einstellung der Ortskoordinaten des Scankopfs und/oder der Bearbeitungsstelle, einen Drahtvorschubregler usw. auf. Der Prozessregler 60 ist weiter dazu angepasst, Prozess-Ist-Daten (beispielsweise momentane Steuerdaten bzw. Positionsdaten bzw. -koordinaten) wenigstens einiger der o. g. Regler als Prozess-Ist-Daten an die Datenverarbeitungseinheit 50 zurückzusenden.
  • Zur Überwachung des Schweißvorgangs ist zusätzlich eine Kameravorrichtung in Form einer Bildrohdatenerfassungseinheit 70 vorgesehen. Die Bildrohdatenerfassungseinheit 70 weist einen Bildsensor 71 auf, mit dem ein Bild (insbesondere der Bearbeitungsstelle 24) des Werkstücks 26 digital in Form von Bildrohdaten erfasst werden kann. Die Bildrohdatenerfassungseinheit 70 entspricht beispielsweise der in 1 gezeigten Kameravorrichtung 30. Zu den Prozess-Ist-Daten können gegebenenfalls auch Ortskoordinaten der Kameravorrichtung 30 etc. gehören (beispielsweise falls die Kameravorrichtung getrennt von dem Scankopf 10 bewegbar ist).
  • Die Datenverarbeitungseinheit 50 kann Parameter bzw. Einstellungen zur Bilderfassung an die Bildrohdatenerfassungseinheit 70 ausgeben. Beispielsweise sind eine Belichtungseinstellung des Bildsensors 71 oder das Vorsehen eines oder mehrerer spezieller Filter Bilderfassungsparameter. Die Bildrohdatenerfassungseinheit 70 kann die Bilderfassungsparameter auch selbsttätig/automatisch einstellen. Beispielweise können nur Grautöne (bzw. ein Graubild) aufgenommen werden.
  • Die mit der Bildrohdatenerfassungseinheit 70 gewonnenen „Bildrohdaten” werden anschließend an die Datenverarbeitungseinheit 50 übermittelt. In der Datenverarbeitungseinheit 50 können die Bildrohdaten anschließend verarbeitet und ausgewertet werden. Beispielsweise können Fehler in der Schweißnaht dadurch erkannt werden, dass Strahlungsintensitätsminima und -maxima von einer bestimmten Soll-Kurve abweichen. Des Weiteren kann die Größe, Form etc. der Schweißnaht bzw. der Bearbeitungsstelle zum Erkennen von fehlerhaften Schweißnähten oder Abweichungen von dem eingegebenen Soll-Bearbeitungsvorgang erkannt werden. Die Datenverarbeitungseinheit 50 kann somit zum Einen erkannte Fehler ausgeben und eine Qualitätsaussage über die Schweißnaht treffen, zum Anderen auch die gewonnenen Daten zur Korrektur der Prozess-Solldaten verwenden.
  • 3 zeigt eine bevorzugte Ausführungsform der Datenverarbeitungseinheit 50. Wie aus 3 ersichtlich ist, weist die Datenverarbeitungseinheit 50 eine Prozessdatenerfassungseinheit 51, eine Bildrohdatenverarbeitungseinheit 52, eine Bilddatenauswerteeinheit 53, eine Speichereinheit 54, eine Auswähleinheit 55 und eine Eingabe-/Korrekturdatenverarbeitungseinheit 56 auf.
  • Die Prozessdatenerfassungseinheit 51 ist dazu ausgebildet, Prozess-Ist-Daten von dem Prozessregler 60 zu empfangen. Die Bildrohdatenverarbeitungseinheit 52 ist dazu ausgebildet, Bildrohdaten von der Bildrohdatenerfassungseinheit 70 zu empfangen und zu verarbeiten. Insbesondere ist die Bildrohdatenverarbeitungseinheit 52 dazu angepasst, Bildrohdaten mittels eines Bildrohdatenverarbeitungsalgorithmus zu Bilddaten zu verarbeiten. Beispielsweise kann mittels des Bildrohdatenverarbeitungsalgorithmus aus Bildrohdaten ein Histogramm, ein Schwarz/Weiß-Bild (S/W-Bild), ein Binärbild, ein Farbbild oder ähnliches als „Bilddaten” erzeugt werden. In der Bilddatenauswerteeinheit 53 werden die in der Bildrohdatenverarbeitungseinheit 52 berechneten Bilddaten empfangen. Die Bilddaten können beispielsweise, wie oben angegeben, ein Histogramm, ein optisches Abbild der Bearbeitungsstelle oder ähnliches sein. In der Bilddatenauswerteeinheit 53 werden die gewonnenen Bilddaten mittels eines Bilddatenauswertealgorithmus ausgewertet. Ein Bilddatenauswertealgorithmus kann beispielsweise ein Algorithmus zum Erkennen von zu verschweißenden Fügekanten, zum Erkennen verschiedener Schweißnahtmuster in verschiedenen Umgebungen, zum Auswerten des Bildes anhand des Prozesslichtes oder ähnliches sein. Beispiele für solche Algorithmen sind, wie oben angegeben, ein „Soebel_X Filter”, ein „Soebel_Y Filter”, oder eine „Hough-Transformation”. Der Auswertealgorithmus kann auch die Erzeugung einer Qualitätsaussage bzw. Fehlerdetektion umfassen. Des Weiteren kann mittels des Auswertealgorithmus eine Korrekturanweisung für Prozess-Soll-Daten errechnet werden.
  • In der Speichereinheit 54 werden verschiedene Bildrohdatenerfassungsparameter und/oder -algorithmen und/oder Bildrohdatenverarbeitungsparameter und/oder -algorithmen und/oder Bilddatenauswerteparameter und/oder -algorithmen gespeichert. Bevorzugt ist jeder Parameter bzw. Algorithmus mit vorbestimmten Prozessdaten beispielsweise über Kennfelder oder Funktionen verknüpft.
  • Die Auswähleinheit 55 ist dazu ausgebildet, basierend auf bzw. in Abhängigkeit von Prozessdaten einen oder mehrere entsprechende Bilderfassungsparameter und/oder -algorithmen, Bildrohdatenverarbeitungsparameter und/oder -algorithmen und/oder Bilddatenauswerteparameter und/oder -algorithmen aus der Speichereinheit 54 auszuwählen. Beispielsweise wählt die Auswähleinheit 55 einen Bilderfassungsparameter, einen Bildrohdatenverarbeitungsalgorithmus und/oder einen Bilddatenauswertealgorithmus entsprechend den in der Prozessdatenerfassungseinheit 51 erfassten Prozess-Ist-Daten mittels eines in der Speichereinheit 54 gespeicherten Kennfeldes, welches die Prozess-Ist-Daten mit den Parametern und Algorithmen verknüpft, aus. Anschließend gibt die Auswahleinheit 55 den ausgewählten Bilderfassungsparameter an die Bildrohdatenerfassungseinheit 70, den ausgewählten Bildrohdatenverarbeitungsalgorithmus an die Bildrohdatenverarbeitungseinheit 52 und den ausgewählten Bilddatenauswertealgorithmus an die Bilddatenauswerteeinheit 53 aus. Somit erfasst die Bildrohdatenerfassungseinheit 70 das Bild mit den von der Auswähleinheit 55 vorgegebenen Bilderfassungsparameter. Die somit gewonnenen Bildrohdaten werden in der Bildrohdatenverarbeitungseinheit 52 mittels des von der Auswähleinheit 55 vorgegebenen Bildrohdatenverarbeitungsalgorithmus zu Bilddaten verarbeitet. Anschließend werden die Bilddaten in der Bilddatenauswerteeinheit 53 mittels des vorgegebenen Bilddatenauswertealgorithmus ausgewertet. Die Bilddatenauswerteeinheit 53 kann anschließend eine Fehlerdetektion bzw. Qualitätsaussage beispielsweise über ein nicht dargestelltes Ausgabemittel, wie ein Bildschirm oder Lautsprecher ausgeben, oder als Signal an eine übergeordnete Anlagensteuerung gesendet werden. Des Weiteren kann die Bilddatenauswerteeinheit 53 optional eine Korrekturanweisung an die Eingabe-/Korrekturdatenverarbeitungseinheit 56 ausgeben.
  • Die Eingabe-/Korrekturdatenverarbeitungseinheit 56 ist dazu angepasst, die Korrekturanweisung mit der Eingabe des Soll-Bearbeitungsvorgangs so zu verarbeiten, dass die Prozess-Soll-Daten entsprechend korrigiert werden. Zusätzlich oder alternativ kann auch die Prozessdatenerfassungseinheit 51 die Prozess-Ist-Daten direkt an die Eingabe-/Korrekturdatenverarbeitungseinheit senden, sodass bei Abweichungen der Prozess-Ist-Daten von den Prozess-Soll-Daten eine entsprechende Korrektur erfolgen kann.
  • Die Datenverarbeitungseinheit 50 ist daher dazu ausgebildet, einen Bildsensor zur Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung 1 zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Strahls zu verwenden, wobei die Bildaufnahme mit dem Bildsensor und/oder die Verarbeitung und Auswertung der mit dem Bildsensor gewonnenen Daten basierend auf den Prozess-Ist-Daten erfolgt. Eine schematische Ansicht dieser Grundlogik ist vereinfacht in 4 mit Bezug auf den Bildrohdatenverarbeitungsalgorithmus dargestellt. Demnach können die gewonnenen Bilddaten beispielsweise durch drei verschiedene Bildrohdatenverarbeitungsalgorithmen (BV-Algorithmen, BV1, BV2 und BV3) verarbeitet werden. Beispielsweise ist jeder der Bildrohdatenverarbeitungsalgorithmen BV1, BV2, BV3 dazu geeignet, die Form einer Schweißnaht unter Berücksichtigung des Blickwinkels der Kamera auf die Schweißnaht besonders gut abzubilden, so eine besonders zutreffende Qualitätsaussage über die Schweißnaht getroffen werden kann. Die Prozess-Ist-Daten werden verwendet, um zwischen den Bildrohdatenverarbeitungsalgorithmen BV1, BV2 und BV3 auszuwählen bzw. umzuschalten. Somit wird einer der Bildrohdatenverarbeitungsalgorithmen BV1, BV2 und BV3 basierend auf den Prozess-Ist-Daten (die die Art der Schweißnaht angeben) ausgewählt. Anschließend wird mittels der so gewonnen Bilddaten eine Qualitätsaussage getroffen und/oder werden neue korrigierte Prozess-Soll-Daten erzeugt. Dieselbe Grundlogik kann alternativ oder zusätzlich bei der Auswahl der Parameter und/oder Algorithmen der Bildrohdatenerfassungseinheit und/oder der Bilddatenauswerteeinheit angewendet werden.
  • Nachfolgend werden einige Anwendungsbeispiele der Vorrichtung zur Prozessüberwachung und/oder Steuerung bzw. des Verfahrens zur Prozessüberwachung und/oder Steuerung beschrieben.
  • 5 zeigt ein erstes Anwendungsbeispiel. 5 zeigt die Bearbeitungsvorrichtung 1 der 1 schematisch. Die Bearbeitungsvorrichtung 1 weist die Kamera 30 und die Beleuchtungsquelle 29 auf, deren Strahlengänge im Verlauf auf die Bearbeitungsstelle koaxial mit dem Bearbeitungsstrahl 14 verlaufen. Das heißt, der Beleuchtungsstrahl 33, der Bildstrahl 31 und der Bearbeitungsstrahl 14 sind beim Aus- bzw. Eintritt durch die Ein- und Austrittsöffnung 35 in und aus dem Scankopf 10 im Wesentlichen koaxial. Wie weiter aus 5 ersichtlich, sollen die Werkstücke 101 mittels dreier Schweißnähte 104, 106 und 108 (Bearbeitungsstellen 24) miteinander verschweißt werden. Die Schweißnähte 104, 106 und 108 verlaufen in der 5 senkrecht zur Zeichenebene. In 5 ist die erste Schweißnaht 104 links, die zweite Schweißnaht 106 mittig und die dritte Schweißnaht 108 rechts angeordnet. Die Bearbeitungsvorrichtung 1, bzw. insbesondere die Ein- bzw. Austrittsöffnung 35 der Bearbeitungsvorrichtung 1 ist hier im Wesentlichen senkrecht über der zweiten, mittleren Schweißnaht 106 angeordnet. Das heißt, ein Bearbeitungsstrahl 14, der aus der Ein- bzw. Austrittsöffnung 35 der Bearbeitungsvorrichtung 1 austritt, trifft im Wesentlichen senkrecht auf die Bearbeitungsstelle 24 bzw. die zweite Schweißnaht 106 auf. Im Gegensatz dazu trifft der Bearbeitungsstrahl 14 auf die erste Schweißnaht 104 und die dritte Schweißnaht 108 in einem spitzen Winkel auf. Im Wesentlichen dasselbe gilt aufgrund des koaxialen Verlaufs für das Auftreffen des Beleuchtungsstrahls 33 aus der Beleuchtungsquelle 29.
  • Im Schweißprozess der Schweißnähte 104, 106, 108 wird im Schweißbad jeweils eine Pore 105, 107, 109 ausgebildet, deren Größe, Form und/oder Helligkeit später mittels der Bildstrahlen 31 zur Erzeugung einer Qualitätsaussage herangezogen wird. Jede Pore weist die Form einer Nut bzw. Ausbuchtung mit ungleichmäßigem, undefiniertem und rauem Rand auf, der durch das Aufschmelzen und Verspritzen des Schweißguts entsteht. Wie es weiter aus 5 ersichtlich ist, werden die mit der Beleuchtungseinheit 29 erzeugten Beleuchtungsstrahlen 33, die auf der Oberfläche rechts und links der Schweißnähte 104, 106, 108 bzw. Poren 105, 107, 109 auftreffen, im Wesentlichen reflektiert. Aufgrund des spitzen Auftreffwinkels im Bereich der ersten Schweißnaht 104 bzw. ersten Pore 105 werden die Beleuchtungsstrahlen 33, die in der Umgebung der Pore 105 auf die Oberflächen der Werkstücke 101 auftreffen, daher nicht direkt zurück zu der Ein- bzw. Austrittsöffnung 35 des Scankopfes 10 reflektiert. Die direkt auf die Pore auftreffenden Beleuchtungstrahlen 33 werden aufgrund der konkav gebogenen Oberfläche der Pore 105 diffus in alle Richtungen reflektiert. Ein gewisser Anteil dieser in der Pore reflektierten Strahlen Beleuchtungsstrahlen 33 wird daher als Bildstrahlen 31 in die Ein- bzw. Austrittsöffnung 35 des Scankopfes 10 gestrahlt bzw. reflektiert. Aufgrund der Symmetrie gilt dasselbe für die dritte Schweißnaht 108.
  • Im Falle der zweiten Schweißnaht 106 werden die Beleuchtungsstrahlen 33 zumindest von dem im Wesentlichen ebenen und glatten Oberflächenbereich in der Umgebung der zweiten Pore 107 direkt zurück zu der Ein- bzw. Austrittsöffnung 35 der Bearbeitungsvorrichtung 1 zurück reflektiert, da die bestrahlte Fläche des Werkstücks im Wesentlichen annähernd senkrecht zu den Beleuchtungsstrahlen 33 steht . Die durch Reflexion der Beleuchtungsstrahlen 33 an der gebogenen Oberfläche der zweiten Pore 107 erzeugten Strahlen strahlen diffus in alle Richtungen. Somit wird von der Pore 107 nur ein geringer Teil der Beleuchtungsstrahlen 33 in die Ein- bzw. Austrittsöffnung 35 des Scankopfs 10, und damit in die Kameravorrichtung 30, als Bildstrahlen 31 zurückreflektiert.
  • Die in die Kamera gelangenden Bildstrahlen 31 können am besten ausgewertet werden, wenn die Wellenlänge der vom Bearbeitungsstrahl 14 reflektierten Anteile mittels eines Filters ausgeblendet/gefiltert wird. Bevorzugt gelangen somit nur Bildstrahlen 31, die aus reflektierten Beleuchtungsstrahlen 33 erzeugt werden bzw. entstehen in die Kameravorrichtung 30. Eine solche Filterung kann beispielsweise mittels des dichroitischen Spiegels 18 (siehe 1) erfolgen. Die in der Kameravorrichtung 30 ankommenden Bildstrahlen der nach links/rechts versetzten ersten/dritten Schweißnaht 104/108 bzw. Pore 105/109 und der zentralen zweiten Schweißnaht 106 bzw. Pore 107 sind aufgrund der Auftreffwinkel der Beleuchtungsstrahlen 33 somit unterschiedlich. In der Kameravorrichtung 30 erscheinen die Poren 105 und 109 als heller Bereich in einer dunklen Umgebung (siehe 5a) und c)). Der Bereich der zweiten Pore 107 erscheint in der Kameravorrichtung 30 als dunkler Bereich in einer hellen Umgebung (siehe 5b)). D. h., bei der ersten/dritten Schweißnaht 104, 108 erscheint die Pore 105, 109 als heller Bereich, da die Beleuchtungsstrahlen 33 im Wesentlichen nur im Bereich der Pore 105, 109 reflektiert werden (siehe 5a) und 5c), die beispielhaft ein von der Kamera aufgenommenes Bild zeigen; sogenannte Dunkelfeldbeleuchtung). Bei der zweiten Schweißnaht 106 erscheint die Pore 107 als dunkler Punkt (siehe 5b, die beispielhaft ein von der Kamera aufgenommenes Bild zeigt; sogenannte Hellfeldbeleuchtung), da die Beleuchtungsstrahlen 33 insbesondere in der Umgebung der Pore 107 reflektiert werden.
  • Zur Bewertung bzw. Auswertung der Schweißnähte wird beispielsweise das Vorhandensein und die Form etc. der Poren 105, 107, 109 ausgewertet. Somit wird beispielsweise in einem Bilddatenauswertealgorithmus zunächst die Pore identifiziert und anschließend vermessen und mit Referenzdaten verglichen. Im Falle der ersten und dritten Schweißnaht 104, 108 wird die Pore 105, 109 erkannt, indem nach einem „hellen” Bereich mit einer bestimmten Form gesucht und derselbe ausgewertet wird. Umgekehrt wird im Falle der zweiten Schweißnaht 106 die Pore 107 erkannt, indem nach einem „dunklen” Bereich mit einer bestimmten Form gesucht wird und derselbe ausgewertet wird.
  • Das herkömmliche Auswählen des für eine Schweißnaht geeigneten Auswerte- bzw. Verarbeitungsalgorithmus basierend auf den Bildrohdaten ist fehleranfällig. Beispielsweise können aufgrund von Reflexionen, Verunreinigungen etc. auch bei der ersten/dritten Schweißnaht helle Bereiche bzw. bei der zweiten Schweißnaht dunkle Bereiche im Kamerabild als Pore erkannt werden, die aber nicht der tatsächlichen Pore entsprechen. Bei einer anschließenden Auswertung kann es daher zu Fehlern kommen.
  • Um diese Nachteile zu vermeiden, werden in der vorliegenden Ausführungsform die Prozess-Ist-Daten zum Auswählen der Bilderfassungsparameter bzw. des Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertealgorithmus, wie oben angegeben, herangezogen.
  • Auf das vorliegende Beispiel angewendet bedeutet dies, dass im Falle der ersten und dritten Schweißnaht 104, 108 zum Einen die Verwendung eines vorbestimmten Filters und/oder einer vorbestimmten Belichtungseinstellung an die Kamera 30 (Bildrohdatenerfassungseinheit) ausgegeben wird, die bzw. der es erlaubt, ein kontrastreiches Bild der Pore 105, 109 mittels des Bildsensors 71 als Bildrohdaten zu erfassen. Anschließend wird durch die Auswähleinheit 55 ein Bildrohdatenverarbeitungsalgorithmus ausgewählt, bei dem insbesondere ein heller Bereich gut von einem dunklen Bereich unterschieden werden kann. Zuletzt kann durch die Auswähleinheit 55 ein geeigneter Bilddatenauswertealgorithmus ausgewählt werden, mit dem in der Bilddatenauswerteeinheit 53 die Lichtintensität, Größe usw. eines hellen Bereichs, der hier die Pore 105 darstellt, vermessen und bewertet werden kann. Eine Bewertung erfolgt beispielsweise durch Bestimmen, ob die gemessenen Werte innerhalb vorgebender Grenzwerte liegen. Bei Überschreitung von Grenzwerten können Korrekturanweisungen erzeugt werden, die eine entsprechende Korrekturanweisung an die Eingabe-/Korrekturdatenverarbeitungseinheit 56 ausgeben. Diese kann anschließend die Prozess-Soll-Daten entsprechend anpassen.
  • Bei der zweiten Schweißnaht 106 werden ebenfalls ein vorbestimmter Filter und eine vorbestimmte Belichtungseinstellung verwendet. Anders als bei der ersten und dritten Schweißnaht 104, 108 wird der Bildrohdatenverarbeitungsalgorithmus bei der zweiten Schweißnaht so ausgewählt, dass insbesondere ein dunkler Bereich gut von einem hellen unterschieden werden kann.
  • In beiden Fällen wählt die Auswähleinheit 55 die entsprechenden Bilderfassungsparameter bzw. den Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertalgorithmus in Abhängigkeit von der Position der Schweißnaht aus. Diese Position wird durch die einen der vorher festegelegten Prozessparameter abgebildet und mittels der Prozess-Ist-Daten erfasst.
  • Beispielsweise erkennt die Auswähleinheit 55 basierend auf den Prozessdaten für den Scanspiegel 22, dass der Bearbeitungsstrahl in einem Winkel α1 ausgestrahlt wird. Hieraus kann die Auswähleinheit 55 unter Berücksichtigung der Orts- und Ausrichtungskoordinaten des Scankopfes 10 und der Orts- und Ausrichtungskoordinaten des Werkstücks 101 den Auftreffwinkel auf dem Werkstück ableiten (beispielsweise mittels eines Kennfelds). Im Falle der Austrittswinkel α1 oder α3, wird ein Bilderfassungsparameter bzw. Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertealgorithmus für einen spitzen Auftreffwinkel, wie er bei ersten Schweißnaht 104 bzw. der dritten Schweißnaht 108 verwendet werden muss, ausgewählt. Umgekehrt muss bei dem Austrittswinkel α2 eine Bilderfassung, -verarbeitung und -auswertung für einen senkrechten Auftreffwinkel erfolgen.
  • Neben dem Austrittswinkel können beispielsweise auch Raumkoordinaten des Scankopfes 10, die Bearbeitungsstrahlleistung etc. zum Auswählen der geeigneten Parameter bzw. Algorithmen aus der Speichereinheit 54 verwendet werden. Optional kann auch die Kameraposition berücksichtigt werden.
  • 6 zeigt ein weiteres Beispiel der Anwendung des Prozessüberwachungsverfahrens bzw. der Prozessüberwachungsvorrichtung.
  • Die Prozesslichtintensität der Bearbeitungsstelle kann zur Beurteilung der Qualität des Schweißprozesses verwendet werden. Die Prozesslichtintensität ist abhängig von dem zugeführten Schutzgasvolumen. Mehr Schutzgas bedeutet normalerweise ein geringeres Prozessleuchten und umgekehrt. Zur Überwachung eines Schweißprozesses wird normalerweise eine Referenzprozesslichtintensität festgelegt und überwacht, ob die tatsächliche Prozesslichtintensität innerhalb bestimmter Grenzwerte (Hüllkurve) über und unter der Referenzprozesslichtintensität bleibt. Somit können Schweißfehler erkannt werden.
  • Bei einer Veränderung des zugeführten Schutzgasvolumens steigt oder sinkt die Prozesslichtintensität entsprechend. Da die Grenzwerte herkömmlich unabhängig von der Veränderung des Schutzgasvolumens bestehen bleiben, kann die gemessene Prozesslichtintensität außerhalb der festgelegten Grenzwerte liegen und als ein Fehler interpretiert werden. In diesem Fall wird ein Fehler erkannt, obwohl die dem geänderten Schutzgasvolumen entsprechende, korrekte Prozesslichtintensität vorliegt.
  • Mit der vorliegenden Vorrichtung bzw. dem vorliegenden Verfahren kann dies vermieden werden. In 6 ist in dem oberen Diagramm ein verwendetes Schutzgasvolumen über die Zeit aufgetragen. In dem unteren Diagramm sind eine gemessene Prozesslichtintensität (Messwert) und ein oberer Grenzwert (oberes Limit) und ein unterer Grenzwert (unteres Limit) der Prozesslichtintensität über die Zeit aufgetragen. Die Bildrohdatenerfassungseinheit 70 wird grundsätzlich so voreingestellt, dass sie eine Prozesslichtintensität innerhalb der Grenzwerte differenziert aufnehmen kann. Diese Einstellung kann automatisch oder durch die Auswähleinheit 55 eingestellt werden. Anschließend werden die Bildrohdaten beispielsweise mittels eines Bildrohdatenverarbeitungsalgorithmus so verarbeitet, dass ein Messwert für die Prozesslichtintensität, wie er in dem unteren Diagramm in 6 gezeigt ist, aufgezeichnet wird. Diese Bilddaten werden dann durch die Bilddatenauswerteeinheit 53 simultan/online oder nach der Aufzeichnung ausgewertet. Ein in der Bilddatenauswerteeinheit 53 ausgeführte Bilddatenauswertealgorithmus überprüft, ob sich der aufgezeichnete Messwert für die Prozesslichtintensität innerhalb von Grenzwerten (oberes Limit, unteres Limit) bezüglich der Referenzprozesslichtintensität befindet. Wie oben angeben, ist die Prozesslichtintensität abhängig von der zugeführten Schutzgasmenge. Entsprechend der vorliegenden Ausführungsform ist das Schutzgasvolumen ein in dem Bilddatenauswertealgorithmus verwendeter Parameter zur Bestimmung der Referenzprozesslichtintensität bzw. Grenzwerte. D. h., die Referenzprozesslichtintensität bzw. Grenzwerte sind, wie es in 6 gezeigt ist, in Abhängigkeit von dem Schutzgasvolumen veränderlich und werden dadurch online an die tatsächlich verwendete Schutzgasmenge angepasst. Dieser Parameter wird der Bilddatenauswerteeinheit 53 von der Auswähleinheit 51 aus der Prozessdatenerfassungseinheit 51 zugeführt. Somit verändern sich die Grenzwerte unmittelbar in Abhängigkeit von der zugeführten Schutzgasmenge. Ist die Prozesslichtintensität innerhalb der Grenzwerte, wird ein positives Qualitätssignal ausgeben. Ist die Prozesslichtintensität außerhalb der Grenzwerte, wird ein negatives Qualitätsaussagesignal ausgeben.
  • 7 zeigt ein weiteres Anwendungsbeispiel der Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung 1. Wie es aus 7 ersichtlich ist, können die Schnittkanten 201, 205 von zu verschweißenden Oberblechen unterschiedliche, aber dennoch reproduzierbare Flankenwinkel aufweisen. Dies hat signifikante Auswirkungen auf entsprechende Kamerabilder in einer Bearbeitungsvorrichtung. Häufig entspricht die Anordnung gleicher Flankenwinkel einem geometrischen Muster. Beispielsweise wird bei Erfassung der Schnittkanten 201 mit einem Scankopf 10 in der Position A ein Kamerabild 203, wie es in der 7 links dargestellt ist, als Bildrohdaten erfasst. Bei einer Scankopfposition (in 7 gestrichelt dargestellt) und einem Flankenwinkel gemäß der zweite Schnittkante 205 an der zweiten Position rechts in 7 entsteht dagegen das Kamerabild 207, wie es rechts in 7 dargestellt ist. Zur Auswertung der Bilddaten 203, 207, werden entsprechende Auswertealgorithmen in Abhängigkeit von der Position und Ausrichtung des Scankopfes 55 bezüglich der Schnittkante ausgewählt. D. h., die Schnittkante 205 wird mittels eines Algorithmus erkannt, der zwei parallele Linien als Schnittkante erkennt (siehe zwei Linien in Kamerabild 203). Die Schnittkante 205 wird dagegen erkannt, indem eine einzelne Linie erkannt wird (siehe einzelne Linie in Kamerabild 207).
  • 8 zeigt ein weiteres Anwendungsbeispiel. Zum taktzeitoptimierten Laserfügen von Bauteilen werden Laserscanner mit Bearbeitungsfeldern in der Größe einer DIN A4-Seite eingesetzt. Zudem werden die Scanner an Knickarm-Robotern montiert und die Bewegungsrichtungen beider Systeme miteinander intelligent kombiniert (on-the-fly).
  • Kamerasysteme ermöglichen das Schweißen von lagetoleranzempfindlichen (0,1 mm) Kehlnähten trotz Bauteiltoleranzen im Millimeterbereich. Hierzu kommuniziert das Kamerasystem entsprechende Korrekturwerte an den Scanner oder Roboter.
  • Eine Gefahr für die Prozessstabilität liegt in fehlerhafter Bilderkennung. So ist es denkbar, dass beispielsweise Kratzer, Schmutzteilchen oder beschädigte Fügekanten zu einer fehlerhaften Erkennung der Fügekante und damit auch fehlerhaften Positionierung des Bearbeitungsstrahls führen. Auch hierfür liefert die oben beschriebene Prozessüberwachungsvorrichtung bzw. das oben beschriebene Prozessüberwachungsverfahren eine Lösung.
  • Beispielsweise wird vorgesehen, dass mittels eines Anlernvorgangs, beispielsweise durch Kamerasystem oder manuellen Scanner (Abtastscanner), die Sollposition einer Schweißnaht gelernt wird (siehe 8a). Das heißt, während eines Einlernvorgangs werden ohne Regelung durch das Kamerasystem Prozess-Soll-Daten gelernt.
  • Zum Toleranzausgleich der Bauteile bzw. deren Position wird eine Hüllkurve um die so gelernten Koordinaten der auszuführenden Schweißnaht gelegt. Die Hüllkurve bildet einen maximalen positiven Abweichungswert und einen maximalen negativen Abweichungswert (Grenzwerte), innerhalb dessen eine Abweichung von der Sollkurve in dem Bildauswertealgorithmus nicht als Fehler erkannt wird.
  • 8b zeigt, wie die Kamera während des Regelvorgangs die genaue Lage der Schweißfuge erkennt und die Scannerbahn korrigiert, solange diese innerhalb der gelernten Hüllkurve liegt.
  • In 8c ist ein Fall dargestellt, in dem aufgrund eines Kratzers, der fälschlicherweise durch die Kamera als Schweißfuge erkannt wird, eine Regelung auf die Untergrenze der Hüllkurve erfolgt. Beim Überschreiten der Hüllkurve, erkennt das System einen Fehler und schaltet beispielsweise den Regelungsalgorithmus zur Verfolgung der Schweißnaht mittels der Bildauswertung ab. Beispielsweise kann der Bearbeitungsstrahl zurück auf die Referenzbahn gefahren werden oder der vor dem Abschalten gefahrenen Bahn weiter folgen. Des Weiteren können durch die Auswähleinheit 55 Bilderfassungsparameter und/oder Bildrohdatenverarbeitungsalgorithmen und Bilddatenauswertealgorithmen geändert bzw. angepasst werden, sodass im nächsten Bild die ursprünglich erkannte Schweißfuge schneller/leichter aber eventuell ungenauer wieder erkannt wird (mehr Kontrast aber ungenauer, oder langsamere Bewegung dafür genauere Erkennung etc).
  • Das heißt, auch in diesem Beispiel werden in Abhängigkeit von den Prozess-Ist-Daten Algorithmen und/oder Parameter der Bearbeitungsvorrichtung neu eingestellt.
  • Neben den oben angegebenen Anwendungsbeispielen der Prozessüberwachungs- und/oder Steuerungsvorrichtung bzw. dem entsprechenden Verfahren können Komponenten und Schritte, die nur in einzelnen Beispielen ausgeführt werden auch in anderen Beispielen implementiert werden oder in einzelnen Beispielen weggelassen werden. Das heißt, das Senden von Bilderfassungsparametern und/oder das Senden eines ausgewählten Bildrohdatenverarbeitungsalgorithmus und/oder das Senden eines Bilddatenauswertealgorithmus sind optionale Merkmale, solange insgesamt ein von einem Bildsensor aufgenommenes Bild/Daten in Abhängigkeit von Prozess-Ist-Daten zur Ausgabe einer Qualitätsaussage und/oder Korrekturanweisung verwendet/verarbeitet wird/werden. Des Weiteren kann selbstverständlich das Ausgeben einer Fehlerdetektion bzw. Qualitätsaussage weggelassen werden, und die mit der Bilddatenauswerteeinheit gewonnenen Daten nur zur Korrektur der Prozess-Soll-Daten verwendet werden. Die einzelnen in 2 und 3 dargestellten funktionalen Einheiten können durch eine einzelne Recheneinheit, wie beispielsweise einen Computer dargestellt werden, können aber auch jeweils einzelne Steuergeräte bzw. Rechenkerne beinhalten. Die Bilddatenerfassungseinheit 70 kann ebenso innerhalb der Datenverarbeitungseinheit 50 ausgebildet sein. Das in 3 dargestellte Grundschema kann auch dahingehend ausgebildet sein, dass die Kameradaten erst nach dem Umschalter in das System eingespeist werden. Dies ist beispielsweise normalerweise bei der Bilddatenerfassungseinheit der Fall, da der entsprechende Algorithmus ausgewählt wird, bevor die Bilddaten erfasst werden. Die in 1 dargestellte Bearbeitungsvorrichtung ist lediglich als illustratives Beispiel dargestellt. Die dargestellten Komponenten können auf die im Stand der Technik bekannte Weise abgeändert werden. Beispielsweise kann der Scankopf starr an einem Gestell befestigt sein, können einzelne Linsen und Spiegel weggelassen oder anders ausgebildet sein, kann die Einkopplung des Bearbeitungsstrahlengangs in den Bildstrahlengang weggelassen werden, kann der Scanspiegel weggelassen werden. Beispielsweise kann auch eine Bearbeitungsvorrichtung, die keinen Scankopf, sondern eine nicht scannende Laserbearbeitungsoptik aufweist, verwendet werden. In diesem Fall können beispielsweise als Prozess-Ist-Daten die Laserleistung und/oder die Schutzgasmenge verwendet werden, in deren Abhängigkeit die Bilder unterschiedlich erfasst, verarbeitet und ausgewertet werden können. Neben der Speichereinheit 54 können auch weitere Speichereinheiten mit Kennfeldern oder Algorithmen und Funktionen zur Verknüpfung von Prozessdaten mit Erfassungsparametern, Verarbeitungsalgorithmen oder Auswertealgorithmen vorhanden sein. Des Weiteren kann auch in einer oder mehreren Speichereinheiten keine feste Verknüpfung der Erfassungsparameter und der Algorithmen mit einzelnen Prozessdaten erfolgen, sondern kann die Auswähleinheit eine entsprechende Auswahl mittels eines Auswählalgorithmus berechnen. Beispielsweise können verschiedene Prozessdaten als Eingangsparameter für einen Auswählalgorithmus verwendet werden, der anschließend aus diesem Auswählalgorithmus berechnet, welche Bilderfassungsparameter bzw. Verarbeitungs- und/oder Auswertealgorithmen die geeigneten sind.

Claims (8)

  1. Verfahren zur Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung (1) zur Bearbeitung eines Werkstücks (26) mittels eines hochenergetischen Strahls (14), mit folgenden Schritten Erfassen von Prozessdaten der Bearbeitungsvorrichtung (1), Erfassen von Bildrohdaten eines Bildes einer Bearbeitungsstelle (24) des Werkstücks (26) mittels eines Bildsensors (71), Verarbeiten der erfassten Bildrohdaten zu Bilddaten mittels eines Bildrohdatenverarbeitungsalgorithmus, und Auswerten der Bilddaten mittels eines Bilddatenauswertealgorithmus, wobei das Erfassen der Bildrohdaten und/oder Verarbeiten der Bildrohdaten und/oder Auswerten der Bilddaten basierend auf den erfassten Prozessdaten erfolgt.
  2. Verfahren nach Anspruch 1, bei dem das Erfassen von Prozessdaten das Erfassen von Positionsdaten des Bildsensors (71) bezüglich der Bearbeitungsstelle (24) und/oder das Erfassen von Ist-Geometrien der Bearbeitungsstelle (24) und/oder das Erfassen eines Auftreffwinkels des Bearbeitungsstrahls umfasst.
  3. Verfahren nach Anspruch 1 oder 2, bei dem das Erfassen der Bildrohdaten das Einstellen einer Belichtungsdauer und/oder Blende des Bildsensors und/oder das Einstellen eines Beleuchtungsparameters einer Beleuchtungsquelle zur Beleuchtung der Bearbeitungsstelle und/oder das Filtern vorbestimmter Wellenlängen basierend auf den erfassten Prozessdaten umfasst.
  4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem das Verarbeiten der erfassten Bildrohdaten folgende Schritte umfasst: Auswählen mindestens eines Bildrohdatenverarbeitungsalgorithmus aus mehreren Bildrohdatenverarbeitungsalgorithmen basierend auf den erfassten Prozessdaten, und Verarbeiten der Bilddaten mittels des ausgewählten Bildrohdatenverarbeitungsalgorithmus.
  5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem ein Wert eines Bildrohdatenverarbeitungsparameters, der beim Verarbeiten der erfassten Bildrohdaten zu den Bilddaten verwendet wird, eine Größe aufweist, die abhängig von der Größe eines entsprechend zugeordneten Prozessparameters ist, und der Bildrohdatenverarbeitungsalgorithmus mit dem Wert des Bildrohdatenverarbeitungsparameters durchgeführt wird, und/oder ein Wert eines Bilddatenauswerteparameters, der beim Auswerten der Bilddaten verwendet wird, eine Größe aufweist, die abhängig von der Größe eines entsprechend zugeordneten Prozessparameters ist, und der Bilddatenauswertealgorithmus mit dem Wert des Bilddatenauswerteparameters durchgeführt wird.
  6. Vorrichtung zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 5, mit einer Prozessdatenerfassungseinheit (51), die zum Erfassen der Prozessdaten der Bearbeitungsvorrichtung (1) angepasst ist, einer Bildrohdatenerfassungseinheit (70), die den Bildsensor (71) aufweist und zum Erfassen der Bildrohdaten des Bildes der Bearbeitungsstelle (24) des Werkstücks angepasst ist, einer Bildrohdatenverarbeitungseinheit (52), die zum Verarbeiten der erfassten Bildrohdaten zu den Bilddaten mittels des Bildrohdatenverarbeitungsalgorithmus angepasst ist, einer Bilddatenauswerteinheit (53), die zum Auswerten der Bilddaten mittels des Bilddatenauswertealgorithmus ausgebildet ist.
  7. Vorrichtung nach Anspruch 6, die weiter aufweist eine Speichereinheit (54), die zum Speichern einer Mehrzahl von Bildrohdatenverarbeitungsalgorithmen und/oder Bilddatenauswertealgorithmen ausgebildet ist, und eine Auswähleinheit (55), die dazu ausgebildet ist den Bildrohdatenverarbeitungsalgorithmus zum Verarbeiten der erfassten Bildrohdaten zu den Bilddaten und/oder den Bilddatenauswertealgorithmus zum Auswerten der Bilddaten basierend auf den erfassten Prozessdaten aus der Speichereinheit auszuwählen.
  8. Vorrichtung nach Anspruch 7, bei der die in der Speichereinheit (54) gespeicherten Bildrohdatenverarbeitungsalgorithmen und/oder Bilddatenauswertealgorithmen jeweils mit mindestens einem Bereich von Prozessdaten verknüpft sind, die Auswähleinheit (55) den Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertealgorithmus, der dem Bereich von erfassten Prozessdaten entspricht, auswählt, die Verarbeitung und/oder Auswertung mittels des ausgewählten Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertealgorithmus erfolgt.
DE102013017795.2A 2013-10-25 2013-10-25 Prozessüberwachungsverfahren und -vorrichtung Active DE102013017795C5 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013017795.2A DE102013017795C5 (de) 2013-10-25 2013-10-25 Prozessüberwachungsverfahren und -vorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013017795.2A DE102013017795C5 (de) 2013-10-25 2013-10-25 Prozessüberwachungsverfahren und -vorrichtung

Publications (2)

Publication Number Publication Date
DE102013017795B3 true DE102013017795B3 (de) 2015-02-19
DE102013017795C5 DE102013017795C5 (de) 2018-01-04

Family

ID=52430470

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013017795.2A Active DE102013017795C5 (de) 2013-10-25 2013-10-25 Prozessüberwachungsverfahren und -vorrichtung

Country Status (1)

Country Link
DE (1) DE102013017795C5 (de)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015012565B3 (de) * 2015-09-25 2016-10-27 Lessmüller Lasertechnik GmbH Vorrichtung und Verfahren zur Erhöhung der Genauigkeit eines OCT-Messsystems für die Lasermaterialbearbeitung
DE102015015112A1 (de) 2015-11-23 2017-05-24 Lessmüller Lasertechnik GmbH Vorrichtung und Verfahren zum Überwachen eines Bearbeitungsprozesses zur Materialbearbeitung mittels eines optischen Referenzstrahls unter Ausgleich von Dispersionseffekten
DE102016208309A1 (de) * 2016-05-13 2017-11-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Überwachung der Qualität einer Schweißnaht
DE102016113950A1 (de) * 2016-07-28 2018-02-01 HELLA GmbH & Co. KGaA Fügeverfahren und Fügeeinrichtung zur Durchführung des Fügeverfahrens
DE102016119794A1 (de) * 2016-10-18 2018-04-19 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Bild-basierte technologiewahl beim laserschweissen
DE102016120523A1 (de) 2016-10-27 2018-05-03 Raylase Gmbh Ablenkeinheit
DE102017102762A1 (de) 2017-02-13 2018-08-16 Precitec Gmbh & Co. Kg Verfahren zum Erkennen von Fügepositionen von Werkstücken und Laserbearbeitungskopf mit einer Vorrichtung zur Durchführung dieses Verfahrens
DE102018209929A1 (de) * 2018-06-20 2019-12-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bearbeiten eines Bauteils eines Kraftfahrzeugs
DE102019006705A1 (de) * 2019-09-25 2021-03-25 Visiontools Bildanalyse Systeme Gmbh Verfahren und Anordnung zur Kontrolle von Fügenähten
US20210114136A1 (en) * 2017-12-07 2021-04-22 Bystronic Laser Ag Device for monitoring beam treatment of a workpiece and use thereof, device for beam treatment of a workpiece and use thereof, method for monitoring beam treatment of a workpiece, method for beam treatment of a workpiece
DE102020000636A1 (de) 2020-01-30 2021-08-05 Lessmüller Lasertechnik GmbH Verfahren und Vorrichtung zum Durchführen und Überwachen eines Bearbeitungsprozesses eines Werkstücks
DE102020000630A1 (de) 2020-01-30 2021-08-05 Lessmüller Lasertechnik GmbH Verfahren und Vorrichtung zum Durchführen und Überwachen eines Bearbeitungsprozesses eines Werkstücks
US20210316402A1 (en) * 2020-04-09 2021-10-14 II-VI Delaware, Inc Process control method for laser material processing
DE102020205872A1 (de) 2020-05-11 2021-11-11 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Bestimmen der Schmelzespritzerhäufigkeit und zum Regeln eines Bearbeitungsparameters bei der Laserbearbeitung sowie zugehörige Bearbeitungsmaschine und Computerprogrammprodukt
DE102020210419A1 (de) 2020-08-17 2022-02-17 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zur Prozessüberwachung und zum Regeln eines Bearbeitungsparameters beim Wärmeleitschweißen sowie zugehörige Bearbeitungsmaschine und Computerprogrammprodukt
DE102018129407B4 (de) 2018-11-22 2023-03-30 Precitec Gmbh & Co. Kg Verfahren zum Schneiden eines Werkstücks mittels eines Laserstrahls und Laserbearbeitungssystem zum Durchführen des Verfahrens
WO2023244873A1 (en) * 2022-06-16 2023-12-21 Fluor Technologies Corporation System and method for monitoring welded joints
DE102023103439A1 (de) 2023-02-13 2024-08-14 TRUMPF Laser- und Systemtechnik SE Computergestütztes Verfahren

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021201806A1 (de) 2021-02-25 2022-09-08 Trumpf Laser Gmbh Verfahren und Vorrichtung zum Bestimmen eines optimierten Parametersatzes zum Durchführen einer Messung

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004043076A1 (de) * 2003-09-17 2005-04-21 Daimler Chrysler Ag Verfahren zum Überwachen eines Laserstrahlbearbeitungsvorgangs
DE102004001168A1 (de) * 2004-01-07 2005-08-04 Daimlerchrysler Ag Verfahren und Vorrichtung zur Nahtführung beim Laserschweissen
US7043330B2 (en) * 2002-10-31 2006-05-09 Ehsan Toyserkani System and method for closed-loop control of laser cladding by powder injection
WO2007053973A1 (de) * 2005-11-14 2007-05-18 Precitec Vision Gmbh & Co. Kg, Eschborn (De), Zweigniederlassung Neftenbach Verfahren und vorrichtung zur bewertung von fügestellen von werkstücken
DE102007024789B3 (de) * 2007-05-26 2008-10-23 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren zum Erkennen von Fehlern an einer Schweißnaht während eines Laser-Schweißprozesses
DE102009057209A1 (de) * 2009-02-09 2010-08-19 Scansonic Mi Gmbh Vorrichtung mit Scanner-Optik zur Materialbearbeitung mittels Laser
DE102011078276B3 (de) * 2011-06-29 2012-12-06 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Erkennen von Fehlern während eines Laser-Bearbeitungsprozesses sowie Laser-Bearbeitungsvorrichtung

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19702335C1 (de) * 1997-01-23 1998-08-27 Wavelight Laser Technologie Gm Vorrichtung für die Materialbearbeitung mit einem gepulsten Laser
DE19828723A1 (de) * 1998-06-29 2000-01-05 Rofin Sinar Laser Gmbh Laserbearbeitungseinrichtung
US6633338B1 (en) * 1999-04-27 2003-10-14 Gsi Lumonics, Inc. Programmable illuminator for vision system
JP2001129776A (ja) * 1999-11-05 2001-05-15 Fanuc Ltd センサを使った検出線に対する追従装置
EP1099506B1 (de) * 1999-11-12 2004-06-02 Werner Kluft Verfahren und Vorrichtung zur Messung von Prozessparametern eines Materialbearbeitungsprozesses
DE19960405A1 (de) * 1999-12-15 2001-06-28 Messer Cutting & Welding Ag Anordnung zur Videokamera-Zoomverstellung über die Y-Schneidkopf-Positionierung für Laserschneidsysteme
JP3877501B2 (ja) * 2000-07-07 2007-02-07 松下電器産業株式会社 部品認識データ作成方法及び作成装置並びに電子部品実装装置及び記録媒体
JP4327389B2 (ja) * 2001-10-17 2009-09-09 株式会社日立製作所 走行レーン認識装置
DE10335501B4 (de) * 2002-07-31 2005-01-27 Kuka Schweissanlagen Gmbh Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl
JP4578056B2 (ja) * 2003-02-06 2010-11-10 株式会社ダイヘン 作業ロボットを用いた制御システムによるワーク加工方法
DE202006005916U1 (de) * 2006-04-10 2007-08-16 Kuka Schweissanlagen Gmbh Überwachungseinrichtung
EP2061621B1 (de) * 2006-09-06 2011-10-26 Precitec Vision GmbH & Co. KG Verfahren und vorrichtung zur optischen beurteilung der schweissqualität beim schweissen
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
DE202008003394U1 (de) * 2008-03-06 2008-07-03 Hörmann Engineering GmbH Vorrichtung zur Positions- und/oder Orientierungserfassung wenigstens eines im Raum bewegbaren Bearbeitungsmoduls einer Remote-Bearbeitungsanlage
DE102009052529B4 (de) * 2008-11-13 2023-10-05 Mercedes-Benz Group AG Verfahren zur Qualitätsüberwachung einer Verbindungsnaht sowie Vorrichtung zum Laserschweißen oder Laserlöten
JP5333344B2 (ja) * 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
DE102009050784B4 (de) * 2009-10-27 2012-02-16 Lessmüller Lasertechnik GmbH Verfahren zur bildgestützten Kontrolle von Bearbeitungsprozessen und Verfahren zur Reparatur von Defekten an Werkstücken
DE102011103282B4 (de) * 2011-06-03 2015-09-03 Lessmüller Lasertechnik GmbH Verfahren zum Überwachen der Bearbeitung sowie Vorrichtung zum Bearbeiten eines Werkstücks mit einem hochenergetischen Bearbeitungsstrahl
DE102012001609B3 (de) * 2012-01-26 2013-02-21 Precitec Kg Laserbearbeitungskopf
DE102013219220A1 (de) * 2013-09-25 2015-03-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Laser- Remote Bearbeiten eines Werkstücks an einer Kehle und Vorrichtung hierfür

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7043330B2 (en) * 2002-10-31 2006-05-09 Ehsan Toyserkani System and method for closed-loop control of laser cladding by powder injection
DE102004043076A1 (de) * 2003-09-17 2005-04-21 Daimler Chrysler Ag Verfahren zum Überwachen eines Laserstrahlbearbeitungsvorgangs
DE102004001168A1 (de) * 2004-01-07 2005-08-04 Daimlerchrysler Ag Verfahren und Vorrichtung zur Nahtführung beim Laserschweissen
WO2007053973A1 (de) * 2005-11-14 2007-05-18 Precitec Vision Gmbh & Co. Kg, Eschborn (De), Zweigniederlassung Neftenbach Verfahren und vorrichtung zur bewertung von fügestellen von werkstücken
DE102007024789B3 (de) * 2007-05-26 2008-10-23 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren zum Erkennen von Fehlern an einer Schweißnaht während eines Laser-Schweißprozesses
DE102009057209A1 (de) * 2009-02-09 2010-08-19 Scansonic Mi Gmbh Vorrichtung mit Scanner-Optik zur Materialbearbeitung mittels Laser
DE102011078276B3 (de) * 2011-06-29 2012-12-06 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Erkennen von Fehlern während eines Laser-Bearbeitungsprozesses sowie Laser-Bearbeitungsvorrichtung

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015012565B3 (de) * 2015-09-25 2016-10-27 Lessmüller Lasertechnik GmbH Vorrichtung und Verfahren zur Erhöhung der Genauigkeit eines OCT-Messsystems für die Lasermaterialbearbeitung
DE102015015112B4 (de) 2015-11-23 2022-02-10 Lessmüller Lasertechnik GmbH Vorrichtung und Verfahren zum Überwachen eines Bearbeitungsprozesses zur Materialbearbeitung mittels eines optischen Messstrahls
DE102015015112A1 (de) 2015-11-23 2017-05-24 Lessmüller Lasertechnik GmbH Vorrichtung und Verfahren zum Überwachen eines Bearbeitungsprozesses zur Materialbearbeitung mittels eines optischen Referenzstrahls unter Ausgleich von Dispersionseffekten
DE102016208309A1 (de) * 2016-05-13 2017-11-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Überwachung der Qualität einer Schweißnaht
DE102016113950A1 (de) * 2016-07-28 2018-02-01 HELLA GmbH & Co. KGaA Fügeverfahren und Fügeeinrichtung zur Durchführung des Fügeverfahrens
DE102016119794A1 (de) * 2016-10-18 2018-04-19 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Bild-basierte technologiewahl beim laserschweissen
DE102016120523A1 (de) 2016-10-27 2018-05-03 Raylase Gmbh Ablenkeinheit
US11402626B2 (en) 2016-10-27 2022-08-02 Raylase Gmbh Deflector
DE102017102762A1 (de) 2017-02-13 2018-08-16 Precitec Gmbh & Co. Kg Verfahren zum Erkennen von Fügepositionen von Werkstücken und Laserbearbeitungskopf mit einer Vorrichtung zur Durchführung dieses Verfahrens
DE102017102762B4 (de) 2017-02-13 2023-06-15 Precitec Gmbh & Co. Kg Verfahren zum Erkennen von Fügepositionen von Werkstücken und Laserbearbeitungskopf mit einer Vorrichtung zur Durchführung dieses Verfahrens
US11534860B2 (en) 2017-02-13 2022-12-27 Precitec Gmbh & Co. Kg Method for identifying joining points of workpieces and laser machining head comprising a device for carrying out this method
CN110382159A (zh) * 2017-02-13 2019-10-25 普雷茨特两合公司 用于识别工件接合位置的方法和具有用于实施该方法的设备的激光加工头
US20210114136A1 (en) * 2017-12-07 2021-04-22 Bystronic Laser Ag Device for monitoring beam treatment of a workpiece and use thereof, device for beam treatment of a workpiece and use thereof, method for monitoring beam treatment of a workpiece, method for beam treatment of a workpiece
DE102018209929A1 (de) * 2018-06-20 2019-12-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bearbeiten eines Bauteils eines Kraftfahrzeugs
DE102018129407B4 (de) 2018-11-22 2023-03-30 Precitec Gmbh & Co. Kg Verfahren zum Schneiden eines Werkstücks mittels eines Laserstrahls und Laserbearbeitungssystem zum Durchführen des Verfahrens
DE102019006705B4 (de) * 2019-09-25 2021-05-27 Visiontools Bildanalyse Systeme Gmbh Verfahren und Anordnung zur Kontrolle von Fügenähten
DE102019006705A1 (de) * 2019-09-25 2021-03-25 Visiontools Bildanalyse Systeme Gmbh Verfahren und Anordnung zur Kontrolle von Fügenähten
DE102020000630A1 (de) 2020-01-30 2021-08-05 Lessmüller Lasertechnik GmbH Verfahren und Vorrichtung zum Durchführen und Überwachen eines Bearbeitungsprozesses eines Werkstücks
DE102020000636B4 (de) 2020-01-30 2021-12-02 Lessmüller Lasertechnik GmbH Verfahren und Vorrichtung zum Durchführen und Überwachen eines Bearbeitungsprozesses eines Werkstücks
DE102020000630B4 (de) 2020-01-30 2021-12-02 Lessmüller Lasertechnik GmbH Verfahren und Vorrichtung zum Durchführen und Überwachen eines Bearbeitungsprozesses eines Werkstücks
DE102020000636A1 (de) 2020-01-30 2021-08-05 Lessmüller Lasertechnik GmbH Verfahren und Vorrichtung zum Durchführen und Überwachen eines Bearbeitungsprozesses eines Werkstücks
US11999017B2 (en) 2020-01-30 2024-06-04 Lessmüller Lasertechnik GmbH Method and device for conducting and monitoring a machining process of a workpiece
US20210316402A1 (en) * 2020-04-09 2021-10-14 II-VI Delaware, Inc Process control method for laser material processing
DE102020205872A1 (de) 2020-05-11 2021-11-11 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Bestimmen der Schmelzespritzerhäufigkeit und zum Regeln eines Bearbeitungsparameters bei der Laserbearbeitung sowie zugehörige Bearbeitungsmaschine und Computerprogrammprodukt
DE102020210419A1 (de) 2020-08-17 2022-02-17 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zur Prozessüberwachung und zum Regeln eines Bearbeitungsparameters beim Wärmeleitschweißen sowie zugehörige Bearbeitungsmaschine und Computerprogrammprodukt
WO2023244873A1 (en) * 2022-06-16 2023-12-21 Fluor Technologies Corporation System and method for monitoring welded joints
DE102023103439A1 (de) 2023-02-13 2024-08-14 TRUMPF Laser- und Systemtechnik SE Computergestütztes Verfahren

Also Published As

Publication number Publication date
DE102013017795C5 (de) 2018-01-04

Similar Documents

Publication Publication Date Title
DE102013017795B3 (de) Prozessüberwachungsverfahren und -vorrichtung
DE10335501B4 (de) Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl
EP1448334B1 (de) Verfahren und Vorrichtung zur Erfassung der Nahtqualität einer Schweißnaht bei der Schweißung von Werkstücken
DE102011104550B4 (de) Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
DE102009042986B3 (de) Schweißkopf und Verfahren zum Fügen eines Werkstücks
DE102009050784B4 (de) Verfahren zur bildgestützten Kontrolle von Bearbeitungsprozessen und Verfahren zur Reparatur von Defekten an Werkstücken
DE102016102492B4 (de) Verfahren und Vorrichtung zum Überwachen einer Fügenaht sowie Laserbearbeitungskopf
EP2567773B1 (de) Verfahren zum überprüfen der nahtqualität während eines laserschweissprozesses
EP2726244B1 (de) Verfahren zum erkennen von fehlern an einer nicht linearen schweissnaht bzw. einem nicht linearen schnittspalt während eines laser-bearbeitungsprozesses sowie entsprechende laser-bearbeitungsvorrichtung
EP1904260B1 (de) Verfahren und vorrichtung zur bestimmung einer lateralen relativbewegung zwischen einem bearbeitungskopf und einem werkstück
DE102010011253B4 (de) Laserbearbeitungskopf, Robotervorrichtung und Verfahren zur Bearbeitung eines Werkstücks mittels eines Laserstrahls
DE102010060162B3 (de) Verfahren zur Erhöhung der Genauigkeit der Führung des Bearbeitungslasers von Fügevorrichtungen
EP2886239A1 (de) Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess
DE10215135A1 (de) Verfahren zur automatischen Regelung von Fokus und Beleuchtung, sowie zur objektivierten Antastung des Kantenortes in der optischen Präzisionsmesstechnik
WO2020169433A1 (de) Überwachung und prozessregelung einer additiven fertigung eines werkstücks
DE102013112244B4 (de) Verfahren zum Strahlfügen
DE10222786A1 (de) Verfahren zur Positionierung von Werkstücken bei Laserbearbeitungsprozessen
EP0128119A1 (de) Verfahren und Vorrichtung zum Fokussieren eines Lichtstrahls, auf ein Objekt
EP4010145B1 (de) Verfahren zum analysieren einer werkstückoberfläche für einen laserbearbeitungsprozess und eine analysevorrichtung zum analysieren einer werkstückoberfläche
EP0214120B1 (de) Verfahren zum Erfassen der Position und Geometrie von Werkstückoberflächen
DE102017102762B4 (de) Verfahren zum Erkennen von Fügepositionen von Werkstücken und Laserbearbeitungskopf mit einer Vorrichtung zur Durchführung dieses Verfahrens
DE102014002183B4 (de) Einrichtung zur kontrollierten Laserbearbeitung wenigstens eines Werkstücks
DE102017010108A1 (de) Vorrichtung und Verfahren zum Erkennen der aktuellen Position eines einem Laserschweißprozess zugeführten Schweißdrahtes
DE20221476U1 (de) Optisches Präzisionsmessgerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R026 Opposition filed against patent
R034 Decision of examining division/federal patent court maintaining patent in limited form now final
R206 Amended patent specification
R082 Change of representative

Representative=s name: THUM, MOETSCH, WEICKERT PATENTANWAELTE PARTG M, DE

Representative=s name: THUM & PARTNER THUM MOETSCH WEICKERT PATENTANW, DE

Representative=s name: WEICKERT, JONAS, DR. RER. NAT., DE

R082 Change of representative

Representative=s name: THUM, MOETSCH, WEICKERT PATENTANWAELTE PARTG M, DE

Representative=s name: THUM & PARTNER THUM MOETSCH WEICKERT PATENTANW, DE