-
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Bearbeitungsstrahls.
-
Schmelzfüge- oder Schneid- bzw. Trennbearbeitungen können mit einem hochenergetischen Bearbeitungsstrahl, wie einem Elektronenstrahl oder Laserstrahl, aber auch mit einem Lichtbogen präzise durch Fokussieren des Bearbeitungsstrahls auf dem zu bearbeitenden Werkstück durchgeführt werden. Das präzise Positionieren der Bearbeitungsstelle, das präzise Steuern und Positionieren des Bearbeitungsstrahls, entsprechende Regelung der Bearbeitungsvorrichtung und eine entsprechende Online-Qualitätskontrolle und sind unerlässlich zur Erfüllung heutiger Qualitätsanforderungen.
-
Aus der
DE 10 2004 043 076 A1 ist die Verwendung mehrerer auf eine Bearbeitungsstelle gerichteter Kameras bekannt. Dabei liefert jede Kamera Ist-Bilder von dem Werkstück, von der Bearbeitungsstelle und der Bearbeitungsspur, d. h. der bearbeiteten Stelle. Diese erfassten Ist-Bilder werden anschließend mit Soll-Bildern verglichen. Im Ergebnis des Vergleichs werden Stellsignale generiert, die Stellelementen zugeführt werden, welche ein oder mehrere Prozessgrößen beeinflussen.
-
Aus der
DE 10 2004 001 168 ist ein Verfahren und eine Vorrichtung zur Nahtführung beim Laserstrahlschweißen bekannt. Dabei werden vor dem Schweißen Soll-Ist-Abweichungen bezüglich der Positionierung des Werkstücks untersucht und korrigiert. Die optischen Komponenten zur Vermessung des Werkstücks nutzen dabei zu Verringerung von Fehlmessungen annähernd denselben optischen Weg wie der Bearbeitungsstrahl.
-
Aus der
DE 10 2009 057 209 A1 ist eine mit einer Scanner-Optik ausgestalte Vorrichtung zur Materialbearbeitung mittels Laser, insbesondere zum Laserschweißen bekannt. Die Vorrichtung enthält einen mit der Scanner-Optik mitbeweglichen Bildsensor und einen seitlich an der Schweißoptik montierten Projektor, der dazu dient, Messlicht in Form von Messstrukturen in dem Bereich auf das zu bearbeitende Werkstück zu projizieren, in dem die zu verschweißende Fügekante erwartet wird. Die Vorrichtung ist so ausgebildet, dass der Bildsensor das vom Projektor abgestrahlte Messlicht nach Reflexion am Werkstück erfasst. Der Laserbearbeitungsstrahl ist somit in der Scanner-Optik in mindestens einem Bereich der Optik koaxial zu oder annähernd koaxial zu der Einfallsachse des Sensors, sodass sich Positions- und Geometriefehler aus dem optischen oder mechanischen Gesamtaufbau nicht auf das Messergebnis auswirken.
-
Aus der
DE 10 2007 024 789 B3 ist ein Verfahren zum Erkennen von Fehlern an einer Schweißnaht bekannt, bei dem Strahlung, die von einer sich an ein flüssiges Schmelzbad anschließenden erstarrten Schmelze emittiert wird, zweidimensional ortsaufgelöst detektiert wird und die detektierte Strahlung entlang zumindest eines Profilschnitts durch Vergleichen mit einem Referenzwert ausgewertet wird.
-
Aus der
DE 10 2011 078 276 B3 ist ein Verfahren zum Erkennen von Fehlern während eines Laserbearbeitungsprozesses sowie eine Laserbearbeitungsvorrichtung bekannt. In demselben wird werkstückseitig emittierte Strahlung detektiert und ein Detektionsfeldausschnitt, das anhand von Steuerdaten zum Steuern der Bewegung des Laserstrahls entlang der Bearbeitungsbahn oder anhand von zuvor ermittelten Ist-Positionsdaten des Laserstrahls entlang der Schweiß- oder Schneidbahn ausgewählt wird, ausgewertet. Somit wird sichergestellt, dass der Detektionsfeldausschnitt mit dem vorauseilenden Laserbrennfleck des Lasers synchronisiert mitgeführt werden kann. Das heißt, die Schweißnaht kann während ihres Entstehens an den immer gleichen Bahnabschnitten relativ zum über dem Werkstück bewegten Brennfleck des Laserstrahls auf Fehler hin überprüft werden.
-
Aus der
US 7,043,330 B2 ist ein System zum Überwachen und Steuern eines Laserschweißprozesses in Echtzeit bekannt, wobei mit einem Bildsensor erfasste Eigenschaften zum Einstellen des Laserprozesses verwendet werden.
-
Aus der
WO 2007/053973 A1 ist ein Verfahren und eine Vorrichtung zur Bewertung von Fügestellen von Werkstücken bekannt, bei dem bzw. bei der ein kombiniertes Bild der Fügestelle mit einem Lichtschnittmuster und Grauwertbild im selben Sensor, aber in zwei verschiedenen Bereichen aufgenommen wird, das Grauwertbild ausgewertet wird und somit die Qualität der Fügestelle erkannt wird.
-
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren bzw. eine Vorrichtung anzugeben, mit dem bzw. der eine Online-Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Strahls insbesondere dahingehend verbessert werden kann, dass die Erkennungszuverlässigkeit von Fehlern sowie die Regelung des Bearbeitungsprozesses weiter verbessert wird.
-
Diese Aufgabe wird gelöst durch ein Verfahren gemäß dem unabhängigen Patentanspruch 1 bzw. eine Vorrichtung gemäß dem unabhängigen Patentanspruch 6. Weitere vorteilhafte Ausgestaltungen sind in den abhängigen Patentansprüchen angegeben.
-
Das Verfahren und die Vorrichtung erlauben, die mittels einer Kamera aufgenommenen Bilder zuverlässig und präzise zur Prozessüberwachung bzw. Prozesssteuerung zu verwenden. Die allgemein als „Bildverarbeitung” bezeichnete Verarbeitung soll im Weiteren zumindest in die folgenden drei Prozesse unterteilt sein.
-
Die „Bildrohdatenerfassungseinheit” umfasst beispielsweise einen CCD oder CMOS Bildsensor. Vor dem Bildsensor können beispielsweise eine steuerbare Fokussieroptik zum Einstellen des Fokussierpunktes bzw. der Brennweite und/oder ein Mechanismus zum Vorschalten verschiedener Filter zum Filtern bestimmter Wellenlängen und/oder eine oder mehrere steuerbare Beleuchtungsvorrichtung zur Beleuchtung des Werkstücks ausgebildet sein. Die Belichtungsseinstellung etc. können automatisch oder manuell vor dem Aufnehmen eines Bildes eingestellt werden. Die Beleuchtungsvorrichtung(en) umfassen beispielsweise Beleuchtungsvorrichtungen, die einen Beleuchtungsstrahlengang koaxial zum Bearbeitungsstrahlengang der Laserschweißvorrichtung herstellen können, oder Beleuchtungsvorrichtungen, die einen Beleuchtungsstrahl unter einem gewünschten Winkel auf die Bearbeitungsstelle auftreffen lassen. Mit dem Bildsensor werden im Weiteren als „Bildrohdaten” bezeichnete Bilder einer Bearbeitungsstelle durch Belichtung des Bildsensors und anschließender Speicherung der gewonnenen Bildrohdaten erfasst. Die Bilderfassung erfolgt durch einen „Bildrohdatenerfassungsalgorithmus”, durch den beispielsweise die Belichtungsart (automatisch/manuell), Belichtungsdauer, der/die verwendete/-n Filter, die gewünschte Beleuchtung etc. festgelegt wird. Somit wird sichergestellt, dass die vom Bildsensor erfassten Bildrohdaten ausreichende Qualität für die weitere Verarbeitung aufweisen. Bevorzugt wird immer der gesamte von dem Bildsensor erfasste Bildbereich als Bildrohdaten gespeichert, ohne dass eine Vorauswahl oder ein „digitaler Zoom” auf bestimmte Ausschnitte des Bildes erfolgt.
-
In einem nächsten Schritt werden dieselben Bildrohdaten beispielsweise in Abhängigkeit von ihrer späteren Verwendung (Auswertung) mittels des „Bildrohdatenverarbeitungsalgorithmus” zu „Bilddaten” verarbeitet. Beispielsweise wird aus den Bildrohdaten (beispielsweise RAW Format, Wärmebild etc.) ein Farbbild, S/W-Bild, ein Graustufenbild, ein Histogramm, eine Intensitätskurve oder Ähnliches der Bearbeitungsstelle oder des Werkstücks erzeugt. Des Weiteren können beispielsweise spezielle Algorithmen zur besseren Darstellung von Merkmalen bzw. Eigenschaften der Bildrohdaten, die bei der späteren Auswertung besonders relevant sind, verwendet werden. Beispielsweise können Bildrohdaten oder Bereiche davon so verarbeitet werden, dass sie anschließend mit besonders hohem/-r Kontrast/Farbsättigung/Belichtung etc. in den Bilddaten dargestellt werden.
-
Die somit gewonnen Bilddaten werden in einem nächsten Schritt mittels eines „Bilddatenauswertealgorithmus” ausgewertet. Beispielsweise wird mittels des Bilddatenauswertealgorithmus überprüft, ob eine vorgegebene Referenzform einer Schweißnaht auf dem Bild zu erkennen ist, ob ein Bearbeitungspunkt einer Referenzform entspricht usw.
-
Der Bildrohdatenverarbeitungsalgorithmus und der Bilddatenauswertealgorithmus können auch in einem Algorithmus/Verfahren verwirklicht werden, in dem ein oder mehrere Parameter in Abhängigkeit von den Prozessdaten (Prozess-Ist-Daten) veränderlich sind.
-
Das Erfassen, Verarbeiten und Auswerten eines Bildes einer Bearbeitungsstelle gemäß dem Verfahren nach Patentanspruch 1 erlaubt die einzelnen Prozesse zum Erfassen, Verarbeiten und Auswerten der Bilder zu optimieren bzw. diese unter optimalen Bedingungen auszuführen. Hierfür werden die erfassten Prozessdaten herangezogen.
-
Beispielsweise können Einstellungen zum Erfassen der Bildrohdaten des Bildes der Bearbeitungsstelle, wie beispielsweise Belichtungseinstellungen (Blende, Belichtungszeit) und/oder Filter und/oder Beleuchtungseinstellungen bzw. Beleuchtungsparameter für verschiedene Wellenlängen, basierend auf Ortskoordinaten der Bearbeitungsvorrichtung voreingestellt werden, sodass die Zeit zum Erfassen der Bildrohdaten verkürzt werden kann und die Qualität der Bildrohdaten erhöht werden kann. Des Weiteren Beispielsweise können in einer Speichereinheit Auftreffwinkel des Bearbeitungsstrahls auf dem Werkstück in Abhängigkeit von Ortskoordinaten der Bearbeitungsvorrichtung gespeichert sein. Die gespeicherten Werte können vor einer Bilderfassung (d. h., zumindest vor der oben genannten Bildrohdatenerfassung und/oder Bildrohdatenverarbeitung und/oder Bilddatenauswertung) ausgelesen werden. Beispielsweise aus einem weiteren gespeicherten Kennfeld kann anschließend eine dem Auftreffwinkel entsprechende Einstellung (Parameter, Algorithmen) für die Bilderfassung ausgewählt werden. Optional oder zusätzlich können beispielsweise Bearbeitungsstrahlleistung, Winkel zwischen Beleuchtungsstrahlengang/Bildstrahlengang (d. h., der Winkel unter dem Bildstrahlen von der Werkstückoberfläche weg strahlen) und Bauteiloberfläche, Position des Bildsensors, etc. berücksichtigt werden. Die somit erfolgte Auswahl eines Bilderfassungsparameters basierend auf Prozess-Ist-Daten kann somit eine Bilderfassung verbessern und beschleunigen, da die richtige Belichtungsdauer schon voreingestellt ist. Eine zeitintensive automatische Belichtungseinstellung kann entfallen.
-
Auf dieselbe Weise wie bei der die Bilderfassung können sowohl die Art und Weise der Bildverarbeitung und der Bildauswertung (d. h., die Algorithmen/Verfahren, die in diesen verwendet werden) und/oder in diesen verwendete Parameter in Abhängigkeit von den erfassten Prozess-Ist-Daten vorausgewählt und optimiert werden. Beispielsweise kann, falls in der späteren Bildauswertung die Erkennung von zwei relativ schwach sichtbaren Fügekanten erforderlich ist, ein Bildverarbeitungsalgorithmus ausgewählt oder dahingehend modifiziert werden, sodass die Bilddaten, die mit ihm erzeugt werden, besonders gut zur Darstellung solcher Kanten geeignet sind (beispielsweise hohe Kontraste im S/W-Bild mit langer Belichtungszeit, so dass letztendlich nur die Kanten sichtbar sind). Ebenso kann der Bilddatenauswertealgorithmus dahingehend ausgewählt bzw. modifiziert werden, (lass nur nach zwei Kanten, die in bestimmter Relation zueinander stehen, gesucht wird. In einem weiteren Beispiel wird ein Graubild, welches mittels eines Bilderfassungsalgorithmus von dem Bildsensor aufgenommen wird (beispielsweise mit Pixel(helligkeits)werten von 0 bis 255), mit einem bestimmten Grenzwert, hier beispielweise 170, zu einem Binärbild verarbeitet. D. h., Pixel mit einer Helligkeit von 170 werden weiß und alle Pixel mit einer darunter liegenden Helligkeitswerten werden schwarz. Da eine Schweißkante heller als ihre Umgebung ist, erscheint auf dem somit erzeugten Bild bzw. den so erzeugten Bilddaten die Schweißnaht/als weißer Bereich. Der weiße und der Schwarze Bereich sind an einer definierten Kante voneinander abgegrenzt. Da die Helligkeit der Scheißnaht von bestimmten Prozessparameter und damit dessen Daten abhängt (beispielsweise Auftreffwinkel, Bearbeitungsstrahlleistung, Winkel zwischen Beleuchtungsstrahlengang/Bildstrahlengang und Bauteiloberfläche etc.), wird der Grenzwert in Abhängigkeit von diesen Prozessdaten ausgewählt.
-
Des Weiteren erlaubt das Auswerten der Bilddaten mittels eines Bilddatenauswertealgorithmus basierend auf den erfassten Prozessdaten beispielsweise das Anpassen von Grenzwerten in Abhängigkeit von entsprechenden Prozessdaten. Beispielsweise kann ein gewünschter Strahlungsintensitätsgrenzwert in Abhängigkeit von der gewählten Schutzgasmenge eingestellt werden. Zurückkommend auf das obige Beispiel des Binärbilds wird das erzeugte Binärbild auf die Lage der Scheißnaht hin ausgewertet. D. h., mit Hilfe eines Kantenfilters bzw. Schweißnahtbestimmungsalgorithmus wird die genaue Position der Schweißnaht im Binärbild bestimmt. Anhand der Prozessdaten weiß eine Bilddatenauswerteeinheit, ob die Kante horizontal, vertikal oder schräg im Bild liegt. Liegt sie horizontal, wird beispielsweise ein „Soebel_X Filter” verwendet. Liegt sie vertikal, wird beispielsweise ein „Soebel_Y Filter” verwendet. Liegt sie schräg, kann beispielsweise eine „Hough-Transformation” (Algorithmus) eingesetzt werden.
-
Weitere Merkmale und Zweckmäßigkeiten ergeben sich aus der Beschreibung von Ausführungsformen anhand der Figuren. Von den Figuren zeigt:
-
1 ein Prinzipschaubild einer Bearbeitungsvorrichtung, in der das erfindungsgemäße Verfahren gemäß der ersten Ausführungsform angewendet werden kann, bzw. die erfindungsgemäße Vorrichtung gemäß einer Ausführungsform verwendet werden kann,
-
2 ein vereinfachtes Blockschaltbild einer Verarbeitungsvorrichtung gemäß der Ausführungsform,
-
3 ein vereinfachtes Blockschaltbild einer Datenverarbeitungseinheit des erfindungsgemäßen Verfahrens bzw. der erfindungsgemäßen Vorrichtung gemäß der Ausführungsform,
-
4 ein vereinfachtes Grundfunktionsschema einer in 3 gezeigten Auswähleinheit,
-
5 eine schematische Ansicht eines ersten Anwendungsbeispiels,
-
6 eine schematische Ansicht eines zweiten Anwendungsbeispiels,
-
7 eine schematische Ansicht eines dritten Anwendungsbeispiels,
-
8 in 8a, 8b und 8c schematische Ansichten eines vierten Anwendungsbeispiels.
-
1 zeigt ein schematisches Prinzipschaubild einer Bearbeitungsvorrichtung 1 zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Strahls. Insbesondere zeigt 1 eine Prinzipschaubild einer im Wesentlichen bekannten Laser-Scanner-Schweißvorrichtung (Laserscanner) mit einem Scankopf 10. Zu dem Scankopf 10 wird über eine Transportfaser 3 aus einer Laserstrahlenquelle 12 ein Bearbeitungsstrahl (hier Laserstrahl) 14 zugeführt. Der Laserstrahl 14 wird nach Austritt aus der Transportfaser 3 durch eine Kollimationslinse 16 kollimiert und trifft anschließend auf einen dichroitischen Spiegel 18 auf, der für die Wellenlänge des Laserstrahls 14 reflektiv ist. Durch den dichroitischen Spiegel 18 wird der Laserstrahl 14 durch eine Fokussiervorrichtung in Form einer Fokussierlinse 20 auf einen Scanspiegel 22 reflektiert. Die Fokussierlinse 20 ist in der Richtung des Laserstrahls 14 zwischen dem dichroitischen Laserspiegel 18 und dem Scanspiegel 22 beweglich, um den Fokuspunkt des Laserstrahls 14 auf der Bearbeitungsstelle einzustellen. Alternativ oder zusätzlich kann die Kollimationslinse 16 in Strahlenrichtung bewegt werden. Der Scanspiegel 22 weist in der Regel zwei aufeinander stehende, jeweils um eine Achse frei bewegliche Spiegel auf, mit denen die Richtung des Laserstrahls 14 nach einer Reflexion am Scanspiegel 22 im Wesentlichen frei einstellbar ist. Nach der Reflexion am Scanspiegel 22 trifft der Laserstrahl auf eine Bearbeitungsstelle 24 eines Werkstücks 26, das auf einem Werktisch 28 positioniert ist, auf. Der Laserstrahl 14 verläuft in einem so genannten Bearbeitungsstrahlengang bzw. bildet diesen aus.
-
Weiter weist der Scannkopf 10 eine Kameravorrichtung 30 auf, die hinter dem dichroitischen Spiegel 18 und einem zweiten Umlenkelement 19 angeordnet ist. Durch die Kameravorrichtung 30 werden von der Werkstückoberfläche ausgehende Strahlen erfasst. Insbesondere werden Bildstrahlen 31 erfasst, die durch einen nachfolgend beschriebenen Bildstrahlengang zu der Kameravorrichtung 30 gelangen und dort das Bild der Bearbeitungsstelle bzw. des Werkstücks abbilden. Die Bildstrahlen werden auf der Werkstückoberfläche im Bereich der Bearbeitungsstelle 24 emittiert bzw. reflektiert und treffen nach der Reflexion am Scanspiegel 22 auf den dichroitischen Spiegel 18. Der dichroitischen Spiegel 18 ist so ausgebildet, dass er für die Wellenlängen der Bildstrahlen 31 durchlässig ist. Somit werden die Bildstrahlen 31 von dem dichroitischen Spiegel 18 nicht abgelenkt (Auskopplung aus dem Bearbeitungsstrahlengang) und gelangen auf das zweite Umlenkelement 19, das in geradliniger Verlängerung der durch den Scanspiegel 22 bzw. die Fokussierlinse 20 und den dichroitischen Spiegel 18 verlaufenden Achse liegt. Das zweite Umlenkelement 19 ist beispielsweise wiederum ein dichroitischer Spiegel oder ein Lochspiegel, mit dem die Bildstrahlen 31 vollständig oder teilweise zu der Kameravorrichtung 30 reflektiert werden (Auskopplung aus einem unten beschriebenen Beleuchtungsstrahlengang). Bevorzugt weist die Kameravorrichtung 30 eine Kameralinse 32 zur Fokussierung der Bildstrahlen 31 in der Kamera auf.
-
Zusätzlich zu der Kameravorrichtung
30 ist bevorzugt eine koaxiale oder quasikoaxiale Beleuchtungsquelle
29 vorgesehen. Die Beleuchtungsstrahlen
33 einer solchen integrierten Beleuchtungsquelle werden durch das zweite Umlenkelement
19 nicht umgelenkt (d. h., das zweite Umlenkelement
19 ist für die Beleuchtungsstrahlen durchlässig) und verlaufen nach dem zweiten Umlenkelement
19 entgegengesetzt zu den Bildstrahlen
31. Durch das Vorsehen von Beleuchtungsquellen
29 bzw. das Beleuchten der Bearbeitungsstelle
24 auf dem Werkstück
26 kann ein Licht mit einer anderen Frequenz und Intensität als die Strahlung des Laserstrahls und dem thermischen Leuchten aus der Prozesszone aufgenommen und elektronisch ausgewertet werden. Ein Beispiel für die Ein und Auskopplung von Beleuchtungsstrahlen und Bildstrahlen ist beispielsweise in der
DE 10 2011 119 478 A1 angegeben.
-
Zusätzlich oder alternativ zu der Beleuchtungsquelle 29 kann der Scankopf 10 eine externe Beleuchtungsquelle 34 zur Beleuchtung der Werkstückoberfläche aufweisen, die außerhalb einer Ein- bzw. -Austrittsöffnung 35 des Bearbeitungsstrahls 14 aus dem Scankopf 10 angeordnet ist. Optional weist der Scankopf 10 weiter eine Hilfsmaterialzuführeinrichtung 36 auf, mittels der der Bearbeitungsstelle 24 Hilfsmaterial 37, beispielsweise ein Schweißdraht oder ähnliches, zugeführt werden kann.
-
Der Scankopf 10 selbst wird in bevorzugt mehreren Raumrichtungen beweglich und/oder drehbar gehalten. Bevorzugt wird der Scankopf 10 von einem Roboterarm 38 gehalten, der den Scankopf 10 innerhalb eines vorbestimmten Raums sowohl translatorisch als auch rotatorisch frei bewegen kann. Mittels einer in 1 nicht gezeigten Steuervorrichtung kann somit der Laserstrahl 14 in seinem Fokuspunkt auf eine Bearbeitungsstelle 24 eines Werkstücks 26 entlang einer vorbestimmten Bahn über das Werkstück 26 bewegt werden. Die Bewegung kann dabei nur durch den Scanspiegel 22 oder den Roboterarm 38 oder eine überlagerte Bewegung beider Komponenten erzeugt werden.
-
Dadurch, dass die Bildstrahlen 31 durch Reflexion an dem Scanspiegel 22 koaxial zum Bearbeitungsstrahlengang 14 verlaufen, folgen die Bildstrahlen 31 bei einer Veränderung der Position bzw. Richtung des Scanspiegels 22 bzw. des Scankopfes 10 automatisch der entsprechenden Veränderung der Bearbeitungsstelle 24 auf dem Werkstück 26. Das heißt, die Bildstrahlen 31 werden synchronisiert mit dem Laserstrahl 14 mitbewegt. Die optionalen Beleuchtungsstrahlen 33 werden ebenfalls synchronisiert mit dem Laserstrahl 14 mitbewegt.
-
2 zeigt den funktionalen Aufbau der Signalver- und -bearbeitung in der beschriebenen Laserbearbeitungsvorrichtung gemäß der ersten Ausführungsform. Die einzelnen, in 2 dargestellten funktionalen Einheiten sind in dem Scankopf 10 vorgesehen, können aber auch außerhalb des Scankopfes 10, beispielsweise auf einer Bodenplatte angebracht werden. Des Weiteren können einzelne in 2 dargestellte Einheiten integral oder als einzelne Einheiten sowohl durch Software oder Hardware oder Software und Hardware ausgebildet sein.
-
Der gesamte Bearbeitungsvorgang, dessen Erfassung, Auswertung, Überwachung, Korrektur und ähnliches wird in der vorliegenden Ausführungsform mittels einer Datenverarbeitungseinheit 50, wie sie in 2 beispielhaft schematisch dargestellt ist, ausgeführt, gesteuert und/oder geregelt. In die Datenverarbeitungseinheit 50 wird ein Soll-Bearbeitungsvorgang eingegeben. Beispielsweise werden Koordinaten einer Soll-Schweißnaht in die Datenverarbeitungseinheit eingegeben. Alternativ kann die Datenverarbeitungseinheit einen Soll-Bearbeitungsvorgang erlernen. Das Erlernen kann beispielsweise über einen Scanner erfolgen. Die Datenverarbeitungseinheit 50 verarbeitet den eingegeben Soll-Bearbeitungsvorgang zu Prozess-Soll-Daten und übermittelt diese an einen Prozessregler 60. Der Prozessregler 60 weist beispielsweise einen Laserstrahlquellenregler zur Einstellung der Stärke des Laserstrahls, einen Bearbeitungsoptikregler zur Einstellung der Bearbeitungsoptik (Fokuspunkt), einen Schutzgasregler zur Einstellung der Schutzgasmenge, einen Roboter-/Scanspiegelregler zur Einstellung der Ortskoordinaten des Scankopfs und/oder der Bearbeitungsstelle, einen Drahtvorschubregler usw. auf. Der Prozessregler 60 ist weiter dazu angepasst, Prozess-Ist-Daten (beispielsweise momentane Steuerdaten bzw. Positionsdaten bzw. -koordinaten) wenigstens einiger der o. g. Regler als Prozess-Ist-Daten an die Datenverarbeitungseinheit 50 zurückzusenden.
-
Zur Überwachung des Schweißvorgangs ist zusätzlich eine Kameravorrichtung in Form einer Bildrohdatenerfassungseinheit 70 vorgesehen. Die Bildrohdatenerfassungseinheit 70 weist einen Bildsensor 71 auf, mit dem ein Bild (insbesondere der Bearbeitungsstelle 24) des Werkstücks 26 digital in Form von Bildrohdaten erfasst werden kann. Die Bildrohdatenerfassungseinheit 70 entspricht beispielsweise der in 1 gezeigten Kameravorrichtung 30. Zu den Prozess-Ist-Daten können gegebenenfalls auch Ortskoordinaten der Kameravorrichtung 30 etc. gehören (beispielsweise falls die Kameravorrichtung getrennt von dem Scankopf 10 bewegbar ist).
-
Die Datenverarbeitungseinheit 50 kann Parameter bzw. Einstellungen zur Bilderfassung an die Bildrohdatenerfassungseinheit 70 ausgeben. Beispielsweise sind eine Belichtungseinstellung des Bildsensors 71 oder das Vorsehen eines oder mehrerer spezieller Filter Bilderfassungsparameter. Die Bildrohdatenerfassungseinheit 70 kann die Bilderfassungsparameter auch selbsttätig/automatisch einstellen. Beispielweise können nur Grautöne (bzw. ein Graubild) aufgenommen werden.
-
Die mit der Bildrohdatenerfassungseinheit 70 gewonnenen „Bildrohdaten” werden anschließend an die Datenverarbeitungseinheit 50 übermittelt. In der Datenverarbeitungseinheit 50 können die Bildrohdaten anschließend verarbeitet und ausgewertet werden. Beispielsweise können Fehler in der Schweißnaht dadurch erkannt werden, dass Strahlungsintensitätsminima und -maxima von einer bestimmten Soll-Kurve abweichen. Des Weiteren kann die Größe, Form etc. der Schweißnaht bzw. der Bearbeitungsstelle zum Erkennen von fehlerhaften Schweißnähten oder Abweichungen von dem eingegebenen Soll-Bearbeitungsvorgang erkannt werden. Die Datenverarbeitungseinheit 50 kann somit zum Einen erkannte Fehler ausgeben und eine Qualitätsaussage über die Schweißnaht treffen, zum Anderen auch die gewonnenen Daten zur Korrektur der Prozess-Solldaten verwenden.
-
3 zeigt eine bevorzugte Ausführungsform der Datenverarbeitungseinheit 50. Wie aus 3 ersichtlich ist, weist die Datenverarbeitungseinheit 50 eine Prozessdatenerfassungseinheit 51, eine Bildrohdatenverarbeitungseinheit 52, eine Bilddatenauswerteeinheit 53, eine Speichereinheit 54, eine Auswähleinheit 55 und eine Eingabe-/Korrekturdatenverarbeitungseinheit 56 auf.
-
Die Prozessdatenerfassungseinheit 51 ist dazu ausgebildet, Prozess-Ist-Daten von dem Prozessregler 60 zu empfangen. Die Bildrohdatenverarbeitungseinheit 52 ist dazu ausgebildet, Bildrohdaten von der Bildrohdatenerfassungseinheit 70 zu empfangen und zu verarbeiten. Insbesondere ist die Bildrohdatenverarbeitungseinheit 52 dazu angepasst, Bildrohdaten mittels eines Bildrohdatenverarbeitungsalgorithmus zu Bilddaten zu verarbeiten. Beispielsweise kann mittels des Bildrohdatenverarbeitungsalgorithmus aus Bildrohdaten ein Histogramm, ein Schwarz/Weiß-Bild (S/W-Bild), ein Binärbild, ein Farbbild oder ähnliches als „Bilddaten” erzeugt werden. In der Bilddatenauswerteeinheit 53 werden die in der Bildrohdatenverarbeitungseinheit 52 berechneten Bilddaten empfangen. Die Bilddaten können beispielsweise, wie oben angegeben, ein Histogramm, ein optisches Abbild der Bearbeitungsstelle oder ähnliches sein. In der Bilddatenauswerteeinheit 53 werden die gewonnenen Bilddaten mittels eines Bilddatenauswertealgorithmus ausgewertet. Ein Bilddatenauswertealgorithmus kann beispielsweise ein Algorithmus zum Erkennen von zu verschweißenden Fügekanten, zum Erkennen verschiedener Schweißnahtmuster in verschiedenen Umgebungen, zum Auswerten des Bildes anhand des Prozesslichtes oder ähnliches sein. Beispiele für solche Algorithmen sind, wie oben angegeben, ein „Soebel_X Filter”, ein „Soebel_Y Filter”, oder eine „Hough-Transformation”. Der Auswertealgorithmus kann auch die Erzeugung einer Qualitätsaussage bzw. Fehlerdetektion umfassen. Des Weiteren kann mittels des Auswertealgorithmus eine Korrekturanweisung für Prozess-Soll-Daten errechnet werden.
-
In der Speichereinheit 54 werden verschiedene Bildrohdatenerfassungsparameter und/oder -algorithmen und/oder Bildrohdatenverarbeitungsparameter und/oder -algorithmen und/oder Bilddatenauswerteparameter und/oder -algorithmen gespeichert. Bevorzugt ist jeder Parameter bzw. Algorithmus mit vorbestimmten Prozessdaten beispielsweise über Kennfelder oder Funktionen verknüpft.
-
Die Auswähleinheit 55 ist dazu ausgebildet, basierend auf bzw. in Abhängigkeit von Prozessdaten einen oder mehrere entsprechende Bilderfassungsparameter und/oder -algorithmen, Bildrohdatenverarbeitungsparameter und/oder -algorithmen und/oder Bilddatenauswerteparameter und/oder -algorithmen aus der Speichereinheit 54 auszuwählen. Beispielsweise wählt die Auswähleinheit 55 einen Bilderfassungsparameter, einen Bildrohdatenverarbeitungsalgorithmus und/oder einen Bilddatenauswertealgorithmus entsprechend den in der Prozessdatenerfassungseinheit 51 erfassten Prozess-Ist-Daten mittels eines in der Speichereinheit 54 gespeicherten Kennfeldes, welches die Prozess-Ist-Daten mit den Parametern und Algorithmen verknüpft, aus. Anschließend gibt die Auswahleinheit 55 den ausgewählten Bilderfassungsparameter an die Bildrohdatenerfassungseinheit 70, den ausgewählten Bildrohdatenverarbeitungsalgorithmus an die Bildrohdatenverarbeitungseinheit 52 und den ausgewählten Bilddatenauswertealgorithmus an die Bilddatenauswerteeinheit 53 aus. Somit erfasst die Bildrohdatenerfassungseinheit 70 das Bild mit den von der Auswähleinheit 55 vorgegebenen Bilderfassungsparameter. Die somit gewonnenen Bildrohdaten werden in der Bildrohdatenverarbeitungseinheit 52 mittels des von der Auswähleinheit 55 vorgegebenen Bildrohdatenverarbeitungsalgorithmus zu Bilddaten verarbeitet. Anschließend werden die Bilddaten in der Bilddatenauswerteeinheit 53 mittels des vorgegebenen Bilddatenauswertealgorithmus ausgewertet. Die Bilddatenauswerteeinheit 53 kann anschließend eine Fehlerdetektion bzw. Qualitätsaussage beispielsweise über ein nicht dargestelltes Ausgabemittel, wie ein Bildschirm oder Lautsprecher ausgeben, oder als Signal an eine übergeordnete Anlagensteuerung gesendet werden. Des Weiteren kann die Bilddatenauswerteeinheit 53 optional eine Korrekturanweisung an die Eingabe-/Korrekturdatenverarbeitungseinheit 56 ausgeben.
-
Die Eingabe-/Korrekturdatenverarbeitungseinheit 56 ist dazu angepasst, die Korrekturanweisung mit der Eingabe des Soll-Bearbeitungsvorgangs so zu verarbeiten, dass die Prozess-Soll-Daten entsprechend korrigiert werden. Zusätzlich oder alternativ kann auch die Prozessdatenerfassungseinheit 51 die Prozess-Ist-Daten direkt an die Eingabe-/Korrekturdatenverarbeitungseinheit senden, sodass bei Abweichungen der Prozess-Ist-Daten von den Prozess-Soll-Daten eine entsprechende Korrektur erfolgen kann.
-
Die Datenverarbeitungseinheit 50 ist daher dazu ausgebildet, einen Bildsensor zur Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung 1 zur Bearbeitung eines Werkstücks mittels eines hochenergetischen Strahls zu verwenden, wobei die Bildaufnahme mit dem Bildsensor und/oder die Verarbeitung und Auswertung der mit dem Bildsensor gewonnenen Daten basierend auf den Prozess-Ist-Daten erfolgt. Eine schematische Ansicht dieser Grundlogik ist vereinfacht in 4 mit Bezug auf den Bildrohdatenverarbeitungsalgorithmus dargestellt. Demnach können die gewonnenen Bilddaten beispielsweise durch drei verschiedene Bildrohdatenverarbeitungsalgorithmen (BV-Algorithmen, BV1, BV2 und BV3) verarbeitet werden. Beispielsweise ist jeder der Bildrohdatenverarbeitungsalgorithmen BV1, BV2, BV3 dazu geeignet, die Form einer Schweißnaht unter Berücksichtigung des Blickwinkels der Kamera auf die Schweißnaht besonders gut abzubilden, so eine besonders zutreffende Qualitätsaussage über die Schweißnaht getroffen werden kann. Die Prozess-Ist-Daten werden verwendet, um zwischen den Bildrohdatenverarbeitungsalgorithmen BV1, BV2 und BV3 auszuwählen bzw. umzuschalten. Somit wird einer der Bildrohdatenverarbeitungsalgorithmen BV1, BV2 und BV3 basierend auf den Prozess-Ist-Daten (die die Art der Schweißnaht angeben) ausgewählt. Anschließend wird mittels der so gewonnen Bilddaten eine Qualitätsaussage getroffen und/oder werden neue korrigierte Prozess-Soll-Daten erzeugt. Dieselbe Grundlogik kann alternativ oder zusätzlich bei der Auswahl der Parameter und/oder Algorithmen der Bildrohdatenerfassungseinheit und/oder der Bilddatenauswerteeinheit angewendet werden.
-
Nachfolgend werden einige Anwendungsbeispiele der Vorrichtung zur Prozessüberwachung und/oder Steuerung bzw. des Verfahrens zur Prozessüberwachung und/oder Steuerung beschrieben.
-
5 zeigt ein erstes Anwendungsbeispiel. 5 zeigt die Bearbeitungsvorrichtung 1 der 1 schematisch. Die Bearbeitungsvorrichtung 1 weist die Kamera 30 und die Beleuchtungsquelle 29 auf, deren Strahlengänge im Verlauf auf die Bearbeitungsstelle koaxial mit dem Bearbeitungsstrahl 14 verlaufen. Das heißt, der Beleuchtungsstrahl 33, der Bildstrahl 31 und der Bearbeitungsstrahl 14 sind beim Aus- bzw. Eintritt durch die Ein- und Austrittsöffnung 35 in und aus dem Scankopf 10 im Wesentlichen koaxial. Wie weiter aus 5 ersichtlich, sollen die Werkstücke 101 mittels dreier Schweißnähte 104, 106 und 108 (Bearbeitungsstellen 24) miteinander verschweißt werden. Die Schweißnähte 104, 106 und 108 verlaufen in der 5 senkrecht zur Zeichenebene. In 5 ist die erste Schweißnaht 104 links, die zweite Schweißnaht 106 mittig und die dritte Schweißnaht 108 rechts angeordnet. Die Bearbeitungsvorrichtung 1, bzw. insbesondere die Ein- bzw. Austrittsöffnung 35 der Bearbeitungsvorrichtung 1 ist hier im Wesentlichen senkrecht über der zweiten, mittleren Schweißnaht 106 angeordnet. Das heißt, ein Bearbeitungsstrahl 14, der aus der Ein- bzw. Austrittsöffnung 35 der Bearbeitungsvorrichtung 1 austritt, trifft im Wesentlichen senkrecht auf die Bearbeitungsstelle 24 bzw. die zweite Schweißnaht 106 auf. Im Gegensatz dazu trifft der Bearbeitungsstrahl 14 auf die erste Schweißnaht 104 und die dritte Schweißnaht 108 in einem spitzen Winkel auf. Im Wesentlichen dasselbe gilt aufgrund des koaxialen Verlaufs für das Auftreffen des Beleuchtungsstrahls 33 aus der Beleuchtungsquelle 29.
-
Im Schweißprozess der Schweißnähte 104, 106, 108 wird im Schweißbad jeweils eine Pore 105, 107, 109 ausgebildet, deren Größe, Form und/oder Helligkeit später mittels der Bildstrahlen 31 zur Erzeugung einer Qualitätsaussage herangezogen wird. Jede Pore weist die Form einer Nut bzw. Ausbuchtung mit ungleichmäßigem, undefiniertem und rauem Rand auf, der durch das Aufschmelzen und Verspritzen des Schweißguts entsteht. Wie es weiter aus 5 ersichtlich ist, werden die mit der Beleuchtungseinheit 29 erzeugten Beleuchtungsstrahlen 33, die auf der Oberfläche rechts und links der Schweißnähte 104, 106, 108 bzw. Poren 105, 107, 109 auftreffen, im Wesentlichen reflektiert. Aufgrund des spitzen Auftreffwinkels im Bereich der ersten Schweißnaht 104 bzw. ersten Pore 105 werden die Beleuchtungsstrahlen 33, die in der Umgebung der Pore 105 auf die Oberflächen der Werkstücke 101 auftreffen, daher nicht direkt zurück zu der Ein- bzw. Austrittsöffnung 35 des Scankopfes 10 reflektiert. Die direkt auf die Pore auftreffenden Beleuchtungstrahlen 33 werden aufgrund der konkav gebogenen Oberfläche der Pore 105 diffus in alle Richtungen reflektiert. Ein gewisser Anteil dieser in der Pore reflektierten Strahlen Beleuchtungsstrahlen 33 wird daher als Bildstrahlen 31 in die Ein- bzw. Austrittsöffnung 35 des Scankopfes 10 gestrahlt bzw. reflektiert. Aufgrund der Symmetrie gilt dasselbe für die dritte Schweißnaht 108.
-
Im Falle der zweiten Schweißnaht 106 werden die Beleuchtungsstrahlen 33 zumindest von dem im Wesentlichen ebenen und glatten Oberflächenbereich in der Umgebung der zweiten Pore 107 direkt zurück zu der Ein- bzw. Austrittsöffnung 35 der Bearbeitungsvorrichtung 1 zurück reflektiert, da die bestrahlte Fläche des Werkstücks im Wesentlichen annähernd senkrecht zu den Beleuchtungsstrahlen 33 steht . Die durch Reflexion der Beleuchtungsstrahlen 33 an der gebogenen Oberfläche der zweiten Pore 107 erzeugten Strahlen strahlen diffus in alle Richtungen. Somit wird von der Pore 107 nur ein geringer Teil der Beleuchtungsstrahlen 33 in die Ein- bzw. Austrittsöffnung 35 des Scankopfs 10, und damit in die Kameravorrichtung 30, als Bildstrahlen 31 zurückreflektiert.
-
Die in die Kamera gelangenden Bildstrahlen 31 können am besten ausgewertet werden, wenn die Wellenlänge der vom Bearbeitungsstrahl 14 reflektierten Anteile mittels eines Filters ausgeblendet/gefiltert wird. Bevorzugt gelangen somit nur Bildstrahlen 31, die aus reflektierten Beleuchtungsstrahlen 33 erzeugt werden bzw. entstehen in die Kameravorrichtung 30. Eine solche Filterung kann beispielsweise mittels des dichroitischen Spiegels 18 (siehe 1) erfolgen. Die in der Kameravorrichtung 30 ankommenden Bildstrahlen der nach links/rechts versetzten ersten/dritten Schweißnaht 104/108 bzw. Pore 105/109 und der zentralen zweiten Schweißnaht 106 bzw. Pore 107 sind aufgrund der Auftreffwinkel der Beleuchtungsstrahlen 33 somit unterschiedlich. In der Kameravorrichtung 30 erscheinen die Poren 105 und 109 als heller Bereich in einer dunklen Umgebung (siehe 5a) und c)). Der Bereich der zweiten Pore 107 erscheint in der Kameravorrichtung 30 als dunkler Bereich in einer hellen Umgebung (siehe 5b)). D. h., bei der ersten/dritten Schweißnaht 104, 108 erscheint die Pore 105, 109 als heller Bereich, da die Beleuchtungsstrahlen 33 im Wesentlichen nur im Bereich der Pore 105, 109 reflektiert werden (siehe 5a) und 5c), die beispielhaft ein von der Kamera aufgenommenes Bild zeigen; sogenannte Dunkelfeldbeleuchtung). Bei der zweiten Schweißnaht 106 erscheint die Pore 107 als dunkler Punkt (siehe 5b, die beispielhaft ein von der Kamera aufgenommenes Bild zeigt; sogenannte Hellfeldbeleuchtung), da die Beleuchtungsstrahlen 33 insbesondere in der Umgebung der Pore 107 reflektiert werden.
-
Zur Bewertung bzw. Auswertung der Schweißnähte wird beispielsweise das Vorhandensein und die Form etc. der Poren 105, 107, 109 ausgewertet. Somit wird beispielsweise in einem Bilddatenauswertealgorithmus zunächst die Pore identifiziert und anschließend vermessen und mit Referenzdaten verglichen. Im Falle der ersten und dritten Schweißnaht 104, 108 wird die Pore 105, 109 erkannt, indem nach einem „hellen” Bereich mit einer bestimmten Form gesucht und derselbe ausgewertet wird. Umgekehrt wird im Falle der zweiten Schweißnaht 106 die Pore 107 erkannt, indem nach einem „dunklen” Bereich mit einer bestimmten Form gesucht wird und derselbe ausgewertet wird.
-
Das herkömmliche Auswählen des für eine Schweißnaht geeigneten Auswerte- bzw. Verarbeitungsalgorithmus basierend auf den Bildrohdaten ist fehleranfällig. Beispielsweise können aufgrund von Reflexionen, Verunreinigungen etc. auch bei der ersten/dritten Schweißnaht helle Bereiche bzw. bei der zweiten Schweißnaht dunkle Bereiche im Kamerabild als Pore erkannt werden, die aber nicht der tatsächlichen Pore entsprechen. Bei einer anschließenden Auswertung kann es daher zu Fehlern kommen.
-
Um diese Nachteile zu vermeiden, werden in der vorliegenden Ausführungsform die Prozess-Ist-Daten zum Auswählen der Bilderfassungsparameter bzw. des Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertealgorithmus, wie oben angegeben, herangezogen.
-
Auf das vorliegende Beispiel angewendet bedeutet dies, dass im Falle der ersten und dritten Schweißnaht 104, 108 zum Einen die Verwendung eines vorbestimmten Filters und/oder einer vorbestimmten Belichtungseinstellung an die Kamera 30 (Bildrohdatenerfassungseinheit) ausgegeben wird, die bzw. der es erlaubt, ein kontrastreiches Bild der Pore 105, 109 mittels des Bildsensors 71 als Bildrohdaten zu erfassen. Anschließend wird durch die Auswähleinheit 55 ein Bildrohdatenverarbeitungsalgorithmus ausgewählt, bei dem insbesondere ein heller Bereich gut von einem dunklen Bereich unterschieden werden kann. Zuletzt kann durch die Auswähleinheit 55 ein geeigneter Bilddatenauswertealgorithmus ausgewählt werden, mit dem in der Bilddatenauswerteeinheit 53 die Lichtintensität, Größe usw. eines hellen Bereichs, der hier die Pore 105 darstellt, vermessen und bewertet werden kann. Eine Bewertung erfolgt beispielsweise durch Bestimmen, ob die gemessenen Werte innerhalb vorgebender Grenzwerte liegen. Bei Überschreitung von Grenzwerten können Korrekturanweisungen erzeugt werden, die eine entsprechende Korrekturanweisung an die Eingabe-/Korrekturdatenverarbeitungseinheit 56 ausgeben. Diese kann anschließend die Prozess-Soll-Daten entsprechend anpassen.
-
Bei der zweiten Schweißnaht 106 werden ebenfalls ein vorbestimmter Filter und eine vorbestimmte Belichtungseinstellung verwendet. Anders als bei der ersten und dritten Schweißnaht 104, 108 wird der Bildrohdatenverarbeitungsalgorithmus bei der zweiten Schweißnaht so ausgewählt, dass insbesondere ein dunkler Bereich gut von einem hellen unterschieden werden kann.
-
In beiden Fällen wählt die Auswähleinheit 55 die entsprechenden Bilderfassungsparameter bzw. den Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertalgorithmus in Abhängigkeit von der Position der Schweißnaht aus. Diese Position wird durch die einen der vorher festegelegten Prozessparameter abgebildet und mittels der Prozess-Ist-Daten erfasst.
-
Beispielsweise erkennt die Auswähleinheit 55 basierend auf den Prozessdaten für den Scanspiegel 22, dass der Bearbeitungsstrahl in einem Winkel α1 ausgestrahlt wird. Hieraus kann die Auswähleinheit 55 unter Berücksichtigung der Orts- und Ausrichtungskoordinaten des Scankopfes 10 und der Orts- und Ausrichtungskoordinaten des Werkstücks 101 den Auftreffwinkel auf dem Werkstück ableiten (beispielsweise mittels eines Kennfelds). Im Falle der Austrittswinkel α1 oder α3, wird ein Bilderfassungsparameter bzw. Bildrohdatenverarbeitungsalgorithmus und/oder Bilddatenauswertealgorithmus für einen spitzen Auftreffwinkel, wie er bei ersten Schweißnaht 104 bzw. der dritten Schweißnaht 108 verwendet werden muss, ausgewählt. Umgekehrt muss bei dem Austrittswinkel α2 eine Bilderfassung, -verarbeitung und -auswertung für einen senkrechten Auftreffwinkel erfolgen.
-
Neben dem Austrittswinkel können beispielsweise auch Raumkoordinaten des Scankopfes 10, die Bearbeitungsstrahlleistung etc. zum Auswählen der geeigneten Parameter bzw. Algorithmen aus der Speichereinheit 54 verwendet werden. Optional kann auch die Kameraposition berücksichtigt werden.
-
6 zeigt ein weiteres Beispiel der Anwendung des Prozessüberwachungsverfahrens bzw. der Prozessüberwachungsvorrichtung.
-
Die Prozesslichtintensität der Bearbeitungsstelle kann zur Beurteilung der Qualität des Schweißprozesses verwendet werden. Die Prozesslichtintensität ist abhängig von dem zugeführten Schutzgasvolumen. Mehr Schutzgas bedeutet normalerweise ein geringeres Prozessleuchten und umgekehrt. Zur Überwachung eines Schweißprozesses wird normalerweise eine Referenzprozesslichtintensität festgelegt und überwacht, ob die tatsächliche Prozesslichtintensität innerhalb bestimmter Grenzwerte (Hüllkurve) über und unter der Referenzprozesslichtintensität bleibt. Somit können Schweißfehler erkannt werden.
-
Bei einer Veränderung des zugeführten Schutzgasvolumens steigt oder sinkt die Prozesslichtintensität entsprechend. Da die Grenzwerte herkömmlich unabhängig von der Veränderung des Schutzgasvolumens bestehen bleiben, kann die gemessene Prozesslichtintensität außerhalb der festgelegten Grenzwerte liegen und als ein Fehler interpretiert werden. In diesem Fall wird ein Fehler erkannt, obwohl die dem geänderten Schutzgasvolumen entsprechende, korrekte Prozesslichtintensität vorliegt.
-
Mit der vorliegenden Vorrichtung bzw. dem vorliegenden Verfahren kann dies vermieden werden. In 6 ist in dem oberen Diagramm ein verwendetes Schutzgasvolumen über die Zeit aufgetragen. In dem unteren Diagramm sind eine gemessene Prozesslichtintensität (Messwert) und ein oberer Grenzwert (oberes Limit) und ein unterer Grenzwert (unteres Limit) der Prozesslichtintensität über die Zeit aufgetragen. Die Bildrohdatenerfassungseinheit 70 wird grundsätzlich so voreingestellt, dass sie eine Prozesslichtintensität innerhalb der Grenzwerte differenziert aufnehmen kann. Diese Einstellung kann automatisch oder durch die Auswähleinheit 55 eingestellt werden. Anschließend werden die Bildrohdaten beispielsweise mittels eines Bildrohdatenverarbeitungsalgorithmus so verarbeitet, dass ein Messwert für die Prozesslichtintensität, wie er in dem unteren Diagramm in 6 gezeigt ist, aufgezeichnet wird. Diese Bilddaten werden dann durch die Bilddatenauswerteeinheit 53 simultan/online oder nach der Aufzeichnung ausgewertet. Ein in der Bilddatenauswerteeinheit 53 ausgeführte Bilddatenauswertealgorithmus überprüft, ob sich der aufgezeichnete Messwert für die Prozesslichtintensität innerhalb von Grenzwerten (oberes Limit, unteres Limit) bezüglich der Referenzprozesslichtintensität befindet. Wie oben angeben, ist die Prozesslichtintensität abhängig von der zugeführten Schutzgasmenge. Entsprechend der vorliegenden Ausführungsform ist das Schutzgasvolumen ein in dem Bilddatenauswertealgorithmus verwendeter Parameter zur Bestimmung der Referenzprozesslichtintensität bzw. Grenzwerte. D. h., die Referenzprozesslichtintensität bzw. Grenzwerte sind, wie es in 6 gezeigt ist, in Abhängigkeit von dem Schutzgasvolumen veränderlich und werden dadurch online an die tatsächlich verwendete Schutzgasmenge angepasst. Dieser Parameter wird der Bilddatenauswerteeinheit 53 von der Auswähleinheit 51 aus der Prozessdatenerfassungseinheit 51 zugeführt. Somit verändern sich die Grenzwerte unmittelbar in Abhängigkeit von der zugeführten Schutzgasmenge. Ist die Prozesslichtintensität innerhalb der Grenzwerte, wird ein positives Qualitätssignal ausgeben. Ist die Prozesslichtintensität außerhalb der Grenzwerte, wird ein negatives Qualitätsaussagesignal ausgeben.
-
7 zeigt ein weiteres Anwendungsbeispiel der Prozessüberwachung und/oder Steuerung einer Bearbeitungsvorrichtung 1. Wie es aus 7 ersichtlich ist, können die Schnittkanten 201, 205 von zu verschweißenden Oberblechen unterschiedliche, aber dennoch reproduzierbare Flankenwinkel aufweisen. Dies hat signifikante Auswirkungen auf entsprechende Kamerabilder in einer Bearbeitungsvorrichtung. Häufig entspricht die Anordnung gleicher Flankenwinkel einem geometrischen Muster. Beispielsweise wird bei Erfassung der Schnittkanten 201 mit einem Scankopf 10 in der Position A ein Kamerabild 203, wie es in der 7 links dargestellt ist, als Bildrohdaten erfasst. Bei einer Scankopfposition (in 7 gestrichelt dargestellt) und einem Flankenwinkel gemäß der zweite Schnittkante 205 an der zweiten Position rechts in 7 entsteht dagegen das Kamerabild 207, wie es rechts in 7 dargestellt ist. Zur Auswertung der Bilddaten 203, 207, werden entsprechende Auswertealgorithmen in Abhängigkeit von der Position und Ausrichtung des Scankopfes 55 bezüglich der Schnittkante ausgewählt. D. h., die Schnittkante 205 wird mittels eines Algorithmus erkannt, der zwei parallele Linien als Schnittkante erkennt (siehe zwei Linien in Kamerabild 203). Die Schnittkante 205 wird dagegen erkannt, indem eine einzelne Linie erkannt wird (siehe einzelne Linie in Kamerabild 207).
-
8 zeigt ein weiteres Anwendungsbeispiel. Zum taktzeitoptimierten Laserfügen von Bauteilen werden Laserscanner mit Bearbeitungsfeldern in der Größe einer DIN A4-Seite eingesetzt. Zudem werden die Scanner an Knickarm-Robotern montiert und die Bewegungsrichtungen beider Systeme miteinander intelligent kombiniert (on-the-fly).
-
Kamerasysteme ermöglichen das Schweißen von lagetoleranzempfindlichen (0,1 mm) Kehlnähten trotz Bauteiltoleranzen im Millimeterbereich. Hierzu kommuniziert das Kamerasystem entsprechende Korrekturwerte an den Scanner oder Roboter.
-
Eine Gefahr für die Prozessstabilität liegt in fehlerhafter Bilderkennung. So ist es denkbar, dass beispielsweise Kratzer, Schmutzteilchen oder beschädigte Fügekanten zu einer fehlerhaften Erkennung der Fügekante und damit auch fehlerhaften Positionierung des Bearbeitungsstrahls führen. Auch hierfür liefert die oben beschriebene Prozessüberwachungsvorrichtung bzw. das oben beschriebene Prozessüberwachungsverfahren eine Lösung.
-
Beispielsweise wird vorgesehen, dass mittels eines Anlernvorgangs, beispielsweise durch Kamerasystem oder manuellen Scanner (Abtastscanner), die Sollposition einer Schweißnaht gelernt wird (siehe 8a). Das heißt, während eines Einlernvorgangs werden ohne Regelung durch das Kamerasystem Prozess-Soll-Daten gelernt.
-
Zum Toleranzausgleich der Bauteile bzw. deren Position wird eine Hüllkurve um die so gelernten Koordinaten der auszuführenden Schweißnaht gelegt. Die Hüllkurve bildet einen maximalen positiven Abweichungswert und einen maximalen negativen Abweichungswert (Grenzwerte), innerhalb dessen eine Abweichung von der Sollkurve in dem Bildauswertealgorithmus nicht als Fehler erkannt wird.
-
8b zeigt, wie die Kamera während des Regelvorgangs die genaue Lage der Schweißfuge erkennt und die Scannerbahn korrigiert, solange diese innerhalb der gelernten Hüllkurve liegt.
-
In 8c ist ein Fall dargestellt, in dem aufgrund eines Kratzers, der fälschlicherweise durch die Kamera als Schweißfuge erkannt wird, eine Regelung auf die Untergrenze der Hüllkurve erfolgt. Beim Überschreiten der Hüllkurve, erkennt das System einen Fehler und schaltet beispielsweise den Regelungsalgorithmus zur Verfolgung der Schweißnaht mittels der Bildauswertung ab. Beispielsweise kann der Bearbeitungsstrahl zurück auf die Referenzbahn gefahren werden oder der vor dem Abschalten gefahrenen Bahn weiter folgen. Des Weiteren können durch die Auswähleinheit 55 Bilderfassungsparameter und/oder Bildrohdatenverarbeitungsalgorithmen und Bilddatenauswertealgorithmen geändert bzw. angepasst werden, sodass im nächsten Bild die ursprünglich erkannte Schweißfuge schneller/leichter aber eventuell ungenauer wieder erkannt wird (mehr Kontrast aber ungenauer, oder langsamere Bewegung dafür genauere Erkennung etc).
-
Das heißt, auch in diesem Beispiel werden in Abhängigkeit von den Prozess-Ist-Daten Algorithmen und/oder Parameter der Bearbeitungsvorrichtung neu eingestellt.
-
Neben den oben angegebenen Anwendungsbeispielen der Prozessüberwachungs- und/oder Steuerungsvorrichtung bzw. dem entsprechenden Verfahren können Komponenten und Schritte, die nur in einzelnen Beispielen ausgeführt werden auch in anderen Beispielen implementiert werden oder in einzelnen Beispielen weggelassen werden. Das heißt, das Senden von Bilderfassungsparametern und/oder das Senden eines ausgewählten Bildrohdatenverarbeitungsalgorithmus und/oder das Senden eines Bilddatenauswertealgorithmus sind optionale Merkmale, solange insgesamt ein von einem Bildsensor aufgenommenes Bild/Daten in Abhängigkeit von Prozess-Ist-Daten zur Ausgabe einer Qualitätsaussage und/oder Korrekturanweisung verwendet/verarbeitet wird/werden. Des Weiteren kann selbstverständlich das Ausgeben einer Fehlerdetektion bzw. Qualitätsaussage weggelassen werden, und die mit der Bilddatenauswerteeinheit gewonnenen Daten nur zur Korrektur der Prozess-Soll-Daten verwendet werden. Die einzelnen in 2 und 3 dargestellten funktionalen Einheiten können durch eine einzelne Recheneinheit, wie beispielsweise einen Computer dargestellt werden, können aber auch jeweils einzelne Steuergeräte bzw. Rechenkerne beinhalten. Die Bilddatenerfassungseinheit 70 kann ebenso innerhalb der Datenverarbeitungseinheit 50 ausgebildet sein. Das in 3 dargestellte Grundschema kann auch dahingehend ausgebildet sein, dass die Kameradaten erst nach dem Umschalter in das System eingespeist werden. Dies ist beispielsweise normalerweise bei der Bilddatenerfassungseinheit der Fall, da der entsprechende Algorithmus ausgewählt wird, bevor die Bilddaten erfasst werden. Die in 1 dargestellte Bearbeitungsvorrichtung ist lediglich als illustratives Beispiel dargestellt. Die dargestellten Komponenten können auf die im Stand der Technik bekannte Weise abgeändert werden. Beispielsweise kann der Scankopf starr an einem Gestell befestigt sein, können einzelne Linsen und Spiegel weggelassen oder anders ausgebildet sein, kann die Einkopplung des Bearbeitungsstrahlengangs in den Bildstrahlengang weggelassen werden, kann der Scanspiegel weggelassen werden. Beispielsweise kann auch eine Bearbeitungsvorrichtung, die keinen Scankopf, sondern eine nicht scannende Laserbearbeitungsoptik aufweist, verwendet werden. In diesem Fall können beispielsweise als Prozess-Ist-Daten die Laserleistung und/oder die Schutzgasmenge verwendet werden, in deren Abhängigkeit die Bilder unterschiedlich erfasst, verarbeitet und ausgewertet werden können. Neben der Speichereinheit 54 können auch weitere Speichereinheiten mit Kennfeldern oder Algorithmen und Funktionen zur Verknüpfung von Prozessdaten mit Erfassungsparametern, Verarbeitungsalgorithmen oder Auswertealgorithmen vorhanden sein. Des Weiteren kann auch in einer oder mehreren Speichereinheiten keine feste Verknüpfung der Erfassungsparameter und der Algorithmen mit einzelnen Prozessdaten erfolgen, sondern kann die Auswähleinheit eine entsprechende Auswahl mittels eines Auswählalgorithmus berechnen. Beispielsweise können verschiedene Prozessdaten als Eingangsparameter für einen Auswählalgorithmus verwendet werden, der anschließend aus diesem Auswählalgorithmus berechnet, welche Bilderfassungsparameter bzw. Verarbeitungs- und/oder Auswertealgorithmen die geeigneten sind.