DE102013022085A1 - Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess - Google Patents
Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess Download PDFInfo
- Publication number
- DE102013022085A1 DE102013022085A1 DE102013022085.8A DE102013022085A DE102013022085A1 DE 102013022085 A1 DE102013022085 A1 DE 102013022085A1 DE 102013022085 A DE102013022085 A DE 102013022085A DE 102013022085 A1 DE102013022085 A1 DE 102013022085A1
- Authority
- DE
- Germany
- Prior art keywords
- processing
- image
- laser beam
- machining
- butt joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K26/00—Working by laser beam, e.g. welding, cutting or boring
- B23K26/02—Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
- B23K26/03—Observing, e.g. monitoring, the workpiece
- B23K26/032—Observing, e.g. monitoring, the workpiece using optical means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K26/00—Working by laser beam, e.g. welding, cutting or boring
- B23K26/02—Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
- B23K26/04—Automatically aligning, aiming or focusing the laser beam, e.g. using the back-scattered light
- B23K26/044—Seam tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/42—Analysis of texture based on statistical description of texture using transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30152—Solder
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Plasma & Fusion (AREA)
- Mechanical Engineering (AREA)
- Probability & Statistics with Applications (AREA)
- Laser Beam Processing (AREA)
Abstract
Description
- Technisches Anwendungsgebiet
- Die vorliegende Erfindung betrifft ein Verfahren zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess, insbesondere beim Laser-Lichtbogen-Hybridschweißen, bei dem ein Bearbeitungslaserstrahl über eine Bearbeitungsoptik auf eine Oberfläche zu fügender Werkstücke gerichtet und auf der Bearbeitungsbahn entlang einer Stoßfuge der Werkstücke geführt wird, ein Bereich der Oberfläche koaxial zum Bearbeitungslaserstrahl mit Beleuchtungsstrahlung homogen beleuchtet und von dem Bereich reflektierte Beleuchtungsstrahlung durch die Bearbeitungsoptik hindurch ortsaufgelöst mit einem Bildsensor erfasst und ausgewertet wird. Die Erfindung betrifft auch eine Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess, die zur Durchführung des Verfahrens ausgebildet ist.
- Bei der Lasermaterialbearbeitung wird häufig ein fokussierter Laserstrahl oder ein Laserstrahl mit angepasster Leistungsdichteverteilung – ggf. gekoppelt mit weiteren Energiequellen, wie z. B. einem Lichtbogen – entlang einer Bearbeitungsbahn auf der Oberfläche eines Werkstücks bewegt, um ein gewünschtes Bearbeitungsergebnis zu erzielen, bspw. eine Schweißnaht, eine Schnittfuge oder eine partielle Oberflächenveredelung. Je nach Anforderungen an die Bahngenauigkeit und Bahngeschwindigkeit werden zur Bewegung der Bearbeitungsoptik, mit der der Bearbeitungslaserstrahl auf die Oberfläche fokussiert und/oder geeignet geformt wird, entweder numerisch gesteuerte (NC) mehrachsige Handling- oder kostengünstigere Robotersysteme eingesetzt.
- Die Programmierung der Bearbeitungsbahn erfolgt bei diesen Anwendungen vorab bei der Planung in einem Offline-Programmiersystem oder mit dem sog. Teach-In-Verfahren. Bei letzterem wird die Bahn direkt am Bauteil Punkt für Punkt mit dem Bearbeitungskopf angefahren und die jeweiligen Achspositionen werden in die Steuerung des Handlingsystems oder des Roboters übernommen. Weisen die Werkstückabmessungen jedoch Schwankungen auf, die größer als die für den jeweiligen Lasermaterialbearbeitungsprozess zulässigen Abweichungen sind, so ist eine Korrektur der Bahn entweder durch ein weiteres Teach-In am betreffenden Werkstück oder – für eine Serienproduktion wirtschaftlicher – der Einsatz von Sensoren und Reglern zur automatischen Kompensation der Abweichungen erforderlich. Mit Hilfe dieser Sensoren lassen sich dann vorteilhaft auch Abweichungen von der programmierten Bearbeitungsbahn kompensieren, die erst während des Bearbeitungsprozesses, bspw. durch thermisch bedingten Verzug des Werkstücks, entstehen.
- Darüber hinaus sind in Vorrichtungen zur Durchführung von Laser-Fügeprozessen in der Regel weitere optische Sensoren vorhanden, die der Überwachung des Fügeprozesses dienen. Sie werden zunehmend eingesetzt, um die stetig steigenden Anforderungen der Qualitätssicherung zu erfüllen und die Einhaltung von Toleranzen vollständig aufzuzeichnen und nachvollziehbar zu dokumentieren.
- Stand der Technik
- Für die Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess stehen bereits kommerziell erhältliche Systeme zur Verfügung, die entweder lateral angeordnete Sensoren oder lateral angeordnete Lichtquellen einsetzen. Mit den Lichtquellen werden geometrische Figuren, wie bspw. Linien oder Kreise, auf die Werkstückoberfläche projiziert. Aus der Abbildung dieser projizierten geometrischen Figuren wird dann durch Triangulation die Geometrie der Werkstückoberfläche oder einer dort verlaufenden Stoßfuge ermittelt. Häufig ist bei dieser Technik für die Detektion der Stoßfuge eine Kantenvorbereitung erforderlich, bei der die Flanken der Stoßfuge so strukturiert werden, dass sie mit einem Lichtschnitt-Triangulationssensor zuverlässig erkannt werden kann. Die lateral bezüglich des Bearbeitungskopfes angeordneten Sensoren oder Lichtquellen bilden jedoch Störkonturen, die die Zugänglichkeit zum Werkstück einschränken. Der Einsatz dieser Systeme ist daher auf Werkstücke mit hinreichend konvexer Geometrie beschränkt. Für das Fügen von 3D-Strukturen sind diese Systeme häufig nicht geeignet.
- Für die Überwachung des Fügeprozesses selbst werden in der Regel örtlich integrierende Detektoren oder ortsauflösende bildgebende Sensoren zusätzlich im oder am Bearbeitungskopf installiert. Mit diesen Detektoren oder Sensoren wird dann die Qualität des Laserprozesses überwacht und der Verlauf des Laserprozesses vollständig aufgezeichnet und damit dokumentiert. Diese Detektoren oder Sensoren sind eigenständig und unabhängig von den zur Fugenfolge verwendeten Lichtschnitt-Triangulationssensoren.
- Aus der
DE 198 52 302 A ist ein Verfahren zum Bearbeiten von Werkstücken mit Laserstrahlung bekannt, bei dem vom Werkstück ausgehende Lichtstrahlung unter Nutzung der Bearbeitungsoptik aufgenommen und mit einem Detektor einer Prozessüberwachungseinrichtung ausgewertet wird. Bei dem Verfahren wird die Oberfläche des Werkstücks mit einer zusätzlichen Beleuchtungsquelle beleuchtet und nicht nur die der Prozessüberwachung dienende Lichtstrahlung sondern auch das vom Werkstück reflektierte Beleuchtungslicht durch die Bearbeitungsoptik hindurch mit dem Detektor erfasst. Dadurch wird ein kompakter Aufbau der Vorrichtung im Bereich des Bearbeitungskopfes erreicht. Über die optische Messung an der Werkstückoberfläche kann zusätzlich zur Prozessüberwachung eine Messung des Abstands zwischen der Bearbeitungsoptik und dem Werkstück und/oder eine Vermessung der Werkstückgeometrie vor der Bearbeitungsstelle und/oder eine Vermessung der nach der Bearbeitung vorhandenen Nahtgeometrie und/oder eine Vermessung des an der Bearbeitungsstelle erzeugten Schmelzbades erfolgen. Die Nahtvermessung kann hierbei mit dem Lichtschnittverfahren durchgeführt werden, um jeweils die Nahtgeometrie auf Bearbeitungsfehler prüfen zu können. Eine Möglichkeit zur Regelung der Bearbeitungsbahn auf Basis einer Ermittlung der Position der Stoßfuge wird durch diese Druckschrift nicht vermittelt. - Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren sowie eine Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess anzugeben, die sich auch bei der Bearbeitung von 3D-Strukturen einsetzen lassen und eine robuste Detektion der Stoßfuge für eine autonome Regelung der Bearbeitungsbahn des Bearbeitungslaserstrahls ermöglichen. Das Verfahren und die Vorrichtung sollen sich insbesondere auch bei einem Laserstrahl-Lichtbogen-Hybridschweißprozess einsetzen lassen.
- Darstellung der Erfindung
- Die Aufgabe wird mit dem Verfahren und der Vorrichtung gemäß den Patentansprüchen 1 und 11 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens und der Vorrichtung sind Gegenstand der abhängigen Patentansprüche oder lassen sich der nachfolgenden Beschreibung sowie dem Ausführungsbeispiel entnehmen.
- Bei dem vorgeschlagenen Verfahren zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess, bei dem ein Bearbeitungslaserstrahl über eine Bearbeitungsoptik auf eine Oberfläche zu fügender Werkstücke gerichtet und auf der Bearbeitungsbahn entlang einer Stoßfuge der Werkstücke geführt wird, wird ein Bereich der Oberfläche koaxial zum Bearbeitungslaserstrahl mit Beleuchtungsstrahlung homogen, d. h. insbesondere unstrukturiert, beleuchtet und von dem Bereich reflektierte Beleuchtungsstrahlung durch wenigstens einen Teil der Bearbeitungsoptik hindurch ortsaufgelöst mit einem Bildsensor erfasst und ausgewertet. Aus den vom Bildsensor erhaltenen Bildern wird dabei mittels automatisierter texturbasierter Bildverarbeitung eine Position der Stoßfuge und eine Position einer vom Bearbeitungslaserstrahl im Werkstückmaterial induzierten Kapillare bestimmt und die Bearbeitungsbahn des Bearbeitungslaserstrahls dann in Abhängigkeit von den jeweils erfassten Positionen der Stoßfuge und der Kapillare geregelt. Die Regelung erfolgt in bekannter Weise derart, dass der Bearbeitungslaserstrahl möglichst exakt der Stoßfuge folgt.
- Damit lässt sich bei einer vorprogrammierten Bearbeitungsbahn, wie sie im einleitenden Teil der vorliegenden Beschreibung bereits angeführt wurde, bei Schwankungen der Werkstückgeometrie oder sonstigen Abweichungen während des Bearbeitungsprozesses die Bearbeitungsbahn automatisiert anpassen, um entsprechende Schwankungen oder Abweichungen beim Fügen zu kompensieren. Durch die koaxiale Beleuchtung und die Erfassung des reflektierten Beleuchtungslichtes durch die Bearbeitungsoptik hindurch wird ein kompakter Aufbau der Fügevorrichtung erreicht, so dass auch eine bessere Zugänglichkeit zu den Werkstücken beim Fügen von 3D-Strukturen ermöglicht wird. Mit dem für die Fugen- und Kapillar-Detektion genutzten Bildsensor lässt sich gleichzeitig auch die bisher übliche Prozessüberwachung durchführen, bspw. durch Identifikation und Vermessung des Schmelzbades in den Bildern und/oder durch Erfassung der vom Werkstück emittierten Sekundärstrahlung, insbesondere der Wärmestrahlung im Bereich der Bearbeitungsstelle. Unter der bei dem vorgeschlagenen Verfahren eingesetzten texturbasierten Bildverarbeitung ist hierbei zu verstehen, dass die Bildverarbeitung auf der lokal variierenden Reflexion des Beleuchtungslichtes an der Werkstückoberfläche basiert, aus der Texturinformation gewonnen und verarbeitet wird, bspw. über den Zwischenschritt eines Texturbildes. Aus dieser Texturinformation lässt sich dann bspw. die Lage der Stoßfuge, der durch den Bearbeitungsstrahl induzierten Kapillare (Keyhole) oder auch die Lage und Ausdehnung des beim Bearbeitungsprozess erzeugten Schmelzbades ermitteln.
- Das vorgeschlagene Verfahren lässt sich auch sehr vorteilhaft beim Laserstrahl-Lichtbogen-Hybridschweißen einsetzen. Dabei wird dem Bearbeitungsbereich flüssiges Fügematerial zum Auffüllen der Stoßfuge zugeführt. Dies erfolgt durch Zuführung eines Drahtes, der durch eine Lichtbogen-Schweißtechnik über starke Strompulse an der Spitze aufgeschmolzen wird, um das Fügematerial damit tröpfchenweise zuzuführen. Die Beleuchtung der Oberfläche erfolgt dabei mit einer gepulst betriebenen Lichtquelle, vorzugsweise mit einem gepulsten Beleuchtungslaser, der jeweils synchronisiert zu den Strompulsen für den Lichtbogen in einem Zeitraum zwischen zwei aufeinander folgenden Strompulsen einen Beleuchtungspuls abgibt. Die Bilderfassung erfolgt dabei jeweils gleichzeitig mit dem Beleuchtungspuls. Dadurch wird ein Überstrahlen der mit dem Bildsensor aufgenommenen Bilder durch den Lichtbogen vermieden. Die Beleuchtungspulse können dabei – je nach Strompulsfrequenz – nach jedem Strompuls oder auch jeweils nach einer festen Anzahl von Strompulsen ausgelöst werden.
- Vorzugsweise wird als Beleuchtungslaser ein Superpuls-Diodenlaser eingesetzt, der aus einem Diodenlaserbarren oder auch aus einem Diodenlaserarray bestehen kann. Unter einem Superpuls-Diodenlaser ist ein Diodenlaser zu verstehen, der eine hohe Pulsleistung liefert, die im CW-Betrieb nicht erreichbar wäre. Die Laserpulse werden dabei wiederum synchron und zeitverzögert zu den Schweißstrompulsen und gleichzeitig mit dem Verschluss des Bildsensors angesteuert.
- In einer weiteren bevorzugten Ausgestaltung wird zusätzlich ein Abstandssensor eingesetzt, der den Arbeitsabstand des Bearbeitungskopfes bzw. der darin enthaltenen Bearbeitungsoptik in Richtung der Propagation des Bearbeitungslaserstrahls (z-Richtung), d. h. in Richtung des Werkstücks, während der Bearbeitung kontinuierlich oder in kurzen zeitlichen Abständen ermittelt. Die Messung erfolgt dabei ebenfalls durch die Bearbeitungsoptik hindurch, vorzugsweise koaxial zum Bearbeitungslaserstrahl. Die Messung des Abstandes kann bspw. mittels ToF (Time of Flight), mittels OCT (optische Kohärenz-Tomographie), mittels Radar oder mittels Triangulation erfolgen. Die entsprechenden Techniken für die Abstandsmessung sind dem Fachmann bekannt. Auf Basis der Abstandsmessung kann dann auch der Abstand der Bearbeitungsoptik zur Werkstückoberfläche entsprechend geregelt werden. In einer besonders bevorzugten Ausgestaltung wird für die Abstandmessung ein Doppelspaltsensor eingesetzt, wie er bspw. aus der
DE 4206499 C2 bekannt ist. - Eine generelle Schwierigkeit bei der Fugendetektion beim Laserfügen besteht darin, dass sowohl die beleuchteten Werkstückoberflächen als auch die gesuchte Fuge abhängig von Material, Prozess- und Aufnahmesystem sehr unterschiedlich aussehen können. Aufgrund der Dynamik des Gesamtsystems ist es schwer möglich, die Intensitätsverteilung (Helligkeit) des akquirierten Bildmaterials vorherzusagen. Insbesondere kann nicht davon ausgegangen werden, dass Intensitätsänderungen an der Stoßfuge besonders ausgeprägt sind. Konventionelle, allein auf lokalen Intensitäten basierende Analyseverfahren sind daher schwer zu konfigurieren und während des Betriebs fehleranfällig. Bei der hier vorgeschlagenen texturbasierten Bildverarbeitung werden deutlich mehr Informationen aus der Umgebung eines Bildpunktes bzw. Pixels des von dem Bildsensor erfassten Bildes für die Auswertung verwendet.
- In einer bevorzugten Ausgestaltung wird bei der Bildverarbeitung hierbei jedem Bildpunkt des jeweils vom Bildsensor erhaltenen Bildes, der sich in einem vorgebbaren interessierenden Bereich des Bildes befindet, ein Merkmalsvektor aus mehreren skalaren Werten zugeordnet. Dieser Merkmalsvektor kann durch Anwendung mehrerer unterschiedlicher Filtermasken auf das Bild oder durch Auswertung oder Aufnahme von Intensitätswerten von den Bildpunkt umgebenden Bildpunkten im Bild erhalten werden. Hierbei werden vorzugsweise jeweils Filter gleichartiger Form in unterschiedlicher Größe verwendet. So können bei der gleichzeitigen Filterung mit mehreren Filtermasken (Filterbank) z. B. mehrere in Form und Größe unterschiedliche Kantenfilter und auch andere Strukturen repräsentierende Filter, bspw. kreisähnliche Strukturen repräsentierende Filter, verwendet werden. Die Filterantwort der eingesetzten Filter ist an den Stellen im Bild maximal, an denen entsprechend kantenähnliche oder kreisähnliche Strukturen auftreten. Der Merkmalsvektor jedes Bildpunktes enthält dabei die für die unterschiedlichen Filter erhaltenen Filterantworten an der Stelle dieses Bildpunktes, d. h. bspw. bei Anwendung von fünf Filtern fünf skalare Werte. Der Merkmalsvektor kann auch durch geordnetes Einlesen der Intensitätswerte der um den Bildpunkt herum angeordneten Bildpunkte erfolgen. Bspw. kann eine Nachbarschaft aus acht Bildpunkten des betrachteten Bildpunktes im Uhrzeigersinn jeweils betrachtet und deren Intensitätswerte in dieser Reihenfolge in den Merkmalsvektor aufgenommen werden. Eine weitere Möglichkeit besteht in der Analyse der Intensitätswerte der Bildpunkte um den betrachteten Bildpunkt herum. Dabei werden jedoch nicht die Intensitätswerte dieser Bildpunkte gespeichert. Vielmehr werden die Intensitätswerte dieser benachbarten Bildpunkte in einer festgelegten Reihenfolge mit dem Intensitätswert des betrachteten Bildpunktes verglichen (z. B. Analyse der acht benachbarten Bildpunkte im Uhrzeigersinn). Größere Werte können dabei mit dem Wert „1”, kleinere oder gleich große Werte mit dem Wert „0” codiert werden. Die entsprechenden Werte werden wiederum in der festgelegten Reihenfolge in den Merkmalsvektor des betrachteten Bildpunktes aufgenommen. Dadurch ergibt sich eine binäre Codierung der Nachbarschaft des Bildpunktes im Merkmalsvektor dieses Bildpunktes.
- Die auf diese Weise erhaltenen Merkmalsvektoren der Bildpunkte im interessierenden Bildbereich werden dann durch Vergleich mit vorab aus Trainingsdaten ermittelten Merkmalsvektoren oder auch durch reine Clusterbildung einer von mehreren unterschiedlichen Texturen zugeordnet. Die Texturzuordnung (Klassifizierung) erfolgt dabei vorzugsweise durch Verwendung einer vorangehenden Lernphase. Hierbei wird eine Menge von Merkmalsvektoren von vorab bekanntem Bildmaterial (Trainingsmaterial) durch eine Clustering-Technik stark reduziert. Dadurch werden Repräsentanten des trainierten Bildmaterials ermittelt, die texturspezifische Charakteristika codieren. Neuem Bildmaterial, d. h. Echtzeit- bzw. Live-Bildern der durchgeführten Prozessüberwachung, können auf dieser Basis pixelweise ermittelte Texturen zugeordnet werden, indem mit Hilfe eines Ähnlichkeitsmaßes ein Vergleich jedes neuen Merkmalsvektors mit den antrainierten Repräsentanten stattfindet. Aus den entsprechenden Zuordnungen der jeweils betrachteten Bildpunkte wird schließlich ein Texturbild erzeugt, in dem jeder Bildpunkt des interessierenden Bereiches mit einem Helligkeitswert dargestellt wird, der wiederum der entsprechenden Textur zugeordnet ist. Aus diesem Texturbild werden dann die Positionen der Stoßfuge und der Kapillare sowie optional auch Positionen von weiteren Objekten bestimmt. Vorzugsweise erfolgt die Bestimmung der Stoßfuge über eine Gradientenbildung aus dem Texturbild.
- Die Fugendetektion kann dabei über eine Gradientenbildung durch Anwendung einer aus zwei disjunkten Halbmasken gebildeten Maske erfolgen. Es wird dabei eine Maske generiert, die aus zwei disjunkten gegenüber liegenden Teilen besteht, z. B. einem in der Mitte geteilten Quadrat oder zwei gegenüber liegenden Halbkreisen. Diese Maske wird über jedem Pixel im Bild bzw. dem betrachteten Bildausschnitt zentriert und in der Orientierung variiert. Für jede Position und Orientierung werden zwei Histogramme erstellt, in denen die Zuordnung der unter der Maske liegenden Pixel zu den verschiedenen Texturen aufsummiert werden. Durch statistische Berechnungen wird anschließend ermittelt, wie stark sich die Histogramme der beiden Hälften der Maske in den unterschiedlichen Positionen und Orientierungen unterscheiden. Hierzu kann bspw. die sog. Chi-Quadrat-Formel eingesetzt werden, wie sie z. B. in J. Malik et al., "Textons, Contours and Regions: Cue Integration in Image Segmentation", Proceedings of the International Conference on Computer Vision, Corfu, Greece, September 20–25, 1999, IEEE Computer Society, Seiten 918–925 zum selben Zweck demonstriert wird. Dieses Distanzmaß wird benutzt, um die Stärke des Übergangs zwischen texturierten Flächen zu detektieren. Zusätzlich kann optional ein auf den Helligkeitswerten des ursprünglichen Bildes basierender Gradient ermittelt und mit dem Texturgradienten verrechnet werden. Die Fugenposition und -lage wird schließlich vorzugsweise durch eine Hough Transform, einer Standardtechnik zur Ermittlung von Geraden in Graustufenbildern, aus der Gradienteninformation ermittelt.
- In einer Weiterbildung des vorgeschlagenen Verfahrens können die Merkmalsvektoren der Bildpunkte zusätzlich durch Vergleich mit vorab aus Trainingsdaten ermittelten Merkmalsvektoren einer von mehreren in den Trainingsdaten vorhandenen Objekte zugeordnet werden, um die Position und Erstreckung dieser Objekte im Bild zu erkennen. Hierbei werden die entsprechenden Objekte auf dem vorab bekannten Bildmaterial (Trainingsmaterial) pixelweise markiert (annotiert). Die zugehörigen Merkmalsvektoren werden entsprechend in Gruppen eingeteilt, die den jeweiligen Objekten entsprechen, bspw. Schweißnaht/Fuge, unveränderte Werkstückoberfläche, Prozessbereich, Förderdraht usw.. Während der Analysephase, also in Echtzeit während des Bearbeitungsprozesses, werden die zu den Bildpunkten der beim Prozess aufgezeichneten Bilder gehörenden Merkmalsvektoren berechnet. Für jeden Merkmalsvektor wird dann über ein Ähnlichkeitsmaß ermittelt, zu welcher der bekannten Objekt-Gruppen dieser vermutlich gehört, indem ein Abgleich mit den vorbekannten, in Gruppen eingeteilten Merkmalsvektoren stattfindet. Auf diese Weise lässt sich eine Objekterkennung bezüglich vorhandener Bildinhalte durchführen. Für jeden Bildpunkt werden nun die in einem Fenster um den Bildpunkt herum liegenden Merkmalsvektoren und deren Gruppenzugehörigkeit ermittelt. Hieraus ergibt sich angenähert eine diskrete Wahrscheinlichkeitsverteilung, die auf das jeweils abgebildete Objekt schließen lässt.
- Auf diese Weise lässt sich bspw. das Schmelzbad identifizieren, so dass dann dessen Länge und Breite automatisiert bestimmt werden kann. Weiterhin können neben der Position der Fuge und der vom Laser induzierten Kapillare auch andere geometrische Merkmale des Prozesses ermittelt werden, bspw. beim Laserstrahl-Lichtbogen-Hybridschweißen der Überstand (Stickout) des Drahtes, der Durchmesser des vom Draht abgelösten Tropfens, usw.. Auch andere Oberflächencharakteristika lassen sich durch die texturbasierte Bildverarbeitung beschreiben und klassifizieren. So hat je nach Prozessparametern die Schweißnaht eine sehr komplexe Oberflächenstruktur. Die Naht selbst und ihre Grenzen (Ränder) sind dadurch lokalisierbar. Neben dem Laserstrahl-Lichtbogen-Hybridschweißen ist dies besonders nützlich für die Anwendung beim Laser-Löten.
- Die vorgeschlagene Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess umfasst einen Bearbeitungskopf mit einer Bearbeitungsoptik, über die ein eingekoppelter Bearbeitungslaserstrahl auf eine Bearbeitungsebene fokussierbar ist, einer Beleuchtungseinheit zur Beleuchtung eines Bereichs der Bearbeitungsebene koaxial zum Bearbeitungslaserstrahl sowie einen ortsauflösenden Bildsensor, mit dem zumindest ein Teil des mit der Beleuchtungseinheit homogen beleuchteten Bereichs der Bearbeitungsebene durch wenigstens einen Teil der Bearbeitungsoptik, vorzugsweise koaxial zum Bearbeitungslaserstrahl, erfassbar ist. Der Bildsensor ist mit einer Auswerte- und Steuereinrichtung verbunden, die aus den vom Bildsensor erhaltenen Bildern mittels texturbasierter Bildverarbeitung zumindest die Position der Stoßfuge und einer vom Bearbeitungslaserstrahl induzierten Kapillare in den im Bereich der Bearbeitungsebene angeordneten zu fügenden Werkstücken bestimmt und Steuersignale für eine Führung des Bearbeitungslaserstrahls mit einer Bewegungseinrichtung entlang der Stoßfuge liefert. Die Bewegungseinrichtung, bspw. ein Roboter, kann hierzu den Bearbeitungskopf relativ zu den Werkstücken oder die Werkstücke relativ zum Bearbeitungskopf bewegen.
- Durch die bei der vorliegenden Vorrichtung in den Bearbeitungskopf integrierte Sensorik, bestehend aus Beleuchtungseinheit sowie wenigstens im Bildsensor, kann sowohl eine Identifikation der Stoßfuge als auch eine Überwachung des Laser-Fügeprozesses selbst erfolgen. Durch die Integration der Sensorik in den Bearbeitungskopf unter Nutzung der Bearbeitungsoptik für den optischen Strahlengang wird die Zugänglichkeit zu den zu fügenden Werkstücken vollständig erhalten.
- In einer vorteilhaften Weiterbildung umfasst die Vorrichtung neben dem Bildsensor auch noch einen Abstandssensor, vorzugsweise einen Doppelspaltsensor, mit dem der Abstand des Bearbeitungskopfes zur Werkstückoberfläche bestimmbar ist. Die entsprechenden Signale dieses Doppelspaltsensors werden ebenfalls in der Auswerte- und Steuereinrichtung ausgewertet, um entsprechende Steuersignale für die Beibehaltung eines vorgebbaren Abstandes des Bearbeitungskopfes oder der Bearbeitungsoptik zur Oberfläche der Werkstücke auszugeben. Die Auswerte- und Steuereinrichtung regelt dabei die Bearbeitungsbahn des Bearbeitungslaserstrahls jeweils in Abhängigkeit von den ermittelten Positionen und Abständen.
- Vorzugsweise ist die Auswerte- und Steuereinrichtung mit der Steuerung eines Roboter- oder Handlingsystems als Bewegungseinrichtung verbunden, die den Bearbeitungskopf entsprechend einer vorprogrammierten Bearbeitungsbahn des Bearbeitungslaserstrahls relativ zu den zu fügenden Werkstücken führt. Diese vorprogrammierte Bahn wird dabei zusätzlich durch die Steuersignale der Auswerte- und Steuereinrichtung beeinflusst, um eventuelle Abweichungen der Stoßfuge oder der Werkstückoberflächen von den der Programmierung der Bahn zugrunde liegenden Geometrien auszugleichen.
- In einer bevorzugten Ausgestaltung umfasst die Vorrichtung auch eine Zufuhreinheit für einen Schweißdraht und eine damit verbundene Schweißstromquelle, um mit der Vorrichtung die Werkstücke mittels Laserstrahl-Lichtbogen-Hybridschweißen fügen zu können. In diesem Fall ist zusätzlich eine Synchronisationseinheit vorgesehen, die die von der Beleuchtungseinheit erzeugten Lichtpulse mit den Schweißstrompulsen synchronisiert und die Beleuchtungspulse jeweils zeitverzögert zu den Schweißstromimpulsen und gleichzeitig mit dem Verschluss bzw. dem Aufnahmezeitpunkt des Bildsensors ansteuert.
- In einer vorteilhaften Ausbildung der vorgeschlagenen Vorrichtung wird der Strahlengang der Beleuchtungseinheit koaxial um den Strahlengang des Bearbeitungslasers herumgeführt, so dass der Bearbeitungslaserstrahl und der Beleuchtungsstrahl durch unterschiedliche Flächen der Bearbeitungsoptik treten. Damit kann in Verbindung mit einer geeigneten Blende vermieden werden, dass unerwünschte Reflexe des Bearbeitungslaserstrahls von den Grenzflächen der optischen Bauelemente auf den Bildsensor gelangen. Diese Technik ist bspw. in der
DE 10 2012 012 981 B4 beschrieben. - Mit dem vorgeschlagenen Verfahren und der zugehörigen Vorrichtung lässt sich eine autonome 2D- oder – im Falle der Nutzung eines zusätzlichen Abstandssensors – eine autonome 3D-Bahnregelung des Bearbeitungslaserstrahls entlang einer Stoßfuge realisieren. Gleichzeitig mit der Regelung auf Basis der Position der Stoßfuge und der Kapillare ermöglichen das Verfahren und die Vorrichtung auch eine automatisierte vollständige Prozessüberwachung. Die bei dem Verfahren und der Vorrichtung genutzte texturbasierte Bildauswertung ist robust und unempfindlich. Anders als bei intensitätsbasierten Auswerteverfahren werden die Ergebnisse durch Veränderung der Beleuchtung und Lichtverhältnisse nur geringfügig beeinflusst.
- Das Verfahren und die Vorrichtung ermöglichen die Vorbereitung des Fügens mit Laserstrahlung bzw. mit einem Laser-Lichtbogen-Hybridprozess in einfacherer Weise. Hierzu können die Stoßfuge und die Kennzeichnung der Sollposition durch Einsatz der Vorrichtung vor dem Fügeprozess mittels Fadenkreuz auf dem Bildschirm des Systems visualisiert werden, so dass der Maschinenbediener bei der Bahnprogrammierung mittels Teach-In am Werkstück durch diese Darstellung unterstützt werden kann. Durch eine Echtzeit-Darstellung der mit dem Bildsensor erfassten Bilder an einem Bildschirm kann der Maschinenbediener zudem die Qualität des Fügeprozesses während des Schweißens aus sicherem Abstand am Bildschirm beobachten und beurteilen. Er muss sich hierzu nicht mehr unmittelbar im Gefahrenbereich der Prozesszone aufhalten.
- Kurze Beschreibung der Zeichnungen
- Das vorgeschlagene Verfahren und die zugehörige Vorrichtung werden nachfolgend anhand eines Ausführungsbeispiels in Verbindung mit den Zeichnungen nochmals näher erläutert. Hierbei zeigen:
-
1 ein Beispiel für eine Ausgestaltung der vorgeschlagenen Vorrichtung; -
2 eine stark schematisierte Darstellung eines mit dem Bildsensor aufgezeichneten Bereiches der Werkstückoberfläche beim Fügen zweier Werkstücke mit dem Laser-Lichtbogen-Hybridprozess; -
3 ein Beispiel für ein bei der texturbasierten Bildverarbeitung erzeugtes Texturbild; -
4 ein Beispiel für die Gradientenbildung aus dem Texturbild; und -
5 ein Beispiel für die Identifikation der Stoßfuge aus dem Texturgradienten. - Wege zur Ausführung der Erfindung
-
1 zeigt beispielhaft eine mögliche Ausgestaltung der vorgeschlagenen Vorrichtung im Falle eines Laser-Lichtbogen-Hybridschweißprozesses. Die Vorrichtung weist in diesem Beispiel ein Handlingsystem auf, durch das der Bearbeitungskopf relativ zu den Werkstücken bewegt wird. Dieses Handlingsystem kann aus einer mehrachsigen Anlage oder wie im vorliegenden Beispiel aus einem Roboter inklusive Robotersteuerung29 und Fugenfolgeregelung28 bestehen. Die Vorrichtung umfasst im vorliegenden Beispiel weiterhin einen MSG-Brenner33 (MSG: Metallschutzgasschweißen), der mit einer Schweißstromquelle30 verbunden ist. Im Bearbeitungskopf der Vorrichtung ist eine Bearbeitungsoptik3 mit dichroitischem Strahlteiler14 , ein Beleuchtungslaser26 mit Steuergerät27 und eine Beobachtungseinrichtung21 angeordnet. Der Beleuchtungslaser26 erzeugt hierbei senkrecht zur Blattebene polarisiertes Licht. Die Beobachtungseinrichtung21 weist einen Bildsensor20 mit Abbildungsoptik22 , Blende und Bandpassfilter23 zur koaxialen Prozessbeobachtung auf. Der Bearbeitungskopf weist weiterhin einen Abstandssensor auf, hier in Form eines Doppelspaltsensors7 mit Abbildungsoptik9 und Doppelspaltblende8 , ein Strahlteiler- und Spiegelkabinett11 mit Polarisationsstrahlteiler12 und einer λ/4 Verzögerungsplatte13 für die Wellenlänge des Beleuchtungslasers. In einer Auswerteeinrichtung19 , die bspw. durch einen Industrie-PC gebildet sein kann, werden aus den akquirierten Bilddaten des Bildsensors20 und des Zeilensensors6 , die über die Verbindung17 mit der Auswerteeinrichtung19 verbunden sind, die Position der Stoßfuge und der Arbeitsabstand sowie weitere geometrische Merkmale des Prozesses ermittelt. - Der Roboter
29 positioniert und bewegt über die Regelung28 den gesamten Bearbeitungskopf mit Bearbeitungsoptik3 , Beleuchtungslaser26 und Sensorik7 ,21 sowie den MSG-Brenner33 , der auch Bestandteil des Bearbeitungskopfes sein kann. Der Roboter ist hierbei mit der Auswerteeinrichtung19 verbunden (Verbindung24 ), über die er die ausgewerteten Positionen der Stoßfuge und der Kapillare in Echtzeit erhält, um die Bearbeitungsbahn mit der Fugenfolgregelung28 in Abhängigkeit von diesen Positionen bei Bedarf entsprechend anzupassen. - Die Laserstrahlung eines Festkörperlasers wird unterhalb des Anschlusses der Transportfaser
1 mit der Linse2 kollimiert, über einen Umlenkspiegel4 sowie den dichroitischen Strahlteiler14 geführt und schließlich mit der Linse15 als Bearbeitungslaserstrahlung in die Wechselwirkungszone auf der Oberfläche eines Werkstücks16 fokussiert. Der dichroitische Strahlteiler14 reflektiert die Wellenlänge des Festkörperlasers, im vorliegenden Beispiel bei 1030 bis 1070 nm, und transmittiert die Beobachtungswellenlänge des Beleuchtungslasers26 , die in einem anderen Wellenlängenbereich liegt, beispielsweise im sichtbaren Wellenlängenbereich. - Oberhalb des dichroitischen Strahlteilers
14 ist das Spiegelkabinett11 angeschlossen, in dessen unterer Hälfte der Polarisationsstrahlteiler12 und die λ/4 Platte13 installiert sind. Der Polarisationsstrahlteiler dient zur koaxialen Einkopplung der senkrecht zur Blattebene polarisierten Beleuchtungslaserstrahlung aus dem Beleuchtungslaser26 . Unterhalb der λ/4 Verzögerungsplatte13 entsteht daraus zirkular polarisierte Beleuchtungslaserstrahlung. Um den Bereich um die Wechselwirkungszone, der mit dem CMOS-Bildsensor20 beobachtet wird, auszuleuchten, wird die Beleuchtungslaserstrahlung mit der Linse25 kollimiert. Die Brennweite dieser Linse ist so gewählt, dass die durch das optische System auf der Werkstückoberfläche erzeugten Abbildungen des Bildsensors20 und des Beleuchtungslasers26 zusammenfallen. - Die von der Umgebung der Wechselwirkungszone auf der Werkstückoberfläche
16 diffus reflektierte Beleuchtungslaserstrahlung ist ebenfalls zirkular polarisiert und wird oberhalb der λ/4 Platte13 wieder in linear polarisierte Strahlung transformiert, wobei ihre Polarisationsrichtung jetzt in der Blattebene liegt und vom Polarisationsstrahlteiler12 vollständig transmittiert wird. Der Vorteil gegenüber anderen Konzepten, die bisher 50% Strahlteiler in derartigen Bearbeitungsköpfen verwenden, besteht darin, dass hier Streustrahlung im Strahlengang vermieden wird, die den Kontrast in den koaxial erfassten Prozess- bzw. Oberflächenaufnahmen herabsetzt. - Oberhalb des Polarisationsstrahlteilers
12 wird die Beleuchtungslaserstrahlung über den 50%-Strahlteiler5 und den Umlenkspiegel10 auf den Doppelspaltsensor7 und die Beobachtungseinrichtung21 aufgeteilt. Das Strom-Spannungs-Wandler-Modul32 gibt ein zum Schweißstrom der Schweißstromquelle30 proportionales Spannungssignal31 an das Steuergerät27 des Beleuchtungslasers26 aus. Im Steuergerät wird das Spannungssignal31 mit einem Schwellwert verglichen. Wenn das Spannungssignal am Ende eines Strompulses der Schweißstromquelle unter diesen Schwellwert abfällt, wird eine Verzögerungszeit gestoppt, nach der sowohl der Verschluss des Bildsensors20 über die Verbindung18 geöffnet als auch gleichzeitig der Beleuchtungslaser26 für eine definierte Belichtungszeit eingeschaltet wird. -
2 zeigt beispielhaft eine Einzelaufnahme mit dem Bildsensor20 , die beim Fügen eines T-Stoßes mit einer Kehlnaht aufgezeichnet wurde. In dieser Bildaufnahme ist links neben der Bildmitte die vom Bearbeitungslaserstrahl induzierte Kapillare (Keyhole) zu erkennen. Rechts neben dieser Kapillare ist in der Bildmitte zwischen dem sichtbaren Ende des Zusatzdrahtes und der Schmelze ein fliegender Tropfen zu erkennen, der mit dem Schweißstrompuls etwa zwei Millisekunden vor dem Zeitpunkt der Bildaufnahme vom Zusatzdraht abgeschmolzen wurde. Um das Ende des Zusatzdrahtes ist noch die Korona vom Lichtbogen zu erkennen. Bei einem stabilen Prozess wiederholt sich der Vorgang des Abtrennens des Tropfens periodisch mit jedem Strompuls der Schweißstromquelle, so dass bedingt durch den Stroboskopeffekt in der Bilderfolge des Bildsensors der Tropfen für den Betrachter an einem Bildschirm immer an derselben Position zu schweben scheint. Ein Maschinenbediener kann dann anhand dieser Bildelemente Draht, Tropfen, Lichtbogen und Schmelzbad die Stabilität und Qualität des Hybridprozesses visuell beurteilen. Vorzugsweise werden dem Betrachter daher die jeweiligen Bildaufnahmen des Bildsensors während der Bearbeitung an einem Bildschirm direkt dargestellt. Durch Speicherung der Bildaufnahmen kann auch eine Dokumentation des Prozesses erfolgen. Die stetig zunehmende Leistungsfähigkeit kommerziell verfügbarer Rechner und insbesondere der darin genutzten Grafikkarten mit immer größerer Anzahl parallel arbeitender Grafikprozessoren ermöglicht die Echtzeitimplementierung der vorgeschlagenen texturbasierten Bildverarbeitung. Damit können neben der Stoßfuge künftig auch die oben genannten Bildelemente automatisiert in Echtzeit erkannt und bewertet werden. - Bei der vorgeschlagenen texturbasierten Bildverarbeitung wird ein interessierender Bereich des jeweils aufgezeichneten Bildes betrachtet, im vorliegenden Beispiel der im linken Teil des Bildes vor der Kapillare liegende Bereich mit der Stoßfuge. In diesem Bereich werden für jeden Bildpunkt die bereits beschriebenen Merkmalsvektoren gebildet, um daraus durch Vergleich mit vorher ermittelten, jeweils einer Textur zugeordneten Repräsentanten derartiger Merkmalsvektoren, ein Texturbild zu erzeugen.
3 zeigt ein Beispiel für ein derartiges Texturbild, in dem die Bildpunkte, die unterschiedlichen Texturen zugeordnet wurden, mit unterschiedlichen Helligkeitswerten dargestellt werden. Merkmalsvektoren, die der gleichen Textur zugeordnet wurden, sind mit identischen Helligkeitswerten dargestellt. Aus diesem Texturbild eines T-Stoßes erfolgt dann über die Berechnung der Texturgradienten eine Bestimmung der Lage der Stoßfuge im Bild.4 zeigt hierzu ein Beispiel des aus dem Texturbild der3 ermittelten Gradientenbildes. - Aus diesem Gradientenbild kann schließlich die Stoßfuge identifiziert werden. Dies gilt ebenso für die Kapillare bzw. deren Position. Die Relativposition zwischen Kapillare und Stoßfuge wird für die Regelung der Bearbeitungsbahn eingesetzt.
5 zeigt hierzu noch ein Beispiel für die Identifikation der Stoßfuge aus dem Texturgradienten. Die vom Laserstrahl induzierte Kapillare erscheint hier am linken Bildrand oberhalb der Fuge. Dies ist in diesem Beispiel zu Demonstrationszwecken beabsichtigt. - Bezugszeichenliste
-
- 1
- Transportfaser
- 2
- Linse
- 3
- Bearbeitungsoptik
- 4
- Umlenkspiegel
- 5
- 50%-Strahlteiler
- 6
- Zeilensensor
- 7
- Doppelspaltsensor
- 8
- Doppelspaltblende
- 9
- Abbildungsoptik
- 10
- Umlenkspiegel
- 11
- Spiegelkabinett
- 12
- Polarisationsstrahlteiler
- 13
- λ/4 Platte
- 14
- dichroitischer Strahlteiler
- 15
- Linse
- 16
- Werkstückoberfläche
- 17
- Verbindung zur Auswerteeinrichtung
- 18
- Verbindung zwischen Steuergerät des Beleuchtungslasers und Bildsensor
- 19
- Auswerteeinrichtung
- 20
- Bildsensor
- 21
- Beobachtungseinrichtung
- 22
- Abbildungsoptik
- 23
- Bandpassfilter
- 24
- Verbindung zwischen Robotersteuerung und Auswerteeinrichtung
- 25
- Linse
- 26
- Beleuchtungslaser
- 27
- Steuergerät
- 28
- Fugenfolgeregelung
- 29
- Robotersteuerung
- 30
- Schweißstromquelle
- 31
- Spannungssignal
- 32
- Strom-Spannungs-Wandler-Modul
- 33
- MSG-Brenner
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 19852302 A [0007]
- DE 4206499 C2 [0014]
- DE 102012012981 B4 [0026]
- Zitierte Nicht-Patentliteratur
-
- J. Malik et al., ”Textons, Contours and Regions: Cue Integration in Image Segmentation”, Proceedings of the International Conference on Computer Vision, Corfu, Greece, September 20–25, 1999, IEEE Computer Society, Seiten 918–925 [0018]
Claims (15)
- Verfahren zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess, insbesondere beim Laserstrahl-Lichtbogen-Hybridschweißen, bei dem – ein Bearbeitungslaserstrahl über eine Bearbeitungsoptik (
3 ) auf eine Oberfläche (16 ) zu fügender Werkstücke gerichtet und durch Bewegung der Werkstücke oder der Bearbeitungsoptik (3 ) auf der Bearbeitungsbahn entlang einer Stoßfuge der Werkstücke geführt wird, – ein Bereich der Oberfläche (16 ) koaxial zum Bearbeitungslaserstrahl mit Beleuchtungsstrahlung homogen beleuchtet und von dem Bereich reflektierte Beleuchtungsstrahlung durch wenigstens einen Teil der Bearbeitungsoptik (3 ) hindurch ortsaufgelöst mit einem Bildsensor (20 ) erfasst und ausgewertet wird, – wobei aus den vom Bildsensor (20 ) erhaltenen Bildern mittels texturbasierter Bildverarbeitung eine Position der Stoßfuge und eine Position einer vom Bearbeitungslaserstrahl induzierten Kapillare bestimmt werden, und – die Bearbeitungsbahn des Bearbeitungslaserstrahls in Abhängigkeit von den jeweils erfassten Positionen der Stoßfuge und der Kapillare geregelt wird. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Laserstrahl-Lichtbogen-Hybridschweißen die Beleuchtung mit einem gepulsten Beleuchtungslaser (
26 ) erfolgt, der jeweils synchronisiert zu Strompulsen für den Lichtbogen in einem Zeitraum zwischen zwei aufeinander folgenden Strompulsen einen Beleuchtungspuls abgibt, wobei die Bilderfassung mit dem Bildsensor (20 ) jeweils gleichzeitig mit dem Beleuchtungspuls erfolgt. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei der Bildverarbeitung – jedem Bildpunkt des jeweils vom Bildsensor (
20 ) erhaltenen Bildes, der sich in einem vorgebbaren interessierenden Bereich des Bildes befindet, ein Merkmalsvektor zugeordnet wird, der durch Anwendung mehrerer unterschiedlicher Filtermasken auf das Bild oder durch Auswertung oder Aufnahme von Intensitätswerten von den Bildpunkt umgebenden Bildpunkten im Bild erhalten wird, – die Merkmalsvektoren der Bildpunkte durch Vergleich mit vorab aus Trainingsdaten ermittelten Merkmalsvektoren oder durch Clusterbildung einer von mehreren unterschiedlichen Texturen zugeordnet werden, – aus den Zuordnungen ein Texturbild erzeugt wird, in dem jeder Bildpunkt des interessierenden Bereiches mit einem die zugeordnete Textur repräsentierenden Helligkeitswert dargestellt wird, und – zumindest die Positionen der Stoßfuge und der Kapillare aus dem Texturbild bestimmt werden. - Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Position der Stoßfuge über eine Gradientenbildung zumindest aus dem Texturbild bestimmt wird.
- Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Merkmalsvektoren der Bildpunkte durch Vergleich mit vorab aus Trainingsdaten ermittelten Merkmalsvektoren einer von mehreren in den Trainingsdaten vorhandenen Objekten zugeordnet werden, um die Position und Erstreckung der Objekte im Bild zu bestimmen.
- Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Position, die Länge und/oder die Breite eines Schmelzbades im Bild bestimmt werden.
- Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass die Filtermasken wenigstens unterschiedliche Kantenfilter und unterschiedliche kreisförmige Filter umfassen.
- Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass beim Laserstrahl-Lichtbogen-Hybridschweißen auch eine überstehende Länge eines für das Hybridschweißen eingesetzten Zusatzdrahtes und/oder eine Position eines aus dem Zusatzdraht abgelösten Tropfens mittels texturbasierter Bildverarbeitung aus den vom Bildsensor (
20 ) erhaltenen Bildern bestimmt wird. - Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Beleuchtung mit polarisierter Beleuchtungsstrahlung erfolgt.
- Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass für die Regelung der Bearbeitungsbahn zusätzlich ein Abstandssensor (
7 ) eingesetzt wird, mit dem ein Abstand der Bearbeitungsoptik (3 ) zur Oberfläche (16 ) der Werkstücke während des Fügeprozesses gemessen wird. - Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess, mit – einem Bearbeitungskopf, der wenigstens – eine Bearbeitungsoptik (
3 ), über die ein eingekoppelter Bearbeitungslaserstrahl auf eine Bearbeitungsebene fokussierbar ist, – eine Beleuchtungseinheit (26 ) zur Beleuchtung eines Bereichs der Bearbeitungsebene koaxial zum Bearbeitungslaserstrahl, und – eine ortsauflösende Beobachtungseinheit (21 ) mit einem Bildsensor (20 ) aufweist, mit dem zumindest ein Teil des mit der Beleuchtungseinheit (26 ) homogen beleuchteten Bereichs der Bearbeitungsebene durch wenigstens einen Teil der Bearbeitungsoptik (3 ) erfassbar ist, – einer Bewegungseinrichtung für den Bearbeitungskopf (3 ) oder zu bearbeitende Werkstücke, mit der der Bearbeitungslaserstrahl auf der Bearbeitungsbahn entlang einer Stoßfuge der Werkstücke geführt werden kann, und – einer Auswerte- und Steuereinrichtung (19 ,28 ,29 ), die mit dem Bildsensor (20 ) und der Bewegungseinrichtung verbunden ist, wobei die Auswerte- und Steuereinrichtung (19 ,28 ,29 ) so ausgebildet ist, dass sie aus Bildern des Bereiches, die vom Bildsensor (20 ) aufgenommen werden, mittels texturbasierter Bildverarbeitung die Position der Stoßfuge und einer vom Bearbeitungslaserstrahl induzierten Kapillare bestimmt und in Abhängigkeit von den jeweils erfassten Positionen der Stoßfuge und der Kapillare Steuersignale für die Führung des Bearbeitungslaserstrahls entlang der Stoßfuge an die Bewegungseinrichtung liefert. - Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass im Bearbeitungskopf ein Abstandssensor (
7 ) zur Messung des Abstandes zwischen dem Bearbeitungskopf und den Werkstücken integriert ist. - Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass der Abstandssensor (
7 ) als Doppelspaltsensor ausgebildet ist. - Vorrichtung nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinrichtung (
19 ,28 ,29 ) so ausgebildet ist, dass sie auf Basis der vom Abstandsensor (7 ) erhaltenen Daten Steuersignale an die Bewegungseinrichtung liefert, mit denen ein konstanter Abstand zwischen dem Bearbeitungskopf und den Werkstücken bei der Führung des Bearbeitungslaserstrahls entlang der Stoßfuge eingehalten wird. - Vorrichtung nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass die Vorrichtung eine Zufuhreinheit für einen Schweißdraht und eine Schweißstromquelle zum Laserstrahl-Lichtbogen-Hybridschweißen sowie eine Synchronisationseinheit (
27 ) aufweist, die die Beleuchtungseinheit (26 ) und den Bildsensor (20 ) so zur Erzeugung von Lichtpulsen bzw. zur Bildaufnahme ansteuert, dass die Lichtpulse in Synchronisation mit den Schweißstrompulsen jeweils zeitverzögert zu den Schweißstromimpulsen und gleichzeitig mit der Bildaufnahme abgegeben werden.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013022085.8A DE102013022085A1 (de) | 2013-12-23 | 2013-12-23 | Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess |
EP14199931.8A EP2886239B1 (de) | 2013-12-23 | 2014-12-23 | Verfahren und vorrichtung zur überwachung und regelung der bearbeitungsbahn bei einem laser-fügeprozess |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013022085.8A DE102013022085A1 (de) | 2013-12-23 | 2013-12-23 | Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013022085A1 true DE102013022085A1 (de) | 2015-06-25 |
Family
ID=52354698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013022085.8A Withdrawn DE102013022085A1 (de) | 2013-12-23 | 2013-12-23 | Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP2886239B1 (de) |
DE (1) | DE102013022085A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017102762A1 (de) | 2017-02-13 | 2018-08-16 | Precitec Gmbh & Co. Kg | Verfahren zum Erkennen von Fügepositionen von Werkstücken und Laserbearbeitungskopf mit einer Vorrichtung zur Durchführung dieses Verfahrens |
DE102017009559A1 (de) | 2017-10-13 | 2019-04-18 | Lessmüller Lasertechnik GmbH | Messvorrichtung mit integrierter Beleuchtungseinrichtung |
DE102018220342A1 (de) | 2018-11-27 | 2020-05-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur Überwachung eines Laserbearbeitungsprozesses an einem oder mehreren Werkstücken |
JP2023524166A (ja) * | 2020-06-25 | 2023-06-08 | バイストロニック レーザー アクチェンゲゼルシャフト | レーザー加工用の加工ヘッド及び加工方法 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106141443B (zh) * | 2016-08-30 | 2018-04-17 | 浙江千束家居用品有限公司 | 一种竹筷认青光雕机 |
DE102016119794A1 (de) * | 2016-10-18 | 2018-04-19 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Bild-basierte technologiewahl beim laserschweissen |
DE102017210098B4 (de) * | 2017-06-16 | 2024-03-21 | Jenoptik Optical Systems Gmbh | Scanvorrichtung mit einer Scankopfvorrichtung zum Reflektieren oder Transmittieren von Strahlen für einen Scanner sowie Verfahren zum Reflektieren oder Transmittieren von Strahlen für einen Scanner |
WO2019110114A1 (en) * | 2017-12-07 | 2019-06-13 | Bystronic Laser Ag | Device for monitoring beam treatment of a workpiece and use thereof, device for beam treatment of a workpiece and use thereof, method for monitoring beam treatment of a workpiece, method for beam treatment of a workpiece |
DE102018217940A1 (de) * | 2018-10-19 | 2020-04-23 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Verfahren und Bearbeitungsmaschine zum Bearbeiten eines Werkstücks |
CN110465741A (zh) * | 2019-08-09 | 2019-11-19 | 武汉锐科光纤激光技术股份有限公司 | 一种同轴双激光电弧复合焊接装置及方法 |
EP3797918A1 (de) | 2019-09-27 | 2021-03-31 | Grob-Werke GmbH & Co. KG | Vorrichtung und verfahren zum verschweissen von leiterenden eines bauteils einer elektrischen maschine |
CN115413251A (zh) * | 2020-03-25 | 2022-11-29 | 百超激光有限公司 | 使用机器学习的激光加工过程的质量控制 |
CN115916448B (zh) * | 2020-06-25 | 2024-04-30 | 百超激光有限公司 | 用于激光加工的加工头和方法 |
DE102020134317A1 (de) | 2020-12-18 | 2022-06-23 | Primes GmbH Meßtechnik für die Produktion mit Laserstrahlung | Vorrichtung und Verfahren zur Fokuslagen-Bestimmung |
DE102020134109B3 (de) | 2020-12-18 | 2022-05-25 | Primes GmbH Meßtechnik für die Produktion mit Laserstrahlung | Vorrichtung und Verfahren zur Fokuslagen-Bestimmung |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS542242A (en) * | 1977-06-08 | 1979-01-09 | Kobe Steel Ltd | Weld line detecting method for alternating current arc welding equipment |
DE4206499C2 (de) | 1992-03-02 | 1994-03-10 | Haeusler Gerd | Verfahren und Vorrichtung zur Abstandsmessung |
JPH11226766A (ja) * | 1998-02-17 | 1999-08-24 | Nkk Corp | レーザ溶接位置制御方法 |
DE19852302A1 (de) | 1998-11-12 | 2000-05-25 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Bearbeiten von Werkstücken mit Hochenergiestrahlung |
DE10335501A1 (de) * | 2002-07-31 | 2004-02-26 | Kuka Schweissanlagen Gmbh | Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl |
DE102005010381A1 (de) * | 2005-03-07 | 2006-09-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur Vermessung von Phasengrenzen eines Werkstoffes bei der Bearbeitung mit einem Bearbeitungsstrahl sowie zugehörige Vorrichtung |
WO2009047350A1 (en) * | 2007-10-11 | 2009-04-16 | National University Of Ireland, Galway | A system and method for monitoring a laser drilling process |
DE102012012981B3 (de) | 2012-06-29 | 2013-10-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optische Anordnung zur Laserbearbeitung einer Werkstückoberfläche sowie Verfahren zur Überwachung des Bearbeitungsprozesses |
-
2013
- 2013-12-23 DE DE102013022085.8A patent/DE102013022085A1/de not_active Withdrawn
-
2014
- 2014-12-23 EP EP14199931.8A patent/EP2886239B1/de active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS542242A (en) * | 1977-06-08 | 1979-01-09 | Kobe Steel Ltd | Weld line detecting method for alternating current arc welding equipment |
DE4206499C2 (de) | 1992-03-02 | 1994-03-10 | Haeusler Gerd | Verfahren und Vorrichtung zur Abstandsmessung |
JPH11226766A (ja) * | 1998-02-17 | 1999-08-24 | Nkk Corp | レーザ溶接位置制御方法 |
DE19852302A1 (de) | 1998-11-12 | 2000-05-25 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Bearbeiten von Werkstücken mit Hochenergiestrahlung |
DE10335501A1 (de) * | 2002-07-31 | 2004-02-26 | Kuka Schweissanlagen Gmbh | Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl |
DE102005010381A1 (de) * | 2005-03-07 | 2006-09-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur Vermessung von Phasengrenzen eines Werkstoffes bei der Bearbeitung mit einem Bearbeitungsstrahl sowie zugehörige Vorrichtung |
WO2009047350A1 (en) * | 2007-10-11 | 2009-04-16 | National University Of Ireland, Galway | A system and method for monitoring a laser drilling process |
DE102012012981B3 (de) | 2012-06-29 | 2013-10-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optische Anordnung zur Laserbearbeitung einer Werkstückoberfläche sowie Verfahren zur Überwachung des Bearbeitungsprozesses |
Non-Patent Citations (2)
Title |
---|
J. Malik et al., "Textons, Contours and Regions: Cue Integration in Image Segmentation", Proceedings of the International Conference on Computer Vision, Corfu, Greece, September 20-25, 1999, IEEE Computer Society, Seiten 918-925 |
MALIK, J. [et.al.]: Textons, contours and regions: Cue integration in image segmentation. In: Proceedings of the Seventh IEEE International Conference on Computer Vision, 20.09. - 27.09.1999, S. 918-925. - ISBN 0-7695-0164-8 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017102762A1 (de) | 2017-02-13 | 2018-08-16 | Precitec Gmbh & Co. Kg | Verfahren zum Erkennen von Fügepositionen von Werkstücken und Laserbearbeitungskopf mit einer Vorrichtung zur Durchführung dieses Verfahrens |
DE102017102762B4 (de) | 2017-02-13 | 2023-06-15 | Precitec Gmbh & Co. Kg | Verfahren zum Erkennen von Fügepositionen von Werkstücken und Laserbearbeitungskopf mit einer Vorrichtung zur Durchführung dieses Verfahrens |
DE102017009559A1 (de) | 2017-10-13 | 2019-04-18 | Lessmüller Lasertechnik GmbH | Messvorrichtung mit integrierter Beleuchtungseinrichtung |
DE102017009559B4 (de) | 2017-10-13 | 2022-02-10 | Lessmüller Lasertechnik GmbH | Messvorrichtung zum Überwachen, System zum Bearbeiten und Überwachen sowie Verfahren zum Überwachen |
DE102018220342A1 (de) | 2018-11-27 | 2020-05-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur Überwachung eines Laserbearbeitungsprozesses an einem oder mehreren Werkstücken |
JP2023524166A (ja) * | 2020-06-25 | 2023-06-08 | バイストロニック レーザー アクチェンゲゼルシャフト | レーザー加工用の加工ヘッド及び加工方法 |
JP7329704B2 (ja) | 2020-06-25 | 2023-08-18 | バイストロニック レーザー アクチェンゲゼルシャフト | レーザー加工用の加工ヘッド及び加工方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2886239A1 (de) | 2015-06-24 |
EP2886239B1 (de) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2886239B1 (de) | Verfahren und vorrichtung zur überwachung und regelung der bearbeitungsbahn bei einem laser-fügeprozess | |
EP1904260B1 (de) | Verfahren und vorrichtung zur bestimmung einer lateralen relativbewegung zwischen einem bearbeitungskopf und einem werkstück | |
DE10335501B4 (de) | Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl | |
DE102011104550B4 (de) | Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben | |
EP1949026B1 (de) | Verfahren und vorrichtung zur bewertung von fügestellen von werkstücken | |
DE102013017795C5 (de) | Prozessüberwachungsverfahren und -vorrichtung | |
DE102017126867A1 (de) | Laserbearbeitungssystem und Verfahren zur Laserbearbeitung | |
DE102015015330B4 (de) | Bearbeitungsvorrichtung und Verfahren zum Überwachen eines mit einer Bearbeitungsvorrichtung ausgeführten Bearbeitungsprozesses | |
DE102018123363A1 (de) | Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine | |
EP3883715A1 (de) | Überwachung eines laserarbeitungsprozesses mithilfe von tiefen faltenden neuronalen netzen | |
DE102018129425A1 (de) | System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks | |
DE102013217126A1 (de) | Verfahren zum Feststellen von Abweichungen einer Ist-Lage eines Laserbearbeitungskopfes von einer Soll-Lage | |
EP3525975A1 (de) | Verfahren und vorrichtung zur bestimmung und zur regelung einer fokusposition eines bearbeitungsstrahls | |
DE102008027393A1 (de) | Optische Überwachungseinrichtung | |
DE102012212278A1 (de) | Anordnung zum Erzeugen von Bohrungen oder Schweißnähten | |
DE102014104581A1 (de) | Verfahren zur Überwachung eines Werkzeugs, Verfahren zur Qualitätsbeurteilung einer mit dem Werkzeug bearbeiteten Oberfläche eines Werkstücks sowie Vorrichtung zur Durchführung des Verfahrens | |
DE102013226961A1 (de) | Vorrichtung und Verfahren zur automatischen, rechnergestützten Überwachung von Laserstrahloptiken und deren Werkzeugen | |
EP2091699B1 (de) | Verfahren und vorrichtung zur feinpositionierung eines werkzeugs mit einer handhabungseinrichtung | |
DE102013008085A1 (de) | Verfahren und Vorrichtung zum Fügen von Werkstücken mit einem Bearbeitungsstrahl | |
DE102017010055A1 (de) | Laserstrahlschweißen von geometrischen Figuren mit OCT-Nahtführung | |
DE102020000630A1 (de) | Verfahren und Vorrichtung zum Durchführen und Überwachen eines Bearbeitungsprozesses eines Werkstücks | |
WO2018073244A1 (de) | Bild-basierte technologiewahl beim laserschweissen | |
DE202010008808U1 (de) | Bearbeitungswerkzeug | |
DE102007031835B4 (de) | Optische Führung und online Kontrolle an einem Werkzeug | |
DE102019101222A1 (de) | Verfahren zur Auswahl von Kamerabildabschnitten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: RHEINISCH-WESTFAELISCHE TECHNISCHE HOCHSCHULE , DE Free format text: FORMER OWNER: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V., 80686 MUENCHEN, DE Owner name: CARL CLOOS SCHWEISSTECHNIK GMBH, DE Free format text: FORMER OWNER: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V., 80686 MUENCHEN, DE Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANG, DE Free format text: FORMER OWNER: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V., 80686 MUENCHEN, DE |
|
R082 | Change of representative |
Representative=s name: GAGEL, ROLAND, DIPL.-PHYS.UNIV. DR.RER.NAT., DE |
|
R016 | Response to examination communication | ||
R083 | Amendment of/additions to inventor(s) | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: RHEINISCH-WESTFAELISCHE TECHNISCHE HOCHSCHULE , DE Free format text: FORMER OWNERS: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V., 80686 MUENCHEN, DE; RHEINISCH-WESTFAELISCHE TECHNISCHE HOCHSCHULE AACHEN, 52062 AACHEN, DE Owner name: CARL CLOOS SCHWEISSTECHNIK GMBH, DE Free format text: FORMER OWNERS: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V., 80686 MUENCHEN, DE; RHEINISCH-WESTFAELISCHE TECHNISCHE HOCHSCHULE AACHEN, 52062 AACHEN, DE Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANG, DE Free format text: FORMER OWNERS: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V., 80686 MUENCHEN, DE; RHEINISCH-WESTFAELISCHE TECHNISCHE HOCHSCHULE AACHEN, 52062 AACHEN, DE |
|
R082 | Change of representative |
Representative=s name: GAGEL, ROLAND, DIPL.-PHYS.UNIV. DR.RER.NAT., DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |