DE102018123363B4 - Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine - Google Patents

Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine Download PDF

Info

Publication number
DE102018123363B4
DE102018123363B4 DE102018123363.9A DE102018123363A DE102018123363B4 DE 102018123363 B4 DE102018123363 B4 DE 102018123363B4 DE 102018123363 A DE102018123363 A DE 102018123363A DE 102018123363 B4 DE102018123363 B4 DE 102018123363B4
Authority
DE
Germany
Prior art keywords
laser processing
workpiece
cameras
collision
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018123363.9A
Other languages
English (en)
Other versions
DE102018123363A1 (de
Inventor
Christoph Fahrni
Seyed Amin Mazloumian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bystronic Laser AG
Original Assignee
Bystronic Laser AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=68281389&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102018123363(B4) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Bystronic Laser AG filed Critical Bystronic Laser AG
Priority to DE102018123363.9A priority Critical patent/DE102018123363B4/de
Priority to PCT/EP2019/075456 priority patent/WO2020064589A1/en
Priority to EP19789593.1A priority patent/EP3857318B1/de
Priority to JP2021516614A priority patent/JP6952218B2/ja
Priority to PL19789593.1T priority patent/PL3857318T3/pl
Priority to US17/275,042 priority patent/US11583951B2/en
Priority to CN201980062101.2A priority patent/CN112740125A/zh
Publication of DE102018123363A1 publication Critical patent/DE102018123363A1/de
Publication of DE102018123363B4 publication Critical patent/DE102018123363B4/de
Application granted granted Critical
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/08Devices involving relative movement between laser beam and workpiece
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/36Removing material
    • B23K26/38Removing material by boring or cutting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4068Verifying part programme on screen, by drawing or other means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35316Interference checking between tool, machine, part, chuck, machining range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece

Abstract

Verfahren zur Kollisionsvermeidung eines Laserbearbeitungskopfes (102) in einem Bearbeitungsraum (106) einer Laserbearbeitungsmaschine (100), mit den Schritten:- Überwachen eines Werkstücks (112) in dem Bearbeitungsraum (106) mit mindestens einem optischen Sensor;- Erfassen von Bildern des Werkstücks (112);- Detektieren einer durch einen Schneidvorgang entstandenen lokalen Veränderung an dem Werkstück (112) in einem Bild des Werkstücks (112);- Erkennen, ob die Veränderung ein relativ zu dem Werkstück (112) aufstehendes Objekt umfasst;- Prüfen auf Kollision zwischen dem aufstehenden Objekt und dem Laserbearbeitungskopf (102) anhand eines vorgegebenen Schneidplans und/oder der aktuellen Position (1016) des Laserbearbeitungskopfes;- Ansteuern der Antriebe zur Bewegung des Laserbearbeitungskopfes (102) zur Kollisionsvermeidung bei erkannter Kollisionsgefahr.

Description

  • Die Erfindung betrifft ein Verfahren zur Kollisionsvermeidung eines Laserbearbeitungskopfes und eine numerisch gesteuerte Laserbearbeitungsmaschine. Insbesondere betrifft die Erfindung ein Verfahren zur Kollisionsvermeidung nach Anspruch 1 und eine numerisch gesteuerte Laserbearbeitungsmaschine nach Anspruch 8.
  • Eine Laserschneidmaschine trennt auf einem Schneidrost aufliegende Flachbleche oder Rohre mit einem Laserstrahl. Durch Druckstöße des Schneidgases oder thermische Spannungen sowie ungünstige Auflagepunkte auf dem Rost können geschnittene Teile abkippen und den Schneidkopf blockieren. Es ist auch möglich, dass die geschnittenen Teile ganz aus dem Restmaterial gelöst werden und durch den Innenraum der Maschine geschleudert werden. Folgende Ansätze zur Crash-Verhinderung in Laserschneidmaschinen werden bereits eingesetzt.
  • Das Belassen von Mikrostegen: Die Außenkontur kleiner Teile wird nicht komplett geschnitten. An kleinen Stegen bleiben die Teile immer noch befestigt. Am Ende der Bearbeitung müssen die Teile in einem weiteren Schritt fertig ausgeschnitten oder herausgebrochen werden.
  • Das Vorsehen einer intelligenten Schneidkontur: Der Schneidkopf wird nicht über bereits geschnittene Teile bewegt. Dies führt zu komplexeren und länger dauernden Bewegungsmustern.
  • Die Zerstückelung von Innenkonturen: Die Abfallstücke werden vorgängig zerkleinert, so dass diese zwischen den Auflagepunkten herunterfallen und sich nicht aufrichten können. Dies erhöht den Energieverbrauch sowie die Bearbeitungszeit.
  • Die Verwendung von hochwertigem Rohmaterial: Durch Einsatz hochwertiger Rohmaterialien kann zwar das thermische Ausdehnen reduziert werden, jedoch nicht die anderen Fehlerquellen.
  • Diese Lösungsansätze führen jedoch nur zu ungenügenden Resultaten und erreichen nicht die gewünschte Zuverlässigkeit.
  • US 2017 / 0 045 877 A1 offenbart eine CNC Laser-Bearbeitungsmaschine mit einem beweglichen Kopf und Kameras zur Detektion eines Werkstücks vor der Bearbeitung des Werkstücks.
  • Der Erfindung liegt nun die Aufgabe zugrunde, die Nachteile des Standes der Technik zu vermeiden und eine verbesserte Kollisionsvermeidung für eine Laserbearbeitungsmaschine bereitzustellen. Alternative Aufgaben liegen darin ein verbessertes Verfahren zur Kollisionsvermeidung oder eine verbesserte Laserbearbeitungsmaschine bereitzustellen.
  • Diese Aufgabe wird gelöst durch ein Verfahren gemäß Anspruch 1 beziehungsweise eine numerisch gesteuerte Laserbearbeitungsmaschine gemäß Anspruch 8.
  • Das erfindungsgemäße Verfahren zur Kollisionsvermeidung eines Laserbearbeitungskopfes in einem Bearbeitungsraum einer Laserbearbeitungsmaschine, umfasst die Schritte:
    • - Überwachen eines Werkstücks in dem Bearbeitungsraum mit mindestens einem optischen Sensor;
    • - Erfassen von Bildern des Werkstücks;
    • - Detektieren einer durch einen Schneidvorgang entstandenen lokalen Veränderung an dem Werkstück in einem Bild des Werkstücks;
    • - Erkennen, ob die Veränderung ein relativ zu dem Werkstück aufstehendes Objekt umfasst;
    • - Prüfen auf Kollision zwischen dem aufstehenden Objekt und dem Laserbearbeitungskopf anhand eines vorgegebenen Schneidplans und/oder der aktuellen Position des Laserbea rbeitu ngskopfes;
    • - Ansteuern der Antriebe zur Bewegung des Laserbearbeitungskopfes zur Kollisionsvermeidung bei erkannter Kollisionsgefahr.
  • Das erfindungsgemäße Verfahren zur Kollisionsvermeidung schlägt zur Vermeidung von Kollisionen zwischen Schneidkopf und den Werkstücken, welche zu Reparaturen und zum Stillstand der Maschine führen, vor, dass der Innenraum der Maschine mit mindestens einem Sensor überwacht wird. Geeignete Sensoren sind zum Beispiel Kameras, wie ToF (Time of Flight, Laufzeit) Kameras oder CCD/CMOS Kameras - vorzugsweise CMOS Kameras. Die live-Daten der Sensoren werden dazu verwendet, um ein aufstehendes Objekt, wie zum Beispiel ein gekipptes oder weggeflogenes Schnittteil, zu erkennen. Die Kombination der geplanten Fahrbahn des Schneidkopfes und des von den Sensoren aufgezeichneten aufstehenden Objekts ermöglicht es, Kollisionen vorzeitig zu erkennen. Tritt ein solches Ereignis zu, soll die Maschine stoppen oder beispielsweise durch Anheben der Z-Achse die kritische Stelle umfahren. Die eine Kamera kann zum Beispiel einen Doppelsensor oder Stereosensor umfassen, um Bilder aus unterschiedlichen Winkeln oder Perspektiven zu erzeugen. Diese Bilder können gleichzeitig oder kurz hintereinander, zum Beispiel mit einem zeitlichen Abstand kleiner als eine Sekunde, aufgenommen werden. Ebenso ist es möglich, dass eine Kamera oder ein Objektiv räumlich bewegt wird, um Bilder aus unterschiedlichen Winkeln oder Perspektiven zu erzeugen, die Informationen für eine Tiefendarstellung oder -erkennung liefern. Es können ebenso mehrere Kameras verwendet werden. Es werden eine oder mehrere Veränderungen in einem Bild des Werkstücks relativ zu einem zeitlich früheren Bild des Werkstücks detektiert. Das zeitlich frühere Bild kann der direkte Vorgänger des Bilds sein. Das Bild wiederum ist später das zeitlich frühere Bild für einen Nachfolger.
  • Das erfindungsgemäße Verfahren zur Kollisionsvermeidung hat neben der Erkennung von potentiellen Kollisionen und der Verhinderung von Kollisionen weitere Vorteile. So kann eine Visualisierung des Schneidbereichs für den Operator erfolgen. Zudem können der Zustand von Rost und Tisch und die Werkstücklage, die Werkstückgröße und Beschädigungen ermittelt werden.
  • Es kann vorgesehen sein, dass entlang einer Schneidkontur eines Schnittteils Messpunkte definiert und auf Helligkeit und/oder Farbwerte überwacht werden. Diese Anordnung von Messpunkten erlaubt die Verwendung von sehr effizienten Algorithmen wie zum Beispiel dem Color-Along-Edges Algorithmus. Die Anzahl und genaue Anordnung der Messpunkte kann an die Gegebenheiten, wie zum Beispiel die Geometrie des auszuschneidenden Teils, der Schneidgeschwindigkeit, der Materialstärke oder ähnlichem angepasst werden. Alle oder einige Seiten, wie zum Beispiel nur eine von zwei gegenüberliegenden Seiten, können mit Messpunkten versehen werden.
  • Es kann ferner vorgesehen sein, dass die Bilder zeitlich versetzt erfasst werden und dass eine Veränderung in einem Bild des Werkstücks relativ zu einem zeitlich früheren Bild des Werkstücks detektiert wird. Dies ermöglicht eine schnelle Bildverarbeitung.
  • Es kann vorgesehen sein, dass ein 3D Objekt der Veränderung modelliert wird und dass auf Kollision zwischen dem 3D Objekt und dem Laserbearbeitungskopf geprüft wird. Die live-Daten der Sensoren werden dazu verwendet, um ein 3D-Modell des Schneidbereichs kontinuierlich nachzuführen. Die Kombination der geplanten Fahrbahn des Schneidkopfes und der von den Sensoren aufgezeichneten und berechneten 3D-Topologie ermöglicht es, Kollisionen vorzeitig zu erkennen.
  • Es kann ferner vorgesehen sein, dass das Modellieren auf bereits vorab berechneten möglichen Lagen von Schnittteilen des Werkstücks basiert. Dazu werden die Konturen der Schnittteile, das heißt der auszuschneidenden Teile, in mögliche Lagen rotiert und abgespeichert. Die Rotation kann um eine Achse, zum Beispiel die Hochachse oder z-Achse, oder auch um mehrere Achsen erfolgen.
  • Es kann vorgesehen sein, dass ein Schnittteil identifiziert wird und mit dessen Lage mit bereits berechneten möglichen Lagen dieses Schnittteils verglichen wird. Dann ist lediglich ein einfacher Matching- oder Vergleichsalgorithmus während der Laufzeit oder Bearbeitungszeit erforderlich, was Zeit einspart und damit das Verfahren schneller macht.
  • Es kann ferner vorgesehen sein, dass der Laserbearbeitungskopf zu einer Umfahrung der Veränderung oder zu einem Stopp angesteuert wird. Sollte aufgrund der Geschwindigkeit, Beschleunigung und/oder Position des Laserbearbeitungskopfes bzw. der Position der Veränderung, das heißt eines aufstehenden Teils des Werkstücks oder eines abgetrennten Teiles, kein Umfahren mehr möglich sein, kann ein Stopp oder Nothalt angesteuert werden, um eine Kollision zu vermeiden. Ist eine Kollision vermeidbar, wird die Veränderung um- oder überfahren. Dann wird der Laserbearbeitungskopf entsprechend angesteuert.
  • Die erfindungsgemäße numerisch gesteuerte Laserbearbeitungsmaschine mit einem Bearbeitungsraum zur Aufnahme von zu bearbeitenden, metallischen Werkstücken und einem Laserbearbeitungskopf zur Bearbeitung der Werkstücke, umfasst
    • - eine numerische Steuereinheit,
    • - ein optisches Sensorsystem mit mindestens einem optischen Sensor, welcher zumindest einen Teil des Bearbeitungsraums und des darin angeordneten Werkstücks erfasst,
    • - eine Grafikverarbeitungseinheit, welche mit dem optischem Sensorsystem verbunden ist und zur Verarbeitung von Daten des Sensors eingerichtet ist, um durch einen Schneidvorgang entstandene lokale Veränderungen an dem Werkstück zu erkennen, und welche mit der numerischen Steuereinheit verbunden ist,

    wobei die Grafikverarbeitungseinheit eingerichtet ist, zu erkennen, ob eine Veränderung ein aufstehendes Objekt umfasst,
    wobei die Grafikverarbeitungseinheit und/oder die numerische Steuereinheit eingerichtet sind, auf Kollision zwischen dem aufstehenden Objekt und dem Laserbearbeitungskopf anhand eines vorgegebenen Schneidplans und/oder der aktuellen Position und/oder der Trajektorie des Laserbearbeitungskopfes zu prüfen, und
    wobei die numerische Steuereinheit zur Kollisionsvermeidung bei erkannter Kollisionsgefahr eingerichtet ist.
  • Die Grafikverarbeitungseinheit ist vorzugsweise für eine Echtzeit-Bildverarbeitung eingerichtet und umfasst dafür idealerweise eine oder mehrere CPUs und/oder GPUs.
  • Besonders geeignet sind hoch-parallele GPUs mit 256 oder mehr Rechenkernen. Ansonsten gelten die gleichen Vorteile und Modifikationen wie zuvor beschrieben.
  • Es kann vorgesehen sein, dass das optische Sensorsystem zwei oder mindestens vier Kameras, vorzugsweise CMOS-Kameras, umfasst. Die Verwendung von CMOS-Kameras beziehungsweise Bildaufnahmeeinheiten ohne Bildverarbeitung erlaubt eine sehr hohe Verarbeitungsgeschwindigkeit, so dass auch bei hohen Geschwindigkeiten des Laserbearbeitungskopfes ausreichend Reaktionszeit vorhanden ist. Mit vier oder mehr Kameras kann zum Beispiel eine bessere Auflösung erzielt und Parallaxe-Fehler reduziert werden.
  • Es kann ferner vorgesehen sein, dass zwei Kameras vorgesehen sind, deren Erfassungsbereiche in die gleiche Richtung ausgerichtet sind, und dass der Erfassungsbereich einer ersten Kamera eine erste Hälfte des Bearbeitungsraums erfasst und dass der Erfassungsbereich einer zweiten Kamera eine zweite Hälfte des Bearbeitungsraums erfasst. Mit dieser Anordnung wird die Abschattung durch den Laserbearbeitungskopf reduziert, da zumindest eine Kamera stets ein freies Sichtfeld hat.
  • Es kann vorgesehen sein, dass vier Kameras vorgesehen sind und dass die Erfassungsbereiche von zwei Kameras eine erste Hälfte des Bearbeitungsraums erfassen und dass die Erfassungsbereiche von zwei Kameras eine zweite Hälfte des Bearbeitungsraums erfassen, wobei die zwei Kameras jeweils versetzt zueinander angeordnet sind. Die Kombination beider Blickwinkel beziehungsweise beider Erfassungsbereiche ermöglicht es, Informationen über die Tiefe des beobachteten Gegenstands zu erhalten. Idealerweise werden auf beiden Seiten des Schneidbereichs Kameras installiert, um die Auswertung zu präzisieren.
  • Es kann vorgesehen sein, dass die Kamera oder die Kameras mit einer Hochgeschwindigkeitsverbindung mit der Grafikverarbeitungseinheit verbunden sind. Um mit minimaler Verzögerung auf eine kritische Situation reagieren zu können, bietet die Hochgeschwindigkeitsverbindung eine Übertragung mit geringer Latenz. Zudem kann die Hochgeschwindigkeitsverbindung einige Meter zwischen den Kameras und der Grafikverarbeitungseinheit überbrücken. Die Hochgeschwindigkeitsverbindung kann zum Beispiel Lichtleiter, Koaxialkabel, Twisted Pair, etc. umfassen. Ein neuer Bus für Videodaten ist beispielsweise der FPD-Link, welcher in Fahrzeugen verwendet wird, um Displays anzusteuern. Derartige Links oder Verbindungen erlauben eine hohe Datenübertragungsrate, zum Beispiel größer als 1 MHz, für die Übertragung vieler Bilder mit hoher Auflösung.
  • Es kann vorgesehen sein, dass die Grafikverarbeitungseinheit mit einer Echtzeit-Ethernet Verbindung mit der numerischen Steuereinheit verbunden ist. Eine Echtzeit-Ethernet Verbindung wie zum Beispiel EtherCAT (Ethernet for Control Automation Technology) erlaubt die Bereitstellung der Bilddaten in Echtzeit für eine Echtzeitverarbeitung durch die Grafikverarbeitungseinheit.
  • Es kann ferner vorgesehen sein, dass das Kamerasystem und/oder die Grafikverarbeitungseinheit eingerichtet ist, eine erste Kalibrierung der intrinsischen Kameraparameter und eine zweite Kalibrierung von Translations- und Rotationsparametern eines Koordinatensystems der Kamera im Vergleich zu einem Koordinatensystem der Laserbearbeitungsmaschine durchzuführen. Die Kalibrierung der intrinsischen Kameraparameter ist komplex und nicht automatisiert. Eine einmalige Durchführung kann ausreichen, solange das Objektiv an der Kamera nicht angepasst wird. Für diese Kalibrierung werden Bilder eines Schachbretts unter verschiedenen Winkeln benötigt. Mit einer Bildverarbeitung und diesen Bildern werden dann die intrinsischen Parameter kalibriert. Mit dieser Kalibrierung wird das Softwaremodell der Kamera und des Objektivs erstellt. Die Kalibrierung der Translations- und Rotationsparameter kann bei jeder Bewegung der Kameras oder ihrer Halterungen wiederholt werden. Diese Kalibrierung kann leicht automatisiert werden, daher wird empfohlen, diese Parameter regelmäßig neu zu kalibrieren. Denn durch Vibrationen oder leichte thermische Verformung des Maschinengehäuses sind mit der Zeit Bewegungen zu erwarten. Für diese Kalibrierung müssen mindestens vier Punkte im Maschinenkoordinatensystem und auf dem Bild bekannt sein. Für diese Kalibrierung kann eine Harris-Ecke (Harris corner) von ausreichender Größe am Schneidkopf angebracht werden. Diese Harris-Ecke kann mit den Kameras erkannt und mit der aktuellen Schneidkopfkoordinate abgeglichen werden. Entsprechende Maschinen- und Bildkoordinaten können ermittelt werden.
  • Weitere bevorzugte Ausgestaltungen der Erfindung ergeben sich aus den übrigen, in den Unteransprüchen genannten Merkmalen.
  • Die verschiedenen in dieser Anmeldung genannten Ausführungsformen der Erfindung sind, sofern im Einzelfall nicht anders ausgeführt, mit Vorteil miteinander kombinierbar.
  • Die Erfindung wird nachfolgend in Ausführungsbeispielen anhand der zugehörigen Zeichnungen erläutert. Es zeigen:
    • 1 eine schematische perspektivische Darstellung einer numerisch gesteuerten Laserbearbeitungsmaschine;
    • 2 eine schematische Darstellung einer Steuerung der numerisch gesteuerten Laserbearbeitungsmaschine aus 1;
    • 3 eine schematische Darstellung von zwei Kameras der Laserbearbeitungsmaschine zur Erfassung des Bearbeitungsraumes;
    • 4 eine schematische Darstellung von zwei weiteren Kameras der Laserbearbeitungsmaschine zur Erfassung des Bearbeitungsraumes;
    • 5 eine schematische Darstellung der Erfassungsbereiche der vier Kameras aus 4;
    • 6 eine schematische Darstellung eines weggeflogenen Teils eines Werkstücks;
    • 7 eine schematische Darstellung eines ausgeschnittenen Teils eines Werkstücks mit Messpunkten;
    • 8 eine schematische Darstellung des ausgeschnittenen Teils aus 7 mit Darstellung des durch Bildverarbeitung extrahierten Teils;
    • 9 eine schematische Darstellung des Matching des extrahierten Teils;
    • 10 ein Flussdiagramm eines Verfahrens zur Kollisionsvermeidung eines Laserbearbeitungskopfes; und
    • 11 ein Flussdiagramm eines allgemeinen Verfahrens zur Kollisionsvermeidung eines Laserbearbeitungskopfes.
  • 1 zeigt eine schematische perspektivische Darstellung einer numerisch gesteuerten Laserbearbeitungsmaschine 100 insbesondere einer Laserschneidmaschine mit einem Laserbearbeitungskopf 102 insbesondere einem Laserschneidkopf. Der Laserbearbeitungskopf 102 ist an einer verfahrbaren Brücke 104 angeordnet, so dass er mindestens in x und y Richtung in einem Bearbeitungsraum 106 der Laserbearbeitungsmaschine 100 verfahrbar ist. Eine Laserquelle 108 erzeugt Laserlicht und führt dieses über einen Lichtleiter 110 dem Laserbearbeitungskopf 102 zu. Ein Werkstück 112, zum Beispiel ein Blech, ist in dem Bearbeitungsraum 106 angeordnet und wird durch den Laserstrahl geschnitten.
  • 2 zeigt eine schematische Darstellung einer Steuerung 200 der numerisch gesteuerten Laserbearbeitungsmaschine 100 aus 1. Eine numerische Steuereinheit 202, auch CNC (Computerized Numerical Control) genannt, führt als EtherCAT Master 204 den Schneidplan aus, indem die Positionssignale über einen EtherCAT Bus 206 an die Antriebe 208 als EtherCAT-Slave 210 ausgegeben werden. Von den Antrieben 208 als EtherCAT-Slave 210 ist beispielhaft einer dargestellt. Dieser EtherCAT-Slave 210 und weitere EhterCAT-Slaves schreiben Daten, welche zum Beispiel von Sensoren wie inkrementellen Drehgebern, auf den EtherCAT Bus 206 und lesen Daten, welche zum Beispiel dazu dienen Ausgänge anzusteuern, von dem Bus EtherCAT 206.
  • In diesem Beispiel sind vier Kameras 212 vorgesehen, deren Anordnung in dem Bearbeitungsraum 106 der numerisch gesteuerten Laserbearbeitungsmaschine in den folgenden Figuren genauer erläutert wird. Vorzugsweise sind CMOS-Kameras beziehungsweise Bildaufnahmeeinheiten ohne Bildverarbeitung vorgesehen, welche eine sehr hohe Verarbeitungsgeschwindigkeit erlauben.
  • Die Bilddaten der Kameras 212 werden an eine Grafikverarbeitungseinheit 214 weitergeleitet, wo die Verarbeitung der Bilddaten erfolgt. Die Grafikverarbeitungseinheit 214 umfasst vorzugsweise eine Vielzahl, zum Beispiel 512 oder mehr GPUs und ist vorzugsweise für eine Echtzeit-Bildverarbeitung eingerichtet. Besonders geeignet sind hoch-parallele GPUs mit 256 oder mehr Rechenkernen. Die Grafikverarbeitungseinheit 214 arbeitet ebenfalls als EtherCAT Slave 210 und steht somit in direkter Verbindung mit der numerischen Steuereinheit 202.
  • Die Grafikverarbeitungseinheit 214 und/oder die numerische Steuereinheit 202 sind eingerichtet, die in den 6 bis 10 dargestellten und im Folgenden beschriebenen Verfahren beziehungsweise Operationen auszuführen. Insbesondere ist die Grafikverarbeitungseinheit 214 zur Verarbeitung von Daten der Kameras 212 eingerichtet, um Veränderungen an dem Werkstück zu erkennen, aus einer Veränderung ein 3D Objekt zu modellieren und optional zusammen mit der numerischen Steuereinheit 202 auf Kollision zwischen dem 3D Objekt und dem Laserbearbeitungskopf anhand eines vorgegebenen Schneidplans und/oder der aktuellen Position des Laserbearbeitungskopfes zu prüfen. Zudem ist die numerische Steuereinheit 202 zur Kollisionsvermeidung bei erkannter Kollisionsgefahr eingerichtet.
  • Über den EtherCAT Bus 206 erhält die Grafikverarbeitungseinheit 214 die Schneidgeometrie oder Trajektorie des Laserschneidkopfes von der numerischen Steuereinheit 202. Bevor ein Kollisionsereignis eintritt, kann die Grafikverarbeitungseinheit 214 dies über den EtherCAT Bus 206 signalisieren. Die Signalisierung kann an die numerische Steuereinheit 202 und/oder direkt an den oder die Antriebe 208 gesendet werden, um eine möglichst schnelle Reaktion, wie einen Nothalt oder eine Umfahrung zu erreichen.
  • Dies kann je nach vorhandener Zeitspanne bis zu einer Kollision abgestuft geschehen. Wenn ausreichend Zeit für ein Ausweichmanöver vorhanden ist, sendet die Grafikverarbeitungseinheit 214 Daten wie zum Beispiel die Position oder die Koordinaten der Kollision an die numerische Steuereinheit 202, welche wiederum eine Ausweichroute berechnet und die Antriebe 208 entsprechend ansteuert. Die neue Ausweichroute wird ebenfalls an die Grafikverarbeitungseinheit 214 gesendet, welche nun die neue Route weiterhin auf Kollision überprüft.
  • Wenn keine ausreichende Zeit für ein Ausweichmanöver vorhanden ist, sendet die Grafikverarbeitungseinheit 214 Nothaltbefehle direkt an die Antriebe 208, um ein möglichst schnelles Anhalten des Laserschneidkopfes zu erzielen.
  • Eine Recheneinheit 216 der Grafikverarbeitungseinheit 214 kann entweder mit Hilfe einer CPU, einer Grafikverarbeitungseinheit GPU oder einer Kombination aus beidem realisiert werden. Die Recheneinheit 216 verfügt über genug Rechenleistung, um die erhaltenen Kameradaten in Echtzeit auszuwerten und einen Entscheid zu fällen, ob eine Kollision bevor steht. Dies muss so schnell geschehen, dass die numerische Steuereinheit 202 der Maschine entsprechende Maßnahmen einleiten kann, um die Kollision zu vermeiden. Die Recheneinheit 216 beziehungsweise die Grafikverarbeitungseinheit 214 ist beispielsweise über den dargestellten EtherCAT Bus 206 mit der numerischen Steuereinheit 202 verbunden.
  • Sämtliche Elemente der Steuerung 200, insbesondere die Grafikverarbeitungseinheit 214, die Kameras 212 und das Bussystem 206, sind für eine Echtzeit-Fähigkeit des Systems ei ngerichtet.
  • Die 3 bis 5 zeigen schematische Darstellungen eines Kamerasystems 300 der numerisch gesteuerten Laserbearbeitungsmaschine 100 mit mindestens zwei Kameras 212. Zusätzlich zu den Kameras 212 können geeignete Beleuchtungen, zum Beispiel LED-Leuchten vorgesehen sein, um die Qualität der Kamerabilder zu erhöhen.
  • 3 zeigt zwei Kameras 212, deren Erfassungsbereiche 302 in die gleiche Richtung ausgerichtet sind. Der Erfassungsbereich 302 einer ersten Kamera 212 erfasst eine erste Hälfte des Werkstücks 112 beziehungsweise des Bearbeitungsraums 106. Der Erfassungsbereich 302 einer zweiten Kamera 212 erfasst eine zweite Hälfte des Werkstücks 112 beziehungsweise des Bearbeitungsraums 106. Somit erfassen beide Kameras den gesamten Bearbeitungsraum 106. Die beiden Kameras 212 sind seitlich versetzt zu einer Längsachse A des Bearbeitungsraums 106 angeordnet, so dass die Erfassungsbereiche 302 seitlich oder schräg in den Bearbeitungsraum 106 reichen.
  • 4 zeigt eine weitere schematische Darstellung des Kamerasystems 400 der numerisch gesteuerten Laserbearbeitungsmaschine 100. Hier sind die beiden Kameras 212 im Vergleich zu der Anordnung von 3 an der Längsachse A des Bearbeitungsraums 106 gespiegelt angeordnet. Ebenso sind die Erfassungsbereiche 402 schräg und im Vergleich zu 3 gegenüberliegend zu der Längsachse A ausgerichtet. Analog zu 3 erfasst der Erfassungsbereich 402 einer ersten Kamera 212 eine erste Hälfte des Werkstücks 112 beziehungsweise des Bearbeitungsraums. Der Erfassungsbereich 402 einer zweiten Kamera 212 erfasst eine zweite Hälfte des Werkstücks 112 beziehungsweise des Bearbeitungsraums.
  • 5 zeigt eine weitere schematische Darstellung des Kamerasystems 500 der numerisch gesteuerten Laserbearbeitungsmaschine 100 mit den Erfassungsbereichen 302 und 402 der vier Kameras, die hier nicht dargestellt sind.
  • In diesem Beispiel sind auf beiden Seiten des Schneidbereichs oder des Bearbeitungsraumes Kameras installiert, um die Auswertung zu präzisieren. Die Kombination beider Blickwinkel 302 und 402 ermöglicht es, Informationen über die Tiefe des beobachteten Gegenstands zu erhalten. Diese Tiefe oder räumliche Information erlaubt die Modellierung eines 3D Objekts aus einer Veränderung am Werkstück 112.
  • 6 zeigt eine schematische Darstellung eines weggeflogenen Teils oder Schnittteils 600 eines Werkstücks. Das hier dargestellte Schnittteil 600 liegt neben der Schneidkontur 602, wo sich das Schnittteil 600 ursprünglich, das heißt vor dem Schneiden, befand. Die hier gezeigte Darstellung kann zum Beispiel die Aufnahme einer einzelnen Kamera sein.
  • Derartige Schnittteile 600, die wegen des Gasdrucks wegfliegen und an einer beliebigen Stelle auf dem Rohmaterial beziehungsweise dem Werkstück 112 landen, können detektiert werden, indem zunächst eine Referenz-Abbildung des Werkstücks 112 erstellt wird und dann kontinuierlich aktuelle Abbildungen oder Aufnahmen mit der Referenz-Abbildung verglichen werden. Dies kann insbesondere an den Stellen erfolgen, wo das Rohmaterial noch nicht bearbeitet wurde. Falls eine Stelle oder Veränderung bei den Vergleichen als kritisch eingestuft wird, kann mit einem 3D-Fitting die genaue Lage, insbesondere die Höhe über dem Werkstück 112 des aufliegenden Teils ermittelt werden.
  • Als mögliche Abhilfen bei einer kritischen Einstufung, das heißt einer potentiellen Kollision zwischen dem Schnittteil 600 und dem Laserbearbeitungskopf, kann das weggeflogene Schnittteil 600 mit Gasdruck wegblasen werden, dieser Bereich nicht geschnitten werden oder ein Abbruch der Operation vorgenommen werden.
  • 7 zeigt eine schematische Darstellung eines ausgeschnittenen Teils oder Schnittteils 700 eines Werkstücks 112. Die beiden oberen Darstellungen aus 7 können wiederum Aufnahmen einer oder mehrerer Kameras sein. Die unterste Darstellung aus 7 veranschaulicht einen Color-Along-Edges Algorithmus zur Detektion einer Veränderung in einem Bild des Werkstücks 112.
  • Für den Algorithmus Color Along Edges ist eine sehr genaue Projektion von 3D-Punkten im Maschinenkoordinatensystem auf die 2D-Bilder wünschenswert. Dazu müssen die Kameras 212 kalibriert werden. Für die Kalibrierung und Projektion wird eine Bildverarbeitung verwendet, die zum Beispiel in der Grafikverarbeitungseinheit 214 ausgeführt wird. Es gibt zwei verschiedene Kalibrierungen, die durchgeführt werden. Die erste ist die Kalibrierung der intrinsischen Kameraparameter. Die zweite Kalibrierung ist die Kalibrierung der Übersetzungs- und Rotationsparameter des Koordinatensystems der Kamera 212 im Vergleich zum Koordinatensystem der Maschine 100.
  • Die Kalibrierung der intrinsischen Kameraparameter ist komplex und nicht automatisiert. Eine einmalige Durchführung kann ausreichen, solange das Objektiv an der Kamera 212 nicht angepasst wird. Für diese Kalibrierung werden Bilder eines Schachbretts unter verschiedenen Winkeln benötigt. Mit einer Bildverarbeitung und diesen Bildern werden dann die intrinsischen Parameter kalibriert. Mit dieser Kalibrierung wird das Softwaremodell der Kamera und des Objektivs erstellt.
  • Die Kalibrierung der Translations- und Rotationsparameter kann bei jeder Bewegung der Kameras 212 oder ihrer Halterungen wiederholt werden. Diese Kalibrierung kann leicht automatisiert werden, daher wird empfohlen, diese Parameter regelmäßig neu zu kalibrieren. Denn durch Vibrationen oder leichte thermische Verformung des Maschinengehäuses sind mit der Zeit Bewegungen zu erwarten. Für diese Kalibrierung müssen mindestens 4 Punkte im Maschinenkoordinatensystem und auf dem Bild bekannt sein.
  • Für diese Kalibrierung kann als Ziel eine Harris-Ecke (Harris corner) von ausreichender Größe am Schneidkopf angebracht werden. Diese Harris-Ecke kann mit den Kameras 212 erkannt und mit der aktuellen Schneidkopfkoordinate abgeglichen werden. Entsprechende Maschinen- und Bildkoordinaten können in Verbindung gesetzt werden.
  • Vorzugsweise ist das Ziel, zum Beispiel eine Harris-Ecke, am Schneidkopf angebracht. Dieses Ziel kann automatisch erkannt werden, wenn dessen ungefähre Position auf dem Bild bekannt ist. Dies ist der Fall bei einer periodischen Rekalibrierung.
  • Für den Kalibrierungsprozess werden daher jeweils die folgenden Schritte durchgeführt. Zunächst wird der Schneidkopf in vier definierten Positionen positioniert. An jeder dieser Positionen wird mit beiden Kameras, beziehungsweise aus zwei Blickwinkeln, jeweils ein Bild aufgenommen. Auf jedem Bild werden die Bildkoordinaten der Harris-Ecke ermittelt. Aus den Maschinenkoordinaten der vier Positionen und den Bildkoordinaten der Harris-Ecke werden die Translations- und Rotationsparameter berechnet.
  • Aus dem Werkstück 112 wird das Schnittteil 700 mit Hilfe eines Laserstrahls 702 ausgeschnitten. Dieser Prozess wird von den Kameras beobachtet. In einer Bildverarbeitung, ausgeführt in der Grafikverarbeitungseinheit 214, werden entlang der Schnittkontur Messungen an bestimmten Messpunkten 704 durchgeführt. Die Messpunkte 704 werden zur Detektion einer Veränderung in einem Bild des Werkstücks 112 verwendet.
  • Wenn nun das Schnittteil 700 kippt, werden im ersten Schritt die Veränderungen der Menge an Licht entlang der Kontur 706, welches die Kamera erreicht, festgestellt. Diese Veränderung der Lichtmenge geschieht durch die Änderung des Reflexionswinkels des Schnittteils 700. Dies kann sowohl eine zusätzliche Helligkeit als auch eine verringerte Helligkeit bedeuten.
  • Das gekippte Schnittteil 700 verschwindet teilweise unter dem restlichen Werkstück 112, was einen starken Kontrast zur Folge hat. Hier ist der Kontrast als Wechsel zwischen Weiß und Schwarz dargestellt. Tatsächlich können Änderungen von Farbwerten, Helligkeiten und/oder Kontrasten verwendet werden.
  • Diese Änderungen werden analysiert und es wird geprüft, ob ein Schwellwert zum Starten einer weiteren Verarbeitung erreicht wird. Gemäß der untersten Darstellung aus 7 wird der Unterschied zwischen dem Farbwert eines innerhalb der Kontur 706 und eines außerhalb der Kontur 706 gegenüber liegenden Messpunkts 704 ermittelt und dann bewertet.
  • Sind beide Farbwerte des reflektierten Lichts gleich oder haben nur eine sehr geringe Abweichung, dann ist das Schnittteil 700 nicht gekippt (7 oben) oder es befinden sich das gekippte Schnittteil 700 und das restliche Werkstück 112 etwa auf der gleichen Höhe (7 Mitte), wie zum Beispiel in der linken unteren Ecke des Schnittteils 700. In diesem Fall besteht keine Gefahr und der Schwellwert ist unterschritten. Weitere Maßnahmen sind nicht nötig und es wird die Überwachung fortgesetzt.
  • Sind beide Farbwerte unterschiedlich, dann ist das Schnittteil 700 an diesen Messpunkten nicht mehr innerhalb der Kontur 706 (7 Mitte), wie zum Beispiel in der linken oberen Ecke des Schnittteils 700. Auch in diesem Fall besteht keine Gefahr und der Schwellwert ist unterschritten. Weitere Maßnahmen sind nicht nötig und es wird die Überwachung fortgesetzt.
  • Sind beide Farbwerte teilweise unterschiedlich, dann befindet sich das Schnittteil 700 an diesen Messpunkten außerhalb der Kontur 706 und oberhalb des restlichen Werkstücks 112 (7 Mitte), wie zum Beispiel in der rechten oberen Ecke des Schnittteils 700. In diesem Fall besteht die Gefahr einer Kollision, da das Schnittteil 700 aufragt und der Schwellwert ist überschritten.
  • Dann wird der Schwellwert zum Starten des zweiten Algorithmus erreicht. Der zweite Algorithmus trägt den Namen 3D-Fitting und wird anhand der 8 und 9 beschrieben. Im Gegensatz zum Color-Along-Edges Algorithmus, in welchem es darum geht, eine Veränderung und damit potentielle Gefahr schnell zu erkennen, handelt es sich im 3D-Fitting um die Erkennung, ob das entsprechende Teil tatsächlich eine Gefahr für den Schneidkopf und somit für den Bearbeitungsprozess ist. Es ist durchaus möglich, dass eine Änderung detektiert wird, diese sich jedoch nicht als Gefahr herausstellt. Solche Fälle führen durch diese Zweiteilung des Algorithmus nicht zu einem Stopp des Bearbeitungsprozesses.
  • 8 zeigt eine schematische Darstellung des ausgeschnittenen Teils aus 7 mit Darstellung des durch Bildverarbeitung extrahierten Teils. Im Kamerabild wird die Kontur 800 des aufstehenden Schnittteils 700 ermittelt. Dazu werden zum Beispiel Subtraktionsalgorithmen verwendet. Diese Ermittlung findet ebenfalls in der Grafikverarbeitungseinheit 214 statt.
  • 9 zeigt eine schematische Darstellung des Matchings des extrahierten Teils. Das Matching oder der Abgleich findet ebenfalls in der Grafikverarbeitungseinheit 214 statt.
  • Aus dem Schneidplan wird zunächst das kritische Schnittteil 700 ausgewählt, welches im Color-Along-Edges Algorithmus detektiert wurde. Im Gegensatz zu dem Kamerabild (siehe 8) wird aus dem Schneidplan die vollständige Kontur 900 des Teils 700 bezogen.
  • Ein möglicher Matching-Algorithmus funktioniert wie im Folgenden beschrieben. Die originale Kontur 900 wird vom 3D-Fitting Algorithmus entlang einer, mehrere oder aller drei Achsen gedreht. So wird die Kontur 900 in allen möglichen Lagen modelliert, in welchen das Schnittteil 700 liegen kann. Beispielhaft sind hier die Konturen 900a, 900b und 900c da rgestellt.
  • Diese Modellbildung der Konturen 900a, 900b und 900c bzw. der Schneidteile kann vor dem Schneidbeginn erfolgen, so dass das der Algorithmus beim Prüfen möglichst effizient ist, da nur noch das Vergleichen, aber nicht das Modellieren erfolgen muss.
  • Wenn nun die Informationen des Modells verfügbar sind und ein geschnittenes Teil kippt, wird die über die Kamera erkannte Kontur 800 des gekippten Teils 700 mit den Modellen 900a, 900b und 900c verglichen.
  • Die beste Übereinstimmung zwischen Modell und der Kontur 800 des gekippten Teils 700 wird definiert. Hier ist das die Kontur 900a. Daraus lässt sich dann berechnen, an welcher Position das Teil wie viel aufsteht. Zusammen mit der Information wo sich der Schneidkopf in den nächsten paar Sekunden hinbewegen wird, kann errechnet werden, ob eine Kollision möglich ist oder nicht.
  • Ist eine Kollision möglich, wird der Bereich um die Position als Gefahrenzone markiert. Nun muss entschieden werden, was die Steuereinheit für eine Gegenmaßnahme einleiten soll. Die Kollision kann beispielsweise dadurch verhindert werden, dass die Maschine rasant gestoppt wird. Die noch effizientere Lösung ist, dass der Schneidkopf entweder um die Gefahrenzone herumfährt, sich anhebt um auf diese Weise der Kollision auszuweichen oder eine Kombination beider Varianten.
  • 10 zeigt ein Flussdiagramm eines Verfahrens zur Kollisionsvermeidung eines Laserbearbeitungskopfes in einem Bearbeitungsraum einer Laserbearbeitungsmaschine.
  • In einem ersten Schritt 1000 werden Kameradaten, das heißt Bilder des Werkstücks mit mindestens einem optischen Sensor, vorzugsweise zwei, vier oder mehreren Sensoren erzeugt.
  • In einem zweiten Schritt 1002 werden mittels eines zuvor beschriebenen Color-Along-Edges Algorithmus Veränderungen in einem Bild des Werkstücks detektiert. Wird in Schritt 1004 eine lokale Veränderung detektiert, schreitet das Verfahren zu Block 1010 fort. Falls nicht, wird zu der Überwachung in Schritt 1002 zurückverzweigt, so dass eine Überwachungsschleife entsteht. In diesem Algorithmus wird auf lokale Veränderungen durch Schnittteile oder ähnliches detektiert und nicht auf globale Veränderungen, wie zum Beispiel das Zuführen oder Entnehmen eines Werkstücks. Die beiden Schritte 1002 und 1004 gehören zu einem Prozess zur Erkennung von lokalen Veränderungen.
  • In der numerischen Steuereinheit wird der numerische Steuerprozess 1012 ausgeführt. Die numerische Steuereinheit kennt beziehungsweise erstellt den Schneidplan 1014 und die aktuelle Position 1016 des Schneidkopfes und errechnet aus dem vorgegebenen Schneidplan 1014 und/oder der aktuellen Position des Laserbearbeitungskopfes im Schritt 1018 die geplante Fahrbahn oder Route des Schneidkopfes.
  • Der Schneidplan 1014 wird einem Prozess zur Modellierung des Innenraums beziehungsweise des Bearbeitungsraums zugeführt. Dieser Prozess läuft ebenso wie der Prozess zur Erkennung von lokalen Veränderungen in dem Kollisions-Überwachungssystem, das in der Grafikverarbeitungseinheit ausgebildet ist oder von dieser ausgeführt wird.
  • Dem Block 1006 des Prozesses zur Modellierung des Innenraums wird der Schneidplan 1014 zugeführt. Aus dem Schneidplan 1014 wird eine Topologie des Innenraums beziehungsweise des zu bearbeitenden Werkstücks erstellt. Die Topologie umfasst das Werkstück, sowie die an dem Werkstück geplanten Schneidmuster und kann die jeweiligen Umfänge und Lagen der Schnittteile umfassen. Diese Topologie wird dem Block 1010 zugeführt.
  • In Block 1010 wird wie oben beschrieben das 3D Fitting, also das Modellieren eines 3D Objektes der Veränderung durchgeführt. Dazu werden dem Block 1010 die Kameradaten 1000 zugeführt. Das 3D Fitting wird gestartet, wenn im Block 1004 eine lokale Veränderung detektiert wird. Als Output des Modellierens wird eine 3D Topologie 1008 der Veränderung wie zum Beispiel eine Kontur 800 bereit gestellt.
  • Diese 3D Topologie 1008 wird ebenso wie die geplante Fahrbahn 1018 einem Prozess Kollisionsdetektor zugeführt. Dieser Prozess ist in der Grafikverarbeitungseinheit ausgebildet oder wird von dieser ausgeführt.
  • Die 3D Topologie 1008 und die geplante Fahrbahn 1018 werden einem Kollisionsdetektor 1020, einem Algorithmus in der Grafikverarbeitungseinheit und/oder der numerischen Steuereinheit 1012 zugeführt. Der Kollisionsdetektor 1020 überprüft, ob die 3D Topologie 1008 in der geplanten Fahrbahn liegt. Wird in Schritt 1022 festgestellt, dass eine Kollision möglich ist, schreitet das Verfahren zu Block 1024 fort. Falls nicht, wird zu der Überwachung in Schritt 1002 zurückverzweigt (nicht dargestellt), so dass eine Überwachungsschleife entsteht. Der Block oder Schritt 1002 wird kontinuierlich ausgeführt.
  • Im Schritt 1024 wird eine Gegenmaßnahme getroffen durch Ansteuern des Laserbearbeitungskopfes zur Kollisionsvermeidung bei erkannter Kollisionsgefahr. Die Gegenmaßnahme besteht in einem Stopp und/oder einem Ausweichen oder Umfahren des Hindernisses. Die Blöcke 1020, 1022 und 1024 sind Bestandteil des Prozesses Kollisionsdetektor.
  • Das Ergebnis des Schritts 1024 wird dem CNC Prozess 1012 zur Verarbeitung und Umsetzung zugeführt. Zum Beispiel für einen Notstopp können die Antriebe des Laserbearbeitungskopfes auch direkt, das heißte ohne Involvierung der numerischen Steuereinheit angesteuert werden.
  • 11 zeigt ein Flussdiagramm eines allgemeinen Verfahrens zur Kollisionsvermeidung eines Laserbearbeitungskopfes. Kontinuierlich wird in einem ersten Schritt 1100 der gesamte Schneidbereich beziehungsweise der gesamte Bearbeitungsraum mit der Sensorik überwacht.
  • In Schritt 1101 wird ebenfalls kontinuierlich wie oben ausgeführt auf eine lokale Veränderung geprüft. Eine lokale Veränderung entsteht meist durch einen Schneidvorgang. Liegt keine lokale Veränderung vor, wird zu Schritt 1100 zurückverzweigt, so dass eine Überwachungsschleife vorliegt.
  • Wird eine lokale Veränderung erkannt, schreitet das Verfahren weiter zu Schritt 1102, in dem die Veränderung wie oben ausgeführt analysiert wird.
  • Das hier vorgestellte Verfahren zur Kollisionsvermeidung eines Laserbearbeitungskopfes in einem Bearbeitungsraum einer Laserbearbeitungsmaschine erlaubt in Echtzeit eine einfache und präzise Erkennung von möglichen Hindernissen in der geplanten Fahrbahn und eine Kollisionsvermeidung bei erkannter Kollisionsgefahr.

Claims (14)

  1. Verfahren zur Kollisionsvermeidung eines Laserbearbeitungskopfes (102) in einem Bearbeitungsraum (106) einer Laserbearbeitungsmaschine (100), mit den Schritten: - Überwachen eines Werkstücks (112) in dem Bearbeitungsraum (106) mit mindestens einem optischen Sensor; - Erfassen von Bildern des Werkstücks (112); - Detektieren einer durch einen Schneidvorgang entstandenen lokalen Veränderung an dem Werkstück (112) in einem Bild des Werkstücks (112); - Erkennen, ob die Veränderung ein relativ zu dem Werkstück (112) aufstehendes Objekt umfasst; - Prüfen auf Kollision zwischen dem aufstehenden Objekt und dem Laserbearbeitungskopf (102) anhand eines vorgegebenen Schneidplans und/oder der aktuellen Position (1016) des Laserbearbeitungskopfes; - Ansteuern der Antriebe zur Bewegung des Laserbearbeitungskopfes (102) zur Kollisionsvermeidung bei erkannter Kollisionsgefahr.
  2. Verfahren nach Anspruch 1, wobei entlang einer Schneidkontur (602) eines Schnittteils (600; 700) Messpunkte (704) definiert und auf Helligkeit und/oder Farbwerte überwacht werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bilder zeitlich versetzt erfasst werden und wobei eine Veränderung in einem Bild des Werkstücks (112) relativ zu einem zeitlich früheren Bild des Werkstücks (112) detektiert wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein 3D Objekt der Veränderung modelliert wird und wobei auf Kollision zwischen dem 3D Objekt und dem Laserbearbeitungskopf geprüft wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erkennen auf bereits vorab berechneten möglichen Lagen von Schnittteilen des Werkstücks (112) basiert.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Schnittteil (600; 700) identifiziert wird und mit dessen Lage mit bereits berechneten möglichen Lagen dieses Schnittteils (600; 700) verglichen wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Laserbearbeitungskopf (102) mittels Trajektorie vorausschauend zu einer Umfahrung der Veränderung oder zu einem Stopp angesteuert wird.
  8. Numerisch gesteuerte Laserbearbeitungsmaschine (100) mit einem Bearbeitungsraum (106) zur Aufnahme von zu bearbeitenden, metallischen Werkstücken und einem Laserbearbeitungskopf (102) zur Bearbeitung der Werkstücke, umfassend - eine numerische Steuereinheit (202, 1012), - ein optisches Sensorsystem mit mindestens einem optischen Sensor (212), welcher zumindest einen Teil des Bearbeitungsraums (106) und des darin angeordneten Werkstücks (112) erfasst, - eine Grafikverarbeitungseinheit (214), welche mit dem optischem Sensorsystem verbunden ist und zur Verarbeitung von Daten des Sensors (212) eingerichtet ist, um durch einen Schneidvorgang entstandene lokale Veränderungen an dem Werkstück (112) zu erkennen, und welche mit der numerischen Steuereinheit (202, 1012) verbunden ist, wobei die Grafikverarbeitungseinheit (214) eingerichtet ist, zu erkennen, ob eine Veränderung ein aufstehendes Objekt umfasst, wobei die Grafikverarbeitungseinheit (214) und/oder die numerische Steuereinheit (202, 1012) eingerichtet sind, auf Kollision zwischen dem aufstehenden Objekt und dem Laserbearbeitungskopf (102) anhand eines vorgegebenen Schneidplans und/oder der aktuellen Position und/oder der Trajektorie (1016) des Laserbearbeitungskopfes zu prüfen, und wobei die numerische Steuereinheit (202, 1012) zur Kollisionsvermeidung bei erkannter Kollisionsgefahr eingerichtet ist.
  9. Numerisch gesteuerte Laserbearbeitungsmaschine (100) nach Anspruch 8, wobei das optische Sensorsystem mindestens zwei oder vorzugsweise mindestens vier Kameras (212), vorzugsweise CMOS-Kameras, umfasst.
  10. Numerisch gesteuerte Laserbearbeitungsmaschine (100) nach Anspruch 9, wobei zwei Kameras (212) vorgesehen sind, deren Erfassungsbereiche (302) in die gleiche Richtung ausgerichtet sind, und wobei der Erfassungsbereich (302) einer ersten Kamera (212) eine erste Hälfte des Bearbeitungsraums (106) erfasst und wobei der Erfassungsbereich (302) einer zweiten Kamera (212) eine zweite Hälfte des Bearbeitungsraums (106) erfasst.
  11. Numerisch gesteuerte Laserbearbeitungsmaschine (100) nach Anspruch 9 oder 10, wobei vier Kameras (212) vorgesehen sind und wobei die Erfassungsbereiche (302; 402) von zwei Kameras (212) eine erste Hälfte des Bearbeitungsraums (106) erfassen und wobei die Erfassungsbereiche (302; 402) von zwei Kameras (212) eine zweite Hälfte des Bearbeitungsraums (106) erfassen, wobei die zwei Kameras (212) jeweils versetzt zueinander angeordnet sind.
  12. Numerisch gesteuerte Laserbearbeitungsmaschine (100) nach einem der Ansprüche 8 bis 11, wobei das optische Sensorsystem mit einer Hochgeschwindigkeitsverbindung mit der Grafikverarbeitungseinheit (214) verbunden sind.
  13. Numerisch gesteuerte Laserbearbeitungsmaschine (100) nach einem der Ansprüche 8 bis 12, wobei die Grafikverarbeitungseinheit (214) mit einer Echtzeit-Ethernet Verbindung mit der numerischen Steuereinheit (202, 1012) verbunden ist.
  14. Numerisch gesteuerte Laserbearbeitungsmaschine (100) nach einem der Ansprüche 8 bis 13, wobei das Kamerasystem und/oder die Grafikverarbeitungseinheit (214) eingerichtet ist, eine erste Kalibrierung der intrinsischen Kameraparameter und eine zweite Kalibrierung von Translations- und Rotationsparametern eines Koordinatensystems der Kamera (212) im Vergleich zu einem Koordinatensystem der Laserbearbeitungsmaschine (100) durchzuführen.
DE102018123363.9A 2018-09-24 2018-09-24 Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine Active DE102018123363B4 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102018123363.9A DE102018123363B4 (de) 2018-09-24 2018-09-24 Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine
PL19789593.1T PL3857318T3 (pl) 2018-09-24 2019-09-23 Sposób unikania kolizji i obrabiarka laserowa
EP19789593.1A EP3857318B1 (de) 2018-09-24 2019-09-23 Verfahren zur kollisionsvermeidung und laserbearbeitungswerkzeug
JP2021516614A JP6952218B2 (ja) 2018-09-24 2019-09-23 衝突防止の方法およびレーザマシニングツール
PCT/EP2019/075456 WO2020064589A1 (en) 2018-09-24 2019-09-23 Method for collision avoidance and laser machining tool
US17/275,042 US11583951B2 (en) 2018-09-24 2019-09-23 Method for collision avoidance and laser machining tool
CN201980062101.2A CN112740125A (zh) 2018-09-24 2019-09-23 用于避免碰撞的方法以及激光加工工具

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018123363.9A DE102018123363B4 (de) 2018-09-24 2018-09-24 Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine

Publications (2)

Publication Number Publication Date
DE102018123363A1 DE102018123363A1 (de) 2020-03-26
DE102018123363B4 true DE102018123363B4 (de) 2021-01-07

Family

ID=68281389

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018123363.9A Active DE102018123363B4 (de) 2018-09-24 2018-09-24 Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine

Country Status (7)

Country Link
US (1) US11583951B2 (de)
EP (1) EP3857318B1 (de)
JP (1) JP6952218B2 (de)
CN (1) CN112740125A (de)
DE (1) DE102018123363B4 (de)
PL (1) PL3857318T3 (de)
WO (1) WO2020064589A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018123363B4 (de) * 2018-09-24 2021-01-07 Bystronic Laser Ag Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine
DE102018125620A1 (de) * 2018-10-16 2020-04-16 Schuler Pressen Gmbh Verfahren und Vorrichtung zum Schneiden einer Blechplatine aus einem kontinuierlich geförderten Blechband
JP7423145B2 (ja) * 2019-12-27 2024-01-29 株式会社ディスコ レーザー加工装置及び方法
EP3892414A1 (de) * 2020-04-06 2021-10-13 Bystronic Laser AG Laserbearbeitungsmaschine
EP3944931A1 (de) * 2020-07-30 2022-02-02 Siemens Aktiengesellschaft Kollisionsvermeidung mit künstlicher intelligenz
DE102020212510A1 (de) 2020-10-02 2022-04-07 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren und Vorrichtung zum Aufzeigen des Einflusses von Schneidparametern auf eine Schnittkante
EP3984686A1 (de) 2020-10-16 2022-04-20 Bystronic Laser AG Verfahren, regelungseinheit und laserschneidsystem für kombinierte bahn- und laserprozessplanung für hochdynamische echtzeit-systeme
CN112276340B (zh) * 2020-11-13 2022-07-22 西安中科微精光子科技股份有限公司 针对复杂曲面的加工路径碰撞检测方法、装置及存储介质
EP4080301A1 (de) * 2021-04-19 2022-10-26 Bystronic Laser AG 3d-neigungsschätzung und kollisionsvermeidung zum laserschneiden
DE102021110404A1 (de) 2021-04-23 2022-10-27 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren zur Kollisionsvermeidung, System und Laserschneidvorrichtung
DE102021129148A1 (de) 2021-11-09 2023-05-11 TRUMPF Werkzeugmaschinen SE + Co. KG Verfahren und Vorrichtung zur Kollisionsvermeidung bei der Werkstückbearbeitung durch eine mehrachsige Bearbeitungsmaschine
CH718535B1 (de) * 2022-03-23 2023-03-15 Reishauer Ag Verfahren und Werkzeugmaschinensystem zur Kollisionsprüfung eines Bearbeitungsprozesses, mit Ersatzwerkstück.

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170045877A1 (en) * 2015-02-12 2017-02-16 Glowforge, Inc. Visual preview for laser fabrication

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4618938A (en) * 1984-02-22 1986-10-21 Kla Instruments Corporation Method and apparatus for automatic wafer inspection
US4613269A (en) * 1984-02-28 1986-09-23 Object Recognition Systems, Inc. Robotic acquisition of objects by means including histogram techniques
US4667113A (en) * 1985-08-09 1987-05-19 Hitachi Seiko Ltd. Tool failure detection apparatus
US4794222A (en) * 1986-06-30 1988-12-27 Manabu Funayama Laser beam machining apparatus
JP2771571B2 (ja) * 1989-01-31 1998-07-02 株式会社アマダ 折曲げ・溶接複合加工装置
US5387061A (en) * 1990-12-14 1995-02-07 The United States Of America As Represented By The United States Department Of Energy Parameter monitoring compensation system and method
DE4228528A1 (de) * 1991-08-29 1993-03-04 Okuma Machinery Works Ltd Verfahren und vorrichtung zur metallblechverarbeitung
JPH06210475A (ja) * 1993-01-14 1994-08-02 Fanuc Ltd レーザロボットのハイトセンサ装置
EP0699375B1 (de) * 1994-02-22 1997-07-09 Koninklijke Philips Electronics N.V. Laserätzverfahren
CA2162573A1 (en) * 1994-03-10 1995-09-14 Tsutomu Fukuda Coating removal apparatus
JPH0852638A (ja) * 1994-08-15 1996-02-27 Toshiba Mach Co Ltd 干渉チェック方法および加工プログラムチェック方法および加工適否チェック方法
US6128546A (en) * 1996-09-30 2000-10-03 Cincinnati Incorporated Method and apparatus for a cutting system for avoiding pre-cut features
DE19724986C2 (de) * 1997-06-13 1999-07-29 Jurca Optoelektronik Gmbh Verfahren zum Verschweißen von Werkstücken und Vorrichtung zu dessen Durchführung
DE19782307T1 (de) * 1997-12-26 2001-02-01 Mitsubishi Electric Corp Laserbearbeitungsgerät
US6407360B1 (en) * 1998-08-26 2002-06-18 Samsung Electronics, Co., Ltd. Laser cutting apparatus and method
DE19846426A1 (de) * 1998-10-08 2000-04-13 Open Mind Software Technologie Verfahren zum Steuern der Arbeitsbewegung eines Werkzeugs zur materialabtragenden Bearbeitung eines Materialblocks
US6603136B1 (en) * 1999-10-15 2003-08-05 Videojet Systems International Laser marker focal length setting device
JP3430124B2 (ja) * 2000-06-02 2003-07-28 山形日本電気株式会社 半導体製造装置のゲート部位処理装置及び処理方法
JP2004188475A (ja) * 2002-12-13 2004-07-08 Disco Abrasive Syst Ltd レーザー加工方法
DE10327600A1 (de) * 2003-06-18 2005-01-27 Siemens Ag Vorrichtung und Verfahren zur Kollisionsüberwachung einer Maschinenkomponente mit einem Werkstück oder anderen Maschinenkomponenten
US7062351B2 (en) * 2003-09-25 2006-06-13 The Boeing Company Clamp avoidance cutter path regeneration
US7046765B2 (en) * 2004-03-31 2006-05-16 Accuray, Inc. Radiosurgery x-ray system with collision avoidance subsystem
EP1632305A1 (de) * 2004-09-04 2006-03-08 Trumpf Werkzeugmaschinen GmbH + Co. KG Verfahren zur Ermittlung und Verfahren zur Einstellung der gegenseitigen Lage der Achse eines Laserbearbeitungsstrahls und der Achse eines Prozessgasstrahls an einer Laserbearbeitungsmaschine sowie Laserbearbeitungsmaschine mit Einrichtungen zur Umsetzung der Verfahren
US7638731B2 (en) * 2005-10-18 2009-12-29 Electro Scientific Industries, Inc. Real time target topography tracking during laser processing
CA2541635A1 (en) * 2006-04-03 2007-10-03 Servo-Robot Inc. Hybrid sensing apparatus for adaptive robotic processes
EP2029312B1 (de) * 2006-05-24 2013-01-23 TRUMPF Werkzeugmaschinen GmbH + Co. KG Bearbeitungsanlage mit einer werkstückauflage zur aufnahme eines insbesondere tafelförmigen werkstücks mit auf auflageelementen anbringbaren tragelementen
JP4221016B2 (ja) * 2006-07-25 2009-02-12 ファナック株式会社 干渉チェックを行う数値制御装置
DE102007016056B4 (de) * 2007-04-03 2011-08-25 Sauer GmbH LASERTEC, 87437 Verfahren und Vorrichtung zur Werkstückeinmessung und Werkstückbearbeitung
JP5173510B2 (ja) * 2008-03-24 2013-04-03 オークマ株式会社 加工シミュレーション装置
US9539664B2 (en) * 2008-06-17 2017-01-10 Matthew Fagan Methods and systems for predictive torch height control
US9110459B2 (en) * 2008-07-10 2015-08-18 Citizen Machinery Co., Ltd. Interference check device, interference check method, and machine tool having the interference check device
JP5199789B2 (ja) * 2008-08-25 2013-05-15 株式会社ディスコ レーザー加工装置及びレーザー加工方法
JP5465957B2 (ja) * 2008-09-05 2014-04-09 Dmg森精機株式会社 加工状態確認方法及び加工状態確認装置
DE102008057309B3 (de) * 2008-11-13 2009-12-03 Trumpf Laser- Und Systemtechnik Gmbh Verfahren und Laserbearbeitungsmaschine zum Ermitteln einer Dejustage einer Pulverzufuhrdüse der Laserbearbeitungsmaschine
CN102216025B (zh) * 2008-11-18 2015-04-08 乔治洛德方法研究和开发液化空气有限公司 用于高速激光冲裁的支承台架
DE102009045400B3 (de) * 2009-10-06 2011-06-09 Bayerische Motoren Werke Aktiengesellschaft Fügevorrichtung für ein stoffschlüssiges Fügen mittels eines Zusatzwerkstoffes
KR20110138879A (ko) * 2010-06-22 2011-12-28 삼성전기주식회사 광 픽업을 이용한 가공 오차 수정방법
DE102011003717A1 (de) * 2011-02-07 2012-08-09 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Vorrichtung und Verfahren zur Überwachung und insbesondere zur Regelung eines Laserschneidprozesses
US9122267B2 (en) * 2013-02-21 2015-09-01 Mitsubishi Electric Corporation Interference checking device and numerical control apparatus
JP6143222B2 (ja) * 2013-03-07 2017-06-07 三菱重工工作機械株式会社 工作機械の異常診断装置及び異常診断方法
US20140263211A1 (en) * 2013-03-15 2014-09-18 Apple Inc. Methods for Trimming Display Polarizers Using Lasers
DE102013217126B4 (de) * 2013-08-28 2015-09-03 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Feststellen von Abweichungen einer Ist-Lage eines Laserbearbeitungskopfes von einer Soll-Lage, Laserbearbeitungsmaschine und Computerprogrammprodukt
DE102013218421A1 (de) * 2013-09-13 2015-04-02 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Vorrichtung und Verfahren zur Überwachung, insbesondere zur Regelung, eines Schneidprozesses
CN103495807B (zh) * 2013-09-27 2015-08-19 重庆大学 多机器人光纤激光切割系统
JP5788469B2 (ja) * 2013-11-29 2015-09-30 ファナック株式会社 アプローチ時間を短縮するレーザ加工装置の制御装置及び制御方法
EP2883647B1 (de) * 2013-12-12 2019-05-29 Bystronic Laser AG Verfahren zur Konfiguration einer Laserbearbeitungsvorrichtung
DE102014200208B3 (de) * 2014-01-09 2015-06-11 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren zur trennenden Bearbeitung eines Werkstücks
CN103878478B (zh) * 2014-01-28 2015-11-18 华中科技大学 一种三维激光加工工件定位测量装置及其方法
JP5887375B2 (ja) * 2014-03-24 2016-03-16 ファナック株式会社 停電検出時に加工ノズルを退避するレーザ加工装置
DE102014213518A1 (de) * 2014-07-11 2016-01-14 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren, Bearbeitungsmaschine und Computerprogrammprodukt zum bildbasierten Platzieren von Werkstückbearbeitungsvorgängen
DE102014011569B4 (de) * 2014-08-02 2016-08-18 Precitec Optronik Gmbh Verfahren zum Messen des Abstands zwischen einem Werkstück und einem Bearbeitungskopf einer Laserbearbeitungsvorrichtung
JP5941108B2 (ja) * 2014-08-27 2016-06-29 ファナック株式会社 高速位置決め機能を有するレーザ加工装置
JP6017528B2 (ja) * 2014-12-25 2016-11-02 ファナック株式会社 ノズルアプローチ時の干渉回避機能を備えたレーザ加工装置
CN105195868B (zh) * 2015-11-12 2018-05-15 上海电气核电设备有限公司 一种机器人焊接系统及其焊接方法
JP6493623B2 (ja) * 2016-04-13 2019-04-03 株式会社島津製作所 オートサンプラ
CN106271114A (zh) * 2016-10-10 2017-01-04 山东科技大学 激光加工装置
JP6412185B2 (ja) * 2017-03-02 2018-10-24 ファナック株式会社 工作機械システム
DE102018123363B4 (de) * 2018-09-24 2021-01-07 Bystronic Laser Ag Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170045877A1 (en) * 2015-02-12 2017-02-16 Glowforge, Inc. Visual preview for laser fabrication

Also Published As

Publication number Publication date
JP6952218B2 (ja) 2021-10-20
JP2021527572A (ja) 2021-10-14
WO2020064589A1 (en) 2020-04-02
US20210245295A1 (en) 2021-08-12
DE102018123363A1 (de) 2020-03-26
EP3857318A1 (de) 2021-08-04
EP3857318B1 (de) 2022-07-20
CN112740125A (zh) 2021-04-30
US11583951B2 (en) 2023-02-21
PL3857318T3 (pl) 2022-10-17

Similar Documents

Publication Publication Date Title
DE102018123363B4 (de) Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine
EP3011225B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
EP1640101B1 (de) Verfahren zur Regelung eines automatischen Bearbeitungsprozesses
EP3412399B1 (de) Verfahren zur kontrolle von laserschneidvorgängen im hochleistungsbereich mit schneidvorgangunterbrechung entsprechende vorrichtung und computerprogrammprodukt
EP3490741B1 (de) Werkstückbearbeitungsmaschine und verfahren zum betreiben der werkstückbearbeitungsmaschine
DE69634998T2 (de) Kontrolle von Kanten
DE102013022085A1 (de) Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess
DE102017117837A1 (de) Laserbearbeitungs-Robotersystem und Laserbearbeitungsverfahren
DE112018008046T5 (de) Vorrichtung zur additiven fertigung
WO2006037137A1 (de) Arbeitsbereichsüberwachung für automatisierte, programmgesteuerte maschinen und roboter
DE112014001727T5 (de) Vorrichtung und Verfahren für die Überwachung von bewegten Objekten in einem Erfassungsbereich
EP3014239B1 (de) Verfahren zum überprüfen der einstellung eines scheinwerfers in einem kraftfahrzeug
EP3098563A2 (de) System und verfahren zur erfassung von bilddaten einer oberfläche eines objekts
WO2019120557A1 (de) Optische vorrichtung zum automatischen aufbringen oder erzeugen und überwachen einer auf einem substrat aufgebrachten struktur mit ermittlung von geometrischen abmessungen sowie ein entsprechendes verfahren
EP3473377A2 (de) Verfahren zum betrieb zumindest einer bearbeitungsvorrichtung sowie bearbeitungsanlage
EP1047917A1 (de) Verfahren und vorrichtung zur faserlängenmessung
DE102016007586A1 (de) Neuartige Vorrichtung/en zum automatischen Aufbringen oder Erzeugen und Überwachen einer auf einem Substrat aufgebrachten Struktur mit Ermittlung von geometrischen Abmessungen sowie ein entsprechendes Verfahren
EP1625911A1 (de) Drahtbonder mit einer Kamera, einer Bildverarbeitungseinrichtung, Speichermittel und Vergleichermittel und Verfahren zum Betrieb eines solchen
EP2932188B1 (de) Gerät mit beweglichem geräteteil, insbesondere koordinatenmessgerät oder werkzeugmaschine
DE10153581A1 (de) Verfahren und Vorrichtung zur Ermittlung der Wirkkontur von Rotationswerkzeugen
EP3655175B1 (de) Verfahren zum betrieb einer bearbeitungsanlage mit beweglichem stempel
EP3587998B1 (de) Vorrichtung und verfahren zur optischen messung an einem produktstrang der tabak verarbeitenden industrie und verwendung einer optischen messvorrichtung
DE102018124208B4 (de) Verfahren und Vorrichtung zur Überwachung eines Laserbearbeitungsprozesses an einem Werkstück sowie dazugehöriges Laserbearbeitungssystem
DE102019104649B4 (de) Auflagestegerfassung bei Flachbettwerkzeugmaschinen
DE112017006003B4 (de) Laserbearbeitungsmaschine und Laserbearbeitungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: NIEPELT PATENTANWALTSGESELLSCHAFT MBH, DE

Representative=s name: FINK NUMRICH PATENTANWAELTE PARTMBB, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: FINK NUMRICH PATENTANWAELTE PARTMBB, DE

R020 Patent grant now final