DE102017112454A1 - Dynamisches Laser-Touch-Sensing mit dynamischem Multiroboter-User-Frame - Google Patents

Dynamisches Laser-Touch-Sensing mit dynamischem Multiroboter-User-Frame Download PDF

Info

Publication number
DE102017112454A1
DE102017112454A1 DE102017112454.3A DE102017112454A DE102017112454A1 DE 102017112454 A1 DE102017112454 A1 DE 102017112454A1 DE 102017112454 A DE102017112454 A DE 102017112454A DE 102017112454 A1 DE102017112454 A1 DE 102017112454A1
Authority
DE
Germany
Prior art keywords
touch sensing
laser
wire
user frame
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017112454.3A
Other languages
English (en)
Inventor
Tien L. Chang
Terry Tupper
Ho Cheung Wong
Sai-Kai Cheng
Jason Tsai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc America Corp
Original Assignee
Fanuc America Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc America Corp filed Critical Fanuc America Corp
Publication of DE102017112454A1 publication Critical patent/DE102017112454A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40581Touch sensing, arc sensing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45138Laser welding

Abstract

Es werden Verfahren und Systeme zum Touch-Sensing zur Bereitstellung eines aktualisierten User-Frames zur Verfügung gestellt. Diese umfassen die Einrichtung eines User-Frames und Touch-Sensing eines Werkstücks, wobei das Touch-Sensing das Ausführen eines Touch-Sensing-Zeitplans umfasst. Der Touch-Sensing-Zeitplan enthält eines von einem Laser-Touch-Sensing-Ereignis und einem Draht-Touch-Sensing-Ereignis, wobei eines des Laser-Touch-Sensing-Ereignisses und des Draht-Touch-Sensing-Ereignisses umgeschaltet wird zu dem anderen des Laser-Touch-Sensing-Ereignisses und des Draht-Touch-Sensing-Ereignisses, während der Touch-Sensing-Zeitplan ausgeführt wird. Eine Versetzung des Werkstücks relativ zum User-Frame wird basierend auf dem Touch-Sensing des Werkstücks bestimmt, und die Versetzung wird auf das User-Frame angewendet, um das aktualisierte User-Frame zur Verfügung zu stellen. Das einzigartige Merkmal eines dynamischen User-Frames ermöglicht es, das gleiche Touch-Sensing-Programm nachzubilden und auf Multiroboter-Steuerelemente anzuwenden.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung nimmt den Nutzen der am 3. Juni 2016 eingereichten vorläufigen US-Anmeldung, Nr. 62/345221 in Anspruch. Die gesamte Offenlegung ist hiermit durch Verweis einbezogen.
  • GEBIET
  • Die vorliegende Technologie betrifft Touch-Sensing unter Verwendung eines Roboters zur Aktualisierung eines User-Frames, die Laser-Touch-Sensing und dynamisches Umschalten zwischen Laser-Touch-Sensing und Draht-Touch-Sensing oder umgekehrt einschließt, wobei ein Merkmal des dynamischen User-Frames einen einzigartigen Mechanismus zum Übertragen von Touch-Sensing-Programmen zur koordinierten Bewegung von Programmierhandgeräten zwischen Multiroboter-Steuerelementen zur Verfügung stellt.
  • EINLEITUNG
  • Dieser Abschnitt stellt Hintergrundinformationen bereit, die auf die vorliegende Offenlegung bezogen sind, die nicht zwangsläufig Stand der Technik ist.
  • US-Patent Nr. 6 452 134 B2 für Hong mit der Bezeichnung „Verfahren zur Korrektur von Einlernpunkten für Schweißroboter und ein dieses verwendende Schweißrobotersystem“ offenbart ein Verfahren zur Korrektur eines voreingestellten geometrischen Ortes eines Einlernpunkts für einen Schweißroboter, der einen Touch-Sensor aufweist. Das Verfahren umfasst die Schritte: Positionieren eines Werkstücks auf einer Schweißeinspannvorrichtung, Ausführen einer Touch-Sensor-Synchronisierung für das Werkstück relativ zu Bezugskoordinatenachsen, Berechnen einer Verschiebung des Werkstücks durch das Touch-Sensor-Synchronisieren und Erhalten eines neuen geometrischen Ortes des Einlernpunkts basierend auf einer Transformationsmatrix, die auf der Basis der Verschiebung erzeugt wird. Mit diesen Schritten werden die Einlernpunkte durch eine Touch-Sensor-Synchronisierung ohne zusätzliche Ausrüstung zur optionalen Sensorverfolgung wie Lasersensoren und Lichtbogensensoren korrekt aktualisiert. Diese Verfahrensart kann jedoch bestimmte Probleme aufweisen. Zum Beispiel unterstützt ein solches Verfahren nicht das dynamische Umschalten zwischen Draht-Touch-Sensing und Laser-Sensor-Touch-Sensing. Dem Verfahren fehlt es ferner an der Unterstützung zum gleichzeitigen Laser-Touch-Sensing unter Verwendung eines oder mehrerer Roboter. Ein weiteres Problem besteht darin, dass dieses Verfahren Laser-Touch-Sensing unter Verwendung von Multirobotern und eines dynamischen User-Frames nicht unterstützt. Es wäre vorteilhaft, Verfahren und Systeme zu entwickeln, die sich um diese Probleme kümmern und dynamisches Laser-Touch-Sensing unter Verwendung von Multirobotern mit einem dynamischen User-Frame optimieren.
  • ZUSAMMENFASSUNG
  • Die vorliegende Technologie umfasst Systeme, Prozesse und Herstellungsgegenstände, die dynamisches Touch-Sensing mit einem oder mehreren Robotern betreffen, wobei Touch-Sensing das Laser-Touch-Sensing und/oder Draht-Touch-Sensing einschließlich Umschalten zwischen Laser-Touch-Sensing und Draht-Touch-Sensing umfasst, um ein User-Frame dynamisch zu aktualisieren. Wenn die Merkmale des dynamischen User-Frames möglich sind, können Touch-Sensing-Programme für Programmierhandgeräte, die sowohl Touch-Suche-Bewegung als auch Touch-Aufsetzberechnung einschließen, zwischen Multiroboter-Steuerelementen mit minimalem Touch-Up, falls überhaupt, leicht übertragen werden.
  • Verfahren zum Touch-Sensing, die ein aktualisiertes User-Frame zur Verfügung stellen, umfassen die folgenden Aspekte. Ein User-Frame wird bereitgestellt, wobei dieses User-Frame eine oder mehrere Positionen von Werkstücken definieren kann. Touch-Sensing eines Werkstücks wird zum Beispiel durch Verwendung eines Roboters ausgeführt, der einen Roboterarm aufweist, wobei der Roboterarm einen Laser-Touch-Sensor enthält. Touch-Sensing des Werkstücks kann deshalb ein Laser-Touch-Sensing-Ereignis umfassen. Eine Versetzung des Werkstücks relativ zum User-Frame wird basierend auf dem Touch-Sensing des Werkstücks festgelegt. Die Versetzung wird auf das User-Frame angewendet, um das aktualisierte User-Frame bereitzustellen. Auf diese Weise kann zum Beispiel das Verfahren die Versetzung oder eine Änderung der Verschiebung oder Abmessungen zwischen einem Werkstück oder aufeinander folgenden Werkstücken relativ zu einem ursprünglichen User-Frame berücksichtigen. Die Genauigkeit anschließender Arbeitsgänge oder Werkzeugfunktionen durch einen oder mehrere Roboter können deshalb relativ zu der Position und/oder den Abmessungen des Werkstücks optimiert werden.
  • Touch-Sensing des Werkstücks kann die Verwendung eines Roboters einschließen, der einen Roboterarm sowohl mit einem Laser-Touch-Sensor als auch einem Draht-Touch-Sensor aufweist, und/oder das Touch-Sensing kann die Verwendung von mehr als einem Roboter umfassen, wobei die Roboter jeweils einen Laser-Touch-Sensor, einen Draht-Touch-Sensor oder beides aufweisen. Touch-Sensing des Werkstücks kann außerdem die gleichzeitige Ausführung eines Laser-Touch-Sensing-Ereignisses und eines Draht-Touch-Sensing-Ereignisses umfassen. Beim Touch-Sensing des Werkstücks kann eine Vielzahl von Touch-Sensing-Ereignissen genutzt werden, wobei mehrfache Touch-Sensing-Ereignisse durch einen oder mehrere Roboter ausgeführt werden. Die Vielzahl von Touch-Sensing-Ereignissen kann auch das Umschalten von einem Laser-Touch-Sensing-Ereignis zu einem Draht-Touch-Sensing-Ereignis und umgekehrt einschließen. Touch-Sensing des Werkstücks kann die Verwendung eines Führungsroboters umfassen, bei dem das aktualisierte User-Frame anschließend einem Folgeroboter zur Verfügung gestellt wird. Auf diese Weise können Arbeitsgänge oder Werkzeugfunktionen durch einen oder mehrere Folgeroboter relativ zu Position und/oder Abmessungen des Werkstücks optimiert werden.
  • Touch-Sensing zur Bereitstellung eines aktualisierten User-Frames kann außerdem die folgenden Aspekte einschließen. Es werden Vorkehrungen für ein User-Frame getroffen. Touch-Sensing eines Werkstücks tritt dort auf, wo das Touch-Sensing die Leistungsfähigkeit eines Touch-Sensing-Zeitplans verkörpert, der eines von einem Laser-Touch-Sensing-Ereignis und einem Draht-Touch-Sensing-Ereignis umfasst. Eines von dem Laser-Touch-Sensing-Ereignis und dem Draht-Touch-Sensing-Ereignis wird zu dem anderen des Laser-Touch-Sensing-Ereignisses und des Draht-Touch-Sensing-Ereignisses umgeschaltet, während der Touch-Sensing-Zeitplan ausgeführt wird. Auf diese Art und Weise kann Touch-Sensing zum Beispiel zwischen Laser- und/oder Draht-Touch-Sensing-Ereignissen dynamisch aktualisiert werden. Eine Versetzung des Werkstücks relativ zum User-Frame wird basierend auf dem Touch-Sensing des Werkstücks festgelegt, so dass die Versetzung auf das User-Frame angewendet werden kann, um das aktualisierte User-Frame zur Verfügung zu stellen.
  • Die vorliegende Technologie unterstützt folglich das dynamische Hin- und Herschalten zwischen Laser-Touch-Sensing und Draht-Touch-Sensing. Das Umschalten zum/vom Laser-Touch-Sensing vom/zum Draht-Touch-Sensing kann einmal oder mehrmals auftreten. Zum Beispiel kann in einem Roboter-Programmierhandgerät ein Benutzer dynamisch zwischen Draht-Touch-Sensing und Laser-Touch-Sensing über unterschiedliche Touch-Sensing-Zeitpläne umschalten. Das Umschalten kann auch Umschalten von Laser-Touch-Sensing oder Draht-Touch-Sensing zu gleichzeitigem Laser- und Draht-Touch-Sensing oder umgekehrt einschließen. Die Auswahl eines Touch-Sensing-Ereignistyps in jedem Touch-Sensing-Zeitplan kann deshalb als ein Draht-Touch-Sensing-Ereignis, Laser-Touch-Sensing-Ereignis oder sowohl Draht- als auch Laser-Touch-Sensing-Ereignis konfiguriert werden. Während der Ausführung des Programms kann das System folglich dynamisch zwischen einem oder mehreren Draht-Touch-Sensing-Ereignissen und einem oder mehreren Laser-Touch-Sensing-Ereignissen basierend auf einem vorgegebenen Touch-Sensing-Zeitplan oder einem dynamisch aktualisierten Touch-Sensing-Zeitplan umschalten. Multiroboter können beim Touch-Sensing eines Werkstücks in aufeinanderfolgenden oder gleichzeitigen Laser-Touch-Sensing-Ereignissen verwendet werden. Zum Beispiel können Multiroboter in einem einzelnen Touch-Sensing-Zeitplan unter Verwendung von Draht-Touch-Sensing-Ereignissen, Laser-Touch-Sensing-Ereignissen oder sowohl Draht- als auch Laser-Touch-Sensing-Ereignissen konfiguriert werden. Alle im Touch-Sensing-Zeitplan konfigurierten Roboter können außerdem optimierte Arbeitsgänge oder Werkzeugfunktionen relativ zur Position und/oder Abmessungen des Werkstücks basierend auf dem aktualisierten User-Frame, auf das die Versetzung angewendet ist, ausführen.
  • Weitere Bereiche der Anwendbarkeit erschließen sich aus der hier vorgesehenen Beschreibung. Die Beschreibung und spezifische Beispiele in dieser Zusammenfassung sind zum Zweck der Darstellung vorgesehen, jedoch nicht dazu, den Umfang der vorliegenden Offenlegung einzuschränken.
  • ZEICHNUNGEN
  • Die hier beschriebenen Zeichnungen stehen nur für veranschaulichende Zwecke ausgewählter Ausführungsformen und nicht aller möglichen Implementierungen und sollen nicht den Umfang der vorliegenden Offenlegung einschränken.
  • 1 stellt eine Ausführungsform von zwei Robotern dar, wobei jeder Roboter einen Roboterarm mit einem Laser-Touch-Sensor und einem Draht-Touch-Sensor aufweist.
  • 2 veranschaulicht eine Ausführungsform eines Führungsroboters, der einem Folgeroboter ein aktualisiertes User-Frame bereitstellt, das die Genauigkeit einer oder mehrerer anschließender Arbeitsgänge oder Werkzeugfunktionen durch den Folgeroboter im Verhältnis zu Position und/oder Abmessungen des Werkstücks optimiert.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung der Technologie ist lediglich beispielhaft hinsichtlich des Gegenstands, der Herstellung und Verwendung einer oder mehrerer Erfindungen und soll den Umfang, die Anwendung oder Verwendungen einer beliebigen speziellen Erfindung nicht einschränken, die in dieser Anmeldung oder in solchen anderen Anmeldungen beansprucht werden, wie sie eingereicht sein können, indem Priorität an dieser Anmeldung oder sich daraus ergebenden Patenten beansprucht wird. Bezüglich offenbarter Verfahren ist die Reihenfolge der dargelegten Schritte beispielhaft, und somit kann die Reihenfolge der Schritte in verschiedenen Ausführungsformen unterschiedlich sein. Ausgenommen dort, wo es ausdrücklich anders angegeben ist, sollen alle Zahlengrößen in dieser Beschreibung als modifiziert durch das Wort „im Wesentlichen“ verstanden werden, indem der breiteste Umfang der Technologie beschrieben wird. Wenn „etwa“ auf Zahlenwerte angewandt wird, gibt es an, dass die Berechnung oder die Messung eine gewisse leichte Ungenauigkeit im Wert zulässt (mit einer gewissen Annäherung an die Genauigkeit des Wertes; ungefähr oder ziemlich nahe am Wert; beinahe). Wenn aus bestimmten Gründen die durch „etwa“ vorgesehene Ungenauigkeit an sich mit dieser üblichen Bedeutung anders nicht verständlich ist, dann gibt das hier verwendete „etwa“ mindestens Variationen an, die aus gewöhnlichen Verfahren zur Messung oder Verwendung solcher Parameter herrühren.
  • Alle Druckschriften, einschließlich Patenten, Patentanmeldungen und in dieser ausführlichen Beschreibung angegebene wissenschaftliche Literatur sind hier durch Verweis enthalten, wenn es nicht ausdrücklich anders angegeben ist. Wenn zwischen einer durch Verweis einbezogenen Druckschrift und dieser ausführlichen Beschreibung vielleicht Widerspruch oder Zweideutigkeit besteht, bestimmt die vorliegende ausführliche Beschreibung.
  • Obwohl der erweiterungsfähige Begriff „umfassend“ hier als Synonym von nicht einschränkenden Begriffen wie einschließlich, enthaltend oder aufweisend, verwendet wird, um Ausführungsformen der vorliegenden Technologie zu beschreiben und darauf Anspruch zu erheben, können Ausführungsformen alternativ dazu unter Verwendung von mehr einschränkenden Begriffen beschrieben werden wie etwa „bestehend aus“ oder „bestehend im Wesentlichen aus“. Folglich umfasst die vorliegende Technologie für jede gegebene Ausführungsform angeführte Materialien, Komponenten oder Verfahrensschritte auch spezielle Ausführungsformen, die aus oder im Wesentlichen aus solchen Materialien, Komponenten oder Verfahrensschritten bestehen, ausgenommen zusätzliche Materialien, Komponenten oder Prozesse (um zu bestehen aus) und ausgenommen zusätzliche Materialien, Komponenten oder Prozesse, die die wichtigen Eigenschaften der Ausführungsform (um im Wesentlichen zu bestehen aus) beeinflussen, obwohl solche zusätzlichen Materialien, Komponenten oder Prozesse in dieser Anmeldung nicht explizit angeführt sind. Zum Beispiel kann man sich unter Anführung einer Zusammensetzung oder eines Prozesses, die speziell Elemente A, B und C zitiert, Ausführungsformen vorstellen, die aus und im Wesentlichen aus A, B und C bestehen, ausgenommen ein Element D, das an sich zitiert werden kann, obwohl nicht ausdrücklich beschrieben ist, dass das Element D hier ausgeschlossen ist.
  • Die vorliegende Technologie sieht verschiedene Möglichkeiten des Touch-Sensing zur Bereitstellung eines aktualisierten User-Frames vor. In dieser Hinsicht wird ein User-Frame zur Verfügung gestellt und ein Werkstück durch Kontakt abgetastet. Touch-Sensing des Werkstücks umfasst ein Laser-Touch-Sensing-Ereignis, aus dem eine Versetzung des Werkstücks relativ zum User-Frame bestimmt wird. Die Versetzung wird anschließend auf das User-Frame angewendet, um das aktualisierte User-Frame zur Verfügung zu stellen. Deshalb ist dynamisches Umschalten zwischen Draht-Touch-Sensing und Laser-Touch-Sensing möglich. Zum Beispiel kann ein Benutzer in einem Roboterprogrammiergerätprogramm über unterschiedliche Touch-Sensing-Zeitpläne dynamisch zwischen Draht-Touch-Sensing und Laser-Touch-Sensing umschalten. Ein oder mehrere Touch-Sensing-Ereignisse in jedem Touch-Sensing-Zeitplan können als ein Draht-Touch-Sensing-Ereignis, ein Laser-Touch-Sensing-Ereignis oder sowohl ein Draht- als auch Laser-Touch-Sensing-Ereignis konfiguriert werden. Während der Ausführung des Programms kann das System dynamisch zwischen Draht-Touch-Sensing und/oder Laser-Touch-Sensing basierend auf den Konfigurationen des Touch-Zeitplans umschalten.
  • Das User-Frame kann ein Werkstück und eine Werkstückumgebung definieren. Zum Beispiel kann das User-Frame das Ergebnis sein, einem oder mehreren Robotern die Örtlichkeit eines Werkstücks für einen oder mehrere Arbeitsgänge oder Werkzeugfunktionen durch den (die) Roboter beizubringen. Ein einzelnes Touch-Sensing-Ereignis oder eine Reihe von Touch-Sensing-Ereignissen können genutzt werden, um das User-Frame zu definieren oder zu modifizieren, und können genutzt werden, um die Position und/oder Abmessungen eines Werkstücks oder eines nachfolgenden Werkstücks vor Einleitung einer oder mehrerer Arbeitsgänge oder Werkzeugfunktionen durch den (die) Roboter an dem Werkstück zu prüfen. Die Reihe von Touch-Sensing-Ereignissen kann zum Beispiel Teil eines Touch-Sensing-Zeitplans sein. Touch-Sensing-Ereignisse können damit eine Versetzung des Werkstücks relativ zum User-Frame basierend auf Touch-Sensing des Werkstücks bestimmen und können deshalb die Versetzung auf das User-Frame anwenden, um das aktualisierte User-Frame zur Verfügung zu stellen. Das aktualisierte User-Frame kann zum Beispiel neue Ursprungs- und/oder Achseninformationen enthalten, die auf dem Touch-Sensing des Werkstücks basieren. Auf diese Art und Weise kann Touch-Sensing dynamisch eingestellt werden, während Touch-Sensing-Ereignisse ausgeführt und erfasst werden, um die Einrichtung des aktualisierten User-Frames zu optimieren.
  • In verschiedenen sequenziellen oder gleichzeitigen Laser-Touch-Sensing-Ereignissen können ein oder mehrere Roboter verwendet werden. Ein oder mehrere Roboter können außerdem in einem einzelnen Touch-Zeitplan konfiguriert werden, indem nur Laser-Touch-Sensing verwendet wird. Ein oder mehrere Roboter können in dem Touch-Sensing-Zeitplan konfiguriert werden, um gleichzeitige Ereignisse von Draht-Touch-Sensing und Laser-Touch-Sensing auszuführen. Die vorliegende Technologie kann daher das Multiroboter-Laser-Touch-Sensing mit einem dynamischen User-Frame unterstützen. Beispiele von Robotern und Touch-Sensing schließen die ein, die im US-Patent, Nr. 6 243 621 B1 für Tao et al. mit der Bezeichnung „Verfahren zur Bestimmung von Werkstückpositionen einschließlich koordinierter Bewegung“ beschrieben sind.
  • Wenn ein dynamisches User-Frame aktiviert wird, ist die durch Laser-Sensor-Touch-Sensing verwendete Touch-Suchbewegung zum User-Frame relativ, und das dynamische User-Frame wird zur Berechnung einer Laser-Touch-Sensing-Versetzung aktualisiert. Zum Beispiel kann die vorliegende Technologie die in dem US-Patent Nr. 6 452 134 B2 für Hong (im Folgenden „Hong“) mit der Bezeichnung „Verfahren zur Korrektur von Einlernpunkten für Schweißroboter und ein dieses anwendendes Schweißrobotersystem“ vorgesehenen Verfahren und Vorrichtung modifizieren, wobei ein oder mehrere darin beschriebene Draht-Touch-Sensing-Ereignisse dynamisch mit einem oder mehreren Laser-Touch-Sensing-Ereignissen oder gleichzeitigen Draht- und Laser-Touch-Sensing-Ereignissen unter Verwendung der vorliegenden Technologie umgeschaltet werden. Wie es durch Hong beschrieben wird, kann ein Werkstück an einer Schweißvorrichtung angebracht werden. Werkstück und Schweißvorrichtung können sich innerhalb eines User-Frames, wie hier beschrieben, befinden. Während Hong einen vorgegebenen geometrischen Ort von mindestens einem Einlernpunkt zwischen einem Schweißanfangspunkt und einem Schweißendpunkt festlegt, sieht die vorliegende Technologie vor, dass das User-Frame die Definition des Einlernpunkts zwischen dem Schweißanfangspunkt und dem Schweißendpunkt einschließt. Während Hong zumindest einen Erfassungspunkt setzt, der als ein vorgegebener geometrischer Ort an dem Werkstück definiert ist, kann die vorliegende Technologie ein User-Frame mit dem darin definierten, vorgegebenen geometrischen Ort einschließen. Touch-Sensing des Erfassungspunktes an dem Werkstück bei Hong kann dann Touch-Sensing des Werkstücks wie durch die vorliegende Technologie umfassen, wobei Touch-Sensing ein Laser-Touch-Sensing-Ereignis einschließt. Dies erkennt folglich einen abgetasteten geometrischen Ort des Erfassungspunkt, der durch Touch-Sensing detektiert wird und erzeugt eine Transformationsmatrix basierend auf einer Differenz zwischen dem vorgegebenen geometrischen Ort des Erfassungspunktes und dem abgetasteten geometrischen Ort des Erfassungspunktes. Die vorliegende Technologie bestimmt ebenso eine Versetzung des Werkstücks relativ zum User-Frame auf der Basis von Touch-Sensing des Werkstücks. Hong erhält einen neuen geometrischen Ort des Einlernpunktes basierend auf der Transformationsmatrix, wobei die vorliegende Technologie die Versetzung in ähnlicher Weise auf das User-Frame anwendet, um das aktualisierte User-Frame zur Verfügung zu stellen. Wenn das Merkmal des dynamischen User-Frames aktiviert wird, kann ein Touch-Such-Frame zu einem Leit-Frame relativ sein, wodurch das gleiche Touch-Such-Bewegungsprogramm auf ein oder mehrere Robotersteuerelemente übertragen und mit dem aktualisierten oder neuen User-Frame, das ein aktualisiertes Leit-Frame enthält, angewendet werden kann.
  • Ein weiteres Verfahren zum Touch-Sensing zur Bereitstellung eines aktualisierten User-Frames umfasst das Bereitstellen eines User-Frames und Touch-Sensing eines Werkstücks, wobei Touch-Sensing zumindest ein Laser-Touch-Sensing-Ereignis einschließt. Eine Versetzung des Werkstücks relativ zum User-Frame wird basierend auf dem Touch-Sensing des Werkstücks bestimmt. Das Anwenden der Versetzung auf das User-Frame erlaubt es, das User-Frame zur Bereitstellung des aktualisierten User-Frames zu aktualisieren. Es soll angemerkt werden, dass Touch-Sensing des Werkstücks einen Touch-Sensing-Zeitplan umfassen kann, der eine Vielzahl von Touch-Sensing-Ereignissen einschließt, wobei der Touch-Sensing-Zeitplan eines von einem Laser-Touch-Sensing Ereignis und einem Draht-Touch-Sensing-Ereignis einschließt. Eins vom Laser-Touch-Sensing-Ereignis und vom Draht-Touch-Sensing-Ereignis wird zu dem anderen von Laser-Touch-Sensing-Ereignis und Draht-Touch-Sensing-Ereignis umgeschaltet. Es können mehr als eine Umschaltung auftreten, und ein Benutzer kann dynamisches Umschalten zwischen Touch-Sensing-Typen oder gleichzeitige Draht- und Laser-Touch-Sensing-Ereignisse beim Bestimmen der Versetzung des Werkstücks relativ zum User-Frame einbeziehen. Wenn das Merkmal des dynamischen User-Frames aktiviert ist, wird eine Touch-Versetzung relativ zum dynamischen User-Frame einschließlich des Leit-Frames berechnet, wodurch das gleiche Touch-Versetzungsprogramm auf ein oder mehrere andere Robotersteuerelemente übertragen und mit dem aktualisierten oder neuen User-Frame angewendet werden kann.
  • Touch-Sensing von einem oder mehreren Werkstücken kann die Verwendung eines oder mehrerer Roboter umfassen, wobei zumindest ein Roboter einen Roboterarm aufweist, der sowohl einen Laser-Touch-Sensor als auch einen Draht-Touch-Sensor enthält. Touch-Sensing des einen oder mehrerer Werkstücke kann die Ausführung eines den Roboter verwendenden Laser-Touch-Sensing-Ereignisses und/oder eines Draht-Touch-Sensing-Ereignisses umfassen, was das gleichzeitige Ausführen von Laser- und Draht-Touch-Sensing-Ereignissen einschließt. Touch-Sensing des Werkstückes kann eine Vielzahl von Touch-Sensing-Ereignissen umfassen, und die Vielzahl von Touch-Sensing-Ereignissen kann eine Vielzahl von Laser-Touch-Sensing-Ereignissen einschließen. Die Vielzahl von Touch-Sensing-Ereignissen kann durch einen einzelnen Roboter ausgeführt werden, wobei der einzelne Roboter einen Roboterarm mit einem Laser-Touch-Sensor und einem Draht-Touch-Sensor aufweisen kann. Die Vielzahl von Touch-Sensing-Ereignissen kann auch durch eine Vielzahl von Robotern ausgeführt werden, wobei mindestens ein Roboter einen Roboterarm aufweist und der Roboterarm einen Laser-Touch-Sensor und einen Draht-Touch-Sensor enthält. Die Vielzahl von Touch-Sensing-Ereignissen kann das Umschalten von einem des Laser-Touch-Sensing-Ereignisses und des Draht-Touch-Sensing-Ereignisses zu dem anderen des Laser-Touch-Sensing-Ereignisses und des Draht-Touch-Sensing-Ereignisses umfassen. Die Vielzahl von Touch-Sensing-Ereignissen kann eine Vielzahl von Laser-Touch-Sensing-Ereignissen und eine Vielzahl von Draht-Touch-Sensing-Ereignissen einschließen, die durch einen einzelnen Roboter oder eine Vielzahl von Robotern ausgeführt werden. Die Vielzahl von Touch-Sensing-Ereignissen kann einen Touch-Sensing-Zeitplan einschließen. Der Touch-Sensing-Zeitplan kann ein Draht-Touch-Sensing-Ereignis umfassen, und das Draht-Touch-Sensing-Ereignis kann mit dem Laser-Touch-Sensing-Ereignis umgeschaltet werden. Zum Beispiel kann eine Vielzahl von Laser-Touch-Sensing-Ereignissen zu einer Vielzahl von Draht-Touch-Sensing-Ereignissen umgeschaltet werden, eine Vielzahl von Draht-Touch-Sensing-Ereignissen kann zu einer Vielzahl von Laser-Touch-Sensing-Ereignissen umgeschaltet werden, oder es kann beides auftreten. Touch-Sensing des Werkstücks kann die Verwendung eines Führungsroboters umfassen, wobei das aktualisierte User-Frame einem Folgeroboter zur Verfügung gestellt wird. Ein Beispiel eines Systems aus Führungsroboter und Folgeroboter ist in dem US-Patent, Nr. 7 211 178 B2 für Chang et al. vorgesehen.
  • Ein weiteres Verfahren zum Touch-Sensing zur Bereitstellung eines aktualisierten User-Frames umfasst das Bereitstellen eines User-Frames und von Touch-Sensing eines Werkstücks. Touch-Sensing des Werkstücks umfasst die Ausführung eines Touch-Sensing-Zeitplans mit einem von Laser-Touch-Sensing-Ereignis und Draht-Touch-Sensing-Ereignis. Eins von dem Laser-Touch-Sensing-Ereignis und dem Draht-Touch-Sensing-Ereignis wird dann umgeschaltet zu dem anderen von Laser-Touch-Sensing-Ereignis und Draht-Touch-Sensing-Ereignis, während der Touch-Sensing-Zeitplan ausgeführt wird. Eine Versetzung des Werkstücks relativ zum User-Frame wird basierend auf dem Touch-Sensing des Werkstücks bestimmt. Die Versetzung wird dann auf das User-Frame zur Bereitstellung des aktualisierten User-Frames angewendet.
  • Wie es durch den Fachmann hinsichtlich der vorliegenden Offenlegung erkannt wird, können die hier beschriebenen verschiedenen Verfahren durch verschiedene Systeme, Vorrichtungen und Apparatekonfigurationen implementiert werden, die in der Lage sind, die erforderlichen Aufgaben auszuführen. Insbesondere können verschiedene Systeme und Apparatekonfigurationen beim dynamischen Umschalten zwischen Draht-Touch-Sensing und Laser-Sensor-Touch-Sensing für Roboter genutzt werden. Systeme und Apparatekonfigurationen können folglich das dynamische Umschalten zwischen Draht-Touch-Sensing und Laser-Touch-Sensing in einem Roboter unterstützen, wobei ein Touch-Sensing-Zeitplan des Systems mit einem von Draht-Touch-Sensing-Ereignis und Laser-Touch-Sensing-Ereignis konfiguriert werden kann. Während der Ausführung des Programms kann das System dynamisch zu dem anderen des Draht-Touch-Sensing-Ereignisses und des Laser-Touch-Sensing-Ereignisses umgeschaltet werden.
  • Andere Systeme und Apparatekonfigurationen können diejenigen einschließen, die gleichzeitige Laser-Touch-Sensing-Ereignisse eines Multiroboters unterstützen. Multiroboter können folglich in einem einzigen Touch-Zeitplan konfiguriert werden, der mindestens ein Laser-Touch-Sensing-Ereignis anwendet. Mindestens einer der im Zeitplan konfigurierten Roboter enthält sowohl einen Draht-Touch-Sensor oder als auch einen Laser-Touch-Sensor und ist funktionsfähig, um sowohl einen Draht-Touch-Sensing-Ereignis als auch ein Laser-Touch-Sensing-Ereignis auszuführen. Die Multiroboter können einen Führungsroboter und einen Folgeroboter umfassen, wobei der Führungsroboter entweder allein oder in Verbindung mit einem oder mehreren zusätzlichen Robotern die Versetzung des Werkstücks, wie hier beschrieben, bestimmt. Das aus einer Anwendung der Versetzung auf das User-Frame erhaltene, aktualisierte User-Frame gestattet dem Folgeroboter, entweder allein oder in Verbindung mit einem oder mehreren zusätzlichen Robotern, einen Arbeitsgang unter Verwendung des aktualisierten User-Frames auszuführen; z. B. Werkzeugmaßnahmen durch den Folgeroboter bezüglich der Position und/oder Abmessungen des Werkstücks.
  • Eine Ausführungsform eines Systems 100 oder Apparatekonfiguration der vorliegenden Technologie ist in 1 dargestellt. Insbesondere umfasst das System 100 zwei Roboter 110, wobei jeder Roboter 110 einen Roboterarm 120 mit einem Laser-Touch-Sensor 130 und einem Draht-Touch-Sensor 140 aufweist. Andere Roboter (nicht gezeigt) können einbezogen werden, wobei jeder Roboter einen Laser-Touch-Sensor und/oder einen Draht-Touch-Sensor enthalten kann. Wie gezeigt wird, arbeiten die zwei Roboter 110 jeweils an einem getrennten Werkstück 150; jedoch wird verständlich, dass beide Roboter 110 an dem gleichen Werkstück 150 arbeiten können. Einem oder beiden Werkstücken 150 kann ein User-Frame zugeordnet werden. Zum Beispiel können die Werkstücke 150 im Wesentlichen gleich sein, wie es dargestellt ist, oder eines kann eine Änderung der Position und/oder Abmessung relativ zum User-Frame oder relativ zu dem anderen Werkstück 150 aufweisen, oder die Werkstücke 150 können ganz unterschiedliche Konfigurationen in Bezug zueinander aufweisen. Mindestens einer der Roboter 110 kann Touch-Sensing am Werkstück 150 ausführen, wobei Touch-Sensing das Ausführen eines Touch-Sensing-Zeitplans umfassen kann. Der Touch-Sensing-Zeitplan kann eines von Laser-Touch-Sensing-Ereignis und Draht-Touch-Sensing-Ereignis umfassen. Ein Benutzer kann das System dynamisch verändern, während einer oder beide der Roboter 110 den Touch-Sensing-Zeitplan ausführen, um das eine von Laser-Touch-Sensing-Ereignis und Draht-Touch-Sensing-Ereignis zu dem anderen von Laser-Touch-Sensing-Ereignis und Draht-Touch-Sensing-Ereignis umzuschalten. Während ein erster Roboter 110 ein erstes Draht-Touch-Sensing-Ereignis als Teil des Touch-Sensing-Zeitplans ausführt, kann ein zweiter Roboter 110 zum Beispiel umgeschaltet werden, um ein Laser-Touch-Sensing-Ereignis anstelle eines zweiten Draht-Touch-Sensing-Ereignisses auszuführen, weil der erste Roboter 110 in einem Raum arbeiten könnte, der weniger als optimal für den zweiten Roboter 110 ist, um das zweite Draht-Touch-Sensing-Ereignis in einer angebrachten Weise auszuführen. Das dynamische Umschalten kann deshalb das notwendige Touch-Sensing des Werkstücks 150 optimieren, um eine Versetzung des Werkstücks 150 relativ zum User-Frame effizienter zu bestimmen und eine Anwendung der Versetzung auf das User-Frame zu gestatten, um das aktualisierte User-Frame zur Verfügung zu stellen. Die Roboter 110 können auch, wie beschrieben, als Führungs- und Folgeroboter konfiguriert werden.
  • Mit Bezug auf 2 ist eine Ausführungsform eines Führungsroboters dargestellt, der ein aktualisiertes User-Frame für einen Folgeroboter bereitstellt. Die Genauigkeit einer oder mehrerer anschließender Arbeitsgänge oder Werkzeugfunktionen durch den Folgeroboter relativ zu Position und/oder Abmessungen des Werkstücks wird dadurch optimiert. Die folgenden Aspekte und Abkürzungen sind in der Abbildung angewendet und veranschaulicht.
  • Ein Touch-Frame kann definiert werden als: Touch_Ldr-Frame = INV(CD_XF:Ldr_TCP: Inv_Ldr_Utool:Ldr_Frame):3Pt_Frame, wobei
  • Touch-Frame:
    Touch-Frame relativ zur TCP-Position der Führung.
    Touch_Ldr_Frame:
    Touch-Frame relativ zur Frame-Position der Führung.
    3Pt_Frame:
    Frame, das über das 3-Punkt-Verfahren erzeugt ist.
    CD_XF:
    CD-Transformation aus der Folgebasis zur Führungsbasis.
    Ldr_TCP:
    TCP-Position der Führung.
    Inv_Ldr_Utool:
    Inverse Information des Führungs-U-Tools.
    Ldr_Frame:
    Führungsframe.
  • Eine Touch-Sensing-Suchbewegung kann definiert werden als: Search_Frame = (CD_XF:Ldr_TCP:Inv_Ldr_Utool:Ldr_Frame):Touch_Ldr_Frame.
  • Ein Beispiel eine Berechnung der Aufsetzkorrektur kann die folgenden Parameter enthalten, wie es in der Abbildung dargestellt ist: UF_flw:Offset_uf:Dest_pos_uf = CD_XF:UF_ldr:Pos_ldr_uf:Offset_cf:Dest_pos_cf
  • UF_flw:
    U-Frame des Nachführungsgerätes.
    Dest_pos_uf:
    Bestimmungsposition des Nachführungsgerätes bezüglich des Nachführungsgerät-U-Frames.
    CD_XF1:
    CD-Transformation von der Basis des Nachführungsgerätes 1 zur Führungsbasis.
    UF_ldr:
    U-Frame des führenden Elements.
    Pos_ldr_uf:
    Position des führenden Elements bezüglich des U-Frames des führenden Elements.
    Dest_pos_cf:
    Bestimmungsposition des Nachführungsgerätes bezüglich des koordinierten Frames.
    Offset_uf:
    die Versetzungstransformation bezüglich des U-Frames des Nachführungsgerätes.
    Offset_cf:
    die Versetzungstransformation bezüglich des koordinierten Frames.
  • Offset_uf = inv(UF_flw):CD_XF1:UF_ldr:Pos_ldr_uf:Offset_cf:inv(CD_XF1):UF_ldr:Pos_ldr_uf):UF_flw.
  • Das U-Frame des Nachführungsgerätes kann mit der Versetzung aktualisiert werden, um ein korrektes dynamisches Frame bereitzustellen, wobei:
    Dyn_Uframe = CD_XF:Ldr_TCP:Inv_Ldr_Utool:Ldr_Frame ist.
  • Die vorliegende Technologie stellt Vorteile an Einzelroboter- und Multirobotersystemen bereit, weil sie einen einzigartigen Mechanismus zur Unterstützung von mehrfachem Touch-Sensing-Ereignissen in optimierter Weise erzeugt. Andere Laser-Touch-Sensing-Verfahren und Systeme unterstützen gleichzeitiges Touch-Sensing unter Verwendung von Multirobotern nicht und unterstützen auch nicht eine koordinierte Bewegung und dynamisches Umschalten zwischen unterschiedlichen Typen von Touch-Sensing-Ereignissen. Die vorliegende Technologie kann folglich sowohl Draht-Touch-Sensing-Ereignisse als auch Laser-Touch-Sensing-Ereignisse an einem Einzelroboter-Arm oder Multirobotearmen unterstützen. Insbesondere können Laser-Touch-Sensing-Ereignisse die Verwendung von Multirobotern einschließen, wobei einer oder mehrere Roboter gleichzeitige Draht-Touch-Sensing- und Laser-Touch-Sensing-Ereignisse unter Verwendung von einem oder mehreren Roboterarmen ausführen. Zum Beispiel kann ein einzelner Roboterarm sowohl einen Laser-Touch-Sensor als auch einen Draht-Touch-Sensor aufweisen. Alternativ dazu kann eine koordinierte Bewegung zwischen Multirobotern mehrfache Touch-Sensing-Ereignisse ausführen, und der Benutzer kann zwischen Ereignistypen umschalten, um einen Touch-Sensing-Zeitplan zu optimieren. Dynamisches Umschalten und Aktualisieren eines User-Frames ist damit möglich. Die vorliegende Technologie kann so implementiert werden, dass sie mit vorhandener Funktionalität kompatibel sein kann, was Einzelroboter-Touch-Sensing und vorhandenes Multiroboter-Touch-Sensing einschließt.
  • Es sind beispielhafte Ausführungsformen vorgesehen, so dass diese Offenlegung vollkommen sein wird und den Umfang dem Fachmann vollständig übermitteln wird. Zahlreiche spezielle Einzelheiten werden als Beispiele spezifischer Komponenten, Vorrichtungen und Verfahren bekannt gemacht, um ein gründliches Verständnis von Ausführungsformen der vorliegenden Offenlegung zu bewirken. Dem Fachmann erschließt sich, dass spezielle Einzelheiten nicht angewendet werden müssen, dass beispielhafte Ausführungsformen in vielen unterschiedlichen Formen verkörpert werden können und ebenso wenig als den Umfang der Offenlegung einzuschränken, aufgefasst werden sollen.
  • In einigen beispielhaften Ausführungsformen sind bekannte Prozesse, bekannte Vorrichtungsstrukturen und bekannte Technologien nicht ausführlich beschrieben. Äquivalente Änderungen, Modifizierungen und Abweichungen einiger Ausführungsformen, Werkstoffe, Zusammensetzungen und Verfahren können innerhalb des Umfangs der vorliegenden Technologie mit im Wesentlichen ähnlichen Ergebnissen vorgenommen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6452134 B2 [0004, 0020]
    • US 6243621 B1 [0019]
    • US 7211178 B2 [0022]

Claims (24)

  1. Verfahren zum Touch-Sensing zur Bereitstellung eines aktualisierten User-Frames, wobei das Verfahren umfasst: Bereitstellen eines User-Frames; Touch-Sensing eines Werkstücks, wobei das Touch-Sensing ein Laser-Touch-Sensing-Ereignis umfasst; Bestimmen einer Versetzung des Werkstücks relativ zum User-Frame, basierend auf dem Touch-Sensing des Werkstücks; und Anwenden der Versetzung auf das User-Frame zur Bereitstellung des aktualisierten User-Frames.
  2. Verfahren nach Anspruch 1, wobei Touch-Sensing des Werkstücks die Verwendung eines Roboters mit einem Roboterarm umfasst, wobei der Roboterarm einen Laser-Touch-Sensor und einen Draht-Touch-Sensor aufweist.
  3. Verfahren nach Anspruch 2, wobei Touch-Sensing des Werkstücks das gleichzeitige Ausführen des Laser-Touch-Sensing-Ereignisses und eines Draht-Touch-Sensing-Ereignisses unter Verwendung des Roboters umfasst.
  4. Verfahren nach Anspruch 1, wobei Touch-Sensing des Werkstücks eine Vielzahl von Touch-Sensing-Ereignissen umfasst.
  5. Verfahren nach Anspruch 4, wobei die Vielzahl von Touch-Sensing-Ereignissen eine Vielzahl von Laser-Touch-Sensing-Ereignissen umfasst.
  6. Verfahren nach Anspruch 4, wobei die Vielzahl von Touch-Sensing-Ereignissen durch einen einzelnen Roboter ausgeführt werden.
  7. Verfahren nach Anspruch 6, wobei der einzelne Roboter einen Roboterarm aufweist und der Roboterarm einen Laser-Touch-Sensor und einen Draht-Touch-Sensor einschließt.
  8. Verfahren nach Anspruch 4, wobei die Vielzahl von Touch-Sensing-Ereignissen durch eine Vielzahl von Robotern ausgeführt wird.
  9. Verfahren nach Anspruch 8, wobei zumindest ein Roboter einen Roboterarm aufweist und der Roboterarm einen Laser-Touch-Sensor und einen Draht-Touch-Sensor einschließt.
  10. Verfahren nach Anspruch 4, wobei die Vielzahl von Touch-Sensing-Ereignissen das Umschalten von einem des Laser-Touch-Sensing-Ereignisses und eines Draht-Touch-Sensing-Ereignisses zu dem anderen des Laser-Touch-Sensing-Ereignisses und des Draht-Touch-Sensing-Ereignisses umfasst.
  11. Verfahren nach Anspruch 10, wobei die Vielzahl von Touch-Sensing-Ereignissen eine Vielzahl von Laser-Touch-Sensing-Ereignissen und eine Vielzahl von Draht-Touch-Sensing-Ereignissen umfasst.
  12. Verfahren nach Anspruch 10, wobei die Vielzahl von Touch-Sensing-Ereignissen durch einen einzelnen Roboter ausgeführt wird.
  13. Verfahren nach Anspruch 12, wobei der einzelne Roboter einen Roboterarm aufweist und der Roboterarm einen Laser-Touch-Sensor oder und einen Draht-Touch-Sensor umfasst.
  14. Verfahren nach Anspruch 10, wobei die Vielzahl von Touch-Sensing-Ereignissen durch eine Vielzahl von Robotern ausgeführt wird.
  15. Verfahren nach Anspruch 14, wobei zumindest ein Roboter einen Roboterarm aufweist und der Roboterarm einen Laser-Touch-Sensor und einen Draht-Touch-Sensor umfasst.
  16. Verfahren nach Anspruch 4, wobei die Vielzahl von Touch-Sensing-Ereignissen einen Touch-Sensing-Zeitplan aufweist.
  17. Verfahren nach Anspruch 16, wobei der Touch-Sensing-Zeitplan ein Draht-Touch-Sensing-Ereignis umfasst.
  18. Verfahren nach Anspruch 17, wobei das Draht-Touch-Sensing-Ereignis mit dem Laser-Touch-Sensing-Ereignis umgeschaltet wird.
  19. Verfahren nach Anspruch 4, des Weiteren umfassend ein Element, das aus der Gruppe ausgewählt ist, die aus: Umschalten einer Vielzahl von Laser-Touch-Sensing-Ereignissen zu einer Vielzahl von Draht-Touch-Sensing-Ereignissen; Umschalten einer Vielzahl von Draht-Touch-Sensing-Ereignissen zu einer Vielzahl von Laser-Touch-Sensing-Ereignissen; und einer Kombination davon besteht.
  20. Verfahren nach Anspruch 1, wobei Touch-Sensing des Werkstücks die Verwendung eines Führungsroboters einschließt und das Verfahren des Weiteren das Bereitstellen des aktualisierten User-Frames für einen Folgeroboter umfasst.
  21. Verfahren nach Anspruch 20, wobei der Führungsroboter einen Roboterarm aufweist und der Roboterarm einen Laser-Touch-Sensor und einen Draht-Touch-Sensor enthält.
  22. Verfahren nach Anspruch 1, wobei das aktualisierte User-Frame relativ zum Frame des führenden Elements ist, das für mindestens ein Robotersteuerelement vorgesehen ist, wobei das mindestens eine Robotersteuerelement das aktualisierte User-Frame anwendet.
  23. Verfahren zum Touch-Sensing zur Bereitstellung eines aktualisierten User-Frames, wobei das Verfahren umfasst: Bereitstellen eines User-Frames; Touch-Sensing eines Werkstücks, wobei das Touch-Sensing das Ausführen eines Touch-Sensing-Zeitplans umfasst, der Touch-Sensing-Zeitplan eines von einem Laser-Touch-Sensing-Ereignis und einem Draht-Touch-Sensing-Ereignis einschließt; Umschalten des einen von dem Laser-Touch-Sensing-Ereignis und dem Draht-Touch-Sensing-Ereignis zu dem anderen des Laser-Touch-Sensing-Ereignisses und des Draht-Touch-Sensing-Ereignisses, während der Touch-Sensing-Zeitplan ausgeführt wird; Bestimmen einer Versetzung des Werkstücks relativ zum User-Frame, basierend auf dem Touch-Sensing des Werkstücks; und Anwenden der Versetzung auf das User-Frame zur Bereitstellung des aktualisierten User-Frames.
  24. Verfahren nach Anspruch 23, wobei das aktualisierte User-Frame relativ zum Frame des führenden Elements ist, das für mindestens ein Robotersteuerelement vorgesehen ist, wobei das mindestens eine Robotersteuerelement das aktualisierte User-Frame anwendet.
DE102017112454.3A 2016-06-03 2017-06-06 Dynamisches Laser-Touch-Sensing mit dynamischem Multiroboter-User-Frame Pending DE102017112454A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662345221P 2016-06-03 2016-06-03
US62/345,221 2016-06-03

Publications (1)

Publication Number Publication Date
DE102017112454A1 true DE102017112454A1 (de) 2017-12-07

Family

ID=60327782

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017112454.3A Pending DE102017112454A1 (de) 2016-06-03 2017-06-06 Dynamisches Laser-Touch-Sensing mit dynamischem Multiroboter-User-Frame

Country Status (4)

Country Link
US (1) US10639791B2 (de)
JP (2) JP2018012188A (de)
CN (1) CN107457793B (de)
DE (1) DE102017112454A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10905508B2 (en) * 2015-08-25 2021-02-02 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
JP6669714B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 教示操作盤およびロボット制御システム
CN108332693B (zh) * 2017-12-29 2022-09-13 日照市越疆智能科技有限公司 坐标差值检测方法和检测系统
CN110427122A (zh) * 2019-07-10 2019-11-08 北京云迹科技有限公司 基于激光传感器的触摸控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243621B1 (en) 1998-03-13 2001-06-05 Fanuc Robotics North America, Inc. Method of determining workpiece positions including coordinated motion
US6452134B2 (en) 2000-02-11 2002-09-17 Samsung Electronics, Co., Ltd. Method for correcting teaching points for welding robot and welding robot system employing the same
US7211178B2 (en) 2003-06-06 2007-05-01 Rolls-Royce Deutschland Ltd & Co Kg Fixture for electro-chemical machining

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2783456B2 (ja) * 1990-11-16 1998-08-06 ファナック株式会社 ロボットの座標系設定方式
JPH09183087A (ja) * 1995-12-28 1997-07-15 Komatsu Ltd 作業ロボット装置
US6226395B1 (en) * 1996-04-22 2001-05-01 Malcolm T. Gilliland Method and apparatus for determining the configuration of a workpiece
JP3384335B2 (ja) * 1998-09-02 2003-03-10 松下電器産業株式会社 自動組立装置および自動組立方法
US6812665B2 (en) * 2002-04-19 2004-11-02 Abb Ab In-process relative robot workcell calibration
GB0309662D0 (en) * 2003-04-28 2003-06-04 Crampton Stephen Robot CMM arm
CN101135553A (zh) * 2007-10-17 2008-03-05 吴茹菲 一种光电位移传感器及位移测量方法
JP5366018B2 (ja) * 2010-04-28 2013-12-11 株式会社安川電機 ロボットの教示手順校正装置および方法
TW201241713A (en) * 2011-04-12 2012-10-16 Raydium Semiconductor Corp Method for updating baseline output values of touch panel
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
KR20130113181A (ko) * 2012-04-05 2013-10-15 삼성전자주식회사 터치 감지 장치 및 그것의 제어 방법
CN102699483A (zh) * 2012-06-21 2012-10-03 洪峰 火焰开坡口机器人自动镭射纠偏系统
US9339932B2 (en) * 2012-11-14 2016-05-17 Fanuc America Corporation Teaching point program selection method for robot simulator
US9417625B2 (en) * 2012-11-29 2016-08-16 Fanuc America Corporation Robot system calibration method
CN103192165A (zh) * 2013-03-20 2013-07-10 黑龙江科技学院 基于视觉跟踪的六自由度焊接机器人
JP2014200858A (ja) * 2013-04-02 2014-10-27 パナソニック株式会社 ロボットシステムの制御方法
US9448637B2 (en) * 2013-05-01 2016-09-20 Intel Corporation Detection of and response to extra-device touch events
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
JP2015217451A (ja) * 2014-05-14 2015-12-07 ファナック株式会社 外力監視機能を有するワーク搬送方法システム
US10616080B2 (en) * 2014-11-26 2020-04-07 Fanuc America Corporation System for diagnosis of robot state
CN204414117U (zh) * 2014-12-08 2015-06-24 湖北汽车工业学院 一种视觉定位焊接机器人

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243621B1 (en) 1998-03-13 2001-06-05 Fanuc Robotics North America, Inc. Method of determining workpiece positions including coordinated motion
US6452134B2 (en) 2000-02-11 2002-09-17 Samsung Electronics, Co., Ltd. Method for correcting teaching points for welding robot and welding robot system employing the same
US7211178B2 (en) 2003-06-06 2007-05-01 Rolls-Royce Deutschland Ltd & Co Kg Fixture for electro-chemical machining

Also Published As

Publication number Publication date
CN107457793A (zh) 2017-12-12
JP2018012188A (ja) 2018-01-25
CN107457793B (zh) 2023-05-12
US10639791B2 (en) 2020-05-05
JP2022132251A (ja) 2022-09-07
JP7411024B2 (ja) 2024-01-10
US20170348853A1 (en) 2017-12-07

Similar Documents

Publication Publication Date Title
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
DE102015107436B4 (de) Lernfähige Bahnsteuerung
EP2392435B1 (de) Werkstück-Handhabungssystem und Verfahren zum Manipulieren von Werkstücken mittels kooperierender Manipulatoren
DE102012218297B4 (de) Verfahren zur dynamischen Optimierung einer Robotersteuerschnittstelle
EP1750909B1 (de) Verfahren zur robotergestützten vermessung von messobjekten
DE112010000794B4 (de) Verfahren zum Steuern eines Roboterwerkzeuges
DE102017112454A1 (de) Dynamisches Laser-Touch-Sensing mit dynamischem Multiroboter-User-Frame
DE102006061752A1 (de) Roboter und Verfahren zum Programmieren eines Roboters
EP3221094B1 (de) Verfahren und system zur korrektur einer bearbeitungsbahn eines robotergeführten werkzeugs
DE102019001207A1 (de) Kollaborativer Roboter und Verfahren zum Betreiben eines kollaborativen Roboters und Verwendung zum Bearbeiten eines Werkstücks
DE102011014299A1 (de) Verfahren und Mittel zum Steuern einer Automatisierungseinrichtung, insbesodere eines Roboters
DE102021201918A1 (de) Vorrichtung und Verfahren zum Steuern ein oder mehrerer Roboter
DE102012022190B4 (de) Inverse Kinematik
DE102019000890A1 (de) Robotersystem zum Ausführen einer Lernsteuerung basierend auf Bearbeitungsergebnissen und diesbezügliches Steuerverfahren
DE102014018912A1 (de) Vorrichtung und Verfahren zur Positionsermittlung eines Endeffektors eines Roboters
DE112017004633T5 (de) Simulationsvorrichtung, Simulationsverfahren und Simulationsprogramm
DE102008062623A1 (de) Verfahren und Vorrichtung zur Auswahl einer gespeicherten Position eines Arbeitspunktes eines Manipulators
DE102017010678B4 (de) Verfahren und System zum Vorgeben eines Beaufschlagungsmuster-Befehls-Lexikons zur Eingabe wenigstens eines Roboterbefehls
DE102018124671A1 (de) Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
DE102017107593B4 (de) Verfahren zum Bestimmen unbekannter Transformationen
DE202019104426U1 (de) Bearbeitung eines Werkstücks durch einen Robotermanipulator mittels CAD-Modell
WO2020178435A1 (de) Verfahren, system sowie nichtflüchtiges speichermedium
EP3752327A1 (de) Koordinierungsanlage, handhabungseinrichtung und verfahren
DE102015016255A1 (de) Iteratives Programmieren eines Prozesses einer beweglichen Maschine, insbesondere eines Roboters

Legal Events

Date Code Title Description
R012 Request for examination validly filed