DE112019002310T5 - Ausführen einer "peg in hole"-aufgabe mit unbekannter neigung - Google Patents

Ausführen einer "peg in hole"-aufgabe mit unbekannter neigung Download PDF

Info

Publication number
DE112019002310T5
DE112019002310T5 DE112019002310.1T DE112019002310T DE112019002310T5 DE 112019002310 T5 DE112019002310 T5 DE 112019002310T5 DE 112019002310 T DE112019002310 T DE 112019002310T DE 112019002310 T5 DE112019002310 T5 DE 112019002310T5
Authority
DE
Germany
Prior art keywords
component
robot
time series
series data
robot system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112019002310.1T
Other languages
English (en)
Other versions
DE112019002310B4 (de
Inventor
Takayuki Yoshizumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112019002310T5 publication Critical patent/DE112019002310T5/de
Application granted granted Critical
Publication of DE112019002310B4 publication Critical patent/DE112019002310B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39342Adaptive impedance control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39343Force based impedance control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40032Peg and hole insertion, mating and joining, remote center compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

Bereitgestellt wird ein durch ein Robotersystem zum Durchführen eines Positionssuchprozesses in einer Fügeaufgabe ausgeführtes computerimplementiertes Verfahren. Das Verfahren umfasst Ausüben von Kräften auf eine in eine zweite Komponente einzufügende erste Komponente, Erfassen der auf die erste Komponente ausgeübten Kräfte durch Einsetzen einer Mehrzahl an einem Roboterarm des Robotersystems angebrachter Kraftsensoren, Extrahieren von Trainingsproben, die den auf die erste Komponente ausgeübten Kräften entsprechen, Normalisieren von Zeitreihendaten für jede der Trainingsproben durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung, Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten, Anwenden der Variablentransformation mit unterschiedlichen Richtungen für eine Testprobe und Berechnen eines Übereinstimmungsverhältnisses zwischen dem erstellten Zeitreihen-Vorhersagemodell und der transformierten Testprobe.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft allgemein robotergestütztes Fügen und insbesondere das Ausführen einer „Peg in Hole“- („Bolzen in Bohrung“-) Aufgabe mit unbekannter Neigung.
  • Beschreibung des verwandten Standes der Technik
  • Im Laufe der Jahre hat die Verlagerung von Fertigungsanforderungen hin zu hoher Flexibilität, kurzer Produktionszykluszeit und hohem Durchsatz das Entstehen intelligenter Fertigungssysteme ermöglicht. Herkömmliche Industrieroboter verfügen über eine hohe Wiederholgenauigkeit, jedoch kann es ihnen an Anpassbarkeit und Flexibilität mangeln. In Fertigungsprozessen ändert sich das Umfeld ständig, und zu verarbeitende Teile und/oder Komponenten können aus unterschiedlichen Chargen und von verschiedenen Lieferanten kommen. All diese Schwankungen können herkömmlichen Industrierobotern beim Durchführen verschiedener Fertigungsprozesse Schwierigkeiten bereiten. Aufgrund hoher Anforderungen an die Fertigung und der Einschränkungen herkömmlicher Industrieroboter wurden in der Roboterprogrammierung intensive menschliche Anstrengungen unternommen.
  • KURZDARSTELLUNG
  • Gemäß einer Ausführungsform wird ein durch ein Robotersystem zum Durchführen eines Positionssuchprozesses in einer Fügeaufgabe ausgeführtes computerimplementiertes Verfahren bereitgestellt. Das computerimplementierte Verfahren umfasst Ausüben von Kräften auf eine in eine zweite Komponente einzufügende erste Komponente, Erfassen der auf die erste Komponente ausgeübten Kräfte durch Einsetzen einer Mehrzahl an einem Roboterarm des Robotersystems angebrachter Kraftsensoren, Extrahieren von Trainingsproben, die den auf die erste Komponente ausgeübten Kräften entsprechen, Normalisieren von Zeitreihendaten für jede der Trainingsproben durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung, Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten, Anwenden der Variablentransformation mit unterschiedlichen Richtungen für eine Testprobe und Berechnen eines Übereinstimmungsverhältnisses zwischen dem erstellten Zeitreihen-Vorhersagemodell und der transformierten Testprobe.
  • Gemäß einer weiteren Ausführungsform wird ein Robotersystem zum Durchführen eines Positionssuchprozesses in einer Fügeaufgabe bereitgestellt. Das Robotersystem umfasst einen Roboterarm und ein mit dem Roboterarm in Datenübertragungsverbindung stehendes Steuersystem, wobei das Steuersystem ausführbare Programmanweisungen speichert, um den Roboterarm zu veranlassen, die Schritte Ausüben von Kräften auf eine in eine zweite Komponente einzufügende erste Komponente, Erfassen der auf die erste Komponente ausgeübten Kräfte durch Einsetzen einer Mehrzahl an dem Roboterarm angebrachter Kraftsensoren, Extrahieren von Trainingsproben, die den auf die erste Komponente ausgeübten Kräften entsprechen, Normalisieren von Zeitreihendaten für jede der Trainingsproben durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung, Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten, Anwenden der Variablentransformation mit unterschiedlichen Richtungen für eine Testprobe und Berechnen eines Übereinstimmungsverhältnisses zwischen dem erstellten Zeitreihen-Vorhersagemodell und der transformierten Testprobe durchzuführen.
  • Gemäß einer weiteren Ausführungsform wird ein Robotersystem bereitgestellt. Das Robotersystem umfasst einen Roboter, der so konstruiert ist, dass er eine erste Komponente an eine zweite Komponente fügt, mindestens einen mit dem Roboter verbundenen Sensor, ein mit dem Roboter und dem mindestens einen Sensor in Datenübertragungsverbindung stehendes Steuersystem, wobei das Steuersystem ausführbare Programmanweisungen zum Ausführen von Fügebewegungen des Roboters speichert, und eine Lerneinheit, die mit dem Steuersystem in Datenübertragungsverbindung steht und betriebsfähig ist, den Roboter über das Steuersystem zu lenken. Das Steuersystem führt die Schritte Extrahieren von Trainingsproben, die auf die erste Komponente ausgeübten Kräften entsprechen, Normalisieren von Zeitreihendaten für jede der Trainingsproben durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung, Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten, Anwenden der Variablentransformation mit unterschiedlichen Richtungen für eine Testprobe und Berechnen eines Übereinstimmungsverhältnisses zwischen dem erstellten Zeitreihen-Vorhersagemodell und der transformierten Testprobe durch.
  • Des Weiteren können Ausführungsformen die Form eines zugehörigen Computerprogrammprodukts annehmen, das von einem computerverwendbaren oder computerlesbaren Medium, das Programmcode zur Verwendung bereitstellt, durch oder in Verbindung mit einem Computer oder einem beliebigen Befehlsausführungssystem abgerufen werden kann. Für die Zwecke dieser Beschreibung kann es sich bei einem computerverwendbaren oder computerlesbaren Medium um eine beliebige Vorrichtung handeln, die Mittel zum Speichern, Übertragen, Verbreiten oder Transportieren des Programms zur Verwendung durch oder in Verbindung mit dem Befehlsausführungssystem, einer solchen Vorrichtung oder einer solchen Einheit enthalten kann.
  • Diese und weitere Merkmale und Vorteile werden aus der nachstehenden ausführlichen Beschreibung veranschaulichender Ausführungsformen ersichtlich, die in Zusammenschau mit den begleitenden Zeichnungen zu lesen ist.
  • Figurenliste
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsformen werden Einzelheiten zur Erfindung unter Bezugnahme auf die nachfolgenden Figuren angegeben, wobei:
    • 1 ein Blockschaubild bzw. Ablaufplan eines beispielhaften Robotersystems gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 2 ein Blockschaubild bzw. Ablaufplan eines beispielhaften Robotersystems in einer Fertigungszelle gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 3 ein Blockschaubild bzw. Ablaufplan einer zur Beschreibung des Robotersystems eingesetzten beispielhaften „Peg in Hole“-Fügung gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 4 eine Querschnittsansicht eines erfolgreichen Einfügens einer ersten Komponente in eine zweite Komponente über einen Roboterarm des Robotersystems gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 5 ein Blockschaubild bzw. Ablaufplan einer beispielhaften Trainingsphase und Testphase gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 6 ein Blockschaubild bzw. Ablaufplan beispielhafter Schätzungsergebnisse der Neigungsrichtung gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 7 ein Blockschaubild bzw. Ablaufplan eines beispielhaften Verfahrens zum Durchführen eines Positionssuchprozesses in einer Fügeaufgabe gemäß einer Ausführungsform der vorliegenden Erfindung ist; und
    • 8 ein Blockschaubild bzw. Ablaufplan eines beispielhaften Verfahrens zum Manipulieren von Trainingsproben und Testproben zum Erfüllen der „Peg in Hole“-Aufgabe gemäß einer Ausführungsform der vorliegenden Erfindung ist.
  • In den Zeichnungen bezeichnen gleiche oder ähnliche Bezugszeichen gleiche oder ähnliche Elemente.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen gemäß der vorliegenden Erfindung stellen Verfahren und Einheiten zum Einsetzen eines Robotersystems bereit. Das Robotersystem wird gesteuert, um Fügeprozesse anzuwenden. Ein Fügeprozess umfasst Fügen einer ersten Komponente an eine zweite Komponente. Der Fügeprozess kann allgemein zwei Hauptphasen umfassen. Bei der ersten Phase handelt es sich um eine Suchphase und bei der zweiten Phase um eine Einfügungsphase. In der Suchphase wird die erste Komponente in einen Passbereich gebracht. In der Einfügungsphase erfolgt ein Zusammenfügen der ersten Komponente und der zweiten Komponente. Robotersysteme sind dynamische Systeme. Die meisten dynamischen Systeme sind komplex, nichtlinear und zeitvariant. Für dynamische Systeme kann eine Vielfalt von Steuermethoden eingesetzt werden. Eine solche Methode umfasst Einsetzen von Trainingsproben, die mit Testproben verglichen werden, um eine „Peg in Hole“-Aufgabe zu erfüllen.
  • Ausführungsformen gemäß der vorliegenden Erfindung stellen Verfahren und Einheiten zum Implementieren von Robotersystemen mit bestmöglichen Betriebsbedingungen auf der Grundlage von Lern- oder Trainingsmethoden bereit. Das Robotersystem kann „Learning by Doing“ betreiben, indem es Lern- oder Trainingsrückmeldungen einsetzt, die im Speicher abgelegt und aktuellen Bedingungen entsprechend zur Verfügung gestellt werden. Wenn beispielsweise zwei Teile zusammengefügt werden sollen, werden die beiden Teile zusammen mit ihren besten Bedingungen identifiziert, um eine bestmögliche Fügestrategie zu ermitteln.
  • Es wird angemerkt, dass die vorliegende Erfindung hinsichtlich einer gegebenen veranschaulichenden Architektur beschrieben wird, jedoch innerhalb des Umfangs der vorliegenden Erfindung Abweichungen hiervon durch andere Architekturen, Strukturen, Substratmaterialien und Prozessmerkmale und Schritte/Blöcke möglich sind. Es ist zu beachten, dass bestimmte Merkmale aus Gründen der Klarheit nicht in allen Figuren gezeigt werden können. Dies ist nicht als Einschränkung einer jeweiligen Ausführungsform oder Darstellung oder des Umfangs der Ansprüche auszulegen.
  • Es wird nun auf die Zeichnungen Bezug genommen, in welchen gleiche Bezugszeichen gleiche oder ähnliche Elemente bezeichnen, wobei zunächst 1 ein Blockschaubild bzw. einen Ablaufplan eines beispielhaften Robotersystems gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Das Blockschaubild 10 zeigt ein Robotersystem 12, das mit einem Steuersystem 14 in Datenübertragungsverbindung steht. Das Robotersystem 12 kann einen oder mehrere Roboter umfassen. Das Steuersystem 14 steht mit einem Trainings-/Lernsystem 15 und Sensoren 16 in Datenübertragungsverbindung. Das Steuersystem 14 tauscht ferner Daten mit Eingabeeinheiten 18 und Anzeigen 19 aus.
  • In einer beispielhaften Ausführungsform enthält das Steuersystem 14 eine dedizierte Robotersteuereinheit und eine Datenverarbeitungseinheit oder -steuereinheit 2.
  • Die Robotersteuereinheit und die Eingabeeinheiten 18 können mit der Datenverarbeitungssteuereinheit in Datenübertragungsverbindung stehen. In einer beispielhaften Ausführungsform betreibt die Robotersteuereinheit das Robotersystem 12 auf Grundlage von Daten, die durch die Datenverarbeitungssteuereinheit bereitgestellt werden, die Steuereingaben von einem weiteren System oder einer weiteren Einheit empfängt, z.B. den Eingabeeinheiten 18 und dem Trainings-/Lernsystem 15. Das Trainings-/Lernsystem 15 kann Betriebsbedingungen des Robotersystems 12 einstellen, damit das Robotersystem auf Grundlage von aus Lernmethoden abgeleiteten bestmöglichen Betriebsbedingungen eine optimale Leistung erbringen kann.
  • Das Steuersystem 14 kann auf Mikroprozessoren beruhen, und die durch dieses ausgeführten Programmanweisungen liegen in Form von in einem Arbeitsspeicher 4 gespeicherter Software vor. Alternativ ist es jedoch denkbar, dass einzelne oder alle Steuereinheiten und Programmanweisungen in Form einer beliebigen Kombination aus Software, Firmware und Hardware, einschließlich Zustandsmaschinen, vorliegen können und die Ausgabe diskreter Einheiten und/oder integrierter Schaltungen widerspiegeln können, die sich gemeinsam an einem bestimmten Ort befinden oder auf mehrere Orte verteilt sein können, darunter jegliche digitale und/oder analoge Einheiten, die so konfiguriert sind, dass sie dieselben oder ähnliche Ergebnisse erzielen wie eine auf Prozessoren beruhende Steuereinheit, die auf Software und/oder Firmware und/oder Hardware beruhende Anweisungen ausführt.
  • In einigen Ausführungsformen kann das Robotersystem 12 einen oder mehrere Sensoren 16 umfassen, z.B. zur Verwendung zum lokalen oder aus der Ferne erfolgenden Betreiben des Robotersystems 12, zum Erhöhen der Sicherheit und/oder für andere Zwecke. Die Sensoren 16 können in jeder geeigneten Form vorliegen, darunter z.B. visuelle Sensoren wie Kameras, akustische Sensoren, Infrarotsensoren oder eine oder mehrere andere Arten von Näherungssensoren, Mikrofone, Positionssensoren, Translations- und Rotationsgeschwindigkeitssensoren, Kraftsensoren und/oder beliebige andere Arten von Sensoren. Die Sensoren 16 stehen mit dem Steuersystem 14 in Datenübertragungsverbindung. In einigen Ausführungsformen kann das Steuersystem 14 eine Steuereinheit umfassen, die mit einem oder mehreren Sensoren 16 in Datenübertragungsverbindung steht, um die Ausgaben des einen oder der mehreren Sensoren 16 zu verarbeiten.
  • In einer beispielhaften Ausführungsform handelt es sich bei der Eingabeeinheit 18 um einen Joystick. In weiteren Ausführungsformen kann die Eingabeeinheit 18 in anderen Formen vorliegen, z.B. als Eingabestift. Die Eingabeeinheit 18 kann so konstruiert sein, dass der Benutzer die Bewegungen des Robotersystems 12 z.B. über das Steuersystem 14 steuern oder auslösen kann. In einigen Ausführungsformen kann die Eingabeeinheit 18 so konstruiert sein, dass sie eine Position, Richtung und/oder Geschwindigkeit von Dreh- und Verschiebebewegungen des Robotersystems 12, z.B. des Endeffektors 28 (2), auf Grundlage von Rückmeldungen steuert oder auslöst, die von dem Trainings-/Lernsystem 15 empfangen werden, um für das Robotersystem 12 bestmögliche Betriebsbedingungen zu erzielen.
  • In einigen Ausführungsformen umfasst das Robotersystem 12 eine oder mehrere Anzeigeeinheiten 19, die mit der Datenverarbeitungssteuereinheit des Steuersystems 14 in Datenübertragungsverbindung stehen. In einer beispielhaften Ausführungsform handelt es sich bei den Anzeigeeinheiten 19 gleichzeitig um Eingabeeinheiten, z.B. eine berührungsempfindliche Bildschirmanzeige. Die Anzeigeeinheiten 19 zeigen beispielsweise Roboterbewegungsdaten an und können zur Einstellung oder Feinabstimmung von Parametern oder Variablen eingesetzt werden, um auf Grundlage des Trainings-/Lernsystems 15 bestmögliche Betriebsbedingungen zu erhalten.
  • Das Trainings-/Lernsystem 15 lernt, das physische Interaktionsmodell besser zu verstehen und die Fügeaufgabe auszuführen. Das physische Interaktionsmodell betrifft z.B. zwischen dem Robotersystem 12 und der Umgebung ausgetauschte Kräfte und/oder Bewegungen. Das auf Gedächtnis beruhende System wird somit unter Verwendung von bestärkendem Lernen trainiert. Bestärkendes Lernen erfolgt durch Auswählen einer Aktion unter zerlegten Aktionen und Fügebewegungsaktionen in jedem Schritt des Positionssuchprozesses auf Grundlage von z.B. entsprechenden Kraft-Drehmoment-Daten, die von mindestens einem dem Robotersystem 12 zugehörigen Sensor 16 empfangen werden.
  • Die Problemstellung des verstärkenden Lernens kann betrachtet werden wie folgt:
  • Das Robotersystem 12 beobachtet den Umgebungszustand, um eine Aktion zu ermitteln, die das Robotersystem 12 ausführen möchte. Die Umgebung kann sich gemäß einer bestimmten Regel ändern, und ein Mensch kann die Umgebung durch eigenes Handeln ändern. Jedes Mal, wenn eine Aktion ausgeführt wird, wird ein Belohnungssignal zurückgesendet. Die Summe der künftigen Belohnungen gilt es zu maximieren. Das Lernen beginnt in einem Zustand, in dem ein durch die Aktion herbeizuführendes Ergebnis gänzlich unbekannt oder nur teilweise bekannt ist. Mit anderen Worten, das Robotersystem 12 kann das Ergebnis einer Aktion als Daten erst dann erhalten, wenn das Robotersystem 12 die Aktion tatsächlich ausführt. Dies bedeutet, dass eine optimale Aktion z.B. durch Versuch und Irrtum gesucht werden kann. Das Lernen kann von einem guten Ausgangspunkt aus begonnen werden, indem von einem Anfangszustand ausgegangen wird, in dem vorab bereits ein Lernen erfolgte. Beim bestärkenden Lernen erfolgt zusätzlich zu Bestimmung und Klassifizierung ein Lernen einer Aktion zur Aneignung eines Verfahrens zum Lernen einer geeigneten Aktion unter Berücksichtigung durch die Aktion verursachter Interaktionen mit der Umgebung, z.B. Lernen des Maximierens der künftig zu erzielenden Belohnung.
  • In einem Beispiel kann das bestärkende Lernen durch das Trainings-/Lernsystem 15 eingesetzt und beispielsweise durch Verfahren des Deep Machine Learning umgesetzt werden. Die beispielhaften Ausführungsformen der vorliegenden Erfindung können grundsätzlich auf Verfahren und Vorrichtungen des Deep Machine Learning gerichtet sein, die eine Manipulation eines Objekts durch einen Endeffektor eines Roboters betreffen. Einige Implementierungen sind darauf gerichtet, ein tiefes neuronales Netz wie beispielsweise ein neuronales Faltungsnetz (convolutional neural network, vorliegend auch als „CNN“ bezeichnet) dafür zu trainieren, eine Wahrscheinlichkeit vorherzusagen, mit der Bewegungsdaten für einen Endeffektor eines Roboters im erfolgreichen Fügen einer ersten Komponente an eine zweite Komponente durch den Endeffektor resultieren. Beispielsweise ermöglichen einige Implementierungen Anwenden zumindest der Folgenden als Eingabe in ein trainiertes tiefes neuronales Netz: (1) eines Bewegungsvektors, der eine in Frage kommende Bewegung eines Einfüge-Endeffektors eines Roboters definiert, und (2) eines Bilds, das zumindest einen Abschnitt des Arbeitsraums des Roboters erfasst; und auf Grundlage des Anwendens erfolgendes Erzeugen zumindest eines Maßes, das unmittelbar oder mittelbar eine Wahrscheinlichkeit angibt, mit der der Bewegungsvektor in erfolgreicher Einfügung der ersten Komponente in die zweite Komponente resultiert. Die vorhergesagte Wahrscheinlichkeit kann dann beim Ermitteln bestmöglicher Betriebsbedingungen und Überwachen der Leistung von Einfügungsversuchen durch das einen Einfüge-Endeffektor aufweisende Robotersystem verwendet werden, wodurch die Fähigkeit des Robotersystems verbessert wird, die erste Komponente erfolgreich in die zweite Komponente einzufügen.
  • Einige Implementierungen des Trainings-/Lernsystems 15 können z.B. auf die Nutzung des trainierten tiefen neuronalen Netzes zur Servosteuerung eines Endeffektors eines Roboters gerichtet sein, um eine erfolgreiche Einfügung der ersten Komponente in die zweite Komponente zu erreichen. Beispielsweise kann das trainierte tiefe neuronale Netz beim iterativen Aktualisieren von Bewegungssteuerbefehlen für einen oder mehrere Aktoren eines Roboters genutzt werden, die eine Position eines Einfüge-Endeffektors des Roboters steuern, und um zu ermitteln, wann Einfügungssteuerbefehle erzeugt werden sollen, um einen Einfügungsversuch durch den Einfüge-Endeffektor zu bewirken. In verschiedenen Implementierungen kann die Nutzung des trainierten tiefen neuronalen Netzes zur Servosteuerung des Einfüge-Endeffektors eine schnelles Feedback auf Roboterstörungen und/oder Bewegungen eines oder mehrerer Umgebungsobjekte und/oder Robustheit gegenüber ungenauen Roboterstellbewegungen ermöglichen. Das trainierte tiefe neuronale Netz kann zudem eine Verringerung der Anzahl an Störungen ermöglichen, um bestmögliche Betriebsbedingungen des Robotersystems 12 zu erzielen.
  • In einigen Implementierungen des Trainings-/Lernsystems 15 kann ein Verfahren bereitgestellt werden, das z.B. Erzeugen eines in Frage kommenden Endeffektor-Bewegungsvektors umfasst, der eine Bewegung definiert, um einen Einfüge-Endeffektor eines Roboters aus einer aktuellen Position in eine anschließende Position zu bewegen, die effizientere Fügestrategien ermöglicht. In einem Beispiel kann das Verfahren ferner Identifizieren eines aktuellen Bilds umfassen, das durch einen dem Robotersystem 12 zugehörigen visuellen Sensor aufgenommen wird und das den Einfüge-Endeffektor und mindestens ein Objekt in einer Umgebung des Robotersystems 12 erfasst. Das Verfahren kann ferner Anwenden des aktuellen Bilds und des in Frage kommenden Endeffektor-Bewegungsvektors als Eingabe in ein trainiertes neuronales Faltungsnetz und über das trainierte neuronale Faltungsnetz erfolgendes Erzeugen eines Maßes erfolgreicher Einfügungen des Objekts bei Anwendung der Bewegung umfassen. Das Maß wird auf Grundlage der Anwendung des Bilds und des Endeffektor-Bewegungsvektors auf das trainierte neuronale Faltungsnetz erzeugt.
  • In einigen Implementierungen des Trainings-/Lernsystems 15 kann ein Verfahren bereitgestellt werden, das z.B. Identifizieren einer Mehrzahl von Trainingsbeispielen umfasst, die auf Grundlage von Sensorausgaben eines oder mehrerer Roboter während einer Mehrzahl von Einfügungsversuchen der Roboter erzeugt wurden. Jedes der Trainingsbeispiele umfasst Trainingsbeispieleingabe und Trainingsbeispielausgabe. Die Trainingsbeispieleingabe jedes der Trainingsbeispiele umfasst: ein Bild für eine entsprechende Zeitinstanz eines entsprechenden Einfügungsversuchs der Einfügungsversuche, wobei das Bild einen Roboter-Endeffektor und ein oder mehrere Umgebungsobjekte zu der entsprechenden Zeitinstanz erfasst, und einen Endeffektor-Bewegungsvektor, der Bewegung des Endeffektors definiert, um sich von einer Zeitinstanzposition des Endeffektors zu der entsprechenden Zeitinstanz in eine Endposition des Endeffektors für den entsprechenden Einfügungsversuch zu bewegen. Die Trainingsbeispielausgabe jedes der Trainingsbeispiele kann z.B. eine Einfügungserfolg-Kennzeichnung umfassen, die den Erfolg des entsprechenden Einfügungsversuchs anzeigt. Das Verfahren umfasst ferner Trainieren des neuronalen Faltungsnetzes auf Grundlage der Trainingsbeispiele, um bestmögliche Betriebsbedingungen für das Robotersystem 12 zu erzielen.
  • In einigen Implementierungen des Trainings-/Lernsystems 15 umfasst das Trainieren des neuronalen Faltungsnetzes Anwenden der Trainingsbeispieleingabe eines bestimmten Trainingsbeispiels der Trainingsbeispiele auf das neuronale Faltungsnetz. In einigen dieser Implementierungen umfasst das Anwenden der Trainingsbeispieleingabe des bestimmten Trainingsbeispiels: Anwenden des Bilds des bestimmten Trainingsbeispiels als Eingabe auf eine Anfangsschicht (initial layer) des neuronalen Faltungsnetzes und Anwenden des Endeffektor-Bewegungsvektors des bestimmten Trainingsbeispiels auf eine zusätzliche Schicht (additional layer) des neuronalen Faltungsnetzes. Die zusätzliche Schicht kann der Anfangsschicht nachfolgen. In einigen dieser Implementierungen umfasst das Anwenden des Endeffektor-Bewegungsvektors auf die zusätzliche Schicht: Durchleiten des Endeffektor-Bewegungsvektors durch eine voll verbundene Schicht (fully connected layer), um eine Endeffektor-Bewegungsvektorausgabe zu erzeugen, und Verketten der Endeffektor-Bewegungsvektorausgabe mit einer vorhergehenden Ausgabe. Die vorhergehende Ausgabe kann von einer unmittelbar vorhergehenden Schicht des neuronalen Faltungsnetzes stammen, die der zusätzlichen Schicht unmittelbar vorhergeht und die der Anfangsschicht und einer oder mehreren Zwischenschichten (intermediary layer) des neuronalen Faltungsnetzes nachfolgt. Bei der Anfangsschicht kann es sich um eine Faltungsschicht (convolutional layer) und bei der unmittelbar vorhergehenden Schicht um eine Pooling-Schicht (pooling layer) handeln.
  • In einigen Implementierungen umfasst das Training Durchführen von Rückwärtspropagierung (backpropagation) an dem neuronalen Faltungsnetz auf Grundlage der Trainingsbeispielausgabe der Mehrzahl von Trainingsbeispielen. Die Funktion des Lern-/Trainingssystems 15 kann somit im Extrahieren z.B. einer nützlichen Regel, einer Wissensrepräsentation und eines Bestimmungskriteriums durch Analyse aus einem in das Lern-/Trainingssystem 15 eingegebenen Datensatz, Ausgeben von Bestimmungsergebnissen und Erlernen von Wissen (maschinelles Lernen) bestehen. Es wird angemerkt, dass verschiedenste Methoden des maschinellen Lernens zur Verfügung stehen, die sich grob in z.B. „überwachtes Lernen“ (supervised learning), „unüberwachtes Lernen“ (unsupervised learning) und „bestärkendes Lernen“ (reinforcement learning) klassifizieren lassen. Zur Implementierung dieser Methoden kann „tiefes Lernen“ (deep learning) eingesetzt werden, wie vorstehend erläutert wurde.
  • 2 ist ein Blockschaubild bzw. Ablaufplan eines beispielhaften Robotersystems in einer Fertigungszelle gemäß einer Ausführungsform der vorliegenden Erfindung.
  • In einer beispielhaften Ausführungsform kann es sich bei dem Robotersystem 12 um einen mehrachsigen Industrieroboter handeln, der z.B. in einer Arbeitszelle 20 angeordnet sein kann. Die Fügearbeit kann automatisiert sein und durch einen Nutzer initiiert werden. Beispielsweise kann das Robotersystem 12 durch Verwenden der Eingabeeinheiten 18 von einem beliebigen Ort außerhalb der Arbeitszelle 20 aus initiiert oder ausgelöst werden, um eine erste Komponente, generisch als Komponente 25 dargestellt, an eine zweite Komponente, generisch als Komponente 32 dargestellt, zu fügen, die z.B. auf einem Arbeitstisch oder einer Halterung 30 angeordnet ist. Beispielsweise kann das Robotersystem 12 betrieben werden, um die Komponente 25 in eine Öffnung 34 der Komponente 32 einzufügen. Das Robotersystem 12 kann erlernte Methoden verwenden, um auf Grundlage bestmöglicher Betriebsbedingungen optimal programmiert zu werden. Beispielsweise setzt das Robotersystem 12 aus dem Lernen/Training stammende Rückmeldungen, die im Arbeitsspeicher 4 gespeichert sind und entsprechend den gegebenen Bedingungen verfügbar gemacht werden, für kontinuierliche Einstellung oder Feinabstimmung von Arbeitsschritten auf ein optimales Niveau ein. In verschiedenen Ausführungsformen kann das Robotersystem 12 eine beliebige Form annehmen, die für die Anwendung, für die es eingesetzt wird, geeignet ist, und kann eine beliebige Art von Roboter sein, die dafür konstruiert ist, eine beliebige Art von Fertigungsarbeit oder andere Arbeitsschritte auszuführen.
  • In einer beispielhaften Ausführungsform kann das Robotersystem 12 einen Standfuß 26, eine mit dem Standfuß 26 verbundene und um diesen drehbare Schulter 24 und einen mit der Schulter 24 verbundenen Oberarm oder drehbaren Arm 22 umfassen. Der drehbare Arm 22 endet in einem drehbaren Endeffektor 28. In weiteren beispielhaften Ausführungsformen kann das Robotersystem 12 eine größere oder kleinere Anzahl an Gliedern und/oder Freiheitsgraden besitzen. In einer beispielhaften Ausführungsform ist der Endeffektor 28 so konfiguriert, dass er die Komponente 25 zur Fügung mit der Komponente 32 auf Grundlage von dem Trainings-/Lernsystem 15 empfangener Eingaben greift und manipuliert. In weiteren beispielhaften Ausführungsformen kann der Endeffektor 28 in anderen Formen vorliegen und kann so konfiguriert sein, dass er andere Arbeitsschritte durchführt, z.B. beliebige Arbeitsschritte, die mit der Komponente 25 zusammenhängen oder nicht zusammenhängen. Das Robotersystem 12 kann so konstruiert sein, dass es die Komponente 25 mit einer minimalen Anzahl an Schritten in und um die X-, Y- und Z-Achse wie z.B. in 3 veranschaulicht verschiebt und dreht.
  • In einigen beispielhaften Ausführungsformen kann zu dem Robotersystem 12 ein haptischer Feeback-Sensor 27 gehören. Der Sensor 27 kann in der Lage sein, Interaktionen zwischen der Komponente 25 und allem anderen in der unmittelbaren Umgebung zu erfassen, z.B. physische Interaktionen zwischen der Komponente 25 (z.B. während diese vom Robotersystem 12 gehalten wird) und der Komponente 32 oder zwischen der Komponente 25 und allem, was sich in Reichweite des Robotersystems 12 befindet. In einer beispielhaften Ausführungsform handelt es sich bei dem haptischen Feedback-Sensor 27 um einen Kraftsensor. In weiteren Ausführungsformen kann der haptische Feedback-Sensor 27 in anderen Formen vorliegen. Der Kraftsensor 27 kann mit dem Steuersystem 14 in Datenübertragungsverbindung stehen. In einer beispielhaften Ausführungsform kann der Sensor 27 an dem Robotersystem 12 gelagert sein, z.B. am Endeffektor 28. In weiteren Ausführungsformen kann der Sensor 27 an einem beliebigen geeigneten Ort oder an einem beliebigen geeigneten Merkmal des Robotersystems 12 oder der Komponente 25 gelagert sein.
  • 3 ist ein Blockschaubild bzw. Ablaufplan einer zur Beschreibung des Robotersystems eingesetzten beispielhaften „Peg in Hole“-Fügung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Einige Aspekte eines nichteinschränkenden Beispiels einer „Peg in Hole“-Fügung werden zur Beschreibung eines nichteinschränkenden Beispiels einer Ausführungsform der vorliegenden Erfindung eingesetzt. In 3 soll eine erste Komponente, nämlich ein Bolzen 25, in eine Bohrung 34 in einem Block 32 eingefügt werden. Bei schwierigen Fügeaufgaben, z.B. wenn das Passspiel zwischen dem Bolzen 25 und der Bohrung 34 gering ist und Schrägkanten am Bolzen 25 und der Bohrung 34 klein sind, kann manuelle Einfügung allein mittels teleoperierter Bewegung selbst mit haptischem Feedback schwierig sein. Beispielsweise kann schon eine geringfügige Fehlausrichtung zwischen den Komponenten zu einem Verkanten oder Verklemmen führen.
  • 4 ist eine Querschnittsansicht eines erfolgreichen Einfügens einer ersten Komponente in eine zweite Komponente über einen Roboterarm des Robotersystems gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Es wird gezeigt, wie die erste Komponente 25 erfolgreich in der Bohrung 34 der zweiten Komponente 32 aufgenommen wird. Die erste Komponente 25 ist so konfiguriert, dass sie mit den Innenwänden der zweiten Komponente 32 bündig abschließt. Dies wird durch das Trainings-/Lernsystem 15 erreicht. Einige Implementierungen des Trainings-/Lernsystems 15 können darauf gerichtet sein, ein tiefes neuronales Netz wie beispielsweise ein CNN so zu trainieren, dass das trainierte tiefe neuronale Netz dafür genutzt werden kann, ein Maß vorherzusagen, das die Wahrscheinlichkeit angibt, mit der Bewegungsdaten für einen Einfüge-Endeffektor eines Roboters in erfolgreicher Einfügung der ersten Komponente 25 in die zweite Komponente 32 resultieren. In einigen Implementierungen akzeptiert das trainierte tiefe neuronale Netz ein durch einen visuellen Sensor erzeugtes Bild und akzeptiert einen Endeffektor-Bewegungsvektor. Die Anwendung des Bilds und des Endeffektor-Bewegungsvektors auf das trainierte tiefe neuronale Netz kann verwendet werden, um über das tiefe neuronale Netz ein vorhergesagtes Maß zu erzeugen, dass ein Ausführen eines oder mehrerer Befehle zum Implementieren der per Bewegungsvektor definierten Bewegung und anschließendes Einfügen eine erfolgreiche Einfügung der ersten Komponente 25 in die zweite Komponente 32 bewirken werden. Einige Implementierungen sind auf die Nutzung des trainierten tiefen neuronalen Netzes zur Servosteuerung des Endeffektors eines Roboters gerichtet, um eine erfolgreiche Einfügung der ersten Komponente 25 in die zweite Komponente 32 mit einer minimalen Anzahl an Schritten auf Grundlage der von dem Trainings-/Lernsystem 15 empfangenen Rückmeldungen zu erreichen.
  • 5 ist ein Blockschaubild bzw. Ablaufplan einer beispielhaften Trainingsphase und Testphase gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Für die Dateneigenschaften werden folgende Annahmen getroffen:
  • Bei Daten handelt es sich um eine Zeitreihe von Daten, die durch Ausüben zufälliger xy-Kräfte für eine bestimmte Zeitspanne erhalten werden. Die Kräfte können durch eine Mehrzahl von Kraftsensoren gemessen werden.
  • Eine Trainingsprobe kann sechsdimensionale Zeitreihendaten enthalten, und die richtige Neigungsrichtung (θ) kann erhalten werden wie folgt:
    • Daten: inFx, inFy: Eingabekräfte in xy-Richtung.
    • Daten: Fx, Fy: Kraftsensorwerte zu xy-Richtungen.
    • Daten: Mx, My: Kraftsensormomente um xy-Achsen.
  • Falls eine Neigungsgröße geschätzt werden muss, kann auch eine richtige Neigungsgröße (ϕ) hinzugefügt werden.
  • In der Trainingsphase:
  • Für jede Trainingsprobe normalisiert das Verfahren Zeitreihendaten durch Anwenden einer Variablentransformation um die richtige Neigungsrichtung (θ) wie folgt: i n F x ' = i n F x  cos ( θ ) i n F x  sin ( θ )
    Figure DE112019002310T5_0001
    i n F y ' = i n F x  sin ( θ ) + i n F x  cos ( θ )
    Figure DE112019002310T5_0002
  • Die gleiche Variablentransformation wird für (Fx, Fy)- und (Mx, My)-Paare angewendet.
  • Nun kann ein Zeitreihenmodell aus transformierten Trainingsdaten aufgebaut oder erstellt werden.
  • Für ein Zeitreihen-Vorhersagemodell kann Vektorautoregression (VAR) verwendet werden.
  • Die transformierten Zeitreihendaten sollten dieselben oder ähnliche Eigenschaften wie Zeitreihendaten haben.
  • In der Testphase:
  • Für eine Testprobe wird die Variablentransformation mit unterschiedlichen Richtungen angewendet. (z.B. 10 Grad, 20 Grad, 30 Grad usw.).
  • Anschließend wird das Übereinstimmungsverhältnis zwischen dem in der Trainingsphase erstellten Modell und den jeweiligen transformierten Testdaten berechnet.
  • Für das Übereinstimmungsverhältnis kann die Summe der Quadrate jedes Zeitpunkts und jeder Dimension verwendet werden.
  • Als Ergebnis kann der Richtungswert mit dem besten Übereinstimmungswert als Schätzungsergebnis (Schätzung zur Neigungsrichtung) ausgegeben werden.
  • In der Trainingsphase 40 kann ein Satz Proben 42, 44, 46, 48 verarbeitet werden, um ein Zeitreihen-Vorhersagemodell aus transformierten Trainingsdaten 50 zu erstellen. Solche transformierten Trainingsdaten 50 werden mit mindestens einer Testprobe verglichen. In einer Testphase 60 wird somit eine Testprobe ausgewählt und eine Variablentransformationen mit unterschiedlichen Richtungen auf die ausgewählte Testprobe angewendet, um Schätzungsergebnisse 62, 64, 66, 68 auszugeben. Die Schätzungsergebnisse werden für unterschiedliche Neigungsrichtungen bereitgestellt (z.B. 10 Grad, 30 Grad, 350 Grad).
  • Die beispielhaften Ausführungsformen betreffen somit einen Steueralgorithmus für einen Roboter. Der Steueralgorithmus steuert die Einfügung eines Bolzens in eine Bohrung. Die „Peg in Hole“-Aufgabe verwendet Zeitreihen-Kraftsensorinformationen. Der Steueralgorithmus verarbeitet Zeitreihendaten durch Anwenden von Variablentransformation mit unterschiedlichen Richtungen auf Testproben und berechnet ein Übereinstimmungsverhältnis zwischen einem in der Trainingsphase aufgebauten Vorhersagemodell und den jeweiligen transformierten Testdaten. Mit anderen Worten, in einer Trainingsphase werden Trainingsdaten gewonnen und ein Zeitreihen-Vorhersagemodell erstellt. In einer Testphase wird anschließend eine Testprobe ausgewählt und eine Variablentransformationen mit unterschiedlichen Richtungen auf die ausgewählte Testprobe angewendet. Nun kann ein Übereinstimmungsverhältnis zwischen dem Zeitreihen-Vorhersagemodell und der Probe mit den transformierten Daten berechnet werden, um ein Schätzungsergebnis (Schätzung der Neigungsrichtung) zu erhalten.
  • 6 ist ein Blockschaubild bzw. Ablaufplan beispielhafter Schätzungsergebnisse der Neigungsrichtung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Bei dem Schaubild 70 handelt es sich um eine Seitenansicht und bei dem Schaubild 72 um eine Draufsicht auf ein Objekt 25, an dem z.B. durch einen Roboterarm eines Robotersystems ein Einfügungsversuch in eine durch die Komponente 32 definierte Bohrung 34 unternommen wird. Das Schaubild 70 veranschaulicht die Neigungsgröße (ϕ) und das Schaubild 72 die Neigungsrichtung (θ).
  • Das Schaubild 80 zeigt den Übereinstimmungsfehler als Funktion des relativen Winkels zur richtigen Richtung.
  • Die Tabelle 90 gibt den mittleren Schätzfehler für die Neigungsrichtung an. Selbst im ungünstigsten Fall beträgt die mittlere Vorhersagegenauigkeit weniger als 20 %.
  • 7 ist ein Blockschaubild bzw. Ablaufplan eines beispielhaften Verfahrens zum Durchführen eines Positionssuchprozesses in einer Fügeaufgabe gemäß einer Ausführungsform der vorliegenden Erfindung.
  • In Block 102 erfolgt für jede Trainingsprobe ein Normalisieren von Zeitreihendaten durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung (θ). Die Zeitreihendaten können von einer Mehrzahl von Kraftsensoren erhalten werden, die eine in verschiedenen Zeitspannen auf z.B. einen Bolzen ausgeübte Kraft messen.
  • In Block 104 erfolgt ein Aufbauen oder Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten.
  • In Block 106 erfolgt für eine Testprobe ein Anwenden der Variablentransformation mit unterschiedlichen Richtungen.
  • In Block 108 erfolgt ein Berechnen eines Übereinstimmungsverhältnisses zwischen dem in der Trainingsphase erstellten Modell und den jeweiligen transformierten Testdaten.
  • 8 ist ein Blockschaubild bzw. Ablaufplan eines beispielhaften Verfahrens zum Manipulieren von Trainingsproben und Testproben zum Erfüllen der „Peg in Hole“-Aufgabe gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Trainingsproben 110 werden in das Trainingsphasenmodul 120 eingegeben, welches mit einem Prozessor 122 und einem Arbeitsspeicher 124 Daten austauschen kann. Das Trainingsphasenmodul 120 gibt ein Zeitreihenmodell aus transformierten Trainingsdaten 130 aus, die anschließend dem Testphasenmodul 140 bereitgestellt werden. Das Testphasenmodul 140 kann mit einem Prozessor 142 und einem Arbeitsspeicher 144 Daten austauschen. Das Testphasenmodul 140 gibt Daten an eine Übereinstimmungsverhältnis-Berechnungseinheit 150 aus, die ihrerseits Schätzungsergebnisse 160 (zur Neigungsrichtung) an ein Robotersystem 170 ausgibt.
  • Die Beschreibungen der verschiedenen Ausführungsformen der vorliegenden Erfindung wurden für Zwecke der Veranschaulichung dargelegt, sind jedoch nicht als abschließend oder auf die beschriebenen Ausführungsformen beschränkt zu verstehen. Für den Fachmann sind viele Abwandlungen und Variationen ersichtlich, ohne vom Umfang und Grundgedanken der beschriebenen Ausführungsformen abzuweichen. Die vorliegend verwendete Terminologie wurde gewählt, um bestmöglich die eine oder die mehreren Ausführungsformen, die praktische Anwendung oder technische Verbesserung gegenüber den auf dem Markt befindlichen Technologien zu erklären oder um dem Fachmann das Verständnis der vorliegend beschriebenen Ausführungsformen zu ermöglichen.
  • Bei der vorliegenden Erfindung kann es sich um ein System, ein Verfahren und/oder ein Computerprogrammprodukt handeln. Das Computerprogrammprodukt kann (ein) durch einen Computer lesbare(s) Speichermedium (oder -medien) umfassen, auf dem/denen durch einen Computer lesbare Programmanweisungen gespeichert ist/sind, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
  • Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zur Verwendung durch eine Einheit zur Ausführung von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die Folgenden: eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM bzw. Flash-Speicher), ein statischer Direktzugriffsspeicher (SRAM), ein tragbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch codierte Einheit wie zum Beispiel Lochkarten oder gehobene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden, wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. ein Lichtwellenleiterkabel durchlaufende Lichtimpulse) oder durch einen Draht übertragene elektrische Signale.
  • Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetz und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server umfassen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs-/Verarbeitungseinheit weiter.
  • Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter eine objektorientierte Programmiersprache wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem fernen Computer oder vollständig auf dem fernen Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, vor Ort programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung durchzuführen.
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaltbilder bzw. Schaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Ablaufpläne und/oder der Blockschaltbilder sowie Kombinationen von Blöcken in den Ablaufplänen und/oder den Blockschaltbildern mittels durch einen Computer lesbarer Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können mindestens einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken oder Modulen der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt umfasst, darunter Anweisungen, die Aspekte der/des in dem Block bzw. den Blöcken oder Modulen des Ablaufplans und/oder der Blockschaltbilder bzw. Schaubilder angegebenen Funktion/Schritts umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Arbeitsblöcken/-schritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken oder Modulen der Ablaufpläne und/oder der Blockschaltbilder festgelegten Funktionen/Schritte umsetzen.
  • Die Ablaufpläne und die Blockschaltbilder bzw. Schaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaltbildern bzw. Schaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zur Ausführung der bestimmten logischen Funktion(en) enthalten. In einigen alternativen Ausführungen können die in den Blöcken angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaltbilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaltbildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Bezugnahmen in der Spezifikation auf „(genau) eine Ausführungsform“ oder „(irgend)eine Ausführungsform“ der vorliegenden Grundgedanken ebenso wie weitere Variationen davon bedeuten, dass ein bestimmtes Merkmal, eine Struktur, Eigenschaft und so weiter, das bzw. die in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform der vorliegenden Grundgedanken enthalten ist. Die an verschiedener Stelle der Spezifikation zu lesende Formulierung „in (genau) einer Ausführungsform“ oder „in (irgend)einer Ausführungsform“ sowie jegliche weiteren Variationen davon beziehen sich somit nicht unbedingt alle auf dieselbe Ausführungsform.
  • Es versteht sich, dass die Verwendung von „/“, „und/oder“ und „mindestens eine/r/s von“, beispielsweise in den Fällen „A/B“, „A und/oder B“ und „mindestens eines von A und B“, die Auswahl nur der ersten aufgeführten Option (A), die Auswahl nur der zweiten aufgeführten Option (B) oder die Auswahl beider Optionen (A und B) umfassen soll. Als weiteres Beispiel soll in den Fällen „A, B, und/oder C“ und „mindestens eines von A, B und C“ diese Formulierung die Auswahl nur der ersten aufgeführten Option (A) oder die Auswahl nur der zweiten aufgeführten Option (B) oder die Auswahl nur der dritten aufgeführten Option (C) oder die Auswahl nur der ersten und der zweiten aufgeführten Option (A und B) oder nur die Auswahl der ersten und der dritten aufgeführten Option (A und C) oder die Auswahl nur der zweiten und der dritten aufgeführten Option (B und C) oder die Auswahl aller drei Optionen (A und B und C) umfassen. Wie ein Fachmann erkennt, kann dies auf beliebig viele aufgeführte Elemente erweitert werden.
  • Nachdem bevorzugte Ausführungsformen eines Systems und Verfahrens zum Ausführen einer „Peg in Hole“-Aufgabe mit unbekannter Neigung (welche als veranschaulichend und nicht einschränkend aufzufassen sind) beschrieben wurden, wird angemerkt, dass ein Fachmann angesichts der vorstehenden Lehre Modifikationen und Variationen vornehmen kann. Es ist daher zu beachten, dass an den konkret beschriebenen Ausführungsformen Änderungen vorgenommen werden können, die im Umfang der Erfindung wie durch die beiliegenden Ansprüche umrissen enthalten sind. Nach den patentrechtlichen Anforderungen entsprechend ausführlicher und konkreter Beschreibung von Aspekten der Erfindung ist somit der beanspruchte Gegenstand, für den Patentschutz angestrebt wird, in den beiliegenden Ansprüchen dargelegt.

Claims (21)

  1. Durch ein Robotersystem zum Durchführen eines Positionssuchprozesses in einer Fügeaufgabe ausgeführtes computerimplementiertes Verfahren, wobei das Verfahren Folgendes umfasst: Ausüben von Kräften auf eine in eine zweite Komponente einzufügende erste Komponente, Erfassen der auf die erste Komponente ausgeübten Kräfte durch Einsetzen einer Mehrzahl an einem Roboterarm des Robotersystems angebrachter Kraftsensoren, Extrahieren von Trainingsproben, die den auf die erste Komponente ausgeübten Kräften entsprechen, Normalisieren von Zeitreihendaten für jede der Trainingsproben durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung, Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten, Anwenden der Variablentransformation mit unterschiedlichen Richtungen für eine Testprobe und Berechnen eines Übereinstimmungsverhältnisses zwischen dem erstellten Zeitreihen-Vorhersagemodell und der transformierten Testprobe.
  2. Verfahren nach Anspruch 1, ferner umfassend Ausgeben eines Richtungswerts mit einem besten Übereinstimmungswert als Schätzungsergebnis.
  3. Verfahren nach Anspruch 1, wobei die Zeitreihendaten sechsdimensionale Zeitreihendaten umfassen.
  4. Verfahren nach Anspruch 3, wobei ein Paar der Zeitreihendaten Eingabekräfte umfasst.
  5. Verfahren nach Anspruch 4, wobei ein weiteres Paar der Zeitreihendaten Kraftsensorwerte umfasst.
  6. Verfahren nach Anspruch 1, wobei ein weiteres Paar der Zeitreihendaten Kraftsensormomente umfasst.
  7. Verfahren nach Anspruch 1, wobei das Berechnen des Übereinstimmungsverhältnisses Ermitteln einer Summe aus Quadraten jedes Zeitpunkts umfasst, zu dem eine Kraft auf die erste Komponente ausgeübt wird.
  8. Robotersystem zum Durchführen eines Positionssuchprozesses in einer Fügeaufgabe, wobei das Robotersystem Folgendes aufweist: einen Roboterarm und ein mit dem Roboterarm in Datenübertragungsverbindung stehendes Steuersystem, wobei das Steuersystem ausführbare Programmanweisungen speichert, um den Roboterarm zu veranlassen, folgende Schritte durchzuführen: Ausüben von Kräften auf eine in eine zweite Komponente einzufügende erste Komponente, Erfassen der auf die erste Komponente ausgeübten Kräfte durch Einsetzen einer Mehrzahl an dem Roboterarm angebrachter Kraftsensoren, Extrahieren von Trainingsproben, die den auf die erste Komponente ausgeübten Kräften entsprechen, Normalisieren von Zeitreihendaten für jede der Trainingsproben durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung, Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten, Anwenden der Variablentransformation mit unterschiedlichen Richtungen für eine Testprobe und Berechnen eines Übereinstimmungsverhältnisses zwischen dem erstellten Zeitreihen-Vorhersagemodell und der transformierten Testprobe.
  9. Robotersystem nach Anspruch 8, wobei ein Richtungswert mit einem besten Übereinstimmungswert als Schätzungsergebnis ausgegeben wird.
  10. Robotersystem nach Anspruch 8, wobei die Zeitreihendaten sechsdimensionale Zeitreihendaten umfassen.
  11. Robotersystem nach Anspruch 10, wobei ein Paar der Zeitreihendaten Eingabekräfte umfasst.
  12. Robotersystem nach Anspruch 11, wobei ein weiteres Paar der Zeitreihendaten Kraftsensorwerte umfasst.
  13. Robotersystem nach Anspruch 12, wobei ein weiteres Paar der Zeitreihendaten Kraftsensormomente umfasst.
  14. Robotersystem nach Anspruch 8, wobei das Berechnen des Übereinstimmungsverhältnisses Ermitteln einer Summe aus Quadraten jedes Zeitpunkts umfasst, zu dem eine Kraft auf die erste Komponente ausgeübt wird.
  15. Robotersystem, das Folgendes aufweist: einen Roboter, der so konstruiert ist, dass er eine erste Komponente an eine zweite Komponente fügt, mindestens einen mit dem Roboter verbundenen Sensor, ein mit dem Roboter und dem mindestens einen Sensor in Datenübertragungsverbindung stehendes Steuersystem, wobei das Steuersystem ausführbare Programmanweisungen zum Ausführen von Fügebewegungen des Roboters speichert, und eine Lerneinheit, die mit dem Steuersystem in Datenübertragungsverbindung steht und betriebsfähig ist, den Roboter über das Steuersystem zu lenken, wobei das Steuersystem die folgenden Schritte durchführt: Extrahieren von Trainingsproben, die auf die erste Komponente ausgeübten Kräften entsprechen, Normalisieren von Zeitreihendaten für jede der Trainingsproben durch Anwenden einer Variablentransformation um eine richtige Neigungsrichtung, Erstellen eines Zeitreihen-Vorhersagemodells aus transformierten Trainingsdaten, Anwenden der Variablentransformation mit unterschiedlichen Richtungen für eine Testprobe und Berechnen eines Übereinstimmungsverhältnisses zwischen dem erstellten Zeitreihen-Vorhersagemodell und der transformierten Testprobe.
  16. Robotersystem nach Anspruch 15, wobei die Zeitreihendaten sechsdimensionale Zeitreihendaten umfassen.
  17. Robotersystem nach Anspruch 16, wobei ein Paar der Zeitreihendaten Eingabekräfte umfasst.
  18. Robotersystem nach Anspruch 17, wobei ein weiteres Paar der Zeitreihendaten Kraftsensorwerte umfasst.
  19. Robotersystem nach Anspruch 18, wobei ein weiteres Paar der Zeitreihendaten Kraftsensormomente umfasst.
  20. Robotersystem nach Anspruch 15, wobei das Berechnen des Übereinstimmungsverhältnisses Ermitteln einer Summe aus Quadraten jedes Zeitpunkts umfasst, zu dem eine Kraft auf die erste Komponente ausgeübt wird.
  21. Computerprogramm, das Programmcodemittel aufweist, die so eingerichtet sind, dass sie das Verfahren nach einem der Ansprüche 1 bis 7 durchführen, wenn das Programm auf einem Computer ausgeführt wird.
DE112019002310.1T 2018-07-19 2019-07-12 Ausführen einer "peg in hole"-aufgabe mit unbekannter neigung Active DE112019002310B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/039,879 US10953548B2 (en) 2018-07-19 2018-07-19 Perform peg-in-hole task with unknown tilt
US16/039,879 2018-07-19
PCT/IB2019/055961 WO2020016717A1 (en) 2018-07-19 2019-07-12 Perform peg-in-hole task with unknown tilt

Publications (2)

Publication Number Publication Date
DE112019002310T5 true DE112019002310T5 (de) 2021-02-18
DE112019002310B4 DE112019002310B4 (de) 2022-02-03

Family

ID=69162335

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019002310.1T Active DE112019002310B4 (de) 2018-07-19 2019-07-12 Ausführen einer "peg in hole"-aufgabe mit unbekannter neigung

Country Status (6)

Country Link
US (1) US10953548B2 (de)
JP (1) JP7196279B2 (de)
CN (1) CN112424703B (de)
DE (1) DE112019002310B4 (de)
GB (1) GB2588873B (de)
WO (1) WO2020016717A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021106990A1 (de) 2021-03-22 2022-09-22 Ferrobotics Compliant Robot Technology Gmbh Kraftgeregelte Handhabungsvorrichtung für die robotergestützte Oberflächenbearbeitung
DE102021109333A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109334A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109336A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109332A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Steuern eines Roboters zum Einsetzen eines Objekts in eine Einsetzstelle
DE102021126188A1 (de) 2021-10-08 2023-04-13 Dürr Systems Ag Überwachungsverfahren für einen Roboter und zugehörige Roboteranlage
DE112020006594B4 (de) 2020-04-28 2024-02-29 Yamaha Hatsudoki Kabushiki Kaisha Maschinenlernverfahren und Robotersystem

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018146770A1 (ja) * 2017-02-09 2018-08-16 三菱電機株式会社 位置制御装置及び位置制御方法
DE102017118985B4 (de) * 2017-04-23 2019-10-02 Franka Emika Gmbh Schraubvorrichtung
WO2020056301A1 (en) 2018-09-13 2020-03-19 The Charles Stark Draper Laboratory, Inc. Robot interaction with human co-workers
CN111618864B (zh) * 2020-07-20 2021-04-23 中国科学院自动化研究所 基于自适应神经网络的机器人模型预测控制方法
CN112757344B (zh) * 2021-01-20 2022-03-11 清华大学 基于力位状态映射模型的机器人过盈轴孔装配方法和装置
CN113747682B (zh) * 2021-09-07 2023-09-12 山东大学 一种机器人精密装配系统及方法
CN113878588B (zh) * 2021-11-12 2023-03-31 哈尔滨工业大学(深圳) 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法
CN113925607B (zh) * 2021-11-12 2024-02-27 上海微创医疗机器人(集团)股份有限公司 手术机器人操作训练方法、装置、系统、介质及设备
CN117817675B (zh) * 2024-03-06 2024-04-30 泓浒(苏州)半导体科技有限公司 基于时间序列晶圆搬运机械臂运动轨迹的预测方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258814A (ja) * 1996-03-22 1997-10-03 Kayaba Ind Co Ltd 組み立てロボットの位置決め制御装置及び位置決め制御方法
CN1170659C (zh) * 2000-10-24 2004-10-13 中国科学院合肥智能机械研究所 一种多传感器机器人手爪
US7181314B2 (en) 2003-11-24 2007-02-20 Abb Research Ltd. Industrial robot with controlled flexibility and simulated force for automated assembly
DE102010012598A1 (de) 2010-02-26 2011-09-01 Kuka Laboratories Gmbh Prozessmodulbibliothek und Programmierumgebung zur Programmierung eines Manipulatorprozesses
JP5915214B2 (ja) * 2012-02-01 2016-05-11 セイコーエプソン株式会社 ロボット装置、組立て方法、及び組立てプログラム
WO2014037999A1 (ja) 2012-09-04 2014-03-13 株式会社安川電機 ロボットの制御パラメータ調整方法、ロボットシステム、及びロボット制御装置
WO2014160086A2 (en) * 2013-03-14 2014-10-02 Board Of Regents Of The University Of Nebraska Methods, systems, and devices relating to robotic surgical devices, end effectors, and controllers
US9387589B2 (en) * 2014-02-25 2016-07-12 GM Global Technology Operations LLC Visual debugging of robotic tasks
JP2014166681A (ja) 2014-05-16 2014-09-11 Yaskawa Electric Corp ロボット教示システムおよびロボット教示方法
CN104626168B (zh) * 2014-12-16 2016-08-24 苏州大学 基于智能算法的机器人力位柔顺控制方法
JP2019516568A (ja) 2016-05-20 2019-06-20 グーグル エルエルシー 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置
CN106886165A (zh) 2017-03-10 2017-06-23 深圳市唯特视科技有限公司 一种基于模拟器的机械手抓取和操纵方法
CN107704495B (zh) * 2017-08-25 2018-08-10 平安科技(深圳)有限公司 主题分类器的训练方法、装置及计算机可读存储介质
CN107378955A (zh) * 2017-09-07 2017-11-24 云南电网有限责任公司普洱供电局 一种基于多传感器信息融合的配网检修机器人操作臂自主作业方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020006594B4 (de) 2020-04-28 2024-02-29 Yamaha Hatsudoki Kabushiki Kaisha Maschinenlernverfahren und Robotersystem
DE102021106990A1 (de) 2021-03-22 2022-09-22 Ferrobotics Compliant Robot Technology Gmbh Kraftgeregelte Handhabungsvorrichtung für die robotergestützte Oberflächenbearbeitung
DE102021109333A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109334A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109336A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109332A1 (de) 2021-04-14 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Steuern eines Roboters zum Einsetzen eines Objekts in eine Einsetzstelle
DE102021109334B4 (de) 2021-04-14 2023-05-25 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109336B4 (de) 2021-04-14 2023-06-01 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021109333B4 (de) 2021-04-14 2023-07-06 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021126188A1 (de) 2021-10-08 2023-04-13 Dürr Systems Ag Überwachungsverfahren für einen Roboter und zugehörige Roboteranlage
WO2023057591A1 (de) 2021-10-08 2023-04-13 Dürr Systems Ag Überwachungsverfahren für einen roboter und zugehörige roboteranlage

Also Published As

Publication number Publication date
CN112424703B (zh) 2023-01-31
US20200023520A1 (en) 2020-01-23
DE112019002310B4 (de) 2022-02-03
GB2588873B (en) 2021-10-13
WO2020016717A1 (en) 2020-01-23
GB2588873A (en) 2021-05-12
JP2021531177A (ja) 2021-11-18
CN112424703A (zh) 2021-02-26
GB202101713D0 (en) 2021-03-24
JP7196279B2 (ja) 2022-12-26
US10953548B2 (en) 2021-03-23

Similar Documents

Publication Publication Date Title
DE112019002310T5 (de) Ausführen einer "peg in hole"-aufgabe mit unbekannter neigung
DE102014108287B4 (de) Schnelles Erlernen durch Nachahmung von Kraftdrehmoment-Aufgaben durch Roboter
DE112017007025T5 (de) Positionssteuerungseinrichtung und positionssteuerungsverfahren
DE102018000730A1 (de) Werkstückaufnahmevorrichtung und Werkstückaufnahmeverfahren zum Verbessern des Aufnahmevorgangs eines Werkstücks
DE102017202717A1 (de) Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen
DE112019000097B4 (de) Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
DE102020207085A1 (de) Verfahren zum steuern eines roboters und robotersteuereinheit
DE102019006725A1 (de) Steuereinrichtung und Steuersystem
DE102021204697B4 (de) Verfahren zum Steuern einer Robotervorrichtung
DE102020214231A1 (de) Verfahren zum steuern einer robotervorrichtung und robotersteuereinrichtung
DE102020209685A1 (de) Verfahren zum steuern einer robotervorrichtung und robotervorrichtungssteuerung
DE102020214633A1 (de) Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
DE102020212658A1 (de) Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
DE19734947B4 (de) Verfahren zur Steuerung von Prozeßvorgängen
WO2020048664A1 (de) Steuervorrichtung für eine roboteranordnung, roboteranordnung, verfahren, computerprogramm und maschinenlesbares speichermedium
DE102020211648A1 (de) Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
DE102020210823A1 (de) Maschinen-Steueranordnung
DE102020206916A1 (de) Steuereinrichtung und Verfahren zum Auswählen von Auswertungspunkten für ein Bayessches Optimierungsverfahren
EP3741518A1 (de) Verfahren und vorrichtung für eine automatisierte beeinflussung eines aktuators
DE102021109333B4 (de) Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe
DE102021211185B4 (de) Vorrichtung und Verfahren zum Steuern eines Roboters
DE102020214177A1 (de) Vorrichtung und Verfahren zum Trainieren einer Steuerungsstrategie mittels bestärkendem Lernen
DE102022212638B3 (de) Vorrichtung und Verfahren zum Steuern eines Roboters
DE102022208082B3 (de) Verfahren zum Steuern eines technischen Systems
DE102022202143B4 (de) Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final