DE102019121889B3 - Automatisierungssystem und Verfahren zur Handhabung von Produkten - Google Patents

Automatisierungssystem und Verfahren zur Handhabung von Produkten Download PDF

Info

Publication number
DE102019121889B3
DE102019121889B3 DE102019121889.6A DE102019121889A DE102019121889B3 DE 102019121889 B3 DE102019121889 B3 DE 102019121889B3 DE 102019121889 A DE102019121889 A DE 102019121889A DE 102019121889 B3 DE102019121889 B3 DE 102019121889B3
Authority
DE
Germany
Prior art keywords
handling
control device
training
image data
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019121889.6A
Other languages
English (en)
Inventor
Tobias Rietzler
Manfred Rietzler
Andreas Däubler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robominds De GmbH
Original Assignee
Robominds GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robominds GmbH filed Critical Robominds GmbH
Priority to DE102019121889.6A priority Critical patent/DE102019121889B3/de
Priority to US17/633,657 priority patent/US20220314433A1/en
Priority to PCT/EP2020/063415 priority patent/WO2021028084A1/de
Priority to EP20728685.7A priority patent/EP4013574A1/de
Priority to JP2022507822A priority patent/JP2022543865A/ja
Priority to CN202080056505.3A priority patent/CN114269522A/zh
Application granted granted Critical
Publication of DE102019121889B3 publication Critical patent/DE102019121889B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40514Computed robot optimized configurations to train ann, output path in real time
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Handhabung von Produkten (17) mit einem Automatisierungssystem sowie ein Automatisierungssystem (10), wobei die Produkte mittels eines bildgebenden Sensors (18) einer Steuervorrichtung (12) des Automatisierungssystems erfasst und mittels eines Handhabungsmechanismus (13) einer Handhabungsvorrichtung (11) des Automatisierungssystems gehandhabt werden, wobei die Steuervorrichtung Sensorbilddaten des bildgebenden Sensors verarbeitet und die Handhabungsvorrichtung nach Vorgabe von in einem Datenspeicher (21) der Steuervorrichtung enthaltenen Trainingdatensätzen steuert, wobei die Trainingdatensätze Trainingbilddaten und/oder geometrische Daten und jeweils zugehörige Steueranweisungen umfassen, wobei die Trainingdatensätze ausschließlich von in den Trainingbilddaten von Produkten enthaltenen geometrischen Daten als ein statistisches Modell mit einem Computer mittels eines darauf ausgeführten Computerprogrammprodukts erzeugt werden, wobei die Trainingdatensätze an die Steuervorrichtung übermittelt werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Handhabung von Produkten mit einem Automatisierungssystem und ein Automatisierungssystem, wobei die Produkte mittels eines bildgebenden Sensors einer Steuervorrichtung des Automatisierungssystems erfasst und mittels eines Handhabungsmechanismus einer Handhabungsvorrichtung des Automatisierungssystems gehandhabt werden, wobei die Steuervorrichtung die Sensorbilddaten des bildgebenden Sensors verarbeitet und die Handhabungsvorrichtung nach Vorgabe von in einem Datenspeicher der Steuervorrichtung enthaltenen Trainingdatensätzen steuert, wobei die Trainingdatensätze Trainingbilddaten und jeweils zugehörige Steueranweisungen umfassen, wobei die Trainingdatensätze an die Steuervorrichtung übermittelt werden.
  • Derartige Verfahren und Automatisierungssysteme sind hinreichend bekannt und werden regelmäßig zur Handhabung von Produkten eingesetzt. Die Handhabungsvorrichtung kann hierbei jegliche Art von Maschine sein, die zur Handhabung von Produkten geeignet ist, wie beispielsweise ein Roboter oder eine Greif- bzw. Fördervorrichtung einer Werkzeugmaschine. Wesentlich dabei ist, dass es sich bei den Produkten um unterschiedlichste Erzeugnisse und/oder auch gleichartige Erzeugnisse in unterschiedlichsten Ausgangspositionen für eine Handhabung handeln kann. Das jeweilige Produkt wird über den bildgebenden Sensor, beispielsweise eine Kamera oder dergleichen, aufgenommen und Sensorbilddaten des bildgebenden Sensors werden von einer Steuervorrichtung des Automatisierungssystems verarbeitet. Die Steuervorrichtung steuert nun den betreffenden Roboter so, dass beispielsweise unterschiedliche Produkte, in gegebenenfalls unterschiedlichen Positionen von dem Roboter automatisiert ergriffen und sortiert bzw. in einer vorgegebenen Ordnung an anderer Stelle abgelegt werden. Die Steuervorrichtung umfasst dabei einen Datenspeicher mit Trainingdatensätzen, die eine Vielzahl von möglichen Produkten und deren Ausgangspositionen mit den jeweils zugehörigen Steueranweisungen zur Steuerung des Roboters enthalten. So ist es möglich, dass unabhängig von der Lage bzw. Ausgangsposition eines Produkts dieses an jeweils geeigneten Greifpunkten von dem Roboter automatisiert ergriffen und entsprechend einer Vorgabe gehandhabt werden kann.
  • Die Trainingdatensätze können beispielsweise Bilddaten und jeweils zugehörige Steueranweisungen umfassen, die dem Roboter zuvor antrainiert wurden. Dies kann derart erfolgen, dass der Roboter manuell zu dem Produkt bewegt wird und diese Bewegung als eine Steueranweisung in dem Datenspeicher gespeichert wird. Weiter ist es bekannt, sogenannte künstliche Intelligenz für derartige Handhabungsaufgaben einzusetzen. Dabei wird mittels eines Computers ein statistisches Modell für eine Handhabungsaufgabe erstellt. Für eine Reihe möglicher Produkte und deren Positionen werden beispielsweise verschiedenste Steueranweisungen zur Verfügung gestellt, wobei Regeln zur Anwendung der jeweils richtigen Steueranweisung durch eine reale Ausführung oder Simulation der Steueranweisungen mittels eines Computers statistisch ermittelt werden. Die Trainingdatensätze können unabhängig von einer Handhabungsvorrichtung bzw. einem Roboter durch Simulation mit einem Computer gewonnen werden. In Abhängigkeit davon, welche Produkte wie gehandhabt werden sollen, erfordert die Erstellung von entsprechenden Trainingdatensätzen jedoch einen hohen individuellen Anpassungs- und damit Programmieraufwand. So ist es beispielsweise zur Simulation einer Greifaufgabe erforderlich, ein Gewicht eines Produkts und eine Dynamik einer Bewegung zu berücksichtigen, wenn eine möglichst sichere Ausführung der Greifaufgabe erzielt werden soll. Nachteilig ist hierbei, dass ein individueller Anpassungsaufwand und damit Programmieraufwand sehr hoch ist. Gleichfalls müssen große Datenmengen verarbeitet werden, was einen technischen und zeitlichen Aufwand zur Erstellung von Trainingdatensätzen weiter erhöht.
  • Die DE 20 2017 106 506 U1 offenbart ein Verfahren zur Handhabung von Produkten mittels eines Automatisierungssystems. Eine Steuervorrichtung des Automatisierungssystems umfasst dabei einen bildgebenden Sensor. An die Steuervorrichtung können Trainingdatensätze mit Trainingbilddateien übermittelt werden. Die zu ergreifenden Produkte werden zunächst anhand von Semantikmerkmalen klassifiziert und können dabei beispielsweise durch maschinenlesbare Codes identifiziert werden. Eine Qualität der Handhabung der Produkte kann durch Bestimmung eines Greiferfolgs bewertet werden, wobei dann vor einem Greifversuch aufgenommene Trainingbilddateien zu den Trainingdatensätzen hinzugefügt werden können.
  • Die DE 10 2009 030 461 B4 betrifft ein Automatisierungssystem sowie ein Verfahren zum Ergreifen von Produkten, wobei ein Handhabungsmechanismus einer Handhabungsvorrichtung des Automatisierungssystems von einer Steuervorrichtung des Automatisierungssystems gesteuert wird. Ein Referenzprodukt, von welchem ein Merkmal (z.B. eine Kantenlänge des Produkts) extrahiert wird, dient dabei als Lernmodell. Aus einem Vergleich des Merkmals eines realen Produkts mit dem Merkmal des Referenzprodukts wird ein Übereinstimmungswert ermittelt und ein Ergreifen des Produkts nach diesem Wert entsprechend initiiert oder nicht veranlasst. Da oben aufliegende Objekte eine höhere Übereinstimmung mit dem Modell aufweisen als darunter verborgen liegende, ergreift der Handhabungsmechanismus daher zunächst oben aufliegende Produkte.
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Handhabung von Produkten mit einem Automatisierungssystem und ein Automatisierungssystem vorzuschlagen, welches eine einfache Optimierung der Handhabung der Produkte während des Betriebs des Automatisierungssystems ermöglicht.
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 und ein Automatisierungssystem mit den Merkmalen des Anspruchs 17 gelöst.
  • Bei dem erfindungsgemäßen Verfahren zur Handhabung von Produkten mit einem Automatisierungssystem werden die Produkte mittels eines bildgebenden Sensors einer Steuervorrichtung des Automatisierungssystems erfasst und mittels eines Handhabungsmechanismus einer Handhabungsvorrichtung des Automatisierungssystems gehandhabt, wobei die Steuervorrichtung die Sensorbilddaten des bildgebenden Sensors verarbeitet und die Handhabungsvorrichtung nach Vorgabe von in einem Datenspeicher der Steuervorrichtung enthaltenen Trainingdatensätzen steuert, wobei die Trainingdatensätze Trainingbilddaten und jeweils zugehörige Steueranweisungen umfassen, wobei die Trainingdatensätze ausschließlich von in den Trainingbilddaten von Produkten enthaltenen geometrischen Daten als ein statistisches Modell mit einem Computer mittels eines darauf ausgeführten Computerprogrammprodukts erzeugt werden, wobei die Trainingdatensätze an die Steuervorrichtung übermittelt werden, wobei die Steuervorrichtung einen Bewegungsablauf des Handhabungsmechanismus einer Handhabung eines Produkts erfasst, wobei der bildgebende Sensor eine Abfolge der Handhabung des Produkts erfasst, wobei die Steuervorrichtung die Sensorbilddaten des bildgebenden Sensors verarbeitet und die in dem Datenspeicher der Steuervorrichtung enthaltenen Trainingdatensätze in Abhängigkeit der Abfolge der Handhabung und des Bewegungsablaufs ändert, wobei das statistische Modell der Trainingdatensätze geändert wird.
  • Bei dem für das erfindungsgemäße Verfahren eingesetzten Handhabungsmechanismus kann es sich um jegliche Art von Mechanismus handeln, der geeignet ist, gegenständliche Produkte im Rahmen eines industriellen Prozesses zu manipulieren. Die Handhabung eines Produkts kann dabei beispielsweise auch eine Bearbeitung des Produkts umfassen. Weiter kann der bildgebende Sensor jegliche Art von Sensor sein, der die Erfassung eines Abbilds des Produkts bzw. dessen geometrischer Gestalt ermöglicht. Insbesondere ist vorgesehen, dass die Steuervorrichtung reale Sensorbilddaten des bildgebenden Sensors mittels Bildverarbeitung verarbeitet, wobei die Handhabungsvorrichtung in Abhängigkeit der realen Sensorbilddaten und nach der Vorgabe der Trainingdatensätze von der Steuervorrichtung gesteuert wird. Die Trainingdatensätze enthalten Trainingbilddaten und jeweils zugehörige Steueranweisungen bzw. ergänzend geometrische Daten der jeweiligen Produkte und jeweils zugehörigen Steueranweisungen. Die Steuervorrichtung ordnet die Sensorbilddaten den Trainingbilddaten zu oder umgekehrt und führt entsprechend der zugehörigen Steueranweisung eine Handhabung des mit dem bildgebenden Sensor aufgenommenen Produkts aus. Die Gewinnung der Trainingdatensätze erfolgt unabhängig von der Handhabungsvorrichtung mit einem Computer und einem darauf ausgeführten Computerprogrammprodukt bzw. einer Software. Die Trainingdatensätze werden dabei aus ausschließlich geometrischen Daten, die aus den Trainingbilddaten mittels Bildverarbeitung gewonnen werden, mittels der Software generiert. Insbesondere wird ein statistisches Modell für die jeweiligen geometrischen Daten eines Produkts, welche durch das Produkt selbst und dessen Position bestimmt sind und die zugehörige Steueranweisung erstellt. Die Ermittlung der geeigneten Steueranweisung erfolgt durch simulierte Anwendung verschiedenster Steueranweisungen alleine anhand der geometrischen Daten, ohne eine Berücksichtigung weiterer physikalischer Parameter. Dadurch wird die Erstellung von Trainingdatensätzen für unterschiedlichste Anwendungen wesentlich vereinfacht, da durch das Unberücksichtigtlassen weiterer Parameter eine vereinfachte Programmierung und schnellere Berechnung der Trainingdatensätze ermöglicht wird. Das Automatisierungssystem wird dadurch auch einfacher an verschiedenste Handhabungsaufgaben anpassbar und damit universeller nutzbar.
  • Die Steuervorrichtung erfasst erfindungsgemäß einen Bewegungsablauf des Handhabungsmechanismus einer Handhabung eines Produkts, wobei der bildgebende Sensor eine Abfolge der Handhabung des Produkts erfasst, wobei die Steuervorrichtung die Sensorbilddaten des bildgebenden Sensors verarbeitet und die in dem Datenspeicher der Steuervorrichtung enthaltenen Trainingdatensätze in Abhängigkeit der Abfolge der Handhabung und des Bewegungsablaufs ändert, wobei das statistische Modell der Trainingdatensätze geändert wird. Demnach ist vorgesehen, dass bei der Verwendung der Trainingdatensätze durch die Steuervorrichtung bzw. im Realbetrieb der Handhabungsvorrichtung, eine weitere Optimierung der Trainingdatensätze durchgeführt wird. Diese Optimierung kann dadurch erfolgen, dass die Sensorbilddaten des bildgebenden Sensors von der Steuervorrichtung mittels Bildverarbeitung verarbeitet und in Beziehung zu der ausgeführten Steueranweisung der Steuervorrichtung gesetzt werden. Anstelle einer Steueranweisung können auch von der Steuervorrichtung weitere Sensoren des Handhabungsmechanismus, wie beispielsweise Wegsensoren, Kraftsensoren und/oder Beschleunigungssensoren, zur Optimierung des statistischen Modells verwendet werden. Wesentlich ist, dass die in einem Offline-Betrieb der Handhabungsvorrichtung mit dem Computer erstellten Trainingdatensätze nun in einem Online-Betrieb der Handhabungsvorrichtung durch die Anpassung des statistischen Modells weiter optimiert werden können.
  • In einem ersten Schritt des Verfahrens können die Trainingdatensätze erzeugt werden, wobei in einem zweiten Schritt des Verfahrens die Trainingsätze an die Steuervorrichtung übermittelt werden können. Demnach kann vorgesehen sein, die Trainingdatensätze örtlich getrennt von der Steuervorrichtung bzw. der Handhabungsvorrichtung mit dem Computer zu erzeugen. Die örtliche bzw. räumliche Trennung von Computer und Steuervorrichtung erfordert dann auch nicht zwangsläufig eine Verbindung zur Datenübertragung, wobei beispielweise dennoch eine Verbindung über das Internet bestehen kann. Die im ersten Schritt fertiggestellten Trainingdatensätze können somit auch über eine Datenverbindung an die Steuervorrichtung übermittelt werden, die dann die Trainingdatensätze zur Steuerung nutzt.
  • Bei der Handhabung des Produkts können vorliegende mechanische Variablen, insbesondere Kräfte, Momente und/oder Reibung, bei der Anwendung des statistischen Modells unberücksichtigt bleiben. Eine Berücksichtigung von Kräften und Momenten bei einer Simulation von Bewegungen eines Handhabungsmechanismus erfordert eine besonders große Rechenleistung des Computers und ist zeitaufwendig. Wie sich herausgestellt hat, kann auf die Berücksichtigung dieser mechanischen Variablen verzichtet und gleichzeitig im Ergebnis eine ausreichend große Anzahl nutzbarer Trainingdatensätze erhalten werden.
  • Alternativ können bei der Handhabung des Produkts vorliegende mechanische Variablen, insbesondere Kräfte, Momente und/oder Reibung, mittels zumindest eines weiteren Sensors der Steuervorrichtung ermittelt und bei der Anwendung des statistischen Modells berücksichtigt werden. Als weitere Sensoren zur Bestimmung können Kraftsensoren, Momentensensoren, Stromsensoren, taktile Sensoren, und/oder Drucksensoren verwendet werden. So kann eine besonders große Anzahl sehr genauer Trainingdatensätze durch Simulation erhalten bzw. während der Handhabungsaufgabe an die tatsächlichen Gegebenheiten angepasst werden. Auch kann mittels des weiteren Sensors ein Qualitätsmaß für eine Steuerungsanweisung in den Trainingsbilddaten angegeben werden. So kann eine Qualität der realen Trainingbilddaten erhöht werden.
  • Als Trainingbilddaten können reale Bilddaten und/oder künstlich erzeugte repräsentative Bilddaten von Produkten verwendet werden. Durch diese Verwendung realer Bilddaten kann aufgrund der tatsächlichen Darstellung einer realen Situation eine Genauigkeit der Trainingdatensätze erhöht werden. Künstlich erzeugte repräsentative Bilddaten von Produkten sind hingegen mit wesentlich weniger Aufwand erhältlich und in größerer Anzahl erstellbar.
  • Das statistische Modell kann ohne eine vorgegebene Toleranz der Trainingbilddaten erzeugt werden. Trainingbilddaten und/oder geometrische Daten können zur Berechnung der Trainingdatensätze zusammen mit anderen Variablen und den Steueranweisungen ohne eine bewusst vorgegebene Toleranz mit dem statistischen Modell bearbeitet werden. Wie sich gezeigt hat, kann durch den Verzicht auf eine vorgegebene Toleranz der zur Berechnung herangezogenen Daten ein Aufwand zur Erstellung der Trainingdatensätze weiter gemindert werden, ohne dass eine Qualität der Trainingdatensätze verschlechtert werden würde. Gleichfalls ist es möglich, eine vorgegebene Toleranz bzw. bewusste Unsicherheit der zur Berechnung herangezogenen Daten vorzusehen.
  • Das statistische Modell kann mit einem empirischen oder analytischen Verfahren erzeugt werden. Bei dem empirischen Verfahren handelt es sich um eine Verallgemeinerung, beispielsweise eines Produkts und dessen Position sowie einer Bewegung des Handhabungsmechanismus nach einer Steueranweisung, so dass von dem Handhabungsmechanismus nicht die für den vorliegenden Fall optimale Bewegung ausgeführt wird.
  • Das statistische Modell kann mittels eines Näherungsverfahrens, insbesondere Deep Learning, Convolutional Neural Network (CNN), Recusive Nets (RNN), Stochastic Machine, Random Forest oder Support Vecture Machine, erzeugt werden. Diese Näherungsverfahren betreffen verschiedene Optimierungsmethoden künstlicher neuronaler Netze, die zwischen einer Eingabeschicht und einer Ausgabeschicht eine Anzahl Zwischenlagen aufweisen und deren innere Struktur im Rahmen eines Trainings mit dem Trainingbilddaten und den Steueranweisungen ausgebildet werden können.
  • Das statistische Modell kann durch überwachtes Lernen und/oder durch Bestärkendes Lernen (reinforcement learning) erzeugt werden. Das Computerprogrammprodukt bzw. die Software des Computers kann dann die Eingaben für das statistische Modell bzw. Trainingbilddaten und/oder die jeweils zugehörigen Steueranweisungen erzeugen und deren Kategorien und Zusammenhänge erkennen. Bei dem überwachten Lernen kann ein Clustering-Verfahren angewandt werden.
  • Die Steuervorrichtung kann eine Qualität der Handhabung des Produkts bestimmen und diese bei einer Änderung des statistischen Modells der Trainingdatensätze berücksichtigen. Die Qualität der Handhabung des Produkts kann beispielsweise über die Sensorbilddaten des bildgebenden Sensors ermittelt werden, wenn ein Produkt nicht handhabbar ist, oder auch Sensordaten weiterer Sensoren des Handhabungsmechanismus nicht mit den Steueranweisungen des Handhabungsmechanismus übereinstimmen. Tritt beispielsweise bei der Handhabung eines Produkts ein Fehler auf, können die für den Fehler ursächlichen Sensorbilddaten und Steueranweisungen in die Änderungen des statistischen Modells einfließen.
  • Als ein bildgebender Sensor kann eine Kamera, eine Stereokamera, eine Structured Light Kamera, eine Lichtfeldkamera oder ein Lidar System verwendet werden. Je nach Art des zu handhabenden Produkts kann bereits ein zweidimensionales Bild des Produkts ausreichend sein. Vorteilhaft ist die Verwendung mehrerer Kameras, so dass ein dreidimensionales Bild bzw. Modell des betreffenden Produkts mit dem bildgebenden Sensor gewonnen werden kann. Um eine gleichbleibende Qualität von Sensorbilddaten sicherzustellen, können Sensoren verwendet werden, die beispielsweise unabhängig von einer Beleuchtungssituation sind. Neben den oben genannten Sensoren können je nach Anwendung auch mechanische Sensoren zur Abtastung eines Produkts oder auch UltraschallSensoren als bildgebende Sensoren eingesetzt werden.
  • Somit können vorteilhaft eine zweidimensionale oder dreidimensionale Gestalt des jeweiligen Produkts beschreibende Trainingbilddaten und/oder Sensorbilddaten verwendet werden.
  • Die Handhabungsvorrichtung kann ein Greifen, Fügen, Prüfen, Applizieren oder Bearbeiten an dem Produkt ausführen. Unter einer Handhabung des Produkts werden daher alle neben einem Fördern an dem Produkt ausgeführten Manipulationen bzw. Tätigkeiten verstanden.
  • Eine Erkennung von Greifpunkten an dem jeweiligen Produkt kann aus den Trainingbilddaten und/oder Sensorbilddaten erfolgen. Eine Erkennung von Greifpunkten ist auch nur dann sinnvoll, wenn mit dem Handhabungsmechanismus Produkte ergriffen werden sollen. Ein Ergreifen kann dabei mit den allgemein bekannten und für das jeweilige Produkt geeigneten Greifern, wie beispielsweise mechanische Parallelgreifer, Vakuumsauggreifer, Magnetgreifer, Haftgreifer oder dergleichen, durchgeführt werden. Durch die Erkennung von Greifpunkten bzw. einer Vorselektion derselben kann die Handhabung von Produkten noch wesentlich verbessert werden.
  • Vorteilhaft ist es, wenn die Greifpunkte mittels Bildverarbeitung ermittelt werden. Die Erkennung der Greifpunkte kann beispielsweise durch einen Abgleich von Bildmerkmalen, sogenannte Feature-Matching-Algorithmen, durchgeführt werden. Weiter kann mittels Bildverarbeitung eine Szenenanalyse mit einer Lokalisierung von Produkten und Greifpunkten, eine Objekterkennung und/oder eine Lageerkennung durchgeführt werden. Zur Erkennung von Greifpunkten ist eine Szenenanalyse nicht zwangsläufig erforderlich.
  • Als Handhabungsmechanismus kann ein zumindest in zwei oder drei Raumachsen bewegbarer Handhabungsmechanismus, bevorzugt ein mehrachsiger Roboter, verwendet werden. Der mehrachsige Roboter kann eine Anzahl an Gelenken aufweisen, wobei in den jeweiligen Gelenken Wegsensoren, Kraftsensoren und/oder Beschleunigungssensoren integriert sein können. Diese weiteren Sensoren können beispielsweise Kraftsensoren, Momentensensoren, Stromsensoren, taktile Sensoren, und/oder Drucksensoren sein und zur Auswertung eines realen Handhabungsablaufs eines Produkts durch die Steuervorrichtung verwendet werden.
  • Bei dem erfindungsgemäßen Automatisierungssystem, insbesondere Roboter oder dergleichen, umfasst das Automatisierungssystem eine Handhabungsvorrichtung mit einem Handhabungsmechanismus zur Handhabung der Produkte und eine Steuervorrichtung zur Steuerung der Handhabungsvorrichtung, wobei die Steuervorrichtung einen Datenspeicher mit Trainingdatensätzen und zumindest einen bildgebenden Sensor zur Erfassung der Produkte aufweist, wobei mittels der Steuervorrichtung Sensorbilddaten des bildgebenden Sensors verarbeitbar und die Handhabungsvorrichtung nach Vorgabe der Trainingdatensätze steuerbar ist, wobei die Trainingdatensätze Trainingbilddaten und jeweils zugehörige Steueranweisungen umfassen, wobei die Trainingdatensätze ausschließlich von in den Trainingbilddaten von Produkten enthaltenen geometrischen Daten als ein statistisches Modell mit einem Computer mittels eines darauf ausführbaren Computerprogrammprodukts erzeugbar sind, wobei die Trainingdatensätze an die Steuervorrichtung übermittelbar sind, wobei durch die Steuervorrichtung ein Bewegungsablauf des Handhabungsmechanismus bei einer Handhabung eines Produkts erfassbar ist, wobei mittels des bildgebenden Sensors eine Abfolge der Handhabung des Produkts erfassbar ist, wobei mittels der Steuervorrichtung die Sensorbilddaten des bildgebenden Sensors verarbeitbar und die in dem Datenspeicher der Steuervorrichtung enthaltenen Trainingdatensätze in Abhängigkeit der Abfolge der Handhabung und des Bewegungsablaufs änderbar sind, wobei das statistische Modell der Trainingdatensätze änderbar ist.
  • Zu den Vorteilen des erfindungsgemäßen Automatisierungssystems wird auf die Vorteilsbeschreibung des erfindungsgemäßen Verfahrens verwiesen. Weitere vorteilhafte Ausführungsformen eines Automatisierungssystems ergeben sich aus den Merkmalsbeschreibungen der auf den Verfahrensanspruch 1 zurückbezogenen Unteransprüche.
  • Nachfolgend wird eine bevorzugte Ausführungsform der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Es zeigen:
    • 1 eine schematische Darstellung eines Automatisierungssystems;
    • 2 eine Diagrammdarstellung einer Erstellung von Trainingdatensätzen.
  • Die 1 zeigt ein vereinfacht dargestelltes Automatisierungssystem 10, welches aus einer Handhabungsvorrichtung 11 und einer Steuervorrichtung 12 gebildet ist. Die Handhabungsvorrichtung 11 umfasst einen mehrachsigen Roboter 13 mit einer Antriebssteuerung 14 und einem Greifer 15, der zum Ergreifen von verschiedenen in einem Behälter 16 befindlichen Produkten 17 ausgebildet ist. Die Produkte 17 weisen jeweils eine unterschiedliche Gestalt auf, sind unstrukturiert platziert und können mittels des Greifers 15 ergriffen und von dem Roboter 13 gehandhabt bzw. sortiert werden.
  • Die Steuervorrichtung 12 umfasst einen bildgebenden Sensor 18, der hier von einer Kamera 19 ausgebildet ist, sowie Mittel zur Bildverarbeitung 20, einen Datenspeicher 21 mit Trainingdatensätzen und eine Steuereinrichtung 22. Mittels der Kamera 19 können dann Bilder der Produkte 17 aufgenommen und als Sensorbilddaten an die Mittel zur Bildverarbeitung 20 weitergeleitet werden. Im Rahmen einer Bildverarbeitung erfolgt dann eine Lokalisierung bzw. Objekterkennung der Produkte 17 sowie eine Greifpunkterkennung. Aus den Trainingdatensätzen werden, je nach Produkt und Lage der Greifpunkte, die jeweils zugehörigen Steueranweisungen ausgewählt und von der Steuereinrichtung 22 an die Antriebssteuerung 14 übermittelt, die eine Bewegung des Roboters 13 bzw. des Greifers 15 zum Ergreifen und Handhaben des betreffenden Produkts 17 initiiert.
  • Die 2 zeigt eine schematische Darstellung eines Verfahrens zur Erzeugung von Trainingdatensätzen unabhängig von der in 1 dargestellten Steuervorrichtung. Zunächst werden Trainingbilddaten 23 und Steueranweisungen 24 zur Verfügung gestellt, wobei reale Trainingbilddaten und Steueranweisungen als auch von einem Computer künstlich erzeugte Trainingbilddaten und Steueranweisungen verwendet werden können. Die Trainingbilddaten 23 und Steueranweisungen 24 werden mittels eines statistischen Modells 25, welches als Computerprogrammprodukt bzw. Software auf einen hier nicht dargestellten Computer ausgeführt wird, verarbeitet. Bei dem statistischen Modell 25 wird ein Näherungsverfahren, hier beispielsweise Deep Learning, angewandt, mit dem Trainingdatensätze 26 erzeugt werden. Die Trainingdatensätze 26 umfassen die Trainingbilddaten 23 und/oder geometrische Daten mit den jeweils zugehörigen Steueranweisungen 24, die von dem statistischen Modell 25 den Trainingbilddaten 23 zugeordnet wurden. Die so erzeugten Trainingdatensätze 26 können dann nachfolgend an den Roboter entsprechend der Darstellung 1 zur Nutzung übermittelt werden.

Claims (17)

  1. Verfahren zur Handhabung von Produkten (17) mit einem Automatisierungssystem (11), wobei die Produkte mittels eines bildgebenden Sensors (18) einer Steuervorrichtung (12) des Automatisierungssystems erfasst und mittels eines Handhabungsmechanismus (13) einer Handhabungsvorrichtung (11) des Automatisierungssystems gehandhabt werden, wobei die Steuervorrichtung Sensorbilddaten des bildgebenden Sensors verarbeitet und die Handhabungsvorrichtung nach Vorgabe von in einem Datenspeicher (21) der Steuervorrichtung enthaltenen Trainingdatensätzen (26) steuert, wobei die Trainingdatensätze Trainingbilddaten (23) und jeweils zugehörige Steueranweisungen (24) umfassen, wobei die Trainingdatensätze an die Steuervorrichtung übermittelt werden, dadurch gekennzeichnet, dass die Trainingdatensätze ausschließlich von in den Trainingbilddaten von Produkten enthaltenen geometrischen Daten als ein statistisches Modell (25) mit einem Computer mittels eines darauf ausgeführten Computerprogrammprodukts erzeugt werden, wobei die Steuervorrichtung einen Bewegungsablauf des Handhabungsmechanismus einer Handhabung eines Produkts erfasst, wobei der bildgebende Sensor eine Abfolge der Handhabung des Produkts erfasst, wobei die Steuervorrichtung die Sensorbilddaten des bildgebenden Sensors verarbeitet und die in dem Datenspeicher der Steuervorrichtung enthaltenen Trainingdatensätze in Abhängigkeit der Abfolge der Handhabung und des Bewegungsablaufs ändert, wobei das statistische Modell der Trainingdatensätze geändert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in einem ersten Schritt die Trainingdatensätze (26) erzeugt werden, und in einem zweiten Schritt die Trainingdatensätze an die Steuervorrichtung (12) übermittelt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei der Handhabung des Produkts (17) vorliegende mechanische Variablen, insbesondere Kräfte, Momente und/oder Reibung, bei der Anwendung des statistischen Modells (25) unberücksichtigt bleiben.
  4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei der Handhabung des Produkts (17) vorliegende mechanische Variablen, insbesondere Kräfte, Momente und/oder Reibung, mittels zumindest eines weiteren Sensors (18) der Steuervorrichtung (12) ermittelt und bei der Anwendung des statistischen Modells (25) berücksichtigt werden.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als Trainingbilddaten (23) reale Bilddaten und/oder künstlich erzeugte repräsentative Bilddaten von Produkten (17) verwendet werden.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das statistische Modell (25) ohne eine vorgegebene Toleranz der Trainingbilddaten (23) erzeugt wird.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das statistische Modell (25) mit einem empirischen oder analytischen Verfahren erzeugt wird.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das statistische Modell (25) mittels eines Näherungsverfahrens, insbesondere Deep Learning, Convolutional Neural Network (CNN), Recursive Nets (RNN), Stochastic Machine, Random Forest oder Support Vector Machine, erzeugt wird.
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das statistische Modell (25) durch überwachtes Lernen und/oder durch Bestärkendes Lernen erzeugt wird.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Steuervorrichtung (12) eine Qualität der Handhabung des Produkts bestimmt und diese bei der Änderung des statistischen Modells (25) der Trainingdatensätze (26) berücksichtigt.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als bildgebender Sensor (18) eine Kamera (19), eine Stereokamera, eine Structured Light Kamera, eine Lichtfeldkamera oder ein Lidar System verwendet wird.
  12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine zweidimensionale und/oder dreidimensionale Gestalt des jeweiligen Produktes (17) beschreibende Trainingbilddaten (23) und/oder Sensorbilddaten verwendet werden.
  13. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Handhabungsvorrichtung (12) ein Greifen, Fügen, Prüfen, Applizieren oder Bearbeiten an dem Produkt (17) ausführt.
  14. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Erkennung von Greifpunkten an dem jeweiligen Produkt (17) aus den Trainingbilddaten (23) und/oder Sensorbilddaten erfolgt.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die Greifpunkte mittels Bildverarbeitung ermittelt werden.
  16. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als Handhabungsmechanismus ein zumindest in zwei oder drei Raumachsen bewegbarer Handhabungsmechanismus, bevorzugt ein mehrachsiger Roboter (13), verwendet wird.
  17. Automatisierungssystem (11) zur Handhabung von Produkten (17), insbesondere Roboter oder dergleichen, wobei das Automatisierungssystem eine Handhabungsvorrichtung (11) mit einem Handhabungsmechanismus (13) zur Handhabung der Produkte und eine Steuervorrichtung (12) zur Steuerung der Handhabungsvorrichtung umfasst, wobei die Steuervorrichtung einen Datenspeicher (21) mit Trainingdatensätzen (26) und zumindest einen bildgebenden Sensor (18) zur Erfassung der Produkte aufweist, wobei mittels der Steuervorrichtung Sensorbilddaten des bildgebenden Sensors verarbeitbar und die Handhabungsvorrichtung nach Vorgabe der Trainingdatensätze (26) steuerbar ist, wobei die Trainingdatensätze Trainingbilddaten (23) und jeweils zugehörige Steueranweisungen (24) umfassen, wobei die Trainingdatensätze an die Steuervorrichtung übermittelbar sind, dadurch gekennzeichnet, dass die Trainingdatensätze ausschließlich von in den Trainingbilddaten von Produkten enthaltenen geometrischen Daten als ein statistisches Modell (25) mit einem Computer mittels eines darauf ausführbaren Computerprogrammprodukts erzeugbar sind, wobei durch die Steuervorrichtung ein Bewegungsablauf des Handhabungsmechanismus bei einer Handhabung eines Produkts erfassbar ist, wobei mittels des bildgebenden Sensors eine Abfolge der Handhabung des Produkts erfassbar ist, wobei mittels der Steuervorrichtung die Sensorbilddaten des bildgebenden Sensors verarbeitbar und die in dem Datenspeicher der Steuervorrichtung enthaltenen Trainingdatensätze in Abhängigkeit der Abfolge der Handhabung und des Bewegungsablaufs änderbar sind, wobei das statistische Modell der Trainingdatensätze änderbar ist.
DE102019121889.6A 2019-08-14 2019-08-14 Automatisierungssystem und Verfahren zur Handhabung von Produkten Active DE102019121889B3 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102019121889.6A DE102019121889B3 (de) 2019-08-14 2019-08-14 Automatisierungssystem und Verfahren zur Handhabung von Produkten
US17/633,657 US20220314433A1 (en) 2019-08-14 2020-05-14 Automation system and method for handling products
PCT/EP2020/063415 WO2021028084A1 (de) 2019-08-14 2020-05-14 Automatisierungssystem und verfahren zur handhabung von produkten
EP20728685.7A EP4013574A1 (de) 2019-08-14 2020-05-14 Automatisierungssystem und verfahren zur handhabung von produkten
JP2022507822A JP2022543865A (ja) 2019-08-14 2020-05-14 製品をハンドリングするための自動化システム及び方法
CN202080056505.3A CN114269522A (zh) 2019-08-14 2020-05-14 用于处理产品的自动化系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019121889.6A DE102019121889B3 (de) 2019-08-14 2019-08-14 Automatisierungssystem und Verfahren zur Handhabung von Produkten

Publications (1)

Publication Number Publication Date
DE102019121889B3 true DE102019121889B3 (de) 2020-11-19

Family

ID=70861446

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019121889.6A Active DE102019121889B3 (de) 2019-08-14 2019-08-14 Automatisierungssystem und Verfahren zur Handhabung von Produkten

Country Status (6)

Country Link
US (1) US20220314433A1 (de)
EP (1) EP4013574A1 (de)
JP (1) JP2022543865A (de)
CN (1) CN114269522A (de)
DE (1) DE102019121889B3 (de)
WO (1) WO2021028084A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104001B3 (de) 2021-02-19 2022-04-28 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zum automatischen Ergreifen, insbesondere Umsetzen, von Gegenständen
DE102021202759A1 (de) 2021-03-22 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks zum Steuern eines Roboters
DE102021210749B3 (de) 2021-09-27 2023-03-23 OPTIMA pharma GmbH Verfahren und Vorrichtung zur Überwachung einer Füll- und/oder Verschließanlage und/oder Nachverarbeitungsanlage
DE102022212198A1 (de) 2022-11-16 2024-05-16 Kuka Deutschland Gmbh Anpassung einer Greifsimulation durch Parameteridentifikation in der realen Welt

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021069084A1 (en) * 2019-10-11 2021-04-15 Toyota Motor Europe Methods and systems for determining the 3d-locations, the local reference frames and the grasping patterns of grasping points of an object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014005758B4 (de) * 2013-04-18 2015-06-18 Fanuc Corporation Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
US9862091B2 (en) * 2013-10-31 2018-01-09 Canon Kabushiki Kaisha Information processing apparatus and information processing method
DE202017106506U1 (de) * 2016-11-15 2018-04-03 Google Llc Einrichtung für tiefes Maschinenlernen zum Robotergreifen
DE102009030461B4 (de) * 2008-07-04 2018-11-29 Fanuc Corporation Vorrichtung zum Aufnehmen von Objekten
DE102014016072B4 (de) * 2013-11-05 2019-02-14 Fanuc Corporation Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
DE102018215826A1 (de) * 2017-09-25 2019-03-28 Fanuc Corporation Robotersystem und Werkstückgreifverfahren

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202412277U (zh) * 2012-02-01 2012-09-05 昆山华恒焊接股份有限公司 搬运机器人系统
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP2020530637A (ja) * 2017-08-09 2020-10-22 アレン インスティテュート 予測タグ付けを有する画像を生成するための画像処理のためのシステム、デバイス、および方法
CN109760050A (zh) * 2019-01-12 2019-05-17 鲁班嫡系机器人(深圳)有限公司 机器人行为训练方法、装置、系统、存储介质及设备
US11977384B2 (en) * 2019-06-25 2024-05-07 Lg Electronics Inc. Control system for controlling a plurality of robots using artificial intelligence

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009030461B4 (de) * 2008-07-04 2018-11-29 Fanuc Corporation Vorrichtung zum Aufnehmen von Objekten
DE102014005758B4 (de) * 2013-04-18 2015-06-18 Fanuc Corporation Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
US9862091B2 (en) * 2013-10-31 2018-01-09 Canon Kabushiki Kaisha Information processing apparatus and information processing method
DE102014016072B4 (de) * 2013-11-05 2019-02-14 Fanuc Corporation Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
DE202017106506U1 (de) * 2016-11-15 2018-04-03 Google Llc Einrichtung für tiefes Maschinenlernen zum Robotergreifen
DE102018215826A1 (de) * 2017-09-25 2019-03-28 Fanuc Corporation Robotersystem und Werkstückgreifverfahren

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104001B3 (de) 2021-02-19 2022-04-28 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zum automatischen Ergreifen, insbesondere Umsetzen, von Gegenständen
DE102021202759A1 (de) 2021-03-22 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks zum Steuern eines Roboters
DE102021210749B3 (de) 2021-09-27 2023-03-23 OPTIMA pharma GmbH Verfahren und Vorrichtung zur Überwachung einer Füll- und/oder Verschließanlage und/oder Nachverarbeitungsanlage
DE102022212198A1 (de) 2022-11-16 2024-05-16 Kuka Deutschland Gmbh Anpassung einer Greifsimulation durch Parameteridentifikation in der realen Welt

Also Published As

Publication number Publication date
CN114269522A (zh) 2022-04-01
EP4013574A1 (de) 2022-06-22
JP2022543865A (ja) 2022-10-14
WO2021028084A1 (de) 2021-02-18
US20220314433A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
DE102019121889B3 (de) Automatisierungssystem und Verfahren zur Handhabung von Produkten
DE102014108287B4 (de) Schnelles Erlernen durch Nachahmung von Kraftdrehmoment-Aufgaben durch Roboter
DE102019002065B4 (de) Maschinelle Lernvorrichtung, Robotersteuervorrichtung und Robotervisionssystem, das eine maschinelle Lernvorrichtung verwendet, und maschinelles Lernverfahren
DE102017008475B4 (de) Maschinenlernvorrichtung, robotersystem und maschinenlernverfahren zum erlernen eines roboter-betriebsprogramms
DE102014103738B3 (de) Visuelle fehlersuche bei roboteraufgaben
DE102016015866B3 (de) Maschinelle Lernvorrichtung, Robotercontroller, Robotersystem und maschinelles Lernverfahren zum Lernen des Handlungsmusters einer Person
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102018125594B4 (de) Sortiersystem
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
EP3020516B1 (de) Bestimmen von objektbezogenen greifräumen mittels eines roboters
DE102017202717A1 (de) Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen
DE102021121063A1 (de) Effiziente datengenerierung für das greifenlernen mit allgemeinen greifern
DE102019006725A1 (de) Steuereinrichtung und Steuersystem
WO2020187591A1 (de) Verfahren und vorrichtung zum ansteuern eines roboters
EP3993959A1 (de) Durchführen einer applikation mithilfe wenigstens eines roboters
WO2020002069A1 (de) Verfahren und vorrichtung zum rechnergestützten ermitteln von regelparametern für eine günstige handlung eines technischen systems
EP3710900B1 (de) Verfahren und system zum vorgeben bzw. lernen eines roboterbefehls
DE102018004326B4 (de) Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks
DE102019207410A1 (de) Verfahren und Vorrichtung für eine automatisierte Beeinflussung eines Aktuators
DE102018124671A1 (de) Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
WO2019057679A1 (de) Verfahren und robotersystem zum anpassen eines robotereinsatzes an einen arbeitsprozess
DE102020103852B4 (de) Erzeugen und Optimieren eines Steuerprogramms für einen Robotermanipulator
EP3793785B1 (de) Verfahren und vorrichtung zum rechnergestützten ermitteln von regelparametern für eine günstige handlung eines technischen systems
DE102020206913A1 (de) Verfahren und Vorrichtung zum Betreiben eines Roboters
EP4064106A1 (de) Verfahren zum erzeugen von trainingsdaten für ein ml-modell

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: ROBOMINDS GMBH, DE

Free format text: FORMER OWNER: ROBOMINDS GMBH, 80992 MUENCHEN, DE

R082 Change of representative

Representative=s name: ADVOTEC. PATENT- UND RECHTSANWALTSPARTNERSCHAF, DE

Representative=s name: ADVOTEC. PATENT- UND RECHTSANWAELTE, DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: ROBOMINDS GMBH, DE

Free format text: FORMER OWNER: ROBOMINDS GMBH, 80639 MUENCHEN, DE