DE102018001781A1 - Robotersystem, Messdatenverarbeitungsvorrichtung und Messdatenverarbeitungsverfahren zum Aufnehmen eines Werkstücks unter Verwendung von Messdaten, die mittels maschinellen Lernens korrigiert sind - Google Patents

Robotersystem, Messdatenverarbeitungsvorrichtung und Messdatenverarbeitungsverfahren zum Aufnehmen eines Werkstücks unter Verwendung von Messdaten, die mittels maschinellen Lernens korrigiert sind Download PDF

Info

Publication number
DE102018001781A1
DE102018001781A1 DE102018001781.9A DE102018001781A DE102018001781A1 DE 102018001781 A1 DE102018001781 A1 DE 102018001781A1 DE 102018001781 A DE102018001781 A DE 102018001781A DE 102018001781 A1 DE102018001781 A1 DE 102018001781A1
Authority
DE
Germany
Prior art keywords
measurement data
workpiece
data
orientation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018001781.9A
Other languages
English (en)
Other versions
DE102018001781B4 (de
Inventor
Taiga SATOU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018001781A1 publication Critical patent/DE102018001781A1/de
Application granted granted Critical
Publication of DE102018001781B4 publication Critical patent/DE102018001781B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation

Abstract

Ein Robotersystem umfasst einen Roboter 1, der eine Hand 10 umfasst, die konfiguriert ist, um ein Werkstück 4 zu halten; einen Sensor 5, der konfiguriert ist, um einen Arbeitsbereich zu messen, in dem das Werkstück 4 existiert, um eine dreidimensionale Form in dem Arbeitsbereich als Messdaten zu erlangen; eine Messdatenverarbeitungsvorrichtung 3b, die eine Modelldatenspeichereinheit 31, die konfiguriert ist, um eine dreidimensionale Form des Werkstücks 4 als Modelldaten zu speichern, eine Messdatenkorrektureinheit 33, die konfiguriert ist, um die Messdaten mittels maschinellen Lernens zu korrigieren, und eine Positions- und Ausrichtungsberechnungseinheit 32 umfasst, die konfiguriert ist, um die Messdaten mit den Modelldaten zu kollationieren, um eine Position und eine Ausrichtung des Werkstücks 4 in dem Arbeitsbereich zu berechnen; und eine Robotersteuereinheit 3a umfasst, die konfiguriert ist, um den Roboter auf der Grundlage einer Ausgabe aus der Positions- und Ausrichtungsberechnungseinheit 32 zu steuern, wobei die Messdatenkorrektureinheit 33 in einem Lernstadium Lehrerdaten durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt, die durch die Positions- und Ausrichtungsberechnungseinheit 32 berechnet sind, und einen Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten einstellt, und in einem Aufnahmestadium korrigierte Messdaten ausgibt, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters erlangt sind.

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Robotersystem, eine Messdatenverarbeitungsvorrichtung und ein Messdatenverarbeitungsverfahren zum Aufnehmen eines Werkstücks unter Verwendung von Messdaten, die mittels maschinellen Lernens korrigiert sind.
  • Beschreibung des verwandten Stands der Technik
  • In der Vergangenheit erlangten Systeme zum Aufnehmen eines Artikels Bekanntheit, der zufällig in einem Behälter abgeladen war, wie einem Behälter (wobei ein Werkstück zufällig in einem dreidimensionalen Raum abgeladen wurde) mit einem Roboter (einem System oder einem Robotersystem zum Aufnehmen eines zufällig abgeladenen Artikels). In einem solchen System zum Aufnehmen eines Artikels, der zufällig abgeladen wurde, kann ein Werkstück durch einen Roboter aufgenommen werden, indem zum Beispiel Daten einer dreidimensionalen Form innerhalb des Behälters erlangt werden, indem wiederum mit einem Sensor ein Messen durchgeführt wird, um eine Position und eine Ausrichtung des Werkstücks aus den Daten der dreidimensionalen Form innerhalb des Behälters zu identifizieren.
  • Hinsichtlich des Aufnehmens eines Artikels, der zufällig abgeladen wurde, durch ein Robotersystem, zum Beispiel während eines Vorgangs des Bewegens einer Hand eines Roboters näher an ein Werkstück, um das Werkstück aufzunehmen, kann die Hand womöglich mit einem Behälter oder anderen Werkstück kollidieren. Damit das Auftreten einer solchen Kollision verhindert wird, war es gängige Praxis, die Daten der dreidimensionalen Form zu verwenden, die durch den Sensor gemessen wurde.
  • In der Vergangenheit offenbarte zum Beispiel die japanische Patentanmeldungsoffenlegung Nr. 2016-132086 eine Technik zum Berechnen einer Position und einer Ausrichtung eines Werkstücks durch Kollationieren von Messdaten mit akkumulierten Daten. Zudem offenbart die japanische Patentanmeldungsoffenlegung Nr. 2009-128192 eine Technik zum Berechnen einer Position und einer Ausrichtung eines Objekts mit einem hohen Grad an Genauigkeit durch wiederholte Korrektur auf der Grundlage eines Modells (Modelldaten). Des Weiteren offenbart die japanische Patentanmeldungsoffenlegung Nr. 2013-010155 eine Technik zum Erzeugen von Kollationierungsdaten durch Einsatz von maschinellem Lernen. Chao Dong et.al., „Image Super-Resolution Using Deep Convolutional Networks“, IEEE Transactions on Pattern Analysis and Machine Intelligence (https://arxiv.org/abs/1501.00092), 31. Juli 2015, offenbart ebenso eine Technik zum Korrigieren von erlangten Daten unter Verwendung von Deep Learning.
  • Wie vorstehend beschrieben wurde, wenn eine Position und eine Ausrichtung eines Werkstücks durch Kollationieren von Messdaten mit akkumulierten Daten berechnet werden, dann wird die Kollationierung womöglich nicht genau durchgeführt, wenn zum Beispiel ein Fehler in den Messdaten existiert. Wenn ein Werkstück gegriffen wird, dann werden Messdaten zur Bestimmung dessen verwendet, ob eine Kollision zwischen einer umgebenden Struktur (wie einem Behälter) und einem Greifmechanismus (wie einer Hand) existiert. Wenn jedoch ein Fehler in den Messdaten existiert, dann wird es schwierig, die Bestimmung einer Kollision zu treffen.
  • Wenn zudem eine Position und eine Ausrichtung eines Objekts durch Wiederholen von Korrekturen auf der Grundlage eines Modells berechnet werden, dann ist es schwierig, die Rate entsprechend dem Fehler in den Messdaten selbst zu verringern. Des Weiteren wurde konventionelles maschinelles Lernen zum Erzeugen von Kollationierungsdaten eingesetzt.
  • Somit lag in konventionellen Robotersystemen und Messdatenverarbeitungstechniken ein Problem dahingehend vor, dass wenn ein zufällig abgeladenes Werkstück aufgenommen wurde, dann eine Hand eines Roboters mit einem Behälter oder anderen Werkstücken kollidieren kann. Zudem liegt ebenso ein Problem dahingehend vor, dass eine Betriebseffizienz abnimmt, da ein Aufnahmevorgang für ein Werkstück, dass unter normalen Umständen aufgenommen werden kann, als unmöglich bestimmt wird und nicht durchgeführt wird, um das Auftreten einer Kollision zu vermeiden.
  • Eine Aufgabe des vorliegenden Ausführungsbeispiels liegt in Anbetracht der vorstehend beschriebenen Probleme des Standes der Technik in der Bereitstellung eines Robotersystems, einer Messdatenverarbeitungsvorrichtung und eines Messdatenverarbeitungsverfahrens, die die Genauigkeit der Aufnahme eines Werkstücks durch Korrigieren von Messdaten selbst verbessern können.
  • Kurzfassung der Erfindung
  • Gemäß einer ersten Ausgestaltung der vorliegenden Erfindung wird ein Robotersystem bereitgestellt, das einen Roboter, der eine Hand umfasst, die konfiguriert ist, um ein Werkstück zu halten; einen Sensor, der konfiguriert ist, um einen Arbeitsbereich zu messen, in dem das Werkstück existiert, um eine dreidimensionale Form in dem Arbeitsbereich als Messdaten zu erlangen; eine Messdatenverarbeitungsvorrichtung, die eine Modelldatenspeichereinheit, die konfiguriert ist, um eine dreidimensionale Form des Werkstücks als Modelldaten zu speichern, eine Messdatenkorrektureinheit, die konfiguriert ist, um die Messdaten mittels maschinellen Lernens zu korrigieren, und eine Positions- und Ausrichtungsberechnungseinheit umfasst, die konfiguriert ist, um die Messdaten mit den Modelldaten zu kollationieren, um eine Position und eine Ausrichtung des Werkstücks in dem Arbeitsbereich zu berechnen; und eine Robotersteuereinheit umfasst, die konfiguriert ist, um den Roboter auf der Grundlage einer Ausgabe aus der Positions- und Ausrichtungsberechnungseinheit zu steuern, wobei die Messdatenkorrektureinheit in einem Lernstadium Lehrerdaten durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt, die durch die Positions- und Ausrichtungsberechnungseinheit berechnet sind, und einen Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten einstellt, und in einem Aufnahmestadium korrigierte Messdaten ausgibt, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters erlangt sind.
  • Gemäß einer zweiten Ausgestaltung der vorliegenden Erfindung wird eine Messdatenverarbeitungsvorrichtung bereitgestellt, die eine Modelldatenspeichereinheit, die konfiguriert ist, um eine dreidimensionale Form eines Werkstücks als Modelldaten zu speichern; eine Messdatenkorrektureinheit, die konfiguriert ist, um Messdaten, die durch Messen einer dreidimensionalen Form in einem Arbeitsbereich erlangt sind, in dem das Werkstück existiert, mittels maschinellen Lernens zu korrigieren; und eine Positions- und Ausrichtungsberechnungseinheit umfasst, die konfiguriert ist, um die Messdaten mit den Modelldaten zu kollationieren, um eine Position und eine Ausrichtung des Werkstücks in dem Arbeitsbereich zu berechnen, wobei die Messdatenkorrektureinheit in einem Lernstadium Lehrerdaten durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt, die durch die Positions- und Ausrichtungsberechnungseinheit berechnet sind, und einen Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten einstellt, und in einem Aufnahmestadium korrigierte Messdaten ausgibt, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters erlangt sind.
  • Gemäß einer dritten Ausgestaltung der vorliegenden Erfindung wird ein Messdatenverarbeitungsverfahren bereitgestellt, das Speichern einer dreidimensionalen Form eines Werkstücks als Modelldaten; Korrigieren von Messdaten, die durch Messen einer dreidimensionalen Form in einem Arbeitsbereich erlangt sind, in dem das Werkstück existiert, mittels maschinellen Lernens; und Kollationieren der Messdaten mit den Modelldaten umfasst, um eine Position und eine Ausrichtung des Werkstücks in dem Arbeitsbereich zu berechnen, wobei, in einem Lernstadium, Lehrerdaten durch Anordnen der Modelldaten in der berechneten Position und Ausrichtung des Werkstücks in dem Arbeitsbereich erstellt werden und ein Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten eingestellt wird, und in einem Aufnahmestadium korrigierte Messdaten, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters erlangt sind, ausgegeben werden.
  • Figurenliste
  • Die vorliegende Erfindung lässt sich klarer verstehen, indem auf die nachfolgenden Zeichnungen Bezug genommen wird. Es zeigen:
    • 1 eine Darstellung, die schematisch ein Beispiel eines Robotersystems zeigt;
    • Fig. 2A, Fig. 2B und 2C Darstellungen zur Beschreibung eines Beispiels eines Problems in Messdaten durch das Robotersystem;
    • Fig. 3A, Fig. 3B und 3C Darstellungen zur Beschreibung eines weiteren Beispiels des Problems in Messdaten durch das Robotersystem;
    • 4 eine Funktionsblockdarstellung, die ein Beispiel einer Robotersteuervorrichtung in einem Robotersystem gemäß dem vorliegenden Ausführungsbeispiel zeigt;
    • 5 eine Darstellung, die schematisch ein Beispiel einer Maschinenlernvorrichtung zeigt, die in einer Messdatenverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel bereitgestellt ist;
    • 6 ein Ablaufdiagramm zur Beschreibung eines beispielhaften Prozesses in einem Lernstadium;
    • 7 ein Ablaufdiagramm zur Beschreibung eines beispielhaften Prozesses in einem Aufnahmestadium;
    • 8 ein Ablaufdiagramm zur Beschreibung eines weiteren beispielhaften Prozesses in dem Aufnahmestadium; und
    • 9 ein Ablaufdiagramm zur Beschreibung eines beispielhaften Prozesses zum Aktualisieren eines Lernmodell, während ein Aufnahmevorgang durchgeführt wird.
  • Ausführliche Beschreibung
  • Bevor ein Ausführungsbeispiel eines Robotersystems beschrieben wird, werden zuerst eine Messdatenverarbeitungsvorrichtung und ein Messdatenverarbeitungsverfahren ausführlich, ein Beispiel des Robotersystems und eines Problems in der der Messdatenverarbeitung des Robotersystems unter Bezugnahme auf 1 bis 3C beschrieben werden. 1 zeigt eine Darstellung, die schematisch ein Beispiel des Robotersystems zeigt.
  • Wie in 1 gezeigt ist, nimmt ein Robotersystem 100 eine Vielzahl von Werkstücken (Komponenten) 4, die zufällig in einem Kasten, wie einem Behälter 40, abgeladen sind, sequenziell auf, und umfasst einen Roboter 1, einen Sensor 5 und eine Robotersteuervorrichtung 3. Selbstverständlich sind die Werkstücke 4 nicht auf Gegenstände beschränkt, die in dem Behälter 40 gelagert sind, und können zum Beispiel Gegenstände sein, die zufällig in einem dreidimensionalen Raum abgeladen wurden.
  • Auf einer lateralen Seite des Roboters 1 ist der kastenförmige Behälter 40 mit einer offenen Deckfläche angelegt. Der Behälter 40 weist eine offene Deckfläche auf und beherbergt eine Vielzahl von zufällig abgeladenen Werkstücken (eine Vielzahl von Werkstücken, die auf zufällige Art und Weise abgeladen wurden, einschließlich eines zufällig abgeladenen Zustands) in seinem Unterbringungsraum. Es sei darauf hingewiesen, dass die Werkstücke 4 durch eine Hand 10 gehalten werden können, die an dem Roboter 1 angebracht ist, und einzelnen aus dem Behälter 40 mit einem Betrieb des Roboters 1 und der Hand 10 aufgenommen werden können, die wiederum durch die Robotersteuervorrichtung 3 gesteuert sind. Zudem wird der Sensor 5 oberhalb eines Mittelpunkts des Behälters 40 installiert und es wird eine Ausgabe (Messdaten) 5a aus dem Sensor 5 in die Robotersteuervorrichtung 3 eingegeben.
  • In 1 wird zur Vereinfachung der Beschreibung ein Beispiel in einem Zustand gezeigt, in dem vier scheibenartig geformte Werkstücke 4 zufällig in dem Behälter 40 abgeladen sind, wobei ein zentrales Loch von jedem Werkstück 4 durch die Hand (Innendurchmesserspannfutter) 10 gehalten wird; die Form des Werkstücks 4 ist jedoch nicht auf eine scheibenartige Form beschränkt, und es ist ebenso wenig ein Haltemechanismus für das Werkstück 4 auf ein Innendurchmesserspannfutter beschränkt. Die Hand 10 kann mit anderen Worten eine Vielfalt von Formen aufweisen, die ein Werkstück 4 halten kann, und kann zum Beispiel eine Form aufweisen, die das Werkstück 4 durch Öffnen/Schließen von zwei oder mehr Klauengreifeinheiten greift, oder kann einen Elektromagneten oder eine unterdruckerzeugende Vorrichtung umfassen, die eine Saugkraft wider das Werkstück 4 erzeugt.
  • Des Weiteren ist der Sensor 5 eine Vielfalt von Sensoren einschließlich eines visuellen Sensors, solange er Daten einer dreidimensionalen Form in dem Messbereich erlangen kann. Zur Messung einer dreidimensionalen Form können ein Verfahren, wie ein Stereoverfahren unter Verwendung von zwei Kameras, ein Abtastverfahren unter Verwendung eines Laserschlitzlichts, ein Abtastverfahren unter Verwendung eines Laserstrahlflecks, ein Verfahren zum Projizieren von Lichtmustern auf das Werkstück unter Verwendung einer Vorrichtung, wie eines Lichtprojektors, oder ein Verfahren des Verwendens eines Zeitpunkts, zu dem Licht von einem Lichtprojektor abgestrahlt wird, bis zu dem Zeitpunkt, zu dem auf einer Oberfläche eines Werkstücks 4 reflektiertes Licht in einem Lichtempfänger eintritt, eingesetzt werden. Außerdem können verschiedene Verfahren, wie das Triangulationsverfahren, das Lichtschneideverfahren, das Time-auf-Flight-Verfahren, das Verfahren mit Tiefe der Defokussierung oder eine Kombination derer eingesetzt werden.
  • Es sei darauf hingewiesen, dass obwohl in 1 die Ausgabe (Messdaten) 5a aus dem Sensor 5 in die Robotersteuervorrichtung 3 eingegeben werden, und die Robotersteuervorrichtung 3 eine Messdatenverarbeitung und dergleichen ausführt, die Ausgabe 5a aus dem Sensor 5 konfiguriert werden kann, um durch eine ausgewiesene Messdatenverarbeitungsvorrichtung oder dergleichen verarbeitet zu werden, die getrennt von der Robotersteuervorrichtung 3 bereitgestellt ist, und eine Ausgabe aus der Messdatenverarbeitungsvorrichtung in die Robotersteuervorrichtung 3 eingegeben werden kann. Des Weiteren, obwohl der Sensor 5 ortsfest oberhalb des Mittelpunkts des Behälters 40 bereitgestellt ist, kann der Sensor 5 als ein Handauge bereitgestellt werden, das an ein Ende (Endabschnitt) der Hand des Roboters 1 angefügt ist.
  • Somit ist in dem Robotersystem 100, das in 1 gezeigt ist, die Robotersteuervorrichtung 3 konfiguriert, um auf der Grundlage von dreidimensionalen Positionen und Ausrichtungen eine Vielzahl von zufällig abgeladenen Werkstücken 4 und der Ausgabe 5a aus dem Sensor 5, der konfiguriert ist, um eine dreidimensionale Form und dergleichen des Behälters 40 zu messen, Anhalteposition und Ausrichtungsdaten bestehend aus einer Position und einer Ausrichtung zum Halten der Werkstücke 4 mit dem Innendurchmesserspannfutter 10 des Roboters 1 zu berechnen und die Werkstücke 4 einzelnen aufzunehmen, indem der Roboter 1 und dass das Innendurchmesserspannfutter 10 gesteuert werden.
  • Fig. 2A bis 2C zeigen Darstellungen zur Beschreibung eines Beispiels eines Problems in der Messdatenverarbeitung durch das Robotersystem, und Fig. 3A bis 3C zeigen Darstellungen zur Beschreibung eines weiteren Beispiels eines Problems in der Messdatenverarbeitung durch das Robotersystem. Fig. 2A und 3A zeigen Bilder eines Messbereichs (Arbeitsbereichs) WA, während Fig. 2B und 3B Beispiele der Messdaten 5a des Arbeitsbereichs WA durch den Sensor 5 zeigen. 2C ist eine Darstellung, die einen Zustand zeigt, in dem die Messdaten 5a in 2A aus der Richtung eines Pfeils betrachtet werden, während 3C eine Darstellung ist, die einen Abschnitt der Messdaten 5a in 3B vergrößert zeigt.
  • Es wird zum Beispiel ein Zustand, in dem eine Vielzahl von Werkstücken 4 zufällig in dem Arbeitsbereich WA (in dem Behälter 40) abgeladen ist, wie in 2B gezeigt, als die Messdaten 5a durch den Sensor 5 erlangt, wie in 2B gezeigt ist. In diesem Fall werden in den Messdaten 5a, wie in 2C gezeigt, zum Beispiel Messpunkte auf einer flachen Oberfläche des Werkstücks 4 gemessen und enthalten einen Fehler (Dicke), der verursacht, dass eine Rate der Messdaten 5a, die mit CAD-(rechnergestütztes Entwerfen)-Daten übereinstimmen, abnimmt, und ein Werkstück aufgrund einer Ursache nicht erfasst wird, wie dass die Rate unter einen Schwellenwert zum Abgleich fällt, der für ein Erfassungsergebnis zulässig ist, oder das Aufnehmen eines Werkstücks 4 schwierig wird.
  • Des Weiteren wird zum Beispiel ein Zustand, in dem eine Vielzahl von Werkstücken 4 zufällig in dem Arbeitsbereich WA abgeladen ist, wie in 3A gezeigt, als die Messdaten 5a durch den Sensor 5 erlangt, wie in 3B gezeigt ist. In diesem Fall kann beobachtet werden, dass eine Grenzlinie um eine Kante des Werkstücks 4 herum in den Messdaten 5a verschwommen ist, wie in 3C gezeigt ist. Wenn zum Beispiel bestimmt wird, dass die Hand 10 des Roboters 1 mit einem Messpunkt bei der Grenzlinie kollidieren wird, die als verschwommen bestimmt wurde, wenn das Werkstück 4 aufgenommen wird, dann liegt eine Möglichkeit vor, dass das Werkstück 4, das unter Normalbedingungen aufgenommen werden kann, als ein Gegenstand verarbeitet wird, der unmöglich aufzunehmen ist, was die Produktionseffizienz oder dergleichen verringert.
  • Ein Robotersystem, eine Messdatenverarbeitungsvorrichtung und ein Messdatenverarbeitungsverfahren gemäß dem vorliegenden Ausführungsbeispiel werden nachstehend ausführlich unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben werden. 4 zeigt eine Funktionsblockdarstellung, die ein Beispiel einer Robotersteuervorrichtung in dem Robotersystem gemäß dem vorliegenden Ausführungsbeispiel zeigt. Obwohl das Robotersystem gemäß dem vorliegenden Ausführungsbeispiel dem Robotersystem entspricht, das unter Bezugnahme auf 1 beschrieben ist, sind in einer Robotersteuervorrichtung 3 zum Beispiel eine Messdatenverarbeitungsvorrichtung 3b, die verschiedene Funktionen verwirklicht, die nachfolgend beschrieben werden werden, zusammen mit einer Robotersteuereinheit 3a eingebaut, die Betriebe des Roboters 1 steuert. Wie unter Bezugnahme auf 1 beschrieben wurde, ist selbstverständlich, dass die Hand 10 des Roboters 1 eine Vielfalt von Formen annehmen kann, solange die Hand 10 das Werkstück halten kann, und es kann der Sensor 5 jedweder Sensor auf der Grundlage verschiedener Verfahren sein.
  • Selbstverständlich ist die Messdatenverarbeitungsvorrichtung 3b nicht auf eine Vorrichtung beschränkt, die in die Robotersteuervorrichtung 3 eingebaut ist, und es kann die Messdatenverarbeitungsvorrichtung 3b zum Beispiel getrennt oder in anderen Steuervorrichtungen oder dergleichen bereitgestellt werden. Zudem können jeweilige Funktionsblöcke, die in der Messdatenverarbeitungsvorrichtung 3b umfasst sind, die in 4 gezeigt ist, durch Software auf einem Computer implementiert werden, der eine MPU (Mikroverarbeitungseinheit, Micro Processing Unit), einen ROM (Festwertspeicher), einen RAM (Speicher mit wahlfreiem Zugriff) und dergleichen umfasst. Eine Messdatenkorrektureinheit 33 entspricht einer Maschinenlernvorrichtung 2, die maschinelles Lernen (überwachtes Lernen) durchführt.
  • Ein Robotersystem 100 gemäß dem vorliegenden Ausführungsbeispiel umfasst mit anderen Worten ähnlich dem System, das unter Bezugnahme auf 1 beschrieben wurde, den Roboter 1 mit der Hand 10, die das Werkstück 4 halten kann, den Sensor 5, der einen Arbeitsbereich misst, in dem das Werkstück existiert, um eine dreidimensionale Form in dem Arbeitsbereich (WA) als Messdaten 5a zu erlangen, und die Robotersteuervorrichtung 3. Selbstverständlich kann eine Vielfalt von Vorrichtungen, wie ein Programmierhandgerät, das dem Roboter 1 einen Lernvorgang vermittelt, oder eine Anzeigevorrichtung mit der Robotersteuervorrichtung 3 verbunden sein.
  • Wie in 4 gezeigt, umfasst die Robotersteuervorrichtung 3 zum Beispiel die Robotersteuereinheit 3a und die Messdatenverarbeitungsvorrichtung 3b, während die Messdatenverarbeitungsvorrichtung 3b eine Modelldatenspeichereinheit 31, eine Positions- und Ausrichtungsberechnungseinheit 32, eine Messdatenkorrektureinheit 33, eine Handformspeichereinheit 34, eine Kollisionsbestimmungseinheit 35 und eine Haltebestimmungseinheit 36 umfasst. Die Modelldatenspeichereinheit 31 speichert eine dreidimensionale Form eines Werkstücks als Modelldaten, während die Positions- und Ausrichtungsberechnungseinheit 32 Messdaten mit den Modelldaten kollationiert, um eine Position und eine Ausrichtung des Werkstücks in dem Arbeitsbereich zu berechnen. Die Kollisionsbestimmungseinheit 35 und die Messdatenkorrektureinheit 33 können zum Beispiel als eine externe Vorrichtung anstelle einer Bereitstellung in der Robotersteuervorrichtung 3 bereitgestellt werden.
  • Die Messdatenkorrektureinheit 33 korrigiert zum Beispiel Messdaten mittels maschinellen Lernens (überwachten Lernens). Die Messdatenkorrektureinheit 33 erstellt mit anderen Worten zum Beispiel in einem Lernstadium, in dem Lernen durchgeführt wird, Lehrerdaten durch Anordnen der Modelldaten in der Position und der Ausrichtung, die durch die Positions- und Ausrichtungsberechnungseinheit 32 berechnet sind, und stellt einen Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten ein. Des Weiteren gibt zum Beispiel in einem Aufnahmestadium, in dem das Werkstück tatsächlich aufgenommen wird, die Messdatenkorrektureinheit 32 korrigierte Messdaten aus, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters korrigiert sind. Es sei darauf hingewiesen, dass die Robotersteuereinheit 3a den Roboter 1 auf der Grundlage einer Ausgabe aus der Messdatenkorrektureinheit 33 steuert.
  • Die Handformspeichereinheit 34 speichert Formdaten der Hand 10, während die Kollisionsbestimmungseinheit 35 bestimmt, ob eine Kollision bei der Position und der Ausrichtung zum Halten des Werkstücks auf der Grundlage der Formdaten der Hand und der korrigierten Messdaten auftreten wird. Die Messdatenkorrektureinheit 33 kann eine Eingabeakzeptanzeinheit 331 umfassen, die konfiguriert ist, um einzugeben, ob ein Ausgabeergebnis aus der Positions- und Ausrichtungsberechnungseinheit 32 als Lehrer Daten zu verwenden ist oder nicht. In dem Lernstadium wird ein Parameter zum Korrigieren der Messdaten unter Verwendung der Lehrerdaten eingestellt, die durch die Eingabeakzeptanzeinheit 331 vermittelt sind. Die Haltebestimmungseinheit 36 bestimmt, ob das Halten des Werkstücks zu einem Erfolg oder Versagen führt. In dem Lernstadium kann ein Bereich des Werkstücks, für den das Halten zum Erfolg führte, ebenso in die Messdatenkorrektureinheit 33 als die Lehrerdaten eingegeben werden, um den Parameter zum Korrigieren der Messdaten einzustellen.
  • In der vorstehend beschriebenen Beschreibung kann das Werkstück 4 zum Beispiel eine Vielzahl von zufällig abgeladenen Werkstücken in dem Arbeitsbereich WA sein, wie in 1 gezeigt wurde. Zudem kann der Sensor 5 ein visueller Sensor sein, der ortsfest bei einer Position angebracht ist, aus der der Arbeitsbereich aufgenommen werden kann, oder kann an einem Ende des Roboters 1 angebracht sein. Somit kann das Robotersystem 100 des vorliegenden Ausführungsbeispiels die Genauigkeit bei der Aufnahme des Werkstücks durch Korrigieren der Messdaten selbst verbessern.
  • 5 zeigt eine Darstellung, die schematisch ein Beispiel einer Maschinenlernvorrichtung zeigt, die in der Messdatenverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel bereitgestellt ist. Wie in 5 gezeigt wurde, entspricht die Maschinenlernvorrichtung 2 der Messdatenkorrektureinheit 33 in der Messdatenverarbeitungsvorrichtung 3b, die zum Beispiel in dem Lernstadium Lehrerdaten durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt, die durch die Positions- und Ausrichtungsberechnungseinheit 32 berechnet sind, und einen Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten einstellt. Es sei darauf hingewiesen, dass wie vorstehend beschrieben wurde, die Messdatenverarbeitungsvorrichtung 3b (Maschinenlernvorrichtung 2) in die Robotersteuervorrichtung 3 eingebaut sein kann, in der die Robotersteuereinheit 3a bereitgestellt ist, aber zum Beispiel ebenso getrennt von der Robotersteuervorrichtung 3 bereitgestellt werden kann.
  • Die Maschinenlernvorrichtung 2 führt ein überwachtes Lernen durch und umfasst eine Zustandsbeobachtungseinheit 21, eine Lerneinheit 22 und eine Lehrerdatenerlangungseinheit 23. Beim überwachten Lernen wird eine große Anzahl von Lehrerdaten, d.h. Sätze von bestimmten Eingaben und entsprechende Ergebnisse (Lehrerdaten) in die Maschinenlernvorrichtung 2 eingegeben, um Merkmale zu erlernen, die in jenen Datensätzen beobachtet werden, und wird ein Parameter zum Korrigieren der Messdaten eingestellt.
  • Die Zustandsbeobachtungseinheit 21 beobachtet zum Beispiel Daten auf der Grundlage von Messdaten 5a aus dem Sensor 5 als eine Zustandsvariable, während die Lehrerdatenerlangungseinheit 23 die Daten auf der Grundlage der Messdaten 5a als Lehrerdaten (Daten, die durch Anordnen der Modelldaten in der Position und der Ausrichtung erlangt sind, die durch die Positions- und Ausrichtungsberechnungseinheit 32 ausgegeben sind) für das Werkstück 4 erlangt. Die Lerneinheit 22 erstellt ein Lernmodell zum Einstellen des Parameters zum Korrigieren der Messdaten 5a auf der Grundlage einer Ausgabe (Zustandsvariablen) aus der Zustandsbeobachtungseinheit 21 und eine Ausgabe (Lehrerdaten) aus der Lehrerdatenerlangungseinheit 23. Als Lehrerdaten können zum Beispiel CAD-Daten des Werkstücks 4 auf der Grundlage der Position und der Ausrichtung des Werkstücks 4 in dem Arbeitsbereich WA verwendet werden.
  • Die Ausgabeverwendungseinheit 20 verwendet eine Ausgabe aus der Maschinenlernvorrichtung 2 und entspricht zum Beispiel der vorstehend beschriebenen Kollisionsbestimmungseinheit 35 in 4, und es kann die Ausgabe Verwendungseinheit 20 als eine externe Vorrichtung zusammen mit der Messdatenkorrektureinheit 33 entsprechend der Maschinenlernvorrichtung 2 wie vorstehend beschrieben bereitgestellt werden.
  • Das Lernmodell, das durch die Maschinenlernvorrichtung 2 erlangt ist, kann durch zumindest eine weitere Maschinenlernvorrichtung 2 verwendet werden. Die Messdatenkorrektureinheit 33 kann mit anderen Worten in der Lage sein, (sich) mit einer Messdatenkorrektureinheit (einer weiteren Messdatenkorrektureinheit) in zumindest einer weiteren Messdatenverarbeitungsvorrichtung zu verbinden (zu kommunizieren), und kann gegenseitig den Parameter, der durch die Messdatenkorrektureinheit 33 eingestellt ist, mit der Messdatenkorrektureinheit in der zumindest einen weiteren Messdatenverarbeitungsvorrichtung gegenseitig austauschen oder gemeinsam verwenden. Des Weiteren muss die Maschinenlernvorrichtung 2 (Messdatenkorrektureinheit 33) nicht unbedingt in der Robotersteuervorrichtung 3 (Kante) bereitgestellt sein, die deren entsprechenden Roboter 1 steuert, und kann zum Beispiel für jede Fabrik mit einer Vielzahl von Robotern 1 (Robotersystem 100) (zum Beispiel auf einem Fog-Server) oder einem Cloud-Server bereitgestellt werden, der mit einer Vielzahl von Fabriken über eine Verbindungsleitung, wie dem Internet, verbunden ist. Es sei darauf hingewiesen, dass die Maschinenlernvorrichtung 2 zum Beispiel unter Verwendung eines mehrschichtigen neuronalen Netzes konfiguriert sein kann. Obwohl ein Allzweckcomputer oder -prozessor für die Maschinenlernvorrichtung 2 verwendet werden kann, erlaubt die Verwendung zum Beispiel einer GPGPU (Allzweckberechnung auf einer grafischen Verarbeitungseinheit) oder PC-Cluster in großem Maßstab eine Hochgeschwindigkeitsverarbeitung.
  • 6 zeigt ein Ablaufdiagramm zur Beschreibung eines beispielhaften Prozesses in dem Lernstadium. Wie in 6 gezeigt ist, wenn der beispielhafte Prozess in dem Lernstadium begonnen wird, dann werden Messdaten 5a zum Beispiel aus dem Sensor (visuellen Sensor) 5 in Schritt ST11 erlangt, und es geht der Prozess zu Schritt ST12 über. Die Messdaten, die in Schritt ST11 erlangt sind, können Daten sein, die als ein Ergebnis einer einzelnen Messung erlangt sind, können aber zum Beispiel eine Vielzahl von Daten sein, die als ein Ergebnis der Messung einer Vielzahl von Durchläufen hinsichtlich eines Ladezustands einer Vielzahl von Werkstücken erlangt sind.
  • In Schritt ST12 werden die Position und die Ausrichtung des Werkstücks berechnet (die Positions- und Ausrichtungsberechnung werden durchgeführt), und es geht der Prozess zu Schritt ST13 über. Es sei darauf hingewiesen, dass obwohl die Positions- und die Ausrichtungsberechnung, die in Schritt ST12 durchgeführt wird, ein einziges Mal hinsichtlich eines einzelnen Messdatums durchgeführt werden kann, sie ebenso für eine Vielzahl von Durchläufen hinsichtlich einer Vielzahl von Messdaten durchgeführt werden kann. In Schritt ST13 werden Lehrerdaten erzeugt, woraufhin der Prozess zu Schritt ST14 übergeht, um einen Korrekturparameter einzustellen, woraufhin der Prozess vollendet ist.
  • In Schritt ST13 werden mit anderen Worten Lehrerdaten zum Durchführen eines überwachten Lernens durch die Maschinenlernvorrichtung 2 erstellt, wobei die Lehrerdaten zum Beispiel auf der Grundlage der Position und der Ausrichtung des Werkstücks und der Modelldaten des Werkstücks (zum Beispiel CAD-Daten des Werkstücks) erstellt werden. Zudem entspricht die Einstellung des Korrekturparameters in Schritt ST14 zum Beispiel dem vorstehend beschriebenen Prozess durch die Messdatenkorrektureinheit 33 in 4 oder dem überwachten Lernprozess durch die Maschinenlernvorrichtung 2 in 5. Der Prozess in Schritt ST14 wird zum Beispiel unter Verwendung lediglich eines Bereiches durchgeführt, für den die Lehrerdaten existieren; es werden mit anderen Worten die Modelldaten virtuell in der Position und der Ausrichtung angeordnet, die in Schritt ST12 berechnet sind, und es wird der Lernvorgang lediglich für einen Bereich durchgeführt, für den die angeordneten Modelldaten existieren.
  • 7 zeigt ein Ablaufdiagramm zur Beschreibung eines beispielhaften Prozesses in dem Aufnahmestadium. Wie in 7 gezeigt ist, wenn der beispielhafte Prozess in dem Aufnahmestadium begonnen wird, dann werden Messdaten in Schritt ST21 erlangt, woraufhin der Prozess zu Schritt ST22 übergeht, und es wird die Korrektur der Messdaten, d.h. eine Korrektur der Messdaten unter Verwendung des Parameters (Korrekturparameters), der in dem Lernstadium in dem vorstehend beschriebenen Schritt ST14 eingestellt ist, durchgeführt.
  • Der Vorgang geht weiter zu Schritt ST23 über, um die Position und die Ausrichtung des Werkstücks zu berechnen. Es werden mit anderen Worten in Schritt ST23 die Position und die Ausrichtung des Werkstücks unter Verwendung der korrigierten Messdaten berechnet. Der Prozess geht weiterhin zu Schritt ST24 über, und es wird das Werkstück aufgenommen. In Schritt ST24 steuert mit anderen Worten die Robotersteuervorrichtung 3 (Robotersteuereinheit 3a) den Roboter 1 und die Hand 10, das Werkstück zu halten, für das die Position und die Ausrichtung in Schritt ST23 berechnet wurden. Somit werden die Position und die Ausrichtung des Werkstücks 4 spezifisch, und es wird eine Erfassung des Werkstücks stabilisiert, wodurch die Erfolgsrate der Aufnahme des Werkstücks verbessert wird.
  • 8 zeigt ein Ablaufdiagramm zur Beschreibung eines weiteren beispielhaften Prozesses in dem Aufnahmestadium. Wie in 8 gezeigt ist, wenn der weitere beispielhafte Prozess in dem Aufnahmestadium begonnen wird, dann werden in Schritt ST31 Messdaten erlangt, und es geht der Prozess zu Schritt ST32 über, um die Messdaten zu korrigieren. Der Prozess geht weiterhin zu Schritt ST33 über, um die Position und die Ausrichtung des Werkstücks zu berechnen. Es sei darauf hingewiesen, dass die Prozesse in Schritten ST31 bis ST33 in 8 dieselben wie jene in Schritten ST21 bis ST23 in 7 sind.
  • Als nächstes geht der Prozess zu Schritt ST34 über, um zu bestimmen, ob eine Kollision bei der Position und der Ausrichtung auftreten wird, bei der die Aufnahme durchzuführen ist, woraufhin der Prozess zu Schritt ST35 übergeht. In Schritt ST35, auf der Grundlage der korrigierten Messdaten und der Formdaten der Hand, wird bestimmt, ob eine Kollision bei der Position und der Ausrichtung zum Halten des Werkstücks auftreten wird, für das die Position und die Ausrichtung berechnet sind. Wenn bestimmt wird, dass eine Kollision bei der Position und der Ausrichtung zum Halten des Werkstücks in Schritt ST35 auftreten wird, dann kehrt der Prozess Schritt ST33 zurück und erlangt zum Beispiel eine Position und eine Ausrichtung eines weiteren Werkstücks und führt denselben Prozess durch.
  • Andererseits, wenn bestimmt wird, dass eine Kollision bei der Position und der Ausrichtung zum Halten des Werkstücks in Schritt ST35 nicht auftreten wird, dann geht der Prozess zu Schritt ST36 über, um das Werkstück aufzunehmen, woraufhin der Prozess vollendet ist. Somit ist es möglich, korrekt zu bestimmen, ob eine Kollision während eines Betriebs der Aufnahme des Werkstücks auftreten wird, wodurch nicht aufgenommene Werkstücke verringert werden und eine Kollision der Hand mit dem Behälter oder anderen Werkstücken oder dergleichen während des Betriebs der Aufnahme des Werkstücks aufgrund einer fehlerhaften Messung verringert werden.
  • 9 zeigt ein Ablaufdiagramm zur Beschreibung eines beispielhaften Prozesses zur Aktualisierung des Lernmodells, während der Aufnahmevorgang durchgeführt wird. Wie in 9 gezeigt ist, wenn der beispielhafte Prozess, der einen Lernvorgang in dem Aufnahmestadium enthält, begonnen wird, dann werden in Schritt ST41 Messdaten erlangt, und es geht der Prozess zu Schritt ST42 über, um die Messdaten zu korrigieren. Bei der Korrektur der Messdaten in Schritt ST42, wenn zum Beispiel der Prozess zum ersten Mal durchgeführt wird, wird der eingestellte Parameter nicht erhalten, wodurch die Messdaten durch Durchführen des Prozesses in dem Lernstadium vorab oder unter Verwendung eines voreingestellten initialen Parameters korrigiert werden. Es sei darauf hingewiesen, dass wenn der initiale Parameter verwendet wird, dann der Prozess in dem Lernstadium nicht vorab durchgeführt werden muss.
  • Als nächstes geht der Prozess zu Schritt ST43 über, um die Position und die Ausrichtung des Werkstücks zu berechnen, woraufhin der Prozess dann zu Schritt ST44 übergeht, um das Werkstück aufzunehmen, und es geht der Prozess zu Schritt ST45 über. In Schritt ST45 wird bestimmt, ob die Aufnahme des Werkstücks zu einem Erfolg oder einem Versagen führte; wenn bestimmt wird, dass die Aufnahme des Werkstücks nicht zu einem Erfolg führte (versagte), dann kehrt der Prozess zu Schritt ST41 zurück, um wieder Messdaten des Arbeitsbereichs zu erhalten, woraufhin derselbe Prozess wiederholt wird.
  • Demgegenüber, wenn bestimmt wird, dass die Aufnahme des Werkstücks zu einem Erfolg in Schritt ST45 führte, dann geht der Prozess zu Schritt ST46 über, um Lehrerdaten zum Lernen zu erzeugen. Es werden mit anderen Worten hinsichtlich des Werkstücks, für das die Aufnahme zu einem Erfolg führte, Lehrerdaten aus der Position und der Ausrichtung des Werkstücks und den Modelldaten (CAD-Daten) des Werkstücks erzeugt. Dann geht der Prozess zu Schritt ST47 über, um den Korrekturparameter einzustellen (zu aktualisieren), woraufhin der Prozess vollendet ist. Es sei darauf hingewiesen, dass die vorstehend beschriebenen Prozesse in Schritten ST41 bis ST47 für den Betrieb der Aufnahme von jedem Werkstück durchgeführt werden. Es ist somit möglich, den Parameter zum Korrigieren der Messdaten einzustellen, während ein Ist-Betrieb der Aufnahme des Werkstücks durchgeführt wird.
  • Wie vorstehend beschrieben wurde, können das Robotersystem, die Messdatenverarbeitungsvorrichtung und das Messdatenverarbeitungsverfahren des vorliegenden Ausführungsbeispiels die Genauigkeit bei der Aufnahme des Werkstücks durch Korrigieren der Messdaten selbst verbessern.
  • Das Robotersystem, die Messdatenverarbeitungsvorrichtung und das Messdatenverarbeitungsverfahren gemäß der vorliegenden Erfindung können eine vorteilhafte Wirkung des Verbesserns der Genauigkeit bei der Aufnahme des Werkstücks durch Korrigieren der Messdaten selbst bereitstellen.
  • Alle Beispiele und Konditionalausdrücke, die in dieser Beschreibung angegeben sind, dienen pädagogischen Zwecken zur Unterstützung des Lesers beim Verständnis der Erfindung und der Konzepte, die vom Erfinder beigesteuert wurden, um die Technik voranzubringen, und sind nicht als Beschränkungen auf derartige spezifisch angegebene Beispiele und Bedingungen auszulegen. Ebenso wenig bezieht sich die Zusammenfassung derartiger Beispiele in der Beschreibung auf eine Offenbarung der Überlegenheit oder Unterlegenheit der Erfindung. Obwohl ein oder mehrere Ausführungsbeispiele der vorliegenden Erfindung ausführlich beschrieben wurde oder wurden, ist ersichtlich, dass verschiedene Änderungen, Ersetzungen und Abänderungen an der Erfindung durchgeführt werden können, ohne von dem Wesen und Schutzbereich der Erfindung abzuweichen.

Claims (15)

  1. Robotersystem, das umfasst: einen Roboter (1), der eine Hand (10) umfasst, die konfiguriert ist, um ein Werkstück (4) zu halten; einen Sensor (5), der konfiguriert ist, um einen Arbeitsbereich zu messen, in dem das Werkstück (4) existiert, um eine dreidimensionale Form in dem Arbeitsbereich als Messdaten zu erlangen; eine Messdatenverarbeitungsvorrichtung (3b), die eine Modelldatenspeichereinheit (31), die konfiguriert ist, um eine dreidimensionale Form des Werkstücks (4) als Modelldaten zu speichern, eine Messdatenkorrektureinheit (33), die konfiguriert ist, um die Messdaten mittels maschinellen Lernens zu korrigieren, und eine Positions- und Ausrichtungsberechnungseinheit (32) umfasst, die konfiguriert ist, um die Messdaten mit den Modelldaten zu kollationieren, um eine Position und eine Ausrichtung des Werkstücks (4) in dem Arbeitsbereich zu berechnen; und eine Robotersteuereinheit (3a), die konfiguriert ist, um den Roboter (1) auf der Grundlage einer Ausgabe aus der Positions- und Ausrichtungsberechnungseinheit (32) zu steuern, wobei die Messdatenkorrektureinheit (33) in einem Lernstadium Lehrerdaten durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt, die durch die Positions- und Ausrichtungsberechnungseinheit (32) berechnet sind, und einen Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten einstellt, und in einem Aufnahmestadium korrigierte Messdaten ausgibt, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters erlangt sind.
  2. Robotersystem gemäß Anspruch 1, wobei die Messdatenverarbeitungsvorrichtung (3b) weiterhin umfasst: einer Handformspeichereinheit (34), die konfiguriert ist, um Formdaten der Hand (10) zu speichern; und eine Kollisionsbestimmungseinheit (35), die konfiguriert ist, zu bestimmen, ob eine Kollision bei einer Position und eine Ausrichtung zum Halten des Werkstücks (4) auf der Grundlage der Formdaten der Hand (10) und der korrigierten Messdaten auftreten wird.
  3. Robotersystem gemäß Anspruch 1 oder 2, wobei die Messdatenkorrektureinheit (33) eine Eingabeakzeptanzeinheit (331) umfasst, die konfiguriert ist, um einzugeben, ob ein Ausgabeergebnis aus der Positions- und Ausrichtungsberechnungseinheit (32) als die Lehrerdaten zu verwenden ist oder nicht, und in dem Lernstadium der Parameter zum Korrigieren der Messdaten unter Verwendung der Lehrerdaten eingestellt wird, die durch die Eingabeakzeptanzeinheit (331) vermittelt sind.
  4. Robotersystem gemäß zumindest einem der Ansprüche 1 bis 3, wobei die Messdatenverarbeitungsvorrichtung (3b) weiterhin umfasst: eine Haltebestimmungseinheit (36), die konfiguriert ist, um zu bestimmen, ob das Halten des Werkstücks (4) zu einem Erfolg oder Versagen führte, wobei in dem Lernstadium, die Messdatenverarbeitungsvorrichtung die Lehrerdaten, die durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt sind, die berechnet wurden, als das Halten zu einem Erfolg führte, in die Messdatenkorrektureinheit (33) eingibt, und den Parameter zum Korrigieren der Messdaten einstellt.
  5. Robotersystem gemäß zumindest einem der Ansprüche 1 bis 4, wobei das Werkstück eine Vielzahl von Werkstücken (4) umfasst, die zufällig in dem Arbeitsbereich abgeladen sind, und der Sensor einen visuellen Sensor (5) umfasst, der ortsfest bei einer Position angelegt ist, aus der der Arbeitsbereich aufgenommen wird, oder bei einem Ende des Roboters (1) angebracht ist.
  6. Robotersystem gemäß zumindest einem der Ansprüche 1 bis 5, wobei die Messdatenverarbeitungsvorrichtung (3b) in eine Robotersteuervorrichtung (3a) eingebaut ist, die die Robotersteuereinheit umfasst.
  7. Messdatenverarbeitungsvorrichtung, die umfasst: eine Modelldatenspeichereinheit (31), die konfiguriert ist, um eine dreidimensionale Form eines Werkstücks (4) als Modelldaten zu speichern; eine Messdatenkorrektureinheit (33), die konfiguriert ist, um Messdaten, die durch Messen einer dreidimensionalen Form in einem Arbeitsbereich erlangt sind, in dem das Werkstück (4) existiert, mittels maschinellen Lernens zu korrigieren; und eine Positions- und Ausrichtungsberechnungseinheit (32), die konfiguriert ist, um die Messdaten mit den Modelldaten zu kollationieren, um eine Position und eine Ausrichtung des Werkstücks (4) in dem Arbeitsbereich zu berechnen, wobei die Messdatenkorrektureinheit (33) in einem Lernstadium Lehrerdaten durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt, die durch die Positions- und Ausrichtungsberechnungseinheit (32) berechnet sind, und einen Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten einstellt, und in einem Aufnahmestadium korrigierte Messdaten ausgibt, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters erlangt sind.
  8. Messdatenverarbeitungsvorrichtung gemäß Anspruch 7, weiterhin umfassend: eine Handformspeichereinheit (34), die konfiguriert ist, um Formdaten einer Hand (10) eines Roboters (1) zu speichern, der das Werkstück (4) hält; und eine Kollisionsbestimmungseinheit (35), die konfiguriert ist, um zu bestimmen, ob eine Kollision bei einer Position und einer Ausrichtung zum Halten des Werkstücks (4) auftreten wird, auf der Grundlage der Formdaten der Hand (10) und der korrigierten Messdaten.
  9. Messdatenverarbeitungsvorrichtung gemäß Anspruch 7 oder 8, wobei die Messdatenkorrektureinheit (33) eine Eingabeakzeptanzeinheit (331) umfasst, die konfiguriert ist, um einzugeben, ob ein Ausgabeergebnis aus der Positions- und Ausrichtungsberechnungseinheit (32) als die Lehrerdaten zu verwenden ist oder nicht, und in dem Lernstadium der Parameter zum Korrigieren der Messdaten unter Verwendung der Lehrerdaten eingestellt wird, die durch die Eingabeakzeptanzeinheit (331) vermittelt sind.
  10. Messdatenverarbeitungsvorrichtung gemäß zumindest einem der Ansprüche 7 bis 9, weiterhin umfassend: eine Haltebestimmungseinheit (36), die konfiguriert ist, um zu bestimmen, ob das Halten des Werkstücks (4) zu einem Erfolg oder Versagen führte, wobei in einem Lernstadium die Messdatenverarbeitungsvorrichtung die Lehrerdaten, die durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt sind, die berechnet wurden, als das Halten zu einem Erfolg führte, in die Messdatenkorrektureinheit (33) eingibt, und den Parameter zum Korrigieren der Messdaten einstellt.
  11. Messdatenverarbeitungsvorrichtung gemäß zumindest einem der Ansprüche 7 bis 10, wobei die Messdatenkorrektureinheit (33) unter Verwendung eines mehrschichtigen neuronalen Netzes konfiguriert ist.
  12. Messdatenverarbeitungsvorrichtung gemäß zumindest einem der Ansprüche 7 bis 11, wobei die Messdatenkorrektureinheit (33) in der Lage ist, sich mit einer Messdatenkorrektureinheit in zumindest einer weiteren Messdatenverarbeitungsvorrichtung zu verbinden, und den Parameter, der durch die Messdatenkorrektureinheit (33) eingestellt ist, mit der Messdatenkorrektureinheit in der zumindest einen weiteren Messdatenverarbeitungsvorrichtung gegenseitig auszutauschen oder gemeinsam zu verwenden.
  13. Messdatenverarbeitungsverfahren, das umfasst: Speichern einer dreidimensionalen Form eines Werkstücks (4) als Modelldaten; Korrigieren von Messdaten, die durch Messen einer dreidimensionalen Form in einem Arbeitsbereich erlangt sind, in dem das Werkstück (4) existiert, mittels maschinellen Lernens; und Kollationieren der Messdaten mit den Modelldaten, um eine Position und eine Ausrichtung des Werkstücks (4) in dem Arbeitsbereich zu berechnen, wobei in einem Lernstadium Lehrerdaten durch Anordnen der Modelldaten in der berechneten Position und Ausrichtung des Werkstücks (4) in dem Arbeitsbereich erstellt werden und ein Parameter zum Korrigieren der Messdaten auf der Grundlage der Messdaten und der Lehrerdaten eingestellt wird, und in einem Aufnahmestadium korrigierte Messdaten, die durch Korrigieren der Messdaten unter Verwendung des eingestellten Parameters erlangt sind, ausgegeben werden.
  14. Messdatenverarbeitungsverfahren gemäß Anspruch 13, wobei eine Eingabe bezüglich dessen getätigt wird, ob die berechnete Position und Ausrichtung als die Lehrerdaten zu verwenden sind oder nicht, und in dem Lernstadium der Parameter zum Korrigieren der Messdaten auf der Grundlage der Lehrerdaten eingestellt wird, die zur Verwendung als die Lehrerdaten eingegeben sind.
  15. Messdatenverarbeitungsverfahren gemäß Anspruch 13 oder 14, weiterhin umfassend: Bestimmen, ob das Halten des Werkstücks (4) zu einem Erfolg oder Versagen führte; und in dem Lernstadium, auf der Grundlage der Lehrerdaten, die durch Anordnen der Modelldaten in der Position und der Ausrichtung erstellt sind, die berechnet wurden, als das Halten zu einem Erfolg führte, Einstellen des Parameters zum Korrigieren der Messdaten.
DE102018001781.9A 2017-03-13 2018-03-06 Robotersystem, Messdatenverarbeitungsvorrichtung und Messdatenverarbeitungsverfahren zum Aufnehmen eines Werkstücks unter Verwendung von Messdaten, die mittels maschinellen Lernens korrigiert sind Active DE102018001781B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017047459A JP6438512B2 (ja) 2017-03-13 2017-03-13 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP2017-047459 2017-03-13

Publications (2)

Publication Number Publication Date
DE102018001781A1 true DE102018001781A1 (de) 2018-09-13
DE102018001781B4 DE102018001781B4 (de) 2019-07-18

Family

ID=63258958

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018001781.9A Active DE102018001781B4 (de) 2017-03-13 2018-03-06 Robotersystem, Messdatenverarbeitungsvorrichtung und Messdatenverarbeitungsverfahren zum Aufnehmen eines Werkstücks unter Verwendung von Messdaten, die mittels maschinellen Lernens korrigiert sind

Country Status (4)

Country Link
US (1) US10350752B2 (de)
JP (1) JP6438512B2 (de)
CN (1) CN108568804B (de)
DE (1) DE102018001781B4 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
CN112123350A (zh) * 2020-09-27 2020-12-25 深圳市界面科技有限公司 一种木器加工装置的控制系统及控制方法
WO2021028084A1 (de) * 2019-08-14 2021-02-18 Robominds GmbH Automatisierungssystem und verfahren zur handhabung von produkten
EP3998460A1 (de) 2019-12-16 2022-05-18 Sick Ag Gebervorrichtung und verfahren zur bestimmung einer kinematischen grösse
US11607803B2 (en) 2018-11-21 2023-03-21 Thk Co., Ltd. Image information processing device, gripping system, and image information processing method

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018176334A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
JP6542839B2 (ja) * 2017-06-07 2019-07-10 ファナック株式会社 制御装置及び機械学習装置
AT520957A1 (de) * 2018-03-09 2019-09-15 Tgw Logistics Group Gmbh Robotersystem zur Prüfung eines Laderaums eines Ladehilfsmittels in einem Lager- und Kommissioniersystem und Betriebsverfahren hierfür
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US11945115B2 (en) * 2018-06-14 2024-04-02 Yamaha Hatsudoki Kabushiki Kaisha Machine learning device and robot system provided with same
DE102019124809A1 (de) 2018-09-21 2020-03-26 Fanuc Corporation Bildgebungsvorrichtung und Bildgebungssystem
JP2020052032A (ja) * 2018-09-21 2020-04-02 ファナック株式会社 撮像装置及び撮像システム
CN112513677A (zh) * 2018-09-28 2021-03-16 松下知识产权经营株式会社 纵深取得装置、纵深取得方法以及程序
JP7047726B2 (ja) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 把持ロボットおよび把持ロボットの制御プログラム
JP6904327B2 (ja) * 2018-11-30 2021-07-14 オムロン株式会社 制御装置、制御方法、及び制御プログラム
JP6908642B2 (ja) * 2019-02-25 2021-07-28 ファナック株式会社 レーザ加工装置
JP7275759B2 (ja) * 2019-03-28 2023-05-18 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム
CN110228068A (zh) * 2019-06-14 2019-09-13 广西科技大学 一种机器人平面作业点快速定位系统及其快速定位方法
JP7295421B2 (ja) * 2019-08-22 2023-06-21 オムロン株式会社 制御装置及び制御方法
JP7383255B2 (ja) * 2019-08-22 2023-11-20 ナブテスコ株式会社 情報処理システム、情報処理方法、建設機械
JP7021158B2 (ja) * 2019-09-04 2022-02-16 株式会社東芝 ロボットシステムおよび駆動方法
US11389957B2 (en) 2019-09-30 2022-07-19 Mitsubishi Electric Research Laboratories, Inc. System and design of derivative-free model learning for robotic systems
US20220035334A1 (en) * 2020-07-29 2022-02-03 Abb Schweiz Ag Technologies for producing training data for identifying degradation of physical components
DE102021104001B3 (de) 2021-02-19 2022-04-28 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zum automatischen Ergreifen, insbesondere Umsetzen, von Gegenständen

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4613269A (en) * 1984-02-28 1986-09-23 Object Recognition Systems, Inc. Robotic acquisition of objects by means including histogram techniques
JPH10111701A (ja) * 1996-10-05 1998-04-28 Ricoh Co Ltd 学習型自動セル装置と学習方法
JPH10315174A (ja) * 1997-05-14 1998-12-02 Meidensha Corp ハンド衝突検査方法及びハンド衝突検査方法を実現するソフトウェアを記録した記録媒体ならびにハンド衝突検査装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
KR100752098B1 (ko) * 2006-03-07 2007-08-24 한국과학기술연구원 신경망 기반 로봇 시스템
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP5380792B2 (ja) 2007-06-15 2014-01-08 株式会社Ihi 物体認識方法および装置
JP5104248B2 (ja) 2007-11-22 2012-12-19 株式会社Ihi 物体認識装置およびロボット装置
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
EP2346650A1 (de) * 2008-08-29 2011-07-27 ABB Research Ltd. Nachgiebige vorrichtung für das werkzeug am ende eines arms eines industrieroboters
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
US9089966B2 (en) * 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5852364B2 (ja) 2011-08-26 2016-02-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5623358B2 (ja) * 2011-09-06 2014-11-12 三菱電機株式会社 ワーク取り出し装置
JP5806606B2 (ja) * 2011-12-01 2015-11-10 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
US9258550B1 (en) * 2012-04-08 2016-02-09 Sr2 Group, Llc System and method for adaptively conformed imaging of work pieces having disparate configuration
JP6074272B2 (ja) * 2013-01-17 2017-02-01 キヤノン株式会社 画像処理装置および画像処理方法
JP6192088B2 (ja) * 2013-02-20 2017-09-06 国立大学法人九州工業大学 物体検出方法および物体検出装置
JP5765355B2 (ja) * 2013-03-18 2015-08-19 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP2014205209A (ja) 2013-04-11 2014-10-30 三菱電機株式会社 ロボットシステム、及びロボットシステムの制御方法
CA2951523C (en) * 2013-06-11 2021-06-01 Somatis Sensor Solutions LLC Systems and methods for sensing objects
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
KR102081139B1 (ko) * 2014-03-12 2020-02-25 한국전자통신연구원 물체 피킹 시스템, 물체 검출 장치 및 그 방법
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6364856B2 (ja) * 2014-03-25 2018-08-01 セイコーエプソン株式会社 ロボット
CN104057290B (zh) * 2014-06-24 2016-09-14 中国科学院自动化研究所 一种基于视觉和力反馈控制的机器人装配方法与系统
JP6335806B2 (ja) 2015-01-22 2018-05-30 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
JP6548422B2 (ja) * 2015-03-27 2019-07-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
CN105598965B (zh) * 2015-11-26 2018-03-16 哈尔滨工业大学 基于立体视觉的机器人欠驱动手自主抓取方法
JP6744709B2 (ja) * 2015-11-30 2020-08-19 キヤノン株式会社 情報処理装置、情報処理方法
JP6298035B2 (ja) * 2015-12-17 2018-03-20 ファナック株式会社 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
CN106078748B (zh) * 2016-06-13 2018-09-14 北京理工大学 一种基于手、眼、臂协调操作的机器人抓取物体的控制方法
CN106204620B (zh) * 2016-07-21 2018-12-11 清华大学 一种基于微视觉的触觉三维力检测方法
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11045948B2 (en) 2018-10-15 2021-06-29 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method
DE112019001256B3 (de) 2018-10-15 2022-08-18 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11839977B2 (en) 2018-10-15 2023-12-12 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method
US11607803B2 (en) 2018-11-21 2023-03-21 Thk Co., Ltd. Image information processing device, gripping system, and image information processing method
DE112019005825B4 (de) 2018-11-21 2023-07-27 Thk Co., Ltd. Bildinformationen-Verarbeitungseinrichtung, Greifsystem und Bildinformationen-Verarbeitungsverfahren
WO2021028084A1 (de) * 2019-08-14 2021-02-18 Robominds GmbH Automatisierungssystem und verfahren zur handhabung von produkten
EP3998460A1 (de) 2019-12-16 2022-05-18 Sick Ag Gebervorrichtung und verfahren zur bestimmung einer kinematischen grösse
EP3839443B1 (de) * 2019-12-16 2022-06-08 Sick Ag Gebervorrichtung und verfahren zur bestimmung einer kinematischen grösse
US11698386B2 (en) 2019-12-16 2023-07-11 Sick Ag Encoder device and method of determining a kinematic value
CN112123350A (zh) * 2020-09-27 2020-12-25 深圳市界面科技有限公司 一种木器加工装置的控制系统及控制方法
CN112123350B (zh) * 2020-09-27 2024-01-30 深圳市界面科技有限公司 一种木器加工装置的控制系统及控制方法

Also Published As

Publication number Publication date
JP6438512B2 (ja) 2018-12-12
DE102018001781B4 (de) 2019-07-18
US20180257225A1 (en) 2018-09-13
CN108568804B (zh) 2019-06-18
CN108568804A (zh) 2018-09-25
JP2018149628A (ja) 2018-09-27
US10350752B2 (en) 2019-07-16

Similar Documents

Publication Publication Date Title
DE102018001781B4 (de) Robotersystem, Messdatenverarbeitungsvorrichtung und Messdatenverarbeitungsverfahren zum Aufnehmen eines Werkstücks unter Verwendung von Messdaten, die mittels maschinellen Lernens korrigiert sind
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102013012224B4 (de) Vorrichtung zum Entnehmen von lose gespeicherten Gegenständen durch einen Roboter
DE102018000730B4 (de) Werkstückaufnahmevorrichtung und Werkstückaufnahmeverfahren zum Verbessern des Aufnahmevorgangs eines Werkstücks
DE102016014658B4 (de) 1, 2Modellerzeugungsvorrichtung, Positions- und Orientierungsberechnungsvorrichtung und Handling Robotervorrichtung
DE102016013986B4 (de) Vorrichtung zum messen von positionen und stellungen einer mehrzahl von artikeln sowie die vorrichtung aufweisendes robotersystem
DE102018129425B4 (de) System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
DE102018206209B4 (de) Artikelentnahmesystem
DE102020118635A1 (de) 3D-Datenerzeugungsvorrichtung und Robotersteuersystem
DE102019002623A1 (de) Controller und Steuersystem
DE112018007727B4 (de) Robotersystem
EP4137981A1 (de) Generierung eines gebäudeinformationsmodells
DE112019007852B4 (de) Informationsverarbeitungsvorrichtung, Werkstückerkennungsvorrichtung und Werkstückaufgreifvorrichtung
DE102018202406B4 (de) Werkstückaufnahmesystem
DE102012024934B4 (de) Verfahren und Programmiersystem zur erstmaligen Erstellung eines auf einem Messroboter ausführbaren Messprogramms für die Messung eines neuen Messobjekts
WO2021001312A1 (de) Durchführen einer applikation mithilfe wenigstens eines roboters
DE102018103474A1 (de) Ein system und verfahren zur objektabstandserkennung und positionierung
DE102017220954A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Ermittlung einer Anomalie
DE102017012348B3 (de) Mit einer Formungsmaschine und einer Formproduktentnahmevorrichtung versehenes Formungssystem
DE102019124809A1 (de) Bildgebungsvorrichtung und Bildgebungssystem
DE102018110063A1 (de) Industrielle fertigungsstätte und verfahren zur automatisierten verbuchung von manuellen tätigkeiten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final