DE112017002114T5 - Objekt-Handhabungsgerät und Objekthandhabungsverfahren - Google Patents

Objekt-Handhabungsgerät und Objekthandhabungsverfahren Download PDF

Info

Publication number
DE112017002114T5
DE112017002114T5 DE112017002114.6T DE112017002114T DE112017002114T5 DE 112017002114 T5 DE112017002114 T5 DE 112017002114T5 DE 112017002114 T DE112017002114 T DE 112017002114T DE 112017002114 T5 DE112017002114 T5 DE 112017002114T5
Authority
DE
Germany
Prior art keywords
target object
handling
pickup
pickup device
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017002114.6T
Other languages
English (en)
Inventor
Yukiyasu Domae
Ryosuke Kawanishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017002114T5 publication Critical patent/DE112017002114T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Abstract

Ein Objekterkenner erkennt eine Position und eine Stellung eines Zielobjekts anhand der von einem Sensor gemessenen Daten. Ein Sicherheitsabstandsrechner (4c) berechnet eine Entfernung vom Zielobjekt zu einem bestimmten Objekt, das kein Objekt-Handhabungsgerät und Zielobjekt ist. Eine Handhabungssteuerung (4d) steuert die Pickup-Einrichtung (3) abhängig von der Position und der Stellung des Zielobj ekts und der Entfernung vom Zielobjekt zum jeweiligen Objekt. Wenn mehrere Zielobjekte durch das Objekt-Handhabungsgerät ausgewählt werden sollen, wählt die Handhabungssteuerung (4d) eines der Zielobjekte aus, dessen Abstand zu dem bestimmten Objekt größer als eine vorgegebene Schwelle ist, und handhabt das ausgewählte Zielobjekt mit der Pickup-Einrichtung (3).

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf ein Objekt-Handhabungsgerät und ein Objekthandhabungsverfahren für eine automatische Maschine, die ein Objekt aufnimmt und handhabt, während man sich den Arbeitsbereich mit einer oder mehreren Personen teilt.
  • STAND DER TECHNIK
  • Wenn eine automatische Maschine, wie z.B. ein Roboter, mit einem oder mehreren Menschen zusammenarbeitet, ist es notwendig, die Sicherheit gegen Kollisionen mit dem oder den Menschen und die Arbeitseffizienz für ein schnelles Arbeiten zu berücksichtigen. Zum Beispiel zeigen die Patentdokumente 1 und 2 Entwicklungen, um sowohl geeignete Sicherheit als auch Arbeitseffizienz zu erreichen.
  • Das Patentdokument 1 beschreibt, dass eine automatische Maschine zur Erzielung von Sicherheit und Effizienz die Position eines Menschen erkennt und die Arbeitsgeschwindigkeit der automatischen Maschine in Abhängigkeit vom Abstand zwischen automatischer Maschine und Mensch ändert. Wenn sich der Mensch nähert, wird die Arbeitsgeschwindigkeit der automatischen Maschine reduziert, um ein sicheres Arbeiten zu erreichen. Wenn der Mensch weiter entfernt ist, wird die Arbeitsgeschwindigkeit der automatischen Maschine erhöht, um ein effizientes Arbeiten zu erreichen.
  • Das Patentdokument 2 beschreibt, dass sowohl Sicherheit als auch Arbeitseffizienz durch eine Änderung der Betriebsarten erreicht werden. Das heißt, eine automatische Maschine wird in Abhängigkeit von der Entfernung zu einem Menschen (im Patentdokument 2 als „beweglicher Körper“ bezeichnet) angehalten oder mit geringer Leistung betrieben und erreicht damit Sicherheit und Arbeitseffizienz.
  • STAND DER TECHNIK
    • Patentdokument 1: Japanische Patentanmeldungs-Offenlegungsschrift JP 2015-526 309 A
    • Patentdokument 2: Japanische Patentanmeldungs-Offenlegungsschrift JP 2014-176 934 A
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Mit der Erfindung zu lösende Probleme
  • Derartige automatischen Maschinen reduzieren einfach die Arbeitsgeschwindigkeit und die Ausgangsleistung der automatischen Maschine in Abhängigkeit von den Positionen der automatischen Maschine und des Menschen. Daher gibt es das Problem, dass immer dann, wenn sich der Mensch in der Nähe der automatischen Maschine befindet, die Arbeitsgeschwindigkeit und/oder die Ausgangsleistung reduziert wird, so dass die Arbeitseffizienz gering bleibt.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, das oben beschriebene Problem zu lösen und ein Objekt-Handhabungsgerät und ein Objekthandhabungsverfahren anzugeben, die in der Lage sind, sowohl Sicherheit als auch Effizienz zu erreichen und auch bei der Annäherung eines Menschen effizient zu arbeiten.
  • Mittel zum Lösen der Probleme
  • Gemäß einem Aspekt der vorliegenden Erfindung ist ein Objekt-Handhabungsgerät mit mindestens einem Sensor und mindestens einer Pickup-Einrichtung ausgestattet, um mindestens ein Zielobjekt mit der Pickup-Einrichtung aufzunehmen und zu handhaben. Das Objekt-Handhabungsgerät ist weiterhin ausgestattet mit folgenden Komponenten: einem Objekterkenner, der eine Position und eine Stellung des Zielobjekts anhand der vom Sensor gemessenen Daten erkennt; einem Entfernungsrechner, der eine Entfernung von dem Zielobjekt zu einem bestimmten Objekt berechnet, das nicht das Objekt-Handhabungsgerät und nicht das Zielobjekt ist; und mit einer Handhabungssteuerung, die die Pickup-Einrichtung anhand der Position und Stellung des Zielobjekts und anhand der Entfernung von dem Zielobjekt zu dem bestimmten Objekt steuert.
  • Bei mehreren Zielobjekten, die vom Objekt-Handhabungsgerät ausgewählt werden sollen, wählt die Handhabungssteuerung eines der Zielobjekte aus, dessen Abstand zu dem bestimmten Objekt größer als eine vorgegebene Schwelle ist, und handhabt das ausgewählte Zielobjekt mit der Pickup-Einrichtung.
  • Effekt der Erfindung
  • Gemäß der vorliegenden Erfindung wählt das Objekt-Handhabungsgerät ein Zielobjekt aus, das ein effizientes Arbeiten ermöglicht und ermittelt gleichzeitig die Möglichkeit einer Kollision mit einem Menschen. Dadurch ist es möglich, effizienter zu arbeiten, als nur die Arbeitsgeschwindigkeit des Gerätes zu reduzieren.
  • Figurenliste
    • 1 ist eine Hardwarekonfigurationsdarstellung, die ein Objekt-Handhabungsgerät gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt;
    • 2 ist eine Funktionsdarstellung, die das Objekt-Handhabungsgerät gemäß 1 zeigt;
    • 3 ist ein übergreifendes Verfahrensflussdiagramm des Objekt-Handhabungsgerätes der 1;
    • 4 ist ein Verfahrensflussdiagramm, das mit einer Handhabungssteuerung des Objekt-Handhabungsgerätes der 1 durchgeführt wird;
    • 5 ist eine Hardwarekonfigurationsdarstellung, die ein Objekt-Handhabungsgerät gemäß einer zweiten Ausführungsform der vorliegenden Erfindung zeigt;
    • 6 ist eine Funktionsdarstellung, die das Objekt-Handhabungsgerät gemäß 5 zeigt;
    • 7 ist ein übergreifendes Verfahrensflussdiagramm des Objekt-Handhabungsgerätes der 5;
    • 8 ist eine Darstellung von Sicherheitsabständen, die auf der Basis von Informationen über eine vorgegebene Ebene im Raum berechnet worden sind;
    • 9 ist eine Hardwarekonfigurationsdarstellung, die ein Objekt-Handhabungsgerät gemäß einer dritten Ausführungsform der vorliegenden Erfindung zeigt;
    • 10 ist ein Verfahrensflussdiagramm des Objekt-Handhabungsgerätes gemäß 9, in dem eine Handhabungssteuerung eine Pickup-Einrichtung und ein Zielobjekt für den sicheren Betrieb auswählt;
    • 11 ist eine Darstellung, die verschiedene Wirkrichtungen der Pickup-Einrichtungen zum Aufnehmen zeigt;
    • 12 ist ein vom Objekt-Handhabungsgerät der 9 durchgeführtes Verfahrensflussdiagramm zur Berechnung eines Sicherheitsfaktors für eine Wirkrichtung der jeweiligen Pickup-Einrichtung;
    • 13 ist ein Verfahrensflussdiagramm des Objekt-Handhabungsgerätes der 9, in dem die Handhabungssteuerung eine Pickup-Einrichtung und ein Zielobjekt für einen sicheren und effizienten Betrieb auswählt;
    • 14 ist ein Verfahrensflussdiagramm des Objekt-Handhabungsgerätes der 9, in dem die Handhabungssteuerung ein Pickup-Verfahren, eine Pickup-Einrichtung und ein Zielobjekt für einen sicheren und effizienten Betrieb auswählt;
    • 15 ist eine Hardwarekonfigurationsdarstellung, die ein Objekt-Handhabungsgerät gemäß einer vierten Ausführungsform der vorliegenden Erfindung zeigt;
    • 16 ist eine funktionelle Darstellung des Objekt-Handhabungsgerätes gemäß 15;
    • 17 ist ein erstes übergreifendes Verfahrensflussdiagramm, das mit einer Handhabungssteuerung des Objekt-Handhabungsgerätes der 15 durchgeführt wird;
    • 18 ist ein zweites übergreifendes Verfahrensflussdiagramm der Handhabungssteuerung des Objekt-Handhabungsgerätes der 15;
    • 19 ist eine Darstellung einer Hardwarekonfiguration, die ein Objekt-Handhabungsgerät gemäß einer fünften Ausführungsform der vorliegenden Erfindung zeigt;
    • 20 ist eine Funktionsdarstellung des Objekt-Handhabungsgerätes gemäß 19 und
    • 21 ist ein übergreifendes Verfahrensflussdiagramm, das mit einer Handhabungssteuerung des Objekt-Handhabungsgerätes der 19 durchgeführt wird.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Ausführungsform 1
  • 1 ist eine Darstellung der Hardwarekonfiguration, die ein Objekt-Handhabungsgerät gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt. Das Objekt-Handhabungsgerät gemäß 1 ist mit mindestens einem Sensor und mindestens einer Pickup-Einrichtung ausgestattet und nimmt mit der Pickup-Einrichtung mindestens ein zu handhabendes Objekt (nachfolgend „Zielobjekt“ genannt) auf und handhabt es.
  • Das Objekt-Handhabungsgerät gemäß 1 ist mit einer Antriebseinrichtung 1, einem Sensor 2, einer Pickup-Einrichtung 3, einer Informationsverarbeitungsvorrichtung 4 und einem Sensor 5 ausgestattet. Die Antriebseinrichtung 1, der Sensor 2, die Pickup-Einrichtung 3 und der Sensor 5 sind an die Informationsverarbeitungsvorrichtung 4 angeschlossen. Die Informationsverarbeitungsvorrichtung 4 ist mit einer Zentraleinheit (CPU) 41, einem Nur-Lese-Speicher (ROM) 42 zur Speicherung von Ausführungsprogrammen, einem Direktzugriffsspeicher (RAM) 43 zur Speicherung von Ein- und Ausgangssignalen, einer Eingabeeinrichtung 44 zur Aufnahme von Tätigkeiten eines Menschen und einer Anzeigeeinrichtung 45 zur Darstellung von Informationen an einen Menschen ausgestattet. Die Eingabeeinrichtung 44 besitzt z.B. eine Maus, eine Tastatur, eine Gestenerkennungskamera, einen tragbaren Beschleunigungssensor, etc. Die Anzeigeeinrichtung 45 beinhaltet z.B. ein Display, etc.
  • Die Antriebseinrichtung 1 bewegt den Sensor 2, die Pickup-Einrichtung 3 und den Sensor 5. Die Antriebseinrichtung 1 dient dazu, die Sensoren 2 und 5 zu einem Messpunkt zu bewegen und die Pickup-Einrichtung 3 in eine Position zur Handhabung eines Zielobjekts zu bringen. Die Antriebseinrichtung bezeichnet hier eine Vorrichtung, die auf der Basis von Handlungsbefehlen eine automatische Bewegung ermöglicht, und sie kann einen Roboter, ein Handhabungsgerät, einen beweglichen Schlitten, eine Linearachse und eine Kombination aus mehreren Antriebsachsen aufweisen.
  • Der Sensor 2 misst einen Bereich um das Objekt-Handhabungsgerät und erkennt eine Position und eine Stellung eines Zielobjekts. Der Sensor 2 ist eine Kamera oder ein dreidimensionaler optischer Sensor. Der Sensor 2 kann eine Lochkamera, eine Messsucherkamera, eine Sucherkamera, eine Lichtfeldkamera, eine Stereokamera, eine aktive Stereokamera, eine passive Stereokamera, eine photometrische Stereoanlage, ein Sensor gemäß dem Time-of-Flight-Verfahren, ein Sensor gemäß dem räumlichen Kodierungsverfahren, ein Sensor gemäß dem strukturierten Lichtverfahren oder ein Laserscanner sein.
  • Die Pickup-Einrichtung 3 ist ein Mechanismus zur Handhabung eines Zielobjekts um das Objekt-Handhabungsgerät. Die Pickup-Einrichtung 3 kann eine Pickup-Einrichtung vom Sauggreifertyp sein, die ein Zielobjekt ansaugt und aufnimmt, oder eine Pickup-Einrichtung vom Klemmentyp, die ein Zielobjekt einklemmt und aufnimmt. Ferner ist es möglich, die Anzahl der Düsen der Pickup-Einrichtung vom Sauggreifertyp, die Anzahl der Finger und Stifte der Pickup-Einrichtung vom Klemmentyp und deren Formen beliebig zu wählen.
  • Der Sensor 5 misst einen Bereich um das Objekt-Handhabungsgerät und erkennt eine Position und eine Stellung eines anderen Objekts als das Objekt-Handhabungsgerät und ein Zielobjekt, das in der Umgebung des Objekt-Handhabungsgeräts vorhanden ist, z.B. einen Menschen in der Umgebung des Objekt-Handhabungsgeräts. Der Sensor 5 kann eine Kamera oder ein dreidimensionaler optischer Sensor sein oder ein Sensor, der eine Schallwelle, Hitze, Licht, Vibration oder Magnetismus erkennt.
  • Die Kamera oder der dreidimensionale optische Sensor kann eine Lochkamera, eine Messsucherkamera, eine Sucherkamera, eine Lichtfeldkamera, eine Stereokamera, eine aktive Stereokamera, eine passive Stereokamera, eine photometrische Stereoanlage, ein Sensor gemäß einem Time-of-Flight-Verfahren, ein Sensor gemäß einem Verfahren der räumlichen Kodierung, ein Sensor gemäß dem Verfahren des strukturierten Lichts oder ein Laserscanner sein, ähnlich wie der Sensor 2.
  • Der Sensor, der eine Schallwelle, Wärme, Licht, Vibration oder Magnetismus erfasst, kann ein optischer Sensor, ein photoelektrisches Element, eine Fotodiode, ein Infrarotsensor, ein Strahlungssensor, ein magnetischer Sensor, ein Ultraschall-Entfernungsmesser, ein kapazitiver Wegsensor oder ein optischer Positionssensor sein. Selbstverständlich können die Sensoren 2 und 5 zu einem Sensor eines Typs vereinigt werden, und nur der eine Sensor kann zur Erkennung von Positionen und Stellungen eines Zielobjekts und eines Menschen verwendet werden.
  • 2 ist eine Funktionsdarstellung des Objekt-Handhabungsgerätes gemäß 1. In diesem Fall ist die Informationsverarbeitungsvorrichtung 4 funktionell mit einem Objekterkenner 4a, einem Menschenerkenner 4b, einem Sicherheitsabstandsrechner 4c und einer Handhabungssteuerung 4d ausgestattet. Der Objekterkenner 4a erkennt die Position und Stellung des Zielobjekts anhand der vom Sensor 2 gemessenen Daten des Zielobjekts. Der Menschenerkenner 4b erkennt eine Position und eine Stellung des Menschen rings um das Objekt-Handhabungsgerät, basierend auf Daten des Menschen, die vom Sensor 5 gemessen werden.
  • Der Sicherheitsabstandsrechner 4c berechnet eine Entfernung vom Zielobjekt zu einem bestimmten Objekt, das nicht das Objekt-Handhabungsgerät und nicht das Zielobjekt ist, als Sicherheitsabstand für das Zielobjekt. Der Sicherheitsabstandsrechner 4c berechnet den Sicherheitsabstand für das Zielobjekt, basierend auf der Position und Stellung des Menschen, und basierend auf der Position und Stellung des Zielobjekts.
  • Die Handhabungssteuerung 4d erzeugt Handlungsbefehle zur Steuerung der Pickup-Einrichtung 3 zur Aufnahme des Zielobjekts, basierend auf der Position und Stellung des Zielobjekts und dem Sicherheitsabstand für das Zielobjekt. In der vorliegenden Beschreibung bezieht sich „sicher“ auf Bedingungen mit geringer Wahrscheinlichkeit, dass ein Roboter mit einem Menschen kollidiert.
  • Der Objekterkenner 4a erkennt die Position und Stellung des Zielobjekts anhand der vom Sensor 2 gemessenen Daten. In diesem Fall ist es möglich, ein Zielobjekt aus einem Bild zu extrahieren und eine Region, eine Position und eine Stellung des Zielobjekts zu erkennen, indem man eine allgemeine Computer-Vision-Technik verwendet, wie zum Beispiel: Löschen einer Hintergrundregion aus dem Bild einer Kamera, eines dreidimensionalen Vision-Sensoren-Bildes, eines Entfernungsbildes, Punktwolkendaten usw., um den Massenschwerpunkt der Region des Zielobjekts zu berechnen, oder ein Modell des Zielobjekts an ein Bild, ein Entfernungsbild oder Punktwolkendaten anzupassen.
  • Es ist auch möglich, die Position des Zielobjekts aus der Region des Zielobjekts im Bild zu definieren. Der Massenschwerpunkt der Region kann als Position des Zielobjekts definiert werden. Die Position eines Punktes auf einer Fläche der Region, der einer bestimmten Position im Raum am nächsten liegt, kann als Position des Zielobjekts definiert werden. In diesem Fall ist es möglich, Fasenabgleich, Schablonenvergleich, iterative Nahpunktalgorithmen, Merkmalsextraktion, Hashing, maschinelle Lerntechniken einschließlich Deep-Learning, Reinforcement-Learning Techniken oder deren Ableitungen anzuwenden.
  • Der Menschenerkenner 4b erkennt die Position und Stellung des Menschen rings um das Objekt-Handhabungsgerät, basierend auf den vom Sensor 5 für den Menschen gemessenen Daten. In diesem Fall kann der Menschenerkenner 4b die Position des Menschen mit Hilfe einer beliebigen allgemeinen Bildverarbeitungstechnik, ähnlich der des Objekterkenners 4a, erkennen. Ferner kann die Position und Stellung des Menschen und einer Region des Menschen berechnet werden, indem eine ungefähre Position des Menschen mit einem optischen Sensor, einem photoelektrischen Element, einer Fotodiode, einem Infrarotsensor, einem Strahlungssensor, einem magnetischen Sensor, einem Ultraschall-Entfernungsmesser, einem kapazitiven Wegsensor, einem optischen Positionssensor usw. geschätzt wird, eine Position des der Antriebseinrichtung 1 am nächsten liegenden menschlichen Körpers berechnet und ein Richtungsvektor aus dieser Position zur Antriebseinrichtung 1 als Stellung berechnet wird.
  • Die Position des Menschen kann aus der Region des Menschen definiert werden. Der Massenschwerpunkt der Region kann als die Position des Menschen definiert werden. Die Position eines Punktes auf einer Oberfläche der Region, der einer bestimmten Position im Raum am nächsten liegt, kann als die Position des Menschen definiert werden. So ist es möglich, die Position des Menschen zu berechnen.
  • Der Sicherheitsabstandsrechner 4c berechnet den Sicherheitsabstand für das Zielobjekt, basierend auf der Position und Stellung des Menschen, und basierend auf der Position und Stellung des Zielobjekts. Der Sicherheitsabstand bezieht sich hier auf die Nähe zwischen Mensch und Zielobjekt. Der Abstand zwischen der Position des Menschen und der Position des Zielobjekts wird als Sicherheitsabstand definiert. Bei mehreren Menschen und/oder mehreren Zielobjekten werden Sicherheitsabstände zwischen den Menschen bzw. Zielobjekten berechnet.
  • Die Handhabungssteuerung 4d erzeugt Handlungsbefehle zur Steuerung der Pickup-Einrichtung 3 zur Aufnahme des Zielobjekts, basierend auf der Position und Stellung des Zielobjekts und dem Sicherheitsabstand für das Zielobjekt. Bei mehreren Zielobjekten, die vom Objekt-Handhabungsgerät ausgewählt werden sollen, wählt die Handhabungssteuerung eines der Zielobjekte mit einem Sicherheitsabstand, der größer als eine vorgegebene Schwelle aus und handhabt das ausgewählte Zielobjekt mit der Pickup-Einrichtung 3
  • 3 ist ein übergreifendes Verfahrensflussdiagramm des Objekt-Handhabungsgerätes der 1. Im Schritt S1 gemäß 3 misst die Informationsverarbeitungsvorrichtung 4 ein Zielobjekt mit dem Sensor 2. Im Schritt S2 erkennt die Informationsverarbeitungsvorrichtung 4 die Position und Stellung des Zielobjekts anhand des Objekterkenners 4a. Im Schritt S3 misst die Informationsverarbeitungsvorrichtung 4 einen Menschen mit dem Sensor 5. Im Schritt S4 erkennt die Informationsverarbeitungsvorrichtung 4 die Position und Stellung des Menschen anhand des Menschenerkenners 4b.
  • Im Schritt S5 berechnet die Informationsverarbeitungsvorrichtung 4 mit dem Sicherheitsabstandsrechner 4c einen Sicherheitsabstand für jedes Zielobjekt. Im Schritt S6 ermittelt die Informationsverarbeitungsvorrichtung 4d mit Hilfe der Handhabungssteuerung 4d, ob ein anderes Objekt in einem Bereich des Sicherheitsabstandes fehlt - oder nicht; wenn JA, geht das Verfahren zum Schritt S7, und wenn NEIN, geht das Verfahren zum Schritt S9 über. Im Schritt S7 führt die Informationsverarbeitungsvorrichtung 4 mit Hilfe der Handhabungssteuerung 4d eine Handhabungsplanung durch.
  • 4 ist ein Verfahrensflussdiagramm der Handhabungssteuerung 4d des Objekt-Handhabungsgerätes der 1. Bei mehreren Zielobjekten um das Objekt-Handhabungsgerät herum ermittelt die Handhabungssteuerung 4d gemäß der ersten Ausführungsform, welches Zielobjekt sicher und effizient zur Aufnahme ist, und erzeugt und gibt entsprechend der Bestimmung Handlungsbefehle aus.
  • Im Schritt S11 gemäß 4 wählt die Handhabungssteuerung 4d eines der mehreren Zielobjekte aus. Im Schritt S12 bestimmt die Handhabungssteuerung 4d, ob der Sicherheitsabstand für das Zielobjekt größer als eine Schwelle ist; bei JA geht das Verfahren zum Schritt S13 und bei NEIN zum Schritt S16 über.
  • Die Schwelle wird in Abhängigkeit von den Betriebsgeschwindigkeiten der Antriebseinrichtung 1 und der Pickup-Einrichtung 3, den Gewichten der Antriebseinrichtung 1 und der Pickup-Einrichtung 3 und einer auf die Antriebseinrichtung 1 und die Pickup-Einrichtung 3 wirkenden Kraft beim Kollidieren ermittelt. Die Schwelle wird so festgelegt, dass bei hohen Arbeitsgeschwindigkeiten, großen Gewichten oder einer großen Kraft, die bei einer Kollision aufeinander einwirkt, ein großer Sicherheitsabstand eingestellt wird, um den Einfluss und die Beschädigung bei der Kollision mit einem Menschen zu verringern.
  • Die Handhabungssteuerung 4d bestimmt z.B. die Schwelle, um die Schwelle mit zunehmendem Gewicht und Geschwindigkeit der Pickup-Einrichtung 3 zu erhöhen und die Schwelle mit abnehmendem Gewicht und Geschwindigkeit der Pickup-Einrichtung 3 zu verringern. Wenn der Sicherheitsabstand für ein bestimmtes Zielobjekt kleiner oder gleich der Schwelle ist, bestimmt die Handhabungssteuerung 4d das Zielobjekt als nicht zur Aufnahme geeignet und setzt ein Handhabungsplanungsverfahren für ein nächstes Zielobjekt fort.
  • Ist der Sicherheitsabstand für ein bestimmtes Zielobjekt größer als die Schwelle, ermittelt die Handhabungssteuerung 4d das Zielobjekt als Aufnahmekandidat und berechnet eine Aufnahmeeinstellung der Pickup-Einrichtung 3 zur Aufnahme des Zielobjekts.
  • Im Schritt S13 berechnet die Handhabungssteuerung 4d aus der Position und Stellung des Zielobjekts eine Pickup-Stellung der Pickup-Einrichtung 3 zur Aufnahme des Zielobjekts. Im Schritt S14 bestimmt die Handhabungssteuerung 4d, ob die Pickup-Einrichtung 3 von ihrer aktuellen Position bis zu der im Schritt S13 berechneten Pickup-Stellung reichen kann; wenn JA, geht das Verfahren zum Schritt S15, und wenn NEIN, geht das Verfahren zum Schritt S16 über. Schritt S14 wird durchgeführt, indem festgestellt wird, ob Störungen zwischen dem Objekt-Handhabungsgerät und seiner Umgebung auftreten und ob die Kinematik der Antriebseinrichtung 1 gelöst werden kann.
  • Im Schritt S15 berechnet die Handhabungssteuerung 4d aus ihrer aktuellen Position eine Bewegungszeit der Pickup-Einrichtung 3. Im Schritt S16 bestimmt die Handhabungssteuerung 4d, ob die Berechnung für alle Zielobjekte durchgeführt worden ist; wenn JA, geht das Verfahren zum Schritt S18, und wenn NEIN, geht das Verfahren zum Schritt S17 über. Im Schritt S17 wählt die Handhabungssteuerung 4d ein nächstes Zielobjekt aus der Vielzahl der Zielobjekte aus. Im Schritt S18 wählt die Handhabungssteuerung 4d ein Zielobjekt unter den Zielobjekten mit Sicherheitsabständen, die größer als die Schwelle sind, aus, das die Bewegungszeit der Pickup-Einrichtung minimiert.
  • Im Schritt S19 wählt die Handhabungssteuerung 4d eine Pickup-Stellung der Pickup-Einrichtung 3 aus, um ein möglichst effizientes Arbeiten zu erreichen. So ermittelt die Handhabungssteuerung 4d einen Handhabungsplan zum Verschieben der Pickup-Einrichtung 3 auf das im Schritt S18 ausgewählte Zielobjekt und auf die im Schritt S19 gewählte Pickup-Stellung.
  • Im Schritt S8 gemäß 3 gibt die Informationsverarbeitungsvorrichtung 4 auf der Grundlage des im Schritt S7 festgelegten Handhabungsplans Handlungsbefehle aus. Die Informationsverarbeitungsvorrichtung 4 wählt schließlich eine Pickup-Stellung der Pickup-Einrichtung 3 zur Erzielung der kürzesten Bewegungszeit und wählt ein entsprechendes Zielobjekt aus und gibt Handlungsbefehle zur Aufnahme des Zielobjekts aus.
  • Im Schritt S9 gemäß 3 weist die Informationsverarbeitungsvorrichtung 4 den Benutzer auf die Notwendigkeit einer sicheren Handhabung hin. Wenn sich ein anderes Objekt im Bereich des Sicherheitsabstandes befindet, um ein Objekt zu handhaben, ist es notwendig, ein Verfahren zur sicheren Handhabung durchzuführen, wie z.B. die Arbeitsgeschwindigkeit der Antriebseinrichtung 1 und der Pickup-Einrichtung 3 zu reduzieren, eine vom Objekt-Handhabungsgerät auszuführende Arbeit zu ändern, das Objekt-Handhabungsgerät zu stoppen oder die Umgebung zu alarmieren.
  • Daher kann die Informationsverarbeitungsvorrichtung 4 den Benutzer auf eine sichere Handhabung hinweisen oder automatisch eines der oben beschriebenen Verfahren zur sicheren Handhabung durchführen.
  • Für Schritt S7 gemäß 3 ist die Informationsverarbeitungsvorrichtung 4 mit Bedingungen der kürzesten Bewegungszeit voreingestellt, um ein Zielobjekt priorisiert auszuwählen. Die Informationsverarbeitungsvorrichtung 4 wählt ein Zielobjekt entsprechend der eingestellten Priorität aus. Obwohl es wünschenswert ist, dass die Informationsverarbeitungsvorrichtung 4 ein Zielobjekt mit der kürzesten Bewegungszeit wählt, kann die Informationsverarbeitungsvorrichtung 4 ein Zielobjekt mit einer kürzeren Bewegungszeit als mindestens ein anderes Zielobjekt (d.h. ein Zielobjekt mit der zweit-kürzesten, dritt-kürzesten, ...-kürzesten Bewegungszeit) auswählen. Ferner kann die Informationsverarbeitungsvorrichtung 4 ein beliebiges Zielobjekt auswählen, dessen Bewegungszeit(en) kürzer als eine vorgegebene Schwelle ist.
  • Beim Objekt-Handhabungsgerät gemäß der ersten Ausführungsform wählt das Objekt-Handhabungsgerät ein Zielobjekt und ein Pickup-Verfahren aus, die ein effizientes Arbeiten ermöglichen, wobei die Möglichkeit einer Kollision mit einem Menschen ermittelt wird. Dadurch ist es möglich, effizienter zu arbeiten, als wenn man nur die Arbeitsgeschwindigkeit des Gerätes zu reduziert.
  • Beim Objekt-Handhabungsgerät gemäß der ersten Ausführungsform kann das Objekt-Handhabungsgerät in einer Umgebung mit dem Objekt-Handhabungsgerät, einer Vielzahl von Zielobjekten und einem Menschen bestimmen, welches von der Vielzahl von Zielobjekten zur Sicherheit und Effizienz aufgenommen werden soll. So ist es möglich, effizienter zu arbeiten, als wenn man nur die Arbeitsgeschwindigkeit zu reduziert, wenn sich ein Mensch nähert.
  • Ausführungsform 2
  • 5 ist eine Hardwarekonfigurationsdarstellung mit einem Objekt-Handhabungsgerät gemäß einer zweiten Ausführungsform der vorliegenden Erfindung. Das Objekt-Handhabungsgerät gemäß 5 ist mit einer Informationsverarbeitungsvorrichtung 4A ausgestattet, anstelle der Informationsverarbeitungsvorrichtung 4 und des Sensors 5 gemäß 1. Die Informationsverarbeitungsvorrichtung 4A ist zusätzlich zu den Komponenten der Informationsverarbeitungsvorrichtung 4 aus 1 mit einem Zusatzspeicher 46 ausgestattet. Der Zusatzspeicher 46 ist z.B. eine Festplatte oder ein Solid-State-Laufwerk.
  • Gemäß der zweiten Ausführungsform ist die Informationsverarbeitungsvorrichtung 4A mit dem Zusatzspeicher 46 ausgestattet, anstatt mit einem Sensor zur Erkennung eines Menschen verbunden zu sein. Der Zusatzspeicher 46 speichert im Voraus einen Abstand von einem Zielobjekt zu einem bestimmten Objekt, das nicht das Objekt-Handhabungsgerät und das Zielobjekt ist. Der Zusatzspeicher 46 speichert z.B. Informationen über einen oder mehrere vorgegebene Punkte oder Ebenen im Raum für die Sicherheit.
  • Die Informationsverarbeitungsvorrichtung 4A bezieht sich auf die im Zusatzspeicher 46 gespeicherten Informationen, anstatt einen Menschen anhand der von einem Sensor gemessenen Daten zu erkennen. So ist es möglich, eine hohe Sicherheit zu erreichen und zugleich effizienter zu arbeiten.
  • 6 ist eine Funktionsdarstellung, die das Objekt-Handhabungsgerät gemäß 5 zeigt. Die Informationsverarbeitungsvorrichtung 4A gemäß 6 ist funktionell mit einer Datenbank (DB) 4e ausgestattet, anstelle des Menschenerkenners 4b gemäß 2. Die Datenbank 4e befindet sich in dem Zusatzspeicher 46 und speichert Informationen über jeden beliebigen Punkt oder jede Ebene im Raum. Ein Sicherheitsabstandsrechner 4c berechnet einen Sicherheitsabstand für ein Zielobjekt basierend auf den Informationen in der Datenbank 4e, sowie auf der Position und Stellung des Zielobjekts.
  • 7 ist ein übergreifendes Verfahrensflussdiagramm für das Objekt-Handhabungsgerät gemäß 5. Im Schritt S21 gemäß 7 misst die Informationsverarbeitungsvorrichtung 4A ein Zielobjekt mit einem Sensor 2. Im Schritt S22 gemäß 7 erkennt die Informationsverarbeitungsvorrichtung 4A die Position und Stellung des Zielobjekts anhand eines Objekterkenners 4a. Im Schritt S23 gemäß 7 berechnet die Informationsverarbeitungsvorrichtung 4A mit dem Sicherheitsabstandsrechner 4c einen Sicherheitsabstand für jedes Zielobjekt. Im Schritt S24 der 7 führt die Informationsverarbeitungsvorrichtung 4A eine Handhabungsplanung mit einer Handhabungssteuerung 4d durch.
  • Im Schritt S25 gemäß 7 gibt die Informationsverarbeitungsvorrichtung 4A auf der Grundlage eines im Schritt S24 festgelegten Handhabungsplans Handlungsbefehle aus. Da der Menschenerkenner gemäß 2 beseitigt ist, wird es möglich, einen Handhabungsplan für das Zielobjekt zu ermitteln, indem man ein Zielobjekt mit dem Sensor 2 misst. Eine Änderung gegenüber der ersten Ausführungsform liegt in einem Verfahren zur Berechnung eines Sicherheitsabstandes für jedes Zielobjekt.
  • 8 ist eine Darstellung von Sicherheitsabständen, die gemäß der zweiten Ausführungsform der vorliegenden Erfindung basierend auf Informationen zu vorbestimmten Ebenen berechnet worden sind. Der Zusatzspeicher 46 speichert Informationen zu einer vorbestimmten Ebene 8. Dies deutet beispielsweise darauf hin, dass die Gefahr einer Kollision der Pickup-Einrichtung 3 mit einem Mensch 7 steigt, wenn eine Pickup-Einrichtung 3 jenseits der Ebene arbeitet.
  • Gemäß 8 gibt es eine Vielzahl von Zielobjekten 6 jenseits der Ebene 8, von der Pickup-Einrichtung 3 aus gesehen. Für jedes Zielobjekt 6 wird ein Abstand zwischen der Ebene 8 und einem Punkt auf dem Zielobjekt, der am weitesten von der Ebene 8 entfernt ist, berechnet und als Sicherheitsabstand 9 definiert. In diesem Fall wird festgestellt, dass je größer der Sicherheitsabstand ist, desto höher ist die Wahrscheinlichkeit einer Kollision mit dem Menschen.
  • Es ist auch möglich, anstelle der Ebene 8 einen Sicherheitsabstand auch dann zu berechnen, wenn ein vorgegebener „Punkt“ im Raum verwendet wird.
  • Der Zusatzspeicher 46 speichert im Voraus einen Abstand von einem Zielobjekt zu einem bestimmten Objekt, das nicht das Objekt-Handhabungsgerät und nicht das Zielobjekt ist, anstelle von Ebene und Punkt im Raum.
  • Durch das Erkennen der Position und Stellung eines Zielobjekts 6 ist es möglich, einen Sicherheitsabstand für das Zielobjekt 6 aus einer Beziehung zur Ebene 8 zu berechnen. Dann ist es möglich, einen Plan zur Handhabung des Zielobjekts auf der Grundlage des Sicherheitsabstandes für jedes Zielobjekt und auf der Grundlage der Position und Stellung jedes Zielobjekts zu erstellen, ähnlich wie bei der ersten Ausführungsform.
  • Wie oben beschrieben, ist es gemäß der zweiten Ausführungsform möglich, einen sicheren und effizienten Handhabungsplan auf der Grundlage der vom Sensor 2 gemessenen Daten und auf der Grundlage von Informationen über einen oder mehrere vorbestimmte Punkte oder Ebenen im Raum, die im Zusatzspeicher 46 gespeichert sind, zu erstellen.
  • Ausführungsform 3
  • 9 ist eine Hardwarekonfigurationsdarstellung eines Objekt-Handhabungsgeräts gemäß einer dritten Ausführungsform der vorliegenden Erfindung. Das Objekt-Handhabungsgerät der 9 ist mit einer Informationsverarbeitungsvorrichtung 4B, anstelle der Informationsverarbeitungsvorrichtung 4A des Objekt-Handhabungsgerätes der 5, und weiterhin mit einer Pickup-Einrichtung 10 ausgestattet.
  • Das Objekt-Handhabungsgerät kann mit einer Vielzahl von Pickup-Einrichtungen versehen werden, um verschiedene Zielobjekte zu handhaben. Zur Auswahl stehen verschiedene Pickup-Einrichtungsarten, z.B. eine Pickup-Einrichtung vom Klemmentyp und eine Pickup-Einrichtung vom Sauggreifertyp. Gemäß der dritten Ausführungsform ist das Objekt-Handhabungsgerät mit zwei Typen von Pickup-Einrichtungen ausgestattet, nämlich einer Pickup-Einrichtung 3 und einer Pickup-Einrichtung 10.
  • In diesem Fall wird nicht nur festgelegt, welches von mehreren Zielobjekten gehandhabt werden soll, sondern auch, mit welchem der mehreren Pickup-Einrichtungen das Zielobjekt aufgenommen wird. In diesem Fall ist der gesamte Bearbeitungsablauf ähnlich wie in der 7, mit Ausnahme des Bearbeitungsablaufs für eine Handhabungssteuerung, so dass ein Handhabungsplan mit Auswahl einer Pickup-Einrichtung erstellt wird.
  • 10 ist ein Verfahrensflussdiagramm des Objekt-Handhabungsgerätes gemäß 9, in dem die Handhabungssteuerung eine Pickup-Einrichtung und ein Zielobjekt für den sicheren Betrieb auswählt. Eine Pickup-Einrichtung und ein Zielobjekt werden auf der Basis der Positionen und Stellungen von Zielobjekten und auf der Basis der Sicherheitsabstände für die Zielobjekte ermittelt, um Handlungsbefehle für eine entsprechende Pickup-Stellung der Pickup-Einrichtung auszugeben.
  • Im Schritt S31 gemäß 10 wählt die Handhabungssteuerung 4d eines von mehreren Zielobjekten aus. Im Schritt S32 berechnet die Handhabungssteuerung 4d aus der Position und Stellung des Zielobjekts eine Pickup-Stellung jeder Pickup-Einrichtung zur Aufnahme des Zielobjekts. In diesem Fall werden, da es eine Vielzahl von Pickup-Einrichtungsarten gibt, die jeweiligen Pickup-Stellungen dieser Pickup-Einrichtungen berechnet. Im Schritt S33 bestimmt die Handhabungssteuerung 4d, ob jede Pickup-Einrichtung von ihrer aktuellen Position bis zur im Schritt S32 berechneten Pickup-Stellung gelangen kann; wenn JA, geht das Verfahren zum Schritt S34, und wenn NEIN, geht das Verfahren zum Schritt S36 über.
  • Im Schritt S34 berechnet die Handhabungssteuerung 4d aus dem Sicherheitsabstand für das Zielobjekt eine Wirkrichtung jeder Pickup-Einrichtung zur Aufnahme. Im Schritt S35 berechnet die Handhabungssteuerung 4d einen Sicherheitsfaktor jeder Pickup-Einrichtung in der berechneten Wirkrichtung.
  • Wenn dasselbe Zielobjekt von verschiedenen Pickup-Einrichtungen aufgenommen wird, können diese Pickup-Einrichtungen unterschiedliche Wirkrichtungen haben, wie z.B. in 11 dargestellt. Wenn gemäß 11 eine Pickup-Einrichtung vom Klemmentyp 12 ein Zielobjekt 6 aufnimmt, hat die Pickup-Einrichtung vom Klemmentyp 12 eine Wirkrichtung in Richtung Mensch 7. Wenn dagegen eine Pickup-Einrichtung vom Sauggreifertyp 11 das Zielobjekt 6 aufnimmt, hat die Pickup-Einrichtung vom Sauggreifertyp 11 eine andere Wirkrichtung als die der Pickup-Einrichtung vom Klemmentyp 12, da sich die Pickup-Einrichtung vom Sauggreifertyp 11 einer breiten Seite des Zielobjekts 6 nähert.
  • Wenn die Pickup-Einrichtung ähnlich wie die Pickup-Einrichtung vom Klemmentyp 12 aus 11 in Richtung auf den Menschen arbeitet, erhöht sich die Möglichkeit einer Kollision zwischen der Pickup-Einrichtung 12 und dem Menschen. Daher berechnet die Handhabungssteuerung 4d entsprechend dem Verarbeitungsablauf gemäß 10 die Wirkrichtungen der Pickup-Einrichtungen zur Aufnahme, berechnet dann die Sicherheitsfaktoren der Pickup-Einrichtungen in den berechneten Wirkrichtungen und wählt eine Pickup-Einrichtung mit der sichersten Wirkrichtung und wählt ein entsprechendes Zielobjekt aus.
  • Im Schritt S36 bestimmt die Handhabungssteuerung 4d, ob die Berechnung für alle Zielobjekte durchgeführt worden ist oder nicht; wenn JA, geht das Verfahren zum Schritt S38, und wenn NEIN, geht das Verfahren zum Schritt S37 über. Im Schritt S37 wählt die Handhabungssteuerung 4d ein nächstes Zielobjekt aus der Vielzahl der Zielobjekte aus. Im Schritt S38 wählt die Handhabungssteuerung 4d eine Pickup-Einrichtung mit der sichersten Wirkrichtung und wählt ein entsprechendes Zielobjekt aus.
  • 12 ist ein vom Objekt-Handhabungsgerät gemäß 9 durchgeführtes Verfahrensflussdiagramm zur Berechnung eines Sicherheitsfaktors für eine Wirkrichtung jeder Pickup-Einrichtung. Im Schritt S41 gemäß 12 schätzt die Handhabungssteuerung 4d aus der Bewegungsrichtung der Pickup-Einrichtung einen Abstand und eine Richtung, in die sich das Zielobjekt aufgrund der Wirkung der Pickup-Einrichtung bewegt. Im Schritt S42 schätzt die Handhabungssteuerung 4d eine Position des bewegten Zielobjekts, basierend auf einem Schätzergebnis aus Schritt S41.
  • Im Schritt S43 berechnet die Handhabungssteuerung 4d aus der geschätzten Position einen Sicherheitsabstand für das Zielobjekt neu. Der Sicherheitsabstand für das Zielobjekt kann auf der Grundlage einer vom Menschenerkenner erkannten Position und Stellung eines Menschen berechnet werden, ähnlich wie bei der ersten Ausführungsform, oder auf der Grundlage von Informationen über einen oder mehrere vorbestimmte Punkte oder Ebenen im Raum zur Sicherheit, ähnlich wie bei der zweiten Ausführungsform. Durch die obigen Verfahren ist es möglich, eine Pickup-Einrichtung für den sicheren Betrieb und ein Zielobjekt zur Aufnahme auszuwählen.
  • Die Handhabungssteuerung 4d schätzt also die Positionen eines durch die Pickup-Einrichtungen gehandhabten Zielobjekts, wählt eine der Pickup-Einrichtungen mit einem Sicherheitsabstand zu den geschätzten Positionen größer als die Schwelle aus und handhabt das ausgewählte Zielobjekt. Die Handhabungssteuerung 4d wählt eine Pickup-Einrichtung mit der minimalen Bewegungszeit unter den Pickup-Einrichtungen mit Sicherheitsabständen zu den geschätzten Positionen größer als die Schwelle und handhabt das ausgewählte Zielobjekt. So ist es möglich, einen Handhabungsplan für ein sicheres und effizientes Arbeiten zu erstellen.
  • Weiterhin zeigen die 13 und 14 Verfahrensflussdiagramme für die Handhabungssteuerung zur Erreichung von beidem, Sicherheit und Effizienz.
  • 13 ist ein Verfahrensflussdiagramm des Objekt-Handhabungsgerätes gemäß 9, in dem die Handhabungssteuerung eine Pickup-Einrichtung und ein Zielobjekt für einen sicheren und effizienten Betrieb auswählt. In diesem Fall berechnet die Handhabungssteuerung 4d im Vergleich zu dem in 10 gezeigten Ablaufdiagramm eine Bewegungszeit, die eine Pickup-Einrichtung benötigt, um von ihrer aktuellen Position in ihre Aufnahmelage zu gelangen, und wählt schließlich eine Pickup-Einrichtung mit einer sicheren Wirkrichtung mit kurzer Bewegungszeit aus und wählt ein entsprechendes Zielobjekt aus.
  • Im Schritt S51 gemäß 13 wählt die Handhabungssteuerung 4d eines von mehreren Zielobjekten aus. Im Schritt S52 berechnet die Handhabungssteuerung 4d aus der Position und Stellung des Zielobjekts eine Pickup-Stellung jeder Pickup-Einrichtung zur Aufnahme des Zielobjekts. Im Schritt S53 bestimmt die Handhabungssteuerung 4d, ob jede Pickup-Einrichtung von ihrer aktuellen Position bis zur im Schritt S52 berechneten Pickup-Stellung gelangen kann; wenn JA, geht das Verfahren zum Schritt S54, und wenn NEIN, geht das Verfahren zum Schritt S57 über.
  • Im Schritt S54 berechnet die Handhabungssteuerung 4d aus dem Sicherheitsabstand für das Zielobjekt die Wirkrichtung jeder Pickup-Einrichtung für das Aufnehmen. Im Schritt S55 berechnet die Handhabungssteuerung 4d einen Sicherheitsfaktor jeder Pickup-Einrichtung in der berechneten Wirkrichtung. Im Schritt S56 berechnet die Handhabungssteuerung 4d aus ihrer aktuellen Position eine Bewegungszeit jeder Pickup-Einrichtung.
  • Im Schritt S57 bestimmt die Handhabungssteuerung 4d, ob die Berechnung für alle Zielobjekte durchgeführt worden ist; bei JA geht das Verfahren zum Schritt S59 und bei NEIN zum Schritt S58 über. Im Schritt S58 wählt die Handhabungssteuerung 4d ein nächstes Zielobjekt aus der Vielzahl der Zielobjekte aus. Im Schritt S59 wählt die Handhabungssteuerung 4d eine Pickup-Einrichtung mit sicherer Wirkrichtung und kurzer Bewegungszeit aus und wählt ein entsprechendes Zielobjekt aus.
  • Wenn sowohl die Sicherheits- als auch die Bewegungszeit erreicht sind, kann eine Auswertefunktion ausgeführt werden: F = aS + bT kann verwendet werden.
    „S“ bezeichnet einen von der Wirkrichtung abhängigen Sicherheitsfaktor und wird durch den Sicherheitsabstand definiert.
    „T“ bezeichnet die Bewegungszeit der Pickup-Einrichtung von ihrer aktuellen Position aus.
    „a“ und „b“ bezeichnen willkürliche Gewichtungskoeffizienten und werden in Abhängigkeit davon, ob Sicherheit oder Arbeitseffizienz Priorität haben sollen, angepasst. Die Auswertungsfunktion kann auch Gewichtungen zur Normierung der jeweiligen Faktoren enthalten.
  • Die Informationsverarbeitungsvorrichtung 4B ist bei dem Handhabungsplanungsverfahren gemäß 13 mit Bedingungen für Sicherheit und eine kurze Bewegungszeit voreingestellt, um eine Pickup-Einrichtung priorisiert auszuwählen. Die Informationsverarbeitungsvorrichtung 4B wählt eine Pickup-Einrichtung entsprechend der eingestellten Priorität aus.
  • Obwohl es wünschenswert ist, dass die Informationsverarbeitungsvorrichtung 4B die Pickup-Einrichtung mit der kürzesten Bewegungszeit wählt, kann die Informationsverarbeitungs-vorrichtung 4B eine Pickup-Einrichtung mit einer kürzeren Bewegungszeit als die mindestens einer anderen Pickup-Einrichtung wählen. Ferner kann die Informationsverarbeitungsvorrichtung 4B eine beliebige Pickup-Einrichtung(en) auswählen, deren Bewegungszeit(en) kürzer als eine vorgegebene Schwelle ist.
  • Wie oben beschrieben, wird ein Handhabungsplan durch die automatische Auswahl einer Pickup-Einrichtung und eines Zielobjekts ermittelt, um sowohl eine hohe Sicherheit als auch Effizienz zu erreichen.
  • Wenn beispielsweise eine Pickup-Einrichtung vom Klemmentyp ein Zielobjekt aufnimmt, auch wenn die Pickup-Einrichtung das Zielobjekt nicht einklemmen kann, kann sich die Pickup-Einrichtung gegen das Zielobjekt drücken, um das Zielobjekt „auszukratzen“. So kann eine Pickup-Einrichtung mehrere verschiedene Pickup-Verfahren durchführen. Auch in diesem Fall ist es möglich, ein Pickup-Verfahren auszuwählen und einen Handhabungsplan ähnlich wie oben beschrieben festzulegen.
  • 14 ist ein Verfahrensflussdiagramm des Objekt-Handhabungsgerätes gemäß 9, in dem die Handhabungssteuerung ein Pickup-Verfahren, eine Pickup-Einrichtung und ein Zielobjekt für einen sicheren und effizienten Betrieb auswählt. Wenn mindestens eine Pickup-Einrichtung mehrere Pickup-Verfahren zur Auswahl hat, ist es möglich, ein Pickup-Verfahren auszuwählen, indem eine Wirkrichtung jedes Pickup-Verfahrens zur Aufnahme berechnet wird, ähnlich derjenigen des Falles, in dem es mehrere Pickup-Einrichtungsarten gibt.
  • Im Schritt S61 gemäß 14 wählt die Handhabungssteuerung 4d eines von mehreren Zielobjekten aus. Im Schritt S62 berechnet die Handhabungssteuerung 4d aus der Position und Stellung des Zielobjekts eine Pickup-Stellung für jedes Pickup-Verfahren zur Aufnahme des Zielobjekts. Im Schritt S63 bestimmt die Handhabungssteuerung 4d, ob jede Pickup-Einrichtung von ihrer aktuellen Position bis zu der im Schritt S62 berechneten Pickup-Stellung gelangen kann; wenn JA, geht das Verfahren zum Schritt S64, und wenn NEIN, geht das Verfahren zum Schritt S67 über.
  • Im Schritt S64 berechnet die Handhabungssteuerung 4d aus dem Sicherheitsabstand für das Zielobjekt eine Wirkrichtung für jedes Pickup-Verfahren. Im Schritt S65 berechnet die Handhabungssteuerung 4d einen Sicherheitsfaktor der Wirkrichtung jedes Pickup-Verfahrens. Im Schritt S66 berechnet die Handhabungssteuerung 4d aus ihrer aktuellen Position eine Bewegungszeit jeder Pickup-Einrichtung.
  • Im Schritt S67 bestimmt die Handhabungssteuerung 4d, ob die Berechnung für alle Zielobjekte durchgeführt worden ist; bei JA geht das Verfahren zum Schritt S69 und bei NEIN zum Schritt S68 über. Im Schritt S68 wählt die Handhabungssteuerung 4d ein nächstes Zielobjekt aus der Vielzahl der Zielobjekte aus. Im Schritt S69 wählt die Handhabungssteuerung 4d ein Pickup-Verfahren mit sicherer Wirkrichtung und kurzer Bewegungszeit aus und wählt ein entsprechendes Zielobjekt aus.
  • Bei dem Handhabungsplanungsverfahren gemäß 14 ist die Informationsverarbeitungsvorrichtung 4B mit Bedingungen der kürzesten Bewegungszeit voreingestellt, um ein Pickup-Verfahren priorisiert auszuwählen. Die Informationsverarbeitungsvorrichtung 4B wählt ein Pickup-Verfahren entsprechend der eingestellten Priorität aus. Obwohl es wünschenswert ist, dass die Informationsverarbeitungsvorrichtung 4B ein Pickup-Verfahren mit der kürzesten Bewegungszeit wählt, kann die Informationsverarbeitungsvorrichtung 4B ein Pickup-Verfahren mit einer kürzeren Bewegungszeit als die einer Pickup-Einrichtung mit mindestens einem anderen Pickup-Verfahren (d.h. einem Pickup-Verfahren mit der zweit-kürzesten, dritt-kürzesten, ..-kürzesten Bewegungszeit) wählen. Ferner kann die Informationsverarbeitungsvorrichtung 4B ein beliebiges Pickup-Verfahren wählen, dessen Bewegungszeit(en) kürzer als eine vorgegebene Schwelle ist (sind).
  • So schätzt die Handhabungssteuerung 4d die Positionen eines durch das Pickup-Verfahren gehandhabten Zielobjekts, wählt eines der Pickup-Verfahren mit Sicherheitsabständen zu den geschätzten Positionen größer als die Schwelle und handhabt das ausgewählte Zielobjekt. Die Handhabungssteuerung 4d wählt unter den Pickup-Verfahren mit den Sicherheitsabständen zu den geschätzten Positionen größer als die Schwelle ein Pickup-Verfahren aus, das die Bewegungszeit der Pickup-Einrichtung minimiert, und handhabt das ausgewählte Zielobjekt.
  • Bei mehreren zu selektierenden Zielobjekten, mehreren zu selektierenden Pickup-Einrichtungen und mehreren zu selektierenden Pickup-Verfahren ist es außerdem möglich, ein Zielobjekt, eine Pickup-Einrichtung und ein Pickup-Verfahren auszuwählen und einen Handhabungsplan festzulegen.
  • Mit dem oben beschriebenen Verfahren ist es möglich, ein Zielobjekt, eine Pickup-Einrichtung und ein Pickup-Verfahren sicher und effizient auszuwählen.
  • Ausführungsform 4
  • 15 ist eine Hardwarekonfigurationsdarstellung mit einem Objekt-Handhabungsgerät gemäß einer vierten Ausführungsform der vorliegenden Erfindung. Das Objekt-Handhabungsgerät der 15 ist mit einer Informationsverarbeitungsvorrichtung 4C ausgestattet, anstelle der Informationsverarbeitungsvorrichtung 4 der 1.
  • Die Informationsverarbeitungsvorrichtung 4C ist zusätzlich zu den Komponenten der Informationsverarbeitungsvorrichtung 4 gemäß 1 mit einem Zusatzspeicher 46 versehen, ähnlich wie die Informationsverarbeitungsvorrichtung 4A gemäß 5. Der Zusatzspeicher 46 ist, wie oben beschrieben, z.B. eine Festplatte oder ein Solid-State-Laufwerk.
  • 16 ist eine Funktionsdarstellung, die das Objekt-Handhabungsgerät gemäß 15 zeigt. Eine Datenbank (DB) 4e befindet sich in dem Zusatzspeicher 46 und speichert Raten erfolgreicher Aufnahme, die für jede Stellung eines Objekts und jede Pickup-Stellung einer Pickup-Einrichtung 3 im Voraus geschätzt werden. Die Raten erfolgreicher Aufnahme können vorab mit einem Gerät mit ähnlicher Hardwarekonfiguration experimentell ermittelt werden. Die Raten erfolgreicher Aufnahme können durch eine physikalische Simulation auf der Basis von CAD-Daten eines Objektes und CAD-Daten der Pickup-Einrichtung 3 zur Aufnahme des Objektes abgeschätzt werden.
  • Das Objekt-Handhabungsgerät der 15 arbeitet ebenfalls mit dem gesamten Verfahrensflussdiagramm der 3. Allerdings führt eine Handhabungssteuerung 4d der Informationsverarbeitungsvorrichtung 4C anstelle des Handhabungsplanungsverfahrens (Schritt S7A) gemäß 17 oder eines Handhabungsplanungsverfahrens (Schritt S7B) gemäß 18 ein Handhabungsplanungsverfahren (Schritt S7) gemäß 4 durch.
  • 17 ist ein erstes übergreifendes Verfahrensflussdiagramm der Handhabungssteuerung 4d des Objekt-Handhabungsgerätes der 15. Das Handhabungsplanungsverfahren gemäß 17 umfasst die Schritte S15A und S18A anstelle der Schritte S15 und S18 gemäß 4. Im Schritt S15A ermittelt die Handhabungssteuerung 4d eine Rate erfolgreicher Aufnahme für die Pickup-Einrichtung 3 zur Aufnahme eines Zielobjekts, basierend auf den im Voraus geschätzten und in der Datenbank gespeicherten Raten erfolgreicher Aufnahme und auf der Stellung des Zielobjekts und der Aufnahmehaltung der Pickup-Einrichtung 3.
  • Im Schritt S18A wählt die Handhabungssteuerung 4d unter den Zielobjekten mit Sicherheitsabständen, die größer als die Schwelle sind, ein Zielobjekt aus, das die Rate erfolgreicher Aufnahme maximiert. So ermittelt die Handhabungssteuerung 4d mit dem Handhabungsplanungsverfahren gemäß 17 die Rate erfolgreicher Aufnahme für die Pickup-Einrichtung 3 zur Aufnahme eines Zielobjekts, anstatt die Bewegungszeit der Pickup-Einrichtung 3 zu berechnen.
  • Bei dem Handhabungsplanungsverfahren gemäß 17 ist die Informationsverarbeitungsvorrichtung 4C mit Bedingungen der höchsten Rate erfolgreicher Aufnahme voreingestellt, um ein Zielobjekt priorisiert auszuwählen. Die Informationsverarbeitungsvorrichtung 4C wählt ein Zielobjekt entsprechend der eingestellten Priorität aus. Obwohl es wünschenswert ist, dass die Informationsverarbeitungsvorrichtung 4C ein Zielobjekt mit der höchsten Rate erfolgreicher Aufnahme wählt, kann die Informationsverarbeitungsvorrichtung 4C ein Zielobjekt mit einer höheren Rate erfolgreicher Aufnahme wählen als mindestens ein anderes Zielobjekt (d.h. ein Zielobjekt mit der zweit-höchsten, dritt-höchsten, ...-höchsten Rate erfolgreicher Aufnahme). Ferner kann die Informationsverarbeitungsvorrichtung 4C ein beliebiges Zielobjekt auswählen, das eine höhere als eine vorgegebene Rate erfolgreicher Aufnahme aufweist.
  • Bei der Auswahl eines Zielobjekts kann eine Bewegungszeit ähnlich wie bei der ersten bis dritten Ausführungsform berücksichtigt werden. Mit Bezug auf 18 wird ein Handhabungsplanungsverfahren für einen Fall der Berücksichtigung einer Bewegungszeit beschrieben.
  • 18 ist ein zweites übergreifendes Verfahrensflussdiagramm der Handhabungssteuerung 4d des Objekt-Handhabungsgerätes der 15. Das Handhabungsplanungsverfahren gemäß 18 umfasst die Schritte S15B und S18B anstelle der Schritte S15 und S18 gemäß 4. Im Schritt S15B berechnet die Handhabungssteuerung 4d aus ihrer aktuellen Position eine Bewegungszeit der Pickup-Einrichtung 3 und ermittelt weiterhin eine Rate erfolgreicher Aufnahme für die Pickup-Einrichtung 3 zur Aufnahme eines Zielobjekts.
  • Im Schritt S18B berechnet die Handhabungssteuerung 4d die Arbeitseffizienz sowohl anhand der Rate erfolgreicher Aufnahme als auch einer Bewegungszeit und wählt unter den Zielobjekten mit Sicherheitsabständen, die größer als die Schwelle sind, ein Zielobjekt aus, das die Arbeitseffizienz maximiert. Die Arbeitseffizienz wird z.B. durch eine angenommene Bewegungszeit TA der folgenden Gleichung gegeben. TA = p T 1 + ( 1 p ) × T 2
    Figure DE112017002114T5_0001
    wobei „p“ die Rate erfolgreicher Aufnahme, „T1“ eine Bewegungszeit bei erfolgreicher Aufnahme des Zielobjekts und „T2“ eine Bewegungszeit bei fehlgeschlagener Aufnahme des Zielobjekts bezeichnet. Es wird festgestellt, dass die Arbeitseffizienz umso höher ist, je kürzer die angenommene Bewegungszeit TA ist.
  • Bei dem Handhabungsplanungsverfahren gemäß 18 ist die Informationsverarbeitungsvorrichtung 4C mit Bedingungen höchster Arbeitseffizienz eingestellt, um ein Zielobjekt priorisiert auszuwählen. Die Informationsverarbeitungsvorrichtung 4C wählt ein Zielobjekt entsprechend der eingestellten Priorität aus. Obwohl es wünschenswert ist, dass die Informationsverarbeitungsvorrichtung 4C ein Zielobjekt mit der höchsten Arbeitseffizienz auswählt, kann die Informationsverarbeitungsvorrichtung 4C ein Zielobjekt mit einer höheren Arbeitseffizienz als mindestens ein anderes Zielobjekt (d.h. ein Zielobjekt mit der zweit-höchsten, dritt-höchsten, ...-höchsten Arbeitseffizienz) auswählen. Ferner kann die Informationsverarbeitungsvorrichtung 4C ein beliebiges Zielobjekt auswählen, dessen Arbeitseffizienz über einem vorgegebenen Schwellenwert liegt.
  • Mit den Handhabungsplanungsverfahren der 17 und 18 ist es möglich, ein Zielobjekt und ein Pickup-Verfahren auszuwählen, die ein effizientes Arbeiten ermöglichen und gleichzeitig die Möglichkeit einer Kollision mit einem Menschen bestimmen, ähnlich wie bei den ersten bis dritten Ausführungsformen. So ist es möglich, effizienter zu arbeiten, als wenn man nur die Arbeitsgeschwindigkeit des Gerätes zu reduziert.
  • Obwohl die vierte Ausführungsform die Auswahl eines von mehreren Zielobjekten nach der Priorität der Rate erfolgreicher Aufnahme beschreibt, kann eine von mehreren Pickup-Einrichtungsarten (siehe 13) oder eines von mehreren Pickup-Verfahren (siehe 14) nach der Priorität der Rate erfolgreicher Aufnahme ausgewählt werden.
  • Ausführungsform 5
  • 19 ist eine Hardwarekonfigurationsdarstellung mit einem Objekt-Handhabungsgerät gemäß einer fünften Ausführungsform der vorliegenden Erfindung. Das Objekt-Handhabungsgerät der 19 ist mit einer Informationsverarbeitungsvorrichtung 4D, anstelle der Informationsverarbeitungsvorrichtung 4C der 15 ausgestattet. Die Informationsverarbeitungsvorrichtung 4D ist mit ähnlichen Komponenten wie die Informationsverarbeitungsvorrichtung 4C aus 15 ausgestattet und ist weiterhin an eine externe Verwaltungseinrichtung 13 angeschlossen.
  • Die Verwaltungseinrichtung 13 ist ein Personal Computer oder ein Server, auf dem Software zur Verwaltung des gesamten Arbeitsprozesses läuft, z.B. in einer Fabrik oder einem Warenhaus, wo das Objekt-Handhabungsgerät gemäß der fünften Ausführungsform eingesetzt wird. Die Verwaltungseinrichtung 13 kann ein Warenhausverwaltungssystem (WMS) für ein Warenhaus oder ein Produktionsmanagementsystem für einen Produktionsstandort sein.
  • 20 ist eine Funktionsdarstellung, die das Objekt-Handhabungsgerät gemäß 19 zeigt. Informationen über ein oder mehrere Objekte, die für ein nachfolgendes Verfahren priorisiert sind, werden von der Verwaltungseinrichtung 13 an die Informationsverarbeitungsvorrichtung 4D übermittelt und in einer Datenbank 4e zwischengespeichert. Die Information über ein oder mehrere Objekte, die für ein nachfolgendes Verfahren priorisiert sind, ist z.B. die Reihenfolge der Objekte, die für die Montage während der Produktion priorisiert werden sollen.
  • Die Informationen über ein oder mehrere Objekte, die für ein nachfolgendes Verfahren priorisiert sind, können Informationen über eine Ware sein, die als nächstes aus einem Warenhaus geliefert werden soll, oder die Reihenfolge der Objekte (Waren), die in einer priorisierten Weise benötigt werden. Die Informationen über ein oder mehrere Objekte, die für ein nachfolgendes Verfahren priorisiert sind, werden von der Datenbank 4e an eine Handhabungssteuerung 4d übertragen.
  • Das Objekt-Handhabungsgerät der 19 arbeitet ebenfalls mit dem gesamten Verfahrensflussdiagramm der 3. Die Handhabungssteuerung 4d der Informationsverarbeitungsvorrichtung 4D führt jedoch ein Handhabungsplanungsverfahren (Schritt S7C) gemäß 21 durch, anstelle des Handhabungsplanungsverfahrens (Schritt S7) gemäß 4.
  • 21 ist ein übergreifendes Verfahrensflussdiagramm der Handhabungssteuerung 4d des Objekt-Handhabungsgerätes der 19. Das Handhabungsplanungsverfahren gemäß 21 umfasst die Schritte S15C und S18C anstelle der Schritte S15 und S18 gemäß 4. Im Schritt S15C berechnet die Handhabungssteuerung 4d eine Bewegungszeit einer Pickup-Einrichtung 3 aus ihrer aktuellen Position und ermittelt weiterhin eine Rate erfolgreicher Aufnahme für die Pickup-Einrichtung 3 zur Aufnahme eines Zielobjekts.
  • Im Schritt S18C wählt die Handhabungssteuerung 4d unter den Zielobjekten mit Sicherheitsabständen, die größer als die Schwelle sind, ein Zielobjekt aus, das die Arbeitseffizienz maximiert, basierend auf den Informationen über ein oder mehrere Objekte, die für ein nachfolgendes Verfahren priorisiert worden sind.
  • Mit dem Handhabungsplanungsverfahren gemäß 21 kann die Handhabungssteuerung 4d z.B. eine angenommene Bewegungszeit, wie in 18 beschrieben, berechnen und aus einer Vielzahl von Zielobjekten, die eine kürzere angenommene Bewegungszeit als mindestens ein anderes Zielobjekt haben, ein Zielobjekt mit der höchsten Priorität für ein nachfolgendes Verfahren auswählen. Die Handhabungssteuerung 4d kann ein Zielobjekt mit der kürzesten angenommenen Bewegungszeit aus einer Vielzahl von Zielobjekten auswählen, die für ein nachfolgendes Verfahren priorisiert sind.
  • Die Handhabungssteuerung 4d kann vor allem ein Zielobjekt priorisiert für ein nachfolgendes Verfahren auswählen. So nutzt die Informationsverarbeitungsvorrichtung 4D weiter Informationen über ein oder mehrere priorisierte Objekte für ein nachfolgendes Verfahren, um ein Zielobjekt priorisiert auszuwählen.
  • Mit dem Handhabungsplanungsverfahren gemäß 21 ist es möglich, ein Zielobjekt und ein Pickup-Verfahren auszuwählen, das ein effizientes Arbeiten bei gleichzeitiger Bestimmung der Möglichkeit einer Kollision mit einem Menschen ermöglicht, ähnlich wie bei der ersten bis vierten Ausführungsform. So ist es möglich, effizienter zu arbeiten, als wenn man nur die Arbeitsgeschwindigkeit des Gerätes zu reduziert.
  • Obwohl die fünfte Ausführungsform die Auswahl eines aus einer Vielzahl von Zielobjekten nach der Priorität eines oder mehrerer für ein Folgeverfahren priorisierter Objekte beschreibt, kann eine aus einer Vielzahl von Pickup-Einrichtungen (siehe 13) oder eines aus einer Vielzahl von Pickup-Verfahren (siehe 14) nach der Priorität eines oder mehrerer für ein Folgeverfahren priorisierter Objekte ausgewählt werden.
  • Die Merkmale der oben beschriebenen ersten bis fünften Ausführungsformen können auch miteinander kombiniert werden.
  • Die Ausführungsformen der vorliegenden Erfindung haben folgende Merkmale.
  • In einem Roboter mit einem Sensor und einer Pickup-Einrichtung geschieht Folgendes:
    • - ein Objekterkenner berechnet aus den vom Sensor gemessenen Daten die Position und Stellung eines Zielobjekts,
    • - ein Sicherheitsabstandsrechner berechnet die Möglichkeit einer Kollision zwischen dem Zielobjekt und einem Menschen und
    • - eine Handhabungssteuerung bestimmt ein oder mehrere unter einem vom Roboter zu handhabenden Zielobjekt, einen Typ der Pickup-Einrichtung und ein Pickup-Verfahren der Pickup-Einrichtung, basierend auf der Position und Stellung des Zielobjekts, und basierend auf einem Sicherheitsabstand zum Zielobjekt.
  • So ist es möglich, eine effiziente und sichere Handhabung des Zielobjekts zu erreichen, indem ein zu handhabendes Zielobjekt, eine Pickup-Einrichtung und ein Pickup-Verfahren unter Berücksichtigung der Gefahr einer Kollision mit einem Menschen verändert werden.
  • Die Handhabungssteuerung berechnet Handlungsbefehle, um ein Zielobjekt gemäß einer vorgegebenen Priorität unter Zielobjekten mit Sicherheitsabständen in einem beliebigen Bereich auszuwählen und das ausgewählte Zielobjekt priorisiert aufzunehmen.
  • So ist es möglich, eine effiziente und sichere Handhabung des Zielobjekts zu erreichen, indem ein zu handhabendes Zielobjekt, eine Pickup-Einrichtung und ein Pickup-Verfahren unter Berücksichtigung der Gefahr einer Kollision mit einem Menschen verändert werden.
  • Die Handhabungssteuerung berechnet Handlungsbefehle, um mindestens eines der folgenden zu wählen: ein Zielobjekt, das es der Pickup-Einrichtung erlaubt, sich von der aktuellen Position des Roboters zu einer Position und einer Stellung zu bewegen, um eine Aufnahmezeit zu verkürzen, ein Zielobjekt mit einer hohen Rate erfolgreicher Aufnahme und ein Zielobjekt, das für ein nachfolgendes Verfahren priorisiert ist, unter Zielobjekten mit Sicherheitsabständen in einem beliebigen Bereich auszuwählen und das ausgewählte Zielobjekt in einer priorisierten Weise aufzunehmen.
  • So ist es möglich, ein Zielobjekt so effizient wie möglich auszuwählen und gleichzeitig Sicherheit zu erreichen.
  • Wenn die Handhabungssteuerung eine Vielzahl von Positionen und Stellungen der Pickup-Einrichtung zur Aufnahme eines Zielobjekts berechnen kann, schätzt die Handhabungssteuerung das Risiko einer Kollision mit einem Menschen anhand von Aktionsrichtungen zur Aufnahme und berechnet Handlungsbefehle zur Aufnahme des Zielobjekts mit der Pickup-Einrichtung an einer Position und einer Stellung, die das Risiko einer Kollision mit dem Menschen in einer priorisierten Weise reduzieren kann.
  • Damit ist es möglich, ein sicheres, effizientes und stabiles Pickup-Verfahren (Position und Stellung der Pickup-Einrichtung zum Zielobjekt) zu wählen.
  • Der Roboter hat eine Vielzahl von Pickup-Einrichtungen, und die Handhabungssteuerung schätzt das Risiko einer Kollision mit einem Menschen anhand von Handlungsanweisungen für die Aufnahme und berechnet Handlungsanweisungen zur Aufnahme des Zielobjekts mit einem Typ von Pickup-Einrichtung, die in der Stellung ist, das Risiko einer Kollision mit dem Menschen priorisiert zu reduzieren.
  • Somit ist es möglich, eine sichere Pickup-Einrichtung auszuwählen.
  • Der Roboter verfügt über eine Vielzahl von Pickup-Verfahren, und die Handhabungssteuerung schätzt das Risiko einer Kollision mit einem Menschen anhand von Handlungsanweisungen für die Aufnahme und berechnet Handlungsanweisungen zur Aufnahme des Zielobjekts mittels eines Pickup-Verfahrens, das in der Lage ist, das Risiko einer Kollision mit dem Menschen priorisiert zu reduzieren.
  • Somit ist es möglich, ein sicheres und effizientes Pickup-Verfahren zu wählen.
  • Der Sicherheitsabstandsrechner ermittelt die Möglichkeit einer Kollision zwischen dem Roboter und einem Menschen, basierend auf der Position und Stellung des Zielobjekts oder einer Spitzenposition der Pickup-Einrichtung bei der Handhabung des Zielobjekts, und basierend auf einer Position und einer Stellung des Menschen, die von einem Menschenerkenner aus den vom Sensor gemessenen Daten berechnet wird.
  • So ist es möglich, das Risiko einer Kollision mit einem Menschen sequentiell zu berechnen, um eine sicherere und effizientere Handhabung des Zielobjekts zu erreichen.
  • Der Sicherheitsabstandsrechner ermittelt die Möglichkeit einer Kollision zwischen dem Roboter und einem Menschen, basierend auf einer Spitzenposition der Pickup-Einrichtung bei der Handhabung des Zielobjekts und auf Informationen über einen oder mehrere vorbestimmte Punkte oder Ebenen im Raum.
  • So ist es möglich, das Risiko einer Kollision mit einem Menschen im Arbeitsbereich im Voraus zu definieren, um eine sicherere und effizientere Handhabung des Zielobjekts zu erreichen.
  • Mit der Ausführungsform gemäß der vorliegenden Erfindung ist es möglich, automatisch ein zu handhabendes Zielobjekt, eine Pickup-Einrichtung des Roboters zur Handhabung des Zielobjekts und/oder ein Pickup-Verfahren abhängig von der Möglichkeit einer Kollision mit einem Menschen auszuwählen und somit auch bei Annäherung eines Menschen mit hoher Effizienz zu arbeiten.
  • Industrielle Anwendbarkeit
  • Die vorliegende Erfindung ist anwendbar auf ein Objekt-Handhabungsgerät und ein Objekthandhabungsverfahren für eine automatische Maschine, die sich den Arbeitsbereich mit einem Menschen teilt und eine sichere und effiziente Handhabung einer Vielzahl von Zielobjekten ermöglicht, wobei die automatische Maschine mit Einrichtungen zum Erfassen einer Umgebung und Einrichtungen zum Aufnehmen und Handhaben der Zielobjekte versehen ist.
  • Bezugszeichenliste
  • 1
    Antriebseinrichtung
    2
    Sensor
    3
    Pickup-Einrichtung
    4, 4A - 4D
    Informationsverarbeitungsvorrichtung
    4a
    Obj ekterkenner
    4b
    Menschenerkenner
    4c
    Sicherheitsabstandsrechner
    4d
    Handhabungssteuerung
    4e
    Datenbank (DB)
    5
    Sensor
    6
    Zielobjekt
    7
    Mensch
    8
    Ebene
    9
    Sicherheitsabstand
    10
    Pickup-Einrichtung
    11
    Pickup-Einrichtung vom Sauggreifertyp
    12
    Pickup-Einrichtung vom Klemmentyp
    13
    Verwaltungseinrichtung
    41
    CPU
    42
    ROM
    43
    RAM
    44
    Eingabeeinrichtung
    45
    Anzeigeeinrichtung
    46
    Hilfsspeicher
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015526309 A [0004]
    • JP 2014176934 A [0004]

Claims (11)

  1. Objekt-Handhabungsgerät mit mindestens einem Sensor und mindestens einer Pickup-Einrichtung zum Aufnehmen und Handhaben mindestens eines Zielobjekts mittels der Pickup-Einrichtung, wobei das Objekt-Handhabungsgerät weiterhin Folgendes aufweist: - einen Objekterkenner, der anhand der vom Sensor gemessenen Daten eine Position und eine Stellung des Zielobjekts erkennt, - einen Entfernungsrechner, der eine Entfernung des Zielobjekts zu einem bestimmten Objekt berechnet, das nicht das Objekt-Handhabungsgerät und nicht das Zielobjekt ist, und - eine Handhabungssteuerung, die die Pickup-Einrichtung anhand der Position und der Stellung des Zielobjekts und der Entfernung des Zielobj ekts zum jeweiligen Objekt steuert, wobei dann, wenn mehrere Zielobjekte durch das Objekt-Handhabungsgerät auszuwählen sind, die Handhabungssteuerung eines der Zielobjekte mit Abständen zu dem bestimmten Objekt größer als eine vorbestimmte Schwelle auswählt und das ausgewählte Zielobjekt mit der Pickup-Einrichtung handhabt.
  2. Objekt-Handhabungsgerät nach Anspruch 1, wobei die Handhabungssteuerung eines der Zielobjekte mit Abständen zu dem bestimmten Objekt, die größer als die vorbestimmte Schwelle sind, gemäß einer vorbestimmten Priorität auswählt und das Zielobjekt mit der Pickup-Einrichtung handhabt.
  3. Objekt-Handhabungsgerät nach Anspruch 2, wobei die Handhabungssteuerung ein Zielobjekt unter den Zielobjekten mit Abständen zu dem bestimmten Objekt größer als die vorgegebene Schwelle auswählt und das ausgewählte Zielobjekt mit der Pickup-Einrichtung handhabt, wobei das ausgewählte Zielobjekt mindestens eines aus folgender Gruppe ist: - ein Zielobjekt mit einer kürzeren Bewegungszeit der Pickup-Einrichtung als eine Bewegungszeit der Pickup-Einrichtung für mindestens ein weiteres Zielobjekt; - ein Zielobjekt mit einer höheren Rate erfolgreicher Aufnahme als eine Rate erfolgreicher Aufnahme von mindestens einem weiteren Zielobjekt; und - ein Zielobjekt, das für ein nachfolgendes Verfahren priorisiert ist.
  4. Objekt-Handhabungsgerät nach Anspruch 1, das Folgendes aufweist: mehrere zu wählende Pickup-Einrichtungen, wobei die Handhabungssteuerung Positionen des durch die Pickup-Einrichtungen gehandhabten Zielobjekts schätzt, eine der Pickup-Einrichtungen mit einem Abstand von den geschätzten Positionen zu dem bestimmten Objekt größer als die Schwelle auswählt und das ausgewählte Zielobjekt handhabt.
  5. Objekt-Handhabungsgerät nach Anspruch 4, wobei die Handhabungssteuerung eine Pickup-Einrichtung unter den Pickup-Einrichtungen mit Abständen von den geschätzten Positionen zu dem bestimmten Objekt größer als die Schwelle auswählt und das Zielobjekt handhabt, wobei die ausgewählte Pickup-Einrichtung mindestens eine aus folgender Gruppe ist: eine Pickup-Einrichtung mit einer kürzeren Bewegungszeit als eine andere Pickup-Einrichtung; eine Pickup-Einrichtung mit einer höheren Rate erfolgreicher Aufnahme als eine erfolgreiche Pickup-Einrichtung; und eine Pickup-Einrichtung, die für ein nachfolgendes Verfahren priorisiert ist.
  6. Objekt-Handhabungsgerät nach einem der Ansprüche 1 oder 4, das mindestens eine Pickup-Einrichtung mit mehreren zu wählenden Pickup-Verfahren aufweist, wobei die Handhabungssteuerung Positionen des Zielobjekts, die durch das Pickup-Verfahren gehandhabt worden sind, schätzt, eines der Pickup-Verfahren mit einem Abstand von den geschätzten Positionen zu dem bestimmten Objekt größer als die Schwelle auswählt und das Zielobjekt handhabt.
  7. Objekt-Handhabungsgerät nach Anspruch 6, wobei die Handhabungssteuerung ein Pickup-Verfahren unter den Pickup-Verfahren mit Abständen von den geschätzten Positionen zu dem bestimmten Objekt größer als die Schwelle auswählt und das Zielobjekt handhabt, wobei das ausgewählte Pickup-Verfahren mindestens eines aus folgender Gruppe ist: - ein Pickup-Verfahren mit einer kürzeren Bewegungszeit als eine Bewegungszeit der Pickup-Einrichtung unter Verwendung mindestens eines anderen Pickup-Verfahrens; - ein Pickup-Verfahren mit einer höheren Rate erfolgreicher Aufnahme als eine Rate erfolgreicher Aufnahme von mindestens einem anderen Pickup-Verfahren; und - ein Pickup-Verfahren, das für ein nachfolgendes Verfahren priorisiert ist.
  8. Objekt-Handhabungsgerät nach einem der Ansprüche 1 bis 7, das Folgendes aufweist: mindestens einen Sensor (5), der den Abstand des Zielobjekts zum bestimmten Objekt misst, das nicht das Objekt-Handhabungsgerät und nicht das Zielobjekt ist.
  9. Objekt-Handhabungsgerät nach einem der Ansprüche 1 bis 7, das ferner eine Speichereinrichtung aufweist, die den Abstand des Zielobjekts zu dem bestimmten Objekt, das nicht das Objekt-Handhabungsgerät und nicht das Zielobjekt ist, im Voraus speichert.
  10. Objekt-Handhabungsgerät nach einem der Ansprüche 1 bis 9, wobei die Handhabungssteuerung die Schwelle bestimmt und die Schwelle erhöht, wenn das Gewicht und die Geschwindigkeit der Pickup-Einrichtung steigen und die Schwelle erniedrigt, wenn das Gewicht und die Geschwindigkeit der Pickup-Einrichtung sinken.
  11. Objekthandhabungsverfahren für ein Objekt-Handhabungsgerät mit mindestens einem Sensor und mindestens einer Pickup-Einrichtung zum Aufnehmen und Handhaben mindestens eines Zielobjekts unter Verwendung der Pickup-Einrichtung, wobei das Objekthandhabungsverfahren folgende Schritte umfasst: - Erkennen einer Position und einer Stellung des Zielobjekts anhand der vom Sensor gemessenen Daten; - Berechnen einer Entfernung des Zielobjekts zu einem bestimmten Objekt, das nicht das Objekt-Handhabungsgerät und das Zielobjekt ist; und - Steuern der Pickup-Einrichtung anhand der Position und der Stellung des Zielobj ekts und der Entfernung des Zielobj ekts zum jeweiligen Objekt, wobei dann, wenn mehrere Zielobjekte durch das Objekt-Handhabungsgerät auszuwählen sind, der Schritt der Steuerung der Pickup-Einrichtung das Auswählen eines der Zielobjekte mit Abständen zu dem bestimmten Objekt, die größer als eine vorbestimmte Schwelle sind, und das Handhaben des ausgewählten Zielobjekts unter Verwendung der Pickup-Einrichtung umfasst.
DE112017002114.6T 2016-04-22 2017-03-30 Objekt-Handhabungsgerät und Objekthandhabungsverfahren Pending DE112017002114T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016086373 2016-04-22
JP2016-086373 2016-04-22
PCT/JP2017/013407 WO2017183414A1 (ja) 2016-04-22 2017-03-30 物体操作装置及び物体操作方法

Publications (1)

Publication Number Publication Date
DE112017002114T5 true DE112017002114T5 (de) 2019-01-03

Family

ID=60116695

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017002114.6T Pending DE112017002114T5 (de) 2016-04-22 2017-03-30 Objekt-Handhabungsgerät und Objekthandhabungsverfahren

Country Status (5)

Country Link
US (1) US11065767B2 (de)
JP (1) JP6548816B2 (de)
CN (1) CN109070365B (de)
DE (1) DE112017002114T5 (de)
WO (1) WO2017183414A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11007649B2 (en) 2017-04-04 2021-05-18 Mujin, Inc. Information processing apparatus, picking system, distribution system, program and information processing method
US11007643B2 (en) 2017-04-04 2021-05-18 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11027427B2 (en) 2017-04-04 2021-06-08 Mujin, Inc. Control device, picking system, distribution system, program, and control method
US11090808B2 (en) 2017-04-04 2021-08-17 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11097421B2 (en) 2017-04-04 2021-08-24 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018094284A1 (en) 2016-11-18 2018-05-24 Child Mind Institute, Inc. Thermal sensor position detecting device
US10766145B2 (en) * 2017-04-14 2020-09-08 Brown University Eye in-hand robot
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
US11453123B2 (en) * 2017-12-27 2022-09-27 Stmicroelectronics, Inc. Robotic device with time-of-flight proximity sensing system
JP6911777B2 (ja) * 2018-01-23 2021-07-28 トヨタ自動車株式会社 動作軌道生成装置
JP7155660B2 (ja) * 2018-06-26 2022-10-19 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
US11185978B2 (en) 2019-01-08 2021-11-30 Honda Motor Co., Ltd. Depth perception modeling for grasping objects
JP7384898B2 (ja) * 2019-03-13 2023-11-21 日本電気株式会社 情報処理装置、駆動制御方法およびコンピュータプログラム
US11548152B2 (en) * 2019-08-02 2023-01-10 Dextrous Robotics, Inc. Systems and methods for robotic control under contact
US11694452B1 (en) * 2019-10-07 2023-07-04 Deshazo, LLC Crane-mounted system for automated object detection and identification
JP2022025271A (ja) * 2020-07-29 2022-02-10 セイコーエプソン株式会社 作業方法およびロボットシステム
JP2022134605A (ja) * 2021-03-03 2022-09-15 オムロン株式会社 ロボット姿勢決定装置、方法、及びプログラム
CN113096090B (zh) * 2021-04-07 2022-12-06 中国工程物理研究院机械制造工艺研究所 带倒角的端面间隙视觉测量方法、装置、设备及存储介质
US11845184B2 (en) 2022-04-18 2023-12-19 Dextrous Robotics, Inc. System and/or method for grasping objects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014176934A (ja) 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法
JP2015526309A (ja) 2012-08-31 2015-09-10 リシンク ロボティクス インコーポレイテッド 安全ロボット動作のためのシステムおよび方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU6792698A (en) * 1997-04-01 1998-10-22 R.A. Jones & Co. Inc. Robot controlled work area processing method
WO2008047872A1 (fr) * 2006-10-20 2008-04-24 Hitachi, Ltd. Manipulateur
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置
JP5370127B2 (ja) * 2009-12-18 2013-12-18 株式会社デンソーウェーブ ロボットの干渉回避装置
DE102010002250B4 (de) * 2010-02-23 2022-01-20 pmdtechnologies ag Überwachungssystem
JP2012016780A (ja) * 2010-07-08 2012-01-26 Ihi Corp 把持搬送装置および把持搬送方法
DE112012002677B4 (de) * 2011-06-29 2018-12-06 Mitsubishi Electric Corp. Zuführvorrichtung für Bauelemente
JP5668770B2 (ja) * 2013-03-15 2015-02-12 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
JP5835254B2 (ja) * 2013-03-15 2015-12-24 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
JP5616478B1 (ja) * 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP6511715B2 (ja) * 2013-10-31 2019-05-15 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、及びロボット
JP6402469B2 (ja) * 2014-04-04 2018-10-10 富士電機株式会社 安全制御装置および安全制御システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015526309A (ja) 2012-08-31 2015-09-10 リシンク ロボティクス インコーポレイテッド 安全ロボット動作のためのシステムおよび方法
JP2014176934A (ja) 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11007649B2 (en) 2017-04-04 2021-05-18 Mujin, Inc. Information processing apparatus, picking system, distribution system, program and information processing method
US11007643B2 (en) 2017-04-04 2021-05-18 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11027427B2 (en) 2017-04-04 2021-06-08 Mujin, Inc. Control device, picking system, distribution system, program, and control method
US11090808B2 (en) 2017-04-04 2021-08-17 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11097421B2 (en) 2017-04-04 2021-08-24 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
DE112017007399B4 (de) 2017-04-04 2021-09-23 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE112017007397B4 (de) 2017-04-04 2021-09-30 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE112017007392B4 (de) 2017-04-04 2021-11-04 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
US11679503B2 (en) 2017-04-04 2023-06-20 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method

Also Published As

Publication number Publication date
CN109070365B (zh) 2021-11-05
WO2017183414A1 (ja) 2017-10-26
JPWO2017183414A1 (ja) 2018-11-22
US11065767B2 (en) 2021-07-20
CN109070365A (zh) 2018-12-21
JP6548816B2 (ja) 2019-07-24
US20190061159A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
DE112017002114T5 (de) Objekt-Handhabungsgerät und Objekthandhabungsverfahren
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102017009223B4 (de) Steuervorrichtung zum Steuern eines Roboters durch Lernen einer Aktion einer Person, Robotersystem und Produktionssystem
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE112017002498B4 (de) Robotervorgang-auswertungseinrichtung, robotervorgang-auswertungsverfahren und robotersystem
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102016009030A1 (de) Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
EP3320483B1 (de) Verfahren zum steuern eines roboters und/oder eines autonomen fahrerlosen transportsystems
DE102012104194A1 (de) Roboter und Punktschweißverfahren mit selbstlernender Steuerfunktion
DE112008001884T5 (de) Bahnplanungsvorrichtung, Bahnplanungsverfahren und sich bewegender Körper
EP2922384B1 (de) Autonomes fortbewegungsgerät
DE102013210606A1 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE102017213601A1 (de) Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung
DE102019118202B4 (de) Robotersystem
DE102019207783A1 (de) Vorrichtung und verfahren zur steuerung des autonomen fahrens eines fahrzeuges
DE102021201777A1 (de) Verfahren zur Verhaltenserkennung, Vorrichtung zur Verhaltenserkennung und computerlesbares Aufzeichnungsmedium
DE212013000218U1 (de) System zur Fernpositionierung eines Endeffektors
DE112021006490T5 (de) Autonomer Fahrzeuglenkungs-Juke-Ereignisdetektor
DE102019007186A1 (de) Robotersystem und Robotersteuerungsverfahren für kooperatives Arbeiten mit Menschen
DE112017007903B4 (de) Haltepositions- und Orientierungslehreinrichtung, Haltepositions- und Orientierungslehrverfahren und Robotersystem
DE112019006440T5 (de) Pfad-Bestimmungsvorrichtung, Roboter und Pfad-Bestimmungsverfahren
EP3741518A1 (de) Verfahren und vorrichtung für eine automatisierte beeinflussung eines aktuators
DE102009007842A1 (de) Verfahren und Vorrichtung zum Betrieb eines videobasierten Fahrerassistenzsystems in einem Fahrzeug
DE102021123864A1 (de) Verfahren zum erkennen einer erkennungszielperson

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication