DE102015115115A1 - Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen - Google Patents

Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen Download PDF

Info

Publication number
DE102015115115A1
DE102015115115A1 DE102015115115.4A DE102015115115A DE102015115115A1 DE 102015115115 A1 DE102015115115 A1 DE 102015115115A1 DE 102015115115 A DE102015115115 A DE 102015115115A DE 102015115115 A1 DE102015115115 A1 DE 102015115115A1
Authority
DE
Germany
Prior art keywords
hand
force
external force
robot
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015115115.4A
Other languages
English (en)
Other versions
DE102015115115B4 (de
Inventor
Takefumi GOTOU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102015115115A1 publication Critical patent/DE102015115115A1/de
Application granted granted Critical
Publication of DE102015115115B4 publication Critical patent/DE102015115115B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • Y10S901/32Servo-actuated
    • Y10S901/34Servo-actuated force feedback
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)

Abstract

Eine Gegenstandsaufnahmevorrichtung gemäß der vorliegenden Erfindung ist zum Steuern eines Roboters oder einer Hand gemäß der Profilsteuerung ausgelegt, wenn die Hand einen Gegenstand so hält, dass eine externe Kraft, die auf die Hand wirkt und von einem Kraftsensor erkannt wird, der zwischen einem Arm und der Hand installiert ist, näher an einem Zielwert der externen Kraft liegt, die durch eine Kraftzielwerteinstellungseinheit eingestellt wird.

Description

  • STAND DER TECHNIK
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen durch einen Roboter.
  • 2. Beschreibung des Standes der Technik
  • Eine Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen durch einen Roboter ist bekannt. Die Gegenstandsaufnahmevorrichtung erkennt optisch einen geladenen Zustand von Gegenständen auf der Basis eines zweidimensionalen Bildes der Gegenstand, der durch eine Kamera eingefangen wird, oder einen dreidimensionalen Punktsatz, der unter Verwendung einer dreidimensionalen Messvorrichtung erfasst wurde (siehe Japanisches Offenlegungspatentpublikationen Nr. 2011-179909 und Nr. 2011-093058 ).
  • Die Japanische Offengelegte Patentpublikation Nr. 2011-179909 offenbart eine Positions- und Lagemessvorrichtung, die die Position und eine Lage eines Zielobjektes unter Verwendung eines Distanzbildes des Zielobjektes abschätzt. Die Positions- und Lagemessvorrichtung gemäß dem Stand der Technik vergleicht Informationen, die einen Abstand zwischen einem Objektmodell und einem Objektbereich mit Informationen, die einen Abstand zwischen einem Teilbereich, der nicht als der Objektbereich in einer Teilbereichsgruppe bestimmt ist, und dem Objektmodell anzeigen, und aktualisiert den Objektbereich gemäß dem Vergleichsergebnis, um die Position und die Lage des Zielobjektes durch Verknüpfen einer Gruppe von dreidimensionalen Punkten des aktualisierten Objektbereichs mit dem Objektmodell abzuschätzen.
  • Die Offengelegte Japanische Patentpublikation Nr. 2011-093058 offenbart ein Verfahren zum Extrahieren eines Greifbereichs, einschließlich eines Objektes, das durch einen Greifmechanismus eines Roboters ergriffen werden soll, aus dreidimensionalen Informationen einer Versorgungseinheit, in der ein Objekt, dessen Position und Lage unbekannt sind, bereitgestellt wird. Gemäß dem bekannten Verfahren werden die dreidimensionalen Informationen der Versorgungseinheit aus dreidimensionalen Messdaten der Versorgungseinheit für ein Objekt erzeugt und extrahiert unter Verwendung eines Greifbereichs, der im Voraus gespeichert wird, welcher einen Greifteilbereich und einen Greifmechanismusbereich umfasst, einen Bereich, in dem das Objekt in einem ganzen Greifteilbereich existiert und nicht in einem Greifmechanismusbereich existiert, als greifbarer Bereich aus den dreidimensionalen Informationen.
  • Wenn jedoch eine Position und eine Lage eines Gegenstands oder eine Greifposition und Haltung einer Hand auf der Basis von optischen Informationen erkannt wird, die unter Verwendung eines optischen Sensors erfasst werden, wie in den Fällen des Standes der Technik, der in den Japanischen Offengelegten Patentpublikationen Nr. 2011-179909 und Nr. 2011-093058 beschrieben wird, besteht immer eine Gefahr einer falschen Erkennung, eines Erkennungsversagens oder eines Erkennungsfehlers. Wenn zum Beispiel in dem Fall, wo ein Gegenstand durch eine Spannhand, die ein Paar von Klauen einschließt, ergriffen wird, wenn eine Mitte der Hand nicht zu einer Mitte des Gegenstands passt, kommt nur eine Klaue der Hand in Kontakt mit dem Gegenstand, was es schwierig macht, die Hand zu schließen. In diesem Fall wird eine Lücke zwischen der anderen Klaue und dem Gegenstand gebildet, und daher ist es wahrscheinlich, dass die Hand den Gegenstand nicht halten kann. Wenn die Hand gewaltsam geschlossen wird, wird ein Roboter oder wird die Hand einer Überlastung ausgesetzt, oder der Gegenstand kann durch eine übermäßige Kraft beschädigt werden.
  • Die Japanische Offengelegte Patentpublikationen Nr. 2000-263481 offenbart ein Verfahren, bei dem ein Sensor zum Erkennen einer anomalen Aktivität in einem Manipulator installiert ist, und eine Aufnahmeoperation wird gestoppt, um den Manipulator zeitweilig zurückzuziehen, wenn der Sensor eine Anomalität der Operation während einer Aufnahmeoperation eines Gegenstands durch den Manipulator feststellt, um den Gegenstand nochmals durch eine optische Erkennungsvorrichtung festzustellen.
  • In dem Stand der Technik, der in den Japanischen Offengelegten Patentpublikation Nr. 2000-263481 muss jedoch der Manipulator sich jedes Mal zurückziehen, wenn eine Anomalität erkannt wird. Die Aufnahmeoperation kann daher beendet werden, selbst wenn es einen Gegenstand gibt, der tatsächlich aufgenommen werden kann. Um zum Beispiel eine Störung der Hand mit einem Gegenstand in der Umgebung oder einem Container zu vermeiden, kann eine Mitte der offenen Hand absichtlich aus einer Mitte eines Gegenstands verschoben werden. Gemäß der Technik, die in der Japanischen Offengelegten Patentpublikation Nr. 2000-263481 offenbart wird, wenn die Mitte der Hand gegenüber der Mitte des Gegenstands verschoben, wird die Anomalität erkannt, und im Ergebnis dessen wird die Aufnahmeoperation des Gegenstands gestoppt. Das bedeutet, dass selbst wenn es einen Gegenstand gibt, der potenziell aufgenommen werden kann, der Aufnahmeprozess gestoppt wird.
  • Daher wird eine Gegenstandsaufnahmevorrichtung benötigt, die einen Gegenstand stabil auf der Basis von optischen Informationen aufnehmen kann, die durch einen optischen Sensor erfasst wurden.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Gemäß einer ersten Erscheinungsform der vorliegenden Erfindung wird eine Gegenstandsaufnahmevorrichtung bereitgestellt, die zum Erkennen von zufällig gehäuften Gegenständen durch einen optischen Sensor und zum Aufnehmen der Gegenstände durch einen Roboter einen nach dem anderen auf der Basis von optischen Informationen ausgelegt ist, die durch den optischen Sensor erfasst wurden, wobei der Roboter Folgendes umfasst: eine Hand, die an einem vorderen Ende eines Arms vorgesehen ist und zum Halten des Gegenstands ausgelegt ist; und einen Kraftsensor, der zum Erkennen einer externen Kraft ausgelegt ist, die auf die Hand einwirkt, wobei die Gegenstandsaufnahmevorrichtung umfasst: eine optische Informationsverarbeitungseinheit, die zum Erkennen einer Position und einer Haltung der Hand ausgelegt ist, in der die Hand den Gegenstand halten kann, als Halteposition und Haltung, auf der Basis von optischen Informationen, die vom optischen Sensor erfasst wurden; eine Kraftzielwertfestlegeinheit, die zum Festlegen eines Zielwertes einer externen Kraft ausgelegt ist, welche auf die Hand wirkt, wenn der Gegenstand gehalten wird; und eine Halteoperationseinheit, die zum Steuern des Roboters zum Bewegen der Hand in die Halteposition und Haltung und zum Steuern der Hand zum Halten des Gegenstands ausgelegt ist, und
    wobei die Halteoperationseinheit zum Steuern des Roboters oder der Hand gemäß der Profilsteuerung ausgelegt ist, wenn der Gegenstand von der Hand so gehalten wird, dass eine externe Kraft, die vom Kraftsensor erkannt wird, näher am Zielwert der externen Kraft ist.
  • Gemäß einer zweiten Erscheinungsform der vorliegenden Erfindung ist in der Gegenstandsaufnahmevorrichtung gemäß der ersten Erscheinungsform der Kraftsensor zum Erkennen einer Reaktionskraft ausgelegt, die auf die Hand im Ergebnis des Kontaktes zwischen der Hand und dem Gegenstand wirkt, wenn der Roboter die Hand in die Halteposition und Haltung bewegt, und wobei die Halteoperationseinheit zum Stoppen des Roboters und zum Steuern der Hand zum Halten des Gegenstands ausgelegt ist, wenn die Reaktionskraft, die durch den Kraftsensor erkannt wird, einen vorgegebenen ersten Schwellwert übersteigt.
  • Gemäß einer dritten Erscheinungsform der vorliegenden Erfindung ist in der Gegenstandsaufnahmevorrichtung gemäß der ersten Erscheinungsform oder der zweiten Erscheinungsform der Kraftsensor zum Erkennen der externen Kraft ausgelegt, die auf die Hand in Bezug auf individuelle Komponenten der jeweiligen Koordinatenachsen eines Handkoordinatensystems wirkt, deren Position und Lage relativ zur Hand fest sind, wobei die Kraftzielwerteinstellungseinheit zum Einstellen eines Zielwertes der externen Kraft in Bezug auf einzelne Komponenten der jeweiligen Koordinatenachsen des Handkoordinatensystems ausgelegt ist, und wobei die Halteoperationseinheit zum Steuern des Roboters oder der Hand gemäß der Profilsteuerung auf der Basis eines Zielwertes der externen Kraft durch die Kraftzielwerteinstellungseinheit ausgelegt ist.
  • Gemäß einer vierten Erscheinungsform der vorliegenden Erfindung ist in der Gegenstandsaufnahmevorrichtung nach einer der ersten bis dritten Erscheinungsform die Halteoperationseinheit zum Stoppen einer Halteoperation des Gegenstands durch die Hand und zum Steuern der Hand zum Freigeben des Gegenstands aus der Hand in dem Fall ausgelegt. wo die externe Kraft, die vom Kraftsensor erkannt wird, einen vorgegebenen zweiten Schwellwert übersteigt, wenn die Hand den Gegenstand hält.
  • Gemäß einer fünften Erscheinungsform der vorliegenden Erfindung, umfasst die Gegenstandsaufnahmevorrichtung nach einer der ersten bis vierten Erscheinungsform ferner eine Speichereinheit, die zum Speichern der externen Kraft, welche vom Kraftsensor erkannt wird, und einer Anzahl von Gegenständen ausgelegt ist, die von der Hand gehalten werden, in Verbindung miteinander als erste Speicherungsinformationen; und eine Gegenstandanzahlbestimmungseinheit, die zum Bestimmen der Anzahl der Gegenstand, die von der Hand gehalten werden, auf der Basis der externen Kraft, die vom Kraftsensor erkannt wird, wenn die Hand den Gegenstand aufnimmt, und der ersten Speicherungsinformationen.
  • Gemäß einer sechsten Erscheinungsform der vorliegenden Erfindung, umfasst die Gegenstandsaufnahmevorrichtung nach einer der ersten bis vierten Erscheinungsform ferner eine Speichereinheit, die zum Speichern der externen Kraft, welche vom Kraftsensor erkannt wird, und einer Art des Gegenstands ausgelegt ist, der von der Hand gehalten wird, in Verbindung miteinander als zweite Speicherungsinformationen, wenn die zufällig gehäuften Gegenstand verschiedene Arten von Gegenständen umfassen; und eine Gegenstandartbestimmungseinheit, die zum Bestimmen einer Art des Gegenstands, der von der Hand gehalten wird, auf der Basis der externen Kraft, die vom Kraftsensor erkannt wird, wenn die Hand den Gegenstand aufnimmt, und der zweiten Speicherungsinformationen.
  • Gemäß einer siebenten Erscheinungsform der vorliegenden Erfindung ist in der Gegenstandsaufnahmevorrichtung gemäß einem der ersten bis sechsten Erscheinungsform die Hand eine Spannhand zum Halten des Gegenstands durch Öffnen oder Schließen, und wobei die Halteoperationseinheit zum Steuern eines Öffnungs- und Schließbetrags der Hand zum Ausführen einer Halteoperation des Gegenstands durch die Hand und zum Steuern des Roboters oder der Hand gemäß der Profilsteuerung, so dass eine externe Kraft, die vom Kraftsensor erkannt wird, näher an einem Zielwert der externen Kraft ist, wenn die Hand in Kontakt mit dem Gegenstand durch Öffnen oder Schließen der Hand kommt.
  • Diese und andere Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden im Licht der detaillierten Beschreibung von beispielhaften Ausführungsformen derselben offensichtlicher werden, wie in den Zeichnungen erläutert.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Schemazeichnung einer Gegenstandsaufnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 2 ist ein funktionelles Blockdiagramm der Gegenstandsaufnahmevorrichtung gemäß einer Ausführungsform.
  • 3 ist ein Flussdiagramm einer Serie von Prozessen, die von der Gegenstandsaufnahmevorrichtung gemäß einer Ausführungsform ausgeführt werden.
  • 4A illustriert die Profilsteuerung.
  • 4B illustriert die Profilsteuerung.
  • 5A illustriert die Profilsteuerung.
  • 5B illustriert die Profilsteuerung.
  • 6A illustriert die Profilsteuerung.
  • 6B illustriert die Profilsteuerung.
  • 7A illustriert die Aktualisierungsverarbeitung einer Halteposition und Lage.
  • 7B illustriert die Aktualisierungsverarbeitung einer Halteposition und Lage.
  • 8 ist ein funktionelles Blockdiagramm einer Gegenstandsaufnahmevorrichtung gemäß einer anderen Ausführungsform.
  • 9 ist ein Diagramm, das die Beziehungen zwischen der Anzahl von Gegenständen, die gehalten werden, und einer erkannten externen Kraft illustrieren.
  • 10 ist ein funktionelles Blockdiagramm einer Gegenstandsaufnahmevorrichtung gemäß einer weiteren Ausführungsform.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden hierin unten im Detail beschrieben mit Verweis auf die begleitenden Zeichnungen. Die Darstellungsmaßstäbe von illustrierten Komponenten sind nach Notwendigkeit geändert worden, um das Verständnis für die vorliegende Erfindung zu erleichtern. Dieselben oder entsprechenden Komponenten werden mit denselben Bezugszahlen bezeichnet.
  • 1 ist eine Schemazeichnung einer Gegenstandsaufnahmevorrichtung 10 gemäß einer Ausführungsform der vorliegenden Erfindung. Die Gegenstandsaufnahmevorrichtung 10 umfasst einen Roboter 2, der eine Hand 21 am vorderen Ende eines Arms 22, eine Robotersteuerungsvorrichtung (auch einfach als ”die Steuerungsvorrichtung” bezeichnet) 3, die mit dem Roboter 2 über ein Verbindungskabel 13 verbunden ist und ein Steuersignal zum Steuern des Roboters 2 überträgt, und einen optischen Sensor 4, der an einem Ständer 41 befestigt ist und Gegenstand 12 feststellt, die in einem Container 11 zufällig aufgestapelt sind. Die Gegenstandsaufnahmevorrichtung 10 wird zum Aufnehmen von Gegenständen 12 durch den Roboter 2 einen nach dem anderen verwendet, auf der Basis von optischen Informationen, die vom optischen Sensor 4 erfasst werden.
  • Der Roboter 2 ist zum Beispiel ein sechsachsiger vertikaler gelenkiger Roboter, wie in 1 illustriert. Jedoch kann der Roboter 2 jede beliebige andere Konfiguration enthalten. Die Hand 21 ist zum Beispiel eine Spannhand, die zum Halten und Freigeben eines Gegenstands 12 durch Steuern der Öffnungs- und Schließbeträge eines Paars von Klauen 21a konstruiert ist, die so angeordnet sind, dass sie einander gegenüberliegen. Die Klauen 21a werden von einer gegebenen Stromversorgung angetrieben, wie zum Beispiel einem Elektromotor oder einem hydraulischen Aktor. Die Hand 21 kann von einem anderen Handtyp sein, der zum Halten eines Gegenstands 12 konstruiert ist, wie zum Beispiel einer Saugdüse, einem anziehenden Magneten oder einem Saugnapf.
  • Ein Kraftsensor 23 ist zwischen dem Roboter 2 und der Hand 21 installiert. Der Kraftsensor 23 wird zum Erkennen einer externen Kraft verwendet, die auf die Hand 21 einwirkt. Informationen über die externe Kraft, die vom Kraftsensor 23 erkannt werden, werden an die Steuerungsvorrichtung 3 über ein Kommunikationsmittel übertragen, wie zum Beispiel ein Verbindungskabel, das nicht illustriert wird.
  • Der Kraftsensor 23 ist zum Beispiel ein sechsachsiger Kraftsensor, der Informationen aus sechs Achsen Erkennen kann. Alternativ kann der Kraftsensor 23 zum Beispiel ein dreiachsiger Kraftsensor sein, der Informationen aus drei Achsen erfassen kann. Ein Verfahren zum Messen einer externen Kraft, die auf die Hand 21 einwirkt, unter Verwendung eines dreiachsigen Kraftsensors wird zum Beispiel in der Japanischen Offengelegten Patentpublikation Nr. 2012-137421 beschrieben.
  • Der Container 11, der die Gegenstand 12 lagert, hat eine Kastenform mit einer oben offenen Seite, um so dem Roboter 2 zu ermöglichen, die Innenseite des Containers 11 zu erreichen. Die Gegenstand 12 sind zufällig im Container 11 angeordnet. Gemäß der Ausführungsform, die in 1 illustriert wird, ist dieselbe Art der Gegenstand 12 im Container 11 angeordnet.
  • Jedoch kann die Gegenstandsaufnahmevorrichtung 10 zum Aufnehmen mehrerer Arten von Gegenständen, die unterschiedliche Größen und Formen besitzen, ausgeführt sein.
  • Der optische Sensor 4, der oberhalb des Containers 11 befestigt ist, ist zum Beispiel so angeordnet, dass ein Bilderfassungsbereich im Wesentlichen vollständig einen Speicherplatz des Containers 11 für die Gegenstand 12 umfasst. Der optische Sensor 4 ist zum Beispiel eine zweidimensionale Kamera oder verschiedene dreidimensionale Messvorrichtungen. Eine beispielhafte dreidimensionale Messvorrichtung setzt ein Stereosystem ein, das zwei Kameras verwendet. Eine alternative dreidimensionale Messvorrichtung kann ein Verfahren zum Scannen von zufällig gehäuften Gegenständen 12 durch einen Laserschlitzstrahl, ein Verfahren zum Projizieren von gemustertem Licht auf die Gegenstand 12 unter Verwendung eines Projektors oder dergleichen, ein Verfahren zum Messen einer Laufzeit von Licht, das von einem Projektor emittiert wird, bis das Licht auf einer Oberfläche des Gegenstands 12 reflektiert wird und dann in einen Fotodetektor eintritt, und dergleichen einsetzen.
  • Gemäß einer weiteren Ausführungsform, die nicht illustriert wird, der optische Sensor 4 am vorderen Ende des Arms 22 des Roboters 2 zusammen mit der Hand 21 vorgesehen sein.
  • Die optischen Informationen, die vom optischen Sensor 4 erfasst werden, werden an die Steuerungsvorrichtung 3 über ein Kommunikationsmittel, wie zum Beispiel ein Verbindungskabel 14, übertragen. In einer weiteren Ausführungsform kann eine zusätzliche Steuerungsvorrichtung zum Verarbeiten der optischen Informationen, die vom optischen Sensor 4 erfasst wurden, separat von der Steuerungsvorrichtung 3 zum Steuern des Roboters 2 vorgesehen werden.
  • Die Steuerungsvorrichtung 3 ist ein digitaler Computer, der eine Hardware-Konfiguration umfasst, wie zum Beispiel eine zentrale Verarbeitungseinheit (CPU), einen Nur-Lese-Speicher (ROM) und einen Speicher mit direktem Zugriff (RAM). Die Steuerungsvorrichtung 3 umfasst ferner eine Schnittstelle zum Übertragen und Empfangen von Signalen oder Daten an und von einer Eingabevorrichtung, wie zum Beispiel einer Tastatur und einer Maus, und ein Anzeigemittel, wie zum Beispiel eines Flüssigkristalldisplays.
  • 2 zeigt ein funktionelles Blockdiagramm der Gegenstandsaufnahmevorrichtung 10. Die Steuerungsvorrichtung 3 der Gegenstandsaufnahmevorrichtung 10 umfasst eine optische Informationsverarbeitungseinheit 31, eine Kraftzielwerteinstellungseinheit 32, eine Kraftmesseinheit 33, eine Halteoperationseinheit 34 und eine Robotersteuerungseinheit 35, wie in 2 illustriert.
  • Die optische Informationsverarbeitungseinheit 31 berechnet eine Position und eine Haltung der Hand 21, in der die Hand 21 den Gegenstand 12 halten kann (die hierin nachstehend auch als ”die Halteposition und Haltung” bezeichnet wird), auf der Basis der optischen Informationen, die vom optischen Sensor 4 erfasst wurden. Zum Beispiel kann die optische Informationsverarbeitungseinheit 31 zum Vergleichen eines Modells des Gegenstands 12, das im Voraus gespeichert ist, mit den optischen Informationen ausgelegt werden und eine Position und eine Lage des Gegenstands 12 identifizieren, um die Position und die Haltung der Hand 21 relativ zur identifizierten Position und Lage des Gegenstands 12 zu berechnen. Alternativ kann die optische Informationsverarbeitungseinheit 31 zum direkten Berechnen der Position und Haltung der Hand 21 ausgelegt werden, in der die Hand 21 den Gegenstand 12 halten kann, ohne die Position und die Lage des Gegenstands 12 zu identifizieren. Die Halteposition und Lage, die durch die optische Informationsverarbeitungseinheit 31 berechnet wird, wird in die Robotersteuerungseinheit 35 eingegeben.
  • Die Kraftmesseinheit 33 misst eine externe Kraft, die auf die Hand 21 wirkt, in Zusammenarbeit mit dem Kraftsensor 23. Die externe Kraft, die auf die Hand 21 wirkt, wird durch Subtrahieren einer Kraft, die auf den Kraftsensor 23 auf Grund der Hand 21 wirkt, von einer Kraft berechnet, die durch den Kraftsensor 23 gemessen wird. Die Kraft, die auf den Kraftsensor 23 auf Grund der Hand 21 wirkt, kann auf der Basis der Masseeigenschaft der Hand 21 berechnet werden, die im Voraus gespeichert wird.
  • Die Kraftzielwerteinstellungseinheit 32 stellt einen Kraftzielwert und entsprechende Steuerungsparameter ein, die in der Profilsteuerung verwendet werden, welche gleichzeitig mit dem Prozess ausgeführt wird, bei der die Hand 21 den Gegenstand 12 hält. Der Kraftzielwert und die Steuerungsparameter werden zum Beispiel durch einen Bediener unter Verwendung der Eingabevorrichtung eingestellt, die mit der Steuerungsvorrichtung 3 verbunden ist.
  • Die Halteoperationseinheit 34 erzeugt ein Steuerungssignal, das für die 21 notwendig ist, um den Gegenstand 12 zu halten. Zum Beispiel überträgt die Halteoperationseinheit 34 ein Signal an die Robotersteuerungseinheit 35, um die Klauen 21a der Hand 21 zu öffnen oder zu schließen, so dass der Gegenstand 12 freigegeben oder gehalten wird. Außerdem ist die Halteoperationseinheit 34 gemäß der vorliegenden Ausführungsform zum Steuern des Roboters 2 oder der Hand 21 ausgelegt, um die Profilsteuerung auszuführen, die unten beschrieben wird.
  • Die Robotersteuerungseinheit 35 betreibt den Roboter gemäß einem vorgegebenen Programm oder erkannter Informationen. Zum Beispiel bewegt die Robotersteuerungseinheit 35 die Hand 21 in die Halteposition und Haltung, die durch die optische Informationsverarbeitungseinheit 31 berechnet werden. Des Weiteren steuert die Robotersteuerungseinheit 35 den Roboter 2 und die Hand 21, um eine Halteoperation des Gegenstands 12 gemäß einer Signaleingabe von der Halteoperationseinheit 34 auszuführen.
  • Die Gegenstandsaufnahmevorrichtung 10 gemäß der vorliegenden Ausführungsform steuert den Roboter 2 oder die Hand 21, um die Profilsteuerung auszuführen, wenn die Halteoperation des Gegenstands 12 ausgeführt wird, so dass die externe Kraft, die durch die Kraftmesseinheit 33 gemessen wird, näher am Kraftzielwert ist, der von der Kraftzielwerteinstellungseinheit 32 eingestellt wird. Speziell führt die Gegenstandsaufnahmevorrichtung 10 eine Kraftsteuerung gemäß der folgenden charakteristischen Gleichung (Formel 1) aus, um die Profilsteuerung auszuführen. F = Mẍ + Dẋ + K(x – xd) (Formel 1) M: virtuelle Trägheitskraft, D: virtueller Viskositätskoeffizient, K: virtueller elastischer Koeffizient, F: Kraft, die auf das vordere Ende des Arms wirkt, x: eine aktuelle Position eines vorderen Endes der Hand, und xd: eine Position des vorderen Endes der Hand vor einer Halteoperation
  • Mit anderen Worten, die Position des vorderen Endes der Hand 21 wird gesteuert durch Bedienen des Roboters 2 oder der Hand 21, um die charakteristische Gleichung von Formel 1 zu erfüllen, und so wird die Profilsteuerung ausgeführt.
  • 4A und 4B illustrieren das Verhalten der Hand 21, die die Profilsteuerung gemäß der vorliegenden Ausführungsform ausführt. Die illustrierte Hand 21 ist eine Art von Hand, um den Gegenstand 12 durch die Klauen 21a zu drücken. 4A illustriert die Hand 21 in der Halteposition und Haltung, die aus optischen Informationen erlangt werden. In diesem Zustand wird eine Mittelachsenlinie C1 der Hand 21 gegenüber einer Mittelachsenlinie C2 des Gegenstands 12 verschoben. Wenn die Hand 21 in diesem Zustand angehoben wird, kann der Gegenstand 12 nicht aus dem Container 11 herausgehoben werden. Wenn außerdem die Klauen 21a einfach geschlossen werden, wirkt eine Kraft nur auf die Klaue 21a auf der rechten Seite, die den Gegenstand 12 kontaktiert, und der Roboter 2 oder die Hand 21 können einer Überlast ausgesetzt werden. Im Allgemeinen öffnet und schließt eine Spannhand Klauen durch Bewegen eines Paares von Klauen in entgegengesetzten Richtungen, so dass die oben beschriebene Situation eintreten kann.
  • Im Gegensatz dazu führt die Gegenstandsaufnahmevorrichtung 10 gemäß der vorliegenden Ausführungsform die Profilsteuerung aus, wenn sie die Halteoperation ausführt. Wie in 4B illustriert, wird daher die Hand 21, wenn die Halteoperation ausgeführt wird, in eine Richtung bewegt, in der die externe Kraft auf die Hand 21 wirkt. Mit anderen Worten, die Hand 21 wird bewegt, so dass die Mittelachsenlinie C1 der Hand 21 mit der Mittelachsenlinie C2 des Gegenstands 12 zusammenpasst. Daher wird der Gegenstand 12 durch das Klauenpaar 21a ohne einen Spalt dazwischen gedrückt, und so kann ein stabiler Haltezustand realisiert werden. Da außerdem der Roboter 2 und die Hand 21 betrieben werden, während sie die Profilsteuerung ausführen, können der Roboter 2 und die Hand 21 vor der Einwirkung einer Überlast geschützt werden.
  • Eine beispielhafte Konfiguration, bei der die Hand 21 eine Saughand ist, wird in 5A und 5B illustriert. In einer Halteposition und Lage, die in 5A illustriert wird, gibt es einen Spalt zwischen dem Saugteil 21c der Hand 21 und dem Gegenstand 12. Daher wird keine ausreichende Saugkraft erzeugt, und der Hand 21 kann es nicht gelingen, den Gegenstand 12 zu halten. Wenn der Saugteil 21c Luft einsaugt während der Halteoperation in diesem Zustand, wirkt das Drehmoment T auf die Hand 21, wie in 5A illustriert.
  • Wenn der Roboter 2 oder die Hand 21 gemäß der Profilsteuerung betrieben wird, während das Drehmoment T wirkt, wird die Haltung der Hand 21 so geändert, dass die Lücke zwischen dem Saugteil 21c der Hand 21 und dem Gegenstand 12 beseitigt wird (der Zustand, wie in 5B gezeigt). Dementsprechend kann der Gegenstand 12 stabil von der Hand 21 gehalten werden.
  • Ferner führt die Gegenstandsaufnahmevorrichtung 10 gemäß der vorliegenden Ausführungsform führt die Kraftsteuerung für Profilsteuerung aus, so dass eine Kraft, die durch die Kraftmesseinheit 33 erkannt wird, näher am Kraftzielwert ist, der von der Kraftzielwerteinstellungseinheit 32 eingestellt wird. Der Kraftzielwert kann zum Beispiel in Bezug auf einzelne Komponenten der jeweiligen Koordinatenachsen eines Handkoordinatensystems eingestellt werden. Das Handkoordinatensystem ist ein Koordinatensystem, dessen Position und Lage in Bezug auf die Hand 21 festgelegt ist. In diesem Fall ist die Kraftmesseinheit 33 zum Messen der externen Kraft ausgelegt, die auf die Hand 21 in Bezug auf einzelne Komponenten der jeweiligen Koordinatenachsen des Handkoordinatensystems wirkt.
  • Allgemein wird die Kraftsteuerung, die durch eine folgende charakteristische Gleichung (Formel 2) ausgeführt wird, für die Profilsteuerung ausgeführt, so dass die externe Kraft, die auf die Hand 21 wirkt, näher am Kraftzielwert liegt. F – Fd = Mẍ + Dẋ + K(x – xd) (Formel 2) Fd: ein vorgegebener Zielwert der externen Kraft, die auf die Hand wirkt
  • 6A illustriert die Hand 21 in der Halteposition und Haltung. Wenn die Klauen 21a der Hand 21 in der Halteposition und Lage, die in 6A gezeigt wird, geschlossen werden, wird der Gegenstand 12 nur von den vorderen Enden der Klauen 21a gehalten. Daher ist eine Kontaktfläche zwischen den Klauen 21a und dem Gegenstand 12 zu klein, um den Gegenstand 12 stabil zu halten.
  • Gemäß der vorliegenden Ausführungsform wird daher ein Kraftzielwert in einer Z-Achsenrichtung des Handkoordinatensystems (eine Richtung eines Pfeils in 6A) auf eine kleinen Wert (zum Beispiel –1 N) eingestellt. In diesem Fall werden die Klauen 21a gemäß der Profilsteuerung während der Halteoperation geschlossen, während sich die Hand 21 entlang der Oberfläche des Gegenstands 12 bewegt (eine Richtung eines Pfeils in 6B). Im Ergebnis dessen erhöht sich die Kontaktfläche zwischen den Klauen 21a und dem Gegenstand 12, und der Gegenstand 12 kann stabil gehalten werden.
  • Eine Halteoperation wird nicht immer stabil durch die Profilsteuerung ausgeführt, bei der der Kraftzielwert eingestellt wird. Zum Beispiel wird die Profilsteuerung in Bezug auf eine externe Kraft, die auf die Hand 21 wirkt, auf Grund eines Terms verzögert, der den virtuellen Viskositätskoeffizienten in Formel 1 und Formel 2 umfasst. Der Begriff des virtuellen Viskositätskoeffizienten macht die Profilsteuerung robust. Die profilierte Steuerung kann jedoch in einigen Fällen verzögert werden, was möglicherweise zu einer überschüssigen externen Kraft führt, die auf die Hand 21 wirkt. Um das Auftreten einer überschüssigen externen Kraft zu verhindern, kann die Halteoperation 34 zum Stoppen der Halteoperation ausgelegt sein, wenn die externe Kraft, die von der Kraftmesseinheit 33 gemessen wird, einen vorgegebenen Schwellwert in der Profilsteuerung (nämlich während der Halteoperation) übersteigt. In diesem Fall stoppt die Halteoperationseinheit 34 die Halteoperation und steuert die Hand 21, den Gegenstand 12 freizugeben. Dementsprechend können der Roboter 2 und die Hand 21 vor der Einwirkung einer Überlast geschützt werden, und auch der Gegenstand 12 kann vor Beschädigung geschützt werden.
  • 3 ist ein Flussdiagramm, das eine Serie von Prozessen illustriert, die von der Gegenstandsaufnahmevorrichtung 10 ausgeführt werden. In Schritt S301 werden zuerst zum Erkennen eines geladenen Zustandes der Gegenstand 12 optische Informationen der Gegenstand 12 im Container 11 unter Verwendung des optischen Sensors 4 erfasst. Wenn der optische Sensor 4 eine zweidimensionale Kamera ist, wird ein Bild der Gegenstand 12 eingefangen. Wenn der optische Sensor 4 eine dreidimensionale Messvorrichtung ist, wird ein Abstandsbild der Gegenstand 12 aufgenommen.
  • In Schritt S302 berechnet die optische Informationsverarbeitungseinheit 31 die Halteposition und Haltung der Hand 21 auf der Basis der optischen Informationen, die in Schritt S301 erfasst wurden. In Schritt S303 steuert die Robotersteuerungseinheit 35 den Roboter 2, um die Hand 21 in die Halteposition und Haltung zu bewegen.
  • In einer Annäherungsoperation, die in Schritt S303 ausgeführt wird, kann die Halteposition und Haltung auf der Basis einer Reaktionskraft aktualisiert werden, die auf die Hand 21 durch den Gegenstand 12 in Kontakt damit ausgeübt wird. Die Reaktionskraft, die auf die Hand 21 wirkt, wird aus der externen Kraft berechnet, die durch die Kraftmesseinheit 33 gemessen wird. Mit anderen Worten, wenn der Roboter 2 die Hand 21 in die Halteposition und Haltung bewegt und die Kraft, die auf die Hand 21 wirkt, einen vorgegebenen Schwellwert übersteigt, wird erkannt, dass die Hand 21 in Kontakt mit dem Gegenstand 12 kommt. Wenn erkannt ist, dass die Hand 21 in Kontakt mit dem Gegenstand 12 kommt, wird die Annäherungsoperation des Roboters 2 beendet.
  • 7A illustriert die Halteposition und Haltung der Hand 21, die durch die optische Informationsverarbeitungseinheit 31 berechnet wird. Wenn die Hand 21 in die Halteposition und Haltung bewegt werden soll, die durch eine Strichlinie angezeigt wird, um einen Gegenstand 12a aufzunehmen, stört die Hand 21 einen anderen Gegenstand 12b, der sich in der Umgebung des Gegenstands 12a befindet. In einem solchen Fall wird erkannt, dass die Hand 21 den Gegenstand 12 nicht aufnehmen kann, und ein Gegenstandaufnahmeprozess kann gestoppt werden.
  • Um das Obige zu verhindern, wird die externe Kraft, die auf die Hand 21 wirkt, überwacht, und die Annäherungsoperation wird ausgeführt durch Ersetzen der Halteposition und Haltung durch eine Position, in der die Hand 21 in Kontakt mit dem Gegenstand 12b kommt, um eine Halteposition und Haltung zu aktualisieren, wie in 7B gezeigt. In diesem Fall wird der Gegenstand 12a in einer Position oberhalb der Halteposition und Haltung gehalten, die auf der Basis der optischen Informationen berechnet wird, und daher kann die Halteposition ausgeführt werden.
  • Mit Bezug wieder auf 3, führt die Halteoperationseinheit 34 in Schritt S304 die Halteoperation des Gegenstands 12 durch den Roboter 2 und die Hand 21 aus. Während der Operation wird der Roboter 2 oder die Hand 21 gemäß der Profilsteuerung betrieben, wie in Formel 1 oder Formel 2 oben beschrieben.
  • In Schritt S305 wird der Roboter 2 betrieben, um die Hand 21 bewegt, die den Gegenstand 12 hält, und der Gegenstand 12 wird aus dem Container 11 aufgegriffen. Der Gegenstand, der vom Roboter 2 aufgenommen wird, wird an einem vorgegebenen Ort (zum Beispiel auf einem Transportband) durch weitere Operation des Roboters 2 abgesetzt. Gemäß dem Flussdiagramm, das in 3 illustriert ist, erfasst die Gegenstandsaufnahmevorrichtung 10 die optischen Informationen zu den Gegenständen 12 jedes Mal, wenn ein Gegenstand 12 aufgenommen werden soll. Jedoch können die Haltepositionen und Haltungen für mehr als jeweils einen Gegenstand 12 auf der Basis der erfassten optischen Informationen berechnet werden. In diesem Fall kehrt der Prozess nicht zu Schritt S301 zurück, nachdem ein Gegenstand 12 aufgenommen wird, kehrt aber zu Schritt S303 zurück, so dass die Gegenstandsaufnahmevorrichtung 10 kontinuierlich einen nächsten Gegenstand 12 aufnimmt.
  • Gemäß der oben beschriebenen Gegenstandsaufnahmevorrichtung 10 können die folgenden vorteilhaften Effekte erreicht werden.
    • (1) Der Roboter 2 oder die Hand 21 wird gemäß der Profilsteuerung gesteuert, wenn der Gegenstand 12 gehalten wird. Dementsprechend kann der Gegenstand 12 stabil gehalten werden, selbst wenn der Gegenstand 12 nicht in der Halteposition und Haltung gehalten werden kann, die aus den optischen Informationen berechnet werden.
    • (2) Die Position, in der die Hand 21 in Kontakt mit dem Gegenstand 12 kommt, wird durch Messen einer Reaktionskraft, die auf die Hand 21 wirkt, durch die Kraftmesseinheit 33 erkannt, wenn die Hand 21 in Kontakt mit dem Gegenstand 12 kommt. Die erkannte Kontaktposition wird als Halteposition und Haltung der Hand 21 verwendet.
  • Dementsprechend kann der Aufnahmeprozess des Gegenstands 12 fortgesetzt werden, selbst wenn der Gegenstand 12 nicht in der Halteposition und Haltung gehalten werden kann, die aus den optischen Informationen berechnet werden.
    • (3) Die Halteoperation des Gegenstands 12 wird gestoppt, wenn die externe Kraft, gemessen durch die Kraftmesseinheit 33, einen vorgegebenen Schwellwert übersteigt. Dementsprechend können der Roboter 2 und die Hand 21 vor der Einwirkung einer Überlast geschützt werden, und auch der Gegenstand 12 kann vor Beschädigung geschützt werden.
  • 8 ist ein funktionelles Blockdiagramm einer Gegenstandsaufnahmevorrichtung 10 gemäß einer anderen Ausführungsform. Gemäß der vorliegenden Ausführungsform umfasst die Steuerungsvorrichtung 3 ferner eine Speichereinheit 36 und eine Gegenstandanzahlbestimmungseinheit 37 zusätzlich zu der Konfiguration, die oben beschrieben wurde mit Bezug auf 2.
  • Die Gegenstandsaufnahmevorrichtung 10 ist dafür vorgesehen, die Gegenstand 12 einen nach dem anderen aus dem Container 11 aufzunehmen. Jedoch kann die Gegenstandsaufnahmevorrichtung 10 manchmal zwei oder mehr Gegenstand 12 gleichzeitig halten. Im Gegensatz dazu kann es der Gegenstandsaufnahmevorrichtung 10 manchmal nicht gelingen, den Gegenstand 12 zu halten. Gemäß der vorliegenden Ausführungsform wird bestimmt, ob die Halteoperation ordnungsgemäß ausgeführt wird oder nicht, was auf einem erkannten Wert der externen Kraft beruht, die von der Kraftmesseinheit 33 gemessen wird.
  • Auf Grund einer Trägheitskraft, die auf die Hand 21 wirkt, was von der Beschleunigung/Verzögerung abhängt, ist es schwierig, die Masse des Gegenstands 12, der von der Hand 21 gehalten wird, in Bewegung genau zu messen. Die Masse des Gegenstands 12 kann gemessen werden, wenn der Roboter 2 gestoppt ist; jedoch ist das nicht wünschenswert, weil dies zu einer erhöhten Zykluszeit führt.
  • 9 ist ein Diagramm, das eine erkannte externe Kraft illustriert, abhängig von der Zahl der Gegenstand 12, die gleichzeitig von der Hand 21 gehalten werden. In 9 zeigt eine Abszissenachse die verflossene Zeit an, und eine Ordinatenachse zeigt die externe Kraft an, die von der Kraftmesseinheit 33 gemessen wird. In 9 repräsentiert eine durchgehende Linie Daten der externen Kraft, die auf die Hand 21 wirkt, wenn ein Gegenstand 12 gehalten wird, eine Strichlinie repräsentiert Daten der externen Kraft, die auf die Hand 21 wirkt, wenn zwei Gegenstand 12 gehalten werden, und eine gepunktete Linie repräsentiert Daten der externen Kraft, die auf die Hand 21 wirkt, wenn kein Gegenstand 12 gehalten wird.
  • Wie in 9 illustriert, enthalten die Daten der externen Kraft, die erhalten werden, wenn sich der Roboter 2 in Bewegung befindet, ein ziemlich starkes Rauschen. Die Anzahl der Gegenstand 12 wird also bestimmt, zum Beispiel auf der Basis von Durchschnittswerten M0 bis M2 während einer Messperiode von t1 bis t2.
  • Wenn speziell die externe Kraft, die auf die Hand 21 wirkt, innerhalb eines Bereiches auf der Basis des Durchschnittswertes M0 liegt, der durch einen Doppelpfeil A0 angezeigt wird, so wird angenommen, dass die Hand 21 keinen Gegenstand 12 hält. Wenn die externe Kraft innerhalb eines Bereiches auf der Basis des Durchschnittswertes M1 liegt, der durch einen Doppelpfeil A1 angezeigt wird, so wird angenommen, dass die Hand 21 einen Gegenstand 12 hält. Wenn die externe Kraft innerhalb eines Bereiches auf der Basis des Durchschnittswertes M2 liegt, der durch einen Doppelpfeil A2 angezeigt wird, so wird angenommen, dass die Hand 21 einen oder zwei Gegenstand 12 hält.
  • Die Speichereinheit 36 speichert Daten, die eine Beziehung zwischen der Anzahl der Gegenstand 12, die von der Hand 21 gehalten werden, und der externen Kraft anzeigen, die auf die Hand 21 wirkt, wie oben mit Bezug auf 9 beschrieben.
  • Die Gegenstandanzahlbestimmungseinheit 37 bestimmt die Zahl der Gegenstand 12, die von der Hand 21 gehalten werden, auf der Basis der externen Kraft, die von der Kraftmesseinheit 33 gemessen wird, mit Bezug auf die Daten, die in der Speichereinheit 36 gespeichert sind.
  • Gemäß der vorliegenden Ausführungsform kann bestimmt werden, ob der Gegenstand 12 genau gehalten wird einer nach dem anderen, wenn sich der Roboter 2 in Bewegung befindet. Daher kann die Zahl der Gegenstand 12, die von der Hand 21 gehalten werden, bestimmt werden, ohne die Zykluszeit zu verlängern. In dem Fall, dass die Gegenstandanzahlbestimmungseinheit 37 feststellt, dass zwei oder mehr Gegenstand 12 gleichzeitig gehalten werden, kann der Roboter 2 so gesteuert werden, dass er den Gegenstand 12 abschüttelt oder wieder einen Gegenstand 12 hält. Wenn erkannt wird, dass kein Gegenstand 12 gehalten wird, wird die Operation zum Halten eines Gegenstands 12 nochmals ausgeführt. So kann der Gegenstand 12 stabil aufgenommen werden.
  • 10 ist ein funktionelles Blockdiagramm einer Gegenstandsaufnahmevorrichtung 10 gemäß einer weiteren Ausführungsform. Gemäß der vorliegenden Ausführungsform umfasst die Steuerungsvorrichtung 3 ferner eine Speichereinheit 36 und eine Gegenstandartbestimmungseinheit 38 zusätzlich zu der Konfiguration, die oben beschrieben wurde mit Bezug auf 2.
  • Gemäß der vorliegenden Ausführungsform ist die Gegenstand 10 zum Bestimmen der Art des Gegenstands 12, statt der Zahl der Gegenstand 12, auf der Basis eines Messergebnisses der Kraftmesseinheit 33 ausgelegt. Daher speichert die Speichereinheit 36 speichert Daten, die eine Beziehung zwischen der Art des Gegenstands 12, der von der Hand 21 gehalten wird, und der externen Kraft anzeigen, die auf die Hand 21 wirkt. Die Gegenstandartbestimmungseinheit 38 bestimmt die Art des Gegenstands 12, der von der Hand 21 gehalten wird, mit Bezug auf die Daten, die in der Speichereinheit 36 gespeichert sind.
  • WIRKUNG DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung wird der Roboter oder Hand gemäß der Profilsteuerung auf der Basis eines erkannten Wertes des Kraftsensors während eines Prozesses zum Halten eines Gegenstands durch die Hand gesteuert. Dementsprechend kann das Auftreten von Überlast auf der Hand oder den Roboter oder Scheitern beim Halten des Gegenstands verhindert werden, und der Gegenstand kann stabil aufgenommen werden.
  • Obwohl verschiedene Ausführungsformen und Varianten der vorliegenden Erfindung oben beschrieben worden sind, ist es für einen Fachmann auf diesem Gebiet ersichtlich, dass die vorgesehenen Funktionen und Effekte auch durch andere Ausführungsformen und Varianten realisiert werden können. Insbesondere ist es möglich, ein einzelnes Element der Ausführungsformen und Varianten wegzulassen oder zu ersetzen oder zusätzlich bekannte Mittel vorzusehen, ohne vom Geltungsbereich der vorliegenden Erfindung abzuweichen. Ferner ist es für einen Fachmann auf diesem Gebiet ersichtlich, dass die vorliegende Erfindung durch eine beliebige Kombination von Merkmalen der Ausführungsformen implementiert werden kann, die entweder explizit oder implizit hierin offenbart werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2011-179909 [0002, 0003, 0005]
    • JP 2011-093058 [0002, 0004, 0005]
    • JP 2000-263481 [0006, 0007, 0007]
    • JP 2012-137421 [0035]

Claims (7)

  1. Gegenstandsaufnahmevorrichtung (10), die zum Erkennen von zufällig gehäuften Gegenständen (12) durch einen optischen Sensor (4) und zum Aufnehmen der Gegenstand (12) durch einen Roboter (2) nacheinander auf der Basis von optischen Informationen ausgelegt ist, die durch den optischen Sensor (4) erfasst wurden, wobei der Roboter (2) Folgendes umfasst: eine Hand (21), die an einem vorderen Ende eines Arms (22) vorgesehen ist und zum Halten des Gegenstands (12) ausgelegt ist; und einen Kraftsensor (23), der zum Erkennen einer externen Kraft ausgelegt ist, die auf die Hand (21) einwirkt, wobei die Gegenstandsaufnahmevorrichtung (10) umfasst: eine optische Informationsverarbeitungseinheit (31), die zum Erkennen einer Position und eine Haltung der Hand (21) ausgelegt ist, in der die Hand (21) den Gegenstand (12) halten kann, als Halteposition und Haltung, auf der Basis der optischen Informationen, die vom optischen Sensor (4) erfasst wurden; eine Kraftzielwerteinstellungseinheit (32), die zum Einstellen eines Zielwertes einer externen Kraft ausgelegt ist, welche auf die Hand (21) wirkt, wenn der Gegenstand (12) gehalten wird; und eine Halteoperationseinheit (34), die zum Steuern des Roboters (2) ausgelegt ist, um die Hand (21) zur Halteposition und Haltung zu bewegen und die Hand (21) zu steuern, um den Gegenstand (12) zu halten, und wobei die Halteoperationseinheit (34) zum Steuern des Roboters (2) oder der Hand (21) gemäß der Profilsteuerung ausgelegt ist, wenn der Gegenstand (12) von der Hand (21) so gehalten wird, dass eine externe Kraft, die vom Kraftsensor (23) erkannt wird, näher am Zielwert der externen Kraft ist.
  2. Gegenstandsaufnahmevorrichtung (10) nach Anspruch 1, wobei der Kraftsensor (23) zum Erkennen einer Reaktionskraft ausgelegt ist, die auf die Hand (21) im Ergebnis des Kontaktes zwischen der Hand (21) und dem Gegenstand (12) wirkt, wenn der Roboter (2) die Hand (21) in die Halteposition und Haltung bewegt, und wobei die Halteoperationseinheit (34) zum Stoppen des Roboters (2) und Steuern der Hand (21) ausgelegt ist, um den Gegenstand (12) zu halten, wenn die Reaktionskraft, die vom Kraftsensor (23) erkannt wird, einen vorgegebenen ersten Schwellwert übersteigt.
  3. Gegenstandsaufnahmevorrichtung (10) nach Anspruch 1 oder 2, wobei der Kraftsensor (23) zum Erkennen der externen Kraft, die auf die Hand (21) wirkt, in Bezug auf einzelne Komponenten der jeweiligen Koordinatenachsen eines Handkoordinatensystems, einer Position und einer Haltung ausgelegt ist, die gegenüber der Hand (21) fixiert sind, wobei die Kraftzielwerteinstellungseinheit (32) zum Einstellen eines Zielwertes der externen Kraft in Bezug auf einzelne Komponenten der jeweiligen Koordinatenachsen des Handkoordinatensystems ausgelegt ist, und wobei die Halteoperationseinheit (34) zum Steuern des Roboters (2) oder der Hand (21) gemäß der Profilsteuerung auf der Basis eines Zielwertes der externen Kraft ausgelegt ist, der durch die Kraftzielwerteinstellungseinheit (32) eingestellt wird.
  4. Gegenstandsaufnahmevorrichtung (10) nach einem der Ansprüche 1 bis 3, wobei die Halteoperationseinheit (34) zum Stoppen einer Halteoperation des Gegenstands (12) durch die Hand (21) und Steuern der Hand (21) zum Freigeben des Gegenstands (12) aus der Hand (21) ausgelegt ist, falls die externe Kraft, die vom Kraftsensor (23) erkannt wird, einen vorgegebenen zweiten Schwellwert übersteigt, wenn die Hand (21) den Gegenstand (12) hält.
  5. Gegenstandsaufnahmevorrichtung (10) nach einem der Ansprüche 1 bis 4, die ferner Folgendes umfasst: eine Speichereinheit (36), die zum Speichern der externen Kraft, die vom Kraftsensor (23) erkannt wird, und einer Anzahl der Gegenstand (12) ausgelegt ist, die von der Hand (21) gehalten werden, in Verbindung miteinander als erste Speicherinformationen; und eine Gegenstandanzahlbestimmungseinheit (37), die zum Bestimmen der Anzahl der Gegenstand (12) ausgelegt ist, die von der Hand (21) gehalten werden, auf der Basis der externen Kraft, die vom Kraftsensor (23) erkannt wird, wenn die Hand (21) den Gegenstand (12) aufnimmt, und der ersten Speicherinformationen.
  6. Gegenstandsaufnahmevorrichtung (10) nach einem der Ansprüche 1 bis 4, die ferner Folgendes umfasst: eine Speichereinheit (36), die zum Speichern der externen Kraft, welche vom Kraftsensor (23) erkannt wird, und einer Art des Gegenstands (12), der von der Hand (21) gehalten wird, in Verbindung miteinander als zweite Speicherinformationen ausgelegt ist, wenn die zufällig gehäuften Gegenstand (12) verschiedene Arten von Gegenständen (12) umfassen; und eine Gegenstandartbestimmungseinheit (38), die zum Bestimmen einer Art des Gegenstands (12), der von der Hand (21) gehalten wird, auf der Basis der externen Kraft, die vom Kraftsensor (23) erkannt wird, wenn die Hand (21) den Gegenstand (12) aufnimmt, und der zweiten Speicherinformationen ausgelegt ist.
  7. Gegenstandsaufnahmevorrichtung (10) nach einem der Ansprüche 1 bis 6, wobei die Hand (21) eine Spannhand zum Halten des Gegenstands (12) durch Öffnen oder Schließen ist, und wobei die Halteoperationseinheit (34) zum Steuern eines Öffnungs- und Schließgrads der Hand (21) ausgelegt ist, um eine Halteoperation des Gegenstands (12) durch die Hand (21) und zum Steuern des Roboters (2) oder der Hand (21) gemäß der Profilsteuerung auszuführen, so dass eine externe Kraft, die durch den Kraftsensor (23) erkannt wird, näher an einem Zielwert der externen Kraft liegt, wenn die Hand (21) in Kontakt mit dem Gegenstand (12) kommt, durch Öffnen und Schließen der Hand (21).
DE102015115115.4A 2014-09-16 2015-09-09 Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen Active DE102015115115B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-188050 2014-09-16
JP2014188050A JP5905549B1 (ja) 2014-09-16 2014-09-16 バラ積みされた物品を取出す物品取出装置

Publications (2)

Publication Number Publication Date
DE102015115115A1 true DE102015115115A1 (de) 2016-03-17
DE102015115115B4 DE102015115115B4 (de) 2019-03-21

Family

ID=55406199

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015115115.4A Active DE102015115115B4 (de) 2014-09-16 2015-09-09 Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen

Country Status (4)

Country Link
US (1) US9694499B2 (de)
JP (1) JP5905549B1 (de)
CN (1) CN105415370B (de)
DE (1) DE102015115115B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016071984A1 (ja) * 2014-11-06 2016-05-12 富士機械製造株式会社 部品供給装置
JP6711591B2 (ja) * 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
US10221015B2 (en) * 2016-06-27 2019-03-05 Amazon Technologies, Inc. Automated item singulation
US20180021949A1 (en) * 2016-07-20 2018-01-25 Canon Kabushiki Kaisha Robot apparatus, robot controlling method, program, and recording medium
CN106078784A (zh) * 2016-07-29 2016-11-09 苏州高通机械科技有限公司 一种玩具收纳装置及其机械手
CN106166018A (zh) * 2016-07-29 2016-11-30 苏州高通机械科技有限公司 一种新型玩具收纳装置
US10315866B2 (en) * 2016-10-20 2019-06-11 Intelligrated Headquarters, Llc 3D-2D vision system for robotic carton unloading
US10597235B2 (en) 2016-10-20 2020-03-24 Intelligrated Headquarters, Llc Carton unloader tool for jam recovery
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
JP6453922B2 (ja) * 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6876476B2 (ja) 2017-03-17 2021-05-26 株式会社東芝 保持機構、移載装置及びハンドリングロボットシステム
DE102017118985B4 (de) * 2017-04-23 2019-10-02 Franka Emika Gmbh Schraubvorrichtung
JP6487495B2 (ja) * 2017-05-19 2019-03-20 ファナック株式会社 ワーク取出しシステム
JP6902208B2 (ja) * 2017-11-14 2021-07-14 オムロン株式会社 把持方法、把持システム及びプログラム
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP7093629B2 (ja) * 2017-12-26 2022-06-30 川崎重工業株式会社 ピペットにチップを装着する方法
CN108127666B (zh) * 2017-12-29 2020-12-25 深圳市越疆科技有限公司 一种机械臂的抓取方法、系统及机械臂
CN108214491A (zh) * 2017-12-29 2018-06-29 深圳市越疆科技有限公司 一种机器人执行工步切换方法、装置及终端设备
CN108115688B (zh) * 2017-12-29 2020-12-25 深圳市越疆科技有限公司 一种机械臂的抓取控制方法、系统及机械臂
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP6912415B2 (ja) * 2018-04-10 2021-08-04 ファナック株式会社 ハンド制御装置およびハンド制御システム
US11407111B2 (en) * 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene
CN109079786B (zh) * 2018-08-17 2021-08-27 上海非夕机器人科技有限公司 机械臂抓取自学习方法及设备
CN109731793A (zh) * 2018-12-17 2019-05-10 上海航天电子有限公司 一种小批量片式散料器件智能分拣设备
US10335947B1 (en) * 2019-01-18 2019-07-02 Mujin, Inc. Robotic system with piece-loss management mechanism
US11741566B2 (en) 2019-02-22 2023-08-29 Dexterity, Inc. Multicamera image processing
WO2020172579A1 (en) 2019-02-22 2020-08-27 Dexterity, Inc. Robotic handling of soft products in non-rigid packaging
US10549928B1 (en) 2019-02-22 2020-02-04 Dexterity, Inc. Robotic multi-item type palletizing and depalletizing
US11312581B2 (en) * 2019-04-16 2022-04-26 Abb Schweiz Ag Object grasp system and method
US11359958B2 (en) * 2019-05-13 2022-06-14 Kindred Systems Inc. Multiple object detection
JP2021171838A (ja) 2020-04-21 2021-11-01 株式会社東芝 ピッキング装置、制御装置、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000263481A (ja) 1999-03-12 2000-09-26 Meidensha Corp ビンピッキング装置
JP2011093058A (ja) 2009-10-30 2011-05-12 Fuji Electric Holdings Co Ltd 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2011179909A (ja) 2010-02-26 2011-09-15 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、プログラム
JP2012137421A (ja) 2010-12-27 2012-07-19 Fanuc Ltd 3軸力センサを用いて力制御をおこなうロボットの制御装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1052445A (zh) 1989-12-12 1991-06-26 杭州电子工业学院 三感觉机械手
JP2555822B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置
US7443115B2 (en) * 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
US7477969B2 (en) * 2003-10-02 2009-01-13 W.E.T. Automotive Systems Ag Temperature conditioned assembly having a controller in communication with a temperature sensor
US20100168919A1 (en) * 2006-03-24 2010-07-01 Matsushita Electric Industrial Co, Ltd. Control method and control system for manipulator
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP4600445B2 (ja) * 2007-07-23 2010-12-15 トヨタ自動車株式会社 ロボットハンド装置
JP5088187B2 (ja) * 2008-03-18 2012-12-05 株式会社Ihi ロボット設置方法及びロボット生産システム
JP5321532B2 (ja) * 2010-04-28 2013-10-23 株式会社安川電機 ロボットキャリブレーション装置及びキャリブレーション方法
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
US9089966B2 (en) 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
DE102010051935A1 (de) 2010-11-19 2012-05-24 Daimler Ag Verfahren zum Entnehmen eines Bauteils
JP5834478B2 (ja) * 2011-05-10 2015-12-24 セイコーエプソン株式会社 ロボット
JP5846479B2 (ja) * 2011-08-23 2016-01-20 株式会社Ihi ロボットとその制御方法
JP5892459B2 (ja) * 2011-08-25 2016-03-23 株式会社Ihi 組立ロボットとその制御方法
JP5383760B2 (ja) * 2011-09-09 2014-01-08 ファナック株式会社 ワーク質量測定機能を備えたロボット
US9140598B2 (en) 2011-09-20 2015-09-22 Ishida Co., Ltd. Mass measurement device
DE102012012988A1 (de) 2012-06-29 2014-04-17 Liebherr-Verzahntechnik Gmbh Vorrichtung zur automatisierten Handhabung von Werkstücken
JP6323993B2 (ja) * 2012-08-28 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
JP2014140934A (ja) 2013-01-24 2014-08-07 Fanuc Ltd 力センサを備える電動ハンド
JP5698789B2 (ja) * 2013-04-18 2015-04-08 ファナック株式会社 ワークを搬送するロボットの制御装置
US10046140B2 (en) * 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000263481A (ja) 1999-03-12 2000-09-26 Meidensha Corp ビンピッキング装置
JP2011093058A (ja) 2009-10-30 2011-05-12 Fuji Electric Holdings Co Ltd 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2011179909A (ja) 2010-02-26 2011-09-15 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、プログラム
JP2012137421A (ja) 2010-12-27 2012-07-19 Fanuc Ltd 3軸力センサを用いて力制御をおこなうロボットの制御装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11045948B2 (en) 2018-10-15 2021-06-29 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method
DE112019001256B3 (de) 2018-10-15 2022-08-18 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11839977B2 (en) 2018-10-15 2023-12-12 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method

Also Published As

Publication number Publication date
US20160075031A1 (en) 2016-03-17
CN105415370B (zh) 2017-05-10
JP5905549B1 (ja) 2016-04-20
JP2016059983A (ja) 2016-04-25
DE102015115115B4 (de) 2019-03-21
US9694499B2 (en) 2017-07-04
CN105415370A (zh) 2016-03-23

Similar Documents

Publication Publication Date Title
DE102015115115B4 (de) Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen
DE102014005758B4 (de) Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102019003868B4 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und speichermedium
DE102016015873B3 (de) Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
DE102009030461B4 (de) Vorrichtung zum Aufnehmen von Objekten
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102015208584B4 (de) Greifvorrichtung und Greifverfahren
DE112019000170T5 (de) Steuerungssystem, Transportvorrichtung, Programm und Steuerungsverfahren
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
AT507339B1 (de) Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102015011527A1 (de) Stückgut-Fördersystem
DE102016009030A1 (de) Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
DE102016013986A1 (de) Vorrichtung zum messen von positionen und stellungen einer mehrzahl von artikeln sowie die vorrichtung aufweisendes robotersystem
WO2019169418A2 (de) Robotersystem mit an warentypen angepassten bewegungsabläufen und betriebsverfahren hierfür
DE102016122678A1 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102019101170A1 (de) Artikeltransfersystem und Robotersystem
DE102017111885A1 (de) Verfahren und System zum Überwachen einer Maschine
DE102019007186A1 (de) Robotersystem und Robotersteuerungsverfahren für kooperatives Arbeiten mit Menschen
DE102016206980B4 (de) Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
DE102015205494A1 (de) Manipulatorsystem zum Handhaben eines Werkstücks
DE102020122701A1 (de) Robotersystem mit greifmechanismus
DE102017128332B4 (de) Mit einer Formungsmaschine und einer Formproduktentnahmevorrichtung versehenes Formungssystem

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: HASELTINE LAKE KEMPNER LLP, DE

Representative=s name: HL KEMPNER PATENTANWALT, RECHTSANWALT, SOLICIT, DE

Representative=s name: HASELTINE LAKE LLP, DE

R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: HL KEMPNER PATENTANWAELTE, SOLICITORS (ENGLAND, DE

Representative=s name: HL KEMPNER PATENTANWALT, RECHTSANWALT, SOLICIT, DE