DE102016000995A1 - Förderrobotersystem mit dreidimensionalem Sensor - Google Patents

Förderrobotersystem mit dreidimensionalem Sensor Download PDF

Info

Publication number
DE102016000995A1
DE102016000995A1 DE102016000995.0A DE102016000995A DE102016000995A1 DE 102016000995 A1 DE102016000995 A1 DE 102016000995A1 DE 102016000995 A DE102016000995 A DE 102016000995A DE 102016000995 A1 DE102016000995 A1 DE 102016000995A1
Authority
DE
Germany
Prior art keywords
dimensional
dimensional information
information
robot
transport
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016000995.0A
Other languages
English (en)
Other versions
DE102016000995B4 (de
Inventor
Shouta TAKIZAWA
Fumikazu Warashina
Kazunori Ban
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102016000995A1 publication Critical patent/DE102016000995A1/de
Application granted granted Critical
Publication of DE102016000995B4 publication Critical patent/DE102016000995B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/902Devices for picking-up and depositing articles or materials provided with drive systems incorporating rotary and rectilinear movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39107Pick up article, object, measure, test it during motion path, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/40Vacuum or mangetic
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

Ein Robotersystem ist mit einem dreidimensionalen Sensor, der dreidimensionale Informationen eines Objekts erfasst, und mit einem Roboter, der eine Greifvorrichtung zum Ergreifen eines Objekts umfasst, versehen. Das Robotersystem verwendet erste dreidimensionale Informationen, die einen Zustand betreffen, bevor ein Objekt herausgenommen wird, und zweite dreidimensionale Informationen, die einen Zustand betreffen, nachdem ein Objekt herausgenommen wurde, als Grundlage, um dreidimensionale Forminformationen eines Objekts zu erfassen, und verwendet die dreidimensionalen Forminformationen des Objekts als Grundlage, um eine Position und Stellung des Roboters zu berechnen, wenn ein Objekt an einem Zielort angeordnet wird.

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Robotersystem, das verwendet werden kann, um gestapelte Objekte zu befördern.
  • Beschreibung der verwandten Technik
  • In der Technik ist ein Robotersystem bekannt, das nacheinander Pappkartons und andere gestapelte Objekte mit einem Roboter befördert. Der Roboter ist am Ende eines Arms mit einer Greifvorrichtung, die ein Objekt ergreift, versehen und ist derart konfiguriert, dass er ein Objekt, das von der Greifvorrichtung ergriffen wird, bis zu einem Zielort, der sich an einem getrennten Standort befindet, für nachfolgende Prozesse befördert.
  • Bei einem existierenden Robotersystem erfolgt ein Anordnungsprozess durch Betätigen eines Roboters gemäß einer Befehlsposition, die im Voraus vorbereitet wird, so dass die untere Oberfläche des Objekts mit der Oberfläche des Zielorts fluchtet. Wenn jedoch die tatsächlichen Dimensionen des Objekts anders als die erwarteten Dimensionen sind, wird das Objekt nicht richtig positioniert, und daraufhin kann es sein, dass eine zu große Schubkraft auf das Objekt ausgeübt wird oder das Objekt herunterfällt.
  • Ein anderes existierendes Robotersystem ist mit einem Sensor, der den Kontakt des Objekts mit dem Zielort detektiert, versehen und ausgelegt, um das Objekt loszulassen, wenn das Objekt den Zielort berührt. Bei einem derartigen Robotersystem muss ein Objekt jedoch langsam von einer Position, die weit genug von dem Zielort entfernt ist, in Richtung auf den Zielort bewegt werden. Dadurch verringert sich die Effizienz der Beförderung.
  • Bekannte diverse Robotersysteme sind konfiguriert, um Positionsinformationen der gestapelten Objekte durch Sensoren zu erfassen und einen Beförderungsprozess auszuführen (siehe die japanischen Patentschriften Nr. 2010-005769 , H07-053054 , H07-299782 , 2001-317911 , 2013-154457 , 2012-192490 und 2011-247819 ).
  • Mit den existierenden Robotersystemen war es schwierig, den Beförderungsprozess richtig auszuführen, wenn die dreidimensionalen Formen und Dimensionen der Objekte unbekannt waren, oder wenn es erhebliche Unterschiede zwischen einzelnen Objekten gab. Daher besteht ein Bedarf an einem Robotersystem, das in der Lage ist, einen Beförderungsprozess richtig auszuführen, selbst wenn die dreidimensionalen Formen oder Dimensionen der Objekte unbekannt sind.
  • Kurzdarstellung der Erfindung
  • Gemäß einem ersten Aspekt der Erfindung der vorliegenden Anmeldung wird ein Robotersystem bereitgestellt, das konfiguriert ist, um nacheinander eine Vielzahl von gestapelten Objekten zu einem Zielort zu befördern, wobei das Robotersystem Folgendes umfasst: einen dreidimensionalen Sensor, der konfiguriert ist, um dreidimensionale Informationen der Objekte zu erfassen; einen Roboter, der eine Greifvorrichtung umfasst, die in der Lage ist, mindestens eines der Objekte zu ergreifen; einen Teil zum Erfassen von ersten dreidimensionalen Informationen, der konfiguriert ist, um dreidimensionale Informationen der gestapelten Objekte durch den dreidimensionalen Sensor als erste dreidimensionale Informationen zu erfassen; einen Teil zum Erfassen einer Objektposition, der konfiguriert ist, um ein Beförderungsobjekt, bei dem es sich um ein zu beförderndes Objekt handelt, unter den Objekten zu identifizieren und die Position des Beförderungsobjekts basierend auf den ersten dreidimensionalen Informationen zu erfassen; einen Teil zum Erfassen von zweiten dreidimensionalen Informationen, der konfiguriert ist, um nachdem das Beförderungsobjekt von der Greifvorrichtung ergriffen wurde und von anderen übrigen Objekten durch den Roboter entfernt wurde, dreidimensionale Informationen der übrigen Objekte durch den dreidimensionalen Sensor als zweite dreidimensionale Informationen zu erfassen; einen Teil zum Erfassen von Forminformationen, der konfiguriert ist, um basierend auf den ersten dreidimensionalen Informationen und den zweiten dreidimensionalen Informationen dreidimensionale Forminformationen des Beförderungsobjekts zu erfassen, das einen Teil umfasst, der in einem toten Winkel des dreidimensionalen Sensors positioniert ist, wenn die ersten dreidimensionalen Informationen erfasst werden; einen Teil zum Erfassen von Anordnungsinformationen, der konfiguriert ist, um basierend auf den dreidimensionalen Forminformationen des Beförderungsobjekts, die von dem Teil zum Erfassen von Forminformationen erfasst werden, mindestens eines von einem Abstand von einem Kontaktteil des Beförderungsobjekts zu einem Bezugspunkt der Greifvorrichtung oder des Roboters und einer stabilen Stellung des Beförderungsobjekts zu erfassen, wobei der Kontaktteil ein Teil des Beförderungsobjekts ist, an dem das Beförderungsobjekt den Zielort berührt, wenn das Beförderungsobjekt an dem Zielort angeordnet wird, wobei die stabile Stellung eine Stellung ist, mit der das Beförderungsobjekt stabil an dem Zielort angeordnet werden kann; und einen Teil zum Berechnen von Position und Stellung, der konfiguriert ist, um eine Position und Stellung des Roboters, wenn das Beförderungsobjekt an dem Zielort angeordnet ist, basierend auf mindestens einem von dem Abstand vom Kontaktpunkt zum Bezugspunkt und der stabilen Stellung zu berechnen.
  • Gemäß einem zweiten Aspekt der Erfindung der vorliegenden Anmeldung wird das Robotersystem gemäß dem ersten Aspekt bereitgestellt, das ferner einen Teil zum Erfassen von dritten dreidimensionalen Informationen umfasst, der konfiguriert ist, um dreidimensionale Informationen des Beförderungsobjekts, das von der Greifvorrichtung ergriffen wird, durch den dreidimensionalen Sensor als dritte dreidimensionale Informationen zu erfassen, wobei der Teil zum Erfassen von Forminformationen konfiguriert ist, um dreidimensionale Forminformationen des Beförderungsobjekts basierend auf den ersten dreidimensionalen Informationen, den zweiten dreidimensionalen Informationen und den dritten dreidimensionalen Informationen zu erfassen.
  • Gemäß einem dritten Aspekt der Erfindung der vorliegenden Anmeldung wird das Robotersystem gemäß dem ersten oder zweiten Aspekt bereitgestellt, wobei der Teil zum Erfassen von ersten dreidimensionalen Informationen konfiguriert ist, um nachdem mindestens eines der Objekte befördert wurde, die zweiten dreidimensionalen Informationen, die erzielt werden, wenn ein vorhergehender Beförderungsprozess ausgeführt wird, als erste dreidimensionale Informationen zu erfassen.
  • Gemäß einem vierten Aspekt der Erfindung der vorliegenden Anmeldung wird das Robotersystem gemäß einem von den ersten bis dritten Aspekten bereitgestellt, wobei der dreidimensionale Sensor an einem Träger angebracht ist, der von dem Roboter getrennt ist.
  • Gemäß einem fünften Aspekt der Erfindung der vorliegenden Anmeldung wird das Robotersystem gemäß einem von den ersten bis dritten Aspekten bereitgestellt, wobei der dreidimensionale Sensor an einem Endteil eines Arms des Roboters angebracht ist.
  • Gemäß einem sechsten Aspekt der Erfindung der vorliegenden Anmeldung wird ein Robotersystem bereitgestellt, das konfiguriert ist, um nacheinander eine Vielzahl von gestapelten Objekten zu einem Zielort zu befördern, wobei das Robotersystem Folgendes umfasst: einen dreidimensionalen Sensor, der konfiguriert ist, um dreidimensionale Informationen der Objekte zu erfassen; einen Roboter, der eine Greifvorrichtung umfasst, die in der Lage ist, mindestens eines der Objekte zu ergreifen; einen Teil zum Erfassen von ersten dreidimensionalen Informationen, der konfiguriert ist, um dreidimensionale Informationen der gestapelten Objekte durch den dreidimensionalen Sensor als erste dreidimensionale Informationen zu erfassen; einen Teil zum Erfassen einer Objektposition, der konfiguriert ist, um ein Beförderungsobjekt, bei dem es sich um ein zu beförderndes Objekt handelt, unter den Objekten zu identifizieren und die Position des Beförderungsobjekts basierend auf den ersten dreidimensionalen Informationen zu erfassen; einen Teil zum Erfassen von dritten dreidimensionalen Informationen, der konfiguriert ist, um dreidimensionale Informationen des Beförderungsobjekts, das von der Greifvorrichtung ergriffen wird, durch den dreidimensionalen Sensor als dritte dreidimensionale Informationen zu erfassen; einen Teil zum Erfassen von Forminformationen, der konfiguriert ist, um basierend auf den ersten dreidimensionalen Informationen und den dritten dreidimensionalen Informationen dreidimensionale Informationen des Beförderungsobjekts, das einen Teil umfasst, der in einem toten Winkel des dreidimensionalen Sensors positioniert ist, wenn die ersten dreidimensionalen Informationen erfasst werden, zu erfassen; einen Teil zum Erfassen von Anordnungsinformationen, der konfiguriert ist, um basierend auf den dreidimensionalen Forminformationen des Beförderungsobjekts, die von dem Teil zum Erfassen von Forminformationen erfasst werden, mindestens eines von einem Abstand von einem Kontaktteil des Beförderungsobjekts zu einem Bezugspunkt der Greifvorrichtung oder des Roboters und einer stabilen Stellung des Beförderungsobjekts zu erfassen, wobei der Kontaktteil ein Teil des Beförderungsobjekts ist, an dem das Beförderungsobjekt den Zielort berührt, wenn das Beförderungsobjekt an dem Zielort angeordnet ist, wobei die stabile Stellung eine Stellung ist, mit der das Beförderungsobjekt stabil an dem Zielort angeordnet werden kann; und einen Teil zum Berechnen von Position und Stellung, der konfiguriert ist, um eine Position und Stellung des Roboters, wenn das Beförderungsobjekt an dem Zielort angeordnet ist, basierend auf mindestens einem von dem Abstand vom Kontaktpunkt zum Bezugspunkt und der stabilen Stellung zu berechnen.
  • Gemäß einem siebten Aspekt der Erfindung der vorliegenden Anmeldung wird das Robotersystem gemäß dem sechsten Aspekt bereitgestellt, wobei mindestens eine von der Position und der Stellung des Roboters, wenn die dritten dreidimensionalen Informationen erfasst werden, anders ist, als wenn das Beförderungsobjekt von der Greifvorrichtung ergriffen wird.
  • Diese und andere Objekte, Merkmale und Vorteile der vorliegenden Erfindung werden angesichts der ausführlichen Beschreibung ihrer Ausführungsbeispiele wie in den Zeichnungen abgebildet hervorgehen.
  • Kurze Beschreibung der Zeichnungen
  • Es zeigen:
  • 1 eine schematische Ansicht, welche die Konfiguration eines Robotersystems gemäß einer Ausführungsform zeigt.
  • 2 einen Zielort und ein Objekt, das an dem Zielort angeordnet ist.
  • 3 ein Funktionsblockdiagramm eines Robotersystems gemäß einer Ausführungsform.
  • 4 ein Ablaufschema, das einen Ablauf eines Beförderungsprozesses zeigt, der von einem Robotersystem gemäß einer Ausführungsform ausgeführt wird.
  • 5A erste dreidimensionale Informationen.
  • 5B zweite dreidimensionale Informationen.
  • 6 eine Gruppe von entnommenen Punkten, die basierend auf den ersten und zweiten dreidimensionalen Informationen erzielt werden.
  • 7A erste dreidimensionale Informationen.
  • 7B zweite dreidimensionale Informationen.
  • 8 eine Gruppe von entnommenen Punkten, die basierend auf den ersten und zweiten dreidimensionalen Informationen erzielt werden.
  • 9 einen Zielort und ein Objekt, das an dem Zielort angeordnet ist.
  • 10 ein Funktionsblockdiagramm eines Robotersystems gemäß einer anderen Ausführungsform.
  • 11 erste dreidimensionale Informationen.
  • 12 einen Prozess zum Ergreifen eines Objekts.
  • 13 dritte dreidimensionale Informationen.
  • 14 eine Gruppe von entnommenen Punkten, die durch Anwenden einer homogenen Transformation auf die dreidimensionalen Punkte der dritten dreidimensionalen Informationen erzielt werden.
  • 15 zweite dreidimensionale Informationen.
  • 16 zeigt ein Beispiel eines Objekts.
  • 17 erste dreidimensionale Informationen.
  • 18 einen Prozess zum Ergreifen eines Objekts.
  • 19 dritte dreidimensionale Informationen.
  • 20 eine Gruppe von entnommenen Punkten, die durch Anwenden einer homogenen Transformation auf die dreidimensionalen Punkte der dritten dreidimensionalen Informationen erzielt werden.
  • 21 zweite dreidimensionale Informationen.
  • Beschreibung der Ausführungsformen
  • Die Ausführungsformen der vorliegenden Erfindung werden mit Bezug auf die beiliegenden Zeichnungen beschrieben. Die Bestandteile der abgebildeten Ausführungsformen können maßstabsmäßig je nach Bedarf geändert sein, um das Verständnis der vorliegenden Erfindung zu ermöglichen. Gleiche oder entsprechende Bestandteile erhalten die gleichen Bezugszeichen.
  • 1 ist eine schematische Ansicht, welche die Konfiguration eines Robotersystems gemäß einer Ausführungsform zeigt. Das Robotersystem 10 ist mit einem Roboter 30, der ein Gelenk 32 am Ende eines Arms 31 aufweist, einer Greifvorrichtung 33, die an dem Gelenk 32 des Roboters 30 angebracht ist, einer Robotersteuervorrichtung 60, die den Roboter 30 steuert und einem dreidimensionalen Sensor 40, der an einem Träger 41 angebracht ist, versehen. Obwohl der abgebildete Roboter 30 ein senkrechter Knickarmroboter ist, kann auch ein Roboter mit Bewegungsmechanismus, ein Roboter mit Parallelführung, ein Roboter mit linearem Antriebsmechanismus oder eine beliebige andere Art von Roboter verwendet werden.
  • Die Robotersteuervorrichtung 60 ist durch ein Kommunikationskabel oder andere bekannte Kommunikationsmittel an den Roboter 30 angeschlossen. Als Reaktion auf Steuerbefehle, die von der Robotersteuervorrichtung 60 übertragen werden, werden Servomotoren, die an den Gelenkachsen bereitgestellt werden, derart angetrieben, dass sie den Roboter 30 betätigen, um eine gewünschte Position und Stellung auszubilden.
  • Die Greifvorrichtung 33 ist an dem Roboter 30 über eine mechanische Schnittstelle angebracht, die an dem Gelenk 32 gebildet ist. Die Greifvorrichtung 33 ist nicht auf eine bestimmte Form oder Konfiguration eingeschränkt, solange sie mindestens ein Objekt 50 befördern kann, ohne umgebende andere Objekte 50, einen Behälter oder eine Palette (nicht gezeigt), der bzw. die die Objekte 50 aufnimmt, usw. in dem Greifprozess zu stören. Beispielsweise ist die Greifvorrichtung 33 eine Greifvorrichtung mechanischer Art, die mechanisch Druck auf die Objekte 50 ausübt, eine Greifvorrichtung mit Vakuumsaugung, die einen Unterdruck generiert und einen Saugdruck auf die Objekte 50 ausübt, oder eine Greifvorrichtung magnetischer Art, die eine Magnetkraft verwendet, um eine Anziehungskraft auf die Objekte 50 auszuüben.
  • Die Objekte 50 werden in einem gestapelten Zustand bereitgestellt, wie abgebildet. In der vorliegenden Beschreibung kann ein Objekt, das von der Greifvorrichtung 33 ergriffen wird, um einen Beförderungsprozess auszuführen, als „Beförderungsobjekt” bezeichnet werden, um es von anderen Objekten zu unterscheiden. Gemäß dem Robotersystem 10 wird ein Beförderungsobjekt 51, das von der Greifvorrichtung 33 ergriffen wird, von dem Roboter 30 von den anderen Objekten 50 entfernt und an einem Zielort 52 angeordnet, wie in 2 gezeigt. Der Zielort 52 ist nicht auf eine spezifische Form eingeschränkt, solange er derart konfiguriert ist, dass ein Beförderungsobjekt 51 stabil angeordnet werden kann. Der Zielort 52 kann beispielsweise ein Förderband sein, das ausgelegt ist, um die zu befördernden Objekte 51 nacheinander für die nachfolgenden Prozesse zu bewegen. Der Zielort 52 kann auch ein Tisch, eine Palette oder ein Gestell sein, der, die oder das kein Förderband oder anderen unabhängigen Bewegungsmechanismus aufweist.
  • Der dreidimensionale Sensor 40 wird im Allgemeinen über den gestapelten Objekten 50 bereitgestellt. Der dreidimensionale Sensor 40 ist konfiguriert, um dreidimensionale Positionsinformationen einer Vielzahl von Punkten an den Oberflächen der Objekte 50 zu erfassen und die Gruppe der erfassten dreidimensionalen Punkte als dreidimensionale Informationen auszugeben.
  • Die Konfiguration des dreidimensionalen Sensors 40 ist keineswegs eingeschränkt. Beispielsweise handelt es sich um einen beliebigen Sensor, der das räumliche Codesystem, ein Phasenverschiebungssystem, ein Zufallspunktmustersystem, ein TOF-System, ein Lichtunterbrechungssystem, ein Stereokamerasystem oder andere bekannte Grundlagen verwendet. Das Format der Ausgabe der dreidimensionalen Informationen ist keineswegs eingeschränkt. Aus praktischen Gründen werden die Ausführungsformen hier mit Bezug auf eine beispielhafte Konfiguration beschrieben, bei der die dreidimensionalen Informationen eine Gruppe von dreidimensionalen Punkten umfassen (die auch als „Punktwolke” bezeichnet wird).
  • Der dreidimensionale Sensor 40 wird im Voraus kalibriert, um in der Lage zu sein, dreidimensionale Informationen in einem Bezugskoordinatensystem des Robotersystems 10 zu erfassen. Die Kalibrierung erfolgt durch ein bekanntes Verfahren, um das Sensorkoordinatensystem und das Bezugskoordinatensystem miteinander zu verknüpfen (siehe beispielsweise „Camera Calbiration”, CVIM 148, S. 1 bis 18, 2005).
  • Die Sensorsteuervorrichtung, die den dreidimensionalen Sensor 40 (nicht gezeigt) steuert, kann in der Robotersteuervorrichtung 60 eingebaut sein oder kann getrennt von der Robotersteuervorrichtung 60 bereitgestellt werden. Bei einer Ausführungsform kann der dreidimensionale Sensor 40 derart konfiguriert sein, dass er nicht nur dreidimensionale Positionsinformationen sondern auch ein Graustufenbild oder ein Farbbild oder andere zweidimensionale Informationen erfasst.
  • 3 ist ein Funktionsblockdiagramm eines Robotersystems 10. Wie abgebildet, ist das Robotersystem 10 mit einem Teil 12 zum Erfassen von ersten dreidimensionalen Informationen, einem Teil 14 zum Erfassen von Objektpositionen, einem Teil 16 zum Erfassen von zweiten dreidimensionalen Informationen, einem Teil 18 zum Erfassen von Forminformationen, einem Teil 20 zum Erfassen von Anordnungsinformationen und einem Teil 22 zum Berechnen von Position und Stellung versehen. Die Berechnungen, die Speicherung und das Auslesen von Informationen und das Senden und Empfangen von Daten und Signalen werden von einem digitalen Computer ausgeführt, der eine CPU, einen ROM, einen RAM oder eine andere bekannte Hardware-Konfiguration aufweist, um die diversen Funktionen auszuführen.
  • Der Teil 12 zum Erfassen von ersten dreidimensionalen Informationen erfasst die dreidimensionalen Informationen der gestapelten Vielzahl von Objekten 50 durch den dreidimensionalen Sensor 40 als erste dreidimensionale Informationen. Die ersten dreidimensionalen Informationen sind dreidimensionale Informationen der Objekte 50 in dem Zustand vor der Beförderung des Beförderungsobjekts 51.
  • Der Teil 14 zum Erfassen einer Objektposition verwendet die ersten dreidimensionalen Informationen als Grundlage, um das Beförderungsobjekt 51 unter den Objekten 50 zu identifizieren, und erfasst die Position des Beförderungsobjekts 51. Das Beförderungsobjekt 51 kann beispielsweise ein Objekt sein, das an der höchsten Position unter den Objekten 50 vorhanden ist. Alternativ kann es möglich sein, als Beförderungsobjekt 51 ein Objekt in einer Position, in der es je nach Art der Greifvorrichtung 33 am einfachsten zu ergreifen ist, oder ein Objekt, das herausgenommen werden kann, ohne die umgebenden Objekte 50 zu stören, auszuwählen.
  • Das Verfahren zum Erkennen der Position des Beförderungsobjekts 51 basierend auf den dreidimensionalen Informationen ist nicht auf ein bestimmtes Verfahren eingeschränkt, und es kann ein beliebiges bekanntes Verfahren verwendet werden (siehe beispielsweise „A review of recent range image registration methods with accuracy evaluation", Image and Vision Computing, Band 25, Ausgabe 5, S. 578–596, 2007). Wie es in der japanischen Patentschrift Nr. 2013-101045 beschrieben wird, können ferner dreidimensionale und zweidimensionale Informationen zur Erkennung der Position des Beförderungsobjekts 51 kombiniert werden. Die Position des Beförderungsobjekts 51 wird zum Positionieren der Greifvorrichtung 33 in dem Greifprozess verwendet. D. h. die Position und Stellung des Roboters 30 werden gemäß der Position des Beförderungsobjekts 51 gesteuert, so dass die Greifvorrichtung 33 in einer geeigneten Position zum Ergreifen des Beförderungsobjekts 51 positioniert ist.
  • Der Teil 16 zum Erfassen von zweiten dreidimensionalen Informationen erfasst, nachdem das Beförderungsobjekt 51 von der Greifvorrichtung 33 ergriffen wurde und durch den Roboter 30 von den übrigen Objekten 50 entfernt wurde, die dreidimensionalen Informationen der übrigen Objekte 50 durch den dreidimensionalen Sensor 40 als zweite dreidimensionale Informationen. Die zweiten dreidimensionalen Informationen werden erfasst, nachdem der Roboter 30 und das Beförderungsobjekt 51 außerhalb des Detektionsbereichs des dreidimensionalen Sensors 40 bewegt wurde, was durch die gestrichelte Linie in 1 gezeigt wird. Wenn jedoch kein Hindernis vorhanden ist, wenn die zweiten dreidimensionalen Informationen erfasst werden, können die zweiten dreidimensionalen Informationen in dem Zustand erfasst werden, in dem das Beförderungsobjekt 51 oder der Roboter 30 in dem Detektionsbereich des dreidimensionalen Sensors 40 liegt.
  • Der Teil 18 zum Erfassen von Forminformationen erfasst basierend auf den ersten dreidimensionalen Informationen und den zweiten dreidimensionalen Informationen die dreidimensionalen Informationen des Beförderungsobjekts 51, das einen Teil umfasst, der im toten Winkel des dreidimensionalen Sensors positioniert ist, wenn die ersten dreidimensionalen Informationen erfasst werden. Wenn die ersten dreidimensionalen Informationen erfasst werden, ist der Teil des Beförderungsobjekts 51 auf der gegenüberliegenden Seite des dreidimensionalen Sensors 40 im toten Winkel des dreidimensionalen Sensors 40 positioniert, und daher werden die dreidimensionalen Informationen nicht erfasst. Daher ist es gemäß der vorliegenden Ausführungsform durch Vergleichen der ersten dreidimensionalen Informationen und der zweiten dreidimensionalen Informationen möglich, die Forminformationen des Standorts des Beförderungsobjekts 51 zu erzielen, die nicht in den ersten dreidimensionalen Informationen enthalten sind. Dadurch kann die dreidimensionale Form für im Wesentlichen den gesamten Teil des Beförderungsobjekts 51 erfasst werden.
  • Der Teil 20 zum Erfassen von Anordnungsinformationen erfasst basierend auf den dreidimensionalen Forminformationen des Beförderungsobjekts 51, die von dem Teil 18 zum Erfassen von Forminformationen erfasst werden, mindestens eines von dem Abstand von dem Kontaktteil des Beförderungsobjekts 51, der den Zielort 52 berührt, wenn das Beförderungsobjekt 51 an dem Zielort 52 angeordnet ist, zu einem Bezugspunkt der Greifvorrichtung 33 oder des Roboters 30 und der stabilen Stellung des Beförderungsobjekts 51, so dass das Beförderungsobjekt 51 an dem Zielort 52 stabil angeordnet werden kann.
  • Der Teil 22 zum Berechnen von Position und Stellung berechnet basierend mindestens auf einem von dem Abstand von dem Kontaktteil des Beförderungsobjekts 51 zu dem Bezugspunkt der Greifvorrichtung 33 oder des Roboters 30 und der stabilen Stellung des Beförderungsobjekts 51 die Position und Stellung des Roboters 30, wenn die Beförderungsobjekte 51 an dem Zielort 52 angeordnet werden.
  • 4 ist ein Ablaufschema, das den Ablauf eines Beförderungsprozesses zeigt, der von einem Robotersystem 10 gemäß der vorliegenden Ausführungsform ausgeführt wird. In der nachstehenden Erklärung wird gegebenenfalls auf ein Beispiel Bezug genommen, bei dem das Objekt 50 eine Quaderform aufweist (siehe 1 und 2).
  • Zunächst erfasst in Schritt S401 der Teil 12 zum Erfassen von ersten dreidimensionalen Informationen die dreidimensionalen Informationen (ersten dreidimensionalen Informationen) der gestapelten Objekte 50. 5A zeigt die ersten dreidimensionalen Informationen, die für den Fall von fünf Objekten 50, die in zwei Reihen gestapelt sind, erzielt werden. Die dicke Linie X1 zeigt den Bereich, über den die dreidimensionalen Punkte, die als erste dreidimensionale Informationen erfasst werden, verteilt sind. Daher umfassen die ersten dreidimensionalen Informationen X1 Positionsinformationen einer großen Anzahl von dreidimensionalen Punkten, die an den Oberflächen der Objekte 50 vorhanden sind.
  • In Schritt S402 identifiziert der Teil 14 zum Erfassen einer Objektposition das Beförderungsobjekt 51 und erfasst die Position des Beförderungsobjekts 51 basierend auf den ersten dreidimensionalen Informationen X1. Die Position des Beförderungsobjekts 51, die in Schritt S402 erfasst wird, kann beispielsweise die Position des Schwerpunktes der oberen Oberfläche des Beförderungsobjekts 51 sein (siehe „G” in 5A). Während des Ausführens der Prozesse aus Schritt S401 und Schritt S402 kann der Roboter je nach Bedarf andere Arbeiten vornehmen.
  • In Schritt S403 wird der Roboter 30 angetrieben, um das Beförderungsobjekt 51 von den übrigen Objekten 50 zu entfernen. Der Roboter 30 wird derart angetrieben, dass er die Greifvorrichtung 33 in einer Position positioniert, in der die Greifvorrichtung 33 das Beförderungsobjekt 51 ergreifen kann, basierend auf der Position des Beförderungsobjekts 51, die in Schritt S402 erfasst wurde. Wenn die Greifvorrichtung 33 beispielsweise eine Greifvorrichtung mit Sauger ist, die konfiguriert ist, um ein Beförderungsobjekt 51 an einem einzigen Greifpunkt zu ergreifen, wird die Greifvorrichtung 33 derart positioniert, dass ein Bezugspunkt der Greifvorrichtung 33 (beispielsweise der Greifpunkt) mit der Position des Beförderungsobjekts 51 (beispielsweise dem Schwerpunkt G) übereinstimmt. Wenn die Positionierung der Greifvorrichtung 33 beendet ist, wird die Greifvorrichtung 33 betätigt, um das Beförderungsobjekt 51 zu ergreifen. Anschließend wird der Roboter 30 gesteuert, um das Beförderungsobjekt 51 von den übrigen Objekten 50 zu entfernen.
  • In Schritt S404 detektiert der Teil 16 zum Erfassen von zweiten dreidimensionalen Informationen die Objekte 50, die übrigbleiben, nachdem die Beförderungsobjekte 51 durch den dreidimensionalen Sensor 40 herausgenommen wurden, und erfasst die zweiten dreidimensionalen Informationen X2 (siehe 5B). Wie in 5B gezeigt, werden die dreidimensionalen Informationen der anderen vier Objekte 50 als des Beförderungsobjekts 51 als zweite dreidimensionale Informationen X2 erfasst.
  • In Schritt S405 erfasst der Teil 18 zum Erfassen von Forminformationen dreidimensionale Forminformationen des Beförderungsobjekts 51 basierend auf den ersten dreidimensionalen Informationen und den zweiten dreidimensionalen Informationen. Die Forminformationen umfassen Forminformationen eines Teils des Beförderungsobjekts 51, der im toten Winkel des dreidimensionalen Sensors 40 positioniert war, bevor das Beförderungsobjekt 51 herausgenommen wurde.
  • In Schritt S406 erfasst der Teil 20 zum Erfassen von Anordnungsinformationen mindestens eines von dem Abstand von dem Kontaktteil des Beförderungsobjekts 51, der den Zielort 52 berührt, wenn das Beförderungsobjekt 51 an dem Zielort 52 angeordnet ist, zu einem Bezugspunkt der Greifvorrichtung 33 (z. B. dem Greifpunkt) und der stabilen Stellung des Beförderungsobjekts 51. Da die Positionsbeziehung zwischen dem Roboter 30 und der Greifvorrichtung 33 bekannt ist, kann der Bezugspunkt mit Bezug auf den Roboter 30 definiert werden.
  • Für den Fall, dass die Objekte 50 eine Quaderform aufweisen und allgemein mit Bezug zueinander ausgerichtet gestapelt sind, so dass die untere Oberfläche des Beförderungsobjekts 51 flach ist, kann das Beförderungsobjekt 51 am Zielort 52 stabil angeordnet werden, selbst ohne die Stellung des Beförderungsobjekts 51 ändern zu müssen. In diesem Fall kann daher der Prozess des Erfassens der stabilen Stellung in Schritt S406 entfallen. Um andererseits den Anordnungsprozess des Beförderungsobjekts 51 geeignet auszuführen, ist es notwendig, den Abstand von dem Bezugspunkt der Greifvorrichtung 33 (oder des Roboters 30) zu dem Kontaktpunkt des Beförderungsobjekts 51 zu bestimmen (d. h. der unteren Oberfläche). Dagegen kann das Robotersystem 10 konfiguriert sein, um den Prozess des Erfassens des Abstands von dem Bezugspunkt der Greifvorrichtung 33 oder des Roboters 30 zu dem Kontaktteil des Beförderungsobjekts 51 auszulassen und nur die stabile Stellung des Beförderungsobjekts 51 zu erfassen. Der Abstand von dem Kontaktteil des Beförderungsobjekts 51 zu dem Bezugspunkt und das spezifische Verfahren zum Erfassen der stabilen Stellung werden nachstehend erklärt.
  • In Schritt S407 berechnet der Teil 22 zum Berechnen von Position und Stellung die Position und Stellung des Roboters 30, wenn das Beförderungsobjekt 51 am Zielort 52 angeordnet wird. Die Position und Stellung des Roboters 30 werden gemäß mindestens einem von dem Abstand von dem Kontaktteil des Beförderungsobjekts 51 zu dem Bezugspunkt der Greifvorrichtung 33 oder des Roboters 30 und der stabilen Stellung des Beförderungsobjekts 51 berechnet.
  • In Schritt S408 wird der Roboter 38 gemäß der Position und Stellung angetrieben, die in Schritt S407 berechnet werden, um das Beförderungsobjekt 51 zum Zielort 52 zu bewegen. Nachdem das Beförderungsobjekt 51 in die richtige Position bewegt wurde, lässt die Greifvorrichtung 33 das Beförderungsobjekt 51 los und ordnet es am Zielort 52 an, wodurch der Beförderungsprozess beendet ist.
  • Die Prozesse der Schritte S401 bis S408 werden wiederholt ausgeführt, bis alle Objekte 50 transportiert wurden. Es versteht sich, dass in jedem von den zweiten und nachfolgenden Beförderungsprozessen der Prozess aus Schritt S401 entfallen kann und die zweiten dreidimensionalen Informationen, die während des vorhergehenden Beförderungsprozesses erfasst wurden, anstelle der ersten dreidimensionalen Informationen verwendet werden können. Wenn die einzelnen Unterschiede der Objekte 50 gering sind, können alternativ bei den zweiten und nachfolgenden Beförderungsprozessen die Prozesse von Schritt S401 bis Schritt S405 entfallen und die gleichen dreidimensionalen Forminformationen des Beförderungsobjekts 51 können wiederholt verwendet werden.
  • Als Nächstes wird das Verfahren zum Finden der dreidimensionalen Forminformationen des Beförderungsobjekts 51 aus den dreidimensionalen Informationen und zum Berechnen des Abstands von dem Kontaktteil des Beförderungsobjekts 51 zu dem Bezugspunkt der Greifvorrichtung 33 oder des Roboters 30 und der stabilen Stellung des Beförderungsobjekts 51 basierend auf den dreidimensionalen Forminformationen des Beförderungsobjekts 51 erklärt.
  • Erste Ausführungsform
  • Mit Bezug auf 5A, 5B und 6 wird eine erste Ausführungsform erklärt. Bei dieser Ausführungsform weisen die Objekte 50 eine Quaderform auf. Wie zuvor erklärt, sind die dreidimensionalen Informationen X1 und X2, die in 5A und 5B gezeigt werden, aus Positionsinformationen der Gruppen einer großen Anzahl von dreidimensionalen Punkten konfiguriert. Die ersten dreidimensionalen Informationen X1 und die zweiten dreidimensionalen Informationen X2 werden verglichen, um die dreidimensionalen Forminformationen eines Beförderungsobjekts 51 zu finden.
  • Beispielsweise werden die dreidimensionalen Punkte der ersten dreidimensionalen Informationen, die den jeweiligen dreidimensionalen Punkten der zweiten dreidimensionalen Informationen am nächsten liegen als „nächstgelegene Punkte” definiert. Die Kandidaten für die nächstgelegenen Punkte können eingeschränkt werden, um aus den dreidimensionalen Punkten der ersten dreidimensionalen Informationen gewählt zu werden, die in dem Bereich eines vorbestimmten Abstands in der waagerechten Richtung von den dreidimensionalen Punkten der zweiten dreidimensionalen Informationen positioniert sind. Auf diese Art und Weise kann der Zeitraum, der zum Berechnen der nächstgelegenen Punkte notwendig ist, verkürzt werden. Die identischen dreidimensionalen Punkte der ersten dreidimensionalen Informationen können zusammen als die nächstgelegenen Punkte für verschiedene dreidimensionale Punkte der zweiten dreidimensionalen Informationen eingestellt werden. Es sei zu beachten, dass „als nächstgelegen positioniert” bedeutet, dass der Abstand zwischen den beiden Punkten am geringsten ist. Der „Abstand” kann beliebig definiert werden, beispielsweise als Manhattan-Abstand (L1-Norm), als euklidischer Abstand, als Mahalanobis-Abstand, als Maximalwertnorm usw.
  • Wenn der Abstand von einem dreidimensionalen Punkt der zweiten dreidimensionalen Informationen X2 bis zu dem entsprechenden nächstgelegenen Punkt einen vorbestimmten Schwellenwert überschreitet, wird dann zudem der nächstgelegene Punkt entnommen. Die Gruppe von entnommenen nächstgelegenen Punkten (die auch als „die Gruppe der entnommenen Punkte” bezeichnet werden kann) stellt die dreidimensionalen Punkte dar, deren Positionen sich zwischen den entsprechenden dreidimensionalen Punkten geändert haben, bevor und nachdem das Beförderungsobjekt 51 herausgenommen wird. Daher kann die Gruppe der entnommenen Punkte als Grundlage verwendet werden, um die Form der gegenüberliegenden Seite des Beförderungsobjekts 51 mit Bezug auf den dreidimensionalen Sensor 40, die sich vor dem Beförderungsprozess im toten Winkel des dreidimensionalen Sensors 40 befindet, zu identifizieren.
  • Der Schwellenwert, der verwendet wird, um die Gruppe der entnommenen Punkte zu entnehmen, kann beispielsweise je nach Bedarf gemäß der Auflösung des dreidimensionalen Sensors 40 eingestellt werden. Alternativ kann der Schwellenwert gemäß den einzelnen Unterschieden der Objekte 50, der notwendigen Detektionspräzision oder den Dimensionen des dünnsten Teils des Objekts 50 eingestellt werden.
  • Bei einer alternativen Ausführungsform kann unter den dreidimensionalen Punkten, die in den ersten dreidimensionalen Informationen X1 enthalten sind, die Gruppe der dreidimensionalen Punkte der zweiten dreidimensionalen Informationen, die in dem gleichen Bereich in der waagerechten Richtung enthalten sind, im Verhältnis zu der Gruppe der dreidimensionalen Punkten, die in dem Bereich des Beförderungsobjekts 51 enthalten sind, ebenfalls als die Gruppe der entnommenen Punkten eingestellt werden.
  • 6 zeigt die Gruppe Y der entnommenen Punkte, die für das Beförderungsobjekt 51 gefunden werden. In 6 gibt „O” den Bezugspunkt der Greifvorrichtung 33 an. Beispielsweise kann der Bezugspunkt O der Greifpunkt der Greifvorrichtung 33 sein. Der maximale Wert der Komponenten in der Z-Achsenrichtung (beispielsweise der senkrechten Richtung) der Vektoren V von dem Bezugspunkt O der Greifvorrichtung 33 zu den einzelnen dreidimensionalen Punkten der Gruppe Y der entnommenen Punkte wird als Abstand D von dem Bezugspunkt O zu dem Kontaktteil des Beförderungsobjekts 51 definiert, an dem das Beförderungsobjekt 51 den Zielort 52 berührt.
  • Gemäß der vorliegenden Ausführungsform wird in dem Anordnungsprozess des Beförderungsobjekts 51 der Roboter 30 derart gesteuert, dass der Bezugspunkt O der Greifvorrichtung 33 in einer Position bewegt wird, die von der Oberfläche des Zielortes 52 um den Abstand D entfernt ist.
  • Zweite Ausführungsform
  • Mit Bezug auf 7A, 7B, 8 und 9 wird eine zweite Ausführungsform erklärt. Die vorliegende Ausführungsform entspricht dem Fall, bei dem es notwendig ist, eine stabile Stellung zu erzielen, um ein Beförderungsobjekt 51 in dem Anordnungsprozess stabil anzuordnen. Wie in 7A gezeigt, wenn die Objekte 50 eine Kegelstumpfform aufweisen, ist die Fläche des unteren Teils des gestapelten Beförderungsobjekts 51 klein. Um das Beförderungsobjekt stabil an dem Zielort 52 zu anordnen, ist es deshalb notwendig, die stabile Stellung des Beförderungsobjekts 51 während des Beförderungsprozesses zu erfassen. Daher wird bei der vorliegenden Ausführungsform zusätzlich zu dem Abstand von dem Bezugspunkt O der Greifvorrichtung 33 zu dem Kontaktteil des Beförderungsobjekts 51 die stabile Stellung des Beförderungsobjekts 51 erfasst.
  • In 7A gibt die dicke Linie X1 die ersten dreidimensionalen Informationen an, wohingegen in 7B die dicke Linie X2 die zweiten dreidimensionalen Informationen angibt. Wie bei der ersten Ausführungsform werden die ersten dreidimensionalen Informationen X1 und die zweiten dreidimensionalen Informationen X2 als Grundlage verwendet, um eine Gruppe von dreidimensionalen Punkten, deren Position sich vor und nach dem Prozess des Herausnehmens des Beförderungsobjekts 51 ändert, als eine Gruppe von entnommenen Punkten zu entnehmen. In 8 gibt die dicke Linie Y die Gruppe der entnommenen Punkte an.
  • In der Gruppe Y der entnommenen Punkte wird eine Ebene, welche die maximale Fläche aufweist, bzw. die Ebene P, identifiziert. Wenn das Beförderungsobjekt 51 derart angeordnet wird, dass es den Zielort 52 in der Ebene P berührt, kann das Beförderungsobjekt 51 stabil angeordnet werden (siehe 9). Die stabile Stellung des Beförderungsobjekts 51 wird gemäß der Richtung des Normalvektors N im Verhältnis zur Ebene P gefunden. Entsprechend wird die Stellung des Roboters 30 derart berechnet, dass der Normalvektor N senkrecht nach oben orientiert ist. Dadurch kann das Beförderungsobjekt 51 am Zielort 52 mit einer stabilen Stellung angeordnet werden. Wenn es eine andere Ebene gibt, die eine Fläche über einem vorbestimmten Schwellenwert aufweist, die anders als die Ebene P ist, die eine maximale Fläche aufweist, kann die stabile Stellung auch eine Stellung sein, mit der das Beförderungsobjekt 51 am Zielort 52 in der zuvor erwähnten Ebene angeordnet wird.
  • Der Abstand von dem Bezugspunkt O der Greifvorrichtung 33 zu der Ebene P kann basierend auf dem Vektor V gefunden werden, der von dem Bezugspunkt O zu jedem dreidimensionalen Punkt des Satzes Y von entnommenen Punkten und dem Normalvektor N definiert ist. Beispielsweise kann der maximale Wert des internen Produkts des Vektors N und des Normalvektors N als der Abstand D von dem Bezugspunkt O zu der Ebene P definiert sein. Durch das Steuern des Roboters 30 gemäß der Orientierung des Normalvektors N und des Abstands D kann das Beförderungsobjekt 51 in die Position bewegt werden, die für ein stabiles Stapeln benötigt wird.
  • Bei einer anderen Ausführungsform, beispielsweise für den Fall, dass das Beförderungsobjekt 51 den Zielort 52 in einem gekrümmten Abschnitt des Beförderungsobjekts 51 berührt, kann eine Näherungsebene für jeden Bereich mit einer Krümmung gefunden werden, die gleich oder kleiner als ein vorbestimmter Schwellenwert ist, und basierend auf dem Normalvektor zu der Näherungsebene, welche die maximale Fläche aufweist, kann die stabile Stellung bestimmt werden.
  • Dritte Ausführungsform
  • Mit Bezug auf 10 bis 15 wird eine dritte Ausführungsform erklärt. Bei dieser Ausführungsform weisen die Objekte 50 eine im Allgemeinen zylindrische Form auf, wie in 11 gezeigt.
  • 10 ist ein Funktionsblockdiagramm eines Robotersystems 10 gemäß der vorliegenden Ausführungsform. Wenn man 3 mit 10 vergleicht, versteht es sich, dass das Robotersystem 10 ferner mit einem Teil 24 zum Erfassen von dritten dreidimensionalen Informationen versehen ist.
  • Der Teil 24 zum Erfassen von dritten dreidimensionalen Informationen erfasst dreidimensionale Informationen des Beförderungsobjekts 51, das von der Greifvorrichtung 33 ergriffen wird, als dritte dreidimensionale Informationen durch den dreidimensionalen Sensor 40. Beispielsweise werden die dritten dreidimensionalen Informationen, wie in 13 gezeigt, durch das Ergreifen des Beförderungsobjekts 51, dann das Betätigen des Roboters 30 und das Drehen des Gelenks 32, um die Stellung der Greifvorrichtung 33 zu ändern, erfasst.
  • Es wird das Verfahren zum Erfassen der Gruppe Y von entnommenen Punkten in dem Robotersystem 10 gemäß der vorliegenden Ausführungsform erklärt. Zunächst werden wie bei den anderen Ausführungsformen erste dreidimensionale Informationen X1 erfasst (siehe 11). Dann werden die Position und Stellung des Roboters 30 (die als „die erste Roboterposition” bezeichnet werden können) zu dem Zeitpunkt, an dem der Roboter 30 in eine Position bewegt wird, in der die Greifvorrichtung 33 ein Beförderungsobjekt 51 ergreifen kann (siehe 12), erfasst. Dann wird der Roboter 30, wie in 13 gezeigt, bewegt und das Gelenk 32 wird gedreht, um die Stellung der Greifvorrichtung 33 zu ändern und dritte dreidimensionale Informationen X3 zu erfassen, die einen Teil auf der gegenüberliegenden Seite des Beförderungsobjekts 51 umfassen. Ferner werden die Position und Stellung des Roboters 30, wenn die dritten dreidimensionalen Informationen X3 erfasst werden (die man als „die zweite Roboterposition” bezeichnen kann), erfasst.
  • Dann wird basierend auf dem Unterschied zwischen der ersten Roboterposition und der zweiten Roboterposition die Gruppe Y von entnommenen Punkten durch eine homogene Transformation der dritten dreidimensionalen Informationen erfasst. Beispielsweise wird die homogene Transformationsmatrix, die der ersten Roboterposition entspricht, mit H1 bezeichnet, während die homogene Transformationsmatrix, die der zweiten Roboterposition entspricht, mit H2 bezeichnet wird. In diesem Fall kann die homogene Transformationsmatrix H3, die den Änderungen der Position und Stellung des Beförderungsobjekts 51 entspricht, durch die folgende Formel ausgedrückt werden: H3 = H1 × H2–1 wobei H2–1 eine Kehrmatrix von H2 ist.
  • Durch Anwenden der homogenen Transformationsmatrix H3 auf die jeweiligen dreidimensionalen Punkte der dritten dreidimensionalen Informationen X3 wird eine Gruppe von entnommenen Punkten erzielt, wie durch die dicke Linie Y in 14 gezeigt. Basierend auf den in 11 gezeigten ersten dreidimensionalen Informationen X1 und der Gruppe Y von entnommenen Punkten, die in 14 gezeigt wird, werden dreidimensionale Forminformationen des Beförderungsobjekts 51 erfasst. Gemäß einer Ausführungsform können die dritten dreidimensionalen Informationen auch über eine Vielzahl von Zeitpunkten erfasst werden. Gemäß einer Ausführungsform können zusätzlich zu den ersten dreidimensionalen Informationen X1 und den dritten dreidimensionalen Informationen X3 zweite dreidimensionale Informationen, die in 15 gezeigt werden, ferner verwendet werden, um die dreidimensionalen Forminformationen des Beförderungsobjekts 51 zu erfassen. Wie zuvor beschrieben, sind die zweiten dreidimensionalen Informationen X2 dreidimensionale Informationen der Objekte 50, die erfasst werden, nachdem das Beförderungsobjekt 51 von den übrigen Objekten 50 entfernt wurde.
  • Vierte Ausführungsform
  • Mit Bezug auf 16 bis 21 wird eine vierte Ausführungsform erklärt. Um bei der vorliegenden Ausführungsform die stabile Stellung des Beförderungsobjekt 51 zu finden, werden dritte dreidimensionale Informationen des Beförderungsobjekts 51 aus einer Vielzahl verschiedener Richtungen erfasst. Beispielsweise besteht, wie in 16 gezeigt, für den Fall, dass die Objekte 50 eine Form eines regelmäßigen sechseckigen Prismas aufweisen und mit einem vertieften Teil 50a gebildet sind, wenn das Objekt 50 an dem Zielort 52 angeordnet ist, wobei seine erste Oberfläche 50b, die an dem vertieften Teil 50a anliegt, dem Zielort 52 gegenübersteht, das Risiko, dass das Objekt 50 auf Grund seiner instabilen Stellung herunterfällt. In diesem Fall ist die stabile Stellung des Objekts 50 eine Stellung, in der eine zweite Oberfläche 50c auf der gegenüberliegenden Seite des vertieften Teils 50a dem Zielort 52 gegenübersteht. Um eine derartige stabile Stellung zu finden, ist es notwendig, dreidimensionale Informationen des Objekts 50 aus einer Vielzahl von verschiedenen Richtungen zu erfassen.
  • Gemäß der vorliegenden Ausführungsform wird, außer zum Erfassen der dritten dreidimensionalen Informationen aus einer Vielzahl von verschiedenen Richtungen, der Beförderungsprozess ähnlich wie bei der dritten Ausführungsform ausgeführt. Bevor das Beförderungsobjekt 51 befördert wird, erfasst der Teil 12 zum Erfassen von ersten dreidimensionalen Informationen entsprechend die ersten dreidimensionalen Informationen X1 der gestapelten Objekte 50 (siehe 17). Dann wird der Roboter 30 in eine Position bewegt, in der die Greifvorrichtung 33 das Beförderungsobjekt 51 ergreifen kann, wie in 18 gezeigt. Die Position und Stellung des Roboters 30 zu diesem Zeitpunkt werden als die „erste Roboterposition” gespeichert.
  • Ferner wird das Beförderungsobjekt 51 von den übrigen Objekten 50 entfernt, und das Gelenk 32 wird gedreht, um dritte dreidimensionale Informationen des Beförderungsobjekts 51 aus einer Vielzahl von verschiedenen Richtungen zu erfassen. Die Position und Stellung des Roboters 30, wenn die dritten dreidimensionalen Informationen erfasst werden, werden als die „zweite Roboterposition” gespeichert. 19 zeigt die dritten dreidimensionalen Informationen X3, die von dem Teil 24 zum Erfassen von dritten dreidimensionalen Informationen erfasst werden, in dem Zustand, in dem der vertiefte Teil 51a des Beförderungsobjekts 51 in Richtung auf den dreidimensionalen Sensor 40 orientiert ist. Als Nächstes wird basierend auf dem Unterschied zwischen der ersten Roboterposition und der zweiten Roboterposition eine Gruppe Y von entnommenen Punkten durch homogene Transformation der dritten dreidimensionalen Informationen erfasst. 20 zeigt die Gruppe Y von entnommenen Punkten, die durch Anwenden der homogenen Transformation auf die dritten dreidimensionalen Informationen X3, die in 19 gezeigt werden, erzielt werden. Ferner wird das Beförderungsobjekt 51 außerhalb des Detektionsbereichs des visuellen Sensors 40 bewegt, und dann werden zweite dreidimensionale Informationen X2 durch den Teil 16 zum Erfassen von zweiten dreidimensionalen Informationen erfasst (siehe 21). Die ersten dreidimensionalen Informationen X1, die zweiten dreidimensionalen Informationen X2 und die Gruppe Y von entnommenen Punkten, die wie zuvor beschrieben erzielt werden, werden als Grundlage verwendet, um dreidimensionale Forminformationen des Beförderungsobjekts 51, das einen vertieften Teil 51a umfasst, durch den Teil 18 zum Erfassen von Forminformationen zu erfassen. Wenn die dreidimensionalen Informationen des Beförderungsobjekts 51 erfasst sind, kann gemäß den jeweiligen Flächeninhalten die stabile Stellung des Beförderungsobjekts 51 basierend auf der Schwerpunktposition des Beförderungsobjekts 51 usw. bestimmt werden.
  • Gemäß den Robotersystemen 10 gemäß den zuvor erwähnten diversen Ausführungsformen können die folgenden Wirkungen erreicht werden:
    • (1) Selbst wenn die dreidimensionale Form und die Dimensionen von gestapelten Objekten unbekannt sind, oder wenn die einzelnen Unterschiede zwischen den Objekten nicht geringfügig sind, kann ein Beförderungsprozess angemessen ausgeführt werden. Dies ermöglicht einen Beförderungsprozess zum Befördern von Objekten, die nicht unbedingt eine konstante Form aufweisen, wie etwa Agrarprodukte, Holzstücke, Erze.
    • (2) Die Objekte werden an dem Zielort mit stabilen Stellungen angeordnet, und daher kann verhindert werden, dass die Objekte umkippen und beschädigt werden. Ferner können die Objekte an dem Zielort mit Stellungen gemäß bestimmten Kriterien angeordnet werden. Dies kann die Verarbeitungseffizienz in nachfolgenden Prozessen verbessern.
    • (3) Selbst für den Fall, dass der Zustand der Objekte von der Seite aus nicht zu erkennen ist, beispielsweise wenn die Objekte in einem Behälter enthalten sind, kann man die dreidimensionalen Forminformationen der Objekte erfassen.
    • (4) Da nur ein einziger dreidimensionaler Sensor notwendig ist, um die Informationen zu erfassen, die für einen Beförderungsprozess notwendig sind, kann ein kostengünstiges Robotersystem bereitgestellt werden.
    • (5) Es ist nicht mehr notwendig, dass das Robotersystem im Voraus Informationen über den Abstand von dem Kontaktteil des Objekts bis zu einem Bezugspunkt des Roboters und der stabilen Stellung eines Objekts vorbereitet. Daher kann der Vorbereitungsprozess vereinfacht werden.
  • Gemäß einer Ausführungsform kann das Robotersystem den dreidimensionalen Sensor umfassen, der an dem Endteil des Arms des Roboters angebracht ist. Gemäß einer Ausführungsform kann das Robotersystem eine Vielzahl von Robotern verwenden, die ausgelegt sind, um Objekte zu befördern, die an einem Standort gestapelt sind. Gemäß einer Ausführungsform kann bzw. können ein oder mehrere Roboter nacheinander Objekte befördern, die an einer Vielzahl von verschiedenen Standorten gestapelt sind. Gemäß einer Ausführungsform kann das Robotersystem auch konfiguriert sein, um Objekte bis zu einer Vielzahl von Zielorten an verschiedenen Standorten zu befördern.
  • Wirkung der Erfindung
  • Gemäß einem Robotersystem der vorliegenden Erfindung werden dreidimensionale Forminformationen eines zu befördernden Objekts basierend auf dreidimensionalen Informationen erfasst, bevor und nachdem ein Objekt herausgenommen wird. Ferner werden basierend auf den dreidimensionalen Forminformationen des Objekts die Position und Stellung des Roboters zum Anordnen des Objekts berechnet. Die ermöglicht es, den Beförderungsprozess angemessen auszuführen, selbst wenn die Form oder die Dimensionen der Objekte unbekannt sind oder wenn die einzelnen Unterschiede zwischen den Objekten nicht geringfügig sind.
  • Obwohl diverse Ausführungsformen und Varianten der vorliegenden Erfindung zuvor beschrieben wurden, ist es für den Fachmann ersichtlich, dass die beabsichtigten Funktionen und Wirkungen auch durch andere Ausführungsformen und Varianten ausgebildet werden können. Insbesondere ist es möglich, einen Bestandteil der Ausführungsformen und Varianten auszulassen oder zu ersetzen, oder zusätzlich ein bekanntes Mittel bereitzustellen, ohne den Umfang der vorliegenden Erfindung zu verlassen. Ferner ist es für den Fachmann ersichtlich, dass die vorliegende Erfindung durch eine beliebige Kombination von Merkmalen der Ausführungsformen, die hier entweder explizit oder implizit offenbart werden, umgesetzt werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2010-005769 [0005]
    • JP 07-053054 [0005]
    • JP 07-299782 [0005]
    • JP 2001-317911 [0005]
    • JP 2013-154457 [0005]
    • JP 2012-192490 [0005]
    • JP 2011-247819 [0005]
    • JP 2013-101045 [0051]
  • Zitierte Nicht-Patentliteratur
    • „A review of recent range image registration methods with accuracy evaluation”, Image and Vision Computing, Band 25, Ausgabe 5, S. 578–596, 2007 [0051]

Claims (7)

  1. Robotersystem (10), konfiguriert, um nacheinander eine Vielzahl von gestapelten Objekten (50) zu einem Zielort (52) zu befördern, wobei das Robotersystem (10) Folgendes umfasst: einen dreidimensionalen Sensor (40), der konfiguriert ist, um dreidimensionale Informationen der Objekte (50) zu erfassen; einen Roboter (30), der eine Greifvorrichtung (33) umfasst, die in der Lage ist, mindestens eines der Objekte (50) zu ergreifen; einen Teil (12) zum Erfassen von ersten dreidimensionalen Informationen, der konfiguriert ist, um dreidimensionale Informationen der gestapelten Objekte (50) durch den dreidimensionalen Sensor (40) als erste dreidimensionale Informationen zu erfassen; einen Teil (14) zum Erfassen einer Objektposition, der konfiguriert ist, um ein Beförderungsobjekt (51), bei dem es sich um ein zu beförderndes Objekt handelt, unter den Objekten (50) zu identifizieren und die Position des Beförderungsobjekts (51) basierend auf den ersten dreidimensionalen Informationen zu erfassen; einen Teil (16) zum Erfassen von zweiten dreidimensionalen Informationen, der konfiguriert ist, um, nachdem das Beförderungsobjekt (51) von der Greifvorrichtung (33) ergriffen wurde und von anderen übrigen Objekten (50) durch den Roboter (30) entfernt wurde, dreidimensionale Informationen der übrigen Objekte (50) durch den dreidimensionalen Sensor (40) als zweite dreidimensionale Informationen zu erfassen; einen Teil (18) zum Erfassen von Forminformationen, der konfiguriert ist, um basierend auf den ersten dreidimensionalen Informationen und den zweiten dreidimensionalen Informationen dreidimensionale Forminformationen des Beförderungsobjekts (51), das einen Teil umfasst, der in einem toten Winkel des dreidimensionalen Sensors (40) positioniert ist, wenn die ersten dreidimensionalen Informationen erfasst werden, zu erfassen; einen Teil zum Erfassen von Anordnungsinformationen (20), der konfiguriert ist, um basierend auf den dreidimensionalen Forminformationen des Beförderungsobjekts (51), die von dem Teil (18) zum Erfassen von Forminformationen erfasst werden, mindestens eines von einem Abstand von einem Kontaktteil des Beförderungsobjekts (51) zu einem Bezugspunkt der Greifvorrichtung (33) oder des Roboters (30) und einer stabilen Stellung des Beförderungsobjekts (51) zu erfassen, wobei der Kontaktteil ein Teil des Beförderungsobjekts (51) ist, an dem das Beförderungsobjekt (51) den Zielort (52) berührt, wenn das Beförderungsobjekt (51) an dem Zielort (52) angeordnet ist, wobei die stabile Stellung eine Stellung ist, mit der das Beförderungsobjekt (51) an dem Zielort (52) stabil angeordnet werden kann; und einen Teil (22) zum Berechnen von Position und Stellung, der konfiguriert ist, um eine Position und Stellung des Roboters (30), wenn das Beförderungsobjekt (51) an dem Zielort (52) angeordnet ist, basierend auf mindestens einem von dem Abstand vom Kontaktpunkt zum Bezugspunkt und der stabilen Stellung zu berechnen.
  2. Robotersystem (10) nach Anspruch 1, ferner umfassend einen Teil (24) zum Erfassen von dritten dreidimensionalen Informationen, der konfiguriert ist, um dreidimensionale Informationen des Beförderungsobjekts (51), das von der Greifvorrichtung (33) ergriffen wird, durch den dreidimensionalen Sensor (40) als dritte dreidimensionale Informationen zu erfassen, wobei der Teil (18) zum Erfassen von Forminformationen konfiguriert ist, um dreidimensionale Forminformationen des Beförderungsobjekts (51) basierend auf den ersten dreidimensionalen Informationen, den zweiten dreidimensionalen Informationen und den dritten dreidimensionalen Informationen zu erfassen.
  3. Robotersystem (10) nach Anspruch 1 oder 2, wobei der Teil (12) zum Erfassen von ersten dreidimensionalen Informationen konfiguriert ist, um, nachdem mindestens eines der Objekte (50) befördert wurde, die zweiten dreidimensionalen Informationen, die erzielt werden, wenn ein vorhergehender Beförderungsprozess ausgeführt wird, als erste dreidimensionale Informationen zu erfassen.
  4. Robotersystem (10) nach einem der Ansprüche 1 bis 3, wobei der dreidimensionale Sensor (40) an einem Träger (41) angebracht ist, der von dem Roboter (30) getrennt ist.
  5. Robotersystem (10) nach einem der Ansprüche 1 bis 3, wobei der dreidimensionale Sensor (40) an einem Endteil eines Arms (31) des Roboters (30) angebracht ist.
  6. Robotersystem (10), das konfiguriert ist, um nacheinander eine Vielzahl von gestapelten Objekten (50) zu einem Zielort (52) zu befördern, wobei das Robotersystem (10) Folgendes umfasst: einen dreidimensionalen Sensor (40), der konfiguriert ist, um dreidimensionale Informationen der Objekte (50) zu erfassen; einen Roboter (30), der eine Greifvorrichtung (33) umfasst, die in der Lage ist, mindestens eines der Objekte (50) zu ergreifen; einen Teil (12) zum Erfassen von ersten dreidimensionalen Informationen, der konfiguriert ist, um dreidimensionale Informationen der gestapelten Objekte (50) durch den dreidimensionalen Sensor (40) als erste dreidimensionale Informationen zu erfassen; einen Teil (14) zum Erfassen einer Objektposition, der konfiguriert ist, um ein Beförderungsobjekt (51), bei dem es sich um ein zu beförderndes Objekt handelt, unter den Objekten (50) zu identifizieren und die Position des Beförderungsobjekts (51) basierend auf den ersten dreidimensionalen Informationen zu erfassen; einen Teil (24) zum Erfassen von dritten dreidimensionalen Informationen, der konfiguriert ist, um dreidimensionale Informationen des Beförderungsobjekts (50), das von der Greifvorrichtung (33) ergriffen wird, durch den dreidimensionalen Sensor (40) als dritte dreidimensionale Informationen zu erfassen; einen Teil (18) zum Erfassen von Forminformationen, der konfiguriert ist, um basierend auf den ersten dreidimensionalen Informationen und den dritten dreidimensionalen Informationen dreidimensionale Forminformationen des Beförderungsobjekts (51), die einen Teil umfassen, der in einem toten Winkel des dreidimensionalen Sensors (40) positioniert ist, wenn die ersten dreidimensionalen Informationen erfasst werden, zu erfassen; einen Teil (20) zum Erfassen von Anordnungsinformationen, der konfiguriert ist, um basierend auf den dreidimensionalen Forminformationen des Beförderungsobjekts (51), die von dem Teil (18) zum Erfassen von Forminformationen erfasst werden, mindestens eines von einem Abstand von einem Kontaktteil des Beförderungsobjekts (51) zu einem Bezugspunkt der Greifvorrichtung (33) oder des Roboters (30) und einer stabilen Stellung des Beförderungsobjekts (51) zu erfassen, wobei der Kontaktteil ein Teil des Beförderungsobjekts (51) ist, an dem das Beförderungsobjekt (51) den Zielort (52) berührt, wenn das Beförderungsobjekt (51) an dem Zielort (52) angeordnet ist, wobei die stabile Stellung eine Stellung ist, mit der das Beförderungsobjekt (51) an dem Zielort (52) stabil angeordnet werden kann; und einen Teil (22) zum Berechnen von Position und Stellung, der konfiguriert ist, um eine Position und Stellung des Roboters (30), wenn das Beförderungsobjekt (51) an dem Zielort (52) angeordnet ist, basierend auf mindestens einem von dem Abstand vom Kontaktpunkt zum Bezugspunkt und der stabilen Stellung zu berechnen.
  7. Robotersystem (10) nach Anspruch 6, wobei mindestens eine von der Position und der Stellung des Roboters (30), wenn die dritten dreidimensionalen Informationen erfasst werden, anders ist, als wenn das Beförderungsobjekt (51) von der Greifvorrichtung (33) ergriffen wird.
DE102016000995.0A 2015-02-06 2016-01-29 Förderrobotersystem mit dreidimensionalem Sensor Active DE102016000995B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015022623A JP6140204B2 (ja) 2015-02-06 2015-02-06 3次元センサを備えた搬送ロボットシステム
JP2015-022623 2015-10-14

Publications (2)

Publication Number Publication Date
DE102016000995A1 true DE102016000995A1 (de) 2016-08-11
DE102016000995B4 DE102016000995B4 (de) 2019-01-31

Family

ID=56498556

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016000995.0A Active DE102016000995B4 (de) 2015-02-06 2016-01-29 Förderrobotersystem mit dreidimensionalem Sensor

Country Status (4)

Country Link
US (1) US9844882B2 (de)
JP (1) JP6140204B2 (de)
CN (1) CN105858188B (de)
DE (1) DE102016000995B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018100049B4 (de) 2017-01-11 2019-09-19 Fanuc Corporation Artikelfördereinrichtung
CN111745640A (zh) * 2019-03-28 2020-10-09 精工爱普生株式会社 物体检测方法、物体检测装置以及机器人系统
WO2024056795A1 (de) * 2022-09-16 2024-03-21 Haver & Boecker Ohg Verfahren zum greifen und überführen wenigstens einer einzeleinheit und verwendung eines systems

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9956687B2 (en) * 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
US9056396B1 (en) 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6472363B2 (ja) * 2015-10-16 2019-02-20 キヤノン株式会社 計測装置、計測方法および物品の製造方法
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
US10315866B2 (en) * 2016-10-20 2019-06-11 Intelligrated Headquarters, Llc 3D-2D vision system for robotic carton unloading
US10597235B2 (en) 2016-10-20 2020-03-24 Intelligrated Headquarters, Llc Carton unloader tool for jam recovery
US10279480B1 (en) * 2016-10-21 2019-05-07 X Development Llc Sensor fusion
JP6450788B2 (ja) 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
CN107009358B (zh) * 2017-04-13 2020-06-02 武汉库柏特科技有限公司 一种基于单相机的机器人无序抓取装置及方法
JP6626036B2 (ja) * 2017-04-18 2019-12-25 ファナック株式会社 測定機能を有するレーザ加工システム
JP6680732B2 (ja) 2017-08-23 2020-04-15 ファナック株式会社 物品積み付け装置及び機械学習装置
JP6662836B2 (ja) * 2017-11-24 2020-03-11 ファナック株式会社 収容領域又は治具にワークを配置するワーク配置システム
CN108545459B (zh) * 2018-03-23 2024-04-16 广州纬纶信息科技有限公司 一种自动化下料系统、方法及计算机可读存储介质
JP6795007B2 (ja) * 2018-04-27 2020-12-02 株式会社ダイフク ピッキング設備
JP2022508622A (ja) * 2018-10-03 2022-01-19 ニコラス ペイトン, ハイブリッドロボットピッキングデバイス
JP7134073B2 (ja) * 2018-11-14 2022-09-09 株式会社ダイフク 物品積載設備
US11741566B2 (en) 2019-02-22 2023-08-29 Dexterity, Inc. Multicamera image processing
US10549928B1 (en) * 2019-02-22 2020-02-04 Dexterity, Inc. Robotic multi-item type palletizing and depalletizing
CN111348361A (zh) * 2020-01-21 2020-06-30 深圳市海柔创新科技有限公司 取、放货控制方法、装置、搬运装置及搬运机器人
WO2021097487A1 (en) 2019-11-12 2021-05-20 Bright Machines, Inc. A software defined manufacturing/assembly system
JP7432231B2 (ja) * 2020-03-13 2024-02-16 株式会社イシダ 物品排出システム
FR3108183B1 (fr) * 2020-03-13 2022-02-25 Orano Ds Demantelement Et Services Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé
WO2022269984A1 (ja) * 2021-06-22 2022-12-29 ソニーグループ株式会社 制御装置、制御方法、およびプログラム
CN113858199B (zh) * 2021-09-27 2023-02-28 河南松源企业管理咨询有限公司 一种家具搬运机器人
CN118613353A (zh) * 2021-12-10 2024-09-06 波士顿动力公司 用于物体检测和拾取顺序确定的系统和方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0753054A (ja) 1993-08-10 1995-02-28 Mitsubishi Electric Corp 自動荷卸し装置
JPH07299782A (ja) 1994-04-26 1995-11-14 Kawasaki Heavy Ind Ltd デパレタイズ用画像作成方法および画像作成装置
JP2001317911A (ja) 2000-05-02 2001-11-16 Daifuku Co Ltd 物品位置認識装置
JP2010005769A (ja) 2008-06-30 2010-01-14 Ihi Corp デパレタイズ装置および方法
JP2011247819A (ja) 2010-05-28 2011-12-08 Toyota Motor Corp ワーク段積み状態認識装置
JP2012192490A (ja) 2011-03-16 2012-10-11 Toyota Motor Corp 荷姿認識装置
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2013154457A (ja) 2012-01-31 2013-08-15 Asahi Kosan Kk ワーク移載システム、ワーク移載方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2555822B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置
JP3315736B2 (ja) 1992-10-16 2002-08-19 株式会社リコー 原稿分離給紙装置
JP3380062B2 (ja) * 1994-09-19 2003-02-24 スズキ株式会社 工業用ロボット
DE102007026956A1 (de) * 2007-06-12 2008-12-18 Kuka Innotec Gmbh Verfahren und System zum Roboter geführten Depalettieren von Reifen
DE102007050232B4 (de) * 2007-10-20 2024-05-02 Deutsches Zentrum für Luft- und Raumfahrt e.V. Handhabungsroboter und Verfahren zur Steuerung eines Handhabungsroboters
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP2010032744A (ja) 2008-07-29 2010-02-12 Ricoh Co Ltd 照明装置
JP4708464B2 (ja) * 2008-09-30 2011-06-22 ファナック株式会社 ワーク把持装置
FI20106387A (fi) * 2010-12-30 2012-07-01 Zenrobotics Oy Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP6000029B2 (ja) * 2012-09-10 2016-09-28 株式会社アプライド・ビジョン・システムズ ハンドリングシステム、ハンドリング方法及びプログラム
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
JP2014176923A (ja) * 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボットシステムおよび被加工物の製造方法
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0753054A (ja) 1993-08-10 1995-02-28 Mitsubishi Electric Corp 自動荷卸し装置
JPH07299782A (ja) 1994-04-26 1995-11-14 Kawasaki Heavy Ind Ltd デパレタイズ用画像作成方法および画像作成装置
JP2001317911A (ja) 2000-05-02 2001-11-16 Daifuku Co Ltd 物品位置認識装置
JP2010005769A (ja) 2008-06-30 2010-01-14 Ihi Corp デパレタイズ装置および方法
JP2011247819A (ja) 2010-05-28 2011-12-08 Toyota Motor Corp ワーク段積み状態認識装置
JP2012192490A (ja) 2011-03-16 2012-10-11 Toyota Motor Corp 荷姿認識装置
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2013154457A (ja) 2012-01-31 2013-08-15 Asahi Kosan Kk ワーク移載システム、ワーク移載方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
„A review of recent range image registration methods with accuracy evaluation", Image and Vision Computing, Band 25, Ausgabe 5, S. 578–596, 2007

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018100049B4 (de) 2017-01-11 2019-09-19 Fanuc Corporation Artikelfördereinrichtung
US10589422B2 (en) 2017-01-11 2020-03-17 Fanuc Corporation Article conveying apparatus
CN111745640A (zh) * 2019-03-28 2020-10-09 精工爱普生株式会社 物体检测方法、物体检测装置以及机器人系统
CN111745640B (zh) * 2019-03-28 2023-01-10 精工爱普生株式会社 物体检测方法、物体检测装置以及机器人系统
WO2024056795A1 (de) * 2022-09-16 2024-03-21 Haver & Boecker Ohg Verfahren zum greifen und überführen wenigstens einer einzeleinheit und verwendung eines systems

Also Published As

Publication number Publication date
JP2016144841A (ja) 2016-08-12
JP6140204B2 (ja) 2017-05-31
DE102016000995B4 (de) 2019-01-31
US20160229061A1 (en) 2016-08-11
US9844882B2 (en) 2017-12-19
CN105858188A (zh) 2016-08-17
CN105858188B (zh) 2018-07-27

Similar Documents

Publication Publication Date Title
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE112019000125B4 (de) Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE112019000170B4 (de) Steuerungssystem, Transportvorrichtung, Programm und Steuerungsverfahren
AT507339B1 (de) Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
DE102015115115B4 (de) Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen
DE102014005758B4 (de) Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
EP2952296B1 (de) Vorrichtung zum automatisierten entnehmen von in einem behälter angeordneten werkstücken
EP2984007B1 (de) Lager- und kommissioniersystem zum vollautomatisierten erkennen und kommissionieren von artikeln, und entsprechender kommissionierplatz
DE102020119866A1 (de) Roboter-mehrfachgreiferbaugruppen und -verfahren zum greifen und halten von objekten
DE112020000067T5 (de) Roboter-mehrfachgreiferbaugruppen und -verfahren zum greifen und halten von objekten
DE112012002677T9 (de) Zuführvorrichtung für Bauelemente
DE102017214634A1 (de) Werkstücksortiersystem und Verfahren
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
WO2019169418A2 (de) Robotersystem mit an warentypen angepassten bewegungsabläufen und betriebsverfahren hierfür
DE112017007397B4 (de) Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE112017007392B4 (de) Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE102015008195A1 (de) Gegenstandsausrichtvorrichtung zum Ausrichten von Gegenständen auf einem Förderband
DE102015208584A1 (de) Greifvorrichtung und Greifverfahren
EP3587044B1 (de) Verfahren zum greifen von objekten in einem suchbereich und positioniersystem
DE102019208187B4 (de) Robotersystem und Steuerungsverfahren für ein Robotersystem
DE102020101767B4 (de) Steuerverfahren und steuerung für ein robotersystem
DE112017007399B4 (de) Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE102020112099A1 (de) Ein robotersystem mit einem koordinierten übertragungsmechanismus

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final