DE102009030461A1 - Vorrichtung zum Aufnehmen von Objekten - Google Patents

Vorrichtung zum Aufnehmen von Objekten Download PDF

Info

Publication number
DE102009030461A1
DE102009030461A1 DE102009030461A DE102009030461A DE102009030461A1 DE 102009030461 A1 DE102009030461 A1 DE 102009030461A1 DE 102009030461 A DE102009030461 A DE 102009030461A DE 102009030461 A DE102009030461 A DE 102009030461A DE 102009030461 A1 DE102009030461 A1 DE 102009030461A1
Authority
DE
Germany
Prior art keywords
robot
selected object
objects
degree
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009030461A
Other languages
English (en)
Other versions
DE102009030461B4 (de
Inventor
Taro Arimatsu
Kazunori Ban
Ichiro Kanno
Keisuke Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102009030461A1 publication Critical patent/DE102009030461A1/de
Application granted granted Critical
Publication of DE102009030461B4 publication Critical patent/DE102009030461B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

Vorrichtung zum Aufnehmen von Objekten, die kostengünstig und in der Lage ist, ein Objekt nach dem anderen im zufällig angehäuften Zustand aufzunehmen. Ein Zieldetektionsteil eines Bildverarbeitungsteils verarbeitet ein von einer Kamera aufgenommenes Bild und erkennt Objekte. Ein Zielauswahlteil wählt auf Basis einer bestimmten Regel ein Objekt aus den erkannten Objekten. Ein Sichtlinienrichtung-Berechnungsteil berechnet die Richtung der zum gewählten Objekt verlaufenden Sichtlinie. Ein Zielposition-Schätzungsteil schätzt die Position einschließlich der Höhe des gewählten Objekts auf Basis der Größeninformation des Objekts im Bild. Danach berechnet ein Greifkorrektur-Berechnungsteil den Korrekturbetrag für die Roboterbewegung, damit das Objekt unter Verwendung des Roboters gegriffen werden kann.

Description

  • VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht die Priorität der japanischen Patentanmeldung Nr. 2008-175508 , eingereicht am 4. Juli 2008, deren gesamter Inhalt hiermit einbezogen wird.
  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Aufnahmevorrichtung zum sequentiellen Aufnehmen einer Mehrzahl Objekte, die zufällig angehäuft sind.
  • 2. Beschreibung der verwandten Technik
  • Bei einem Herstellungsprozess z. B. für ein Automobilbauteil, werden die Prozesse des Druckgießens, der spanenden Bearbeitung und des Zusammenbaus von Bauteilmaterialien einzeln ausgeführt, und jeder Prozess findet mit einer anderen Taktzeit statt. Da jeder Prozess an verschiedenen Stellen einer Fertigungsstraße ausgeführt wird, müssen die Bauteile häufig zwischen den Prozessen transportiert werden. Danach werden nach Beendigung eines Prozesses die bearbeiteten Bauteile gemeinsam in einem Behälter oder Korb aufbewahrt, bis sie zum nächsten Prozess gebracht werden. Da es insbesondere normalerweise kein Problem darstellt, wenn die Bauteilmaterialien vor dem Prozess der spanenden Bearbeitung einige wenige Kratzer haben, werden sie häufig im ”zufällig angehäuften” Zustand aufbewahrt.
  • Hauptsächlich stehen drei Verfahren zum Aufnehmen von Objekten wie die oben genannten Bauteilmaterialien im ”zufällig angehäuften” Zustand aus einem Korb oder dgl. zur Verfügung. Das erste Verfahren sieht vor, jedes Objekt von Hand aufzunehmen und auszurichten, bevor es zum nächsten Prozess gebracht wird, oder jedes Objekt von Hand aufzunehmen und auf einer Werkzeugmaschine anzubringen. Da bei diesem Verfahren jedoch die Arbeitsbelastung eines Bedieners eher erhöht wird, sind in den letzten Jahren die folgenden Verfahren verwendet worden.
  • Das zweite Verfahren sieht den Anbau eines Magneten an einer Aufnahmehand wie etwa eine Roboterhand vor und das Aufnehmen jedes Objekts, indem die Hand in einen das Objekt enthaltenden Korb gebracht wird. Bei diesem Verfahren wird ein Roboter ungeregelt oder mit einem bestimmten Grad an Regelmäßigkeit innerhalb des Korbs bewegt, um jedes Objekt aufzunehmen. Die Roboterhand kann deshalb in einer Zone im Korb positioniert werden, wo keine Objekte vorhanden sind, sie kann das Objekt instabil greifen und dann fallen lassen, oder zwei oder mehr Objekte gleichzeitig aufnehmen, wodurch Zuverlässigkeit und Wirksamkeit der Operation verschlechtert werden.
  • Beim dritten Verfahren dient ein Sichtsensor zur Unterstützung der Aufnahmeoperation durch einen Roboter. Da dieses Verfahren die Zuverlässigkeit der Operation beim sequentiellen Aufnehmen jedes Objekts verbessert, wird es in zahlreichen Fällen eingesetzt. So offenbart z. B. die japanische Patentveröffentlichung (Kokai) Nr. 2004-188562 eine Vorrichtung zur Werkstückaufnahme mit einem an einem Roboter installierten dreidimensionalen Sichtsensor, wobei der Sichtsensor die Position und Ausrichtung eines vorgeschriebenen Objekts unter einer Mehrzahl Objektarten misst und der Roboter das vorgeschriebene Objekt aufnimmt.
  • Die japanische Patentveröffentlichung (Kokai) Nr. 2-256485 offenbart einen Roboter mit einer Sichteinheit, wobei eine Roboterhand ein in einer Kiste enthaltenes Objekt aufnimmt.
  • Die Vorrichtung der japanischen Patentveröffentlichung (Kokai) Nr. 2004-188562 eignet sich zum sequentiellen Aufnehmen einer Mehrzahl Objekte, die im ”zufällig angehäuften” Zustand gestapelt sind. Das offenbarte Verfahren erfordert jedoch zum Aufnehmen jedes Objekts Zeit, da die Vorrichtung zunächst die Daten der Höhenverteilung in der interessierenden Zone benötigt, dann die Zielobjekte auf einem aufgenommenen zweidimensionalen Bild erkannt werden müssen und schließlich der Roboter bewegt werden muss, um den dreidimensionalen Sichtsensor auf das Zielobjekt auszurichten, um Position und Ausrichtung des Objekts zu erhalten, worauf eine weitere Detektion erfolgt; all dies geschieht, bevor sich der Roboter positionieren kann, um das Objekt zu greifen.
  • Bei der Vorrichtung gemäß der japanischen Patentveröffentlichung (Kokai) Nr. 2-256485 hingegen können Objekte aufgenommen werden, wenn eine Mehrzahl Objekte schichtweise gestapelt ist und die gegebenen Höhen der gestapelten Objekte bekannt sind. Wenn jedoch die Position und die Ausrichtung der Objekte nicht geordnet sind, wie im Fall eines ”zufällig angehäuften” Zustands, kann eine Fehlaufnahme eintreten, z. B. kann die Greifposition des Roboters versetzt sein und/oder die Hand des Roboters und ein anderes Objekt können sich gegenseitig behindern. Wie in 8 dargestellt ist, soll z. B. eine Roboterhand 104 ein Objekt 102 direkt von oberhalb des Objekts aufnehmen, während das Objekt 102 in der Sichtlinie einer Kamera 100 positioniert ist. Dabei weicht in dem Fall, in dem sich das Objekt 102 in der Position Z2 befindet, obwohl erwartet wird, dass sich das Objekt in der Position Z1 bezogen auf die Z-Richtung befindet, mindestens eine der X- und Y-Koordinaten der Greifposition für das Objekt 102 von den tatsächlichen Koordinaten ab. Wenn ein Objekt aus einem ”zufällig angehäuften” Zustand aufgenommen werden soll, in dem die gegebene Höhe jedes Objekts unbekannt ist, kann somit die Aufnahmeoperation nur dann ordnungsgemäß ausgeführt werden, wenn die X-, Y- und Z-Koordinaten des aufzunehmenden Objekts genau erfasst werden.
  • ABRISS DER ERFINDUNG
  • Der Zweck der vorliegenden Erfindung ist demnach, eine Vorrichtung zum Aufnehmen von Objekten bereitzustellen, die kostengünstig und in der Lage ist, ein Objekt rasch und genau aus einem zufällig angehäuften Zustand aufzunehmen.
  • Gemäß der vorliegenden Erfindung wird eine Vorrichtung zum Aufnehmen von Objekten bereitgestellt, die aufweist: eine Kamera, die zum Aufnehmen eines zweidimensionalen Bildes einschließlich eines Bildes einer Mehrzahl der gleichen zufällig angehäuften Objektart eingerichtet ist; einen Roboter, der zum Aufnehmen der Objekte einzeln nacheinander aus der Mehrzahl Objekte eingerichtet ist; einen Bildverarbeitungsteil, der das von der Kamera aufgenommene Bild verarbeitet; und einen Handhabungs-Steuerteil, der den Roboter steuert, wobei der Bildverarbeitungsteil aufweist: einen Zieldetektionsteil, der Informationen bezüglich der zweidimensionalen Position und der Größe jedes Objekts im Bild der Mehrzahl Objekte erkennt; einen Datenspeicherteil, der die Höheninformation bezüglich der Höhe der gegebenen Position eines Objekts an einer Referenzposition speichert, wobei die Höheninformation der Größeninformation des Objekts im aufgenommenen Bild an der Referenzposition zugeordnet wird, und wobei der Datenspeicherteil ferner Daten bezüglich eines Merkmalmodells des Objekts speichert; einen Zielauswahlteil, der ein Objekt als das aufzunehmende Ziel wählt, wobei das Objekt den höchsten Prioritätsgrad hat, der berechnet wird, indem mindestens entweder die Größeninformation eines Bildes jedes erkannten Objekts, ein Grad der Übereinstimmung zwischen dem Bild des erkannten Objekts und dem Merkmalmodell und ein Neigungsgrad des Bildes des erkannten Objekts relativ zum Merkmalmodell verwendet wird; einen Sichtlinienrichtung-Berechnungsteil, der die Richtung der Sichtlinie der Kamera im dreidimensionalen Feld zwischen der Kamera und dem gewählten Objekt auf Basis der Informationen der zweidimensionalen Position des gewählten Objekts berechnet; einen Zielposition-Schätzungsteil, der die gegebene Höhe des gewählten Objekts auf Basis der Größeninformation des gewählten Objekts und der im Datenspeicherteil gespeicherten Informationen bezüglich der gegebenen Position und Größe des Objekts an der Referenzposition berechnet, wobei der Zielposition-Schätzungsteil ferner die dreidimensionale Position des gewählten Objekts auf Basis der gegebenen Höhe des gewählten Objekts und der Richtung der Sichtlinie berechnet; und einen Greifkorrektur-Berechnungsteil, der eine Korrekturbetrag der Roboterbewegung berechnet, wobei der Korrekturbetrag angepasst wird, um das gewählte Objekt mittels des Roboters zu greifen, und wobei der Handhabungs-Steuerteil aufweist: einen Bewegungssteuerteil, der die Bewegung des Roboters steuert, um die Roboterhand zur dreidimensionalen Position des gewählten Objekts entlang der Richtung der Sichtlinie der Kamera relativ zum gewählten Objekt zu bewegen; einen Kontaktsensorteil, der erkennt, dass die Roboterhand mit dem gewählten Objekt in Kontakt gekommen ist; einen Greifbefehlsteil, der den Befehl für die Roboterhand zum Anhalten ihrer Bewegung und zum Greifen des gewählten Objekts mit der Roboterhand ausgibt, wenn der Kontaktsensorteil den Kontakt zwischen der Roboterhand und dem gewählten Objekt erkennt; und einen Aufnahmebefehlsteil, der den Befehl für den Roboter ausgibt, das mit der Roboterhand gegriffene Objekt herauszuziehen.
  • Ein bevorzugtes Beispiel für den Prioritätsgrad ist ein Produktsummenwert, der durch Berechnung einer Summierung von mindestens zwei Größen der Größeninformation, des Grades der Übereinstimmung und des Neigungsgrades jedes der Mehrzahl Objekte erhalten wird, nachdem die Größeninformation, der Grad der Übereinstimmung und der Neigungsgrad jeweils mit einem bestimmten Koeffizienten multipliziert worden sind.
  • Ein anderes bevorzugtes Beispiel für den Prioritätsgrad ist ein Produktwert aus mindestens zwei Größen der Größeninformation, des Grades der Übereinstimmung und des Neigungsgrades jedes der Mehrzahl Objekte.
  • Die Roboterhand kann einen Basisteil, einen vorderen Endteil, der zum Greifen des gewählten Objekts konfiguriert ist, und einen nachgiebigen Mechanismus, der den vorderen Endteil mit dem Basisteil verbindet, aufweisen, so dass die Ausrichtung des vorderen Endteils entsprechend der Ausrichtung des gewählten Objekts variiert werden kann.
  • Bei einer bevorzugten Ausführungsform hat der vordere Endteil einen im Wesentlichen halbkugelförmigen Elektromagneten, der so ausgeführt ist, dass er an einem Loch oder einer Vertiefung im gewählten Objekt angreifen kann.
  • Bei einer anderen bevorzugten Ausführungsform weist der vordere Endteil einen Saugnapf auf, der eine Unterdruck-Adsorptionskraft erzeugt, durch die der Saugnapf das gewählte Objekt adsorptiv greifen kann.
  • Bei einer weiteren bevorzugten Ausführungsform weist der vordere Endteil einen Futtermechanismus auf, der zum Greifen des gewählten Objekts konfiguriert ist.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die obigen und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung erschließen sich aus der nachfolgenden Beschreibung der bevorzugten Ausführungsformen unter Bezugnahme auf die beiliegenden Zeichnungen. Es zeigen:
  • 1 eine schematische Konfiguration einer Vorrichtung zum Aufnehmen von Objekten gemäß der Erfindung;
  • 2 die Sichtlinie einer Kamera und den Zustellweg einer Roboterhand in schematischer Form;
  • 3 ein Beispiel einer Platte mit Punktmuster;
  • 4 eine Ansicht zur Verdeutlichung des Berechnungsverfahrens der gegebenen Höhe eines Objekts;
  • 5 eine bevorzugte Ausführungsform der Roboterhand;
  • 6 eine andere bevorzugte Ausführungsform der Roboterhand;
  • 7 eine weitere bevorzugte Ausführungsform der Roboterhand; und
  • 8 eine schematische Darstellung der relativen Position zwischen einer Kamera, einer Roboterhand und einem Objekt im Stand der Technik
  • DETAILLIERTE BESCHREIBUNGEN
  • 1 zeigt die Gesamtkonfiguration einer Vorrichtung 10 zum Aufnehmen von Objekten gemäß einer bevorzugten Ausführungsform der Erfindung. Die Aufnahmevorrichtung 10 hat einen Roboter 16, der zum Greifen und Aufnehmen jedes Objekts aus einer in einem Objektbehälter 12 enthaltenen Mehrzahl gleichartiger Artikel oder Objekte 14 konfiguriert ist, einen bildgebenden Teil oder eine Videokamera 18, die im Allgemeinen direkt oberhalb des Behälters 12 positioniert ist und die Objekte 14 über einen weiten Bereich (z. B. wird die Gesamtheit des Behälters 12 innerhalb des Sichtfeldes der Kamera 18 aufgenommen) aufnimmt, und eine Robotersteuerung 20, die den Roboter 16 steuert und ein von der Videokamera 18 erhaltenes Bild verarbeitet. Der Begriff ”greifen”, wie er hierin verwendet wird, bedeutet eine Greifoperation des Objekts durch eine Roboterhand oder dgl. sowie eine adsorptive Operation des Objekts durch einen Elektromagneten oder einen Unterdruck-Saugnapf, wie er nachstehend beschrieben wird. Die letztgenannte Operation kann als ”Adsorptionsgreifen” bezeichnet werden.
  • Die Robotersteuerung 20 verarbeitet ein zweidimensionales Bild, das von der Kamera 18 eingegeben wird. Im Blockdiagramm von 1, das die Funktion der Robotersteuerung 20 zeigt, entspricht ein mit einer Strichlinie gekennzeichneter Abschnitt 22 einem Bildverarbeitungsteil zur Ausführung der Bildverarbeitung. Die Bildverarbeitung kann durch einen anderen Bildprozessor ausgeführt und das vom Bildprozessor erhaltene Resultat über ein geeignetes Kommunikationsmittel an die Robotersteuerung 20 ausgegeben werden.
  • Der Roboter 16 ist an einer Stelle positioniert, wo der Roboter 16 sequentiell die Objekte 14 aus dem Behälter greifen und aufnehmen kann. Die Videokamera 18, die als ein Bildaufnahmegerät zur Aufnahme eines Bildes des Inhalts über einen weiten Bereich dient, ist im Allgemeinen direkt über dem Behälter 12 positioniert, so dass der Behälter 12 im Sichtfeld der Kamera 18 enthalten ist. Durch Positionieren der Videokamera 18 nahe am Behälter 12 im ausreichenden Abstand zur Aufnehmoperation des Roboters kann außerdem die optische Auflösung der Kamera entlang ihrer optischen Achse verbessert werden. Mit anderen Worten, die Differenz der tatsächlichen gegebenen Höhe jedes Objekts 14 im Behälter 12 kann deutlich als Größendifferenz jedes Objekts auf einem von der Videokamera 18 erhaltenen Bild angezeigt werden. Deshalb kann auf Basis der Größe des Objekts 14 im Bild die tatsächliche gegebene Höhe des Objekts genau geschätzt werden. Wenn außerdem die Kamera im Allgemeinen direkt über der Mitte des Behälters 12 positioniert ist, hat die Sichtli nie der Kamera zu einer Wand des Behälters einen Abstand, so dass es unwahrscheinlich ist, dass der Roboter (bzw. die Roboterhand) während der Zustellbewegung auf die Wand trifft, wie oben beschrieben. Die Kamera kann auch am Roboter 16 nahe an der Roboterhand, die am vorderen Ende des Roboters installiert ist, angebracht werden, so dass die Kamera durch die Bewegung des Roboters 16 bewegt wird und ein Bild aufnehmen kann, nachdem sie über dem Behälter 12 positioniert ist.
  • Ein Zieldetektionsteil 22a des Bildverarbeitungsteils 22 der Robotersteuerung 20 verarbeitet ein von der Videokamera 18 aufgenommenes Bild und erkennt eine Mehrzahl Objekte. Ein Zielauswahlteil 22b wählt aus der Mehrzahl Objekte ein als das Ziel aufzunehmendes Objekt gemäß der nachstehend beschriebenen Prozedur. Die Prozedur basiert auf den Größeninformation des Bildes des erkannten Objekts, dem Grad der Übereinstimmung (oder dem Grad des Zusammenpassens) zwischen dem Bild des erkannten Objekts und dem Merkmalmodell, dem Neigungsgrad des Bildes des erkannten Objekts relativ zum Merkmalmodell, dem Vorhandensein oder Fehlen von Verdeckung oder Überlappung des Objekts durch ein anderes Objekt, oder der Kombination aus mindestens zwei dieser Parameter. Als einfachster Fall wird der höchste Prioritätsgrad des Aufnehmens dem Objekt mit der größten erkannten Größe zugewiesen, so dass das in der obersten Schicht im Behälter positionierte Objekt zuerst aufgenommen wird. Oder das Objekt mit einem höheren Grad an Übereinstimmung verglichen mit dem Merkmalmodell kann als korrekter erkannt bestimmt werden. Indem sowohl die erkannte Größe als auch der Grad an Übereinstimmung einbezogen werden, wird ferner das auf dem höchsten Niveau befindliche Objekt vorzugsweise oder zuerst aufgenommen. Wie nachstehend beschrieben wird, berechnet dann ein Sichtlinienrichtung-Berechnungsteil 22c die Richtung der Sichtlinie der Kamera zum gewählten Objekt und ein Zielhöhen-Schätzungsteil 22d schätzt Position und Höhe des gewählten Objekts auf Basis der Größeninformation des Bildes des Objekts. Als Nächstes berechnet ein Greifkorrektur-Berechnungsteil 22e einen Korrekturbetrag der Bewegung, der für den Roboter erforderlich ist, damit er das Objekt greifen kann. Ein Datenspeicherteil 22f kann ein Lernmodell und/oder Daten bezüglich eines Merkmalmodells speichern, um den Grad der Übereinstimmung und/oder den Neigungsgrad zu berechnen.
  • Danach verwendet ein Handhabungssteuerteil 24 das Prozessergebnis des Bildverarbeitungsteils 22 und führt dann die Handhabungsbewegung (oder eine Reihe Bewegungen, einschließlich der Zustellung zum Objekt, des Greifens und Aufnehmens des Objekts) unter Verwendung des Roboters aus. Wie in 2 dargestellt ist, wird der Zustellweg der Roboterhand durch eine Berechnung der Sichtlinie 19 von der Videokamera zum Zielobjekt und durch Ausrichten der Betätigungsrichtung (oder Bewegungsrichtung) der Roboterhand 17 auf die Sichtlinie bestimmt. Wenn sich der Roboter der Greifposition nähert, erzeugt ein Bewegungssteuerteil 24a einen Geschwindigkeitsbefehl für die Roboterhand, die sich der berechneten Greifposition nähert und steuert die Zustellung der Roboterhand, während ein Kontaktsensorteil 24b aktiviert wird. Unmittelbar nachdem der Kontaktsensorteil 24b den Kontakt zwischen der Roboterhand und dem Objekt erfasst hat, hält ein Greifbefehlsteil 24c den Roboter an und gibt den Befehl an den Roboter aus, das Objekt zu greifen. Nachdem das Greifen des Objekts bestätigt worden ist, gibt ein Aufnahmebefehlsteil 24d den Befehl an den Roboter aus, das gegriffene Objekt herauszuziehen und zu einer vorgegebenen Stelle zu transportieren. Vorzugsweise erfolgt diese Herausziehbewegung entlang dem oben beschriebenen Zustellweg und in der der Zustellrichtung entgegengesetzten Richtung. Durch Wiederholen dieser Bewegungsfolge werden die Objekte im Behälter sequentiell aufgenommen oder herausgezogen. Wenn sich die Roboterhand entlang der zum Objekt verlaufenden Sichtlinie zu einem im Bild erkannten Objekt bewegt, ist außerdem bevorzugt, dass sich die Roboterhand mit hoher Geschwindigkeit bewegt, bis sie eine bestimmte Höhe erreicht hat (die z. B. um einen konstanten Betrag höher ist als die gegebene Höhe des Zielobjekts), und dann relativ langsam bewegt wird.
  • Zur Berechnung der von (vom optischen Mittelpunkt) der Kamera zu einem von der Kamera erfassten Objekt verlaufenden Sichtlinie müssen interne Parameter des optischen Systems der Kamera und externe Parameter, die ein einen als Aufgabenraum für die Kamera und den Roboter definiertes Aufgaben-Koordinatensystem repräsentieren, vorherbestimmt werden. Ein Verfahren zur Kalibrierung der Kamera, um diese Parameter zu berechnen, ist bekannt, so dass auf eine Erläuterung desselben verzichtet wird. Ein beispielhaftes Verfahren ist "An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision" (Effiziente und genaue Kamera-Kalibriertechnik für eine Maschine mit 3D-Sichtvermögen) (CVPR, S. 364 bis 374, 1986 IEEE) von Roger Y. Tsai. Als Beispiel für ein konkretes Mittel zu Kalibrierung gemäß 3 kann eine Platte 30 mit Punktmuster verwendet werden, auf der eine Mehrzahl Punkte in einer bekannten geometrischen Anordnung ausgebildet ist. Die Kamera kann kalibriert werden, indem eine Messung an zwei bekannten Positionen ausgeführt wird, wobei die Punktmusterplatte 30 senkrecht zur optischen Achse der Kamera angeordnet ist.
  • Im Folgenden wird die Bildverarbeitung im Einzelnen erläutert. Um ein aus dem erhaltenen Bild aufzunehmendes Objekt zu erkennen, wird zuerst ein Modell eines Referenzobjekts für die Detektion erlernt. Ein bevorzugtes zu erlernendes Modell wird bestimmt, indem ein Merkmal (z. B. die Form und die Länge) eines Kantenabschnitts eines Objekts, wo sich die Helligkeit einer Bildzelle im Bild deutlich ändert, extrahiert wird. Da die Ausrichtung jedes der ”zufällig angehäuften” Objekte verschieden ist, kann die Erfolgsrate der Detektion des Objekts verbessert werden, indem eine Mehrzahl Modelle mit verschiedenen Ausrichtungen des Objekts erlernt wird.
  • Unter den erkannten Objekten wird ein Objekt gewählt, das eine vorgegebene Bedingung erfüllt. Indem zu diesem Zeitpunkt eine erkannte Marke (oder das Maß der Übereinstimmung), die Größe im erkannten Bild, der Neigungsgrad oder der Integrationswert daraus verwendet wird, kann die Möglichkeit der Fehlaufnahme verringert werden. Die erkannte Marke gibt den Grad der Übereinstimmung zwischen dem gelernten Modell und dem erkannten Bild an. Wenn das erkannte Bild z. B. vollständig mit dem gelernten Modell übereinstimmt, beträgt die Marke 100%. Andernfalls wird die Marke entsprechend dem Verhältnis einer Bildzelle, in der sich das erkannte Bild und das gelernte Modell unterscheiden, reduziert. Die zu verwendende Größe eines erkannten Objekts ist die Größe, bei der die Größe des erlernten Modells 100% beträgt. Der zu verwendende Neigungsgrad ist der Kosinus (%) des Neigungswinkels, wenn der Neigungswinkel des gelernten Modells 0° beträgt. Mit anderen Worten, wenn der Neigungswinkel des erkannten Objekts 0° beträgt, ist der Neigungsgrad des Objekts 100%. Wenn der Neigungswinkel des Objekts größer wird, nimmt der Wert des Neigungsgrades ab. Aus den obigen Werten werden einige, die zur Berechnung der Aufnahmepriorität des Objektes nützlich sein können, gewählt und miteinander multipliziert, um den Prioritätsgrad zu erhalten. Durch das sequentielle Aufnehmen der Objekte in absteigender Folge des Prioritätsgrades kann eine effiziente Aufnehmoperation ausgeführt werden.
  • Es ist ebenfalls nützlich, den Prioritätsgrad durch Berechnen einer Produktsumme, d. h. durch Summieren jedes Kriteriumwertes, nachdem diese mit einem bestimmten Koeffizienten multipliziert worden sind, zu bestimmen. Konkret bedeutet dies, dass dann, wenn die Koeffizienten für die Marke, die Größe und den Neigungsgrad wie oben beschrieben auf 0,5; 0,25 bzw. 0,25 eingestellt worden sind, und wenn die Marke, die Größe und der Neigungsgrad eines bestimmten erkannten Objekts 96%, 100% und 95% betragen, die Produktsumme oder der Prioritätsgrad des Objekts 96,75 beträgt. Wenn ferner die Marke, die Größe und der Neigungsgrad eines anderen erkannten Objekts 90%, 110% und 95% betragen, beträgt die Produktsumme des Objekts 96,25. Der Prioritätsgrad des erstgenannten Objekts ist deshalb größer als der des letztgenannten, so dass das erstgenannte Objekt vor dem letztgenannten aufgenommen wird. Damit kann durch Multiplikation des Koeffizienten mit jedem Parameter (in diesem Fall wird der größte Koeffizient mit der Marke multipliziert) der optimale Prioritätsgrad entsprechend der Anwendung der Vorrichtung berechnet werden.
  • Wenn andererseits der Prioritätsgrad bezüglich der zwei obigen Objekte als Produktwert jedes Parameters bestimmt wird, betragen die Prioritätsgrade des erst- und des letztgenannten Objekts 91,2 bzw. 94,05. Da die Marke des letztgenannten Objekts relativ niedrig (90%) ist, lässt sich erkennen, dass das letztgenannte Objekt nicht korrekt erkannt oder durch andere Objekte teilweise verdeckt wird. Da jedoch die Größe des letztgenannten Objekts relativ groß ist (110%), lässt sich erkennen, dass die Höhe der Position des letztgenannten Objekts innerhalb des Behälters relativ hoch ist und somit der Prioritätsgrad relativ hoch wird. Mit anderen Worten, der Produktwert der mehreren Parameter eignet sich in den Fällen, in denen der Prioritätsgrad nicht nur von einem einzigen Parameter abhängen sollte, der mit einem hohen Koeffizienten multipliziert wird.
  • Beim obigen Beispiel wird der Produktwert oder die Produktsumme der drei Parameter verwendet. Es kann jedoch auch der Produktwert oder die Produktsumme von zwei der drei Parameter verwendet werden und/oder ein anderer Parameter kann wahlweise oder zusätzlich herangezogen werden. Ferner kann auch nur ein Parameter als Prioritätsgrad verwendet werden.
  • Um die gegebene Höhe des Objekts zu schätzen, wird die Größeninformation des Objekts im erhaltenen Bild verwendet. Diese Schätzung basiert auf der erkannten Größe eines Referenzobjekts an zwei vorgegebenen verschiedenen Höhenpositionen. Eine andere Schätzung kann auf der erkannten Größe eines Objekts an einer vorgegebenen Referenzposition oder -höhe und dem Abstand in Höhenrichtung zwischen der Videokamera und dem Objekt basieren. Die Höhen- und Größeninformation des Objekts (im Folgenden als Referenzdaten bezeichnet) werden als Bestandteil der Merkmalinformationen des Modells in einem Speicher, wie dem Datenspeicherteil 22f der Steuerung 20, gespeichert.
  • Nachfolgend wird anhand von 4 ein Verfahren zum Schätzen der gegebenen Höhe eines Objekts im aufgenommenen Bild anhand der durch die Detektion des Objekts an zwei verschiedenen Höhenpositionen erhaltenen Referenzdaten erläutert.
  • Zuerst wird nach Erhalt der Referenzdaten (wie links in 4 dargestellt) bezüglich eines in der Höhenposition Z1 in einem bestimmten Koordinatensystem positionierten Objekts die detektierte Größe des Objekts im Bild auf die Größe S1 eingestellt. Analog wird hinsichtlich eines in der Höhenposition Z2 positionierten Objekts die erkannte Größe des Objekts im Bild auf die Größe S2 eingestellt. Da die erkannte Größe des Objekts im Bild umgekehrt proportional zum Abstand zwischen der Kamera und dem Objekt ist, gilt dabei die folgende Gleichung (1). S2/S1 = D1/D2 = (Z0 – Z1)/(Z0 – Z2); (1)dabei repräsentiert D1 den Abstand zwischen der Kamera und dem Objekt bei Z1 und D2 den Abstand zwischen der Kamera und dem Objekt bei Z2.
  • In Gleichung (1) wird die gegebene Höhe Z0 der Kamera durch die folgende Gleichung (2) berechnet. Z0 = (S2·Z2 – S1·Z1)/(S2 – S1); (2)
  • Danach wird, wie auf der rechten Seite von 4 dargestellt, bei einer normalen Detektion, die zu einem anderen Zeitpunkt als die Detektion der Referenzdatendetektion stattfindet, die erkannte Größe des Objekts im Bild auf S3 eingestellt. Die Höhe des Objekts wird durch die nachstehende Gleich (3) berechnet. Z3 = (S1/S3)·(Z1 – Z0) + Z0; (3)
  • Aus Gleichung (3) kann die gegebene Höhe des Objekts an einer beliebigen Position durch Vorbestimmen der erkannten Größe (S1) des Objekts in der Referenzposition, der gegebenen Höhe (Z1) desselben und des Abstands (D1 = Z0 – Z1) zwischen dem Objekt in der Referenzposition und der Videokamera geschätzt werden.
  • Die Schätzung der Höhe des Objekts kann auch mittels einer Stereokamera oder einer dreidimensionalen Messung unter Verwendung von strukturiertem Licht ausgeführt werden. Ein derartiges Verfahren ist jedoch wegen der Hardware-Kosten und der Messdauer nicht vorteilhaft.
  • In der Robotersteuerung sind Informationen hinsichtlich der Sichtlinie von der Kamera zu einem Referenzobjekt und der Roboterbewegung zum Greifen des Objekts im Voraus als Lerndaten eingestellt worden. Bei der tatsächlichen Aufnehmoperation wird die Differenz zwischen den Informationen bezüglich der Sichtlinie zum Referenzobjekt und den Informationen bezüglich der Sichtlinie zu einem zu greifenden Objekt berechnet, wonach ein Korrekturbetrag für die Roboterbewegung auf Basis der Differenz berechnet werden kann, damit das Objekt vom Roboter gegriffen wird.
  • Der Endpunkt des Zustellwegs des Roboters wird auf eine Position eingestellt, deren Höhe um eine bestimmte Länge niedriger ist als die geschätzte oder berechnete gegebene Höhe des gewählten Objekts. Dies dient dazu, zu verhindern, dass der Roboter das gewählte Objekt nicht erreichen kann, wenn die geschätzte gegebene Höhe des gewählten Objekts falsch ist. Wenn jedoch in diesem Fall die geschätzte gegebene Höhe korrekt oder die Position des tatsächlichen Objekts höher als die geschätzte gegebene Höhe ist, kann die Roboterhand versehentlich mit dem gewählten Objekt kollidieren und in manchen Fällen beschädigt werden. Um eine derartige ungünstige gegenseitige Störung zu vermeiden, kann der Roboter mit einem Sensor zur Detektion des Kontakts zwischen der Roboterhand und dem Objekt ausgerüstet werden. Die Bewegung des Roboters wird angehalten, wenn ein Signal des Sensors erkannt wird, wonach der Roboter die Aufnahmeoperation ausführt. Als Sensor kann je nach Beschaffenheit der Roboterhand ein Adsorptionssensor, ein Endschalter, ein Näherungsschalter, ein automatischer Schalter oder dgl. verwendet werden. Ferner kann der Kontakt zwischen der Roboterhand und dem Objekt durch die kontinuierliche Überwachung einer auf einen Motor des Roboters wirkenden Last erkannt werden. Die Aufnahmebewegung des Roboters hat vorzugsweise die der Zustellrichtung entgegengesetzte Richtung, wodurch eine gegenseitige Behinderung des Roboters und eines anderen Objekts verhindert werden kann. Die Aufnahmebewegung ist jedoch nicht auf eine solche Bewegung beschränkt. In manchen Fällen kann z. B. das gegriffene Objekt problemlos senkrecht angehoben werden.
  • Die 5 bis 7 zeigen bevorzugte Ausführungsformen der Roboterhand, die am vorderen Ende des Roboterarms des Roboters 16 angebracht ist. Eine Roboterhand 40 wie die von 5 hat einen vorderen Endteil 42 mit einer im Wesentlichen halbkugeligen oder kugeligen Form und ist so konfiguriert, dass sie das gewählte Objekt durch Magnetkraft anzieht, und einen Ausrichtungs-Einstellteil oder einen nachgiebigen Mechanismus 44, der dazu eingerichtet ist, die Ausrichtung des vorderen Endteils 42 relativ zum gewählten Objekt zu justieren. Die Form des vorderen Endteils 42 kann je nach Form des aufzunehmenden Objekts geändert werden. Vor allem dann, wenn das aufzunehmende Objekt eine Bremsscheibe oder dgl. ist, die ein Loch oder eine Vertiefung hat, ist die Halbkugelform, die zum Angreifen am Loch oder der Ver tiefung ausgeführt ist, geeignet. Der vordere Endteil 42 kann mit einem Elektromagneten ausrüstet sein, um ein metallisches Objekt anzuziehen.
  • Der Ausrichtungs-Einstellmechanismus 44 gemäß 5 ist ein Gelenkmechanismus, der den vorderen Endteil 42 mit dem Basisteil 46 verbindet, so dass die Ausrichtung des vorderen Endteils 42 relativ zum Basisteil 46 variiert werden kann. Der Gelenkmechanismus 44 ist z. B. ein Drehgelenk, durch das der vordere Endteil 42 entsprechend der Neigung des Objekts des zu greifenden Objekts geneigt werden kann, um das Objekt ordnungsgemäß aufzunehmen oder adsorptiv zu greifen, wenn der vordere Endteil das Objekt berührt. Der Gelenkmechanismus 44 ist vorzugsweise so konfiguriert, dass er das vordere Endteil 42 in der ursprünglichen Ausrichtung (z. B. lineare Ausrichtung relativ zum Basisteil) hält bzw. wieder in diese zurückführt, wenn keine externe Kraft auf das vordere Endteil 42 wirkt. Eine solche Konfiguration kann durch einen elastischen Mechanismus verwirklicht werden, der aus einem elastischen Material wie Kautschuk und dem Drehgelenk besteht. Durch Einstellen der Magnetkraft des Elektromagneten kann nur ein Objekt durch den Elektromagneten während der Aufnehmoperation angezogen werden, so dass das gleichzeitige Aufnehmen mehrerer Objekte vermieden wird. Außerdem kann die Magnetkraft verstärkt werden, während das Objekt transportiert oder vom Elektromagneten angezogen wird, um ein Herabfallen des Objekts zu verhindern. Wenn das Objekt entmagnetisiert werden muss, kann eine Magnethand, die eine Magnetkraft zum Entmagnetisieren an das Objekt anlegen kann, verwendet werden. Es erübrigt sich darauf hinzuweisen, dass die Entmagnetisierung in einem anderen Prozess ausgeführt werden kann.
  • Eine Roboterhand 50, wie in 6 dargestellt, hat einen Basisteil 52, einen dehnbaren nachgiebigen Mechanismus, wie einen flexiblen Balgmechanismus 54, der mit dem Basisteil 52 verbunden ist, und einen vorderen Endteil 56, der mit dem Balgmechanismus 54 verbunden und zum Ansaugen des gewählten Objekts eingerichtet ist. Der vordere Endteil 56 ist z. B. ein Saugnapf, der so konfiguriert ist, dass er sich dem gewählten Objekt durch eine seitens des Objekts ausgeübte Kraft anpasst, wenn der Napf mit dem Objekt in Kontakt gekommen ist. Der Saugnapf 56 kann eine Unterdruckkraft mittels eines Vakuumgeräts (nicht dargestellt) über den Balgmechanismus 54 erzeugen, um das Objekt 14 anzusaugen. Die Roboterhand kann mehrere in Reihe angeordnete Saugnäpfe aufweisen, wodurch die Stabilität des Ansaugens und der Ausrichtung des angesaugten Objekts verbessert werden kann. Die mit einem Saugnapf ausgeführte Roboterhand eignet sich zum adsorptiven Aufnehmen eines Objekts, das innerhalb eines bestimmten Bereichs eben ist. Außerdem kann anstelle eines herkömmlichen Saugnapfes durch die Wahl eines relativ flexiblen Saugele ments oder eines schwammartigen Elements, das sich der Form des Objekts anpasst, wenn es angesaugt wird, ein Objekt mit einer gekrümmten Oberfläche wie eine zylindrische Säule oder ein Kugelkörper ordnungsgemäß aufgenommen werden.
  • Eine Roboterhand 60, wie in 7 dargestellt, hat einen Basisteil 62, einen mit dem Basisteil 62 verbundenen dehnbaren Mechanismus 64 und einen Futtermechanismus 66, der am vorderen Ende des dehnbaren Mechanismus 64 angebracht ist. Der dehnbare Mechanismus 64 kann, z. B. Bälge oder eine oder mehrere Schraubenfedern haben, sofern der dehnbare Mechanismus über elastische Eigenschaften verfügt. Der Futtermechanismus 66 hat z. B. ein Klauenpaar 66a, 66b, das zur Bewegung voneinander weg und aufeinander zu konfiguriert ist, so dass das gewählte Objekt zwischen dem Klauenpaar gegriffen werden kann. Die mit dem Futtermechanismus ausgerüstete Roboterhand ist zum Greifen und Aufnehmen eines Objekts, das einen leicht zu greifenden Abschnitt, wie einen Vorsprung oder ein Loch, hat, geeignet. Der Futtermechanismus 66 ist so konfiguriert, dass er so ausgerichtet oder geneigt werden kann, dass er das gewählte Objekt ordnungsgemäß greift, wenn der Futtermechanismus das gewählte Objekt berührt. Selbst wenn nur eine Klaue des Klauenpaars das aufzunehmende Objekt berührt, kann sich deshalb der Futtermechanismus 66 entsprechend der Ausrichtung des Objekts durch den dehnbaren Mechanismus 64 neigen, so dass die Erfolgsrate der Aufnahmeoperation verbessert wird. Auch selbst dann, wenn die Position des gewählten Objekts höher ist als die geschätzte Position, wird bei der Roboterhand aufgrund des dehnbaren Mechanismus mit einer stoßabsorbierenden Funktion verhindert, dass eine übermäßige Kraft aufgebracht wird.
  • Die obige Kombination aus vorderem Endteil und nachgiebigem Mechanismus (z. B. die Kombination aus Elektromagnet und Drehgelenk) ist ein Beispiel und andere Kombinationen sind ebenfalls möglich. Ferner können die obigen Konfigurationen kombiniert werden, um eine kostengünstige und wirksame Aufnahmevorrichtung zu verwirklichen.
  • Gemäß dem Aufnahmegerät der vorliegenden Erfindung wird das aufzunehmende Objekt gewählt, indem das aufgenommene zweidimensionale Bild und dessen Prioritätsgrad herangezogen werden, die Positionsinformationen einschließlich der gegebenen Höhe des Objekts geschätzt werden und das Objekt gegriffen und aufgenommen wird, nachdem der Kontakt zwischen der Roboterhand und dem Objekt erkannt worden ist. Die Aufnahmeoperation aus einem zufällig angeordneten Stapel kann deshalb mit hoher Geschwindigkeit stabil und effektiv erfolgen. Ferner wird durch Ausrichten der Zustellbewegung der Roboterhand zum gewählten Objekt auf die Sichtlinie der Kamera der Wirkungsgrad der Aufnahmeoperation verbessert.
  • Gemäß der Erfindung wird als bevorzugtes Beispiel für den Prioritätsgrad ein Produktsummenwert bereitgestellt, der durch Berechnung einer Summierung von mindestens zwei Größen der Größeninformation, des Grades der Übereinstimmung und des Neigungsgrades jedes der Mehrzahl Objekte erhalten wird, nachdem die Größeninformation, der Grad der Übereinstimmung und der Neigungsgrad jeweils mit einem bestimmten Koeffizienten multipliziert worden sind. Wahlweise wird der Produktwert aus mindestens zwei der Informationen, der Größeninformation, dem Grad der Übereinstimmung und dem Neigungsgrad jedes der Mehrzahl Objekte verwendet.
  • Der vordere Endteil der Roboterhand kann so konfiguriert sein, dass die Ausrichtung derselben entsprechend der Ausrichtung des gewählten Objekts aufgrund der durch das gewählte Objekt aufgebrachten Kraft variiert wird, wodurch jedes Objekt aus dem zufällig angeordneten Stapel ordnungsgemäß aufgenommen werden kann.
  • Der vordere Endteil der Roboterhand mit dem halbkugeligen Elektromagneten eignet sich zum Anziehen und Aufnehmen eines Objekts mit einem Loch oder einer Vertiefung.
  • Der vordere Endteil der Roboterhand mit dem Saugnapf eignet sich zum adsorptiven Aufnehmen eines Objekts, das in einem bestimmen Bereich eben ist. Ferner kann durch die Wahl der Form des vorderen Endes der Saugnapf so eingerichtet werden, dass er sich der Form des Objektes anpasst, wenn er dieses ansaugt, selbst wenn das Objekt die Form eines Zylinders oder eines Kugelkörpers hat, so dass es ordnungsgemäß aufgenommen wird.
  • Der vordere Endteil der Roboterhand mit dem Futtermechanismus eignet sich zum Greifen und Aufnehmen eines Objekts mit einem leicht zu greifenden Abschnitt wie einem Loch oder einem Vorsprung.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2008-175508 [0001]
    • - JP 2004-188562 [0006, 0008]
    • - JP 2-256485 [0007, 0009]
  • Zitierte Nicht-Patentliteratur
    • - ”An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision” (Effiziente und genaue Kamera-Kalibriertechnik für eine Maschine mit 3D-Sichtvermögen) (CVPR, S. 364 bis 374, 1986 IEEE) von Roger Y. Tsai [0032]

Claims (7)

  1. Vorrichtung (10) zum Aufnehmen von Objekten, die aufweist: eine Kamera (18), die zur Aufnahme eines zweidimensionalen Bildes einschließlich eines Bildes einer Mehrzahl der gleichen zufällig angehäuften Art Objekte (14) eingerichtet ist; einen Roboter (16), der zum Aufnehmen der Objekte einzeln nacheinander aus der Mehrzahl Objekte (14) eingerichtet ist; einen Bildverarbeitungsteil (22), der die von der Kamera (18) aufgenommenen Bilder verarbeitet; und einen Handhabungs-Steuerteil (24), der den Roboter (16) steuert, dadurch gekennzeichnet, dass der Bildverarbeitungsteil (22) aufweist: einen Zieldetektionsteil (22a), der Informationen bezüglich der zweidimensionalen Position und der Größe jedes Objekts im Bild der Mehrzahl Objekte (14) erkennt; einen Datenspeicherteil (22f), der die Höheninformation bezüglich der Höhe der gegebenen Position eines Objekts an einer Referenzposition speichert, wobei die Höheninformation der Größeninformation des Objekts im aufgenommenen Bild an der Referenzposition zugeordnet ist, und wobei der Datenspeicherteil (22f) ferner Daten bezüglich eines Merkmalmodells des Objekts speichert; einen Zielauswahlteil (22b), der ein Objekt (14) als das aufzunehmende Ziel wählt, wobei das Objekt (14) den höchsten Prioritätsgrad hat, der berechnet wird, indem mindestens entweder die Größeninformation eines Bildes jedes erkannten Objekts, ein Grad der Übereinstimmung zwischen dem Bild des erkannten Objekts und dem Merkmalmodell und ein Neigungsgrad des Bildes des erkannten Objekts (14) relativ zum Merkmalmodell verwendet wird; einen Sichtlinienrichtung-Berechnungsteil (22c), der die Richtung der Sichtlinie (19) der Kamera (18) im dreidimensionalen Feld zwischen der Kamera (18) und dem gewählten Objekt (14) auf Basis der Informationen der zweidimensionalen Position des gewählten Objekts (14) berechnet; einen Zielposition-Schätzungsteil (22d), der die gegebene Höhe des gewählten Objekts (14) auf Basis der Größeninformation des gewählten Objekts (14) und der im Datenspeicherteil gespeicherten Informationen bezüglich der gegebenen Position und Größe des Objekts an der Referenzposition berechnet, wobei der Zielposition-Schätzungsteil ferner die dreidimensionale Position des gewählten Objekts (14) auf Basis der gegebenen Höhe des gewählten Objekts und der Richtung der Sichtlinie (19) berechnet; und einen Greifkorrektur-Berechnungsteil (22e), der einen Korrekturbetrag der Bewegung des Roboters (16) berechnet, wobei der Korrekturbetrag angepasst wird, um das gewählte Objekt (14) mittels des Roboters (16) zu greifen, und wobei der Handhabungs-Steuerteil (24) aufweist: einen Bewegungssteuerteil (24a), der die Bewegung des Roboters (16) steuert, um die Roboterhand (17) zur dreidimensionalen Position des gewählten Objekts (14) entlang der Richtung der Sichtlinie der Kamera (18) relativ zum gewählten Objekt (14) zu bewegen; einen Kontaktsensorteil (24b), der erkennt, dass die Roboterhand (17) mit dem gewählten Objekt (14) in Kontakt gekommen ist; einen Greifbefehlsteil (24c), der den Befehl für den Roboter (16) zum Anhalten seiner Bewegung und zum Greifen des gewählten Objekts (14) mit der Roboterhand (17) ausgibt, wenn der Kontaktsensorteil (24b) den Kontakt zwischen der Roboterhand (17) und dem gewählten Objekt (14) erkennt; und einen Aufnehmbefehlsteil (24d), der den Befehl für den Roboter (16) ausgibt, das mit der Roboterhand (17) gegriffene Objekt (14) herauszuziehen.
  2. Vorrichtung zum Aufnehmen von Objekten nach Anspruch 1, dadurch gekennzeichnet, dass der Prioritätsgrad ein Produktsummenwert ist, der durch Berechnung einer Summierung von mindestens zwei Größen der Größeninformation, des Grades der Übereinstimmung oder des Neigungsgrades jedes der Mehrzahl Objekte (14) erhalten wird, nachdem die Größeninformation, der Grad der Übereinstimmung und der Neigungsgrad jeweils mit einem bestimmten Koeffizienten multipliziert worden sind.
  3. Vorrichtung zum Aufnehmen von Objekten nach Anspruch 1, dadurch gekennzeichnet, dass der Prioritätsgrad ein Produktwert aus mindestens zwei Größen der Größeninformation, des Grades der Übereinstimmung oder des Neigungsgrades jedes der Mehrzahl Objekte (14) ist.
  4. Vorrichtung zum Aufnehmen von Objekten nach Anspruch 1, dadurch gekennzeichnet, dass die Roboterhand (17) einen Basisteil (46; 52; 62), einen vorderen Endteil (42; 56; 66), der zum Greifen des gewählten Objekts (14) konfiguriert ist, und einen elastischen Mechanismus (44; 54; 64) aufweist, der den vorderen Endteil (42; 56; 66) mit dem Basisteil (46; 52; 62) verbindet, so dass die Ausrichtung des vorderen Endteils (42; 56; 66) entsprechend der Ausrichtung des gewählten Objekts (14) variiert werden kann.
  5. Vorrichtung zum Aufnehmen von Objekten nach Anspruch 4, dadurch gekennzeichnet, dass der vordere Endteil einen im Wesentlichen halbkugelförmigen Elektromagneten (42) aufweist, der so ausgeführt ist, dass er an einem Loch oder einer Vertiefung im gewählten Objekt (14) angreifen kann.
  6. Vorrichtung zum Aufnehmen von Objekten nach Anspruch 4, dadurch gekennzeichnet, dass der vordere Endteil einen Saugnapf (56) aufweist, der eine Unterdruck-Adsorptionskraft erzeugt, durch die der Saugnapf das gewählte Objekt (14) adsorptiv greift.
  7. Vorrichtung zum Aufnehmen von Objekten nach Anspruch 4, dadurch gekennzeichnet, dass der vordere Endteil einen Futtermechanismus (66) aufweist, der zum Greifen des gewählten Objekts (14) konfiguriert ist.
DE102009030461.4A 2008-07-04 2009-06-25 Vorrichtung zum Aufnehmen von Objekten Active DE102009030461B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-175508 2008-07-04
JP2008175508A JP4565023B2 (ja) 2008-07-04 2008-07-04 物品取り出し装置

Publications (2)

Publication Number Publication Date
DE102009030461A1 true DE102009030461A1 (de) 2010-01-07
DE102009030461B4 DE102009030461B4 (de) 2018-11-29

Family

ID=41396932

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009030461.4A Active DE102009030461B4 (de) 2008-07-04 2009-06-25 Vorrichtung zum Aufnehmen von Objekten

Country Status (4)

Country Link
US (1) US8295975B2 (de)
JP (1) JP4565023B2 (de)
CN (1) CN101618544B (de)
DE (1) DE102009030461B4 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012104815A1 (de) * 2011-06-07 2012-12-13 Visiontools Bildanalyse Systeme Gmbh Greiferanordnung
DE102013018222B4 (de) 2012-10-31 2019-01-03 Fanuc Corporation Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102017010438B4 (de) 2016-11-14 2020-06-18 Fanuc Corporation Kommunikationssystem und mobiles Endgerät
DE102017102948B4 (de) 2016-03-03 2020-06-25 Fanuc Corporation System und Verfahren zum Aufnehmen loser Werkstücke
DE102021200712A1 (de) 2021-01-27 2022-07-28 Volkswagen Aktiengesellschaft Greifervorrichtung

Families Citing this family (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4565023B2 (ja) 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
JP5085749B2 (ja) * 2011-02-21 2012-11-28 ファナック株式会社 棒状部材の搬送装置
US9314921B2 (en) 2011-03-17 2016-04-19 Sarcos Lc Robotic lift device with human interface operation
TWI508878B (zh) * 2011-04-28 2015-11-21 Yao Wen Tsai Battery exchange system and its exchange method
US9789603B2 (en) 2011-04-29 2017-10-17 Sarcos Lc Teleoperated robotic system
US8892258B2 (en) * 2011-04-29 2014-11-18 Raytheon Company Variable strength magnetic end effector for lift systems
US8942846B2 (en) 2011-04-29 2015-01-27 Raytheon Company System and method for controlling a teleoperated robotic agile lift system
JP5316580B2 (ja) * 2011-05-17 2013-10-16 株式会社安川電機 ロボットシステム
JP2012240166A (ja) 2011-05-20 2012-12-10 Fanuc Ltd ビジョンセンサ及び吸引装置を備えた吸着搬送装置
CN103732363A (zh) 2011-08-19 2014-04-16 株式会社安川电机 机器人系统、机器人控制装置、机器人手部及机器人控制方法
JPWO2013027251A1 (ja) * 2011-08-19 2015-03-05 株式会社安川電機 ロボットシステム、ロボット制御装置、ロボットハンド及びロボットの制御方法
JP5447483B2 (ja) * 2011-10-04 2014-03-19 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP5266377B2 (ja) * 2011-12-19 2013-08-21 ファナック株式会社 物品の姿勢を修正する機能を備えた取出し装置
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5516612B2 (ja) * 2012-01-24 2014-06-11 株式会社安川電機 ロボットシステム
JP5383836B2 (ja) * 2012-02-03 2014-01-08 ファナック株式会社 検索ウィンドウを自動的に調整する機能を備えた画像処理装置
US9605952B2 (en) * 2012-03-08 2017-03-28 Quality Manufacturing Inc. Touch sensitive robotic gripper
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5868257B2 (ja) * 2012-05-10 2016-02-24 株式会社エイチアンドエフ ワークの位置検出方法及びそれを用いたワークの搬送方法
US9616580B2 (en) 2012-05-14 2017-04-11 Sarcos Lc End effector for a robotic arm
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP6273084B2 (ja) * 2012-09-20 2018-01-31 株式会社安川電機 ロボットシステムおよびワークの搬送方法
KR102056664B1 (ko) * 2012-10-04 2019-12-17 한국전자통신연구원 센서를 이용한 작업 방법 및 이를 수행하는 작업 시스템
JP2014126943A (ja) 2012-12-25 2014-07-07 Fanuc Ltd 画像中の対象物を検出するために画像処理を行う画像処理装置及び方法
US9272421B2 (en) * 2013-01-07 2016-03-01 Milos Misha Subotincic Visually controlled end effector
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
JP5835254B2 (ja) * 2013-03-15 2015-12-24 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP5786896B2 (ja) * 2013-06-07 2015-09-30 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP5788461B2 (ja) * 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5897532B2 (ja) * 2013-11-05 2016-03-30 ファナック株式会社 三次元空間に置かれた物品をロボットで取出す装置及び方法
JP6127925B2 (ja) * 2013-11-11 2017-05-17 株式会社安川電機 ロボットシミュレーション装置、ロボットシミュレーション方法、およびロボットシミュレーションプログラム
CN103707300A (zh) * 2013-12-20 2014-04-09 上海理工大学 机械手装置
US9598203B2 (en) * 2013-12-24 2017-03-21 Ookuma Electronic Co., Ltd. Injection container storage box device and injection container picking system including the device
US9259844B2 (en) 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2015202544A (ja) * 2014-04-15 2015-11-16 株式会社安川電機 ロボット制御システム、情報通信モジュール、ロボットコントローラ、コンピュータプログラム及びロボット制御方法
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
US10766133B2 (en) 2014-05-06 2020-09-08 Sarcos Lc Legged robotic device utilizing modifiable linkage mechanism
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
CN105313127A (zh) * 2014-06-02 2016-02-10 精工爱普生株式会社 机器人、机器人的控制方法以及机器人的控制装置
JP6486114B2 (ja) * 2015-01-16 2019-03-20 株式会社東芝 荷役装置
US10040194B1 (en) 2015-01-29 2018-08-07 Vecna Technologies, Inc. Order picking method and mechanism
JP6140204B2 (ja) * 2015-02-06 2017-05-31 ファナック株式会社 3次元センサを備えた搬送ロボットシステム
AU2016222767B2 (en) 2015-02-25 2020-09-03 Dematic Corp. Automated order fulfillment system and method
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP2017039189A (ja) * 2015-08-20 2017-02-23 株式会社東芝 配置検出装置およびピッキング装置
JPWO2017051446A1 (ja) * 2015-09-22 2018-07-05 株式会社Fuji 部品供給システム
CN105405139A (zh) * 2015-11-12 2016-03-16 深圳市傲视检测技术有限公司 基于单目ccd的小尺寸玻璃面板的送料快速定位方法及系统
CN113894826A (zh) * 2016-02-08 2022-01-07 伯克希尔格雷股份有限公司 用于提供使用运动规划的各种物体的处理的系统和方法
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10221015B2 (en) * 2016-06-27 2019-03-05 Amazon Technologies, Inc. Automated item singulation
US20180036889A1 (en) * 2016-08-08 2018-02-08 Dishcraft Robotics, Inc. Dish Manipulation Systems And Methods
JP2018055429A (ja) * 2016-09-29 2018-04-05 ファナック株式会社 物体認識装置および物体認識方法
CN106552772B (zh) * 2016-10-25 2019-01-22 北京京东尚科信息技术有限公司 视觉识别系统和使用所述视觉识别系统的分类分拣系统
US10765537B2 (en) 2016-11-11 2020-09-08 Sarcos Corp. Tunable actuator joint modules having energy recovering quasi-passive elastic actuators for use within a robotic system
US10919161B2 (en) 2016-11-11 2021-02-16 Sarcos Corp. Clutched joint modules for a robotic system
US10828767B2 (en) 2016-11-11 2020-11-10 Sarcos Corp. Tunable actuator joint modules having energy recovering quasi-passive elastic actuators with internal valve arrangements
US10821614B2 (en) 2016-11-11 2020-11-03 Sarcos Corp. Clutched joint modules having a quasi-passive elastic actuator for a robotic assembly
US10363635B2 (en) * 2016-12-21 2019-07-30 Amazon Technologies, Inc. Systems for removing items from a container
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
JP6470321B2 (ja) * 2017-01-11 2019-02-13 ファナック株式会社 物品搬送装置
WO2018131108A1 (ja) * 2017-01-12 2018-07-19 株式会社Fuji 作業機および採取位置選択方法
EP3592509B1 (de) * 2017-03-10 2022-08-03 ABB Schweiz AG Verfahren und vorrichtung zur identifizierung von objekten
JP6876476B2 (ja) * 2017-03-17 2021-05-26 株式会社東芝 保持機構、移載装置及びハンドリングロボットシステム
CN108618275B (zh) * 2017-03-20 2021-01-26 Ykk株式会社 拉头的搬送装置及其搬送方法
CN108620839B (zh) * 2017-03-20 2020-06-16 Ykk株式会社 拉头的搬送装置及其搬送方法
CN107009358B (zh) * 2017-04-13 2020-06-02 武汉库柏特科技有限公司 一种基于单相机的机器人无序抓取装置及方法
JP2018203480A (ja) * 2017-06-07 2018-12-27 株式会社東芝 仕分装置および仕分システム
US11694254B2 (en) * 2017-06-15 2023-07-04 Microsoft Technology Licensing, Llc Interactive physical product browsing experience
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
US11365068B2 (en) * 2017-09-05 2022-06-21 Abb Schweiz Ag Robotic systems and methods for operating a robot
JP2019063984A (ja) * 2017-10-02 2019-04-25 キヤノン株式会社 情報処理装置、方法及びロボットシステム
JP7062406B2 (ja) * 2017-10-30 2022-05-16 株式会社東芝 情報処理装置及びロボットアーム制御システム
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
JP6880457B2 (ja) 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
US10899011B2 (en) * 2018-11-14 2021-01-26 Fetch Robotics, Inc. Method and system for selecting a preferred robotic grasp of an object-of-interest using pairwise ranking
CN108126914B (zh) * 2017-11-24 2020-01-21 上海发那科机器人有限公司 一种基于深度学习的料框内散乱多物体机器人分拣方法
US10843330B2 (en) 2017-12-07 2020-11-24 Sarcos Corp. Resistance-based joint constraint for a master robotic system
US11331809B2 (en) 2017-12-18 2022-05-17 Sarcos Corp. Dynamically controlled robotic stiffening element
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
DE112018007729B4 (de) * 2018-06-14 2022-09-08 Yamaha Hatsudoki Kabushiki Kaisha Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem
JP7031540B2 (ja) * 2018-09-07 2022-03-08 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
CN109352652B (zh) * 2018-10-22 2020-11-20 广州微牌智能科技有限公司 机械臂校正方法、装置、计算机设备和存储介质
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
KR102650494B1 (ko) 2018-10-30 2024-03-22 무진 아이엔씨 자동화된 패키지 등록 시스템, 디바이스 및 방법
CN113015604B (zh) * 2018-12-11 2024-03-08 株式会社富士 机器人控制系统及机器人控制方法
US11351675B2 (en) 2018-12-31 2022-06-07 Sarcos Corp. Robotic end-effector having dynamic stiffening elements for conforming object interaction
US11241801B2 (en) 2018-12-31 2022-02-08 Sarcos Corp. Robotic end effector with dorsally supported actuation mechanism
US10906191B2 (en) 2018-12-31 2021-02-02 Sarcos Corp. Hybrid robotic end effector
US11312581B2 (en) * 2019-04-16 2022-04-26 Abb Schweiz Ag Object grasp system and method
JP6784361B1 (ja) * 2019-06-12 2020-11-11 株式会社アマダ ワーク検出装置及びワーク検出方法
KR102029058B1 (ko) * 2019-06-19 2019-10-07 권순홍 차량용 브레이크 디스크 자동공급장치
US20210001488A1 (en) * 2019-07-03 2021-01-07 Dishcraft Robotics, Inc. Silverware processing systems and methods
DE102019121889B3 (de) * 2019-08-14 2020-11-19 Robominds GmbH Automatisierungssystem und Verfahren zur Handhabung von Produkten
US11345029B2 (en) 2019-08-21 2022-05-31 Mujin, Inc. Robotic multi-gripper assemblies and methods for gripping and holding objects
CN112405570A (zh) 2019-08-21 2021-02-26 牧今科技 用于夹持和保持物体的机器人多夹持器组件和方法
CN110597094A (zh) * 2019-09-10 2019-12-20 宁波舜宇智能科技有限公司 加工控制方法、系统、可读存储介质和设备
WO2021053750A1 (ja) * 2019-09-18 2021-03-25 株式会社Fuji 作業ロボットおよび作業システム
JP7513381B2 (ja) * 2019-09-27 2024-07-09 ファナック株式会社 ワークを検出する検出システム
US11173610B2 (en) * 2019-11-13 2021-11-16 Vicarious Fpc, Inc. Method and system for robot control using visual feedback
NO20191511A1 (en) * 2019-12-20 2021-06-21 Autostore Tech As Picking system, storage system comprising a picking system and method of picking
CN113191174B (zh) * 2020-01-14 2024-04-09 北京京东乾石科技有限公司 物品定位方法和装置、机器人及计算机可读存储介质
EP4091777B1 (de) * 2020-01-16 2024-04-03 OMRON Corporation Steuerungsvorrichtung, steuerungsverfahren und steuerungsprogramm
JP2021146452A (ja) * 2020-03-19 2021-09-27 株式会社東芝 ハンドリング装置、制御装置、および制御プログラム
DE102020113278B4 (de) * 2020-05-15 2024-07-25 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zur Steuerung des Betriebs eines Industrieroboters, Industrieroboter und Anordnung zur Umsetzung von Objekten
SE544165C2 (en) 2020-06-24 2022-02-15 Zenrobotics Oy Waste Sorting Robot
WO2022030414A1 (ja) * 2020-08-05 2022-02-10 ファナック株式会社 ロボットの構成部材の干渉を検出するロボット装置
SE544103C2 (en) 2020-10-28 2021-12-21 Zenrobotics Oy Waste Sorting Robot with gripper that releases waste object at a throw position
US11833676B2 (en) 2020-12-07 2023-12-05 Sarcos Corp. Combining sensor output data to prevent unsafe operation of an exoskeleton
US11794345B2 (en) 2020-12-31 2023-10-24 Sarcos Corp. Unified robotic vehicle systems and methods of control
CN113610968B (zh) * 2021-08-17 2024-09-20 北京京东乾石科技有限公司 目标检测模型的更新方法及装置
CN114055472A (zh) * 2021-12-06 2022-02-18 珠海格力智能装备有限公司 机器人抓取控制方法、装置、存储介质和机器人
CN114407011B (zh) * 2022-01-05 2023-10-13 中科新松有限公司 异形工件抓取规划方法、规划装置及异形工件抓取方法
CN114523481A (zh) * 2022-02-28 2022-05-24 深圳市商汤科技有限公司 一种取子系统、取子机器人及取子方法
US11826907B1 (en) 2022-08-17 2023-11-28 Sarcos Corp. Robotic joint system with length adapter
US11717956B1 (en) 2022-08-29 2023-08-08 Sarcos Corp. Robotic joint system with integrated safety
US11897132B1 (en) 2022-11-17 2024-02-13 Sarcos Corp. Systems and methods for redundant network communication in a robot
US11924023B1 (en) 2022-11-17 2024-03-05 Sarcos Corp. Systems and methods for redundant network communication in a robot
CN117416742B (zh) * 2023-12-18 2024-03-12 四川新途流体控制技术有限公司 一种全自动气瓶充装运输系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02256485A (ja) 1989-03-29 1990-10-17 Toyoda Mach Works Ltd 視覚装置付ロボット
JP2004188562A (ja) 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
JP2008175508A (ja) 2007-01-22 2008-07-31 Denso Corp 複合型熱交換器

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066271B2 (ja) * 1984-09-20 1994-01-26 株式会社小松製作所 視覚センサ付ロボツトの制御方法
JPS63174890A (ja) * 1987-01-16 1988-07-19 トヨタ自動車株式会社 物体の認識方法
JPS6478103A (en) * 1987-09-19 1989-03-23 Nissan Motor Work recognizing method by image processing
JPH01183395A (ja) * 1988-01-09 1989-07-21 Toyoda Mach Works Ltd 視覚装置を備えたロボット
JP3064348B2 (ja) * 1990-08-02 2000-07-12 豊田工機株式会社 ロボット制御装置
JP2000061875A (ja) * 1998-08-25 2000-02-29 Matsushita Electric Works Ltd ロボットハンド
JP2002068472A (ja) * 2000-08-25 2002-03-08 Mitsui Eng & Shipbuild Co Ltd ビレット材供給装置および方法
JP3782679B2 (ja) * 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
JP3768174B2 (ja) 2002-07-24 2006-04-19 ファナック株式会社 ワーク取出し装置
US6892512B2 (en) * 2002-08-07 2005-05-17 Medco Health Solutions, Inc. Automated prescription filling system/method with automated labeling and packaging system/method automated order consolidation system/method
US7792609B2 (en) * 2002-09-26 2010-09-07 Trumpf Maschinen Austria Gmbh & Co. Kg. Gripping device for manipulating device and method for operation thereof
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP4174342B2 (ja) * 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
JP3842233B2 (ja) 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
JP4093191B2 (ja) 2004-02-26 2008-06-04 ブラザー工業株式会社 モータ制御装置およびプリンタ
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
US7336814B2 (en) 2004-07-14 2008-02-26 Braintech Canada, Inc. Method and apparatus for machine-vision
JP2006035397A (ja) * 2004-07-29 2006-02-09 Fanuc Ltd 搬送ロボットシステム
JP4087874B2 (ja) 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP4565023B2 (ja) 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP2010100421A (ja) * 2008-10-27 2010-05-06 Seiko Epson Corp ワーク検知システム、ピッキング装置及びピッキング方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02256485A (ja) 1989-03-29 1990-10-17 Toyoda Mach Works Ltd 視覚装置付ロボット
JP2004188562A (ja) 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
JP2008175508A (ja) 2007-01-22 2008-07-31 Denso Corp 複合型熱交換器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision" (Effiziente und genaue Kamera-Kalibriertechnik für eine Maschine mit 3D-Sichtvermögen) (CVPR, S. 364 bis 374, 1986 IEEE) von Roger Y. Tsai

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012104815A1 (de) * 2011-06-07 2012-12-13 Visiontools Bildanalyse Systeme Gmbh Greiferanordnung
DE102012104815B4 (de) * 2011-06-07 2015-07-09 Visiontools Bildanalyse Systeme Gmbh Greiferanordnung
DE102013018222B4 (de) 2012-10-31 2019-01-03 Fanuc Corporation Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102017102948B4 (de) 2016-03-03 2020-06-25 Fanuc Corporation System und Verfahren zum Aufnehmen loser Werkstücke
DE102017010438B4 (de) 2016-11-14 2020-06-18 Fanuc Corporation Kommunikationssystem und mobiles Endgerät
DE102021200712A1 (de) 2021-01-27 2022-07-28 Volkswagen Aktiengesellschaft Greifervorrichtung

Also Published As

Publication number Publication date
CN101618544A (zh) 2010-01-06
US20100004778A1 (en) 2010-01-07
JP4565023B2 (ja) 2010-10-20
CN101618544B (zh) 2011-08-31
JP2010012567A (ja) 2010-01-21
DE102009030461B4 (de) 2018-11-29
US8295975B2 (en) 2012-10-23

Similar Documents

Publication Publication Date Title
DE102009030461B4 (de) Vorrichtung zum Aufnehmen von Objekten
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102019003332B4 (de) Robotersystem und Steuerungsverfahren eines Robotersystems zur Entnahme von lose geladenen Werkstücken
DE102015115115B4 (de) Gegenstandsaufnahmevorrichtung zum Aufnehmen von zufällig gehäuften Gegenständen
DE102018108195B4 (de) Greifer und Robotersystem
DE102014005758B4 (de) Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
DE102014016072B4 (de) Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
DE102016000995A1 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102012012988A1 (de) Vorrichtung zur automatisierten Handhabung von Werkstücken
DE102012013030A1 (de) Vorrichtung zum automatischen Entnehmen von in einem Behälter angeordneten Werkstücken
EP3762188A2 (de) Robotersystem mit an warentypen angepassten bewegungsabläufen und betriebsverfahren hierfür
DE102016120128B4 (de) Zwischenablagevorrichtung mit Werkstückausrichtungsfunktion
DE102019003334A1 (de) Robotersystem und Steuerverfahren für ein Robotersystem zum Entnehmen von Werkstücken aus loser Schüttung
DE112007002538T5 (de) Verbesserte Kalibrierung eines Substrathandhabungsroboters
DE112008002467T5 (de) Verfahren für die Entnahme von Halbleiterchips von einem Wafertisch und Verfahren für die Montage von Halbleiterchips auf einem Substrat
DE102008042260B4 (de) Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102008042261B4 (de) Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102012003160A1 (de) Vorrichtung und Verfahren zu einer automatisierten Entnahme von Bauteilen aus einem Behälter und zu einer Vereinzelung der Bauteile
AT508329A1 (de) Verfahren und vorrichtung zur zuführung von vorzugsweise verschiedenartig geformten teilen
DE112009000506T5 (de) Roboter zum Greifen von Gegenständen
DE102016206980B4 (de) Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
DE102020122701A1 (de) Robotersystem mit greifmechanismus
DE102017100883A1 (de) Handhabungsvorrichtung und Verfahren zum Betreiben einer Handhabungsvorrichtung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC LTD., YAMANASHI, JP

Effective date: 20111116

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111116

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111116

R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC CORP., YAMANASHI, JP

Effective date: 20120202

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20120202

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20120202

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final