DE102019109880B4 - Robotersteuerung und System - Google Patents

Robotersteuerung und System Download PDF

Info

Publication number
DE102019109880B4
DE102019109880B4 DE102019109880.7A DE102019109880A DE102019109880B4 DE 102019109880 B4 DE102019109880 B4 DE 102019109880B4 DE 102019109880 A DE102019109880 A DE 102019109880A DE 102019109880 B4 DE102019109880 B4 DE 102019109880B4
Authority
DE
Germany
Prior art keywords
gripping
robot
article
learning
robot controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019109880.7A
Other languages
English (en)
Other versions
DE102019109880A1 (de
Inventor
Tatsuhiro YAMAZAKI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019011349A external-priority patent/JP6836606B2/ja
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102019109880A1 publication Critical patent/DE102019109880A1/de
Application granted granted Critical
Publication of DE102019109880B4 publication Critical patent/DE102019109880B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0023Gripper surfaces directly activated by a fluid
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/12Gripping heads and other end effectors having finger members with flexible finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

Robotersteuerung (20), welche eine Roboterhand (30) steuert, welche einen Artikel (A) mit einer Mehrzahl von Greifabschnitten (31) greift, wobei die Robotersteuerung (20) umfasst:eine Größeninformationserfassungseinheit, welche Größeninformation über den Artikel (A) auf der Grundlage eines Bildes erfasst, welches von einem optischen Sensor (50) zur Erfassung des Artikels (A) erhalten wird; undeine Greifanpassungseinheit, welche in Abhängigkeit von der Größeninformation einen Greifabstand, welcher ein Raum zwischen den Greifabschnitten (31) in einem Greifzustand ist, oder eine Greifkraft der Greifabschnitte (31) in dem Greifzustand ändert, wobei die Roboterhand (30) eine Handsteuereinrichtung (40) aufweist, welche den Greifabstand oder die Greifkraft in einer Mehrzahl von Stufen ändert,die Robotersteuerung (20) eine Speichereinheit (23) aufweist, welche eine Tabelle oder Formel speichert, welche Werte der Größeninformation mit der Mehrzahl von Stufen korreliert, unddie Greifanpassungseinheit die Tabelle oder die Formel verwendet, um ein Steuersignal zum Einstellen des Greifabstands oder der Greifkraft auf eine Stufe unter der Mehrzahl von Stufen in Abhängigkeit von der Größeninformation an die Handsteuereinrichtung (40) zu übertragen.

Description

  • Die vorliegende Erfindung betrifft eine Robotersteuerung und ein System.
  • Es sind Roboter bekannt geworden, welche Artikel mit einem metallischen Glanz, wie beispielsweise Schrauben, unter Verwendung von Roboterhänden, welche an den abgelegenen Enden der Roboter vorgesehen sind, aufnehmen (siehe zum Beispiel PTL 1). Roboterhände als solche sind herkömmlicherweise für die Aufgabe des Aufnehmens von Artikeln verwendet worden, welche nicht leicht verformt werden, wodurch die Arbeitseffizienz erhöht wird.
  • [PTL 1]
    Japanische nicht geprüfte Patentanmeldung, Veröffentlichung Nummer JP 2015-182 184 A
  • EP 3 284 563 A2 zeigt ein Greifsystem mit einer Formerfassungsvorrichtung, einer Gewichtsabschätzungsvorrichtung, einem Greifroboter und einer Kontrollvorrichtung.
  • US 9 914 213 B2 offenbart ein Verfahren und eine Vorrichtung für maschinelles Lernen für einen Robotergreifprozess.
  • In US 9 873 199 B2 sind Roboterarme zum Greifen von Gegenständen in einem Inventarsystem gezeigt.
  • US 2018 / 0 036 774 A1 zeigt ein Verfahren und eine Vorrichtung zum Separieren wenigstens eines Objekts von einer Vielzahl von Objekten.
  • In US 2017 / 0 369 244 A1 ist eine automatisierte Vereinzelung von Gegenständen auf einem Vereinzelungstisch gezeigt.
  • US 2016 / 0 361 821 A1 zeigt ein modulares Robotersystem.
  • In den letzten Jahren sind Studien über die Verwendung einer Roboterhand durchgeführt worden, um die Aufgabe des Aufnehmens von Artikeln, welche anfällig für Verformung sind, wie beispielsweise Lebensmittel, zu lösen. Zum Beispiel sind Versuche durchgeführt worden, um Lebensmittel, wie beispielsweise Windbeutel, Brot und Kuchen, mit einer Roboterhand aufzunehmen. Während Silikon- oder Gummiroboterfinger zum Greifen derartiger Artikel verwendet werden können, sind diese Finger noch üblicherweise viel härter als die Artikel wie Windbeutel, Brot und Kuchen. Wenn daher der Greifabstand (der Abstand zwischen den Roboterfingern) oder die Greifkraft im Greifzustand ungeeignet ist, werden die Artikel leicht verformt oder zerbrochen.
  • Eine mögliche Lösung ist es, einen geeigneten Greifabstand einzustellen. Artikel, wie beispielsweise Windbeutel, Brot und Kuchen, schwanken jedoch häufig in der Form. Selbst wenn der Greifabstand zu Beginn der Produktion des Tages geeignet eingestellt wird, ändert sich der Zustand der Artikel, wie beispielsweise ihre Härte oder Form häufig leicht im Laufe der Produktion, was den Greifabstand ungeeignet macht.
  • Für die Roboterfinger ist es ebenfalls erforderlich, die Artikel so sanft wie möglich zu fassen, wie es vorstehend erwähnt ist. Allerdings sind derartige Artikel trotz ihrer Weichheit häufig schwer. Dies engt den Bereich der Greifabstände oder Greifkräfte ein, welche es den Artikeln ermöglichen, geeignet gegriffen zu werden. Um diese Probleme zu lösen, kann ein taktiler Sensor an dem abgelegenen Ende von jedem Roboterfinger vorgesehen sein. Dies verkompliziert jedoch die Struktur und Steuerung der Roboterhand und führt auch zu erhöhten Kosten. Darüber hinaus gibt es Bedenken hinsichtlich eines Sensorausfalls, welcher durch einen Bestandteil des gefassten Artikels verursacht wird. Reduzierte Arbeitseffizienz aufgrund der komplizierten Steuerung reduziert auch oder eliminiert die Vorteile der Verwendung der Roboterhand.
  • In Anbetracht der oben beschriebenen Umstände, ist es erwünscht, um weiche Artikel mit einer Roboterhand geeignet aufzunehmen, eine Robotersteuerung und ein System vorzusehen, welche in der Lage sind, den Greifabstand oder die Greifkraft von Greifabschnitten gemäß dem Zustand der Artikel zu ändern.
  • Die Aufgabe wird gelöst durch eine Robotersteuerung, welche eine Roboterhand steuert, welche einen Artikel mit einer Vielzahl von Greifabschnitten greift. Die Robotersteuerung umfasst: eine Größeninformationserfassungseinheit, welche Größeninformation über den Artikel auf der Grundlage eines Bildes erfasst, welches von einem optischen Sensor zur Erfassung des Artikels erhalten wird; und eine Greifanpassungseinheit, welche in Abhängigkeit von der Größeninformation einen Greifabstand, welcher ein Raum zwischen den Greifabschnitten in einem Greifzustand ist, oder eine Greifkraft der Greifabschnitte in dem Greifzustand ändert, wobei die Roboterhand eine Handsteuereinrichtung aufweist, welche den Greifabstand oder die Greifkraft in einer Mehrzahl von Stufen ändert, die Robotersteuerung eine Speichereinheit aufweist, welche eine Tabelle oder Formel speichert, welche Werte der Größeninformation mit der Mehrzahl von Stufen korreliert, und die Greifanpassungseinheit die Tabelle oder die Formel verwendet, um ein Steuersignal zum Einstellen des Greifabstands oder der Greifkraft auf eine Stufe unter der Mehrzahl von Stufen in Abhängigkeit von der Größeninformation an die Handsteuereinrichtung zu übertragen.
  • Da der Greifabstand oder die Greifkraft in Abhängigkeit von der Größeninformation geändert wird, werden somit weiche Artikel, welche in der Form schwanken können, von den Greifabschnitten geeignet gegriffen.
  • Gemäß dem vorstehenden Aspekt ist die Größeninformation vorzugsweise ein Flächenwert eines Bereichs, welcher als der Artikel in dem Bild erfasst wird.
  • Falls die Artikel Lebensmittel sind, wie beispielsweise Windbeutel, Brot oder Kuchen, können die Artikel in der Form oder Härte schwanken. Wenn die Artikel vor allem auch mit einer hoch viskosen Flüssigkeit gefüllt sind, wie beispielsweise Sahne, kann Drücken auf einen Umfangsabschnitt eines Artikels oft dazu tendieren, andere Abschnitte des Umfangs dazu zu veranlassen, sich zu erweitern. In diesem Fall kann selbst mit einem eingedrückten Abschnitt des Umfangs auch gesagt werden, dass die Änderung der Fläche des Artikels in einer Draufsicht relativ gering ist.
  • Gemäß dem vorstehenden Aspekt wird der Greifabstand oder die Greifkraft gemäß dem Flächenwert des Bereichs geändert, welcher als der Artikel in dem Bild erfasst wird. Dies ist zum geeigneten Greifen der Artikel vorteilhaft, welche in der Form schwanken können.
  • Gemäß dem vorstehenden Aspekt sind die Größeninformation vorzugsweise Abmessungsdaten über den Bereich, welcher als der Artikel in dem Bild erfasst wird.
  • Die Abmessungsdaten können der maximale oder durchschnittliche Durchmesser des Artikels in dem Bild sein. In diesem Fall noch können die Artikel, welche in der Form schwanken, geeignet gegriffen werden.
  • Gemäß dem vorstehenden Aspekt sind die Abmessungsdaten vorzugsweise der Umfang des Bereichs, welcher als der Artikel in dem Bild erfasst wird.
  • Falls die Abmessungsdaten der maximale oder durchschnittliche Durchmesser des Artikels in dem Bild sind, kann die Abmessung mit der Richtung, in welcher der Durchmesser gemessen wird, schwanken. Die Verwendung der Umfangsdaten als die Abmessungsdaten kann die Wahrscheinlichkeit des Auftretens solcher Schwankungen reduzieren.
  • Die Roboterhand weist eine Handsteuereinrichtung auf, welche den Greifabstand oder die Greifkraft in mehreren Stufen ändert. Die Robotersteuerung umfasst eine Speichereinheit, welche eine Tabelle oder Formel speichert, welche Werte der Größeninformation mit den mehreren Stufen korreliert. Die Greifanpassungseinheit verwendet die Tabelle oder die Formel, um ein Steuersignal zum Einstellen des Greifabstands oder der Greifkraft auf eine Stufe unter den mehreren Stufen in Abhängigkeit von der Größeninformationen an die Handsteuereinrichtung zu übertragen.
  • Die Roboterhand, welche den Greifabstand oder die Greifkraft der Greifabschnitte in den mehreren Stufen ändert, ist leicht zu steuern sowie leicht in der Struktur zu vereinfachen. Daher werden derartige Roboterhände häufig bei Herstellern von aufzunehmenden Artikeln verwendet.
  • Die Tabelle oder die Formel, welche den Greifabstand oder die Greifkraft mit Werten der Größeninformation korreliert, wird verwendet, um ein Steuersignal zum Einstellen des Greifabstands oder der Greifkraft auf eine Stufe in Abhängigkeit von der Größeninformation an die Handsteuereinrichtung zu übertragen. Dies kann die Steuerung in der Robotersteuerung vereinfachen und die zum Einstellen des Greifabstands oder der Greifkraft erforderlichen Bemühungen reduzieren.
  • Gemäß dem vorstehenden Aspekt ändert der Prozessor, in dem Greifanpassungsprozess, vorzugsweise Werte der Größeninformation, welche jeweils den Stufen entsprechen, auf der Grundlage der Verteilung der Größeninformation über eine Mehrzahl des Artikels in dem Bild oder in einer Mehrzahl von Bildern.
  • Auf der Grundlage der Verteilung der Größeninformation über die Artikel in dem (den) Bild(ern), ändert die Greifanpassungseinheit somit die Werte der Größeninformation, welche jeder Stufe des Greifabstands oder der Greifkraft entsprechen. Dies ist vorteilhaft zum Reduzieren von Fehlern, um die Artikel aufzunehmen, oder Reduzieren von Bruch von, Verformung von und Kontaktspuren an den Artikeln.
  • Die Aufgabe wird zudem gelöst durch eine Robotersteuerung, welche eine Roboterhand steuert, welche einen Artikel mit einer Mehrzahl von Greifabschnitten greift. Die Robotersteuerung umfasst: eine Größeninformationserfassungseinheit, welche Größeninformation über den Artikel erfasst; eine Greifanpassungseinheit, welche in Abhängigkeit von der Größeninformation einen Greifabstand, welcher ein Raum zwischen den Greifabschnitten in einem Greifzustand ist, oder eine Greifkraft der Greifabschnitte in dem Greifzustand ändert; eine Empfangseinheit, welche wenigstens eine der folgenden Informationen empfängt: Information über einen beobachteten Greifzustand, welche durch Abbildung eines Greifzustands des Artikels, wenn der Roboter den Artikel greift, mittels einer Bildverarbeitungsvorrichtung zur Beobachtung erfasst wurde und Information über einen beobachteten Greifzustand, welche durch einen Beobachter erhalten wird, der den Greifzustand beobachtet, wenn der Roboter den Artikel greift; und eine Lerneinheit, welche Lernen durchführt, um den Greifzustand auf der Basis der Größeninformation und Information über den mittels der Empfangseinheit empfangenden beobachteten Greifzustand zu verbessern.
  • Die Aufgabe wird außerdem gelöst durch ein Verwaltungssystem, umfassend: eine Robotersteuerung, welche eine Roboterhand zum Greifen eines Artikels steuert; und ein Hauptcomputersystem, welches in der Lage ist, mit der Robotersteuerung zu kommunizieren. Die Robotersteuerung umfasst: eine Empfangseinheit, welche wenigstens eine der folgenden Informationen empfängt: Information über einen beobachteten Greifzustand, welche durch Abbildung eines Greifzustands des Artikels, wenn der Roboter den Artikel greift, mittels einer Bildverarbeitungsvorrichtung zur Beobachtung erfasst wurde und Information über einen beobachteten Greifzustand, welche durch einen Beobachter erhalten wird, der den Greifzustand beobachtet, wenn der Roboter den Artikel greift; und eine Lerneinheit, welche auf der Grundlage von Größeninformation über den Artikel und Information über einen Greifzustand, in welchem die Roboterhand den Artikel greift, Lernen durchführt, um den Greifzustand zu verbessern; und eine Ausgabeeinheit, welche ein Ergebnis des Lernens an das Hauptcomputersystem ausgibt. Das Hauptcomputersystem sammelt das von der Robotersteuerung empfangene Ergebnis des Lernens.
  • Gemäß den vorstehenden Aspekten kann der Greifabstand oder die Greifkraft der Vielzahl von Greifabschnitten (wie beispielsweise Roboterfinger) gemäß dem Zustand der Artikel soweit erforderlich geändert werden, um weiche Artikel mit einer Roboterhand geeignet zu greifen.
    • {1} 1 ist ein allgemeines Konfigurationsdiagramm eines Robotersystems bei einer Ausführungsform.
    • {2} 2 ist eine Vorderansicht einer bei der Ausführungsform in dem Robotersystem verwendeten Roboterhand.
    • {3} 3 ist ein Diagramm zum Beschreiben des Betriebs der Roboterhand bei der Ausführungsform.
    • {4} 4 ist ein Blockdiagramm einer Robotersteuerung bei der Ausführungsform.
    • {5} 5 ist ein Flussdiagramm, welches den Betrieb einer Steuereinheit der Robotersteuerung bei der Ausführungsform darstellt.
    • {6} 6 ist ein Flussdiagramm, welches ein Verfahren in der Steuereinheit der Robotersteuerung bei der Ausführungsform darstellt.
    • {7} 7 stellt eine in einer Speichereinheit der Robotersteuerung gespeicherte beispielhafte Tabelle bei der Ausführungsform dar.
    • {8} 8 stellt eine in einer Speichereinheit der Robotersteuerung gespeicherte beispielhafte Tabelle bei der Ausführungsform dar.
    • {9} 9 stellt eine in einer Speichereinheit der Robotersteuerung gespeicherte beispielhafte Tabelle bei der Ausführungsform dar.
    • {10} 10 ist ein Blockdiagramm eines Verwaltungssystems, welches Robotersteuerungen bei der Ausführungsform umfasst.
    • {11} 11 ist ein Blockdiagramm eines Managementsystems, welches Robotersteuerungen bei der Ausführungsform umfasst.
    • {12} 12 ist ein Blockdiagramm eines Systems, welches Robotersteuerungen bei der Ausführungsform umfasst.
    • {13} 13 ist ein Blockdiagramm eines Systems, welches Robotersteuerungen bei der Ausführungsform umfasst.
    • {14} 10 ist ein Blockdiagramm eines Systems, welches Robotersteuerungen bei der Ausführungsform umfasst.
  • {Beschreibung von Ausführungsformen}
  • Eine Robotersteuerung 20 und ein Robotersystem gemäß einer Ausführungsform werden nachfolgend mit Bezug auf die Zeichnungen beschrieben.
  • Bei dem Robotersystem bei dieser Ausführungsform, wie es in 1 gezeigt ist, werden Artikel A, welche von einer Fördereinrichtung 2, wie beispielsweise einem Förderband, transportiert werden, von einer an einem Roboter 10 befestigten Roboterhand 30 aus der Fördereinrichtung 2 herausgegriffen. Bei dieser Ausführungsform sind die Artikel A weiche Gegenstände, welche in der Form schwanken können, wie beispielsweise Windbeutel, Brot oder Kuchen.
  • Bei dieser Ausführungsform ist der Roboter 10 ein Parallel-Gelenk-Roboter und umfasst einen Hauptkörper 11, eine bewegliche Platte 12, welche unter dem Hauptkörper 11 angeordnet ist, drei Gelenkeinheiten 13, welche den Hauptkörper 11 und die bewegliche Platte 12 verbinden, und eine Handgelenkeinheit 14, welche auf der beweglichen Platte 12 montiert ist. Der Roboter 10 kann auch ein Vertikal-Gelenk-Roboter oder ein Horizontal-Gelenk-Roboter (SCARA-Roboter) sein.
  • Wie es in 1 gezeigt ist, umfasst der Hauptkörper 11 ein sich ungefähr horizontal erstreckendes Basiselement 11a und drei auf der unteren Fläche des Basiselements 11a befestigte Antriebseinheiten 11b. Jede Antriebseinheit 11b nimmt einen Servomotor 15 (4) mit einer Reduzierung auf, und ein Ende einer Antriebsschwinge 13a von jeder Gelenkeinheit 13 ist an einer Ausgangswelle der entsprechenden Antriebseinheit 11b befestigt. Eine der Gelenkeinheiten 13 weist einen daran befestigten Servomotor 16 auf (1 und 4), welcher einen Handgelenkflansch 14a der Handgelenkeinheit 14 um eine vertikale Achse dreht.
  • Wie es in 1 gezeigt ist, umfasst jede Gelenkeinheit 13 die Antriebsschwinge 13a und eine Abtriebsschwinge 13b, und das andere Ende der Antriebsschwinge 13a ist an ein Ende der Abtriebsschwinge 13b gekoppelt. Das andere Ende der Antriebsschwinge 13a und das eine Ende der Abtriebsschwinge 13b sind durch ein sphärisches Lager gekoppelt. Das andere Ende von jeder Abtriebsschwinge 13b ist durch ein sphärisches Lager an die bewegliche Platte 12 gekoppelt.
  • Das Basiselement 11a des Hauptkörpers 11 wird zum Beispiel von einem (nicht dargestellten) Rahmen gehalten, so dass der Roboter 10 über der Fördereinrichtung 2 angeordnet ist.
  • Die Roboterhand 30 wird von dem Handgelenkflansch 14a gehalten. Somit dreht sich die Roboterhand 30 um die vorgenannte vertikale Achse zusammen mit dem Handgelenkflansch 14a. Die Handgelenkeinheit 14 kann Teil der Roboterhand 30 sein.
  • Wie in den 1, 2 usw. gezeigt ist, weist die Roboterhand 30 mehrere Greifabschnitte 31 auf, welche jeweils aus einem Material mit gummiartiger Elastizität gebildet sind. Da das Material eine gummiartige Elastizität aufweist, können Gummi oder Silikon verwendet werden. Bei dieser Ausführungsform ist jeder Greifabschnitt 31 ein Roboterfinger, welcher einen inneren Raum 31a aufweist, und der Greifabschnitt 31 wird gemäß dem Druck der dem inneren Raum 31a zugeführten Luft gekrümmt (3). Als Roboterhand 30 verfügbare Beispiele sind M4FC und M5FC, welche von Soft Robotics, Inc. hergestellt werden.
  • Wie es in 1 gezeigt ist, sind die Greifabschnitte 31 der Roboterhand 30 über ein Luftversorgungsrohr 32 mit einer Handsteuereinrichtung 40 verbunden, welche mit einer (nicht gezeigten) Luftversorgungsquelle verbunden ist. Die Handsteuereinrichtung 40 weist ein Druckeinstellventil auf, mit welchem der Druck der an die Greifabschnitte 31 der Roboterhand 30 zugeführten Luft in mehreren Stufen eingestellt wird. Bei dieser Ausführungsform kann die Handsteuereinrichtung 40 den Druck der den Greifabschnitten 31 zugeführten Luft in fünf Stufen von Stufe 1 bis Stufe 5 als ein Beispiel eingestellt werden. Die Anzahl der Stufen des Luftdrucks ist nicht auf fünf beschränkt.
  • Wenn die Handsteuereinrichtung 40 den Greifabschnitten 31 Luft zuführt, gelangen die abgelegenen Enden der Greifabschnitte 31 nah zueinander, wie es in 3 gezeigt ist, um die Greifabschnitte 31 in den Greifzustand zum Greifen des Artikels A zu bringen. Wenn die Handsteuereinrichtung 40 den Luftdruck in den inneren Räumen 31a der Greifabschnitte 31 auf Atmosphärendruck oder negativen Druck reduziert, werden die Greifabschnitte 31 in den nicht greifenden Zustand zum Lösen der Artikel A gebracht. Wenn, wie in 3, ein Luftdruck größer als ein geeigneter Druck auf die Greifabschnitte 31 aufgebracht wird, führt dies zu einer unerwünschten Verformung des Artikels A.
  • Mit einem von der Handsteuereinrichtung 40 den Greifabschnitten 31 zugeführten Luftdruck der Stufe 5 gelangen die abgelegenen Enden der Greifabschnitte 31 näher zueinander und die Greifabschnitte 31 greifen den Artikel A mit einer größeren Greifkraft als mit einem Luftdruck der Stufe 1. Luftdrücke der Stufen 2 bis 4 verändern den Abstand zwischen den abgelegenen Enden der Greifabschnitte 31 schrittweise zwischen den Stufen 1 bis 5. Das heißt, die Luftdrücke der Stufen 1 bis 5 ändern den Greifabstand, welcher den Raum zwischen den abgelegenen Enden der Greifabschnitte 31 darstellt, in mehreren Stufen und ändern auch die Greifkraft der Greifabschnitte 31 in mehreren Stufen.
  • Ein optischer Sensor 50 ist oberhalb der Fördereinrichtung 2 vorgesehen. Der optische Sensor 50 kann ein beliebiger Sensor sein, welcher in der Lage ist, Bilder der Artikel A auf der Fördereinrichtung 2 zu erzielen. Eine 2D-Kamera, eine 3D-Kamera oder ein 3D-Sensor können als der optische Sensor 50 verwendet werden. Von dem optischen Sensor 50 aufgenommene Bilder werden sequentiell an die Robotersteuerung 20 übertragen.
  • Wie es in 4 gezeigt ist, umfasst die Robotersteuerung 20: eine Steuereinheit 21, welche einen Prozessor umfasst; eine Anzeigeeinrichtung 22; eine Speichereinheit 23, welche einen nichtflüchtigen Speicher, ROM und RAM umfasst; eine Eingabeeinrichtung 24, welche eine Tastatur, ein Touchpanel oder ein Bedienfeld sein kann; eine Übertragungs-/Empfangseinheit 25 zum Übertragen und Empfangen von Signalen; Servosteuerungen 26, welche mit den jeweiligen Servomotoren 15 verbunden sind; und eine mit dem Servomotor 16 verbundene Servosteuerung 27. Die Eingabeeinrichtung 24 und die Übertragungs-/Empfangseinheit 25 fungieren als Eingabeeinheiten.
  • Die Speichereinheit 23 speichert ein Systemprogramm 23a, welches für Basisfunktionen der Robotersteuerung 20 verantwortlich ist. Die Speichereinheit 23 speichert auch ein Aufnahmeprogramm 23b, ein Größeninformation-Erfassungsprogramm (ein Größeninformationserfassungsmittel) 23c und ein Greifanpassungsprogramm (ein Greifanpassungsmittel) 23d. Auf der Grundlage des Aufnahmeprogramms 23b, des Größeninformation-Erfassungsprogramms 23c und des Greifanpassungsprogramms 23d steuert die Steuereinheit 21 jeden der Servomotoren 15 und 16 und überträgt an die Handsteuereinrichtung 40 Steuersignale zum Anpassen des Greifens durch die Roboterhand 30.
  • Verarbeitung in der Steuereinheit 21, wenn der Roboter 10 die Aufgabe des Aufnehmens der Artikel A auf der Fördereinrichtung 2 mit der Roboterhand 30 durchführt, wird nachstehend mit Bezug auf die Flussdiagramme in den 5 und 6 beschrieben werden. Nachstehend beschriebene Steuerungen werden durchgeführt, während die Gegenstände A von der Fördereinrichtung 2 befördert werden.
  • Nach Empfangen eines Startsignals von der Eingabeeinrichtung 24 oder der Übertragungs-/Empfangseinheit 25 (Schritt S1-1), führt die Steuereinheit 21 einen Aufnahmevorgang zum Aufnehmen eines in einem Bild erfassten Artikels A durch, welches von dem optischen Sensor 50 übertragen wurde, wobei bekannte Bildverarbeitung an dem Bild ausgeführt wird (Schritt S1-2) .
  • Ein Beispiel für den Aufnahmevorgang in Schritt S1-2 ist in 6 beschrieben. In dem Beispiel von 6 beginnt die Steuereinheit 21 auf der Grundlage des Aufnahmeprogramms 23b zunächst damit, die Position des Artikels A in dem Bild zu erfassen, welches durch die bekannte Bildverarbeitung verarbeitet wurde (Schritt S2-1). Auch auf der Grundlage des Aufnahmeprogramms 23b berechnet die Steuereinheit 21 die Bewegungsgeschwindigkeit der Fördereinrichtung 2 unter Verwendung der Positionen des gleichen Artikels A in mehreren Bildern und beginnt die Verfolgung der Position des Artikels A unter Verwendung der berechneten Bewegungsgeschwindigkeit (Schritt S2-2).
  • Dann erfasst die Steuereinheit 21 auf der Grundlage des Größeninformation-Erfassungsprogramms 23c Flächeninformation (Größeninformation) über den positionsverfolgten Artikel A unter Verwendung des Bildes, welches durch die Bildverarbeitung verarbeitet wurde (Schritt S2-3). Wenn mehrere Artikel A verfolgt werden, erfasst die Steuereinheit 21 Flächeninformation über jeden der Artikel A. Bei einem Beispiel ist die Bildverarbeitung eine Binärisierungsverarbeitung und ist die Flächeninformation über den Artikel A der Flächenwert (Größeninformation) eines durch die Binärisierungsverarbeitung extrahierten Bereichs.
  • Dann bestimmt die Steuereinheit 21 auf der Grundlage des Greifanpassungsprogramms 23d, auf welcher der Stufen 1 bis 5 der Luftdruck den Greifabschnitten 31 zugeführt werden soll (Schritt S2-4).
  • In Schritt S2-4 verwendet die Steuereinheit 21 zum Beispiel eine Tabelle 23e, wie es in 7 dargestellt ist, welche in der Speichereinheit 23 gespeichert ist, um die Luftdruckstufe entsprechend dem Flächenwert des Artikels A zu bestimmen. Die Tabelle 23e definiert mehrere Flächenbereiche, welche den jeweiligen Luftdrücken der Stufen 1 bis 5 entsprechen. Die Steuereinheit 21 verwendet die in der Speichereinheit 23 gespeicherte Tabelle 23e, um die Luftdruckstufe entsprechend dem Flächenwert von jedem Artikel A, welcher verfolgt wird, zu bestimmen. Es ist zu beachten, dass 25-27 in der Tabelle 23e 25 oder darüber und unter 27 bedeutet.
  • Hier sind die Artikel A, wie beispielsweise Windbeutel, weicher als die Greifabschnitte 31 der Roboterhand 30. Die Greifabschnitte 31 sind aus einem flexiblen Material hergestellt, sind aber viel härter als die Artikel A. Daher ist der in Schritt S2-4 bestimmte Luftdruck wünschenswerterweise ein derartiger Luftdruck, welcher die Greifabschnitte 31 daran hindert, den Artikel A zu brechen, zu verformen oder Kontaktspuren darauf zu hinterlassen. Das heißt, Luftdrücke, welche wie in 3 die Artikel A deutlich verformen, sind ungeeignet. Gleichzeitig sind die Artikel A, wie beispielsweise Windbeutel, schwer im Vergleich zu ihrer Weichheit. Daher ist zum Anheben der Artikel A mit den Greifabschnitten 31, ohne die Artikel A zu zerquetschen, jeder Flächenbereich in der Tabelle 23e vorzugsweise eng.
  • Dann überträgt die Steuereinheit 21 auf der Grundlage des Aufnahmeprogramms 23b an jeden Servoregler 26 und 27 Steuersignale zum Aufnehmen des Artikels A, welcher verfolgt wird (Schritt S2-5). Die Steuereinheit 21 überträgt auch auf der Grundlage des Greifanpassungsprogramms 23d an die Handsteuereinrichtung 40 ein Steuersignal zum Zuführen von Luftdruck der für den Artikel A bestimmten Stufe zu den Greifabschnitten 31 (Schritt S2-6). Somit wird der Artikel A aus der Fördereinrichtung 2 aufgenommen.
  • Auf der Grundlage des Aufnahmeprogramms 23b überträgt die Steuereinheit 21 an jeden der Servoregler 26 und 27 Steuersignale zum Platzieren des gegriffenen Artikels A auf einem Förderer, auf welchem der Artikel zu überführen ist (Schritt S2-7). Die Steuereinheit 21 wiederholt die Schritte S2-3 bis S2-7, bis ein Beendigungssignal von der Eingabeeinrichtung 24 oder der Übertragungs-/Empfangseinheit 25 empfangen wird (Schritt S2-8) .
  • Anstelle der Tabelle 23e kann die Speichereinheit 23 eine Formel zum Bestimmen der Luftdruckstufe aus dem Flächenwert des Artikels A speichern. In diesem Fall verwendet die Steuereinheit 21 in Schritt S2-4 die in der Speichereinheit 23 gespeicherte Formel, um die Luftdruckstufe unter den Stufen 1 bis 5 entsprechend dem Flächenwert von jedem Artikel A, welcher verfolgt wird, zu bestimmen.
  • Andere bekannte Mittel oder Verfahren können auch verwendet werden, um die Luftdruckstufe unter den Stufen 1 bis 5 entsprechend dem Flächenwert von jedem Gegenstand A, welcher verfolgt wird, zu bestimmen.
  • Somit wird in dieser Ausführungsform als die Größeninformation über den Artikel A der Flächenwert des Artikels A auf der Grundlage des durch den optischen Sensor 50 erhaltenen Bildes zum Erfassen des Artikels A erfasst. Gemäß dem Flächenwert ändert die Steuereinheit 21 den Greifabstand, welcher den Raum zwischen den Greifabschnitten 31 ist, in dem Greifzustand oder die Greifkraft der Greifabschnitte 31 in dem Greifzustand.
  • Da die Steuereinheit 21 den Greifabstand oder die Greifkraft in Abhängigkeit von der Größeninformation auf diese Weise ändert, werden die weichen Artikel A, welche in der Form schwanken können, von den Greifabschnitten 31 geeignet gegriffen.
  • Die Artikel A, welche Lebensmittel sind, wie beispielsweise Windbeutel, Brot oder Kuchen, können hier in der Form oder Härte schwanken. Wenn insbesondere die Artikel A mit einer hoch viskosen Flüssigkeit gefüllt sind, wie beispielsweise Sahne, kann Drücken auf einen Umfangsabschnitt eines Artikels A auch oft dazu tendieren, andere Abschnitte des Umfangs dazu zu veranlassen, sich zu erweitern. In diesem Fall kann selbst mit einem eingedrückten Abschnitt des Umfangs gesagt werden, dass die Änderung der Fläche des Artikels A in einer Draufsicht relativ gering ist.
  • Bei dieser Ausführungsform ändert die Steuereinheit 21 den Greifabstand oder die Greifkraft gemäß dem Flächenwert des Bereichs, welcher als der Artikel A in dem Bild erfasst wird. Dies ist vorteilhaft zum geeigneten Greifen der Artikel A, welche in der Form variieren können.
  • Alternativ kann die Steuereinheit 21 den Greifabstand oder die Greifkraft gemäß den Abmessungsdaten über den Bereich ändern, welcher als der Artikel A in dem Bild erfasst wird. Die Abmessungsdaten können der maximale oder durchschnittliche Durchmesser des Artikels A in den Bildern sein. In diesem Fall noch können die Artikel A, welche in der Form schwanken, geeignet gegriffen werden. Jedoch kann die Abmessung mit der Richtung, in welcher der Durchmesser gemessen wird, schwanken. Im Gegensatz dazu kann die Verwendung des Flächenwerts die Wahrscheinlichkeit des Auftretens solcher Schwankungen reduzieren. Die Verwendung von Umfangsdaten als die Abmessungsdaten kann die Wahrscheinlichkeit des Auftretens solcher Schwankungen ebenfalls reduzieren.
  • Bei dieser Ausführungsform weist die Roboterhand 30 eine Handsteuereinrichtung 40 auf, welche den Greifabstand oder die Greifkraft in mehreren Stufen ändert. Die Vorrichtung umfasst die Speichereinheit 23, welche die Tabelle 23e oder Formel speichert, welche Flächenwerte (die Größeninformation) mit Stufen 1 bis 5 korrelieren. Die Steuereinheit 21 verwendet die Tabelle 23e oder die Formel, um ein Steuersignal zum Einstellen des Greifabstands oder der Greifkraft auf eine Stufe unter den Stufen 1 bis 5 gemäß dem Flächenwert des Artikels A, welcher verfolgt wird, an die Handsteuereinrichtung 40 zu übertragen.
  • Die Roboterhand 30, welche den Greifabstand oder die Greifkraft der Greifabschnitte 31 in den mehreren Stufen ändert, ist leicht zu steuern sowie leicht in der Struktur zu vereinfachen. Daher werden Roboterhände, wie die Roboterhand 30, häufig bei Herstellern der aufzunehmenden Artikel A verwendet.
  • Bei dieser Ausführungsform wird die Tabelle 23e oder die Formel, welche den Greifabstand oder die Greifkraft mit Werten der Größeninformation korrelieren, verwendet, um ein Steuersignal zum Einstellen des Greifabstands oder der Greifkraft auf eine Stufe gemäß den Flächendaten an die Handsteuereinrichtung 40 zu übertragen. Dies kann die Steuerung in der Robotersteuerung 20 vereinfachen und die zum Einstellen des Greifabstands oder der Greifkraft erforderlichen Bemühungen reduzieren.
  • Wie vorstehend beschrieben wurde, weisen die Artikel A, zum Beispiel Windbeutel, Brot oder Kuchen, unkonstante Formen oder Härte auf, welche von Tag zu Tag schwanken können. Daher werden der Greifabstand oder die Greifkraft vorzugsweise jeden Tag angepasst.
  • Zu diesem Zweck können mehrerer Tabellen in der Speichereinheit 23 abgespeichert werden. Wie es zum Beispiel in 8 gezeigt ist, kann eine Tabelle 23f ferner abgespeichert sein, bei welcher sich der Bereich von Flächenwerten, welche jeweils den Stufen 1 bis 5 entsprechen, von demjenigen der Tabelle 23e in 7 unterscheidet. Die Tabelle 23f in 8 wird für die Artikel A verwendet, welche zum Beispiel härter als gewöhnlich sind.
  • An einem Tag, an dem die Artikel A eine enge Schwankung in ihrer Form aufweisen, kann eine in der Speichereinheit 23 gespeicherte Tabelle 23g in 9 verwendet werden, in welcher die Haltedrücke der mehreren Stufen durch das Druckanpassungsventil der Handsteuervorrichtung 40 einander näher gebracht werden. Diese Anpassung wird durchgeführt, wenn die Artikel A eine enge Schwankung aufweisen.
  • Anstelle der mehreren Tabellen 23e, 23f und 23g kann die Speichereinheit 23 mehrere Formeln speichern, welche jeweils einen unterschiedlichen Bereich von Flächenwerten aufweisen, welche jeder der Stufen 1 bis 5 entsprechen.
  • Ferner kann die Steuereinheit 21 eine der Tabellen 23e und 23f auf der Grundlage der Verteilung der Flächenwerte von mehreren, von einem oder mehreren Bildern bestimmten Artikeln A auswählen und verwenden. Ähnlich kann die Steuereinheit 21 eine der mehreren in der Speichereinheit 23 gespeicherten Formeln auswählen und verwenden.
  • Somit ändert die Steuereinheit 21 die den Stufen 1 bis 5 entsprechenden Flächenwerte auf der Grundlage der Verteilung der Flächenwerte der Artikel A in dem (den) Bild(ern). Dies ist vorteilhaft zum Reduzieren von Fehlern, um Artikel A aufzunehmen, oder Reduzieren von Bruch von, Verformung von und Kontaktspuren an den Artikeln A.
  • Eine Bildverarbeitungseinrichtung zur Beobachtung kann ferner vorgesehen sein zum Abbilden des Arbeitsbereichs des Roboters 10 auf der Fördereinrichtung 2 oder zum Abbilden eines Bereichs stromabwärts des Arbeitsbereichs. In diesem Fall erfasst die Bildverarbeitungseinrichtung Artikel A, welche der Roboter 10 verfehlt, aufzunehmen. Falls die Anzahl von nicht aufgenommenen Artikeln A über einem Schwellenwert liegt, ändert die Steuereinheit 21 die Bereiche von Flächenwerten, welche den jeweiligen Stufen 1 bis 5 des Greifabstands oder der Greifkraft entsprechenden. Die Steuereinheit 21 ändert zum Beispiel die in Schritt S2-4 verwendete Bezugnahme auf die Tabelle 23f zur Tabelle 23e. Mit dieser Konfiguration wird die für die Einstellung erforderliche Arbeitslast verringert, woraus sich eine erhöhte Produktionseffizienz für die Artikel A ergibt.
  • Selbst wenn die Artikel A Gegenstände mit einer Längsachse sind, wie beispielsweise Eclairs, kann der Greifabstand oder die Greifkraft gemäß dem Flächenwert, wie vorstehend beschrieben, eingestellt werden und können die gleichen wie vorstehend beschriebenen Wirkungen erhalten werden. Für die Artikel A mit einer Längsachse erfasst die Steuereinheit 21 die Position und die Ausrichtung (die Richtung der Längsachse) von jedem Artikel A in Schritt S2-1. Die Steuereinheit 21 kann ferner den Schwerpunkt des Artikels A in Schritt S2-1 erfassen.
  • Die Greifabschnitte 31 der Roboterhand 30 können bekannte Roboterfinger aus Metall oder Hartkunststoff sein. In diesem Fall ändert die Steuereinheit 21 den Greifabstand, welcher der Raum zwischen den abgelegenen Enden der Roboterfinger ist, oder die Greifkraft der Roboterfinger gemäß dem Flächenwert des Artikels A, welcher die Größeninformation über der Artikel A ist. Die gleichen betrieblichen Wirkungen, wie vorstehend beschrieben, können auch in diesem Fall erhalten werden.
  • Die Roboterhand 30 kann eine sphärische Form aufweisen. In diesem Fall greift die Roboterhand 30 den Gegenstand A mit mehreren Abschnitten der Kugel, welche gemäß dem in die Roboterhand 30 zugeführten Luftdruck einander näher gebracht werden. Jeder der Abschnitte der Kugel fungiert als ein Greifabschnitt.
  • Bei der vorstehenden Ausführungsform kann die Robotersteuerung 20 eine Lernfunktion aufweisen. Die Speichereinheit 23 kann zum Beispiel ein Lernprogramm (eine Lerneinheit) 23h speichern, auf dessen Grundlage die Steuereinheit 21 Lernen durchführen kann.
  • Lernen wird zum Beispiel während des Vorgangs des Aufnehmens des Artikels A durchgeführt, wie er in den Schritten S2-1 bis S2-7 beschrieben wurde. Die Steuereinheit 21 verwendet Information zum Lernen, um eine Tabelle oder Formel zu bilden, welche Flächenwerte mit der Luftdruckstufe korreliert und die erstellte Tabelle oder Formel in der Speichereinheit 23 speichert. Eine derartige Tabelle oder Formel wird als ein Ergebnis des Lernens zum Verbessern des Greifzustands erstellt.
  • Ein Beispiel der Information zum Lernen ist die Tabelle oder Formel, welche die Größeninformation mit den Luftdruckstufen korreliert, welche für den Aufnahmevorgang verwendet werden. Ein weiteres Beispiel der Information zum Lernen sind Größeninformation und Luftdruckinformation. Wie vorstehend beschrieben wurde, umfasst die Größeninformation Information, wie beispielsweise Flächenwert, Abmessungsdaten, Umfangsdaten und Schwerpunkt, welche für jeden Artikel A erfasst wird. Die Größeninformation umfasst auch Information, wie beispielsweise Fläche, Abmessungen und Gewicht von jedem Artikel A, welche in irgendeinem anderen Schritt durch zum Beispiel eine Inspektionseinrichtung in einem Inspektionsschritt erhalten wird. Die Größeninformation umfasst auch Informationseingabe durch eine Bedienperson über die Eingabeeinrichtung 24 auf der Grundlage der Fläche, Abmessungen oder des Gewichts, welche durch Messung jedes Artikels A erhalten werden. Ein weiteres Beispiel der Information zum Lernen sind Spezifikationen der Roboterhand 30 und der Greifabschnitte 31, welche für den Aufnahmevorgang verwendet werden. Ein weiteres Beispiel der Information zum Lernen sind Spezifikationen des Roboters 10 und der Fördereinrichtung 2, welche für den Aufnahmevorgang verwendet werden. Ein weiteres Beispiel der Information zum Lernen ist die Fördergeschwindigkeit der Fördereinrichtung 2 bei dem Aufnahmevorgang. Ein weiteres Beispiel für die Information zum Lernen ist die Information über die Qualität jedes Artikels, wie beispielsweise die Härte oder das durchschnittliche Gewicht der Artikel A. Ein weiteres Beispiel für die Information zum Lernen ist Information über den Greifzustand, welche auf der Grundlage der zuvor genannten Bildverarbeitungseinrichtung zur Beobachtung erhalten wird. Die Information über den Greifzustand umfasst Information über Erfolge/Fehlschläge beim Greifen und Information über den Grad der Verformung jedes Artikels A. Das erstellte Tabelle oder Formel wird in der Speichereinheit 23 zusammen mit der Information zum Lernen gespeichert.
  • Zum Beispiel untersucht die Steuereinheit 21 die Korrelation zwischen dem Greifzustand und dem Verhältnis der Größeninformation zum Luftdruck beim Aufnahmevorgang. Alternativ kann die Steuereinheit 21 die Korrelation zwischen dem Greifzustand und dem Verhältnis der Größeninformation zum Luftdruck beim Aufnahmevorgang sowie die Art oder Qualität des Artikels A untersuchen.
  • Die vorstehende Information, wie beispielsweise die Spezifikationen der Roboterhand 30 und der Greifabschnitte 31, die Fördergeschwindigkeit der Fördereinrichtung 2 und die Information über die Qualität der Artikel können durch die Bedienperson an die Robotersteuerung 20 eingegeben werden.
  • Die Bedienperson kann auch Erfolge/Fehlschläge beim Greifen oder den Grad der Verformung jedes Gegenstands A während des Aufnahmevorgangs beobachten und die beobachteten Ergebnisse an die Robotersteuerung 20 eingeben, welche für das vorstehende Lernen zu verwenden sind. Auch Inspektionsergebnisse bei einem Qualitätsinpsektionsschritt können an die Robotersteuerung 20 eingegeben werden und für das vorstehende Lernen verwendet werden.
  • Somit ermöglicht das in der Robotersteuerung 20 durchgeführte Lernen es der Roboterhand 30, die Artikel A geeigneter zu greifen.
  • Wie es in 11 gezeigt ist, können mehrere Robotersteuerungen 20 mit einem Hauptcomputersystem 100 verbunden sein. Das Hauptcomputersystem 100 kann ein Computer sein, welcher durch verdrahtete Verbindung mit den Robotersteuerungen 20 verbunden ist, oder kann ein Computer sein, welcher sich zum Beispiel in der gleichen Räumlichkeit wie die Robotersteuerungen 20 befindet. Das Hauptcomputersystem 100 wird manchmal als Nebelcomputer bezeichnet. Das Hauptcomputersystem 100 kann ein System, wie beispielsweise ein Produktionsverwaltungssystem, ein Transportverwaltungssystem, ein Roboterverwaltungssystem oder ein Abteilungsverwaltungssystem sein.
  • Mehrere Hauptcomputersysteme 100 können mit einem anderen Hauptcomputersystem 200 verbunden sein. Das Hauptcomputersystem 200 kann zum Beispiel ein Cloud-Server sein, welcher mit den Hauptcomputersystemen 100 über verdrahtete oder drahtlose Verbindung verbunden ist. Die Robotersteuerungen 20 und die Hauptcomputersysteme 100 und 200 bilden zum Beispiel ein Verwaltungssystem. Jedes der Hauptcomputersysteme 100 und 200 umfasst: eine Steuereinheit, welche einen Prozessor umfasst; eine Anzeigeeinrichtung; eine Speichereinheit, welche nicht flüchtigen Speicher, ROM und RAM umfasst; und eine Eingabeeinrichtung, welche eine Tastatur, ein Touchpanel oder eine Bedientafel sein kann.
  • Ein derartiges System kann, wie es zum Beispiel in 12 gezeigt ist, mehrere Edge-Computer 8, mehrere Hauptcomputersysteme 100 und mindestens ein Hauptcomputersystem 200 umfassen. Bei dem System in 12 können die Edge-Computer 8 Steuerungen, Robotersteuerungen und Roboter sein. Ein Teil der Steuerungen, Robotersteuerungen und Roboter kann in dem Hauptcomputersystem 100 enthalten sein. Das System in 12 umfasst ein verdrahtetes oder drahtloses Netzwerk.
  • Die Edge-Computer 8 können die oben beschriebene Information zum Lernen an die anderen Edge-Computer 8, die Hauptcomputersysteme 100 oder das Hauptcomputersystem 200 übertragen, welche die oben beschriebene Lernfunktion aufweisen. Die Übertragung findet zum Beispiel in der in 13 gezeigten Konfiguration statt. Bei dieser Konfiguration können die anderen Edge-Computer 8, die Hauptcomputersysteme 100 oder das Hauptcomputersystem 200, welche die Lernfunktion aufweisen, Lernen unter Verwendung der empfangenen Information zum Lernen durchführen, um Betriebsparameter (ein Ergebnis des Lernens) oder Betriebsprogramme (ein Ergebnis des Lernens) automatisch und genau zu bestimmen, welche von jedem Edge-Computer 8 zum Steuern des Roboters verwendet werden.
  • Die anderen Edge-Computer 8, die Hauptcomputersysteme 100 oder das Hauptcomputersystem 200, welche die Lernfunktion aufweisen, können die empfangene Information zum Lernen verwenden, um Betriebsparameter (ein Ergebnis des Lernens) oder Betriebsprogramme (ein Ergebnis des Lernens) zu bestimmen, welche den von den jeweiligen Edge-Computern 8 gesteuerten mehreren Robotern gemein sind. Das heißt, die Roboter teilen sich die gleichen Betriebsparameter oder Betriebsprogramme. Gemäß diesem System kann die Lerngeschwindigkeit und die Zuverlässigkeit bei Verwendung verschiedener Datensätze verbessert werden.
  • Einige der Edge-Computer 8 und Hauptcomputersysteme 100, welche die oben beschriebene Lernfunktion aufweisen, können zumindest eine der vorstehend beschriebenen Informationen zum Lernen, ein beim Lernen erstelltes Lernmodell und das Ergebnis des Lernens an andere Edge-Computer 8, andere Hauptcomputersysteme 100 oder das Hauptcomputersystem 200 übertragen, welche die oben beschriebene Lernfunktion aufweisen. Die Übertragung findet zum Beispiel in der in 14 gezeigten Konfiguration statt. Die anderen Edge-Computer 8, die anderen Hauptcomputersysteme 100 oder das Hauptcomputersystem 200, welche die Lernfunktion aufweisen, optimieren das Wissen oder verbessern die Effizienz auf der Grundlage der empfangenen Information, wodurch ein weiter optimiertes oder effizientes Lernmodell oder Ergebnis des Lernens erstellt wird. Das erstellte Lernmodell oder Ergebnis des Lernens wird an die Edge-Computer 8 verteilt, welche die Roboter steuern. Falls das Ergebnis des Lernens verteilt wird, ist es nicht erforderlich, dass die empfangenden Edge-Computer die Lernfunktion aufweisen.
  • Die Information zum Lernen, das Lernmodell und das Ergebnis des Lernens können unter den Edge-Computern 8 geteilt werden. Das Teilen findet zum Beispiel bei der in 14 gezeigten Konfiguration statt. Dies führt zu einer verbesserten Effizienz des Maschinenlernens. Einige der mit dem Netzwerk verbundenen Edge-Computer 8 können die Lernfunktion implementieren, und das Ergebnis des Lernens in diesen Edge-Computern 8 kann von den anderen Edge-Computern 8 zum Steuern ihrer Roboter verwendet werden. Dies führt zu verringerten, zum Maschinenlernen erforderlichen Kosten.
  • Beispiele gemäß der vorstehenden Ausführungsform werden nachstehend beschrieben.
  • Wie es in 10 gezeigt ist, kann zum Beispiel eine Robotersteuerung 20 mit einer anderen Robotersteuerung 20 verbunden sein. Dann kann ein durch Lernen erhaltene Tabelle (ein Ergebnis des Lernens) oder Formel (ein Ergebnis des Lernens), wie es vorstehend beschrieben ist, zusammen mit der notwendigen Information durch die verdrahtete oder drahtlose Übertragungs-/Empfangseinheit (eine Ausgabeeinheit) 25 der einen Robotersteuerung 20 an die andere Robotersteuerung 20 übertragen werden. Die notwendige Information kann die Spezifikationen des Roboters 10 und der Fördereinrichtung 2, die Spezifikationen der Roboterhand 30 und der Greifabschnitte 31, die Information über die Qualität der Artikel usw. umfassen, welche auf die Erstellung der Tabelle oder Formel bezogen sind. Die andere Robotersteuerung 20 überträgt auf ähnliche Weise ein Ergebnis des Lernens an die eine Robotersteuerung 20.
  • Die eine Robotersteuerung 20 und die andere Robotersteuerung 20 können die empfangene Tabelle oder Formel für die Aufgabe des Aufnehmens der Artikel A verwenden. Die eine Robotersteuerung 20 und die andere Robotersteuerung 20 können auch die empfangene Tabelle oder Formel als die Information zum Lernen verwenden.
  • Die durch das Lernen erhaltene Tabelle oder Formel kann zusammen mit notwendiger Information von den Robotersteuerungen 20 zu den Hauptcomputersystemen 100 oder dem Hauptcomputersystem 200 übertragen werden (11). Die notwendige Information kann die Spezifikationen des Roboters 10 und der Fördereinrichtung 2, die Spezifikationen der Roboterhand 30 und der Greifabschnitte 31, die Information über die Qualität der Artikel A usw. umfassen, welche auf die Erstellung der Tabelle oder Formel bezogen sind.
  • Die Hauptcomputersysteme 100 oder das Hauptcomputersystem 200 kann Lernen unter Verwendung von mehreren auf Spezifikationen der gleichen oder ähnlichen Art von Roboterhänden 30 oder Greifabschnitten 31 bezogene Tabellen oder Formeln durchführen, um eine neue Tabelle oder Formel zu erstellen.
  • Die Hauptcomputersysteme 100 oder das Hauptcomputersystem 200 überträgt die erstellte Tabelle oder Formel an die Robotersteuerungen 20.
  • Einige Robotersteuerungen 20 können die empfangene Tabelle oder Formel für die Aufgabe des Aufnehmens der Artikel A verwenden. Andere Robotersteuerungen 20 können die empfangene Tabelle oder Formel als die Information zum Lernen beim Durchführen des Lernens verwenden.
  • Die Robotersteuerungen 20, die Hauptcomputersysteme 100 oder das Hauptcomputersystem 200 kann die erstellte Tabelle oder Formel an Robotersteuerungen, welche keine Lernfunktion aufweisen, übertragen. Die Robotersteuerungen, welche keine Lernfunktion aufweisen, und ihre Roboterhände können dementsprechend das Greifen der Artikel verbessern.
  • Bezugszeichenliste
  • 2
    Fördereinrichtung
    10
    Roboter
    11
    Hauptkörper
    14
    Handgelenkeinheit
    14a
    Handgelenkflansch
    15, 16
    Servomotor
    20
    Robotersteuerung
    21
    Steuereinheit
    22
    Anzeigeeinrichtung
    23
    Speichereinheit
    23h
    Lernprogramm (Lerneinheit)
    24
    Eingabeeinrichtung
    25
    Übertragungs-/Empfangseinheit
    26, 27
    Servosteuerung
    30
    Roboterhand
    31
    Greifabschnitt
    31a
    innerer Raum
    32
    Luftversorgungsrohr
    40
    Handsteuereinrichtung
    50
    optischer Sensor
    100
    Hauptcomputersystem
    200
    Hauptcomputersystem
    A
    Artikel

Claims (12)

  1. Robotersteuerung (20), welche eine Roboterhand (30) steuert, welche einen Artikel (A) mit einer Mehrzahl von Greifabschnitten (31) greift, wobei die Robotersteuerung (20) umfasst: eine Größeninformationserfassungseinheit, welche Größeninformation über den Artikel (A) auf der Grundlage eines Bildes erfasst, welches von einem optischen Sensor (50) zur Erfassung des Artikels (A) erhalten wird; und eine Greifanpassungseinheit, welche in Abhängigkeit von der Größeninformation einen Greifabstand, welcher ein Raum zwischen den Greifabschnitten (31) in einem Greifzustand ist, oder eine Greifkraft der Greifabschnitte (31) in dem Greifzustand ändert, wobei die Roboterhand (30) eine Handsteuereinrichtung (40) aufweist, welche den Greifabstand oder die Greifkraft in einer Mehrzahl von Stufen ändert, die Robotersteuerung (20) eine Speichereinheit (23) aufweist, welche eine Tabelle oder Formel speichert, welche Werte der Größeninformation mit der Mehrzahl von Stufen korreliert, und die Greifanpassungseinheit die Tabelle oder die Formel verwendet, um ein Steuersignal zum Einstellen des Greifabstands oder der Greifkraft auf eine Stufe unter der Mehrzahl von Stufen in Abhängigkeit von der Größeninformation an die Handsteuereinrichtung (40) zu übertragen.
  2. Robotersteuerung (20) nach Anspruch 1, wobei die Größeninformation ein Flächenwert eines Bereichs ist, welcher als der Artikel (A) in dem Bild erfasst wird.
  3. Robotersteuerung (20) nach Anspruch 1, wobei die Größeninformation Abmessungsdaten über einen Bereich sind, welcher als der Artikel (A)in dem Bild erfasst wird.
  4. Robotersteuerung (20) nach Anspruch 3, wobei die Abmessungsdaten Umfangsdaten über den Bereich sind, welcher als der Artikel (A) in dem Bild erfasst wird.
  5. Robotersteuerung (20) nach einem der Ansprüche 1 bis 4, wobei der Prozessor, in dem Greifanpassungsprozess, Werte der Größeninformation, welche jeweils der Mehrzahl von Stufen entsprechen, auf der Grundlage einer Verteilung der Größeninformation über eine Mehrzahl der Artikel (A) in dem Bild oder in einer Mehrzahl von Bildern ändert.
  6. Robotersteuerung (20), welche eine Roboterhand (30) steuert, welche einen Artikel (A) mit einer Mehrzahl von Greifabschnitten (31) greift, wobei die Robotersteuerung (20) umfasst: eine Größeninformationserfassungseinheit, welche die Größeninformation über den Artikel (A) erfasst; eine Greifanpassungseinheit, welche in Abhängigkeit von der Größeninformation einen Greifabstand, welcher ein Raum zwischen den Greifabschnitten (31) in einem Greifzustand ist, oder eine Greifkraft der Greifabschnitte (31) in dem Greifzustand ändert; und eine Empfangseinheit, welche wenigstens eine der folgenden Informationen empfängt: Information über einen beobachteten Greifzustand, welche durch Abbildung eines Greifzustands des Artikels (A), wenn der Roboter den Artikel (A) greift, mittels einer Bildverarbeitungsvorrichtung zur Beobachtung erfasst wurde und Information über einen beobachteten Greifzustand, welche durch einen Beobachter erhalten wird, der den Greifzustand beobachtet, wenn der Roboter den Artikel (A) greift; und eine Lerneinheit (23h), welche Lernen durchführt, um den Greifzustand auf der Basis der Größeninformation und Information über den mittels der Empfangseinheit empfangenden beobachteten Greifzustand zu verbessern.
  7. Robotersteuerung (20) nach Anspruch 6, ferner umfassend eine Ausgabeeinheit, welche ein Ergebnis des Lernens ausgibt.
  8. Robotersteuerung (20) nach Anspruch 6 oder 7, wobei die Robotersteuerung (20) dafür ausgelegt ist, das Ergebnis des Lernens an eine andere Robotersteuerung (20) auszugeben und ein Ergebnis des Lernens von der anderen Robotersteuerung (20) zu empfangen.
  9. Robotersteuerung (20) nach Anspruch 6 oder 7, wobei die Robotersteuerung (20) dafür ausgelegt ist, das Ergebnis des Lernens an ein Hauptcomputersystem (100, 200) auszugeben und ein Ergebnis des Lernens von dem Hauptcomputersystem (100, 200) zu empfangen.
  10. System, umfassend: eine Robotersteuerung (20), welche eine Roboterhand (30) zum Greifen eines Artikels (A) steuert; und ein Hauptcomputersystem (100, 200), welches in der Lage ist, mit der Robotersteuerung (20) zu kommunizieren, wobei die Robotersteuerung (20) umfasst: eine Empfangseinheit, welche wenigstens eine der folgenden Informationen empfängt: Information über einen beobachteten Greifzustand, welche durch Abbildung eines Greifzustands des Artikels (A), wenn der Roboter den Artikel (A) greift, mittels einer Bildverarbeitungsvorrichtung zur Beobachtung erfasst wurde und Information über einen beobachteten Greifzustand, welche durch einen Beobachter erhalten wird, der den Greifzustand beobachtet, wenn der Roboter den Artikel (A) greift; und eine Lerneinheit (23h), welche auf der Grundlage von Größeninformation über den Artikel (A) und Information über einen Greifzustand, in welchem die Roboterhand (30) den Artikel (A) greift, Lernen durchführt, um den Greifzustand zu verbessern; und eine Ausgabeeinheit, welche ein Ergebnis des Lernens an das Hauptcomputersystem (100, 200) ausgibt, und wobei das Hauptcomputersystem (100, 200) das von der Robotersteuerung (20) empfangene Ergebnis des Lernens sammelt.
  11. System nach Anspruch 10, wobei das Hauptcomputersystem (100, 200) dafür ausgelegt ist, ein Ergebnis des Lernens, welches unter Verwendung des empfangenen Ergebnisses des Lernens in dem Hauptcomputersystem (100, 200) durchgeführt wird, an die Robotersteuerung (20) zu übertragen.
  12. System nach Anspruch 10 oder 11, wobei das Hauptcomputersystem (100, 200) dafür ausgelegt ist, um das empfangene Ergebnis des Lernens oder ein Ergebnis des Lernens, welches unter Verwendung des empfangenen Ergebnisses des Lernens in dem Hauptcomputersystem (100, 200) durchgeführt wird, an eine Robotersteuerung (20), welche keine Lernfunktion aufweist, zu übertragen.
DE102019109880.7A 2018-04-24 2019-04-15 Robotersteuerung und System Active DE102019109880B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018083184 2018-04-24
JP2018-083184 2018-04-24
JP2019011349A JP6836606B2 (ja) 2018-04-24 2019-01-25 ロボット制御装置およびシステム
JP2019-011349 2019-01-25

Publications (2)

Publication Number Publication Date
DE102019109880A1 DE102019109880A1 (de) 2019-10-24
DE102019109880B4 true DE102019109880B4 (de) 2022-12-22

Family

ID=68105495

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019109880.7A Active DE102019109880B4 (de) 2018-04-24 2019-04-15 Robotersteuerung und System

Country Status (3)

Country Link
US (1) US11584016B2 (de)
CN (1) CN110394797A (de)
DE (1) DE102019109880B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11103994B2 (en) * 2018-07-02 2021-08-31 Teradyne, Inc. System and method for natural tasking of one or more robots
JP7306908B2 (ja) * 2019-07-23 2023-07-11 ファナック株式会社 ロボットハンド制御装置、ロボットシステムおよびロボットハンド制御方法
US11213953B2 (en) * 2019-07-26 2022-01-04 Google Llc Efficient robot control based on inputs from remote client devices
CN112223338B (zh) * 2020-09-25 2023-12-29 陕西伟景机器人科技有限公司 一种机器人灵巧手手指控制方法及系统
WO2022082101A1 (en) 2020-10-18 2022-04-21 Monotony.ai, Inc. Robotic laundry sorting devices, systems, and methods of use

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015182184A (ja) 2014-03-25 2015-10-22 セイコーエプソン株式会社 ロボット
US20160361821A1 (en) 2015-06-11 2016-12-15 Joshua Aaron Lessing Modular robotic systems
US20170369244A1 (en) 2016-06-27 2017-12-28 Amazon Technologies, Inc. Automated item singulation
US9873199B2 (en) 2014-12-16 2018-01-23 Amazon Technologies, Inc. Robotic grasping of items in inventory system
US20180036774A1 (en) 2016-08-04 2018-02-08 Zenrobotics Oy Method and an apparatus for separating at least one object from a plurality of objects
EP3284563A2 (de) 2016-08-17 2018-02-21 Kabushiki Kaisha Yaskawa Denki Kommissioniersystem
US9914213B2 (en) 2016-03-03 2018-03-13 Google Llc Deep machine learning methods and apparatus for robotic grasping

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60123285A (ja) 1983-12-02 1985-07-01 株式会社日立製作所 ロボットの力検出方法
JPH061171B2 (ja) 1984-11-20 1994-01-05 オムロン株式会社 複合視覚装置
JP2004268159A (ja) * 2003-03-05 2004-09-30 Sharp Corp 食器の配膳下膳支援ロボットシステム、配膳下膳支援方法、配膳下膳支援プログラム及びこの配膳下膳支援プログラムを記録した記録媒体
JP2007245326A (ja) 2006-02-17 2007-09-27 Toyota Motor Corp ロボットとロボットの制御方法
JP2008049459A (ja) 2006-08-28 2008-03-06 Toshiba Corp マニピュレータ制御システム、マニピュレータ制御方法およびプログラム
FR2936601B1 (fr) 2008-09-30 2011-02-11 Arbor Sa Procede de traitement d'objets en fonction de leurs poids individuels
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
US9089966B2 (en) * 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP5993539B2 (ja) * 2011-01-06 2016-09-14 セイコーエプソン株式会社 ロボットハンド及びロボット
JP5850962B2 (ja) 2014-02-13 2016-02-03 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
JP6752615B2 (ja) 2015-07-29 2020-09-09 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
US10335951B2 (en) 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
JP2017042859A (ja) * 2015-08-25 2017-03-02 キヤノン株式会社 ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
KR102487493B1 (ko) 2016-03-03 2023-01-11 구글 엘엘씨 로봇 파지용 심층 기계 학습 방법 및 장치
JP2017177294A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム
JP6838833B2 (ja) 2016-09-05 2021-03-03 国立大学法人信州大学 把持装置、把持方法、及びプログラム
JP6514171B2 (ja) * 2016-09-27 2019-05-15 ファナック株式会社 最適な物品把持経路を学習する機械学習装置、及び機械学習方法
JP6514260B2 (ja) 2017-04-13 2019-05-15 ファナック株式会社 制御装置及び機械学習装置
JP7136554B2 (ja) * 2017-12-18 2022-09-13 国立大学法人信州大学 把持装置、学習装置、プログラム、把持システム、及び学習方法
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015182184A (ja) 2014-03-25 2015-10-22 セイコーエプソン株式会社 ロボット
US9873199B2 (en) 2014-12-16 2018-01-23 Amazon Technologies, Inc. Robotic grasping of items in inventory system
US20160361821A1 (en) 2015-06-11 2016-12-15 Joshua Aaron Lessing Modular robotic systems
US9914213B2 (en) 2016-03-03 2018-03-13 Google Llc Deep machine learning methods and apparatus for robotic grasping
US20170369244A1 (en) 2016-06-27 2017-12-28 Amazon Technologies, Inc. Automated item singulation
US20180036774A1 (en) 2016-08-04 2018-02-08 Zenrobotics Oy Method and an apparatus for separating at least one object from a plurality of objects
EP3284563A2 (de) 2016-08-17 2018-02-21 Kabushiki Kaisha Yaskawa Denki Kommissioniersystem

Also Published As

Publication number Publication date
DE102019109880A1 (de) 2019-10-24
US20190321984A1 (en) 2019-10-24
US11584016B2 (en) 2023-02-21
CN110394797A (zh) 2019-11-01

Similar Documents

Publication Publication Date Title
DE102019109880B4 (de) Robotersteuerung und System
DE112019000170B4 (de) Steuerungssystem, Transportvorrichtung, Programm und Steuerungsverfahren
DE102018004066B4 (de) Gewichtsmesssystem und Verfahren zum Messen eines Artikelgewichts
DE102016009113B4 (de) Maschinelle Lernvorrichtung, Robotercontroller, Robotersystem und maschinelles Lernverfahren zum Lernen des Handlungsmusters einer Person
DE102016115987B4 (de) Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung
DE102019108787B4 (de) Handsteuerungsvorrichtung und Handsteuerungssystem
DE102019125126B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und System
DE102018106808B4 (de) Zustandsbestimmungsvorrichtung
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102019119319B4 (de) Abtastsystem, Arbeitssystem, Verfahren zum Anzeigen von Augmented-Reality-Bildern, Verfahren zum Speichern von Augmented-Reality-Bildern und Programme dafür
DE102018006465A1 (de) Artikelstapelvorrichtung und maschinelle Lernvorrichtung
DE112017007392B4 (de) Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
EP3797337A1 (de) Verfahren zum hantieren eines werkstücks mit hilfe eines entnahmewerkzeugs und maschine zur durchführung des verfahrens
DE102015005606A1 (de) Kappenfrässystem mit Fräsvorrichtung zum Schneiden von Elektrodenkappen von Punktschweißzange
DE102018101375A1 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102017207889A1 (de) Artikeltransfervorrichtung
EP3563941B1 (de) Flaschenreinigungsmaschine
DE102018114445B4 (de) Vorrichtung und Verfahren zur Einschätzung einer Position des Schwerpunkts eines Roboters
EP1464226B1 (de) Vorrichtung und Verfahren zum Herstellen von mit Lebensmitteln bestückten Spiessen
DE102016206980B4 (de) Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
DE102019115379B4 (de) Robotersystem und Roboter
DE102015004871A1 (de) Werkstückfördervorrichtung mit Positionierungsstruktur
DE102018004326B4 (de) Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final