DE3874205T2 - Verfahren und system zur robotersteuerung zum zusammenstellen von produkten. - Google Patents

Verfahren und system zur robotersteuerung zum zusammenstellen von produkten.

Info

Publication number
DE3874205T2
DE3874205T2 DE8888107982T DE3874205T DE3874205T2 DE 3874205 T2 DE3874205 T2 DE 3874205T2 DE 8888107982 T DE8888107982 T DE 8888107982T DE 3874205 T DE3874205 T DE 3874205T DE 3874205 T2 DE3874205 T2 DE 3874205T2
Authority
DE
Germany
Prior art keywords
sample product
data
sample
product
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE8888107982T
Other languages
English (en)
Other versions
DE3874205D1 (de
Inventor
Tetsuo C O Patent Divis Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of DE3874205D1 publication Critical patent/DE3874205D1/de
Publication of DE3874205T2 publication Critical patent/DE3874205T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • B25J9/0087Dual arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Automatic Assembly (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren sowie ein System zur Steuerung eines Roboters, indem der Aufbau eines Probenproduktes, bestehend aus einer Vielzahl von Einzelteilen bekannter Form, erkannt und später automatisch ein mit dem Probenprodukt identisches Produkt zusammengebaut wird.
  • Ein herkömmlicher Roboter, der zur Anfertigung eines Produktes durch Zusammenbau einer Vielzahl von durch eine Fördereinrichtung nacheinander zugeführter Teile eingesetzt wird, arbeitet beispielsweise wie folgt:
  • Zunächst verschafft sich ein Bediener Klarheit über den Aufbau des Probenproduktes und berechnet die dreidimensionalen Positionen und Orientierungen der darin enthaltenen Teile, um die erforderlichen Maßnahmen zum Versetzen der nacheinander durch eine Fördereinrichtung oder dergl. in vorgegebene Positionen zugeführten Teile sowie die Folge (Montagefolge) festzulegen, in der die einzelnen Schritte zur Anfertigung des Produktes abgewickelt werden.
  • Des weiteren wurde ein System entwickelt, bei dem Sensoren mit visuellen, taktilen und ähnlichen Eigenschaften an einem Montageroboter angebracht sind, so daß die Positionen der einzelnen Teile während der Anfertigung eines Produktes automatisch korrigiert werden können und eine Montageaufgabe gemäß vorabgespeicherter Programme automatisch geändert werden kann.
  • Ein weiterer Vorschlag für einen konventionellen Roboter betrifft die automatische Anfertigung eines Produktes gemäß der Aufgabenstellung für die entsprechenden Teile und der Aufgabenfolge als Resultat eines auf einem Hostrechner gehaltenen CAD- (computergestütztes Konstruktions-) Programms.
  • Grundsätzlich gestaltet sich jedoch die Programmierung der Steuerung eines Montageroboters sehr kompliziert. Darüber hinaus besteht beim Austesten des Programms zur Steuerung vieler Arme und Hände des Roboters im praktischen Betrieb die Gefahr eines Unfalls durch einen Verfahrfehler bedingt durch einen Programmfehler.
  • Ein Programm, das die automatische Positionskorrektur der entsprechenden für die Anfertigung eines Produktes erforderlichen Teile unter Einsatz der obengenannten Sensoren mit visuellen, taktilen und dergl. Funktionen durchführt, ist entsprechend komplizierter.
  • Erfolgt die Programmierung zur Steuerung des Roboters automatisch unter Anwendung von CAD, so treten die obengenannten Probleme nicht auf. Wird jedoch die automatische Programmerstellung für ein anzufertigendes Produkt vom Hostrechner übernommen, so müssen nicht unmittelbar mit der automatischen Erstellung in Zusammenhang stehende Aufgabenfolgen verarbeitet werden. Damit wird die automatische Programmerstellung extrem komplex.
  • Wie bereits erwähnt, ist die Programmierung zur Steuerung eines Roboters für die Anfertigung von Produkten im allgemeinen äußerst kompliziert. Darüber hinaus erfordert eine auch nur geringfügige Formänderung des anzufertigenden Produktes die Erstellung eines neuen Programms. Wenn bei der automatischen Programmerstellung mittels CAD das Programm anhand von Produkten geändert werden muß, so ist insbesondere das Programm im Falle der Konstruktion einiger weniger Produkte für verschiedene Produkte kompliziert.
  • Es ist deshalb selbst bei der Änderung der Konstruktion des anzufertigenden Produktes wünschenswert, das Produkt automatisch ohne Änderung eines Steuerungsprogramms für den Montageroboter anzufertigen.
  • Der dem Stand der Technik entsprechende Artikel "Computers in Industry", Jahrgang 7, Ausgabe 3, Juni 1986, S. 211-225, Elsevier, NL, beschreibt einen sensorgestützten Industrieroboter mit einer Kamera, einer Bildverarbeitungseinheit, einem Bildrechner, einem Ablaufzeitrechner, einem Arm- Controller und einem Arm. In dieser Systemumgebung sind Informationen entsprechend den sensorischen Aktivitäten manipulierbar. Zu diesem Zweck verfügt das Ablaufzeitsystem über ein vereinfachtes Modell der Umgebung als Datenbank, in der die aktuellen Umgebungsinformationen gehalten werden. Das Ablaufzeitsystem modifiziert die Roboter-Verfahrbewegungen entsprechend dem realen Umgebungsstatus, dessen Informationen durch den Sensor erfaßt und im Ablaufzeitmodell abgespeichert werden.
  • Ein weiterer dem Stand der Technik entsprechender zitierter Artikel aus "Proceedings of the IEEE", Jahrgang 71 (1983), Ausgabe 7, S. 835 bis 839, beschreibt Programmiersysteme auf Aufgabenebene, bei denen ein Benutzer Operationen anhand ihres gewünschten Effektes auf die Objekte vorgibt. Die Aufgaben werden als eine Folge von Modellen des Weltzustandes in mehreren Schritten während der Ausführung der Aufgabe vorgeschrieben. Eine aus mehreren Teilen bestehende Baugruppe kann beispielsweise als eine Folge von Modellen vorgegeben werden, da jedes Teil der Baugruppe hinzugefügt wird. Sämtlichen Modellen der Aufgabenspezifikation sind die Beschreibungen der Roboterumgebung und der zu manipulierenden Objekte gemeinsam.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren und ein System zur Erkennung des Aufbaus eines aus einer Vielzahl von Teilen mit bekannter Form bestehenden Probeprodukts bereitzustellen, mit deren Hilfe danach ein dem Probeprodukt identisches Produkt automatisch angefertigt werden kann.
  • Zur Lösung dieser Aufgabe sieht die vorliegende Erfindung das in Ansprüchen 1 und 5 beschriebene Verfahren bzw. System vor.
  • Diese Erfindung wird anhand der folgenden ausführlichen Beschreibung und den beiliegenden Zeichnungen näher erläutert; es zeigen:
  • Fig. 1 eine Ansicht der Anordnung eines Montagerobotersteuerungssystems gemäß einer Ausführungsform der vorliegenden Erfindung;
  • Fig. 2 ein Blockdiagramm mit einer Anordnung eines Aufbaudetektormoduls;
  • Fig. 3 ein Flußdiagramm der Arbeitsweise eines Aufbaudetektormoduls;
  • Fig. 4 eine Ansicht mit dem Inhalt eines Montagedatenspeichers;
  • Fig. 5 eine Ansicht mit dem Inhalt eines Aufgabenspeichers in einem Aufgabenplanungsmodul;
  • Fig. 6 eine Ansicht mit den in einem Standard-Operationsfunktionsspeicher gespeicherten Standard- Operationsfunktionen;
  • Fig. 7 ein Flußdiagramm mit der Funktionsweise eines Aufgabenplanungsabschnitts im Aufgabenplanungsmodul;
  • Fig. 8A bis 8D Ansichten zur Erläuterung einer Zusammenbauregel für die Anfertigung eines Produkts;
  • Fig. 9A und 9B Ansichten zur Erläuterung einer Zusammenbaufolge für die Anfertigung eines Produkts nach Fig. 8D;
  • Fig. 10 ein Flußdiagramm mit der Funktionsweise eines Verfahrbewegungs-Planungsabschnitts im Aufgaben- Planungsmodul;
  • Fig. 11 ein Flußdiagramm mit der Funktionsweise eines Verfahrbewegungs-Steuermoduls.
  • Eine Ausführungsform der vorliegenden Erfindung wird anhand der beiliegenden Zeichnungen beschrieben.
  • Wie aus Fig. 1 ersichtlich, ist ein Roboter 3 neben einer Fördereinrichtung 2 installiert, auf der nacheinander Teile mit identischen Formen wie die bekannten Formen der in Probe 10 enthaltenen Teile zugeführt werden. Zwei Arme 4 und 5 mit Händen 6 und 7 zum Greifen der Teile und mit Druckgebern 8 und 9 zur Erkennung der beim Greifen der Teile auf der Fördereinrichtung 2 durch die Hände 6 und 7 entstehenden Drücke sind am Roboter 3 angebracht. Darüber hinaus ist am Roboter 3 ein Paar CCD- (ladungsgekoppeltes Schaltelement) Kameras 11a und 11b so montiert, daß sie eine zweidimensionale Form einer Probe 10 erfassen, die die gleiche Anordnung wie ein anzufertigendes Produkt aufweist.
  • Die am Roboter 3 montierten CCD-Kameras 11a und 11b erfassen die sich ergebenden zweidimensionalen Bilddaten, wenn die Probe 10 aus verschiedenen Richtungen betrachtet wird, und geben diese zweidimensionalen Bilddaten an ein Aufbaudetektormodul 12 aus. Das Aufbaudetektormodul 12 erkennt auf Basis der zweidimensionalen Bilddaten die den Aufbau der Probe 10 bestimmenden Aufbaudaten und gibt diese Aufbaudaten an ein Aufgabenplanungsmodul 13 aus. Das Aufgabenplanungsmodul 13 mit einem Aufgabenplanungsabschnitt 13a und einem Verfahrbewegungsabschnitt abgelegten Teilanordnungsdaten 13b erzeugt Verfahrbewegungsbefehlsdaten zur Steuerung des Roboters 3 in Übereinstimmung mit den Aufbaudaten der Probe 10 und gibt die Verfahrbewegungsbefehlsdaten an ein Verfahrbewegungssteuermodul 14 aus. Das Verfahrbewegungssteuermodul 14 steuert den Roboter 3 entsprechend diesen Verfahrbewegungsbefehlsdaten.
  • Der Roboter 3 ist ein intelligenter Robotertyp, da er über Sensoren verfügt. Gibt beispielsweise das Verfahrbewegungssteuermodul 14 Verfahrbewegungsbefehlsdaten an den Roboter dahingehend aus, daß ein Teil auf der Fördereinrichtung 2 in eine vorgegebene Position zu versetzen ist, so erfolgt eine Operation zur Versetzung des Teils durch Korrektur einer Operation des Roboters 3 entsprechend den vom CCD-Kamerapaar 11a und 11b sowie den Druckgebern 8 und 9 gelieferten Rückführungssignalen. Dementsprechend baut der Roboter 3 ein mit der Probe 10 identisches Produkt zusammen, indem er mit den Händen 6 und 7 die durch die Fördereinrichtung 2 nacheinander zugeführten Teile greift. Hierbei ist zu beachten, daß ein Halbzeug 15 im Zuge des Zusammenbauprozesses eines Produktes entsteht.
  • Im folgenden ist eine Arbeitsweise des Systems beschrieben.
  • Die Funktionsweise des Aufbaudetektormoduls 12 in Fig. 2 entspricht dem Flußdiagramm nach Fig. 3.
  • In Schritt W1 werden Bilder der Probe 10 aus verschiedenen Richtungen erfaßt, indem sich das CCD-Kamerapaar 11a und 11b entweder um die Probe 10 dreht oder indem die Probe 10 gedreht wird, so daß zweidimensionale Bilddaten erfaßt werden. Durch Abbildung der Probe 10 aus verschiedenen Richtungen lassen sich Daten aus Bereichen, die aus einer einzigen Richtung nicht einsehbar sind, erfassen, d.h. es können zweidimensionale Daten eines im Schatten liegenden Bereichs gewonnen werden. Darüber hinaus werden von einer dreidimensionalen Positionsdetektorschaltung 16 dreidimensionale Positionen der Scheitelpunkte und Kanten der Probe 10 auf Basis der zweidimensionalen Bilddaten erkannt, die aus verschiedenen Richtungen mittels der CCD-Kameras 11a und 11b abgebildet sind.
  • In Schritt W2 werden die durch die dreidimensionale Positionsdetektorschaltung 16 erfaßten dreidimensionalen Positionen der jeweiligen Scheitelpunkte und Kanten von Probe 10 von einer Positionssortierschaltung 17 in Richtung der Höhe (Richtung der Z-Achse) sortiert, um so Schichtumrißdaten zu erhalten, die einem Umriß jeder Schicht der Probe 10 in jeder Höhe liefern.
  • In Schritt W3 vergleicht eine Teildetektorschaltung 18 die von der Positionssortierschaltung 17 erfaßten Schichtumrißdaten mit den in einem Teilformspeicher 19 abgelegten Formdaten jedes Teils, wobei die in jeder Schicht enthaltenen Teile angegeben werden. Es ist zu beachten, daß die entsprechenden Daten einschließlich der Schichtformdaten zur Angabe der dreidimensionalen Formen der in der Probe 10 enthaltenen Teile im Teilformspeicher 19 vorabgespeichert sind.
  • In Schritt W4 erfaßt eine Aufbauerkennungsschaltung 20 die Teilanordnungsdaten, einschließlich der dreidimensionalen Positionen und Orientierungen der in der Probe 10 enthaltenen Teile, indem die durch die Teildetektorschaltung 18 erfaßten Teildaten und die aus dem Teilformspeicher 19 ausgelesenen Teilformdaten herangezogen werden, und speichert diese Teilanordnungsdaten in einem Aufbaudatenspeicher 21 (Schritt W5). Nach Fig. 4 sind im Montagedatenspeicher 21 die Nummern der Teile und Typen, die die dreidimensionalen Positionen definierenden Positionsdaten (x, y, z) sowie die die Orientierung definierenden Winkeldaten (α, β, γ) in den entsprechenden Positionen der in der Probe 10 enthaltenen Teile in Teileinheiten abgespeichert. Die im Montagedatenspeicher 21 in Schritt W5 abgeiegten Teilanordnungsdaten werden an das Aufgabenplanungsmodul 13 ausgegeben.
  • Das zur Planung einer Aufgabenfolge zur Steuerung des Roboters dienende Aufgabenplanungsmodul 13 ist nachstehend beschrieben.
  • Wie in Fig. 5 dargestellt, enthält das Aufgabenplanungsmodul 13 einen Aufgabenspeicher 22 zur Abspeicherung der entsprechenden Aufgabendaten, einschließlich der Versatzdaten zum Versetzen der nacheinander von der Fördereinrichtung 2 zugeführten Teile in die seitens der Teilanordnungsdaten festgelegten Positionen. Der Aufgabenspeicher 22 umfaßt einen Folgenummer-Speicherbereich 22a zur Abspeicherung der Folgenummern der Aufgaben.
  • Fig. 6 zeigt, daß das Aufgabenplanungsmodul 13 einen Standardoperationsfunktionsspeicher 23 enthält. Der Roboter 3 führt die Aufgaben zum Versetzen der von der Fördereinrichtung 2 zugeführten Teile in die Positionen aus, die von den im Montagedatenspeicher 21 abgelegten Teilanordnungsdaten bestimmt werden. Die tatsächlichen Verfahrbewegungsbefehlsdaten P1, P2, ..., Pn zur Steuerung der am Roboter 3 angebrachten Arme 4 und 5 sowie Hände 6 und 7 werden als Funktionen f1, f2, ..., fn definiert, wobei die Positionsdaten zum Greifen der Teile auf der Fördereinrichtung 2, die Positionsdaten (x, y, z) der Ziele der Teile und die Orientierungsdaten (α, β, γ) in den entsprechenden Positionen und ähnliche Daten als Parameter herangezogen werden. Diese Funktionen werden im Standardoperationsfunktionsspeicher 23 gespeichert. Bei diesen Funktionen repräsentieren die Parameter X, Y und Z die veränderlichen Positionen der Arme und Hände des Roboters, während die Parameter A, B und Γ die Orientierungen in den entsprechenden Positionen darstellen und der Parameter V die Verfahrgeschwindigkeiten der Arme und Hände des Roboters angibt. Da die Positionen, in denen der Roboter 3 die betreffenden Teile erfaßt, automatisch mittels der CCD- Kameras 11a und 11b erkennt, werden diese Daten häufig aus den obengenannten Funktionen ausgeschlossen und sind in der Fig. 6 nicht dargestellt.
  • Die Funktionsweise des Aufgabenplanungsabschnittes 13a erfolgt gemäß dem in der Fig. 7 dargestellten Flußdiagramm.
  • Zur näheren Erläuterung: In Schritt X1 werden Aufgaben zum Versetzen der Teile in vorbestimmte Positionen gemäß den Teilanordnungsdaten sowie den dreidimensionalen Positions - und Orientierungsdaten, die im Montagedatenspeicher 21 abgelegt sind, vorbestimmt. In Schritt X2 werden die in Schritt X1 gebildeten Aufgaben für die entsprechenden Teile sequentiell im Aufgabenbereich 22b des Aufgabenspeichers 22 abgespeichert.
  • Nachdem die Aufgaben für alle Teile in Schritt X2 im Aufgabenspeicher 22 abgespeichert sind, erfolgt in Schritten X3 bis X5 der Ablauf der Aufgabenfolge mit den entsprechenden Aufgaben. Ist demnach ein Produkt auf die in den Fig. 8A bis 8D dargestellte Weise aufgebaut, so ist die Aufgabenfolge auf Basis einer vorgegebenen Zusammenbauregel eingerichtet.
  • In dem in der Fig. 8A dargestellten Fall werden Teile a1 und a2, die den unteren Bereich eines anzufertigenden Produktes bilden, montiert. Danach wird Teil a3, das den oberen Bereich des Produktes bildet, auf den unteren Teilen a1 und a2 angeordnet. Im einzelnen bedeutet dies, daß die Höhenverhältnisse zwischen den Teilen durch Vergleich der Positionen der im Montagedatenspeicher 21 gehaltenen Teilanordnungsdaten in Richtung der Höhe (Richtung der Z-Achse) ermittelt und die Aufgabenfolgen für die im unteren Bereich angeordneten Teile vor der Aufgabenfolge für das im oberen Bereich angeordnete Teil eingerichtet werden.
  • Im Beispiel nach Fig. 8B wird ein Teil b1 auf einem Teil b3 montiert, nachdem ein Teil b2 auf dem Teil b3 angebracht wurde, wodurch das freie Sichtfeld der CCD-Kameras 30a und 30b während eines Zusammenbauvorgangs eines Produktes sichergestellt ist.
  • In Fig. 8C mit aufeinanderfolgendem Aufbau von Teilen ausgehend vom unteren Teil c3, wie in Fig. 8A dargestellt, kann ein Teil c2 nicht stabil befestigt werden. Aus diesem Grund werden die Teile c1 und c2 vorab zusammengebaut und anschließend die zusammengebauten Teile c1 und c2 auf einer Fläche P des Teils c3 angeordnet.
  • In Fig. 8D erfolgt der Zusammenbau der Teile gemäß der in Fig. 9A dargestellten Folge; da jedes Teil montiert wird, während es von der Hand 30 des Roboters gefaßt ist, wird die Hand 30 des Roboters durch ein Teil d1 oder d3, das bereits im Bereich der Position angebracht ist, in der ein Teil d2 zu montieren ist, behindert, so daß das Teil d2 nicht montiert werden kann. Aus diesem Grund werden die Teile gemäß der in Fig. 9B dargestellten Folge montiert.
  • Die im Aufgabenspeicher 22 abgespeicherten Aufgaben werden gemäß der oben beschriebenen Zusammenbauregel miteinander verglichen, wobei die Aufgabenfolgenummer einer Aufgabe mit höchster Priorität als 1 gesetzt ist. Danach wird 1 in einem der Aufgabe entsprechenden Sequenzbereich abgelegt. Die übrigen Aufgaben werden miteinander verglichen, mit Ausnahme der Aufgabe mit der Folgenummer 1, und die Folgenummer einer Aufgabe mit höchster Priorität wird als 2 gesetzt. Danach wird 2 in einem der Aufgabe entsprechenden Sequenzbereich abgelegt. Eine Aufgabenfolge aller der im Aufgabenspeicher 22 abgespeicherten Ausgaben wird auf diese Weise erstellt.
  • Nach Einstellung der Aufgaben und der Aufgabenfolge im Aufgabenspeicher 22 wird der Aufgabenplanungsabschnitt 13b gemäß dem Flußdiagramm nach Fig. 10 abgewickelt.
  • In Schritt Y1 wird Aufgabenfolge A des Aufgabenspeichers 22 auf 1 gesetzt. In Schritt Y2 werden die Aufgaben gemäß der im Aufgabenspeicher 22 abgespeicherten Aufgabenfolge ausgelesen. In Schritt Y3 werden die im Standardoperationsfunktionsspeicher 23 gespeicherten Verfahrbewegungsbefehlsdaten P1 bis Pn unter Verwendung der dreidimensionalen Positions- und Orientierungsdaten der ausgelesenen Aufgabe sowie sonstiger zur Durchführung der Aufgabe erforderlicher verschiedener Daten berechnet. Die berechneten Verfahrbewegungsbefehlsdaten P1 bis Pn werden an das Verfahrbewegungssteuermodul 14 übergeben (Schritt Y4).
  • Nach der Berechnung der Verfahrbewegungsbefehlsdaten P1 bis Pn in der oben beschriebenen Weise zur Steuerung der Arme 4 und 5 sowie der Hände 6 und 7 des Roboters 3 für die Durchführung einer Aufgabe, wird die Aufgabenfolge A um Eins hochgezählt (Schritt Y5). Die Schritte Y2 bis Y5 werden wiederholt, bis die in Schritt Y6 um Eins hochgezählte Aufgabenfolge A die Anzahl N der im Aufgabenspeicher 22 abgespeicherten Aufgaben überschreitet.
  • Das Verfahrbewegungssteuermodul 14 steuert den Roboter 3 unter Verwendung der vom Ausgabenplanungsmodul 13b aus gegebenen Verfahrbewegungsbefehlsdaten gemäß dem Flußdiagramm nach Fig. 11.
  • Im einzelnen: In Schritt Z1 werden die vom Aufgabenplanungsmodul 13b ausgegebenen Verfahrbewegungsbefehlsdaten P1 bis Pn sowie die Aufgabenfolge in einem (nicht dargestellten) Verfahrbewegungsbefehlsdatenspeicher des Verfahrbewegungssteuermoduls 14 gespeichert. Tn Schritt Z2 wird geprüft, ob die allen Aufgaben entsprechenden Verfahrbewegungsbefehlsdaten im Verfahrbewegungsbefehlsdatenspeicher abgelegt sind. Nach dem Abspeichern sämtlicher Verfahrbewegungsbefehlsdaten wird die Aufgabenfolge A auf den Ausgangswert 1 gesetzt. In Schritt Z4 werden die der Aufgabefolge A entsprechenden Verfahrbewegungsbefehlsdaten P1 bis Pn aus dem Verfahrbewegungbefehlsdatenspeicher ausgelesen und zum Roboter 3 ausgegeben. Der Roboter 3 versetzt die nacheinander von der Fördereinrichtung 2 zugeführten Teile in die gemäß den Verfahrbewegungsbefehlsdaten P1 bis Pn vorgegebenen Positionen.
  • Nachdem der Roboter 3 eine Aufgabe in Schritt Z5 abgewickelt hat, wird die Aufgabenfolge A um Eins hochgezählt (Schritt Z6). In Schritt Z7 wird die um Eins hochgezählte Aufgabenfolge mit der Anzahl N der Aufgaben verglichen. Diese Aufgaben werden in den Schritten Z4 bis Z6 wiederholt, bis die Aufgabenfolge A die Anzahl N der Aufgaben überschreitet. Überschreitet die Aufgabenfolge A die letzte Folge N in Schritt Z7, so ist eine Aufgabe für die Anfertigung eines Produktes durch den Roboter 3 abgeschlossen.
  • Dementsprechend werden die Formdaten der in der Probe enthaltenen Teile im Teilformspeicher 19 vorabgespeichert. Danach wird die Probe 10 mit derselben Anordnung wie die des anzufertigenden Produkts auf einen Drehtisch im Sichtfeld der am Roboter 3 angeordneten CCD-Kameras 11a und 11b gelegt und dieser einmal gedreht. Zu diesem Zeitpunkt erfassen die CCD-Kameras 11a und 11b zweidimensionale Bilddaten der Probe 10 aus einer Vielzahl von Richtungen. Danach wird der Aufbau der Probe 10 durch das Aufbaudetektormodul 12 auf Basis der erhaltenen zweidimensionalen Bilddaten ermittelt. Das Aufgabenplanungsmodul 13 bestimmt die Aufgaben und eine Aufgabenfolge für die Anfertigung des Produkts und gibt die Verfahrbewegungsbefehlsdaten über das Verfahrbewegungssteuermodul 14 zur Steuerung der Arme 4 und 5 sowie der Hände 6 und 7 an den Roboter 3 aus.
  • Wie oben beschrieben, kann ein Produkt mit einer zu Probe 10 identischen Anordnung automatisch durch den Roboter 3 angefertigt werden, indem die Teilformdaten im voraus gespeichert werden. Dementsprechend werden Programme zur Erkennung des dreidimensionalen Aufbaus der Probe 10 und der Erstellung einer Aufgabenfolge vorgegeben, so daß die Anfertigung eines Produktes durch einfache Änderung des Aufbaus der Probe 10 beliebig modifizierbar ist. Aus diesem Grund wird kein hauptberuflich eingesetzter Programmierer benötigt; die Leistungsfähigkeit des Montageroboters kann verbessert werden. Ferner entfällt die Notwendigkeit, das Programm nach jeder Änderung des Aufbaus der Probe 10 auszutesten.
  • Die vorliegende Erfindung ist nicht auf die obenbeschriebene Ausführungsform beschränkt; innerhalb des Grundgedankens und Rahmens der Erfindung sind verschiedene Änderungen und Modifikationen möglich. So ist es z.B. möglich, den Roboter 3 für die Anfertigung eines Produktes durch Versetzen von Teilen, das Verfahrbewegungssteuermodul 14, das Aufbaudetektormodul 12 zur Erkennung des Aufbaus der Probe 10 und zur Planung der Aufgaben sowie das Aufgabenplanungsmodul 13 unabhängig voneinander zu betreiben, so daß die Anzahl der Aufbaudetektor- sowie der Aufgabenplanungsmodule kleiner sein kann als die Anzahl der Roboter und der Verfahrbewegungssteuermodule, wenn eine Vielzahl von Montagerobotern installiert ist. Der Grund hierfür ist, daß das Aufbaudetektormodul 12 und das Aufgabenplanungsmodul 13 nur dann erforderlich sind, wenn der Aufbau eines Produktes geändert wird.

Claims (9)

1. Verfahren zum Steuern eines Roboters zum Zusammenstellen eines Gegenstandsproduktes mit der gleichen Konstruktion wie diejenige eines Probenproduktes, das aus einer Vielzahl von Probenteilen mit bekannten Formen besteht, umfassend die folgenden Schritte:
- Stellen einer Vielzahl von Aufgaben zum Bewegen einer Vielzahl von Gegenstandsteilen zu gewünschten Positionen,
- Stellen einer Aufgabenfolge mit der Vielzahl von Aufgaben zum Konstruieren des Gegenstandsproduktes,
- Erzeugen von Bewegungsbefehlsdaten gemäß der gestellten Aufgabensequenz, und
- Steuern des Roboters gemäß den erzeugten Bewegungsbefehlsdaten,
gekennzeichnet durch
- Messen einer 3-dimensionalen Form des Probenproduktes durch Abbilden des Probenproduktes mittels eines Paares von Kameras (11a, 11b), und
- Erfassen der Konstruktion des Probenproduktes aus der gemessenen 3-dimensionalen Form des Probenproduktes, um Anordnungsdaten des Probenproduktes zu erhalten, wobei die Anordnungsdaten die gewünschte Position darstellen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Anordnungsdaten 3-dimensionale Positionsdaten der das Probenprodukt bildenden Probenteile und Orientierungsdaten an entsprechenden 3-dimensionalen Positionen umfassen.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß Formen der Probenteile darstellende Daten vor abgespeichert werden, um mit Daten verglichen zu werden, die die gemessenen 3-dimensionalen Formen des Probenproduktes darstellen.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß bei einer Änderung des Probenproduktes eine 3-dimensionale Form des geänderten Probenproduktes gemessen wird, um neue Anordnungsdaten des geänderten Probenproduktes zu erlangen, eine Vielzahl von neuen Aufgaben gemäß den neuen Anordnungsdaten gestellt wird und der Roboter durch eine neue Aufgabensequenz mit den gestellten neuen Aufgaben gesteuert wird.
5. System zum Steuern eines Roboters zum Konstruieren eines Gegenstandsproduktes mit der gleichen Konstruktion wie diejenige eines Probenproduktes, das aus einer Vielzahl von Probenteilen mit bekannten Formen gebildet ist, mit:
einer Aufgabenstelleinrichtung zum Stellen einer Vielzahl von Aufgaben zum Bewegen einer Vielzahl von Gegenstandsteilen zu gewünschten Positionen;
- einer Aufgabensequenzeinstelleinrichtung zum Stellen einer Aufgabensequenz mit der Vielzahl von Aufgaben zum Konstruieren des Gegenstandsproduktes;
- einer Befehlserzeugungseinrichtung zum Erzeugen von Bewegungsbefehlsdaten gemäß der gestellten Aufgabensequenz; und
- einer Steuereinrichtung zum Steuern des Roboters gemäß den erzeugten Bewegungsbefehlsdaten;
gekennzeichnet durch
- eine Meßeinrichtung (11a, 11b) für 3-dimensionale Form zum Messen einer 3-dimensionalen Form des Probenproduktes durch Abbilden des Probenproduktes mittels eines Paares von Kameras; und
- eine Konstruktionsdetektoreinrichtung (12) zum Erfassen der Konstruktion des Probenproduktes aus der gemessenen 3-dimensionalen Form des Probenproduktes, um Anordnungsdaten des Probenproduktes zu erhalten, wobei die Anordnungsdaten die gewünschte Position darstellen.
6. System nach Anspruch 5, dadurch gekennzeichnet, daß die Anordnungsdaten 3-dimensionale Positionsdaten der das Probenprodukt bildenden Probenteile und Orientierungsdaten an entsprechenden 3-dimensionalen Positionen umfassen.
7. System nach Anspruch 5, dadurch gekennzeichnet, daß die Konstruktionsdetektoreinrichtung eine Teileformspeichereinrichtung (19) zum Speichern von Daten umfaßt, die die Formen von Probenteilen darstellen, die das Probenprodukt bilden.
8. System nach Anspruch 7, dadurch gekennzeichnet, daß die in der Teileformspeichereinrichtung (19) vorabgespeicherten Daten mit Daten verglichen werden, die die geinessene 3-dimensionale Form des Probenproduktes darstellen.
9. System nach einem der Ansprüche 5 bis 8, dadurch gekennzeichnet, daß bei einer Änderung des Probenproduktes eine 3-dimensionale Form des geänderten Probenproduktes durch eine 3-dimensionale Positionsdetektorschaltung (16) zum Erlangen neuer Anordnungsdaten des geänderten Probenproduktes meßbar ist, daß eine Vielzahl von neuen Aufgaben in der Aufgabenstelleinrichtung gemäß den neuen Anordnungsdaten gestellt ist und daß der Roboter durch eine neue Aufgabensequenz mit den gestellten neuen Aufgaben gesteuert ist.
DE8888107982T 1987-05-21 1988-05-18 Verfahren und system zur robotersteuerung zum zusammenstellen von produkten. Expired - Fee Related DE3874205T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62124606A JPS63288683A (ja) 1987-05-21 1987-05-21 組立てロボット

Publications (2)

Publication Number Publication Date
DE3874205D1 DE3874205D1 (de) 1992-10-08
DE3874205T2 true DE3874205T2 (de) 1993-01-14

Family

ID=14889599

Family Applications (1)

Application Number Title Priority Date Filing Date
DE8888107982T Expired - Fee Related DE3874205T2 (de) 1987-05-21 1988-05-18 Verfahren und system zur robotersteuerung zum zusammenstellen von produkten.

Country Status (5)

Country Link
US (1) US4835450A (de)
EP (1) EP0291965B1 (de)
JP (1) JPS63288683A (de)
KR (1) KR910000873B1 (de)
DE (1) DE3874205T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10324755A1 (de) * 2003-03-04 2004-09-16 K-Robotix GmbH Vorrichtung zum Stapeln und/oder Entstapeln von Gegenständen
DE10349021A1 (de) * 2003-10-13 2005-05-12 Deutsche Post Ag Verfahren und Anordnung zum Aufnehmen von quaderförmigem Stückgut aus einem Container, von einem LKW-Aufbau oder einem dergleichen einseitig offenen Laderaum und zur Ablage des Stückgutes

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5506682A (en) * 1982-02-16 1996-04-09 Sensor Adaptive Machines Inc. Robot vision using targets
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
JP2735126B2 (ja) * 1988-12-27 1998-04-02 キヤノン株式会社 ロボットの制御方法及びその制御装置
US5142803A (en) * 1989-09-20 1992-09-01 Semborg-Recrob, Corp. Animated character system with real-time contol
US5198893A (en) * 1989-09-20 1993-03-30 Semborg Recrob, Corp. Interactive animated charater immediately after the title
JPH03154105A (ja) * 1989-11-10 1991-07-02 Toshiba Mach Co Ltd Ncプログラム作成装置
US4999553A (en) * 1989-12-28 1991-03-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for configuration control of redundant robots
EP0452944A1 (de) * 1990-04-18 1991-10-23 Hitachi, Ltd. Verfahren und Einrichtung zur Festlegung von Montageschritten
DE4112736C2 (de) * 1990-04-19 1994-12-15 Nissan Motor Vorrichtung und Verfahren zum Erstellen einer Form mit variabler Gestalt
FR2675612B1 (fr) * 1991-04-19 1993-08-13 Nicolas Chretien Mannequin audio visuel.
JP2604073B2 (ja) * 1991-07-15 1997-04-23 工業技術院長 ロボットによる組み立て装置
US5237468A (en) * 1991-10-15 1993-08-17 International Business Machines Corporation Camera and gripper assembly for an automated storage library
US5631973A (en) 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
DE4202922A1 (de) * 1992-02-01 1993-08-05 Zeiss Carl Fa Motorisches stativ
US5443354A (en) * 1992-07-20 1995-08-22 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Hazardous materials emergency response mobile robot
US5300869A (en) * 1992-07-30 1994-04-05 Iowa State University Research Foundation, Inc. Nonholonomic camera space manipulation
AU5363494A (en) * 1992-10-19 1994-05-09 Jeffrey Scott Jani Video and radio controlled moving and talking device
US5511147A (en) * 1994-01-12 1996-04-23 Uti Corporation Graphical interface for robot
US6073750A (en) * 1994-01-13 2000-06-13 Ethicon, Inc. Needle transfer device
US5568593A (en) * 1994-01-13 1996-10-22 Ethicon, Inc. Robotic control system for a needle sorting and feeding apparatus
US6123185A (en) * 1994-01-13 2000-09-26 Ethicon, Inc. Needle sorting device
US5659477A (en) * 1994-12-28 1997-08-19 Collins; Charles Michael Self reproducing fundamental fabricating machines (F-Units)
US5903663A (en) * 1995-02-15 1999-05-11 Tiede GmbH & Co.Risprufanlagen Automatic error recognition apparatus
IL115971A (en) * 1995-11-14 1997-01-10 Razon Moshe Computer stereo vision system and method
US6226395B1 (en) * 1996-04-22 2001-05-01 Malcolm T. Gilliland Method and apparatus for determining the configuration of a workpiece
WO1998017444A1 (fr) * 1996-10-24 1998-04-30 Fanuc Ltd Systeme de robot de commande de forces a capteur optique pour travail d'insertion
US5908283A (en) 1996-11-26 1999-06-01 United Parcel Service Of Americia, Inc. Method and apparatus for palletizing packages of random size and weight
US5757419A (en) * 1996-12-02 1998-05-26 Qureshi; Iqbal Inspection method and apparatus for tanks and the like
US6032343A (en) * 1997-02-24 2000-03-07 Ethicon, Inc. Automated swage wind and packaging machine
US6012216A (en) * 1997-04-30 2000-01-11 Ethicon, Inc. Stand alone swage apparatus
US6115650A (en) * 1997-04-30 2000-09-05 Ethicon, Inc. Robotic control system for needle sorting and feeder apparatus
US5911449A (en) * 1997-04-30 1999-06-15 Ethicon, Inc. Semi-automated needle feed method and apparatus
US6059092A (en) * 1997-12-23 2000-05-09 Fanuc Robotics North America, Inc. Material handling robot and rail assembly
US5959425A (en) * 1998-10-15 1999-09-28 Fanuc Robotics North America, Inc. Vision guided automatic robotic path teaching method
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
RU2257995C2 (ru) * 2000-11-17 2005-08-10 Хонда Гикен Когё Кабусики Кайся Двуногий робот
GB2374266A (en) * 2001-04-04 2002-10-09 Matsushita Comm Ind Uk Ltd Virtual user interface device
JP2003060004A (ja) * 2001-08-20 2003-02-28 Yaskawa Electric Corp ロボットハンド
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
JP2005515910A (ja) * 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
KR100459605B1 (ko) * 2002-03-29 2004-12-04 주식회사 에프에이플러스 차체조립용 대차의 비전제어 장치 및 그 방법
FR2872728B1 (fr) * 2004-07-06 2006-09-15 Commissariat Energie Atomique Procede de saisie d'un objet par un bras de robot muni d'une camera
JP2008506953A (ja) * 2004-07-14 2008-03-06 ブレインテック カナダ インコーポレイテッド 機械視覚のための方法及び装置
JP2007090448A (ja) * 2005-09-27 2007-04-12 Honda Motor Co Ltd 二次元コード検出装置及びそのプログラム、並びに、ロボット制御情報生成装置及びロボット
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
WO2007149183A2 (en) * 2006-05-25 2007-12-27 Braintech Canada, Inc. System and method of robotically engaging an object
WO2008036354A1 (en) 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
WO2008076942A1 (en) * 2006-12-15 2008-06-26 Braintech Canada, Inc. System and method of identifying objects
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP5071361B2 (ja) * 2008-12-09 2012-11-14 株式会社安川電機 複腕ロボットの作業プログラム作成方法および複腕ロボット
JP5509645B2 (ja) * 2009-03-25 2014-06-04 富士ゼロックス株式会社 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置
WO2010122445A1 (en) * 2009-04-23 2010-10-28 Koninklijke Philips Electronics N.V. Object-learning robot and method
US9361695B2 (en) * 2012-12-11 2016-06-07 Honda Motor Co., Ltd. Method of recognizing a position of a workpiece from a photographed image
US9778650B2 (en) * 2013-12-11 2017-10-03 Honda Motor Co., Ltd. Apparatus, system and method for kitting and automation assembly
JP2015226963A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6459227B2 (ja) * 2014-06-02 2019-01-30 セイコーエプソン株式会社 ロボットシステム
CN104325268A (zh) * 2014-11-04 2015-02-04 南京赫曼机器人自动化有限公司 一种基于智能学习的工业机器人三维空间自主装配方法
WO2017046835A1 (ja) * 2015-09-14 2017-03-23 株式会社日立製作所 組立動作教示装置及び組立動作教示方法
WO2017159562A1 (ja) * 2016-03-14 2017-09-21 オムロン株式会社 動作情報生成装置
JP6614075B2 (ja) 2016-09-07 2019-12-04 株式会社ダイフク 物品積載設備
JP6533200B2 (ja) 2016-09-20 2019-06-19 平田機工株式会社 部品支持装置および製造方法
JP2018167334A (ja) * 2017-03-29 2018-11-01 セイコーエプソン株式会社 教示装置および教示方法
DE112017007392B4 (de) 2017-04-04 2021-11-04 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE112017007394B4 (de) * 2017-04-04 2020-12-03 Mujin, Inc. Informationsverarbeitungsvorrichtung, Greifsystem, Verteilersystem, Programm und Informationsverarbeitungsverfahren
DE112017007398B4 (de) 2017-04-04 2021-11-18 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren
CN110494258B (zh) 2017-04-04 2022-08-09 牧今科技 控制装置、拾取系统、物流系统、程序、控制方法以及生产方法
CN110494259B (zh) 2017-04-04 2020-11-10 牧今科技 控制装置、拾取系统、物流系统、程序、控制方法以及生产方法
JP6795007B2 (ja) * 2018-04-27 2020-12-02 株式会社ダイフク ピッキング設備
CN108994601B (zh) * 2018-07-06 2020-05-08 成都姜业光电科技有限公司 一种基于图像检测的仪表组件装配精度的装配方法
JP7368135B2 (ja) * 2019-07-31 2023-10-24 ファナック株式会社 複数の可動部を有する物品搬送システム
JP2022120649A (ja) * 2021-02-05 2022-08-18 オムロン株式会社 制御システム、動作計画装置、制御装置、動作計画及び制御方法、動作計画方法、並びに制御方法
CN114310883A (zh) * 2021-12-24 2022-04-12 深圳巨隆基科技有限公司 一种基于多知识库的机械臂自主装配方法
WO2024048426A1 (ja) * 2022-08-29 2024-03-07 リンクウィズ株式会社 製造システム、制御方法及び制御プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2018422B (en) * 1978-03-29 1983-01-19 Hitachi Ltd Mark detecting system
SE443531B (sv) * 1978-11-27 1986-03-03 Asea Ab Industrirobotutrustning
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US4305130A (en) * 1979-05-29 1981-12-08 University Of Rhode Island Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
GB2180117B (en) * 1985-09-05 1989-09-06 Ferranti Plc Three-dimensional position measuring apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10324755A1 (de) * 2003-03-04 2004-09-16 K-Robotix GmbH Vorrichtung zum Stapeln und/oder Entstapeln von Gegenständen
DE10349021A1 (de) * 2003-10-13 2005-05-12 Deutsche Post Ag Verfahren und Anordnung zum Aufnehmen von quaderförmigem Stückgut aus einem Container, von einem LKW-Aufbau oder einem dergleichen einseitig offenen Laderaum und zur Ablage des Stückgutes

Also Published As

Publication number Publication date
JPS63288683A (ja) 1988-11-25
US4835450A (en) 1989-05-30
KR910000873B1 (ko) 1991-02-11
EP0291965A1 (de) 1988-11-23
EP0291965B1 (de) 1992-09-02
KR880014431A (ko) 1988-12-23
DE3874205D1 (de) 1992-10-08

Similar Documents

Publication Publication Date Title
DE3874205T2 (de) Verfahren und system zur robotersteuerung zum zusammenstellen von produkten.
DE69105476T2 (de) Verfahren zum kalibrieren eines optischen sensors.
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102018118330B4 (de) Simulationseinrichtung und Simulationsverfahren für Robotersystem
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE3587061T2 (de) Bildverarbeitungseinrichtung und verfahren zu deren steuerung.
DE102010017763A1 (de) Gerät zum Anzeigen des Werkzeugwegs für Werkzeugmaschinen
DE102014118001A1 (de) Verfahren zur Bewegungssimulation eines Manipulators
EP3797337A1 (de) Verfahren zum hantieren eines werkstücks mit hilfe eines entnahmewerkzeugs und maschine zur durchführung des verfahrens
EP1330686B1 (de) Verfahren zum generieren eines messprogrammes für ein koordinatenmessgerät
DE10393527T5 (de) Systeme und Verfahren zur Darstellung komplexer n-Kurven für die Direktsteuerung einer Werkzeugbewegung
DE112019007579B4 (de) Numerische-Steuerung-Vorrichtung und Maschinelles-Lernen-Gerät
DE102019102927A1 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102005060980B4 (de) Verfahren und System zur Bestimmung eines kollisionsfreien dreidimensionalen Raumvolumens entlang eines Bewegungspfades gegenüber einer realen Umgebung
DE69804764T2 (de) Werkstückerkennungssystem für pulversprühbeschichtungssystem
DE102020200165A1 (de) Robotersteuereinrichtung und Verfahren zum Steuern eines Roboters
EP3785090A1 (de) Industrielle fertigungsstätte und verfahren zur automatisierten verbuchung von manuellen tätigkeiten
DE102021118022A1 (de) Bildverarbeitungseinrichtung
DE10013137B4 (de) Verfahren zur bildgesteuerten Prüfung und Bearbeitung von Produkten
DE102004020004A1 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
EP3889890A1 (de) Verfahren zur messobjekterkennung auf basis von bilddaten
DE102019002889A1 (de) Bildverwaltungsvorrichtung
DE69029519T2 (de) Verfahren zum eingeben von lerndaten in einem visuell geführten system
DE3332508C2 (de)

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee