DE102018004326A1 - Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks - Google Patents

Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks Download PDF

Info

Publication number
DE102018004326A1
DE102018004326A1 DE102018004326.7A DE102018004326A DE102018004326A1 DE 102018004326 A1 DE102018004326 A1 DE 102018004326A1 DE 102018004326 A DE102018004326 A DE 102018004326A DE 102018004326 A1 DE102018004326 A1 DE 102018004326A1
Authority
DE
Germany
Prior art keywords
workpiece
robot
moving image
unit
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018004326.7A
Other languages
English (en)
Other versions
DE102018004326B4 (de
Inventor
Tatsuya Oumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018004326A1 publication Critical patent/DE102018004326A1/de
Application granted granted Critical
Publication of DE102018004326B4 publication Critical patent/DE102018004326B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36494Record position and inclination of tool, wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Eine Einlernvorrichtung umfasst eine Einheit zum Erzeugen eines Bewegtbildes, die ein Bewegtbild erzeugt, in dem ein Werkstück bewegt wird, eine Positionsdetektionseinheit, welche die Greifposition detektiert, in der eine Hand zugreift, und eine Einheit zum Einstellen von Einlernpunkten, die einen Einlernpunkt einstellt. Die Positionsdetektionseinheit detektiert die Greifposition am Werkstück, wenn die Einheit zum Erzeugen eines Bewegtbildes das Werkstück in dem Bewegtbild bewegt. Die Einheit zum Einstellen von Einlernpunkten stellt den Einlernpunkt basierend auf der Greifposition des Werkstücks ein.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Robotereinlernvorrichtung, die basierend auf einem Bewegtbild eines Werkstücks einen Einlernpunkt einstellt.
  • Allgemeiner Stand der Technik
  • Ein Roboter wird gesteuert, um in Übereinstimmung mit einem Betriebsprogramm, das im Voraus erstellt wird, angetrieben zu werden. Das Betriebsprogramm kann basierend auf Einlernpunkten erstellt werden, die durch einen Bediener vorgegeben werden. Der Bediener kann die Einlernpunkte durch die manuelle Betätigung eines tatsächlichen Roboters einstellen. Beispielsweise stellt der Bediener den Roboter auf eine gewünschte Position und eine gewünschte Ausrichtung ein, indem er ein Handbediengerät betätigt. Dabei kann die Position des Werkzeugmittelpunktes des Roboters als Einlernpunkt in einem Controller gespeichert werden.
  • Bei einem bekannten Verfahren werden Modelle eines Werkstücks und eines Roboters in einen Rechner eingegeben, und die Einlernpunkte des Roboters werden am Bildschirm eingestellt (beispielsweise Japanische Patent-Offenlegungsschrift Nr. 6-134684 und Japanische Patent-Offenlegungsschrift Nr. 2004-265041 ). Bei dem Offline-Verfahren des Einstellens der Einlernpunkte können die Einlernpunkte eingestellt werden, ohne den tatsächlichen Roboter zu bewegen. Der Rechner kann das Betriebsprogramm des Roboters derart erstellen, dass der Werkzeugmittelpunkt durch die Einlernpunkte oder nahe daran vorbeigeht, nachdem die Einlernpunkte eingestellt wurden.
  • Bei dem Offline-Einlernen für Roboter ist das Verfahren zum Überprüfen, ob eine Anomalie vorkommt oder nicht, indem eine Animation verwendet wird, wenn ein Roboter basierend auf einem erstellten Roboterbetriebsprogramm bewegt wird, bekannt (beispielsweise Japanische Patent-Offenlegungsschrift Nr. 2001-105359 und Japanische Patent-Offenlegungsschrift Nr. 62-274404 ).
  • KURZDARSTELLUNG DER ERFINDUNG
  • Bei dem Offline-Lernverfahren gemäß der verwandten Technik ist es notwendig, die Einlernpunkte des Roboters einer nach dem anderen gemäß der Bewegung des Roboters einzustellen. Entsprechend besteht das Problem, dass es lange dauert, die Einlernpunkte des Roboters einzustellen. Falls des Weiteren eine Hand zum Ergreifen des Werkstücks geändert wird, wird auch die Greifposition der Hand an dem Werkstück geändert. Falls somit die Hand geändert wird, ist es notwendig, die Einlernpunkte von Anfang an einzustellen.
  • Eine Robotereinlernvorrichtung gemäß einem Aspekt der vorliegenden Offenbarung stellt einen Einlernpunkt eines Roboters ein, der ein Werkstück ergreift und bewegt. Die Robotereinlernvorrichtung umfasst eine Einheit zum Erzeugen eines Bewegtbildes, die ein dreidimensionales Bewegtbild erzeugt, in dem sich das Werkstück bewegt. Die Robotereinlernvorrichtung umfasst eine Positionsdetektionseinheit, welche die Greifposition detektiert, in der eine Hand, die an dem Roboter angebracht ist, ein Werkstück ergreift, das in dem Bewegtbild angezeigt ist, und eine Einheit zum Einstellen von Einlernpunkten, die den Einlernpunkt einstellt. Die Beziehung zwischen der Greifposition an dem Werkstück und dem Einlernpunkt wird im Voraus bestimmt. Wenn die Einheit zum Erzeugen eines Bewegtbildes das Werkstück in dem Bewegtbild bewegt, detektiert die Positionsdetektionseinheit die Greifposition an dem Werkstück. Die Einheit zum Einstellen von Einlernpunkten stellt den Einlernpunkt basierend auf der Greifposition ein.
  • Figurenliste
  • Es zeigen:
    • 1 ein Blockdiagramm eines Robotersystems gemäß einer Ausführungsform.
    • 2 ein erstes Bild, das an dem Anzeigeteil einer Einlernvorrichtung angezeigt wird.
    • 3 ein Ablaufschema der Steuerung zum Einstellen von Einlernpunkten gemäß der Ausführungsform.
    • 4 ein zweites Bild zum Erklären eines Bewegtbildes einer Fahrzeugkarosserie, die an dem Anzeigeteil der Einlernvorrichtung angezeigt wird.
    • 5 eine vergrößerte perspektivische Ansicht einer Tür, um die Bewegung einer Greifposition zu erklären.
    • 6 ein drittes Bild, das an dem Anzeigeteil der Einlernvorrichtung angezeigt wird.
    • 7 ein Bild einer anderen Robotervorrichtung, die an dem Anzeigeteil der Einlernvorrichtung angezeigt wird.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Mit Bezug auf 1 bis 7 wird nachstehend eine Robotereinlernvorrichtung gemäß einer Ausführungsform beschrieben. Die Robotervorrichtung gemäß der vorliegenden Erfindung ist derart gebildet, dass sie ein Werkstück ergreift und bewegt. Die Einlernvorrichtung der vorliegenden Ausführungsform stellt die Einlernpunkte des Roboters offline ein.
  • 1 ist ein Blockdiagramm, das ein Robotersystem gemäß der vorliegenden Ausführungsform zeigt. Die Robotervorrichtung der vorliegenden Ausführungsform umfasst eine Hand 2, die das Werkstück ergreift, und einen Roboter 1, der die Hand 2 bewegt. Der Roboter 1 der vorliegenden Ausführungsform ist ein Knickarmroboter, der eine Mehrzahl von Gelenken aufweist. Der Roboter 1 umfasst eine Roboterantriebsvorrichtung 1a, die Motoren aufweist, um einen Arm und einen Handgelenkteil anzutreiben. Der Roboter 1 ist nicht auf diese Konfiguration eingeschränkt. Ein beliebiger Roboter, der die Hand 2 bewegen kann, kann stattdessen verwendet werden.
  • Die Hand 2 ist derart gebildet, dass sie das Werkstück ergreift. Die Hand 2 der vorliegenden Ausführungsform ergreift das Werkstück durch Ansaugen. Die Hand 2 umfasst eine Handantriebsvorrichtung 2a, die eine Pumpe oder dergleichen aufweist, welche die Hand 2 antreibt. Die Hand 2 kann ein beliebiges Betriebswerkzeug sein, das in der Lage ist, das Werkstück zu ergreifen. Beispielsweise kann die Hand 2 eine Hand, die mehrere Fingerteile aufweist und das Werkstück mit den mehreren Fingerteilen hält, eine Hand, die einen Haken aufweist, der in ein Loch eingreift, das in dem Werkstück gebildet ist, oder dergleichen sein.
  • Die Robotervorrichtung umfasst einen Roboter-Controller 3. Der Roboter-Controller 3 besteht aus einer arithmetischen Verarbeitungseinheit (Rechner), die eine CPU (Zentraleinheit), die als Prozessor dient, und einen RAM (Arbeitsspeicher) und einen ROM (Festspeicher), die über einen Bus mit der CPU verbunden sind, umfasst. Ein Betriebsprogramm zum Ausführen des Betriebs des Roboters 1 wird in den Roboter-Controller 3 eingegeben. Der Roboter-Controller 3 umfasst eine Speichereinheit 3b, die das Betriebsprogramm oder dergleichen speichert. Der Roboter-Controller 3 umfasst eine Bewegungssteuerungseinheit 3a, die einen Bewegungsbefehl zum Antreiben des Roboters 1 und der Hand basierend auf dem Betriebsprogramm sendet. Die Bewegungssteuerungseinheit 3a sendet den Bewegungsbefehl zum Antreiben der Roboterantriebsvorrichtung 1a und der Handantriebsvorrichtung 2a. Die Roboterantriebsvorrichtung 1a und die Handantriebsvorrichtung 2a werden gemäß dem Bewegungsbefehl angetrieben.
  • Das Robotersystem der vorliegenden Ausführungsform umfasst eine Einlernvorrichtung 10, das die Einlernpunkte des Roboters 1 einstellt. Die Einlernvorrichtung 10 der vorliegenden Ausführungsform weist die Funktion des Einstellens der Einlernpunkte und die Funktion des Erstellens des Betriebsprogramms des Roboters 1 basierend auf den eingestellten Einlernpunkten auf.
  • Die Einlernvorrichtung 10 besteht aus einer arithmetischen Verarbeitungseinheit (Rechner), die eine CPU, einen RAM und einen ROM umfasst. Die Einlernvorrichtung 10 umfasst eine Speichereinheit 17, die Informationen über die Einstellung der Einlernpunkte und das Betriebsprogramm speichert. Die Einlernvorrichtung 10 umfasst ein Eingabeteil 15, mit dem der Bediener beliebige Informationen eingibt. Das Eingabeteil 15 kann eine Tastatur oder eine Maus umfassen. Das Eingabeteil 15 ist derart gebildet, dass es eine Information als Reaktion auf einen Vorgang erzielt, der beispielsweise an einer Tastatur durch den Bediener ausgeführt wird. Das Eingabeteil 15 kann derart gebildet sein, dass es eine Information von einer externen Vorrichtung über eine Kommunikationsvorrichtung erzielt. Die Einlernvorrichtung 10 umfasst ein Anzeigeteil 16, das beispielsweise die Information über die Einstellung der Einlernpunkte oder das Betriebsprogramm anzeigt. Das Anzeigeteil 16 kann ein beliebiges Anzeigefeld, beispielsweise ein Flüssigkristall-Anzeigefeld, umfassen.
  • Die Einlernvorrichtung 10 der vorliegenden Ausführungsform umfasst eine Einheit 11 zum Erzeugen eines Bewegtbildes, die ein Bewegtbild erzeugt, in dem sich das Werkstück und der Roboter 1 bewegen. Die Einlernvorrichtung 10 umfasst eine Positionsdetektionseinheit 12, welche die Greifposition detektiert, in der die Hand 2 das Werkstück ergreift, das in dem Bewegtbild angezeigt wird. Die Positionsdetektionseinheit 12 detektiert die Greifposition an dem Werkstück, wenn die Einheit 11 zum Erzeugen eines Bewegtbildes das Werkstück in dem Bewegtbild bewegt. Des Weiteren umfasst die Einlernvorrichtung 10 eine Einheit 13 zum Einstellen von Einlernpunkten, welche die Einlernpunkte basierend auf der Greifposition an dem Werkstück einstellt.
  • 2 zeigt ein erstes Bild, das an dem Anzeigeteil der Einlernvorrichtung angezeigt wird. Bei der vorliegenden Ausführungsform wird eine Fahrzeugkarosserie 8 eines Kraftfahrzeugs als Werkstück abgebildet. Mit Bezug auf 1 und 2 wird ein Bild 31 am Bildschirm des Anzeigeteils 16 angezeigt. Das Bild 31 umfasst die Karosserie 8, den Roboter 1 und die Hand 2 zusätzlich zu den Hilfslinien 33. Die Robotervorrichtung führt einen Vorgang zum Öffnen einer Tür 9 der Karosserie 8 aus. Die Tür 9 kann um eine Drehachse 8a schwenken. Die Bewegung der Tür 9 der vorliegenden Ausführungsform wird im Voraus bestimmt. Mit anderen Worten wird die Bewegungsbahn von einem vorbestimmten Punkt an der Tür 9 im Voraus bestimmt.
  • Die Hand 2 der vorliegenden Ausführungsform ergreift einen Endteil der Tür 9 durch Ansaugen. Die Position und Ausrichtung des Roboters 1 werden derart geändert, dass sie die Hand 2 in der Richtung bewegen, die durch den Pfeil 91 angegeben wird, wodurch die Tür 9 geöffnet wird. Die Einlernvorrichtung 10 der vorliegenden Ausführungsform stellt die Einlernpunkte des Roboters 1 ein, wenn die Tür 9 geöffnet wird.
  • 3 zeigt ein Ablaufschema einer Steuerung, wenn die Einlernvorrichtung die Einlernpunkte einstellt. Mit Bezug auf 1 bis 3 gibt der Bediener ein dreidimensionales Modell 21 der Fahrzeugkarosserie 8, welche die Tür 9 umfasst, im Voraus in die Einlernvorrichtung 10 ein. Des Weiteren gibt der Bediener die dreidimensionalen Modelle 21 des Roboters 1 und der Hand 2 im Voraus ein. Für die dreidimensionalen Modelle können beispielsweise dreidimensionale Daten der Formen, die durch CAD (rechnergestützter Entwurf) erstellt werden, verwendet werden. Alternativ kann die Einlernvorrichtung 10 ein dreidimensionales Modell erfassen, wobei es sich um ein stereoskopisches Modell handelt, indem ein Bild beispielsweise der tatsächlichen Fahrzeugkarosserie 8 mit einer dreidimensionalen Kamera aufgenommen wird. Alternativ kann die Einlernvorrichtung 10 ein dreidimensionales Modell in der Einlernvorrichtung 10 bilden, indem sie eine Mehrzahl von zweidimensionalen Zeichnungsdaten verwendet, die beispielsweise durch eine CAD-Vorrichtung erstellt werden. Die Speichereinheit 17 speichert die eingegebenen dreidimensionalen Modelle 21.
  • 4 zeigt das zweite Bild zum Erklären des Bewegtbildes, wenn die Tür der Fahrzeugkarosserie bewegt wird. Die Einheit 11 zum Erzeugen eines Bewegtbildes zeigt ein Bild 34 der Fahrzeugkarosserie 8 an. Zu diesem Zeitpunkt wird das Bild des Roboters 1 nicht angezeigt. Der Bediener gibt eine Position 71 der geschlossenen Tür 9 und eine Position 72 der geöffneten Tür 9 vor. Die Position 71 ist die Position, in der die Bewegung des Werkstücks beginnt. Die Position 72 ist die Position, in der die Bewegung des Werkstücks endet. Nun kann der Bediener eine Information über die Öffnungsgeschwindigkeit der Tür 9 eingeben. Beispielsweise kann der Bediener eine Zeit von einem geschlossenen Zustand in einen geöffneten Zustand der Tür 9 einstellen.
  • Mit Bezug auf 3 und 4 erzeugt in Schritt 81 die Einheit 11 zum Erzeugen eines Bewegtbildes der Einlernvorrichtung 10 ein dreidimensionales Bewegtbild, in dem sich das Werkstück bewegt. Die Einheit 11 zum Erzeugen eines Bewegtbildes erzeugt ein Bewegtbild (Animation), in dem die Tür 9 der Fahrzeugkarosserie 8 basierend auf dem dreidimensionalen Modell 21 der Fahrzeugkarosserie 8 bewegt wird. Die Einheit 11 zum Erzeugen eines Bewegtbildes kann das Bewegtbild gemäß einem beliebigen Verfahren zum Erzeugen einer dreidimensionalen Animation erzeugen. Beispielsweise erzeugt die Einheit 11 zum Erzeugen eines Bewegtbildes das Bewegtbild aus fünf Einzelbildern pro Sekunde. Die Einheit 11 zum Erzeugen eines Bewegtbildes erzeugt das Bewegtbild der Tür 9, die sich von der Position 71 in die Position 72 öffnet. In dem Bild 34 kann das Bewegtbild der Tür 9 kontinuierlich von einem geschlossenen Zustand in einen geöffneten Zustand angezeigt werden, wie durch den Pfeil 91 angegeben.
  • Anschließend in Schritt 82 gibt der Bediener die Greifposition der Hand 2 an der Tür 9 vor. Während die Tür 9 geschlossen wird, gibt der Bediener die Greifposition 42 in dem Bild 34 durch die Betätigung einer Maus vor. Ferner gibt der Bediener eine Greifregion 41 vor, wobei es sich um eine Region zum Ergreifen der Tür 9 mit der Hand 2 handelt. Die Ausrichtung der Greifregion 41 entspricht der Ausrichtung der Hand 2. Die Greifposition 42 kann in der Greifregion 41 eingestellt werden.
  • Die Greifposition 42 und die Greifregion 41 an dem Werkstück werden nicht immer durch den Bediener über die Einlernvorrichtung 10 vorgegeben. Das dreidimensionale Modell 21 kann eine Information über die Greifposition 42 und eine Information über die Greifregion 41 umfassen.
  • 5 zeigt eine vergrößerte perspektivische Ansicht, um den Zustand der Tür zu erklären, wenn die Positionsdetektionseinheit die Greifposition detektiert. Mit Bezug auf 3 und 5 beginnt die Einlernvorrichtung 10 in Schritt 83 damit, einen Einlernpunkt einzustellen. Zuerst detektiert die Positionsdetektionseinheit 12 eine Greifposition 42a in einem anfänglichen Zustand, in dem die Tür 9 geschlossen ist. Beispielsweise detektiert die Positionsdetektionseinheit 12 die Koordinatenwerte der Greifposition 42a in einem vorbestimmten Koordinatensystem. Die Detektion der Greifposition 42a umfasst die Detektion der Ausrichtung des Werkstücks. Die Positionsdetektionseinheit 12 detektiert die Ausrichtung des Werkstücks in der Greifposition 42a. Die Ausrichtung des Werkstücks kann beispielsweise die Richtung sein, die sich auf die Oberfläche der Greifregion 41 bezieht. Die Ausrichtung des Werkstücks kann zu der Greifregion 41 in der Greifposition 42a rechtwinklig sein.
  • Die Beziehung zwischen der Greifposition 42a an der Tür 9 und dem Einlernpunkt des Roboters 1 wird im Voraus bestimmt. Die Greifposition 42a entspricht der Position des Werkzeugmittelpunktes der Hand 2. Die Position des Einlernpunktes kann beispielsweise als ein Punkt eingestellt werden, der von der Greifposition 42a um einen vorbestimmten Abstand in einer Richtung getrennt ist, die zu der Greifregion 41 rechtwinklig ist. Beispielsweise berechnet die Einheit 13 zum Einstellen von Einlernpunkten den Koordinatenwert des Werkzeugmittelpunktes in dem vorbestimmten Koordinatensystem. Des Weiteren ist bei der Einstellung des Einlernpunktes die Einstellung der Ausrichtung der Hand 2 enthalten. Die Einheit 13 zum Einstellen von Einlernpunkten kann die Ausrichtung der Hand 2 basierend auf der Ausrichtung des Werkstücks einstellen, die durch die Positionsdetektionseinheit 12 detektiert wird. Die Einheit 13 zum Einstellen von Einlernpunkten kann den Einlernpunkt des anfänglichen Zustands, in dem die Tür 9 geschlossen ist, basierend auf der Greifposition 42a und der Ausrichtung der Greifregion 41 einstellen.
  • Anschließend bewegt in Schritt 84 die Einheit 11 zum Erzeugen eines Bewegtbildes die Tür 9 in der Richtung des Pfeils 91. Der Bewegungsbetrag der Tür 9 gemäß der vorliegenden Ausführungsform wird in vorbestimmten Zeitintervallen bestimmt. Die Einheit 11 zum Erzeugen eines Bewegtbildes bewegt die Tür 9 in der Richtung, in der die Tür geöffnet wird, in der vorbestimmten Zeit. In diesem Fall bewegt die Einheit 11 zum Erzeugen eines Bewegtbildes die Tür 9 von der Greifposition 42a in die Greifposition 42b basierend auf der Zeit eines einzigen Vorgangs.
  • In Schritt 85 detektiert die Positionsdetektionseinheit 12 die Greifposition 42b basierend auf dem Zustand der Tür 9 nach der Bewegung. Die Greifposition bewegt sich an einer Bewegungsbahn entlang, die auf der Bewegung der Tür 9 basiert. Die Einheit 13 zum Einstellen von Einlernpunkten stellt den Einlernpunkt entsprechend der Greifposition 42b ein.
  • Anschließend bestimmt die Einheit 13 zum Einstellen von Einlernpunkten in Schritt S6, ob das Bewegtbild beendet ist oder nicht. Falls das Bewegtbild nicht beendet ist, fährt die Steuerung mit Schritt 84 fort. In Schritt 84 öffnet die Einheit 11 zum Erzeugen eines Bewegtbildes die Tür 9 eine vorbestimmte Zeit lang. In diesem Fall bewegt die Einheit 11 zum Erzeugen eines Bewegtbildes die Tür 9 von der Greifposition 42b in eine Greifposition 42c basierend auf der Zeit eines einzigen Vorgangs. Die Positionsdetektionseinheit 12 detektiert die Greifposition 42c basierend auf dem Zustand der Tür 9 nach der Bewegung. In Schritt 85 stellt die Einheit 13 zum Einstellen von Einlernpunkten einen Einlernpunkt basierend auf der Greifposition 42c ein.
  • Somit kann die Einlernvorrichtung 10 den Einlernpunkt der Greifposition 42 entsprechend, die auf der Greifposition 42 zu diesem Zeitpunkt basiert, während die Tür 9 bewegt wird, in jedem vorbestimmten Teilabschnitt in der Animation einstellen. Das Einstellen des Einlernpunktes wird bis zum Ende des Bewegtbildes wiederholt. Mit anderen Worten wird das Einstellen des Einlernpunktes wiederholt, bis die Bewegung der Tür 9 beendet ist. In 5 wird das Einstellen des Einlernpunktes wiederholt, bis ein Einlernpunkt, der einer Greifposition 42d entspricht, am Ende der Bewegung der Tür 9 eingestellt wird. In Schritt 86 ist die Steuerung beendet, wenn das Bewegtbild beendet ist.
  • Wie zuvor beschrieben kann die Einlernvorrichtung der vorliegenden Ausführungsform mehrere Einlernpunkte unter Verwendung des Bewegtbildes des Werkstücks einstellen. Die eingestellten Einlernpunkte werden in der Speichereinheit 17 gespeichert. Die Information über die Einlernpunkte umfasst eine Information über die Ausrichtungen der Hand 2.
  • Bei der vorliegenden Ausführungsform werden die Einlernpunkte in den vorbestimmten Zeitintervallen eingestellt, während die Tür 9 bewegt wird, doch die Ausführungsform ist nicht darauf eingeschränkt. Die Einlernpunkte können in beliebigen Intervallen eingestellt werden. Beispielsweise kann der Einlernpunkt jedes Mal eingestellt werden, wenn das Werkstück um einen vorbestimmten Abstand bewegt wird.
  • Des Weiteren werden in der vorliegenden Ausführungsform die Einlernpunkte in vorbestimmten Intervallen eingestellt, doch die Ausführungsform ist nicht darauf eingeschränkt. Während die Einheit 11 zum Erzeugen eines Bewegtbildes das Werkstück bewegt, kann die Positionsdetektionseinheit 12 die Greifpositionen an dem Werkstück in den vorbestimmten Intervallen detektieren und die Greifpositionen in der Speichereinheit 17 speichern. Nach der Beendigung der Bewegung des Werkstücks in dem Bewegtbild kann die Einheit 13 zum Einstellen von Einlernpunkten eine Mehrzahl der Einlernpunkte basierend auf der Information über eine Mehrzahl der Greifpositionen, die in der Speichereinheit 17 gespeichert ist, einstellen.
  • Anschließend erstellt eine Einheit 14 zum Erstellen eines Betriebsprogramms der Einlernvorrichtung 10 das Betriebsprogramm basierend auf den eingestellten Einlernpunkten. Die Information über die Einlernpunkte umfasst die Positionen der Einlernpunkte und die Ausrichtungen der Hand 2. Die Einheit 14 zum Erstellen eines Betriebsprogramms kann die Positionen und Ausrichtungen der Hand 2 basierend auf der Information der Einlernpunkte einstellen. Die Einheit 14 zum Erstellen eines Betriebsprogramms kann die Position und Ausrichtung des Roboters 1 basierend auf der Position und Ausrichtung der Hand 2 einstellen. Beispielsweise kann die Einheit 14 zum Erstellen eines Betriebsprogramms die Position und Ausrichtung des Roboters 1 gemäß inverser Kinematik einstellen. Die Einheit 14 zum Erstellen eines Betriebsprogramms kann das Betriebsprogramm basierend auf der Position und Ausrichtung des Roboters erstellen. Somit kann die Einheit 14 zum Erstellen eines Betriebsprogramms das Betriebsprogramm gemäß der Bewegung der Tür 9 erstellen.
  • 6 zeigt ein drittes Bild, das an dem Anzeigeteil der Einlernvorrichtung angezeigt wird. 6 ist ein Bild 32, das den Zustand des Roboters und des Werkstücks zeigt, wenn die Tür geöffnet wird. Die Einheit 11 zum Erzeugen eines Bewegtbildes der Einlernvorrichtung 10 ist derart gebildet, dass sie die Bewegung des Roboters 1 als Bewegtbild zusätzlich zu der Bewegung der Tür 9 anzeigt. In dem Bewegtbild, das den Roboter 1, die Hand 2 und die Fahrzeugkarosserie 8 umfasst, wird das Bild 31 in 2 angezeigt, um kontinuierlich auf das Bild 32 aus 6 zu wechseln. Ferner kann der Bediener bestätigen, ob die Bewegung des Roboters 1 und die Bewegung, mit der die Tür 9 geöffnet wird, normal sind oder nicht.
  • Nun wird die Antriebsgeschwindigkeit des Roboters 1 gemäß der Öffnungsgeschwindigkeit der Tür 9 bestimmt, die anfänglich durch den Bediener vorgegeben wird. Falls die Antriebsgeschwindigkeit des Roboters 1 zu hoch oder zu niedrig ist, kann die Antriebsgeschwindigkeit des Roboters 1 korrigiert werden.
  • Somit kann die Einlernvorrichtung 10 das Betriebsprogramm erstellen. Das Betriebsprogramm, das durch die Einlernvorrichtung 10 erstellt wird, wird an den Roboter-Controller 3 gesendet. Der Roboter-Controller 3 kann den Roboter 1 und die Hand 2 basierend auf dem Betriebsprogramm antreiben.
  • In der Einlernvorrichtung 10 der vorliegenden Ausführungsform wird die Positionsbeziehung zwischen der Hand 2 und der Tür 9 im Voraus bestimmt. In der Einlernvorrichtung 10 wird nicht der Roboter 1 am Bildschirm bewegt, sondern die Tür 9, die als Werkstück dient, wird bewegt. Während die Tür 9 in dem Bewegtbild bewegt wird, können die Einlernpunkte automatisch eingestellt werden. In der Einlernvorrichtung 10 der vorliegenden Ausführungsform kann der Bediener die Bewegung des Werkstücks, die instinktiv einfach zu verstehen ist, beispielsweise die Bewegung, mit der die Tür 9 geöffnet wird, einstellen. Die Einlernvorrichtung 10 stellt automatisch die Einlernpunkte basierend auf der Bewegung des Werkstücks ein. Somit muss der Bediener keine komplizierte Bewegung des Roboters in Betracht ziehen, und die Einlernpunkte können mühelos eingestellt werden.
  • Falls die Art oder die Größe der Hand 2, die an dem Roboter 1 angebracht ist, geändert wird, muss das Betriebsprogramm geändert werden. Wenn in diesem Fall der Bediener die Greifposition und die Greifregion der Hand einstellt, indem er das dreidimensionale Modell des Werkstücks verwendet, das im Voraus eingegeben wird, stellt die Einlernvorrichtung 10 die Einlernpunkte ein. Da der Bediener die Einlernpunkte nicht einer nach dem anderen von Anfang an einstellen muss, kann der Bediener die Einlernpunkte mühelos einstellen.
  • Die Bewegung der Tür 9 der vorliegenden Ausführungsform wird im Voraus bestimmt. Mit anderen Worten wird bestimmt, dass sich die Tür 9 der Fahrzeugkarosserie 8 in der Richtung bewegt, die um die Drehachse 8a schwenkt. Die Einheit 11 zum Erzeugen eines Bewegtbildes kann das Werkstück in der vorbestimmten Richtung in dem Bewegtbild bewegen, und die Einheit 13 zum Einstellen von Einlernpunkten kann die Einlernpunkte in den vorbestimmten Intervallen einstellen. Wenn der Bediener einen Zustand, in dem die Bewegung des Werkstücks beginnt, und einen Zustand, in dem die Bewegung des Werkstücks beendet ist, vorgibt, erstellt die Einlernvorrichtung 10 die Einlernpunkte des Roboters. Somit kann der Bediener die Einlernpunkte mühelos einstellen.
  • Bei der obigen Ausführungsform führt das Werkstück eine vorbestimmte Bewegung aus, doch die Ausführungsform ist nicht darauf eingeschränkt. Es kann sein, dass die Bewegung des Werkstücks nicht im Voraus bestimmt wird. Die Einlernvorrichtung der vorliegenden Ausführungsform ist auf ein beliebiges Robotersystem anwendbar, welches das Werkstück bewegt.
  • 7 zeigt ein Bild einer anderen Robotervorrichtung, das an dem Anzeigeteil der Einlernvorrichtung angezeigt wird. In einem Bild 35 wird die Robotervorrichtung zum Bewegen eines Werkstücks angezeigt. Eine Hand 4, die eine Mehrzahl von Fingerteilen 4a aufweist, ist an dem Roboter 1 angebracht. Der Roboter 1 überträgt eine Kiste 6, die als Werkstück dient, von einem Sockel 7a zu einem Sockel 7b. Bei dieser Robotervorrichtung wird die Bewegung des Werkstücks nicht im Voraus bestimmt, und das Werkstück ist an einer beliebigen Bahn entlang bewegbar. Bei diesem Beispiel überträgt der Roboter 1 die Kiste 6 an einer Bewegungsbahn entlang, die durch den Pfeil 92 angegeben ist.
  • Der Bediener kann wahlweise die Bewegungsbahn der Kiste 6 und die Ausrichtung der Kiste 6 am Bildschirm einstellen, während Position und Ausrichtung des Roboters 1 nicht berücksichtigt werden. Ein Verfahren zum Bewegen der Kiste 6 kann am Bildschirm durch den Bediener vorgegeben werden. Beispielsweise bewegt der Bediener die Kiste 6 am Bildschirm mit der Maus, um den Zustand der Kiste 6 einzustellen, die sich von einer Bewegungsstartposition auf dem Sockel 7a in eine Bewegungsendposition auf dem Sockel 7b bewegt. Alternativ kann der Bediener die Bewegungsbahn der Kiste 6 und die Ausrichtung der Kiste 6 beispielsweise gemäß der Koordinatenwerte des vorbestimmten Koordinatensystems vorgeben. Die Einlernvorrichtung 10 erzeugt ein Bewegtbild, in dem die Kiste 6 basierend auf der Bewegungsbahn der Kiste 6 und der Ausrichtung der Kiste 6 bewegt wird. Ferner kann die Einlernvorrichtung 10 automatisch Einlernpunkte basierend auf dem Bewegtbild der Kiste 6 einstellen.
  • Bei einem anderen Beispiel ist die Einlernvorrichtung der vorliegenden Ausführungsform auf ein Robotersystem anwendbar, in dem ein Tablett durch eine Robotervorrichtung aus einem Regal entnommen wird und an eine vorbestimmte Stelle bewegt wird. Der Bediener kann die Bewegungsbahn des Tabletts und die Ausrichtung des Tabletts vorgeben, wenn das Tablett aus dem Regal entnommen wird, während die Position und Ausrichtung des Roboters nicht berücksichtigt werden. In diesem Fall erstellt die Einlernvorrichtung auch ein Bewegtbild, in dem das Tablett basierend auf der Bewegungsbahn und Ausrichtung des Tabletts bewegt wird. Die Einlernvorrichtung kann Einlernpunkte basierend auf dem Bewegtbild einstellen.
  • Ferner ist die Einlernvorrichtung der vorliegenden Ausführungsform auf ein Robotersystem anwendbar, das einen Vorgang zum Zusammenbauen einer Vorrichtung ausführt. Beispielsweise ist die Einlernvorrichtung der vorliegenden Ausführungsform auf ein Robotersystem anwendbar, das einen Vorgang zum Einfügen eines elektronischen Teils in ein Substrat, das durch ein Förderband übertragen wird, ausführt. Der Bediener stellt die Bewegungsbahn des elektronischen Teils und die Ausrichtung des elektronischen Teils am Bildschirm ein. Die Einlernvorrichtung kann ein Bewegtbild erstellen, in dem das elektronische Teil bewegt wird, und die Einlernpunkte basierend auf dem Bewegtbild einstellen.
  • Bei der Ausführungsform detektiert die Positionsdetektionseinheit die Greifposition am Werkstück in den vorbestimmten Intervallen basierend auf dem Bewegtbild des Werkstücks, doch die Ausführungsform ist nicht darauf eingeschränkt. Beispielsweise kann der Bediener die Zeit einstellen, in der die Greifposition der Hand am Bildschirm detektiert wird, während der Bediener das Bewegtbild des Werkstücks betrachtet.
  • Die Robotereinlernvorrichtung gemäß einem Aspekt der vorliegenden Offenbarung kann mühelos Einlernpunkte des Roboters einstellen, der das Werkstück ergreift und bewegt.
  • Bei den vorstehenden Schritten der Steuerung kann die Reihenfolge der Schritte optional geändert werden, es sei denn Funktion und Wirkung werden geändert.
  • Die obigen Ausführungsformen können je nach Bedarf kombiniert werden. In den Zeichnungen sind gleiche oder gleichwertige Teile mit den gleichen Symbolen angegeben. Die Ausführungsform ist rein beispielhaft und schränkt die Erfindung nicht ein. Die Ausführungsform umfasst die Änderungen, die in den Ansprüchen angegeben sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 6134684 [0003]
    • JP 2004265041 [0003]
    • JP 2001105359 [0004]
    • JP 62274404 [0004]

Claims (3)

  1. Einlernvorrichtung (10) eines Roboters zum Einstellen eines Einlernpunktes eines Roboters (1), der ein Werkstück (6, 9) ergreift und bewegt, wobei die Einlernvorrichtung umfasst: eine Einheit (11) zum Erzeugen eines Bewegtbildes, die ein dreidimensionales Bewegtbild erzeugt, in dem das Werkstück bewegt wird; eine Positionsdetektionseinheit (12), die eine Greifposition (42, 42a, 42b, 42c, 42d) detektiert, in der eine Hand, die an dem Roboter angebracht ist, das Werkstück ergreift, das in dem Bewegtbild angezeigt wird; und eine Einheit (13) zum Einstellen von Einlernpunkten, die den Einlernpunkt einstellt; wobei eine Beziehung zwischen der Greifposition an dem Werkstück und dem Einlernpunkt im Voraus bestimmt wird, die Positionsdetektionseinheit die Greifposition an dem Werkstück detektiert, wenn die Einheit zum Erzeugen eines Bewegtbildes das Werkstück in dem Bewegtbild bewegt, und die Einheit zum Einstellen von Einlernpunkten den Einlernpunkt basierend auf der Greifposition einstellt.
  2. Robotereinlernvorrichtung nach Anspruch 1, wobei die Positionsdetektionseinheit die Greifpositionen in vorbestimmten Intervallen basierend auf dem Bewegtbild des Werkstücks detektiert.
  3. Robotereinlernvorrichtung nach Anspruch 1 oder 2, wobei eine Bewegung des Werkstücks im Voraus bestimmt wird, und die Einheit zum Erzeugen eines Bewegtbildes das Bewegtbild des Werkstücks basierend auf einer Position des Werkstücks zu Beginn der Bewegung und einer Position des Werkstücks am Ende der Bewegung, die durch einen Bediener eingestellt werden, erzeugt.
DE102018004326.7A 2017-06-07 2018-05-30 Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks Active DE102018004326B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017112707A JP6457587B2 (ja) 2017-06-07 2017-06-07 ワークの動画に基づいて教示点を設定するロボットの教示装置
JP2017-112707 2017-06-07

Publications (2)

Publication Number Publication Date
DE102018004326A1 true DE102018004326A1 (de) 2018-12-13
DE102018004326B4 DE102018004326B4 (de) 2020-10-01

Family

ID=64333401

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018004326.7A Active DE102018004326B4 (de) 2017-06-07 2018-05-30 Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks

Country Status (4)

Country Link
US (1) US10532460B2 (de)
JP (1) JP6457587B2 (de)
CN (1) CN108994819B (de)
DE (1) DE102018004326B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018007729B4 (de) * 2018-06-14 2022-09-08 Yamaha Hatsudoki Kabushiki Kaisha Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem
WO2022224449A1 (ja) * 2021-04-23 2022-10-27 日本電気株式会社 制御装置、制御方法及び記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134684A (ja) 1984-07-27 1986-02-18 Matsushita Electric Ind Co Ltd 2値情報計数装置
JPS62274404A (ja) 1986-05-23 1987-11-28 Kobe Steel Ltd ロボツトのオフライン教示システム
JP2001105359A (ja) 1999-10-12 2001-04-17 Fanuc Ltd ロボットシステム用グラフィック表示装置
JP2004265041A (ja) 2003-02-28 2004-09-24 Fanuc Ltd ロボット教示装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05131385A (ja) * 1991-11-08 1993-05-28 Toyota Motor Corp 組立作業用教示点作成装置
JPH06134684A (ja) * 1992-09-22 1994-05-17 Nippon Telegr & Teleph Corp <Ntt> ロボット軌道を教示するための方法
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法
JPH09198121A (ja) * 1996-01-19 1997-07-31 Nippon Telegr & Teleph Corp <Ntt> ロボット教示方法
US6141863A (en) * 1996-10-24 2000-11-07 Fanuc Ltd. Force-controlled robot system with visual sensor for performing fitting operation
DE50303239D1 (de) * 2002-09-23 2006-06-08 Tropf Hermann Erfassen und greifen von gegenst nden
JP3708097B2 (ja) * 2003-10-08 2005-10-19 ファナック株式会社 ロボットの手動送り装置
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP2006099474A (ja) * 2004-09-29 2006-04-13 Fanuc Ltd ロボットの軌跡制御方法
JP2007061983A (ja) 2005-09-01 2007-03-15 Fanuc Ltd ロボット監視システム
US8054289B2 (en) * 2006-12-01 2011-11-08 Mimic Technologies, Inc. Methods, apparatus, and article for force feedback based on tension control and tracking through cables
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
DE112010000775B4 (de) * 2009-02-12 2016-03-17 Kyoto University Industrierobotersystem
KR20120027253A (ko) * 2009-04-23 2012-03-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 물체-학습 로봇 및 방법
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
US9098913B2 (en) * 2012-05-11 2015-08-04 Cornell University Prediction of successful grasps by end of arm tooling
JP5426719B2 (ja) * 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
WO2015090324A1 (en) * 2013-12-17 2015-06-25 Syddansk Universitet Device for dynamic switching of robot control points
EP3107429B1 (de) * 2014-02-20 2023-11-15 MBL Limited Verfahren und systeme zur lebensmittelzubereitung in einer küche für robotisches kochen
JP5860081B2 (ja) 2014-02-27 2016-02-16 ファナック株式会社 ロボットの動作経路を生成するロボットシミュレーション装置
WO2015153739A1 (en) * 2014-04-01 2015-10-08 University Of South Florida Systems and methods for planning a robot grasp based upon a demonstrated grasp
EP3133998B1 (de) * 2014-04-21 2019-07-03 The Trustees of Columbia University in the City of New York Menschliche bewegungsforschung, therapeutische und diagnostische vorrichtungen, verfahren und systeme
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
US9870083B2 (en) * 2014-06-12 2018-01-16 Microsoft Technology Licensing, Llc Multi-device multi-user sensor correlation for pen and computing device interaction
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
JP6088583B2 (ja) 2015-06-08 2017-03-01 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置
WO2017092809A1 (en) * 2015-12-03 2017-06-08 Abb Schweiz Ag A method for teaching an industrial robot to pick parts
US20170252002A1 (en) * 2016-03-07 2017-09-07 Toshiba Medical Systems Corporation Ultrasonic diagnostic apparatus and ultrasonic diagnosis support apparatus
US9990685B2 (en) * 2016-03-21 2018-06-05 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
CN106182020A (zh) 2016-07-13 2016-12-07 上海航天控制技术研究所 一种基于同步机器人的机器人操作示教系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134684A (ja) 1984-07-27 1986-02-18 Matsushita Electric Ind Co Ltd 2値情報計数装置
JPS62274404A (ja) 1986-05-23 1987-11-28 Kobe Steel Ltd ロボツトのオフライン教示システム
JP2001105359A (ja) 1999-10-12 2001-04-17 Fanuc Ltd ロボットシステム用グラフィック表示装置
JP2004265041A (ja) 2003-02-28 2004-09-24 Fanuc Ltd ロボット教示装置

Also Published As

Publication number Publication date
JP2018202569A (ja) 2018-12-27
CN108994819A (zh) 2018-12-14
DE102018004326B4 (de) 2020-10-01
JP6457587B2 (ja) 2019-01-23
US10532460B2 (en) 2020-01-14
US20180354124A1 (en) 2018-12-13
CN108994819B (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
DE112013003209B4 (de) Robotersteuerungsvorrichtung und Robotersteuerungsverfahren
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102018213985B4 (de) Robotersystem
DE102014103738B3 (de) Visuelle fehlersuche bei roboteraufgaben
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE102014108287B4 (de) Schnelles Erlernen durch Nachahmung von Kraftdrehmoment-Aufgaben durch Roboter
DE102012218297B4 (de) Verfahren zur dynamischen Optimierung einer Robotersteuerschnittstelle
DE102016012065B4 (de) Robotersystem mit Funktion zum Berechnen von Position und Ausrichtung eines Sensors
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE102017124502B4 (de) Simulationsvorrichung und Simulationsverfahren, die eine Betriebssimulation eines Robotersystems ausführen, und Aufzeichnungsmedium, das ein Computerprogramm aufzeichnet
DE102019006800A1 (de) Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
DE102019001948A1 (de) Steuerung und maschinelle Lernvorrichtung
DE102015105687B4 (de) Roboter
DE112018002565B4 (de) System und Verfahren zum direkten Anlernen eines Roboters
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE102019002928B4 (de) Simulationsvorrichtung für Roboter
DE102018009025A1 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
DE102018006245A1 (de) Robotersystem und Robotersteuerung
DE102018107864A1 (de) Offline-Programmiervorrichtung und -verfahren mit der Funktion zur Erzeugung eines Programms zur Detektion einer Werkstückposition mittels eines Kontaktsensors
DE102016210096A1 (de) Roboter
DE102018004326B4 (de) Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks
DE102017124423B4 (de) Simulationsvorrichtung und simulationsverfahren zum simulieren einer operation eines roboters
DE102019005297B4 (de) Unterstützungsvorrichtung für einen kooperativen Vorgang

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final