DE102020112049A1 - Roboterbedienvorrichtung, roboter und roboterbedienungsverfahren - Google Patents

Roboterbedienvorrichtung, roboter und roboterbedienungsverfahren Download PDF

Info

Publication number
DE102020112049A1
DE102020112049A1 DE102020112049.4A DE102020112049A DE102020112049A1 DE 102020112049 A1 DE102020112049 A1 DE 102020112049A1 DE 102020112049 A DE102020112049 A DE 102020112049A DE 102020112049 A1 DE102020112049 A1 DE 102020112049A1
Authority
DE
Germany
Prior art keywords
robot
camera
image
robot arm
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020112049.4A
Other languages
English (en)
Inventor
Tingting Zhong
Shouta TAKIZAWA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102020112049A1 publication Critical patent/DE102020112049A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40003Move end effector so that image center is shifted to desired position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language

Abstract

Eine Roboterbedienvorrichtung, beinhaltet: eine Kamera 3, die an einem distalen Ende eines Roboterarms 2a oder einer Stelle neben dem distalen Ende befestigt ist und die ein Bild erfasst; ein Display 6, das das durch die Kamera 3 erfasste Bild anzeigt; eine Bedienungsannahmeeinheit 7, die eine Bedienung, die durch einen Bediener an dem auf der Displayeinheit 6 angezeigten Bild durchgeführt wird, annimmt; und eine Steuerung 4, die den Roboterarm 2a basierend auf der durch die Bedienungsannahmeeinheit 7 angenommenen Bedienung bewegt.

Description

  • [Technisches Gebiet]
  • Die vorliegende Erfindung betrifft eine Roboterbedienvorrichtung, einen Roboter und ein Roboterbedienungsverfahren.
  • [Stand der Technik]
  • Um einen Roboter dazu zu bringen, eine Aufgabe auszuführen, ist es erforderlich, einen Einlernvorgang durchzuführen, um dem Roboter eine Bewegung gemäß den Details der Aufgabe beizubringen (siehe zum Beispiel PTLs 1 bis 2).
  • [Liste der Anführungen]
    • [PTL 1] Ungeprüfte japanische Patentanmeldung, Veröffentlichungsnr. H06-190756
    • [PTL 2] Ungeprüfte japanische Patentanmeldung, Veröffentlichungsnr. 2006-289531
    • [PTL 3] Ungeprüfte japanische Patentanmeldung, Veröffentlichungsnr. 2018-126857
    • [PTL 4] Ungeprüfte japanische Patentanmeldung, Veröffentlichungsnr. 2009-241247
  • [Zusammenfassung der Erfindung]
  • [Technisches Problem]
  • Gebräuchliche Verfahren zum Teachen eines Roboters beinhalten Remote Teachen, wobei ein Bediener einen Roboter durch Verwendung einer tragbaren Teach-Vorrichtung fernbedient, und direktes Teachen, wobei ein Bediener einen Roboter durch Halten eines Teils des Roboters direkt bedient. Mit diesen Teach-Verfahren bewegt der Bediener den Roboter zu einer Zielposition, während er die Position des Roboters bezüglich der Positionen von Peripheriegeräten und eines Zielobjekts optisch überprüft. Ist die Sicht auf das Zielobjekt durch den Roboter, die Peripheriegeräte usw. versperrt, muss der Bediener seinen Blickwinkel ändern, indem er seine Haltung ändert oder sich zu einer anderen Stelle begibt. Gibt es viele einzelne Peripheriegeräte, muss der Bediener seinen Blickwinkel häufig ändern.
  • [Lösung des Problems]
  • Ein Aspekt der vorliegenden Offenbarung ist eine Roboterbedienvorrichtung, die Folgendes beinhaltet: eine Kamera, die an einem distalen Ende eines Roboterarms oder einer Stelle neben dem distalen Ende befestigt ist und die ein Bild erfasst; ein Display, das das durch die Kamera erfasste Bild anzeigt; eine Bedienungsannahmeeinheit, die eine Bedienung, die durch einen Bediener an dem auf dem Display angezeigten Bild durchgeführt wird, annimmt; und eine Steuerung, die den Roboterarm basierend auf der durch die Bedienungsannahmeeinheit angenommenen Bedienung bewegt.
  • Figurenliste
    • [1] 1 ist ein Gesamtkonfigurationsschema eines Roboters gemäß einer Ausführungsform.
    • [2] 2 ist ein Schema, das ein Beispiel für ein Bedienfeld einer Robotersteuerung zeigt.
    • [3] 3 ist ein Flussdiagramm, das die Bedienung der Robotersteuerung zeigt.
    • [4] 4(a) ist ein Schema zur Veranschaulichung einer Tippbedienung an einem Bild, und 4(b) ist ein Schema zur Veranschaulichung einer Änderung des Bilds basierend auf der Tippbedienung.
    • [5] 5(a) ist ein Schema zur Veranschaulichung einer Auseinanderziehbedienung an einem Bild, und 5(b) ist ein Schema zur Veranschaulichung einer Änderung des Bilds, die sich aus der Auseinanderziehbedienung ergibt.
    • [6] 6(a) ist ein Schema zur Veranschaulichung einer Drehbedienung an einem Bild, und 6(b) ist ein Schema zur Veranschaulichung einer Veränderung des Bilds basierend auf der Drehbedienung.
  • [Beschreibung von Ausführungsformen]
  • Es werden nunmehr eine Roboterbedienvorrichtung und ein Roboter 100 gemäß einer Ausführungsform unter Bezugnahme auf die Zeichnungen beschrieben.
  • Wie in 1 gezeigt ist, beinhaltet der Roboter 100: eine mechanische Robotereinheit 2, eine Robotersteuerung 1 zum Steuern der mechanischen Robotereinheit 2; und eine Kamera 3, die an der mechanischen Robotereinheit 2 befestigt ist. Die Roboterbedienvorrichtung beinhaltet mindestens die Robotersteuerung 1 und die Kamera 3.
  • Die mechanische Robotereinheit 2 beinhaltet einen Roboterarm 2a, der mindestens ein Gelenk aufweist, und ein Arbeitswerkzeug 2c, das mit einem Handgelenkflansch 2b an dem distalen Ende des Roboterarms 2a verbunden ist. Die mechanische Robotereinheit 2 ist zum Beispiel ein Vertikal-Knickarmroboter mit sechs Achsen J1 bis J6 und beinhaltet: Servomotoren zum Antreiben der einzelnen Gelenke des Roboterarms 2a; und Codierer zum Detektieren der Drehwinkel der einzelnen Gelenke. Das Werkzeug 2c ist zum Beispiel eine Hand zum Ergreifen eines Zielobjekts A oder ein Werkzeug zum Durchführen der Aufgabe des Bearbeitens, Inspizierens, Schweißens oder dergleichen an dem Zielobjekt A.
  • Die Kamera 3 ist eine zweidimensionale Kamera. Die Kamera 3 ist an dem Handgelenkflansch 2b oder einem Teil neben dem Handgelenkflansch 2b, zum Beispiel an dem Werkzeug 2c, befestigt. Die Kamera 3 erfasst ein Live-Anzeigebild B der Umgebung des Werkzeugs 2c, einschließlich des Raums vor dem Werkzeug 2c. Die Kamera 3 kann eine Autofokusfunktion zum automatischen Fokussieren auf ein Objekt, wie zum Beispiel das Zielobjekt A, in ihrem Sichtfeld aufweisen. Die Kamera 3 kann eine dreidimensionale Kamera sein.
  • Die Kamera 3 ist vorübergehend an dem Handgelenkflansch 2b oder dem Werkzeug 2c befestigt, während ein Teach-Modus ausgeführt wird. Alternativ kann die Kamera 3 jederzeit an dem distalen Endteil des Roboterarms 2a oder dem Werkzeug 2c befestigt sein, um das Zielobjekt A zu erkennen, während die mechanische Robotereinheit 2 arbeitet.
  • Die Robotersteuerung 1 beinhaltet: eine Steuereinheit 4, die mit der mechanischen Robotereinheit 2 und der Kamera 3 verbunden ist und die die mechanische Robotereinheit 2 und die Kamera 3 steuert; und ein tragbares Bedienfeld 5, das mit der Steuereinheit 4 verbunden ist und das durch einen Bediener bedient wird.
  • Die Steuereinheit 4 beinhaltet: einen Prozessor (in der Figur nicht gezeigt; und eine Speichereinheit (in der Figur nicht gezeigt) mit einem RAM, ROM usw. Die Steuereinheit 4 bewegt den Roboterarm 2a durch Übertragen von Steuerbefehlen zu jedem der Servomotoren. Darüber hinaus kann die Steuereinheit 4 die Position und Ausrichtung des Handgelenkflansches 2b basierend auf einem detektierten Wert von jedem der Codierer berechnen. Die Steuereinheit 4 steuert die mechanische Robotereinheit 2 entweder in einem automatisierten Modus oder dem Teach-Modus. Der automatisierte Modus ist ein Modus, in dem die mechanische Robotereinheit 2 gemäß einem in der Speichereinheit gespeicherten Bewegungsprogramm gesteuert wird. Der Teach-Modus ist ein Modus, in dem der mechanischen Robotereinheit 2 mittels des Bedienfelds 5 eine Bewegung beigebracht wird.
  • Das Bedienfeld 5 beinhaltet: eine Displayeinheit 6 zum Anzeigen des durch die Kamera 3 erfassten Bilds B; und eine Bedienungsannahmeeinheit 7 zum Annehmen der durch den Bediener an dem auf der Displayeinheit 6 angezeigten Bild B durchgeführten Bedienung.
  • 2 zeigt ein Beispiel für das Bedienfeld 5. Das Bedienfeld 5 beinhaltet ein Touchscreen-Display 8 und Jog-Tasten 9. Das Touchscreen-Display 8 und die Jog-Tasten 9 werden dazu verwendet, dass der Bediener eine manuelle Bedienung des Roboterarms 2a im Teach-Modus durchführen kann. Der Bediener kann den Handgelenkflansch 2b durch Durchführen einer Touch-Bedienung auf dem Touchscreen-Display 8, wie unten beschrieben, in eine gewünschte Richtung bewegen. Durch Drücken der Jog-Tasten 9 kann der Bediener darüber hinaus den Handgelenkflansch 2b um jeweils eine vorbestimmte Strecke in eine gewünschte Richtung bewegen und kann den Handgelenkflansch 2b um jeweils einen vorbestimmten Winkel in eine gewünschte Richtung bewegen. Darüber hinaus kann der Bediener den Handgelenkflansch 2b durch Kippen eines getrennt vorgesehenen Joysticks (in der Figur nicht gezeigt) in eine gewünschte Richtung bewegen.
  • Das Bedienfeld 5 kann einen Wahlschalter 11 zum Schalten zwischen Aktivieren und Deaktivieren der Bedienung des Roboterarms 2a mittels des Touchscreen-Displays 8 und der Jog-Tasten 9 aufweisen. Zum Beispiel kann die vorliegende Erfindung so konfiguriert sein, dass entweder das Touchscreen-Display 8 oder die Jog-Tasten 9, das bzw. die mit dem Wahlschalter 11 ausgewählt worden sind, aktiviert sind, während entweder das Touchscreen-Display 8 oder die Jog-Tasten 9, die nicht ausgewählt worden sind, deaktiviert sind.
  • Das Bedienfeld 5 kann einen Totmannschalter 12 zum Schalten zwischen Aktivieren und Deaktivieren einer manuellen Bedienung des Roboterarms 2a aufweisen. Eine manuelle Bedienung des Roboterarms 2a ist nur aktiviert, während der Totmannschalter 12 durch eine Hand des das Bedienfeld 5 ergreifenden Bedieners gedrückt wird.
  • Die Displayeinheit 6 und die Bedienungsannahmeeinheit 7 bilden das Touchscreen-Display 8. Insbesondere ist die Displayeinheit 6 ein Display-Feld, wie zum Beispiel ein Flüssigkristallfeld oder ein Organo-Elektrolumineszensfeld, und die Bedienungsannahmeeinheit 7 ist ein auf dem Displayfeld angeordnetes transparentes Touchpanel (Touchbedienungseinheit) .
  • Das durch die Kamera 3 erfasste Live-Anzeigebild B wird von der Kamera 3 über die Steuereinheit 4 zu dem Bedienfeld 5 übertragen und auf der Displayeinheit 6 angezeigt.
  • Die Bedienungsannahmeeinheit 7 nimmt eine Tippbedienung mittels eines Fingers F des Bedieners an dem auf der Anzeigeeinheit 6 angezeigten Bild B an und überträgt ein Bewegungsbedienungssignal, das Informationen über die Tippposition des Fingers F innerhalb des Bilds B beinhaltet, zu der Steuereinheit 4.
  • Im Teach-Modus steuert die Steuereinheit 4 die mechanische Robotereinheit 2 und die Kamera 3 basierend auf einem Bewegungsbedienungssignal von der Bedienungsannahmeeinheit 7. Als Nächstes wird ein Verfahren zur Bedienung der mechanischen Robotereinheit 2 (Roboterbedienungsverfahren) im Teach-Modus mittels der Robotersteuerung 1 unter Bezugnahme auf 3 beschrieben. Die folgende Verarbeitung und Steuerung mittels der Steuereinheit 4 werden dadurch erreicht, dass der Prozessor eine Verarbeitung gemäß einem in der Speichereinheit gespeicherten Bedienungsprogramm ausführt.
  • Die Steuereinheit 4 bewirkt, dass die Kamera 3 mit der Erfassung des Bilds B, zum Beispiel wenn das Bedienfeld 5 gestartet wird oder basierend auf einer vorbestimmten durch den Bediener durchgeführten Bedienung, beginnt.
  • Zunächst bewegt der Bediener den Roboterarm 2a und ordnet den Roboterarm 2a in einer Position an, in der die Zielposition zum Teachen in dem auf der Displayeinheit 6 angezeigten Bild B beobachtet wird. Wenn zum Beispiel die Position, in der das Zielobjekt A auf einer Fördereinrichtung C mittels des Werkzeugs 2c ergriffen wird, die Zielposition ist, ordnet der Bediener den Roboterarm 2a in einer Position an, in der das Zielobjekt A in dem Bild B beobachtet wird. Zu diesem Zeitpunkt kann der Roboterarm 2a durch Bedienen irgendeines von dem Touchscreen-Display 8, den Jog-Tasten 9 und dem Joystick bedient werden. Alternativ kann der Bediener den Roboterarm 2a durch Ergreifen eines Teils des Roboterarms 2a direkt bewegen.
  • Als Nächstes tippt der Bediener, wie in 4(a) gezeigt ist, auf die Position des Zielobjekts A in dem auf der Displayeinheit 6 angezeigten Bild B. Die durch den Bediener an dem Bild B durchgeführte Tippbedienung wird von der Bedienungsannahmeeinheit 7 angenommen, und es wird ein Bewegungsbedienungssignal von der Bedienungsannahmeeinheit 7 zu der Steuereinheit 4 übertragen (Schritt S1).
  • Die Steuereinheit 4 reagiert auf das Bewegungsbedienungssignal von der Bedienungsannahmeeinheit 7 und bewirkt, dass die Kamera 3 ein statisches Bild aufnimmt (Schritt S2). Als Nächstes empfängt die Steuereinheit 4 das statische Bild von der Kamera 3 und speichert das statische Bild. Darüber hinaus schneidet die Steuereinheit 4 von dem statischen Bild ein Bild der Umgebung der Tippposition, einschließlich der Tippposition, als ein Vorlagenbild aus und speichert das Vorlagenbild (Schritt S3)
  • Als Nächstes bewegt die Steuereinheit 4 den Roboterarm 2a derart, dass die Tippposition in einer vorbestimmten Position in dem Bild B angeordnet wird (Schritte S4 bis S7). Die vorbestimmte Position ist eine willkürliche Position in dem Bild B, wie zum Beispiel die Mitte des Bilds B. In der folgenden Beschreibung wird angenommen, dass die vorbestimmte Position die Mitte des Bilds B ist.
  • Die Steuereinheit 4 berechnet einen Hub des Roboterarms 2a, der zum Bewegen der Tippposition zu der Mitte in dem statischen Bild erforderlich ist, basierend auf der Differenz zwischen der Tippposition und der Mittenposition (Schritt S4). Zum Beispiel berechnet die Steuereinheit 4 den erforderlichen Hub des Handgelenkflansches 2b basierend auf einem voreingestellten Hub des Roboterarms 2a pro Pixel und der Anzahl von Pixeln zwischen der Tippposition und der Mittenposition und berechnet dann das Ausmaß der Drehung jedes der Gelenke, das zum Bewegen des Handgelenkflansches 2b um den berechneten Hub erforderlich ist. Als Nächstes bewegt die Steuereinheit 4 den Roboterarm 2a um den berechneten Hub (Schritt S5) .
  • Da sich die Kamera 3 dadurch bewegt, dass der Roboterarm 2a in Schritt S5 bewegt wird, bewegt sich das Zielobjekt A zu der Mitte in dem auf der Displayeinheit 6 angezeigten Bild B, wie in 4(b) gezeigt ist. Zu diesem Zeitpunkt unterscheidet sich der Hub des Zielobjekts A in dem Bild B, der sich dadurch ergibt, dass der Roboterarm 2a bewegt wird, in Abhängigkeit von dem Abstand zwischen der Kamera 3 und dem Zielobjekt A. Nachdem der Roboterarm 2a bewegt worden ist, befindet sich daher das Zielobjekt A in der Tippposition nicht zwangsweise in der Mitte des Bilds B.
  • Als Nächstes bewirkt die Steuereinheit 4, dass die Kamera 3 ein statisches Bild aufnimmt, nachdem der Roboterarm 2a bewegt worden ist (Schritt S6), und empfängt das statische Bild von der Kamera 3. Als Nächstes schneidet die Steuereinheit 4 von dem statischen Bild, nachdem der Roboterarm 2a bewegt worden ist, ein Bild der Umgebung der Mittenposition, einschließlich der Mittenposition, aus und bestimmt dann, ob sich die Tippposition zu der Mitte bewegt hat oder sich nicht dorthin bewegt hat, durch Vergleichen des ausgeschnittenen Bilds der Umgebung mit dem Vorlagenbild (Schritt S7). Zum Beispiel bestimmt die Steuereinheit 4, dass sich die Tippposition zu der Mitte bewegt hat, wenn der Versatz zwischen dem ausgeschnittenen Bild der Umgebung und dem Vorlagenbild kleiner gleich einem vorbestimmten Wert ist, und bestimmt, dass sich die Tippposition nicht zu der Mitte bewegt hat, wenn der Versatz größer als der vorbestimmte Wert ist.
  • Wenn sich die Tippposition nicht zu der Mitte bewegt hat (NEIN in Schritt S7), berechnet die Steuereinheit 4 einen Hub des Roboterarms 2a, der zum Bewegen der Tippposition zu der Mitte erforderlich ist, basierend auf der Differenz zwischen der Tippposition und der Mittenposition in dem in Schritt S6 empfangenen statischen Bild (Schritt S4) und führt dann die Schritte S5 bis S7 aus. Die Steuereinheit 4 wiederholt die Schritte S4 bis S7, bis sich die Tippposition zu der Mitte bewegt (JA in Schritt S7).
  • Wenn das Zielobjekt A infolge der Ausführung der Schritte S4 bis S7 in der Mitte oder nahe der Mitte in dem Bild B angeordnet ist, hält der Roboterarm 2a an.
  • Als Nächstes drückt der Bediener eine Speicherungstaste (in der Figur nicht gezeigt), die auf dem Bedienfeld 5 vorgesehen ist. Infolge des Drückens der Speicherungstaste werden die Position und die Haltung des Roboterarms 2a, die erreicht werden, wenn sich das Zielobjekt A in der Mitte des Bilds B befindet, in der Steuereinheit 4 gespeichert.
  • Wie oben beschrieben wurde, kann der Bediener gemäß dieser Ausführungsform den Roboterarm 2a lediglich durch den einfachen Vorgang des Beobachtens des Bilds B des Zielobjekts A, das auf dem tragbaren Bedienfeld 5 angezeigt wird, und Tippen auf die Position des Zielobjekts A in dem Bild B mit dem Finger F zu der Zielposition bewegen. Mit anderen Worten kann der Bediener, selbst wenn er sich an einer Stelle befindet, an der er das Zielobjekt A nicht direkt im Blick hat, das Zielobjekt A über die Kamera 3 beobachten und muss sich daher nicht bewegen oder seine Haltung ändern, um die Position des Roboterarms 2a bezüglich des Zielobjekts A zu beobachten. Selbst in einer Situation, in der zum Beispiel der Arbeitsraum des Bedieners und der Arbeitsraum der mechanischen Robotereinheit 2 durch eine Wand voneinander getrennt sind, oder in einer Situation, in der die mechanische Robotereinheit 2 von vielen einzelnen Peripheriegeräten umgeben ist, kann der Bediener daher den Vorgang des Teachens der mechanischen Robotereinheit 2 leicht durchführen.
  • Da sich der Bediener der mechanischen Robotereinheit 2 nicht nähern muss, kann er darüber hinaus den Vorgang Teachens der mechanischen Robotereinheit 2 an einer von der mechanischen Robotereinheit 2 entfernt gelegenen Stelle durchführen. Wenn die mechanische Robotereinheit 2 groß ist, ist das Durchführen eines Teach-Vorgangs in der Nähe der sich bewegenden mechanischen Robotereinheit 2 mental belastend für den Bediener. Diese Ausführungsform kann solch einen Teach-Vorgang weniger belastend für den Bediener machen.
  • Nach dem Bewegen des Roboterarms 2a durch eine Tippbedienung auf dem Touchscreen-Display 8 kann der Bediener die Position des Werkzeugs 2c bezüglich des Zielobjekts A durch Bedienen der Jog-Tasten 9 oder des Joysticks genauer anordnen.
  • Wie oben beschrieben wurde, unterscheidet sich die Beziehung zwischen dem Hub des Roboterarms 2a und dem Hub des Zielobjekts A in dem Bild B in Abhängigkeit von dem Abstand zwischen der Kamera 3 und dem Zielobjekt A. Des Weiteren gibt es einen räumlichen Versatz zwischen der Position der Kamera 3 und der Position des Werkzeugs 2c. Aus diesen Gründen ist es schwierig, die Position des Werkzeugs 2c bezüglich des Zielobjekts A durch eine Tippbedienung an dem Bild B genau anzuordnen. Daher kann eine grobe Positionsanordnung des Roboterarms 2a durch eine Tippbedienung auf dem Touchscreen-Display 8 mit einer genauen Positionsanordnung des Roboterarms 2a durch Bedienen der Jog-Tasten 9 oder des Joysticks kombiniert werden.
  • Bei der oben beschriebenen Ausführungsform kann die Verarbeitung in den Schritten S6 und S7 mittels der Steuereinheit 4 weggelassen werden. Mit anderen Worten kann die Steuereinheit 4 den Roboterarm 2a durch den in Schritt S4 berechneten Hub nur einmal bewegen.
  • In diesem Fall ist es der Bediener, der bestimmt, ob sich das Zielobjekt A zu der Mitte in dem auf der Displayeinheit 6 angezeigten Bild B bewegt hat oder sich nicht dorthin bewegt hat. Wenn sich das Zielobjekt A nicht zu der Mitte bewegt hat, bewegt der Bediener den Roboterarm 2a wieder durch Tippen der Position des Zielobjekts A in dem Bild B zum zweiten Mal. Dabei nähert sich das Zielobjekt A stärker der Mitte in dem Bild B an. Der Bediener kann das Zielobjekt A zu der Mitte in dem Bild B bewegen, indem er eine Tippbedienung mehrmals wiederholt.
  • In Schritt S4 kann die Steuereinheit 4 die Beziehung zwischen dem Hub des Roboterarms 2a und dem Hub eines Objekts in dem Bild B berechnen und kann den Hub des Roboterarms 2a basierend auf der berechneten Beziehung berechnen.
  • Zum Beispiel führt die Steuereinheit 4 in Schritt S5 zunächst eine Kalibrierungsverarbeitung zum Berechnen der oben beschriebenen Beziehung durch. In einem Beispiel für solch eine Kalibrierungsverarbeitung bewegt die Steuereinheit 4 den Handgelenkflansch 2b in einem vorbestimmten Ausmaß, berechnet den Hub des Objekts zwischen dem statischen Bild, das erhalten wird, wenn der Handgelenkflansch 2b begann, sich zu bewegen, und dem statischen Bild, das erhalten wird, wenn der Handgelenkflansch 2b seine Bewegung beendet hat, und berechnet den Hub des Objekts in dem Bild B pro Hub des Handgelenkflansches 2b.
  • Dadurch kann der Hub des Roboterarms 2a, der zum Bewegen der Tippposition zu der Mitte erforderlich ist, genauer berechnet werden. Insbesondere kann ein erforderlicher Hub des Roboterarms 2a genauer berechnet werden, indem der Hub des Zielobjekts A, das das Objekt an der Tippposition ist, als der Hub des Objekts in dem Bild B verwendet wird.
  • Falls sich die Position des Zielobjekts A auch in der Tiefenrichtung des Bilds B ändert, wenn der Roboterarm 2a bewegt wird, ändert sich die Beziehung zwischen dem Hub des Roboterarms 2a und dem Hub des Objekts in dem Bild B über die Zeit. Während sich der Roboterarm 2a bewegt, kann die Robotersteuerung 1 sukzessive die Beziehung zwischen dem Hub des Roboterarms 2a und dem Hub des Objekts in dem Bild B aktualisieren, indem sie den Hub des Objekts in dem durch die Kamera 3 erfassten Bild B sukzessive berechnet, wodurch der Hub des Roboterarms 2a basierend auf der aktualisierten Beziehung neu berechnet wird. Dadurch kann der Hub des Roboterarms 2a, der zum Bewegen der Tippposition zu der Mitte erforderlich ist, genauer berechnet werden.
  • Zu diesem Zeitpunkt kann die Steuereinheit 4 den Hub eines durch den Bediener in dem Bild angegebenen Objekts berechnen. Zum Beispiel gibt der Bediener das Zielobjekt A dadurch an, dass er eine Touch-Bedienung an dem Zielobjekt A unter mehreren Objekten in dem auf der Displayeinheit 6 angezeigten Bild B durchführt. Dadurch kann die Steuereinheit 4 den Hub des Roboterarms 2a basierend auf dem Hub des Zielobjekts A in dem Bild B angemessen berechnen.
  • Es kann eine Skala 14, die eine reduzierte Skala des Bilds B anzeigt, in dem auf der Displayeinheit 6 angezeigten Bild B gezeigt sein. Zum Beispiel kann die Robotersteuerung 1 die Skala 14, die den tatsächlichen Abstand zwischen dem Roboterarm 2a und dem Objekt des Bilds B anzeigt, basierend auf der Beziehung zwischen dem Hub des Roboterarms 2a und dem Hub des Objekts erzeugen und kann das auf der Displayeinheit 6 angezeigte Bild B mit der Skala 14 überlagern.
  • Die oben beschriebene Ausführungsform ist anhand eines Beispiels beschrieben worden, in dem die Bedienungsannahmeeinheit 7 eine Tippbedienung als eine Bedienung zur Angabe einer willkürlichen Position des Bilds B annimmt. Stattdessen kann die Bedienungsannahmeeinheit 7 eine andere Art von Touch-Bedienung annehmen.
  • Zum Beispiel kann die Bedienungsannahmeeinheit 7 eine Wischbedienung an dem Bild B annehmen. In diesem Fall kann die Bedienungsannahmeeinheit 7 ein Bewegungsbedienungssignal, das den Startpunkt und den Endpunkt einer Wischbedienung beinhaltet, zu der Robotersteuerung 1 übertragen, und die Robotersteuerung 1 kann den Roboterarm 2a dahingehend bewegen, den Startpunkt zu dem Endpunkt (vorbestimmte Position) zu bewegen.
  • Die oben beschriebene Ausführungsform ist anhand eines Beispiels beschrieben worden, in dem die Bedienungsannahmeeinheit 7 eine Tippbedienung zur Angabe einer willkürlichen Position in dem Bild B annimmt. Zusätzlich dazu oder stattdessen kann die Bedienungsannahmeeinheit 7 eine Zoom-Befehlsbedienung an dem Bild B annehmen.
  • Wie zum Beispiel in 5 (a) gezeigt ist, nimmt die Bedienungsannahmeeinheit 7 einen Heranzoom-Befehl und einen Herauszoom-Befehl, eine Auseinanderziehbedienung (Touch-Bedienung) bzw. eine Zusammenziehbedienung (Touch-Bedienung) an dem auf der Displayeinheit 6 angezeigten Bild B an. Eine Auseinanderziehbedienung ist der Vorgang des Vergrößerns des Abstands zwischen zwei Fingern F1 und F2, die mit dem Touchscreen-Display 8 in Kontakt sind, und eine Zusammenziehbedienung ist der Vorgang des Verkleinerns des Abstands zwischen den beiden Fingern F1 und F2, die mit dem Touchscreen-Display 8 in Kontakt sind. Die Bedienungsannahmeeinheit 7 überträgt ein Heranzoom-Bedienungssignal oder ein Herauszoom-Bedienungssignal zu der Steuereinheit 4.
  • Als Reaktion auf das Heranzoom-Bedienungssignal von der Bedienungsannahmeeinheit 7, bewegt die Steuereinheit 4 den Roboterarm 2a dahingehend, den Handgelenkflansch 2b näher an das Zielobjekt A zu bringen. Dabei bewegt sich die Kamera 3 in der Richtung der optischen Achse zu dem Zielobjekt A, und das Zielobjekt A auf dem in der Displayeinheit 6 angezeigten Bild B wird vergrößert, wie in 5(b) gezeigt ist.
  • Als Reaktion auf das Herauszoom-Bedienungssignal von der Bedienungsannahmeeinheit 7 bewegt die Steuereinheit 4 darüber hinaus den Roboterarm 2a dahingehend, den Handgelenkflansch 2b von dem Zielobjekt A wegzubringen. Dabei bewegt sich die Kamera 3 in der Richtung der optischen Achse von dem Zielobjekt A weg, wodurch das Zielobjekt A in dem auf der Anzeigeeinheit 6 angezeigten Bild B verkleinert wird.
  • Falls der Bediener die Position des Werkzeugs 2c bezüglich des Zielobjekts A optisch überprüft, muss der Bediener dem Werkzeug 2c und dem Zielobjekt A sehr nahekommen, um die Position des Werkzeugs 2c bezüglich des Zielobjekts A genau anzuordnen.
  • Gemäß dieser Ausführungsform kann durch Anzeigen einer vergrößerten Ansicht des Zielobjekts A mittels der Kamera 3 die Position des Werkzeugs 2c bezüglich des Zielobjekts A genau angeordnet werden, während sich der Bediener an einer von dem Werkzeug 2c und dem Zielobjekt A entfernten Stelle befindet.
  • Die Beziehung zwischen dem Hub des Roboterarms 2a und dem Hub des Objekts in dem Bild B ändert sich zusammen mit einer Zoom-Bedienung. Daher kann die Steuereinheit 4 den Hub des Roboterarms 2a gemäß einer sich aus einer Zoom-Bedienung ergebenen Vergrößerungsänderung des Objekts in dem Bild B ändern. Wenn das Objekt in dem Bild B durch eine Heranzoom-Bedienung zum Beispiel um einen Faktor von drei vergrößert wird, kann die Steuereinheit 4 den Hub des Roboterarms 2a auf ein Drittel des Hubs vor der Heranzoom-Bedienung verringern.
  • Falls die Kamera 3 eine Zoom-Funktion hat, kann die Steuereinheit 4 die Zoom-Vergrößerung der Kamera 3 durch Steuern der Kamera 3 statt Bewegen der Kamera 3 in der Richtung der optischen Achse durch Bewegen des Roboterarms 2a ändern. Kurz gesagt kann die Steuereinheit 4 die Zoom-Vergrößerung der Kamera 3 als Reaktion auf einen Heranzoom-Befehl verstärken und kann die Zoom-Vergrößerung der Kamera 3 als Reaktion auf einen Herauszoom-Befehl verkleinern.
  • Die Bedienungsannahmeeinheit 7 kann eine Bedienung für einen Drehbefehl an das Bild B annehmen.
    Wie zum Beispiel in 6(a) gezeigt ist, nimmt die Bedienungsannahmeeinheit 7 die Bedienung des Drehens der beiden Finger F1 und F2, die mit dem Touchscreen-Display 8 in Kontakt sind, im oder entgegen dem Uhrzeigersinn (Touch-Bedienung) als einen Drehbefehl an. Die Bedienungsannahmeeinheit 7 überträgt ein Drehbedienungssignal, das Informationen über die Drehrichtung und den Drehwinkel der Finger F1 und F2 beinhaltet, zu der Steuereinheit 4.
  • Als Reaktion auf das Drehbedienungssignal von der Bedienungsannahmeeinheit 7 dreht die Steuereinheit 4 den Handgelenkflansch 2b in die Richtung, die der Drehrichtung der Finger F1 und F2 entspricht, in dem gleichen Winkel wie der Drehwinkel der Finger F1 und F2. Dabei dreht sich die Kamera 3 um die optische Achse oder um eine parallel zu der optischen Achse verlaufende Achse, und das Zielobjekt A und die Fördereinrichtung C drehen sich im Uhrzeigersinn oder entgegen dem Uhrzeigersinn in dem auf der Displayeinheit 6 angezeigten Bild B, wie in 6(b) gezeigt ist.
  • Falls die optische Achse der Kamera 3 bezüglich der Drehachse J6 des Handgelenkflansches 2b dezentriert ist und von der Drehachse J6 entfernt ist, dreht sich das Bild B nicht um die Mitte des Bilds B, sondern um die Drehachse J6, wenn sich der Handgelenkflansch 2b um die Drehachse J6 dreht. Die Steuereinheit 4 kann die Kamera 3 um die Drehachse J6 drehen. Zum Drehen des Zielobjekts A in dem Bild B um die Mitte des Bilds B kann die Steuereinheit 4 alternativ den Roboterarm 2a bewegen, derart, dass sich die Kamera 3 um die optische Achse der Kamera 3 basierend auf der Positionsbeziehung zwischen der optischen Achse der Kamera 3 und der Drehachse J6 dreht.
  • Bei der oben beschriebenen Ausführungsform kann das Bedienfeld 5 einen Schalter zum Schalten zwischen Aktivieren und Deaktivieren der Bedienung des Roboterarms 2a durch eine Touch-Bedienung an dem auf der Anzeigeeinheit 6 angezeigten Bild B aufweisen. Genauso wie beispielsweise der Totmannschalter 12 kann dieser Schalter die Bedienung des Roboterarms 2a durch eine Touch-Bedienung an dem Bild B nur aktivieren, während er durch eine Hand des Bedieners gedrückt wird. Darüber hinaus kann dieser Schalter für jeden der Bewegungs-, Zoom- und Drehvorgänge vorgesehen sein.
  • Die oben beschriebene Ausführungsform kann so konfiguriert sein, dass das auf der Displayeinheit 6 angezeigte Bild B durch Verarbeitung basierend auf einer Bedienung an dem Bild B bewegt, gezoomt und gedreht wird.
  • In diesem Fall ist ein Schalter zum Schalten zwischen Aktivieren und Deaktivieren der Bedienung des Roboterarms 2a durch jeden der oben beschriebenen Touch-Bedienungen vorgesehen. Wenn die Bedienung des Roboterarms 2a deaktiviert ist, wendet das Bedienfeld 5 digitale Verarbeitung an dem Bild B basierend auf einer Bedienung an dem Bild B an und zeigt das digital verarbeitete Bild B auf der Anzeigeeinheit 6 an.
  • Die oben beschriebene Ausführungsform ist anhand eines Beispiels beschrieben worden, in dem die Bedienungsannahmeeinheit 7 ein Touchpanel ist, das eine Touch-Bedienung an dem Bild B annimmt. Stattdessen kann die Bedienungsannahmeeinheit 7 eine Bedienung von einer anderen Vorrichtung, wie zum Beispiel einer Maus, annehmen.
  • Zum Beispiel kann die Bedienungsannahmeeinheit 7 eine Klickbedienung auf einer mit dem Bedienfeld 5 verbundenen Maus als eine Bedienung zum Angeben einer Position in dem Bild B annehmen. In diesem Fall verwendet die Steuereinheit 4 die Klickposition statt der Tippposition in dem Bild B. Darüber hinaus kann die Bedienungsannahmeeinheit 7 eine Drehbedienung an einem Rad der Maus als eine Bedienung für einen Zoom-Befehl an dem Bild B annehmen.
  • Bei der oben beschriebenen Ausführungsform kann die Steuereinheit 4 den Roboterarm 2a steuern, während der Bewegung des Roboterarms 2a eine vorbestimmte Einschränkung auferlegt ist. Zum Beispiel kann die Steuereinheit 4 den Handgelenkflansch 2b und die Kamera 3 nur in der Horizontalrichtung durch Bedienung des Roboterarms 2a bewegen, während der Handgelenkflansch 2b in einer bestimmten Vertikalrichtungsposition gehalten wird. Alternativ kann die Steuereinheit 4 den Handgelenkflansch 2b und die Kamera 3 nur um vorbestimmte Achsen bewegen, indem nur vorbestimmte Gelenke von den Gelenken gedreht werden.
  • Da der Roboterarm 2a der mechanischen Vertikal-Knickarmrobotereinheit 2 in Form eines Roboters mit den sechs Achsen J1 bis J6 einen hohen Bewegungsfreiheitsgrad hat, kann es für den Bediener schwierig sein, die Bewegung des Roboterarms 2a abzuschätzen. Durch Einschränken der Bewegung des Roboterarms 2a und Vereinfachen der Bewegung des Handgelenkflansches 2b und der Kamera 3 kann der Bediener die Bewegung des Roboterarms 2a leicht Vorhersagen, wenn eine Bedienung an dem Bild B ausgeübt wird, wodurch die Bedienung des Roboterarms 2a erleichtert wird.
  • Bei der oben beschriebenen Ausführungsform kann die Robotersteuerung 1 ferner einen 9-Achsen-Sensor 13, der an der Kamera 3 befestigt ist, wie in 1 gezeigt ist, beinhalten.
  • Der 9-Achsen-Sensor 13 beinhaltet einen 3-Achsen-Beschleunigungssensor, einen 3-Achsen-Winkelgeschwindigkeitssensor und einen 3-Achsen-Geomagnetismussensor, wodurch zusätzlich zu der Position und der Ausrichtung der Kamera 3 in einem Sensorkoordinatensystem die Ausrichtung der Kamera 3 in einem äußeren Koordinatensystem detektiert wird. Das Sensorkoordinatensystem ist ein Koordinatensystem, das bezüglich des 9-Achsen-Sensors 13 festgelegt ist. Das äußere Koordinatensystem ist ein Koordinatensystem, das bezüglich einer Basis 2d der mechanischen Robotereinheit 2 (das heißt bezüglich der Bodenoberfläche oder der Fußbodenfläche) festgelegt ist und ist ein Koordinatensystem des Roboterarms 2a, das für die Steuereinheit 4 zum Steuern des Roboterarms 2a verwendet wird. Daher kann die Steuereinheit 4 anhand eines detektierten Werts des 9-Achsen-Sensors 13 die Bewegung (die Bewegungsbahn) und die Ausrichtung der Kamera 3 in dem äußeren Koordinatensystem schätzen.
  • Falls der 9-Achsen-Sensor 13 vorgesehen ist, kann die Steuereinheit 4 den Roboterarm 2a so steuern, dass sich die Kamera 3 in einer vorbestimmten Richtung in einer vorbestimmten Ausrichtung basierend auf der anhand eines detektierten Werts des 9-Achsen-Sensors 13 geschätzten Ausrichtung der Kamera 3 bewegt. Zum Beispiel kann die Steuereinheit 4 den Roboterarm 2a dahingehend steuern, die Kamera 3 in der Horizontalrichtung mit nach unten ausgerichteter Kamera 3 translatorisch zu bewegen.
  • Falls die Kamera 3 an einer von dem Handgelenkflansch 2b entfernt liegenden Stelle befestigt ist, ist die Bewegung des Handgelenkflansches 2b von der Bewegung der Kamera 3 verschieden. Durch direktes Detektieren der Bewegung der Kamera 3 mittels des 9-Achsen-Sensors 13 kann die Steuereinheit 4 die Beziehung zwischen der Bewegung des Handgelenkflansches 2b und der Bewegung der Kamera 3 wahrnehmen und kann dadurch die Bewegung der Kamera 3 über die Bewegung des Roboterarms 2a steuern.
  • Wenn die Drehachse J6 des Handgelenkflansches 2b zum Beispiel von der optischen Achse der Kamera 3 distanziert ist, dreht sich das Bild B um die Drehachse J6 des Handgelenkflansches 2b, während sich der Handgelenkflansch 2b dreht, wie oben beschrieben. Zum Drehen des Bilds B um seine Mitte, kann die Steuereinheit 4 den Roboterarm 2a basierend auf der Beziehung zwischen der Bewegung des Handgelenkflansches 2b und der Bewegung der Kamera 3 so bewegen, dass sich die Kamera 3 um ihre optische Achse dreht.
  • Wenn die Kamera 3 zum Beispiel befestigbar/lösbar ist, können die Position und die Ausrichtung der Kamera 3 bezüglich des Handgelenkflansches 2b jedes Mal dann geändert werden, wenn die Kamera 3 an dem Roboterarm 2a oder dem Werkzeug 2c befestigt wird. Da die Robotersteuerung 1 die Bewegung und die Ausrichtung der Kamera 3 in dem äußeren Koordinatensystem unter Verwendung des 9-Achsen-Sensors 3 schätzen kann, ist keine komplizierte Kalibrierung für die Einstellung der Position und der Ausrichtung der Kamera 3 bezüglich des Handgelenkflansches 2b erforderlich. Daher kann die Bewegung der Kamera 3 allein mit einfachen Einstellungen mittels der Steuereinheit 4 genau gesteuert werden.
  • Es kann eine Sperrzone, in die der Roboterarm 2a nicht eintreten kann, innerhalb des Bewegungsbereichs des Roboterarms 2a eingestellt werden. In solch einem Fall kann die Robotersteuerung 1 den Bediener über das Bedienfeld 5 über die Sperrzone informieren. Wenn eine Tippposition eine Position innerhalb der Sperrzone ist, kann die Robotersteuerung 1 zum Beispiel auf der Displayeinheit 6 optische Informationen anzeigen, die angeben, dass sich die Tippposition innerhalb der Sperrzone befindet.
  • Die oben beschriebene Ausführungsform ist anhand eines Beispiels beschrieben worden, in dem die Roboterbedienvorrichtung nur eine Kamera 3 beinhaltet. Stattdessen kann die Roboterbedienvorrichtung mehrere Kameras 3 beinhalten. In diesem Fall kann die Anzeigeeinheit 6 durch die mehreren Kameras 3 erfasste Bilder B anzeigen.
  • Die oben beschriebene Ausführungsform ist anhand eines Beispiels beschrieben worden, in dem die mechanische Robotereinheit 2 ein 6-Achsen-Vertikal-Knickarmroboter ist. Stattdessen kann die mechanische Robotereinheit 2 ein Roboter einer anderen Art sein. Zum Beispiel kann die mechanische Robotereinheit 2 ein Vertikal-Knickarmroboter mit einer anderen Anzahl von Achsen als sechs, ein Horizontal-Knickarmroboter oder ein Parallelroboter sein.
  • Bezugszeichenliste
  • 1
    Robotersteuerung (Roboterbedienvorrichtung)
    2
    mechanische Robotereinheit
    2a
    Roboterarm
    3
    Kamera (Roboterbedienvorrichtung)
    4
    Steuereinheit
    6
    Displayeinheit
    7
    Bedienungsannahmeeinheit, Berührungssensor (Touchbedienungseinheit)
    8
    Touchscreen-Display (Displayeinheit, Bedienungsannahmeeinheit)
    13
    9-Achsen-Sensor
    100
    Roboter
    B
    Bild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP H06190756 [0002]
    • JP 2006289531 [0002]
    • JP 2018126857 [0002]
    • JP 2009241247 [0002]

Claims (9)

  1. Roboterbedienvorrichtung, umfassend: eine Kamera, die an einem distalen Ende eines Roboterarms oder einer Stelle neben dem distalen Ende befestigt ist und die ein Bild erfasst; ein Display, das das durch die Kamera erfasste Bild anzeigt; eine Bedienungsannahmeeinheit, die eine Bedienung, die durch einen Bediener an dem auf dem Display angezeigten Bild durchgeführt wird, annimmt; und eine Steuerung, die den Roboterarm basierend auf der durch die Bedienungsannahmeeinheit angenommenen Bedienung bewegt.
  2. Roboterbedienvorrichtung nach Anspruch 1, wobei die Bedienungsannahmeeinheit eine Bedienung zur Angabe einer willkürlichen Position in dem auf dem Display angezeigten Bild annimmt, und die Steuerung den Roboterarm dahingehend bewegt, die angegebene Position zu einer vorbestimmten Position in dem Bild basierend auf der Bedienung zur Angabe der Position zu bewegen, wobei die Bedienung durch die Bedienungsannahmeeinheit angenommen ist.
  3. Roboterbedienvorrichtung nach Anspruch 2, wobei die Steuerung eine Beziehung zwischen einem Hub des Roboterarms und einem Bewegungsausmaß eines Objekts in dem Bild berechnet und basierend auf der berechneten Beziehung den Hub des Roboterarms, der zum Bewegen der angegebenen Position zu der vorbestimmten Position erforderlich ist, berechnet.
  4. Roboterbedienvorrichtung nach einem der Ansprüche 1 bis 3, wobei die Bedienungsannahmeeinheit eine Bedienung eines Zoom-Befehls für das auf dem Display angezeigte Bild annimmt, und die Steuerung den Roboterarm basierend auf der durch die Bedienungsannahmeeinheit angenommenen Bedienung des Zoom-Befehls dahingehend bewegt, die Kamera in Richtung einer optischen Achse der Kamera zu bewegen.
  5. Roboterbedienvorrichtung nach einem der Ansprüche 1 bis 4, wobei die Bedienungsannahmeeinheit eine Bedienung eines Drehbefehls des auf dem Display angezeigten Bilds annimmt, und die Steuerung den Roboterarm basierend auf der durch die Bedienungsannahmeeinheit angenommenen Bedienung des Drehbefehls dahingehend bewegt, die Kamera um eine optische Achse der Kamera oder um eine parallel zu der optischen Achse verlaufende Achse zu drehen.
  6. Roboterbedienvorrichtung nach einem der Ansprüche 1 bis 5, wobei die Bedienungsannahmeeinheit eine Touchbedienungseinheit beinhaltet, die auf dem Display vorgesehen ist und die eine durch den Bediener durchgeführte Touch-Bedienung annimmt.
  7. Roboterbedienvorrichtung nach einem der Ansprüche 1 bis 6, ferner umfassend: einen an der Kamera befestigten 9-Achsen-Sensor, wobei die Steuerung eine Ausrichtung der Kamera in einem Koordinatensystem des Roboterarms basierend auf einem detektierten Wert, der durch den 9-Achsen-Sensor detektiert wird, schätzt und den Roboterarm basierend auf der Ausrichtung der Kamera steuert.
  8. Roboter, umfassend: eine mechanische Robotereinheit; und die Roboterbedienvorrichtung nach einem der Ansprüche 1 bis 7.
  9. Roboterbedienungsverfahren, umfassend: Erfassen eines Bilds mit einer an einem distalen Ende eines Roboterarms oder einer Stelle neben dem distalen Ende befestigten Kamera; Anzeigen des durch die Kamera erfassten Bilds auf einem Display; Annehmen einer Bedienung, die durch einen Bediener an dem angezeigten Bild durchgeführt wird; und Bewegen des Roboterarms basierend auf der angenommenen Bedienung.
DE102020112049.4A 2019-05-14 2020-05-05 Roboterbedienvorrichtung, roboter und roboterbedienungsverfahren Pending DE102020112049A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-091299 2019-05-14
JP2019091299A JP7306871B2 (ja) 2019-05-14 2019-05-14 ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置

Publications (1)

Publication Number Publication Date
DE102020112049A1 true DE102020112049A1 (de) 2020-11-19

Family

ID=73019396

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020112049.4A Pending DE102020112049A1 (de) 2019-05-14 2020-05-05 Roboterbedienvorrichtung, roboter und roboterbedienungsverfahren

Country Status (4)

Country Link
US (1) US11618166B2 (de)
JP (1) JP7306871B2 (de)
CN (1) CN111941392A (de)
DE (1) DE102020112049A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207017B3 (de) * 2019-05-15 2020-10-29 Festo Se & Co. Kg Eingabeeinrichtung, Verfahren zur Bereitstellung von Bewegungsbefehlen an einen Aktor und Aktorsystem
WO2022244212A1 (ja) * 2021-05-20 2022-11-24 ファナック株式会社 視覚センサにて撮像された画像に基づいて3次元の位置を算出する撮像装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104448B2 (ja) 1992-12-25 2000-10-30 三菱電機株式会社 視覚センサ付きロボットの座標系の設定方法
JP2708032B2 (ja) * 1995-12-26 1998-02-04 日本電気株式会社 ロボット教示装置
JP4167940B2 (ja) 2003-05-29 2008-10-22 ファナック株式会社 ロボットシステム
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP2006289531A (ja) 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP2009000782A (ja) 2007-06-21 2009-01-08 Idec Corp ロボット制御システムおよびロボットハンド
JP2009241247A (ja) 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP5515654B2 (ja) 2009-11-10 2014-06-11 株式会社安川電機 ロボットシステム
JP2012179682A (ja) 2011-03-01 2012-09-20 Nec Corp 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム
JP6195333B2 (ja) * 2012-08-08 2017-09-13 キヤノン株式会社 ロボット装置
JP5850962B2 (ja) * 2014-02-13 2016-02-03 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP6083488B1 (ja) * 2015-11-19 2017-02-22 株式会社安川電機 ロボットシステム及び遠隔制御システム
JP2017177294A (ja) 2016-03-31 2017-10-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム
JP2018012184A (ja) * 2016-07-22 2018-01-25 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
EP3366433B1 (de) 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Verfahren zur steuerung eines roboters, verfahren zum lehren eines roboters und robotersystem
JP6939003B2 (ja) 2017-03-23 2021-09-22 株式会社デンソーウェーブ ロボットシステム
CN207503037U (zh) * 2017-11-23 2018-06-15 亿嘉和科技股份有限公司 机器人云台转向装置

Also Published As

Publication number Publication date
CN111941392A (zh) 2020-11-17
US11618166B2 (en) 2023-04-04
US20200361092A1 (en) 2020-11-19
JP7306871B2 (ja) 2023-07-11
JP2020185639A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE69735269T2 (de) Steuerverfahren zum schrittbetrieb eines roboters
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102018116053A1 (de) Robotersystem und Roboterlernverfahren
EP3098034B1 (de) Auswahl eines gerätes oder eines objektes mit hilfe einer kamera
DE112011104411T5 (de) Tragbare, autonome Vorrichtung, insbesondere zur Verwendung in der Chirurgie, zur Manipulation von Mikrobauteilen und Ähnlichem
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102018009025A1 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
WO2015113757A1 (de) Robotersteuerung
DE102016102902A1 (de) Numerische Steuereinheit zur Steuerung einer Werkzeugmaschine
EP2012208B1 (de) Programmierhandgerät
DE102015000587A1 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102020112049A1 (de) Roboterbedienvorrichtung, roboter und roboterbedienungsverfahren
DE102018004673A1 (de) Robotersystem, das eine Geschwindigkeit anzeigt
DE102018125592A1 (de) Steuerungsanordnung, Verfahren zur Steuerung einer Bewegung eines Roboterarms und Behandlungsvorrichtung mit Steuerungsanordnung
DE102019005297B4 (de) Unterstützungsvorrichtung für einen kooperativen Vorgang
DE102010037067A1 (de) Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters
EP1172183A2 (de) Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
EP2359202B1 (de) Verfahren und vorrichtung zur auswahl einer gespeicherten position eines arbeitspunktes eines manipulators
DE102018129153B4 (de) Eingabeeinrichtung und Robotersteuerungssystem
WO2019224225A1 (de) Verfahren und system zum lokalisieren eines objekts in einer umgebung eines roboters
EP1684159A2 (de) Mobile haptische Schnittstelle
DE112021005036T5 (de) Trainingsvorrichtung zur Angabe des Trainingspunkts durch direkten Trainingsbetrieb, Robotersteuerungsvorrichtung und Computerprogramm für Trainingsvorrichtung
DE102019117217B3 (de) Verfahren zum Vorgeben eines Eingabewerts an einem Robotermanipulator

Legal Events

Date Code Title Description
R437 Application is deemed to be withdrawn due to failure to submit translation
R409 Internal rectification of the legal status completed
R012 Request for examination validly filed