DE102018112403B4 - Robotersystem, das informationen zur unterweisung eines roboters anzeigt - Google Patents

Robotersystem, das informationen zur unterweisung eines roboters anzeigt Download PDF

Info

Publication number
DE102018112403B4
DE102018112403B4 DE102018112403.1A DE102018112403A DE102018112403B4 DE 102018112403 B4 DE102018112403 B4 DE 102018112403B4 DE 102018112403 A DE102018112403 A DE 102018112403A DE 102018112403 B4 DE102018112403 B4 DE 102018112403B4
Authority
DE
Germany
Prior art keywords
robot
unit
image
display device
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018112403.1A
Other languages
English (en)
Other versions
DE102018112403A1 (de
Inventor
Tomonori Matsushima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018112403A1 publication Critical patent/DE102018112403A1/de
Application granted granted Critical
Publication of DE102018112403B4 publication Critical patent/DE102018112403B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/12Programme-controlled manipulators characterised by positioning means for manipulator elements electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Robotersystem (1), wobei das Robotersystem (1) eine Robotersteuervorrichtung (11), die einen Roboter (10) steuert, ein Lehrbedienpanel (12), das einen Orthogonalvorrückbetriebsabschnitt (14) enthält, der eine manuelle Betätigung des Roboters in Bezug auf jede Richtung von drei orthogonalen Achsenrichtungen eines an dem Roboter festgemachten Roboterkoordinatensystems oder eine zusammengesetzte Richtung vornimmt, und eine Informationsanzeigevorrichtung (13), die Informationen zur Unterweisung des Roboters (10) anzeigt, umfasst, wobei die Robotersteuervorrichtung (11) eine Abtastpunktberechnungseinheit (15), die jeweils mit einer bestimmten Periode mehrere Positionen in dem Roboterkoordinatensystem, durch die ein Handspitzenbereich des Roboters (10) in einer durch den Orthogonalvorrückbetriebsabschnitt (14) bestimmten Bewegungsrichtung verlaufen kann, berechnet und als Abtastpunkte ansetzt;eine Bestimmungseinheit (16), die eine erste Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs liegen oder nicht, und eine zweite Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte Singularitätsumgebungen sind oder nicht, vornimmt; undeine Meldeeinheit (17), die der Informationsanzeigevorrichtung (13) die Positionen der einzelnen Abtastpunkte sowie Bestimmungsergebnisinformationen, die die Ergebnisse der ersten Bestimmungsverarbeitung und der zweiten Bestimmungsverarbeitung zeigen, meldet, umfasst, unddie Informationsanzeigevorrichtung (13) eine Kamera (18), die den Roboter (10) aufnimmt; eine Anzeigeeinheit (19), die das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt; und eine Anzeigeverarbeitungseinheit (20), die eine Verarbeitung vornimmt, um unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild so zu erzeugen, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt, und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs, Abschnitte außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs und Abschnitte von Singularitätsumgebungen auf der geradlinigen Bahn optisch unterscheiden, und auf das Bild des Roboters (10) zu legen,umfasst.

Description

  • Allgemeiner Stand der Technik
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Robotersystem, das Informationen zur Unterweisung eines Roboters anzeigt.
  • Beschreibung des Stands der Technik
  • Wenn an Industriestandorten Knickarmroboter für Arbeiten verwendet werden, kann es vorkommen, dass ein Betreiber des Roboters den Roboter unter Verwendung an eines an eine Robotersteuervorrichtung angeschlossenen Lehrbedienpanels tatsächlich betreibt und dem Roboter gewünschte Arbeitshandlungen lehrt.
  • Beim Lehrbetrieb des Roboters wird in fast allen Fällen ein Betrieb, bei dem der Roboter unter Drücken von Tasten, die an dem Lehrbedienpanel angeordnet sind und Roboterbewegungsrichtungen zeigen, an gewünschte Positionen bewegt wird, ein sogenannter Vorrückbetrieb, vorgenommen. Als Hauptbedienverfahren des Vorrückbetriebs gibt es den orthogonalen Vorrückbetrieb, bei dem der Handspitzenbereich des Roboters in die Richtung einer X-Achse, einer Y-Achse oder einer Z-Achse eines an dem Roboter festgemachten orthogonalen Koordinatensystems bewegt wird, und den Vorrückbetrieb für eine jeweilige Achse, bei dem der Roboter für einen jeweiligen Achsenabschnitt des Roboters in eine Richtung um die Achse bewegt wird. Da der orthogonale Vorrückbetrieb eine Betrieb ist, der auf einem für den Menschen leicht verständlichen orthogonalen Koordinatensystem beruht, nimmt der Betreiber den Lehrbetrieb des Roboters häufig durch den orthogonalen Vorrückbetrieb vor.
  • Außerdem wurde bisher eine Technik vorgeschlagen, bei der bei der Vornahme der Bestimmung des Vorrückmodus durch den Betreiber unter Betätigen des Lehrbedienpanels der Robotersteuervorrichtung der Inhalt des bestimmten Vorrückmodus, zum Beispiel die Vorschubrichtung für das Vorrücken, zusammen mit einem Bild des Roboters grafisch an einem Bildschirm angezeigt wird (siehe zum Beispiel die Patentoffenlegungsschrift JP H07-295 625 A ).
  • In der US 2016/ 0207 198 A1 ist ein Verfahren sowie eine Vorrichtung zur Überprüfung eines oder mehrerer sicherer Arbeitsbereiche für eine bewegliche Robotereinrichtung beschrieben.
  • Die US-Patentschrift US 7,957,838 B2 beschreibt ein Steuerungssystem für eine Anzahl von mechanischen Einheiten, speziell Robotern.
  • Aus der US 5,047,916 A ist ein Verfahren sowie eine Vorrichtung für eine Freiraumaufzählung für eine Bewegungsplanung, insbesondere für einen Roboter beschrieben, die allgemein anwendbar ist und gleichzeitig Informationsmengen reduziert.
  • In der JP 2012 - 218 120 A wird ein Transitionsbild beschrieben, das aus einem erwarteten dreidimensionalen Übergangsmodell besteht, das unter Verwendung eines Blickfelds eines Arbeiters erstellt wird.
  • Die JP 2012 - 171 024 A beschreibt eine Robotervorrichtung mit einem Touchscreen zum Anzeigen eines mit einer Kamera aufgenommenen Bildes sowie mit einer Roboter-ErkennungsEinheit zur Erkennung einer dreidimensionalen Position und Stellung des Roboters in Abhängigkeit des Bildes.
  • In der JP 2009 - 226 561 A wird ein Verfahren und eine Vorrichtung zur Berechnung und Anzeige von Betriebstoleranzen eines Roboters beschrieben.
  • Kurzdarstellung der Erfindung
  • Im Allgemeinen wird bei der Erzeugung einer Befehlsposition durch Bestimmen der Bewegungsrichtung des Roboterhandspitzenbereichs bei dem oben genannten orthogonalen Vorrückbetrieb der Drehwinkel jedes Achsenabschnitts durch eine Berechnung der inversen Kinematik aus der Befehlsposition berechnet und werden die einzelnen Achsenabschnitte auf Basis des berechneten Werts so koordiniert bewegt, dass der Roboterhandspitzenbereich an die Befehlsposition bewegt wird. Daher ist es schwierig, den Roboter in Bezug auf eine Befehlsposition zu bewegen, für die keine Lösung der Berechnung der inversen Kinematik erhalten wird. Da beispielsweise bei einer Befehlsposition, an der eine Roboterlage zustande kommt, bei die Drehachsen von zwei oder mehr Achsenabschnitten auf einer geraden Linie nebeneinander liegen, die Drehwinkel der jeweiligen Achsenabschnitte nicht eindeutig bestimmt werden können, kann der Roboter nicht an eine solche Position bewegt werden. Eine Position, an der ein Roboter auf diese Weise nicht mehr gesteuert werden kann, wird als Singularität bezeichnet, und bei der Vornahme der Unterweisung des Roboters durch den orthogonalen Vorrückbetrieb ist es nötig, den Handspitzenbereich des Roboters so zu bewegen, dass Singularitäten und ihre Umgebungen vermieden werden.
  • Doch da Singularitäten von dem Mechanismus des Roboters abhängen, kommt es häufig vor, dass der Betreiber nicht erkennen kann, dass sich die Lage des Roboters einer Singularität nähert; und es hängen auch Bereiche, die als Umgebung einer Singularität bestimmt werden, von der Position der Singularität ab. Daher ist das Herausfinden der Vorgangsweise, um einer Singularität effektiv auszuweichen, für den Betreiber äußerst schwierig. Da bei dem Verfahren, das in der oben genannten Patentoffenlegungsschrift Hei-7-295625 offenbart wurde, nur die Vorschubrichtung für das Vorrücken grafisch dargestellt wird, können dem Betreiber Positionen von Singularitäten während der Unterweisung des Roboters nicht erkennbar gemacht werden.
  • Daher wird eine Technik gewünscht, wodurch dem Betreiber die Bewegungsrichtung des Handspitzenbereichs des Roboters sowie in dieser Bewegungsrichtung befindliche Singularitäten bei dem orthogonalen Vorrückbetrieb leicht erkennbar gemacht werden können.
  • Eine Form der vorliegenden Offenbarung ist ein Robotersystem, das eine Robotersteuervorrichtung, die einen Roboter steuert, ein Lehrbedienpanel, das einen Orthogonalvorrückbetriebsabschnitt enthält, der eine manuelle Betätigung des Roboters in Bezug auf jede Richtung von drei orthogonalen Achsenrichtungen eines an dem Roboter festgemachten Roboterkoordinatensystems oder eine zusammengesetzte Richtung vornimmt, und eine Informationsanzeigevorrichtung, die Informationen zur Unterweisung des Roboters anzeigt, umfasst, wobei die Robotersteuervorrichtung
    eine Abtastpunktberechnungseinheit, die jeweils mit einer bestimmten Periode mehrere Positionen in dem Roboterkoordinatensystem, durch die ein Handspitzenbereich des Roboters in einer durch den Orthogonalvorrückbetriebsabschnitt bestimmten Bewegungsrichtung verlaufen kann, berechnet und als Abtastpunkte ansetzt,
    eine Bestimmungseinheit, die eine Bestimmungsverarbeitung vornimmt, wodurch bestimmt wird, ob die einzelnen Abtastpunkte Umgebungen einer Singularität des Roboters sind oder nicht, und
    eine Meldeeinheit, die der Informationsanzeigevorrichtung die Positionen der einzelnen Abtastpunkte sowie Bestimmungsergebnisinformationen, die das Ergebnis der Bestimmungsverarbeitung für die einzelnen Abtastpunkte zeigt, meldet,
    umfasst, und
    die Informationsanzeigevorrichtung
    eine Kamera, die den Roboter aufnimmt,
    eine Anzeigeeinheit, die das durch die Kamera aufgenommene Bild des Roboters anzeigt, und
    eine Anzeigeverarbeitungseinheit, die eine Verarbeitung vornimmt, um unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild so zu erzeugen, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt, und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs, Abschnitte außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs und Abschnitte von Singularitätsumgebungen auf der geradlinigen Bahn optisch unterscheiden, und auf das Bild des Roboters zu legen,
    umfasst.
  • Figurenliste
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden durch die nachstehende Erklärung von Ausführungsformen in Verbindung mit den beiliegenden Zeichnungen noch klarer werden. In den beiliegenden Zeichnungen
    • ist 1 ein Funktionsblockdiagramm, das ein Robotersystem nach einer Ausführungsform zeigt,
    • ist 2 eine Seitenansicht, die ein Aufbaubeispiel für einen Roboter zeigt;
    • ist 3A eine schematische Ansicht, die ein Beispiel für Singularitäten eines Knickarmroboters zeigt;
    • ist 3B eine schematische Ansicht, die ein anderes Beispiel für Singularitäten eines Knickarmroboters zeigt;
    • ist 4 eine Ansicht, die ein Beispiel für ein Aufnahmebild eines Roboters, auf das durch das Robotersystem einer Ausführungsform ein Grafikbild gelegt wurde, schematisch zeigt;
    • ist 5 ein Ablaufdiagramm, das den Verarbeitungsablauf der Robotersteuervorrichtung von 1 zeigt; und
    • ist 6 ein Ablaufdiagramm, das den Verarbeitungsablauf der Informationsanzeigevorrichtung von 1 zeigt.
  • Ausführliche Erklärung
  • Nachstehend werden unter Bezugnahme auf die beiliegenden Zeichnungen Beispiele für die Ausführung der vorliegenden Erfindung erklärt. Über die gesamten Zeichnungen hinweg sind entsprechende Aufbauelemente mit gemeinsamen Bezugszeichen versehen. Zur Erleichterung des Verständnisses ist der Maßstab dieser Zeichnungen passend verändert. Die in den Zeichnungen gezeigten Formen stellen ein Beispiel für die Ausführung der vorliegenden Erfindung dar, doch ist die vorliegende Erfindung nicht auf die dargestellten Formen beschränkt.
  • 1 ist ein Funktionsblockdiagramm, das ein Robotersystem 1 nach einer Ausführungsform zeigt.
  • Das Robotersystem 1 der vorliegenden Ausführungsform umfasst eine Robotersteuervorrichtung 11, die einen Roboter 10 steuert, ein Lehrbedienpanel 12 zur Vornahme eines Lehrbetriebs des Roboters 10, und eine Informationsanzeigevorrichtung 13, die Informationen im Zusammenhang mit der Steuerung des Roboters 10 anzeigt.
  • 2 ist eine Seitenansicht, die ein Aufbaubeispiel für den Roboter 10 zeigt. Der dargestellte Roboter 10 ist ein vertikaler sechsachsiger Knickarmroboter Der Roboter 10 umfasst wie in 2 gezeigt sechs Achsenabschnitte 10a1 bis 10a6 und mehrere Armabschnitte (Gelenkabschnitte) 10b, die jeweils durch die Achsenabschnitte 10a1 bis 10a6 verbunden sind. In die einzelnen Achsenabschnitte 10a1 bis 10a6 sind Motoren (nicht dargestellt), die die einzelnen Armabschnitte 10b drehend antreiben, eingebaut. Was die Form des Roboters, auf die die vorliegende Erfindung anwendbar ist, betrifft, besteht keine Beschränkung auf die Roboterausführung von 2, solange es sich um einen Knickarmroboter mit mehreren Gelenkabschnitten handelt.
  • Außerdem ist an dem Hauptkörper des Roboters 10 ein Roboterkoordinatensystem 26 festgemacht. Bei der vorliegenden Ausführungsform ist der Ursprungspunkt des Roboterkoordinatensystems 26 an dem Basisabschnitt des Roboters 10 eingerichtet. In 2 ist das Roboterkoordinatensystem 26 durch den gestrichelten runden Rahmen auch vergrößert dargestellt. Bei dem Beispiel von 2 ist der Ursprungspunkt des Roboterkoordinatensystems 26 an dem Basisabschnitt des Roboters 10 eingerichtet und wird, mit dem Ursprungspunkt als Zentrum, die rechte Richtung in 2 als positive X-Richtung, die Aufwärtsrichtung in 2 als positive Z-Richtung, und die in Bezug auf die Papierfläche von 2 nach hinten verlaufende Richtung als positive Y-Richtung angesetzt. Die Robotersteuervorrichtung 11 und das Lehrbedienpanel 12 können die Position des Handspitzenbereichs des Roboters 10, zum Beispiel den TCP (tool center point, Werkzeugmittelpunkt) 27 unter Verwendung von Positionen (Koordinaten) des oben beschriebenen Roboterkoordinatensystems 26 steuern.
  • Unter erneuter Bezugnahme auf 1 ist das Lehrbedienpanel 12 drahtgebunden oder drahtlos kommunikationsfähig an die Robotersteuervorrichtung 11 angeschlossen. Das Lehrbedienpanel 12 enthält einen Orthogonalvorrückbetriebsabschnitt 14 zur Vornahme einer manuellen Betätigung des Roboters 10 in Bezug auf jede Richtung der drei orthogonalen Achsenrichtungen (X-Achsen-Richtung, Y-Achsen-Richtung, Z-Achsen-Richtung) des an dem Roboter 10 festgemachten Roboterkoordinatensystems 26 oder eine zusammengesetzte Richtung.
  • Das Lehrbedienpanel 12 weist neben dem Orthogonalvorrückbetriebsabschnitt 14 auch einen Vorrückbetriebsabschnitt für eine jeweilige Achse, einen Werkzeugvorrückbetriebsabschnitt usw. (nicht dargestellt) auf. Der Vorrückbetriebsabschnitt für eine jeweilige Achse ist eine Betriebseinheit, um die einzelnen Achsenabschnitte 10a des Roboters 10 jeweils einzeln manuell zu betreiben, und der Werkzeugvorrückbetriebsabschnitt ist eine Betriebseinheit, um den Roboter 10 auf Basis eines Werkzeugkoordinatensystems, das an einer Flanschfläche 28 (siehe 2) des Handspitzenbereichs des Roboters 10, die so ausgebildet ist, dass daran ein Werkzeug angebracht werden kann, festgemacht ist, manuell zu betreiben. Als Werkzeug kann ein Handabschnitt, ein Bolzenbefestigungsmittel, eine Schweißpistole oder dergleichen verwendet werden.
  • Die Robotersteuervorrichtung 11 verfügt über die Funktion, Bewegungsbefehle für die einzelnen Achsenabschnitte 10a des Roboters 10 gemäß einem vorab in der Robotersteuervorrichtung 11 gespeicherten Betriebsprogramm zu erzeugen und an die Motoren der einzelnen Achsenabschnitte 10a zu senden und Drehwinkel und Drehgeschwindigkeiten der einzelnen Achsenabschnitte 10a des Roboters 10 zu erhalten.
  • Die Motoren der einzelnen Achsenabschnitte 10a sind mit Codierern, die den Drehwinkel und die Drehgeschwindigkeit des betreffenden Motors detektieren, versehen. Die Drehwinkel und die Drehgeschwindigkeiten der einzelnen Achsenabschnitte 10a, werden durch die Codierer, die an den Motoren der einzelnen Achsenabschnitte 10a bereitgestellt sind, erlangt. Die Robotersteuervorrichtung 11 ist so ausgeführt, dass sie den Roboter 10 so steuert, dass die von den Codierern ausgegebenen Drehwinkel und Drehgeschwindigkeiten und Bewegungsbefehle (Positionsbefehle und Geschwindigkeitsbefehle) übereinstimmen. Es besteht jedoch keine Beschränkung auf Codierer; an den einzelnen Achsenabschnitten 10 können auch Messeinrichtungen, die die Drehposition und die Drehgeschwindigkeit des Achsenabschnitts 10a messen können, bereitgestellt sein.
  • Wenn dem Roboter 10 ein gewünschter Arbeitsbetrieb gelehrt wird, nimmt der Betreiber einen Lehrbetrieb des Roboters 10 unter Verwendung des Lehrbedienpanels 12 vor. Wenn der Betreiber zum Beispiel eine Vorrücktaste für die positive X-Achsen-Richtung an dem Orthogonalvorrückbetriebsabschnitt 14 drückt, erzeugt ein Prozessor (nicht dargestellt) in dem Lehrbedienpanel 12 einen der gedrückten Vorrücktaste entsprechenden Bewegungsbefehl in der positiven X-Achsen-Richtung und gibt er diesen an die Robotersteuereinheit 11 aus. Während des Lehrbetriebs steuert die Robotersteuervorrichtung 11 den Roboter 10 durch Bewegungsbefehle, die von dem Lehrbedienpanel 12 eingegeben werden.
  • Außerdem kann der Orthogonalvorrückbetriebsabschnitt 14 der vorliegenden Ausführungsform den Roboter 10 durch gleichzeitiges Drücken von wenigstens zwei Vorrücktasten aus den Vorrücktasten für die X-Achsen-Richtung, den Vorrücktasten für die Y-Achsen-Richtung und den Vorrücktasten für die Z-Achsen-Richtung auch in eine kombinierte Richtung, die den jeweiligen betätigten wenigstens zwei Vorrücktasten entspricht, bewegen. Wenn zum Beispiel die Vorrücktaste für die positive X-Achsen-Richtung und die Vorrücktaste für die positive Y-Achsen-Richtung gleichzeitig betätigt werden, bewegt sich der Roboter 10 in der XY-Ebene schräg in einer Richtung von 45 Grad.
  • Übrigens existieren bei dem Roboter 10 Roboterpositionen, sogenannte Singularitäten, bei denen das Problem auftritt, dass die Drehwinkel und Drehgeschwindigkeiten der einzelnen Achsenabschnitte 10a des Roboters 10 nicht durch eine Berechnung der inversen Kinematik aus dem Bewegungsbefehl (Positionsbefehl, Geschwindigkeitsbefehl) in Bezug auf den Handspitzenbereich des Roboters 10 bestimmt werden können.
  • Zum Beispiel sind 3A und 3B schematische Ansichten, die Singularitäten eines Knickarmroboters beispielhaft zeigen. In diesen Zeichnungen sind die in 2 gezeigten Achsenabschnitte 10a1 bis 10a6 des Roboters 10 schematisch dargestellt. Wie in 3A gezeigt ist es im Fall einer Roboterlage, bei der das Drehzentrum des vierten Gelenkabschnitts 10a4 und das Drehzentrum des sechsten Gelenkabschnitts 10a6 auf der gleichen geraden Linie angeordnet wurden, möglich, eine Drehung eines Werkzeugs 29 des Roboterhandspitzenbereichs durch Drehen des vierten Gelenkabschnitts 10a4 vorzunehmen oder durch Drehen des sechsten Gelenkabschnitts 10a6 vorzunehmen. Wie in 3B gezeigt ist es auch im Fall einer Roboterlage, bei der das Drehzentrum des ersten Gelenkabschnitts 10a1 und das Drehzentrum des sechsten Gelenkabschnitts 10a6 auf der gleichen geraden Linie angeordnet wurden, möglich, eine Drehung des Werkzeugs 29 des Roboterhandspitzenbereichs durch Drehen des ersten Gelenkabschnitts 10a1 vorzunehmen oder durch Drehen des sechsten Gelenkabschnitts 10a6 vorzunehmen. Daher wird der Drehwinkel der einzelnen Achsenabschnitte in Bezug auf die Koordinatenposition der TCP 27, bei der eine in 3A oder 3B gezeigte Roboterlage entsteht, durch eine Berechnung der inversen Kinematik nicht eindeutig bestimmt. Deshalb kommt es vor, dass der Roboter 10 unsteuerbar wird, wenn der TCP 27 an eine dreidimensionale Position, an der die Drehzentren von wenigstens zwei Achsenabschnitten des Roboters 10 auf der gleichen geraden Linie nebeneinander liegen, oder in ihre Umgebung bewegt wird.
  • Daher sind die Robotersteuervorrichtung 11 und die Informationsanzeigevorrichtung 13 bei der vorliegenden Ausführungsform mit den nachstehend beschriebenen Funktionseinheiten versehen, damit dem Betreiber leicht erkennbar gemacht wird, dass sich die Roboterlage beim orthogonalen Vorrückbetrieb einer wie oben beschriebenen Singularität oder ihrer Umgebung annähert.
  • Wie in 1 gezeigt umfasst die Robotersteuervorrichtung 11 eine Abtastpunktberechnungseinheit 15, eine Bestimmungseinheit 16, und eine Meldeeinheit 17.
  • Konkret verfügt die Abtastpunktberechnungseinheit 15 über die Funktion, jeweils mehrere Punkte, durch die der Handspitzenbereich (konkret die TCP 27) des Roboters 10 in der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung (zum Beispiel der positiven X-Achsen-Richtung oder der kombinierten Richtung aus der positiven X-Achsen-Richtung und der positiven Y-Achsen-Richtung oder dergleichen) verlaufen kann, zu berechnen und als Abtastpunkte anzusetzen. Die berechneten mehreren Positionen (Abtastpunkte) sind Positionen (Koordinaten) in dem Roboterkoordinatensystem.
  • Konkret berechnet die Abtastpunktberechnungseinheit 15 auf Basis der Drehwinkel der einzelnen Achsenabschnitte 10a, die aus den Ausgangswerten der in den einzelnen Achsenabschnitten 10a des Roboters 10 bereitgestellten Codierern erhalten werden, die gegenwärtige Position des Handspitzenbereichs (zum Beispiel des TCP) des Roboters 10. Diese Position kann durch eine Berechnung der Vorwärtskinematik ermittelt werden. Die Abtastpunktberechnungseinheit 15 berechnet die oben genannten einzelnen Abtastpunkte mit einer bestimmten Periode auf Basis der ermittelten gegenwärtigen Position und der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung (nachstehend kurz als „bestimmte Bewegungsrichtung“ bezeichnet).
  • Diese bestimmte Periode ist eine Periode, die viel kürzer als die Periode für die Erzeugung der durch den Roboterlehrbetrieb erzeugten Bewegungsbefehle für den Roboter 10 ist. Daher werden die einzelnen Abtastpunkte schneller als die Bewegungsgeschwindigkeit des Roboters 10 während des Lehrbetriebs berechnet. Außerdem wird für die bestimmte Periode eine solche Periode angesetzt, dass die einzelnen Abtastpunkte in einem kürzeren Abstand als dem Bereich, der vorab für die Bestimmung der Umgebung einer später beschriebenen Singularität des Roboters 10 festgelegt wurde, berechnet werden können.
  • Die Bestimmungseinheit 16 verfügt über die Funktion zur Vornahme einer ersten Bestimmungsverarbeitung, bei der bestimmt wird, ob die berechneten einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10 liegen oder nicht, und einer zweiten Bestimmungsverarbeitung, bei der bestimmt wird, ob die berechneten einzelnen Abtastpunkte Umgebungen einer Singularität des Roboters 10 sind oder nicht.
  • Was den genannten Beweglichkeitsbereich des Handspitzenbereichs des Roboters 10 betrifft, kann der Bereich, den der Handspitzenbereich des Roboters 10 in dem Roboterkoordinatensystem erreichen kann, unter Verwendung von Abmessungsdaten zur Zeit der Gestaltung des Mechanismus des Roboters 10, zum Beispiel der Abstände zwischen den einzelnen Achsenabschnitten oder der Längen der Armabschnitte, oder dergleichen, vorab ermittelt werden. Durch ein im Voraus vorgenommenes Speichern eines solchen Beweglichkeitsbereichs in einer Speichereinheit (nicht dargestellt) der Robotersteuervorrichtung 11 kann die Bestimmungseinheit 16 bestimmen, ob ein Abtastpunkt innerhalb des Beweglichkeitsbereichs des Spitzenendabschnitts des Roboters 10 liegt oder nicht.
  • Eine Singularität ist eine Position des Roboterhandspitzenbereichs, an der es schwierig wird, den Drehwinkel und die Drehgeschwindigkeit der einzelnen Achsenabschnitte 10a des Roboters 10 aus einem Bewegungsbefehl (Positionsbefehl oder Geschwindigkeitsbefehl) in Bezug auf den Roboterhandspitzenbereich eindeutig zu bestimmen. Daher kann durch den Umstand, ob ein Achsenabschnitt 10a vorhanden ist, bei dem es schwierig ist, in Bezug auf die Position eines berechneten Abtastpunkts eine Lösung der Berechnung der inversen Kinematik zu erhalten, bestimmt werden, ob dieser Abtastpunkt eine Singularität des Roboters 10 ist oder nicht. Außerdem kann durch den Umstand, ob ein Achsenabschnitt 10a vorhanden ist, dessen Motor trotz des Erhalts einer Lösung der Berechnung der inversen Kinematik nicht so gesteuert werden kann, dass er dem Drehwinkel der Lösung folgen kann, bestimmt werden, ob dieser Abtastpunkt die Umgebung einer Singularität des Roboters 10 ist oder nicht.
  • Das heißt, die in der vorliegenden Anmeldung genannte Singularität des Roboters entspricht einer Position des Roboterhandspitzenbereichs, an der wie oben beschrieben keine Lösung der Berechnung der inversen Kinematik erhalten wird, und die in der vorliegenden Anmeldung genannte Umgebung einer Singularität des Roboters entspricht einem Positionsbereich des Roboterhandspitzenbereichs, in dem ein Achsenabschnitt vorhanden ist, bei dem trotz des Erhalts einer Lösung der Berechnung der inversen Kinematik die gewünschte Motorsteuerung nicht vorgenommen werden kann.
  • Was die oben beschriebene Bestimmung der Umgebung einer Singularität betrifft, ist es auch möglich, zu bestimmen, ob ein Abtastpunkt innerhalb eines Bereichs liegt, für den ab einer als Singularität des Roboters bestimmten Position des Roboterhandspitzenbereiche (der Position des TCP) eine bestimmte festgelegte Spannweite hinzugerechnet wurde.
  • Die Meldeeinheit 17 verfügt über die Funktion, der Informationsanzeigevorrichtung 13 die Positionen der einzelnen Abtastpunkte in dem Roboterkoordinatensystem und Bestimmungsergebnisinformationen, die das Ergebnis der ersten Bestimmungsverarbeitung und der zweiten Bestimmungsverarbeitung zeigen, zu melden. Die Informationsanzeigevorrichtung 13 ist drahtgebunden oder drahtlos kommunikationsfähig an die Robotersteuereinheit 11 angeschlossen.
  • Die Informationsanzeigevorrichtung 13 umfasst wie in 1 gezeigt eine Kamera 18, eine Anzeigeeinheit 19 und eine Erweiterte-Realität-Anzeigeverarbeitungseinheit 20.
  • Die Informationsanzeigevorrichtung 13 ist zum Beispiel durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet. Die Kameraeinheit, mit der diese am Kopf getragene Anzeigevorrichtung versehen ist, bildet die Kamera 18, und eine den Augen gegenüberliegend angeordnete Anzeigeeinheit vom Brillentyp dieser am Kopf getragenen Anzeigevorrichtung kann die Anzeigeeinheit 19 bilden.
  • Konkret nimmt die Kamera 18 den Roboter 10 im realen Raum auf. Die Anzeigeeinheit 19 kann das von der Kamera 18 aufgenommene Bild des Roboters 10 anzeigen.
  • Die Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 kann eine Verarbeitung vornehmen, wobei unter Verwendung der von der Meldeeinheit 17 der Robotersteuervorrichtung 11 gemeldeten Positionen der einzelnen Abtastpunkte und Bestimmungsergebnisinformationen ein Grafikbild erzeugt wird und auf das Bild des Roboters 10 an der Anzeigeeinheit 19 gelegt wird. Dieses Grafikbild wird so erzeugt, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10, Abschnitte außerhalb des Beweglichkeitsbereichs dieses Handspitzenbereichs und Abschnitte von Singularitätsumgebungen des Roboters auf der geradlinigen Bahn optisch unterscheiden.
  • Zum Beispiel kann die Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 das Grafikbild so erzeugen, dass die Anzeigefarbe oder die Anzeigeformen für jedes aus Abtastpunkten, die sich innerhalb des Beweglichkeitsbereichs befinden, Abtastpunkten, die sich außerhalb des Beweglichkeitsbereichs befinden, und Abtastpunkten, die sich in der Umgebung von Singularitäten befinden, jeweils unterschiedlich ist.
  • Noch genauer ist die oben genannte Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 wie in 1 gezeigt mit einer Wechselbeziehungsansatzeinheit 21, einer Positionsdatenumwandlungseinheit 22, einer Grafikbilderzeugungseinheit 23, und einer Bildverarbeitungseinheit 24 versehen.
  • Die Wechselbeziehungsansatzeinheit 21 verfügt über die Funktion, eine Wechselbeziehung zwischen dem Ursprungspunkt eines an der Kamera 18 festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des Roboterkoordinatensystems anzunehmen. Zum Beispiel berechnet die Wechselbeziehungsansatzeinheit 21 eine Koordinatentransformationsmatrix, um die von dem Ursprungspunkt des Kamerakoordinatensystems her gesehene Ursprungspunktposition und Ausrichtung des Roboterkoordinatensystems zu ermitteln. Der Grund dafür ist, dass es auch bei einer Änderung der relativen Position und des relativen Winkels der Kamera 18 in Bezug auf den Roboter 10 nötig ist, das Grafikbild in einer passenden Ausrichtung und an einer passenden Position auf das von der Kamera 18 stammende Bild des Roboters 10 gelegt anzuzeigen.
  • Die Positionsdatenumwandlungseinheit 22 verfügt über die Funktion, die von der Meldeeinheit 17 gemeldeten Positionen der einzelnen Abtastpunkte unter Verwendung der durch die Wechselbeziehungsansatzeinheit 21 angenommenen Wechselbeziehung in Positionen in dem Kamerakoordinatensystem umzuwandeln.
  • Die Grafikbilderzeugungseinheit 23 verfügt über die Funktion, unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der von der Meldeeinheit 17 gemeldeten Bestimmungsergebnisinformationen für die einzelnen Abtastpunkte ein wie oben beschriebenes Grafikbild zu erzeugen. Um das genannte Grafikbild so zu erzeugen, dass es an das Bild des Roboters 10 angepasst ist, verwendet die Grafikbilderzeugungseinheit 23 die Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem.
  • Die Bildverarbeitungseinheit 24 verfügt über die Funktion, eine Verarbeitung vorzunehmen, um das genannte Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters 10 an der Anzeigeeinheit 19 zu legen.
  • 4 ist eine Ansicht, die ein Beispiel für ein Aufnahmebild eines Roboters 10, auf das ein wie oben beschriebenes Grafikbild gelegt wurde, schematisch zeigt. Wie in 4 gezeigt kann ein Betreiber 25 des Roboters 10 die durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildete Informationsanzeigevorrichtung 13 anlegen und unter visueller Erfassung des Bilds des Roboters 10 und des oben genannten Grafikbilds an der den Augen gegenüberliegenden Anzeigeeinheit 19 einen orthogonalen Vorrückbetrieb mittels des Lehrbedienpanels 12 vornehmen. Wenn der Betreiber 25 des Roboters 10 den Handspitzenbereich des Roboters 10 durch den orthogonalen Vorrückbetrieb in eine bestimmte Bewegungsrichtung bewegt hat, kann er das Vorhandensein von Umgebungen von Singularitäten, an denen der Roboterhandspitzenbereich nicht bewegt werden kann, und Bereichen außerhalb des Beweglichkeitsbereichs in dieser Bewegungsrichtung leicht durch die Anzeigeeinheit 19 erkennen.
  • Zum Beispiel bezeichnet in dem in 4 gezeigten Grafikbild 30 der mit A bezeichnete Bereich (der schraffierte Bereich in der Zeichnung) die Umgebung einer Singularität, bezeichnet der mit B bezeichnete Bereich (der weiße Bereich innerhalb des gestrichelten Rahmens in der Zeichnung) einen Bereich außerhalb des Bewegungsbereichs, und bezeichnen die mit C bezeichneten Bereiche (die gepunkteten Bereiche in der Zeichnung) normale Betriebsbereiche. Die mit A, B und C bezeichneten Bereiche können auch durch unterschiedliche Farben unterschieden werden.
  • Außerdem kann die wie oben beschrieben aufgebaute Informationsanzeigevorrichtung 13 das Grafikbild, das wie oben beschrieben auf das Bild des Roboters 10 gelegt wird, bei einer Änderung der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung zu einer anderen Bewegungsrichtung (zum Beispiel einer Änderung von der positiven X-Achsen-Richtung zu der positiven Y-Achsen-Richtung) gemäß der geänderten Bewegungsrichtung aktualisieren.
  • Es wurde angenommen, dass die oben beschriebene Informationsanzeigevorrichtung 13 durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet ist, doch kann die Informationsanzeigevorrichtung 13 in verschiedenen Formen ausgeführt werden.
  • Zum Beispiel kann die Informationsanzeigevorrichtung 13 auch in das Lehrbedienpanel 12 eingebaut sein. In diesem Fall kann ein an dem Lehrbedienpanel 12 ausgebildetes Anzeigefeld 12a als Anzeigeeinheit 19 der Informationsanzeigevorrichtung 13 verwendet werden. Das Anzeigefeld 12a des Lehrbedienpanels 12 verfügt über die Funktion, das durch die Kamera 18 aufgenommene Bild des Roboters 10 anzuzeigen. Außerdem kann die Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 so ausgeführt sein, dass sie das oben genannte Grafikbild auf das an dem Anzeigefeld 12a angezeigte Bild des Roboters 10 gelegt anzeigen kann.
  • Die Robotersteuervorrichtung 11 und die Informationsanzeigevorrichtung 13, die oben beschrieben wurden, können unter Verwendung eines Computersystems, das eine Speichereinheit, eine CPU (Steuerverarbeitungseinheit), eine Kommunikationssteuereinheit und dergleichen, die miteinander über einen Bus verbunden sind, umfasst, aufgebaut werden. Die Speichereinheit ist eine Speichervorrichtung wie etwa ein ROM (Nurlesespeicher), ein RAM (Direktzugriffsspeicher), ein HDD (Festplattenlaufwerk), ein SSD (Solid-State-Laufwerk) oder dergleichen. Die jeweiligen Funktionen der Abtastpunktberechnungseinheit 15, der Bestimmungseinheit 16 und der Meldeeinheit 17, die die Robotersteuervorrichtung 11 umfasst, sowie die jeweiligen Funktionen der Wechselbeziehungsansatzeinheit 21, der Positionsdatenumwandlungseinheit 22, der Grafikbildderzeugungseinheit 23 der Anzeigeeinheit 24 und der Erweiterte-Realität-Anzeigeverarbeitungseinheit 20, die die Informationsanzeigevorrichtung 13 umfasst, können durch einen Betrieb der CPU in Kombination mit der oben genannten Speichereinheit ausgeführt werden.
  • Als nächstes wird unter Bezugnahme auf 5 und 6 der Betrieb des Robotersystems 1 nach der vorliegenden Ausführungsform erklärt. 5 ist ein Ablaufdiagramm, das den Verarbeitungsablauf der Robotersteuervorrichtung 11 in 1 zeigt, und 6 ist ein Ablaufdiagramm, das den Verarbeitungsablauf der Informationsanzeigevorrichtung 13 in 1 zeigt. Es wird angenommen, dass die Robotersteuervorrichtung 11 bei der Ausführung von Schritt S11 in 5 durch eine Person unter Verwendung des Lehrbedienpanels 12 in den Lehrbetriebsmodus, in dem eine manuelle Bewegung des Roboters vorgenommen wird, gebracht ist.
  • Zunächst erhält die Robotersteuervorrichtung 11 in Schritt S11 von 5 eine durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmte Bewegungsrichtung. Dann erlangt die Robotersteuereinheit 11 aus den Ausgangswerten der einzelnen Codierer, mit denen die einzelnen Achsenabschnitte 11a des Roboters 10 versehen sind, Drehwinkel. Im anschließenden Schritt S12 erlangt die Robotersteuervorrichtung 12 aus den Drehwinkeln der einzelnen Achsenabschnitte 10a durch eine Berechnung der Vorwärtskinematik die gegenwärtige Position des Handspitzenbereichs (zum Beispiel die TCP 27) des Roboters 10.
  • Im anschließenden Schritt S13 berechnet die Abtastpunktberechnungseinheit 15 der Robotersteuervorrichtung 11 jeweils der Reihe nach mehrere Positionen in dem Roboterkoordinatensystem, durch die der Handspitzenbereich des Roboters 10 in der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung verlaufen kann, und setzt die berechneten Positionen als Abtastpunkte an. Da die gegenwärtige Position des Handspitzenbereichs (zum Beispiel des TCP 27) des Roboters 10 und die bei dem Vorrückbetrieb dieses Handspitzenbereichs bestimmte Bewegungsrichtung erlangt wurden, ist es möglich, die oben genannten einzelnen Abtastpunkte auf Basis der gegenwärtigen Position und der Bewegungsrichtung mit der oben genannten bestimmten Periode zu berechnen.
  • Im nächsten Schritt S14 bestimmt die Bestimmungseinheit 16 der Robotersteuervorrichtung 11, ob ein berechneter Abtastpunkt innerhalb des Abtastbereichs liegt oder nicht. Wenn der Abtastpunkt innerhalb des Abtastbereichs liegt, wird Schritt S15 durchgeführt, und wenn der Abtastpunkt nicht innerhalb des Abtastbereichs liegt, beendet die Robotersteuervorrichtung 11 die Verarbeitung.
  • Der genannte Abtastbereich wird zum Beispiel als Innenseite eines Quaders, der den Bewegungsbereich des auf einem Boden eingerichteten Roboters 10 weit umschließt, festgelegt. In diesem Fall wird angenommen, dass die Koordinatenwerte der Ecken des Quaders durch das an die Robotersteuervorrichtung 11 angeschlossene Lehrbedienpanel 12 oder eine Eingabevorrichtung einer Computervorrichtung (nicht dargestellt), oder dergleichen als Zahlenwerte eingegeben und in der Speichereinheit der Robotersteuervorrichtung 11 gespeichert werden. Diese Koordinatenwerte sind Positionen in dem Roboterkoordinatensystem. Die Form des Abtastbereichs ist nicht auf einen Quader beschränkt.
  • In dem genannten Schritt S15 bestimmt die Bestimmungseinheit 16 ob der berechnete Abtastpunkt außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10 liegt oder nicht. Das Bestimmungsverfahren des Beweglichkeitsbereichs ist wie oben beschrieben. Wenn der Abtastpunkt außerhalb des Beweglichkeitsbereichs liegt, meldet die Meldeeinheit 17 der Robotersteuervorrichtung 11 der Informationsanzeigevorrichtung 13 die Position des Abtastpunkts und die Bestimmungsergebnisinformation, dass der betreffende Abtastpunkt außerhalb des Beweglichkeitsbereichs liegt (Schritt S16), und wird der später beschriebene Schritt S20 durchgeführt. Wenn der Abtastpunkt andererseits nicht außerhalb des Beweglichkeitsbereichs liegt, wird Schritt S17 durchgeführt.
  • In dem genannten Schritt S17 bestimmt die Bestimmungseinheit 16, ob der berechnete Abtastpunkt eine Singularitätsumgebung des Roboters 10 ist oder nicht. Das Verfahren zur Bestimmung der Singularitätsumgebung des Roboters ist wie oben beschrieben. Wenn der Abtastpunkt eine Singularitätsumgebung ist, meldet die Meldeeinheit 17 die Position des Abtastpunkts zusammen mit der Bestimmungsergebnisinformation, dass der betreffende Abtastpunkt eine Singularitätsumgebung ist, an die Informationsanzeigevorrichtung 13 (Schritt S18), und wird der später beschriebene Schritt S20 durchgeführt. Wenn der Abtastpunkt andererseits keine Singularitätsumgebung ist, wird Schritt S19 durchgeführt.
  • In dem genannten Schritt S19 meldet die Meldeeinheit 17 die Position des Abtastpunkts zusammen mit der Bestimmungsergebnisinformation, dass der betreffende Abtastpunkt innerhalb des normalen Bewegungsbereichs liegt, an die Informationsanzeigevorrichtung 13.
  • Danach ändert die Robotersteuervorrichtung 11 in Schritt S20 das Verarbeitungsobjekt für die Bestimmungseinheit 16 zu dem nächsten berechneten Abtastpunkt und wird erneut die Verarbeitung von Schritt S14 bis Schritt S19 durchgeführt. Wenn in Schritt S14 bestimmt wird, dass der Abtastpunkt nicht innerhalb des Abtastbereichs liegt, beendet die Robotersteuervorrichtung 11 die Verarbeitung.
  • Dann erhält die Informationsanzeigevorrichtung 13 wie in 6 gezeigt die Positionen der berechneten Abtastpunkte zusammen mit den Bestimmungsergebnisinformationen für die betreffenden Abtastpunkte von der Meldeeinheit 17 der Robotersteuervorrichtung (Schritt S21). Die erhaltenen Bestimmungsergebnisinformationen sind die jeweils in den oben beschriebenen Schritten S16, S18 und S19 (siehe 5) erhaltenen Bestimmungsergebnisse.
  • In dem folgenden Schritt S22 erlangt die Informationsanzeigevorrichtung 13 das durch die Kamera 18 aufgenommene Bild des Roboters 10.
  • In dem anschließenden Schritt S23 setzt die Wechselbeziehungsansatzeinheit 21 der Informationsanzeigevorrichtung 13 die Wechselbeziehung zwischen dem Ursprungspunkt des an der Kamera 18 festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des an dem Roboter 12 festgemachten Roboterkoordinatensystem an.
  • Zum Beispiel berechnet die Wechselbeziehungsansatzeinheit 21 eine Koordinatentransformationsmatrix, um die von dem Ursprungspunkt des Kamerakoordinatensystems her gesehene Ursprungspunktposition und Ausrichtung des Roboterkoordinatensystems zu ermitteln. Dabei wird zum Beispiel der Roboter 10 auf Basis eines Merkmalspunkts (einer Kontur oder eines Eckenbereichs) des Roboters 10 aus dem Bild der Kamera 18 detektiert und aus den Ausgangswerten der Codierer der einzelnen Achsenabschnitten 10a eine Information hinsichtlich der gegenwärtigen Position (eine Information hinsichtlich der Position und der Lage) des Roboters 10 erlangt. Die Wechselbeziehung zwischen dem Kamerakoordinatensystem und dem Roboterkoordinatensystem kann auf Basis der detektierten Position des Roboters 10 in dem Kamerabildsystem und der Information hinsichtlich der gegenwärtigen Position des Roboters 10 angesetzt werden.
  • In dem nächsten Schritt S24 wandelt die Positionsdatenumwandlungseinheit der Informationsanzeigevorrichtung 13 die Positionen der von der Meldeeinheit 17 gemeldeten Abtastpunkte auf Basis der durch die Wechselbeziehungsansatzeinheit 21 angesetzten Wechselbeziehung in Positionen in dem Kamerakoordinatensystem um.
  • In dem folgenden Schritt S25 erzeugt die Grafikbilderzeugungseinheit 23 der Informationsanzeigevorrichtung 13 unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der Bestimmungsergebnisinformationen ein Grafikbild. Dieses Grafikbild wird so erzeugt, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10, Abschnitte außerhalb des Beweglichkeitsbereichs dieses Handspitzenbereichs und Abschnitte von Singularitätsumgebungen des Roboters auf der geradlinigen Bahn optisch unterscheiden (siehe zum Beispiel das in 4 gezeigte Grafikbild 30).
  • In dem anschließenden Schritt S26 nimmt die Bildverarbeitungseinheit 24 der Informationsanzeigevorrichtung 13 eine Verarbeitung vor, um ein wie oben beschriebenes Grafikbild auf Basis der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters 10 an der Anzeigeeinheit 19 zu legen.
  • Durch die Verarbeitung der oben beschriebenen Schritte S21 bis S26 kann die Informationsanzeigevorrichtung 13 jedes Mal, wenn sie Positionen der einzelnen Abtastpunkte und Bestimmungsergebnisinformationen erhält, ein Grafikbild, das den Bestimmungsergebnisinformationen für die erhaltenen einzelnen Abtastpunkte entspricht, auf das Bild des Roboters 10 an der Anzeigeeinheit 19 gelegt anzeigen.
  • Wie oben erklärt wurde, ist es durch das Robotersystem 1 der vorliegenden Ausführungsform möglich, dem Betreiber bei der Vornahme einer Unterweisung des Roboters durch den orthogonalen Vorrückbetrieb die Bewegungsrichtung des Handspitzenbereichs des Roboters sowie in dieser Bewegungsrichtung befindliche Singularitäten leicht erkennbar zu machen.
  • Im Vorhergehenden wurden Ausführungsformen der vorliegenden Erfindung erklärt, doch wird ein Fachmann verstehen, dass verschiedene Verbesserungen oder Änderungen vorgenommen werden können, ohne von dem in den nachstehenden Patentansprüchen offenbarten Umfang abzuweichen
  • Es können verschiedene wie nachstehend beschriebene Formen und ihre Resultate bereitgestellt werden, um wenigstens eine der Aufgaben der vorliegenden Offenbarung zu lösen. Die Zahlen in den Klammern in der nachstehenden Erklärung der Formen entsprechen den Bezugszeichen in den Zeichnungen der vorliegenden Offenbarung.
  • Eine Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei das Robotersystem (1) eine Robotersteuervorrichtung (11), die einen Roboter (10) steuert, ein Lehrbedienpanel (12), das einen Orthogonalvorrückbetriebsabschnitt (14) enthält, der eine manuelle Betätigung des Roboters in Bezug auf jede Richtung von drei orthogonalen Achsenrichtungen eines an dem Roboter festgemachten Roboterkoordinatensystems oder eine zusammengesetzte Richtung vornimmt, und eine Informationsanzeigevorrichtung (13), die Informationen zur Unterweisung des Roboters (10) anzeigt, umfasst,
    wobei die Robotersteuervorrichtung (11)
    eine Abtastpunktberechnungseinheit (15), die jeweils mit einer bestimmten Periode mehrere Positionen in dem Roboterkoordinatensystem, durch die ein Handspitzenbereich des Roboters (10) in einer durch den Orthogonalvorrückbetriebsabschnitt (14) bestimmten Bewegungsrichtung verlaufen kann, berechnet und als Abtastpunkte ansetzt,
    eine Bestimmungseinheit (16), die eine erste Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs liegen oder nicht, und eine zweite Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte Singularitätsumgebungen sind oder nicht, vornimmt, und
    eine Meldeeinheit (17), die der Informationsanzeigevorrichtung (13) die Positionen der einzelnen Abtastpunkte sowie Bestimmungsergebnisinformationen, die die Ergebnisse der ersten Bestimmungsverarbeitung und der zweiten Bestimmungsverarbeitung zeigen, meldet,
    umfasst, und
    die Informationsanzeigevorrichtung (13)
    eine Kamera (18), die den Roboter (10) aufnimmt,
    eine Anzeigeeinheit (19), die das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt, und
    eine Anzeigeverarbeitungseinheit (20), die eine Verarbeitung vornimmt, um unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild so zu erzeugen, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt, und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs, Abschnitte außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs und Abschnitte von Singularitätsumgebungen auf der geradlinigen Bahn optisch unterscheiden, und auf das Bild des Roboters (10) zu legen,
    umfasst.
  • Durch die oben beschriebene erste Form ist es möglich, dem Betreiber bei der Vornahme einer Unterweisung des Roboters durch den orthogonalen Vorrückbetrieb die Bewegungsrichtung des Handspitzenbereichs des Roboters sowie in dieser Bewegungsrichtung befindliche Singularitäten leicht erkennbar zu machen.
  • Eine zweite Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei
    die Anzeigeverarbeitungseinheit (20) bei dem oben beschriebenen Robotersystem (1) der ersten Form
    eine Wechselbeziehungsansatzeinheit (21), die eine Wechselbeziehung zwischen dem Ursprungspunkt eines an der Kamera (18) festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des Roboterkoordinatensystems ansetzt;
    eine Positionsdatenumwandlungseinheit (22), die die Positionen der einzelnen Abtastpunkte unter Verwendung der Wechselbeziehung in Positionen in dem Kamerakoordinatensystem umwandelt;
    eine Grafikbilderzeugungseinheit (23), die das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der Bestimmungsergebnisinformationen der einzelnen Abtastpunkte erzeugt; und
    eine Bildverarbeitungseinheit (24), die eine Verarbeitung vornimmt, um das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters (10) zu legen,
    umfasst.
  • Durch die oben beschriebene zweite Form kann das Grafikbild auch dann in einer passenden Ausrichtung und an einer passenden Position auf das von der Kamera stammende Bild des Roboters gelegt angezeigt werden, wenn sich die relative Position und der relative Winkel der Kamera in Bezug auf den Roboter ändern.
  • Eine dritte Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei die Informationsanzeigevorrichtung (13) bei dem oben beschriebenen Robotersystem (1) der ersten Form oder der zweiten Form so ausgeführt ist, dass sie das auf das Bild des Roboters (10) gelegte Grafikbild gemäß Änderungen der bestimmten Bewegungsrichtung aktualisiert.
  • Durch die oben beschriebene dritte Form ist es möglich, dem Betreiber auch bei einer Änderung der durch den Orthogonalvorrückbetriebsabschnitt bestimmten Bewegungsrichtung Positionsbereiche, die in dieser Bewegungsrichtung vorhandene Singularitätsumgebungen darstellen, leicht erkennbar zu machen.
  • Eine vierte Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei die Informationsanzeigevorrichtung (13) bei einer aus der oben beschriebenen ersten bis dritten Form durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet ist.
  • Durch die oben beschriebene vierte Form kann der Betreiber während der Roboterunterweisung die Informationsanzeigevorrichtung anlegen und den orthogonalen Vorrückbetrieb mittels des Lehrbedienpanels unter visueller Erfassung des Bilds des Roboters und des Grafikbilds an der den Augen gegenüberliegenden Anzeigeeinheit vornehmen.
  • Eine fünfte Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei die Informationsanzeigevorrichtung (13) bei einer aus der oben beschriebenen ersten bis dritten Form
    in das Lehrbedienpanel (12) eingebaut ist,
    das Lehrbedienpanel (12) ein Anzeigefeld (12a) aufweist, das das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt, und die Erweiterte-Realität-Anzeigeverarbeitungseinheit (20) das Grafikbild auf das an dem Anzeigefeld (12a) angezeigte Bild des Roboters (10) gelegt anzeigt.
  • Durch die oben beschriebene fünfte Form kann der Betreiber während der Roboterunterweisung den orthogonalen Vorrückbetrieb unter visueller Erfassung des Grafikbilds an dem Anzeigefeld des Lehrbedienpanels vornehmen.

Claims (5)

  1. Robotersystem (1), wobei das Robotersystem (1) eine Robotersteuervorrichtung (11), die einen Roboter (10) steuert, ein Lehrbedienpanel (12), das einen Orthogonalvorrückbetriebsabschnitt (14) enthält, der eine manuelle Betätigung des Roboters in Bezug auf jede Richtung von drei orthogonalen Achsenrichtungen eines an dem Roboter festgemachten Roboterkoordinatensystems oder eine zusammengesetzte Richtung vornimmt, und eine Informationsanzeigevorrichtung (13), die Informationen zur Unterweisung des Roboters (10) anzeigt, umfasst, wobei die Robotersteuervorrichtung (11) eine Abtastpunktberechnungseinheit (15), die jeweils mit einer bestimmten Periode mehrere Positionen in dem Roboterkoordinatensystem, durch die ein Handspitzenbereich des Roboters (10) in einer durch den Orthogonalvorrückbetriebsabschnitt (14) bestimmten Bewegungsrichtung verlaufen kann, berechnet und als Abtastpunkte ansetzt; eine Bestimmungseinheit (16), die eine erste Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs liegen oder nicht, und eine zweite Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte Singularitätsumgebungen sind oder nicht, vornimmt; und eine Meldeeinheit (17), die der Informationsanzeigevorrichtung (13) die Positionen der einzelnen Abtastpunkte sowie Bestimmungsergebnisinformationen, die die Ergebnisse der ersten Bestimmungsverarbeitung und der zweiten Bestimmungsverarbeitung zeigen, meldet, umfasst, und die Informationsanzeigevorrichtung (13) eine Kamera (18), die den Roboter (10) aufnimmt; eine Anzeigeeinheit (19), die das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt; und eine Anzeigeverarbeitungseinheit (20), die eine Verarbeitung vornimmt, um unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild so zu erzeugen, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt, und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs, Abschnitte außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs und Abschnitte von Singularitätsumgebungen auf der geradlinigen Bahn optisch unterscheiden, und auf das Bild des Roboters (10) zu legen, umfasst.
  2. Robotersystem (1) nach Anspruch 1, wobei die Anzeigeverarbeitungseinheit (20) eine Wechselbeziehungsansatzeinheit (21), die eine Wechselbeziehung zwischen dem Ursprungspunkt eines an der Kamera (18) festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des Roboterkoordinatensystems ansetzt; eine Positionsdatenumwandlungseinheit (22), die die Positionen der einzelnen Abtastpunkte unter Verwendung der Wechselbeziehung in Positionen in dem Kamerakoordinatensystem umwandelt; eine Grafikbilderzeugungseinheit (23), die das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der Bestimmungsergebnisinformationen der einzelnen Abtastpunkte erzeugt; und eine Bildverarbeitungseinheit (24), die eine Verarbeitung vornimmt, um das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters (10) zu legen, umfasst.
  3. Robotersystem (1) nach Anspruch 1 oder 2, wobei die Informationsanzeigevorrichtung (13) so ausgeführt ist, dass sie das auf das Bild des Roboters (10) gelegte Grafikbildg gemäß Änderungen der bestimmten Bewegungsrichtung aktualisiert.
  4. Robotersystem (1) nach einem der Ansprüche 1 bis 3, wobei die Informationsanzeigevorrichtung (13) durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet ist.
  5. Robotersystem (1) nach einem der Ansprüche 1 bis 3, wobei die Informationsanzeigevorrichtung (13) in das Lehrbedienpanel (12) eingebaut ist, das Lehrbedienpanel (12) ein Anzeigefeld (12a) aufweist, das das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt, und die Erweiterte-Realität-Anzeigeverarbeitungseinheit (20) das Grafikbild auf das an dem Anzeigefeld (12a) angezeigte Bild des Roboters (10) gelegt anzeigt.
DE102018112403.1A 2017-05-31 2018-05-24 Robotersystem, das informationen zur unterweisung eines roboters anzeigt Active DE102018112403B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-108247 2017-05-31
JP2017108247A JP6445092B2 (ja) 2017-05-31 2017-05-31 ロボットの教示のための情報を表示するロボットシステム

Publications (2)

Publication Number Publication Date
DE102018112403A1 DE102018112403A1 (de) 2018-12-06
DE102018112403B4 true DE102018112403B4 (de) 2019-10-02

Family

ID=64279117

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018112403.1A Active DE102018112403B4 (de) 2017-05-31 2018-05-24 Robotersystem, das informationen zur unterweisung eines roboters anzeigt

Country Status (4)

Country Link
US (1) US10427298B2 (de)
JP (1) JP6445092B2 (de)
CN (1) CN108972568B (de)
DE (1) DE102018112403B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3556519B1 (de) * 2016-12-13 2020-12-02 Fuji Corporation Verfahren zur korrektur der zielposition eines arbeitsroboters
JP7259284B2 (ja) * 2017-11-28 2023-04-18 株式会社デンソーウェーブ 教示装置、教示方法
JP7146402B2 (ja) * 2018-01-18 2022-10-04 キヤノン株式会社 情報処理装置、および情報処理方法
JP2020013242A (ja) * 2018-07-17 2020-01-23 富士ゼロックス株式会社 ロボット制御システム、ロボット装置およびプログラム
JP7000364B2 (ja) * 2019-01-29 2022-01-19 ファナック株式会社 ロボットシステム
CN110087190A (zh) * 2019-05-16 2019-08-02 北京云迹科技有限公司 一种用于通知用户的方法及装置
JP7397879B2 (ja) * 2020-08-03 2023-12-13 三菱電機株式会社 遠隔操作装置
JP2022088884A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 コンピュータープログラム、及び、ロボットの教示方法
CN113500602B (zh) * 2021-07-23 2023-09-05 鲁东大学 多连杆机械手系统的分布式采样控制

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047916A (en) 1988-03-25 1991-09-10 Kabushiki Kaisha Toshiba Method and apparatus of free space enumeration for collision avoidance
JPH07295625A (ja) 1994-04-28 1995-11-10 Fanuc Ltd ロボットのジョグ送り情報表示装置
JP2009226561A (ja) 2008-03-25 2009-10-08 Kobe Steel Ltd ロボットの動作余裕量演算表示方法及びその装置
US7957838B2 (en) 2003-12-15 2011-06-07 Abb Ab Control system, method and computer program
JP2012171024A (ja) 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2012218120A (ja) 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
US20160207198A1 (en) 2013-10-07 2016-07-21 Abb Technology Ltd Method And Device For Verifying One Or More Safety Volumes For A Movable Mechanical Unit

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100786351B1 (ko) * 2006-08-29 2007-12-14 울산대학교 산학협력단 Ar을 이용한 작업로봇 티칭 시스템 및 방법
CN101791801B (zh) * 2010-01-15 2012-06-06 广东工业大学 工业机器人运动规划与性能测试系统及其实现方法
CN103492133B (zh) * 2011-04-19 2016-04-13 Abb研究有限公司 具有运动冗余臂的工业机器人和用于控制该机器人的方法
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
JP2015066668A (ja) * 2013-10-01 2015-04-13 キヤノン株式会社 ロボットの教示点調整方法、ロボットの設置位置算出方法、ロボットシステム、プログラム及び記録媒体
JP6418483B2 (ja) * 2014-06-18 2018-11-07 株式会社Ihi 加工軌道生成装置と方法
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
CN206105869U (zh) * 2016-10-12 2017-04-19 华南理工大学 一种机器人快速示教装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047916A (en) 1988-03-25 1991-09-10 Kabushiki Kaisha Toshiba Method and apparatus of free space enumeration for collision avoidance
JPH07295625A (ja) 1994-04-28 1995-11-10 Fanuc Ltd ロボットのジョグ送り情報表示装置
US7957838B2 (en) 2003-12-15 2011-06-07 Abb Ab Control system, method and computer program
JP2009226561A (ja) 2008-03-25 2009-10-08 Kobe Steel Ltd ロボットの動作余裕量演算表示方法及びその装置
JP2012171024A (ja) 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2012218120A (ja) 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
US20160207198A1 (en) 2013-10-07 2016-07-21 Abb Technology Ltd Method And Device For Verifying One Or More Safety Volumes For A Movable Mechanical Unit

Also Published As

Publication number Publication date
CN108972568A (zh) 2018-12-11
JP2018202514A (ja) 2018-12-27
JP6445092B2 (ja) 2018-12-26
US10427298B2 (en) 2019-10-01
DE102018112403A1 (de) 2018-12-06
CN108972568B (zh) 2019-11-15
US20180345490A1 (en) 2018-12-06

Similar Documents

Publication Publication Date Title
DE102018112403B4 (de) Robotersystem, das informationen zur unterweisung eines roboters anzeigt
DE102019002898B4 (de) Robotersimulationsvorrichtung
DE102019006800B4 (de) Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
DE102018213985B4 (de) Robotersystem
DE102019119319B4 (de) Abtastsystem, Arbeitssystem, Verfahren zum Anzeigen von Augmented-Reality-Bildern, Verfahren zum Speichern von Augmented-Reality-Bildern und Programme dafür
DE102017124502B4 (de) Simulationsvorrichung und Simulationsverfahren, die eine Betriebssimulation eines Robotersystems ausführen, und Aufzeichnungsmedium, das ein Computerprogramm aufzeichnet
DE102013008062B4 (de) Betriebssimulationssystem für ein Robotersystem
EP2546711B2 (de) Verfahren zum Programmieren eines Roboters
DE202008014481U1 (de) Tragbares Roboterkontrollgerät zum Kontrollieren einer Bewegung eines Roboters
DE112019003204T5 (de) Visualisierung und modifizierung von arbeitsrandbereichen unter verwendung von erweiterter realität
DE112016005365T5 (de) Direktes Lehrverfahren eines Roboters
DE102020129967A1 (de) Simulationsvorrichtung und Robotersystem mit erweiterter Realität
DE102014118001A1 (de) Verfahren zur Bewegungssimulation eines Manipulators
DE102015105687A1 (de) Roboter
DE102020110252B4 (de) Vibrationsanzeigeeinrichtung, Betriebsprogrammerstellungseinrichtung und System
DE102017001131B4 (de) Verfahren und System zum Betreiben eines Roboters
DE102015004483A1 (de) Robotersteuerung und Robotersystem zum Bewegen eines Roboters als Reaktion auf eine Kraft
DE102019001207A1 (de) Kollaborativer Roboter und Verfahren zum Betreiben eines kollaborativen Roboters und Verwendung zum Bearbeiten eines Werkstücks
DE102018107857A1 (de) Vorrichtung, System und Verfahren zur automatischen Erzeugung eines Bewegungspfads eines Roboters
JPS59229619A (ja) ロボツトの作業教示システムおよびその使用方法
DE102018201589A1 (de) Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung
DE102022202563B3 (de) Planen einer Bahn eines Roboters
DE112021007154T5 (de) Vorrichtung zur einstellung von sicherheitsparametern, lehrvorrichtung und -verfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final