DE102012110508B4 - Roboter Einstellvorrichtung mit 3-D Display - Google Patents

Roboter Einstellvorrichtung mit 3-D Display Download PDF

Info

Publication number
DE102012110508B4
DE102012110508B4 DE102012110508.1A DE102012110508A DE102012110508B4 DE 102012110508 B4 DE102012110508 B4 DE 102012110508B4 DE 102012110508 A DE102012110508 A DE 102012110508A DE 102012110508 B4 DE102012110508 B4 DE 102012110508B4
Authority
DE
Germany
Prior art keywords
data
robot
visual representation
display device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102012110508.1A
Other languages
English (en)
Other versions
DE102012110508A1 (de
Inventor
Kenneth W. Krause
Bradley O. Niederquell
Gordon Geheb
Ganesh Kalbavi
Claude Dinsmoor
Scott M. Dreslinski
Chuck Strybis
H. Dean McGee
Glenn Nowak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc America Corp
Original Assignee
Fanuc Robotics America Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Robotics America Corp filed Critical Fanuc Robotics America Corp
Publication of DE102012110508A1 publication Critical patent/DE102012110508A1/de
Application granted granted Critical
Publication of DE102012110508B4 publication Critical patent/DE102012110508B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/353183-D display of workpiece, workspace, tool track
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Abstract

Verfahren zur Anzeige von dreidimensionalen Bearbeitungsstationsdaten mit den Schritten:Bereitstellen von das Modell einer Maschine und dazugehörige Komponenten in einer Bearbeitungsstation darstellenden 3D-Bearbeitungsstationsdaten aus einer Datenquelle;Bereitstellen eines tragbaren Anzeigegerätes (10, 10a) und Anordnen des Anzeigegeräts (10, 10a) in Datenkommunikation mit der Datenquelle;Ausgeben der Bearbeitungsstationsdaten von der Datenquelle zu dem Anzeigegerät (10, 10a);Erzeugen einer visuellen 3D-Darstellung der Bearbeitungsstationsdaten auf dem Anzeigegerät (10, 10a); undBedienen des Anzeigegerätes (10, 10a) zum Manipulieren der visuellen Darstellung,wobei die Maschine ein Roboter (26) ist und das Anzeigen der visuellen Darstellung einer Position des Roboters (26) einbezogen ist, die auf einem Wert einer Programm- oder Nichtprogramm-Darstellung einer Roboterposition innerhalb eines Softwareprogramms zur Steuerung des Roboters (26) basiert,ferner umfassend das Aufzeichnen von Prozessinformationen in Verbindung mit einer TCP Ablaufverfolgung des Softwareprogramms.

Description

  • Diese Anmeldung beansprucht den Nutzen der am 4. November 2011 eingereichten vorläufigen US-Patentanmeldung, Serien Nr. 61/555,675.
  • Gegenwärtig ist ein leistungsstarker Arbeitsplatzcomputer erforderlich, um dreidimensionale Daten einer Bearbeitungsstation als hochwertiges räumliches Bild wiederzugeben. Zusätzlich wird für jedes Anzeigegerät ein kundenspezifischer Programmiercode (z.B. Programmiersprache C) benötigt. Damit ein spezielles Gerät (z.B. Computer) das räumliche Bild einer Bearbeitungsstation anzeigen kann, muss das spezielle Gerät folglich ein kundenspezifisches Softwareprogramm enthalten.
  • US 5 937 143 A ist ein Beispiel der Verwendung eines Roboterprogrammierhandgeräts, um Bilder eines Roboterwerkzeugs, Werkzeugkoordinaten in einem Werkzeugkoordinatensystem und die gelehrten Punkte in einem Benutzer- oder Weltkoordinatensystem anzuzeigen. Jedoch ist dieses Programmiergerät auf das Anzeigen von 3D-Daten von Roboterprogrammen in einem 2D-Format auf dem Programmiergerätebildschirm gerichtet. Die US 2005 / 0 285 854 A1 und US 2007 / 0 167 702 A1 sind Beispiele von Systemen, die eine Bearbeitungsstation benötigen, um ein 3D-Bild in Echtzeit zu erzeugen. Die US 6 167 328 A und die US 2009 / 0 204 257 A1 zeigen Programmierhandgeräte zum Erzeugen von einfachen grafischen 3D-Anzeigen eines Lehrpfades für einen Roboter.
  • So erzeugen Programmierhandgeräte im dem Stand der Technik keine hochwertigen 3D-Bilder einer Roboterbearbeitungsstation, die manipuliert werden können.
  • Aus der DE 697 35 269 T2 ein Verfahren zur Steuerung eines Roboters hervor, wobei zur Steuerung des Roboters ein Bild des Roboters auf einem Display einer Steuereinheit angezeigt wird.
  • Die DE 101 28 015 A1 offenbart ein Verfahren zur virtuellen Platzierung eines Roboters auf einem Boden in einem Raum mittels einer von einem Nutzer getragenen Brille.
  • In der US 7 945 349 B2 werden ein Verfahren und ein System zur Erleichterung der Kalibrierung einer Roboterzelle mit einem oder mehreren Objekten und einem Roboter offenbart.
  • Aus der US 2009/0 289 591 A1 geht ein programmierbares Robotersystem mit einem Roboter hervor, der mit einer Anzahl von einzelnen Armabschnitten versehen ist.
  • Die JP 2011 - 189 431 A beschreibt eine Robotersteuerung, die Bilddaten eines Roboterkörpers von einer Kamera eines Hängegeräts aufnimmt und ein 3D-Modell aus einer aktuellen Positions- und Lageinformation des Roboterkörpers erstellt.
  • Die JP H10 - 146 782 A bezieht sich auf ein Programmierhandgerät, das an eine Robotersteuerung angeschlossen ist, um Programmierdaten einzugeben.
  • Im Einklang und übereinstimmend mit der Erfindung überwindet ein System und Verfahren zur Anzeige einer räumlichen Darstellung dreidimensionaler grafischer Daten in einer Roboterumgebung die Nachteile des Standes der Technik wie folgt.
  • Erfindungsgemäß ist die Anzeige roboter- und programmspezifischer Daten direkt mit einem Ablauf des Roboters verbunden; keine Simulation, sondern das Widerspiegeln echter Roboterdaten, aktualisiert oder in Echtzeit zu dem Ablauf des Roboters wiedergegeben. Auf einem tragbaren Gerät werden neue Merkmale zur Anzeige von für den Roboter spezifischen Informationen und eine Ausführung des Roboterprogramms in grafischer Form bereitgestellt. Es sind neue Navigationsmerkmale verfügbar, die grafische Merkmale auf die Ausführung des Roboterprogramms ziehen. Es werden neue grafische Merkmale bereitgestellt, die Prozessinformationen auf eine grafische Darstellung des Roboters und einen Ausführungspfad des Roboters ziehen. Es sind neue Verfahren verfügbar zur Aufbereitung von Informationen der Bearbeitungsstation von einem rechnerunabhängig arbeitenden Simulationssystem zu grafischen Informationen für eine Anzeige auf dem Roboter-Programmiergerät.
  • Ein erfindungsgemäßes Verfahren zur Anzeige von dreidimensionalen Informationen einer Bearbeitungsstation umfasst die Schritte: Bereitstellen von 3D-Bearbeitungsstationsinformationen aus einer das Modell einer Maschine und damit verbundene Komponenten in einer Bearbeitungsstation darstellenden Datenquelle; Bereitstellen eines tragbaren Anzeigegerätes und Anordnen des Anzeigegerätes in Datenkommunikation mit der Datenquelle; Ausgeben der Bearbeitungsstationsdaten von der Datenquelle zu dem Anzeigegerät; Erzeugen einer visuellen 3D-Darstellung der Bearbeitungsstationsdaten auf dem Anzeigegerät; und Bedienen des Anzeigegerätes zum Manipulieren der visuellen Darstellung, wobei die Maschine ein Roboter ist und das Anzeigen der visuellen Darstellung einer Position des Roboters einbezogen ist, die auf einem Wert einer Programm- oder Nichtprogramm-Darstellung einer Roboterposition innerhalb eines Softwareprogramms zur Steuerung des Roboters basiert, ferner umfassend das Aufzeichnen von Prozessinformationen in Verbindung mit einer TCP Ablaufverfolgung des Softwareprogramms.
  • Ein erfindungsgemäßes tragbares Programmiergerät zur Kommunikation mit einer Robotersteuereinheit umfasst: Ein Display mit einer Auflösung, die hoch genug ist, um grafische 3D-Bilder darzustellen; einen Eingabe-/ Ausgabekanal zum Empfang von 3D-Daten einer Bearbeitungsstation aus einer Datenquelle, die das Modell eines Roboters und damit verbundene Komponenten in einer Bearbeitungsstation darstellen; eine Datenspeichervorrichtung zum Speichern der Daten der 3D-Bearbeitungsstation und ein Programmiergerät-Betriebsprogramm; sowie einen mit dem Display, dem Eingabe-/Ausgabekanal und der Datenspeichervorrichtung verbundenen Prozessor zum Programmablauf des Betriebsprogramms, um eine visuelle 3D-Darstellung der Bearbeitungsstationsdaten auf dem Display zu erzeugen und auf eine Benutzereingabe anzusprechen, um die visuelle Darstellung zu manipulieren.
  • Die oben erwähnten sowie andere Vorteile der vorliegenden Erfindung erschließen sich dem Fachmann ohne weiteres aus der folgenden ausführlichen Beschreibung einer bevorzugten Ausführungsform, wenn sie angesichts der begleitenden Zeichnungen betrachtet wird, in denen:
    • 1 ist die perspektivische Darstellung von zwei Ausführungsformen eines erfindungsgemäßen Roboterprogrammiergerätes, das mit einer Robotersteuereinheit kommuniziert;
    • 2 ist die schematische Darstellung eines 3D-Bildes, das durch die in 1 gezeigten Programmiergeräte erzeugt wird;
    • 3 ist ein Ablaufdiagramm des Verfahrens nach der vorliegenden Erfindung; und
    • 4 ist das schematische Blockbild eines Systems zur Anzeige von 3D-Daten einer Bearbeitungsstation nach einer Ausführungsform der Erfindung.
  • Die am 4. November 2011 eingereichte vorläufige US-Patentanmeldung, Serien Nr. 61/555,675 ist hier durch Verweis einbezogen und wird nachstehend als die „vorläufige '675“ gekennzeichnet.
  • Die folgende ausführliche Beschreibung und angefügte Zeichnungen beschreiben und veranschaulichen verschiedene beispielhafte Ausführungsformen der Erfindung. Die Beschreibung und Zeichnungen dienen dazu, dem Fachmann zu ermöglichen, die Erfindung herzustellen und zu nutzen und sollen den Umfang der Erfindung in keiner Weise einschränken. Bezüglich der offenbarten Verfahren sind die dargestellten Schritte beispielhaft, und somit ist die Reihenfolge der Schritte nicht zwangsläufig oder entscheidend.
  • In 1 ist ein erfindungsgemäßes Roboterprogrammiergerät 10 gezeigt, das mit einer Robotersteuereinheit 12 über ein Kabel 14 kommuniziert, das eine LAN-Verbindung über Ethernet bereitstellt. Die Ethernet-Verbindung kann zum Beispiel 100Base-X (oder schnelles Ethernet) sein, das Datenübertragungsraten von 100 Mbps unterstützt. Eine andere Version des Roboterprogrammiergerätes 10a kommuniziert mit der Steuereinheit 12 über eine drahtlose WIFI Übertragung. Es kann jedoch jede geeignete schnelle Schnittstelle zum Austausch von Daten zwischen dem Programmiergerät und der Steuereinheit verwendet werden. Die für Internet bereite Programmierhandgeräteinheit erlaubt den Benutzern, die Informationen zu browsen, die im Internet/ Intranet verfügbar sind. Benutzer können außerdem auf der Programmierhandgeräteinheit angezeigte Roboterinformationen modifizieren.
  • Jedes der Programmiergeräte 10 und 10a besitzt ein Display 16. Das Display 16 ist imstande, einem Benutzer zumindest einfache, schattiert gefärbte 3D-Grafiken zu zeigen und umfasst Funktionen eines Sensorbildschirms. Zum Beispiel kann das Display 16 eine Auflösung von 600 x 800 besitzen. Wie dargestellt wird, kann ein bildschirmfüllendes 3D-Bild 20 eines vom Programmiergerät 10 oder 10a zu steuernden Roboters von dem Display 16 erzeugt werden. Ein anderes Bild 22, das erzeugt werden kann, weist einen ersten Bereich 22a auf, der vier mitlaufende Videobilder zeigt, die von Kameras empfangen werden, die ein an dem Roboter befestigtes Werkzeug und/oder ein Teil betrachten, das durch den Roboter bearbeitet wird. Das Bild 22 enthält einen zweiten Bereich 22b, der sich vertikal längs einer rechten Seite des Displays 16 erstreckt, der Sichtwerkzeuge und Sichtprozessinformationen zeigt. Das Bild 22 enthält des Weiteren einen dritten Bereich 22c, der sich horizontal unter dem ersten Bereich 22a erstreckt, um Daten zu zeigen, die die Ergebnisse einer Kameraansicht darstellen. Das Bild 20 zeigt die Fähigkeit der Programmiergeräte 10 und 10a an, einfache, schattiert gefärbte grafische 3D-Bilder zu erzeugen. Das Bild 22 zeigt die Fähigkeit der Programmiergeräte 10 und 10a an, komplexe Seiten mit Sichtbildern, insbesondere mitlaufendes Video und signifikante Informationsmengen, die den Betrieb eines damit verbundenen Roboters betreffen, zu erzeugen. So schließen die Programmiergeräte 10 und 10a die Notwendigkeit aus, einen Arbeitsplatzcomputer zur Geräteeinstellung eines Roboters zu verwenden.
  • Die Programmiergeräte 10 und 10a stellen eine 3D-Schnittstelle zum Gebrauch für Anwendungen bereit, die auf der Steuereinheit 12 laufen. Funktionen auf der Steuereinheit rufen auf dem Programmiergerät Funktionen mit höherem Niveau auf, um „grafische Darstellungselemente“ anzuzeigen. Diese sind Geometrien höheren Niveaus wie Kugeln und Kästchen.
  • Eine weitere extrem wichtige Funktion, die von den Programmiergeräten 10 und 10a unterstützt wird, ist die Fähigkeit zum Laden von Grafikdateien. Das Programmiergerät-Betriebssystem stellt einen Mechanismus zum Laden dieser Dateien zur Verfügung. Dies ermöglicht zum Beispiel die Anwendung zum Ändern von Position, Farbe oder Sichtbarkeit jedes bezeichneten Elements. Das System speichert die benutzerspezifischen Formen in der Datenbank 3D-Welt. Diese Datenbank wird genutzt, um Zugriff zum Malen und Positionieren aller definierten Elemente zu bewirken.
  • Das System stellt eine Einrichtung bereit, um die 3D-Datenbank von unterschiedlichen Standpunkten aus zu betrachten. Es bewirkt außerdem eine Einrichtung zum Sichtbarmachen von Objekten oder um nicht von der Betrachtung abhängig zu sein. Zum Beispiel kann der Benutzer in einem Dualmodus PROGA (Programm A) vom linken Fenster und PROGB vom rechten Fenster aus betrachten. Beide Programme befinden sich in der einzelnen Datenbank, wobei jedoch nur eines in jedem Fenster sichtbar ist.
  • In 2 ist ein Bild 24 gezeigt, das durch die Programmiergeräte 10 und 10a auf dem Display 16 erzeugt wird. Das Bild 24 weist einen mittleren Bereich 24a voller Breite auf, der eine 3D-Darstellung eines Roboters 26 zeigt, der durch die Steuereinheit 12 von 1 mit dem Programmiergerät verbunden ist. Das Bild 24 besitzt eine Vielzahl von Softtasten 24c, die entlang einer unteren Kante angeordnet sind und durch die Sensorbildschirmfunktionen des Programmiergerätes aktiviert werden. Als Beispiel sind die Softtasten [SCENES], SELECT, ZOOM, PAN und ROTATE dargestellt. Der Roboter 26 umfasst einen Arm 28, der um sechs Achsen J1 bis J6 rotieren kann. Als Hilfe bei solchen Aufgaben wie Training, Diagnose, Geräteeinstellung und Aufbereitung erzeugen die Programmiergeräte 10 und 10a Darstellungen 30a bis 30f der Bewegung des Arms 28 jeweils um die Achsen J1 bis J6. Jede der Darstellungen 30a bis 30f veranschaulicht die Bewegung eines zugehörigen Teils des Roboters 26 in einer Ebene quer zu der dazugehörigen Rotationsachse und kann einen Pfeil zur Anzeige einer Bewegungsrichtung enthalten.
  • Ein 3D-Motiv besteht aus einem Betrachterstandpunkt und einer Anordnung von sichtbaren Einzelheiten. Motive sind auf drei unterschiedlichen Niveaus aufgebaut:
    1. 1. Voreingestellte Motive weisen logische Kombinationen von Einzelheiten auf.
    2. 2. Benutzermotive werden durch die Anwendung erzeugt. Zum Beispiel kann eine Greifanwendung in Abhängigkeit von dem Motiv benachbarte Roboter oder die gesamte Bearbeitungsstation darstellen.
    3. 3. Der Benutzer kann nach dem Einstellen von Sichtweiten und eines Betrachterstandpunktes ein Motiv aufzeichnen und anschließend einen Namen an dieses Motiv anfügen.
  • Typisch ist, dass ein Benutzer die Ansicht einstellen wird, wenn er/sie innerhalb des Motivs arbeitet. Die Ansicht ist dem Motiv zugeordnet und wird immer dann genutzt, wenn das Motiv abgebildet wird. Obwohl der Benutzer kein Motiv von einer anderen Ansicht aufzeichnet, wird so immer die eingestellte Ansicht verwendet und diese Ansicht mit dem Motiv gespeichert. Ein Motivmenü kann ein Aufforderungskästchen sein, das Optionen zum Aufzeichnen, Voreinstellen und Löschen von Motiven enthält. Das Motivmenü kann durch Betätigen der in 2 gezeigten [SCENES] Softtaste 24b angezeigt werden. Als Alternative zu dem Aufforderungskästchen ist der Benutzer in der Lage, das Motiv auf der Basis einer Miniaturansicht der angezeigten 3D-Grafik auszuwählen.
  • System und Verfahren der vorliegenden Erfindung stellen eine Einrichtung zur Anzeige einer Darstellung von dreidimensionalen Daten einer Bearbeitungsstation auf einem tragbaren Roboter-Programmiergerät bereit. Folglich können die dreidimensionalen Bearbeitungsstationsdaten von jedem Benutzer des Programmiergerätes verwendet werden. Deshalb kann ein Benutzer Zugriff auf zuverlässige dreidimensionale Darstellungen als eine Hilfe zur Lehre und Wartung eines Roboters haben.
  • Verfahren und Gerät nach der vorliegenden Erfindung stellen die verschiedenen Merkmale und Vorteile bereit wie sie im Folgenden beschrieben werden. Wie es im Abschnitt [0014] und dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a eine TCP Ablaufverfolgung (Werkzeugarbeitspunkt) als Weg des Roboters durch ein Programm in 3D.
  • Wie es im Abschnitt [0015] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung eines Positionsregisters, die auf der Basis des Wertes einer Programmdarstellung oder Nicht-Programm-Darstellung der Roboterposition innerhalb der Software angezeigt wird.
  • Wie es im Abschnitt [0016] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung einer Tippanzeige in grafischer Form der Richtung, die der Roboter nehmen wird, wenn er mittels Tipptasten des Programmiergerätes oder eines anderen Geräts der Benutzerschnittstelle bewegt wird. Dieses Bild entspricht dem Bild 24, das oben beschrieben ist.
  • Wie es im Abschnitt [0017] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung einer Alarmanzeige, um das Auftreten von Ereignissen beim Betrieb des Roboters relativ zur Position des Roboters im Raum grafisch darzustellen.
  • Wie es im Abschnitt [0018] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung eines Beeinflussungsbildes des gesamten Raumes, der von einem Roboter während der Ausführung von mindestens einem Teil eines auf der Steuereinheit 12 residenten Programms eingenommen wird. Der gesamte Raum wird durch den Raum bestimmt, der während einer Ausführung aller auf der Steuereinheit residenten Programme eingenommen wird. Das Anzeigeverfahren umfasst die Visualisierung von mehreren Robotern. Die Visualisierung wird für den Schnitt der gesamten eingenommenen Räume zur Verfügung gestellt. Farbe und Transparenz werden genutzt, um verschiedene Visualisierungselemente voneinander abzugrenzen. Die Visualisierung von Räumen umfasst Flächen, die Grenzen einer erlaubten Roboterbewegung darstellen. Die Grenzen erlauben den Zugang von nur einem Roboter der mehreren Roboter. Farbe und Transparenz werden genutzt, um den Roboter zu identifizieren, der erlaubten Zugang hat.
  • Wie es im Abschnitt [0019] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a das Visualisierungsbild Schweißverfahren, das Prozessdaten grafisch darstellt und die Prozessdaten auf die grafische Darstellung des Roboters bezieht. Verfahren und Vorrichtung nach der Erfindung wählen Daten über die grafische Darstellung des Roboters aus und beziehen sie auf die grafische Darstellung der Daten. Verfahren und Vorrichtung wählen außerdem Daten über die grafische Darstellung der Daten aus und beziehen sie auf die grafische Darstellung des Roboters.
  • Wie es im Abschnitt [0020] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a eine grafische Anzeige von Prozessbedingungen über eine TCP Ablaufverfolgung. Das erfindungsgemäße Verfahren zeichnet Prozessinformationen in Verbindung mit der TCP Ablaufverfolgung des Roboterprogramms auf.
  • Wie es im Abschnitt [0021] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a das Visualisierungsbild einer Verlaufsgrenze. Das erfindungsgemäße Verfahren stellt grafisch den unsichtbaren Bereich dar, der den Parametern eines Bereichs zur Einschränkung oder Begrenzung der Bewegung eines Roboters während einer Roboteroperation zugeordnet ist und/oder die Warteschlange eines Bilderkennungssystems, die Grenzen bearbeitet.
  • Verfahren und Vorrichtung nach der Erfindung nutzen die Ansicht der Sucherkamera und Daten der mitlaufenden Kamera in Verbindung mit der 3D-Welt. Das Verfahren zeigt den Betrachtungspunkt einer Kamera in dem 3D-Modell einer Bearbeitungsstation mit Anzeige von Bildern von Informationen einer mitlaufenden oder zuvor bestimmten Kamera. Siehe ersten Bereich 22a in 1.
  • Verfahren und Vorrichtung nach der Erfindung ziehen Merkmale in der grafischen Darstellung auf Menüs innerhalb des Gesamtsystems. Zum Beispiel nimmt bei einer Schweißanwendung das Programmiergerät den Benutzer, wenn er den Schweißbrenner auswählt, zu einer Seite für Lichtbogenvoreinstellung. Das Verfahren nutzt Merkmale innerhalb der grafischen Darstellung des Roboters/ Roboterbearbeitungsstation, um die Anzeige in ein Menü oder eine Auswahlseite auf den Roboterprogrammiergeräten 10 und 10a zu ändern.
  • Verfahren und Vorrichtung nach der Erfindung koordinieren 3D-Positionsdaten zu einer grafischen Darstellung von Prozessdaten und Informationen des Roboterprogramms, um sie nicht angeschlossen oder auf einem anderen Roboter abzuspielen. Das Verfahren umfasst das Ziehen einer 3D-Darstellung der Roboterposition in ein Schaubild von Sekundärinformationen. Das Verfahren sammelt eine Folge der Roboterpositionen und Sekundärinformationen und gibt den Verlauf der Informationen auf dem Display 16 des Programmierhandgerätes 10 und 10a oder einem zweiten Anzeigegerät wieder.
  • In den Programmiergeräten 10 und 10a ist „Berühren und Halten“ oder „Doppelklick“ für eine wechselseitige Funktionsbedienung vorgesehen. Der Benutzer berührt eine angezeigte Anweisung, um ein Bild oder Modell der Prozessausstattung hochzufahren, das zeigt, wo der Wert eingestellt wird und worauf es sich innerhalb des Prozesses bezieht. Das Verfahren sieht außerdem das Auswählen einer wechselseitigen Funktion vor, indem auf die interessierende 3D-Informationseinheit gedrückt und diese gehalten wird, oder durch Doppelklicken auf die interessierende Informationseinheit auf dem Display des Programmiergerätes.
  • Verfahren und Vorrichtung nach der Erfindung nutzen ein grafisches Verfahren zur visuellen Auswahl der in der Robotersteuereinheit 12 gespeicherten Programme oder angeschlossener Speichergeräte und zur Vorschau der Nullstellungsbildvorlage, was eine leichte Auswahl aus der grafischen Umgebung zulässt. Das Verfahren zeigt die grafische Darstellung der in einem Roboterprogramm enthaltenen Positionen zur Unterstützung bei der Auswahl des Programms zur Ausführung durch den Roboter.
  • Die Programmiergeräte 10 und 10a stellen eine rechnerunabhängig arbeitende Grafikentwicklung zur Erzeugung und Verwendung von Bearbeitungsstationsinformationen einer unabhängigen Robotersimulation in der grafischen 3D-Umgebung bereit. Das Verfahren erzeugt die grafischen Bearbeitungsstationsinformationen zur Anzeige auf dem Programmiergerät 10 und 10a und für eine Übertragung dieser Daten an den Roboter.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit einer Modellierung von Gegenständen innerhalb der 3D-Welt auf den Programmiergeräten 10 und 10a. Das Verfahren baut Bearbeitungsstationskomponenten zur Anzeige innerhalb der Struktur der grafischen Darstellung auf.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit einer Simulation des Grafikmodells der Bearbeitungsstation und das Ziehen einer Visualisierung auf physikalische Informationseinheiten (wie ein I/O-Punkt). Dieses Verfahren stellt auf aktuelle Ereignisse gezogene Ereignisse zu Änderungen in der auf den Programmierhandgeräten 10 und 10a oder anderen Anzeigegeräten angezeigten grafischen Darstellung dar.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit einer rechnerunabhängig arbeitenden Struktur der Maschine, die auf den Betrieb des Roboterprogramms gezogen ist (I/O-Punkt ändert die Ansicht der modellierten Komponenten). Das Verfahren kann die grafische Darstellung auf einem anderen Gerät als dem Roboter entwickeln.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, die Fortbewegung eines Teils durch die Modellierumgebung auf dem zum aktuellen Arbeitsgang der Bearbeitungsstation gezogenen Programmiergerät darzustellen und rechnerunabhängig arbeitend oder rechnerabhängig arbeitend einzurichten, um sich der physikalischen Bearbeitungsstation anzupassen. Das Verfahren zeigt eine Bewegung von Elementen einer auf Bewegung oder Änderungen innerhalb des Roboters auf den Programmierhandgeräten 10 und 10a gezogenen grafischen Darstellung.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, den Arbeitsgang des Prozesses darzustellen, der auf den physikalischen Prozess auf dem Roboter gezogen wird (Beispiel: den Lichtbogenzündfunken zeigen, wenn der Roboter schweißt). Das Verfahren wählt ein 3D-Element und zeigt eine entsprechende 2D-Informationseinheit wie beispielsweise ein Textelement an oder stellt dieses dar.
  • Wie es im Abschnitt [0033] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a eine Nullstellungsbildvorlage. Das Verfahren erzeugt eine grafische Darstellung des programmierten oder aktuellen Pfades des Roboters oder Roboterprogramms auf dem Programmiergerät des Roboters.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine 2D-Informationseinheit wie beispielsweise ein Textelement auszuwählen oder ein entsprechendes 3D-Element auf den Programmiergeräten 10 und 10a anzuzeigen oder darzustellen.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, den Betrachtungspunkt des Benutzers auszuwählen oder zu manipulieren, oder der 3D-Renderung.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, Menüs oder andere Robotertextdaten wie Programme in einem halb durchlässigen Fenster mit den unten sichtbaren 3D-Elementen darzustellen. Das Verfahren und die Vorrichtung nach der Erfindung schaffen die Fähigkeit, die Transparenz von Text über jede der Eingabeeinrichtungen von unsichtbar auf dunkel zu manipulieren, wenn die 3D-Renderung den Hintergrund für den Text bewirkt. Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine Einflussnahme auf das Menü von einem halb durchlässigen Kobold, der über eine 3D-Renderung gelegt ist, zu wählen, um auf dem 3D-Bild eine 2D-Menüüberlagerung zu bewirken.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine Gruppe von 3D-Elementen auszuwählen und die entsprechenden 2D-Informationseinheiten wie Programmpunkte anzuzeigen oder darzustellen. Das Verfahren und die Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine Gruppe von 2D-Informationseinheiten wie beispielsweise Programmpunkte auszuwählen und die entsprechenden 3D-Elemente anzuzeigen oder darzustellen.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, gleichzeitig mehrere Ansichten der 3D-Welt auf dem Lehrgerät darzustellen. Dies könnte ein geteilter Bildschirm oder Bild-in-Bild sein.
  • Wie es im Abschnitt [0042] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, schaffen die Programmiergeräte 10 und 10a die Fähigkeit, eine grafische Anzeige roboterabhängiger Daten über eine TCP Ablaufverfolgung darzustellen. Das erfindungsgemäße Verfahren zeichnet roboterabhängige Daten wie Informationen von Geschwindigkeit und Beschleunigung in Verbindung mit der TCP Ablaufverfolgung des Roboterprogramms auf.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, jedem Auge des Benutzers unterschiedliche Bilder oder jedem Auge das gleiche Bild zu bieten. Das Verfahren bietet jedem Auge unterschiedliche Bilder zur „wahren“ 3D-Ansicht wie ein 3D-Film. Wenn das Verfahren beiden Augen das gleiche Bild bietet, ist dies eine 3D-Renderung wie in einem herkömmlichen CAD/CAM Bild.
  • Das erfindungsgemäße Verfahren zur Anzeige von dreidimensionalen Bearbeitungsstationsdaten (z.B. eine 3D-Renderung von Bearbeitungsstationsdaten) umfasst den Schritt, bei dem die Bearbeitungsstationsdaten zur Verfügung gestellt werden. Wie es im Ablaufdiagramm von 3 gezeigt wird, werden Modelle einer Maschine (z. B. ein Roboter) und dazugehörige Komponenten zum Download von der Robotersteuereinheit verfügbar gemacht, indem in einem ersten Schritt 40 ein Kommunikationsprotokoll für das tragbare Anzeigegerät (Programmiergeräte 10 und 10a) verwendet wird. In einem zweiten Schritt 42 wird das Anzeigegerät bereitgestellt und in Datenkommunikation mit der Datenquelle gebracht. In einem dritten Schritt 44 werden die Bearbeitungsstationsdaten zu dem Anzeigegerät kommuniziert. In einem vierten Schritt 46 bietet das Anzeigegerät eine visuelle Darstellung (d. h. visuelle Ausgabe) der Bearbeitungsstationsdaten. Als nicht einschränkendes Beispiel erlaubt das Anzeigegerät einem Benutzer, eine Bewegung der Maschine grafisch vorher anzusehen, indem die Einrichtung zum Manipulieren zugeschaltet wird (z. B. Drücken einer Bewegungstaste), wobei das Anzeigegerät die Bewegung grafisch darstellt, bevor sich der Mechanismus tatsächlich bewegt. Als ein weiteres, nicht einschränkendes Beispiel kann die auf dem Anzeigegerät gebotene visuelle Ausgabe konfiguriert werden, um ein Kollisionsobjekt (z. B. Sicherheitswand) anzuzeigen und um eine Kollision des physikalischen Roboters mit dem Kollisionsobjekt zu projizieren, bevor eine Bewegung ausgeführt wird.
  • In einem fünften Schritt 48 wird die durch das Anzeigegerät gebotene visuelle Ausgabe manipuliert. In bestimmten Ausführungsformen kann ein Benutzer visuelle Punkte singulär oder als Gruppe auswählen, wobei die visuellen Punkte auf eine programmierte Reihenfolge bezogen werden können. Als nicht einschränkendes Beispiel kann der Benutzer die visuellen Punkte in einem dreidimensionalen Raum bewegen und konfigurieren. Als ein weiteres, nicht einschränkendes Beispiel kann der Benutzer eine spezielle Ansicht drehen, zoomen, kippen und schwenken. Es wird verständlich, dass der Benutzer die visuelle Ausgabe in jeder beliebigen Art und Weise manipulieren kann, die durch die zugrunde liegende Software verfügbar ist.
  • Durch eine Harttaste des Anzeigegerätes kann ein schneller Zugriff auf grafische Funktionen zur Verfügung gestellt werden. Zum Beispiel kann durch eine „Umschalt“-Funktion Zugriff auf viele grafische Funktionen bewirkt werden. Wenn diese Grafiktaste in Kombination mit einer für die zugeordnete Textfunktion vorgesehene Harttaste gedrückt wird, ist die entsprechende grafische Darstellung unmittelbar sichtbar. Außerdem sind auf der Anzeige erzeugte Softtasten verfügbar.
  • 4 ist das schematische Blockdiagramm eines Systems zur Anzeige von 3D-Daten einer Bearbeitungsstation nach einer Ausführungsform der Erfindung. Das Programmiergerät 10 (und das Programmiergerät 10a) enthält zumindest einen Eingabe-/Ausgabekanal 50 zur Kommunikation mit der Steuereinheit 12 oder jeder anderen Quelle dreidimensionaler Bearbeitungsstationsdaten. Der Eingabe-/Ausgabekanal 50 ist mit einem Prozessor 52 verbunden, auf dem ein die oben beschriebenen Funktionen des Programmiergerätes bewirkendes Softwarebetriebsprogramm läuft. Der Prozessor 52 ist an eine Datenspeichervorrichtung 54 angeschlossen, die das Betriebsprogramm und die empfangenen Bearbeitungsstationsdaten speichert. Der Prozessor 52 ist mit der Anzeige 16 zur Erzeugung einer Visualisierung der 3D-Bilder und darauf bezogener Informationen und zum Empfang von Signalen von den in 2 gezeigten Softtasten 24b verbunden.

Claims (17)

  1. Verfahren zur Anzeige von dreidimensionalen Bearbeitungsstationsdaten mit den Schritten: Bereitstellen von das Modell einer Maschine und dazugehörige Komponenten in einer Bearbeitungsstation darstellenden 3D-Bearbeitungsstationsdaten aus einer Datenquelle; Bereitstellen eines tragbaren Anzeigegerätes (10, 10a) und Anordnen des Anzeigegeräts (10, 10a) in Datenkommunikation mit der Datenquelle; Ausgeben der Bearbeitungsstationsdaten von der Datenquelle zu dem Anzeigegerät (10, 10a); Erzeugen einer visuellen 3D-Darstellung der Bearbeitungsstationsdaten auf dem Anzeigegerät (10, 10a); und Bedienen des Anzeigegerätes (10, 10a) zum Manipulieren der visuellen Darstellung, wobei die Maschine ein Roboter (26) ist und das Anzeigen der visuellen Darstellung einer Position des Roboters (26) einbezogen ist, die auf einem Wert einer Programm- oder Nichtprogramm-Darstellung einer Roboterposition innerhalb eines Softwareprogramms zur Steuerung des Roboters (26) basiert, ferner umfassend das Aufzeichnen von Prozessinformationen in Verbindung mit einer TCP Ablaufverfolgung des Softwareprogramms.
  2. Verfahren zur Anzeige von dreidimensionalen Bearbeitungsstationsdaten mit den Schritten: Bereitstellen von das Modell einer Maschine und dazugehörige Komponenten in einer Bearbeitungsstation darstellenden 3D-Bearbeitungsstationsdaten aus einer Datenquelle; Bereitstellen eines tragbaren Anzeigegerätes (10, 10a) und Anordnen des Anzeigegeräts (10, 10a) in Datenkommunikation mit der Datenquelle; Ausgeben der Bearbeitungsstationsdaten von der Datenquelle zu dem Anzeigegerät (10, 10a); Erzeugen einer visuellen 3D-Darstellung der Bearbeitungsstationsdaten auf dem Anzeigegerät (10, 10a); und Bedienen des Anzeigegerätes (10, 10a) zum Manipulieren der visuellen Darstellung, ferner umfassend das Ausführen der Schritte für zumindest eine andere Maschine in der Bearbeitungsstation, bei dem die visuelle Darstellung für jede Maschine einen Gesamtraum einschließt, der von der Maschine während einer Ausführung von zumindest einem Teil eines Softwareprogramms eingenommen wird, das eine Bewegung der Maschine steuert und die visuelle Darstellung eines beliebigen Schnittes der Gesamträume umfasst.
  3. Verfahren nach Anspruch 1, bei dem das Anzeigegerät (10, 10a) Tipptasten aufweist und das Anzeigen einer Richtung des Roboters (26), die er einnehmen wird, wenn er als Reaktion auf eine Betätigung der Tipptasten bewegt wird, einbezogen ist.
  4. Verfahren nach Anspruch 1, bei dem die visuelle Darstellung einen von dem Roboter (26) eingenommenen Gesamtraum während einer Ausführung von zumindest einem Teil des Softwareprogramms einschließt.
  5. Verfahren nach Anspruch 1, umfassend das Speichern von Daten aus einer Folge der Roboterpositionen und dazugehörigen Sekundärinformationen und das Wiedergeben einer Fortbewegung der Roboterpositionen mit den dazugehörigen Sekundärinformationen als visuelle Darstellung.
  6. Verfahren nach Anspruch 1, umfassend die Verwendung von Farbe und Transparenz, um verschiedene Elemente in der visuellen Darstellung voneinander zu unterscheiden.
  7. Verfahren nach Anspruch 1, umfassend die Bereitstellung von Prozessdaten, die auf einen Betrieb der Maschine in der visuellen Darstellung bezogen sind, und das Beziehen der Prozessdaten auf die Maschine.
  8. Verfahren nach Anspruch 1, umfassend das Einbeziehen eines Bereiches in die visuelle Darstellung, der für einen Benutzer des tragbaren Anzeigegeräts (10, 10a) nicht sichtbar ist, um eine Bewegung der Maschine während eines Arbeitsgangs der Maschine einzuschränken oder zu begrenzen.
  9. Verfahren nach Anspruch 1, umfassend das Einbeziehen von Videodaten in die visuelle Darstellung von einem Betrachtungspunkt einer Kamera in der Bearbeitungsstation.
  10. Verfahren nach Anspruch 1, umfassend das Darstellen einer Bewegung von Elementen der Maschine in der visuellen Darstellung.
  11. Verfahren nach Anspruch 1, umfassend das Auswählen eines 3D-Elements der visuellen Anzeige und das automatische Anzeigen oder Darstellen einer entsprechenden 2D-Informationseinheit auf dem Anzeigegerät (10, 10a).
  12. Verfahrenanspruch 1, umfassend das Ändern der visuellen Darstellung, um unterschiedliche Betrachtungspunkte des Benutzers zu bewirken.
  13. Verfahren nach Anspruch 1, umfassend das Bedienen des Anzeigegerätes (10, 10a), um Menüdaten und/oder Robotertextdaten in einem halbdurchlässigen Fenster mit 3D-Elementen, die unten sichtbar sind, darzustellen, und das Manipulieren der Transparenz von unsichtbar auf dunkel.
  14. Verfahren nach Anspruch 1, umfassend das Anzeigen mehrerer 3D-Ansichten in der visuellen Darstellung als einen geteilten Bildschirm oder Bild-in-Bild.
  15. Verfahren nach Anspruch 1, umfassend das Geben der visuellen Darstellung als getrennte Bilder für jedes Auge eines Benutzers, wobei die getrennten Bilder für einen 3D-Filmeffekt unterschiedlich oder die gleichen sind.
  16. Tragbares Programmiergerät (10, 10a) zur Kommunikation mit einer Robotersteuereinheit (12), umfassend: ein Display (16) mit einer Auflösung, die hoch genug ist, um grafische 3D-Bilder darzustellen; einen Eingabe-/Ausgabekanal (50) zum Empfang von 3D-Bearbeitungsstationsdaten aus einer Datenquelle, die das Modell eines Roboters (26) und dazugehörige Komponenten in einer Bearbeitungsstation darstellen; eine Datenspeichervorrichtung zum Speichern der 3D-Daten der Bearbeitungsstation und ein Programmiergerät-Betriebsprogramm; und einen Prozessor (52, der mit dem Display (16), dem Eingabe-/Ausgabekanal (50) und der Datenspeichervorrichtung verbunden ist, damit das Betriebsprogramm läuft, um eine visuelle 3D-Darstellung der 3D-Bearbeitungsstationsdaten auf dem Display (16) zu erzeugen, und der auf eine Benutzereingabe anspricht, um die visuelle Darstellung zu manipulieren.
  17. Programmiergerät (10, 10a) nach Anspruch 16, bei dem die Datenquelle die Robotersteuereinheit (12) ist, die 3D-Bearbeitungsstationsdaten auf ein Roboterbetriebsprogramm bezogen sind, das durch die Steuereinheit zum Laufen gebracht wird, und eine visuelle Darstellung grafische Bilder des Roboters (26) enthält, der sich als Reaktion auf Anweisungen in dem Roboterbetriebsprogramm bewegt.
DE102012110508.1A 2011-11-04 2012-11-02 Roboter Einstellvorrichtung mit 3-D Display Active DE102012110508B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161555675P 2011-11-04 2011-11-04
US61/555,675 2011-11-04

Publications (2)

Publication Number Publication Date
DE102012110508A1 DE102012110508A1 (de) 2013-05-08
DE102012110508B4 true DE102012110508B4 (de) 2022-05-12

Family

ID=48129060

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012110508.1A Active DE102012110508B4 (de) 2011-11-04 2012-11-02 Roboter Einstellvorrichtung mit 3-D Display

Country Status (4)

Country Link
US (1) US9415509B2 (de)
JP (1) JP6193554B2 (de)
CN (1) CN103213125B (de)
DE (1) DE102012110508B4 (de)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007039785A1 (en) * 2005-10-06 2007-04-12 Abb As Control system and teach pendant for an industrial robot
JP2013066365A (ja) * 2011-08-29 2013-04-11 Sharp Corp 車両駆動装置、車両充電システム、及び自動車
DE102012103031A1 (de) * 2012-04-05 2013-10-10 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
DE102012103032B3 (de) * 2012-04-05 2013-07-04 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
JPWO2014013605A1 (ja) * 2012-07-20 2016-06-30 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
WO2015051815A1 (en) * 2013-10-07 2015-04-16 Abb Technology Ltd A method and a device for verifying one or more safety volumes for a movable mechanical unit
CN104635651A (zh) * 2013-11-13 2015-05-20 沈阳新松机器人自动化股份有限公司 一种多功能编程示教盒
JP5850958B2 (ja) 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
US9737990B2 (en) 2014-05-16 2017-08-22 Microsoft Technology Licensing, Llc Program synthesis for robotic tasks
US20150331415A1 (en) * 2014-05-16 2015-11-19 Microsoft Corporation Robotic task demonstration interface
ES2825719T3 (es) * 2014-06-03 2021-05-17 Siemens Ag Procedimiento para calcular una trayectoria optimizada
WO2016193305A1 (de) * 2015-06-03 2016-12-08 Siemens Aktiengesellschaft Verfahren zur berechnung einer optimierten trajektorie
JP6350037B2 (ja) * 2014-06-30 2018-07-04 株式会社安川電機 ロボットシミュレータおよびロボットシミュレータのファイル生成方法
JP6416560B2 (ja) * 2014-09-11 2018-10-31 株式会社デンソー 位置決め制御装置
JP5911933B2 (ja) * 2014-09-16 2016-04-27 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム
DE102014118001A1 (de) * 2014-12-05 2016-06-09 Broetje-Automation Gmbh Verfahren zur Bewegungssimulation eines Manipulators
EP3045990B1 (de) * 2015-01-16 2022-10-05 Siemens Aktiengesellschaft Remote-Anzeige von Daten mit situationabhängiger Darstellungsänderung
JP6676286B2 (ja) 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
US9724826B1 (en) 2015-05-28 2017-08-08 X Development Llc Selecting physical arrangements for objects to be acted upon by a robot
US9682476B1 (en) 2015-05-28 2017-06-20 X Development Llc Selecting robot poses to account for cost
DE102015209896B3 (de) * 2015-05-29 2016-08-18 Kuka Roboter Gmbh Ermittlung der Roboterachswinkel und Auswahl eines Roboters mit Hilfe einer Kamera
JP6420229B2 (ja) 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP6348141B2 (ja) * 2016-04-28 2018-06-27 ファナック株式会社 付加軸の状態が含まれる動作プログラムを表示するロボットの制御装置
CN107443389B (zh) * 2016-05-31 2019-12-31 发那科株式会社 机器人控制装置及机器人控制方法
US10571902B2 (en) * 2016-10-12 2020-02-25 Sisu Devices Llc Robotic programming and motion control
CN117717411A (zh) * 2016-11-04 2024-03-19 直观外科手术操作公司 在计算机辅助远程操作外科手术中的可重新配置的显示器
JP6748019B2 (ja) 2017-04-10 2020-08-26 ファナック株式会社 外力表示機能を有するロボットシステム、処理装置及び教示操作盤
JP6514273B2 (ja) * 2017-06-19 2019-05-15 ファナック株式会社 速度を表示するロボットシステム
JP6763846B2 (ja) * 2017-11-24 2020-09-30 ファナック株式会社 ロボットの教示操作を行う教示装置および教示方法
DE102019001252A1 (de) 2018-03-08 2019-09-12 Sew-Eurodrive Gmbh & Co Kg Verfahren zum Betreiben eines Systems und System zur Durchführung des Verfahrens
WO2019186551A1 (en) * 2018-03-26 2019-10-03 Servotronix Automation Solutions Ltd. Augmented reality for industrial robotics
DE102018113336A1 (de) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
CN112638593A (zh) * 2018-06-26 2021-04-09 发纳科美国公司 用于机器人拾取系统的增强现实可视化技术
JP6823018B2 (ja) 2018-08-03 2021-01-27 ファナック株式会社 協調動作支援装置
DE112019004519T5 (de) 2018-09-10 2021-06-02 Fanuc America Corporation Null-einlernen für roboterbahnsteuerung
DE202018105721U1 (de) * 2018-10-05 2020-01-20 Fruitcore Gmbh Roboter mit Antriebselement auf der Hauptwelle und Bedienvorrichtung für einen Roboter
DE102019103349B3 (de) 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
JP7318295B2 (ja) * 2019-04-24 2023-08-01 セイコーエプソン株式会社 表示方法
CN110480636A (zh) * 2019-08-13 2019-11-22 菏泽学院 一种基于三维视觉的机械臂控制系统
US20220355483A1 (en) * 2019-11-19 2022-11-10 Google Llc Methods and Systems for Graphical User Interfaces to Control Remotely Located Robots
US20220055216A1 (en) * 2020-08-20 2022-02-24 Smart Building Tech Co., Ltd. Cloud based computer-implemented system and method for grouping action items on visual programming panel in robot simulator
WO2023111630A1 (en) * 2021-12-14 2023-06-22 Siemens Industry Software Ltd. Method and system for enabling inspecting an industrial robotic simulation at a crucial virtual time interval
DE102022202564A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Prüfen einer Sicherheitskonfiguration eines Roboters

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10146782A (ja) 1996-11-13 1998-06-02 Mitsubishi Heavy Ind Ltd ロボットの教示操作方法
US5937143A (en) 1995-09-18 1999-08-10 Fanuc, Ltd. Teaching pendant for a robot
US6167328A (en) 1995-09-19 2000-12-26 Kabushiki Kaisha Yaskawa Denki Robot language processing apparatus
DE10128015A1 (de) 2000-06-13 2001-12-20 Volkswagen Ag Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten
US20050285854A1 (en) 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
DE69735269T2 (de) 1996-07-24 2006-07-27 Fanuc Ltd., Oshino Steuerverfahren zum schrittbetrieb eines roboters
US20070167702A1 (en) 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
US20090204257A1 (en) 2008-02-13 2009-08-13 Landsnes Oeyvind A System And Method For Visualization Of Process Errors
US20090289591A1 (en) 2006-03-03 2009-11-26 Kristian Kassow Programmable robot and user interface
US7945349B2 (en) 2008-06-09 2011-05-17 Abb Technology Ab Method and a system for facilitating calibration of an off-line programmed robot cell
JP2011189431A (ja) 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6243706A (ja) * 1985-08-21 1987-02-25 Hitachi Ltd ロボツトにおける干渉チエツク方法
JPH09146753A (ja) * 1995-11-28 1997-06-06 Hitachi Ltd マルチウインドウ表示方法およびマルチウインドウ表示装置
JP2933052B2 (ja) * 1997-03-27 1999-08-09 セイコーエプソン株式会社 マイクロロボット
JPH1177568A (ja) * 1997-09-02 1999-03-23 Nippon Telegr & Teleph Corp <Ntt> 教示支援方法及び装置
JPH11254360A (ja) * 1998-03-13 1999-09-21 Yaskawa Electric Corp ロボットのシミュレーション装置
JP2000135689A (ja) * 1998-10-30 2000-05-16 Fanuc Ltd ロボット用画像処理装置
JP4392082B2 (ja) * 1999-08-06 2009-12-24 ヒューレット・パッカード・カンパニー 彫版風ハーフトーン画像生成方法・装置
JP2003114706A (ja) * 2001-10-05 2003-04-18 Matsuura Tekkosho:Kk 多関節汎用ロボットモデルの表示システム
JP2003117863A (ja) * 2001-10-16 2003-04-23 Fanuc Ltd ロボットシミュレーション装置
JP3673749B2 (ja) * 2001-11-12 2005-07-20 ファナック株式会社 シミュレーション装置
ITTO20020862A1 (it) * 2002-10-04 2004-04-05 Comau Spa Sistema di programmazione per robot o simili apparati
US7606633B2 (en) * 2003-03-25 2009-10-20 Rorze Corporation Robot simulation device, and robot simulation program
EP1722287A1 (de) * 2004-03-04 2006-11-15 NEC Corporation Datenaktualisierungssystem, datenaktualisierungsverfahren, datenaktualisierungsprogramm und robotersystem
US7346478B2 (en) * 2004-09-21 2008-03-18 Ford Motor Company Method of embedding tooling control data within mechanical fixture design to enable programmable logic control verification simulation
JP4744847B2 (ja) * 2004-11-02 2011-08-10 株式会社安川電機 ロボット制御装置およびロボットシステム
US7643907B2 (en) * 2005-02-10 2010-01-05 Abb Research Ltd. Method and apparatus for developing a metadata-infused software program for controlling a robot
US7777761B2 (en) 2005-02-11 2010-08-17 Deltasphere, Inc. Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP4347313B2 (ja) 2006-02-23 2009-10-21 ファナック株式会社 ロボット教示操作盤
JP4302160B2 (ja) * 2007-09-12 2009-07-22 ファナック株式会社 ロボットによるパレタイジング作業のためのロボットプログラミング装置
JP5113666B2 (ja) 2008-08-11 2013-01-09 ファナック株式会社 ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP5365443B2 (ja) * 2009-09-17 2013-12-11 富士通株式会社 シミュレーション装置,シミュレーション方法およびシミュレーションプログラム
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP4850956B2 (ja) * 2010-02-19 2012-01-11 ファナック株式会社 学習制御機能を備えたロボット

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937143A (en) 1995-09-18 1999-08-10 Fanuc, Ltd. Teaching pendant for a robot
US6167328A (en) 1995-09-19 2000-12-26 Kabushiki Kaisha Yaskawa Denki Robot language processing apparatus
DE69735269T2 (de) 1996-07-24 2006-07-27 Fanuc Ltd., Oshino Steuerverfahren zum schrittbetrieb eines roboters
JPH10146782A (ja) 1996-11-13 1998-06-02 Mitsubishi Heavy Ind Ltd ロボットの教示操作方法
DE10128015A1 (de) 2000-06-13 2001-12-20 Volkswagen Ag Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten
US20050285854A1 (en) 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
US20070167702A1 (en) 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
US20090289591A1 (en) 2006-03-03 2009-11-26 Kristian Kassow Programmable robot and user interface
US20090204257A1 (en) 2008-02-13 2009-08-13 Landsnes Oeyvind A System And Method For Visualization Of Process Errors
US7945349B2 (en) 2008-06-09 2011-05-17 Abb Technology Ab Method and a system for facilitating calibration of an off-line programmed robot cell
JP2011189431A (ja) 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム

Also Published As

Publication number Publication date
CN103213125B (zh) 2016-05-18
US20130116828A1 (en) 2013-05-09
US9415509B2 (en) 2016-08-16
CN103213125A (zh) 2013-07-24
JP6193554B2 (ja) 2017-09-06
JP2013094961A (ja) 2013-05-20
DE102012110508A1 (de) 2013-05-08

Similar Documents

Publication Publication Date Title
DE102012110508B4 (de) Roboter Einstellvorrichtung mit 3-D Display
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
DE69735269T2 (de) Steuerverfahren zum schrittbetrieb eines roboters
DE102019002898B4 (de) Robotersimulationsvorrichtung
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102014103738B3 (de) Visuelle fehlersuche bei roboteraufgaben
DE102015015503B4 (de) Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist
DE102018009023B4 (de) Einlernvorrichtung zum Ausführen von Robotereinlernvorgängen und Einlernverfahren
DE102015011830C5 (de) Robotersystem zum Einstellen eines Bewegungsüberwachungsbereichs eines Roboters
EP3098034B1 (de) Auswahl eines gerätes oder eines objektes mit hilfe einer kamera
DE102016113060A1 (de) Verfahren zum Steuern eines Objekts
DE112019003204T5 (de) Visualisierung und modifizierung von arbeitsrandbereichen unter verwendung von erweiterter realität
EP1763845A1 (de) Verfahren und vorrichtung zur bestimmung von optischen überdeckungen mit ar-objekten
DE102017124502B4 (de) Simulationsvorrichung und Simulationsverfahren, die eine Betriebssimulation eines Robotersystems ausführen, und Aufzeichnungsmedium, das ein Computerprogramm aufzeichnet
DE102020000390B4 (de) Robotersystem
DE102016102902A1 (de) Numerische Steuereinheit zur Steuerung einer Werkzeugmaschine
DE102014221705A1 (de) Werkzeugmaschine
DE102016212236A1 (de) Interaktionssystem und -verfahren
DE102018009025A1 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
DE102014219831A1 (de) Anzeigevorrichtung
DE102007057208A1 (de) Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
DE112021003127T5 (de) Programmiervorrichtung
WO2013164208A1 (de) Verfahren zur ausführung beim betreiben eines mikroskops und mikroskop
EP1700175B1 (de) Vorrichtung und verfahren zum programmieren eines industrieroboters

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final