DE102012110508A1 - Roboter Einstellvorrichtung mit 3-D Display - Google Patents

Roboter Einstellvorrichtung mit 3-D Display Download PDF

Info

Publication number
DE102012110508A1
DE102012110508A1 DE102012110508A DE102012110508A DE102012110508A1 DE 102012110508 A1 DE102012110508 A1 DE 102012110508A1 DE 102012110508 A DE102012110508 A DE 102012110508A DE 102012110508 A DE102012110508 A DE 102012110508A DE 102012110508 A1 DE102012110508 A1 DE 102012110508A1
Authority
DE
Germany
Prior art keywords
robot
data
visual representation
processing station
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102012110508A
Other languages
English (en)
Other versions
DE102012110508B4 (de
Inventor
Kenneth W. Krause
Bradley O. Niederquell
Gordon Geheb
Ganesh Kalbavi
Claude Dinsmoor
Scott M. Dreslinski
Chuck Strybis
H. Dean McGee
Glenn Nowak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc America Corp
Original Assignee
Fanuc Robotics America Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Robotics America Corp filed Critical Fanuc Robotics America Corp
Publication of DE102012110508A1 publication Critical patent/DE102012110508A1/de
Application granted granted Critical
Publication of DE102012110508B4 publication Critical patent/DE102012110508B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/353183-D display of workpiece, workspace, tool track
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zur Anzeige von dreidimensionalen Daten einer Bearbeitungsstation umfassen ein tragbares Programmiergerät, das mit 3D-Bearbeitungsstationsdaten versehen ist, die ein Modell einer Maschine und dazugehörige Komponenten in einer Bearbeitungsstation darstellen. Das tragbare Programmiergerät weist ein Display auf, das eine visuelle 3D-Darstellung der Bearbeitungsstationsdaten erzeugt. Das Programmiergerät kann von einem Benutzer zum Manipulieren der visuellen Darstellung bedient werden, um den Betrachtungspunkt eines Benutzers zu ändern und eine Bewegung der Maschine mit dazugehörigen Prozessinformationen darzustellen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG
  • Diese Anmeldung beansprucht den Nutzen der am 4. November 2011 eingereichten vorläufigen US-Patentanmeldung, Serien Nr. 61/555,675.
  • ERFINDUNGSGEBIET
  • HINTERGRUND DER ERFINDUNG
  • Gegenwärtig ist ein leistungsstarker Arbeitsplatzcomputer erforderlich, um dreidimensionale Daten einer Bearbeitungsstation als hochwertiges räumliches Bild wiederzugeben. Zusätzlich wird für jedes Anzeigegerät ein kundenspezifischer Programmiercode (z. B. Programmiersprache C) benötigt. Damit ein spezielles Gerät (z. B. Computer) das räumliche Bild einer Bearbeitungsstation anzeigen kann, muss das spezielle Gerät folglich ein kundenspezifisches Softwareprogramm enthalten.
  • US-Patent Nr. 5 937 143 ist ein Beispiel der Verwendung eines Roboterprogrammierhandgeräts, um Bilder eines Roboterwerkzeugs, Werkzeugkoordinaten in einem Werkzeugkoordinatensystem und die gelehrten Punkte in einem Benutzer- oder Weltkoordinatensystem anzuzeigen. Jedoch ist dieses Programmiergerät auf das Anzeigen von 3D-Daten von Roboterprogrammen in einem 2D-Format auf dem Programmiergerätebildschirm gerichtet. Die US-Offenlegungsschriften 2005/0285854 und 2007/0167702 sind Beispiele von Systemen, die eine Bearbeitungsstation benötigen, um ein 3D-Bild in Echtzeit zu erzeugen. Das US-Patent Nr. 6 167 328 und die US-Offenlegungsschrift 2009/0204257 zeigen Programmierhandgeräte zum Erzeugen von einfachen grafischen 3D-Anzeigen eines Lehrpfades für einen Roboter. So erzeugen Programmierhandgeräte im dem Stand der Technik keine hochwertigen 3D-Bilder einer Roboterbearbeitungsstation, die manipuliert werden können.
  • ABRISS DER ERFINDUNG
  • Im Einklang und übereinstimmend mit der Erfindung überwindet ein System und Verfahren zur Anzeige einer räumlichen Darstellung dreidimensionaler grafischer Daten in einer Roboterumgebung die Nachteile des Standes der Technik wie folgt.
  • Erfindungsgemäß ist die Anzeige roboter- und programmspezifischer Daten direkt mit einem Ablauf des Roboters verbunden; keine Simulation, sondern das Widerspiegeln echter Roboterdaten, aktualisiert oder in Echtzeit zu dem Ablauf des Roboters wiedergegeben. Auf einem tragbaren Gerät werden neue Merkmale zur Anzeige von für den Roboter spezifischen Informationen und eine Ausführung des Roboterprogramms in grafischer Form bereitgestellt. Es sind neue Navigationsmerkmale verfügbar, die grafische Merkmale auf die Ausführung des Roboterprogramms ziehen. Es werden neue grafische Merkmale bereitgestellt, die Prozessinformationen auf eine grafische Darstellung des Roboters und einen Ausführungspfad des Roboters ziehen. Es sind neue Verfahren verfügbar zur Aufbereitung von Informationen der Bearbeitungsstation von einem rechnerunabhängig arbeitenden Simulationssystem zu grafischen Informationen für eine Anzeige auf dem Roboter-Programmiergerät.
  • Ein erfindungsgemäßes Verfahren zur Anzeige von dreidimensionalen Informationen einer Bearbeitungsstation umfasst die Schritte: Bereitstellen von 3D-Bearbeitungsstationsinformationen aus einer das Modell einer Maschine und damit verbundene Komponenten in einer Bearbeitungsstation darstellenden Datenquelle; Bereitstellen eines tragbaren Anzeigegerätes und Einschalten des Anzeigegerätes in Datenkommunikation mit der Datenquelle; Übertragen der Bearbeitungsstationsdaten von der Datenquelle zu dem Anzeigegerät; Erzeugen einer visuellen 3D-Darstellung der Bearbeitungsstationsdaten auf dem Anzeigegerät; und Bedienen des Anzeigegerätes zum Manipulieren der visuellen Darstellung.
  • Ein erfindungsgemäßes tragbares Programmiergerät zur Kommunikation mit einer Robotersteuereinheit umfasst: Ein Display mit einer Auflösung, die hoch genug ist, um grafische 3D-Bilder darzustellen; einen Eingabe-/Ausgabekanal zum Empfang von 3D-Daten einer Bearbeitungsstation aus einer Datenquelle, die das Modell eines Roboters und damit verbundene Komponenten in einer Bearbeitungsstation darstellen; eine Datenspeichervorrichtung zum Speichern der Daten der 3D-Bearbeitungsstation und ein Programmiergerät-Betriebsprogramm; sowie einen mit dem Display verbundenen Prozessor, den Eingabe-/Ausgabekanal und die Datenspeichervorrichtung zum Programmablauf des Betriebsprogramms, um eine visuelle 3D-Darstellung der Bearbeitungsstationsdaten auf dem Display zu erzeugen und auf eine Benutzereingabe anzusprechen, um die visuelle Darstellung zu manipulieren.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die oben erwähnten sowie andere Vorteile der vorliegenden Erfindung erschließen sich dem Fachmann ohne weiteres aus der folgenden ausführlichen Beschreibung einer bevorzugten Ausführungsform, wenn sie angesichts der begleitenden Zeichnungen betrachtet wird, in denen:
  • 1 ist die perspektivische Darstellung von zwei Ausführungsformen eines erfindungsgemäßen Roboterprogrammiergerätes, das mit einer Robotersteuereinheit kommuniziert;
  • 2 ist die schematische Darstellung eines 3D-Bildes, das durch die in 1 gezeigten Programmiergeräte erzeugt wird;
  • 3 ist ein Ablaufdiagramm des Verfahrens nach der vorliegenden Erfindung; und
  • 4 ist das schematische Blockbild eines Systems zur Anzeige von 3D-Daten einer Bearbeitungsstation nach einer Ausführungsform der Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Die am 4. November 2011 eingereichte vorläufige US-Patentanmeldung, Serien Nr. 61/555,675 ist hier durch Verweis einbezogen und wird nachstehend als die „vorläufige '675” gekennzeichnet.
  • Die folgende ausführliche Beschreibung und angefügte Zeichnungen beschreiben und veranschaulichen verschiedene beispielhafte Ausführungsformen der Erfindung. Die Beschreibung und Zeichnungen dienen dazu, dem Fachmann zu ermöglichen, die Erfindung herzustellen und zu nutzen und sollen den Umfang der Erfindung in keiner Weise einschränken. Bezüglich der offenbarten Verfahren sind die dargestellten Schritte beispielhaft, und somit ist die Reihenfolge der Schritte nicht zwangsläufig oder entscheidend.
  • In 1 ist ein erfindungsgemäßes Roboterprogrammiergerät 10 gezeigt, das mit einer Robotersteuereinheit 12 über ein Kabel 14 kommuniziert, das eine LAN-Verbindung über Ethernet bereitstellt. Die Ethernet-Verbindung kann zum Beispiel 100Base-X (oder schnelles Ethernet) sein, das Datenübertragungsraten von 100 Mbps unterstützt. Eine andere Version des Roboterprogrammiergerätes 10a kommuniziert mit der Steuereinheit 12 über eine drahtlose WIFI Übertragung. Es kann jedoch jede geeignete schnelle Schnittstelle zum Austausch von Daten zwischen dem Programmiergerät und der Steuereinheit verwendet werden. Die für Internet bereite Programmierhandgeräteinheit erlaubt den Benutzern, die Informationen zu browsen, die im Internet/Intranet verfügbar sind. Benutzer können außerdem auf der Programmierhandgeräteinheit angezeigte Roboterinformationen modifizieren.
  • Jedes der Programmiergeräte 10 und 10a besitzt ein Display 16. Das Display 16 ist imstande, einem Benutzer zumindest einfache, schattiert gefärbte 3D-Grafiken zu zeigen und umfasst Funktionen eines Sensorbildschirms. Zum Beispiel kann das Display 16 eine Auflösung von 600 × 800 besitzen. Wie dargestellt wird, kann ein bildschirmfüllendes 3D-Bild 20 eines vom Programmiergerät 10 oder 10a zu steuernden Roboters von dem Display 16 erzeugt werden. Ein anderes Bild 22, das erzeugt werden kann, weist einen ersten Bereich 22a auf, der vier mitlaufende Videobilder zeigt, die von Kameras empfangen werden, die ein an dem Roboter befestigtes Werkzeug und/oder ein Teil betrachten, das durch den Roboter bearbeitet wird. Das Bild 22 enthält einen zweiten Bereich 22b, der sich vertikal längs einer rechten Seite des Displays 16 erstreckt, der Sichtwerkzeuge und Sichtprozessinformationen zeigt. Das Bild 22 enthält des Weiteren einen dritten Bereich 22c, der sich horizontal unter dem ersten Bereich 22a erstreckt, um Daten zu zeigen, die die Ergebnisse einer Kameraansicht darstellen. Das Bild 20 zeigt die Fähigkeit der Programmiergeräte 10 und 10a an, einfache, schattiert gefärbte grafische 3D-Bilder zu erzeugen. Das Bild 22 zeigt die Fähigkeit der Programmiergeräte 10 und 10a an, komplexe Seiten mit Sichtbildern, insbesondere mitlaufendes Video und signifikante Informationsmengen, die den Betrieb eines damit verbundenen Roboters betreffen, zu erzeugen. So schließen die Programmiergeräte 10 und 10a die Notwendigkeit aus, einen Arbeitsplatzcomputer zur Geräteeinstellung eines Roboters zu verwenden.
  • Die Programmiergeräte 10 und 10a stellen eine 3D-Schnittstelle zum Gebrauch für Anwendungen bereit, die auf der Steuereinheit 12 laufen. Funktionen auf der Steuereinheit rufen auf dem Programmiergerät Funktionen mit höherem Niveau auf, um „grafische Darstellungselemente” anzuzeigen. Diese sind Geometrien höheren Niveaus wie Kugeln und Kästchen.
  • Eine weitere extrem wichtige Funktion, die von den Programmiergeräten 10 und 10a unterstützt wird, ist die Fähigkeit zum Laden von Grafikdateien. Das Programmiergerät-Betriebssystem stellt einen Mechanismus zum Laden dieser Dateien zur Verfügung. Dies ermöglicht zum Beispiel die Anwendung zum Ändern von Position, Farbe oder Sichtbarkeit jedes bezeichneten Elements. Das System speichert die benutzerspezifischen Formen in der Datenbank 3D-Welt. Diese Datenbank wird genutzt, um Zugriff zum Malen und Positionieren aller definierten Elemente zu bewirken.
  • Das System stellt eine Einrichtung bereit, um die 3D-Datenbank von unterschiedlichen Standpunkten aus zu betrachten. Es bewirkt außerdem eine Einrichtung zum Sichtbarmachen von Objekten oder um nicht von der Betrachtung abhängig zu sein. Zum Beispiel kann der Benutzer in einem Dualmodus PROGA (Programm A) vom linken Fenster und PROGB vom rechten Fenster aus betrachten. Beide Programme befinden sich in der einzelnen Datenbank, wobei jedoch nur eines in jedem Fenster sichtbar ist.
  • In 2 ist ein Bild 24 gezeigt, das durch die Programmiergeräte 10 und 10a auf dem Display 16 erzeugt wird. Das Bild 24 weist einen mittleren Bereich 24a voller Breite auf, der eine 3D-Darstellung eines Roboters 26 zeigt, der durch die Steuereinheit 12 von 1 mit dem Programmiergerät verbunden ist. Das Bild 24 besitzt eine Vielzahl von Softtasten 24c, die entlang einer unteren Kante angeordnet sind und durch die Sensorbildschirmfunktionen des Programmiergerätes aktiviert werden. Als Beispiel sind die Softtasten [SCENES], SELECT, ZOOM, PAN und ROTATE dargestellt. Der Roboter 26 umfasst einen Arm 28, der um sechs Achsen 31 bis 36 rotieren kann. Als Hilfe bei solchen Aufgaben wie Training, Diagnose, Geräteeinstellung und Aufbereitung erzeugen die Programmiergeräte 10 und 10a Darstellungen 30a bis 30f der Bewegung des Arms 28 jeweils um die Achsen 31 bis 36. Jede der Darstellungen 30a bis 30f veranschaulicht die Bewegung eines zugehörigen Teils des Roboters 26 in einer Ebene quer zu der dazugehörigen Rotationsachse und kann einen Pfeil zur Anzeige einer Bewegungsrichtung enthalten.
  • Ein 3D-Motiv besteht aus einem Betrachterstandpunkt und einer Anordnung von sichtbaren Einzelheiten. Motive sind auf drei unterschiedlichen Niveaus aufgebaut:
    • 1. Voreingestellte Motive weisen logische Kombinationen von Einzelheiten auf.
    • 2. Benutzermotive werden durch die Anwendung erzeugt. Zum Beispiel kann eine Greifanwendung in Abhängigkeit von dem Motiv benachbarte Roboter oder die gesamte Bearbeitungsstation darstellen.
    • 3. Der Benutzer kann nach dem Einstellen von Sichtweiten und eines Betrachterstandpunktes ein Motiv aufzeichnen und anschließend einen Namen an dieses Motiv anfügen.
  • Typisch ist, dass ein Benutzer die Ansicht einstellen wird, wenn er/sie innerhalb des Motivs arbeitet. Die Ansicht ist dem Motiv zugeordnet und wird immer dann genutzt, wenn das Motiv abgebildet wird. Obwohl der Benutzer kein Motiv von einer anderen Ansicht aufzeichnet, wird so immer die eingestellte Ansicht verwendet und diese Ansicht mit dem Motiv gespeichert. Ein Motivmenü kann ein Aufforderungskästchen sein, das Optionen zum Aufzeichnen, Voreinstellen und Löschen von Motiven enthält. Das Motivmenü kann durch Betätigen der in 2 gezeigten [SCENES] Softtaste 24b angezeigt werden. Als Alternative zu dem Aufforderungskästchen ist der Benutzer in der Lage, das Motiv auf der Basis einer Miniaturansicht der angezeigten 3D-Grafik auszuwählen.
  • System und Verfahren der vorliegenden Erfindung stellen eine Einrichtung zur Anzeige einer Darstellung von dreidimensionalen Daten einer Bearbeitungsstation auf einem tragbaren Roboter-Programmiergerät bereit. Folglich können die dreidimensionalen Bearbeitungsstationsdaten von jedem Benutzer des Programmiergerätes verwendet werden. Deshalb kann ein Benutzer Zugriff auf zuverlässige dreidimensionale Darstellungen als eine Hilfe zur Lehre und Wartung eines Roboters haben.
  • Verfahren und Gerät nach der vorliegenden Erfindung stellen die verschiedenen Merkmale und Vorteile bereit wie sie im Folgenden beschrieben werden. Wie es im Abschnitt [0008] und dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a eine TCP Ablaufverfolgung (Werkzeugarbeitspunkt) als Weg des Roboters durch ein Programm in 3D.
  • Wie es im Abschnitt [0009] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung eines Positionsregisters, die auf der Basis des Wertes einer Programmdarstellung oder Nicht-Programm-Darstellung der Roboterposition innerhalb der Software angezeigt wird.
  • Wie es im Abschnitt [0010] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung einer Tippanzeige in grafischer Form der Richtung, die der Roboter nehmen wird, wenn er mittels Tipptasten des Programmiergerätes oder eines anderen Geräts der Benutzerschnittstelle bewegt wird. Dieses Bild entspricht dem Bild 24, das oben beschrieben ist.
  • Wie es im Abschnitt [0011] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung einer Alarmanzeige, um das Auftreten von Ereignissen beim Betrieb des Roboters relativ zur Position des Roboters im Raum grafisch darzustellen.
  • Wie es im Abschnitt [0012] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a die Visualisierung eines Beeinflussungsbildes des gesamten Raumes, der von einem Roboter während der Ausführung von mindestens einem Teil eines auf der Steuereinheit 12 residenten Programms eingenommen wird. Der gesamte Raum wird durch den Raum bestimmt, der während einer Ausführung aller auf der Steuereinheit residenten Programme eingenommen wird. Das Anzeigeverfahren umfasst die Visualisierung von mehreren Robotern. Die Visualisierung wird für den Schnitt der gesamten eingenommenen Räume zur Verfügung gestellt. Farbe und Transparenz werden genutzt, um verschiedene Visualisierungselemente voneinander abzugrenzen. Die Visualisierung von Räumen umfasst Flächen, die Grenzen einer erlaubten Roboterbewegung darstellen. Die Grenzen erlauben den Zugang von nur einem Roboter der mehreren Roboter. Farbe und Transparenz werden genutzt, um den Roboter zu identifizieren, der erlaubten Zugang hat.
  • Wie es im Abschnitt [0013] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a das Visualisierungsbild Schweißverfahren, das Prozessdaten grafisch darstellt und die Prozessdaten auf die grafische Darstellung des Roboters bezieht. Verfahren und Vorrichtung nach der Erfindung wählen Daten über die grafische Darstellung des Roboters aus und beziehen sie auf die grafische Darstellung der Daten. Verfahren und Vorrichtung wählen außerdem Daten über die grafische Darstellung der Daten aus und beziehen sie auf die grafische Darstellung des Roboters.
  • Wie es im Abschnitt [0014] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a eine grafische Anzeige von Prozessbedingungen über eine TCP Ablaufverfolgung. Das erfindungsgemäße Verfahren zeichnet Prozessinformationen in Verbindung mit der TCP Ablaufverfolgung des Roboterprogramms auf.
  • Wie es im Abschnitt [0015] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a das Visualisierungsbild einer Verlaufsgrenze. Das erfindungsgemäße Verfahren stellt grafisch den unsichtbaren Bereich dar, der den Parametern eines Bereichs zur Einschränkung oder Begrenzung der Bewegung eines Roboters während einer Roboteroperation zugeordnet ist und/oder die Warteschlange eines Bilderkennungssystems, die Grenzen bearbeitet.
  • Verfahren und Vorrichtung nach der Erfindung nutzen die Ansicht der Sucherkamera und Daten der mitlaufenden Kamera in Verbindung mit der 3D-Welt. Das Verfahren zeigt den Betrachtungspunkt einer Kamera in dem 3D-Modell einer Bearbeitungsstation mit Anzeige von Bildern von Informationen einer mitlaufenden oder zuvor bestimmten Kamera. Siehe ersten Bereich 22a in 1.
  • Verfahren und Vorrichtung nach der Erfindung ziehen Merkmale in der grafischen Darstellung auf Menüs innerhalb des Gesamtsystems. Zum Beispiel nimmt bei einer Schweißanwendung das Programmiergerät den Benutzer, wenn er den Schweißbrenner auswählt, zu einer Seite für Lichtbogenvoreinstellung. Das Verfahren nutzt Merkmale innerhalb der grafischen Darstellung des Roboters/Roboterbearbeitungsstation, um die Anzeige in ein Menü oder eine Auswahlseite auf den Roboterprogrammiergeräten 10 und 10a zu ändern.
  • Verfahren und Vorrichtung nach der Erfindung koordinieren 3D-Positionsdaten zu einer grafischen Darstellung von Prozessdaten und Informationen des Roboterprogramms, um sie nicht angeschlossen oder auf einem anderen Roboter abzuspielen. Das Verfahren umfasst das Ziehen einer 3D-Darstellung der Roboterposition in ein Schaubild von Sekundärinformationen. Das Verfahren sammelt eine Folge der Roboterpositionen und Sekundärinformationen und gibt den Verlauf der Informationen auf dem Display 16 des Programmierhandgerätes 10 und 10a oder einem zweiten Anzeigegerät wieder.
  • In den Programmiergeräten 10 und 10a ist „Berühren und Halten” oder „Doppelklick” für eine wechselseitige Funktionsbedienung vorgesehen. Der Benutzer berührt eine angezeigte Anweisung, um ein Bild oder Modell der Prozessausstattung hochzufahren, das zeigt, wo der Wert eingestellt wird und worauf es sich innerhalb des Prozesses bezieht. Das Verfahren sieht außerdem das Auswählen einer wechselseitigen Funktion vor, indem auf die interessierende 3D-Informationseinheit gedrückt und diese gehalten wird, oder durch Doppelklicken auf die interessierende Informationseinheit auf dem Display des Programmiergerätes.
  • Verfahren und Vorrichtung nach der Erfindung nutzen ein grafisches Verfahren zur visuellen Auswahl der in der Robotersteuereinheit 12 gespeicherten Programme oder angeschlossener Speichergeräte und zur Vorschau der Nullstellungsbildvorlage, was eine leichte Auswahl aus der grafischen Umgebung zulässt. Das Verfahren zeigt die grafische Darstellung der in einem Roboterprogramm enthaltenen Positionen zur Unterstützung bei der Auswahl des Programms zur Ausführung durch den Roboter.
  • Die Programmiergeräte 10 und 10a stellen eine rechnerunabhängig arbeitende Grafikentwicklung zur Erzeugung und Verwendung von Bearbeitungsstationsinformationen einer unabhängigen Robotersimulation in der grafischen 3D-Umgebung bereit. Das Verfahren erzeugt die grafischen Bearbeitungsstationsinformationen zur Anzeige auf dem Programmiergerät 10 und 10a und für eine Übertragung dieser Daten an den Roboter.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit einer Modellierung von Gegenständen innerhalb der 3D-Welt auf den Programmiergeräten 10 und 10a. Das Verfahren baut Bearbeitungsstationskomponenten zur Anzeige innerhalb der Struktur der grafischen Darstellung auf.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit einer Simulation des Grafikmodells der Bearbeitungsstation und das Ziehen einer Visualisierung auf physikalische Informationseinheiten (wie ein I/O-Punkt). Dieses Verfahren stellt auf aktuelle Ereignisse gezogene Ereignisse zu Änderungen in der auf den Programmierhandgeräten 10 und 10a oder anderen Anzeigegeräten angezeigten grafischen Darstellung dar.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit einer rechnerunabhängig arbeitenden Struktur der Maschine, die auf den Betrieb des Roboterprogramms gezogen ist (I/O-Punkt ändert die Ansicht der modellierten Komponenten). Das Verfahren kann die grafische Darstellung auf einem anderen Gerät als dem Roboter entwickeln.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, die Fortbewegung eines Teils durch die Modellierumgebung auf dem zum aktuellen Arbeitsgang der Bearbeitungsstation gezogenen Programmiergerät darzustellen und rechnerunabhängig arbeitend oder rechnerabhängig arbeitend einzurichten, um sich der physikalischen Bearbeitungsstation anzupassen. Das Verfahren zeigt eine Bewegung von Elementen einer auf Bewegung oder Änderungen innerhalb des Roboters auf den Programmierhandgeräten 10 und 10a gezogenen grafischen Darstellung.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, den Arbeitsgang des Prozesses darzustellen, der auf den physikalischen Prozess auf dem Roboter gezogen wird (Beispiel: den Lichtbogenzündfunken zeigen, wenn der Roboter schweißt). Das Verfahren wählt ein 3D-Element und zeigt eine entsprechende 2D-Informationseinheit wie beispielsweise ein Textelement an oder stellt dieses dar.
  • Wie es im Abschnitt [0027] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, zeigen die Programmiergeräte 10 und 10a eine Nullstellungsbildvorlage. Das Verfahren erzeugt eine grafische Darstellung des programmierten oder aktuellen Pfades des Roboters oder Roboterprogramms auf dem Programmiergerät des Roboters.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine 2D-Informationseinheit wie beispielsweise ein Textelement auszuwählen oder ein entsprechendes 3D-Element auf den Programmiergeräten 10 und 10a anzuzeigen oder darzustellen.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, den Betrachtungspunkt des Benutzers auszuwählen oder zu manipulieren, oder der 3D-Renderung.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, Menüs oder andere Robotertextdaten wie Programme in einem halb durchlässigen Fenster mit den unten sichtbaren 3D-Elementen darzustellen. Das Verfahren und die Vorrichtung nach der Erfindung schaffen die Fähigkeit, die Transparenz von Text über jede der Eingabeeinrichtungen von unsichtbar auf dunkel zu manipulieren, wenn die 3D-Renderung den Hintergrund für den Text bewirkt. Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine Einflussnahme auf das Menü von einem halb durchlässigen Kobold, der über eine 3D-Renderung gelegt ist, zu wählen, um auf dem 3D-Bild eine 2D-Menüüberlagerung zu bewirken.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine Gruppe von 3D-Elementen auszuwählen und die entsprechenden 2D-Informationseinheiten wie Programmpunkte anzuzeigen oder darzustellen. Das Verfahren und die Vorrichtung nach der Erfindung schaffen die Fähigkeit, eine Gruppe von 2D-Informationseinheiten wie beispielsweise Programmpunkte auszuwählen und die entsprechenden 3D-Elemente anzuzeigen oder darzustellen.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, gleichzeitig mehrere Ansichten der 3D-Welt auf dem Lehrgerät darzustellen. Dies könnte ein geteilter Bildschirm oder Bild-in-Bild sein.
  • Wie es im Abschnitt [0036] und in dem dazugehörigen Anzeigebild der vorläufigen '675 erläutert ist, schaffen die Programmiergeräte 10 und 10a die Fähigkeit, eine grafische Anzeige roboterabhängiger Daten über eine TCP Ablaufverfolgung darzustellen. Das erfindungsgemäße Verfahren zeichnet roboterabhängige Daten wie Informationen von Geschwindigkeit und Beschleunigung in Verbindung mit der TCP Ablaufverfolgung des Roboterprogramms auf.
  • Verfahren und Vorrichtung nach der Erfindung schaffen die Fähigkeit, jedem Auge des Benutzers unterschiedliche Bilder oder jedem Auge das gleiche Bild zu bieten. Das Verfahren bietet jedem Auge unterschiedliche Bilder zur „wahren” 3D-Ansicht wie ein 3D-Film. Wenn das Verfahren beiden Augen das gleiche Bild bietet, ist dies eine 3D-Renderung wie in einem herkömmlichen CAD/CAM Bild.
  • Das erfindungsgemäße Verfahren zur Anzeige von dreidimensionalen Bearbeitungsstationsdaten (z. B. eine 3D-Renderung von Bearbeitungsstationsdaten) umfasst den Schritt, bei dem die Bearbeitungsstationsdaten zur Verfügung gestellt werden. Wie es im Ablaufdiagramm von 3 gezeigt wird, werden Modelle einer Maschine (z. B. ein Roboter) und dazugehörige Komponenten zum Download von der Robotersteuereinheit verfügbar gemacht, indem in einem ersten Schritt 40 ein Kommunikationsprotokoll für das tragbare Anzeigegerät (Programmiergeräte 10 und 10a) verwendet wird. In einem zweiten Schritt 42 wird das Anzeigegerät bereitgestellt und in Datenkommunikation mit der Datenquelle gebracht. In einem dritten Schritt 44 werden die Bearbeitungsstationsdaten zu dem Anzeigegerät kommuniziert. In einem vierten Schritt 46 bietet das Anzeigegerät eine visuelle Darstellung (d. h. visuelle Ausgabe) der Bearbeitungsstationsdaten. Als nicht einschränkendes Beispiel erlaubt das Anzeigegerät einem Benutzer, eine Bewegung der Maschine grafisch vorher anzusehen, indem die Einrichtung zum Manipulieren zugeschaltet wird (z. B. Drücken einer Bewegungstaste), wobei das Anzeigegerät die Bewegung grafisch darstellt, bevor sich der Mechanismus tatsächlich bewegt. Als ein weiteres, nicht einschränkendes Beispiel kann die auf dem Anzeigegerät gebotene visuelle Ausgabe konfiguriert werden, um ein Kollisionsobjekt (z. B. Sicherheitswand) anzuzeigen und um eine Kollision des physikalischen Roboters mit dem Kollisionsobjekt zu projizieren, bevor eine Bewegung ausgeführt wird.
  • In einem fünften Schritt 48 wird die durch das Anzeigegerät gebotene visuelle Ausgabe manipuliert. In bestimmten Ausführungsformen kann ein Benutzer visuelle Punkte singulär oder als Gruppe auswählen, wobei die visuellen Punkte auf eine programmierte Reihenfolge bezogen werden können. Als nicht einschränkendes Beispiel kann der Benutzer die visuellen Punkte in einem dreidimensionalen Raum bewegen und konfigurieren. Als ein weiteres, nicht einschränkendes Beispiel kann der Benutzer eine spezielle Ansicht drehen, zoomen, kippen und schwenken. Es wird verständlich, dass der Benutzer die visuelle Ausgabe in jeder beliebigen Art und Weise manipulieren kann, die durch die zugrunde liegende Software verfügbar ist.
  • Durch eine Harttaste des Anzeigegerätes kann ein schneller Zugriff auf grafische Funktionen zur Verfügung gestellt werden. Zum Beispiel kann durch eine „Umschalt”-Funktion Zugriff auf viele grafische Funktionen bewirkt werden. Wenn diese Grafiktaste in Kombination mit einer für die zugeordnete Textfunktion vorgesehene Harttaste gedrückt wird, ist die entsprechende grafische Darstellung unmittelbar sichtbar. Außerdem sind auf der Anzeige erzeugte Softtasten verfügbar.
  • 4 ist das schematische Blockdiagramm eines Systems zur Anzeige von 3D-Daten einer Bearbeitungsstation nach einer Ausführungsform der Erfindung. Das Programmiergerät 10 (und das Programmiergerät 10a) enthält zumindest einen Eingabe-/Ausgabekanal 50 zur Kommunikation mit der Steuereinheit 12 oder jeder anderen Quelle dreidimensionaler Bearbeitungsstationsdaten. Der Eingabe-/Ausgabekanal 50 ist mit einem Prozessor 52 verbunden, auf dem ein die oben beschriebenen Funktionen des Programmiergerätes bewirkendes Softwarebetriebsprogramm läuft. Der Prozessor 52 ist an eine Datenspeichervorrichtung 54 angeschlossen, die das Betriebsprogramm und die empfangenen Bearbeitungsstationsdaten speichert. Der Prozessor 52 ist mit der Anzeige 16 zur Erzeugung einer Visualisierung der 3D-Bilder und darauf bezogener Informationen und zum Empfang von Signalen von den in 2 gezeigten Softtasten 24b verbunden.
  • In Übereinstimmung mit den Bestimmungen der Patentgesetze wurde die vorliegende Erfindung dahingehend beschrieben, was zum Darstellen ihrer bevorzugten Ausführungsform in Betracht gezogen wird. Es soll jedoch angemerkt werden, dass die Erfindung anderweitig als speziell dargestellt und beschrieben ausgeführt werden kann, ohne von ihrem Geist oder Umfang abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 5937143 [0003]
    • US 2005/0285854 [0003]
    • US 2007/0167702 [0003]
    • US 6167328 [0003]
    • US 2009/0204257 [0003]

Claims (19)

  1. Verfahren zur Anzeige von dreidimensionalen Bearbeitungsstationsdaten mit den Schritten: Bereitstellen von das Modell einer Maschine und dazugehörige Komponenten in einer Bearbeitungsstation darstellenden 3D-Bearbeitungsstationsdaten aus einer Datenquelle; Bereitstellen eines tragbaren Anzeigegerätes und Anordnen des Anzeigegeräts in Datenkommunikation mit der Datenquelle; Ausgeben der Bearbeitungsstationsdaten von der Datenquelle zu dem Anzeigegerät; Erzeugen einer visuellen 3D-Darstellung der Bearbeitungsstationsdaten auf dem Anzeigegerät; und Bedienen des Anzeigegerätes zum Manipulieren der visuellen Darstellung.
  2. Verfahren nach Anspruch 1, bei dem die Maschine ein Roboter ist und das Anzeigen der visuellen Darstellung einer Position des Roboters einbezogen ist, die auf einem Wert einer Programm- oder Nichtprogramm-Darstellung einer Roboterposition innerhalb eines Softwareprogramms zur Steuerung des Roboters basiert.
  3. Verfahren nach Anspruch 2, bei dem das Anzeigegerät Tipptasten aufweist und das Anzeigen einer Richtung des Roboters, die er einnehmen wird, wenn er als Reaktion auf eine Betätigung der Tipptasten bewegt wird, einbezogen ist.
  4. Verfahren nach Anspruch 2, bei dem die visuelle Darstellung einen von dem Roboter eingenommenen Gesamtraum während einer Ausführung von zumindest einem Teil des Softwareprogramms einschließt.
  5. Verfahren nach Anspruch 2, umfassend das Aufzeichnen von Prozessinformationen in Verbindung mit einer TCP Ablaufverfolgung des Softwareprogramms.
  6. Verfahren nach Anspruch 2, umfassend das Speichern von Daten aus einer Folge der Roboterpositionen und dazugehörigen Sekundärinformationen und das Wiedergeben einer Fortbewegung der Roboterpositionen mit den dazugehörigen Sekundärinformationen als visuelle Darstellung.
  7. Verfahren nach Anspruch 1, umfassend das Ausführen der Schritte für zumindest eine andere Maschine in der Bearbeitungsstation.
  8. Verfahren nach Anspruch 7, bei dem die visuelle Darstellung für jede Maschine einen Gesamtraum einschließt, der von der Maschine während einer Ausführung von zumindest einem Teil eines Softwareprogramms eingenommen wird, das eine Bewegung der Maschine steuert und die visuelle Darstellung eines beliebigen Schnittes der Gesamträume umfasst.
  9. Verfahren nach Anspruch 1, umfassend die Verwendung von Farbe und Transparenz, um verschiedene Elemente in der visuellen Darstellung voneinander zu unterscheiden.
  10. Verfahren nach Anspruch 1, umfassend die Bereitstellung von Prozessdaten, die auf einen Betrieb der Maschine in der visuellen Darstellung bezogen sind, und das Beziehen der Prozessdaten auf die Maschine.
  11. Verfahren nach Anspruch 1, umfassend das Einbeziehen eine Bereiches in die visuelle Darstellung, der für einen Benutzer des tragbaren Anzeigegeräts nicht sichtbar ist, um eine Bewegung der Maschine während eines Arbeitsgangs der Maschine einzuschränken oder zu begrenzen.
  12. Verfahren nach Anspruch 1, umfassend das Einbeziehen von Videodaten in die visuelle Darstellung von einem Betrachtungspunkt einer Kamera in der Bearbeitungsstation.
  13. Verfahren nach Anspruch 1, umfassend das Darstellen einer Bewegung von Elementen der Maschine in der visuellen Darstellung. 14. Verfahren nach Anspruch 1, umfassend das Auswählen eines 3D-Elements der visuellen Anzeige und das automatische Anzeigen oder Darstellen einer entsprechenden 2D-Informationseinheit auf dem Anzeigegerät.
  14. Verfahrenanspruch 1, umfassend das Ändern der visuellen Darstellung, um unterschiedliche Betrachtungspunkte des Benutzers zu bewirken.
  15. Verfahren nach Anspruch 1, umfassend das Bedienen des Anzeigegerätes, um Menüdaten und/oder Robotertextdaten in einem halbdurchlässigen Fenster mit 3D-Elementen, die unten sichtbar sind, darzustellen, und das Manipulieren der Transparenz von unsichtbar auf dunkel.
  16. Verfahren nach Anspruch 1, umfassend das Anzeigen mehrerer 3D-Ansichten in der visuellen Darstellung als einen geteilten Bildschirm oder Bild-in-Bild.
  17. Verfahren nach Anspruch 1, umfassend das Geben der visuellen Darstellung als getrennte Bilder für jedes Auge eines Benutzers, wobei die getrennten Bilder für einen 3D-Filmeffekt unterschiedlich oder die gleichen sind.
  18. Tragbares Programmiergerät zur Kommunikation mit einer Robotersteuereinheit, umfassend: ein Display mit einer Auflösung, die hoch genug ist, um grafische 3D-Bilder darzustellen; einen Eingabe-/Ausgabekanal zum Empfang von 3D-Bearbeitungsstationsdaten aus einer Datenquelle, die das Modell eines Roboters und dazugehörige Komponenten in einer Bearbeitungsstation darstellen; eine Datenspeichervorrichtung zum Speichern der 3D-Daten der Bearbeitungsstation und ein Programmiergerät-Betriebsprogramm; und einen Prozessor, der mit dem Display, dem Eingabe-/Ausgabekanal und der Datenspeichervorrichtung verbunden ist, damit das Betriebsprogramm läuft, um eine visuelle 3D-Darstellung der 3D-Bearbeitungsstationsdaten auf dem Display zu erzeugen, und der auf eine Benutzereingabe anspricht, um die visuelle Darstellung zu manipulieren.
  19. Programmiergerät nach Anspruch 19, bei dem die Datenquelle die Robotersteuereinheit ist, die 3D-Bearbeitungsstationsdaten auf ein Roboterbetriebsprogramm bezogen sind, das durch die Steuereinheit zum Laufen gebracht wird, und eine visuelle Darstellung grafische Bilder des Roboters enthält, der sich als Reaktion auf Anweisungen in dem Roboterbetriebsprogramm bewegt.
DE102012110508.1A 2011-11-04 2012-11-02 Roboter Einstellvorrichtung mit 3-D Display Active DE102012110508B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161555675P 2011-11-04 2011-11-04
US61/555,675 2011-11-04

Publications (2)

Publication Number Publication Date
DE102012110508A1 true DE102012110508A1 (de) 2013-05-08
DE102012110508B4 DE102012110508B4 (de) 2022-05-12

Family

ID=48129060

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012110508.1A Active DE102012110508B4 (de) 2011-11-04 2012-11-02 Roboter Einstellvorrichtung mit 3-D Display

Country Status (4)

Country Link
US (1) US9415509B2 (de)
JP (1) JP6193554B2 (de)
CN (1) CN103213125B (de)
DE (1) DE102012110508B4 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2952989A1 (de) * 2014-06-03 2015-12-09 Siemens Aktiengesellschaft Verfahren zur berechnung einer optimierten trajektorie
WO2016193305A1 (de) * 2015-06-03 2016-12-08 Siemens Aktiengesellschaft Verfahren zur berechnung einer optimierten trajektorie
DE102015115229B4 (de) * 2014-09-11 2017-03-23 Denso Corporation Positionierungssteuergerät
DE102015000587B4 (de) 2014-01-24 2018-09-27 Fanuc Corporation Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102019001252A1 (de) 2018-03-08 2019-09-12 Sew-Eurodrive Gmbh & Co Kg Verfahren zum Betreiben eines Systems und System zur Durchführung des Verfahrens
DE102018113336A1 (de) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
DE202018105721U1 (de) * 2018-10-05 2020-01-20 Fruitcore Gmbh Roboter mit Antriebselement auf der Hauptwelle und Bedienvorrichtung für einen Roboter
US10543599B2 (en) 2015-12-10 2020-01-28 Fanuc Corporation Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
DE102019103349B3 (de) 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
DE102018002732B4 (de) 2017-04-10 2022-04-28 Fanuc Corporation Robotersystem, Verarbeitungsvorrichtung und Programmierhandgerät mit einer Funktion zum Anzeigen einer äußeren Kraft
US11458618B2 (en) 2018-08-03 2022-10-04 Fanuc Corporation Collaborative operation support device
DE102022202564A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Prüfen einer Sicherheitskonfiguration eines Roboters

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007039785A1 (en) * 2005-10-06 2007-04-12 Abb As Control system and teach pendant for an industrial robot
JP2013066365A (ja) * 2011-08-29 2013-04-11 Sharp Corp 車両駆動装置、車両充電システム、及び自動車
DE102012103031A1 (de) * 2012-04-05 2013-10-10 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
DE102012103032B3 (de) * 2012-04-05 2013-07-04 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
EP2875914A1 (de) * 2012-07-20 2015-05-27 Kabushiki Kaisha Yaskawa Denki Robotersimulator roboterlehrvorrichtung und roboterlehrverfahren
US10888998B2 (en) 2013-10-07 2021-01-12 Abb Schweiz Ag Method and device for verifying one or more safety volumes for a movable mechanical unit
CN104635651A (zh) * 2013-11-13 2015-05-20 沈阳新松机器人自动化股份有限公司 一种多功能编程示教盒
US20150331415A1 (en) * 2014-05-16 2015-11-19 Microsoft Corporation Robotic task demonstration interface
US9737990B2 (en) 2014-05-16 2017-08-22 Microsoft Technology Licensing, Llc Program synthesis for robotic tasks
JP6350037B2 (ja) * 2014-06-30 2018-07-04 株式会社安川電機 ロボットシミュレータおよびロボットシミュレータのファイル生成方法
JP5911933B2 (ja) * 2014-09-16 2016-04-27 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム
DE102014118001A1 (de) * 2014-12-05 2016-06-09 Broetje-Automation Gmbh Verfahren zur Bewegungssimulation eines Manipulators
EP3045990B1 (de) * 2015-01-16 2022-10-05 Siemens Aktiengesellschaft Remote-Anzeige von Daten mit situationabhängiger Darstellungsänderung
JP6676286B2 (ja) * 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
US9724826B1 (en) 2015-05-28 2017-08-08 X Development Llc Selecting physical arrangements for objects to be acted upon by a robot
US9682476B1 (en) 2015-05-28 2017-06-20 X Development Llc Selecting robot poses to account for cost
DE102015209896B3 (de) * 2015-05-29 2016-08-18 Kuka Roboter Gmbh Ermittlung der Roboterachswinkel und Auswahl eines Roboters mit Hilfe einer Kamera
JP6348141B2 (ja) * 2016-04-28 2018-06-27 ファナック株式会社 付加軸の状態が含まれる動作プログラムを表示するロボットの制御装置
CN107443389B (zh) * 2016-05-31 2019-12-31 发那科株式会社 机器人控制装置及机器人控制方法
US10571902B2 (en) * 2016-10-12 2020-02-25 Sisu Devices Llc Robotic programming and motion control
CN117717411A (zh) * 2016-11-04 2024-03-19 直观外科手术操作公司 在计算机辅助远程操作外科手术中的可重新配置的显示器
JP6514273B2 (ja) * 2017-06-19 2019-05-15 ファナック株式会社 速度を表示するロボットシステム
JP6763846B2 (ja) * 2017-11-24 2020-09-30 ファナック株式会社 ロボットの教示操作を行う教示装置および教示方法
WO2019186551A1 (en) * 2018-03-26 2019-10-03 Servotronix Automation Solutions Ltd. Augmented reality for industrial robotics
US11472035B2 (en) * 2018-06-26 2022-10-18 Fanuc America Corporation Augmented reality visualization for robotic picking system
DE112019004519T5 (de) 2018-09-10 2021-06-02 Fanuc America Corporation Null-einlernen für roboterbahnsteuerung
JP7318295B2 (ja) * 2019-04-24 2023-08-01 セイコーエプソン株式会社 表示方法
CN110480636A (zh) * 2019-08-13 2019-11-22 菏泽学院 一种基于三维视觉的机械臂控制系统
WO2021101522A1 (en) * 2019-11-19 2021-05-27 Google Llc Methods and systems for graphical user interfaces to control remotely located robots
US20220055216A1 (en) * 2020-08-20 2022-02-24 Smart Building Tech Co., Ltd. Cloud based computer-implemented system and method for grouping action items on visual programming panel in robot simulator
WO2023111630A1 (en) * 2021-12-14 2023-06-22 Siemens Industry Software Ltd. Method and system for enabling inspecting an industrial robotic simulation at a crucial virtual time interval

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937143A (en) 1995-09-18 1999-08-10 Fanuc, Ltd. Teaching pendant for a robot
US6167328A (en) 1995-09-19 2000-12-26 Kabushiki Kaisha Yaskawa Denki Robot language processing apparatus
US20050285854A1 (en) 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
US20070167702A1 (en) 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
US20090204257A1 (en) 2008-02-13 2009-08-13 Landsnes Oeyvind A System And Method For Visualization Of Process Errors

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6243706A (ja) * 1985-08-21 1987-02-25 Hitachi Ltd ロボツトにおける干渉チエツク方法
JPH09146753A (ja) * 1995-11-28 1997-06-06 Hitachi Ltd マルチウインドウ表示方法およびマルチウインドウ表示装置
JP3841439B2 (ja) 1996-07-24 2006-11-01 ファナック株式会社 ロボットのジョグ送り方法
JP3901772B2 (ja) 1996-11-13 2007-04-04 三菱重工業株式会社 ロボットの教示操作方法
JP2933052B2 (ja) * 1997-03-27 1999-08-09 セイコーエプソン株式会社 マイクロロボット
JPH1177568A (ja) * 1997-09-02 1999-03-23 Nippon Telegr & Teleph Corp <Ntt> 教示支援方法及び装置
JPH11254360A (ja) * 1998-03-13 1999-09-21 Yaskawa Electric Corp ロボットのシミュレーション装置
JP2000135689A (ja) * 1998-10-30 2000-05-16 Fanuc Ltd ロボット用画像処理装置
JP4392082B2 (ja) * 1999-08-06 2009-12-24 ヒューレット・パッカード・カンパニー 彫版風ハーフトーン画像生成方法・装置
DE10127396A1 (de) 2000-06-13 2001-12-20 Volkswagen Ag Verfahren zum Verwerten eines Altfahrzeugs
JP2003114706A (ja) * 2001-10-05 2003-04-18 Matsuura Tekkosho:Kk 多関節汎用ロボットモデルの表示システム
JP2003117863A (ja) * 2001-10-16 2003-04-23 Fanuc Ltd ロボットシミュレーション装置
JP3673749B2 (ja) * 2001-11-12 2005-07-20 ファナック株式会社 シミュレーション装置
ITTO20020862A1 (it) * 2002-10-04 2004-04-05 Comau Spa Sistema di programmazione per robot o simili apparati
AU2003221083A1 (en) * 2003-03-25 2004-10-18 Rorze Corporation Robot simulation device, and robot simulation program
EP1722287A1 (de) * 2004-03-04 2006-11-15 NEC Corporation Datenaktualisierungssystem, datenaktualisierungsverfahren, datenaktualisierungsprogramm und robotersystem
US7346478B2 (en) * 2004-09-21 2008-03-18 Ford Motor Company Method of embedding tooling control data within mechanical fixture design to enable programmable logic control verification simulation
JP4744847B2 (ja) * 2004-11-02 2011-08-10 株式会社安川電機 ロボット制御装置およびロボットシステム
US7643907B2 (en) * 2005-02-10 2010-01-05 Abb Research Ltd. Method and apparatus for developing a metadata-infused software program for controlling a robot
US7777761B2 (en) 2005-02-11 2010-08-17 Deltasphere, Inc. Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP4347313B2 (ja) 2006-02-23 2009-10-21 ファナック株式会社 ロボット教示操作盤
DK1996376T3 (en) 2006-03-03 2016-08-29 Universal Robots As Programmable robot and user interface
JP4302160B2 (ja) * 2007-09-12 2009-07-22 ファナック株式会社 ロボットによるパレタイジング作業のためのロボットプログラミング装置
CN102119072B (zh) 2008-06-09 2013-09-11 Abb技术有限公司 有助于对离线编程机器人单元进行校准的方法和系统
JP5113666B2 (ja) * 2008-08-11 2013-01-09 ファナック株式会社 ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP5365443B2 (ja) * 2009-09-17 2013-12-11 富士通株式会社 シミュレーション装置,シミュレーション方法およびシミュレーションプログラム
CN102448681B (zh) 2009-12-28 2014-09-10 松下电器产业株式会社 动作空间提示装置、动作空间提示方法以及程序
JP4850956B2 (ja) * 2010-02-19 2012-01-11 ファナック株式会社 学習制御機能を備えたロボット
JP5526881B2 (ja) 2010-03-12 2014-06-18 株式会社デンソーウェーブ ロボットシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937143A (en) 1995-09-18 1999-08-10 Fanuc, Ltd. Teaching pendant for a robot
US6167328A (en) 1995-09-19 2000-12-26 Kabushiki Kaisha Yaskawa Denki Robot language processing apparatus
US20050285854A1 (en) 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
US20070167702A1 (en) 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
US20090204257A1 (en) 2008-02-13 2009-08-13 Landsnes Oeyvind A System And Method For Visualization Of Process Errors

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015000587B4 (de) 2014-01-24 2018-09-27 Fanuc Corporation Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
EP2952989A1 (de) * 2014-06-03 2015-12-09 Siemens Aktiengesellschaft Verfahren zur berechnung einer optimierten trajektorie
DE102015115229B4 (de) * 2014-09-11 2017-03-23 Denso Corporation Positionierungssteuergerät
WO2016193305A1 (de) * 2015-06-03 2016-12-08 Siemens Aktiengesellschaft Verfahren zur berechnung einer optimierten trajektorie
US10551820B2 (en) 2015-06-03 2020-02-04 Siemens Aktiengesellschaft Method for calculating an optimized trajectory
US10543599B2 (en) 2015-12-10 2020-01-28 Fanuc Corporation Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
US11345042B2 (en) 2015-12-10 2022-05-31 Fanuc Corporation Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
DE102016123945B4 (de) 2015-12-10 2022-03-03 Fanuc Corporation Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem Videobild eines Roboters anzeigt, ausgestattetes Robotersystem
DE102018002732B4 (de) 2017-04-10 2022-04-28 Fanuc Corporation Robotersystem, Verarbeitungsvorrichtung und Programmierhandgerät mit einer Funktion zum Anzeigen einer äußeren Kraft
DE102019001252A1 (de) 2018-03-08 2019-09-12 Sew-Eurodrive Gmbh & Co Kg Verfahren zum Betreiben eines Systems und System zur Durchführung des Verfahrens
EP3578321A1 (de) * 2018-06-05 2019-12-11 Gestalt Robotics GmbH Verfahren zum verwenden mit einer maschine zum erstellen einer erweiterte-realität-anzeigeumgebung
DE102018113336A1 (de) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
US11458618B2 (en) 2018-08-03 2022-10-04 Fanuc Corporation Collaborative operation support device
DE102019005297B4 (de) 2018-08-03 2022-10-13 Fanuc Corporation Unterstützungsvorrichtung für einen kooperativen Vorgang
DE202018105721U1 (de) * 2018-10-05 2020-01-20 Fruitcore Gmbh Roboter mit Antriebselement auf der Hauptwelle und Bedienvorrichtung für einen Roboter
DE102019103349B3 (de) 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
DE102022202564A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Prüfen einer Sicherheitskonfiguration eines Roboters

Also Published As

Publication number Publication date
JP2013094961A (ja) 2013-05-20
CN103213125B (zh) 2016-05-18
US20130116828A1 (en) 2013-05-09
US9415509B2 (en) 2016-08-16
JP6193554B2 (ja) 2017-09-06
DE102012110508B4 (de) 2022-05-12
CN103213125A (zh) 2013-07-24

Similar Documents

Publication Publication Date Title
DE102012110508B4 (de) Roboter Einstellvorrichtung mit 3-D Display
DE102018109463B3 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
DE102019002898B4 (de) Robotersimulationsvorrichtung
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
DE102015015503B4 (de) Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist
DE112014002389B4 (de) Bearbeitungsumgebung für ein Programm für ein maschinelles Bilderkennungssystem, enthaltend ein betriebskontextbewusstes Kopier-und Einfüge-Merkmal
DE102016113060A1 (de) Verfahren zum Steuern eines Objekts
DE4290947B4 (de) Interaktives videogestütztes Bedienungsverfahren und -vorrichtung
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE60202043T2 (de) Simulationsvorrichtung
DE69725346T2 (de) Gerät und verfahren zur erzeugung eines blechbiegemodells
DE102011117476B4 (de) System, Verfahren und Gerät zur Darstellung von dreidimensionalen Daten von Roboter-Arbeitszellen
EP3098034B1 (de) Auswahl eines gerätes oder eines objektes mit hilfe einer kamera
Tani et al. Object-oriented video: interaction with real-world objects through live video
DE4127809A1 (de) Verfahren und einrichtung zum anzeigen eines arbeitsablaufs
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
WO2008141596A1 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
DE102014219831A1 (de) Anzeigevorrichtung
DE112021003127T5 (de) Programmiervorrichtung
WO2013164208A1 (de) Verfahren zur ausführung beim betreiben eines mikroskops und mikroskop
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
DE102004061841B4 (de) Markerloses Tracking System für Augmented Reality Anwendungen
EP1665023A2 (de) Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen
DE102018118422A1 (de) Verfahren und system zur darstellung von daten von einer videokamera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final