DE102017211641A1 - Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung - Google Patents

Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung Download PDF

Info

Publication number
DE102017211641A1
DE102017211641A1 DE102017211641.2A DE102017211641A DE102017211641A1 DE 102017211641 A1 DE102017211641 A1 DE 102017211641A1 DE 102017211641 A DE102017211641 A DE 102017211641A DE 102017211641 A1 DE102017211641 A1 DE 102017211641A1
Authority
DE
Germany
Prior art keywords
robot
center
gravity
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017211641.2A
Other languages
English (en)
Other versions
DE102017211641B4 (de
Inventor
Tomonori Arai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102017211641A1 publication Critical patent/DE102017211641A1/de
Application granted granted Critical
Publication of DE102017211641B4 publication Critical patent/DE102017211641B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M1/00Testing static or dynamic balance of machines or structures
    • G01M1/12Static balancing; Determining position of centre of gravity
    • G01M1/122Determining position of centre of gravity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39444Display of position, of shape of robot and tool
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/14Arm movement, spatial
    • Y10S901/16Cartesian, three degrees of freedom
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/48Counterbalance

Abstract

Die vorliegende Erfindung ermöglicht es einem Nutzer, die Schwerpunktposition eines Roboters einfach zu bestimmen. Die vorliegende Erfindung sieht eine Roboter-Schwerpunktanzeigevorrichtung 1 vor, die folgendes umfasst: eine Spezifikationseinstelleinheit 12, die Spezifikationen festlegt, die zumindest die Gewichte, Schwerpunktpositionen und Abmessungen von Komponenten der jeweiligen Wellen des Roboters umfasst; eine Haltungseinstelleinheit 13, die die Positionsinformationen der jeweiligen Wellen des Roboters festlegt; eine Roboter-Bilderzeugungseinheit 15, die ein dreidimensionales Modellbild des Roboters in einem Zustand erzeugt, in dem die jeweiligen Wellen an den durch die Positionsinformation angegebenen Positionen angeordnet sind, auf der Basis der eingestellten Positionsinformation der jeweiligen Wellen des Roboters und der Spezifikationen der Komponenten; eine Schwerpunktpositions-Berechnungseinheit 14, die die Schwerpunktposition des Gesamt-Roboters auf der Basis der Solipositionsinformation der jeweiligen Wellen des Roboters und der Spezifikationen der Komponenten berechnet; eine Bildkombinations-Einheit 17, die eine Anzeige, welche das Zentrum der Schwerkraft des Gesamt-Roboters zeigt, auf das dreidimensionale Modellbild überlagert, das von der Roboterbilderzeugungseinheit 15 erzeugt wurde, und zwar an der berechneten Schwerkraftposition; und eine Anzeigeeinheit 18, die das erzeugte Bild anzeigt.

Description

  • Technischer Bereich
  • Die vorliegende Erfindung betrifft eine Roboter-Schwerpunktanzeigevorrichtung, eine Roboter-Steuerungsvorrichtung und eine Roboter-Simulationseinrichtung.
  • Stand der Technik
  • Aus dem Stand der Technik ist ein Verfahren zur automatischen Berechnung des Lastgewichts am vorderen Ende eines Arms eines Knickarmroboters und dessen Schwerpunktposition ohne Verwendung eines Kraftsensors bekannt (siehe z. B. PTL 1).
  • Patentliteratur
    • PTL 1: Japanische Patentanmeldung, Publikation Nr. Hei 10-138187
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Das Verfahren in PTL 1 wird jedoch zur Berechnung des Gewichts und der Schwerpunktposition einer Last auf der Basis des durchschnittlichen Drehmoments an den jeweiligen Antriebswellen verwendet, und kann nicht zur Bestimmung der Schwerpunktposition eines Roboters verwendet werden. Wäre es möglich, die Schwerpunktposition eines Roboters beim Transport des Roboters oder bei der Konstruktion eines Robotersystems zu bestimmen, wäre dies hilfreich, da der Roboter vor dem Umfallen bewahrt werden könnte.
  • Die vorliegende Erfindung wurde im Hinblick auf die oben beschriebenen Umstände gemacht, wobei es ein Gegenstand davon ist, einen Roboter mit einer Anzeigevorrichtung für die Schwerpunktposition, eine Robotersteuerungsvorrichtung und eine Robotersimulationseinrichtung zur Verfügung zu stellen, die es dem Nutzer ermöglichen, die Schwerpunktposition des Roboters leicht zu bestimmen.
  • Lösung des Problems
  • Um den oben beschriebenen Gegenstand zu erreichen, schlägt die vorliegende Erfindung die folgenden Lösungen vor.
  • Ein Aspekt der vorliegenden Erfindung stellt eine Roboter-Schwerpunktanzeigevorrichtung zur Verfügung, die Folgendes umfasst: eine Spezifikationseinstelleinheit, die die Spezifikationen einstellt, die zumindest die Gewichte, Schwerpunktpositionen und Abmessungen von Komponenten der jeweiligen Wellen eines Roboters umfasst; eine Haltungseinstelleinheit, die die Positionsinformationen der jeweiligen Wellen des Roboters einstellt; eine Roboter-Bilderzeugungseinheit, die ein dreidimensionales Modellbild des Roboters in einem Zustand erzeugt, in dem deren jeweilige Wellen an den durch die Positionsinformation angegebenen Positionen auf der Basis der durch die Haltungseinstelleinheit gesetzten Positionsinformation der jeweiligen Wellen des Roboters und den durch die Spezifikationseinstelleinheit gesetzten Spezifikationen der Komponenten angeordnet sind; eine Schwerpunktposition-Berechnungseinheit, die die Schwerpunktposition des Gesamtroboters auf der Basis der Positionsinformation der jeweiligen Wellen des Roboters berechnet, die durch die Haltungseinstelleinheit und die von der Haltungseinstelleinheit gesetzten Positionsinformation der jeweiligen Wellen des Roboters eingestellt worden sind; eine Bildkombinationseinheit, die eine Anzeige überlagert, die den Schwerpunkt des gesamten Roboters auf dem dreidimensionalen Modellbild, das von der Roboter-Bilderzeugungseinheit erzeugt wurde, in der von der Schwerpunktposition-Berechnungseinheit berechneten Schwerpunktposition zeigt; und eine Anzeigeeinheit, die das von der Bildkombinationseinheit erzeugte Bild anzeigt.
  • Nach diesem Gesichtspunkt erzeugt die Roboterbildgeneratoreinheit ein dreidimensionales Modellbild des Roboters in einem Zustand, in dem sich die jeweiligen Wellen des Roboters an den durch die Positionsinformation angezeigten Positionen befinden, sobald die Spezifikationseinstelleinheit die Spezifikationen einschließlich der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten des Roboters festlegt, und die Haltungseinstelleinheit die Positionsinformation der jeweiligen Wellen des Roboters festlegt. Anschließend berechnet die Schwerpunktposition-Berechnungseinheit aus den Positionsinformationen der jeweiligen Wellen des Roboters und den Spezifikationen der Bauteile die Schwerpunktposition des Gesamtroboters, wobei die Bildkombinationseinheit ein Bild erzeugt, in dem eine Anzeige des Schwerpunkts des Gesamtroboters auf das erzeugte dreidimensionale Bild des Roboters in der Schwerpunktposition überlagert wird. Anschließend wird dieses Bild auf der Anzeigeeinheit angezeigt. Mit dieser Konfiguration kann der Nutzer, unabhängig von der Körperhaltung des Roboters, die Schwerpunktposition des Roboters einfach und intuitiv durch das auf der Anzeigeeinheit dargestellte Bild bestimmen.
  • Unter dem obigen Aspekt kann die Anzeige des Schwerpunktes auch Koordinatenwerte enthalten, die die Schwerpunktposition des gesamten Roboters anzeigen.
  • Mit dieser Konfiguration kann der Nutzer durch die Anzeige der Koordinatenwerte, die die Schwerpunktposition des gesamten Roboters anzeigen, die Schwerpunktposition des Roboters besser bestimmen.
  • Darüber hinaus kann die Schwerpunktposition-Berechnungseinheit im obigen Aspekt die Schwerpunktposition der jeweiligen Komponenten berechnen, wobei die Bildkombinationseinheit Anzeigen überlagern kann, welche die Schwerpunkte der jeweiligen Komponenten auf dem dreidimensionalen Modellbild zeigt, und zwar an den Schwerpunktpositionen der jeweiligen Komponenten.
  • Mit dieser Konfiguration kann der Nutzer neben der Schwerpunktposition des Gesamtroboters auch die Schwerpunktposition der jeweiligen Komponenten einfach und intuitiv bestimmen.
  • Darüber hinaus können die Bauteile unter dem obigen Aspekt eine Last enthalten, die am vorderen Ende des Roboters angebracht ist.
  • Bei dieser Konfiguration wird die Last am vorderen Ende des Roboters als Teil der Komponenten des Roboters behandelt, so dass der Nutzer die Schwerpunktposition des gesamten Roboters einschließlich der Last leicht bestimmen kann.
  • Darüber hinaus kann die Haltungseinstelleinheit unter dem obigen Aspekt mehrere Sätze von Positionsinformationen der jeweiligen Wellen des Roboters lesen, die in einem Arbeitsprogramm des Roboters aufgezeichnet wurden, und kann die Positionsinformationen in chronologischer Reihenfolge konfigurieren.
  • Bei dieser Konfiguration erzeugt die Roboterbilderzeugungseinheit zu diesen Zeiten dreidimensionale Modellbilder des Roboters, wenn sich die jeweiligen Wellen des Roboters entsprechend dem Arbeitsprogramm des Roboters in zeitlicher Abfolge bewegen, um eine Vielzahl von Haltungen in chronologischer Reihenfolge einzunehmen, aufgrund der Haltungseinstelleinheit-Positionierungseinstellinformationen der jeweiligen Wellen zu unterschiedlichen Zeitpunkten, wobei die Schwerpunktpositions-Berechnungseinheit zu diesen Zeitpunkten die Schwerpunktpositionen des Gesamtroboters berechnet, und wobei Bilder erzeugt werden, in denen eine Anzeige des Schwerpunkts auf das dreidimensionale Modellbild überlagert wird.
  • Durch die Darstellung der so erzeugten Vielzahl von Bildern, die in chronologischer Reihenfolge von einem Bild zum anderen umgeschaltet werden, bewegt sich das dreidimensionale Modellbild des Roboters als Frame-by-Frame-Bild oder Video, wobei sich auch die Schwerpunktposition in jeder Körperhaltung mit der Bewegung des dreidimensionalen Modellbildes bewegt. Mit dieser Konfiguration kann der Nutzer während des Betriebes des Roboters einfach und intuitiv Änderungen der Schwerpunktposition feststellen.
  • Darüber hinaus kann die Positionsinformation der jeweiligen Wellen des Roboters auch den Einbaulagewinkel (Installationswinkel) des Roboters beinhalten.
  • Mit dieser Konfiguration ist es möglich, auch bei geneigter Aufstellung des Roboters, die Schwerpunktposition unter Berücksichtigung des Installationswinkels zu berechnen.
  • Unter einem weiteren Aspekt der vorliegenden Erfindung wird eine Robotersteuerungsvorrichtung bereitgestellt, die eine der oben beschriebenen Roboter-Schwerpunktanzeigevorrichtungen enthält.
  • Ein weiterer Aspekt der vorliegenden Erfindung stellt eine Robotersimulationsvorrichtung bereit, die eine der oben beschriebenen Roboterschwerpunktanzeigevorrichtungen enthält.
  • Vorteile der Erfindung
  • Die vorliegende Erfindung hat den Vorteil, dass der Nutzer eines Roboters die Schwerpunktposition des Roboters leicht bestimmen kann.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das eine Robotersteuerungsvorrichtung mit einer Roboter-Schwerpunktanzeigevorrichtung nach einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 2 ist ein Funktionsblockschaltbild mit der Schwerpunktanzeigevorrichtung in 1.
  • 3 ist eine Darstellung, welche ein Beispiel für einen Eingabebildschirm einer Haltungseinstelleinheit der Schwerpunktanzeigevorrichtung in 2 zeigt.
  • 4 ist eine Darstellung, welche ein Beispiel der Information über das Gewicht die Schwerpunktposition einer Last zeigt, die in Verbindung mit einer Lasteinstellungsnummer in 3 gespeichert ist.
  • 5 ist eine schematische Darstellung eines Roboters zur Erläuterung einer beispielhaften Schwerpunktberechnungsmethode, die von einer Schwerpunktposition-Berechnungseinheit der Schwerpunktanzeigevorrichtung in 1 verwendet wird.
  • 6 ist ein Diagramm, das ein Beispielbild zeigt, das von einer Bildkombinationseinheit der Schwerpunktanzeigevorrichtung erzeugt und auf der Anzeigeeinheit in 1 dargestellt wird.
  • 7 ist ein Diagramm, das beispielhaft die Schwerpunktposition einer Robotersimulationsvorrichtung zeigt.
  • Beschreibung der Ausführungsformen
  • Nachfolgend wird anhand der Zeichnungen eine Roboter-Schwerpunktanzeigevorrichtung 1 entsprechend einer Ausführungsform der vorliegenden Erfindung beschrieben.
  • Die Roboter-Schwerpunktanzeigevorrichtung 1 entsprechend dieser Ausführungsform ist in einer Robotersteuerungsvorrichtung 100 vorgesehen.
  • Wie in 1 gezeigt ist, enthält die Robotersteuerungsvorrichtung 100 eine CPU 2, einen an die CPU 2 angeschlossenen Bus 3 und einen ROM 4, einen RAM 5, einen nichtflüchtigen Speicher 6, eine Lernbetrieb-Panel-Schnittstelle (I/F) 7, eine Wellensteuerungsschaltung 8 und eine Schwerpunktanzeigesteuereinheit 9, die parallel mit dem Bus 3 verbunden sind.
  • An die Lernbetrieb-Panel-Schnittstelle 7 wird ein Lernbetrieb-Panel 10 angeschlossen. Das Lernbetrieb-Panel 10 hat eine Anzeigefunktion. Durch manuelles Bedienen des Lernbetrieb-Panels 10 erzeugt, korrigiert und protokolliert ein Bediener ein Bedienprogramm für den Roboter 11, stellt verschiedene Parameter ein, reproduziert ein eingelerntes Bedienprogramm, führt einen Tippvorschub durch usw.
  • Im ROM 4 ist ein Systemprogramm zur Unterstützung der Grundfunktionen des Roboters 11 und der Robotersteuerungsvorrichtung 100 gespeichert. Weiterhin sind im nichtflüchtigen Speicher 6 Betriebsprogramme für den Roboter 11 gespeichert, die entsprechend den Anwendungen und den zugehörigen Einstelldaten angelernt sind. Daten, wie z. B. Programme für verschiedene Bearbeitungen, sind ebenfalls im nichtflüchtigen Speicher 6 gespeichert.
  • Wie in 2 gezeigt ist, umfasst die Schwerpunktanzeigeeinrichtung 1 gemäß dieser Ausführungsform: eine Spezifikationseinstelleinheit 12, die die Spezifikationen einschließlich der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten der jeweiligen Wellen des Roboters 11 festlegt; eine Haltungseinstelleinheit 13, die die Positionsinformationen der jeweiligen Wellen des Roboters 11 einstellt; eine Schwerpunktposition-Berechnungseinheit 14, die die Schwerpunktposition des Gesamt-Roboters 11 berechnet; eine Roboterbilderzeugungseinheit 15, die ein dreidimensionales Modellbild des Roboters 11 erzeugt; eine Schwerpunktanzeige-Erzeugungseinheit 16, die eine Schwerpunktanzeige erzeugt; eine Einheit 17 zur Kombination von Bildern, die die Schwerpunktanzeige auf dem dreidimensionalen Modellbild überlagert; und eine Anzeigeeinheit 18 zur Darstellung des kombinierten Bildes.
  • Die Spezifikationseinstelleinheit 12 besteht aus dem in 1 gezeigten nichtflüchtigen Speicher 6. Genauer gesagt, die Spezifikationen ergeben sich aus den Daten zu Länge, Gewicht und Schwerpunktposition der jeweiligen Glieder, die als Komponenten der jeweiligen Wellen des Roboters 11 dienen und im nichtflüchtigen Speicher 6 abgelegt sind.
  • Die Haltungseinstelleinheit 13 besteht aus dem in 1 gezeigten Lernbetrieb-Panel 10. Genauer gesagt stellt die Haltungseinstelleinheit 13 die Positionsinformationen der jeweiligen Wellen ein, indem es dem Nutzer die Möglichkeit gibt, über das Lernbetrieb-Panel 10 die Winkelinformationen der jeweiligen Wellen einzugeben. Wenn die Haltungseinstelleinheit 13 dem Nutzer z. B. die Eingabe der Winkelinformation der jeweiligen Wellen ermöglicht, zeigt sie eine Anzeige wie in 3 auf einer Anzeigeeinrichtung 10a des Lernbetrieb-Panels 10, und ermöglicht dem Nutzer die Eingabe des Installationswinkels des Roboters 11, der Winkel der jeweiligen Wellen und der Lasteinstellnummern.
  • Die Lasteinstellnummern sind die Nummern, die den jeweiligen Werkstücktypen (Lasten), Händen (Komponenten) usw., angebracht am vorderen Ende oder dergleichen des Roboters 11, zugeordnet sind. Wie in 4 gezeigt ist, werden die Lasteinstellnummern im nichtflüchtigen Speicher 6 gespeichert, um sie den Lastgewichten, Schwerpunktpositionen usw. zuzuordnen, und wenn ein Nutzer eine Lasteinstellnummer eingibt, können das zugehörige Lastgewicht und die Schwerpunktposition ausgelesen werden.
  • Aus der CPU 2 und dem ROM 4 bilden sich die Schwerpunktposition-Berechnungseinheit 14, die Roboterbilderzeugungseinheit 15, die Schwerpunktanzeigeerzeugungseinheit 16 und die Bildkombinationseinheit 17.
  • Die Schwerpunktanzeige-Steuerungseinheit 9 wird aktiviert, wenn ein Nutzer über das Lernbetrieb-Panel 10 eine Anweisung zur Schwerpunktanzeige eingibt. Anschließend zeigt die Schwerpunktanzeige-Steuerungseinheit 9 einen Eingabebildschirm an, wie in 3 dargestellt ist, auf der Anzeigeeinrichtung 10a des Lernbetrieb-Panel 10, um dem Nutzer die Eingabe von Informationen zu ermöglichen, und liest die Komponentengewicht- und Schwerpunktpositionsdaten aus dem nichtflüchtigen Speicher 6, der die Spezifikationseinstellungseinheit 12 bildet.
  • Die Roboterbilderzeugungseinheit 15 ist derart konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 dazu bringt, mittels eines im ROM 4 gespeicherten Roboterbilderzeugungsprogramms auf Basis der Eingangsinformationen über die Winkel der jeweiligen Wellen und die Ausleselängen der Glieder der Komponenten ein dreidimensionales Modell-Bild des Roboters 11 zu erzeugen.
  • Die Schwerpunktpositions-Berechnungseinheit 14 ist derart ausgebildet, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 dazu bringt, die Schwerpunktposition des Gesamt-Roboters 11 mit Hilfe eines im ROM 4 hinterlegten Schwerpunktberechnungsprogramms zu berechnen, und zwar anhand der eingelesenen Komponentengewicht- und Schwerpunktpositionsdaten, der Eingangsinformationen über die Winkel der jeweiligen Wellen usw.
  • Ein beispielhaftes Schwerpunktposition-Berechnungsverfahren, das von der Schwerpunktposition-Berechnungseinheit 14 verwendet wird, wird in Bezug auf Gleichung 1 und 5 beschrieben, indem ein Dreiachsroboter 11 mit fünf Einheiten (Komponenten) 21, 22, 23, 24 und 25 sowie einer Hand 26 und einem Werkstück 27 am vorderen Ende als Beispiel genommen wird. Die Schwerpunktposition des Gesamt-Roboters 11 kann mit Gleichung 1 berechnet werden. (Gleichung 1)
    Figure DE102017211641A1_0002
    Figure DE102017211641A1_0003
  • In Gleichung 1 bedeuten:
  • wn:
    das Gewicht der n-ten Einheit,
    wh:
    das Gewicht der Hand 26,
    ww:
    das Gewicht des Werkstücks 27,
    xg:
    die x-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der x-Koordinate x0 des Ursprungs des Roboters 11,
    yg:
    die y-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der y-Koordinate y0 des Ursprungs des Roboters 11,
    zg:
    die z-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der z-Koordinate z0 des Ursprungs des Roboters 11,
    xn:
    die x-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der x-Koordinate x0 des Nullpunktes des Roboters 11,
    yn:
    die y-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der y-Koordinate y0 des Nullpunktes des Roboters 11, und
    zn:
    die z-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der z-Koordinate z0 des Nullpunktes des Roboters 11,
    xh:
    die x-Koordinate der Schwerpunktposition der Hand 26, basierend auf der x-Koordinate x0 des Nullpunktes des Roboters 11,
    yh:
    die y-Koordinate der Schwerpunktposition der Hand 26, basierend auf der y-Koordinate y0 des Nullpunktes des Roboters 11, und
    zh:
    die z-Koordinate der Schwerpunktposition der Hand 26, basierend auf der z-Koordinate z0 des Nullpunktes des Roboters 11,
    xw:
    die x-Koordinate der Schwerpunktposition des Werkstücks 27, basierend auf der x-Koordinate x0 des Roboter-Nullpunktes 11,
    yw:
    die y-Koordinate der Schwerpunktposition des Werkstücks 27, bezogen auf die y-Koordinate y0 des Nullpunktes des Roboters 11, und
    zw:
    die z-Koordinate der Schwerpunktposition des Werkstücks 27, bezogen auf die z-Koordinate z0 des Nullpunktes des Roboters 11.
  • Da die erste Einheit 21 am Boden befestigt ist und sich ihre Schwerpunktposition nicht ändert, werden die Koordinaten (x1, y1, z1) der Schwerpunktposition der ersten Einheit 21, basierend auf dem Ursprung (x0, y0, z0) des Roboters 11, wie folgt ausgedrückt: x1 = L1gx; y1 = L1gy; und z1 = L1gz, durch Verwendung der x-, y- und z-Komponenten (L1gx, L1gy und L1gz) des Abstandes, basierend auf dem Ursprung des Roboters 11.
  • Die zweite Einheit 22 wird von der ersten Einheit 21 um die vertikale Achse in einem Drehwinkel φ1 gedreht. Die Koordinaten (x2, y2, z2) der Schwerpunktposition der zweiten Einheit 22 bezogen auf den Nullpunkt (x0, y0, z0) des Roboters 11 werden daher wie folgt ausgedrückt: x2 = L2gxcosφ1; y2 = L2gysinφ1; und z2 = L2gz, durch Verwendung der x-, y- und z-Komponenten (L2gx, L2gy und L2gz) des Abstandes, basierend auf dem Ursprung des Roboters 11.
  • Die Koordinaten der Schwerpunktpositionen der dritten, vierten und fünften Einheit 23, 24 und 25 lauten: x3 = (LJ1 + LJ2gsinφ2)cosφ1; y3 = (LJ1 + LJ2gsinφ2)sinφ1; z3 = LJ2gcosφ2; x4 = (LJ1 + LJ2sinφ2 + LJ3gcosφ3)cosφ1; y4 = (LJ1 + LJ2sinφ2 + LJ3gcosφ3)sinφ1; z4 = LJ2cosφ2 + LJ3gsinφ3; x5 = (LJ1 + LJ2sinφ2 + LJ4gcosφ3)cosφ1; y5 = (LJ1 + LJ2sinφ2 + LJ4gcosφ3)sinφ1; und z5 = LJ2cosφ2 + LJ4gsinφ3.
  • Hierin bedeuten:
  • LJ1:
    der Versatz zwischen dem Drehpunkt der ersten Einheit 21 und dem Drehpunkt der zweiten Einheit 22;
    LJ2:
    die Länge eines Gliedes, das in vertikaler Richtung um die zweite Einheit 22 geschwenkt wird;
    LJ2g:
    der Abstand zwischen dem Drehpunkt der zweiten Einheit 22 und der Schwerpunktposition der zweiten Einheit 22;
    LJ3g:
    Abstand zwischen dem Drehpunkt der dritten Einheit 23 und der Schwerpunktposition der dritten Einheit 23;
    LJ4g:
    der Abstand zwischen dem Drehpunkt der dritten Einheit 23 und der Schwerpunktposition der vierten (Handgelenk) Einheit 24;
    φ2:
    Drehwinkel der zweiten Einheit 22 um die horizontale Achse; und
    φ3:
    Drehwinkel der dritten Einheit 23 um die horizontale Achse.
  • Die Koordinaten der Schwerpunktposition des Gesamt-Roboters 11 können mit Gleichung 1 berechnet werden, indem man davon ausgeht, dass n = 1 und m = 5 und die Koordinaten der Schwerpunktposition der zweiten Einheit 22 allein mit Gleichung 1 berechnet werden können, indem man davon ausgeht, dass n = m = 2. Außerdem können die Koordinaten der Schwerpunktposition einer komplexen Einheit, bestehend aus der zweiten und dritten Einheit 22 und 23, mit Gleichung 1 berechnet werden, indem man davon ausgeht, dass n = 2 und m = 3 ist.
  • Die Schwerpunktposition-Berechnungseinheit 14 berechnet und zeigt die Schwerpunktposition auf der Anzeigeeinrichtung 10a an, wenn z. B. in der Eingabemaske in 3 Informationen über die Winkel der jeweiligen Wellen und die Lasteinstellnummern eingegeben werden, wobei dann ein Umkehrpfeil angezeigt wird. Wie in 3 dargestellt ist, kann ein Pfeil zur Umkehrung der Umkehrung bereitgestellt sein. Bei dieser Konfiguration kann durch Kennzeichnung des Umkehrpfeils nach Eingabe der Lasteinstellnummern und der Schwerpunktposition die Positionsinformation der jeweiligen Wellen durch Umrechnung in umgekehrte Richtung ermittelt werden.
  • Die Schwerpunktanzeige-Erzeugungseinheit 16 ist so konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 veranlasst, ein Schwerpunktanzeigebild zu erzeugen, in dem z. B. ein vorgespeichertes Bild einer Kugel oder dergleichen in der Schwerpunktposition des Gesamt-Roboters 11 angeordnet ist, die von der Schwerpunktposition-Berechnungseinheit 14 berechnet wurde.
  • Die Bildkombinationseinheit 17 ist so konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 veranlasst, das dreidimensionale Modellbild des Roboters 11, das von der Roboterbilderzeugungseinheit 15 erzeugt wurde, und das von der Schwerpunktanzeige-Erzeugungseinheit 16 erzeugte und an der Schwerpunktposition des Gesamt-Roboters 11 angeordnete Schwerpunktanzeige-Bild zu einem kombinierten Bild zusammenzufügen.
  • Anschließend wird das von der CPU 2 erzeugte kombinierte Bild an das Lernbetrieb-Panel 10 gesendet, über die Lernbetrieb-Panel-Schnittstelle 7, von der Schwerpunktanzeige-Steuerungseinheit 9, und wird auf der Anzeigeeinrichtung 10a des Lernbetrieb-Panels 10, wie in 6 dargestellt, angezeigt.
  • Nach der entsprechend dieser Ausführungsform konfigurierten Roboter-Schwerpunktanzeigevorrichtung 1 kann ein Nutzer einfach durch Eingabe der Winkelinformationen der jeweiligen Wellen, mit denen eine Haltung des Roboters 11 erreicht wird, über die er/sie die Schwerpunktposition überprüfen möchte, und dann durch Auswählen einer Last, einfach und intuitiv ein Bild überprüfen, bei dem eine Anzeige, die den Schwerpunkt zeigt, auf ein dreidimensionales Modell-Bild des Roboters 11 überlagern, der diese Haltung einnimmt, und zwar auf der Anzeigeeinrichtung 10a. Dementsprechend ist es möglich, die Schwerpunktposition des Roboters 11 zu bestimmen, wenn der Roboter 11 transportiert wird oder wenn der Aufbau eines Robotersystems in Betracht gezogen wird, was insofern zu einem Vorteil führt, indem man verhindern kann, dass der Roboter 11 umkippt etc.
  • Durch Eingabe des Installationswinkels des Roboters 11, auch bei geneigter Montage des Roboters 11, ist es möglich, wie oben beschrieben, die Schwerpunktposition unter Berücksichtigung des Installationswinkels zu berechnen.
  • Es ist zu beachten, dass in dieser Ausführungsform zwar ein Beispiel für den Fall, dass die Spezifikationseinstelleinheit 12 aus dem nichtflüchtigen Speicher 6 besteht, beschrieben wurde, der Nutzer jedoch Informationen aus dem Lernbetrieb-Panel 10 eingeben kann.
  • Auch wenn die Haltungseinstelleinheit 13 es dem Nutzer erlaubt, Informationen aus dem Lernbetrieb-Panel 10 einzugeben, können statt dessen Informationen über die Winkel der jeweiligen Wellen in den jeweiligen Schritten des vom Nutzer benannten Roboter-Betriebsprogramms gelesen und in chronologischer Reihenfolge konfiguriert werden.
  • Genauer gesagt, jedes Mal, wenn die Informationen über die Winkel der jeweiligen Wellen in jedem Schritt aus dem Roboter-Betriebsprogramm ausgelesen werden, wird von der Roboterbilderzeugungseinheit 15 ein dreidimensionales Modellbild des Roboters 11 erzeugt, die Schwerpunktposition des Gesamt-Roboters 11 wird von der Schwerpunktposition-Berechnungseinheit 14 berechnet, eine Anzeige des Schwerpunktes wird von der Schwerpunktanzeige-Erzeugungseinheit 16 erzeugt, und die Bilder werden von der Bildkombinationseinheit 17 kombiniert und auf der Anzeigeeinheit 18 angezeigt. Folglich bewegt sich das dreidimensionale Modellbild des Roboters 11 dabei wie ein Einzelbild oder Video, und mit der Bewegung des dreidimensionalen Modellbildes bewegt sich auch die Schwerpunktposition in jeder Körperhaltung. Der Vorteil liegt also darin, dass der Nutzer während des Betriebs des Roboters 11 Änderungen der Schwerpunktposition einfach und intuitiv feststellen kann.
  • In dieser Ausführungsform ist die Form der Anzeige zwar nicht auf die Kugelform beschränkt, obwohl die Schwerpunktanzeige-Erzeugungseinheit 16 eine kugelförmige Anzeige erzeugt, die das Zentrum der Schwerkraft an der Schwerpunktposition zeigt, sondern die Anzeige kann jede beliebige Form sein. Zusätzlich zu der sphärischen oder anderen Anzeige des Schwerpunktes, wie in 6 gezeigt ist, können die Koordinatenwerte des Schwerpunktes durch Text angegeben werden. Damit kann der Nutzer die Position des Schwerpunktes genauer überprüfen.
  • In dieser Ausführungsform wird zwar der Schwerpunkt des Gesamt-Roboters 11 dargestellt, zusätzlich dazu können aber, wie beispielsweise in Fig. gezeigt wird, die Schwerpunktpositionen P1, P2 und P3 der Einheiten 21, 22, 23, 24 und 25 der jeweiligen Wellen angezeigt werden.
  • In dieser Ausführungsform kann, obwohl ein Fall beschrieben wurde, in dem die Robotersteuerungsvorrichtung 100 mit der Schwerpunktanzeigevorrichtung 1 ausgerüstet ist, anstelle dessen die Schwerpunktanzeigevorrichtung 1 in einer nicht mit dem Roboter 11 verbundenen Simulationsvorrichtung vorgesehen werden. Dadurch kann, wie in 7 gezeigt ist, die vorliegende Erfindung in einem Fall verwendet werden, in dem die Schwerpunktpositionen P1, P2 und P3 in den jeweiligen Körperhaltungen des Roboters 11 simuliert werden, wenn eine große Last (z. B. ein Auto oder eine Hand zur Handhabung des Autos) oder ähnliches, was schwer vorzubereiten ist, angenommen wird.
  • Bezugszeichenliste
  • 1
    Schwerpunktanzeigevorrichtung
    2
    CPU (Schwerpunktposition-Berechnungseinheit, Roboterbilderzeuger, Schwerpunktanzeige-Erzeugungseinheit, und Bildkombinationseinheit)
    4
    ROM (Schwerpunktposition-Berechnungseinheit, Roboterbilderzeuger, Schwerpunktanzeige-Erzeugungseinheit, und Bildkombinationseinheit)
    6
    nichtflüchtiger Speicher (Spezifikationseinstelleinheit)
    10
    Lernbetrieb-Panel (Haltungseinstelleinheit)
    11
    Roboter
    12
    Spezifikationseinstelleinheit
    13
    Haltungseinstelleinheit
    14
    Schwerkraftposition-Berechnungseinheit
    15
    Roboterbilderzeugungseinheit
    17
    Bildkombiniereinheit
    18
    Anzeigeeinheit
    21, 22, 23, 24 und 25
    Einheit (Komponente)
    26
    Hand (Komponente)
    27
    Werkstück (Komponente und Last)
    100
    Robotersteuerungsvorrichtung

Claims (8)

  1. Roboter-Schwerpunktanzeigevorrichtung, umfassend: eine Spezifikationseinstelleinheit, die die Spezifikationen einstellt, einschließlich wenigstens der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten der jeweiligen Wellen eines Roboters; eine Haltungseinstelleinheit, die die Positionsinformationen der jeweiligen Wellen des Roboters einstellt; eine Roboter-Bilderzeugungseinheit, die ein dreidimensionales Modellbild des Roboters in einem Zustand erzeugt, in dem die jeweiligen Wellen des Roboters an den durch die Positionsinformation angegebenen Positionen auf der Grundlage der durch die Haltungseinstelleinheit gesetzten Positionsinformation der jeweiligen Wellen des Roboters und der durch die Spezifikationseinstelleinheit gesetzten Spezifikationen der Komponenten angeordnet sind; eine Schwerpunktposition-Berechnungseinheit, die die Schwerpunktposition des Gesamtroboters auf der Grundlage der Positionsinformationen der jeweiligen Wellen des Roboters berechnet, die von der Haltungseinstelleinheit und den Spezifikationen der von der Spezifikationseinstelleinheit festgelegten Komponenten eingestellt sind; eine Bildkombinationseinheit, die eine Anzeige überlagert, die den Schwerpunkt des gesamten Roboters auf dem dreidimensionalen Modellbild zeigt, das von der Roboter-Bilderzeugungseinheit erzeugt wird, und zwar in der von der Schwerpunktposition-Berechnungseinheit berechneten Schwerpunktposition; und eine Anzeigeeinheit, die das von der Bildkombinationseinheit erzeugte Bild anzeigt.
  2. Roboter-Schwerpunktanzeigevorrichtung nach Anspruch 1, wobei die Anzeige, die den Schwerpunkt anzeigt, Koordinatenwerte enthält, die die Schwerpunktposition des gesamten Roboters anzeigen.
  3. Roboter-Schwerpunktanzeigevorrichtung nach Anspruch 1 oder 2, wobei die Schwerpunktposition-Berechnungseinheit die Schwerpunktpositionen der jeweiligen Komponenten berechnet, und die Bildkombinationseinheit auf dem dreidimensionalen Modellbild Anzeigen überlagert, die die Schwerpunktposition der jeweiligen Komponenten auf dem dreidimensionalen Modellbild zeigen, an den Schwerpunktpositionen der jeweiligen Komponenten.
  4. Roboter-Schwerpunktanzeigevorrichtung nach einem der Ansprüche 1 bis 3, wobei die Komponenten eine Last am vorderen Ende des Roboters enthalten.
  5. Roboter-Schwerpunktanzeigevorrichtung nach einem der Ansprüche 1 bis 4, wobei die Haltungseinstelleinheit mehrere Sätze von Positionsinformationen der jeweiligen Wellen des Roboters liest, die in einem Betriebsprogramm des Roboters aufgezeichnet sind, und die Positionsinformationen in einer chronologischen Reihenfolge konfiguriert.
  6. Roboter-Schwerpunktanzeigevorrichtung nach einem der Ansprüche 1 bis 5, wobei die Positionsinformation der jeweiligen Wellen des Roboters den Installationswinkel des Roboters einschließt.
  7. Robotersteuerungsvorrichtung, umfassend die Roboter-Schwerpunktanzeigevorrichtung nach einem der Ansprüche 1 bis 6.
  8. Robotersimulationsvorrichtung, umfassend die Roboter-Schwerpunktanzeigevorrichtung nach einem der Ansprüche 1 bis 6.
DE102017211641.2A 2016-07-12 2017-07-07 Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung Active DE102017211641B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016137349A JP6457441B2 (ja) 2016-07-12 2016-07-12 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置
JP2016-137349 2016-07-12

Publications (2)

Publication Number Publication Date
DE102017211641A1 true DE102017211641A1 (de) 2018-01-18
DE102017211641B4 DE102017211641B4 (de) 2019-11-07

Family

ID=60783082

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017211641.2A Active DE102017211641B4 (de) 2016-07-12 2017-07-07 Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung

Country Status (4)

Country Link
US (1) US10302519B2 (de)
JP (1) JP6457441B2 (de)
CN (1) CN107598946B (de)
DE (1) DE102017211641B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6542839B2 (ja) * 2017-06-07 2019-07-10 ファナック株式会社 制御装置及び機械学習装置
CN110914022B (zh) * 2017-08-10 2023-11-07 罗伯特·博世有限公司 直接教导机器人的系统和方法
JP6703020B2 (ja) * 2018-02-09 2020-06-03 ファナック株式会社 制御装置及び機械学習装置
EP3584751A1 (de) * 2018-06-20 2019-12-25 Siemens Aktiengesellschaft Verfahren zum erstellen eines digitalen zwillings
JP7260405B2 (ja) 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
KR20190117421A (ko) * 2019-09-27 2019-10-16 엘지전자 주식회사 운송 로봇 및 그의 제어 방법
CN113654727A (zh) * 2021-09-10 2021-11-16 广东博智林机器人有限公司 重心位置测量方法、系统及装置、计算机设备和存储介质
CN114427932B (zh) * 2022-04-07 2022-06-17 中国汽车技术研究中心有限公司 一种用于碰撞假人的质心测量方法及质心测量仪
CN116296070A (zh) * 2023-04-06 2023-06-23 唐山唐擎科技有限公司 一种重心测量系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10138187A (ja) 1996-11-01 1998-05-26 Nachi Fujikoshi Corp 多関節ロボットの負荷重量及び負荷重心位置の自動算出方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH058061Y2 (de) * 1985-10-14 1993-03-01
JP2515594B2 (ja) * 1989-07-20 1996-07-10 三菱電機株式会社 ロボットの力制御方法及び装置
JPH0430203A (ja) 1990-05-25 1992-02-03 Fanuc Ltd ロボットの加減速時定数制御方法
CN1067515A (zh) * 1991-06-01 1992-12-30 宗教法人金刚禅总本山少林寺 动画片制作方法
US5214749A (en) * 1991-06-12 1993-05-25 Massachusetts Institute Of Technology Dynamic control of a robot with its center of mass decoupled from an end effector by a redundant linkage
JP4518615B2 (ja) 2000-03-30 2010-08-04 ソニー株式会社 脚式移動ロボットの動作制御システム及び動作制御方法
JP2003196323A (ja) * 2001-12-27 2003-07-11 Toyota Motor Corp 重量・重心位置設計支援装置、重量・重心位置設計支援方法および重量・重心位置設計支援プログラム
KR100977348B1 (ko) * 2002-03-15 2010-08-20 소니 주식회사 다리식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치
KR101121020B1 (ko) * 2004-01-13 2012-03-15 혼다 기켄 고교 가부시키가이샤 이동 로봇의 보용생성 장치
EP1783517A1 (de) * 2005-11-04 2007-05-09 AGELLIS Group AB Multi-dimensionale Abbildungsmethode und Apparat
JP4692443B2 (ja) 2006-09-06 2011-06-01 トヨタ自動車株式会社 脚式ロボット
US7798264B2 (en) * 2006-11-02 2010-09-21 Hutcheson Timothy L Reconfigurable balancing robot and method for dynamically transitioning between statically stable mode and dynamically balanced mode
JP4508252B2 (ja) * 2008-03-12 2010-07-21 株式会社デンソーウェーブ ロボット教示装置
JP4569653B2 (ja) 2008-03-24 2010-10-27 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP5618066B2 (ja) * 2010-08-18 2014-11-05 株式会社Ihi 力制御ロボットのキャリブレーション装置と方法
US8930019B2 (en) * 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
CN103328161B (zh) * 2011-01-31 2015-08-19 丰田自动车株式会社 多关节型臂机器人及其控制方法
US8805584B2 (en) * 2011-11-22 2014-08-12 Disney Enterprises, Inc Kinematic and dynamic calibration methods for legged robots with force-controlled joints
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US9393693B1 (en) * 2014-07-10 2016-07-19 Google Inc. Methods and systems for determining and modeling admissible gripper forces for robotic devices
JP6075343B2 (ja) * 2014-09-02 2017-02-08 トヨタ自動車株式会社 走行ロボット、その動作計画方法及びプログラム
JP6088583B2 (ja) * 2015-06-08 2017-03-01 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10138187A (ja) 1996-11-01 1998-05-26 Nachi Fujikoshi Corp 多関節ロボットの負荷重量及び負荷重心位置の自動算出方法

Also Published As

Publication number Publication date
CN107598946A (zh) 2018-01-19
CN107598946B (zh) 2019-09-24
US10302519B2 (en) 2019-05-28
JP2018008326A (ja) 2018-01-18
US20180017461A1 (en) 2018-01-18
JP6457441B2 (ja) 2019-01-23
DE102017211641B4 (de) 2019-11-07

Similar Documents

Publication Publication Date Title
DE102017211641B4 (de) Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung
DE102016012065B4 (de) Robotersystem mit Funktion zum Berechnen von Position und Ausrichtung eines Sensors
DE102018213985B4 (de) Robotersystem
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102015011830B4 (de) Robotersystem zum Einstellen eines Bewegungsüberwachungsbereichs eines Roboters
DE102016123945A1 (de) Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem realen Bild eines Roboters anzeigt, ausgestattetes Robotersystem
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102015000589A1 (de) Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem
DE102014116845B4 (de) Verfahren zum Ermitteln einer Bewegungsgrenze
DE102014105456B4 (de) Verfahren zur Vermessung der Außenkontur von dreidimensionalen Messobjekten und zugehöriges Messsystem
EP1906281A1 (de) Verfahren und System zur Auslegung und Überprüfung von Sicherheitsbereichen eines Roboters
DE102019002928A1 (de) Simulationsvorrichtung für Roboter
DE102019001038B4 (de) Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
DE102016107397A1 (de) Bahnanzeigevorrichtung zur darstellung der bahn einer werkzeugachse
DE102018100420A1 (de) Offline-Programmierungseinrichtung und Positionsparameterkorrekturverfahren
DE102009020307A1 (de) Simulator für eine Sichtprüfungsvorrichtung
DE102015012344A1 (de) Verfahren zum Kalibrieren einer Kamera
DE102017119422A1 (de) Baumaschinen
DE102016009436B4 (de) Robotersteuerung, die ein Rütteln einer Werkzeugspitze bei einem Roboter verhindert, der mit einer Verfahrachse ausgestattet ist
DE102017114450A1 (de) Vorrichtung und Verfahren zum Abbilden von Bereichen
DE102015219564A1 (de) Werkzeuganalyseeinrichtung und verfahren zur analyse einer bearbeitung eines werkstücks mit einem werkzeug
EP2118618A1 (de) Verfahren zum ermitteln von messstellen
DE102019218381A1 (de) Unterstützung von Arbeiten an Schalungen und Gerüsten
DE112020001675B4 (de) Fernbedienungsvorrichtung
DE102004032996A1 (de) Einfache Roboterprogrammierung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final