DE102017211641B4 - Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung - Google Patents

Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung Download PDF

Info

Publication number
DE102017211641B4
DE102017211641B4 DE102017211641.2A DE102017211641A DE102017211641B4 DE 102017211641 B4 DE102017211641 B4 DE 102017211641B4 DE 102017211641 A DE102017211641 A DE 102017211641A DE 102017211641 B4 DE102017211641 B4 DE 102017211641B4
Authority
DE
Germany
Prior art keywords
robot
center
gravity
unit
respective shafts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017211641.2A
Other languages
English (en)
Other versions
DE102017211641A1 (de
Inventor
Tomonori Arai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102017211641A1 publication Critical patent/DE102017211641A1/de
Application granted granted Critical
Publication of DE102017211641B4 publication Critical patent/DE102017211641B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M1/00Testing static or dynamic balance of machines or structures
    • G01M1/12Static balancing; Determining position of centre of gravity
    • G01M1/122Determining position of centre of gravity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39444Display of position, of shape of robot and tool
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/14Arm movement, spatial
    • Y10S901/16Cartesian, three degrees of freedom
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/48Counterbalance

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Roboter-Schwerpunktanzeigevorrichtung (1), umfassend:eine Spezifikationseinstelleinheit (12), die die Spezifikationen der jeweiligen Wellen des Roboters (11), welche sich aus Daten zu den jeweiligen Gliedern, die als Komponenten der jeweiligen Wellen des Roboters (11) dienen, ergeben, einstellt, einschließlich wenigstens der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten der jeweiligen Wellen eines Roboters (11);eine Haltungseinstelleinheit (13), die die Positionsinformationen der jeweiligen Wellen des Roboters (11) durch Eingabe durch einen Benutzer einstellt;eine Roboter-Bilderzeugungseinheit (15), die ein dreidimensionales Modellbild des Roboters (11) in einem Zustand erzeugt, in dem die jeweiligen Wellen des Roboters (11) an den durch die Positionsinformation angegebenen Positionen auf der Grundlage der durch die Haltungseinstelleinheit (13) gesetzten Positionsinformation der jeweiligen Wellen des Roboters (11) und der durch die Spezifikationseinstelleinheit (12) gesetzten Spezifikationen der Komponenten angeordnet sind;eine Schwerpunktposition-Berechnungseinheit (14), die die Schwerpunktposition des Gesamtroboters (11) auf der Grundlage der Positionsinformationen der jeweiligen Wellen des Roboters (11) berechnet, die von der Haltungseinstelleinheit (13) und den von der Spezifikationseinstelleinheit (12) eingestellten Spezifikationen der jeweiligen Welle festgelegt sind;eine Bildkombinationseinheit (17), die eine Anzeige überlagert, die den Schwerpunkt des gesamten Roboters (11) auf dem dreidimensionalen Modellbild des Roboters (11) zeigt, das von der Roboter-Bilderzeugungseinheit (15) erzeugt wird, und zwar in der von der Schwerpunktposition-Berechnungseinheit (14) berechneten Schwerpunktposition; undeine Anzeigeeinheit (10a), die das von der Bildkombinationseinheit (17) erzeugte Bild anzeigt.

Description

  • Die vorliegende Erfindung betrifft eine Roboter-Schwerpunktanzeigevorrichtung, eine RoboterSteuerungsvorrichtung und eine RoboterSimulationseinrichtung.
  • Aus dem Stand der Technik ist ein Verfahren zur automatischen Berechnung des Lastgewichts am vorderen Ende eines Arms eines Knickarmroboters und dessen Schwerpunktposition ohne Verwendung eines Kraftsensors bekannt (siehe z.B. PTL 1).
    • PTL 1: Japanische Patentanmeldung, JP H10 - 138 187 A
  • Das Verfahren in PTL 1 wird jedoch zur Berechnung des Gewichts und der Schwerpunktposition einer Last auf der Basis des durchschnittlichen Drehmoments an den jeweiligen Antriebswellen verwendet, und kann nicht zur Bestimmung der Schwerpunktposition eines Roboters verwendet werden. Wäre es möglich, die Schwerpunktposition eines Roboters beim Transport des Roboters oder bei der Konstruktion eines Robotersystems zu bestimmen, wäre dies hilfreich, da der Roboter vor dem Umfallen bewahrt werden könnte.
  • DE 10 2016 006 704 A1 beschreibt eine Robotersteuerung, durch die ein Bediener die Richtung und/oder Größe einer auf einen beliebigen Abschnitt ausgeübten aktuellen Kraft visuell oder intuitiv erkennen kann.
  • DE 10 2015 114 584 A1 beschreibt einen Fahrroboter mit einer mobilen Einheit, einem Arm und einer elektronischen Steuerungseinheit, die einen Schwerpunkt des Fahrroboters berechnet.
  • EP 2 070 662 B1 beschreibt einen beinbewehrten Roboter, der läuft, während er einen Sprungzyklus wiederholt, der eine Bodenkontaktphase von einer Landung zu einem Start und eine Luftphase von einem Start zu einer Landung beinhaltet.
  • JP 2012 - 040 634 A beschreibt eine Kalibriervorrichtung und ein Verfahren für einen leistungsgesteuerten Roboter, die, auch wenn die Installationsgenauigkeit des Roboters gering ist, die Kalibrierung der erforderlichen Parameter unter Berücksichtigung eines Installationsfehlers ermöglichen.
  • JP 2003 - 196 323 A beschreibt ein Schwerpunktpositions-Design, das die Schwerpunktposition einer aus mehreren Komponenten mit definierten Positionsbeziehungen bestehenden Vorrichtung an eine Zielleistung der Vorrichtung anpasst.
  • JP H03 - 055 189 A beschreibt ein Verfahren zum genauen Bestimmen der von einer Vorrichtung aufgenommenen Kraft durch Durchführen einer Kalibrierung zum Bestimmen der Fehlerkomponente eines Kraftsensors.
  • Die vorliegende Erfindung wurde im Hinblick auf die oben beschriebenen Umstände gemacht, wobei es ein Gegenstand davon ist, einen Roboter mit einer Anzeigevorrichtung für die Schwerpunktposition, eine Robotersteuerungsvorrichtung und eine Robotersimulationseinrichtung zur Verfügung zu stellen, die es dem Nutzer ermöglichen, die Schwerpunktposition des Roboters leicht zu bestimmen.
  • Um den oben beschriebenen Gegenstand zu erreichen, schlägt die vorliegende Erfindung die folgenden Lösungen vor.
  • Ein Aspekt der vorliegenden Erfindung stellt eine Roboter-Schwerpunktanzeigevorrichtung zur Verfügung, die Folgendes umfasst: eine Spezifikationseinstelleinheit, die die Spezifikationen der jeweiligen Wellen des Roboters, welche sich aus Daten zu den jeweiligen Gliedern, die als Komponenten der jeweiligen Wellen des Roboters dienen, ergeben, einstellt, die zumindest die Gewichte, Schwerpunktpositionen und Abmessungen von Komponenten der jeweiligen Wellen eines Roboters umfasst; eine Haltungseinstelleinheit, die die Positionsinformationen der jeweiligen Wellen des Roboters durch Eingabe durch einen Benutzer einstellt; eine Roboter-Bilderzeugungseinheit, die ein dreidimensionales Modellbild des Roboters in einem Zustand erzeugt, in dem deren jeweilige Wellen an den durch die Positionsinformation angegebenen Positionen auf der Basis der durch die Haltungseinstelleinheit gesetzten Positionsinformation der jeweiligen Wellen des Roboters und den durch die Spezifikationseinstelleinheit gesetzten Spezifikationen der Komponenten angeordnet sind; eine Schwerpunktposition-Berechnungseinheit, die die Schwerpunktposition des Gesamtroboters auf der Basis der Positionsinformation der jeweiligen Wellen des Roboters berechnet, die durch die Haltungseinstelleinheit und den von der Spezifikationseinstelleinheit eingestellten Spezifikationen der jeweiligen Wellen des Roboters festgelegt worden sind; eine Bildkombinationseinheit, die eine Anzeige überlagert, die den Schwerpunkt des gesamten Roboters auf dem dreidimensionalen Modellbild, das von der Roboter-Bilderzeugungseinheit erzeugt wurde, in der von der Schwerpunktposition-Berechnungseinheit berechneten Schwerpunktposition zeigt; und eine Anzeigeeinheit, die das von der Bildkombinationseinheit erzeugte Bild anzeigt.
  • Nach diesem Gesichtspunkt erzeugt die Roboterbildgeneratoreinheit ein dreidimensionales Modellbild des Roboters in einem Zustand, in dem sich die jeweiligen Wellen des Roboters an den durch die Positionsinformation angezeigten Positionen befinden, sobald die Spezifikationseinstelleinheit die Spezifikationen einschließlich der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten des Roboters festlegt, und die Haltungseinstelleinheit die Positionsinformation der jeweiligen Wellen des Roboters festlegt. Anschließend berechnet die Schwerpunktposition-Berechnungseinheit aus den Positionsinformationen der jeweiligen Wellen des Roboters und den Spezifikationen der Bauteile die Schwerpunktposition des Gesamtroboters, wobei die Bildkombinationseinheit ein Bild erzeugt, in dem eine Anzeige des Schwerpunkts des Gesamtroboters auf das erzeugte dreidimensionale Bild des Roboters in der Schwerpunktposition überlagert wird. Anschließend wird dieses Bild auf der Anzeigeeinheit angezeigt. Mit dieser Konfiguration kann der Nutzer, unabhängig von der Körperhaltung des Roboters, die Schwerpunktposition des Roboters einfach und intuitiv durch das auf der Anzeigeeinheit dargestellte Bild bestimmen.
  • Unter dem obigen Aspekt kann die Anzeige des Schwerpunktes auch Koordinatenwerte enthalten, die die Schwerpunktposition des gesamten Roboters anzeigen.
  • Mit dieser Konfiguration kann der Nutzer durch die Anzeige der Koordinatenwerte, die die Schwerpunktposition des gesamten Roboters anzeigen, die Schwerpunktposition des Roboters besser bestimmen.
  • Darüber hinaus kann die Schwerpunktposition-Berechnungseinheit im obigen Aspekt die Schwerpunktposition der jeweiligen Komponenten berechnen, wobei die Bildkombinationseinheit Anzeigen überlagern kann, welche die Schwerpunkte der jeweiligen Komponenten auf dem dreidimensionalen Modellbild zeigt, und zwar an den Schwerpunktpositionen der jeweiligen Komponenten.
  • Mit dieser Konfiguration kann der Nutzer neben der Schwerpunktposition des Gesamtroboters auch die Schwerpunktposition der jeweiligen Komponenten einfach und intuitiv bestimmen.
  • Darüber hinaus können die Bauteile unter dem obigen Aspekt eine Last enthalten, die am vorderen Ende des Roboters angebracht ist.
  • Bei dieser Konfiguration wird die Last am vorderen Ende des Roboters als Teil der Komponenten des Roboters behandelt, so dass der Nutzer die Schwerpunktposition des gesamten Roboters einschließlich der Last leicht bestimmen kann.
  • Darüber hinaus kann die Haltungseinstelleinheit unter dem obigen Aspekt mehrere Sätze von Positionsinformationen der jeweiligen Wellen des Roboters lesen, die in einem Arbeitsprogramm des Roboters aufgezeichnet wurden, und kann die Positionsinformationen in chronologischer Reihenfolge konfigurieren.
  • Bei dieser Konfiguration erzeugt die Roboterbilderzeugungseinheit zu diesen Zeiten dreidimensionale Modellbilder des Roboters, wenn sich die jeweiligen Wellen des Roboters entsprechend dem Arbeitsprogramm des Roboters in zeitlicher Abfolge bewegen, um eine Vielzahl von Haltungen in chronologischer Reihenfolge einzunehmen, aufgrund der Haltungseinstelleinheit-Positionierungseinstellinformationen der jeweiligen Wellen zu unterschiedlichen Zeitpunkten, wobei die Schwerpunktpositions-Berechnungseinheit zu diesen Zeitpunkten die Schwerpunktpositionen des Gesamtroboters berechnet, und wobei Bilder erzeugt werden, in denen eine Anzeige des Schwerpunkts auf das dreidimensionale Modellbild überlagert wird.
  • Durch die Darstellung der so erzeugten Vielzahl von Bildern, die in chronologischer Reihenfolge von einem Bild zum anderen umgeschaltet werden, bewegt sich das dreidimensionale Modellbild des Roboters als Frame-by-Frame-Bild oder Video, wobei sich auch die Schwerpunktposition in jeder Körperhaltung mit der Bewegung des dreidimensionalen Modellbildes bewegt. Mit dieser Konfiguration kann der Nutzer während des Betriebes des Roboters einfach und intuitiv Änderungen der Schwerpunktposition feststellen.
  • Darüber hinaus kann die Positionsinformation der jeweiligen Wellen des Roboters auch den Einbaulagewinkel (Installationswinkel) des Roboters beinhalten.
  • Mit dieser Konfiguration ist es möglich, auch bei geneigter Aufstellung des Roboters, die Schwerpunktposition unter Berücksichtigung des Installationswinkels zu berechnen.
  • Unter einem weiteren Aspekt der vorliegenden Erfindung wird eine Robotersteuerungsvorrichtung bereitgestellt, die eine der oben beschriebenen RoboterSchwerpunktanzeigevorrichtungen enthält.
  • Ein weiterer Aspekt der vorliegenden Erfindung stellt eine Robotersimulationsvorrichtung bereit, die eine der oben beschriebenen Roboterschwerpunktanzeigevorrichtungen enthält.
  • Die vorliegende Erfindung hat den Vorteil, dass der Nutzer eines Roboters die Schwerpunktposition des Roboters leicht bestimmen kann.
    • 1 ist ein Blockdiagramm, das eine Robotersteuerungsvorrichtung mit einer Roboter-Schwerpunktanzeigevorrichtung nach einer Ausführungsform der vorliegenden Erfindung zeigt.
    • 2 ist ein Funktionsblockschaltbild mit der Schwerpunktanzeigevorrichtung in 1.
    • 3 ist eine Darstellung, welche ein Beispiel für einen Eingabebildschirm einer Haltungseinstelleinheit der Schwerpunktanzeigevorrichtung in 2 zeigt.
    • 4 ist eine Darstellung, welche ein Beispiel der Information über das Gewicht die Schwerpunktposition einer Last zeigt, die in Verbindung mit einer Lasteinstellungsnummer in 3 gespeichert ist.
    • 5 ist eine schematische Darstellung eines Roboters zur Erläuterung einer beispielhaften Schwerpunktberechnungsmethode, die von einer Schwerpunktposition-Berechnungseinheit der Schwerpunktanzeigevorrichtung in 1 verwendet wird.
    • 6 ist ein Diagramm, das ein Beispielbild zeigt, das von einer Bildkombinationseinheit der Schwerpunktanzeigevorrichtung erzeugt und auf der Anzeigeeinheit in 1 dargestellt wird.
    • 7 ist ein Diagramm, das beispielhaft die Schwerpunktposition einer Robotersimulationsvorrichtung zeigt.
  • Nachfolgend wird anhand der Zeichnungen eine Roboter-Schwerpunktanzeigevorrichtung 1 entsprechend einer Ausführungsform der vorliegenden Erfindung beschrieben.
  • Die Roboter-Schwerpunktanzeigevorrichtung 1 entsprechend dieser Ausführungsform ist in einer Robotersteuerungsvorrichtung 100 vorgesehen.
  • Wie in 1 gezeigt ist, enthält die Robotersteuerungsvorrichtung 100 eine CPU 2, einen an die CPU 2 angeschlossenen Bus 3 und einen ROM 4, einen RAM 5, einen nichtflüchtigen Speicher 6, eine Lernbetrieb-Panel-Schnittstelle (I/F) 7, eine Wellensteuerungsschaltung 8 und eine Schwerpunktanzeigesteuereinheit 9, die parallel mit dem Bus 3 verbunden sind.
  • An die Lernbetrieb-Panel-Schnittstelle 7 wird ein Lernbetrieb-Panel 10 angeschlossen. Das Lernbetrieb-Panel 10 hat eine Anzeigefunktion. Durch manuelles Bedienen des Lernbetrieb-Panels 10 erzeugt, korrigiert und protokolliert ein Bediener ein Bedienprogramm für den Roboter 11, stellt verschiedene Parameter ein, reproduziert ein eingelerntes Bedienprogramm, führt einen Tippvorschub durch usw.
  • Im ROM 4 ist ein Systemprogramm zur Unterstützung der Grundfunktionen des Roboters 11 und der Robotersteuerungsvorrichtung 100 gespeichert. Weiterhin sind im nichtflüchtigen Speicher 6 Betriebsprogramme für den Roboter 11 gespeichert, die entsprechend den Anwendungen und den zugehörigen Einstelldaten angelernt sind. Daten, wie z.B. Programme für verschiedene Bearbeitungen, sind ebenfalls im nichtflüchtigen Speicher 6 gespeichert.
  • Wie in 2 gezeigt ist, umfasst die Schwerpunktanzeigeeinrichtung 1 gemäß dieser Ausführungsform: eine Spezifikationseinstelleinheit 12, die die Spezifikationen einschließlich der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten der jeweiligen Wellen des Roboters 11 festlegt; eine Haltungseinstelleinheit 13, die die Positionsinformationen der jeweiligen Wellen des Roboters 11 einstellt; eine Schwerpunktposition-Berechnungseinheit 14, die die Schwerpunktposition des Gesamt-Roboters 11 berechnet; eine Roboterbilderzeugungseinheit 15, die ein dreidimensionales Modellbild des Roboters 11 erzeugt; eine Schwerpunktanzeige-Erzeugungseinheit 16, die eine Schwerpunktanzeige erzeugt; eine Einheit 17 zur Kombination von Bildern, die die Schwerpunktanzeige auf dem dreidimensionalen Modellbild überlagert; und eine Anzeigeeinheit 18 zur Darstellung des kombinierten Bildes.
  • Die Spezifikationseinstelleinheit 12 besteht aus dem in 1 gezeigten nichtflüchtigen Speicher 6. Genauer gesagt, die Spezifikationen ergeben sich aus den Daten zu Länge, Gewicht und Schwerpunktposition der jeweiligen Glieder, die als Komponenten der jeweiligen Wellen des Roboters 11 dienen und im nichtflüchtigen Speicher 6 abgelegt sind.
  • Die Haltungseinstelleinheit 13 besteht aus dem in 1 gezeigten Lernbetrieb-Panel 10. Genauer gesagt stellt die Haltungseinstelleinheit 13 die Positionsinformationen der jeweiligen Wellen ein, indem es dem Nutzer die Möglichkeit gibt, über das Lernbetrieb-Panel 10 die Winkelinformationen der jeweiligen Wellen einzugeben. Wenn die Haltungseinstelleinheit 13 dem Nutzer z.B. die Eingabe der Winkelinformation der jeweiligen Wellen ermöglicht, zeigt sie eine Anzeige wie in 3 auf einer Anzeigeeinrichtung 10a des Lernbetrieb-Panels 10, und ermöglicht dem Nutzer die Eingabe des Installationswinkels des Roboters 11, der Winkel der jeweiligen Wellen und der Lasteinstellnummern.
  • Die Lasteinstellnummern sind die Nummern, die den jeweiligen Werkstücktypen (Lasten), Händen (Komponenten) usw., angebracht am vorderen Ende oder dergleichen des Roboters 11, zugeordnet sind. Wie in 4 gezeigt ist, werden die Lasteinstellnummern im nichtflüchtigen Speicher 6 gespeichert, um sie den Lastgewichten, Schwerpunktpositionen usw. zuzuordnen, und wenn ein Nutzer eine Lasteinstellnummer eingibt, können das zugehörige Lastgewicht und die Schwerpunktposition ausgelesen werden.
  • Aus der CPU 2 und dem ROM 4 bilden sich die Schwerpunktposition-Berechnungseinheit 14, die Roboterbilderzeugungseinheit 15, die Schwerpunktanzeigeerzeugungseinheit 16 und die Bildkombinationseinheit 17.
  • Die Schwerpunktanzeige-Steuerungseinheit 9 wird aktiviert, wenn ein Nutzer über das Lernbetrieb-Panel 10 eine Anweisung zur Schwerpunktanzeige eingibt. Anschließend zeigt die Schwerpunktanzeige-Steuerungseinheit 9 einen Eingabebildschirm an, wie in 3 dargestellt ist, auf der Anzeigeeinrichtung 10a des Lernbetrieb-Panel 10, um dem Nutzer die Eingabe von Informationen zu ermöglichen, und liest die Komponentengewicht- und Schwerpunktpositionsdaten aus dem nichtflüchtigen Speicher 6, der die Spezifikationseinstellungseinheit 12 bildet.
  • Die Roboterbilderzeugungseinheit 15 ist derart konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 dazu bringt, mittels eines im ROM 4 gespeicherten Roboterbilderzeugungsprogramms auf Basis der Eingangsinformationen über die Winkel der jeweiligen Wellen und die Ausleselängen der Glieder der Komponenten ein dreidimensionales Modell-Bild des Roboters 11 zu erzeugen.
  • Die Schwerpunktpositions-Berechnungseinheit 14 ist derart ausgebildet, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 dazu bringt, die Schwerpunktposition des Gesamt-Roboters 11 mit Hilfe eines im ROM 4 hinterlegten Schwerpunktberechnungsprogramms zu berechnen, und zwar anhand der eingelesenen Komponentengewicht- und Schwerpunktpositionsdaten, der Eingangsinformationen über die Winkel der jeweiligen Wellen usw.
  • Ein beispielhaftes Schwerpunktposition-Berechnungsverfahren, das von der Schwerpunktposition-Berechnungseinheit 14 verwendet wird, wird in Bezug auf Gleichung 1 und 5 beschrieben, indem ein Dreiachsroboter 11 mit fünf Einheiten (Komponenten) 21, 22, 23, 24 und 25 sowie einer Hand 26 und einem Werkstück 27 am vorderen Ende als Beispiel genommen wird. Die Schwerpunktposition des Gesamt-Roboters 11 kann mit Gleichung 1 berechnet werden. x g = ( i = m n w i x i + w h x h + w w x w ) / ( i = m n w i + w h + w w ) ( m n ,  m und n sind natürliche Zahlen ) y g = ( i = m n w i y i + w h y h + w w y w ) / ( i = m n w i + w h + w w ) ( m n ,  m und n sind natürliche Zahlen ) z g = ( i = m n w i z i + w h z h + w w z w ) / ( i = m n w i + w h + w w ) ( m n ,  m und n sind natürliche Zahlen )
    Figure DE102017211641B4_0001
  • In Gleichung 1 bedeuten:
    • wn: das Gewicht der n-ten Einheit,
    • wh: das Gewicht der Hand 26,
    • ww: das Gewicht des Werkstücks 27,
    • xg: die x-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der x-Koordinate x0 des Ursprungs des Roboters 11,
    • yg: die y-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der y-Koordinate y0 des Ursprungs des Roboters 11,
    • zg: die z-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der z-Koordinate z0 des Ursprungs des Roboters 11,
    • xn: die x-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der x-Koordinate x0 des Nullpunktes des Roboters 11,
    • yn: die y-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der y-Koordinate y0 des Nullpunktes des Roboters 11, und
    • zn: die z-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der z-Koordinate z0 des Nullpunktes des Roboters 11,
    • xh: die x-Koordinate der Schwerpunktposition der Hand 26, basierend auf der x-Koordinate x0 des Nullpunktes des Roboters 11,
    • yh: die y-Koordinate der Schwerpunktposition der Hand 26, basierend auf der y-Koordinate y0 des Nullpunktes des Roboters 11, und
    • zh: die z-Koordinate der Schwerpunktposition der Hand 26, basierend auf der z-Koordinate z0 des Nullpunktes des Roboters 11,
    • xw: die x-Koordinate der Schwerpunktposition des Werkstücks 27, basierend auf der x-Koordinate x0 des Roboter-Nullpunktes 11,
    • yw: die y-Koordinate der Schwerpunktposition des Werkstücks 27, bezogen auf die y-Koordinate y0 des Nullpunktes des Roboters 11, und
    • zw: die z-Koordinate der Schwerpunktposition des Werkstücks 27, bezogen auf die z-Koordinate z0 des Nullpunktes des Roboters 11.
  • Da die erste Einheit 21 am Boden befestigt ist und sich ihre Schwerpunktposition nicht ändert, werden die Koordinaten (x1, y1, z1 ) der Schwerpunktposition der ersten Einheit 21, basierend auf dem Ursprung (x0 , y0, z0 ) des Roboters 11, wie folgt ausgedrückt: x 1 = L1gx ;
    Figure DE102017211641B4_0002
    y 1 = L1gy ;
    Figure DE102017211641B4_0003
    und z 1 = L1gz ,
    Figure DE102017211641B4_0004
    durch Verwendung der x-, y- und z-Komponenten (L1gx, L1gy und L1gz) des Abstandes, basierend auf dem Ursprung des Roboters 11.
  • Die zweite Einheit 22 wird von der ersten Einheit 21 um die vertikale Achse in einem Drehwinkel φ1 gedreht. Die Koordinaten (x2 , y2 , z2 ) der Schwerpunktposition der zweiten Einheit 22 bezogen auf den Nullpunkt (x0 , y0, z0 ) des Roboters 11 werden daher wie folgt ausgedrückt: x 2 = L2gxcos φ 1 ;
    Figure DE102017211641B4_0005
    y 2 = L2gysin φ 1 ;
    Figure DE102017211641B4_0006
    und z 2 = L2gz ,
    Figure DE102017211641B4_0007
    durch Verwendung der x-, y- und z-Komponenten (L2gx, L2gy und L2gz) des Abstandes, basierend auf dem Ursprung des Roboters 11.
  • Die Koordinaten der Schwerpunktpositionen der dritten, vierten und fünften Einheit 23, 24 und 25 lauten: x 3 = ( L J1 + L J2g sin φ 2 )  cos φ 1 ;
    Figure DE102017211641B4_0008
    y 3 = ( L J1 + L J2g sin φ 2 )  sin φ 1 ;
    Figure DE102017211641B4_0009
    z 3 = L J2g cos φ 2 ;
    Figure DE102017211641B4_0010
    x 4 = ( L J1 + L J2 sin φ 2 + L J3g cos φ 3 )  cos φ 1 ;
    Figure DE102017211641B4_0011
    y 4 = ( L J1 + L J2 sin φ 2 + L J3g cos φ 3 )  sin φ 1 ;
    Figure DE102017211641B4_0012
    z 4 = L J2 cos φ 2 + L J3g sin φ 3 ;
    Figure DE102017211641B4_0013
    x 5 = ( L J1 + L J2 sin φ 2 + L J4g cos φ 3 )  cos φ 1 ;
    Figure DE102017211641B4_0014
    y 5 = ( L J1 + L J2 sin φ 2 + L J4g cos φ 3 )  sin φ 1 ;
    Figure DE102017211641B4_0015
    und z 5 = L J2 cos φ 2 + L J4g sin φ 3 .
    Figure DE102017211641B4_0016
  • Hierin bedeuten:
    • LJ1: der Versatz zwischen dem Drehpunkt der ersten Einheit 21 und dem Drehpunkt der zweiten Einheit 22;
    • LJ2: die Länge eines Gliedes, das in vertikaler Richtung um die zweite Einheit 22 geschwenkt wird;
    • LJ2g: der Abstand zwischen dem Drehpunkt der zweiten Einheit 22 und der Schwerpunktposition der zweiten Einheit 22;
    • LJ3g: Abstand zwischen dem Drehpunkt der dritten Einheit 23 und der Schwerpunktposition der dritten Einheit 23;
    • LJ4g: der Abstand zwischen dem Drehpunkt der dritten Einheit 23 und der Schwerpunktposition der vierten (Handgelenk) Einheit 24;
    • φ2: Drehwinkel der zweiten Einheit 22 um die horizontale Achse; und
    • φ3: Drehwinkel der dritten Einheit 23 um die horizontale Achse.
  • Die Koordinaten der Schwerpunktposition des Gesamt-Roboters 11 können mit Gleichung 1 berechnet werden, indem man davon ausgeht, dass n = 1 und m = 5 und die Koordinaten der Schwerpunktposition der zweiten Einheit 22 allein mit Gleichung 1 berechnet werden können, indem man davon ausgeht, dass n = m = 2. Außerdem können die Koordinaten der Schwerpunktposition einer komplexen Einheit, bestehend aus der zweiten und dritten Einheit 22 und 23, mit Gleichung 1 berechnet werden, indem man davon ausgeht, dass n = 2 und m = 3 ist.
  • Die Schwerpunktposition-Berechnungseinheit 14 berechnet und zeigt die Schwerpunktposition auf der Anzeigeeinrichtung 10a an, wenn z.B. in der Eingabemaske in 3 Informationen über die Winkel der jeweiligen Wellen und die Lasteinstellnummern eingegeben werden, wobei dann ein Umkehrpfeil angezeigt wird. Wie in 3 dargestellt ist, kann ein Pfeil zur Umkehrung der Umkehrung bereitgestellt sein. Bei dieser Konfiguration kann durch Kennzeichnung des Umkehrpfeils nach Eingabe der Lasteinstellnummern und der Schwerpunktposition die Positionsinformation der jeweiligen Wellen durch Umrechnung in umgekehrte Richtung ermittelt werden.
  • Die Schwerpunktanzeige-Erzeugungseinheit 16 ist so konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 veranlasst, ein Schwerpunktanzeigebild zu erzeugen, in dem z.B. ein vorgespeichertes Bild einer Kugel oder dergleichen in der Schwerpunktposition des Gesamt-Roboters 11 angeordnet ist, die von der Schwerpunktposition-Berechnungseinheit 14 berechnet wurde.
  • Die Bildkombinationseinheit 17 ist so konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 veranlasst, das dreidimensionale Modellbild des Roboters 11, das von der Roboterbilderzeugungseinheit 15 erzeugt wurde, und das von der Schwerpunktanzeige-Erzeugungseinheit 16 erzeugte und an der Schwerpunktposition des Gesamt-Roboters 11 angeordnete Schwerpunktanzeige-Bild zu einem kombinierten Bild zusammenzufügen.
  • Anschließend wird das von der CPU 2 erzeugte kombinierte Bild an das Lernbetrieb-Panel 10 gesendet, über die Lernbetrieb-Panel-Schnittstelle 7, von der Schwerpunktanzeige-Steuerungseinheit 9, und wird auf der Anzeigeeinrichtung 10a des Lernbetrieb-Panels 10, wie in 6 dargestellt, angezeigt.
  • Nach der entsprechend dieser Ausführungsform konfigurierten Roboter-Schwerpunktanzeigevorrichtung 1 kann ein Nutzer einfach durch Eingabe der Winkelinformationen der jeweiligen Wellen, mit denen eine Haltung des Roboters 11 erreicht wird, über die er/sie die Schwerpunktposition überprüfen möchte, und dann durch Auswählen einer Last, einfach und intuitiv ein Bild überprüfen, bei dem eine Anzeige, die den Schwerpunkt zeigt, auf ein dreidimensionales Modell-Bild des Roboters 11 überlagern, der diese Haltung einnimmt, und zwar auf der Anzeigeeinrichtung 10a. Dementsprechend ist es möglich, die Schwerpunktposition des Roboters 11 zu bestimmen, wenn der Roboter 11 transportiert wird oder wenn der Aufbau eines Robotersystems in Betracht gezogen wird, was insofern zu einem Vorteil führt, indem man verhindern kann, dass der Roboter 11 umkippt etc.
  • Durch Eingabe des Installationswinkels des Roboters 11, auch bei geneigter Montage des Roboters 11, ist es möglich, wie oben beschrieben, die Schwerpunktposition unter Berücksichtigung des Installationswinkels zu berechnen.
  • Es ist zu beachten, dass in dieser Ausführungsform zwar ein Beispiel für den Fall, dass die Spezifikationseinstelleinheit 12 aus dem nichtflüchtigen Speicher 6 besteht, beschrieben wurde, der Nutzer jedoch Informationen aus dem Lernbetrieb-Panel 10 eingeben kann.
  • Auch wenn die Haltungseinstelleinheit 13 es dem Nutzer erlaubt, Informationen aus dem Lernbetrieb-Panel 10 einzugeben, können statt dessen Informationen über die Winkel der jeweiligen Wellen in den jeweiligen Schritten des vom Nutzer benannten Roboter-Betriebsprogramms gelesen und in chronologischer Reihenfolge konfiguriert werden.
  • Genauer gesagt, jedes Mal, wenn die Informationen über die Winkel der jeweiligen Wellen in jedem Schritt aus dem Roboter-Betriebsprogramm ausgelesen werden, wird von der Roboterbilderzeugungseinheit 15 ein dreidimensionales Modellbild des Roboters 11 erzeugt, die Schwerpunktposition des Gesamt-Roboters 11 wird von der Schwerpunktposition-Berechnungseinheit 14 berechnet, eine Anzeige des Schwerpunktes wird von der Schwerpunktanzeige-Erzeugungseinheit 16 erzeugt, und die Bilder werden von der Bildkombinationseinheit 17 kombiniert und auf der Anzeigeeinheit 18 angezeigt. Folglich bewegt sich das dreidimensionale Modellbild des Roboters 11 dabei wie ein Einzelbild oder Video, und mit der Bewegung des dreidimensionalen Modellbildes bewegt sich auch die Schwerpunktposition in jeder Körperhaltung. Der Vorteil liegt also darin, dass der Nutzer während des Betriebs des Roboters 11 Änderungen der Schwerpunktposition einfach und intuitiv feststellen kann.
  • In dieser Ausführungsform ist die Form der Anzeige zwar nicht auf die Kugelform beschränkt, obwohl die Schwerpunktanzeige-Erzeugungseinheit 16 eine kugelförmige Anzeige erzeugt, die das Zentrum der Schwerkraft an der Schwerpunktposition zeigt, sondern die Anzeige kann jede beliebige Form sein. Zusätzlich zu der sphärischen oder anderen Anzeige des Schwerpunktes, wie in 6 gezeigt ist, können die Koordinatenwerte des Schwerpunktes durch Text angegeben werden. Damit kann der Nutzer die Position des Schwerpunktes genauer überprüfen.
  • In dieser Ausführungsform wird zwar der Schwerpunkt des Gesamt-Roboters 11 dargestellt, zusätzlich dazu können aber, wie beispielsweise in Fig. gezeigt wird, die Schwerpunktpositionen P1, P2 und P3 der Einheiten 21, 22, 23,24 und 25 der jeweiligen Wellen angezeigt werden.
  • In dieser Ausführungsform kann, obwohl ein Fall beschrieben wurde, in dem die Robotersteuerungsvorrichtung 100 mit der Schwerpunktanzeigevorrichtung 1 ausgerüstet ist, anstelle dessen die Schwerpunktanzeigevorrichtung 1 in einer nicht mit dem Roboter 11 verbundenen Simulationsvorrichtung vorgesehen werden. Dadurch kann, wie in 7 gezeigt ist, die vorliegende Erfindung in einem Fall verwendet werden, in dem die Schwerpunktpositionen P1, P2 und P3 in den jeweiligen Körperhaltungen des Roboters 11 simuliert werden, wenn eine große Last (z.B. ein Auto oder eine Hand zur Handhabung des Autos) oder ähnliches, was schwer vorzubereiten ist, angenommen wird.
  • Bezugszeichenliste
  • 1
    Schwerpunktanzeigevorrichtung
    2
    CPU (Schwerpunktposition-Berechnungseinheit, Roboterbilderzeuger, Schwerpunktanzeige-Erzeugungseinheit, und Bildkombinationseinheit)
    4
    ROM (Schwerpunktposition-Berechnungseinheit, Roboterbilderzeuger, Schwerpunktanzeige-Erzeugungseinheit, und Bildkombinationseinheit)
    6
    nichtflüchtiger Speicher (Spezifikationseinstelleinheit)
    10
    Lernbetrieb-Panel (Haltungseinstelleinheit)
    11
    Roboter
    12
    Spezifikationseinstelleinheit
    13
    Haltungseinstelleinheit
    14
    Schwerkraftposition-Berechnungseinheit
    15
    Roboterbilderzeugungseinheit
    17
    Bildkombiniereinheit
    18
    Anzeigeeinheit
    21, 22, 23, 24 und 25
    Einheit (Komponente)
    26
    Hand (Komponente)
    27
    Werkstück (Komponente und Last)
    100
    Robotersteuerungsvorrichtung

Claims (8)

  1. Roboter-Schwerpunktanzeigevorrichtung (1), umfassend: eine Spezifikationseinstelleinheit (12), die die Spezifikationen der jeweiligen Wellen des Roboters (11), welche sich aus Daten zu den jeweiligen Gliedern, die als Komponenten der jeweiligen Wellen des Roboters (11) dienen, ergeben, einstellt, einschließlich wenigstens der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten der jeweiligen Wellen eines Roboters (11); eine Haltungseinstelleinheit (13), die die Positionsinformationen der jeweiligen Wellen des Roboters (11) durch Eingabe durch einen Benutzer einstellt; eine Roboter-Bilderzeugungseinheit (15), die ein dreidimensionales Modellbild des Roboters (11) in einem Zustand erzeugt, in dem die jeweiligen Wellen des Roboters (11) an den durch die Positionsinformation angegebenen Positionen auf der Grundlage der durch die Haltungseinstelleinheit (13) gesetzten Positionsinformation der jeweiligen Wellen des Roboters (11) und der durch die Spezifikationseinstelleinheit (12) gesetzten Spezifikationen der Komponenten angeordnet sind; eine Schwerpunktposition-Berechnungseinheit (14), die die Schwerpunktposition des Gesamtroboters (11) auf der Grundlage der Positionsinformationen der jeweiligen Wellen des Roboters (11) berechnet, die von der Haltungseinstelleinheit (13) und den von der Spezifikationseinstelleinheit (12) eingestellten Spezifikationen der jeweiligen Welle festgelegt sind; eine Bildkombinationseinheit (17), die eine Anzeige überlagert, die den Schwerpunkt des gesamten Roboters (11) auf dem dreidimensionalen Modellbild des Roboters (11) zeigt, das von der Roboter-Bilderzeugungseinheit (15) erzeugt wird, und zwar in der von der Schwerpunktposition-Berechnungseinheit (14) berechneten Schwerpunktposition; und eine Anzeigeeinheit (10a), die das von der Bildkombinationseinheit (17) erzeugte Bild anzeigt.
  2. Roboter-Schwerpunktanzeigevorrichtung (1) nach Anspruch 1, wobei die Anzeige, die den Schwerpunkt anzeigt, Koordinatenwerte enthält, die die Schwerpunktposition des gesamten Roboters (11) anzeigen.
  3. Roboter-Schwerpunktanzeigevorrichtung (1) nach Anspruch 1 oder 2, wobei die Schwerpunktposition-Berechnungseinheit (14) die Schwerpunktpositionen der jeweiligen Komponenten berechnet, und die Bildkombinationseinheit (17) auf dem dreidimensionalen Modellbild Anzeigen überlagert, die die Schwerpunktposition der jeweiligen Komponenten auf dem dreidimensionalen Modellbild zeigen, an den Schwerpunktpositionen der jeweiligen Komponenten.
  4. Roboter-Schwerpunktanzeigevorrichtung (1) nach einem der Ansprüche 1 bis 3, wobei die Komponenten eine Last am vorderen Ende des Roboters (11) enthalten.
  5. Roboter-Schwerpunktanzeigevorrichtung (1) nach einem der Ansprüche 1 bis 4, wobei die Haltungseinstelleinheit (13) mehrere Sätze von Positionsinformationen der jeweiligen Wellen des Roboters (11) liest, die in einem Betriebsprogramm des Roboters aufgezeichnet sind, und die Positionsinformationen in einer chronologischen Reihenfolge konfiguriert.
  6. Roboter-Schwerpunktanzeigevorrichtung (1) nach einem der Ansprüche 1 bis 5, wobei die Positionsinformation der jeweiligen Wellen des Roboters (11) den Installationswinkel des Roboters (11) einschließt.
  7. Robotersteuerungsvorrichtung (100), umfassend die Roboter-Schwerpunktanzeigevorrichtung (1) nach einem der Ansprüche 1 bis 6.
  8. Robotersimulationsvorrichtung, umfassend die Roboter-Schwerpunktanzeigevorrichtung (1) nach einem der Ansprüche 1 bis 6.
DE102017211641.2A 2016-07-12 2017-07-07 Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung Active DE102017211641B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016137349A JP6457441B2 (ja) 2016-07-12 2016-07-12 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置
JP2016-137349 2016-07-12

Publications (2)

Publication Number Publication Date
DE102017211641A1 DE102017211641A1 (de) 2018-01-18
DE102017211641B4 true DE102017211641B4 (de) 2019-11-07

Family

ID=60783082

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017211641.2A Active DE102017211641B4 (de) 2016-07-12 2017-07-07 Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung

Country Status (4)

Country Link
US (1) US10302519B2 (de)
JP (1) JP6457441B2 (de)
CN (1) CN107598946B (de)
DE (1) DE102017211641B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6542839B2 (ja) * 2017-06-07 2019-07-10 ファナック株式会社 制御装置及び機械学習装置
DE112018002565B4 (de) * 2017-08-10 2021-07-01 Robert Bosch Gmbh System und Verfahren zum direkten Anlernen eines Roboters
JP6703020B2 (ja) * 2018-02-09 2020-06-03 ファナック株式会社 制御装置及び機械学習装置
EP3584751A1 (de) * 2018-06-20 2019-12-25 Siemens Aktiengesellschaft Verfahren zum erstellen eines digitalen zwillings
JP7260405B2 (ja) * 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
KR20190117421A (ko) * 2019-09-27 2019-10-16 엘지전자 주식회사 운송 로봇 및 그의 제어 방법
CN113654727A (zh) * 2021-09-10 2021-11-16 广东博智林机器人有限公司 重心位置测量方法、系统及装置、计算机设备和存储介质
CN114427932B (zh) * 2022-04-07 2022-06-17 中国汽车技术研究中心有限公司 一种用于碰撞假人的质心测量方法及质心测量仪
CN116296070A (zh) * 2023-04-06 2023-06-23 唐山唐擎科技有限公司 一种重心测量系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0355189A (ja) * 1989-07-20 1991-03-08 Mitsubishi Electric Corp ロボットの力制御方法及び装置
JPH10138187A (ja) * 1996-11-01 1998-05-26 Nachi Fujikoshi Corp 多関節ロボットの負荷重量及び負荷重心位置の自動算出方法
JP2003196323A (ja) * 2001-12-27 2003-07-11 Toyota Motor Corp 重量・重心位置設計支援装置、重量・重心位置設計支援方法および重量・重心位置設計支援プログラム
EP2070662A1 (de) * 2006-09-06 2009-06-17 Toyota Jidosha Kabushiki Kaisha Roboter mit beinen
JP2012040634A (ja) * 2010-08-18 2012-03-01 Ihi Corp 力制御ロボットのキャリブレーション装置と方法
DE102015114584A1 (de) * 2014-09-02 2016-03-03 Toyota Jidosha Kabushiki Kaisha Fahrroboter, bewegungsplanungsverfahren für einen fahrroboter, und speichermedium, das ein programm für einen fahrroboter speichert
DE102016006704A1 (de) * 2015-06-08 2016-12-22 Fanuc Corporation Robotersteuerung mit Funktion zum Anzeigen von Roboter und Kraft

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH058061Y2 (de) * 1985-10-14 1993-03-01
JPH0430203A (ja) 1990-05-25 1992-02-03 Fanuc Ltd ロボットの加減速時定数制御方法
CN1067515A (zh) * 1991-06-01 1992-12-30 宗教法人金刚禅总本山少林寺 动画片制作方法
US5214749A (en) * 1991-06-12 1993-05-25 Massachusetts Institute Of Technology Dynamic control of a robot with its center of mass decoupled from an end effector by a redundant linkage
JP4518615B2 (ja) 2000-03-30 2010-08-04 ソニー株式会社 脚式移動ロボットの動作制御システム及び動作制御方法
KR100977348B1 (ko) * 2002-03-15 2010-08-20 소니 주식회사 다리식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치
US7873436B2 (en) * 2004-01-13 2011-01-18 Honda Motor Co., Ltd. Gait generator for mobile robot
EP1783517A1 (de) * 2005-11-04 2007-05-09 AGELLIS Group AB Multi-dimensionale Abbildungsmethode und Apparat
US7798264B2 (en) * 2006-11-02 2010-09-21 Hutcheson Timothy L Reconfigurable balancing robot and method for dynamically transitioning between statically stable mode and dynamically balanced mode
JP4508252B2 (ja) * 2008-03-12 2010-07-21 株式会社デンソーウェーブ ロボット教示装置
JP4569653B2 (ja) 2008-03-24 2010-10-27 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
US8930019B2 (en) * 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
JP5146621B2 (ja) * 2011-01-31 2013-02-20 トヨタ自動車株式会社 多関節型アームロボット、制御方法及び制御プログラム
US8805584B2 (en) * 2011-11-22 2014-08-12 Disney Enterprises, Inc Kinematic and dynamic calibration methods for legged robots with force-controlled joints
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US9393693B1 (en) * 2014-07-10 2016-07-19 Google Inc. Methods and systems for determining and modeling admissible gripper forces for robotic devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0355189A (ja) * 1989-07-20 1991-03-08 Mitsubishi Electric Corp ロボットの力制御方法及び装置
JPH10138187A (ja) * 1996-11-01 1998-05-26 Nachi Fujikoshi Corp 多関節ロボットの負荷重量及び負荷重心位置の自動算出方法
JP2003196323A (ja) * 2001-12-27 2003-07-11 Toyota Motor Corp 重量・重心位置設計支援装置、重量・重心位置設計支援方法および重量・重心位置設計支援プログラム
EP2070662A1 (de) * 2006-09-06 2009-06-17 Toyota Jidosha Kabushiki Kaisha Roboter mit beinen
JP2012040634A (ja) * 2010-08-18 2012-03-01 Ihi Corp 力制御ロボットのキャリブレーション装置と方法
DE102015114584A1 (de) * 2014-09-02 2016-03-03 Toyota Jidosha Kabushiki Kaisha Fahrroboter, bewegungsplanungsverfahren für einen fahrroboter, und speichermedium, das ein programm für einen fahrroboter speichert
DE102016006704A1 (de) * 2015-06-08 2016-12-22 Fanuc Corporation Robotersteuerung mit Funktion zum Anzeigen von Roboter und Kraft

Also Published As

Publication number Publication date
JP2018008326A (ja) 2018-01-18
CN107598946B (zh) 2019-09-24
US20180017461A1 (en) 2018-01-18
JP6457441B2 (ja) 2019-01-23
DE102017211641A1 (de) 2018-01-18
US10302519B2 (en) 2019-05-28
CN107598946A (zh) 2018-01-19

Similar Documents

Publication Publication Date Title
DE102017211641B4 (de) Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung
DE102016012065B4 (de) Robotersystem mit Funktion zum Berechnen von Position und Ausrichtung eines Sensors
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE102019007720B4 (de) Robotervorrichtung
DE102016107397B4 (de) Bahnanzeigevorrichtung zur darstellung der bahn einer werkzeugachse
DE102015011830C5 (de) Robotersystem zum Einstellen eines Bewegungsüberwachungsbereichs eines Roboters
DE102015000589A1 (de) Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem
DE102019002928B4 (de) Simulationsvorrichtung für Roboter
DE102017128543A1 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102014116845B4 (de) Verfahren zum Ermitteln einer Bewegungsgrenze
DE102018108728A1 (de) Kalibriersystem
DE102019001038B4 (de) Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
DE102018100420B4 (de) Offline-Programmierungseinrichtung und Positionsparameterkorrekturverfahren
DE102018200240A1 (de) Robotersteuerungsvorrichtung
DE102020210240A1 (de) Robotersteuerung
DE102014014524A1 (de) Werkzeugbahnanzeigevorrichtung, mit einer Anzeigeeinheit für Bahndaten
DE102016009436B4 (de) Robotersteuerung, die ein Rütteln einer Werkzeugspitze bei einem Roboter verhindert, der mit einer Verfahrachse ausgestattet ist
DE102018208782A1 (de) Verfahren zur Qualitätssicherung bei der Produktion eines Produktes sowie Recheneinrichtung und Computerprogramm
DE102017000307A1 (de) Verfahren zum Kalibrieren einer Kamera für ein Kraftfahrzeug unter Berücksichtigung eines Kalibrierfehlers, Kamera sowie Kraftfahrzeug
DE102018004326B4 (de) Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks
EP3153281B1 (de) Werkzeuganalyseeinrichtung und verfahren zur analyse einer bearbeitung eines werkstücks mit einem werkzeug
EP2118618B1 (de) Verfahren zum ermitteln von messstellen
DE102018004947B3 (de) Verfahren zur Steuerung von Antrieben eines Roboters und Robotersystem
DE102019202705A1 (de) Abfahren eines Pfades mit einem mobilen Roboter

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final