DE102018112403A1 - ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT - Google Patents

ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT Download PDF

Info

Publication number
DE102018112403A1
DE102018112403A1 DE102018112403.1A DE102018112403A DE102018112403A1 DE 102018112403 A1 DE102018112403 A1 DE 102018112403A1 DE 102018112403 A DE102018112403 A DE 102018112403A DE 102018112403 A1 DE102018112403 A1 DE 102018112403A1
Authority
DE
Germany
Prior art keywords
robot
unit
image
display device
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018112403.1A
Other languages
German (de)
Other versions
DE102018112403B4 (en
Inventor
Tomonori Matsushima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018112403A1 publication Critical patent/DE102018112403A1/en
Application granted granted Critical
Publication of DE102018112403B4 publication Critical patent/DE102018112403B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/12Programme-controlled manipulators characterised by positioning means for manipulator elements electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Es handelt sich um ein Robotersystem, das eine Robotersteuervorrichtung, ein Lehrbedienpanel, das einen Orthogonalvorrückbetriebsabschnitt enthält, und eine Informationsanzeigevorrichtung umfasst. Die Robotersteuervorrichtung setzt mehrere Positionen in einem Roboterkoordinatensystem, durch die ein Handspitzenbereich eines Roboters verlaufen kann, als Abtastpunkte an und meldet der Informationsanzeigevorrichtung die Positionen der einzelnen Abtastpunkte und dahingehende Bestimmungsergebnisinformationen, ob die einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs liegen oder nicht, und ob die einzelnen Abtastpunkte Singularitätsumgebungen sind oder nicht. Die Informationsanzeigevorrichtung erzeugt unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild, in dem sich Abschnitte des Beweglichkeitsbereichs, Abschnitte von Singularitätsumgebungen, und dergleichen optisch unterscheiden, und zeigt es auf ein Bild des Roboters gelegt an.It is a robot system including a robot control device, a teaching operation panel including an orthogonal advance operation section, and an information display device. The robot control device sets a plurality of positions in a robot coordinate system through which a hand tip area of a robot can pass through as sampling points, and notifies the information display device of the positions of the individual sampling points and related determination result information as to whether or not the individual sampling points are within the range of movement of the hand tip area single sample points are singularity environments or not. The information display device generates, using the positions of the individual sampling points and the determination result information, a graphic image in which portions of the mobility range, portions of singularity environments, and the like are optically different, and displays it superimposed on an image of the robot.

Description

Allgemeiner Stand der TechnikGeneral state of the art

Gebiet der ErfindungField of the invention

Die vorliegende Erfindung betrifft ein Robotersystem, das Informationen zur Unterweisung eines Roboters anzeigt.The present invention relates to a robot system that displays information for instructing a robot.

Beschreibung des Stands der TechnikDescription of the Related Art

Wenn an Industriestandorten Knickarmroboter für Arbeiten verwendet werden, kann es vorkommen, dass ein Betreiber des Roboters den Roboter unter Verwendung an eines an eine Robotersteuervorrichtung angeschlossenen Lehrbedienpanels tatsächlich betreibt und dem Roboter gewünschte Arbeitshandlungen lehrt.When articulated robots are used for work at industrial sites, it may happen that an operator of the robot actually operates the robot using a teaching operation panel connected to a robot control device and teaches the robot desired work actions.

Beim Lehrbetrieb des Roboters wird in fast allen Fällen ein Betrieb, bei dem der Roboter unter Drücken von Tasten, die an dem Lehrbedienpanel angeordnet sind und Roboterbewegungsrichtungen zeigen, an gewünschte Positionen bewegt wird, ein sogenannter Vorrückbetrieb, vorgenommen. Als Hauptbedienverfahren des Vorrückbetriebs gibt es den orthogonalen Vorrückbetrieb, bei dem der Handspitzenbereich des Roboters in die Richtung einer X-Achse, einer Y-Achse oder einer Z-Achse eines an dem Roboter festgemachten orthogonalen Koordinatensystems bewegt wird, und den Vorrückbetrieb für eine jeweilige Achse, bei dem der Roboter für einen jeweiligen Achsenabschnitt des Roboters in eine Richtung um die Achse bewegt wird. Da der orthogonale Vorrückbetrieb eine Betrieb ist, der auf einem für den Menschen leicht verständlichen orthogonalen Koordinatensystem beruht, nimmt der Betreiber den Lehrbetrieb des Roboters häufig durch den orthogonalen Vorrückbetrieb vor.In the teaching operation of the robot, in almost all cases, an operation in which the robot is moved to desired positions by pressing keys arranged on the teaching operation panel and showing robot moving directions, a so-called advancing operation, is performed. As the main operation method of the advancing operation, there is the orthogonal advancing mode in which the hand tip area of the robot is moved in the direction of an X-axis, Y-axis or Z-axis of an orthogonal coordinate system fixed to the robot, and the advancing operation for each axis in which the robot is moved in a direction about the axis for a respective intercept of the robot. Since the orthogonal advancing operation is an operation based on an orthogonal coordinate system which is easily understood by humans, the operator often makes the teaching operation of the robot by the orthogonal advancing operation.

Außerdem wurde bisher eine Technik vorgeschlagen, bei der bei der Vornahme der Bestimmung des Vorrückmodus durch den Betreiber unter Betätigen des Lehrbedienpanels der Robotersteuervorrichtung der Inhalt des bestimmten Vorrückmodus, zum Beispiel die Vorschubrichtung für das Vorrücken, zusammen mit einem Bild des Roboters grafisch an einem Bildschirm angezeigt wird (siehe zum Beispiel die Patentoffenlegungsschrift Hei-7-295625).Also, there has heretofore been proposed a technique in which, upon the operator's determination of the advance mode by operating the teaching operation panel of the robot control device, the content of the predetermined advance mode, for example, the advance advancing direction together with an image of the robot is graphically displayed on a screen (see, for example, patent publication Hei-7-295625).

Kurzdarstellung der ErfindungBrief description of the invention

Im Allgemeinen wird bei der Erzeugung einer Befehlsposition durch Bestimmen der Bewegungsrichtung des Roboterhandspitzenbereichs bei dem oben genannten orthogonalen Vorrückbetrieb der Drehwinkel jedes Achsenabschnitts durch eine Berechnung der inversen Kinematik aus der Befehlsposition berechnet und werden die einzelnen Achsenabschnitte auf Basis des berechneten Werts so koordiniert bewegt, dass der Roboterhandspitzenbereich an die Befehlsposition bewegt wird. Daher ist es schwierig, den Roboter in Bezug auf eine Befehlsposition zu bewegen, für die keine Lösung der Berechnung der inversen Kinematik erhalten wird. Da beispielsweise bei einer Befehlsposition, an der eine Roboterlage zustande kommt, bei die Drehachsen von zwei oder mehr Achsenabschnitten auf einer geraden Linie nebeneinander liegen, die Drehwinkel der jeweiligen Achsenabschnitte nicht eindeutig bestimmt werden können, kann der Roboter nicht an eine solche Position bewegt werden. Eine Position, an der ein Roboter auf diese Weise nicht mehr gesteuert werden kann, wird als Singularität bezeichnet, und bei der Vornahme der Unterweisung des Roboters durch den orthogonalen Vorrückbetrieb ist es nötig, den Handspitzenbereich des Roboters so zu bewegen, dass Singularitäten und ihre Umgebungen vermieden werden.In general, in generating a command position by determining the moving direction of the robot hand tip area in the above-mentioned orthogonal advancing operation, the rotation angle of each axis portion is calculated by calculating the inverse kinematics from the command position, and the individual axis portions are coordinatedly moved on the basis of the calculated value Robot hand tip area is moved to the command position. Therefore, it is difficult to move the robot with respect to a command position for which no solution of the inverse kinematics calculation is obtained. For example, in a command position where a robot attitude is established, if the rotation axes of two or more axis sections are juxtaposed on a straight line, the rotation angles of the respective axis sections can not be uniquely determined, the robot can not be moved to such a position. A position where a robot can not be controlled in this way is called a singularity, and in performing the instruction of the robot by the orthogonal advancing operation, it is necessary to move the hand tip area of the robot so that singularities and their surroundings be avoided.

Doch da Singularitäten von dem Mechanismus des Roboters abhängen, kommt es häufig vor, dass der Betreiber nicht erkennen kann, dass sich die Lage des Roboters einer Singularität nähert; und es hängen auch Bereiche, die als Umgebung einer Singularität bestimmt werden, von der Position der Singularität ab. Daher ist das Herausfinden der Vorgangsweise, um einer Singularität effektiv auszuweichen, für den Betreiber äußerst schwierig. Da bei dem Verfahren, das in der oben genannten Patentoffenlegungsschrift Hei-7-295625 offenbart wurde, nur die Vorschubrichtung für das Vorrücken grafisch dargestellt wird, können dem Betreiber Positionen von Singularitäten während der Unterweisung des Roboters nicht erkennbar gemacht werden.However, since singularities depend on the mechanism of the robot, it often happens that the operator can not recognize that the position of the robot is approaching a singularity; and also areas which are determined to be the environment of a singularity depend on the position of the singularity. Therefore, finding the way to effectively avoid a singularity is extremely difficult for the operator. In the method disclosed in the above-mentioned Patent Publication Hei-7-295625, since only the advancing feed direction is graphically displayed, the operator can not recognize positions of singularities during the teaching of the robot.

Daher wird eine Technik gewünscht, wodurch dem Betreiber die Bewegungsrichtung des Handspitzenbereichs des Roboters sowie in dieser Bewegungsrichtung befindliche Singularitäten bei dem orthogonalen Vorrückbetrieb leicht erkennbar gemacht werden können.Therefore, a technique is desired whereby the operator can easily see the moving direction of the hand tip area of the robot and singularities located in this moving direction in the orthogonal advance operation.

Eine Form der vorliegenden Offenbarung ist ein Robotersystem, das eine Robotersteuervorrichtung, die einen Roboter steuert, ein Lehrbedienpanel, das einen Orthogonalvorrückbetriebsabschnitt enthält, der eine manuelle Betätigung des Roboters in Bezug auf jede Richtung von drei orthogonalen Achsenrichtungen eines an dem Roboter festgemachten Roboterkoordinatensystems oder eine zusammengesetzte Richtung vornimmt, und eine Informationsanzeigevorrichtung, die Informationen zur Unterweisung des Roboters anzeigt, umfasst, wobei die Robotersteuervorrichtung
eine Abtastpunktberechnungseinheit, die jeweils mit einer bestimmten Periode mehrere Positionen in dem Roboterkoordinatensystem, durch die ein Handspitzenbereich des Roboters in einer durch den Orthogonalvorrückbetriebsabschnitt bestimmten Bewegungsrichtung verlaufen kann, berechnet und als Abtastpunkte ansetzt,
eine Bestimmungseinheit, die eine Bestimmungsverarbeitung vornimmt, wodurch bestimmt wird, ob die einzelnen Abtastpunkte Umgebungen einer Singularität des Roboters sind oder nicht, und
eine Meldeeinheit, die der Informationsanzeigevorrichtung die Positionen der einzelnen Abtastpunkte sowie Bestimmungsergebnisinformationen, die das Ergebnis der Bestimmungsverarbeitung für die einzelnen Abtastpunkte zeigt, meldet,
umfasst, und
die Informationsanzeigevorrichtung
eine Kamera, die den Roboter aufnimmt,
eine Anzeigeeinheit, die das durch die Kamera aufgenommene Bild des Roboters anzeigt, und
eine Anzeigeverarbeitungseinheit, die eine Verarbeitung vornimmt, um unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild so zu erzeugen, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt, und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs, Abschnitte außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs und Abschnitte von Singularitätsumgebungen auf der geradlinigen Bahn optisch unterscheiden, und auf das Bild des Roboters zu legen,
umfasst.
One form of the present disclosure is a robot system that includes a robot control device that controls a robot, a teaching operation panel that includes an orthogonal advance operation section, a manual operation of the robot with respect to each direction of three orthogonal axis directions of a robot coordinate system moored to the robot, or a composite robot Direction, and an information display device that displays information for instructing the robot comprises, wherein the robot control device
a sample point calculation unit, each having a certain period, a plurality of positions in the robot coordinate system through which a hand tip area of the robot in a through the Orthogonalvorrückbetriebsabschnitt certain movement direction can run, calculated and sets as sampling points,
a determination unit that performs determination processing, whereby it is determined whether or not the individual sample points are environments of a singularity of the robot, and
a notification unit that notifies the information display device of the positions of the individual sampling points and determination result information showing the result of the determination processing for the individual sampling points,
includes, and
the information display device
a camera that picks up the robot,
a display unit that displays the image of the robot taken by the camera, and
a display processing unit that performs processing to generate a graphic image using the positions of the individual sample points and the determination result information to be a straight line passing through the individual sample points, and portions within the range of movement of the hand tip region, portions outside of the range of motion of the hand tip area and optically distinguish sections of singularity environments on the rectilinear path, and place on the image of the robot,
includes.

Figurenlistelist of figures

Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden durch die nachstehende Erklärung von Ausführungsformen in Verbindung mit den beiliegenden Zeichnungen noch klarer werden. In den beiliegenden Zeichnungen

  • ist 1 ein Funktionsblockdiagramm, das ein Robotersystem nach einer Ausführungsform zeigt,
  • ist 2 eine Seitenansicht, die ein Aufbaubeispiel für einen Roboter zeigt;
  • ist 3A eine schematische Ansicht, die ein Beispiel für Singularitäten eines Knickarmroboters zeigt;
  • ist 3B eine schematische Ansicht, die ein anderes Beispiel für Singularitäten eines Knickarmroboters zeigt;
  • ist 4 eine Ansicht, die ein Beispiel für ein Aufnahmebild eines Roboters, auf das durch das Robotersystem einer Ausführungsform ein Grafikbild gelegt wurde, schematisch zeigt;
  • ist 5 ein Ablaufdiagramm, das den Verarbeitungsablauf der Robotersteuervorrichtung von 1 zeigt; und
  • ist 6 ein Ablaufdiagramm, das den Verarbeitungsablauf der Informationsanzeigevorrichtung von 1 zeigt.
The objects, features and advantages of the present invention will become more apparent from the following explanation of embodiments in conjunction with the accompanying drawings. In the accompanying drawings
  • is 1 FIG. 4 is a functional block diagram showing a robot system according to an embodiment; FIG.
  • is 2 a side view showing a structural example of a robot;
  • is 3A a schematic view showing an example of singularities of a articulated robot;
  • is 3B a schematic view showing another example of singularities of a articulated robot;
  • is 4 10 is a view schematically showing an example of a photograph of a robot on which a graphic image has been laid by the robot system of one embodiment;
  • is 5 a flowchart illustrating the processing flow of the robot control device of 1 shows; and
  • is 6 a flow chart illustrating the processing flow of the information display device of 1 shows.

Ausführliche ErklärungDetailed explanation

Nachstehend werden unter Bezugnahme auf die beiliegenden Zeichnungen Beispiele für die Ausführung der vorliegenden Erfindung erklärt. Über die gesamten Zeichnungen hinweg sind entsprechende Aufbauelemente mit gemeinsamen Bezugszeichen versehen. Zur Erleichterung des Verständnisses ist der Maßstab dieser Zeichnungen passend verändert. Die in den Zeichnungen gezeigten Formen stellen ein Beispiel für die Ausführung der vorliegenden Erfindung dar, doch ist die vorliegende Erfindung nicht auf die dargestellten Formen beschränkt.Hereinafter, examples of the embodiment of the present invention will be explained with reference to the accompanying drawings. Across the entire drawings, corresponding components are provided with common reference numerals. To facilitate understanding, the scale of these drawings has been changed appropriately. The shapes shown in the drawings represent an example of the embodiment of the present invention, but the present invention is not limited to the illustrated forms.

1 ist ein Funktionsblockdiagramm, das ein Robotersystem 1 nach einer Ausführungsform zeigt. 1 is a functional block diagram that is a robotic system 1 according to one embodiment shows.

Das Robotersystem 1 der vorliegenden Ausführungsform umfasst eine Robotersteuervorrichtung 11, die einen Roboter 10 steuert, ein Lehrbedienpanel 12 zur Vornahme eines Lehrbetriebs des Roboters 10, und eine Informationsanzeigevorrichtung 13, die Informationen im Zusammenhang mit der Steuerung des Roboters 10 anzeigt.The robot system 1 The present embodiment includes a robot control device 11 that is a robot 10 controls, a teaching panel 12 to do a teaching operation of the robot 10 , and an information display device 13 containing information related to the control of the robot 10 displays.

2 ist eine Seitenansicht, die ein Aufbaubeispiel für den Roboter 10 zeigt. Der dargestellte Roboter 10 ist ein vertikaler sechsachsiger Knickarmroboter Der Roboter 10 umfasst wie in 2 gezeigt sechs Achsenabschnitte 10a1 bis 10a6 und mehrere Armabschnitte (Gelenkabschnitte) 10b, die jeweils durch die Achsenabschnitte 10a1 bis 10a6 verbunden sind. In die einzelnen Achsenabschnitte 10a1 bis 10a6 sind Motoren (nicht dargestellt), die die einzelnen Armabschnitte 10b drehend antreiben, eingebaut. Was die Form des Roboters, auf die die vorliegende Erfindung anwendbar ist, betrifft, besteht keine Beschränkung auf die Roboterausführung von 2, solange es sich um einen Knickarmroboter mit mehreren Gelenkabschnitten handelt. 2 is a side view showing a structural example of the robot 10 shows. The robot shown 10 is a vertical six-axis articulated robot The robot 10 includes as in 2 shown six interceptions 10a1 to 10A6 and several arm sections (joint sections) 10b , respectively through the intercepts 10a1 to 10A6 are connected. In the individual axis sections 10a1 to 10A6 are motors (not shown), which are the individual arm sections 10b driving in rotation, installed. As for the shape of the robot to which the present invention is applicable, there is no limitation to the robot embodiment of FIG 2 , as long as it is an articulated robot with multiple joint sections.

Außerdem ist an dem Hauptkörper des Roboters 10 ein Roboterkoordinatensystem 26 festgemacht. Bei der vorliegenden Ausführungsform ist der Ursprungspunkt des Roboterkoordinatensystems 26 an dem Basisabschnitt des Roboters 10 eingerichtet. In 2 ist das Roboterkoordinatensystem 26 durch den gestrichelten runden Rahmen auch vergrößert dargestellt. Bei dem Beispiel von 2 ist der Ursprungspunkt des Roboterkoordinatensystems 26 an dem Basisabschnitt des Roboters 10 eingerichtet und wird, mit dem Ursprungspunkt als Zentrum, die rechte Richtung in 2 als positive X-Richtung, die Aufwärtsrichtung in 2 als positive Z-Richtung, und die in Bezug auf die Papierfläche von 2 nach hinten verlaufende Richtung als positive Y-Richtung angesetzt. Die Robotersteuervorrichtung 11 und das Lehrbedienpanel 12 können die Position des Handspitzenbereichs des Roboters 10, zum Beispiel den TCP (tool center point, Werkzeugmittelpunkt) 27 unter Verwendung von Positionen (Koordinaten) des oben beschriebenen Roboterkoordinatensystems 26 steuern.Also, on the main body of the robot 10 a robot coordinate system 26 fixed. In the present embodiment, the origin point of the robot coordinate system is 26 at the base portion of the robot 10 set up. In 2 is the robot coordinate system 26 also shown enlarged by the dashed round frame. In the example of 2 is the origin point of the robot coordinate system 26 at the base portion of the robot 10 is set up and, with the origin point as the center, the right direction in 2 as a positive x-direction, the upward direction in 2 as a positive Z-direction, and in terms of the paper surface of 2 Rearward direction as positive Y direction attached. The robot control device 11 and the teaching panel 12 can the position of the hand tip area of the robot 10 , for example the TCP (tool center point, tool center) 27 using positions (coordinates) of the robot coordinate system described above 26 Taxes.

Unter erneuter Bezugnahme auf 1 ist das Lehrbedienpanel 12 drahtgebunden oder drahtlos kommunikationsfähig an die Robotersteuervorrichtung 11 angeschlossen. Das Lehrbedienpanel 12 enthält einen Orthogonalvorrückbetriebsabschnitt 14 zur Vornahme einer manuellen Betätigung des Roboters 10 in Bezug auf jede Richtung der drei orthogonalen Achsenrichtungen (X-Achsen-Richtung, Y-Achsen-Richtung, Z-Achsen-Richtung) des an dem Roboter 10 festgemachten Roboterkoordinatensystems 26 oder eine zusammengesetzte Richtung.Referring again to 1 is the teaching control panel 12 wired or wirelessly communicable to the robotic control device 11 connected. The teaching control panel 12 contains an orthogonal advance operation section 14 to perform a manual operation of the robot 10 with respect to each direction of the three orthogonal axis directions (X-axis direction, Y-axis direction, Z-axis direction) of the robot 10 moored robot coordinate system 26 or a compound direction.

Das Lehrbedienpanel 12 weist neben dem Orthogonalvorrückbetriebsabschnitt 14 auch einen Vorrückbetriebsabschnitt für eine jeweilige Achse, einen Werkzeugvorrückbetriebsabschnitt usw. (nicht dargestellt) auf. Der Vorrückbetriebsabschnitt für eine jeweilige Achse ist eine Betriebseinheit, um die einzelnen Achsenabschnitte 10a des Roboters 10 jeweils einzeln manuell zu betreiben, und der Werkzeugvorrückbetriebsabschnitt ist eine Betriebseinheit, um den Roboter 10 auf Basis eines Werkzeugkoordinatensystems, das an einer Flanschfläche 28 (siehe 2) des Handspitzenbereichs des Roboters 10, die so ausgebildet ist, dass daran ein Werkzeug angebracht werden kann, festgemacht ist, manuell zu betreiben. Als Werkzeug kann ein Handabschnitt, ein Bolzenbefestigungsmittel, eine Schweißpistole oder dergleichen verwendet werden.The teaching control panel 12 indicates next to the orthogonal advance operation section 14 Also, an advancing operation section for each axis, a tool advancing operation section, etc. (not shown). The advancing operation section for each axis is an operation unit around the individual axis sections 10a of the robot 10 each individually to operate manually, and the Werkzeugvorrückbetriebsabschnitt is an operating unit to the robot 10 based on a tool coordinate system attached to a flange surface 28 (please refer 2 ) of the hand tip area of the robot 10 , which is designed so that a tool can be attached thereto, is fixed to operate manually. As a tool, a hand portion, a bolt fastener, a welding gun, or the like can be used.

Die Robotersteuervorrichtung 11 verfügt über die Funktion, Bewegungsbefehle für die einzelnen Achsenabschnitte 10a des Roboters 10 gemäß einem vorab in der Robotersteuervorrichtung 11 gespeicherten Betriebsprogramm zu erzeugen und an die Motoren der einzelnen Achsenabschnitte 10a zu senden und Drehwinkel und Drehgeschwindigkeiten der einzelnen Achsenabschnitte 10a des Roboters 10 zu erhalten.The robot control device 11 has the function of moving commands for each intercept 10a of the robot 10 according to an advance in the robot control device 11 stored operating program and to the motors of the individual axis sections 10a to send and rotation angle and rotational speeds of each axis sections 10a of the robot 10 to obtain.

Die Motoren der einzelnen Achsenabschnitte 10a sind mit Codierern, die den Drehwinkel und die Drehgeschwindigkeit des betreffenden Motors detektieren, versehen. Die Drehwinkel und die Drehgeschwindigkeiten der einzelnen Achsenabschnitte 10a, werden durch die Codierer, die an den Motoren der einzelnen Achsenabschnitte 10a bereitgestellt sind, erlangt. Die Robotersteuervorrichtung 11 ist so ausgeführt, dass sie den Roboter 10 so steuert, dass die von den Codierern ausgegebenen Drehwinkel und Drehgeschwindigkeiten und Bewegungsbefehle (Positionsbefehle und Geschwindigkeitsbefehle) übereinstimmen. Es besteht jedoch keine Beschränkung auf Codierer; an den einzelnen Achsenabschnitten 10 können auch Messeinrichtungen, die die Drehposition und die Drehgeschwindigkeit des Achsenabschnitts 10a messen können, bereitgestellt sein.The motors of the individual axle sections 10a are provided with encoders that detect the rotation angle and the rotational speed of the respective engine. The rotation angles and the rotation speeds of the individual axis sections 10a , be through the encoders attached to the motors of each intercept 10a are obtained. The robot control device 11 is designed to be the robot 10 so controls that the output from the encoders rotation angle and rotational speeds and movement commands (position commands and speed commands) match. However, there is no limitation to encoders; at the individual axis sections 10 may also include measuring equipment, the rotational position and the rotational speed of the intercept 10a can be measured, provided.

Wenn dem Roboter 10 ein gewünschter Arbeitsbetrieb gelehrt wird, nimmt der Betreiber einen Lehrbetrieb des Roboters 10 unter Verwendung des Lehrbedienpanels 12 vor. Wenn der Betreiber zum Beispiel eine Vorrücktaste für die positive X-Achsen-Richtung an dem Orthogonalvorrückbetriebsabschnitt 14 drückt, erzeugt ein Prozessor (nicht dargestellt) in dem Lehrbedienpanel 12 einen der gedrückten Vorrücktaste entsprechenden Bewegungsbefehl in der positiven X-Achsen-Richtung und gibt er diesen an die Robotersteuereinheit 11 aus. Während des Lehrbetriebs steuert die Robotersteuervorrichtung 11 den Roboter 10 durch Bewegungsbefehle, die von dem Lehrbedienpanel 12 eingegeben werden.If the robot 10 When a desired working operation is taught, the operator takes a teaching operation of the robot 10 using the teaching control panel 12 in front. For example, when the operator presses an advancing key for the X-axis positive direction on the orthogonal advancing operation section 14 pushes generates a processor (not shown) in the teaching panel 12 a move command corresponding to the depressed advance key in the positive X-axis direction and giving it to the robot control unit 11 out. During the teaching operation, the robot control device controls 11 the robot 10 by moving commands from the tutorial panel 12 be entered.

Außerdem kann der Orthogonalvorrückbetriebsabschnitt 14 der vorliegenden Ausführungsform den Roboter 10 durch gleichzeitiges Drücken von wenigstens zwei Vorrücktasten aus den Vorrücktasten für die X-Achsen-Richtung, den Vorrücktasten für die Y-Achsen-Richtung und den Vorrücktasten für die Z-Achsen-Richtung auch in eine kombinierte Richtung, die den jeweiligen betätigten wenigstens zwei Vorrücktasten entspricht, bewegen. Wenn zum Beispiel die Vorrücktaste für die positive X-Achsen-Richtung und die Vorrücktaste für die positive Y-Achsen-Richtung gleichzeitig betätigt werden, bewegt sich der Roboter 10 in der XY-Ebene schräg in einer Richtung von 45 Grad.In addition, the orthogonal advance operation section may 14 the present embodiment, the robot 10 by simultaneously pressing at least two advancement keys from the X-axis direction advancement keys, the Y-axis direction advancement keys, and the Z-axis direction advancement keys, also in a combined direction, the respective actuated at least two advancement keys corresponds, move. For example, when the positive X-axis direction advancing button and the Y-axis positive direction advancing button are simultaneously operated, the robot moves 10 in the XY plane obliquely in a direction of 45 degrees.

Übrigens existieren bei dem Roboter 10 Roboterpositionen, sogenannte Singularitäten, bei denen das Problem auftritt, dass die Drehwinkel und Drehgeschwindigkeiten der einzelnen Achsenabschnitte 10a des Roboters 10 nicht durch eine Berechnung der inversen Kinematik aus dem Bewegungsbefehl (Positionsbefehl, Geschwindigkeitsbefehl) in Bezug auf den Handspitzenbereich des Roboters 10 bestimmt werden können.By the way, exist with the robot 10 Robot positions, so-called singularities, in which the problem occurs, that the rotation angles and rotation speeds of the individual axis sections 10a of the robot 10 not by calculating the inverse kinematics from the move command (position command, velocity command) with respect to the hand tip area of the robot 10 can be determined.

Zum Beispiel sind 3A und 3B schematische Ansichten, die Singularitäten eines Knickarmroboters beispielhaft zeigen. In diesen Zeichnungen sind die in 2 gezeigten Achsenabschnitte 10a1 bis 10a6 des Roboters 10 schematisch dargestellt. Wie in 3A gezeigt ist es im Fall einer Roboterlage, bei der das Drehzentrum des vierten Gelenkabschnitts 10a4 und das Drehzentrum des sechsten Gelenkabschnitts 10a6 auf der gleichen geraden Linie angeordnet wurden, möglich, eine Drehung eines Werkzeugs 29 des Roboterhandspitzenbereichs durch Drehen des vierten Gelenkabschnitts 10a4 vorzunehmen oder durch Drehen des sechsten Gelenkabschnitts 10a6 vorzunehmen. Wie in 3B gezeigt ist es auch im Fall einer Roboterlage, bei der das Drehzentrum des ersten Gelenkabschnitts 10a1 und das Drehzentrum des sechsten Gelenkabschnitts 10a6 auf der gleichen geraden Linie angeordnet wurden, möglich, eine Drehung des Werkzeugs 29 des Roboterhandspitzenbereichs durch Drehen des ersten Gelenkabschnitts 10a1 vorzunehmen oder durch Drehen des sechsten Gelenkabschnitts 10a6 vorzunehmen. Daher wird der Drehwinkel der einzelnen Achsenabschnitte in Bezug auf die Koordinatenposition der TCP 27, bei der eine in 3A oder 3B gezeigte Roboterlage entsteht, durch eine Berechnung der inversen Kinematik nicht eindeutig bestimmt. Deshalb kommt es vor, dass der Roboter 10 unsteuerbar wird, wenn der TCP 27 an eine dreidimensionale Position, an der die Drehzentren von wenigstens zwei Achsenabschnitten des Roboters 10 auf der gleichen geraden Linie nebeneinander liegen, oder in ihre Umgebung bewegt wird.For example 3A and 3B schematic views showing the singularities of an articulated robot example. In these drawings, the in 2 shown intercepts 10a1 to 10A6 of the robot 10 shown schematically. As in 3A it is shown in the case of a robot layer, in which the center of rotation of the fourth joint portion 10a4 and the turning center of the sixth joint section 10A6 arranged on the same straight line, possible a rotation of a tool 29 of the robot hand tip portion by rotating the fourth hinge portion 10a4 or make by turning the sixth hinge portion 10a6. As in 3B it is also shown in the case of a robot layer in which the center of rotation of the first joint portion 10a1 and the center of rotation of the sixth hinge section 10A6 arranged on the same straight line, possible a rotation of the tool 29 of the robot hand tip portion by rotating the first joint portion 10a1 or by turning the sixth hinge section 10A6 make. Therefore, the rotation angle of the individual axis sections with respect to the coordinate position of the TCP 27 in which an in 3A or 3B shown robot position is not clearly determined by a calculation of the inverse kinematics. That's why it happens that the robot 10 becomes uncontrollable when the TCP 27 to a three-dimensional position at which the centers of rotation of at least two intercepts of the robot 10 lying next to each other on the same straight line, or being moved into their surroundings.

Daher sind die Robotersteuervorrichtung 11 und die Informationsanzeigevorrichtung 13 bei der vorliegenden Ausführungsform mit den nachstehend beschriebenen Funktionseinheiten versehen, damit dem Betreiber leicht erkennbar gemacht wird, dass sich die Roboterlage beim orthogonalen Vorrückbetrieb einer wie oben beschriebenen Singularität oder ihrer Umgebung annähert.Therefore, the robot control device 11 and the information display device 13 in the present embodiment, with the functional units described below, to make it readily apparent to the operator that the robot attitude approaches orthogonal advancing operation to a singularity as described above or its environment.

Wie in 1 gezeigt umfasst die Robotersteuervorrichtung 11 eine Abtastpunktberechnungseinheit 15, eine Bestimmungseinheit 16, und eine Meldeeinheit 17.As in 1 shown includes the robot control device 11 a sample point calculation unit 15 , a determination unit 16 , and a reporting unit 17 ,

Konkret verfügt die Abtastpunktberechnungseinheit 15 über die Funktion, jeweils mehrere Punkte, durch die der Handspitzenbereich (konkret die TCP 27) des Roboters 10 in der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung (zum Beispiel der positiven X-Achsen-Richtung oder der kombinierten Richtung aus der positiven X-Achsen-Richtung und der positiven Y-Achsen-Richtung oder dergleichen) verlaufen kann, zu berechnen und als Abtastpunkte anzusetzen. Die berechneten mehreren Positionen (Abtastpunkte) sind Positionen (Koordinaten) in dem Roboterkoordinatensystem.Specifically, the sample point calculation unit has 15 about the function, each several points through which the hand tip area (specifically the TCP 27 ) of the robot 10 in the orthogonal advance operation section 14 certain moving direction (for example, the positive X-axis direction or the combined direction of the positive X-axis direction and the positive Y-axis direction or the like) can be calculated and set as sampling points. The calculated multiple positions (sampling points) are positions (coordinates) in the robot coordinate system.

Konkret berechnet die Abtastpunktberechnungseinheit 15 auf Basis der Drehwinkel der einzelnen Achsenabschnitte 10a, die aus den Ausgangswerten der in den einzelnen Achsenabschnitten 10a des Roboters 10 bereitgestellten Codierern erhalten werden, die gegenwärtige Position des Handspitzenbereichs (zum Beispiel des TCP) des Roboters 10. Diese Position kann durch eine Berechnung der Vorwärtskinematik ermittelt werden. Die Abtastpunktberechnungseinheit 15 berechnet die oben genannten einzelnen Abtastpunkte mit einer bestimmten Periode auf Basis der ermittelten gegenwärtigen Position und der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung (nachstehend kurz als „bestimmte Bewegungsrichtung“ bezeichnet).Concretely, the sample point calculation unit calculates 15 based on the rotation angle of the individual axis sections 10a derived from the output values in the individual intercepts 10a of the robot 10 provided encoders, the current position of the hand tip area (for example, the TCP) of the robot 10 , This position can be determined by a calculation of the forward kinematics. The sample point calculation unit 15 calculates the above-mentioned individual sampling points with a certain period on the basis of the detected present position and that by the orthogonal advance operation section 14 certain direction of movement (hereafter referred to as "certain direction of movement").

Diese bestimmte Periode ist eine Periode, die viel kürzer als die Periode für die Erzeugung der durch den Roboterlehrbetrieb erzeugten Bewegungsbefehle für den Roboter 10 ist. Daher werden die einzelnen Abtastpunkte schneller als die Bewegungsgeschwindigkeit des Roboters 10 während des Lehrbetriebs berechnet. Außerdem wird für die bestimmte Periode eine solche Periode angesetzt, dass die einzelnen Abtastpunkte in einem kürzeren Abstand als dem Bereich, der vorab für die Bestimmung der Umgebung einer später beschriebenen Singularität des Roboters 10 festgelegt wurde, berechnet werden können.This particular period is a period much shorter than the period for generating the robot motion generated motion commands for the robot 10 is. Therefore, the individual sampling points become faster than the moving speed of the robot 10 calculated during teaching. In addition, such a period is set for the specific period that the individual sampling points are at a shorter distance than the range previously determined for the determination of the vicinity of a later-described singularity of the robot 10 has been determined can be calculated.

Die Bestimmungseinheit 16 verfügt über die Funktion zur Vornahme einer ersten Bestimmungsverarbeitung, bei der bestimmt wird, ob die berechneten einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10 liegen oder nicht, und einer zweiten Bestimmungsverarbeitung, bei der bestimmt wird, ob die berechneten einzelnen Abtastpunkte Umgebungen einer Singularität des Roboters 10 sind oder nicht.The determination unit 16 has the function of performing a first determination processing in which it is determined whether the calculated individual sample points are within the range of movement of the hand tip region of the robot 10 or not, and a second determination processing in which it is determined whether the calculated individual sample points are environments of a singularity of the robot 10 are or not.

Was den genannten Beweglichkeitsbereich des Handspitzenbereichs des Roboters 10 betrifft, kann der Bereich, den der Handspitzenbereich des Roboters 10 in dem Roboterkoordinatensystem erreichen kann, unter Verwendung von Abmessungsdaten zur Zeit der Gestaltung des Mechanismus des Roboters 10, zum Beispiel der Abstände zwischen den einzelnen Achsenabschnitten oder der Längen der Armabschnitte, oder dergleichen, vorab ermittelt werden. Durch ein im Voraus vorgenommenes Speichern eines solchen Beweglichkeitsbereichs in einer Speichereinheit (nicht dargestellt) der Robotersteuervorrichtung 11 kann die Bestimmungseinheit 16 bestimmen, ob ein Abtastpunkt innerhalb des Beweglichkeitsbereichs des Spitzenendabschnitts des Roboters 10 liegt oder nicht.What the mentioned range of motion of the hand tip area of the robot 10 concerns, the area that the hand tip area of the robot 10 in the robot coordinate system using dimension data at the time of designing the mechanism of the robot 10 For example, the distances between the individual axis portions or the lengths of the arm portions, or the like, are determined in advance. By storing such a mobility range in advance in a storage unit (not shown) of the robot control device 11 can be the destination unit 16 determine if a sample point is within the range of mobility of the tip end portion of the robot 10 is or not.

Eine Singularität ist eine Position des Roboterhandspitzenbereichs, an der es schwierig wird, den Drehwinkel und die Drehgeschwindigkeit der einzelnen Achsenabschnitte 10a des Roboters 10 aus einem Bewegungsbefehl (Positionsbefehl oder Geschwindigkeitsbefehl) in Bezug auf den Roboterhandspitzenbereich eindeutig zu bestimmen. Daher kann durch den Umstand, ob ein Achsenabschnitt 10a vorhanden ist, bei dem es schwierig ist, in Bezug auf die Position eines berechneten Abtastpunkts eine Lösung der Berechnung der inversen Kinematik zu erhalten, bestimmt werden, ob dieser Abtastpunkt eine Singularität des Roboters 10 ist oder nicht. Außerdem kann durch den Umstand, ob ein Achsenabschnitt 10a vorhanden ist, dessen Motor trotz des Erhalts einer Lösung der Berechnung der inversen Kinematik nicht so gesteuert werden kann, dass er dem Drehwinkel der Lösung folgen kann, bestimmt werden, ob dieser Abtastpunkt die Umgebung einer Singularität des Roboters 10 ist oder nicht.A singularity is a position of the robot hand tip portion where it becomes difficult to control the rotation angle and the rotation speed of the individual axis portions 10a of the robot 10 from a move command (position command or speed command) with respect to the robot hand tip area. Therefore, by the circumstance, whether an intercept 10a is present, in which it is difficult to obtain a solution of the calculation of the inverse kinematics with respect to the position of a calculated sampling point, it is determined whether this sampling point is a singularity of the robot 10 is or not. In addition, by the circumstance, whether an intercept 10a is present, the motor of which, despite having obtained a solution of the inverse kinematics calculation, can not be controlled so as to follow the rotation angle of the solution, it can be determined whether this sampling point is the environment of a robot singularity 10 is or not.

Das heißt, die in der vorliegenden Anmeldung genannte Singularität des Roboters entspricht einer Position des Roboterhandspitzenbereichs, an der wie oben beschrieben keine Lösung der Berechnung der inversen Kinematik erhalten wird, und die in der vorliegenden Anmeldung genannte Umgebung einer Singularität des Roboters entspricht einem Positionsbereich des Roboterhandspitzenbereichs, in dem ein Achsenabschnitt vorhanden ist, bei dem trotz des Erhalts einer Lösung der Berechnung der inversen Kinematik die gewünschte Motorsteuerung nicht vorgenommen werden kann.That is, the robot singularity referred to in the present application corresponds to a position of the robot hand tip portion where no inverse kinematics calculation solution is obtained as described above, and the robotic singularity environment referred to in the present application corresponds to a position range of the robot hand tip portion in which there is an intercept, in which, in spite of obtaining a solution of the inverse kinematics calculation, the desired engine control can not be made.

Was die oben beschriebene Bestimmung der Umgebung einer Singularität betrifft, ist es auch möglich, zu bestimmen, ob ein Abtastpunkt innerhalb eines Bereichs liegt, für den ab einer als Singularität des Roboters bestimmten Position des Roboterhandspitzenbereiche (der Position des TCP) eine bestimmte festgelegte Spannweite hinzugerechnet wurde.As for the determination of the vicinity of a singularity as described above, it is also possible to determine whether a sampling point is within a range for which a certain predetermined span is added from a position of the robot's hand tip regions (the position of the TCP) determined as a robot's singularity has been.

Die Meldeeinheit 17 verfügt über die Funktion, der Informationsanzeigevorrichtung 13 die Positionen der einzelnen Abtastpunkte in dem Roboterkoordinatensystem und Bestimmungsergebnisinformationen, die das Ergebnis der ersten Bestimmungsverarbeitung und der zweiten Bestimmungsverarbeitung zeigen, zu melden. Die Informationsanzeigevorrichtung 13 ist drahtgebunden oder drahtlos kommunikationsfähig an die Robotersteuereinheit 11 angeschlossen.The reporting unit 17 has the function of the information display device 13 to notify the positions of the individual sampling points in the robot coordinate system and determination result information showing the result of the first determination processing and the second determination processing. The information display device 13 is wired or wireless communication capable of the robot control unit 11 connected.

Die Informationsanzeigevorrichtung 13 umfasst wie in 1 gezeigt eine Kamera 18, eine Anzeigeeinheit 19 und eine Erweiterte-Realität-Anzeigeverarbeitungseinheit 20.The information display device 13 includes as in 1 shown a camera 18 , a display unit 19 and an augmented reality display processing unit 20 ,

Die Informationsanzeigevorrichtung 13 ist zum Beispiel durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet. Die Kameraeinheit, mit der diese am Kopf getragene Anzeigevorrichtung versehen ist, bildet die Kamera 18, und eine den Augen gegenüberliegend angeordnete Anzeigeeinheit vom Brillentyp dieser am Kopf getragenen Anzeigevorrichtung kann die Anzeigeeinheit 19 bilden.The information display device 13 is formed, for example, by a head-mounted display device with integrated camera. The camera unit with which this head-mounted display device is provided forms the camera 18 and a spectacle-type display unit disposed opposite to the eyes of this head-mounted display device, the display unit 19 form.

Konkret nimmt die Kamera 18 den Roboter 10 im realen Raum auf. Die Anzeigeeinheit 19 kann das von der Kamera 18 aufgenommene Bild des Roboters 10 anzeigen.Specifically, the camera takes 18 the robot 10 in real space. The display unit 19 Can this from the camera 18 captured image of the robot 10 Show.

Die Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 kann eine Verarbeitung vornehmen, wobei unter Verwendung der von der Meldeeinheit 17 der Robotersteuervorrichtung 11 gemeldeten Positionen der einzelnen Abtastpunkte und Bestimmungsergebnisinformationen ein Grafikbild erzeugt wird und auf das Bild des Roboters 10 an der Anzeigeeinheit 19 gelegt wird. Dieses Grafikbild wird so erzeugt, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10, Abschnitte außerhalb des Beweglichkeitsbereichs dieses Handspitzenbereichs und Abschnitte von Singularitätsumgebungen des Roboters auf der geradlinigen Bahn optisch unterscheiden.The augmented reality display processing unit 20 may perform processing using the message unit 17 the robot control device 11 Reported positions of the individual sampling points and determination result information is a graphic image is generated and the image of the robot 10 on the display unit 19 is placed. This graphic image is created to represent a straight line passing through the individual sample points and sections within the range of motion of the hand tip region of the robot 10 , Optically distinguish sections outside the range of motion of this hand tip area and sections of singularity environments of the robot on the rectilinear path.

Zum Beispiel kann die Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 das Grafikbild so erzeugen, dass die Anzeigefarbe oder die Anzeigeformen für jedes aus Abtastpunkten, die sich innerhalb des Beweglichkeitsbereichs befinden, Abtastpunkten, die sich außerhalb des Beweglichkeitsbereichs befinden, und Abtastpunkten, die sich in der Umgebung von Singularitäten befinden, jeweils unterschiedlich ist.For example, the augmented reality display processing unit 20 generate the graphics image such that the display color or display shapes for each of sample points located within the range of mobility, sample points that are outside the range of mobility, and sample points that are in the vicinity of singularities, are different.

Noch genauer ist die oben genannte Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 wie in 1 gezeigt mit einer Wechselbeziehungsansatzeinheit 21, einer Positionsdatenumwandlungseinheit 22, einer Grafikbilderzeugungseinheit 23, und einer Bildverarbeitungseinheit 24 versehen.More specifically, the above-mentioned augmented reality display processing unit 20 as in 1 shown with an interrelationship unit 21 a position data conversion unit 22 , a graphic image generation unit 23 , and an image processing unit 24 Mistake.

Die Wechselbeziehungsansatzeinheit 21 verfügt über die Funktion, eine Wechselbeziehung zwischen dem Ursprungspunkt eines an der Kamera 18 festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des Roboterkoordinatensystems anzunehmen. Zum Beispiel berechnet die Wechselbeziehungsansatzeinheit 21 eine Koordinatentransformationsmatrix, um die von dem Ursprungspunkt des Kamerakoordinatensystems her gesehene Ursprungspunktposition und Ausrichtung des Roboterkoordinatensystems zu ermitteln. Der Grund dafür ist, dass es auch bei einer Änderung der relativen Position und des relativen Winkels der Kamera 18 in Bezug auf den Roboter 10 nötig ist, das Grafikbild in einer passenden Ausrichtung und an einer passenden Position auf das von der Kamera 18 stammende Bild des Roboters 10 gelegt anzuzeigen.The inter-relationship approach unit 21 has the function of correlating the origin point of an on camera 18 fixed camera coordinate system and the origin point of the robot coordinate system. For example, the inter-relationship request unit calculates 21 a coordinate transformation matrix to determine the origin point position and orientation of the robot coordinate system as seen from the origin point of the camera coordinate system. The reason is that it also changes the relative position and relative angle of the camera 18 in relation to the robot 10 necessary, the graphics image in a suitable orientation and at a suitable position on the camera 18 originating image of the robot 10 to display.

Die Positionsdatenumwandlungseinheit 22 verfügt über die Funktion, die von der Meldeeinheit 17 gemeldeten Positionen der einzelnen Abtastpunkte unter Verwendung der durch die Wechselbeziehungsansatzeinheit 21 angenommenen Wechselbeziehung in Positionen in dem Kamerakoordinatensystem umzuwandeln.The position data conversion unit 22 has the function of the message unit 17 reported positions of each Sample points using the interrelationship unit 21 assumed correlation in positions in the camera coordinate system to convert.

Die Grafikbilderzeugungseinheit 23 verfügt über die Funktion, unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der von der Meldeeinheit 17 gemeldeten Bestimmungsergebnisinformationen für die einzelnen Abtastpunkte ein wie oben beschriebenes Grafikbild zu erzeugen. Um das genannte Grafikbild so zu erzeugen, dass es an das Bild des Roboters 10 angepasst ist, verwendet die Grafikbilderzeugungseinheit 23 die Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem.The graphic image generation unit 23 has the function using the positions of the individual sampling points in the camera coordinate system and that of the reporting unit 17 Reported determination result information for the individual sampling points to create a graphic image as described above. To create the named graphic image in such a way that it attaches to the image of the robot 10 is adjusted uses the graphic image generation unit 23 the positions of the individual sampling points in the camera coordinate system.

Die Bildverarbeitungseinheit 24 verfügt über die Funktion, eine Verarbeitung vorzunehmen, um das genannte Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters 10 an der Anzeigeeinheit 19 zu legen.The image processing unit 24 has the function of performing processing to convert said graphic image to the image of the robot using the positions of the individual sampling points in the camera coordinate system 10 on the display unit 19 to lay.

4 ist eine Ansicht, die ein Beispiel für ein Aufnahmebild eines Roboters 10, auf das ein wie oben beschriebenes Grafikbild gelegt wurde, schematisch zeigt. Wie in 4 gezeigt kann ein Betreiber 25 des Roboters 10 die durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildete Informationsanzeigevorrichtung 13 anlegen und unter visueller Erfassung des Bilds des Roboters 10 und des oben genannten Grafikbilds an der den Augen gegenüberliegenden Anzeigeeinheit 19 einen orthogonalen Vorrückbetrieb mittels des Lehrbedienpanels 12 vornehmen. Wenn der Betreiber 25 des Roboters 10 den Handspitzenbereich des Roboters 10 durch den orthogonalen Vorrückbetrieb in eine bestimmte Bewegungsrichtung bewegt hat, kann er das Vorhandensein von Umgebungen von Singularitäten, an denen der Roboterhandspitzenbereich nicht bewegt werden kann, und Bereichen außerhalb des Beweglichkeitsbereichs in dieser Bewegungsrichtung leicht durch die Anzeigeeinheit 19 erkennen. 4 Fig. 13 is a view showing an example of a photograph of a robot 10 , on which a graphic image as described above has been laid, shows schematically. As in 4 an operator can be shown 25 of the robot 10 the information display device formed by a head-mounted camera-integrated display device 13 create and visually capture the image of the robot 10 and the above graphic image on the eye-facing display unit 19 an orthogonal advance operation by means of the teaching control panel 12 make. If the operator 25 of the robot 10 the hand tip area of the robot 10 has moved in a certain direction of movement by the orthogonal advancing operation, it can easily detect the presence of environments of singularities where the robot's hand tip area can not be moved and areas outside the range of motion in this moving direction by the display unit 19 detect.

Zum Beispiel bezeichnet in dem in 4 gezeigten Grafikbild 30 der mit A bezeichnete Bereich (der schraffierte Bereich in der Zeichnung) die Umgebung einer Singularität, bezeichnet der mit B bezeichnete Bereich (der weiße Bereich innerhalb des gestrichelten Rahmens in der Zeichnung) einen Bereich außerhalb des Bewegungsbereichs, und bezeichnen die mit C bezeichneten Bereiche (die gepunkteten Bereiche in der Zeichnung) normale Betriebsbereiche. Die mit A, B und C bezeichneten Bereiche können auch durch unterschiedliche Farben unterschieden werden.For example, in the in 4 shown graphic image 30 the one with A designated area (the hatched area in the drawing) the environment of a singularity, denoted by B designated area (the white area within the dashed frame in the drawing) an area outside the range of motion, and denote with C designated areas (the dotted areas in the drawing) normal operating areas. With A . B and C designated areas can also be distinguished by different colors.

Außerdem kann die wie oben beschrieben aufgebaute Informationsanzeigevorrichtung 13 das Grafikbild, das wie oben beschrieben auf das Bild des Roboters 10 gelegt wird, bei einer Änderung der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung zu einer anderen Bewegungsrichtung (zum Beispiel einer Änderung von der positiven X-Achsen-Richtung zu der positiven Y-Achsen-Richtung) gemäß der geänderten Bewegungsrichtung aktualisieren.In addition, the information display device constructed as described above 13 the graphic image, as described above on the image of the robot 10 when changing by the orthogonal advance operation section 14 to update a certain moving direction to another moving direction (for example, a change from the positive X-axis direction to the positive Y-axis direction) according to the changed moving direction.

Es wurde angenommen, dass die oben beschriebene Informationsanzeigevorrichtung 13 durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet ist, doch kann die Informationsanzeigevorrichtung 13 in verschiedenen Formen ausgeführt werden.It was assumed that the information display device described above 13 is formed by a head-mounted display device with integrated camera, but the information display device 13 be executed in different forms.

Zum Beispiel kann die Informationsanzeigevorrichtung 13 auch in das Lehrbedienpanel 12 eingebaut sein. In diesem Fall kann ein an dem Lehrbedienpanel 12 ausgebildetes Anzeigefeld 12a als Anzeigeeinheit 19 der Informationsanzeigevorrichtung 13 verwendet werden. Das Anzeigefeld 12a des Lehrbedienpanels 12 verfügt über die Funktion, das durch die Kamera 18 aufgenommene Bild des Roboters 10 anzuzeigen. Außerdem kann die Erweiterte-Realität-Anzeigeverarbeitungseinheit 20 so ausgeführt sein, dass sie das oben genannte Grafikbild auf das an dem Anzeigefeld 12a angezeigte Bild des Roboters 10 gelegt anzeigen kann.For example, the information display device 13 also in the teaching panel 12 be installed. In this case, one can be on the teaching panel 12 trained display field 12a as a display unit 19 the information display device 13 be used. The display field 12a of the teaching control panel 12 has the feature that works through the camera 18 captured image of the robot 10 display. In addition, the augmented reality display processing unit 20 be executed so that the above graphic image on the on the display panel 12a displayed image of the robot 10 can show.

Die Robotersteuervorrichtung 11 und die Informationsanzeigevorrichtung 13, die oben beschrieben wurden, können unter Verwendung eines Computersystems, das eine Speichereinheit, eine CPU (Steuerverarbeitungseinheit), eine Kommunikationssteuereinheit und dergleichen, die miteinander über einen Bus verbunden sind, umfasst, aufgebaut werden. Die Speichereinheit ist eine Speichervorrichtung wie etwa ein ROM (Nurlesespeicher), ein RAM (Direktzugriffsspeicher), ein HDD (Festplattenlaufwerk), ein SSD (Solid-State-Laufwerk) oder dergleichen. Die jeweiligen Funktionen der Abtastpunktberechnungseinheit 15, der Bestimmungseinheit 16 und der Meldeeinheit 17, die die Robotersteuervorrichtung 11 umfasst, sowie die jeweiligen Funktionen der Wechselbeziehungsansatzeinheit 21, der Positionsdatenumwandlungseinheit 22, der Grafikbildderzeugungseinheit 23 der Anzeigeeinheit 24 und der Erweiterte-Realität-Anzeigeverarbeitungseinheit 20, die die Informationsanzeigevorrichtung 13 umfasst, können durch einen Betrieb der CPU in Kombination mit der oben genannten Speichereinheit ausgeführt werden.The robot control device 11 and the information display device 13 The ones described above may be constructed using a computer system including a memory unit, a CPU (control processing unit), a communication control unit, and the like connected to each other via a bus. The storage unit is a storage device such as a ROM (Random Access Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like. The respective functions of the sample point calculation unit 15 , the determination unit 16 and the reporting unit 17 that the robot control device 11 and the respective functions of the interrelationship unit 21 , the position data conversion unit 22 , the graphic image generation unit 23 the display unit 24 and the augmented reality display processing unit 20 that the information display device 13 may be performed by an operation of the CPU in combination with the above-mentioned memory unit.

Als nächstes wird unter Bezugnahme auf 5 und 6 der Betrieb des Robotersystems 1 nach der vorliegenden Ausführungsform erklärt. 5 ist ein Ablaufdiagramm, das den Verarbeitungsablauf der Robotersteuervorrichtung 11 in 1 zeigt, und 6 ist ein Ablaufdiagramm, das den Verarbeitungsablauf der Informationsanzeigevorrichtung 13 in 1 zeigt. Es wird angenommen, dass die Robotersteuervorrichtung 11 bei der Ausführung von Schritt S11 in 5 durch eine Person unter Verwendung des Lehrbedienpanels 12 in den Lehrbetriebsmodus, in dem eine manuelle Bewegung des Roboters vorgenommen wird, gebracht ist.Next, referring to 5 and 6 the operation of the robot system 1 explained according to the present embodiment. 5 FIG. 10 is a flowchart showing the processing procedure of the robot control device. FIG 11 in 1 shows, and 6 Fig. 10 is a flowchart showing the processing flow of the information display device 13 in 1 shows. It is assumed that the robot control device 11 in the execution of step S11 in 5 by a person using the instructional control panel 12 in the teaching operation mode, in which a manual movement of the robot is made is brought.

Zunächst erhält die Robotersteuervorrichtung 11 in Schritt S11 von 5 eine durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmte Bewegungsrichtung. Dann erlangt die Robotersteuereinheit 11 aus den Ausgangswerten der einzelnen Codierer, mit denen die einzelnen Achsenabschnitte 11a des Roboters 10 versehen sind, Drehwinkel. Im anschließenden Schritt S12 erlangt die Robotersteuervorrichtung 12 aus den Drehwinkeln der einzelnen Achsenabschnitte 10a durch eine Berechnung der Vorwärtskinematik die gegenwärtige Position des Handspitzenbereichs (zum Beispiel die TCP 27) des Roboters 10.First, the robot control device gets 11 in step S11 from 5 one by the orthogonal advance operation section 14 certain direction of movement. Then the robot controller gets 11 from the output values of the individual encoders, with which the individual axis sections 11a of the robot 10 are provided, rotation angle. In the subsequent step S12 acquires the robot control device 12 from the angles of rotation of the individual axis sections 10a by calculating the forward kinematic, the current position of the hand tip area (for example, the TCP 27 ) of the robot 10 ,

Im anschließenden Schritt S13 berechnet die Abtastpunktberechnungseinheit 15 der Robotersteuervorrichtung 11 jeweils der Reihe nach mehrere Positionen in dem Roboterkoordinatensystem, durch die der Handspitzenbereich des Roboters 10 in der durch den Orthogonalvorrückbetriebsabschnitt 14 bestimmten Bewegungsrichtung verlaufen kann, und setzt die berechneten Positionen als Abtastpunkte an. Da die gegenwärtige Position des Handspitzenbereichs (zum Beispiel des TCP 27) des Roboters 10 und die bei dem Vorrückbetrieb dieses Handspitzenbereichs bestimmte Bewegungsrichtung erlangt wurden, ist es möglich, die oben genannten einzelnen Abtastpunkte auf Basis der gegenwärtigen Position und der Bewegungsrichtung mit der oben genannten bestimmten Periode zu berechnen.In the subsequent step S13 calculates the sample point calculation unit 15 the robot control device 11 a plurality of positions in the robot coordinate system, respectively, through which the hand tip area of the robot 10 in the orthogonal advance operation section 14 certain direction of movement, and sets the calculated positions as sampling points. Since the current position of the hand tip area (for example, the TCP 27 ) of the robot 10 and the moving direction determined in the advancing operation of this hand tip area, it is possible to calculate the above-mentioned individual sampling points based on the present position and the moving direction with the above-mentioned specific period.

Im nächsten Schritt S14 bestimmt die Bestimmungseinheit 16 der Robotersteuervorrichtung 11, ob ein berechneter Abtastpunkt innerhalb des Abtastbereichs liegt oder nicht. Wenn der Abtastpunkt innerhalb des Abtastbereichs liegt, wird Schritt S15 durchgeführt, und wenn der Abtastpunkt nicht innerhalb des Abtastbereichs liegt, beendet die Robotersteuervorrichtung 11 die Verarbeitung.In the next step S14 determines the determination unit 16 the robot control device 11 Whether or not a calculated sample point is within the sample range. If the sample point is within the sample range, step S15 and when the sampling point is not within the sampling range, the robot control device terminates 11 the processing.

Der genannte Abtastbereich wird zum Beispiel als Innenseite eines Quaders, der den Bewegungsbereich des auf einem Boden eingerichteten Roboters 10 weit umschließt, festgelegt. In diesem Fall wird angenommen, dass die Koordinatenwerte der Ecken des Quaders durch das an die Robotersteuervorrichtung 11 angeschlossene Lehrbedienpanel 12 oder eine Eingabevorrichtung einer Computervorrichtung (nicht dargestellt), oder dergleichen als Zahlenwerte eingegeben und in der Speichereinheit der Robotersteuervorrichtung 11 gespeichert werden. Diese Koordinatenwerte sind Positionen in dem Roboterkoordinatensystem. Die Form des Abtastbereichs ist nicht auf einen Quader beschränkt.For example, said scanning area becomes the inside of a cuboid, which is the range of motion of the grounded robot 10 wide encloses. In this case, it is assumed that the coordinate values of the corners of the cuboid by the robot controller 11 connected teaching control panel 12 or an input device of a computing device (not shown) or the like entered as numerical values and in the storage unit of the robot control device 11 get saved. These coordinate values are positions in the robot coordinate system. The shape of the scanning area is not limited to a cuboid.

In dem genannten Schritt S15 bestimmt die Bestimmungseinheit 16 ob der berechnete Abtastpunkt außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10 liegt oder nicht. Das Bestimmungsverfahren des Beweglichkeitsbereichs ist wie oben beschrieben. Wenn der Abtastpunkt außerhalb des Beweglichkeitsbereichs liegt, meldet die Meldeeinheit 17 der Robotersteuervorrichtung 11 der Informationsanzeigevorrichtung 13 die Position des Abtastpunkts und die Bestimmungsergebnisinformation, dass der betreffende Abtastpunkt außerhalb des Beweglichkeitsbereichs liegt (Schritt S16), und wird der später beschriebene Schritt S20 durchgeführt. Wenn der Abtastpunkt andererseits nicht außerhalb des Beweglichkeitsbereichs liegt, wird Schritt S17 durchgeführt.In the mentioned step S15 determines the determination unit 16 whether the calculated sample point is outside the range of motion of the hand tip region of the robot 10 is or not. The determination method of the range of mobility is as described above. If the sample point is outside the range of motion, the annunciator will report 17 the robot control device 11 the information display device 13 the position of the sample point and the determination result information that the sample point concerned is out of the range of mobility (step S16 ), and becomes the step described later S20 carried out. On the other hand, if the sample point is not out of the range of mobility, step S17 carried out.

In dem genannten Schritt S17 bestimmt die Bestimmungseinheit 16, ob der berechnete Abtastpunkt eine Singularitätsumgebung des Roboters 10 ist oder nicht. Das Verfahren zur Bestimmung der Singularitätsumgebung des Roboters ist wie oben beschrieben. Wenn der Abtastpunkt eine Singularitätsumgebung ist, meldet die Meldeeinheit 17 die Position des Abtastpunkts zusammen mit der Bestimmungsergebnisinformation, dass der betreffende Abtastpunkt eine Singularitätsumgebung ist, an die Informationsanzeigevorrichtung 13 (Schritt S18), und wird der später beschriebene Schritt S20 durchgeführt. Wenn der Abtastpunkt andererseits keine Singularitätsumgebung ist, wird Schritt S19 durchgeführt.In the mentioned step S17 determines the determination unit 16 Whether the calculated sample point is a singularity environment of the robot 10 is or not. The method of determining the singularity environment of the robot is as described above. If the sample point is a singularity environment, the annunciator reports 17 the position of the sampling point, together with the determination result information that the subject sampling point is a singularity environment, to the information display device 13 (Step S18 ), and becomes the step described later S20 carried out. On the other hand, if the sampling point is not a singularity environment, step S19 is performed.

In dem genannten Schritt S19 meldet die Meldeeinheit 17 die Position des Abtastpunkts zusammen mit der Bestimmungsergebnisinformation, dass der betreffende Abtastpunkt innerhalb des normalen Bewegungsbereichs liegt, an die Informationsanzeigevorrichtung 13.In the mentioned step S19 reports the message unit 17 the position of the sampling point together with the determination result information that the sampling point concerned is within the normal movement range, to the information display device 13 ,

Danach ändert die Robotersteuervorrichtung 11 in Schritt S20 das Verarbeitungsobjekt für die Bestimmungseinheit 16 zu dem nächsten berechneten Abtastpunkt und wird erneut die Verarbeitung von Schritt S14 bis Schritt S19 durchgeführt. Wenn in Schritt S14 bestimmt wird, dass der Abtastpunkt nicht innerhalb des Abtastbereichs liegt, beendet die Robotersteuervorrichtung 11 die Verarbeitung.After that, the robot control device changes 11 in step S20 the processing object for the determination unit 16 to the next calculated sample point and the processing of step S14 until step S19 carried out. When in step S14 it is determined that the sampling point is not within the sampling range, the robot control device terminates 11 the processing.

Dann erhält die Informationsanzeigevorrichtung 13 wie in 6 gezeigt die Positionen der berechneten Abtastpunkte zusammen mit den Bestimmungsergebnisinformationen für die betreffenden Abtastpunkte von der Meldeeinheit 17 der Robotersteuervorrichtung (Schritt S21). Die erhaltenen Bestimmungsergebnisinformationen sind die jeweils in den oben beschriebenen Schritten S16, S18 und S19 (siehe 5) erhaltenen Bestimmungsergebnisse.Then, the information display device obtains 13 as in 6 12 shows the positions of the calculated sampling points together with the determination result information for the respective sampling points from the reporting unit 17 the robot control device (step S21 ). The obtained determination result information is in each case in the steps described above S16 . S18 and S19 (please refer 5 ).

In dem folgenden Schritt S22 erlangt die Informationsanzeigevorrichtung 13 das durch die Kamera 18 aufgenommene Bild des Roboters 10.In the following step S22 acquires the information display device 13 that through the camera 18 captured image of the robot 10 ,

In dem anschließenden Schritt S23 setzt die Wechselbeziehungsansatzeinheit 21 der Informationsanzeigevorrichtung 13 die Wechselbeziehung zwischen dem Ursprungspunkt des an der Kamera 18 festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des an dem Roboter 12 festgemachten Roboterkoordinatensystem an.In the subsequent step S23 sets the inter-relationship approach unit 21 the information display device 13 the correlation between the point of origin of the camera 18 moored camera coordinate system and the point of origin of the robot 12 moored robot coordinate system.

Zum Beispiel berechnet die Wechselbeziehungsansatzeinheit 21 eine Koordinatentransformationsmatrix, um die von dem Ursprungspunkt des Kamerakoordinatensystems her gesehene Ursprungspunktposition und Ausrichtung des Roboterkoordinatensystems zu ermitteln. Dabei wird zum Beispiel der Roboter 10 auf Basis eines Merkmalspunkts (einer Kontur oder eines Eckenbereichs) des Roboters 10 aus dem Bild der Kamera 18 detektiert und aus den Ausgangswerten der Codierer der einzelnen Achsenabschnitten 10a eine Information hinsichtlich der gegenwärtigen Position (eine Information hinsichtlich der Position und der Lage) des Roboters 10 erlangt. Die Wechselbeziehung zwischen dem Kamerakoordinatensystem und dem Roboterkoordinatensystem kann auf Basis der detektierten Position des Roboters 10 in dem Kamerabildsystem und der Information hinsichtlich der gegenwärtigen Position des Roboters 10 angesetzt werden.For example, the inter-relationship request unit calculates 21 a coordinate transformation matrix to determine the origin point position and orientation of the robot coordinate system as seen from the origin point of the camera coordinate system. In this case, for example, the robot 10 based on a feature point (contour or corner area) of the robot 10 from the picture of the camera 18 detected and from the output values of the encoders of the individual intercepts 10a information regarding the current position (information regarding the position and attitude) of the robot 10 obtained. The correlation between the camera coordinate system and the robot coordinate system may be based on the detected position of the robot 10 in the camera image system and the information regarding the current position of the robot 10 be set.

In dem nächsten Schritt S24 wandelt die Positionsdatenumwandlungseinheit der Informationsanzeigevorrichtung 13 die Positionen der von der Meldeeinheit 17 gemeldeten Abtastpunkte auf Basis der durch die Wechselbeziehungsansatzeinheit 21 angesetzten Wechselbeziehung in Positionen in dem Kamerakoordinatensystem um.In the next step S24 converts the position data conversion unit of the information display device 13 the positions of the reporting unit 17 reported sample points based on the interrelationship request unit 21 scheduled correlation in positions in the camera coordinate system.

In dem folgenden Schritt S25 erzeugt die Grafikbilderzeugungseinheit 23 der Informationsanzeigevorrichtung 13 unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der Bestimmungsergebnisinformationen ein Grafikbild. Dieses Grafikbild wird so erzeugt, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs des Roboters 10, Abschnitte außerhalb des Beweglichkeitsbereichs dieses Handspitzenbereichs und Abschnitte von Singularitätsumgebungen des Roboters auf der geradlinigen Bahn optisch unterscheiden (siehe zum Beispiel das in 4 gezeigte Grafikbild 30).In the following step S25 generates the graphic image generation unit 23 the information display device 13 using the positions of the individual sample points in the camera coordinate system and the determination result information, a graphic image. This graphic image is created to represent a straight line passing through the individual sample points and sections within the range of motion of the hand tip region of the robot 10 , Optically distinguish portions outside the range of motion of this hand tip area and portions of singularity environments of the robot on the rectilinear path (see, for example, the embodiment of FIG 4 shown graphic image 30 ).

In dem anschließenden Schritt S26 nimmt die Bildverarbeitungseinheit 24 der Informationsanzeigevorrichtung 13 eine Verarbeitung vor, um ein wie oben beschriebenes Grafikbild auf Basis der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters 10 an der Anzeigeeinheit 19 zu legen.In the subsequent step S26 takes the image processing unit 24 the information display device 13 processing to make a graphic image as described above based on the positions of the individual sampling points in the camera coordinate system on the image of the robot 10 on the display unit 19 to lay.

Durch die Verarbeitung der oben beschriebenen Schritte S21 bis S26 kann die Informationsanzeigevorrichtung 13 jedes Mal, wenn sie Positionen der einzelnen Abtastpunkte und Bestimmungsergebnisinformationen erhält, ein Grafikbild, das den Bestimmungsergebnisinformationen für die erhaltenen einzelnen Abtastpunkte entspricht, auf das Bild des Roboters 10 an der Anzeigeeinheit 19 gelegt anzeigen.By processing the steps described above S21 to S26 can the information display device 13 every time it obtains positions of the individual sample points and determination result information, a graphic image corresponding to the determination result information for the obtained individual sample points on the image of the robot 10 on the display unit 19 show placed.

Wie oben erklärt wurde, ist es durch das Robotersystem 1 der vorliegenden Ausführungsform möglich, dem Betreiber bei der Vornahme einer Unterweisung des Roboters durch den orthogonalen Vorrückbetrieb die Bewegungsrichtung des Handspitzenbereichs des Roboters sowie in dieser Bewegungsrichtung befindliche Singularitäten leicht erkennbar zu machen.As explained above, it is by the robot system 1 In the present embodiment, it is possible to easily make the movement direction of the hand tip area of the robot as well as singularities located in this moving direction easy to the operator in instructing the robot by the orthogonal advance operation.

Im Vorhergehenden wurden Ausführungsformen der vorliegenden Erfindung erklärt, doch wird ein Fachmann verstehen, dass verschiedene Verbesserungen oder Änderungen vorgenommen werden können, ohne von dem in den nachstehenden Patentansprüchen offenbarten Umfang abzuweichenIn the foregoing, embodiments of the present invention have been explained, but it will be understood by those skilled in the art that various improvements or changes can be made without departing from the scope disclosed in the following claims

Es können verschiedene wie nachstehend beschriebene Formen und ihre Resultate bereitgestellt werden, um wenigstens eine der Aufgaben der vorliegenden Offenbarung zu lösen. Die Zahlen in den Klammern in der nachstehenden Erklärung der Formen entsprechen den Bezugszeichen in den Zeichnungen der vorliegenden Offenbarung.Various forms as described below and their results may be provided to solve at least one of the objects of the present disclosure. The numbers in the parentheses in the following explanation of the shapes correspond to the reference numerals in the drawings of the present disclosure.

Eine Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei das Robotersystem (1) eine Robotersteuervorrichtung (11), die einen Roboter (10) steuert, ein Lehrbedienpanel (12), das einen Orthogonalvorrückbetriebsabschnitt (14) enthält, der eine manuelle Betätigung des Roboters in Bezug auf jede Richtung von drei orthogonalen Achsenrichtungen eines an dem Roboter festgemachten Roboterkoordinatensystems oder eine zusammengesetzte Richtung vornimmt, und eine Informationsanzeigevorrichtung (13), die Informationen zur Unterweisung des Roboters (10) anzeigt, umfasst,
wobei die Robotersteuervorrichtung (11)
eine Abtastpunktberechnungseinheit (15), die jeweils mit einer bestimmten Periode mehrere Positionen in dem Roboterkoordinatensystem, durch die ein Handspitzenbereich des Roboters (10) in einer durch den Orthogonalvorrückbetriebsabschnitt (14) bestimmten Bewegungsrichtung verlaufen kann, berechnet und als Abtastpunkte ansetzt,
eine Bestimmungseinheit (16), die eine erste Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs liegen oder nicht, und eine zweite Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte Singularitätsumgebungen sind oder nicht, vornimmt, und
eine Meldeeinheit (17), die der Informationsanzeigevorrichtung (13) die Positionen der einzelnen Abtastpunkte sowie Bestimmungsergebnisinformationen, die die Ergebnisse der ersten Bestimmungsverarbeitung und der zweiten Bestimmungsverarbeitung zeigen, meldet,
umfasst, und
die Informationsanzeigevorrichtung (13)
eine Kamera (18), die den Roboter (10) aufnimmt,
eine Anzeigeeinheit (19), die das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt, und
eine Anzeigeverarbeitungseinheit (20), die eine Verarbeitung vornimmt, um unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild so zu erzeugen, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt, und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs, Abschnitte außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs und Abschnitte von Singularitätsumgebungen auf der geradlinigen Bahn optisch unterscheiden, und auf das Bild des Roboters (10) zu legen,
umfasst.
One form of the present disclosure may be a robotic system ( 1 ), whereby the robot system ( 1 ) a robot control device ( 11 ), which is a robot ( 10 ), a teaching panel ( 12 ) having an orthogonal advance operation section ( 14 ), which performs manual operation of the robot with respect to each direction of three orthogonal axis directions of a robot coordinate system fixed to the robot, or a composite direction, and an information display device (FIG. 13 ), the information for teaching the robot ( 10 ),
wherein the robot control device ( 11 )
a sample point calculation unit ( 15 ), each having a certain period, a plurality of positions in the robot coordinate system through which a hand tip area of the robot (FIG. 10 ) in a by the Orthogonalvorrückbetriebsabschnitt ( 14 ) Movement direction can run, calculated and sets as sampling points,
a determination unit ( 16 ), which determines first determination processing whether or not the individual sampling points are within the range of movement of the hand tip region, and second determination processing, thereby determining whether or not the individual sampling points are singularity environments;
a reporting unit ( 17 ), the information display device ( 13 ) reports the positions of the individual sampling points and determination result information showing the results of the first determination processing and the second determination processing,
includes, and
the information display device ( 13 )
a camera ( 18 ), the robot ( 10 ),
a display unit ( 19 ), that through the camera ( 18 ) captured image of the robot ( 10 ), and
a display processing unit ( 20 ) processing to generate, using the positions of the individual sample points and the determination result information, a graphic image to represent a straight line passing through the individual sample points, and portions within the range of movement of the hand tip region, portions outside of the range of motion of the hand tip region and sections of singularity environments on the rectilinear path visually distinguish, and on the image of the robot ( 10 to lay
includes.

Durch die oben beschriebene erste Form ist es möglich, dem Betreiber bei der Vornahme einer Unterweisung des Roboters durch den orthogonalen Vorrückbetrieb die Bewegungsrichtung des Handspitzenbereichs des Roboters sowie in dieser Bewegungsrichtung befindliche Singularitäten leicht erkennbar zu machen.By the above-described first mode, it is possible to make the movement direction of the hand tip area of the robot as well as singularities located in this moving direction easily recognizable to the operator in instructing the robot by the orthogonal advance operation.

Eine zweite Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei
die Anzeigeverarbeitungseinheit (20) bei dem oben beschriebenen Robotersystem (1) der ersten Form
eine Wechselbeziehungsansatzeinheit (21), die eine Wechselbeziehung zwischen dem Ursprungspunkt eines an der Kamera (18) festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des Roboterkoordinatensystems ansetzt;
eine Positionsdatenumwandlungseinheit (22), die die Positionen der einzelnen Abtastpunkte unter Verwendung der Wechselbeziehung in Positionen in dem Kamerakoordinatensystem umwandelt;
eine Grafikbilderzeugungseinheit (23), die das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der Bestimmungsergebnisinformationen der einzelnen Abtastpunkte erzeugt; und
eine Bildverarbeitungseinheit (24), die eine Verarbeitung vornimmt, um das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters (10) zu legen,
umfasst.
A second form of the present disclosure may be a robotic system ( 1 ), where
the display processing unit ( 20 ) in the above-described robot system ( 1 ) of the first form
an inter-relationship approach unit ( 21 ), which indicates a correlation between the point of origin of a camera ( 18 ) fixed camera coordinate system and the origin point of the robot coordinate system;
a position data conversion unit ( 22 ) which converts the positions of the individual sample points using the correlation into positions in the camera coordinate system;
a graphics image generation unit ( 23 ) which generates the graphic image by using the positions of the individual sampling points in the camera coordinate system and the determination result information of the individual sampling points; and
an image processing unit ( 24 ) which performs processing to display the graphic image using the positions of the individual sampling points in the camera coordinate system on the image of the robot ( 10 to lay
includes.

Durch die oben beschriebene zweite Form kann das Grafikbild auch dann in einer passenden Ausrichtung und an einer passenden Position auf das von der Kamera stammende Bild des Roboters gelegt angezeigt werden, wenn sich die relative Position und der relative Winkel der Kamera in Bezug auf den Roboter ändern.By the second form described above, the graphic image may be displayed in a proper orientation and at an appropriate position on the image of the robot originating from the camera even if the relative position and the relative angle of the camera with respect to the robot change ,

Eine dritte Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei die Informationsanzeigevorrichtung (13) bei dem oben beschriebenen Robotersystem (1) der ersten Form oder der zweiten Form so ausgeführt ist, dass sie das auf das Bild des Roboters (10) gelegte Grafikbild gemäß Änderungen der bestimmten Bewegungsrichtung aktualisiert.A third form of the present disclosure may be a robotic system ( 1 ), the information display device ( 13 ) in the above-described robot system ( 1 ) of the first mold or of the second mold is designed to project the image onto the robot ( 10 ) is updated according to changes in the particular direction of movement.

Durch die oben beschriebene dritte Form ist es möglich, dem Betreiber auch bei einer Änderung der durch den Orthogonalvorrückbetriebsabschnitt bestimmten Bewegungsrichtung Positionsbereiche, die in dieser Bewegungsrichtung vorhandene Singularitätsumgebungen darstellen, leicht erkennbar zu machen.By the third form described above, it is possible to easily make the operator aware of position areas representing singularity environments existing in this moving direction even when changing the direction of movement determined by the orthogonal advancing operating section.

Eine vierte Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei die Informationsanzeigevorrichtung (13) bei einer aus der oben beschriebenen ersten bis dritten Form durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet ist.A fourth form of the present disclosure may be a robotic system ( 1 ), the information display device ( 13 ) is formed in one of the above-described first to third forms by a head-mounted display device with integrated camera.

Durch die oben beschriebene vierte Form kann der Betreiber während der Roboterunterweisung die Informationsanzeigevorrichtung anlegen und den orthogonalen Vorrückbetrieb mittels des Lehrbedienpanels unter visueller Erfassung des Bilds des Roboters und des Grafikbilds an der den Augen gegenüberliegenden Anzeigeeinheit vornehmen.Through the above-described fourth mode, the operator can apply the information display device during robot teaching and perform the orthogonal advance operation by means of the teaching operation panel by visually acquiring the image of the robot and the graphic image on the eye-facing display unit.

Eine fünfte Form der vorliegenden Offenbarung kann ein Robotersystem (1) sein, wobei die Informationsanzeigevorrichtung (13) bei einer aus der oben beschriebenen ersten bis dritten Form
in das Lehrbedienpanel (12) eingebaut ist,
das Lehrbedienpanel (12) ein Anzeigefeld (12a) aufweist, das das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt, und die Erweiterte-Realität-Anzeigeverarbeitungseinheit (20) das Grafikbild auf das an dem Anzeigefeld (12a) angezeigte Bild des Roboters (10) gelegt anzeigt.
A fifth form of the present disclosure may be a robotic system ( 1 ), the information display device ( 13 ) at one of the first to third forms described above
into the teaching panel ( 12 ) is installed,
the teaching panel ( 12 ) a display field ( 12a ), which by the camera ( 18 ) captured image of the robot ( 10 ), and the extended reality display processing unit (FIG. 20 ) the graphic image on the on the display panel ( 12a ) displayed image of the robot ( 10 ).

Durch die oben beschriebene fünfte Form kann der Betreiber während der Roboterunterweisung den orthogonalen Vorrückbetrieb unter visueller Erfassung des Grafikbilds an dem Anzeigefeld des Lehrbedienpanels vornehmen.Through the above-described fifth mode, the operator can perform the orthogonal advance operation during robot teaching by visually acquiring the graphic image on the display panel of the teaching operation panel.

Claims (5)

Robotersystem (1), wobei das Robotersystem (1) eine Robotersteuervorrichtung (11), die einen Roboter (10) steuert, ein Lehrbedienpanel (12), das einen Orthogonalvorrückbetriebsabschnitt (14) enthält, der eine manuelle Betätigung des Roboters in Bezug auf jede Richtung von drei orthogonalen Achsenrichtungen eines an dem Roboter festgemachten Roboterkoordinatensystems oder eine zusammengesetzte Richtung vornimmt, und eine Informationsanzeigevorrichtung (13), die Informationen zur Unterweisung des Roboters (10) anzeigt, umfasst, wobei die Robotersteuervorrichtung (11) eine Abtastpunktberechnungseinheit (15), die jeweils mit einer bestimmten Periode mehrere Positionen in dem Roboterkoordinatensystem, durch die ein Handspitzenbereich des Roboters (10) in einer durch den Orthogonalvorrückbetriebsabschnitt (14) bestimmten Bewegungsrichtung verlaufen kann, berechnet und als Abtastpunkte ansetzt; eine Bestimmungseinheit (16), die eine erste Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs liegen oder nicht, und eine zweite Bestimmungsverarbeitung, wodurch bestimmt wird, ob die einzelnen Abtastpunkte Singularitätsumgebungen sind oder nicht, vornimmt; und eine Meldeeinheit (17), die der Informationsanzeigevorrichtung (13) die Positionen der einzelnen Abtastpunkte sowie Bestimmungsergebnisinformationen, die die Ergebnisse der ersten Bestimmungsverarbeitung und der zweiten Bestimmungsverarbeitung zeigen, meldet, umfasst, und die Informationsanzeigevorrichtung (13) eine Kamera (18), die den Roboter (10) aufnimmt; eine Anzeigeeinheit (19), die das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt; und eine Anzeigeverarbeitungseinheit (20), die eine Verarbeitung vornimmt, um unter Verwendung der Positionen der einzelnen Abtastpunkte und der Bestimmungsergebnisinformationen ein Grafikbild so zu erzeugen, dass es eine geradlinige Bahn, die durch die einzelnen Abtastpunkte verläuft, darstellt, und sich Abschnitte innerhalb des Beweglichkeitsbereichs des Handspitzenbereichs, Abschnitte außerhalb des Beweglichkeitsbereichs des Handspitzenbereichs und Abschnitte von Singularitätsumgebungen auf der geradlinigen Bahn optisch unterscheiden, und auf das Bild des Roboters (10) zu legen, umfasst.A robot system (1), wherein the robot system (1) includes a robot control device (11) that controls a robot (10), a teaching operation panel (12) that includes an orthogonal advancing operation section (14) that controls manual operation of the robot with respect to each direction of three orthogonal axis directions of a robot coordinate system fixed to the robot or a composite direction, and an information display device (13) displaying information for instructing the robot (10), wherein the robot control device (11) a sample point calculation unit (15) each calculating, with a certain period, a plurality of positions in the robot coordinate system by which a hand tip region of the robot (10) can travel in a direction of movement determined by the orthogonal advance operation section (14), and set as sample points; a determination unit (16) that performs a first determination processing, thereby determining whether or not the individual sample points are within the range of the hand tip region, and second determination processing, thereby determining whether or not the individual sample points are singularity environments; and a reporting unit (17) that notifies the information display device (13) of the positions of the individual sampling points and determination result information showing the results of the first determination processing and the second determination processing; the information display device (13) includes a camera (18) that houses the robot (10); a display unit (19) for displaying the image of the robot (10) taken by the camera (18); and a display processing unit (20) that performs processing to generate a graphic image using the positions of the individual sampling points and the determination result information to be a straight line passing through the individual sampling points, and portions within the range of the mobility of the hand tip region, visually distinguishing sections outside the range of motion of the hand tip region and sections of singularity environments on the rectilinear path, and laying on the image of the robot (10), includes. Robotersystem (1) nach Anspruch 1, wobei die Anzeigeverarbeitungseinheit (20) eine Wechselbeziehungsansatzeinheit (21), die eine Wechselbeziehung zwischen dem Ursprungspunkt eines an der Kamera (18) festgemachten Kamerakoordinatensystems und dem Ursprungspunkt des Roboterkoordinatensystems ansetzt; eine Positionsdatenumwandlungseinheit (22), die die Positionen der einzelnen Abtastpunkte unter Verwendung der Wechselbeziehung in Positionen in dem Kamerakoordinatensystem umwandelt; eine Grafikbilderzeugungseinheit (23), die das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem und der Bestimmungsergebnisinformationen der einzelnen Abtastpunkte erzeugt; und eine Bildverarbeitungseinheit (24), die eine Verarbeitung vornimmt, um das Grafikbild unter Verwendung der Positionen der einzelnen Abtastpunkte in dem Kamerakoordinatensystem auf das Bild des Roboters (10) zu legen, umfasst.Robot system (1) according to Claim 1 wherein the display processing unit (20) attaches an interrelationship request unit (21) which establishes a correlation between the origin point of a camera coordinate system fixed to the camera (18) and the origin point of the robot coordinate system; a position data conversion unit (22) that converts the positions of the individual sample points using the correlation into positions in the camera coordinate system; a graphic image generating unit (23) that generates the graphic image using the positions of the individual sampling points in the camera coordinate system and the determination result information of the individual sampling points; and an image processing unit (24) that performs processing to set the graphic image on the image of the robot (10) using the positions of the individual sampling points in the camera coordinate system. Robotersystem (1) nach Anspruch 1 oder 2, wobei die Informationsanzeigevorrichtung (13) so ausgeführt ist, dass sie das auf das Bild des Roboters (10) gelegte Grafikbildg gemäß Änderungen der bestimmten Bewegungsrichtung aktualisiert.Robot system (1) according to Claim 1 or 2 wherein the information display device (13) is adapted to update the graphic image g placed on the image of the robot (10) according to changes in the determined direction of movement. Robotersystem (1) nach einem der Ansprüche 1 bis 3, wobei die Informationsanzeigevorrichtung (13) durch eine am Kopf getragene Anzeigevorrichtung mit integrierter Kamera gebildet ist.Robot system (1) according to one of Claims 1 to 3 wherein the information display device (13) is formed by a head-mounted display device with integrated camera. Robotersystem (1) nach einem der Ansprüche 1 bis 3, wobei die Informationsanzeigevorrichtung (13) in das Lehrbedienpanel (12) eingebaut ist, das Lehrbedienpanel (12) ein Anzeigefeld (12a) aufweist, das das durch die Kamera (18) aufgenommene Bild des Roboters (10) anzeigt, und die Erweiterte-Realität-Anzeigeverarbeitungseinheit (20) das Grafikbild auf das an dem Anzeigefeld (12a) angezeigte Bild des Roboters (10) gelegt anzeigt.Robot system (1) according to one of Claims 1 to 3 wherein the information display device (13) is incorporated in the teaching operation panel (12), the teaching operation panel (12) has a display panel (12a) displaying the image of the robot (10) picked up by the camera (18), and the augmented reality Display processing unit (20) displays the graphic image superimposed on the image of the robot (10) displayed on the display panel (12a).
DE102018112403.1A 2017-05-31 2018-05-24 ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT Active DE102018112403B4 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-108247 2017-05-31
JP2017108247A JP6445092B2 (en) 2017-05-31 2017-05-31 Robot system displaying information for teaching robots

Publications (2)

Publication Number Publication Date
DE102018112403A1 true DE102018112403A1 (en) 2018-12-06
DE102018112403B4 DE102018112403B4 (en) 2019-10-02

Family

ID=64279117

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018112403.1A Active DE102018112403B4 (en) 2017-05-31 2018-05-24 ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT

Country Status (4)

Country Link
US (1) US10427298B2 (en)
JP (1) JP6445092B2 (en)
CN (1) CN108972568B (en)
DE (1) DE102018112403B4 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110072675B (en) * 2016-12-13 2022-04-19 株式会社富士 Target position correction method for working robot
JP7259284B2 (en) * 2017-11-28 2023-04-18 株式会社デンソーウェーブ Teaching device, teaching method
JP7146402B2 (en) * 2018-01-18 2022-10-04 キヤノン株式会社 Information processing device and information processing method
JP2020013242A (en) * 2018-07-17 2020-01-23 富士ゼロックス株式会社 Robot control system, robot device and program
JP7000364B2 (en) * 2019-01-29 2022-01-19 ファナック株式会社 Robot system
CN110087190A (en) * 2019-05-16 2019-08-02 北京云迹科技有限公司 It is a kind of for notifying the method and device of user
US20230292000A1 (en) * 2020-08-03 2023-09-14 Mitsubishi Electric Corporation Remote control device
JP2022088884A (en) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 Computer program and teaching method of robot
CN113500602B (en) * 2021-07-23 2023-09-05 鲁东大学 Distributed sampling control for multi-link manipulator system

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047916A (en) 1988-03-25 1991-09-10 Kabushiki Kaisha Toshiba Method and apparatus of free space enumeration for collision avoidance
JPH07295625A (en) 1994-04-28 1995-11-10 Fanuc Ltd Jog feed information display device for robot
SE0303384D0 (en) 2003-12-15 2003-12-15 Abb Ab Control system, method and computer program
KR100786351B1 (en) * 2006-08-29 2007-12-14 울산대학교 산학협력단 System and method for teaching work-robot based on ar
JP5103237B2 (en) * 2008-03-25 2012-12-19 株式会社神戸製鋼所 Robot operation margin calculation display method and apparatus
CN101791801B (en) * 2010-01-15 2012-06-06 广东工业大学 Industrial robot motion planning and performance testing system and implementation method thereof
JP5246672B2 (en) 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 Robot system
JP2012218120A (en) 2011-04-12 2012-11-12 Seiko Epson Corp Manipulator operation previous notice device, robot system and method for previously noticing manipulator operation
CN103492133B (en) * 2011-04-19 2016-04-13 Abb研究有限公司 There is the industrial robot of motion redundancy arm and the method for controlling this robot
JP5742862B2 (en) * 2013-03-18 2015-07-01 株式会社安川電機 Robot apparatus and workpiece manufacturing method
JP2015066668A (en) * 2013-10-01 2015-04-13 キヤノン株式会社 Method for adjusting teaching point of robot, method for calculating installation position of robot, robot system, program, and recording medium
ES2680576T3 (en) 2013-10-07 2018-09-10 Abb Schweiz Ag Method and device to verify one or more security volumes for a mobile mechanical unit
JP6418483B2 (en) * 2014-06-18 2018-11-07 株式会社Ihi Processing trajectory generating apparatus and method
JP2016107379A (en) * 2014-12-08 2016-06-20 ファナック株式会社 Robot system including augmented reality corresponding display
CN206105869U (en) * 2016-10-12 2017-04-19 华南理工大学 Quick teaching apparatus of robot

Also Published As

Publication number Publication date
JP2018202514A (en) 2018-12-27
DE102018112403B4 (en) 2019-10-02
JP6445092B2 (en) 2018-12-26
US20180345490A1 (en) 2018-12-06
CN108972568B (en) 2019-11-15
CN108972568A (en) 2018-12-11
US10427298B2 (en) 2019-10-01

Similar Documents

Publication Publication Date Title
DE102018112403B4 (en) ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT
DE102019009313B4 (en) Robot control, method and computer program using augmented reality and mixed reality
DE102019002898B4 (en) robot simulation device
EP1447770B1 (en) Method and apparatus for visualization of computer-based information
DE102018213985B4 (en) robotic system
DE102018109463C5 (en) Method for using a multi-unit actuated kinematics, preferably a robot, particularly preferably an articulated robot, by a user using a mobile display device
DE102015002760B4 (en) Robot simulation system that simulates the process of removing workpieces
DE102019119319B4 (en) Scanning system, working system, method for displaying augmented reality images, method for storing augmented reality images and programs therefor
DE60127644T2 (en) Teaching device for a robot
DE102017124502B4 (en) A simulation apparatus and method that performs an operational simulation of a robot system and a recording medium that records a computer program
DE102013008062B4 (en) Operation simulation system for a robot system
DE202008014481U1 (en) Portable robotic control device for controlling a movement of a robot
DE112019003204T5 (en) VISUALIZATION AND MODIFICATION OF WORKING EDGE AREAS USING EXTENDED REALITY
DE112016005365T5 (en) Direct teaching method of a robot
DE102015016530B4 (en) Robot identification system
DE102015105687A1 (en) robot
DE102020129967A1 (en) Simulation device and robotic system with augmented reality
EP2012208B1 (en) Programmable hand tool
DE102015004483A1 (en) Robot controller and robot system for moving a robot in response to a force
DE102014118001A1 (en) Method for simulating the motion of a manipulator
DE102018107857A1 (en) Apparatus, system and method for automatically generating a motion path of a robot
DE102020110252A1 (en) Vibration indicator, operating program generator and system
DE102010037067B4 (en) Robot control device and method for teaching a robot
JPS59229619A (en) Work instructing system of robot and its using
DE102018201589A1 (en) Method for programming the control of an industrial robot, method for operating an industrial robot, programming device and industrial robot system with such a programming device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final