DE102005040714B4 - Method and system for creating a movement sequence for a robot - Google Patents

Method and system for creating a movement sequence for a robot Download PDF

Info

Publication number
DE102005040714B4
DE102005040714B4 DE102005040714.5A DE102005040714A DE102005040714B4 DE 102005040714 B4 DE102005040714 B4 DE 102005040714B4 DE 102005040714 A DE102005040714 A DE 102005040714A DE 102005040714 B4 DE102005040714 B4 DE 102005040714B4
Authority
DE
Germany
Prior art keywords
robot
image
functional unit
image capture
end position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005040714.5A
Other languages
German (de)
Other versions
DE102005040714A1 (en
Inventor
Dr.-Ing. Kock Sönke
Dr.-Ing. habil. Dai Fan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Research Ltd Switzerland
ABB Research Ltd Sweden
Original Assignee
ABB Research Ltd Switzerland
ABB Research Ltd Sweden
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Research Ltd Switzerland, ABB Research Ltd Sweden filed Critical ABB Research Ltd Switzerland
Priority to DE102005040714.5A priority Critical patent/DE102005040714B4/en
Priority to PCT/EP2006/008194 priority patent/WO2007025658A1/en
Publication of DE102005040714A1 publication Critical patent/DE102005040714A1/en
Application granted granted Critical
Publication of DE102005040714B4 publication Critical patent/DE102005040714B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • G05B19/40931Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine concerning programming of geometry
    • G05B19/40932Shape input
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/41Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by interpolation, e.g. the computation of intermediate points between programmed end points to define the path to be followed and the rate of travel along that path
    • G05B19/4103Digital interpolation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40114From vision detected initial and user given final state, generate tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40519Motion, trajectory planning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit mit den Verfahrensschritten: a) Erfassen mindestens eines Bildes des realen Arbeitsbereiches des Roboters durch mindestens eine Bilderfassungseinrichtung, b) Anzeigen des mindestens einen Bildes auf der Funktionseinheit, c) Festlegen einer Startstellung des Roboters, d) Auswählen einer Soll-Endstellung mit Hilfe der Funktionseinheit, und des mindestens einen Bildes und e) direktes Umwandeln der ausgewähltes Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich, dadurch gekennzeichnet, dass • die Bilderfassungseinrichtung an dem Roboter, vorzugsweise dem Handgelenk des Roboters, angeordnet wird und die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt wird. • mindestens zwei Bilder des realen Arbeitsbereiches aus unterschiedlichen Perspektiven erfasst werden, • zwei Bilderfassungseinrichtungen zum Erfassen der mindestens zwei Bilder verwendet werden, • die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt werden, • ausgewählte Soll-Eindstellung in dem Bild auf der Funktionseinheit angezeigt wird. • Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden, • des Festlegen der Startstellung durch Abfragen einer Steuerungsvorrichtung des Roboters erfolgt und die abgefragte Startstellung in eine Startstellung für den realen Arbeitsbereich umgewandelt wird und • die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt werden.Method for creating a sequence of movements for a robot using a functional unit with the method steps: a) capturing at least one image of the real working area of the robot by at least one image capture device, b) displaying the at least one image on the functional unit, c) setting a starting position of the robot , d) selecting a desired end position by means of the functional unit, and the at least one image and e) directly converting the selected target end position into a target end position for the real working range, characterized in that the image capture device on the robot, preferably the wrist of the robot, and the relative position of the image capture device is determined to the tool receiving point of the robot. • at least two images of the real work area are acquired from different perspectives, • two image capture devices are used to capture the at least two images, • the orientation of the image capture devices and the distance between the image capture devices are determined, • selected target capture in the image on the functional unit is shown. • connection lines between the selected and displayed target end positions are displayed in the image on the functional unit, • the starting position is determined by querying a control device of the robot and the requested starting position is converted into a starting position for the real working area and • the defined sequences of motion as Control commands are transmitted to a control device of the robot.

Description

Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Erstellung eines Bewegungsablaufes für einen Roboter.The present invention relates to a method and a system for creating a movement sequence for a robot.

Industrieroboter sind Handhabungsgeräte, die maschinell gesteuert werden und deren Arbeitsablauf programmierbar ist. Die Programmierung eines Industrieroboters erweist sich im Vergleich zu der Programmierung einer NC-Maschine als schwieriger, da wesentlich mehr Daten zur Verfügung gestellt werden müssen. So ist es beispielsweise nötig, den Arbeitsbereich des Roboters sowie die Position des Werkstückes in diesem Arbeitsbereich datenmäßig zu erfassen und in die Programmierung einzuarbeiten. Zur Erfassung dieser Daten und deren Einbindung in das Anwenderprogramm wurden unterschiedliche Verfahren entwickelt, die nachstehend kurz erläutert werden.Industrial robots are handling devices that are machine-controlled and whose operation is programmable. The programming of an industrial robot proves to be more difficult than the programming of an NC machine, as much more data must be made available. For example, it is necessary to record the work area of the robot as well as the position of the workpiece in this work area in terms of data and to incorporate it into the programming. Different methods have been developed to collect these data and their integration into the user program, which are briefly explained below.

Bei dem so genannten Play-Back-Verfahren wird die Programmierung des Bewegungsablaufes durch manuelles Führen des Roboters entlang der gewünschten Bahn durchgeführt. Dabei werden die Stellungen des Roboters in einem definierten Zeit- oder Wegraster in das Anwenderprogramm übernommen. Anschließend kann der Roboter den manuell vorgegebenen Bewegungsablauf unter Ausführung des Anwenderprogramms maschinell angetrieben nachvollziehen. Das bekannte Verfahren hat den Nachteil, dass sich die Bedienungsperson in dem durch das Werkstück eingeschränkten Arbeitsbereich des Roboters bewegen muss, wodurch die Programmierung schwierig, zeitintensiv und ungenau wird.In the so-called play-back method, the programming of the movement sequence is carried out by manually guiding the robot along the desired path. The positions of the robot are transferred to the user program in a defined time or space frame. Subsequently, the robot can follow the manually predetermined movement sequence by executing the user program by machine. The known method has the disadvantage that the operator has to move in the working area of the robot restricted by the workpiece, whereby the programming becomes difficult, time-consuming and inaccurate.

Eine Verbesserung gegenüber dem vorstehend genannten Verfahren wird durch die Teach-In-Programmierung erzielt. Bei dieser wird die Bewegungsinformation durch Anfahren der gewünschten Raumpunkte mit Hilfe eines Programmierhandgerätes oder Bedienfelds und der Übernahme dieser Punkte durch Betätigen einer Funktionstaste erstellt. Darüber hinaus können über das Programmierhandgerät weitere Bewegungsanweisungen, wie beispielsweise Geschwindigkeits- und Beschleunigungsvorgaben oder die Steuerungsart (Punkt-zu-Punkt- oder Bahnsteuerung), eingegeben werden.An improvement over the above-mentioned method is achieved by the teach-in programming. In this, the movement information is created by approaching the desired space points using a handheld programmer or control panel and the acquisition of these points by pressing a function key. In addition, further movement instructions, such as speed and acceleration specifications or the control mode (point-to-point or path control), can be entered via the programming pendant.

Die vorstehend genannten Verfahren sind so genannte direkte Verfahren, das heißt, die Programmierung erfolgt unter Verwendung des Robotersystems, so dass der Roboter während der Programmierung und der nachfolgenden Testphase nicht zur Verfügung steht. Hiervon sind die so genannten indirekten Verfahren zu unterscheiden. Diese zeichnen sich dadurch aus, dass die Programmierung auf steuerungsunabhängigen Rechnern getrennt von dem Robotersystem erfolgt. Diese erfordern ein Rechnermodell des Roboters und des Arbeitsbereiches. Die Programmierung und das Testen der Programmierung sind somit in die Fertigungsplanung verlagert, so dass die Roboter ungehindert arbeiten können.The above methods are so-called direct methods, that is, the programming is performed using the robot system so that the robot is not available during the programming and subsequent test phase. Of these, the so-called indirect methods have to be distinguished. These are characterized by the fact that the programming on control-independent computers takes place separately from the robot system. These require a computer model of the robot and the work area. The programming and the testing of the programming are thus shifted into the production planning, so that the robots can work unhindered.

Bei den indirekten Programmierverfahren können im Wesentlichen die textuellen Programmierverfahren, bei denen die erforderlichen Geometrie- und Bewegungsdaten über eine Tastatur eingegeben werden, und die CAD-unterstützten Programmierverfahren unterschieden werden. Letztere basieren auf der Nutzung geometrischer Modelle der am Fertigungsprozess beteiligten Komponenten. Die Modellierung erfolgt hierbei unter Verwendung von CAD-Systemen, wobei auf einem Bildschirm Funktionen zur Verfügung gestellt werden, die eine Festlegung von anzufahrenden Positionen sowie Verfahrwegen ermöglichen. Es ist anschließend möglich den Bewegungsablauf des Roboters grafisch zu simulieren. CAD-unterstützte Programmierverfahren zeichnen sich insbesondere durch ihre Anschaulichkeit aus.In the indirect programming methods, essentially the textual programming methods in which the required geometry and movement data are entered via a keyboard, and the CAD-supported programming methods can be distinguished. The latter are based on the use of geometric models of the components involved in the manufacturing process. The modeling takes place using CAD systems, whereby functions are provided on a screen, which allow a definition of approaching positions and trajectories. It is then possible to graphically simulate the motion sequence of the robot. CAD-supported programming methods are characterized in particular by their clarity.

Zur Erfassung der Daten des Arbeitsbereiches und des darin angeordneten Werkstückes werden heutzutage vermehrt Bilderfassungsgerte, wie beispielsweise Kameras, eingesetzt, deren Bilder als Grundlage zur Erzeugung eines virtuellen Arbeitsbereiches verwendet werden. An Hand des virtuellen Arbeitsbereiches kann dann die Programmierung vorgenommen werden. Die bekannten Systeme und Verfahren zur Erfassung des Arbeitsbereiches mit Hilfe von Bilderfassungsgeräten sind jedoch aufwendig und kostspielig.To capture the data of the work area and the workpiece arranged therein nowadays increasingly image acquisition devices, such as cameras, are used whose images are used as the basis for generating a virtual workspace. On the basis of the virtual workspace then the programming can be made. The known systems and methods for detecting the work area with the aid of image acquisition devices, however, are complicated and expensive.

Das Patentdokument JP 2005-078 406 A offenbart ein Verfahren zur Vereinfachung der Programmierung eines Roboters: Ein zweidimensionales Bild vom Arbeitsbereich eines Roboters wird aufgenommen und auf dem Bildschirm eines Personalcomputers dargestellt. Eine anzulernende Position für die Bewegung des Roboterarms wird direkt auf dem angezeigten zweidimensionalen Bild mittels einer grafischen Eingabevorrichtung angegeben. Simultan hierzu werden die zugehörigen Daten der anzulernenden Position dargestellt.The patent document JP 2005-078406A discloses a method for simplifying the programming of a robot: A two-dimensional image of the working area of a robot is recorded and displayed on the screen of a personal computer. A position to be learned for the movement of the robot arm is indicated directly on the displayed two-dimensional image by means of a graphical input device. Simultaneously, the associated data of the position to be taught are displayed.

Das Patentdokument JP 2001-060 108 A offenbart ein Verfahren zur vereinfachten Bahnprogrammierung eines Roboters anhand einer 3D Bildaufnahme einer Roboter Arbeitsumgebung. Ein vereinfachtes dreidimensionales Modell der Arbeitsumgebung wird anhand des realen Bildes erstellt, so dass die Koordinatensysteme in Übereinstimmung gebracht werden können und mittels des vereinfachten Modells ein Bewegungspfad erstellt werden kann.The patent document JP 2001-060108 A discloses a method for simplified path programming of a robot based on a 3D image capture of a robot work environment. A simplified three-dimensional model of the working environment is created based on the real image so that the coordinate systems can be matched and a motion path can be created using the simplified model.

Das Patentdokument JP S61-100 809 A offenbart ein Verfahren zur Steigerung der Effizienz einer programmierten Roboterbewegung mittels mehrerer Spot Lights und einer Bilderfassungsvorrichtung sowie einer Auswertung der Helligkeit und des Kontrastes der von der Bilderfassung aufgenommenen Bilder.The patent document JP S61-100 809 A discloses a method for increasing the efficiency of a programmed robot movement by means of multiple spot lights and an image capture device and an evaluation of the brightness and contrast of the images captured by the image capture.

Das Patentdokument US 6 304 050 B1 offenbart ein System zur optischen dreidimensionalen Kontrolle eines Robotersystems mit mehreren Bewegungsfreiheitsgraden, wobei eine Kalibrierung des hierzu benötigten Vision Systems unterbleiben kann. Die Bedienperson gibt mittels einer grafischen Oberfläche anhand eines dargestellten realen Bildes des Arbeitsbereiches an, mit welchem Objektteil der Roboter interagieren soll.The patent document US Pat. No. 6,304,050 B1 discloses a system for optical three-dimensional control of a robot system with multiple degrees of freedom of movement, wherein a calibration of the vision system required for this purpose can be omitted. The operator indicates by means of a graphical user interface on the basis of a displayed real image of the work area with which object part the robot is to interact.

Des Patentdokument US 2003/0 120 391 A1 offenbart ein System zum Anlernen von Robotern mit einem dreidimensionalen Messsystem, welches in der Lage ist, Abstände zwischen auf realen Kamerabildern markierten Punkten zu bestimmen. Hierbei wird ein reales Bild mit grafischer Überlappung eines geometrischen Modellbildes angezeigt.The patent document US 2003/0 120 391 A1 discloses a system for teaching robots with a three-dimensional measuring system which is able to determine distances between points marked on real camera images. This displays a real image with graphical overlap of a geometric model image.

Der vorliegenden Erfindung liegt daher die Aufgabe zu Grunde, ein Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter anzugeben, des möglichst einfach, schnell und kostengünstig durchführbar ist. Die Aufgabe der vorliegenden Erfindung besteht darüber hinaus darin, ein System zur Erstellung eines Bewegungsablaufes für euren Roboter zu schaffen, des einen einfachen und kostengünstigen Aufbau hat und dessen Handhabung vereinfacht ist.The present invention is therefore based on the object to provide a method for creating a movement sequence for a robot, which is as simple, fast and inexpensive to carry out. The object of the present invention is also to provide a system for creating a movement sequence for your robot, which has a simple and inexpensive construction and its handling is simplified.

Diese Aufgabe wird durch die in den Patentansprüchen 1 bzw. 20 angegebene Merkmale gelöst. Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by the features specified in the patent claims 1 and 20, respectively. Advantageous embodiments of the invention are the subject of the dependent claims.

Des Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit weist die folgenden Verfahrensschritte auf.

  • (a) Zunächst wird mindestens ein Bild des realen Arbeitsbereiches des Roboters mit Hilfe einer Bilderfassungseinrichtung erfasst. Hierbei kann beispielsweise eine Digitalkamera zum Einsatz kommen.
  • (b) Anschließend wird des mindestens eine Bild auf der Funktionseinheit angezeigt. Es ist also nicht erforderlich, das Bild des realen Arbeitsbereiches zu analysieren, um einen virtuellen Arbeitsbereich zu erzeugen.
  • (c) Es wird ferner eine Startstellung des Roboters festgelegt.
  • (d) Im Anschluss daran wird eine Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt. Unter der Startstellung bzw. der Soll-Endstellung sind dabei alle geometrischen Angaben des Roboters zu verstehen, die für die Erstellung von Roboterbewegungsabläufen notwendig sind. So kann es beispielsweise in einem einfachen Fall, in dem der Roboter lediglich eine Aufgabe im zweidimensionalen Bereich auszuführen hat, ausreichen, als Startstellung den Endpunkt des Roboterarmes sowie die Richtung des am Roboterarm befestigten Werkzeugs zu bestimmten, also letztlich zwei Punkte am Roboter bzw. an dem Werkzeug zu bestimmen. In anderen Fällen, insbesondere bei dreidimensionalen Bewegungsabläufen, sind unter der Startstellung gegebenenfalls alle Informationen bezüglich des Roboterwerkzeugs, der Werkzeugstellung, der Roboterachsschenkel, deren Orientierung und der Positionen und Orientierung der Roboterachsen zu verstehen.
  • (e) Schließlich wird die ausgewählte Soll-Endstellung direkt in eine Soll-Endstellung für den realen Arbeitsbereich umgewandelt. Dies bedeutet, dass die ausgewählte Soll-Endstellung nicht zunächst in eine Soll-Endstellung in einem virtuellen Arbeitsbereich umgewandelt wird, bevor die Soll-Endstellung in dem virtuellen Arbeitsbereich erneut umgewandelt wird. Vielmehr kann bei dem erfindungsgemäßen Verfahren – wie bereits oben erwähnt – auf die Erzeugung und Verwendung eines virtuellen Arbeitsbereiches verzichtet werden. Dies führt dazu, dass das erfindungsgemäße Verfahren besonders schnell und kostengünstig durchführbar ist, da hierfür keine aufwendiges Analyseverfahren mit Merkmalsermittlung zur Analyse der Bilder notwendig ist. Vielmehr wird eine Analyse allein durch die visuelle Wahrnehmung des Bildes durch die Bedienungsperson vorgenommen.
The method for creating a motion sequence for a robot using a functional unit comprises the following method steps.
  • (a) First, at least one image of the real working area of the robot is detected by means of an image capture device. In this case, for example, a digital camera can be used.
  • (b) Subsequently, the at least one image is displayed on the functional unit. It is therefore not necessary to analyze the image of the real workspace to create a virtual workspace.
  • (c) Further, a start position of the robot is set.
  • (d) Subsequently, a target end position is selected using the functional unit. Under the starting position or the target end position are all geometric information of the robot to understand that are necessary for the creation of robot motion sequences. Thus, for example, in a simple case in which the robot merely has to carry out a task in the two-dimensional range, it is sufficient to determine the end point of the robot arm as well as the direction of the tool fastened to the robot arm, ie ultimately two points on the robot or on to determine the tool. In other cases, in particular in the case of three-dimensional movement sequences, the starting position may be understood as meaning all information relating to the robot tool, the tool position, the robot axis leg, its orientation and the positions and orientation of the robot axes.
  • (e) Finally, the selected target end position is directly converted to a target end position for the real workspace. This means that the selected target end position is not first converted to a target end position in a virtual workspace before the target end position is reconverted in the virtual workspace. Rather, in the method according to the invention-as already mentioned above-the generation and use of a virtual work area can be dispensed with. As a result, the method according to the invention can be carried out particularly quickly and cost-effectively, since no complicated analysis method with feature determination for analyzing the images is necessary for this purpose. Rather, an analysis is made solely by the visual perception of the image by the operator.

In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird (f) ein Bewegungsablauf für den Roboter in Abhängigkeit von der Startstellung und der Soll-Endstellung für den realen Arbeitsbereich festgelegt. Für das Festlegen der Bewegungsabläufe ist es beispielsweise notwendig, alle Angaben über den Roboterarm, also insbesondere die räumliche Position der Roboterachsen und der Roboterachsschenkel sowie des Roboterwerkzeuges genau festzulegen. Es ist nämlich ohne weiteres denkbar, dass eine Bewegungsbahn eines Werkzeuges von der Startstellung in die Soll-Endstellung durch unterschiedliche Roboterbewegungsabläufe erreicht werden kann. Für die Erstellung von Roboterbewegungsabläufen bedeutet dies, dass eine Selektion nach objektiven Kriterien aus den möglichen Roboterbewegungsabläufen getroffen wird, beispielsweise auf Grund eines zeitlichen Kriteriums oder eines Kriteriums, nach dem eine möglichst geringe Belastung der Roboterachsen gegeben sein soll.In an advantageous development of the method according to the invention, (f) a movement sequence for the robot is defined as a function of the starting position and the desired end position for the real working area. For setting the motion sequences, it is necessary, for example, to specify exactly all information about the robot arm, that is to say in particular the spatial position of the robot axes and the robot axis legs, as well as of the robot tool. In fact, it is conceivable that a movement path of a tool from the starting position to the desired end position can be achieved by different robot movement sequences. For the creation of robot motion sequences, this means that a selection is made according to objective criteria from the possible robot movement sequences, for example, on the basis of a time criterion or a criterion according to which the robot axes should be loaded as little as possible.

Es ist aber auch innerhalb des Erfindungsgedankens, wenn die Festlegung des Bewegungsgutachtens erst erfolgt, wenn alle Soll-Endstellungen eingegeben sind. In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird kein virtueller Arbeitsbereich aus dem Bild des realen Arbeitsbereiches erzeugt.But it is also within the inventive concept, if the determination of the motion report only takes place when all target end positions are entered. In a preferred embodiment of the method according to the invention, no virtual workspace is generated from the image of the real workspace.

Um die Genauigkeit des durch das Verfahren erstellten Bewegungsablaufes für den Roboter zu erhöhen, wird in einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens vor dem Anzeigen des Bildes auf der Funktionseinheit der Linsenfehler und die Brennweite der Bilderfassungseinrichtung ermittelt und die Genauigkeit des Bildes mit Hilfe mathematischer Methoden unter Zugrundelegung des ermittelten Linsenfehlers sowie der Brennweite erhöht.In order to increase the accuracy of the motion sequence created by the method for the robot, in an advantageous embodiment of the method according to the invention prior to displaying the image on the functional unit the lens error and the focal length of the image capture device is determined and the accuracy of the image using mathematical methods on the basis the detected lens error and the focal length increases.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird die Bilderfassungseinrichtung an dem Roboter, vorzugsweise dem Handgelenk des Roboters, angeordnet, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt wird.In an advantageous embodiment of the method according to the invention, the image capture device is arranged on the robot, preferably the wrist of the robot, wherein the relative position of the image capture device is determined to the tool receiving point of the robot.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden mindestens zwei Bilder des realen Arbeitsbereiches aus unterschiedlichen Perspektiven erfasst. Dies kann beispielsweise mit Hilfe zweier Bilderfassungseinrichtungen erfolgen, wobei dies z. B. eine Stereokamera oder zwei herkömmliche Kameras sein können. Auf Basis der beiden Bilder aus unterschiedlichen Perspektiven kann eine einfache Triangulation durchgeführt werden.In a further advantageous embodiment of the method according to the invention, at least two images of the real work area are acquired from different perspectives. This can be done for example by means of two image capture devices, this z. B. may be a stereo camera or two conventional cameras. Based on the two images from different perspectives, a simple triangulation can be performed.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Bilder nebeneinander auf der Funktionseinheit angezeigt. Es wird demzufolge kein dreidimensionales Abbild aus den beiden Bildern erzeugt, so dass das Verfahren ohne eine kostenintensive und aufwendige Bildverarbeitung durchgeführt werden kann. Die Bedienungsperson kann die Soll-Endstellung durch optische Prüfung der beiden Bilder und nachfolgendem manuellen Triangulieren festlegen.In a further advantageous embodiment of the method according to the invention, the images are displayed side by side on the functional unit. Consequently, no three-dimensional image is generated from the two images, so that the process can be carried out without cost-intensive and complex image processing. The operator can set the target end position by optical examination of the two images and subsequent manual triangulation.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden zwei Bilderfassungseinrichtungen zum Erfassen der mindestens zwei Bilder verwendet. Diese sind günstiger als beispielsweise ein Stereokamerasystem und einfacher zu handhaben als eine einzelne Kamera, die verfahren werden müsste, um zwei Bilder aus unterschiedlichen Perspektiven zu erfassen.In a further advantageous embodiment of the method according to the invention, two image capture devices are used for detecting the at least two images. These are cheaper than, for example, a stereo camera system and easier to handle than a single camera that would need to be moved to capture two images from different perspectives.

In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt. Auf diese Weise kann die Lage eines Punktes im Arbeitsbereich durch Triangulation ermittelt werden.In a further preferred embodiment of the method according to the invention, the orientation of the image capture devices and the distance between the image capture devices is determined. In this way, the position of a point in the working area can be determined by triangulation.

In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt. Auf diese Weise ist eine bessere Überprüfbarkeit der ausgewählten Soll-Endstellungen möglich. Das Anzeigen kann beispielsweise mittels kleiner Kreuze oder Punkte in dem Bild erfolgen.In a preferred embodiment of the method according to the invention, the selected target end position is displayed in the image on the functional unit. In this way, a better verifiability of the selected target end positions is possible. The display can be done for example by means of small crosses or dots in the image.

Der vorgenannte Vorteil ist in einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens noch verstärkt, bei der Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.The aforementioned advantage is further enhanced in a further preferred embodiment of the method according to the invention, in which connecting lines between the selected and displayed nominal end positions are displayed in the image on the functional unit.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Bilder abrufbar gespeichert.In a further advantageous embodiment of the method according to the invention, the images are retrievably stored.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Verfahrensschritte (c) bis (e) bis zu einem vorgebbaren Abbruchkriterium wiederholt, wobei als Startstellung für den folgenden Zyklus die Soll-Endstellung des vorangehenden Zyklus verwendet wird. Dieses Abbruchkriterium kann beispielsweise die vollständige Erfüllung einer vorgegebenen Bewegungsbahnabfolge sein. Auf diese Weise wird auch die Erstellung von komplexen Bahnfolgen mit einer Vielzahl von Einzelbewegungen auf besonders einfache Weise möglich.In a further advantageous embodiment of the method according to the invention, the method steps (c) to (e) are repeated up to a predefinable termination criterion, wherein the desired end position of the preceding cycle is used as starting position for the following cycle. This abort criterion can be, for example, the complete fulfillment of a given trajectory sequence. In this way, the creation of complex web sequences with a variety of individual movements in a particularly simple manner possible.

In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden die Verfahrensschritte (c) bis (f) oder (c) bis (e) so lange wiederholt, bis eine Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen liegt, wobei dann die Bilderfassungseinrichtungen neu positioniert und der Verfahrensschritt (a) erneut durchgeführt wird. Im Anschluss daran kann mit dem neu erfassten Bild fortgefahren werden.In a particularly preferred embodiment of the method according to the invention, the method steps (c) to (f) or (c) to (e) are repeated until a desired end position is outside the field of view of one of the image capture devices, in which case the image capture devices repositioned and the process step (a) is carried out again. Following this, you can continue with the newly captured image.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens erfolgt das Festlegen der Startstellung durch Abfragen einer Steuerungsvorrichtung des Roboters, wobei die abgefragte Startstellung in eine Startstellung für den realen Arbeitsbereich umgewandelt wird. Auch hier wird diese Startstellung nicht in eine Startstellung innerhalb eines realen Arbeitsbereiches umgewandelt, der für die Erfindung nicht notwendig ist.In an advantageous embodiment of the method according to the invention, the starting position is determined by querying a control device of the robot, wherein the interrogated starting position is converted into a starting position for the real working area. Again, this starting position is not converted into a starting position within a real work area, which is not necessary for the invention.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird die Orientierung eines Werkzeuges für jede Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt. Dies kann beispielsweise auf dieselbe Weise erfolgen, wie das Festlegen der Soll-Endstellung, indem ein zweiter Punkt in dem Bild ausgewählt wird.In a further advantageous embodiment of the method according to the invention, the orientation of a tool is selected for each desired end position with the aid of the functional unit. This can be done, for example, in the same way as setting the target end position by selecting a second point in the image.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird das Auswählen der Soll-Endstellung auf dem angezeigten Bild auf der Funktionseinheit vorgenommen. Hier kann vorteilhafterweise z. B. ein grafikunterstütztes Eingabegerät, eine so genannte Graphical Teach Pendant Unit (GTPU), als Funktionseinheit verwendet werden. Mit diesem Eingabegerät sind sowohl die Bilder des realen Arbeitsraumes als auch die durch Berührung ausgewählten Soll-Endstellungen anzeigbar.In an advantageous embodiment of the method according to the invention, the selection of the desired end position on the displayed image is performed on the functional unit. Here can advantageously z. For example, a graphics-assisted input device, a so-called Graphical Teach Pendant Unit (GTPU), can be used as a functional unit. With this input device, both the images of the real working space and the target end positions selected by touch can be displayed.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt.In a further advantageous embodiment of the method according to the invention, the defined motion sequences are transmitted as control commands in a control device of the robot.

Um Fehler bei dem Auswählen der Soll-Endstellungen zu vermeiden, wird in einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens vor dem Umwandeln der ausgewählten Soll-Endstellung die Auswahl bestätigt.In order to avoid errors in the selection of the target end positions, in a preferred embodiment of the method according to the invention before the conversion of the selected target end position, the selection is confirmed.

Nachfolgend wird das erfindungsgemäße System beschrieben, wobei bezüglich der Vorteile auf die obige Beschreibung des erfindungsgemäßen Verfahrens verwiesen sei, die entsprechend gelten.The system according to the invention will be described below, reference being made to the above description of the method according to the invention with regard to the advantages which apply accordingly.

Das erfindungsgemäße System zur Erstellung eines Bewegungsablaufes für einen Roboter weist eine Festlegungseinrichtung zur Festlegung der Startstellung des Roboters, mindestens eine Bilderfassungseinrichtung zur Erfassung mindestens eines Bildes des realen Arbeitsbereiches, eine Funktionseinheit, auf der das durch die Bilderfassungseinrichtung erfasste Bild angezeigt werden kann, wobei eine Soll-Endstellung des Roboters in dem angezeigten Bild ausgewählt werden kann, eine Umwandlungseinrichtung zur direkten Umwandlung der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und eine Programmiereinrichtung zum Festlegen des Bewegungsablaufes zwischen der Startstellung und der Soll-Endstellung auf. Das erfindungsgemäße System benötigt keine aufwendige und teure Analyseeinheit zur Erzeugung eines virtuellen Arbeitsbereiches. So können die Soll-Endstellungen direkt in Soll-Endstellungen für den realen Arbeitsbereich umgewandelt werden, ohne vorher in Soll-Endstellungen für einen virtuellen Arbeitsbereich umgewandelt werden zu müssen.The inventive system for creating a sequence of movements for a robot has a setting device for determining the starting position of the robot, at least one image capturing device for capturing at least one image of the real working region, a functional unit on which the image captured by the image capturing device can be displayed, wherein a desired End of the robot can be selected in the displayed image, a conversion device for direct conversion of the selected target end position in a target end position for the real work area and a programmer for determining the movement sequence between the start position and the target end position. The system according to the invention does not require a complex and expensive analysis unit for generating a virtual work area. Thus, the target end positions can be converted directly into target end positions for the real work area, without first having to be converted into nominal end positions for a virtual work area.

In einer bevorzugten Ausführungsform des erfindungsgemäßen Systems ist die Bilderfassungseinrichtung an dem Roboter, vorzugsweise an dem Handgelenk des Roboters, angeordnet, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt werden kann. In einer bevorzugten Ausführungsform des erfindungsgemäßen Systems sind mindestens zwei Bilderfassungseinrichtungen zur Erfassung von zwei Bildern aus unterschiedlichen Perspektiven vorgesehen.In a preferred embodiment of the system according to the invention, the image capture device is arranged on the robot, preferably on the wrist of the robot, whereby the relative position of the image capture device to the tool acceptance point of the robot can be determined. In a preferred embodiment of the system according to the invention, at least two image capture devices are provided for capturing two images from different perspectives.

In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems können die Bilder nebeneinander auf der Funktionseinheit angezeigt werden.In a further preferred embodiment of the system according to the invention, the images can be displayed side by side on the functional unit.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems kann die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt werden.In an advantageous embodiment of the system according to the invention, the orientation of the image capture devices and the distance between the image capture devices can be determined.

In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems sind die Bilderfassungseinrichtungen an einem Basisteil befestigt, das lösbar an dem Roboter befestigt ist.In a further preferred embodiment of the system according to the invention, the image capture devices are attached to a base part that is releasably attached to the robot.

In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Systems weist das Basisteil einen Energiespeicher zur Versorgung der Bilderfassungseinrichtungen auf. Bei den Energiespeichern kann es sich beispielsweise um Batterien handeln. Die Ausführungsform gewährleistet somit eine kabellose Energiezufuhr.In a particularly preferred embodiment of the system according to the invention, the base part has an energy store for supplying the image capture devices. The energy stores may be, for example, batteries. The embodiment thus ensures a wireless power supply.

In einer werteren bevorzugten Ausführungsform des erfindungsgemäßen Systems weist das Basisteil ferner eine Übertragungseinrichtung zur kabellosen Übertragung der erfassten Bilder auf. Die Übertragungseinrichtung könnte beispielsweise auf der so genannten Bluetooth-Technik basieren.In a werteren preferred embodiment of the system according to the invention, the base part further comprises a transmission device for wireless transmission of the captured images. The transmission device could be based for example on the so-called Bluetooth technology.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems kann die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt werden.In an advantageous embodiment of the system according to the invention, the selected target end position can be displayed in the image on the functional unit.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Systems können Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.In a further advantageous embodiment of the system according to the invention, connecting lines between the selected and displayed nominal end positions can be displayed in the image on the functional unit.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems ist eine Speichereinrichtung zur abrufbaren Speicherung der Bilder vorgesehen.In an advantageous embodiment of the system according to the invention, a memory device for the retrievable storage of the images is provided.

In einer vorteilhaften Weiterbildung des erfindungsgemäßen Systems kann die Startstellung durch die Festlegungseinrichtung von einer Steuerungsvorrichtung des Roboters abgefragt und in eine Startstellung für den realen Arbeitsbereich umgewandelt werden.In an advantageous development of the system according to the invention, the starting position can be interrogated by the setting device of a control device of the robot and converted into a starting position for the real work area.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems können die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt werden. In an advantageous embodiment of the system according to the invention, the defined movement sequences can be transmitted as control commands in a control device of the robot.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Systems ist ein Bestätigungselement zur Bestätigung der ausgewählten Soll-Endstellung vor dem Umwandeln vorgesehen. Hierbei kann es sich beispielsweise um eine Bestätigungstaste handeln.In a further advantageous embodiment of the system according to the invention, a confirmation element for confirming the selected target end position is provided before the conversion. This may be, for example, a confirmation key.

Die Erfindung wird im Folgenden an Hand von beispielhaften Ausführungsformen unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert. Es zeigen:The invention will be explained in more detail below with reference to exemplary embodiments with reference to the accompanying drawings. Show it:

1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Systems, 1 a schematic representation of an embodiment of the system according to the invention,

2 eine perspektivische Darstellung der Anordnung der Bilderfassungseinrichtungen an dem Roboter von 1, 2 a perspective view of the arrangement of the image capture devices on the robot of 1 .

3 eine vergrößerte Darstellung der beiden Bilder des realen Arbeitsbereiches von 1 und 3 an enlarged view of the two images of the real workspace of 1 and

4 ein Ablaufdiagramm zur Erläuterung einer Ausführungsform des erfindungsgemäßen Verfahrens. 4 a flowchart for explaining an embodiment of the method according to the invention.

Nachstehend wird bezugnehmend auf die 1 und 2 zunächst der Aufbau des Systems zur Erstellung eines Bewegungsablaufes für einen Roboter erläutert.Hereinafter, referring to the 1 and 2 first explained the structure of the system for creating a movement sequence for a robot.

Das System 2 umfasst zunächst zwei Bilderfassungseinrichtungen 4, 6 zur Erfassung zweier Bilder 8, 10 des realen Arbeitsbereiches eines Roboters 12. Bei den Bilderfassungseinrichtungen 4, 6 handelt es sich vorzugsweise um einfache Digitalkameras. Die beiden Bilderfassungseinrichtungen 4, 6 sind über einen Abstand A voneinander beabstandet angeordnet und weisen unterschiedliche Orientierungen auf, wie dies an Hand der Erfassungsrichtungsachsen B und C der Bilderfassungseinrichtungen 4, 6 in 2 angedeutet ist. Auf diese Weise werden die beiden Bilder 8, 10 aus unterschiedlichen Perspektiven erfasst. Sowohl der Abstand A als auch die Orientierung der Erfassungsrichtungsachsen B, C kann ermittelt werden.The system 2 initially includes two image capture devices 4 . 6 to capture two images 8th . 10 the real workspace of a robot 12 , In the image capture devices 4 . 6 they are preferably simple digital cameras. The two image capture devices 4 . 6 are spaced apart from each other by a distance A and have different orientations, as with the detection direction axes B and C of the image detection devices 4 . 6 in 2 is indicated. In this way, the two pictures 8th . 10 captured from different perspectives. Both the distance A and the orientation of the sense direction axes B, C can be determined.

Die Bilderfassungseinrichtungen 4, 6 sind an einem lang gestreckten Basisteil 14 angeordnet, das lösbar an dem Handgelenk 16 des Roboters 12 befestigt ist. Somit ist die relative Position der Bilderfassungseinrichtungen 4, 6 zu dem Werkzeugaufnahmepunkt (tool center point) des Roboters 12 ermittelbar. Das Basisteil 14 nimmt ferner einen Energiespeicher 18 auf, der im vorliegenden Beispiel von einer oder mehreren Batterien gebildet ist, die die beiden Bilderfassungseinrichtungen 4, 6 mit Strom versorgen. Die beiden Bilderfassungseinrichtungen 4, 6 sind ferner mit einer auf dem Basisteil 14 angeordneten Übertragungseinrichtung 20 zur kabellosen Übertragung der erfassten Bilder 8, 10 verbunden, wobei in der vorliegenden Ausführungsform die so genannte Bluetooth-Technik verwendet wird. Die Bilderfassungseinrichtungen 4, 6 sind mit einer Robotersteuerung 22 verbunden, wie dies an Hand der Leitung 24 angedeutet ist, so dass die Parameter der Bilderfassungseinrichtungen 4, 6, insbesondere der Linsenfehler und die Brennweite, in der Robotersteuerung 22 registriert werden können.The image capture devices 4 . 6 are on an elongated base part 14 arranged, detachable on the wrist 16 of the robot 12 is attached. Thus, the relative position of the image capture devices 4 . 6 to the tool center point of the robot 12 determined. The base part 14 also takes an energy store 18 on, which is formed in the present example of one or more batteries, the two image capture devices 4 . 6 supply electricity. The two image capture devices 4 . 6 are also with one on the base part 14 arranged transmission device 20 for the wireless transmission of captured images 8th . 10 connected, wherein in the present embodiment, the so-called Bluetooth technology is used. The image capture devices 4 . 6 are with a robot controller 22 connected, as indicated by the line 24 is indicated, so the parameters of the image capture devices 4 . 6 , in particular the lens error and the focal length, in the robot controller 22 can be registered.

Die Robotersteuerung 22 ist mit einer externen Anordnung 26 verbindbar, wie dies an Hand der Leitung 28 angedeutet ist. Die externe Anordnung 26 weist eine Funktionseinheit 30 auf, die als so genannte Graphical Teach Pendant Unit (GTPU) ausgebildet ist. Die Funktionseinheit 30 weist einen Bildschirm 32 auf, auf dem die beiden Bilder 8, 10 nebeneinander angezeigt werden können, wie dies insbesondere noch einmal in 3 vergrößert dargestellt ist. An der Funktionseinheit 30 ist ferner ein Bestätigungselement 34 in Form einer Taste vorgesehen.The robot controller 22 is with an external arrangement 26 connectable, as is the case with the line 28 is indicated. The external arrangement 26 has a functional unit 30 , which is designed as a so-called Graphical Teach Pendant Unit (GTPU). The functional unit 30 has a screen 32 up, on which the two pictures 8th . 10 can be displayed side by side, as this particular again in 3 is shown enlarged. At the functional unit 30 is also an acknowledgment element 34 provided in the form of a button.

Die Anordnung 26 umfasst weiterhin eine Umwandlungseinrichtung 36, eine Programmiereinrichtung 38, eine Speichereinrichtung 40 und eine Festlegungseinrichtung 42, die mit der Funktionseinheit 30 zusammenwirken, wie dies an Hand der Doppelpfeile 44 bis 50 angedeutet ist, und deren Funktion später unter Bezugnahme auf das erfindungsgemäße Verfahren erläutert wird. Die Anordnung 26 weist außerdem eine Empfangseinrichtung 52 auf, die die von der Übertragungseinrichtung 20 übertragenen Bilder 8, 10 empfangen kann, wie dies an Hand des gestrichelten Pfeils 54 angedeutet ist.The order 26 further comprises a conversion device 36 , a programmer 38 , a storage device 40 and a fixing device 42 that with the functional unit 30 interact as indicated by the double arrows 44 to 50 is indicated, and whose function will be explained later with reference to the inventive method. The order 26 also has a receiving device 52 on, that of the transmission device 20 transferred images 8th . 10 can receive, as indicated by the dashed arrow 54 is indicated.

Nachfolgend wird das dem oben beschriebenen System zu Grunde liegende erfindungsgemäße Verfahren unter Bezugnahme auf 4 beschrieben.Hereinafter, the inventive method underlying the above-described system will be described with reference to FIG 4 described.

In einem ersten Verfahrensschritt S1 erfassen die Bilderfassungseinrichtungen 4, 6 jeweils ein Bild, so dass zwei Bilder 8, 10 des realen Arbeitsbereiches, der in 2 mit dem Bezugszeichen 56 versehen ist, vorhanden sind, die aus unterschiedlichen Perspektiven aufgenommen wurden. Im vorliegenden Beispiel ist eine Fuge 58 zwischen zwei Werkstücken in dem Arbeitsbereich 56 angeordnet, die verschweißt werden soll und einen kurvenförmigen Verlauf aufweist. Die Genauigkeit der Bilder 8, 10 wird an Hand der in der Robotersteuerung 22 registrierten Brennweiten und Linsenfehler mit Hilfe einer mathematischen Methode erhöht, um die den Bildern 8, 10 zu Grunde liegenden Daten anschließend über die Übertragungseinrichtung 20 an die Empfangseinrichtung 52 der Anordnung 26 zu senden.In a first method step S1, the image capture devices detect 4 . 6 one picture at a time, leaving two pictures 8th . 10 of the real workspace that is in 2 with the reference number 56 are present, that have been taken from different perspectives. In this example, there is a gap 58 between two workpieces in the work area 56 arranged, which is to be welded and has a curved course. The accuracy of the pictures 8th . 10 becomes on hand in the robot control 22 Registered focal lengths and lens aberrations using a mathematical method increases the images 8th . 10 underlying data then via the transmission device 20 to the receiving device 52 the arrangement 26 to send.

Innerhalb der Anordnung 26 werden die Bilder 8, 10 in einem anschließenden Verfahrensschritt S2 einerseits in der Speichereinrichtung 40 abrufbar gespeichert und andererseits auf dem Bildschirm 32 der Funktionseinheit 30 angezeigt. Wie bereits unter Bezugnahme auf das System erläutert, werden die beiden Bilder 8, 10 nebeneinander auf dem Bildschirm 32 der Funktionseinheit 26 angezeigt. Die Bilder 8, 10 werden also keinerlei Analyseeinheit zugeführt, um zuvor mit Hilfe einer Merkmalserkennung o. ä. einen virtuellen Arbeitsbereich zu erzeugen.Inside the arrangement 26 become the pictures 8th . 10 in a subsequent method step S2 on the one hand in the memory device 40 stored on the other hand on the screen 32 the functional unit 30 displayed. As already explained with reference to the system, the two pictures 8th . 10 side by side on the screen 32 the functional unit 26 displayed. The pictures 8th . 10 Thus, no analysis unit is supplied in order to generate a virtual workspace beforehand by means of feature recognition or the like.

Im Verfahrensschritt S3 wird mit Hilfe der Festlegungseinrichtung 42 eine Startstellung des Roboters 12 festgelegt, indem die derzeitige Stellung oder eine vorgegebene Ausgangsstellung des Roboters 12 über die Festlegungseinrichtung 42 und die Leitung 28 von der Robotersteuerung 22 abgefragt wird. Die abgefragte Startstellung wird direkt in eine Startstellung für den realen Arbeitsbereich umgewandelt, d. h. es unterbleibt eine Umwandlung der abgefragten Stellung des Roboters in eine Stellung innerhalb eines virtuellen Arbeitsbereiches.In method step S3, the setting device is used 42 a starting position of the robot 12 set by the current position or a given home position of the robot 12 about the fixing device 42 and the line 28 from the robot controller 22 is queried. The queried starting position is converted directly into a starting position for the real work area, ie there is no conversion of the queried position of the robot to a position within a virtual work area.

In einem darauf folgenden Verfahrensschritt S4 wählt die Bedienungsperson eine Soll-Endstellung mit Hilfe der Funktionseinheit 30 bzw. der GTPU aus. Dies erfolgt, indem die Bedienungsperson mit einem dafür vorgesehenen Stift 60 des GTPU einen entsprechenden Punkt auf dem auf der Funktionseinheit 30 angezeigten Bild 8 und 10 berührt, wie dies in 3 angedeutet ist. Im vorliegenden Beispiel berührt die Bedienungsperson jeweils einen Punkt im Bereich der dargestellten Fuge 58 auf beiden Bildern 8 und 10. Ferner kann die Bedienungsperson ebenfalls die Orientierung des Werkzeuges in der gewählten Soll-Endstellung mit Hilfe der Funktionseinheit 30 festlegen (nicht dargestellt). Die in dem Bild 8, 10 gewählte Soll-Endstellung wird mit Hilfe eines Kreuzes o. ä. auf dem Bildschirm 32 der Funktionseinheit 30 angezeigt, so dass die Bedienungsperson eine visuelle Rückmeldung hat. Ist die Bedienungsperson mit der Wahl einverstanden, so muss sie dies durch Drücken des Bestätigungselementes 34 bestätigen, bevor mit dem nächsten Verfahrensschritt S5 fortgefahren wird.In a subsequent method step S4, the operator selects a desired end position with the aid of the functional unit 30 or the GTPU. This is done by the operator with a dedicated pin 60 of the GTPU a corresponding point on the on the functional unit 30 displayed image 8th and 10 touches, like this in 3 is indicated. In the present example, the operator touches one point in the region of the joint shown 58 in both pictures 8th and 10 , Furthermore, the operator can also the orientation of the tool in the selected target end position using the functional unit 30 set (not shown). The one in the picture 8th . 10 The selected target end position is displayed on the screen with the help of a cross or similar 32 the functional unit 30 displayed so that the operator has a visual feedback. If the operator agrees with the choice, he must do so by pressing the confirmation element 34 confirm before proceeding to the next step S5.

Im Schritt S5 wird die ausgewählte Soll-Endstellung durch die Umwandlungseinrichtung 36 direkt in eine Soll-Endstellung für den realen Arbeitsbereich umgewandelt, wobei die Speicherung der somit umgewandelten Soll-Endstellung in der Umwandlungseinrichtung 36 erfolgen kann. Erfindungsgemäß wird die ausgewählte Soll-Endstellung somit nicht in eine Soll-Endstellung in einem virtuellen Arbeitsbereich umgewandelt, was das Verfahren wesentlich vereinfacht.In step S5, the selected target end position is changed by the conversion means 36 converted directly into a desired end position for the real work area, wherein the storage of the thus converted target end position in the conversion device 36 can be done. According to the invention, the selected target end position is thus not converted into a desired end position in a virtual work area, which considerably simplifies the method.

Im Verfahrensschritt S6 legt die Bedienungsperson unter Verwendung der Programmiereinrichtung 38 den Bewegungsablauf für den Roboter 12 zwischen der Startstellung und der Soll-Endstellung für den realen Arbeitsbereich fest. In den Bildern 8, 10 auf dem Bildschirm 32 der Funktionseinheit 30 werden die entsprechenden Verbindungslinien zwischen der Startstellung und der Soll-Endstellung angezeigt.In step S6, the operator sets using the programmer 38 the movement sequence for the robot 12 between the starting position and the target end position for the real work area. In the pictures 8th . 10 on the screen 32 the functional unit 30 the corresponding connecting lines between the start position and the target end position are displayed.

Anschließend wird im Verfahrensschritt S7 eine Abfrage durchgeführt, nämlich ob ein vorgegebenes Abbruchkriterium erfüllt ist. Dieses Abbruchkriterium ist erfüllt, wenn die Bedienungsperson durch entsprechende Eingabe bestätigt, dass die Programmierung beendet ist. Bestätigt die Bedienungsperson hingegen, dass mit der Auswahl weiterer Soll-Endstellungen fortgefahren werden soll, so wird das Verfahren mit dem Verfahrensschritt S3 wieder aufgenommen, wobei als Startstellung für den folgenden Zyklus die Soll-Endstellung des vorangehenden Zyklus verwendet wird. Bestätigt die Bedienungsperson das Ende der Programmierung, so wird mit Schritt S8 fortgefahren.Subsequently, a query is performed in method step S7, namely whether a predetermined termination criterion is met. This abort criterion is met if the operator confirms by appropriate input that the programming has ended. If, on the other hand, the operator confirms that the selection of further setpoint end positions is to be continued, the method is resumed with method step S3, the setpoint end position of the preceding cycle being used as starting position for the following cycle. If the operator confirms the end of the programming, proceed to step S8.

In 4 ist ferner ein weiteres Merkmal des Verfahrens an Hand des gestrichelten Pfeils angedeutet. So kann in Schritt S7 ferner abgefragt werden, ob die gewünschte nächste Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen 4, 6 und somit außerhalb eines der Bilder 8, 10 liegt. Bestätigt die Bedienungsperson dies, so wird der Roboter 12, an dem die Bilderfassungseinrichtungen 4, 6 befestigt sind, zunächst neu positioniert, bevor das Verfahren wieder bei Schritt S1 aufgenommen wird. Auf diese Weise können auch besonders große Arbeitsbereich, wenn auch nur etappenweise, erfasst werden.In 4 Furthermore, another feature of the method is indicated by the dashed arrow. Thus, in step S7, it is also possible to query whether the desired next target end position is outside the field of view of one of the image acquisition devices 4 . 6 and thus outside one of the pictures 8th . 10 lies. If the operator confirms this, the robot becomes 12 at which the image capture devices 4 . 6 are fixed, initially repositioned before the process is resumed at step S1. In this way, even very large work area, albeit only in stages, can be detected.

Im Verfahrensschritt S8 werden die festgelegten Bewegungsabläufe als Steuerungsbefehle über die Leitung 28 an die Robotersteuerung 22 übermittelt, die daraufhin den Roboter 12 in der festgelegten Weise betreiben kann. Das Basisteil 14 kann wieder von dem Handgelenk 16 des Roboters 12 entfernt werden, so dass es den Prozess nicht behindert.In method step S8, the defined motion sequences are transmitted as control commands via the line 28 to the robot controller 22 which then sends the robot 12 operate in the specified manner. The base part 14 can be back from the wrist 16 of the robot 12 be removed so that it does not hinder the process.

Claims (16)

Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit mit den Verfahrensschritten: a) Erfassen mindestens eines Bildes des realen Arbeitsbereiches des Roboters durch mindestens eine Bilderfassungseinrichtung, b) Anzeigen des mindestens einen Bildes auf der Funktionseinheit, c) Festlegen einer Startstellung des Roboters, d) Auswählen einer Soll-Endstellung mit Hilfe der Funktionseinheit, und des mindestens einen Bildes und e) direktes Umwandeln der ausgewähltes Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich, dadurch gekennzeichnet, dass • die Bilderfassungseinrichtung an dem Roboter, vorzugsweise dem Handgelenk des Roboters, angeordnet wird und die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt wird. • mindestens zwei Bilder des realen Arbeitsbereiches aus unterschiedlichen Perspektiven erfasst werden, • zwei Bilderfassungseinrichtungen zum Erfassen der mindestens zwei Bilder verwendet werden, • die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt werden, • ausgewählte Soll-Eindstellung in dem Bild auf der Funktionseinheit angezeigt wird. • Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden, • des Festlegen der Startstellung durch Abfragen einer Steuerungsvorrichtung des Roboters erfolgt und die abgefragte Startstellung in eine Startstellung für den realen Arbeitsbereich umgewandelt wird und • die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt werden.Method for creating a sequence of movements for a robot using a functional unit with the method steps: a) capturing at least one image of the real working area of the robot by at least one image capture device, b) displaying the at least one image on the functional unit, c) setting a starting position of the robot , d) selecting a desired end position using the functional unit, and the at least one image and e) direct conversion of the selected target end position to a target end position for the real work area, characterized in that • the image capture device on the robot, preferably the wrist of the robot, is arranged and determines the relative position of the image capture device to the tool receiving point of the robot becomes. • at least two images of the real work area are acquired from different perspectives, • two image capture devices are used to capture the at least two images, • the orientation of the image capture devices and the distance between the image capture devices are determined, • selected target capture in the image on the functional unit is shown. • connection lines between the selected and displayed target end positions are displayed in the image on the functional unit, • the starting position is determined by querying a control device of the robot and the requested starting position is converted into a starting position for the real working area and • the defined sequences of motion as Control commands are transmitted to a control device of the robot. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Erzeugung eines virtuellen Arbeitsbereichs aus dem Bild des realen Arbeitsbereiches vermieden wird.A method according to claim 1, characterized in that the generation of a virtual workspace is avoided from the image of the real workspace. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass vor dem Anzeigen des Bildes auf der Funktionseinheit der Linsenfehler und die Brennweite der Bilderfassungseinrichtung ermittelt und die Genauigkeit des Bildes mit Hilfe mathematischer Methoden unter Zugrundelegung des ermittelten Linsenfehlers sowie der Brennweite erhöht wird.Method according to one of claims 1 or 2, characterized in that before displaying the image on the functional unit of the lens error and the focal length of the image detection device determined and the accuracy of the image using mathematical methods on the basis of the detected lens error and the focal length is increased. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Bilder nebeneinander auf der Funktionseinheit angezeigt oder auf deren Basis ein dreidimensionales Bild ermittelt wird.Method according to one of the preceding claims, characterized in that the images displayed side by side on the functional unit or on the basis of a three-dimensional image is determined. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder abrufbar gespeichert werden.Method according to one of the preceding claims, characterized in that the images are stored retrievably. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Bewegungsablauf für den Roboter in Abhängigkeit von der Startstellung und der oder den Soll-Endstellungen für den realen Arbeitsbereich festgelegt wird.Method according to one of the preceding claims, characterized in that a movement sequence for the robot is determined as a function of the starting position and the one or more desired end positions for the real working area. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Orientierung eines Werkzeuges für jede Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt wird.Method according to one of the preceding claims, characterized in that the orientation of a tool for each target end position is selected by means of the functional unit. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Auswählen der Soll-Endstellung auf dem angezeigten Bild auf der Funktionseinheit vorgenommen wird.Method according to one of the preceding claims, characterized in that the selection of the desired end position is made on the displayed image on the functional unit. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass vor dem Umwandeln der ausgewählten Soll-Endstellung die Auswahl bestätigt wird.Method according to one of the preceding claims, characterized in that the selection is confirmed before the conversion of the selected target end position. System zur Erstellung eines Bewegungsablaufes für einen Roboter aufweisend • eine Festlegungseinrichtung (42) zur Festlegung der Startstellung des Roboters (12), • mindestens eine Bilderfassungseinrichtung (8, 10) zur Erfassung mindestens eines Bildes (8, 10) des realen Arbeitsbereiches, • eine Funktionseinheit (30), auf der das durch die Bilderfassungseinrichtung (4, 6) erfasste Bild (8, 10) anzeigbar ist, wobei eine Soll-Endstellung des Roboters (12) in dem angezeigten Bild (8, 10) auswählbar ist, • eine Umwandlungseinrichtung (36) zur direkten Umwandlung der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und • eine Programmiereinrichtung (38) zum Festlegen des Bewegungsablaufes zwischen der Startstellung und der Soll-Endstellung. dadurch gekennzeichnet, dass • die Bilderfassungseinrichtung (4, 6) an dem Roboter (12), vorzugsweise an dem Handgelenk (16) des Roboters (12), angeordnet ist, wobei die relative Position der Bilderfassungseinrichtung (4, 6) zu dem Werkzeugaufnahmepunkt des Roboters (12) ermittelbar ist, • mindestens zwei Bilderfassungseinrichtungen (4, 6) zur Erfassung von zwei Bildern (8, 10) aus unterschiedlichen Perspektiven vorgesehen sind, • die Orientierung der Bilderfassungseinrichtungen (4, 6) sowie der Abstand (A) zwischen den Bilderfassungseinrichtungen (4, 6) ermittelbar ist, • die ausgewählte Soll-Endstellung in dem Bild (8, 10) auf der Funktionseinheit (30) anzeigbar ist, • Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild (8, 10) auf der Funktionseinheit (30) anzeigbar sind, • die Startstellung durch die Festlegungseinrichtung (42) von einer Steuerungsvorrichtung (22) des Roboters (12) abfragbar und in eine Startstellung für den realen Arbeitsbereich umwandelbar ist und • die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung (22) des Roboters (12) übermittelbar sind.System for creating a movement sequence for a robot comprising • a setting device ( 42 ) for determining the starting position of the robot ( 12 ), At least one image capture device ( 8th . 10 ) for capturing at least one image ( 8th . 10 ) of the real workspace, • a functional unit ( 30 ) on which the image capture device ( 4 . 6 ) captured image ( 8th . 10 ) is displayed, wherein a target end position of the robot ( 12 ) in the displayed image ( 8th . 10 ), • a conversion device ( 36 ) for the direct conversion of the selected target end position into a target end position for the real working range and a programming device ( 38 ) for determining the movement sequence between the starting position and the desired end position. characterized in that • the image capture device ( 4 . 6 ) on the robot ( 12 ), preferably on the wrist ( 16 ) of the robot ( 12 ), wherein the relative position of the image capture device ( 4 . 6 ) to the tool receiving point of the robot ( 12 ), • at least two image capture devices ( 4 . 6 ) for capturing two images ( 8th . 10 ) are provided from different perspectives, • the orientation of the image acquisition devices ( 4 . 6 ) and the distance (A) between the image capture devices ( 4 . 6 ) can be determined, • the selected target end position in the image ( 8th . 10 ) on the functional unit ( 30 ), • connecting lines between the selected and displayed nominal end positions in the image ( 8th . 10 ) on the functional unit ( 30 ) can be displayed, • the starting position by the fixing device ( 42 ) of a control device ( 22 ) of the robot ( 12 ) can be queried and converted into a start position for the real work area and • the specified motion sequences as control commands in a control device ( 22 ) of the robot ( 12 ) are transferable. System nach Anspruch 10, dadurch gekennzeichnet, dass die Bilder (8, 10) nebeneinander auf der Funktionseinheit (30) anzeigbar sind. System according to claim 10, characterized in that the images ( 8th . 10 ) next to each other on the functional unit ( 30 ) are displayed. System nach einem der Ansprüche 10 oder 11, dadurch gekennzeichnet, dass die Bilderfassungseinrichtungen (4, 6) an einem Basisteil (14) befestigt sind, das lösbar an dem Roboter (12) befestigt ist.System according to one of claims 10 or 11, characterized in that the image acquisition devices ( 4 . 6 ) on a base part ( 14 ) releasably attached to the robot ( 12 ) is attached. System nach Anspruch 12, dadurch gekennzeichnet, dass des Basisteil (14) einen Energiespeicher (18) zur Versorgung der Bilderfassungseinrichtungen (4, 6) aufweist.System according to claim 12, characterized in that the base part ( 14 ) an energy store ( 18 ) for the supply of image capture devices ( 4 . 6 ) having. System nach einem der Ansprüche 12 oder 13, dadurch gekennzeichnet, dass das Basisteil (14) ferner eine Übertragungseinrichtung (20) zur kabellosen Übertragung der erfassten Bilder (8, 10) aufweist.System according to one of claims 12 or 13, characterized in that the base part ( 14 ) a transmission device ( 20 ) for the wireless transmission of captured images ( 8th . 10 ) having. System nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, dass eine Speichereinrichtung (40) zur abrufbaren Speicherung der Bilder (8, 10) vorgesehen ist.System according to one of claims 10 to 14, characterized in that a memory device ( 40 ) for retrievable storage of the images ( 8th . 10 ) is provided. System nach einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, dass ein Bestätigungselement (34) zur Bestätigung der ausgewählten Soll-Endstellung vor dem Umwandeln vorgesehen istSystem according to one of claims 10 to 15, characterized in that a confirmation element ( 34 ) is provided for confirmation of the selected target end position before the conversion
DE102005040714.5A 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot Expired - Fee Related DE102005040714B4 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102005040714.5A DE102005040714B4 (en) 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot
PCT/EP2006/008194 WO2007025658A1 (en) 2005-08-27 2006-08-21 Methods and system for establishing a sequence of movements for a robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005040714.5A DE102005040714B4 (en) 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot

Publications (2)

Publication Number Publication Date
DE102005040714A1 DE102005040714A1 (en) 2007-03-08
DE102005040714B4 true DE102005040714B4 (en) 2015-06-18

Family

ID=37027723

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005040714.5A Expired - Fee Related DE102005040714B4 (en) 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot

Country Status (2)

Country Link
DE (1) DE102005040714B4 (en)
WO (1) WO2007025658A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008030774B4 (en) 2008-06-28 2013-03-07 Sikora Gmbh Method and device for the safety-oriented control of a material processing device
DE202011000456U1 (en) 2011-02-28 2012-05-31 Kuka Systems Gmbh joining device
DE102012106448B4 (en) 2012-07-17 2016-03-31 Reis Group Holding Gmbh & Co. Kg Method for operating an industrial robot and safe monitoring device for carrying out the method
US9555545B2 (en) 2014-05-21 2017-01-31 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61100809A (en) * 1984-10-22 1986-05-19 Toshiba Corp Three-dimensional teaching device of robot
JP2001060108A (en) * 1999-06-18 2001-03-06 Agency Of Ind Science & Technol Device and method for teaching robot action
US6304050B1 (en) * 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation
EP1215017A2 (en) * 2000-12-07 2002-06-19 Fanuc Ltd Robot teaching apparatus
DE10118514A1 (en) * 2001-04-16 2002-10-24 Vmt Bildverarbeitungssysteme G Method for stabilizing the working point for contactless 3D position detection of an object using digital cameras
US20030120391A1 (en) * 2001-12-25 2003-06-26 National Inst. Of Advanced Ind. Science And Tech. Robot operation teaching method and apparatus
DE10249786A1 (en) * 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referencing method for relating robot to workpiece, in medical applications, by relating reference point using x and y position data obtained from at least two images picked up using camera mounted on robot arm
EP1512499A2 (en) * 2003-09-02 2005-03-09 Fanuc Ltd Robot having a camera mounted at the distal end of its arm and method for operating such a robot
JP2005078406A (en) * 2003-09-01 2005-03-24 Nst:Kk Position teaching method using camera and display method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5339103A (en) * 1992-08-18 1994-08-16 Schmidt Robert H Part machining programming using a camera interchangeable with maching nozzle
DE19855885A1 (en) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Image processing method for digital photographic copier providing photographic prints
JP2000031693A (en) * 1998-07-10 2000-01-28 Sanyo Electric Co Ltd Electronic component sucking part teaching apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61100809A (en) * 1984-10-22 1986-05-19 Toshiba Corp Three-dimensional teaching device of robot
JP2001060108A (en) * 1999-06-18 2001-03-06 Agency Of Ind Science & Technol Device and method for teaching robot action
US6304050B1 (en) * 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation
EP1215017A2 (en) * 2000-12-07 2002-06-19 Fanuc Ltd Robot teaching apparatus
DE10118514A1 (en) * 2001-04-16 2002-10-24 Vmt Bildverarbeitungssysteme G Method for stabilizing the working point for contactless 3D position detection of an object using digital cameras
US20030120391A1 (en) * 2001-12-25 2003-06-26 National Inst. Of Advanced Ind. Science And Tech. Robot operation teaching method and apparatus
DE10249786A1 (en) * 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referencing method for relating robot to workpiece, in medical applications, by relating reference point using x and y position data obtained from at least two images picked up using camera mounted on robot arm
JP2005078406A (en) * 2003-09-01 2005-03-24 Nst:Kk Position teaching method using camera and display method
EP1512499A2 (en) * 2003-09-02 2005-03-09 Fanuc Ltd Robot having a camera mounted at the distal end of its arm and method for operating such a robot

Also Published As

Publication number Publication date
DE102005040714A1 (en) 2007-03-08
WO2007025658A1 (en) 2007-03-08

Similar Documents

Publication Publication Date Title
DE102007033486B4 (en) Method and system for mixing a virtual data model with an image generated by a camera or a presentation device
DE69637413T2 (en) COMPOSITE DETECTION SYSTEM FOR ROBOTS
DE102018213985B4 (en) robotic system
EP1521211B1 (en) Method and apparatus for determining the position and orientation of an image receiving device
DE102015000587B4 (en) A robot programming device for creating a robot program for taking an image of a workpiece
DE102005060967B4 (en) Method and device for setting up a trajectory of a robot device
DE102013021917B4 (en) Robot system display device
DE102018009023B4 (en) Teaching device for carrying out robot teaching processes and teaching methods
DE102012220882B4 (en) System and method using a machining initialization block in a part program machining environment in a machine vision system
EP1604789A2 (en) Method and device for improving the positioning accuracy of a manipulator
DE102009012590A1 (en) Device for determining the position of a robot arm with camera for taking pictures
DE112010000794T5 (en) Method for controlling a robot tool
EP3098034B1 (en) Selecting an apparatus or an object using a camera
DE102012216908B4 (en) Method using image correlation to determine position measurements in a machine vision system
DE10305384A1 (en) Method and device for visualizing computer-aided information
DE102018107857A1 (en) Apparatus, system and method for automatically generating a motion path of a robot
DE102019212452A1 (en) Interference avoidance device and robot system
DE10351669B4 (en) Method and device for controlling a handling device relative to an object
DE102021103726A1 (en) Measurement parameter optimization method and device as well as computer control program
DE102005040714B4 (en) Method and system for creating a movement sequence for a robot
EP1330686A2 (en) Method for generating a measuring program for a co-ordinate measuring device
DE19805155B4 (en) Method for generating control data for coordinate measuring machines
DE102022202563B3 (en) Planning a trajectory of a robot
DE102007043632B4 (en) Industrial robot with a distance measuring device and method for measuring an object
WO2007090557A2 (en) Method for generating an environmental image

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee