DE102005040714A1 - Method and system for creating a movement sequence for a robot - Google Patents

Method and system for creating a movement sequence for a robot Download PDF

Info

Publication number
DE102005040714A1
DE102005040714A1 DE102005040714A DE102005040714A DE102005040714A1 DE 102005040714 A1 DE102005040714 A1 DE 102005040714A1 DE 102005040714 A DE102005040714 A DE 102005040714A DE 102005040714 A DE102005040714 A DE 102005040714A DE 102005040714 A1 DE102005040714 A1 DE 102005040714A1
Authority
DE
Germany
Prior art keywords
robot
image
end position
functional unit
target end
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005040714A
Other languages
German (de)
Other versions
DE102005040714B4 (en
Inventor
Sönke Dr.-Ing. Kock
Fan Dr.-Ing. Habil. Dai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Research Ltd Switzerland
ABB Research Ltd Sweden
Original Assignee
ABB Research Ltd Switzerland
ABB Research Ltd Sweden
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Research Ltd Switzerland, ABB Research Ltd Sweden filed Critical ABB Research Ltd Switzerland
Priority to DE102005040714.5A priority Critical patent/DE102005040714B4/en
Priority to PCT/EP2006/008194 priority patent/WO2007025658A1/en
Publication of DE102005040714A1 publication Critical patent/DE102005040714A1/en
Application granted granted Critical
Publication of DE102005040714B4 publication Critical patent/DE102005040714B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • G05B19/40931Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine concerning programming of geometry
    • G05B19/40932Shape input
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/41Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by interpolation, e.g. the computation of intermediate points between programmed end points to define the path to be followed and the rate of travel along that path
    • G05B19/4103Digital interpolation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40114From vision detected initial and user given final state, generate tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40519Motion, trajectory planning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Die vorliegende Erfindung betrifft Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit mit den Verfahrensschritten (S1) Erfassen mindestens eines Bildes des realen Arbeitsbereiches des Roboters durch mindestens eine Bilderfassungseinrichtung, (S2) Anzeigen des Bildes auf der Funktionseinheit, (S3) Festlegen einer Startstellung des Roboters, (S4) Auswählen einer Soll-Endstellung mit Hilfe der Funktionseinheit, (S5) direktes Umwandeln der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und (S6) Festlegen des Bewegungsablaufes für den Roboter in Abhängigkeit von der Startstellung und der Soll-Endstellung für den realen Arbeitsbereich. Die vorliegende Erfindung betrifft ferner ein System zur Erstellung eines Bewegungsablaufes für einen Roboter.The present invention relates to methods for creating a motion sequence for a robot using a functional unit with the method steps (S1) capturing at least one image of the real working area of the robot by at least one image capturing device, (S2) displaying the image on the functional unit, (S3) setting a starting position of the robot, (S4) selecting a target end position with the aid of the functional unit, (S5) directly converting the selected target end position into a target end position for the real work area and (S6) determining the movement sequence for the robot as a function of the start position and the target end position for the real work area. The present invention further relates to a system for creating a motion sequence for a robot.

Description

Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Erstellung eines Bewegungsablaufes für einen Roboter.The The present invention relates to a method and a system for Creation of a movement sequence for a robot.

Industrieroboter sind Handhabungsgeräte, die maschinell gesteuert werden und deren Arbeitsablauf programmierbar ist. Die Programmierung eines Industrieroboters erweist sich im Vergleich zu der Programmierung einer NC-Maschine als schwieriger, da wesentlich mehr Daten zur Verfügung gestellt werden müssen. So ist es beispielsweise nötig, den Arbeitsbereich des Roboters sowie die Position des Werkstückes in diesem Arbeitsbereich datenmäßig zu erfassen und in die Programmierung einzuarbeiten. Zur Erfassung dieser Daten und deren Einbindung in das Anwenderprogramm wurden unterschiedliche Verfahren entwickelt, die nachstehend kurz erläutert werden.industrial robots are handling devices that be controlled by machine and their workflow programmable is. The programming of an industrial robot proves itself in the Compared to programming an NC machine as more difficult because much more data available have to be asked. For example, it is necessary the working area of the robot as well as the position of the workpiece in to record this work area by data and to get into the programming. To capture this data and their integration into the user program became different Developed method, which will be briefly explained below.

Bei dem so genannten Play-Back-Verfahren wird die Programmierung des Bewegungsablaufes durch manuelles Führen des Roboters entlang der gewünschten Bahn durchgeführt. Dabei werden die Stellungen des Roboters in einem definierten Zeit- oder Wegraster in das Anwenderprogramm übernommen. Anschließend kann der Roboter den manuell vorgegebenen Bewegungsablauf unter Ausführung des Anwenderprogramms maschinell angetrieben nachvollziehen. Das bekannte Verfahren hat den Nachteil, dass sich die Bedienungsperson in dem durch das Werkstück eingeschränkten Arbeitsbereich des Roboters bewegen muss, wodurch die Programmierung schwierig, zeitintensiv und ungenau wird.at The so-called play-back method is the programming of the Motion sequence by manually guiding the robot along the desired Track performed. The positions of the robot in a defined time or Wegraster transferred to the user program. Then you can the robot executes the manually specified motion sequence while executing the user program mechanically reproduced. The known method has the disadvantage that the operator in the work area restricted by the workpiece of the robot, making programming difficult, time-consuming and inaccurate.

Eine Verbesserung gegenüber dem vorstehend genannten Verfahren wird durch die Teach-In-Programmierung erzielt. Bei dieser wird die Bewegungsinformation durch Anfahren der gewünschten Raumpunkte mit Hilfe eines Programmierhandgerätes oder Bedienfelds und der Übernahme dieser Punkte durch Betätigen einer Funktionstaste erstellt. Darüber hinaus können über das Programmierhandgerät weitere Bewegungsanweisungen, wie beispielsweise Geschwindigkeits- und Beschleunigungsvorgaben oder die Steuerungsart (Punkt-zu-Punkt- oder Bahnsteuerung), eingegeben werden.A Improvement over The above method is by the teach-in programming achieved. In this case, the movement information is by starting the desired Space points using a handheld programmer or control panel and the acquisition of these points by pressing a function key. In addition, about the Teach pendant further movement instructions, such as speed and acceleration specifications or the type of control (point-to-point or web control).

Die vorstehend genannten Verfahren sind so genannte direkte Verfahren, das heißt, die Programmierung erfolgt unter Verwendung des Robotersystems, so dass der Roboter während der Programmierung und der nachfolgenden Testphase nicht zur Verfügung steht. Hiervon sind die so genannten indirekten Verfahren zu unterscheiden. Diese zeichnen sich dadurch aus, dass die Programmierung auf steuerungsunabhängigen Rechnern getrennt von dem Robotersystem erfolgt. Diese erfordern ein Rechnermodell des Roboters und des Arbeitsbereiches. Die Programmierung und das Testen der Programmierung sind somit in die Fertigungsplanung verlagert, so dass die Roboter ungehindert arbeiten können.The The above methods are so-called direct methods, this means, the programming is done using the robot system, so that the robot while programming and the subsequent test phase is not available. Of these, the so-called indirect methods have to be distinguished. These are characterized by the fact that the programming on control-independent computers disconnected from the robot system. These require a computer model of the robot and the workspace. The programming and the Testing of the programming are thus shifted into the production planning, so that the robots can work unhindered.

Bei den indirekten Programmierverfahren können im Wesentlichen die textuellen Programmierverfahren, bei denen die erforderlichen Geometrie- und Bewegungsdaten über eine Tastatur eingegeben werden, und die CAD-unterstützten Programmierverfahren unterschieden werden. Letztere basieren auf der Nutzung geometrischer Modelle der am Fertigungsprozess beteiligten Komponenten. Die Modellierung erfolgt hierbei unter Verwendung von CAD-Systemen, wobei auf einem Bildschirm Funktionen zur Verfügung gestellt werden, die eine Festlegung von anzufahrenden Positionen sowie Verfahrwegen ermöglichen. Es ist anschließend möglich den Be wegungsablauf des Roboters grafisch zu simulieren. CAD-unterstützte Programmierverfahren zeichnen sich insbesondere durch ihre Anschaulichkeit aus.at The indirect programming methods can essentially be the textual ones Programming methods in which the required geometry and Movement data about a keyboard, and the CAD-supported programming procedures be differentiated. The latter are based on the use of geometric Models of the components involved in the manufacturing process. The modeling takes place here using CAD systems, where on one Screen functions available be a determination of to be approached positions as well as travel paths allow. It is afterwards possible to graphically simulate the movement process of the robot. CAD-supported programming procedures are characterized in particular by their vividness.

Zur Erfassung der Daten des Arbeitsbereiches und des darin angeordneten Werkstückes werden heutzutage vermehrt Bilderfassungsgeräte, wie beispielsweise Kameras, eingesetzt, deren Bilder als Grundlage zur Erzeugung eines virtuellen Arbeitsbereiches verwendet werden. An Hand des virtuellen Arbeitsbereiches kann dann die Programmierung vorgenommen werden. Die bekannten Systeme und Verfahren zur Erfassung des Arbeitsbereiches mit Hilfe von Bilderfassungsgeräten sind jedoch aufwendig und kostspielig.to Collection of the data of the work area and the arranged therein workpiece Nowadays, image acquisition devices such as cameras used their images as a basis for creating a virtual Work area can be used. On the hand of the virtual workspace then the programming can be done. The known systems and methods for detecting the work area using image capture devices but consuming and expensive.

Der vorliegenden Erfindung liegt daher die Aufgabe zu Grunde, ein Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter anzugeben, das möglichst einfach, schnell und kostengünstig durchführbar ist. Die Aufgabe der vorliegenden Erfindung besteht darüber hinaus darin, ein System zur Erstellung eines Bewegungsablaufes für einen Roboter zu schaffen, das einen einfachen und kostengünstigen Aufbau hat und dessen Handhabung vereinfacht ist.Of the The present invention is therefore based on the object, a method for specifying a motion sequence for a robot, the possible easy, fast and inexpensive feasible is. The object of the present invention is moreover therein, a system for creating a movement sequence for a To create robots that are simple and inexpensive Structure has and its handling is simplified.

Diese Aufgabe wird durch die in den Patentansprüchen 1 bzw. 20 angegebene Merkmale gelöst. Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.These The object is achieved by the features specified in the patent claims 1 and 20, respectively solved. Advantageous embodiments The invention are the subject of the dependent claims.

Das Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit weist die folgenden Verfahrensschritte auf.

  • (a) Zunächst wird mindestens ein Bild des realen Arbeitsbereiches des Roboters mit Hilfe einer Bilderfassungseinrichtung erfasst. Hierbei kann beispielsweise eine Digitalkamera zum Einsatz kommen.
  • (b) Anschließend wird das mindestens eine Bild auf der Funktionseinheit angezeigt. Es ist also nicht erforderlich, das Bild des realen Arbeitsbereiches zu analysieren, um einen virtuellen Arbeitsbereich zu erzeugen.
  • (c) Es wird ferner eine Startstellung des Roboters festgelegt.
  • (d) Im Anschluss daran wird eine Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt. Unter der Startstellung bzw. der Soll-Endstellung sind dabei alle geometrischen Angaben des Roboters zu verstehen, die für die Erstellung von Roboterbewegungsabläufen notwendig sind. So kann es beispielsweise in einem einfachen Fall, in dem der Roboter lediglich eine Aufgabe im zweidimensionalen Bereich auszuführen hat, ausreichen, als Startstellung den Endpunkt des Roboterarmes sowie die Richtung des am Roboterarm befestigten Werkzeugs zu bestimmten, also letztlich zwei Punkte am Roboter bzw. an dem Werkzeug zu bestimmen. In anderen Fällen, insbesondere bei dreidimensionalen Bewegungsabläufen, sind unter der Startstellung gegebenenfalls alle Informationen bezüglich des Roboterwerkzeugs, der Werkzeugstellung, der Roboterachsschenkel, deren Orientierung und der Positionen und Orientierung der Roboterachsen zu verstehen.
  • (e) Schließlich wird die ausgewählte Soll-Endstellung direkt in eine Soll-Endstellung für den realen Arbeitsbereich umgewandelt. Dies bedeutet, dass die ausgewählte Soll-Endstellung nicht zunächst in eine Soll-Endstellung in einem virtuellen Arbeitsbereich umgewandelt wird, bevor die Soll-Endstellung in dem virtuellen Arbeitsbereich erneut umgewandelt wird. Vielmehr kann bei dem erfindungsgemäßen Verfahren – wie bereits oben erwähnt – auf die Erzeugung und Verwendung eines virtuellen Arbeitsbereiches verzichtet werden. Dies führt dazu, dass das erfindungsgemäße Verfahren besonders schnell und kostengünstig durchführbar ist, da hierfür keine aufwendiges Analyseverfahren mit Merkmalsermittlung zur Analyse der Bilder notwendig ist. Vielmehr wird eine Analyse allein durch die visuelle Wahrnehmung des Bildes durch die Bedienungsperson vorgenommen.
The method of creating a motion sequence for a robot using a functional unit comprises the following method steps.
  • (a) First, at least one image of the real working area of the robot with the help of a Bil the detection device detected. In this case, for example, a digital camera can be used.
  • (b) Subsequently, the at least one image is displayed on the functional unit. It is therefore not necessary to analyze the image of the real workspace to create a virtual workspace.
  • (c) Further, a start position of the robot is set.
  • (d) Subsequently, a target end position is selected using the functional unit. Under the starting position or the target end position are all geometric information of the robot to understand that are necessary for the creation of robot motion sequences. Thus, for example, in a simple case in which the robot merely has to carry out a task in the two-dimensional range, it is sufficient to determine the end point of the robot arm as well as the direction of the tool fastened to the robot arm, ie ultimately two points on the robot or on to determine the tool. In other cases, in particular in the case of three-dimensional movement sequences, the starting position may be understood as meaning all information relating to the robot tool, the tool position, the robot axis leg, its orientation and the positions and orientation of the robot axes.
  • (e) Finally, the selected target end position is directly converted to a target end position for the real workspace. This means that the selected target end position is not first converted to a target end position in a virtual workspace before the target end position is reconverted in the virtual workspace. Rather, in the method according to the invention-as already mentioned above-the generation and use of a virtual work area can be dispensed with. As a result, the method according to the invention can be carried out particularly quickly and cost-effectively, since no complicated analysis method with feature determination for analyzing the images is necessary for this purpose. Rather, an analysis is made solely by the visual perception of the image by the operator.

In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird (f) ein Bewegungsablauf für den Roboter in Abhängigkeit von der Startstellung und der Soll-Endstellung für den realen Arbeitsbereich festgelegt. Für das Festlegen der Bewegungsabläufe ist es beispielsweise notwendig, alle Angaben über den Roboterarm, also insbesondere die räumliche Position der Roboterachsen und der Roboter achsschenkel sowie des Roboterwerkzeuges genau festzulegen. Es ist nämlich ohne weiteres denkbar, dass eine Bewegungsbahn eines Werkzeuges von der Startstellung in die Soll-Endstellung durch unterschiedliche Roboterbewegungsabläufe erreicht werden kann. Für die Erstellung von Roboterbewegungsabläufen bedeutet dies, dass eine Selektion nach objektiven Kriterien aus den möglichen Roboterbewegungsabläufen getroffen wird, beispielsweise auf Grund eines zeitlichen Kriteriums oder eines Kriteriums, nach dem eine möglichst geringe Belastung der Roboterachsen gegeben sein soll.In an advantageous embodiment of the method according to the invention becomes (f) a movement for the robot in dependence from the starting position and the target end position for the real working area established. For the setting of the movements For example, it is necessary to include all information about the robot arm, ie in particular the spatial Position of the robot axes and the robot knuckle and the Determine robot tool exactly. It is easily conceivable a trajectory of a tool from the starting position in the target end position achieved by different robot motion sequences can be. For the creation of robot motion sequences this means that a Selection made according to objective criteria from the possible robot movement sequences is based, for example, on a time criterion or a criterion according to which the least possible burden on the Robot axes should be given.

Es ist aber auch innerhalb des Erfindungsgedankens, wenn die Festlegung des Bewegungsgutachtens erst erfolgt, wenn alle Soll-Endstellungen eingegeben sind. In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird kein virtueller Arbeitsbereich aus dem Bild des realen Arbeitsbereiches erzeugt.It but is also within the inventive idea, if the determination the motion report only takes place when all setpoint end positions are entered are. In a preferred embodiment the method according to the invention does not become a virtual workspace from the image of the real workspace generated.

Um die Genauigkeit des durch das Verfahren erstellten Bewegungsablaufes für den Roboter zu erhöhen, wird in einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens vor dem Anzeigen des Bildes auf der Funktionseinheit der Linsenfehler und die Brennweite der Bilderfassungseinrichtung ermittelt und die Genauigkeit des Bildes mit Hilfe mathematischer Methoden unter Zugrundelegung des ermittelten Linsenfehlers sowie der Brennweite erhöht.Around the accuracy of the movement created by the procedure for the To raise robots is in an advantageous embodiment of the inventive method before displaying the image on the functional unit the lens error and determines the focal length of the image capture device and the Accuracy of the image using mathematical methods based on the ascertained lens error and the focal length increases.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird die Bilderfassungseinrichtung an dem Roboter, vorzugsweise dem Handgelenk des Roboters, angeordnet, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt wird.In an advantageous embodiment the method according to the invention the image capture device on the robot, preferably the Wrist of the robot, arranged, taking the relative position the image capture device to the tool receiving point of the robot is determined.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden mindestens zwei Bilder des realen Arbeitsbereiches aus unterschiedlichen Perspektiven erfasst. Dies kann beispielsweise mit Hilfe zweier Bilderfassungseinrichtungen erfolgen, wobei dies z.B. eine Stereokamera oder zwei herkömmliche Kameras sein können. Auf Basis der beiden Bilder aus unterschiedlichen Perspektiven kann eine einfache Triangulation durchgeführt werden.In a further advantageous embodiment of the method according to the invention At least two images of the real workspace will be different Captured perspectives. This can be done, for example, with the help of two Image capture devices, e.g. a stereo camera or two conventional ones Cameras can be. Based on the two images from different perspectives can a simple triangulation can be done.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Bilder nebeneinander auf der Funktionseinheit angezeigt. Es wird demzufolge kein dreidimensionales Abbild aus den beiden Bildern erzeugt, so dass das Verfahren ohne eine kostenintensive und aufwendige Bildverarbeitung durchgeführt werden kann. Die Bedienungsperson kann die Soll-Endstellung durch optische Prüfung der beiden Bilder und nachfolgendem manuellen Triangulieren festlegen.In a further advantageous embodiment of the method according to the invention the images are displayed side by side on the functional unit. It therefore does not become a three-dimensional image of the two Images generated, so the process without a costly and elaborate image processing can be performed. The operator can the target end position by optical examination of the two images and subsequent manual triangulation.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden zwei Bilderfassungseinrichtungen zum Erfassen der mindestens zwei Bilder verwendet. Diese sind günstiger als beispielsweise ein Stereokamerasystem und einfacher zu handhaben als eine einzelne Kamera, die verfahren werden müsste, um zwei Bilder aus unterschiedlichen Perspektiven zu erfassen.In a further advantageous embodiment of the method according to the invention be two image capture devices for detecting the at least used two pictures. These are cheaper than for example a stereo camera system and easier to handle than a single one Camera that would have to be moved, to capture two images from different perspectives.

In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt. Auf diese Weise kann die Lage eines Punktes im Arbeitsbereich durch Triangulation ermittelt werden.In a further preferred embodiment the method according to the invention the orientation of the image capture devices and the Distance between the image capture devices determined. On This way, the location of a point in the workspace can be through Triangulation can be determined.

In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt. Auf diese Weise ist eine bessere Überprüfbarkeit der ausgewählten Soll-Endstellungen möglich. Das Anzeigen kann beispielsweise mittels kleiner Kreuze oder Punkte in dem Bild erfolgen.In a preferred embodiment the method according to the invention will be the selected one Target end position displayed in the image on the functional unit. In this way, a better verifiability of the selected target end positions possible. The display can, for example, by means of small crosses or points done in the picture.

Der vorgenannte Vorteil ist in einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens noch verstärkt, bei der Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.Of the The aforementioned advantage is in a further preferred embodiment the method according to the invention even stronger, at the connecting lines between the selected and displayed nominal end positions in the picture on the functional unit.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Bilder abrufbar gespeichert.In a further advantageous embodiment of the method according to the invention the images are stored retrievable.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Verfahrensschritte (c) bis (e) bis zu einem vorgebbaren Abbruchkriterium wiederholt, wobei als Startstellung für den folgenden Zyklus die Soll-Endstellung des vorangehenden Zyklus verwendet wird. Dieses Abbruchkriterium kann beispielsweise die vollständige Erfüllung einer vorgegebenen Bewegungsbahnabfolge sein. Auf diese Weise wird auch die Erstellung von komplexen Bahnfolgen mit einer Vielzahl von Einzelbewegungen auf besonders einfache Weise möglich.In a further advantageous embodiment of the method according to the invention the process steps (c) to (e) are up to a predefinable Abort criterion repeated, starting as the starting position for the following Cycle the target end position of the previous cycle is used. This termination criterion can, for example, the complete fulfillment of a be predetermined movement path sequence. That's how it works the creation of complex web sequences with a multitude of individual movements in a particularly simple way possible.

In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden die Verfahrensschritte (c) bis (f) oder (c) bis (e) so lange wiederholt, bis eine Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen liegt, wobei dann die Bilderfassungseinrichtungen neu positioniert und der Verfahrensschritt (a) erneut durchgeführt wird. Im Anschluss daran kann mit dem neu erfassten Bild fortgefahren werden.In a particularly preferred embodiment the method according to the invention the process steps (c) to (f) or (c) to (e) are so long repeated until a target end position outside the field of view of a the image capture devices is, then the image capture devices repositioned and the process step (a) is performed again. Following this, you can continue with the newly captured image become.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens erfolgt das Festlegen der Startstellung durch Abfragen einer Steuerungsvorrichtung des Roboters, wobei die abgefragte Startstellung in eine Startstellung für den realen Arbeitsbereich umgewandelt wird. Auch hier wird diese Startstellung nicht in eine Startstellung innerhalb eines realen Arbeitsbereiches umgewandelt, der für die Erfindung nicht notwendig ist.In an advantageous embodiment the method according to the invention the starting position is determined by querying a control device of the robot, wherein the requested starting position in a starting position for the real workspace is converted. Again, this starting position not in a starting position within a real working area converted for the Invention is not necessary.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird die Orientierung eines Werkzeuges für jede Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt. Dies kann beispielsweise auf dieselbe Weise erfolgen, wie das Festlegen der Soll-Endstellung, indem ein zweiter Punkt in dem Bild ausgewählt wird.In a further advantageous embodiment of the method according to the invention is the orientation of a tool for each target end position with Help of the functional unit selected. This can be, for example in the same way as setting the target end position, by selecting a second point in the image.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird das Auswählen der Soll-Endstellung auf dem angezeigten Bild auf der Funktionseinheit vorgenommen. Hier kann vorteilhafterweise z.B. ein grafikunterstütztes Eingabegerät, eine so genannte Graphical Teach Pendant Unit (GTPU), als Funktionseinheit verwendet werden. Mit diesem Eingabegerät sind sowohl die Bilder des realen Arbeitsraumes als auch die durch Berührung ausgewählten Soll-Endstellungen anzeigbar.In an advantageous embodiment the method according to the invention will select the Target end position on the displayed image on the functional unit performed. Here, advantageously, e.g. a graphics-supported input device, a so-called Graphical Teach Pendant Unit (GTPU), used as a functional unit become. With this input device are both the images of the real workspace and the through contact chosen Target end positions can be displayed.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt.In a further advantageous embodiment of the method according to the invention the specified movements are used as control commands in transmits a control device of the robot.

Um Fehler bei dem Auswählen der Soll-Endstellungen zu vermeiden, wird in einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens vor dem Umwandeln der ausgewählten Soll-Endstellung die Auswahl bestätigt.Around Error while selecting the desired end positions to avoid is in a preferred embodiment the method according to the invention before converting the selected target end position the selection is confirmed.

Nachfolgend wird das erfindungsgemäße System beschrieben, wobei bezüglich der Vorteile auf die obige Beschreibung des erfindungsgemäßen Verfahrens verwiesen sei, die entsprechend gelten.following becomes the system according to the invention described, with respect the advantages of the above description of the method according to the invention referred to, which apply accordingly.

Das erfindungsgemäße System zur Erstellung eines Bewegungsablaufes für einen Roboter weist eine Festlegungseinrichtung zur Festlegung der Startstellung des Roboters, mindestens eine Bilderfassungseinrichtung zur Erfassung mindestens eines Bildes des realen Arbeitsbereiches, eine Funktionseinheit, auf der das durch die Bilderfassungseinrichtung erfasste Bild angezeigt werden kann, wobei eine Soll-Endstellung des Roboters in dem angezeigten Bild ausgewählt werden kann, eine Umwandlungseinrichtung zur direkten Umwandlung der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und eine Programmiereinrichtung zum Festlegen des Bewegungsablaufes zwischen der Startstellung und der Soll-Endstellung auf. Das erfindungsgemäße System benötigt keine aufwendige und teure Analyseeinheit zur Erzeugung eines virtuellen Arbeitsbereiches. So können die Soll-Endstellungen direkt in Soll-Endstellungen für den realen Arbeitsbereich umgewandelt werden, ohne vorher in Soll-Endstellungen für einen virtuellen Arbeitsbereich umgewandelt werden zu müssen.The inventive system for creating a sequence of movements for a robot has a setting device for determining the starting position of the robot, at least one image capturing device for capturing at least one image of the real working region, a functional unit on which the image captured by the image capturing device can be displayed, wherein a target End position of the robot can be selected in the displayed image, a conversion means for direct conversion of the selected target end position to a target end position for the real work area and a programmer for determining the movement sequence between the start position and the target end position on. The system according to the invention does not require a complex and expensive analysis unit for generating a virtual work area. Thus, the target end positions can be converted directly into target end positions for the real work area, without first having to be converted into nominal end positions for a virtual work area.

In einer bevorzugten Ausführungsform des erfindungsgemäßen Systems ist die Bilderfassungseinrichtung an dem Roboter, vorzugsweise an dem Handgelenk des Roboters, angeordnet, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt werden kann.In a preferred embodiment of the system according to the invention is the image capture device on the robot, preferably on the wrist of the robot, arranged with the relative position the image capture device to the tool receiving point of the robot can be determined.

In einer bevorzugten Ausführungsform des erfindungsgemäßen Systems sind mindestens zwei Bilderfassungseinrichtungen zur Erfassung von zwei Bildern aus unterschiedlichen Perspektiven vorgesehen.In a preferred embodiment of the system according to the invention are at least two image capture devices for capturing two pictures from different perspectives.

In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems können die Bilder nebeneinander auf der Funktionseinheit angezeigt werden.In a further preferred embodiment of the system according to the invention can the images are displayed side by side on the functional unit.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems kann die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt werden.In an advantageous embodiment of the system according to the invention can the orientation of the image capture devices and the Distance between the image capture devices are determined.

In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems sind die Bilderfassungseinrichtungen an einem Basisteil befestigt, das lösbar an dem Roboter befestigt ist.In a further preferred embodiment of the system according to the invention the image capture devices are attached to a base part, the solvable attached to the robot.

In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Systems weist das Basisteil einen Energiespeicher zur Versorgung der Bilderfassungseinrichtungen auf. Bei den Energiespeichern kann es sich beispielsweise um Batterien handeln. Die Ausführungsform gewährleistet somit eine kabellose Energiezufuhr.In a particularly preferred embodiment of the system according to the invention the base part has an energy store for supplying the image acquisition devices on. The energy stores may be, for example, batteries act. The embodiment guaranteed thus a wireless power supply.

In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems weist das Basisteil ferner eine Übertragungseinrichtung zur kabellosen Übertragung der erfassten Bilder auf. Die Übertragungseinrichtung könnte beispielsweise auf der so genannten Bluetooth-Technik basieren.In a further preferred embodiment of the system according to the invention the base part further comprises a transmission device for wireless transmission the captured images. The transmission device could for example, based on the so-called Bluetooth technology.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems kann die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt werden.In an advantageous embodiment of the system according to the invention can the selected target end position in the picture on the functional unit.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Systems können Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.In a further advantageous embodiment of the system according to the invention can Connecting lines between the selected and displayed nominal end positions in the image on the functional unit.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems ist eine Speichereinrichtung zur abrufbaren Speicherung der Bilder vorgesehen.In an advantageous embodiment of the system according to the invention is a storage device for retrievably storing the images intended.

In einer vorteilhaften Weiterbildung des erfindungsgemäßen Systems kann die Startstellung durch die Festlegungseinrichtung von einer Steuerungsvorrichtung des Roboters abgefragt und in eine Startstellung für den realen Arbeitsbereich umgewandelt werden.In an advantageous embodiment of the system according to the invention can the starting position by the fixing of a Control device of the robot queried and in a starting position for the real workspace.

In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems können die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt werden.In an advantageous embodiment of the system according to the invention can the defined movements are transmitted as control commands in a control device of the robot.

In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Systems ist ein Bestätigungselement zur Bestätigung der ausgewählten Soll-Endstellung vor dem Umwandeln vorgesehen. Hierbei kann es sich beispielsweise um eine Bestätigungstaste handeln.In a further advantageous embodiment of the system according to the invention is an acknowledgment element for confirmation the selected target end position provided before converting. This can be for example a confirmation button act.

Die Erfindung wird im Folgenden an Hand von beispielhaften Ausführungsformen unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.The The invention will now be described with reference to exemplary embodiments with reference to the associated Drawings closer explained.

Es zeigen:It demonstrate:

1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Systems, 1 a schematic representation of an embodiment of the system according to the invention,

2 eine perspektivische Darstellung der Anordnung der Bilderfassungseinrichtungen an dem Roboter von 1, 2 a perspective view of the arrangement of the image capture devices on the robot of 1 .

3 eine vergrößerte Darstellung der beiden Bilder des realen Arbeitsbereiches von 1 und 3 an enlarged view of the two images of the real workspace of 1 and

4 ein Ablaufdiagramm zur Erläuterung einer Ausführungsform des erfindungsgemäßen Verfahrens. 4 a flowchart for explaining an embodiment of the method according to the invention.

Nachstehend wird bezugnehmend auf die 1 und 2 zunächst der Aufbau des Systems zur Erstellung eines Bewegungsablaufes für einen Roboter erläutert.Hereinafter, referring to the 1 and 2 first explained the structure of the system for creating a movement sequence for a robot.

Das System 2 umfasst zunächst zwei Bilderfassungseinrichtungen 4, 6 zur Erfassung zweier Bilder 8, 10 des realen Arbeitsbereiches eines Roboters 12. Bei den Bilderfassungseinrichtungen 4, 6 handelt es sich vorzugsweise um einfache Digitalkameras. Die beiden Bilderfassungseinrichtungen 4, 6 sind über einen Abstand A voneinander beabstandet angeordnet und weisen unterschiedliche Orientierungen auf, wie dies an Hand der Erfassungsrichtungsachsen B und C der Bilderfassungseinrichtungen 4, 6 in 2 angedeutet ist. Auf diese Weise werden die beiden Bilder 8, 10 aus unterschiedlichen Perspektiven erfasst. Sowohl der Abstand A als auch die Orientierung der Erfassungsrichtungsachsen B, C kann ermittelt werden.The system 2 initially includes two image capture devices 4 . 6 to capture two Bil of the 8th . 10 the real workspace of a robot 12 , In the image capture devices 4 . 6 they are preferably simple digital cameras. The two image capture devices 4 . 6 are spaced apart from each other by a distance A and have different orientations, as with the detection direction axes B and C of the image detection devices 4 . 6 in 2 is indicated. In this way, the two pictures 8th . 10 captured from different perspectives. Both the distance A and the orientation of the sense direction axes B, C can be determined.

Die Bilderfassungseinrichtungen 4, 6 sind an einem lang gestreckten Basisteil 14 angeordnet, das lösbar an dem Handgelenk 16 des Roboters 12 befestigt ist. Somit ist die relative Position der Bilderfassungseinrichtungen 4, 6 zu dem Werkzeugaufnahmepunkt (tool center point) des Roboters 12 ermittelbar. Das Basisteil 14 nimmt ferner einen Energiespeicher 18 auf, der im vorliegenden Beispiel von einer oder mehreren Batterien gebildet ist, die die beiden Bilderfassungseinrichtungen 4, 6 mit Strom versorgen. Die beiden Bilderfassungseinrichtungen 4, 6 sind ferner mit einer auf dem Basisteil 14 angeordneten Übertragungseinrichtung 20 zur kabellosen Übertragung der erfassten Bilder 8, 10 verbunden, wobei in der vorliegenden Ausführungsform die so genannte Bluetooth-Technik verwendet wird. Die Bilderfassungseinrichtungen 4, 6 sind mit einer Robotersteuerung 22 verbunden, wie dies an Hand der Leitung 24 angedeutet ist, so dass die Parameter der Bilderfassungseinrichtun gen 4, 6, insbesondere der Linsenfehler und die Brennweite, in der Robotersteuerung 22 registriert werden können.The image capture devices 4 . 6 are on an elongated base part 14 arranged, detachable on the wrist 16 of the robot 12 is attached. Thus, the relative position of the image capture devices 4 . 6 to the tool center point of the robot 12 determined. The base part 14 also takes an energy store 18 on, which is formed in the present example of one or more batteries, the two image capture devices 4 . 6 supply electricity. The two image capture devices 4 . 6 are also with one on the base part 14 arranged transmission device 20 for the wireless transmission of captured images 8th . 10 connected, wherein in the present embodiment, the so-called Bluetooth technology is used. The image capture devices 4 . 6 are with a robot controller 22 connected, as indicated by the line 24 is indicated, so that the parameters of the Bildfassungseinrichtun gene 4 . 6 , in particular the lens error and the focal length, in the robot controller 22 can be registered.

Die Robotersteuerung 22 ist mit einer externen Anordnung 26 verbindbar, wie dies an Hand der Leitung 28 angedeutet ist. Die externe Anordnung 26 weist eine Funktionseinheit 30 auf, die als so genannte Graphical Teach Pendant Unit (GTPU) ausgebildet ist. Die Funktionseinheit 30 weist einen Bildschirm 32 auf, auf dem die beiden Bilder 8, 10 nebeneinander angezeigt werden können, wie dies insbesondere noch einmal in 3 vergrößert dargestellt ist. An der Funktionseinheit 30 ist ferner ein Bestätigungselement 34 in Form einer Taste vorgesehen.The robot controller 22 is with an external arrangement 26 connectable, as is the case with the line 28 is indicated. The external arrangement 26 has a functional unit 30 , which is designed as a so-called Graphical Teach Pendant Unit (GTPU). The functional unit 30 has a screen 32 up, on which the two pictures 8th . 10 can be displayed side by side, as this particular again in 3 is shown enlarged. At the functional unit 30 is also an acknowledgment element 34 provided in the form of a button.

Die Anordnung 26 umfasst weiterhin eine Umwandlungseinrichtung 36, eine Programmiereinrichtung 38, eine Speichereinrichtung 40 und eine Festlegungseinrichtung 42, die mit der Funktionseinheit 30 zusammenwirken, wie dies an Hand der Doppelpfeile 44 bis 50 angedeutet ist, und deren Funktion später unter Bezugnahme auf das erfindungsgemäße Verfahren erläutert wird. Die Anordnung 26 weist außerdem eine Empfangseinrichtung 52 auf, die die von der Übertragungseinrichtung 20 übertragenen Bilder 8, 10 empfangen kann, wie dies an Hand des gestrichelten Pfeils 54 angedeutet ist.The order 26 further comprises a conversion device 36 , a programmer 38 , a storage device 40 and a fixing device 42 that with the functional unit 30 interact as indicated by the double arrows 44 to 50 is indicated, and whose function will be explained later with reference to the inventive method. The order 26 also has a receiving device 52 on, that of the transmission device 20 transferred images 8th . 10 can receive, as indicated by the dashed arrow 54 is indicated.

Nachfolgend wird das dem oben beschriebenen System zu Grunde liegende erfindungsgemäße Verfahren unter Bezugnahme auf 4 beschrieben.Hereinafter, the inventive method underlying the above-described system will be described with reference to FIG 4 described.

In einem ersten Verfahrensschritt S1 erfassen die Bilderfassungseinrichtungen 4, 6 jeweils ein Bild, so dass zwei Bilder 8, 10 des realen Arbeitsbereiches, der in 2 mit dem Bezugszeichen 56 versehen ist, vorhanden sind, die aus unterschiedlichen Perspektiven aufgenommen wurden. Im vorliegenden Beispiel ist eine Fuge 58 zwischen zwei Werkstücken in dem Arbeitsbereich 56 angeordnet, die verschweißt werden soll und einen kurvenförmigen Verlauf aufweist. Die Genauigkeit der Bilder 8, 10 wird an Hand der in der Robotersteuerung 22 registrierten Brennweiten und Linsenfehler mit Hilfe einer mathematischen Methode erhöht, um die den Bildern 8, 10 zu Grunde liegenden Daten anschließend über die Übertragungseinrichtung 20 an die Empfangseinrichtung 52 der Anordnung 26 zu senden.In a first method step S1, the image capture devices detect 4 . 6 one picture at a time, leaving two pictures 8th . 10 of the real workspace that is in 2 with the reference number 56 are present, that have been taken from different perspectives. In this example, there is a gap 58 between two workpieces in the work area 56 arranged, which is to be welded and has a curved course. The accuracy of the pictures 8th . 10 becomes on hand in the robot control 22 Registered focal lengths and lens aberrations using a mathematical method increases the images 8th . 10 underlying data then via the transmission device 20 to the receiving device 52 the arrangement 26 to send.

Innerhalb der Anordnung 26 werden die Bilder 8, 10 in einem anschließenden Verfahrensschritt S2 einerseits in der Speichereinrichtung 40 abrufbar gespeichert und andererseits auf dem Bildschirm 32 der Funktionseinheit 30 angezeigt. Wie bereits unter Bezugnahme auf das System erläutert, werden die beiden Bilder 8, 10 nebeneinander auf dem Bildschirm 32 der Funktionseinheit 26 angezeigt. Die Bilder 8, 10 werden also keinerlei Analyseeinheit zugeführt, um zuvor mit Hilfe einer Merkmalserkennung o.ä. einen virtuellen Arbeitsbereich zu erzeugen.Inside the arrangement 26 become the pictures 8th . 10 in a subsequent method step S2 on the one hand in the memory device 40 stored on the other hand on the screen 32 the functional unit 30 displayed. As already explained with reference to the system, the two pictures 8th . 10 side by side on the screen 32 the functional unit 26 displayed. The pictures 8th . 10 Thus, no analysis unit is supplied to previously with the help of a feature recognition o.ä. create a virtual workspace.

Im Verfahrensschritt S3 wird mit Hilfe der Festlegungseinrichtung 42 eine Startstellung des Roboters 12 festgelegt, indem die derzeitige Stellung oder eine vorgegebene Ausgangsstellung des Roboters 12 über die Festlegungseinrichtung 42 und die Leitung 28 von der Robotersteuerung 22 abgefragt wird. Die abgefragte Startstellung wird direkt in eine Startstellung für den realen Arbeitsbereich umgewandelt, d.h. es unterbleibt eine Umwandlung der abgefragten Stellung des Roboters in eine Stellung innerhalb eines virtuellen Arbeitsbereiches.In method step S3, the setting device is used 42 a starting position of the robot 12 set by the current position or a given home position of the robot 12 about the fixing device 42 and the line 28 from the robot controller 22 is queried. The queried starting position is converted directly into a starting position for the real work area, ie there is no conversion of the queried position of the robot into a position within a virtual work area.

In einem darauf folgenden Verfahrensschritt S4 wählt die Bedienungsperson eine Soll-Endstellung mit Hilfe der Funktionseinheit 30 bzw. der GTPU aus. Dies erfolgt, indem die Bedienungsperson mit einem dafür vorgesehenen Stift 60 des GTPU einen entsprechenden Punkt auf dem auf der Funktionseinheit 30 angezeigten Bild 8 und 10 berührt, wie dies in 3 angedeutet ist. Im vorliegenden Beispiel berührt die Bedienungsperson jeweils einen Punkt im Bereich der dargestellten Fuge 58 auf beiden Bildern 8 und 10. Ferner kann die Bedienungsperson ebenfalls die Orientierung des Werkzeuges in der gewählten Soll-Endstellung mit Hilfe der Funktionseinheit 30 festlegen (nicht dargestellt). Die in dem Bild 8, 10 gewählte Soll-Endstellung wird mit Hilfe eines Kreuzes o.ä. auf dem Bildschirm 32 der Funktionseinheit 30 angezeigt, so dass die Bedienungsperson eine visuelle Rückmeldung hat. Ist die Bedienungsperson mit der Wahl einverstanden, so muss sie dies durch Drücken des Bestätigungs elementes 34 bestätigen, bevor mit dem nächsten Verfahrensschritt S5 fortgefahren wird.In a subsequent method step S4, the operator selects a desired end position with the aid of the functional unit 30 or the GTPU. This is done by the operator with a dedicated pin 60 of the GTPU a corresponding point on the on the functional unit 30 displayed image 8th and 10 touches, like this in 3 is indicated. In the present example, the operator touches one point in the region of the joint shown 58 in both pictures 8th and 10 , Furthermore, the operator can also choose the orientation of the tool in the th setpoint end position with the aid of the functional unit 30 set (not shown). The one in the picture 8th . 10 selected target end position is with the help of a cross o.ä. on the screen 32 the functional unit 30 displayed so that the operator has a visual feedback. If the operator agrees with the choice, he must do so by pressing the confirmation element 34 confirm before proceeding to the next step S5.

Im Schritt S5 wird die ausgewählte Soll-Endstellung durch die Umwandlungseinrichtung 36 direkt in eine Soll-Endstellung für den realen Arbeitsbereich umgewandelt, wobei die Speicherung der somit umgewandelten Soll-Endstellung in der Umwandlungseinrichtung 36 erfolgen kann. Erfindungsgemäß wird die ausgewählte Soll-Endstellung somit nicht in eine Soll-Endstellung in einem virtuellen Arbeitsbereich umgewandelt, was das Verfahren wesentlich vereinfacht.In step S5, the selected target end position is changed by the conversion means 36 converted directly into a desired end position for the real work area, wherein the storage of the thus converted target end position in the conversion device 36 can be done. According to the invention, the selected target end position is thus not converted into a desired end position in a virtual work area, which considerably simplifies the method.

Im Verfahrensschritt S6 legt die Bedienungsperson unter Verwendung der Programmiereinrichtung 38 den Bewegungsablauf für den Roboter 12 zwischen der Startstellung und der Soll-Endstellung für den realen Arbeitsbereich fest. In den Bildern 8, 10 auf dem Bildschirm 32 der Funktionseinheit 30 werden die entsprechenden Verbindungslinien zwischen der Startstellung und der Soll-Endstellung angezeigt.In step S6, the operator sets using the programmer 38 the movement sequence for the robot 12 between the starting position and the target end position for the real work area. In the pictures 8th . 10 on the screen 32 the functional unit 30 the corresponding connecting lines between the start position and the target end position are displayed.

Anschließend wird im Verfahrensschritt S7 eine Abfrage durchgeführt, nämlich ob ein vorgegebenes Abbruchkriterium erfüllt ist. Dieses Abbruchkriterium ist erfüllt, wenn die Bedienungsperson durch entsprechende Eingabe bestätigt, dass die Programmierung beendet ist. Bestätigt die Bedienungsperson hingegen, dass mit der Auswahl weiterer Soll-Endstellungen fortgefahren werden soll, so wird das Verfahren mit dem Verfahrensschritt S3 wieder aufgenommen, wobei als Startstellung für den folgenden Zyklus die Soll-Endstellung des vorangehenden Zyklus verwendet wird. Bestätigt die Bedienungsperson das Ende der Programmierung, so wird mit Schritt S8 fortgefahren.Subsequently, will in step S7, a query is performed, namely, whether a predetermined termination criterion Fulfills is. This abort criterion is met when the operator confirmed by appropriate input, that the programming is finished. Confirms the operator, however, that the selection of further target end positions is continued should, so the process with the process step S3 again taken as starting position for the following cycle the Target end position of the previous cycle is used. Confirms the Operator the end of the programming, so with step S8 continued.

In 4 ist ferner ein weiteres Merkmal des Verfahrens an Hand des gestrichelten Pfeils angedeutet. So kann in Schritt S7 ferner abgefragt werden, ob die gewünschte nächste Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen 4, 6 und somit außerhalb eines der Bilder 8, 10 liegt. Bestätigt die Bedienungsperson dies, so wird der Roboter 12, an dem die Bilderfassungseinrichtungen 4, 6 befestigt sind, zunächst neu positioniert, bevor das Verfahren wieder bei Schritt S1 aufgenommen wird. Auf diese Weise können auch besonders große Arbeitsbereich, wenn auch nur etappenweise, erfasst werden.In 4 Furthermore, another feature of the method is indicated by the dashed arrow. Thus, in step S7, it is also possible to query whether the desired next target end position is outside the field of view of one of the image acquisition devices 4 . 6 and thus outside one of the pictures 8th . 10 lies. If the operator confirms this, the robot becomes 12 at which the image capture devices 4 . 6 are fixed, initially repositioned before the process is resumed at step S1. In this way, even very large work area, albeit only in stages, can be detected.

Im Verfahrensschritt S8 werden die festgelegten Bewegungsabläufe als Steuerungsbefehle über die Leitung 28 an die Robotersteuerung 22 übermittelt, die daraufhin den Roboter 12 in der festgelegten Weise betreiben kann. Das Basisteil 14 kann wieder von dem Handgelenk 16 des Roboters 12 entfernt werden, so dass es den Prozess nicht behindert.In method step S8, the defined motion sequences are transmitted as control commands via the line 28 to the robot controller 22 which then sends the robot 12 operate in the specified manner. The base part 14 can be back from the wrist 16 of the robot 12 be removed so that it does not hinder the process.

22
System zur Erstellung des Bewegungsablaufessystem for creating the movement sequence
4, 64, 6
BilderfassungseinrichtungenImage acquisition devices
8, 108th, 10
Bilder des realen Arbeitsbereichesimages of the real workspace
1212
Roboterrobot
1414
Basisteilbase
1616
Handgelenk des Roboterswrist of the robot
1818
Energiespeicherenergy storage
2020
Übertragungseinrichtungtransmission equipment
2222
Robotersteuerungrobot control
2424
Leitungmanagement
2626
Anordnungarrangement
2828
Leitungmanagement
3030
Funktionseinheitfunctional unit
3232
Bildschirmscreen
3434
Bestätigungselementconfirmation element
3636
Umwandlungseinrichtungconverting means
3838
Programmiereinrichtungprogrammer
4040
Speichereinrichtungmemory device
4242
Festlegungseinrichtungsetter
44–5044-50
Doppelpfeiledouble arrows
5252
Empfangseinrichtungreceiver
5454
gestrichelter Pfeildashed arrow
5656
ArbeitsbereichWorkspace
5858
FugeGap
6060
Stiftpen
AA
Abstanddistance
B, CB C
ErfassungsrichtungsachsenDetection direction Saxony
S1–S7S1-S7
Verfahrensschrittesteps

Claims (33)

Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit mit den Verfahrensschritten a) Erfassen mindestens eines Bildes des realen Arbeitsbereiches des Roboters durch mindestens eine Bilderfassungseinrichtung, b) Anzeigen des mindestens einen Bildes auf der Funktionseinheit, c) Festlegen einer Startstellung des Roboters, d) Auswählen einer Soll-Endstellung mit Hilfe der Funktionseinheit, der mindestens ein Bild und e) Direktes Umwandeln der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich.Method for creating a movement sequence for one Robot using a functional unit with the method steps a) Capture at least one image of the real workspace of the Robot by at least one image capture device, b) Displaying the at least one image on the functional unit, c) Defining a starting position of the robot, d) Select one Target end position with the help of the functional unit, the at least a picture and e) Direct conversion of the selected target end position in a desired end position for the real workspace. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Erzeugung einen virtuellen Arbeitsbereichs aus dem Bild des realen Arbeitsbereiches vermieden wird.A method according to claim 1, characterized in that the generation of a virtual Ar be avoided from the image of the real work area. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass vor dem Anzeigen des Bildes auf der Funktionseinheit der Linsenfehler und die Brennweite der Bilderfassungseinrichtung ermittelt und die Genauigkeit des Bildes mit Hilfe mathematischer Methoden unter Zugrundelegung des ermittelten Linsenfehlers sowie der Brennweite erhöht wird.Method according to one of claims 1 or 2, characterized that before displaying the image on the functional unit the lens error and determines the focal length of the image capture device and accuracy of the image using mathematical methods on the basis of the detected lens error and the focal length is increased. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung an dem Roboter, vorzugsweise dem Handgelenk des Roboters, angeordnet wird, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt wird.Method according to one of the preceding claims, characterized in that the image capture device on the robot, preferably the wrist of the robot, being arranged the relative position of the image capture device to the tool receiving point of the robot is determined. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens zwei Bilder des realen Arbeitsbereiches aus unterschiedlichen Perspektiven erfasst werden.Method according to one of the preceding claims, characterized characterized in that at least two images of the real workspace be captured from different perspectives. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Bilder nebeneinander auf der Funktionseinheit angezeigt oder auf deren Basis ein dreidimensionales Bild ermittelt wird.Method according to claim 5, characterized in that that the images are displayed side by side on the functional unit or on the basis of which a three-dimensional image is determined. Verfahren nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass zwei Bilderfassungseinrichtungen zum Erfassen der mindestens zwei Bilder verwendet werden.Method according to one of claims 5 or 6, characterized that two image capture devices for detecting the at least two pictures are used. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt wird.Method according to claim 7, characterized in that that the orientation of the image capture devices and the Distance between the image capture devices is determined. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt wird.Method according to one of the preceding claims, characterized marked that the selected Target end position displayed in the image on the functional unit becomes. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.Method according to claim 9, characterized that connecting lines between the selected and displayed desired end positions in the picture on the functional unit. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder abrufbar gespeichert werden.Method according to one of the preceding claims, characterized characterized in that the images are stored retrievable. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verfahrensschritte c) bis f) oder c) bis e) bis zu einem vorgebbaren Abbruchkriterium wiederholt werden, wobei als Startstellung für den folgenden Zyklus die Soll-Endstellung des vorangehenden Zyklus verwendet wird.Method according to one of the preceding claims, characterized in that the method steps c) to f) or c) to e) be repeated up to a predetermined abort criterion, wherein as starting position for the following cycle the target end position of the previous cycle is used. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Verfahrensschritte c) bis f) oder c) bis e) so lange wiederholt werden, bis eine Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen liegt, wobei dann die Bilderfassungseinrichtungen neu positioniert und der Verfahrensschritt a) erneut durchgeführt wird.Method according to claim 12, characterized in that that the method steps c) to f) or c) to e) repeated so long be until a target end position outside the field of view of a the image capture devices is, then the image capture devices repositioned and the process step a) is performed again. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Bewegungsablauf für den Roboter in Ablegigkeit von der Startstellung und der oder den Soll-Endstellungen für den realen Arbeitsbereich festgelegt wird.Method according to one of the preceding claims, characterized characterized in that a movement sequence for the robot in off-axis from the starting position and the one or more desired end positions for the real Workspace is set. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Festlegen der Startstellung durch Abfragen einer Steuerungsvorrichtung des Roboters erfolgt, wobei die abgefragte Startstellung in eine Startstellung für den realen Arbeitsbereich umgewandelt wird.Method according to one of the preceding claims, characterized characterized in that the setting of the starting position by queries a control device of the robot, wherein the queried Starting position in a starting position for the real work area is converted. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Orientierung eines Werkzeuges für jede Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt wird.Method according to one of the preceding claims, characterized characterized in that the orientation of a tool for each target end position with Help of the functional unit is selected. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Auswählen der Soll-Endstellung auf dem angezeigten Bild auf der Funktionseinheit vorgenommen wird.Method according to one of the preceding claims, characterized marked that selecting the target end position on the displayed image on the functional unit is made. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt werden.Method according to one of the preceding claims, characterized characterized in that the specified movements as Control commands transmitted to a control device of the robot become. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass vor dem Umwandeln der ausgewählten Soll-Endstellung die Auswahl bestätigt wird.Method according to one of the preceding claims, characterized characterized in that before converting the selected target end position the selection is confirmed becomes. System zur Erstellung eines Bewegungsablaufes für einen Roboter aufweisend eine Festlegungseinrichtung (42) zur Festlegung der Startstellung des Roboters (12), mindestens eine Bilderfassungseinrichtung (4, 6) zur Erfassung mindestens eines Bildes (8, 10) des realen Arbeitsbereiches, eine Funktionseinheit (30), auf der das durch die Bilderfassungseinrichtung (4, 6) erfasste Bild (8, 10) anzeigbar ist, wobei eine Soll-Endstellung des Roboters (12) in dem angezeigten Bild (4, 6) auswählbar ist, eine Umwandlungseinrichtung (36) zur direkten Umwandlung der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und eine Programmiereinrichtung (38) zum Festlegen des Bewegungsablaufes zwischen der Startstellung und der Soll-Endstellung.System for creating a movement sequence for a robot comprising a setting device ( 42 ) for determining the starting position of the robot ( 12 ), at least one image capture device ( 4 . 6 ) for capturing at least one image ( 8th . 10 ) of the real work area, a functional unit ( 30 ) on which the image capture device ( 4 . 6 ) captured image ( 8th . 10 ) is displayed, wherein a target end position of the robot ( 12 ) in the displayed image ( 4 . 6 ), a conversion device ( 36 ) for direct conversion of the selected target end position into a target end position for the real working range and a programming device ( 38 ) for determining the movement sequence between the starting position and the target end position. System nach Anspruch 19, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung (4, 6) an dem Roboter (12), vorzugsweise an dem Handgelenk (16) des Roboters (12), angeordnet ist, wobei die relative Position der Bilderfassungseinrichtung (4, 6) zu dem Werkzeugaufnahmepunkt des Roboters (12) ermittelbar ist.System according to claim 19, characterized in that the image capture device ( 4 . 6 ) on the robot ( 12 ), preferably on the wrist ( 16 ) of the robot ( 12 ), wherein the relative position of the image capture device ( 4 . 6 ) to the tool receiving point of the robot ( 12 ) can be determined. System nach einem der Ansprüche 19 oder 20, dadurch gekennzeichnet, dass mindestens zwei Bilderfassungseinrichtungen (4, 6) zur Erfassung von zwei Bildern (8, 10) aus unterschiedlichen Perspektiven vorgesehen sind.System according to one of claims 19 or 20, characterized in that at least two image capture devices ( 4 . 6 ) for capturing two images ( 8th . 10 ) are provided from different perspectives. System nach Anspruch 21, dadurch gekennzeichnet, dass die Bilder (8, 10) nebeneinander auf der Funktionseinheit (30) anzeigbar sind.System according to claim 21, characterized in that the images ( 8th . 10 ) next to each other on the functional unit ( 30 ) are displayed. System nach einem der Ansprüche 21 oder 22, dadurch gekennzeichnet, dass die Orientierung der Bilderfassungseinrichtungen (4, 6) sowie der Abstand (A) zwischen den Bilderfassungseinrichtungen (4, 6) ermittelbar ist.System according to one of claims 21 or 22, characterized in that the orientation of the image acquisition devices ( 4 . 6 ) and the distance (A) between the image capture devices ( 4 . 6 ) can be determined. System nach einem der Ansprüche 21 bis 23, dadurch gekennzeichnet, dass die Bilderfassungseinrichtungen (4, 6) an einem Basisteil (14) befestigt sind, das lösbar an dem Roboter (12) befestigt ist.System according to one of Claims 21 to 23, characterized in that the image acquisition devices ( 4 . 6 ) on a base part ( 14 ) releasably attached to the robot ( 12 ) is attached. System nach Anspruch 24, dadurch gekennzeichnet, dass das Basisteil (14) einen Energiespeicher (18) zur Versorgung der Bilderfassungseinrichtungen (4, 6) aufweist.System according to claim 24, characterized in that the base part ( 14 ) an energy store ( 18 ) for the supply of image capture devices ( 4 . 6 ) having. System nach einem der Ansprüche 24 oder 25, dadurch gekennzeichnet, dass das Basisteil (14) ferner eine Übertragungseinrichtung (20) zur kabellosen Übertragung der erfassten Bilder (8, 10) aufweist.System according to one of claims 24 or 25, characterized in that the base part ( 14 ) a transmission device ( 20 ) for the wireless transmission of captured images ( 8th . 10 ) having. System nach einem der Ansprüche 19 bis 26, dadurch gekennzeichnet, dass die ausgewählte Soll-Endstellung in dem Bild (8, 10) auf der Funktionseinheit (30) anzeigbar ist.System according to one of claims 19 to 26, characterized in that the selected target end position in the image ( 8th . 10 ) on the functional unit ( 30 ) can be displayed. System nach Anspruch 27, dadurch gekennzeichnet, dass Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild (8, 10) auf der Funktionseinheit (30) anzeigbar sind.System according to claim 27, characterized in that connecting lines between the selected and displayed nominal end positions in the image ( 8th . 10 ) on the functional unit ( 30 ) are displayed. System nach einem der Ansprüche 19 bis 28, dadurch gekennzeichnet, dass eine Speichereinrichtung (40) zur abrufbaren Speicherung der Bilder (8, 10) vorgesehen ist.System according to one of claims 19 to 28, characterized in that a memory device ( 40 ) for retrievable storage of the images ( 8th . 10 ) is provided. System nach einem der Ansprüche 19 bis 29, dadurch gekennzeichnet, dass die Startstellung durch die Festlegungseinrichtung (42) von einer Steuerungsvorrichtung (22) des Roboters (12) abfragbar und in eine Startstellung für den realen Arbeitsbereich umwandelbar ist.System according to one of claims 19 to 29, characterized in that the starting position by the fixing device ( 42 ) of a control device ( 22 ) of the robot ( 12 ) can be queried and converted into a starting position for the real work area. System nach einem der Ansprüche 19 bis 30, dadurch gekennzeichnet, dass die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung (22) des Roboters (12) übermittelbar sind.System according to one of claims 19 to 30, characterized in that the defined movements as control commands in a control device ( 22 ) of the robot ( 12 ) are transferable. System nach einem der Ansprüche 19 bis 31, dadurch gekennzeichnet, dass ein Bestätigungselement (34) zur Bestätigung der ausgewählten Soll-Endstellung vor dem Umwandeln vorgesehen istSystem according to one of claims 19 to 31, characterized in that a confirmation element ( 34 ) is provided for confirmation of the selected target end position before the conversion
DE102005040714.5A 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot Expired - Fee Related DE102005040714B4 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102005040714.5A DE102005040714B4 (en) 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot
PCT/EP2006/008194 WO2007025658A1 (en) 2005-08-27 2006-08-21 Methods and system for establishing a sequence of movements for a robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005040714.5A DE102005040714B4 (en) 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot

Publications (2)

Publication Number Publication Date
DE102005040714A1 true DE102005040714A1 (en) 2007-03-08
DE102005040714B4 DE102005040714B4 (en) 2015-06-18

Family

ID=37027723

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005040714.5A Expired - Fee Related DE102005040714B4 (en) 2005-08-27 2005-08-27 Method and system for creating a movement sequence for a robot

Country Status (2)

Country Link
DE (1) DE102005040714B4 (en)
WO (1) WO2007025658A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202011000456U1 (en) 2011-02-28 2012-05-31 Kuka Systems Gmbh joining device
WO2014012919A1 (en) 2012-07-17 2014-01-23 Reis Group Holding Gmbh & Co. Kg Method for operating an industrial robot, and a secure monitoring device for carrying out said method
WO2015179099A1 (en) * 2014-05-21 2015-11-26 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008030774B4 (en) 2008-06-28 2013-03-07 Sikora Gmbh Method and device for the safety-oriented control of a material processing device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060108A (en) * 1999-06-18 2001-03-06 Agency Of Ind Science & Technol Device and method for teaching robot action
EP1215017A2 (en) * 2000-12-07 2002-06-19 Fanuc Ltd Robot teaching apparatus
DE10118514A1 (en) * 2001-04-16 2002-10-24 Vmt Bildverarbeitungssysteme G Method for stabilizing the working point for contactless 3D position detection of an object using digital cameras
US20030120391A1 (en) * 2001-12-25 2003-06-26 National Inst. Of Advanced Ind. Science And Tech. Robot operation teaching method and apparatus
DE10249786A1 (en) * 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referencing method for relating robot to workpiece, in medical applications, by relating reference point using x and y position data obtained from at least two images picked up using camera mounted on robot arm
EP1512499A2 (en) * 2003-09-02 2005-03-09 Fanuc Ltd Robot having a camera mounted at the distal end of its arm and method for operating such a robot
JP2005078406A (en) * 2003-09-01 2005-03-24 Nst:Kk Position teaching method using camera and display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61100809A (en) * 1984-10-22 1986-05-19 Toshiba Corp Three-dimensional teaching device of robot
US5339103A (en) * 1992-08-18 1994-08-16 Schmidt Robert H Part machining programming using a camera interchangeable with maching nozzle
DE19855885A1 (en) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Image processing method for digital photographic copier providing photographic prints
JP2000031693A (en) * 1998-07-10 2000-01-28 Sanyo Electric Co Ltd Electronic component sucking part teaching apparatus
US6304050B1 (en) * 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060108A (en) * 1999-06-18 2001-03-06 Agency Of Ind Science & Technol Device and method for teaching robot action
EP1215017A2 (en) * 2000-12-07 2002-06-19 Fanuc Ltd Robot teaching apparatus
DE10118514A1 (en) * 2001-04-16 2002-10-24 Vmt Bildverarbeitungssysteme G Method for stabilizing the working point for contactless 3D position detection of an object using digital cameras
US20030120391A1 (en) * 2001-12-25 2003-06-26 National Inst. Of Advanced Ind. Science And Tech. Robot operation teaching method and apparatus
DE10249786A1 (en) * 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referencing method for relating robot to workpiece, in medical applications, by relating reference point using x and y position data obtained from at least two images picked up using camera mounted on robot arm
JP2005078406A (en) * 2003-09-01 2005-03-24 Nst:Kk Position teaching method using camera and display method
EP1512499A2 (en) * 2003-09-02 2005-03-09 Fanuc Ltd Robot having a camera mounted at the distal end of its arm and method for operating such a robot

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202011000456U1 (en) 2011-02-28 2012-05-31 Kuka Systems Gmbh joining device
WO2014012919A1 (en) 2012-07-17 2014-01-23 Reis Group Holding Gmbh & Co. Kg Method for operating an industrial robot, and a secure monitoring device for carrying out said method
DE102012106448A1 (en) * 2012-07-17 2014-03-27 Reis Group Holding Gmbh & Co. Kg Method for operating an industrial robot and safe monitoring device for carrying out the method
CN104582911A (en) * 2012-07-17 2015-04-29 里斯集团控股有限责任两合公司 Method for operating an industrial robot, and a secure monitoring device for carrying out said method
DE102012106448B4 (en) * 2012-07-17 2016-03-31 Reis Group Holding Gmbh & Co. Kg Method for operating an industrial robot and safe monitoring device for carrying out the method
US9586324B2 (en) 2012-07-17 2017-03-07 Reis Group Holding Gmbh & Co. Kg Method for operating an industrial robot, and a secure monitoring device for carrying out said method
WO2015179099A1 (en) * 2014-05-21 2015-11-26 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation
US9555545B2 (en) 2014-05-21 2017-01-31 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation
CN107073708A (en) * 2014-05-21 2017-08-18 波特与多利有限责任公司 For when base parallel robot operation system and method
US9915937B2 (en) 2014-05-21 2018-03-13 X Development Llc Systems and methods for time-based parallel robotic operation

Also Published As

Publication number Publication date
WO2007025658A1 (en) 2007-03-08
DE102005040714B4 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
DE102007033486B4 (en) Method and system for mixing a virtual data model with an image generated by a camera or a presentation device
DE102018009023B4 (en) Teaching device for carrying out robot teaching processes and teaching methods
DE112010000794B4 (en) Method for controlling a robot tool
EP1521211B1 (en) Method and apparatus for determining the position and orientation of an image receiving device
EP2132608B1 (en) Method and device for controlling robots for welding workpieces
DE102005060967B4 (en) Method and device for setting up a trajectory of a robot device
DE102015000587B4 (en) A robot programming device for creating a robot program for taking an image of a workpiece
EP1604789A2 (en) Method and device for improving the positioning accuracy of a manipulator
DE102012220882B4 (en) System and method using a machining initialization block in a part program machining environment in a machine vision system
EP3578321B1 (en) Method for use with a machine for generating an augmented reality display environment
DE102009012590A1 (en) Device for determining the position of a robot arm with camera for taking pictures
DE102018107857A1 (en) Apparatus, system and method for automatically generating a motion path of a robot
EP2012208B1 (en) Programmable hand tool
DE10351669B4 (en) Method and device for controlling a handling device relative to an object
WO2018073244A1 (en) Image-based selection of technology for laser welding
DE102007029398A1 (en) Method and device for programming an industrial robot
DE102005040714B4 (en) Method and system for creating a movement sequence for a robot
DE102008062623B4 (en) Method and device for selecting a stored position of an operating point of a manipulator
EP1330686A2 (en) Method for generating a measuring program for a co-ordinate measuring device
DE102019007348A1 (en) Measurement program selection support device and measurement control device
DE102020211053A1 (en) Annotation device
DE102018124208B4 (en) Method and device for monitoring a laser machining process on a workpiece and the associated laser machining system
DE102007043632B4 (en) Industrial robot with a distance measuring device and method for measuring an object
WO2007090557A2 (en) Method for generating an environmental image
EP1471401B1 (en) Method for measurement of the coordinate system of a robot camera relative to the coordinate system of the robot or vice versa

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee