WO2007025658A1 - Verfahren und system zur erstellung eines bewegungsablaufes für einen roboter - Google Patents

Verfahren und system zur erstellung eines bewegungsablaufes für einen roboter Download PDF

Info

Publication number
WO2007025658A1
WO2007025658A1 PCT/EP2006/008194 EP2006008194W WO2007025658A1 WO 2007025658 A1 WO2007025658 A1 WO 2007025658A1 EP 2006008194 W EP2006008194 W EP 2006008194W WO 2007025658 A1 WO2007025658 A1 WO 2007025658A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
image
functional unit
end position
displayed
Prior art date
Application number
PCT/EP2006/008194
Other languages
English (en)
French (fr)
Inventor
Fan Dai
Sönke KOCK
Original Assignee
Abb Research Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Abb Research Ltd. filed Critical Abb Research Ltd.
Publication of WO2007025658A1 publication Critical patent/WO2007025658A1/de

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • G05B19/40931Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine concerning programming of geometry
    • G05B19/40932Shape input
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/41Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by interpolation, e.g. the computation of intermediate points between programmed end points to define the path to be followed and the rate of travel along that path
    • G05B19/4103Digital interpolation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40114From vision detected initial and user given final state, generate tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40519Motion, trajectory planning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the present invention relates to a method and a system for creating a movement sequence for a robot.
  • Industrial robots are handling devices that are machine-controlled and whose operation is programmable.
  • the programming of an industrial robot proves to be more difficult than the programming of an NC machine, as much more data must be made available. For example, it is necessary to record the work area of the robot as well as the position of the workpiece in this work area in terms of data and to incorporate it into the programming. Different methods have been developed to collect these data and their integration into the user program, which are briefly explained below.
  • the programming of the movement sequence is carried out by manually guiding the robot along the desired path.
  • the positions of the robot are transferred to the user program in a defined time or space frame.
  • the robot can follow the manually predetermined movement sequence by executing the user program by machine.
  • the known method has the disadvantage that the operator has to move in the working area of the robot restricted by the workpiece, whereby the programming becomes difficult, time-consuming and inaccurate.
  • the above methods are so-called direct methods, that is, the programming is performed using the robot system so that the robot is not available during the programming and subsequent test phase.
  • the so-called indirect methods have to be distinguished. These are characterized by the fact that the programming on control-independent computers takes place separately from the robot system. These require a computer model of the robot and the work area. The programming and the testing of the programming are thus shifted into the production planning, so that the robots can work unhindered.
  • CAD-supported programming methods In the indirect programming methods, essentially the textual programming methods in which the required geometry and movement data are entered via a keyboard, and the CAD-supported programming methods can be distinguished. The latter are based on the use of geometric models of the components involved in the manufacturing process. The modeling takes place using CAD systems, whereby functions are provided on a screen, which allow a definition of approaching positions and trajectories. It is then possible to graphically simulate the motion sequence of the robot. CAD-supported programming methods are characterized in particular by their clarity.
  • the present invention is therefore based on the object to provide a method for creating a sequence of motions for a robot, which is as simple, fast and inexpensive to carry out.
  • the object of the present invention is also to provide a system for creating a movement sequence for a robot, which has a simple and inexpensive construction and its handling is simplified.
  • the method of creating a motion sequence for a robot using a functional unit comprises the following method steps.
  • At least one image of the real working area of the robot is detected by means of an image capture device.
  • an image capture device for example, a digital camera can be used.
  • a target end position is selected using the functional unit.
  • the starting position or the target end position are all geometric information of the robot to understand that are necessary for the creation of robot motion sequences.
  • the starting position may be understood as meaning all information relating to the robot tool, the tool position, the robot axis limb, its orientation and the positions and orientation of the robot axes.
  • the selected target end position is directly converted to a target end position for the real workspace.
  • the method according to the invention can be carried out particularly quickly and cost-effectively, since no complicated analysis method with feature determination for analyzing the images is necessary for this purpose. Rather, an analysis is made solely by the visual perception of the image by the operator.
  • a sequence of movements for the robot is defined as a function of the starting position and the desired end position for the real working range.
  • the motion sequences it is necessary, for example, to specify exactly all information about the robot arm, that is to say in particular the spatial position of the robot axes and the robot axis legs, as well as of the robot tool. It is namely readily conceivable that a movement path of a tool from the starting position to the desired end position can be achieved by different robot motion sequences.
  • the lens error and the focal length of the image acquisition device are determined and the accuracy of the image of the mathematical methods on the basis of the detected lens error and the focal length increases.
  • the image capture device is arranged on the robot, preferably the wrist of the robot, wherein the relative position of the image capture device is determined to the tool receiving point of the robot.
  • At least two images of the real work area are acquired from different perspectives. This can be done for example by means of two image capture devices, this being e.g. a stereo camera or two conventional cameras. Based on the two images from different perspectives, a simple triangulation can be performed.
  • the images are displayed side by side on the functional unit. Consequently, no three-dimensional image is generated from the two images, so that the process can be carried out without cost-intensive and complex image processing.
  • the operator can set the target end position by optical examination of the two images and subsequent manual triangulation.
  • two image capture devices are used for detecting the at least two images. These are cheaper than, for example, a stereo camera system and easier to handle than a single camera that would need to be moved to capture two images from different perspectives.
  • the orientation of the image capture devices and the distance between the image capture devices is determined. In this way, the position of a point in the working area can be determined by triangulation.
  • the selected target end position is displayed in the image on the functional unit. In this way, a better verifiability of the selected target end positions is possible.
  • the display can be done for example by means of small crosses or dots in the image.
  • the images are retrievably stored.
  • the method steps (c) to (e) are repeated up to a predefinable termination criterion, wherein the desired end position of the preceding cycle is used as starting position for the following cycle.
  • This abort criterion can be, for example, the complete fulfillment of a given trajectory sequence. In this way, the creation of complex web sequences with a variety of individual movements in a particularly simple manner possible.
  • the method steps (c) to (f) or (c) to (e) are repeated until a desired end position is outside the field of view of one of the image capture devices, in which case the image capture devices repositioned and the process step (a) is carried out again. Following this, you can continue with the newly captured image.
  • the starting position is determined by querying a control device of the robot, wherein the interrogated starting position is converted into a starting position for the real working area. Again, this starting position is not in a starting position within converted half of a real work area, which is not necessary for the invention.
  • the orientation of a tool is selected for each desired end position with the aid of the functional unit. This may be done, for example, in the same way as setting the desired end position by selecting a second point in the image.
  • the selection of the desired end position on the displayed image is performed on the functional unit.
  • a graphics-assisted input device e.g. a so-called Graphical Teach Pendant Unit (GTPU)
  • GTPU Graphical Teach Pendant Unit
  • the defined motion sequences are transmitted as control commands in a control device of the robot.
  • the selection is confirmed.
  • the inventive system for creating a sequence of movements for a robot has a setting device for determining the starting position of the robot, at least one image capturing device for capturing at least one image of the real working region, a functional unit on which the image captured by the image capturing device can be displayed, wherein a target End of the robot can be selected in the displayed image, a conversion means for direct conversion of the selected target end position to a desired end position for the real work area and a programming device for setting the movement sequence between the starting position and the target end position.
  • the system according to the invention does not require a complex and expensive analysis unit for generating a virtual work area.
  • the target end positions can be converted directly into target end positions for the real work area, without first having to be converted into nominal end positions for a virtual work area.
  • the image capture device is arranged on the robot, preferably on the wrist of the robot, whereby the relative position of the image capture device to the tool acceptance point of the robot can be determined.
  • At least two image capture devices are provided for capturing two images from different perspectives.
  • the images can be displayed side by side on the functional unit.
  • the orientation of the image capture devices and the distance between the image capture devices can be determined.
  • the image capture devices are attached to a base part that is releasably attached to the robot.
  • the base part has an energy store for supplying the image capture devices.
  • the energy stores may be, for example, batteries. The embodiment thus ensures a wireless power supply.
  • the base part further comprises a transmission device for the wireless transmission of the took pictures.
  • the transmission device could be based for example on the so-called Bluetooth technology.
  • the selected target end position can be displayed in the image on the functional unit.
  • connecting lines between the selected and displayed nominal end positions can be displayed in the image on the functional unit.
  • a memory device for the retrievable storage of the images is provided.
  • the starting position can be interrogated by the setting device of a control device of the robot and converted into a starting position for the real work area.
  • the defined movement sequences can be transmitted as control commands in a control device of the robot.
  • a confirmation element for confirming the selected target end position is provided before the conversion. This may be, for example, a confirmation key.
  • FIG. 1 is a schematic representation of an embodiment of the system according to the invention
  • FIG. 2 is a perspective view of the arrangement of the image capture devices on the robot of FIG. 1;
  • FIG. 1 is a schematic representation of an embodiment of the system according to the invention
  • FIG. 2 is a perspective view of the arrangement of the image capture devices on the robot of FIG. 1;
  • FIG. 1 is a schematic representation of an embodiment of the system according to the invention
  • FIG. 2 is a perspective view of the arrangement of the image capture devices on the robot of FIG. 1;
  • Fig. 3 is an enlarged view of the two images of the real working area of Fig. 1 and
  • FIG. 4 shows a flowchart for explaining an embodiment of the method according to the invention.
  • FIGS. 1 and 2 the structure of the system for creating a motion sequence for a robot will be explained.
  • the system 2 initially comprises two image capture devices 4, 6 for capturing two images 8, 10 of the real working region of a robot 12.
  • the image capture devices 4, 6 are preferably simple digital cameras.
  • the two image capturing devices 4, 6 are arranged spaced apart from each other over a distance A and have different orientations, as indicated on the basis of the detection direction axes B and C of the image capturing devices 4, 6 in FIG. 2. In this way, the two images 8, 10 are captured from different perspectives. Both the distance A and the orientation of the sense direction axes B, C can be determined.
  • the image capturing devices 4, 6 are arranged on an elongated base part 14, which is detachably attached to the wrist 16 of the robot 12. Thus, the relative position of the image capture devices 4, 6 to the tool acquisition point (tool center point) of the robot 12 can be determined.
  • the base part 14 further receives an energy store 18, which in the present example is formed by one or more batteries which supply the two image capture devices 4, 6 with power.
  • the two image capturing devices 4, 6 are furthermore connected to a transmission device 20 arranged on the base part 14 for the wireless transmission of the captured images 8, 10, wherein in the present embodiment the so-called Bluetooth technology is used.
  • the image capture devices 4, 6 are connected to a robot controller 22, as indicated by the line 24, so that the parameters of the image capture devices 4, 6, in particular the lens aberration and the focal length, can be registered in the robot controller 22.
  • the robot controller 22 can be connected to an external arrangement 26, as indicated by the line 28.
  • the external arrangement 26 has a functional unit 30, which is designed as a so-called Graphical Teach Pendant Unit (GTPU).
  • the functional unit 30 has a screen 32, on which the two images 8, 10 can be displayed side by side, as shown in particular enlarged again in Fig. 3.
  • a confirmation element 34 is also provided in the form of a key.
  • the arrangement 26 further comprises a conversion device 36, a programming device 38, a storage device 40 and a fixing device 42, which cooperate with the functional unit 30, as indicated by the double arrows 44 to 50, and whose function will be described later with reference to the invention. The method according to the invention is explained.
  • the arrangement 26 also has a receiving device 52, which can receive the images 8, 10 transmitted by the transmission device 20, as indicated by the dashed arrow 54.
  • a first method step S1 the image capture devices 4, 6 each capture an image, so that there are two images 8, 10 of the real working region, which is provided with the reference numeral 56 in FIG. 2, which were taken from different perspectives.
  • a joint 58 is arranged between two workpieces in the working area 56, which is to be welded and has a curved course.
  • the accuracy of the images 8, 10 is increased by means of a mathematical method based on the focal lengths and lens aberrations registered in the robot controller 22 in order subsequently to transmit the data underlying the images 8, 10 via the transmission device 20 to the receiver 52 of the device 26 send.
  • the images 8, 10 are stored on the one hand in the memory device 40 on the one hand in a subsequent method step S2 and on the other hand displayed on the screen 32 of the functional unit 30.
  • the two images 8, 10 are displayed side by side on the screen 32 of the functional unit 26.
  • the images 8, 10 are not supplied to any analysis unit in order to generate a virtual workspace beforehand by means of feature recognition or the like.
  • a starting position of the robot 12 is determined with the aid of the setting device 42, in that the current position or a predefined starting position of the robot 12 is queried by the robot controller 22 via the setting device 42 and the line 28.
  • the retrieved starting position is converted directly to a starting position for the real working range, i. a conversion of the queried position of the robot into a position within a virtual work area is omitted.
  • a desired end position with the aid of the functional unit 30 or the GTPU. This is done by the operator touching a corresponding point on the image 8 and 10 displayed on the functional unit 30 with a dedicated pin 60 of the GTPU, as indicated in FIG. In the present example, the operator in each case touches a point in the region of the illustrated joint 58 on both images 8 and 10. Furthermore, the operator can also determine the orientation of the tool in the selected target end position with the aid of the functional unit 30 (not shown). The desired end position selected in FIGS. 8, 10 is canceled by means of a cross or the like. displayed on the screen 32 of the functional unit 30 so that the operator has a visual feedback. If the operator agrees with the choice, he must confirm this by pressing the confirmation element 34 before proceeding to the next step S5.
  • step S5 the selected target end position is converted by the conversion device 36 directly into a target end position for the real work area, wherein the storage of the thus converted target end position in the converter 36 can take place. According to the selected target end position thus not converted to a target end position in a virtual workspace, which greatly simplifies the process.
  • step S6 the operator determines, using the programming device 38, the sequence of movements for the robot 12 between the start position and the target end position for the real working area.
  • the images 8, 10 on the screen 32 of the functional unit 30 the corresponding connecting lines between the start position and the target end position are displayed.
  • a query is performed in method step S7, namely whether a predetermined termination criterion is met. This abort criterion is met if the operator confirms by appropriate input that the programming has ended. If, on the other hand, the operator confirms that the selection of further setpoint end positions is to be continued, the method is resumed with method step S3, the setpoint end position of the preceding cycle being used as starting position for the following cycle. If the operator confirms the end of the programming, proceed to step S8.
  • step S7 it can also be queried whether the desired next target end position lies outside the field of view of one of the image capture devices 4, 6 and thus outside of one of the images 8, 10. If the operator confirms this, the robot 12 to which the image capturing devices 4, 6 are attached is first repositioned before the process is resumed at step S1. In this way, even very large work area, albeit only in stages, can be detected.
  • the defined movement sequences are transmitted as control commands via the line 28 to the robot controller 22, which can then operate the robot 12 in the defined manner.
  • the base member 14 can be removed again from the wrist 16 of the robot 12 so that it does not hinder the process.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Robotics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Die vorliegende Erfindung betrifft Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit mit den Verfahrensschritten (S1) Erfassen mindestens eines Bildes des realen Arbeitsbereiches des Roboters durch mindestens eine Bilderfassungseinrichtung, (S2) Anzeigen des Bildes auf der Funktionseinheit, (S3) Festlegen einer Startstellung des Roboters, (S4) Auswählen einer Soll-Endstellung mit Hilfe der Funktionseinheit, (S5) Direktes Umwandeln der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und (S6) Festlegen des Bewegungsablaufes für den Roboter in Abhängigkeit von der Startstellung und der Soll-Endstellung für den realen Arbeitsbereich. Die vorliegende Erfindung betrifft ferner ein System zur Erstellung eines Bewegungsablaufes für einen Roboter.

Description

Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter
Beschreibung
Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Erstellung eines Bewegungsablaufes für einen Roboter.
Industrieroboter sind Handhabungsgeräte, die maschinell gesteuert werden und deren Arbeitsablauf programmierbar ist. Die Programmierung eines Industrieroboters erweist sich im Vergleich zu der Programmierung einer NC-Maschine als schwieriger, da wesentlich mehr Daten zur Verfügung gestellt werden müssen. So ist es beispielsweise nötig, den Arbeitsbereich des Roboters sowie die Position des Werkstückes in diesem Arbeitsbereich datenmäßig zu erfassen und in die Programmierung einzuarbeiten. Zur Erfassung dieser Daten und deren Einbindung in das Anwenderprogramm wurden unterschiedliche Verfahren entwickelt, die nachstehend kurz erläutert werden.
Bei dem so genannten Play-Back-Verfahren wird die Programmierung des Bewegungsablaufes durch manuelles Führen des Roboters entlang der gewünschten Bahn durchgeführt. Dabei werden die Stellungen des Roboters in einem definierten Zeit- oder Wegraster in das Anwenderprogramm übernommen. Anschließend kann der Roboter den manuell vorgegebenen Bewegungsablauf unter Ausführung des Anwenderprogramms maschinell angetrieben nachvollziehen. Das bekannte Verfahren hat den Nachteil, dass sich die Bedienungsperson in dem durch das Werkstück eingeschränkten Arbeitsbereich des Roboters bewegen muss, wodurch die Programmierung schwierig, zeitintensiv und ungenau wird.
Eine Verbesserung gegenüber dem vorstehend genannten Verfahren wird durch die Teach-In-Programmierung erzielt. Bei dieser wird die Bewegungsinformation durch Anfahren der gewünschten Raumpunkte mit Hilfe eines Programmierhandgerätes oder Bedienfelds und der Übernahme dieser Punkte durch Betätigen einer Funktionstaste erstellt. Darüber hinaus können über das Programmierhandgerät weitere Bewegungsanweisungen, wie beispielsweise Geschwindigkeits- und Beschleunigungsvorgaben oder die Steuerungsart (Punkt-zu-Punkt- oder Bahnsteuerung), eingegeben werden.
Die vorstehend genannten Verfahren sind so genannte direkte Verfahren, das heißt, die Programmierung erfolgt unter Verwendung des Robotersystems, so dass der Roboter während der Programmierung und der nachfolgenden Testphase nicht zur Verfügung steht. Hiervon sind die so genannten indirekten Verfahren zu unterscheiden. Diese zeichnen sich dadurch aus, dass die Programmierung auf steuerungsunabhängigen Rechnern getrennt von dem Robotersystem erfolgt. Diese erfordern ein Rechnermodell des Roboters und des Arbeitsbereiches. Die Programmierung und das Testen der Programmierung sind somit in die Fertigungsplanung verlagert, so dass die Roboter ungehindert arbeiten können.
Bei den indirekten Programmierverfahren können im Wesentlichen die textuellen Programmierverfahren, bei denen die erforderlichen Geometrie- und Bewegungsdaten über eine Tastatur eingegeben werden, und die CAD-unterstützten Programmierverfahren unterschieden werden. Letztere basieren auf der Nutzung geometrischer Modelle der am Fertigungsprozess beteiligten Komponenten. Die Modellierung erfolgt hierbei unter Verwendung von CAD-Systemen, wobei auf einem Bildschirm Funktionen zur Verfügung gestellt werden, die eine Festlegung von anzufahrenden Positionen sowie Verfahrwegen ermöglichen. Es ist anschließend möglich den Bewegungsablauf des Roboters grafisch zu simulieren. CAD-unterstützte Programmierverfahren zeichnen sich insbesondere durch ihre Anschaulichkeit aus.
Zur Erfassung der Daten des Arbeitsbereiches und des darin angeordneten Werkstückes werden heutzutage vermehrt Bilderfassungsgeräte, wie beispielsweise Kameras, eingesetzt, deren Bilder als Grundlage zur Erzeugung eines virtuellen Arbeitsbereiches verwendet werden. An Hand des virtuellen Arbeitsbereiches kann dann die Programmierung vorgenommen werden. Die bekannten Systeme und Verfahren zur Erfassung des Arbeitsbereiches mit Hilfe von Bilderfassungsgeräten sind jedoch aufwendig und kostspielig. Der vorliegenden Erfindung liegt daher die Aufgabe zu Grunde, ein Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter anzugeben, das möglichst einfach, schnell und kostengünstig durchführbar ist. Die Aufgabe der vorliegenden Erfindung besteht darüber hinaus darin, ein System zur Erstellung eines Bewegungsablaufes für einen Roboter zu schaffen, das einen einfachen und kostengünstigen Aufbau hat und dessen Handhabung vereinfacht ist.
Diese Aufgabe wird durch die in den Patentansprüchen 1 bzw. 20 angegebene Merkmale gelöst. Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
Das Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit weist die folgenden Verfahrensschritte auf.
(a) Zunächst wird mindestens ein Bild des realen Arbeitsbereiches des Roboters mit Hilfe einer Bilderfassungseinrichtung erfasst. Hierbei kann beispielsweise eine Digitalkamera zum Einsatz kommen.
(b) Anschließend wird das mindestens eine Bild auf der Funktionseinheit angezeigt. Es ist also nicht erforderlich, das Bild des realen Arbeitsbereiches zu analysieren, um einen virtuellen Arbeitsbereich zu erzeugen.
(c) Es wird ferner eine Startstellung des Roboters festgelegt.
(d) Im Anschluss daran wird eine Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt. Unter der Startstellung bzw. der Soll-Endstellung sind dabei alle geometrischen Angaben des Roboters zu verstehen, die für die Erstellung von Roboterbewegungsabläufen notwendig sind. So kann es beispielsweise in einem einfachen Fall, in dem der Roboter lediglich eine Aufgabe im zweidimensionalen Bereich auszuführen hat, ausreichen, als Startstellung den Endpunkt des Roboterarmes sowie die Richtung des am Roboterarm befestigten Werkzeugs zu bestimmten, also letztlich zwei Punkte am Roboter bzw. an dem Werkzeug zu bestimmen. In anderen Fällen, insbesondere bei dreidimensionalen Bewegungsabläufen, sind unter der Startstellung gegebenenfalls alle Informationen bezüglich des Roboterwerkzeugs, der Werkzeugstellung, der Roboterachsschenkel, deren Orientierung und der Positionen und Orientierung der Roboterachsen zu verstehen. (e) Schließlich wird die ausgewählte Soll-Endstellung direkt in eine Soll-Endstellung für den realen Arbeitsbereich umgewandelt. Dies bedeutet, dass die ausgewählte Soll- Endstellung nicht zunächst in eine Soll-Endstellung in einem virtuellen Arbeitsbereich umgewandelt wird, bevor die Soll-Endstellung in dem virtuellen Arbeitsbereich erneut umgewandelt wird. Vielmehr kann bei dem erfindungsgemäßen Verfahren - wie bereits oben erwähnt - auf die Erzeugung und Verwendung eines virtuellen Arbeitsbereiches verzichtet werden. Dies führt dazu, dass das erfindungsgemäße Verfahren besonders schnell und kostengünstig durchführbar ist, da hierfür keine aufwendiges Analyseverfahren mit Merkmalsermittlung zur Analyse der Bilder notwendig ist. Vielmehr wird eine Analyse allein durch die visuelle Wahrnehmung des Bildes durch die Bedienungsperson vorgenommen.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird (f) ein Bewegungsablauf für den Roboter in Abhängigkeit von der Startstellung und der Soll- Endstellung für den realen Arbeitsbereich festgelegt. Für das Festlegen der Bewegungsabläufe ist es beispielsweise notwendig, alle Angaben über den Roboterarm, also insbesondere die räumliche Position der Roboterachsen und der Roboterachsschenkel sowie des Roboterwerkzeuges genau festzulegen. Es ist nämlich ohne weiteres denkbar, dass eine Bewegungsbahn eines Werkzeuges von der Startstellung in die Soll- Endstellung durch unterschiedliche Roboterbewegungsabläufe erreicht werden kann. Für die Erstellung von Roboterbewegungsabläufen bedeutet dies, dass eine Selektion nach objektiven Kriterien aus den möglichen Roboterbewegungsabläufen getroffen wird, beispielsweise auf Grund eines zeitlichen Kriteriums oder eines Kriteriums, nach dem eine möglichst geringe Belastung der Roboterachsen gegeben sein soll. Es ist aber auch innerhalb des Erfindungsgedankens, wenn die Festlegung des Bewegungsgutachtens erst erfolgt, wenn alle Soll- Endstellungen eingegeben sind. In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird kein virtueller Arbeitsbereich aus dem Bild des realen Arbeitsbereiches erzeugt.
Um die Genauigkeit des durch das Verfahren erstellten Bewegungsablaufes für den Roboter zu erhöhen, wird in einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens vor dem Anzeigen des Bildes auf der Funktionseinheit der Linsenfehler und die Brennweite der Bilderfassungseinrichtung ermittelt und die Genauigkeit des BiI- des mit Hilfe mathematischer Methoden unter Zugrundelegung des ermittelten Linsenfehlers sowie der Brennweite erhöht.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird die Bilderfassungseinrichtung an dem Roboter, vorzugsweise dem Handgelenk des Roboters, angeordnet, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt wird.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden mindestens zwei Bilder des realen Arbeitsbereiches aus unterschiedlichen Perspektiven erfasst. Dies kann beispielsweise mit Hilfe zweier Bilderfassungseinrichtungen erfolgen, wobei dies z.B. eine Stereokamera oder zwei herkömmliche Kameras sein können. Auf Basis der beiden Bilder aus unterschiedlichen Perspektiven kann eine einfache Triangulation durchgeführt werden.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Bilder nebeneinander auf der Funktionseinheit angezeigt. Es wird demzufolge kein dreidimensionales Abbild aus den beiden Bildern erzeugt, so dass das Verfahren ohne eine kostenintensive und aufwendige Bildverarbeitung durchgeführt werden kann. Die Bedienungsperson kann die Soll-Endstellung durch optische Prüfung der beiden Bilder und nachfolgendem manuellen Triangulieren festlegen.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden zwei Bilderfassungseinrichtungen zum Erfassen der mindestens zwei Bilder verwendet. Diese sind günstiger als beispielsweise ein Stereokamerasystem und einfacher zu handhaben als eine einzelne Kamera, die verfahren werden müsste, um zwei Bilder aus unterschiedlichen Perspektiven zu erfassen.
In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt. Auf diese Weise kann die Lage eines Punktes im Arbeitsbereich durch Triangulation ermittelt werden. In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens wird die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt. Auf diese Weise ist eine bessere Überprüfbarkeit der ausgewählten Soll-Endstellungen möglich. Das Anzeigen kann beispielsweise mittels kleiner Kreuze oder Punkte in dem Bild erfolgen.
Der vorgenannte Vorteil ist in einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens noch verstärkt, bei der Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Bilder abrufbar gespeichert.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die Verfahrensschritte (c) bis (e) bis zu einem vorgebbaren Abbruchkriterium wiederholt, wobei als Startstellung für den folgenden Zyklus die Soll-Endstellung des vorangehenden Zyklus verwendet wird. Dieses Abbruchkriterium kann beispielsweise die vollständige Erfüllung einer vorgegebenen Bewegungsbahnabfolge sein. Auf diese Weise wird auch die Erstellung von komplexen Bahnfolgen mit einer Vielzahl von Einzelbewegungen auf besonders einfache Weise möglich.
In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden die Verfahrensschritte (c) bis (f) oder (c) bis (e) so lange wiederholt, bis eine Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen liegt, wobei dann die Bilderfassungseinrichtungen neu positioniert und der Verfahrensschritt (a) erneut durchgeführt wird. Im Anschluss daran kann mit dem neu erfassten Bild fortgefahren werden.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens erfolgt das Festlegen der Startstellung durch Abfragen einer Steuerungsvorrichtung des Roboters, wobei die abgefragte Startstellung in eine Startstellung für den realen Arbeitsbereich umgewandelt wird. Auch hier wird diese Startstellung nicht in eine Startstellung inner- halb eines realen Arbeitsbereiches umgewandelt, der für die Erfindung nicht notwendig ist.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird die Orientierung eines Werkzeuges für jede Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt. Dies kann beispielsweise auf dieselbe Weise erfolgen, wie das Festlegen der Soll-Endstellung, indem ein zweiter Punkt in dem Bild ausgewählt wird.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird das Auswählen der Soll-Endstellung auf dem angezeigten Bild auf der Funktionseinheit vorgenommen. Hier kann vorteilhafterweise z.B. ein grafikunterstütztes Eingabegerät, eine so genannte Graphical Teach Pendant Unit (GTPU), als Funktionseinheit verwendet werden. Mit diesem Eingabegerät sind sowohl die Bilder des realen Arbeitsraumes als auch die durch Berührung ausgewählten Soll-Endstellungen anzeigbar.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt.
Um Fehler bei dem Auswählen der Soll-Endstellungen zu vermeiden, wird in einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens vor dem Umwandeln der ausgewählten Soll-Endstellung die Auswahl bestätigt.
Nachfolgend wird das erfindungsgemäße System beschrieben, wobei bezüglich der Vorteile auf die obige Beschreibung des erfindungsgemäßen Verfahrens verwiesen sei, die-entsprechend gelten.
Das erfindungsgemäße System zur Erstellung eines Bewegungsablaufes für einen Roboter weist eine Festlegungseinrichtung zur Festlegung der Startstellung des Roboters, mindestens eine Bilderfassungseinrichtung zur Erfassung mindestens eines Bildes des realen Arbeitsbereiches, eine Funktionseinheit, auf der das durch die Bilderfassungseinrichtung erfasste Bild angezeigt werden kann, wobei eine Soll-Endstellung des Roboters in dem angezeigten Bild ausgewählt werden kann, eine Umwandlungseinrichtung zur direkten Umwandlung der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und eine Programmiereinrichtung zum Festlegen des Bewegungsablaufes zwischen der Startstellung und der Soll-Endstellung auf. Das erfindungsgemäße System benötigt keine aufwendige und teure Analyseeinheit zur Erzeugung eines virtuellen Arbeitsbereiches. So können die Soll-Endstellungen direkt in Soll- Endstellungen für den realen Arbeitsbereich umgewandelt werden, ohne vorher in Soll- Endstellungen für einen virtuellen Arbeitsbereich umgewandelt werden zu müssen.
In einer bevorzugten Ausführungsform des erfindungsgemäßen Systems ist die Bilderfassungseinrichtung an dem Roboter, vorzugsweise an dem Handgelenk des Roboters, angeordnet, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt werden kann.
In einer bevorzugten Ausführungsform des erfindungsgemäßen Systems sind mindestens zwei Bilderfassungseinrichtungen zur Erfassung von zwei Bildern aus unterschiedlichen Perspektiven vorgesehen.
In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems können die Bilder nebeneinander auf der Funktionseinheit angezeigt werden.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems kann die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt werden.
In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems sind die Bilderfassungseinrichtungen an einem Basisteil befestigt, das lösbar an dem Roboter befestigt ist.
In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Systems weist das Basisteil einen Energiespeicher zur Versorgung der Bilderfassungseinrichtungen auf. Bei den Energiespeichern kann es sich beispielsweise um Batterien handeln. Die Ausführungsform gewährleistet somit eine kabellose Energiezufuhr.
In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Systems weist das Basisteil ferner eine Übertragungseinrichtung zur kabellosen Übertragung der er- fassten Bilder auf. Die Übertragungseinrichtung könnte beispielsweise auf der so genannten Bluetooth-Technik basieren.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems kann die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt werden.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Systems können Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems ist eine Speichereinrichtung zur abrufbaren Speicherung der Bilder vorgesehen.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Systems kann die Startstellung durch die Festlegungseinrichtung von einer Steuerungsvorrichtung des Roboters abgefragt und in eine Startstellung für den realen Arbeitsbereich umgewandelt werden.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Systems können die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt werden.
In einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Systems ist ein Bestätigungselement zur Bestätigung der ausgewählten Soll-Endstellung vor dem Umwandeln vorgesehen. Hierbei kann es sich beispielsweise um eine Bestätigungstaste handeln.
Die Erfindung wird im Folgenden an Hand von beispielhaften Ausführungsformen unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Systems, Fig. 2 eine perspektivische Darstellung der Anordnung der Bilderfassungseinrichtungen an dem Roboter von Fig. 1 ,
Fig. 3 eine vergrößerte Darstellung der beiden Bilder des realen Arbeitsbereiches von Fig. 1 und
Fig. 4 ein Ablaufdiagramm zur Erläuterung einer Ausführungsform des erfindungsgemäßen Verfahrens.
Nachstehend wird bezugnehmend auf die Fig. 1 und 2 zunächst der Aufbau des Systems zur Erstellung eines Bewegungsablaufes für einen Roboter erläutert.
Das System 2 umfasst zunächst zwei Bilderfassungseinrichtungen 4, 6 zur Erfassung zweier Bilder 8, 10 des realen Arbeitsbereiches eines Roboters 12. Bei den Bilderfassungseinrichtungen 4, 6 handelt es sich vorzugsweise um einfache Digitalkameras. Die beiden Bilderfassungseinrichtungen 4, 6 sind über einen Abstand A voneinander beabstandet angeordnet und weisen unterschiedliche Orientierungen auf, wie dies an Hand der Erfassungsrichtungsachsen B und C der Bilderfassungseinrichtungen 4, 6 in Fig. 2 angedeutet ist. Auf diese Weise werden die beiden Bilder 8, 10 aus unterschiedlichen Perspektiven erfasst. Sowohl der Abstand A als auch die Orientierung der Erfassungsrichtungsachsen B, C kann ermittelt werden.
Die Bilderfassungseinrichtungen 4, 6 sind an einem lang gestreckten Basisteil 14 angeordnet, das lösbar an dem Handgelenk 16 des Roboters 12 befestigt ist. Somit ist die relative Position der Bilderfassungseinrichtungen 4, 6 zu dem Werkzeugaufnahmepunkt (tool center point) des Roboters 12 ermittelbar. Das Basisteil 14 nimmt ferner einen E- nergiespeicher 18 auf, der im vorliegenden Beispiel von einer oder mehreren Batterien gebildet ist, die die beiden Bilderfassungseinrichtungen 4, 6 mit Strom versorgen. Die beiden Bilderfassungseinrichtungen 4, 6 sind ferner mit einer auf dem Basisteil 14 angeordneten Übertragungseinrichtung 20 zur kabellosen Übertragung der erfassten Bilder 8, 10 verbunden, wobei in der vorliegenden Ausführungsform die so genannte Bluetooth-Technik verwendet wird. Die Bilderfassungseinrichtungen 4, 6 sind mit einer Robotersteuerung 22 verbunden, wie dies an Hand der Leitung 24 angedeutet ist, so dass die Parameter der Bilderfassungseinrichtungen 4, 6, insbesondere der Linsenfehler und die Brennweite, in der Robotersteuerung 22 registriert werden können.
Die Robotersteuerung 22 ist mit einer externen Anordnung 26 verbindbar, wie dies an Hand der Leitung 28 angedeutet ist. Die externe Anordnung 26 weist eine Funktionseinheit 30 auf, die als so genannte Graphical Teach Pendant Unit (GTPU) ausgebildet ist. Die Funktionseinheit 30 weist einen Bildschirm 32 auf, auf dem die beiden Bilder 8, 10 nebeneinander angezeigt werden können, wie dies insbesondere noch einmal in Fig. 3 vergrößert dargestellt ist. An der Funktionseinheit 30 ist ferner ein Bestätigungselement 34 in Form einer Taste vorgesehen.
Die Anordnung 26 umfasst weiterhin eine Umwandlungseinrichtung 36, eine Programmiereinrichtung 38, eine Speichereinrichtung 40 und eine Festlegungseinrichtung 42, die mit der Funktionseinheit 30 zusammenwirken, wie dies an Hand der Doppelpfeile 44 bis 50 angedeutet ist, und deren Funktion später unter Bezugnahme auf das erfin- dungsgemäße Verfahren erläutert wird. Die Anordnung 26 weist außerdem eine Empfangseinrichtung 52 auf, die die von der Übertragungseinrichtung 20 übertragenen Bilder 8, 10 empfangen kann, wie dies an Hand des gestrichelten Pfeils 54 angedeutet ist.
Nachfolgend wird das dem oben beschriebenen System zu Grunde liegende erfindungsgemäße Verfahren unter Bezugnahme auf Fig. 4 beschrieben.
In einem ersten Verfahrensschritt S1 erfassen die Bilderfassungseinrichtungen 4, 6 jeweils ein Bild, so dass zwei Bilder 8, 10 des realen Arbeitsbereiches, der in Fig. 2 mit dem Bezugszeichen 56 versehen ist, vorhanden sind, die aus unterschiedlichen Perspektiven aufgenommen wurden. Im vorliegenden Beispiel ist eine Fuge 58 zwischen zwei Werkstücken in dem Arbeitsbereich 56 angeordnet, die verschweißt werden soll und einen kurvenförmigen Verlauf aufweist. Die Genauigkeit der Bilder 8, 10 wird an Hand der in der Robotersteuerung 22 registrierten Brennweiten und Linsenfehler mit Hilfe einer mathematischen Methode erhöht, um die den Bildern 8, 10 zu Grunde liegenden Daten anschließend über die Übertragungseinrichtung 20 an die Empfangseinrichtung 52 der Anordnung 26 zu senden. Innerhalb der Anordnung 26 werden die Bilder 8, 10 in einem anschließenden Verfahrensschritt S2 einerseits in der Speichereinrichtung 40 abrufbar gespeichert und andererseits auf dem Bildschirm 32 der Funktionseinheit 30 angezeigt. Wie bereits unter Bezugnahme auf das System erläutert, werden die beiden Bilder 8, 10 nebeneinander auf dem Bildschirm 32 der Funktionseinheit 26 angezeigt. Die Bilder 8, 10 werden also keinerlei Analyseeinheit zugeführt, um zuvor mit Hilfe einer Merkmalserkennung o.a. einen virtuellen Arbeitsbereich zu erzeugen.
Im Verfahrensschritt S3 wird mit Hilfe der Festlegungseinrichtung 42 eine Startstellung des Roboters 12 festgelegt, indem die derzeitige Stellung oder eine vorgegebene Ausgangsstellung des Roboters 12 über die Festlegungseinrichtung 42 und die Leitung 28 von der Robotersteuerung 22 abgefragt wird. Die abgefragte Startstellung wird direkt in eine Startstellung für den realen Arbeitsbereich umgewandelt, d.h. es unterbleibt eine Umwandlung der abgefragten Stellung des Roboters in eine Stellung innerhalb eines virtuellen Arbeitsbereiches.
In einem darauf folgenden Verfahrensschritt S4 wählt die Bedienungsperson eine Soll- Endstellung mit Hilfe der Funktionseinheit 30 bzw. der GTPU aus. Dies erfolgt, indem die Bedienungsperson mit einem dafür vorgesehenen Stift 60 des GTPU einen entsprechenden Punkt auf dem auf der Funktionseinheit 30 angezeigten Bild 8 und 10 berührt, wie dies in Fig. 3 angedeutet ist. Im vorliegenden Beispiel berührt die Bedienungsperson jeweils einen Punkt im Bereich der dargestellten Fuge 58 auf beiden Bildern 8 und 10. Femer kann die Bedienungsperson ebenfalls die Orientierung des Werkzeuges in der gewählten Soll-Endstellung mit Hilfe der Funktionseinheit 30 festlegen (nicht dargestellt). Die in dem Bild 8, 10 gewählte Soll-Endstellung wird mit Hilfe eines Kreuzes o.a. auf dem Bildschirm 32 der Funktionseinheit 30 angezeigt, so dass die Bedienungsperson eine visuelle Rückmeldung hat. Ist die Bedienungsperson mit der Wahl einverstanden, so muss sie dies durch Drücken des Bestätigungselementes 34 bestätigen, bevor mit dem nächsten Verfahrensschritt S5 fortgefahren wird.
Im Schritt S5 wird die ausgewählte Soll-Endstellung durch die Umwandlungseinrichtung 36 direkt in eine Soll-Endstellung für den realen Arbeitsbereich umgewandelt, wobei die Speicherung der somit umgewandelten Soll-Endstellung in der Umwandlungseinrichtung 36 erfolgen kann. Erfindungsgemäß wird die ausgewählte Soll-Endstellung somit nicht in eine Soll-Endstellung in einem virtuellen Arbeitsbereich umgewandelt, was das Verfahren wesentlich vereinfacht.
Im Verfahrensschritt S6 legt die Bedienungsperson unter Verwendung der Programmiereinrichtung 38 den Bewegungsablauf für den Roboter 12 zwischen der Startstellung und der Soll-Endstellung für den realen Arbeitsbereich fest. In den Bildern 8, 10 auf dem Bildschirm 32 der Funktionseinheit 30 werden die entsprechenden Verbindungslinien zwischen der Startstellung und der Soll-Endstellung angezeigt.
Anschließend wird im Verfahrensschritt S7 eine Abfrage durchgeführt, nämlich ob ein vorgegebenes Abbruchkriterium erfüllt ist. Dieses Abbruchkriterium ist erfüllt, wenn die Bedienungsperson durch entsprechende Eingabe bestätigt, dass die Programmierung beendet ist. Bestätigt die Bedienungsperson hingegen, dass mit der Auswahl weiterer Soll-Endstellungen fortgefahren werden soll, so wird das Verfahren mit dem Verfahrensschritt S3 wieder aufgenommen, wobei als Startstellung für den folgenden Zyklus die Soll-Endstellung des vorangehenden Zyklus verwendet wird. Bestätigt die Bedienungsperson das Ende der Programmierung, so wird mit Schritt S8 fortgefahren.
In Fig. 4 ist ferner ein weiteres Merkmal des Verfahrens an Hand des gestrichelten Pfeils angedeutet. So kann in Schritt S7 ferner abgefragt werden, ob die gewünschte nächste Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen 4, 6 und somit außerhalb eines der Bilder 8, 10 liegt. Bestätigt die Bedienungsperson dies, so wird der Roboter 12, an dem die Bilderfassungseinrichtungen 4, 6 befestigt sind, zunächst neu positioniert, bevor das Verfahren wieder bei Schritt S1 aufgenommen wird. Auf diese Weise können auch besonders große Arbeitsbereich, wenn auch nur etappenweise, erfasst werden.
Im Verfahrensschritt S8 werden die festgelegten Bewegungsabläufe als Steuerungsbefehle über die Leitung 28 an die Robotersteuerung 22 übermittelt, die daraufhin den Roboter 12 in der festgelegten Weise betreiben kann. Das Basisteil 14 kann wieder von dem Handgelenk 16 des Roboters 12 entfernt werden, so dass es den Prozess nicht behindert. Bezuqszeichenliste
2 System zur Erstellung des Bewegungsablaufes
4, 6 Bilderfassungseinrichtungen
8, 10 Bilder des realen Arbeitsbereiches
12 Roboter
14 Basisteil
16 Handgelenk des Roboters
18 Energiespeicher
20 Übertragungseinrichtung
22 Robotersteuerung
24 Leitung
26 Anordnung
28 Leitung
30 Funktionseinheit
32 Bildschirm
34 Bestätigungselement
36 Umwandlungseinrichtung
38 Programmiereinrichtung
40 Speichereinrichtung
42 Festlegungseinrichtung
44 - 50 Doppelpfeile
52 Empfangseinrichtung
54 gestrichelter Pfeil
56 Arbeitsbereich
58 Fuge
60 Stift
A Abstand
B1 C Erfassungsrichtungsachsen
S1-S7 Verfahrensschritte

Claims

Patentansprüche
1. Verfahren zur Erstellung eines Bewegungsablaufes für einen Roboter unter Verwendung einer Funktionseinheit mit den Verfahrensschritten
a) Erfassen mindestens eines Bildes des realen Arbeitsbereiches des Roboters durch mindestens eine Bilderfassungseinrichtung,
b) Anzeigen des mindestens einen Bildes auf der Funktionseinheit,
c) Festlegen einer Startstellung des Roboters,
d) Auswählen einer Soll-Endstellung mit Hilfe der Funktionseinheit, der mindestens ein Bild und
e) Direktes Umwandeln der ausgewählten Soll-Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Erzeugung einen virtuellen Arbeitsbereichs aus dem Bild des realen Arbeitsbereiches vermieden wird.
3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass vor dem Anzeigen des Bildes auf der Funktionseinheit der Linsenfehler und die Brennweite der Bilderfassungseinrichtung ermittelt und die Genauigkeit des Bildes mit Hilfe mathematischer Methoden unter Zugrundelegung des ermittelten Linsenfehlers sowie der Brennweite erhöht wird.
4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung an dem Roboter, vorzugsweise dem Handgelenk des Roboters, angeordnet wird, wobei die relative Position der Bilderfassungseinrichtung zu dem Werkzeugaufnahmepunkt des Roboters ermittelt wird.
5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens zwei Bilder des realen Arbeitsbereiches aus unterschiedlichen Perspektiven erfasst werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Bilder nebeneinander auf der Funktionseinheit angezeigt oder auf deren Basis ein dreidimensionales Bild ermittelt wird.
7. Verfahren nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass zwei Bilderfassungseinrichtungen zum Erfassen der mindestens zwei Bilder verwendet werden.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Orientierung der Bilderfassungseinrichtungen sowie der Abstand zwischen den Bilderfassungseinrichtungen ermittelt wird.
9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die ausgewählte Soll-Endstellung in dem Bild auf der Funktionseinheit angezeigt wird.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild auf der Funktionseinheit angezeigt werden.
11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder abrufbar gespeichert werden.
12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verfahrensschritte c) bis f) oder c) bis e) bis zu einem vorgebbaren Abbruchkriterium wiederholt werden, wobei als Startstellung für den folgenden Zyklus die Soll- Endstellung des vorangehenden Zyklus verwendet wird.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Verfahrensschritte c) bis f) oder c) bis e) so lange wiederholt werden, bis eine Soll-Endstellung außerhalb des Sichtfeldes einer der Bilderfassungseinrichtungen liegt, wobei dann die Bilderfassungseinrichtungen neu positioniert und der Verfahrensschritt a) erneut durchgeführt wird.
14. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Bewegungsablauf für den Roboter in Ablegigkeit von der Startstellung und der oder den Soll-Endstellungen für den realen Arbeitsbereich festgelegt wird.
15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Festlegen der Startstellung durch Abfragen einer Steuerungsvorrichtung des Roboters erfolgt, wobei die abgefragte Startstellung in eine Startstellung für den realen Arbeitsbereich umgewandelt wird.
16. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Orientierung eines Werkzeuges für jede Soll-Endstellung mit Hilfe der Funktionseinheit ausgewählt wird.
17. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Auswählen der Soll-Endstellung auf dem angezeigten Bild auf der Funktionseinheit vorgenommen wird.
18. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung des Roboters übermittelt werden.
19. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass vor dem Umwandeln der ausgewählten Soll-Endstellung die Auswahl bestätigt wird.
20. System zur Erstellung eines Bewegungsablaufes für einen Roboter aufweisend
eine Festlegungseinrichtung (42) zur Festlegung der Startstellung des Roboters (12),
mindestens eine Bilderfassungseinrichtung (4, 6) zur Erfassung mindestens eines Bildes (8, 10) des realen Arbeitsbereiches,
eine Funktionseinheit (30), auf der das durch die Bilderfassungseinrichtung (4, 6) er- fasste Bild (8, 10) anzeigbar ist, wobei eine Soll-Endstellung des Roboters (12) in dem angezeigten Bild (4, 6) auswählbar ist,
eine Umwandlungseinrichtung (36) zur direkten Umwandlung der ausgewählten Soll- Endstellung in eine Soll-Endstellung für den realen Arbeitsbereich und
eine Programmiereinrichtung (38) zum Festlegen des Bewegungsablaufes zwischen der Startstellung und der Soll-Endstellung.
21. System nach Anspruch 19, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung (4, 6) an dem Roboter (12), vorzugsweise an dem Handgelenk (16) des Roboters (12), angeordnet ist, wobei die relative Position der Bilderfassungseinrichtung (4, 6) zu dem Werkzeugaufnahmepunkt des Roboters (12) ermittelbar ist.
22. System nach einem der Ansprüche 19 oder 20, dadurch gekennzeichnet, dass mindestens zwei Bilderfassungseinrichtungen (4, 6) zur Erfassung von zwei Bildern (8, 10) aus unterschiedlichen Perspektiven vorgesehen sind.
23. System nach Anspruch 21 , dadurch gekennzeichnet, dass die Bilder (8, 10) nebeneinander auf der Funktionseinheit (30) anzeigbar sind.
24. System nach einem der Ansprüche 21 oder 22, dadurch gekennzeichnet, dass die Orientierung der Bilderfassungseinrichtungen (4, 6) sowie der Abstand (A) zwischen den Bilderfassungseinrichtungen (4, 6) ermittelbar ist.
25. System nach einem der Ansprüche 21 bis 23, dadurch gekennzeichnet, dass die Bilderfassungseinrichtungen (4, 6) an einem Basisteil (14) befestigt sind, das lösbar an dem Roboter (12) befestigt ist.
26. System nach Anspruch 24, dadurch gekennzeichnet, dass das Basisteil (14) einen Energiespeicher (18) zur Versorgung der Bilderfassungseinrichtungen (4, 6) aufweist.
27. System nach einem der Ansprüche 24 oder 25, dadurch gekennzeichnet, dass das Basisteil (14) ferner eine Übertragungseinrichtung (20) zur kabellosen Übertragung der erfassten Bilder (8, 10) aufweist.
28. System nach einem der Ansprüche 19 bis 26, dadurch gekennzeichnet, dass die ausgewählte Soll-Endstellung in dem Bild (8, 10) auf der Funktionseinheit (30) anzeigbar ist.
29. System nach Anspruch 27, dadurch gekennzeichnet, dass Verbindungslinien zwischen den ausgewählten und angezeigten Soll-Endstellungen in dem Bild (8, 10) auf der Funktionseinheit (30) anzeigbar sind.
30. System nach einem der Ansprüche 19 bis 28, dadurch gekennzeichnet, dass eine Speichereinrichtung (40) zur abrufbaren Speicherung der Bilder (8, 10) vorgesehen ist.
31. System nach einem der Ansprüche 19 bis 29, dadurch gekennzeichnet, dass die Startstellung durch die Festlegungseinrichtung (42) von einer Steuerungsvorrichtung (22) des Roboters (12) abfragbar und in eine Startstellung für den realen Arbeitsbereich umwandelbar ist.
32. System nach einem der Ansprüche 19 bis 30, dadurch gekennzeichnet, dass die festgelegten Bewegungsabläufe als Steuerungsbefehle in eine Steuerungsvorrichtung (22) des Roboters (12) übermittelbar sind.
33. System nach einem der Ansprüche 19 bis 31 , dadurch gekennzeichnet, dass ein Bestätigungselement (34) zur Bestätigung der ausgewählten Soll-Endstellung vor dem Umwandeln vorgesehen ist
PCT/EP2006/008194 2005-08-27 2006-08-21 Verfahren und system zur erstellung eines bewegungsablaufes für einen roboter WO2007025658A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005040714.5A DE102005040714B4 (de) 2005-08-27 2005-08-27 Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter
DE102005040714.5 2005-08-27

Publications (1)

Publication Number Publication Date
WO2007025658A1 true WO2007025658A1 (de) 2007-03-08

Family

ID=37027723

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/008194 WO2007025658A1 (de) 2005-08-27 2006-08-21 Verfahren und system zur erstellung eines bewegungsablaufes für einen roboter

Country Status (2)

Country Link
DE (1) DE102005040714B4 (de)
WO (1) WO2007025658A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008030774A1 (de) 2008-06-28 2009-12-31 Sikora Gmbh Verfahren und Vorrichtung zum sicherheitsgerichteten Steuern einer Materialbearbeitungsvorrichtung

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202011000456U1 (de) 2011-02-28 2012-05-31 Kuka Systems Gmbh Fügeeinrichtung
DE102012106448B4 (de) * 2012-07-17 2016-03-31 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters sowie sicheres Überwachungsgerät zur Durchführung des Verfahrens
US9555545B2 (en) * 2014-05-21 2017-01-31 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61100809A (ja) * 1984-10-22 1986-05-19 Toshiba Corp ロボツトの三次元テイ−チング装置
US5339103A (en) * 1992-08-18 1994-08-16 Schmidt Robert H Part machining programming using a camera interchangeable with maching nozzle
DE19855885A1 (de) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Bildverarbeitungsverfahren und -vorrichtung
EP0970782A2 (de) * 1998-07-10 2000-01-12 SANYO ELECTRIC Co., Ltd. Verfahren und System zum Lernen der Lage des Bauteil-Saugers
US6304050B1 (en) * 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation
US20030120391A1 (en) * 2001-12-25 2003-06-26 National Inst. Of Advanced Ind. Science And Tech. Robot operation teaching method and apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3343682B2 (ja) * 1999-06-18 2002-11-11 独立行政法人産業技術総合研究所 ロボット動作教示装置および動作教示方法
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
DE10118514B4 (de) * 2001-04-16 2005-08-18 Vmt Bildverarbeitungssysteme Gmbh Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D- Positionserkennung eines zu vermessenden Objektes mittels Digitalkameras
DE10249786A1 (de) * 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referenzierung eines Roboters zu einem Werkstück und Vorrichtung hierfür
JP2005078406A (ja) * 2003-09-01 2005-03-24 Nst:Kk カメラを使った位置教示及び表示方法
JP4167954B2 (ja) * 2003-09-02 2008-10-22 ファナック株式会社 ロボット及びロボット移動方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61100809A (ja) * 1984-10-22 1986-05-19 Toshiba Corp ロボツトの三次元テイ−チング装置
US5339103A (en) * 1992-08-18 1994-08-16 Schmidt Robert H Part machining programming using a camera interchangeable with maching nozzle
DE19855885A1 (de) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Bildverarbeitungsverfahren und -vorrichtung
EP0970782A2 (de) * 1998-07-10 2000-01-12 SANYO ELECTRIC Co., Ltd. Verfahren und System zum Lernen der Lage des Bauteil-Saugers
US6304050B1 (en) * 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation
US20030120391A1 (en) * 2001-12-25 2003-06-26 National Inst. Of Advanced Ind. Science And Tech. Robot operation teaching method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN vol. 010, no. 282 (P - 500) 25 September 1986 (1986-09-25) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008030774A1 (de) 2008-06-28 2009-12-31 Sikora Gmbh Verfahren und Vorrichtung zum sicherheitsgerichteten Steuern einer Materialbearbeitungsvorrichtung
DE102008030774B4 (de) * 2008-06-28 2013-03-07 Sikora Gmbh Verfahren und Vorrichtung zum sicherheitsgerichteten Steuern einer Materialbearbeitungsvorrichtung

Also Published As

Publication number Publication date
DE102005040714B4 (de) 2015-06-18
DE102005040714A1 (de) 2007-03-08

Similar Documents

Publication Publication Date Title
DE102007033486B4 (de) Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102014108956B4 (de) Vorrichtung zum Entgraten mit visuellem Sensor und Kraftsensor
EP1521211B1 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
EP2285537B1 (de) Vorrichtung und verfahren zur rechnergestützten generierung einer manipulatorbahn
DE102018009023B4 (de) Einlernvorrichtung zum Ausführen von Robotereinlernvorgängen und Einlernverfahren
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102018001026B4 (de) Robotersystem mit einer lernenden Steuerungsfunktion und lernendes Steuerungsverfahren
EP1604789A2 (de) Verfahren und Vorrichtung zum Verbessern der Positioniergenauigkeit eines Handhabungsgeräts
DE102015105687B4 (de) Roboter
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE112010000794T5 (de) Verfahren zum Steuern eines Roboterwerkzeugs
DE3144843A1 (de) Verfahren zum betreiben eines als schweissroboter arbeitenden manipulators und dementsprechende steuerung
EP3578321B1 (de) Verfahren zum verwenden mit einer maschine zum erstellen einer erweiterte-realität-anzeigeumgebung
DE102018009025A1 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
DE102018107857A1 (de) Vorrichtung, System und Verfahren zur automatischen Erzeugung eines Bewegungspfads eines Roboters
DE102019001207A1 (de) Kollaborativer Roboter und Verfahren zum Betreiben eines kollaborativen Roboters und Verwendung zum Bearbeiten eines Werkstücks
DE102019212452A1 (de) Interferenzvermeidungsvorrichtung und Robotersystem
DE102009023297A1 (de) Verfahren und Vorrichtung zum Betrieb einer zusätzlichen Werkzeugachse eines von einem Manipulator geführten Werkzeugs
DE102007029335A1 (de) Programmierhandgerät
EP3221094A1 (de) Verfahren und system zur korrektur einer bearbeitungsbahn eines robotergeführten werkzeugs
DE102007029398A1 (de) Verfahren und Vorrichtung zum Programmieren eines Industrieroboters
DE102005040714B4 (de) Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter
WO2019096479A1 (de) Verfahren und mittel zum betreiben einer roboteranordnung
WO2018073244A1 (de) Bild-basierte technologiewahl beim laserschweissen
DE102008062623B4 (de) Verfahren und Vorrichtung zur Auswahl einer gespeicherten Position eines Arbeitspunktes eines Manipulators

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06776984

Country of ref document: EP

Kind code of ref document: A1