DE102005014979B4 - Method and arrangement for planning production facilities - Google Patents

Method and arrangement for planning production facilities Download PDF

Info

Publication number
DE102005014979B4
DE102005014979B4 DE102005014979.0A DE102005014979A DE102005014979B4 DE 102005014979 B4 DE102005014979 B4 DE 102005014979B4 DE 102005014979 A DE102005014979 A DE 102005014979A DE 102005014979 B4 DE102005014979 B4 DE 102005014979B4
Authority
DE
Germany
Prior art keywords
mark
sensor
computer
distance measurement
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102005014979.0A
Other languages
German (de)
Other versions
DE102005014979A1 (en
Inventor
Dr. Schreiber Werner
Fabian Doil
Carsten Huschka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Volkswagen AG
Original Assignee
Audi AG
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG, Volkswagen AG filed Critical Audi AG
Priority to DE102005014979.0A priority Critical patent/DE102005014979B4/en
Publication of DE102005014979A1 publication Critical patent/DE102005014979A1/en
Application granted granted Critical
Publication of DE102005014979B4 publication Critical patent/DE102005014979B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4069Simulating machining process on screen
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32351Visual, graphical animation of process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

Verfahren zur Planung von Fertigungseinrichtungen unter Verwendung von Mitteln zur visuellen Aufzeichnung, mindestens einer Datenverarbeitungseinrichtung und mindestens einer visuell wahrnehmbaren Referenzmarke (103, 203) für ein durch die Fertigungseinrichtungen zu führendes Objekt, wobei die mindestens eine visuell wahrnehmbaren Referenzmarke (103, 203) wenigstens teilweise durch die Fertigungseinrichtungen geführt und von den Mitteln zur visuellen Aufzeichnung aufgezeichnet wird und die Aufzeichnung der mindestens einen visuell wahrnehmbaren Referenzmarke (103, 203) durch mindestens ein auf der mindestens einen Datenverarbeitungseinrichtung installiertes Computerprogramm ausgewertet und in Abhängigkeit der Ergebnisse der Auswertung eine computerinterne Darstellung eines Modells des Objektes berechnet und das Hindurchführen der mindestens einen visuell wahrnehmbaren Referenzmarke (103, 203) durch die Fertigungseinrichtungen mit mindestens einem Sensor zur Abstandsmessung wenigstens teilweise erfasst wird und durch Auswertung von computerinternen Darstellungen des Modells und wenigstens eines Teils der Sensordaten Lagebeziehungen des Objektes in der Fertigungseinrichtung ermittelt werden für den Fall, dass das Objekt in der durch die mindestens eine visuell wahrnehmbaren Referenzmarke (103, 203) vorgegebenen Weise durch die Fertigungseinrichtung geführt wird, dadurch gekennzeichnet, dass die mindestens eine visuell wahrnehmbaren Referenzmarke (103, 203) und der mindestens eine Sensor zur Abstandsmessung auf einem Werkstückträger installiert sind und durch diesen durch die Fertigungseinrichtung geführt werden.A method of planning manufacturing equipment using means for visual recording, at least one data processing device, and at least one visually detectable reference mark (103, 203) for an object to be guided through the manufacturing devices, the at least one visually detectable reference mark (103, 203) being at least partially guided by the production facilities and recorded by the means for visual recording and the recording of the at least one visually perceptible reference mark (103, 203) evaluated by at least one computer program installed on the at least one data processing device and depending on the results of the evaluation, a computer-internal representation of a model calculates the passing of the at least one visually detectable reference mark (103, 203) by the production facilities with at least one sensor for distance measurement at least is partially detected and determined by evaluating computer-internal representations of the model and at least part of the sensor data positional relationships of the object in the manufacturing device for the case that the object in the by the at least one visually perceptible reference mark (103, 203) predetermined manner the manufacturing device is guided, characterized in that the at least one visually perceptible reference mark (103, 203) and the at least one sensor for distance measurement are installed on a workpiece carrier and are guided through it by the production device.

Description

  • Die Erfindung betrifft ein Verfahren und eine Anordnung zur Planung von Fertigungseinrichtungen, welche insbesondere einsetzbar sind zur Planung oder Kontrolle des Durchlaufes eines Werkstücks oder Werkzeugs durch eine Fertigungseinrichtung.The invention relates to a method and an arrangement for the planning of production facilities, which are particularly useful for planning or controlling the passage of a workpiece or tool by a manufacturing facility.
  • Ein bekanntes Verfahren für die Planung von Fertigungseinrichtungen ist die so genannte Störkantenanalyse. Eine Störkantenanalyse kann auf verschiedene Arten ausgeführt werden:
    • - durch eine 3D-Simulation,
    • - durch eine Störkantenanalyse mit realen Bauteilen,
    • - durch eine Störkantenanalyse mit Referenzmodellen,
    • - unter Einsatz von Augmented-Reality- (AR) Technologie.
    A well-known process for the planning of manufacturing facilities is the so-called Störkantenanalyse. An edge analysis can be performed in different ways:
    • - through a 3D simulation,
    • - by a Störkantenanalyse with real components,
    • - by interfering edge analysis with reference models,
    • - using Augmented Reality (AR) technology.
  • Für eine Störkantenanalyse mit Hilfe einer 3D-Simulation müssen ein großer Teil der Fertigungseinrichtung und das durch die Fertigungseinrichtung durchlaufende Werkstück oder Werkzeug als aktuelle 3D-Datensätze zur Verfügung stehen. Werkstücke liegen meist in digitaler Form vor, da diese bereits computergestützt konstruiert wurden, so dass die diesbezüglichen Datensätze für die 3D-Simulation genutzt werden können. Für die Fertigungseinrichtung beziehungsweise die Werkzeuge ist dies in der Regel jedoch nicht der Fall. Es wäre dann also erforderlich, die Fertigungseinrichtung beziehungsweise das Werkzeug nachträglich zu erfassen und zu digitalisieren. Aus diesem Grunde ist eine Störkantenanalyse mit Hilfe der 3D-Simulation sehr zeit- und kostenintensiv.For an interference edge analysis using a 3D simulation, a large part of the production facility and the workpiece or tool passing through the production facility must be available as actual 3D data records. Workpieces are usually available in digital form, as they have already been computer-aided, so that the relevant data sets can be used for the 3D simulation. However, this is generally not the case for the production facility or the tools. It would then be necessary to subsequently capture and digitize the manufacturing facility or the tool. For this reason, a Störkantenanalyse using the 3D simulation is very time consuming and costly.
  • Bei der Störkantenanalyse mit realen Bauteilen beziehungsweise Referenzmodellen (Styropormodelle oder ähnliche) benötigt man keine 3D-Daten der Fertigungsanlage. Jedoch muss für die Störkantenanalyse die Produktion unter Umständen unterbrochen werden, da beim Auftreten von Störkanten (Kollisionen) das reale Bauteil beziehungsweise Referenzmodell aus der Anlage entfernt werden muss und gegebenenfalls Schäden auftreten, die repariert werden müssen. Zudem ist dieses Verfahren sehr unflexibel, da für jedes Bauteil ein neues Modell hergestellt werden muss.In the interference edge analysis with real components or reference models (Styrofoam models or similar) you do not need 3D data of the manufacturing plant. However, production may have to be interrupted for the interference edge analysis because, if interference edges (collisions) occur, the real component or reference model must be removed from the system and, if necessary, damage occurs that must be repaired. In addition, this method is very inflexible, since a new model must be produced for each component.
  • Die DE 101 28 015 A1 beschreibt ein Verfahren und ein System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten. Dabei werden die virtuellen Planungsergebnisse mit Hilfe eines Augmented-Reality-Systems mit der realen Fertigungsumgebung überlagert.The DE 101 28 015 A1 describes a method and system for planning a changed production environment, in particular a manufacturing environment for vehicle components. The virtual planning results are superimposed on the real manufacturing environment with the help of an augmented reality system.
  • Die DE 102 40 392 A1 offenbart ein System und Verfahren zur Bestimmung von Abständen virtueller Objekte zu realen Objekten durch den Einsatz der Augmented-Reality-Technologie. Dies erfolgt durch die Kopplung eines Augmented-Reality-Systems mit einem anderen Vermessungssystem oder durch die Positionierung von Referenzgeometrien im Raum.The DE 102 40 392 A1 discloses a system and method for determining distances of virtual objects to real objects through the use of augmented reality technology. This is done by coupling an augmented reality system with another surveying system or by positioning reference geometries in space.
  • Beim Einsatz der AR-Technologie wird anstelle des Werkstücks beziehungsweise Werkzeugs eine Referenzmarke durch die Fertigungseinrichtung gefahren und mit einer Kamera aufgezeichnet. Die Bewegung der Referenzmarke durch die Fertigungseinrichtung kann somit auf einem Monitor beobachtet werden. In diese Darstellung auf dem Monitor wird das Werkzeug beziehungsweise Werkstück virtuell als Modell eingeblendet, wobei die Referenzmarke als Bezugssystem dient. Während auf diese Weise das virtuelle Werkstück beziehungsweise Werkzeug durch die Fertigungseinrichtung geführt wird, kann man auf dem Bildschirm kritische Situationen erkennen, beispielsweise Bereiche, in denen das Werkstück beziehungsweise Werkzeug mit Teilen der Fertigungseinrichtung kollidieren würde. Nachteilig an diesem Vorgehen ist allerdings, dass die Störkantenanalyse hier durch die visuelle Einschätzung einer zweidimensionalen Darstellung durchgeführt wird. Dies kann zu Fehleinschätzungen führen oder das wiederholte Hindurchführen des Werkstücks beziehungsweise Werkzeugs durch die Fertigungseinrichtung zum Beispiel mit veränderter Kamerakonstellation erforderlich machen, um Unklarheiten auszuräumen.When using the AR technology, a reference mark is moved through the production device instead of the workpiece or tool and recorded with a camera. The movement of the reference mark through the manufacturing device can thus be observed on a monitor. In this representation on the monitor, the tool or workpiece is virtually displayed as a model, the reference mark serves as a reference system. While in this way the virtual workpiece or tool is guided through the manufacturing facility, one can recognize critical situations on the screen, for example, areas in which the workpiece or tool would collide with parts of the manufacturing facility. A disadvantage of this procedure, however, is that the interference edge analysis is performed here by the visual assessment of a two-dimensional representation. This can lead to misjudgments or necessitate the repeated passage of the workpiece or tool through the production device, for example with altered camera constellation, in order to dispel ambiguities.
  • Die Aufgabe der Erfindung besteht somit darin, ein Verfahren und eine Anordnung zur Planung von Fertigungseinrichtungen bereitzustellen, welche die vorgenannten Nachteile vermeiden und insbesondere eine weitgehend automatisierte Störkantenanalyse ermöglichen.The object of the invention is thus to provide a method and an arrangement for the planning of production facilities, which avoid the aforementioned disadvantages and in particular allow a largely automated Störkantenanalyse.
  • Diese Aufgabe wird erfindungsgemäß durch die Merkmale in den Ansprüchen 1 und 10 gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen enthalten.This object is achieved by the features in claims 1 and 10. Advantageous embodiments of the invention are contained in the subclaims.
  • Ein besonderer Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass eine Störkantenanalyse vollautomatisch vorgenommen werden kann, indem eine Planung von Fertigungseinrichtungen unter Verwendung von Mitteln zur visuellen Aufzeichnung, mindestens einer Datenverarbeitungseinrichtung und mindestens einer visuell wahrnehmbaren Referenzmarke für ein durch die Fertigungseinrichtungen zu führendes Objekt durchgeführt wird, wobei die mindestens eine visuell wahrnehmbare Referenzmarke wenigstens teilweise durch die Fertigungseinrichtungen geführt und von den Mitteln zur visuellen Aufzeichnung aufgezeichnet wird, und die Aufzeichnung der mindestens einen visuell wahrnehmbaren Referenzmarke durch mindestens ein auf der mindestens einen Datenverarbeitungseinrichtung installiertes Computerprogramm ausgewertet und in Abhängigkeit der Ergebnisse der Auswertung eine computerinterne Darstellung eines Modells des Objektes berechnet, das Hindurchführen der mindestens einen visuell wahrnehmbaren Referenzmarke durch die Fertigungseinrichtungen mit mindestens einem Sensor zur Abstandsmessung wenigstens teilweise erfasst wird und durch Auswertung von computerinternen Darstellungen des Modells und wenigstens eines Teils der Sensordaten Lagebeziehungen des Objektes in der Fertigungseinrichtung ermittelt werden für den Fall, dass das Objekt in der durch die mindestens eine visuell wahrnehmbare Referenzmarke vorgegebenen Weise durch die Fertigungseinrichtung geführt wird, wobei erfindungsgemäß die mindestens eine visuell wahrnehmbare Referenzmarke und der mindestens eine Sensor zur Abstandsmessung auf einem Werkstückträger installiert ist und durch diesen durch die Fertigungseinrichtung geführt wird.A particular advantage of the method according to the invention is that a clutter edge analysis can be performed fully automatically by performing planning of manufacturing devices using means for visual recording, at least one data processing device and at least one visually perceptible reference mark for an object to be guided through the manufacturing devices, wherein the at least one visually detectable reference mark is at least partially guided through the manufacturing devices and recorded by the means for visual recording, and the Recording the at least one visually perceptible reference mark evaluated by at least one computer program installed on the at least one data processing device and calculates a computer-internal representation of a model of the object depending on the results of the evaluation, passing the at least one visually perceptible reference mark through the production devices with at least one sensor Distance measurement is at least partially detected and determined by evaluation of computer-internal representations of the model and at least part of the sensor data positional relationships of the object in the manufacturing facility for the case that the object is guided in the predetermined by the at least one visually perceptible reference mark through the manufacturing facility , According to the invention, the at least one visually perceptible reference mark and the at least one sensor for distance measurement on a factory tückträger is installed and is guided by this through the manufacturing facility.
  • Gegenüber herkömmlichen Lösungen bietet das erfindungsgemäße Planungsverfahren den Vorteil, dass eine digitale Modellierung der Fertigungseinrichtung nicht vorgenommen beziehungsweise ein Referenzmodell des Werkzeugs beziehungsweise Werkstücks nicht angefertigt werden muss. Darüber hinaus wird der laufende Produktionsprozess durch das erfindungsgemäße Prüfverfahren nicht beeinträchtigt.Compared to conventional solutions, the planning method according to the invention has the advantage that a digital modeling of the production device is not undertaken or a reference model of the tool or workpiece does not have to be made. In addition, the current production process is not affected by the test method according to the invention.
  • In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist vorgesehen, dass solche Lagebeziehungen signalisiert werden, in denen ein vorgebbarer Abstandswert zwischen Fertigungseinrichtung und Objekt erreicht oder unterschritten wird. Dies stellt einen erheblichen Vorteil gegenüber der lediglich visuellen Beurteilung der Freigängigkeit beziehungsweise Zugängigkeit des Werkzeugs beziehungsweise Werkstücks beim Einsatz herkömmlicher AR-Technologie dar.In a preferred embodiment of the method according to the invention, it is provided that such positional relationships are signaled, in which a predefinable distance value between the production device and the object is reached or undershot. This represents a considerable advantage over the merely visual assessment of the free movement or accessibility of the tool or workpiece when using conventional AR technology.
  • In einer anderen bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist vorgesehen, dass zusätzlich Mittel zur bildgebenden Datenausgabe verwendet werden und durch Auswertung der Aufzeichnung der mindestens einen visuell wahrnehmbaren Referenzmarke Daten für eine bildliche Darstellung des computererzeugten Modells des Objektes ermittelt, die bildliche Darstellung des computererzeugten Modells des Objektes und die Aufzeichnung der mindestens einen visuell wahrnehmbaren Referenzmarke bei einer Ausgabe durch die Mittel zur bildgebenden Datenausgabe überlagert werden. Dadurch wird die rein sensorgestützte Störkantenanalyse durch visuelle Beurteilung der Werkzeugbeziehungsweise Werkstücksituation innerhalb der Fertigungseinrichtung unterstützt. Hierbei kann die Werkzeug- beziehungsweise Werkstücksituation in einen weiteren Kontext gestellt werden, als es bei einer rein computergestützten Lösung möglich wäre, da die komplexen Bedingungen innerhalb der Fertigungseinrichtung nur durch die (wie oben bereits erwähnt) mit relativ großem Aufwand zu erstellenden Modelle computertechnisch simuliert werden können.In another preferred embodiment of the method according to the invention it is provided that additional means for imaging data output are used and by evaluating the recording of the at least one visually detectable reference mark data for a pictorial representation of the computer-generated model of the object determines the pictorial representation of the computer-generated model of the object and superimposing the record of the at least one visually detectable reference mark on output by the imaging data output means. As a result, the purely sensor-supported interference edge analysis is supported by visual assessment of the tool relationship or workpiece situation within the production facility. In this case, the tool or workpiece situation can be placed in a wider context than would be possible with a purely computer-aided solution, since the complex conditions within the production facility are simulated by computer technology only by the models (as already mentioned above) with relatively great effort can.
  • Als vorteilhaft erweist es sich ebenfalls, wenn die mindestens eine visuell wahrnehmbare Referenzmarke und das computererzeugte Modell des Objektes durch ein Bezugskoordinatensystem miteinander verknüpft werden. Dadurch lässt sich das Modell des Objektes leicht gemäß der Lage und Orientierung ausrichten und visualisieren, die durch die visuell wahrnehmbare Referenzmarke (und ihr Koordinatensystem) vorgegeben werden. Computerintern sind damit das Modell und die visuell wahrnehmbare Referenzmarke virtuell starr miteinander verknüpft.It also proves to be advantageous if the at least one visually perceptible reference mark and the computer-generated model of the object are linked to one another by a reference coordinate system. This allows the model of the object to be easily aligned and visualized according to the position and orientation dictated by the visually observable reference mark (and its coordinate system). Computer-internally, the model and the visually perceptible reference mark are virtually rigidly interconnected.
  • In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist vorgesehen, dass als Sensor zur Abstandsmessung ein 3D-Scanner, vorzugsweise so genannte Time-of-Flight- (TOF) Scanner, oder eine Stereo-Kamera eingesetzt werden. Dadurch erhält man ein Oberflächenprofil eines großen Teils der Umgebung. Dies lässt sich besonders vorteilhaft nutzen, indem bei einer Ausgabe über die Mittel zur visuellen Datenausgabe wenigstens ein Teil der Bildpunkte (Pixel) der bildlichen Darstellung mit einem Abstandswert des durch den Bildpunkt dargestellten Gegenstandes verknüpft wird. Dieses Vorgehen kann vorteilhaft eingesetzt werden, um die Bildaufnahme zu steuern, indem die visuelle Aufzeichnung durch wenigstens einen Teil der von den Sensoren zur Abstandsmessung gelieferten Daten gesteuert wird.In a further preferred embodiment of the method according to the invention, it is provided that a 3D scanner, preferably so-called time-of-flight (TOF) scanner, or a stereo camera are used as the sensor for distance measurement. This gives a surface profile of a large part of the environment. This can be used particularly advantageously by linking at least a part of the pixels (pixels) of the pictorial representation to a distance value of the object represented by the pixel when outputting via the means for visual data output. This approach can be advantageously used to control image acquisition by controlling the visual record through at least a portion of the data provided by the distance measurement sensors.
  • Ein besonders vorteilhaftes Einsatzgebiet des erfindungsgemäßen Verfahrens liegt im Fahrzeugbau. Bei den Objekten handelt es sich somit insbesondere um Kraftfahrzeuge, die durch die Fertigungseinrichtung geführt werden. Eine bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens sieht deshalb vor, dass eine Planung von Fertigungseinrichtungen der Fahrzeugproduktion durchgeführt wird und als Objekt ein Werkzeug oder Werkstück, insbesondere ein Kraftfahrzeug, modelliert wird. Da die Fahrzeuge in der Regel auf so genannten Skids durch die Fertigungseinrichtung geführt werden, erweist es sich als vorteilhaft, auch die mindestens eine Referenzmarke auf einem Skid oder einem Werkstückträger zu installieren.A particularly advantageous field of application of the method according to the invention lies in vehicle construction. The objects are therefore in particular motor vehicles that are guided through the production facility. A preferred embodiment of the method according to the invention therefore provides that a planning of production facilities of the vehicle production is carried out and as an object a tool or workpiece, in particular a motor vehicle, is modeled. Since the vehicles are usually guided on so-called skids through the production facility, it proves to be advantageous to install the at least one reference mark on a skid or a workpiece carrier.
  • Eine Anordnung zur Planung von Fertigungseinrichtungen nach der Erfindung umfasst Mittel zur visuellen Aufzeichnung, mindestens eine Datenverarbeitungseinrichtung und mindestens eine visuell wahrnehmbare Referenzmarke, wobei die Anordnung derart eingerichtet ist, dass ein Verfahren gemäß Anspruch 1 ausführbar ist.An arrangement for planning production facilities according to the invention comprises means for visual recording, at least one data processing device and at least one visually perceptible reference mark, wherein the Arrangement is arranged such that a method according to claim 1 is executable.
  • Die Erfindung stellt damit insbesondere ein flexibles System zur Störkantenanalyse bei Planungen, speziell Umplanungen oder Integration im Bereich der Anlagentechnik und Fördertechnik zur Verfügung. 3D-Daten der Fertigungseinrichtung sind nicht mehr erforderlich. Ein besonderer Vorteil der Erfindung besteht darin, dass die Produktion während des Analysevorgangs nicht unterbrochen werden muss, zum Beispiel durch das Auftreten von Störkanten (Kollision). Dadurch werden die Kosten des Gesamtprozesses reduziert. Die Kosten werden weiter verringert, indem das erfindungsgemäße System nur eine Einmalinvestition erfordert, da es durch Umprogrammierung für verschiedene Modelle (Objekte) anwendbar ist.The invention thus makes available, in particular, a flexible system for interfering edge analysis in planning, especially re-planning or integration in the field of systems engineering and materials handling technology. 3D data of the manufacturing facility is no longer required. A particular advantage of the invention is that the production during the analysis process does not have to be interrupted, for example by the occurrence of interference edges (collision). This reduces the cost of the overall process. The costs are further reduced by the system according to the invention requires only a single investment, since it is applicable by reprogramming for different models (objects).
  • Die Erfindung wird nachfolgend unter Bezugnahme auf die Figuren der Zeichnungen an einem Ausführungsbeispiel näher erläutert. Es zeigen:
    • 1 die Funktionsweise eines videobasierten Augmented-Reality-Systems und
    • 2 eine beispielhafte Ausführung eines erfindungsgemäßen Werkzeugträgersystems.
    The invention will be explained in more detail with reference to the figures of the drawings of an embodiment. Show it:
    • 1 the operation of a video-based augmented reality system and
    • 2 an exemplary embodiment of a tool carrier system according to the invention.
  • Im Folgenden soll die Erfindung beispielhaft an der Störkantenanalyse bei der Kraftfahrzeugfertigung näher erläutert werden. Die Erfindung ist dabei in ein Augmented-Reality (AR)-System integriert. Im Folgenden soll einleitend kurz die Funktionsweise eines solchen AR-Systems beschrieben werden.In the following, the invention will be explained in more detail by way of example on the interference edge analysis in motor vehicle production. The invention is integrated in an augmented reality (AR) system. The following briefly describes the operation of such an AR system.
  • Die AR-Technologie basiert kurz gesprochen darauf, dass Daten, die beispielsweise durch Standardaufnahmesysteme wie Kameras 101 von realen Objekten gewonnen werden, mit Daten virtueller Objekte, die beispielsweise als 3D-Datensätze von CAD-Modellen in Datenbanken 102 gespeichert sind, verknüpft werden. Bei der hier beispielhaft beschriebenen Störkantenanalyse in einer Fertigungseinrichtung für die Kraftfahrzeugfertigung stellen die Fertigungseinrichtung selbst, der Werkzeugträger (Skid) und die auf dem Werkzeugträger installierte Referenzmarke 103 die Objekte dar, welche die Daten für die reale Umgebung liefern (vergleiche 1). Fertigungseinrichtung, Werkzeugträger und Referenzmarke 103 werden in einer einfachen Ausführungsform durch eine Kamera 101 aufgezeichnet. Ein Tracking-System 104 wertet diese Aufzeichnungen, insbesondere die Aufzeichnung der Referenzmarke 103, aus und liefert im Ergebnis Angaben, welche die Ausrichtung und Position der Referenzmarke 103 analytisch beschreiben. Das können beispielsweise die x,y,z-Position der Referenzmarke 103 sein, zusammen mit Winkelangaben, welche die Blickrichtung beschreiben, in welcher die Referenzmarke 103 auf einem Anzeigegerät 105 einem Betrachter erscheint. Als Anzeigegerät 105 kommen sowohl Head Mounted Displays (HMD) als auch gewöhnliche Monitore zum Einsatz. Diese Daten beziehungsweise Angaben (Videobild, x,y,z-Position und Blickrichtung) werden einem Szenengenerator 106 übergeben. Der Szenengenerator 106 hat darüber hinaus Zugriff auf eine Datenbank 102 von CAD-Modellen 107 von Fahrzeugen beziehungsweise Fahrzeugteilen. Aus dieser Datenbank 102 entnimmt der Szenengenerator 106 Angaben über die 3D-Geometrie des CAD-Modells 107, welches mit der Referenzmarke 103 verknüpft werden soll. Die Verknüpfung zwischen Referenzmarke 103 und CAD-Modell 107 erfolgt über ein Referenzkoordinatensystem. Da Position und Ausrichtung der Referenzmarke 103 durch das Tracking-System 104 ermittelt wurden und somit bekannt sind, kann auch das CAD-Modell 107 des Fahrzeugs vom Szenengenerator 106 an der richtigen Stelle in die auf dem Anzeigegerät 105 wiedergegebene Szene eingefügt und auf dem Anzeigegerät 105 wiedergegeben werden. Im Ergebnis erscheint auf dem Anzeigegerät 105 (HMD, Monitor oder dergleichen) die von der Kamera 101 aufgezeichnete reale Szene zusammen mit dem eingeblendeten virtuellen Objekt 108, so dass man mit Hilfe eines solchen AR-Systems bereits auf dieser Stufe per Augenschein untersuchen kann, wie sich das reale Fahrzeug in der Fertigungseinrichtung verhalten würde. Die von der Kamera 101 aufgezeichnete Szene und/oder die vom Szenengenerator 106 generierte Szene können für eine spätere Auswertung bzw. zur Archivierung oder Dokumentation durch Aufzeichnungsgeräte 109 aufgezeichnet werden.In short, AR technology is based on the fact that data, for example, by standard recording systems such as cameras 101 are obtained from real objects, with data of virtual objects, for example, as 3D datasets of CAD models in databases 102 stored are linked. In the case of the interference edge analysis described here by way of example in a production facility for motor vehicle production, the production facility itself, the tool carrier (skid) and the reference mark installed on the tool carrier 103 the objects that provide the data for the real environment (compare 1 ). Manufacturing facility, tool carrier and reference mark 103 are in a simple embodiment by a camera 101 recorded. A tracking system 104 evaluates these records, especially the record of the reference mark 103 , and as a result provides information indicating the orientation and position of the reference mark 103 describe analytically. This can be, for example, the x, y, z position of the reference mark 103 be, together with angle indications which describe the viewing direction in which the reference mark 103 on a display device 105 a viewer appears. As a display device 105 Both Head Mounted Displays (HMD) and ordinary monitors are used. These data or information (video image, x, y, z position and viewing direction) become a scene generator 106 to hand over. The scene generator 106 also has access to a database 102 from CAD models 107 of vehicles or vehicle parts. From this database 102 The scene generator 106 extracts information about the 3D geometry of the CAD model 107 which is to be linked to the reference mark 103. The link between the reference mark 103 and CAD model 107 is via a reference coordinate system. Because position and orientation of the reference mark 103 through the tracking system 104 have been determined and are thus known, the CAD model can also 107 of the vehicle from the scene generator 106 in the right place in the on the display device 105 inserted scene and on the display device 105 be reproduced. As a result, on the display device 105 (HMD, monitor, or the like), the one from the camera appears 101 recorded real scene together with the displayed virtual object 108 so that with the help of such an AR system already at this stage it is possible to examine visually how the real vehicle would behave in the production facility. The from the camera 101 recorded scene and / or the scene generator 106 generated scene can for later evaluation or for archiving or documentation by recording devices 109 to be recorded.
  • Dieses rein visuelle System wird erfindungsgemäß durch den Einsatz weiterer Sensoren erweitert (vergleiche 2). Diese Sensoren können dabei sowohl auf dem Skid 201 (Werkstückträger) oder in der Fertigungseinrichtung installiert sein. Insbesondere kommt dabei Sensorik für die Vermessung des Umfeldes und die Abstandsvermessung zum Einsatz, wie beispielsweise 3D-Laserscanner, Stereo-Kameras oder dergleichen.This purely visual system is inventively extended by the use of additional sensors (see 2 ). These sensors can do both on the skid 201 (Workpiece carrier) or installed in the manufacturing facility. In particular, sensors are used for the measurement of the environment and the distance measurement, such as 3D laser scanners, stereo cameras or the like.
  • In einer beispielhaften Ausführungsform ist ein Werkstückträger (zum Beispiel Skid 201) mit folgenden Komponenten ausgerüstet:
    • - Aufnahmeeinrichtungen (zum Beispiel Videokameras 202, Fotokameras, IR-Kameras, Mikrofone oder dergleichen) an unterschiedlichen Positionen, fest oder beweglich (intern oder extern gesteuert);
    • - Sensorik für Umfeld- und Abstandsvermessung (zum Beispiel 3D-Laserscanner, Stereo-Kameras oder dergleichen);
    • - Markierungen, Referenzmarken 203 oder interne beziehungsweise externe Marker;
    • - Aufzeichnungsgeräte 204 wie beispielsweise Videorekorder oder DAT-Rekorder;
    • - Lampen zur Beleuchtung des Umfeldes und des Skids 201 (Licht, Infrarot oder dergleichen);
    • - Steuereinheit 205 zur Synchronisation der Aufzeichnungsgeräte 204, der Bewegungssteuerung oder dergleichen;
    • - Signalübertragung zu externen Stellen;
    • - Signalaustausch mit Skid-externen Markern;
    • - Energieversorgung 206;
    • - Schutzeinrichtung gegen Umwelteinflüsse wie Temperatur, Feuchtigkeit, Staub, die in verschiedenen Bereichen wie beispielsweise einer Lackierstraße auftreten können.
    In an exemplary embodiment, a workpiece carrier (for example Skid 201 ) equipped with the following components:
    • - Recording equipment (for example video cameras 202 , Photo cameras, IR cameras, microphones or the like) in different positions, fixed or movable (controlled internally or externally);
    • - Sensors for environment and distance measurement (for example, 3D laser scanners, stereo cameras or the like);
    • - Marks, reference marks 203 or internal or external markers;
    • - Recording devices 204 such as VCR or DAT recorder;
    • - Lamps for lighting the environment and the skid 201 (Light, infrared or the like);
    • - Control unit 205 for synchronization of the recording devices 204 , the motion control or the like;
    • - Signal transmission to external points;
    • - Signal exchange with skid-external markers;
    • - Power supply 206 ;
    • - Protection against environmental influences such as temperature, humidity, dust, which can occur in various areas such as a paint line.
  • Bei Einsatz entsprechender 3D-Scanner, wie beispielsweise einem so genannten Time-of-Flight- (TOF) Scanner, kann eine hochgenaue Abstandsvermessung der Umgebung des Skid 201 durchgeführt und diese Umgebung gleichzeitig visuell erfasst werden. Im Ergebnis dieser Erfassung liegt ein Datensatz vor, der jedem Bildpunkt gleichzeitig einen Abstandswert zuordnet. Beim Einfügen des CAD-Modells in die Szene, welches wie oben beschrieben vom Szenengenerator 106 durchgeführt wird, können die vom TOF-Scanner gelieferten Abstandsdaten mit der 3D-Geometrie des eingefügten CAD-Modells verglichen und Störkanten automatisch ermittelt werden. Im Überlagerungsergebnis 207 ist es somit möglich, Bereiche kenntlich zu machen, die bestimmte Kriterien erfüllen - insbesondere also Störkanten, schwer zugängliche oder andere kritische Bereiche.When using appropriate 3D scanners, such as a so-called time-of-flight (TOF) scanner, a highly accurate distance measurement of the environment of the skid 201 performed and this environment simultaneously recorded visually. As a result of this detection, there is a data record which simultaneously assigns a distance value to each pixel. When inserting the CAD model in the scene, which as described above from the scene generator 106 is carried out, the distance data supplied by the TOF scanner can be compared with the 3D geometry of the inserted CAD model and interference edges can be determined automatically. In the overlay result 207 Thus, it is possible to identify areas that meet certain criteria - in particular so that edges, hard to reach or other critical areas.
  • Es kann sich als vorteilhaft erweisen, dass der Skid 201 wie ein Standardwerkzeugträger der entsprechenden Fertigungseinrichtung ausgeführt ist. Alternativ kann der Skid 201 aber auch als Aufsatz für einen solchen Standardwerkzeugträger ausgeführt sein.It may prove advantageous that the skid 201 how a standard tool carrier of the corresponding production device is executed. Alternatively, the skid 201 but also be designed as an essay for such a standard tool carrier.
  • BezugszeichenlisteLIST OF REFERENCE NUMBERS
  • 101101
    Kameracamera
    102102
    DatenbankDatabase
    103103
    Referenzmarkereference mark
    104104
    Tracking-SystemTracking system
    105105
    Anzeigegerätdisplay
    106106
    Szenengeneratorscene generator
    107107
    CAD-ModellCAD model
    108108
    virtuelles Objektvirtual object
    109109
    Aufzeichnungsgerät recorder
    201201
    SkidSkid
    202202
    Videokameravideo camera
    203203
    Referenzmarkereference mark
    204204
    Aufzeichnungsgerätrecorder
    205205
    Steuereinheitcontrol unit
    206206
    Energieversorgungpower supply
    207207
    ÜberlagerungsergebnisSuperposition result

Claims (10)

  1. Verfahren zur Planung von Fertigungseinrichtungen unter Verwendung von Mitteln zur visuellen Aufzeichnung, mindestens einer Datenverarbeitungseinrichtung und mindestens einer visuell wahrnehmbaren Referenzmarke (103, 203) für ein durch die Fertigungseinrichtungen zu führendes Objekt, wobei die mindestens eine visuell wahrnehmbaren Referenzmarke (103, 203) wenigstens teilweise durch die Fertigungseinrichtungen geführt und von den Mitteln zur visuellen Aufzeichnung aufgezeichnet wird und die Aufzeichnung der mindestens einen visuell wahrnehmbaren Referenzmarke (103, 203) durch mindestens ein auf der mindestens einen Datenverarbeitungseinrichtung installiertes Computerprogramm ausgewertet und in Abhängigkeit der Ergebnisse der Auswertung eine computerinterne Darstellung eines Modells des Objektes berechnet und das Hindurchführen der mindestens einen visuell wahrnehmbaren Referenzmarke (103, 203) durch die Fertigungseinrichtungen mit mindestens einem Sensor zur Abstandsmessung wenigstens teilweise erfasst wird und durch Auswertung von computerinternen Darstellungen des Modells und wenigstens eines Teils der Sensordaten Lagebeziehungen des Objektes in der Fertigungseinrichtung ermittelt werden für den Fall, dass das Objekt in der durch die mindestens eine visuell wahrnehmbaren Referenzmarke (103, 203) vorgegebenen Weise durch die Fertigungseinrichtung geführt wird, dadurch gekennzeichnet, dass die mindestens eine visuell wahrnehmbaren Referenzmarke (103, 203) und der mindestens eine Sensor zur Abstandsmessung auf einem Werkstückträger installiert sind und durch diesen durch die Fertigungseinrichtung geführt werden.A method of planning manufacturing equipment using means for visual recording, at least one data processing device, and at least one visually detectable reference mark (103, 203) for an object to be guided through the manufacturing devices, the at least one visually detectable reference mark (103, 203) being at least partially guided by the production facilities and recorded by the means for visual recording and the recording of the at least one visually perceptible reference mark (103, 203) evaluated by at least one computer program installed on the at least one data processing device and depending on the results of the evaluation, a computer-internal representation of a model calculates the passing of the at least one visually detectable reference mark (103, 203) by the production facilities with at least one sensor for distance measurement at least is partially detected and determined by evaluating computer-internal representations of the model and at least part of the sensor data positional relationships of the object in the manufacturing device for the case that the object in the by at least one visually perceptible reference mark (103, 203) predetermined manner the manufacturing device is guided, characterized in that the at least one visually perceptible reference mark (103, 203) and the at least one sensor for distance measurement are installed on a workpiece carrier and are guided through it by the production device.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass solche Lagebeziehungen signalisiert werden, in denen ein vorgebbarer Abstandswert zwischen Fertigungseinrichtung und Objekt erreicht oder unterschritten wird.Method according to Claim 1 , characterized in that such positional relationships are signaled, in which a predeterminable distance value between the manufacturing device and object is reached or fallen below.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zusätzlich Mittel zur bildgebenden Datenausgabe verwendet werden und - durch Auswertung der Aufzeichnung der mindestens einen Referenzmarke (103, 203) Daten für eine bildliche Darstellung des computererzeugten Modells des Objektes ermittelt, - die bildliche Darstellung des computererzeugten Modells des Objektes und die Aufzeichnung der mindestens einen Referenzmarke (103, 203) bei einer Ausgabe durch die Mittel zur bildgebenden Datenausgabe überlagert werden.Method according to Claim 1 or 2 , characterized in that additionally means for the imaging data output are used and - by evaluating the recording of the at least one reference mark (103, 203) determines data for a pictorial representation of the computer-generated model of the object, - the image representation of the computer-generated model of the object and the recording of the at least one reference mark (103, 203) are superimposed upon output by the means for imaging data output.
  4. Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Referenzmarke (103, 203) und das computererzeugte Modell des Objektes durch ein Bezugskoordinatensystem miteinander verknüpft werden.Method according to one of the preceding claims, characterized in that the at least one reference mark (103, 203) and the computer-generated model of the object are linked together by a reference coordinate system.
  5. Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass als Sensor zur Abstandsmessung ein 3D-Scanner oder eine Stereo-Kamera eingesetzt werden.Method according to one of the preceding claims, characterized in that a 3D scanner or a stereo camera are used as a sensor for distance measurement.
  6. Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Ausgabe über die Mittel zur visuellen Datenausgabe wenigstens ein Teil der Bildpunkte der bildlichen Darstellung mit einem Abstandswert des durch den Bildpunkt dargestellten Gegenstandes verknüpft wird.Method according to one of the preceding claims, characterized in that, when outputting via the means for visual data output, at least a part of the pixels of the pictorial representation is linked to a distance value of the object represented by the pixel.
  7. Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die visuelle Aufzeichnung durch wenigstens einen Teil der von dem mindestens einen Sensor zur Abstandsmessung gelieferten Daten gesteuert wird.Method according to one of the preceding claims, characterized in that the visual recording is controlled by at least part of the data supplied by the at least one sensor for distance measurement.
  8. Verfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass eine Planung von Fertigungseinrichtungen der Fahrzeugproduktion durchgeführt wird und als Objekt ein Werkzeug oder Werkstück, insbesondere ein Kraftfahrzeug, modelliert wird.Method according to one of the preceding claims, characterized in that a planning of production facilities of the vehicle production is carried out and as an object a tool or workpiece, in particular a motor vehicle, is modeled.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Werkstückträger mit - mindestens einer intern oder extern gesteuerten, fest oder beweglich installierten Aufnahmeeinrichtung, - Sensorik für Umfeld oder Abstandsvermessung, - mindestens einem Mittel zur Beleuchtung des Umfeldes, - mindestens einer Steuereinrichtung, - mindestens einem Mittel zur Signalübertragung an externe Geräte, - mindestens einer Energieversorgung und/oder - mindestens einer Schutzeinrichtung gegen Temperatur und/oder Feuchtigkeit und/oder Staub ausgerüstet ist.Method according to Claim 8 , characterized in that the workpiece carrier with - at least one internally or externally controlled, fixed or movably installed receiving device, - sensors for environment or distance measurement, - at least one means for illuminating the environment, - at least one control device, - at least one means for signal transmission external devices, - at least one power supply and / or - at least one protective device against temperature and / or moisture and / or dust is equipped.
  10. Anordnung zur Planung von Fertigungseinrichtungen umfassend Mittel zur visuellen Aufzeichnung, Sensor zur Abstandsmessung, mindestens eine Datenverarbeitungseinrichtung und mindestens eine visuell wahrnehmbare Referenzmarke (103, 203), wobei die Anordnung derart eingerichtet ist, ein Verfahren gemäß Anspruch 1 auszuführen.Arrangement for planning production facilities comprising means for visual recording, sensor for distance measurement, at least one data processing device and at least one visually perceptible reference mark (103, 203), wherein the arrangement is set up such a method Claim 1 perform.
DE102005014979.0A 2005-03-24 2005-03-24 Method and arrangement for planning production facilities Active DE102005014979B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102005014979.0A DE102005014979B4 (en) 2005-03-24 2005-03-24 Method and arrangement for planning production facilities

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005014979.0A DE102005014979B4 (en) 2005-03-24 2005-03-24 Method and arrangement for planning production facilities

Publications (2)

Publication Number Publication Date
DE102005014979A1 DE102005014979A1 (en) 2006-10-05
DE102005014979B4 true DE102005014979B4 (en) 2018-08-23

Family

ID=36998890

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005014979.0A Active DE102005014979B4 (en) 2005-03-24 2005-03-24 Method and arrangement for planning production facilities

Country Status (1)

Country Link
DE (1) DE102005014979B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007057803A1 (en) 2007-11-30 2009-06-04 Fit Fruth Innovative Technologien Gmbh Processes and manufacturing systems for manufacturing components using geometric free spaces on production lines
CN102497044B (en) * 2011-12-22 2013-11-20 湘电集团有限公司 Frequency conversion restructuring method for large-sized diesel-driven generator

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10128015A1 (en) 2000-06-13 2001-12-20 Volkswagen Ag Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan
DE10240392A1 (en) 2002-09-02 2004-03-11 Patron, Günter A system for determining relative spacing of virtual and real objects e.g. for planning of buildings and manufacturing equipment, requires involving an augmented reality system for environmental real object position

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5400244A (en) 1991-06-25 1995-03-21 Kabushiki Kaisha Toshiba Running control system for mobile robot provided with multiple sensor information integration system
US6500008B1 (en) 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10128015A1 (en) 2000-06-13 2001-12-20 Volkswagen Ag Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan
DE10240392A1 (en) 2002-09-02 2004-03-11 Patron, Günter A system for determining relative spacing of virtual and real objects e.g. for planning of buildings and manufacturing equipment, requires involving an augmented reality system for environmental real object position

Also Published As

Publication number Publication date
DE102005014979A1 (en) 2006-10-05

Similar Documents

Publication Publication Date Title
DE102015002760B4 (en) Robot simulation system that simulates the process of removing workpieces
DE60127644T2 (en) Teaching device for a robot
EP1447770B1 (en) Method and apparatus for visualization of computer-based information
EP1701233B1 (en) Generation of virtual worlds based on a real environment
EP1848961B1 (en) Method for calibrating a measuring system
DE102004016331B4 (en) Apparatus and method for concurrently displaying virtual and real environmental information
EP1604789A2 (en) Method and device for improving the positioning accuracy of a manipulator
DE102009012590A1 (en) Device for determining the position of a robot arm with camera for taking pictures
DE102015000587B4 (en) A robot programming device for creating a robot program for taking an image of a workpiece
EP3030359B1 (en) Bending press
DE102014118001A1 (en) Method for simulating the motion of a manipulator
DE102005014979B4 (en) Method and arrangement for planning production facilities
EP1487616B1 (en) Automatic process control
DE3925275C2 (en)
EP3168701B1 (en) Method for representing the processing in a machine tool
EP2122424A2 (en) Industrial robot, and methods for determining the position of an industrial robot relative to an object
EP3578321A1 (en) Method for use with a machine for generating an augmented reality display environment
EP1915239B1 (en) Method for generating an environmental image
EP3324362B1 (en) Method and device for commissioning a multi-axis system
EP3323565B1 (en) Method and device for commissioning a multiple axis system
DE10327479A1 (en) Device for determining the position of a workpiece and method therefor using at least one electronic camera
DE102011107228A1 (en) Method for detecting collision of e.g., outer side mirror of motor vehicle i.e. motor car, with tool of assembly line, involves viewing collision for set of positions along production line by analysis of chamber profile with hull profile
DE102007057887A1 (en) Multidimensional area e.g. factory building, and/or object e.g. pipes, representation displaying and changing method, involves adapting actual condition of area and/or object for comparison with reference condition
DE10033366B4 (en) Method and detection device for detecting parameters on mechanical devices
DE102018112910B4 (en) Manufacturing process for a drive device and test device

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R084 Declaration of willingness to licence
R084 Declaration of willingness to licence

Effective date: 20111119

R012 Request for examination validly filed

Effective date: 20111123

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017500000

Ipc: G06F0030000000