DE102018112618A1 - Method for identifying a field device for an augmented reality application - Google Patents

Method for identifying a field device for an augmented reality application Download PDF

Info

Publication number
DE102018112618A1
DE102018112618A1 DE102018112618.2A DE102018112618A DE102018112618A1 DE 102018112618 A1 DE102018112618 A1 DE 102018112618A1 DE 102018112618 A DE102018112618 A DE 102018112618A DE 102018112618 A1 DE102018112618 A1 DE 102018112618A1
Authority
DE
Germany
Prior art keywords
field device
operating unit
reflection image
pattern
infrared radiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018112618.2A
Other languages
German (de)
Inventor
Jan Schleiferböck
Eric BIRGEL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Endress and Hauser SE and Co KG
Original Assignee
Endress and Hauser SE and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Endress and Hauser SE and Co KG filed Critical Endress and Hauser SE and Co KG
Priority to DE102018112618.2A priority Critical patent/DE102018112618A1/en
Publication of DE102018112618A1 publication Critical patent/DE102018112618A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Identifikation eines Feldgeräts (FG) der Automatisierungstechnik mittels einer Bedieneinheit (BE), wobei die Bedieneinheit (BE) eine Kamera (KA), insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend:- Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf zumindest ein am Feldgerät (FG) angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster (MU) gerichtet ist;- Erfassen einer Reflexion der Infrarotstrahlung an dem zumindest einem reflexiven Muster (MU) mittels der Kamera (KA);- Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild (RB);- Vergleichen des Reflexionsbilds (RB) mit zumindest einem Identifikationsmuster (IM) eines Feldgeräts (FG); und- Übermitteln von mit dem Identifikationsmuster (IM) verknüpften Identifikationsdaten an die Bedieneinheit (BE), im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild (RB) und dem Identifikationsmuster (IM) besteht.The invention relates to a method for identifying a field device (FG) of automation technology by means of an operating unit (BE), wherein the operating unit (BE) has a camera (KA), in particular a time-of-flight camera, comprising: - emitting a Infrared radiation, wherein the infrared radiation is directed substantially to at least one two-dimensional, infrared-reflective (MU) pattern on the field device (FG); detecting a reflection of the infrared radiation on the at least one reflective pattern (MU) by means of the camera (KA); - converting the received reflected infrared radiation into a reflection image (RB), - comparing the reflection image (RB) with at least one identification pattern (IM) of a field device (FG); and - transmitting identification data associated with the identification pattern (IM) to the operating unit (BE) in the event that there is a match between the reflection image (RB) and the identification pattern (IM).

Description

Die Erfindung betrifft ein Verfahren zur Identifikation eines Feldgeräts der Automatisierungstechnik mittels einer Bedieneinheit, wobei die Bedieneinheit eine Kamera, insbesondere eine Time-of-Flight-Kamera, aufweist.The invention relates to a method for identifying a field device of the automation technology by means of an operating unit, wherein the operating unit has a camera, in particular a time-of-flight camera.

Aus dem Stand der Technik sind bereits Feldgeräte bekannt geworden, die in industriellen Anlagen zum Einsatz kommen. In der Automatisierungstechnik ebenso wie in der Fertigungsautomatisierung werden vielfach Feldgeräte eingesetzt. Als Feldgeräte werden im Prinzip alle Geräte bezeichnet, die prozessnah eingesetzt werden und die prozessrelevante Informationen liefern oder verarbeiten. So werden Feldgeräte zur Erfassung und/oder Beeinflussung von Prozessgrößen verwendet. Zur Erfassung von Prozessgrößen dienen Messgeräte, bzw. Sensoren. Diese werden beispielsweise zur Druck- und Temperaturmessung, Leitfähigkeitsmessung, Durchflussmessung, pH-Messung, Füllstandmessung, etc. verwendet und erfassen die entsprechenden Prozessvariablen Druck, Temperatur, Leitfähigkeit, pH-Wert, Füllstand, Durchfluss etc. Zur Beeinflussung von Prozessgrößen werden Aktoren verwendet. Diese sind beispielsweise Pumpen oder Ventile, die den Durchfluss einer Flüssigkeit in einem Rohr oder den Füllstand in einem Behälter beeinflussen können. Neben den zuvor genannten Messgeräten und Aktoren werden unter Feldgeräten auch Remote I/Os, Funkadapter bzw. allgemein Geräte verstanden, die auf der Feldebene angeordnet sind.Field devices are already known from the prior art, which are used in industrial plants. Field devices are often used in automation technology as well as in factory automation. In principle, field devices are all devices that are used close to the process and that provide or process process-relevant information. For example, field devices are used to detect and / or influence process variables. Measuring devices or sensors are used to record process variables. These are used, for example, for pressure and temperature measurement, conductivity measurement, flow measurement, pH measurement, level measurement, etc. and record the corresponding process variables pressure, temperature, conductivity, pH value, level, flow etc. Actuators are used to influence process variables. These are, for example, pumps or valves that can influence the flow of a liquid in a pipe or the level in a container. In addition to the measuring devices and actuators mentioned above, field devices are also understood as remote I / Os, radio adapters or general devices which are arranged at the field level.

Eine Vielzahl solcher Feldgeräte wird von der Endress+Hauser-Gruppe produziert und vertrieben.A large number of such field devices are produced and sold by the Endress + Hauser Group.

Feldgeräte, die in eine neue Applikation einer Prozessanlage integriert werden, oder Austauschfeldgeräte, die ein veraltetes oder defektes Feldgerät einer Applikation ersetzen, müssen im Zuge der Inbetriebnahme spezifisch auf die jeweilige Applikation des Feldgeräts in der Messstelle angepasst werden. Dafür werden diese Feldgeräte während oder nach der Fertigung konfiguriert und parametriert. Die Konfiguration beschreibt zum einen die hardwareseitige Konfiguration, welche beispielsweise das Flanschmaterial eines Durchflussmessgerätes umfasst, als auch die softwareseitige Konfiguration. Unter Parametrierung versteht man das Definieren und Festlegen von Parametern, mit deren Hilfe der Betrieb des Feldgerätes auf die jeweiligen Merkmale der Applikation, beispielsweise das Messmedium, eingestellt wird.Field devices that are integrated into a new application of a process plant, or replacement field devices that replace an outdated or defective field device of an application must be adapted during commissioning specifically to the respective application of the field device in the measuring point. For this, these field devices are configured and parameterized during or after production. The configuration describes, on the one hand, the hardware-side configuration, which includes, for example, the flange material of a flowmeter, as well as the software-side configuration. Parameterization refers to the definition and definition of parameters with the aid of which the operation of the field device is set to the respective features of the application, for example the measuring medium.

Abhängig vom Feldgerätetyp kann ein Feldgerät mehrere hunderte verschiedene Parameter aufweisen, denen im Zuge der Inbetriebnahme Parameterwerte zugewiesen werden. Heutzutage wird die Parametrierung eines Feldgeräts mittels Softwaretools vorgenommen. Die Eingaben der Parameterwerte sind ausschließlich textbasiert möglich und setzen ein technisches Verständnis seitens des Bedieners voraus.Depending on the field device type, a field device may have several hundreds of different parameters to which parameter values are assigned in the course of commissioning. Nowadays the parameterization of a field device is done by means of software tools. The inputs of the parameter values are possible only text-based and require a technical understanding on the part of the operator.

Im Stand der Technik sind Verfahren bekannt geworden, in welchen die Parametrierung von Feldgeräten mittels Augmented-Reality-Methoden vereinfacht wird. Bei solchen Methoden wird eine Bedieneinheit mit einer Kamera und einer Anzeigeeinheit verwendet, welche Kamera ein Objekt aus der realen Welt erfasst. Das erfasste Objekt wird virtuell auf der Anzeigeeinheit der Bedieneinheit mit virtuellen Komponenten überlagert, welche dem Benutzer die Parametereigabe erleichtern, oder dem Benutzer anhand erfasster/erkannter Gemoemtrien der Messstelle, in welche das jeweilige Feldgerät eingebaut ist, Parametervorschläge unterbreiten. Als geeignete Bedieneinheiten kommen beispielsweise Datenbrillen wie die Microsoft Hololens oder mobile Endgeräte, wie Tablets oder Smartphones, in Betracht.In the prior art, methods have become known in which the parameterization of field devices is simplified by means of augmented reality methods. In such methods, a control unit with a camera and a display unit is used, which camera detects an object from the real world. The detected object is virtually superimposed on the display unit of the operating unit with virtual components, which facilitate the parameter setting for the user, or submit parameter suggestions to the user on the basis of detected / detected gemoemtria of the measuring point in which the respective field device is installed. Examples of suitable control units are data glasses such as Microsoft Hololens or mobile devices such as tablets or smartphones.

Voraussetzung für solche Augmented-Reality-Anwendungen ist zum einen, dass bekannt sein muss, um welchen erfassten Objekttyp es sich handelt. Zum anderen muss die Lage des Objekts im dreidimensionalen Raum bekannt sein, um eine korrekte Überlagerung des erfassten Objekts mit den virtuellen Komponenten zu ermöglichen. Augmented Reality Devices arbeiten üblicherweise mit sogenannten 3D-Tiefensensoren um ihre Umgebung dreidimensional erfassen zu können. Aus den Tiefeninformationen wird zur Laufzeit ein sogenanntes 3D-Mesh (Modell) generiert, welches die Oberflächen der realen Umgebung abbildet. Auf Basis dessen können Applikationen nun virtuelle Inhalte der realen Welt überlagern.The prerequisite for such augmented reality applications is, on the one hand, that it must be known which type of object is being recorded. On the other hand, the position of the object in three-dimensional space must be known in order to allow a correct overlay of the detected object with the virtual components. Augmented reality devices usually work with so-called 3D depth sensors to capture their environment three-dimensionally. From the depth information, a so-called 3D mesh (model) is generated at runtime, which maps the surfaces of the real environment. Based on this, applications can now superimpose real-world virtual content.

Die Auflösung der eingesetzten 3D-Tiefensensoren ist jedoch sehr ungenau - es können etwa nur relativ grobe Strukturen, beispielsweise größer 15 cm, erfasst werden. Dadurch ist es beispielsweise nicht möglich, ein auf einem Tank angebrachtes Feldgerät zu erkennen.However, the resolution of the 3D depth sensors used is very inaccurate - for example, only relatively coarse structures, for example greater than 15 cm, can be detected. As a result, it is not possible, for example, to detect a field device mounted on a tank.

Ausgehend von dieser Problematik liegt der Erfindung die Aufgabe zugrunde, ein Verfahren vorzustellen, welches die Identifikation eines Feldgerätes für Augmented-Reality-Anwendungen verbessert.Based on this problem, the invention has the object to introduce a method which improves the identification of a field device for augmented reality applications.

Die Aufgabe wird durch ein Verfahren zur Identifikation eines Feldgeräts der Automatisierungstechnik mittels einer Bedieneinheit gelöst, wobei die Bedieneinheit eine Kamera, insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend:

  • - Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf ein am Feldgerät angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster gerichtet ist;
  • - Erfassen einer Reflexion der Infrarotstrahlung an dem reflexiven Muster mittels der Kamera;
  • - Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild;
  • - Vergleichen des Reflexionsbilds mit zumindest einem Identifikationsmuster eines Feldgeräts; und
  • - Übermitteln von mit dem Identifikationsmuster verknüpften Identifikationsdaten an die Bedieneinheit, im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild und dem Identifikationsmuster besteht.
The object is achieved by a method for identifying a field device of automation technology by means of an operating unit, wherein the operating unit has a camera, in particular a time-of-flight camera, comprising:
  • Emitting infrared radiation, the infrared radiation being directed substantially to a two-dimensional, infrared-reflective pattern applied to the field device;
  • - Detecting a reflection of the infrared radiation on the reflective pattern by means of the camera;
  • - converting the received reflected infrared radiation into a reflection image;
  • Comparing the reflection image with at least one identification pattern of a field device; and
  • - Transmitting associated with the identification pattern identification data to the operating unit, in the event that there is a match between the reflection image and the identification pattern.

Der Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass die Identifikation eines Feldgeräts mittels einer Augmented-Reality-Bedieneinheit verbessert wird. Von Seiten des Feldgeräts werden für die Identifikation keine aktiven Bauteile benötigt. Aufgrund der von der Bedieneinheit emittierten Infratotstrahlung ist auch eine Identifikation des Feldgeräts unter schlechten Lichtbedingungen möglich.The advantage of the method according to the invention is that the identification of a field device is improved by means of an augmented reality control unit. On the part of the field device no active components are needed for the identification. Due to the infrared radiation emitted by the operating unit, identification of the field device under poor lighting conditions is also possible.

Bei dem reflexiven Muster handelt es sich beispielsweise um einen Aufkleber, welcher auf einer definierten Stelle des Feldgeräts aufgebracht ist.The reflective pattern is, for example, a sticker which is applied to a defined location of the field device.

Das Reflexionsbild wird mittels Bildverarbeitungsalgorithmen mit bekannten Identifikationsmustern verglichen. Insbesondere werden hier KI(„Künstliche Intelligenz“)-Algorithmen, bzw. neuronale Netzwerke, verwendet. Mithilfe dieser Algorithmen kann eine bekannte Form des Reflexionsbilds selbst dann zuverlässig erkannt werden, wenn das Reflexionsbild aufgrund des Winkels von der Kamera zu dem reflektiven Muster einen hohen Verzerrungsgrad aufweist.The reflection image is compared by means of image processing algorithms with known identification patterns. In particular, AI ("artificial intelligence") algorithms or neural networks are used here. By means of these algorithms, a known shape of the reflection image can be reliably detected even if the reflection image has a high degree of distortion due to the angle from the camera to the reflective pattern.

Feldgeräte, welche im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben werden, sind bereits im einleitenden Teil der Beschreibung beispielhaft genannt worden.Field devices which are described in connection with the method according to the invention have already been mentioned by way of example in the introductory part of the description.

Gemäß einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass die Infrarotstrahlung von der Bedieneinheit, insbesondere von der Kamera, emittiert wird. Es ist hierbei insbesondere vorgesehen, dass es sich bei dem reflexiven Muster um ein retroreflektierendes Muster handelt. Das bedeutet, dass die einfallende Infrarotstrahlung weitgehend unabhängig von der Lage der Emissionsquelle der Infrarotstrahlung größtenteils in Richtung zurück zu der Emissionsquelle reflektiert wird.According to a preferred embodiment of the method according to the invention, it is provided that the infrared radiation is emitted by the operating unit, in particular by the camera. In this case, it is provided in particular that the reflective pattern is a retroreflective pattern. This means that the incident infrared radiation is largely reflected largely in the direction of the emission source, largely independent of the position of the emission source of the infrared radiation.

Gemäß einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens ist vorgesehen, dass eine perspektivische Verzerrung des Reflexionsbilds im Vergleich zu dem übereinstimmenden Identifikationsmuster ermittelt wird, wobei die Verzerrung für beide Dimensionen des Reflexionsbilds ermittelt wird. Hierfür werden die obig beschriebenen Bildverarbeitungsalgorithmen verwendet. Nachdem eine Übereinstimmung des Reflexionsbilds mit einem bekannten Identifikationsmuster festgestellt wurde, werden die Dimensionen des Reflexionsbilds und des Identifikationsmusters miteinander verglichen. Da das jeweilige Identifikationsmuster in seiner kanonischen Form bekannt ist, wird dieses als Referenzobjekt verwendet.According to an advantageous development of the method according to the invention, it is provided that a perspective distortion of the reflection image is determined in comparison to the matching identification pattern, wherein the distortion is determined for both dimensions of the reflection image. For this purpose, the image processing algorithms described above are used. After a coincidence of the reflection image with a known identification pattern has been determined, the dimensions of the reflection image and the identification pattern are compared with each other. Since the respective identification pattern is known in its canonical form, this is used as a reference object.

Eine bevorzugte Ausgestaltung des erfindungsgemäßen Verfahrens sieht vor, dass anhand der ermittelten perspektivischen Verzerrung eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts zu der Bedieneinheit ermittelt wird. Hierfür ist es zwingend erforderlich, dass bekannt ist, an welcher Stelle das reflexive Muster auf dem Feldgerät angebracht ist. Die Position und Lage des reflexiven Musters zu der Bedieneinheit wird in Ortskoordinaten eines relativen Koordinatensystems der Bedieneinheit übertragen.A preferred embodiment of the method according to the invention provides that a relative position, in particular a relative angle of inclination, of the field device to the operating unit is determined on the basis of the determined perspective distortion. For this purpose, it is imperative that it is known at which point the reflective pattern is mounted on the field device. The position and position of the reflective pattern to the operating unit is transmitted in location coordinates of a relative coordinate system of the operating unit.

Eine vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht vor, dass die Bedieneinheit mittels Lagesensoren eine absolute Lage der Bedieneinheit im dreidimensionalen Raum bestimmt. Zusätzlich kann die Bedieneinheit ihre jeweilige Ortsposition ermitteln, beispielsweise mittels GPS-Sensoren.An advantageous embodiment of the method according to the invention provides that the operating unit determines an absolute position of the operating unit in three-dimensional space by means of position sensors. In addition, the operating unit can determine their respective location position, for example by means of GPS sensors.

Gemäß einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass durch Vergleichen der relativen Lage des Feldgeräts zu der Bedieneinheit und der absoluten Lage der Bedieneinheit im dreidimensionalen Raum eine absolute Lage des Feldgeräts im dreidimensionalen Raum berechnet wird. Durch die Bestimmung der absoluten Lage der Bedieneinheit im dreidimensionalen Raum definiert die Bedieneinheit ein absolutes Koordinatensystem. Die Ortskoordinaten des reflexiven Musters werden anschließend in das absolute Koordinatensystem transformiert.According to a preferred embodiment of the method according to the invention, it is provided that an absolute position of the field device in three-dimensional space is calculated by comparing the relative position of the field device to the operating unit and the absolute position of the operating unit in three-dimensional space. By determining the absolute position of the operating unit in three-dimensional space, the operating unit defines an absolute coordinate system. The spatial coordinates of the reflexive pattern are then transformed into the absolute coordinate system.

Gemäß einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass bei dem Vergleich des Reflexionsbilds auf eine Datenbank, insbesondere auf eine cloudfähige Datenbank, zugegriffen wird, welche das zumindest eine Identifikationsmuster vorhält. Es ist insbesondere vorgesehen, dass eine Vielzahl an Identifikationsmustern auf der Datenbank abgelegt ist. Es kann hierbei vorgesehen sein, dass für jeden Feldgerätetyp eine unterschiedliche Form eines Identifikationsmusters vorgesehen ist.According to an advantageous embodiment of the method according to the invention, it is provided that in the comparison of the reflection image to a database, in particular to a cloud-capable database, which accesses the at least one identification pattern. It is provided in particular that a plurality of identification patterns is stored in the database. It can be provided here that a different form of identification pattern is provided for each field device type.

Vorteilhafterweise kann zusätzlich vorgesehen sein, dass das reflexive Muster zusätzliche Formen oder Bereiche, bzw. Symbole enthält. Diese Formen oder Bereiche können die Seriennummer des jeweiligen Feldgeräts abbilden und bei der Identifikation miterfasst werden.Advantageously, it may additionally be provided that the reflective pattern contains additional shapes or areas, or symbols. These shapes or areas may be the serial number of the mapped to the respective field device and included in the identification.

Gemäß einer ersten Variante des erfindungsgemäßen Verfahrens ist vorgesehen, dass als Bedieneinheit eine Datenbrille verwendet wird. Als Beispiel für eine solche Datenbrille sei die Microsoft Hololens genannt. Die Datenbrille weist eine Anzeigeeinheit auf. Im einfachsten Fall handelt es sich bei der Anzeigeeinheit um ein kombiniertes transparentes Glas mit einem Projektor. Der Bediener blickt durch das Glas hindurch. Die durch das Glas betrachtete Umgebung wird als Sichtfeld bezeichnet. Der Projektor ist dazu ausgestaltet, eine Projektion auf das Glas zu werfen, welche der Bediener wahrnimmt. Über das aktuelle Sichtfeld des Bedieners können so das virtuelle Objekte gelegt werden. Die virtuellen Objekte können nach Bestimmung der Lage von dem Feldgerät zu der Datenbrille nun in der Art über das Sichtfeld des Bedieners gelegt, dass diese sich auf oder in der Nähe von dem Feldgerät befinden. Ändert sich die Position der Kamera bezüglich des Feldgeräts, so verändert sich das auf der Anzeigeeinheit visualisierte Bild dementsprechend. Die virtuellen Objekte verbleiben allerdings auf der zugewiesenen Position des Feldgeräts und „wandern“, bzw. drehen sich dementsprechend abhängig von der Verschiebung des Feldgeräts auf dem Bild mit.According to a first variant of the method according to the invention, it is provided that data goggles are used as the operating unit. As an example of such data glasses is called the Microsoft Hololens. The data glasses have a display unit. In the simplest case, the display unit is a combined transparent glass with a projector. The operator looks through the glass. The environment viewed through the glass is called the field of vision. The projector is designed to project a projection on the glass which the operator perceives. Over the current field of view of the operator so the virtual objects can be placed. After determining the position from the field device to the data glasses, the virtual objects can now be laid over the field of view of the operator in such a way that they are located on or in the vicinity of the field device. If the position of the camera changes with respect to the field device, the image visualized on the display unit changes accordingly. However, the virtual objects remain in the assigned position of the field device and "wander", or rotate accordingly depending on the displacement of the field device on the image.

Alternativ ist vorgesehen, dass die Anzeigeeinheit als Sichtfeld des Bedieners ein von der Kamera erfasstes, ständig aktualisiertes Bild visualisiert, und wobei die virtuellen Objekte das auf der Anzeigeeinheit angezeigten Bilds zumindest teilweise überlagern. Die Anzeigeeinheit der Bedieneinheit zeigt das Livebild, welches von der Kamera aufgenommen wird. Der Bediener sollte die Bedieneinheit derart auf die Messstelle richten, dass das Feldgerät von der Kamera erfasst wird. Über das aktuelle Livebild der Kamera werden die virtuellen Objekte gelegt. Diese Methode eignet sich für Bedieneinheiten, welche kein transparentes Glas aufweisen, sondern ein herkömmliches Display als Anzeigeeinheit besitzen.Alternatively, it is provided that the display unit as a field of view of the operator visualized by the camera, constantly updated image, and wherein the virtual objects overlay the image displayed on the display unit at least partially. The display unit of the control unit shows the live image, which is taken by the camera. The operator should direct the operating unit to the measuring point in such a way that the field device is detected by the camera. The virtual objects are placed over the current live image of the camera. This method is suitable for control units, which do not have transparent glass, but have a conventional display as a display unit.

Gemäß einer zweiten Variante des erfindungsgemäßen Verfahrens ist vorgesehen, dass als Bedieneinheit ein mobiles Endgerät verwendet wird. Bei einem mobilen Endgerät handelt es sich insbesondere um ein Tablet oder um ein Smartphone. Zur Visualisierung von virtuellen Objekten wird die obige Variante bezüglich eines herkömmlichen Displays verwendet.According to a second variant of the method according to the invention, it is provided that a mobile terminal is used as the operating unit. A mobile terminal is in particular a tablet or a smartphone. For the visualization of virtual objects, the above variant is used with respect to a conventional display.

Alternativ können weitere Gerätearten als Bedieneinheiten verwendet werden, insofern diese eine Anzeigeeinheit und eine Kamera aufweisen, sowie eine ausreichende Rechenleistung zur Verfügung stellen können.Alternatively, other types of devices can be used as operating units, insofar as they have a display unit and a camera, and can provide sufficient computing power.

Die Erfindung wird anhand der nachfolgenden Figuren näher erläutert. Es zeigen

  • 1: ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens.
The invention will be explained in more detail with reference to the following figures. Show it
  • 1 : an embodiment of the method according to the invention.

In 1 ist eine Messstelle MS einer Anlage der Prozessautomatisierung gezeigt. Die Messstelle umfasst eine Komponente KO in Form eines Tanks. An diesem Tank KO ist ein Feldgerät FG angebracht, welches zur Erfassung des Füllstands des in dem Tank KO befindlichen Prozessmediums dient.In 1 is a measuring point MS a process automation system. The measuring point comprises a component KO in the form of a tank. At this tank KO is a field device FG mounted, which for detecting the level of the in the tank KO located process medium is used.

Zur Inbetriebnahme muss das Feldgerät FG parametriert werden. Der Bediener BD möchte die Parametrierung des Feldgeräts FG mithilfe einer Virtual-Reality-Anwendung vornehmen. Beispielsweise soll die Anwendung selbstständig relevante Geometrien des Tanks erkennen und auf dieser Basis spezifische Parameterwerte vorschlagen. Der Bediener BD möchte die Virtual-Reality-Anwendung auf seiner Bedieneinheit BE in Form einer Datenbrille ausführen.The field device must be commissioned FG be parameterized. The operator BD would like the parameterization of the field device FG using a virtual reality application. For example, the application should automatically detect relevant tank geometries and propose specific parameter values on this basis. The operator BD would like the virtual reality application on its control unit BE in the form of data glasses.

Um spezifische Parameterwerte vorschlagen zu können muss der Bedieneinheit BE mitgeteilt werden, um welchen Typ Feldgerät FG es sich handelt. Zudem werden in der Virtual-Reality-Anwendung unter Umständen spezielle virtuelle Objekte, beispielsweise Visualierungsmodelle, o.ä. verwendet, welche auf der Anzeigeeinheit AE der Bedieneinheit BE angezeigt werden und spezifisch für den jeweiligen Feldgerätetyp sind. Des Weiteren ist es notwendig, dass die Virtual-Reality-Anwendung die Positionierung und die Lage des Feldgeräts FG im dreidimensionalen Raum kennt.In order to be able to propose specific parameter values, the operating unit must BE be communicated to which type of field device FG it is about. In addition, in the virtual reality application may be special virtual objects, such as visualization models, or similar. used on the display unit AE the control unit BE are displayed and are specific to the particular field device type. Furthermore, it is necessary that the virtual reality application the positioning and location of the field device FG knows in three-dimensional space.

Zu diesem Zweck werden auf dem Feldgerät FG an definierter Position ein oder mehrere Reflexionsbilder MU angebracht. Es handelt sich hierbei um retroreflektierende Aufkleber mit einer definierten Form.For this purpose, be on the field device FG at defined position one or more reflection images MU appropriate. These are retroreflective stickers with a defined shape.

Für die Erfassung der Form der Reflexionsbild wird eine sogenannte Time-of-Flight-Kamera KA verwendet. Diese weist eine Leuchtquelle auf, welche infrarote Strahlung emittiert. Anhand der Laufzeit der von dem reflexiven Muster MU zurückgeworfenen Infrarotstrahlung kann ein 3D-Reflexionsbild RM erstellt werden.For capturing the shape of the reflection image is a so-called time-of-flight camera KA used. This has a light source which emits infrared radiation. Based on the duration of the reflexive pattern MU reflected infrared radiation can be a 3D reflection image RM to be created.

Alternativ wird eine gewöhnliche Infrarotkamera KA verwendet, welche ein zweidimensionales Reflexionsbild RM erfasst.Alternatively, a normal infrared camera KA which uses a two-dimensional reflection image RM detected.

Das erfasste Reflexionsbild RM wird von der Bedieneinheit BE mittels Internet an eine Datenbank DB übermittelt. Die Datenbank DB weist eine Vielzahl vorab erfasster Identifikationsmuster IM, welche jeweils einem entsprechenden Feldgerätetyp zugeordnet sind. Mittels Bildverarbeitungsalgorithmen wird das erfasste Reflexionsbild RM mit den auf der Datenbank DB befindlichen Identifikationsmustern IM verglichen. Die Datenbank DB führt dabei die Bildverarbeitungsalgorithmen aus und übermittelt der Bedieneinheit BE im Falle einer Übereinstimmung Identifikationsinformationen des Feldgeräts FG, beispielsweise den Typ des Feldgeräts FG.The detected reflection image RM is received from the operation unit BE via internet to a database DB transmitted. Database DB has a plurality of pre-recorded identification pattern IN THE , which are each assigned to a corresponding field device type. By means of image processing algorithms, the captured reflection image RM with those in the database DB located identification patterns IN THE compared. Database DB executes the image processing algorithms and transmits the operating unit BE in case of a match identification information of the field device FG , for example the type of field device FG ,

Alternativ ist es vorgesehen, dass die Bedieneinheit BE die Identifikationsmuster IM von der Datenbank DB abruft und die Bildverarbeitungsalgorithmen selbst ausführt, wobei die Identifikationsmuster IM mit Identifikationsinformationen des entsprechenden Feldgerätetyps verknüpft sind.Alternatively, it is provided that the operating unit BE the identification patterns IN THE from the database DB retrieves and executes the image processing algorithms themselves, using the identification patterns IN THE are associated with identification information of the corresponding field device type.

Nachdem die Identifikation des Feldgeräts FG abgeschlossen ist, wird die absolute Lage des Feldgeräts FG im dreidimensionalen Raum bestimmt. Hierfür wird in einem ersten Schritt eine perspektivische Verzerrung des Reflexionsbilds RM im Vergleich zu dem übereinstimmenden Identifikationsmuster IM ermittelt, wobei die Verzerrung für beide Dimensionen des Reflexionsbilds RM ermittelt wird. Zu diesem Zweck werden erneute obig beschriebenen Bildverarbeitungsalgorithmen ausgeführt, um eine Längenabweichung in beiden Dimensionen zu bestimmen. Da das jeweilige Identifikationsmuster IM in seiner kanonischen Form bekannt ist, wird dieses als Referenzobjekt verwendet.After the identification of the field device FG is completed, the absolute location of the field device FG determined in three-dimensional space. For this purpose, in a first step, a perspective distortion of the reflection image RM compared to the matching identification pattern IN THE determines the distortion for both dimensions of the reflection image RM is determined. For this purpose, new image processing algorithms described above are executed to determine a length deviation in both dimensions. Because the respective identification pattern IN THE is known in its canonical form, this is used as a reference object.

Anhand der ermittelten perspektivischen Verzerrung wird in einem zweiten Schritt eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts FG zu der Bedieneinheit BE ermittelt. Hierfür ist es zwingend erforderlich, dass bekannt ist, an welcher Stelle das reflexive Muster MU an dem Feldgerät FG angebracht ist. Die Position und Lage des reflexiven Musters MU zu der Bedieneinheit BE wird in Ortskoordinaten eines relativen Koordinatensystems der Bedieneinheit übertragen.Based on the determined perspective distortion, in a second step, a relative position, in particular a relative angle of inclination, of the field device FG to the control unit BE determined. For this it is imperative that it is known at which point the reflexive pattern MU on the field device FG is appropriate. The position and location of the reflexive pattern MU to the control unit BE is transmitted in location coordinates of a relative coordinate system of the operating unit.

In einem dritten Schritt bestimmt die Bedieneinheit mittels Lagesensoren eine absolute Lage der Bedieneinheit BE im dreidimensionalen Raum. Die absolute Lage der Bedieneinheit BE umfasst die Neigung der Bedieneinheit BE und ihre jeweilige Ortsposition, welche die Bedieneinheit beispielsweise mittels GPS-Sensoren erfasst.In a third step, the operating unit determines an absolute position of the operating unit by means of position sensors BE in three-dimensional space. The absolute position of the control unit BE includes the inclination of the operating unit BE and their respective location position, which detects the operating unit, for example by means of GPS sensors.

In einem letzten Schritt bestimmt die Bedieneinheit BE durch Vergleichen der relativen Lage des Feldgeräts FG zu der Bedieneinheit BE und der absoluten Lage der Bedieneinheit BE im dreidimensionalen Raum die absolute Lage des Feldgeräts FG im dreidimensionalen Raum. Durch die Bestimmung der absoluten Lage der Bedieneinheit BE im dreidimensionalen Raum definiert die Bedieneinheit BE ein absolutes Koordinatensystem. Die Ortskoordinaten des reflexiven Musters MU werden anschließend in das absolute Koordinatensystem transformiert und dadurch die Lage des Feldgeräts FG, und gegebenenfalls dessen Ortsposition, im Bezug zu der Bedieneinheit BE bestimmt.In a final step, the control unit determines BE by comparing the relative position of the field device FG to the control unit BE and the absolute position of the operating unit BE in three-dimensional space, the absolute position of the field device FG in three-dimensional space. By determining the absolute position of the operating unit BE in three-dimensional space defines the control unit BE an absolute coordinate system. The location coordinates of the reflexive pattern MU are then transformed into the absolute coordinate system and thereby the position of the field device FG , and possibly its position in relation to the control unit BE certainly.

Wird eine Time-of-Flight-Kamera KA verwendet, so kann das Verfahren abgekürzt werden. Die Bedieneinheit BE muss hierfür ihre absolute Lage im dreidimensionalen Raum bestimmen. Anschließend erfasst die Time-of-Flight-Kamera KA den Abstand der Bedieneinheit BE zu den jeweiligen Eckpunkten des reflexiven Musters MU und berechnet daraufhin den Abstand zu dem Feldgerät FG, bzw. daraus die absolute Lage und Ortsposition des Feldgeräts FG im dreidimensionalen Raum.Will be a time-of-flight camera KA used, the process can be abbreviated. The operating unit BE For this, it must determine its absolute position in three-dimensional space. Subsequently, the time-of-flight camera captures KA the distance of the control unit BE to the respective vertices of the reflexive pattern MU and then calculates the distance to the field device FG , or from this the absolute position and spatial position of the field device FG in three-dimensional space.

Nachdem die Bestimmung des Feldgeräts FG im dreidimensionalen Raum abgeschlossen ist, kann die eigentliche Augmented-Reality-Applikation auf der Bedieneinheit BE ausgeführt werden, bei welcher es sich beispielsweise um besagte Anwendung zur Unterstützung des Bedieners bei der Parametrierung des Feldgeräts FG handelt.After the determination of the field device FG Completed in three-dimensional space, the actual augmented reality application can be on the control unit BE be performed, which, for example, to said application to assist the operator in the parameterization of the field device FG is.

Alternativ zu einer Datenbrille kann als Bedieneinheit BE auch ein mobiles Endgerät verwendet werden. Hierfür eignet sich beispielsweise ein Smartphone oder ein Tablet, aber auch ein Laptop mit einer Webcam.As an alternative to a data goggles can serve as a control unit BE also a mobile terminal can be used. This is for example a smartphone or a tablet, but also a laptop with a webcam.

Das erfindungsgemäße Verfahren eignet sich für alle Arten von Feldgerätetypen und ist nicht etwa auf Füllstandmessgeräte beschränkt.The method according to the invention is suitable for all types of field device types and is not limited to level measuring devices.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

AEAE
Anzeigeeinheitdisplay unit
BDBD
Bedieneroperator
BEBE
Bedieneinheitoperating unit
DBDB
DatenbankDatabase
FGFG
Feldgerätfield device
IMIN THE
Identifikationsmusteridentification patterns
KAKA
Kameracamera
KOKO
Komponente einer MessstelleComponent of a measuring point
MSMS
Messstellemeasuring point
MUMU
reflexives Musterreflexive pattern
RBRB
Reflexionsbildreflection image

Claims (9)

Verfahren zur Identifikation eines Feldgeräts (FG) der Automatisierungstechnik mittels einer Bedieneinheit (BE), wobei die Bedieneinheit (BE) eine Kamera (KA), insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend: - Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf zumindest ein am Feldgerät (FG) angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster (MU) gerichtet ist; - Erfassen einer Reflexion der Infrarotstrahlung an dem zumindest einem reflexiven Muster (MU) mittels der Kamera (KA); - Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild (RB); - Vergleichen des Reflexionsbilds (RB) mit zumindest einem Identifikationsmuster (IM) eines Feldgeräts (FG); und - Übermitteln von mit dem Identifikationsmuster (IM) verknüpften Identifikationsdaten an die Bedieneinheit (BE), im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild (RB) und dem Identifikationsmuster (IM) besteht.Method for identifying a field device (FG) of automation technology by means of an operating unit (BE), wherein the operating unit (BE) has a camera (KA), in particular a time-of-flight camera, comprising: - Emitting infrared radiation, wherein the infrared radiation is directed substantially to at least one two-dimensional, infrared-reflective (MU) pattern attached to the field device (FG); Detecting a reflection of the infrared radiation at the at least one reflective pattern (MU) by means of the camera (KA); - converting the received reflected infrared radiation into a reflection image (RB); Comparing the reflection image (RB) with at least one identification pattern (IM) of a field device (FG); and - transmitting identification data associated with the identification pattern (IM) to the operating unit (BE) in the event that there is a match between the reflection image (RB) and the identification pattern (IM). Verfahren nach Anspruch 1, wobei die Infrarotstrahlung von der Bedieneinheit (BE), insbesondere von der Kamera (KA), emittiert wird.Method according to Claim 1 , wherein the infrared radiation from the operating unit (BE), in particular from the camera (KA), emitted. Verfahren nach zumindest einem der vorherigen Ansprüche, wobei eine perspektivische Verzerrung des Reflexionsbilds (RB) im Vergleich zu dem übereinstimmenden Identifikationsmuster (IM) ermittelt wird, wobei die Verzerrung für beide Dimensionen des Reflexionsbilds (RB) ermittelt wird.Method according to at least one of the preceding claims, wherein a perspective distortion of the reflection image (RB) is determined in comparison to the matching identification pattern (IM), wherein the distortion is determined for both dimensions of the reflection image (RB). Verfahren nach Anspruch 3, wobei anhand der ermittelten perspektivischen Verzerrung eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts (FG) zu der Bedieneinheit (BE) ermittelt wird.Method according to Claim 3 , wherein a relative position, in particular a relative angle of inclination, of the field device (FG) to the operating unit (BE) is determined on the basis of the determined perspective distortion. Verfahren nach Anspruch 3 oder 4, wobei die Bedieneinheit (BE) mittels Lagesensoren eine absolute Lage der Bedieneinheit (BE) im dreidimensionalen Raum bestimmt.Method according to Claim 3 or 4 , wherein the operating unit (BE) by means of position sensors determines an absolute position of the operating unit (BE) in three-dimensional space. Verfahren nach Anspruch 5, wobei durch Vergleichen der relativen Lage des Feldgeräts (FG) zu der Bedieneinheit (BE) und der absoluten Lage der Bedieneinheit (BE) im dreidimensionalen Raum eine absolute Lage des Feldgeräts (FG) im dreidimensionalen Raum berechnet wird.Method according to Claim 5 in which, by comparing the relative position of the field device (FG) to the operating unit (BE) and the absolute position of the operating unit (BE) in three-dimensional space, an absolute position of the field device (FG) in three-dimensional space is calculated. Verfahren nach zumindest einem der vorherigen Ansprüche, wobei bei dem Vergleich des Reflexionsbilds (RB) auf eine Datenbank, insbesondere auf eine cloudfähige Datenbank (DB), zugegriffen wird, welche das zumindest eine Identifikationsmuster (IM) vorhält.Method according to at least one of the preceding claims, wherein in the comparison of the reflection image (RB) to a database, in particular to a cloud-capable database (DB), is accessed, which maintains the at least one identification pattern (IM). Verfahren nach zumindest einem der vorherigen Ansprüche, wobei als Bedieneinheit (BE) eine Datenbrille verwendet wird.Method according to at least one of the preceding claims, wherein as a control unit (BE) a data glasses is used. Verfahren nach zumindest einem der Ansprüche 1 bis 7, wobei als Bedieneinheit (BE) ein mobiles Endgerät verwendet wird.Method according to at least one of Claims 1 to 7 , wherein as a control unit (BE) a mobile terminal is used.
DE102018112618.2A 2018-05-25 2018-05-25 Method for identifying a field device for an augmented reality application Pending DE102018112618A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018112618.2A DE102018112618A1 (en) 2018-05-25 2018-05-25 Method for identifying a field device for an augmented reality application

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018112618.2A DE102018112618A1 (en) 2018-05-25 2018-05-25 Method for identifying a field device for an augmented reality application

Publications (1)

Publication Number Publication Date
DE102018112618A1 true DE102018112618A1 (en) 2019-11-28

Family

ID=68499209

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018112618.2A Pending DE102018112618A1 (en) 2018-05-25 2018-05-25 Method for identifying a field device for an augmented reality application

Country Status (1)

Country Link
DE (1) DE102018112618A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7204428B2 (en) * 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
WO2007139676A2 (en) * 2006-05-26 2007-12-06 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7204428B2 (en) * 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
WO2007139676A2 (en) * 2006-05-26 2007-12-06 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LENGENFELDER, C. [et al.]: Low-cost and Retrofittable Pose Estimation of Rigid Objects Using Infrared Markers. In: Procedia CIRP, 72. Jg., 2018, S. 839-844. URL: https://www.sciencedirect.com/science/article/pii/S2212827118305407/pdf[abgerufen am 13.03.2019] *
RE, Guido: Low cost augmented reality for industrial problems. Doktorarbeit, Politecnico Milano, Italien, 2013. URL: https://www.politesi.polimi.it/bitstream/10589/74781/1/2013_03_PhD_Re.pdf[abgerufen am 18.03.2019] *
SCHWALD, Bernd; De LAVAL, Blandinge: An Augmented Reality System for Training and Assistance to Maintenance in the Industrial Context. In: Journal of WSCG, Vol. 11, 2003, No.1. URL: https://pdfs.semanticscholar.org/4568/25e3cb0a3b5f1934a14efd6985fed9d1b883.pdf[abgerufen am 13.03.2019] *
WANG, Tianren; LIU, Yue; WANG, Yongtian: Infrared marker based augmented reality system for equipment maintenance. In: 2008 International Conference on Computer Science and Software Engineering. IEEE, 2008. S. 816-819. URL: https://ieeexplore.ieee.org/iel5/4721667/4722820/04723028.pdf[abgerufen am 18.03.2019] *

Similar Documents

Publication Publication Date Title
DE102015002760B4 (en) Robot simulation system that simulates the process of removing workpieces
EP1701233B1 (en) Generation of virtual worlds based on a real environment
EP1763845B1 (en) Method and device for determining optical overlaps with ar objects
EP1447770B1 (en) Method and apparatus for visualization of computer-based information
DE112019003204T5 (en) VISUALIZATION AND MODIFICATION OF WORKING EDGE AREAS USING EXTENDED REALITY
DE102017116952A1 (en) SYSTEM AND METHOD FOR IMPROVED SCORING OF 3D LAYERS AND REMOVAL OF DISTURBANCES IN 3D IMAGE DATA
WO2008107021A1 (en) Method and device for generating tracking configurations for augmented reality applications
WO2020126240A1 (en) Method for operating an automation technology field device in an augmented-reality/mixed-reality environment
DE102015015503A1 (en) A robotic system having an augmented reality compatible display
DE102018109774A1 (en) Image processing system, image processing device and image processing program
DE102005021735A1 (en) Video monitoring system for industrial plant building, has unit provided for interaction of outline data with structures in video recording, and unit to derive calibration parameter of camera from interaction
DE102018113336A1 (en) A method of using a machine to set an augmented reality display environment
EP3324362A1 (en) Method and device for commissioning multi-axis system
DE102018101162B4 (en) Measuring system and method for extrinsic calibration
EP3882856A1 (en) Method and device for determining a pose
EP3974936B1 (en) Configuration of a visualisation device for a machine area
DE102007009851B3 (en) Industrial robot's position determining method, involves determining position of robot relative to object based on assigned model points, and determining position of camera assigned to image and position of camera relative to robot
DE102017010683B4 (en) Method for automatic restoration of a measured state of a projection system
DE102018218611B4 (en) Method and computing device for generating a three-dimensional CAD model
EP3418839A1 (en) Method for controlling an automation assembly
EP3607419B1 (en) Method and device for displaying component documentation
DE102018112618A1 (en) Method for identifying a field device for an augmented reality application
EP1915239A2 (en) Method for generating an environmental image
WO2019185079A1 (en) 3d object-sensing system
EP3616140A1 (en) System for supporting teamwork by means of augmented reality

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE

Representative=s name: ANDRES, ANGELIKA, DIPL.-PHYS., DE

R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R082 Change of representative

Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE

R082 Change of representative

Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE