DE102018112618A1 - Method for identifying a field device for an augmented reality application - Google Patents
Method for identifying a field device for an augmented reality application Download PDFInfo
- Publication number
- DE102018112618A1 DE102018112618A1 DE102018112618.2A DE102018112618A DE102018112618A1 DE 102018112618 A1 DE102018112618 A1 DE 102018112618A1 DE 102018112618 A DE102018112618 A DE 102018112618A DE 102018112618 A1 DE102018112618 A1 DE 102018112618A1
- Authority
- DE
- Germany
- Prior art keywords
- field device
- operating unit
- reflection image
- pattern
- infrared radiation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Identifikation eines Feldgeräts (FG) der Automatisierungstechnik mittels einer Bedieneinheit (BE), wobei die Bedieneinheit (BE) eine Kamera (KA), insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend:- Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf zumindest ein am Feldgerät (FG) angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster (MU) gerichtet ist;- Erfassen einer Reflexion der Infrarotstrahlung an dem zumindest einem reflexiven Muster (MU) mittels der Kamera (KA);- Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild (RB);- Vergleichen des Reflexionsbilds (RB) mit zumindest einem Identifikationsmuster (IM) eines Feldgeräts (FG); und- Übermitteln von mit dem Identifikationsmuster (IM) verknüpften Identifikationsdaten an die Bedieneinheit (BE), im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild (RB) und dem Identifikationsmuster (IM) besteht.The invention relates to a method for identifying a field device (FG) of automation technology by means of an operating unit (BE), wherein the operating unit (BE) has a camera (KA), in particular a time-of-flight camera, comprising: - emitting a Infrared radiation, wherein the infrared radiation is directed substantially to at least one two-dimensional, infrared-reflective (MU) pattern on the field device (FG); detecting a reflection of the infrared radiation on the at least one reflective pattern (MU) by means of the camera (KA); - converting the received reflected infrared radiation into a reflection image (RB), - comparing the reflection image (RB) with at least one identification pattern (IM) of a field device (FG); and - transmitting identification data associated with the identification pattern (IM) to the operating unit (BE) in the event that there is a match between the reflection image (RB) and the identification pattern (IM).
Description
Die Erfindung betrifft ein Verfahren zur Identifikation eines Feldgeräts der Automatisierungstechnik mittels einer Bedieneinheit, wobei die Bedieneinheit eine Kamera, insbesondere eine Time-of-Flight-Kamera, aufweist.The invention relates to a method for identifying a field device of the automation technology by means of an operating unit, wherein the operating unit has a camera, in particular a time-of-flight camera.
Aus dem Stand der Technik sind bereits Feldgeräte bekannt geworden, die in industriellen Anlagen zum Einsatz kommen. In der Automatisierungstechnik ebenso wie in der Fertigungsautomatisierung werden vielfach Feldgeräte eingesetzt. Als Feldgeräte werden im Prinzip alle Geräte bezeichnet, die prozessnah eingesetzt werden und die prozessrelevante Informationen liefern oder verarbeiten. So werden Feldgeräte zur Erfassung und/oder Beeinflussung von Prozessgrößen verwendet. Zur Erfassung von Prozessgrößen dienen Messgeräte, bzw. Sensoren. Diese werden beispielsweise zur Druck- und Temperaturmessung, Leitfähigkeitsmessung, Durchflussmessung, pH-Messung, Füllstandmessung, etc. verwendet und erfassen die entsprechenden Prozessvariablen Druck, Temperatur, Leitfähigkeit, pH-Wert, Füllstand, Durchfluss etc. Zur Beeinflussung von Prozessgrößen werden Aktoren verwendet. Diese sind beispielsweise Pumpen oder Ventile, die den Durchfluss einer Flüssigkeit in einem Rohr oder den Füllstand in einem Behälter beeinflussen können. Neben den zuvor genannten Messgeräten und Aktoren werden unter Feldgeräten auch Remote I/Os, Funkadapter bzw. allgemein Geräte verstanden, die auf der Feldebene angeordnet sind.Field devices are already known from the prior art, which are used in industrial plants. Field devices are often used in automation technology as well as in factory automation. In principle, field devices are all devices that are used close to the process and that provide or process process-relevant information. For example, field devices are used to detect and / or influence process variables. Measuring devices or sensors are used to record process variables. These are used, for example, for pressure and temperature measurement, conductivity measurement, flow measurement, pH measurement, level measurement, etc. and record the corresponding process variables pressure, temperature, conductivity, pH value, level, flow etc. Actuators are used to influence process variables. These are, for example, pumps or valves that can influence the flow of a liquid in a pipe or the level in a container. In addition to the measuring devices and actuators mentioned above, field devices are also understood as remote I / Os, radio adapters or general devices which are arranged at the field level.
Eine Vielzahl solcher Feldgeräte wird von der Endress+Hauser-Gruppe produziert und vertrieben.A large number of such field devices are produced and sold by the Endress + Hauser Group.
Feldgeräte, die in eine neue Applikation einer Prozessanlage integriert werden, oder Austauschfeldgeräte, die ein veraltetes oder defektes Feldgerät einer Applikation ersetzen, müssen im Zuge der Inbetriebnahme spezifisch auf die jeweilige Applikation des Feldgeräts in der Messstelle angepasst werden. Dafür werden diese Feldgeräte während oder nach der Fertigung konfiguriert und parametriert. Die Konfiguration beschreibt zum einen die hardwareseitige Konfiguration, welche beispielsweise das Flanschmaterial eines Durchflussmessgerätes umfasst, als auch die softwareseitige Konfiguration. Unter Parametrierung versteht man das Definieren und Festlegen von Parametern, mit deren Hilfe der Betrieb des Feldgerätes auf die jeweiligen Merkmale der Applikation, beispielsweise das Messmedium, eingestellt wird.Field devices that are integrated into a new application of a process plant, or replacement field devices that replace an outdated or defective field device of an application must be adapted during commissioning specifically to the respective application of the field device in the measuring point. For this, these field devices are configured and parameterized during or after production. The configuration describes, on the one hand, the hardware-side configuration, which includes, for example, the flange material of a flowmeter, as well as the software-side configuration. Parameterization refers to the definition and definition of parameters with the aid of which the operation of the field device is set to the respective features of the application, for example the measuring medium.
Abhängig vom Feldgerätetyp kann ein Feldgerät mehrere hunderte verschiedene Parameter aufweisen, denen im Zuge der Inbetriebnahme Parameterwerte zugewiesen werden. Heutzutage wird die Parametrierung eines Feldgeräts mittels Softwaretools vorgenommen. Die Eingaben der Parameterwerte sind ausschließlich textbasiert möglich und setzen ein technisches Verständnis seitens des Bedieners voraus.Depending on the field device type, a field device may have several hundreds of different parameters to which parameter values are assigned in the course of commissioning. Nowadays the parameterization of a field device is done by means of software tools. The inputs of the parameter values are possible only text-based and require a technical understanding on the part of the operator.
Im Stand der Technik sind Verfahren bekannt geworden, in welchen die Parametrierung von Feldgeräten mittels Augmented-Reality-Methoden vereinfacht wird. Bei solchen Methoden wird eine Bedieneinheit mit einer Kamera und einer Anzeigeeinheit verwendet, welche Kamera ein Objekt aus der realen Welt erfasst. Das erfasste Objekt wird virtuell auf der Anzeigeeinheit der Bedieneinheit mit virtuellen Komponenten überlagert, welche dem Benutzer die Parametereigabe erleichtern, oder dem Benutzer anhand erfasster/erkannter Gemoemtrien der Messstelle, in welche das jeweilige Feldgerät eingebaut ist, Parametervorschläge unterbreiten. Als geeignete Bedieneinheiten kommen beispielsweise Datenbrillen wie die Microsoft Hololens oder mobile Endgeräte, wie Tablets oder Smartphones, in Betracht.In the prior art, methods have become known in which the parameterization of field devices is simplified by means of augmented reality methods. In such methods, a control unit with a camera and a display unit is used, which camera detects an object from the real world. The detected object is virtually superimposed on the display unit of the operating unit with virtual components, which facilitate the parameter setting for the user, or submit parameter suggestions to the user on the basis of detected / detected gemoemtria of the measuring point in which the respective field device is installed. Examples of suitable control units are data glasses such as Microsoft Hololens or mobile devices such as tablets or smartphones.
Voraussetzung für solche Augmented-Reality-Anwendungen ist zum einen, dass bekannt sein muss, um welchen erfassten Objekttyp es sich handelt. Zum anderen muss die Lage des Objekts im dreidimensionalen Raum bekannt sein, um eine korrekte Überlagerung des erfassten Objekts mit den virtuellen Komponenten zu ermöglichen. Augmented Reality Devices arbeiten üblicherweise mit sogenannten 3D-Tiefensensoren um ihre Umgebung dreidimensional erfassen zu können. Aus den Tiefeninformationen wird zur Laufzeit ein sogenanntes 3D-Mesh (Modell) generiert, welches die Oberflächen der realen Umgebung abbildet. Auf Basis dessen können Applikationen nun virtuelle Inhalte der realen Welt überlagern.The prerequisite for such augmented reality applications is, on the one hand, that it must be known which type of object is being recorded. On the other hand, the position of the object in three-dimensional space must be known in order to allow a correct overlay of the detected object with the virtual components. Augmented reality devices usually work with so-called 3D depth sensors to capture their environment three-dimensionally. From the depth information, a so-called 3D mesh (model) is generated at runtime, which maps the surfaces of the real environment. Based on this, applications can now superimpose real-world virtual content.
Die Auflösung der eingesetzten 3D-Tiefensensoren ist jedoch sehr ungenau - es können etwa nur relativ grobe Strukturen, beispielsweise größer 15 cm, erfasst werden. Dadurch ist es beispielsweise nicht möglich, ein auf einem Tank angebrachtes Feldgerät zu erkennen.However, the resolution of the 3D depth sensors used is very inaccurate - for example, only relatively coarse structures, for example greater than 15 cm, can be detected. As a result, it is not possible, for example, to detect a field device mounted on a tank.
Ausgehend von dieser Problematik liegt der Erfindung die Aufgabe zugrunde, ein Verfahren vorzustellen, welches die Identifikation eines Feldgerätes für Augmented-Reality-Anwendungen verbessert.Based on this problem, the invention has the object to introduce a method which improves the identification of a field device for augmented reality applications.
Die Aufgabe wird durch ein Verfahren zur Identifikation eines Feldgeräts der Automatisierungstechnik mittels einer Bedieneinheit gelöst, wobei die Bedieneinheit eine Kamera, insbesondere eine Time-of-Flight-Kamera, aufweist, umfassend:
- - Emittieren einer Infrarotstrahlung, wobei die Infrarotstrahlung im Wesentlichen auf ein am Feldgerät angebrachtes zweidimensionales, im Infrarotbereich reflexives Muster gerichtet ist;
- - Erfassen einer Reflexion der Infrarotstrahlung an dem reflexiven Muster mittels der Kamera;
- - Umrechnen der aufgenommen reflektierten Infrarotstrahlung in ein Reflexionsbild;
- - Vergleichen des Reflexionsbilds mit zumindest einem Identifikationsmuster eines Feldgeräts; und
- - Übermitteln von mit dem Identifikationsmuster verknüpften Identifikationsdaten an die Bedieneinheit, im Falle, dass eine Übereinstimmung zwischen dem Reflexionsbild und dem Identifikationsmuster besteht.
- Emitting infrared radiation, the infrared radiation being directed substantially to a two-dimensional, infrared-reflective pattern applied to the field device;
- - Detecting a reflection of the infrared radiation on the reflective pattern by means of the camera;
- - converting the received reflected infrared radiation into a reflection image;
- Comparing the reflection image with at least one identification pattern of a field device; and
- - Transmitting associated with the identification pattern identification data to the operating unit, in the event that there is a match between the reflection image and the identification pattern.
Der Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass die Identifikation eines Feldgeräts mittels einer Augmented-Reality-Bedieneinheit verbessert wird. Von Seiten des Feldgeräts werden für die Identifikation keine aktiven Bauteile benötigt. Aufgrund der von der Bedieneinheit emittierten Infratotstrahlung ist auch eine Identifikation des Feldgeräts unter schlechten Lichtbedingungen möglich.The advantage of the method according to the invention is that the identification of a field device is improved by means of an augmented reality control unit. On the part of the field device no active components are needed for the identification. Due to the infrared radiation emitted by the operating unit, identification of the field device under poor lighting conditions is also possible.
Bei dem reflexiven Muster handelt es sich beispielsweise um einen Aufkleber, welcher auf einer definierten Stelle des Feldgeräts aufgebracht ist.The reflective pattern is, for example, a sticker which is applied to a defined location of the field device.
Das Reflexionsbild wird mittels Bildverarbeitungsalgorithmen mit bekannten Identifikationsmustern verglichen. Insbesondere werden hier KI(„Künstliche Intelligenz“)-Algorithmen, bzw. neuronale Netzwerke, verwendet. Mithilfe dieser Algorithmen kann eine bekannte Form des Reflexionsbilds selbst dann zuverlässig erkannt werden, wenn das Reflexionsbild aufgrund des Winkels von der Kamera zu dem reflektiven Muster einen hohen Verzerrungsgrad aufweist.The reflection image is compared by means of image processing algorithms with known identification patterns. In particular, AI ("artificial intelligence") algorithms or neural networks are used here. By means of these algorithms, a known shape of the reflection image can be reliably detected even if the reflection image has a high degree of distortion due to the angle from the camera to the reflective pattern.
Feldgeräte, welche im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben werden, sind bereits im einleitenden Teil der Beschreibung beispielhaft genannt worden.Field devices which are described in connection with the method according to the invention have already been mentioned by way of example in the introductory part of the description.
Gemäß einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass die Infrarotstrahlung von der Bedieneinheit, insbesondere von der Kamera, emittiert wird. Es ist hierbei insbesondere vorgesehen, dass es sich bei dem reflexiven Muster um ein retroreflektierendes Muster handelt. Das bedeutet, dass die einfallende Infrarotstrahlung weitgehend unabhängig von der Lage der Emissionsquelle der Infrarotstrahlung größtenteils in Richtung zurück zu der Emissionsquelle reflektiert wird.According to a preferred embodiment of the method according to the invention, it is provided that the infrared radiation is emitted by the operating unit, in particular by the camera. In this case, it is provided in particular that the reflective pattern is a retroreflective pattern. This means that the incident infrared radiation is largely reflected largely in the direction of the emission source, largely independent of the position of the emission source of the infrared radiation.
Gemäß einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens ist vorgesehen, dass eine perspektivische Verzerrung des Reflexionsbilds im Vergleich zu dem übereinstimmenden Identifikationsmuster ermittelt wird, wobei die Verzerrung für beide Dimensionen des Reflexionsbilds ermittelt wird. Hierfür werden die obig beschriebenen Bildverarbeitungsalgorithmen verwendet. Nachdem eine Übereinstimmung des Reflexionsbilds mit einem bekannten Identifikationsmuster festgestellt wurde, werden die Dimensionen des Reflexionsbilds und des Identifikationsmusters miteinander verglichen. Da das jeweilige Identifikationsmuster in seiner kanonischen Form bekannt ist, wird dieses als Referenzobjekt verwendet.According to an advantageous development of the method according to the invention, it is provided that a perspective distortion of the reflection image is determined in comparison to the matching identification pattern, wherein the distortion is determined for both dimensions of the reflection image. For this purpose, the image processing algorithms described above are used. After a coincidence of the reflection image with a known identification pattern has been determined, the dimensions of the reflection image and the identification pattern are compared with each other. Since the respective identification pattern is known in its canonical form, this is used as a reference object.
Eine bevorzugte Ausgestaltung des erfindungsgemäßen Verfahrens sieht vor, dass anhand der ermittelten perspektivischen Verzerrung eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts zu der Bedieneinheit ermittelt wird. Hierfür ist es zwingend erforderlich, dass bekannt ist, an welcher Stelle das reflexive Muster auf dem Feldgerät angebracht ist. Die Position und Lage des reflexiven Musters zu der Bedieneinheit wird in Ortskoordinaten eines relativen Koordinatensystems der Bedieneinheit übertragen.A preferred embodiment of the method according to the invention provides that a relative position, in particular a relative angle of inclination, of the field device to the operating unit is determined on the basis of the determined perspective distortion. For this purpose, it is imperative that it is known at which point the reflective pattern is mounted on the field device. The position and position of the reflective pattern to the operating unit is transmitted in location coordinates of a relative coordinate system of the operating unit.
Eine vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht vor, dass die Bedieneinheit mittels Lagesensoren eine absolute Lage der Bedieneinheit im dreidimensionalen Raum bestimmt. Zusätzlich kann die Bedieneinheit ihre jeweilige Ortsposition ermitteln, beispielsweise mittels GPS-Sensoren.An advantageous embodiment of the method according to the invention provides that the operating unit determines an absolute position of the operating unit in three-dimensional space by means of position sensors. In addition, the operating unit can determine their respective location position, for example by means of GPS sensors.
Gemäß einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass durch Vergleichen der relativen Lage des Feldgeräts zu der Bedieneinheit und der absoluten Lage der Bedieneinheit im dreidimensionalen Raum eine absolute Lage des Feldgeräts im dreidimensionalen Raum berechnet wird. Durch die Bestimmung der absoluten Lage der Bedieneinheit im dreidimensionalen Raum definiert die Bedieneinheit ein absolutes Koordinatensystem. Die Ortskoordinaten des reflexiven Musters werden anschließend in das absolute Koordinatensystem transformiert.According to a preferred embodiment of the method according to the invention, it is provided that an absolute position of the field device in three-dimensional space is calculated by comparing the relative position of the field device to the operating unit and the absolute position of the operating unit in three-dimensional space. By determining the absolute position of the operating unit in three-dimensional space, the operating unit defines an absolute coordinate system. The spatial coordinates of the reflexive pattern are then transformed into the absolute coordinate system.
Gemäß einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass bei dem Vergleich des Reflexionsbilds auf eine Datenbank, insbesondere auf eine cloudfähige Datenbank, zugegriffen wird, welche das zumindest eine Identifikationsmuster vorhält. Es ist insbesondere vorgesehen, dass eine Vielzahl an Identifikationsmustern auf der Datenbank abgelegt ist. Es kann hierbei vorgesehen sein, dass für jeden Feldgerätetyp eine unterschiedliche Form eines Identifikationsmusters vorgesehen ist.According to an advantageous embodiment of the method according to the invention, it is provided that in the comparison of the reflection image to a database, in particular to a cloud-capable database, which accesses the at least one identification pattern. It is provided in particular that a plurality of identification patterns is stored in the database. It can be provided here that a different form of identification pattern is provided for each field device type.
Vorteilhafterweise kann zusätzlich vorgesehen sein, dass das reflexive Muster zusätzliche Formen oder Bereiche, bzw. Symbole enthält. Diese Formen oder Bereiche können die Seriennummer des jeweiligen Feldgeräts abbilden und bei der Identifikation miterfasst werden.Advantageously, it may additionally be provided that the reflective pattern contains additional shapes or areas, or symbols. These shapes or areas may be the serial number of the mapped to the respective field device and included in the identification.
Gemäß einer ersten Variante des erfindungsgemäßen Verfahrens ist vorgesehen, dass als Bedieneinheit eine Datenbrille verwendet wird. Als Beispiel für eine solche Datenbrille sei die Microsoft Hololens genannt. Die Datenbrille weist eine Anzeigeeinheit auf. Im einfachsten Fall handelt es sich bei der Anzeigeeinheit um ein kombiniertes transparentes Glas mit einem Projektor. Der Bediener blickt durch das Glas hindurch. Die durch das Glas betrachtete Umgebung wird als Sichtfeld bezeichnet. Der Projektor ist dazu ausgestaltet, eine Projektion auf das Glas zu werfen, welche der Bediener wahrnimmt. Über das aktuelle Sichtfeld des Bedieners können so das virtuelle Objekte gelegt werden. Die virtuellen Objekte können nach Bestimmung der Lage von dem Feldgerät zu der Datenbrille nun in der Art über das Sichtfeld des Bedieners gelegt, dass diese sich auf oder in der Nähe von dem Feldgerät befinden. Ändert sich die Position der Kamera bezüglich des Feldgeräts, so verändert sich das auf der Anzeigeeinheit visualisierte Bild dementsprechend. Die virtuellen Objekte verbleiben allerdings auf der zugewiesenen Position des Feldgeräts und „wandern“, bzw. drehen sich dementsprechend abhängig von der Verschiebung des Feldgeräts auf dem Bild mit.According to a first variant of the method according to the invention, it is provided that data goggles are used as the operating unit. As an example of such data glasses is called the Microsoft Hololens. The data glasses have a display unit. In the simplest case, the display unit is a combined transparent glass with a projector. The operator looks through the glass. The environment viewed through the glass is called the field of vision. The projector is designed to project a projection on the glass which the operator perceives. Over the current field of view of the operator so the virtual objects can be placed. After determining the position from the field device to the data glasses, the virtual objects can now be laid over the field of view of the operator in such a way that they are located on or in the vicinity of the field device. If the position of the camera changes with respect to the field device, the image visualized on the display unit changes accordingly. However, the virtual objects remain in the assigned position of the field device and "wander", or rotate accordingly depending on the displacement of the field device on the image.
Alternativ ist vorgesehen, dass die Anzeigeeinheit als Sichtfeld des Bedieners ein von der Kamera erfasstes, ständig aktualisiertes Bild visualisiert, und wobei die virtuellen Objekte das auf der Anzeigeeinheit angezeigten Bilds zumindest teilweise überlagern. Die Anzeigeeinheit der Bedieneinheit zeigt das Livebild, welches von der Kamera aufgenommen wird. Der Bediener sollte die Bedieneinheit derart auf die Messstelle richten, dass das Feldgerät von der Kamera erfasst wird. Über das aktuelle Livebild der Kamera werden die virtuellen Objekte gelegt. Diese Methode eignet sich für Bedieneinheiten, welche kein transparentes Glas aufweisen, sondern ein herkömmliches Display als Anzeigeeinheit besitzen.Alternatively, it is provided that the display unit as a field of view of the operator visualized by the camera, constantly updated image, and wherein the virtual objects overlay the image displayed on the display unit at least partially. The display unit of the control unit shows the live image, which is taken by the camera. The operator should direct the operating unit to the measuring point in such a way that the field device is detected by the camera. The virtual objects are placed over the current live image of the camera. This method is suitable for control units, which do not have transparent glass, but have a conventional display as a display unit.
Gemäß einer zweiten Variante des erfindungsgemäßen Verfahrens ist vorgesehen, dass als Bedieneinheit ein mobiles Endgerät verwendet wird. Bei einem mobilen Endgerät handelt es sich insbesondere um ein Tablet oder um ein Smartphone. Zur Visualisierung von virtuellen Objekten wird die obige Variante bezüglich eines herkömmlichen Displays verwendet.According to a second variant of the method according to the invention, it is provided that a mobile terminal is used as the operating unit. A mobile terminal is in particular a tablet or a smartphone. For the visualization of virtual objects, the above variant is used with respect to a conventional display.
Alternativ können weitere Gerätearten als Bedieneinheiten verwendet werden, insofern diese eine Anzeigeeinheit und eine Kamera aufweisen, sowie eine ausreichende Rechenleistung zur Verfügung stellen können.Alternatively, other types of devices can be used as operating units, insofar as they have a display unit and a camera, and can provide sufficient computing power.
Die Erfindung wird anhand der nachfolgenden Figuren näher erläutert. Es zeigen
-
1 : ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens.
-
1 : an embodiment of the method according to the invention.
In
Zur Inbetriebnahme muss das Feldgerät
Um spezifische Parameterwerte vorschlagen zu können muss der Bedieneinheit
Zu diesem Zweck werden auf dem Feldgerät
Für die Erfassung der Form der Reflexionsbild wird eine sogenannte Time-of-Flight-Kamera
Alternativ wird eine gewöhnliche Infrarotkamera
Das erfasste Reflexionsbild RM wird von der Bedieneinheit
Alternativ ist es vorgesehen, dass die Bedieneinheit
Nachdem die Identifikation des Feldgeräts
Anhand der ermittelten perspektivischen Verzerrung wird in einem zweiten Schritt eine relative Lage, insbesondere ein relativer Neigungswinkel, des Feldgeräts
In einem dritten Schritt bestimmt die Bedieneinheit mittels Lagesensoren eine absolute Lage der Bedieneinheit
In einem letzten Schritt bestimmt die Bedieneinheit
Wird eine Time-of-Flight-Kamera
Nachdem die Bestimmung des Feldgeräts
Alternativ zu einer Datenbrille kann als Bedieneinheit
Das erfindungsgemäße Verfahren eignet sich für alle Arten von Feldgerätetypen und ist nicht etwa auf Füllstandmessgeräte beschränkt.The method according to the invention is suitable for all types of field device types and is not limited to level measuring devices.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- AEAE
- Anzeigeeinheitdisplay unit
- BDBD
- Bedieneroperator
- BEBE
- Bedieneinheitoperating unit
- DBDB
- DatenbankDatabase
- FGFG
- Feldgerätfield device
- IMIN THE
- Identifikationsmusteridentification patterns
- KAKA
- Kameracamera
- KOKO
- Komponente einer MessstelleComponent of a measuring point
- MSMS
- Messstellemeasuring point
- MUMU
- reflexives Musterreflexive pattern
- RBRB
- Reflexionsbildreflection image
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018112618.2A DE102018112618A1 (en) | 2018-05-25 | 2018-05-25 | Method for identifying a field device for an augmented reality application |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018112618.2A DE102018112618A1 (en) | 2018-05-25 | 2018-05-25 | Method for identifying a field device for an augmented reality application |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018112618A1 true DE102018112618A1 (en) | 2019-11-28 |
Family
ID=68499209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018112618.2A Pending DE102018112618A1 (en) | 2018-05-25 | 2018-05-25 | Method for identifying a field device for an augmented reality application |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018112618A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7204428B2 (en) * | 2004-03-31 | 2007-04-17 | Microsoft Corporation | Identification of object on interactive display surface by identifying coded pattern |
WO2007139676A2 (en) * | 2006-05-26 | 2007-12-06 | Itt Manufacturing Enterprises, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
-
2018
- 2018-05-25 DE DE102018112618.2A patent/DE102018112618A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7204428B2 (en) * | 2004-03-31 | 2007-04-17 | Microsoft Corporation | Identification of object on interactive display surface by identifying coded pattern |
WO2007139676A2 (en) * | 2006-05-26 | 2007-12-06 | Itt Manufacturing Enterprises, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
Non-Patent Citations (4)
Title |
---|
LENGENFELDER, C. [et al.]: Low-cost and Retrofittable Pose Estimation of Rigid Objects Using Infrared Markers. In: Procedia CIRP, 72. Jg., 2018, S. 839-844. URL: https://www.sciencedirect.com/science/article/pii/S2212827118305407/pdf[abgerufen am 13.03.2019] * |
RE, Guido: Low cost augmented reality for industrial problems. Doktorarbeit, Politecnico Milano, Italien, 2013. URL: https://www.politesi.polimi.it/bitstream/10589/74781/1/2013_03_PhD_Re.pdf[abgerufen am 18.03.2019] * |
SCHWALD, Bernd; De LAVAL, Blandinge: An Augmented Reality System for Training and Assistance to Maintenance in the Industrial Context. In: Journal of WSCG, Vol. 11, 2003, No.1. URL: https://pdfs.semanticscholar.org/4568/25e3cb0a3b5f1934a14efd6985fed9d1b883.pdf[abgerufen am 13.03.2019] * |
WANG, Tianren; LIU, Yue; WANG, Yongtian: Infrared marker based augmented reality system for equipment maintenance. In: 2008 International Conference on Computer Science and Software Engineering. IEEE, 2008. S. 816-819. URL: https://ieeexplore.ieee.org/iel5/4721667/4722820/04723028.pdf[abgerufen am 18.03.2019] * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015002760B4 (en) | Robot simulation system that simulates the process of removing workpieces | |
EP1701233B1 (en) | Generation of virtual worlds based on a real environment | |
EP1763845B1 (en) | Method and device for determining optical overlaps with ar objects | |
EP1447770B1 (en) | Method and apparatus for visualization of computer-based information | |
DE112019003204T5 (en) | VISUALIZATION AND MODIFICATION OF WORKING EDGE AREAS USING EXTENDED REALITY | |
DE102017116952A1 (en) | SYSTEM AND METHOD FOR IMPROVED SCORING OF 3D LAYERS AND REMOVAL OF DISTURBANCES IN 3D IMAGE DATA | |
WO2008107021A1 (en) | Method and device for generating tracking configurations for augmented reality applications | |
WO2020126240A1 (en) | Method for operating an automation technology field device in an augmented-reality/mixed-reality environment | |
DE102015015503A1 (en) | A robotic system having an augmented reality compatible display | |
DE102018109774A1 (en) | Image processing system, image processing device and image processing program | |
DE102005021735A1 (en) | Video monitoring system for industrial plant building, has unit provided for interaction of outline data with structures in video recording, and unit to derive calibration parameter of camera from interaction | |
DE102018113336A1 (en) | A method of using a machine to set an augmented reality display environment | |
EP3324362A1 (en) | Method and device for commissioning multi-axis system | |
DE102018101162B4 (en) | Measuring system and method for extrinsic calibration | |
EP3882856A1 (en) | Method and device for determining a pose | |
EP3974936B1 (en) | Configuration of a visualisation device for a machine area | |
DE102007009851B3 (en) | Industrial robot's position determining method, involves determining position of robot relative to object based on assigned model points, and determining position of camera assigned to image and position of camera relative to robot | |
DE102017010683B4 (en) | Method for automatic restoration of a measured state of a projection system | |
DE102018218611B4 (en) | Method and computing device for generating a three-dimensional CAD model | |
EP3418839A1 (en) | Method for controlling an automation assembly | |
EP3607419B1 (en) | Method and device for displaying component documentation | |
DE102018112618A1 (en) | Method for identifying a field device for an augmented reality application | |
EP1915239A2 (en) | Method for generating an environmental image | |
WO2019185079A1 (en) | 3d object-sensing system | |
EP3616140A1 (en) | System for supporting teamwork by means of augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE Representative=s name: ANDRES, ANGELIKA, DIPL.-PHYS., DE |
|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R082 | Change of representative |
Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE |
|
R082 | Change of representative |
Representative=s name: KRATT-STUBENRAUCH, KAI, DR., DE |