DE102022133569A1 - Method for generating data groups for use in training with augmented reality or with mixed reality, measuring device for use in the method and computer software product - Google Patents

Method for generating data groups for use in training with augmented reality or with mixed reality, measuring device for use in the method and computer software product Download PDF

Info

Publication number
DE102022133569A1
DE102022133569A1 DE102022133569.0A DE102022133569A DE102022133569A1 DE 102022133569 A1 DE102022133569 A1 DE 102022133569A1 DE 102022133569 A DE102022133569 A DE 102022133569A DE 102022133569 A1 DE102022133569 A1 DE 102022133569A1
Authority
DE
Germany
Prior art keywords
measuring device
data
measurement data
image data
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102022133569.0A
Other languages
German (de)
Inventor
Sebastian Krumpholz
Martin Heinrich Rademacher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102022133569.0A priority Critical patent/DE102022133569A1/en
Publication of DE102022133569A1 publication Critical patent/DE102022133569A1/en
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Abstract

Ein Verfahren zum Erzeugen von Datengruppen zur Nutzung in einem Training mit Augmented Reality oder mit Mixed Reality umfasst das Nutzen eines Messgeräts (1), das seine eigene Position und/oder Orientierung im dreidimensionalen Raum erfasst, zusätzlich zu einer Vorrichtung zum Erzeugen von Bilddaten.A method for generating data groups for use in training with augmented reality or with mixed reality includes using a measuring device (1), which records its own position and/or orientation in three-dimensional space, in addition to a device for generating image data.

Description

Die Erfindung betrifft ein Verfahren zum Erzeugen (insbesondere durch ein Autorensystem) von Datengruppen zur Nutzung in einem Training mit Augmented Reality oder mit Mixed Reality, wobei es sich um ein Training für Arbeiten an einem Objekt handelt, insbesondere für Montagearbeiten und/oder Demontagearbeiten an einem Kraftfahrzeug (beim Bau und/oder der Wartung und/oder der Reparatur eines solchen).The invention relates to a method for generating (in particular by an authoring system) data groups for use in training with augmented reality or with mixed reality, which involves training for work on an object, in particular for assembly work and/or disassembly work on an object Motor vehicle (in the construction and/or maintenance and/or repair of such).

Augmented Reality (auf Deutsch: erweiterte Realität) führt einen Benutzer durch seine reale Welt und zugleich durch eine virtuelle Welt. Es können mehrere Sinne des Nutzers angesprochen werden. So etwa wird für die Augen eine Brille aufgesetzt, die es dem Nutzer ermöglicht, zugleich die reale Welt zu sehen und überblendet computergenerierte Bilder. Autorensysteme, insbesondere für Trainings, ermöglichen es, zusätzlich zu eingeblendeten Bildern weitere Daten (Zusatzinformationen) zur Verfügung zu stellen. Bei einem Training für eine Montage soll dem Nutzer beim Betrachten eines Übungsobjekts je nach Stelle, die er betrachtet, ein Video und/oder ein Bild und/oder Text und/oder ein dreidimensionales Modell gezeigt werden, wobei das Video, das Bild, der Text oder das Modell ihn anweist, was an dieser Stelle bei der Montage zu tun ist. Die betreffenden (virtuell verfügbaren) Daten sind typischerweise einem Bezugspunkt (oder auch einem Bezugsbereich) zugeordnet. (Die nachfolgende Spezifizierung eines Bezugspunkts beinhaltet immer, dass auch ein den Bezugspunkt enthaltener Bereich gemeint sein kann).Augmented Reality takes a user through their real world and a virtual world at the same time. Several senses of the user can be addressed. For example, glasses are put on for the eyes, which enable the user to see the real world at the same time and superimpose computer-generated images. Authoring systems, especially for training, make it possible to provide additional data (additional information) in addition to the images that are displayed. When training for a montage, the user is to be shown a video and/or an image and/or text and/or a three-dimensional model when viewing a training object, depending on the location he is viewing, with the video, the image, the text or the model instructs him what to do at this point during assembly. The relevant (virtually available) data is typically assigned to a reference point (or a reference area). (The following specification of a reference point always means that an area containing the reference point can also be meant).

Im Rahmen der Erzeugung von Augmented-Reality-Bildern offenbart die DE 10 2009 056 013 A1 , dass die Position des Nutzers anhand der von ihm mitgeführten Kamera ermittelt wird. Auch bei dem Verfahren und System zum Ermöglichen der Erzeugung von Augmented-Reality-Inhalten gemäß der EP 2 560 145 A2 befindet sich ein sogenannter Tracker in einer Benutzervorrichtung. Beim System gemäß der EP 3 567 341 A1 geht es seinerseits auch um Messung von Distanzen. Die vorgenannten Druckschriften offenbaren die Nutzung von Messeinrichtungen insbesondere zur Position bei der Erzeugung der Augmented-Reality-Bilder für den Nutzer.As part of the generation of augmented reality images, the DE 10 2009 056 013 A1 that the position of the user is determined using the camera carried by him. Also in the method and system for enabling the generation of augmented reality content according to the EP 2 560 145 A2 there is a so-called tracker in a user device. In the system according to the EP 3 567 341 A1 it is also about measuring distances. The aforementioned publications disclose the use of measuring devices, in particular for the position when generating the augmented reality images for the user.

Eine ganz andere Fragestellung ist die, die Vorbereitungen für ein Augmented-Reality-Training überhaupt zu treffen. Auch hierbei kann die Messung von Positionen hilfreich sein. Bisher verwendet man Tabletcomputer, um ein Modell des zu bearbeitenden Objekts abzufotografieren und/oder filmisch aufzunehmen. Von der Firma AR-Experts GmbH, Erlenweg 16, 71277 Rutesheim, ist es bekannt, einen mit LIDAR-Technologie versehenen Tabletcomputer zu verwenden. Hierbei steht „LIDAR“ für englisch „light detection and ranging“ oder „laser imaging, detection, and ranging“), es handelt sich um ein Abtasten der Umgebung mithilfe von Laserstrahlen zur optischen Abstandsmessung und dergleichen. Mittels der LIDAR-Technologie können zu einem Musterobjekt, welches von dem Tabletcomputer abfotografiert oder gefilmt werden soll, zugleich auch Abstandsmessungen vorgenommen werden. Die entsprechenden Daten (Bilddaten) werden mit den Daten für die Abstandsmessung intern verknüpft. Unter https://www.ar-giri.com wird die sogenannte GIRI App vorgestellt, mithilfe der Arbeitsanleitungen in Augmented Reality erstellt werden können.A completely different question is that of making the preparations for augmented reality training at all. Here, too, the measurement of positions can be helpful. So far, tablet computers have been used to photograph and/or film a model of the object to be processed. From the company AR-Experts GmbH, Erlenweg 16, 71277 Rutesheim, it is known to use a tablet computer provided with LIDAR technology. "LIDAR" stands for "light detection and ranging" or "laser imaging, detection, and ranging"), it is a scanning of the environment using laser beams for optical distance measurement and the like. Using LIDAR technology, distance measurements can also be taken at the same time for a sample object that is to be photographed or filmed by the tablet computer. The corresponding data (image data) are linked internally with the data for the distance measurement. The so-called GIRI app is presented at https://www.ar-giri.com, with the help of which work instructions can be created in augmented reality.

Nachteilig an der verwendeten Technologie ist es, dass dadurch, dass die Abstandsmessung durch dasselbe Gerät erfolgt, welches die Fotografien aufnimmt, die Auflösung betreffend den Abstand einige Zentimeter beträgt, was insbesondere bei gewünschten Verschraubvorgängen mit geringen Abständen zwischen den Schraublöchern nicht ausreichend ist. Die LIDAR-Technologie hat zudem den Nachteil, dass Verbaupositionen teilweise verdeckt sind oder in Spalten liegen („Verschattung“). Besteht die Montage in einem Blindverbau in einem Hohlraum, sind die Verbaupositionen sogar komplett verdeckt („Verdeckung“). Bei komplexen Oberflächen muss die Verbauposition präzise bestimmt werden. All dies sind Herausforderungen, die mithilfe der LIDAR-Technologie nicht ausreichend gut lösbar sind.The disadvantage of the technology used is that since the distance is measured by the same device that takes the photographs, the resolution regarding the distance is a few centimeters, which is not sufficient, especially for desired screwing processes with small distances between the screw holes. The LIDAR technology also has the disadvantage that shoring positions are partially covered or in gaps ("shading"). If the assembly consists of blind shoring in a cavity, the shoring positions are even completely covered ("concealment"). In the case of complex surfaces, the shoring position must be determined precisely. All of these are challenges that cannot be solved sufficiently well using LIDAR technology.

Es ist Aufgabe der Erfindung, einen Weg aufzuzeigen, wie ein Verfahren zum Erzeugen von Datengruppen zur Nutzung in einem Training mit Augmented Reality oder mit Mixed Reality verbessert werden kann.It is the object of the invention to indicate a way in which a method for generating data groups for use in training with augmented reality or with mixed reality can be improved.

Die Aufgabe wird durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1 gelöst, durch ein Messgerät mit den Merkmalen gemäß Patentanspruch 6 sowie durch ein Computersoftwareprodukt mit den Merkmalen gemäß Patentanspruch 11.The object is achieved by a method with the features according to patent claim 1, by a measuring device with the features according to patent claim 6 and by a computer software product with the features according to patent claim 11.

Das erfindungsgemäße Verfahren beinhaltet:

  • - Bereitstellen eines Messgeräts, das ausgelegt ist, seine eigene Position und/oder Orientierung (im dreidimensionalen Raum) zu erfassen und entsprechende Messdaten auszugeben (bei Position und Orientierung sind dies 6D-Messdaten);
  • - Halten des Messgeräts an oder auf einen Bezugspunkt eines Musterobjekts;
  • - Erzeugen von Bilddaten zu dem Musterobjekt (vorzugsweise derart, dass das Messgerät ebenfalls zumindest partiell abgebildet ist; Ausnahme: Messung in Hohlräumen, wo komplette Verdeckung existiert);
  • - Messen der Position und/oder Orientierung des Messgeräts an oder auf dem Bezugspunkt des Musterobjekts und Ausgeben der Messdaten;
  • - Empfangen der Messdaten;
  • - Verknüpfen der Messdaten mit den Bilddaten zur Schaffung einer Datengruppe.
The method according to the invention includes:
  • - Providing a measuring device that is designed to record its own position and/or orientation (in three-dimensional space) and to output corresponding measurement data (in the case of position and orientation, this is 6D measurement data);
  • - stopping the measuring device at or on a reference point of a sample object;
  • - Generation of image data for the sample object (preferably such that the measuring device is also at least partially imaged; exception: measurement in cavities where there is complete occlusion);
  • - Measuring the position and/or orientation of the measuring device at or on the reference point of the sample object and outputting the measurement data;
  • - receiving the measurement data;
  • - Linking the measurement data with the image data to create a data group.

Die Erfindung trennt die Funktion des Messgeräts von der Funktion der Vorrichtung zum Erzeugen von Bilddaten und ermöglicht so eine präzisere Messung als bei Technologien, bei denen die Abstandsmessung (etwa durch LIDAR) an der Benutzervorrichtung (Tabletcomputer) erfolgt.The invention separates the function of the measuring device from the function of the device for generating image data and thus enables a more precise measurement than with technologies in which the distance measurement (e.g. by LIDAR) is carried out at the user device (tablet computer).

Die Erfindung hat den Vorteil, dass das Messgerät an verschattete oder verdeckte Verbaupositionen verbracht werden kann und an komplexen Oberflächen präzise den Platz angibt, wo gehandelt werden soll (Beispiel: Angabe eines Steckplatzes für eine elektrische Sicherung).The invention has the advantage that the measuring device can be brought to shadowed or covered installation positions and precisely indicates the place where action is to be taken on complex surfaces (example: indication of a slot for an electrical fuse).

Gemäß einer bevorzugten Ausführungsform der Erfindung weist das Messgerät eine Einrichtung auf, um den Bezugspunkt zu klassifizieren. Weiter vorzugsweise handelt es sich hierbei um eine Eingabeeinrichtung. So kann durch das Messgerät bereits angegeben werden, welche Art von Bezugspunkt gemeint ist.According to a preferred embodiment of the invention, the measuring device has a device for classifying the reference point. More preferably, this is an input device. The measuring device can already indicate which type of reference point is meant.

Beispiele für solche Bezugspunkte sind eine Soll-Montageposition für ein zu montierendes Bauteil, eine Schraubstelle, ein Kabelkanal oder eine Clipstelle.Examples of such reference points are a target assembly position for a component to be assembled, a screw point, a cable duct or a clip point.

Gemäß einer weiteren bevorzugten Ausführungsform ist in den verknüpften Daten (also der Datengruppe) dem Bezugspunkt zusätzlich eine Information zugeordnet, also (virtuell verfügbare) Daten, insbesondere als Video und/oder als ein Bild und/oder als Text und/oder als ein 3D-Modell.According to a further preferred embodiment, information is additionally assigned to the reference point in the linked data (i.e. the data group), i.e. (virtually available) data, in particular as a video and/or as an image and/or as text and/or as a 3D Model.

Gemäß einer weiteren bevorzugten Ausführungsform werden die Bilddaten mittels einer tragbaren Vorrichtung, insbesondere einem Tabletcomputer oder einem Smartphone, gewonnen. Dies hat den Vorteil einer schnellen Handhabbarkeit. Die tragbare Vorrichtung ist naturgemäß verschieden von dem Messgerät. Entsprechend empfängt die tragbare Vorrichtung die Messdaten und verknüpft diese mit den Bilddaten.According to a further preferred embodiment, the image data is obtained using a portable device, in particular a tablet computer or a smartphone. This has the advantage of quick handling. The portable device is inherently distinct from the meter. Correspondingly, the portable device receives the measurement data and combines them with the image data.

Das erfindungsgemäße Messgerät umfasst einen Grundkörper und einen Zeiger. (Der Zeiger kann auch als „Spitze“ bezeichnet werden, die von dem Grundkörper wegsteht). Das Messgerät ist ausgelegt, eine von dem Zeiger bestimmte Position und/oder seine eigene Orientierung im dreidimensionalen Raum zu ermitteln und entsprechende Messdaten auszugeben, insbesondere drahtlos auszusenden (Letzteres über Funk, Bluetooth®, WLAN, ...).The measuring device according to the invention comprises a base body and a pointer. (The pointer may also be referred to as a "tip" that protrudes from the body). The measuring device is designed to determine a position determined by the pointer and/or its own orientation in three-dimensional space and to output corresponding measurement data, in particular to transmit them wirelessly (the latter via radio, Bluetooth® , WLAN, . . . ).

Durch die Form des Messgeräts mit Grundkörper und Zeiger lässt sich von einer Hilfsperson eine Stelle („der Bezugspunkt“) sehr präzise angeben bzw. bestimmen.Due to the shape of the measuring device with base body and pointer, an assistant can specify or determine a point ("the reference point") very precisely.

Bei einer bevorzugten Ausführungsform erfolgt das Ausgeben der Messdaten bei Betätigung einer Eingabeeinrichtung. Dies verhindert, dass seitens der die Bilddaten erzeugende Vorrichtung eine Datenüberflutung erfolgt. Auch wird elektrische Energie im Messgerät eingespart, die sonst von einem besonders großen Akkumulator bereitgestellt werden müsste. Hier genügt ein kleinerer Akkumulator. Gegebenenfalls kann sogar durch Betätigung der Eingabevorrichtung elektrische Energie erzeugt werden, die für die Messung und das Aussenden der Daten verwendet werden kann.In a preferred embodiment, the measurement data are output when an input device is actuated. This prevents data overload from occurring on the part of the device generating the image data. Electrical energy is also saved in the measuring device, which would otherwise have to be provided by a particularly large accumulator. A smaller accumulator is sufficient here. If necessary, electrical energy can even be generated by actuating the input device, which energy can be used for the measurement and for sending out the data.

Das Messgerät kann über eine Mehrzahl von Eingabeeinrichtungen verfügen, mithilfe derer zusätzlich eine Information zu einem von dem Zeiger bestimmten Objekt ausgegeben wird. Es kann sich um solche Eingabeeinrichtungen handeln, die gleichzeitig das Ausgeben der Messdaten bewirken und zusätzlich eine Kennziffer ausgeben, beispielsweise 01: Schraubstelle, I0: Kabelkanal, und dergleichen. Die Eingabevorrichtungen können frei belegbar sein und gegebenenfalls programmierbar sein, vorzugsweise erfolgt aber durch die Eingabevorrichtungen einfach die Ausgabe eines Codes (wie etwa der oben genannten Kennziffern „0I, I0 etc.“), und deren Interpretation erfolgt vonseiten des Geräts, welches die Bilddaten aufnimmt (Tabletcomputer und dergleichen).The measuring device can have a number of input devices, with the aid of which information about an object determined by the pointer is additionally output. These can be input devices that simultaneously cause the measurement data to be output and also output a code number, for example 01: screw location, I0: cable duct, and the like. The input devices can be freely assignable and possibly programmable, but preferably the input devices simply output a code (such as the above-mentioned code numbers "0I, I0 etc."), and their interpretation is carried out by the device that captures the image data (tablet computers and the like).

Gemäß einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Messgeräts wird bei längerer Betätigung einer Eingabevorrichtung wiederholt die Position und/oder Orientierung gemessen und ausgegeben. Auf diese Weise lassen sich ganze Konturen abtasten und deren Form übermitteln. Ein Beispiel hierfür ist die Lage einer Dichtung, etwa an einer Heckklappe und dergleichen.According to a further preferred embodiment of the measuring device according to the invention, the position and/or orientation is repeatedly measured and output when an input device is actuated for a longer period of time. In this way, entire contours can be scanned and their shape transmitted. An example of this is the location of a seal, such as on a tailgate and the like.

Es kann hilfreich sein, wenn eine Falschinformation wieder gelöscht wird. Dies kann naturgemäß an dem Gerät geschehen, das die Bilddaten erzeugt und zu dem die Messdaten übermittelt werden. Alternativ oder zusätzlich ist vorgesehen, dass das Messgerät eine Eingabeeinrichtung zum Widerrufen einer vorherigen Eingabe aufweist. Der Gehilfe, der das Messgerät an die entsprechenden Stellen an dem Musterobjekt führt, kann auf diese Weise schneller reagieren, wenn er sich getäuscht hat.It can be helpful if false information is deleted again. Naturally, this can take place on the device that generates the image data and to which the measurement data are transmitted. Alternatively or additionally, it is provided that the measuring device has an input device for revoking a previous input. In this way, the assistant who guides the measuring device to the corresponding points on the sample object can react more quickly if he has made a mistake.

Das erfindungsgemäße Computersoftwareprodukt (wie üblich gespeichert auf einer Datenspeichervorrichtung) ist für eine Datenverarbeitungsvorrichtung vorgesehen, insbesondere für einen Tabletcomputer oder ein Smartphone, und das Computersoftwareprodukt dient zur Implementierung eines Computerprogramms; nach Hochladen des Computersoftwareprodukts auf einen Arbeitsspeicher und dessen Inbetriebnahme wird das Computerprogramm zum Laufen gebracht. Das Computerprogramm verknüpft zur Verwirklichung eines Autorensystems Bilddaten (die von der Datenverarbeitungsvorrichtung etwa selbst aufgenommen sein können) mit von der Datenverarbeitungsvorrichtung extern empfangenen Messdaten. (Die Bilddaten werden insbesondere einer Bilderkennung unterworfen, wo vorzugsweise die Spitze des oben genannten Messgeräts („Zeiger“) oder eine andere Struktur an einem anderen Messgerät erfasst wird. Dem entsprechenden Ort und gegebenenfalls der Orientierung dieser Spitze bzw. des anderen Merkmals werden dann die Messdaten zugeordnet.)The computer software product according to the invention (stored as usual on a data storage cher device) is intended for a data processing device, in particular for a tablet computer or a smartphone, and the computer software product is used to implement a computer program; after uploading the computer software product to a working memory and putting it into operation, the computer program is made to run. In order to implement an authoring system, the computer program links image data (which may have been recorded by the data processing device itself) with measurement data received externally from the data processing device. (The image data is subjected in particular to image recognition, where preferably the tip of the above-mentioned measuring device ("pointer") or another structure on another measuring device is recorded. The corresponding location and, if necessary, the orientation of this tip or the other feature are then determined assigned measurement data.)

Für Anwendungsfälle oder Anwendungssituationen, die sich bei dem Verfahren ergeben können und die hier nicht explizit beschrieben sind, kann vorgesehen sein, dass gemäß dem Verfahren eine Fehlermeldung und/oder eine Aufforderung zur Eingabe einer Nutzerrückmeldung ausgegeben und/oder eine Standardeinstellung und/oder ein vorbestimmter Initialzustand eingestellt wird.For applications or application situations that can arise in the process and which are not explicitly described here, it can be provided that according to the process, an error message and / or a request for user feedback is issued and / or a default setting and / or a predetermined initial state is set.

Das Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet.The motor vehicle is preferably designed as a motor vehicle, in particular as a passenger car or truck, or as a passenger bus or motorcycle.

Als eine weitere Lösung umfasst die Erfindung auch ein computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch einen Computer oder einen Computerverbund diesen veranlassen, eine Ausführungsform des erfindungsgemäßen Verfahrens auszuführen. Das Speichermedium kann z.B. zumindest teilweise als ein nicht-flüchtiger Datenspeicher (z.B. als eine Flash-Speicher und/oder als SSD - solid state drive) und/oder zumindest teilweise als ein flüchtiger Datenspeicher (z.B. als ein RAM - random access memory) ausgestaltet sein. Das Speichermedium kann aber auch beispielsweise als sogenannter Appstore-Server im Internet betrieben sein. Durch den Computer oder Computerverbund kann eine Prozessorschaltung mit zumindest einem Mikroprozessor bereitgestellt sein. Die Befehle können als Binärcode oder Assembler und/oder als Quellcode einer Programmiersprache (z.B. C) bereitgestellt sein.As a further solution, the invention also comprises a computer-readable storage medium, comprising instructions which, when executed by a computer or a computer network, cause this to execute an embodiment of the method according to the invention. The storage medium can e.g. at least partially as a non-volatile data store (e.g. as a flash memory and/or as an SSD - solid state drive) and/or at least partially as a volatile data store (e.g. as a RAM - random access memory). . However, the storage medium can also be operated, for example, as a so-called app store server on the Internet. A processor circuit with at least one microprocessor can be provided by the computer or computer network. The instructions may be provided in binary or assembler and/or programming language (e.g., C) source code.

Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen. Die Erfindung umfasst also auch Realisierungen, die jeweils eine Kombination der Merkmale mehrerer der beschriebenen Ausführungsformen aufweisen, sofern die Ausführungsformen nicht als sich gegenseitig ausschließend beschrieben wurden.The invention also includes the combinations of features of the described embodiments. The invention also includes implementations that each have a combination of the features of several of the described embodiments, unless the embodiments were described as mutually exclusive.

Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:

  • 1a eine Draufsicht auf das erfindungsgemäße Messgerät;
  • 1b eine Seitenansicht des erfindungsgemäßen Messgeräts;
  • 2 eine Momentaufnahme der Nutzung des Messgeräts gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens; und
  • 3 die Schritte gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens.
Exemplary embodiments of the invention are described below. For this shows:
  • 1a a top view of the measuring device according to the invention;
  • 1b a side view of the measuring device according to the invention;
  • 2 a snapshot of the use of the measuring device according to an embodiment of the method according to the invention; and
  • 3 the steps according to an embodiment of the method according to the invention.

Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention that are to be considered independently of one another and that each also develop the invention independently of one another. Therefore, the disclosure is also intended to encompass combinations of the features of the embodiments other than those illustrated. Furthermore, the described embodiments can also be supplemented by further features of the invention that have already been described.

In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.In the figures, the same reference symbols designate elements with the same function.

Ein in 1a gezeigtes Messgerät (auch als „Tagger“ oder „Tracker“ zu bezeichnen) ist im Ganzen mit 1 bezeichnet. Das Messgerät 1 umfasst einen Grundkörper 10 und eine Spitze 12 als Zeiger, die in 1a ungefähr die halbe Länge des Grundkörpers aufweist, aber auch ein wenig kürzer oder auch viel länger sein kann. Die Spitze 12 kann eine Länge von zwischen dem 0,25-fachen und dem 3-fachen des Grundkörpers 10 aufweisen. Wie in 1b (Seitenansicht) zu sehen, und dort symbolisch gezeigt, umfasst das Messgerät 1 einen Sensor 102 zum Erfassen der Position und der Ausrichtung des Messgeräts.a in 1a The measuring device shown (also referred to as "tagger" or "tracker") is denoted by 1 as a whole. The measuring device 1 comprises a base body 10 and a tip 12 as a pointer, which 1a has approximately half the length of the body, but can also be a little shorter or much longer. The tip 12 may have a length of between 0.25 and 3 times that of the body 10 . As in 1b (Side view) to see, and shown there symbolically, the measuring device 1 includes a sensor 102 for detecting the position and orientation of the measuring device.

Das Messgerät 1 umfasst ferner Mittel 104 zum drahtlosen Übermitteln von Messdaten.The measuring device 1 also includes means 104 for the wireless transmission of measurement data.

Der Sensor 102 ist auf in den Figuren nicht gezeigte Weise mit dieser Einrichtung 104 gekoppelt. Das Messgerät 1 verfügt über vorliegend vier Tasten 106a, 106b, 106c und 106d, die in ihrer Funktion frei belegbar sind. Je nach gedrückter Taste wird ein unterschiedlicher Code übermittelt. Für die Taste 106a wird der Wert „00“ übermittelt („0“ im Dezimalsystem), für die Taste 106b wird der Wert „0I“ übermittelt („1“ im Dezimalsystem), für die Taste 106c wird der Wert „I0“ („2“ im Dezimalsystem) übermittelt, und für die Taste 106d wird der Wert „II“ („3“ im Dezimalsystem) übermittelt. Die Tasten können so belegt sein, dass auf jeden Fall ein Messwert mitübermittelt wird, oder das Übermitteln des Messwertes kann von der in Betätigung der Eingabevorrichtung 110 auf der Rückseite des Geräts 1 (zu sehen in 1b) abhängig sein. Die Taste 106a kann gedrückt werden, wenn die Stelle für eine Schraube angegeben wird (vgl. auch das dargestellte Symbol). Die Taste 106b kann gedrückt werden, wenn Kabel in einen Kabelkanal eingebracht werden sollen. Die Taste 106c kann gedrückt werden, wenn eine Clipposition angezeigt werden soll. Die Taste 106d kann gedrückt werden, wenn die Stelle für die Montage eines Bauteils gezeigt werden soll.The sensor 102 is coupled to this device 104 in a manner not shown in the figures. In the present case, the measuring device 1 has four keys 106a, 106b, 106c and 106d, the function of which can be freely assigned. Depending on the key pressed, a different code is transmitted. For button 106a, the value "00" is transmitted ("0" in decimal). system), for key 106b the value "0I" is transmitted ("1" in decimal system), for the key 106c the value "I0"("2" in decimal system) is transmitted, and for the key 106d the value " II” (“3” in the decimal system). The buttons can be assigned in such a way that a measured value is transmitted in any case, or the measured value can be transmitted by the actuation of the input device 110 on the back of the device 1 (seen in 1b) be dependent. The button 106a can be pressed when specifying the location for a screw (see also the illustrated symbol). Button 106b can be pressed when cables are to be inserted into a cable duct. Button 106c can be pressed when a clip position is to be displayed. The button 106d can be pressed when the location for mounting a component is to be shown.

Durch Drücken der weiteren Taste 108 kann eine vorherige Betätigung widerrufen werden, so dass empfangsseitig die vorherige Information aufgehoben wird.A previous actuation can be revoked by pressing the additional button 108, so that the previous information is canceled at the receiving end.

Die 2 stellt nun eine Art Schnappschuss dar wie er bei Durchführung gemäß einer Ausführungsform des Verfahrens zum Erzeugen einer Datengruppe erstellt werden könnte.The 2 FIG. 12 now represents a kind of snapshot as it could be created when performed according to an embodiment of the method for creating a data group.

Es geht um das Erzeugen von Datengruppen zur Nutzung in einem Training mit Augmented Reality (oder gegebenenfalls mit Mixed Reality) für Montagearbeiten beim Bau und/oder der Wartung und/oder der Reparatur eines Kraftfahrzeugs. Das Kraftfahrzeug ist im Ganzen mit 100 bezeichnet. Eine erste Person 200 hält (in der hier vorliegend gezeigten Hand) das oben beschriebene Messgerät 1 an eine vorbestimmte Stelle. Mittels eines Tabletcomputers 2 wird von einer zweiten Person 300 ein Foto der Situation aufgenommen. Das Display 20 auf dem Tabletcomputer 2 zeigt das Abbild des Kraftfahrzeugs an einer ersten Stelle 100a-img und an weiteren Stellen wie etwa 1 00b-img sowie das Abbild des Messgeräts 1 als 1 img.It is about generating data groups for use in training with augmented reality (or possibly with mixed reality) for assembly work during the construction and/or maintenance and/or repair of a motor vehicle. The motor vehicle is denoted by 100 as a whole. A first person 200 (in the hand shown here) holds the measuring device 1 described above at a predetermined point. A photo of the situation is taken by a second person 300 using a tablet computer 2 . The display 20 on the tablet computer 2 shows the image of the motor vehicle at a first location 100a-img and at other locations such as 100b-img and the image of the measuring device 1 as 1 img.

Das Tabletcomputer unterzieht nun das so aufgenommene Bild einer Bilddatenerkennung und erkennt so in dem Bild das Abbild 1img des Messgeräts 1, insbesondere auch von dessen Spitze. Die Person 200 drückt sodann die Eingabevorrichtung 106a, 106b, 106c oder 106d, gegebenenfalls zusammen mit der Eingabevorrichtung 110, und übermittelt die Messdaten an den Tabletcomputer. Der Tabletcomputer verknüpft diese Messdaten mit den Bilddaten.The tablet computer now subjects the image recorded in this way to image data recognition and thus recognizes the image 1img of the measuring device 1 in the image, in particular also of its tip. The person 200 then presses the input device 106a, 106b, 106c or 106d, possibly together with the input device 110, and transmits the measurement data to the tablet computer. The tablet computer links this measurement data with the image data.

Eine Ausführungsform des erfindungsgemäßen Verfahrens ist auch in 3 veranschaulicht:

  • Das Verfahren beginnt mit dem Schritt S00, dem Bereitstellen eines Musterobjekts (Kraftfahrzeug für Schulungszwecke, gegebenenfalls nur teilweise aufgebaut), eines Tabletcomputers (wie dem Tabletcomputer 2 in 2) und des Messgeräts 1 aus 1a/b. Im Schritt S10 wird das Messgerät 1 an oder auf den Bezugspunkt des Musterobjekts (des Kraftfahrzeugs) gehalten. Im darauffolgenden Schritt S12 hält die Person 300 den Tabletcomputer ebenfalls in Richtung des Kraftfahrzeugs. Im Schritt S14 wird an dem Messgerät eine der Tasten 106a, 106b, 106c, 106d, gegebenenfalls mit der Eingabevorrichtung 110, gedrückt. Im optionalen Schritt S16 bleibt die Taste über eine Zeitdauer Δt gedrückt; dies ermöglicht es, neben einer einzelnen Position auch eine Kontur zu bestimmen. Während der Zeitdauer Δt werden die Messdaten mehrfach (etwa in zeitlichen Abständen von wenigen Millisekunden, insgesamt möglicherweise 20 bis 100 Messdaten während Δt) gedrückt. Im Schritt S18 erfolgt der Empfang der Messdaten durch den Tabletcomputer 2. Im optionalen Schritt S20 wird geprüft, ob die Messdaten tatsächlich zu den Bilddaten passen. Diese Prüfung kann beinhalten, dass die Taste 108 gedrückt wird und die Daten widerrufen werden. Es kann auch beinhalten, dass die Person 300 am Tablet die Daten händisch löscht. In der Regel sind die Daten in Ordnung, und es wird zum Schritt S22 übergegangen. Im Schritt S22 können Zusatzdaten mit dem Punkt verknüpft werden, etwa ein Video, in dem die Person 200 zeigt, wie eine Schraube in ein vorher gezeigtes Schraubgewinde einzuschrauben ist oder wie Kabel in einen Kabelkanal zu führen sind. Nachfolgend ist das Verfahren entweder abgeschlossen und geht zum Ende S100 über oder es wird zum Schritt S10 nochmals zurückgekehrt.
An embodiment of the method according to the invention is also in 3 illustrates:
  • The method begins with step S00, the provision of a sample object (motor vehicle for training purposes, possibly only partially assembled), a tablet computer (such as tablet computer 2 in 2 ) and meter 1 1a / b. In step S10, the measuring device 1 is held at or on the reference point of the sample object (the motor vehicle). In the subsequent step S12, the person 300 also holds the tablet computer in the direction of the motor vehicle. In step S14, one of the keys 106a, 106b, 106c, 106d on the measuring device is pressed, if necessary with the input device 110. In optional step S16, the button remains pressed for a period of time Δt; this makes it possible to determine not only a single position but also a contour. During the period Δt, the measurement data are pressed several times (e.g. at intervals of a few milliseconds, a total of possibly 20 to 100 measurement data during Δt). In step S18, the tablet computer 2 receives the measurement data. In the optional step S20, it is checked whether the measurement data actually match the image data. This check may include pressing button 108 and revoking the data. It can also include the person 300 manually deleting the data on the tablet. As a rule, the data is correct, and a transition is made to step S22. In step S22, additional data can be linked to the point, for example a video in which the person 200 shows how to screw a screw into a previously shown screw thread or how to route cables into a cable duct. The method is then either completed and proceeds to the end S100, or a return is made to step S10 again.

Auf in der 3 nicht gezeigte Weise wird vom optionalen Schritt S20 zu einem der vorherigen Schritte, etwa S10, etwa S12, etwa S14, zurückgeführt, wenn die in Schritt S18 empfangenen Daten nicht in Ordnung waren.On in the 3 In a manner not shown, the optional step S20 returns to one of the previous steps, for example S10, for example S12, for example S14, if the data received in step S18 were not correct.

Insgesamt zeigen die Beispiele, wie ein hardwareunterstützter Autorenprozess für AR-Trainings mithilfe eines aktiven Trackers bereitgestellt werden kann.Overall, the examples show how a hardware-supported authoring process for AR training can be provided using an active tracker.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102009056013 A1 [0003]DE 102009056013 A1 [0003]
  • EP 2560145 A2 [0003]EP 2560145 A2 [0003]
  • EP 3567341 A1 [0003]EP 3567341 A1 [0003]

Claims (11)

Verfahren zum Erzeugen von Datengruppen zur Nutzung in einem Training mit Augmented Reality oder mit Mixed Reality, wobei es sich um ein Training für Arbeiten an einem Objekt handelt, insbesondere für Montagearbeiten und/oder Demontagearbeiten an einem Kraftfahrzeug (100), wobei das Verfahren umfasst: - Bereitstellen eines Messgeräts (1), das ausgelegt ist, seine eigene Position und/oder Orientierung zu erfassen und entsprechende Messdaten auszugeben; - Halten des Messgeräts (1) an oder auf einen Bezugspunkt eines Musterobjekts (100); - Erzeugen von Bilddaten zu dem Musterobjekt (100); - Messen der Position und/oder Orientierung des Messgeräts (1) an oder auf dem Bezugspunkt des Musterobjekts (10) und Ausgeben der Messdaten; - Empfangen der Messdaten; - Verknüpfen der Messdaten mit den Bilddaten zur Schaffung einer Datengruppe.Method for generating data groups for use in training with augmented reality or with mixed reality, which is training for working on an object, in particular for assembly work and/or disassembly work on a motor vehicle (100), the method comprising: - Providing a measuring device (1) which is designed to detect its own position and/or orientation and to output corresponding measurement data; - Holding the measuring device (1) at or on a reference point of a sample object (100); - Generating image data for the sample object (100); - Measuring the position and/or orientation of the measuring device (1) at or on the reference point of the sample object (10) and outputting the measurement data; - receiving the measurement data; - Linking the measurement data with the image data to create a data group. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Messgerät eine Einrichtung, vorzugsweise eine Eingabeeinrichtung (106a, 106b, 106c, 106d) aufweist, um den Bezugspunkt zu klassifizieren, dass eine entsprechende Information ausgesendet wird, empfangen wird und mit den Bilddaten und den Messdaten in der Datengruppe verknüpft wird.procedure after claim 1 , characterized in that the measuring device has a device, preferably an input device (106a, 106b, 106c, 106d) in order to classify the reference point, that corresponding information is transmitted, received and linked to the image data and the measurement data in the data group becomes. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Bezugspunkt eine Soll-Montageposition für ein zu montierendes Bauteil und/oder eine Schraubstelle und/oder einen Kabelkanal und/oder eine Clipstelle ist.procedure after claim 1 or 2 , characterized in that the reference point is a target assembly position for a component to be assembled and/or a screw point and/or a cable duct and/or a clip point. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass in der Datengruppe dem Bezugspunkt zusätzlich Daten zugeordnet sind, insbesondere als ein Video und/oder als ein Bild und/oder als ein Text und/oder als ein 3D-Modell.Procedure according to one of Claims 1 until 3 , characterized in that in the data group the reference point is additionally assigned data, in particular as a video and/or as an image and/or as text and/or as a 3D model. Verfahren nach einem der Ansprüche 1 bis 4, bei dem die Bilddaten mittels einer tragbaren Vorrichtung, insbesondere eines Tabletcomputers (2) oder Smartphones gewonnen werden, und wobei die tragbare Vorrichtung (2) die Messdaten empfängt und mit den Bilddaten verknüpft.Procedure according to one of Claims 1 until 4 , in which the image data are obtained by means of a portable device, in particular a tablet computer (2) or smartphone, and wherein the portable device (2) receives the measurement data and links them to the image data. Messgerät (1) mit einem Grundkörper (10) und einem Zeiger (12), wobei das Messgerät ausgelegt ist, eine von dem Zeiger bestimmte Position und/oder seine eigene Orientierung im dreidimensionalen Raum zu ermitteln und entsprechende Messdaten auszugeben, insbesondere drahtlos auszusenden.Measuring device (1) with a base body (10) and a pointer (12), the measuring device being designed to determine a position determined by the pointer and/or its own orientation in three-dimensional space and to output corresponding measurement data, in particular to transmit them wirelessly. Messgerät (1) nach Anspruch 6, dadurch gekennzeichnet, dass das Ausgeben der Messdaten bei Betätigung einer Eingabeeinrichtung (110; 106a, 106b, 106c, 106d) erfolgt.Measuring device (1) after claim 6 , characterized in that the measurement data are output when an input device (110; 106a, 106b, 106c, 106d) is actuated. Messgerät (1) nach Anspruch 7 mit mehreren Eingabeeinrichtungen (106a, 106b, 106c, 106d), wobei zusätzlich eine Information zu einem von dem Zeiger (12) bestimmten Objekt ausgegeben wird.Measuring device (1) after claim 7 with a plurality of input devices (106a, 106b, 106c, 106d), information about an object determined by the pointer (12) being additionally output. Messgerät (1) nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass bei längerer Betätigung einer Eingabeeinrichtung (110) wiederholt die Position und/oder Orientierung gemessen und ausgegeben wird.Measuring device (1) after claim 7 or 8th , characterized in that when an input device (110) is actuated for a longer period of time, the position and/or orientation is repeatedly measured and output. Messgerät (1) nach einem der Ansprüche 7 bis 9 mit einer Eingabeeinrichtung (108) zum Widerrufen einer vorherigen Eingabe.Measuring device (1) according to one of Claims 7 until 9 with input means (108) for revoking a previous input. Computersoftwareprodukt für eine Datenverarbeitungsvorrichtung, insbesondere für einen Tabletcomputer und/oder ein Smartphone, wobei das Computersoftwareprodukt ausgelegt ist, ein Computerprogramm zu implementieren, das zur Verwirklichung eines Autorensystems Bilddaten mit von der Datenverarbeitungsvorrichtung extern empfangenen Messdaten verknüpft.Computer software product for a data processing device, in particular for a tablet computer and/or a smartphone, the computer software product being designed to implement a computer program that links image data with measurement data externally received from the data processing device to implement an authoring system.
DE102022133569.0A 2022-12-16 2022-12-16 Method for generating data groups for use in training with augmented reality or with mixed reality, measuring device for use in the method and computer software product Granted DE102022133569A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022133569.0A DE102022133569A1 (en) 2022-12-16 2022-12-16 Method for generating data groups for use in training with augmented reality or with mixed reality, measuring device for use in the method and computer software product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022133569.0A DE102022133569A1 (en) 2022-12-16 2022-12-16 Method for generating data groups for use in training with augmented reality or with mixed reality, measuring device for use in the method and computer software product

Publications (1)

Publication Number Publication Date
DE102022133569A1 true DE102022133569A1 (en) 2023-04-06

Family

ID=85570883

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022133569.0A Granted DE102022133569A1 (en) 2022-12-16 2022-12-16 Method for generating data groups for use in training with augmented reality or with mixed reality, measuring device for use in the method and computer software product

Country Status (1)

Country Link
DE (1) DE102022133569A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009056013A1 (en) 2009-09-09 2011-03-10 Volkswagen Ag Method for generating augmented-reality image, involves receiving actual image of actual environment by camera
EP2560145A2 (en) 2011-08-18 2013-02-20 Layar B.V. Methods and systems for enabling the creation of augmented reality content
EP3567341A1 (en) 2018-05-08 2019-11-13 Leica Geosystems AG Augmented reality-based system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009056013A1 (en) 2009-09-09 2011-03-10 Volkswagen Ag Method for generating augmented-reality image, involves receiving actual image of actual environment by camera
EP2560145A2 (en) 2011-08-18 2013-02-20 Layar B.V. Methods and systems for enabling the creation of augmented reality content
EP3567341A1 (en) 2018-05-08 2019-11-13 Leica Geosystems AG Augmented reality-based system

Similar Documents

Publication Publication Date Title
DE102017115318A1 (en) Heads-up display for monitoring vehicle perception activity
DE102012200731A1 (en) Method and device for visualizing the environment of a vehicle
DE102005061952A1 (en) Method and system for determining inaccuracy information in an augmented reality system
EP1789906A1 (en) Image-based driver identification method for use in a motor vehicle
DE102007029884A1 (en) A method and apparatus for generating an overall image composed of a plurality of endoscopic frames from an interior surface of a body cavity
EP2246664B1 (en) Method for automatic determination of at least one target factor describing changes in the position of a motor vehicle
DE102017219282A1 (en) Method and device for automatically generating an artificial neural network
DE112014005376T5 (en) Information processing apparatus, information processing method and program
DE112018005163T5 (en) IMAGE PROCESSING DEVICE
DE112019006793T5 (en) Driving assistance device
DE102018131833A1 (en) SIMULATION LATENCY INDICATION
WO2021058066A1 (en) Processing of lossy-compressed adas sensor data for driver assistance systems
DE102019132996A1 (en) Estimating a three-dimensional position of an object
DE102019002269A1 (en) Method for determining an orientation of a vehicle relative to a motor vehicle
DE112015001088T5 (en) Vehicle environment image display device and vehicle environment image display method
EP3278318A1 (en) Method for supplying, on a communication interface, height data about an object located in the surroundings of a motor vehicle, sensor device, processing device and motor vehicle
DE102022133569A1 (en) Method for generating data groups for use in training with augmented reality or with mixed reality, measuring device for use in the method and computer software product
EP2996327B1 (en) Surround view system for vehicles with attachments
DE102015208343A1 (en) Method for generating an overall image of a vehicle environment of a vehicle and corresponding device
DE102019129101A1 (en) A method and system for estimating a bounding box that includes a target vehicle
DE112020005735T5 (en) Position estimation device, vehicle, position estimation method and position estimation program
DE102016103037A1 (en) Method for checking the functionality of a camera-monitor system, camera-monitor system and motor vehicle
DE102020107949A1 (en) Field of view assist image generation apparatus and image conversion method
DE102014226448A1 (en) Vehicle and method for calculating a view of a vehicle environment
DE102019125918A1 (en) Occupant monitoring device, occupant monitoring method and occupant monitoring program

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R016 Response to examination communication
R018 Grant decision by examination section/examining division