DE102019109515A1 - Method for assigning at least one object feature to at least one sub-point set of a 3D point cloud - Google Patents
Method for assigning at least one object feature to at least one sub-point set of a 3D point cloud Download PDFInfo
- Publication number
- DE102019109515A1 DE102019109515A1 DE102019109515.8A DE102019109515A DE102019109515A1 DE 102019109515 A1 DE102019109515 A1 DE 102019109515A1 DE 102019109515 A DE102019109515 A DE 102019109515A DE 102019109515 A1 DE102019109515 A1 DE 102019109515A1
- Authority
- DE
- Germany
- Prior art keywords
- mobile device
- point cloud
- aid
- sub
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
Bei einem Verfahren zum Zuordnen mindestens eines Objektmerkmals zu mindestens einer Teilpunktmenge einer 3D-Punktwolke werden Daten der 3D-Punktwolke mit Hilfe eines mobilen Gerätes verarbeitet und ein Bild (10, 30, 40, 50) eines Bereichs der 3D-Punktwolke auf einer Anzeigeeinheit des mobilen Gerätes ausgegeben. Mit Hilfe eines erweiterten Realitätsverfahrens wird ausgehend von den Daten der 3D-Punktwolke ein 3D-Modell (18, 20, 22) mindestens eines Objekts (12, 14, 16) erzeugt und eine dem Objekt (12, 14, 16) zugeordnete Teilpunktmenge der 3D-Punktwolke ermittelt. Alternativ wird eine Teilpunktmenge der 3D-Punktwolke mit Hilfe eines Eingabemittels des mobilen Gerätes ausgewählt und durch das Auswählen als Objekt (12, 14, 16) klassifiziert. Es wird mindestens eine einem Objekt (12, 14, 16) zugeordnete Teilpunktmenge ausgewählt und der ausgewählten Teilpunktmenge mit Hilfe eines Eingabemittels des mobilen Gerätes ausgewählt wird. Der mindesten einen ausgewählten Teilpunktmenge wird mindestens ein Objektmerkmal zugeordnet.In a method for assigning at least one object feature to at least a partial set of points of a 3D point cloud, data of the 3D point cloud are processed with the aid of a mobile device and an image (10, 30, 40, 50) of an area of the 3D point cloud is displayed on a display unit of the mobile device. With the help of an extended reality method, a 3D model (18, 20, 22) of at least one object (12, 14, 16) is generated based on the data of the 3D point cloud and a sub-point set assigned to the object (12, 14, 16) of the 3D point cloud determined. Alternatively, a subset of points of the 3D point cloud is selected with the aid of an input means of the mobile device and classified as an object (12, 14, 16) by the selection. At least one sub-point set assigned to an object (12, 14, 16) is selected and the selected sub-point set is selected with the aid of an input means of the mobile device. At least one object feature is assigned to the at least one selected sub-point set.
Description
Die Erfindung betrifft ein Verfahren zum Zuordnen mindestens eines Objektmerkmals zu mindestens einer Teilpunktmenge einer 3D-Punktwolke.The invention relates to a method for assigning at least one object feature to at least one sub-point set of a 3D point cloud.
Im Bereich des autonomen Fahrens sowie bei Fahrerassistenzsystem wird die Umgebung eines Fahrzeugs mit Hilfe von 3D-Scannern, wie LiDAR-Systemen, als dreidimensionale Punktwolke, einer sogenannten 3D-Punktwolke, erfasst. Die Daten der erfassten 3D-Punktwolke werden mit Hilfe mindestens einer im Fahrzeug befindlichen Datenverarbeitungseinheit mit künstlicher Intelligenz, insbesondere mit Hilfe neuronaler Netze, verarbeitet. Hierbei detektiert die Datenverarbeitungseinheit automatisch Objekte in der erfassten Umgebung des Fahrzeugs und klassifiziert diese. Das durch die Datenverarbeitungseinheit bereitgestellte Verarbeitungssystem mit künstlicher Intelligenz und insbesondere ein neuronales Netzwerk muss zuvor mit entsprechend aufbereiteten Lerndaten angelernt werden. Für die Aufbereitung der Lerndaten werden Daten einer 3D-Punktwolke, die mit Hilfe einer Sensoreinheit eines Fahrzeugs ermittelt wurde, in einem Personal Computer oder Workstation außerhalb des Fahrzeugs durch eine Bedienperson analysiert. Die Bedienperson markiert hierbei Objekte mit der Maus und weist ihnen mindestens eine Objekteigenschaft zu. Die Daten der 3D-Punktwolke werden dann dem System mit künstlicher Intelligenz zusammen mit den markierten Objekten und zugewiesenen Objekteigenschaften als Lerndaten zugeführt. Dieser Vorgang wird vorzugsweise mehrfach mit weiteren 3D-Punktwolken wiederholt bis der Lernprozess abgeschlossen ist. Nach Abschluss des Lernprozesses wird das angelernte System mit künstlicher Intelligenz dann in eine Datenverarbeitungseinheit des oder eines weiteren Fahrzeugs implementiert und steht dann für Fahrerassistenzsysteme, insbesondere für Advanced Driver Assistance Systems (ADAS), zur Verfügung. Im Fahrzeug werden die Daten unmittelbar, vorzugsweise in Echtzeit, verarbeitet.In the field of autonomous driving and driver assistance systems, the surroundings of a vehicle are recorded with the help of 3D scanners, such as LiDAR systems, as a three-dimensional point cloud, a so-called 3D point cloud. The data of the captured 3D point cloud are processed with the aid of at least one data processing unit with artificial intelligence located in the vehicle, in particular with the aid of neural networks. The data processing unit automatically detects objects in the detected surroundings of the vehicle and classifies them. The processing system with artificial intelligence provided by the data processing unit and in particular a neural network must be trained beforehand with appropriately processed learning data. For the preparation of the learning data, data from a 3D point cloud, which was determined with the aid of a sensor unit of a vehicle, is analyzed in a personal computer or workstation outside the vehicle by an operator. The operator marks objects with the mouse and assigns them at least one object property. The data of the 3D point cloud is then fed to the system with artificial intelligence together with the marked objects and assigned object properties as learning data. This process is preferably repeated several times with further 3D point clouds until the learning process is completed. After completion of the learning process, the learned system with artificial intelligence is then implemented in a data processing unit of the vehicle or another vehicle and is then available for driver assistance systems, in particular for Advanced Driver Assistance Systems (ADAS). The data is processed immediately in the vehicle, preferably in real time.
Dokument
Im Dokument
Dokument
Es ist Aufgabe der Erfindung, ein Verfahren zum Zuordnen mindestens eines Objektmerkmals zu mindestens einer Teilpunktemenge einer 3D-Punktwolke anzugeben, durch das eine Zuordnung von Objektmerkmalen zu Objekten einfach möglich ist. Ferner ist ein mobiles Gerät zum Ausführen des Verfahrens anzugeben.It is the object of the invention to provide a method for assigning at least one object feature to at least a partial set of points of a 3D point cloud, by means of which an assignment of object features to objects is easily possible. A mobile device for carrying out the method must also be specified.
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben.This object is achieved by a method with the features of claim 1. Advantageous further developments are given in the dependent claims.
Bei dem Verfahren zum Zuordnen eines Objektmerkmals zu mindestens einer Teilpunktmenge einer 3D-Punktwolke wird mit Hilfe eines erweiterten Realitätsverfahrens ausgehend von den Daten 3D-Punktwolke ein 3D-Modell mindestens eines Objekts erzeugt und eine dem Objekt zugeordnete Teilpunktmenge der 3D-Punktwolke ermittelt. Alternativ oder zusätzlich wird eine Teilpunktmenge der 3D-Punktwolke mit Hilfe eines Eingabemittels des mobilen Gerätes ausgewählt und durch das Auswählen als Objekt klassifiziert.In the method for assigning an object feature to at least one sub-point set of a 3D point cloud, a 3D model of at least one object is generated based on the 3D point cloud data and a sub-point set assigned to the object of the 3D point cloud is determined with the help of an extended reality method. Alternatively or in addition, a partial set of points of the 3D point cloud is selected with the aid of an input means of the mobile device and classified as an object by the selection.
Zur Aufbereitung der Daten der 3D-Punktwolke als Lerndaten für ein System mit künstlicher Intelligenz müssen klassifizierten Objekten jedoch auch Objektmerkmale zugeordnet werden, die das Objekt näher spezifizieren. Ein solches Merkmal kann insbesondere eine Angabe zur Art des Objekts, wie beispielsweise die Objektart „Fußgänger“, „Fahrradfahrer“, „Fahrrad“, „PKW“, „LKW“, „Baum“, „Straßenrand“, „Leitpfosten“, „Straßenlaterne“, „Ampelanlage“ usw. umfassen. Auch können Bereichen eines Objekts Objektmerkmale zugewiesen werden, wie „Person von vorne“, „Person von hinten“, „Person von der Seite“, „Person von oben“, „Fahrzeug von hinten“, „Fahrzeug von der Seite“, „Fahrzeug von vorn“, „Fahrzeug von oben“ usw. Unter erweiterter Realität (auch englisch: augmented reality, kurz AR) versteht man die computergestützte Erweiterung der Realitätswahrnehmung. Unter erweitertes Realitätsverfahren wird ein computergestütztes bzw. datenverarbeitungsanlagengestütztes Verfahren zur Erweiterung der Realitätswahrnehmung verstanden. Die Erweiterung der Realitätswahrnehmung kann durch eine Information an jede menschliche Sinnesmodalität erfolgen. Es können insbesondere Ergänzungen in Bildern oder Videos vorgenommen werden, wobei insbesondere virtuelle Objekte eingeblendet und/oder einem angezeigten Bild überlagert werden.In order to prepare the data of the 3D point cloud as learning data for a system with artificial intelligence, however, classified objects must also be assigned object features that specify the object in more detail. Such a feature can in particular include information on the type of object, such as the object type “pedestrian”, “cyclist”, “bicycle”, “car”, “truck”, “tree”, “roadside”, “delineator”, “street lamp” "," Traffic light system "etc. include. Object features can also be assigned to areas of an object, such as “person from the front”, “person from behind”, “person from the side”, “person from above”, “vehicle from behind”, “vehicle from the side”, “vehicle” from the front ”,“ vehicle from above ”, etc. Augmented reality is the computer-aided expansion of the perception of reality. A computer-aided resp. understood data processing system-based method for expanding the perception of reality. The expansion of the perception of reality can take place through information to any human sensory modality. In particular, additions to images or videos can be made, with virtual objects in particular being faded in and / or superimposed on a displayed image.
Eine 3D-Punktwolke ist eine dreidimensionale Punktwolke und wird auch als dreidimensionale Punkthaufen bezeichnet. Die 3D-Punktwolke umfasst eine Menge von Punkten eines Vektorraums, die eine unorganisierte räumliche Struktur (Wolke) aufweist. Eine 3D-Punktwolke ist durch die enthaltenen Punkte beschrieben, die jeweils ihre Raumkoordinaten sind. Es gibt 3D-Punktwolken mit Georeferenzierungen, die Punkte im erdbezogenen Koordinatensystem enthalten. Zu diesen Punkten können zusätzliche Attribute, wie z.B. geometrische Normalen, Farbwerte oder Messungenauigkeiten erfasst sein.A 3D point cloud is a three-dimensional point cloud and is also known as a three-dimensional point cluster. The 3D point cloud comprises a set of points in a vector space that has a disorganized spatial structure (cloud). A 3D point cloud is described by the points it contains, each of which is its spatial coordinates. There are 3D point clouds with georeferencing that contain points in the earth-related coordinate system. Additional attributes such as Geometric normals, color values or measurement inaccuracies must be recorded.
Eine Punktwolke kann grundsätzlich über ein beliebiges Scanverfahren erzeugt werden. Dies ist z.B. durch terrestrisches oder fahrzeuggestütztes Laserscannen oder auch fotogrammetrische Verfahren möglich. Hierbei können 3D-Punktwolken allgemein mit Hilfe einer Abtastung von Objektoberflächen durch tastende oder optische Scanner erfolgen. Optische Scanner können insbesondere Laserscanner sein, die nach dem Triangulationsprinzip arbeiten, oder Normallicht-Scanner, die nach dem Streifenlichtverfahren (coded light) arbeiten. Durch die mehrfache Erfassung eines räumlichen Ausschnitts zu unterschiedlichen Zeiten lässt sich auch ein vierdimensionales, d.h. zeitvariantes, diskretes räumliches Modell der Umgebung aufbauen. Jeder Punkt der 3D-Punktwolke wird dabei zeitlich und räumlich (XYZ-Koordinaten) lokalisiert und kann auch georeferenziert erfasst werden oder nachträglich georeferenziert werden. Für die vorliegende Erfindung ist es ausreichend, wenn jeder Punkt der Wolke räumlich in einem Fahrzeugkoordinatensystem oder einem Weltkoordinatensystem lokalisiert ist.A point cloud can basically be generated using any scanning method. This is e.g. possible through terrestrial or vehicle-based laser scanning or photogrammetric methods. Here, 3D point clouds can generally take place with the aid of scanning object surfaces by means of scanning or optical scanners. Optical scanners can in particular be laser scanners that work according to the triangulation principle, or normal light scanners that work according to the strip light method (coded light). By recording a spatial section multiple times at different times, a four-dimensional, i.e. Build a time-variant, discrete spatial model of the environment. Each point of the 3D point cloud is localized in terms of time and space (XYZ coordinates) and can also be georeferenced or georeferenced afterwards. It is sufficient for the present invention if each point of the cloud is spatially localized in a vehicle coordinate system or a world coordinate system.
Die Daten der 3D-Punktwolke werden mit Hilfe eines leicht im Raum bewegbaren mobilen Gerätes verarbeitet, wobei ein Bild eines Bereichs der 3D-Punktwolke auf einer Anzeige eines mobilen Gerätes ausgegeben wird. Mindestens eine einem Objekt zugeordnete Teilpunktmenge wird ausgewählt und der ausgewählten Teilpunktmenge wird mindestens ein Objektmerkmal zugeordnet. Hierdurch ist ein einfaches Labelling von Objekten möglich. Hierbei können mehrere Einzelobjekte zu einem Gesamtobjekt zusammengesetzt sein. So können die mit den Objektmerkmalen „rechte Seite Fahrzeug“, „linke Seite Fahrzeug“, „Vorderseite Fahrzeug“, „Rückseite Fahrzeug“, „Fahrzeug von oben“ dem Gesamtobjekt „Fahrzeug“ zugeordnet sein.The data of the 3D point cloud are processed with the aid of a mobile device that can be easily moved in space, an image of a region of the 3D point cloud being output on a display of a mobile device. At least one sub-point set assigned to an object is selected and at least one object feature is assigned to the selected sub-point set. This enables simple labeling of objects. Several individual objects can be combined to form an overall object. The objects with the object characteristics “right side of vehicle”, “left side of vehicle”, “front of vehicle”, “rear of vehicle”, “vehicle from above” can be assigned to the overall object “vehicle”.
Mit Hilfe des mobilen Geräts ist somit ein sehr einfaches Zuordnen von Objekteigenschaften, d.h. ein sehr einfaches Labelling von Objekten, und bei Bedarf auch ein sehr einfaches Kennzeichnen von Teilpunktmengen der 3D-Punktwolke als Objekt möglich. Hierdurch können Daten von erfassten 3D-Punktwolken einfach als Lerndaten für Systeme mit künstlicher Intelligenz aufbereitet werden. Die Daten der 3D-Punktwolke werden insbesondere mit Hilfe eines in einem Fahrzeug angeordneten Sensorsystems erfasst und anschließend zu dem mobilen Gerät übertragen. Die 3D-Punktwolkendaten werden dann gemeinsam mit dem mindestens einer Teilpunktmenge zugeordneten Objektmerkmal einem System mit künstlicher Intelligenz, wie einem neuronalen Netzwerk, als Lerndaten zugeführt. Das angelernte System mit künstlicher Intelligenz kann dann in einer Steuereinheit oder Datenverarbeitungseinheit des Fahrzeugs oder eines weiteren Fahrzeugs implementiert werden.With the help of the mobile device, a very simple assignment of object properties, i.e. a very simple labeling of objects and, if necessary, a very simple marking of partial point sets of the 3D point cloud as an object. This means that data from captured 3D point clouds can be easily processed as learning data for systems with artificial intelligence. The data of the 3D point cloud are recorded in particular with the aid of a sensor system arranged in a vehicle and then transmitted to the mobile device. The 3D point cloud data, together with the object feature assigned to at least one sub-point set, are then supplied as learning data to a system with artificial intelligence, such as a neural network. The learned system with artificial intelligence can then be implemented in a control unit or data processing unit of the vehicle or of another vehicle.
Besonders vorteilhaft ist es, wenn eine Navigation innerhalb der 3D-Punktwolke mit Hilfe des mobilen Gerätes erfolgt bzw. ermöglicht wird, wobei durch die Navigation die Position und/oder der Blickwinkel des auf der Anzeigeeinheit angezeigten Bildes, vorzugsweise innerhalb der 3D-Punktwolke, verändert wird. Hierdurch kann einfach zu Objekten innerhalb der 3D-Punktwolke navigiert werden, um diese dann mit Hilfe des mobilen Gerätes auszuwählen und den ausgewählten Objekten bzw. den den Objekten zugeordneten Teilpunktmengen ein Objektmerkmal zuzuordnen.It is particularly advantageous if navigation within the 3D point cloud takes place or is made possible with the aid of the mobile device, the position and / or the viewing angle of the image displayed on the display unit, preferably within the 3D point cloud, being changed by the navigation becomes. In this way it is easy to navigate to objects within the 3D point cloud in order to then select them with the aid of the mobile device and to assign an object feature to the selected objects or to the partial point sets assigned to the objects.
Besonders vorteilhaft ist es, wenn Eingabemittel zur Navigation vorgesehen sind. Die Eingabemittel können Bewegungssensoren, wie Beschleunigungssensoren und/oder Lagersensoren umfassen. Hierdurch ist eine einfache Bedieneingabe zur Navigation durch die 3D-Punkte möglich.It is particularly advantageous if input means are provided for navigation. The input means can include movement sensors, such as acceleration sensors and / or bearing sensors. This enables simple operator input to navigate through the 3D points.
Ferner ist es vorteilhaft, wenn die mindestens eine Teilpunktmenge mit Hilfe eines Eingabemittels des mobilen Gerätes ausgewählt wird. Insbesondere kann eine die Teilpunktmenge begrenzende Box oder eine andere vorzugsweise einfache geometrische Figur in das angezeigte Bild eingebracht werden. Dies kann insbesondere durch Einfügen und Verschieben sowie durch Ändern der Größe und Form der Box über einen Touchscreen des mobilen Gerätes erfolgen. Die Box kann hierbei an mindestens einer Seite des dem Objektmerkmal zu kennzeichnenden Objektes auch an das Objekt angrenzende Bereiche umfassen. Hierdurch eine einfache Auswahl von Objekten möglich.It is also advantageous if the at least one sub-point set is selected with the aid of an input means of the mobile device. In particular, a box delimiting the sub-point set or another preferably simple geometric figure can be incorporated into the displayed image. This can be done in particular by inserting and moving as well as by changing the size and shape of the box via a touchscreen of the mobile device. The box can also include areas adjoining the object on at least one side of the object to be identified with the object feature. This makes it easy to select objects.
Ferner ist es vorteilhaft, wenn der mindestens einen ausgewählten Teilpunktmenge mindestens ein Objektmerkmal durch eine Eingabe mit Hilfe eines Eingabemittels des mobilen Gerätes zugeordnet wird. Ein solches Eingabemittel ist beispielsweise ein Spracheingabemittel, ein Sensorhandschuh zum Erfassen der Handbewegung einer Bedienperson, ein Touchscreen zur Auswahl aus einer auf dem Touchscreen angezeigten Liste und/oder eine Tastatur zur Texteingabe, vorzugsweise eine Bildschirmtastatur des mobilen Gerätes. Hierdurch ist eine einfache Auswahl und Zuordnung bzw. Eingabe des Objektmerkmals und Zuordnen des Objektmerkmals zu einer Teilpunktmenge möglich.It is also advantageous if the at least one selected sub-point set has at least one object feature through an input with the aid of an input means of the mobile device is assigned. Such an input means is, for example, a voice input means, a sensor glove for detecting the hand movement of an operator, a touchscreen for selecting from a list displayed on the touchscreen and / or a keyboard for entering text, preferably a screen keyboard of the mobile device. This enables simple selection and assignment or input of the object feature and assignment of the object feature to a sub-point set.
Ferner ist es vorteilhaft, wenn mindestens eine einem Objekt zugeordnete Teilpunktmenge durch eine Eingabe mit Hilfe eines Eingabemittels, vorzugsweise durch Spracheingabe, durch eine von mindestens einem Sensorhandschuh erfasste Handbewegung, durch Auswahl aus einer auf der Anzeigeeinheit angezeigten Liste und/oder durch Texteingabe über eine Tastatur, vorzugsweise über eine Bildschirmtastatur des mobilen Gerätes, ausgewählt wird. Hierdurch ist eine besonders einfache Auswahl der Teilpunktmenge möglich, so dass eine einfache und intuitive Bedienung des mobilen Gerätes möglich ist.It is also advantageous if at least one sub-point set assigned to an object is entered using an input means, preferably by voice input, by a hand movement detected by at least one sensor glove, by selecting from a list displayed on the display unit and / or by entering text via a keyboard is selected, preferably via a screen keyboard of the mobile device. This enables a particularly simple selection of the partial point set, so that simple and intuitive operation of the mobile device is possible.
Besonders vorteilhaft ist es, wenn das mit Hilfe des erweiterten Realitätsverfahrens ermittelte 3D-Modell als Bild, vorzugsweise zusammen mit einer grafischen Darstellung des Bereichs der 3D-Wolke, auf der Anzeigeeinheit des mobilen Gerätes angezeigt wird. Hierdurch können die mit Hilfe des erweiterten Realitätsverfahrens ermittelten Objekte als 3D-Modelle einfach angezeigt und von einer Bedienperson schnell wahrgenommen werden, so dass eine einfache und zügige Bedienung des mobilen Gerätes möglich ist, so dass eine sehr effiziente Zuordnung des Objektmerkmals zu mindestens einer Teilpunktmenge möglich ist.It is particularly advantageous if the 3D model determined with the aid of the extended reality method is displayed as an image, preferably together with a graphic representation of the area of the 3D cloud, on the display unit of the mobile device. As a result, the objects determined with the help of the extended reality method can be easily displayed as 3D models and quickly perceived by an operator, so that the mobile device can be operated quickly and easily, so that a very efficient assignment of the object feature to at least one sub-point set is possible is.
Ferner ist es vorteilhaft, wenn die Teilpunktmenge eine Teilmenge aller Punkte der 3D-Punktwolke ist. Die Teilpunktemenge enthält vorzugsweise nur Punkte eines Objekts und ggf. an das Objekt angrenzende Bereiche, in denen sich vorzugsweise kein weiteres Objekt befindet. Hierdurch ist eine einfache Auswahl einer Teilpunktmenge möglich.It is also advantageous if the subset of points is a subset of all points in the 3D point cloud. The sub-point set preferably only contains points of an object and possibly areas adjoining the object, in which there is preferably no further object. This enables a simple selection of a partial set of points.
Ferner ist es vorteilhaft, wenn eine Teilpunktmenge durch einen geometrischen Körper, insbesondere durch einen Quader oder einen Zylinder, ausgewählt und/oder im angezeigten Bild mit Hilfe eines geometrischen Körpers, insbesondere durch einen Quader oder durch einen Zylinder, gekennzeichnet ist. Hierbei ist es besonders vorteilhaft, wenn bei einer Auswahl des jeweiligen Objekts bzw. bei einer Auswahl der einem Objekt zugeordneten Teilpunktmenge die Farbe des geometrischen Körpers geändert wird. Hierdurch ist eine einfache Auswahl und Markierung eines Objekts möglich, dem anschließend durch eine entsprechende Bedieneingabe ein Objektmerkmal zugeordnet wird. Hierdurch ist eine einfache Handhabung des mobilen Gerätes und insbesondere ein einfaches Labelling von in der 3D-Punktwolke enthaltenen Objekten möglich.It is also advantageous if a sub-point set is selected by a geometric body, in particular a cuboid or a cylinder, and / or is characterized in the displayed image with the aid of a geometric body, in particular a cuboid or a cylinder. It is particularly advantageous here if the color of the geometric body is changed when the respective object is selected or when the sub-point set assigned to an object is selected. This enables an object to be selected and marked easily, to which an object feature is then assigned by a corresponding operator input. This enables simple handling of the mobile device and, in particular, simple labeling of objects contained in the 3D point cloud.
Ferner ist es vorteilhaft, wenn das mobile Gerät ein Smartphone, ein Tablet-Computer, eine Virtual-Reality-Brille mit der Virtual-Reality-Brille zugeordneten Eingabesensoren und/eine Augmented-Reality-Brille mit der Augmented-Brille zugeordneten Eingabesensoren ist. Die Eingabesensoren können insbesondere Positions-, Lage- und/oder Beschleunigungssensoren sein, die insbesondere in einem Handschuh angeordnet sind. Eine Bedienperson kann dann den Handschuh anziehen und über Bewegungen der Hand, der Finger und des Arms einfach Bedieneingaben vornehmen, insbesondere durch die 3D-Punktwolke navigieren, eingeblendete Symbole und Texte auswählen und hierdurch einfach Teilpunktmengen der 3D-Punktwolke auswählen und diesen Teilpunktmengen ein oder mehrere Objektmerkmale zuordnen. Zusätzlich oder alternativ kann ein Mikrofon zur Spracheingabe vorgesehen werden, durch das sowohl die Navigation durch die 3D-Punktwolke als auch die Auswahl von Teilpunktmengen sowie das Zuordnen des Objektmerkmals zu der Teilpunktmenge einfach möglich ist. Die Augmented-Reality-Brille wird als auch AR-Brille und die Virtual-Reality-Brille auch als VR-Brille bezeichnet.It is also advantageous if the mobile device is a smartphone, a tablet computer, virtual reality glasses with input sensors assigned to the virtual reality glasses and / an augmented reality glasses with input sensors assigned to the augmented glasses. The input sensors can in particular be position, attitude and / or acceleration sensors, which are in particular arranged in a glove. An operator can then put on the glove and simply make operating inputs using movements of the hand, fingers and arm, in particular navigate through the 3D point cloud, select symbols and texts that are displayed and thereby simply select sub-point sets of the 3D point cloud and one or more of these sub-point sets Assign reference characteristics. Additionally or alternatively, a microphone can be provided for voice input, by means of which both the navigation through the 3D point cloud and the selection of partial point sets and the assignment of the object feature to the partial point set is possible. The augmented reality glasses are also referred to as AR glasses and the virtual reality glasses also as VR glasses.
Besonders vorteilhaft ist es, wenn die Daten der 3D-Punktwolke mit Hilfe einer Sensoreinheit eines Fahrzeugs, insbesondere mit Hilfe eines 3D-Scanners oder mit Hilfe eines LiDAR-Sensors, vorzugsweise während der Fahrt des Fahrzeugs, ermittelt und gespeichert werden. Hierbei ist es besonders vorteilhaft, wenn die gespeicherten Daten zu dem mobilen Gerät übertragen werden und wenn die Zuordnung des Objektmerkmals zu der ausgewählten Teilpunktmenge zeitlich und örtlich unabhängig, in der Daten-Punktwolke erfolgt. Hierdurch ist eine einfache Ermittlung von Lerndaten für ein System mit künstlicher Intelligenz möglich.It is particularly advantageous if the data of the 3D point cloud are determined and stored with the aid of a sensor unit of a vehicle, in particular with the aid of a 3D scanner or with the aid of a LiDAR sensor, preferably while the vehicle is in motion. It is particularly advantageous here if the stored data are transmitted to the mobile device and if the assignment of the object feature to the selected partial point set takes place independently of time and location in the data point cloud. This enables learning data to be determined easily for a system with artificial intelligence.
Ferner ist es vorteilhaft, wenn der Bildausschnitt des angezeigten Bildes durch eine Eingabe mit Hilfe von Eingabemitteln des mobilen Gerätes, vorzugsweise durch Spracheingabe, durch eine von mindestens einem Sensorhandschuh erfasste Handbewegung, durch Auswahl aus einer auf der Anzeigeeinheit angezeigten Liste und/oder durch Texteingabe über eine Tastatur, vorzugsweise über eine Bildschirmtastatur des mobilen Gerätes, veränderbar, insbesondere vergrößerbar oder verkleinerbar, ist. Hierdurch ist eine einfache und intuitive Bedienung des mobilen Gerätes zum Zuordnen mindestens eines Objektmerkmals zu mindestens einer Teilpunktmenge einer 3D-Punktwolke möglich.It is also advantageous if the image section of the displayed image is entered using input means of the mobile device, preferably by voice input, by a hand movement detected by at least one sensor glove, by selection from a list displayed on the display unit and / or by entering text a keyboard, preferably via a screen keyboard of the mobile device, can be changed, in particular enlarged or reduced. This enables simple and intuitive operation of the mobile device for assigning at least one object feature to at least a partial set of points of a 3D point cloud.
Ferner ist es vorteilhaft, wenn die Eingabe mit Hilfe der Eingabemittel des mobilen Gerätes durch das Erfassen einer Bewegung des mobilen Gerätes im Raum erfolgt. Hierdurch ist eine besonders einfache Bedienung des mobilen Gerätes sowohl zur Navigation durch die 3D-Punktwolke als auch zum Zuordnen mindestens einer Objekteigenschaft zu mindestens einer Teilpunktmenge der 3D-Punktwolke möglich.It is also advantageous if the input takes place with the aid of the input means of the mobile device by detecting a movement of the mobile device in space. This enables particularly simple operation of the mobile device both for navigating through the 3D point cloud and for assigning at least one object property to at least a partial set of points of the 3D point cloud.
Ein zweiter Aspekt der Erfindung betrifft ein mobiles Gerät, das so ausgebildet und programmiert ist, ein Verfahren nach Anspruch 1 oder einer zuvor angegebenen Weiterbildung auszuführen.A second aspect of the invention relates to a mobile device which is designed and programmed to carry out a method according to claim 1 or a previously specified development.
Weitere Merkmale und Vorteile ergeben sich aus der folgenden Beschreibung, die Ausführungsformen in Verbindung mit den beigefügten Figuren näher erläutert. In den Figuren zeigen:
-
1 ein Bild eines Bereichs einer 3D-Punktwolke auf einer Anzeigeeinheit eines mobilen Gerätes mit mehreren gekennzeichneten Objekten in einer ersten räumlichen Darstellung; -
2 ein bei dem Ermitteln der Daten der 3D-Punktwolke nach1 mit Hilfe einer Kamera aufgenommenes Bild einer Verkehrssituation; -
3 ein Bild eines zweiten Bereichs der 3D-Punktwolke auf der Anzeigeeinheit des mobilen Gerätes mit einer perspektivischen Draufsicht auf ein Objekt nach1 ; -
4 ein Bild eines dritten Bereichs der 3D-Punktwolke auf der Anzeigeeinheit des mobilen Gerätes mit einer ersten Seitenansicht des Objekts nach3 ; -
5 ein Bild eines vierten Bereichs der 3D-Punktwolke auf der Anzeigeeinheit des mobilen Gerätes mit einer zweiten Seitenansicht des Objekts nach3 ; und -
6 einen Ablaufplan für ein Verfahren zum Zuordnen mindestens eines Objektmerkmals zu mindestens einer Teilpunktmenge einer 3D-Punktwolke.
-
1 an image of a region of a 3D point cloud on a display unit of a mobile device with a plurality of marked objects in a first spatial representation; -
2 a when determining the data of the 3D point cloud1 image of a traffic situation recorded with the aid of a camera; -
3 an image of a second area of the 3D point cloud on the display unit of the mobile device with a perspective top view of an object1 ; -
4th an image of a third area of the 3D point cloud on the display unit of the mobile device with a first side view of the object3 ; -
5 an image of a fourth area of the 3D point cloud on the display unit of the mobile device with a second side view of the object3 ; and -
6th a flow chart for a method for assigning at least one object feature to at least one sub-point set of a 3D point cloud.
Im Schritt
Anschließend wird im Schritt
Im Schritt
Der Ablauf wird dann im Schritt
Durch das angegebene Verfahren zum Zuordnen mindestens eines Objektmerkmals zu mindestens einer Teilpunktmenge einer 3D-Punktwolke kann somit ein einfaches Labeling von Objekten, die in 3D-Punktwolken enthalten sind, erfolgen. Für Daten, die mit Hilfe von ADAS-Sensoren erfasst wurden, kann dadurch mit Hilfe eines mobilen Geräts, etwa eines Tablet-Computers, eines Smartphones, einer VR-Brille oder einer AR-Brille, ein Labeling-Verfahren, besonders einfach durchgeführt werden. Die zu labelnden Objekte werden vorzugweise mit Hilfe eines erweiterten Realitätsverfahrens als entsprechende 3D-Modelle im 3D-Raum ermittelt und vorzugsweise auf einer Anzeigeeinheit des mobilen Geräts graphisch dargestellt.The specified method for assigning at least one object feature to at least a partial set of points of a 3D point cloud thus enables simple labeling of objects that are contained in 3D point clouds. For data that was recorded with the help of ADAS sensors, a labeling process can be carried out particularly easily with the help of a mobile device, for example a tablet computer, a smartphone, VR glasses or AR glasses. The objects to be labeled are preferably determined with the aid of an extended reality method as corresponding 3D models in 3D space and are preferably represented graphically on a display unit of the mobile device.
Im Stand der Technik werden zum Labelling von Objekten in 3D-Punktwolken Daten mit Hilfe von Softwaretools im Computer bearbeitet. Diese Softwaretools erlauben zwar eine Auswahl und Bearbeitung der Daten für ein 3D-Labelling, jedoch ist die Bedienung sehr umständlich und nicht benutzerfreundlich, da mit einer Vielzahl von Bewegungen einer Maus und/oder eine besondere Kombination von Computertastatur und Maus die zu labelnden Objekte ausgewählt werden müssen und zum Navigieren in der 3D-Punktwolke umständliche Eingaben erforderlich sind. Bei der beschriebenen Ausführungsform hingegen werden die zu labelnden 3D-Obekte einer in oder an einem Fahrzeug montierten Sensoreinheit als Daten einer 3D-Punktwolke erfasst. Die Daten der 3D-Punktwolke können in einem Speicherbereich eines Servers oder Computer gespeichert werden und dann auf ein mobiles Gerät heruntergeladen werden. Das mobile Gerät erlaubt die Darstellung der 3D-Punktwolkedaten in einer erweiterten Realität. Diese Darstellung ist ortsfest. Das bedeutet, alle Objekte, die in der 3D-Punktwolke vorhanden sind, haben eine feste Position und können sich nicht mehr ändern bzw. nicht mehr bewegen.In the prior art, data is processed in the computer with the aid of software tools for the labeling of objects in 3D point clouds. Although these software tools allow the data to be selected and processed for 3D labeling, operation is very cumbersome and not user-friendly, since the objects to be labeled are selected with a large number of movements of a mouse and / or a special combination of computer keyboard and mouse and cumbersome entries are required to navigate in the 3D point cloud. In the embodiment described, however, the 3D objects to be labeled from a sensor unit mounted in or on a vehicle are recorded as data from a 3D point cloud. The data of the 3D point cloud can be stored in a storage area of a server or computer and then downloaded to a mobile device. The mobile device enables the representation of the 3D point cloud data in an augmented reality. This representation is stationary. This means that all objects that are present in the 3D point cloud have a fixed position and can no longer change or move.
Ein Nutzer kann die Objekte, die im Koordinatensystem der erweiterten Realität ortsfest sind, durch Bewegung des mobilen Gerätes untersuchen. Z.B. kann der Nutzer entsprechende Objekte sowie Teile von Objekten in der Darstellung vergrößern, verkleinern oder die Objekte rotieren lassen bzw. den Betrachtungswinkel auf die Objekte einfach ändern.A user can examine the objects that are stationary in the coordinate system of augmented reality by moving the mobile device. E.g. the user can enlarge or reduce the corresponding objects and parts of objects in the display or rotate the objects or simply change the viewing angle on the objects.
Wenn ein Nutzer mit Hilfe eines auf dem mobilen Gerät angezeigten Bildes ein Objekt, wie z.B. ein Fahrzeug, einen Fußgänger oder einen Radfahrer identifiziert hat, kann er dem Objekt ein Objektmerkmal zuordnen, d.h. das Objekt labeln. Dies kann über eine geeignete Eingabe, wie einer Spracheingabe, der Auswahl aus einer Vorschlagliste, einer Texteingabe usw. erfolgen.When a user uses an image displayed on the mobile device to find an object, such as has identified a vehicle, a pedestrian or a cyclist, he can assign an object feature to the object, i.e. label the object. This can be done via a suitable input, such as a voice input, the selection from a list of suggestions, a text input, etc.
Für unterschiedliche mobile Geräte ergeben sich unterschiedliche Vorteile bei der Navigation durch die 3D-Punktwolke sowie bei der Auswahl von Objekten bzw. objektzugeordneten Teilpunktmengen.For different mobile devices there are different advantages when navigating through the 3D point cloud and when selecting objects or object-assigned subsets of points.
Wird als mobiles Gerät ein Tablet-Computer oder ein Smartphone mit erweiterten Realitätsfunktionen (AR-Funktion) verwendet, kann das zu labelnde Objekt durch eine Bewegung des mobilen Geräts entlang der X-, Y- oder Z-Achse untersucht werden, wobei durch die Bewegung des mobilen Geräts der Blickwinkel auf das Objekt einfach geändert werden kann. Hierdurch kann mit Hilfe des mobilen Geräts eine Navigation durch die 3D-Punktwolke besonders einfach erfolgen, indem insbesondere Lage- und/oder Beschleunigungssensoren des Smartphones oder Tablet-Computers genutzt werden. Z.B. kann der Nutzer mit einer Bewegung des Tablet-Computers oder Smartphones vor- oder rückwärts entlang der X-Achse im Raum der Nutzer das Objekt verkleinern bzw. vergrößern. Bei einer Bewegung des mobilen Geräts entlang der Y- oder Z-Achse kann der Nutzer das Objekt aus einem anderen Blickwinkel untersuchen. Die Auswahl des zu labelnden Objekts kann durch eine Betätigung einer Taste des mobilen Geräts, insbesondere über den Touchscreen des mobilen Geräts, erfolgen. Alternativ kann die Auswahl des zu labelnden Objekts mittels einer Handgeste und/oder einer Fingergeste des Nutzers im 3D-Raum erfolgen. Gesten können insbesondre mit Hilfe einer Kamera oder mit Hilfe eines Sensorhandschuhs erfasst werden.If a tablet computer or a smartphone with extended reality functions (AR function) is used as the mobile device, the object to be labeled can be examined by moving the mobile device along the X, Y or Z axis, whereby the movement of the mobile device, the angle of view of the object can be easily changed. In this way, navigation through the 3D point cloud can take place particularly easily with the aid of the mobile device, in particular by using position and / or acceleration sensors of the smartphone or tablet computer. E.g. the user can reduce or enlarge the object in the user's space with a movement of the tablet computer or smartphone forwards or backwards along the X-axis. When moving the mobile device along the Y or Z axis, the user can examine the object from a different angle. The object to be labeled can be selected by actuating a button on the mobile device, in particular via the touchscreen of the mobile device. Alternatively, the object to be labeled can be selected by means of a hand gesture and / or a finger gesture by the user in 3D space. Gestures can in particular be recorded with the aid of a camera or with the aid of a sensor glove.
Zu einer Objektauswahl kann der Nutzer auch eine sogenannte Bounding Box um das ausgewählte Objekt herum einfügen, insbesondere zeichnen oder bereitgestellte Boxen platzieren und erforderlichenfalls in der Größe anpassen. Eine Bounding Box kann auch dadurch erzeugt werden, dass der Benutzer eine Bewegung mit dem gesamten mobilen Gerät um das ausgewählte Objekt herum ausführt, d.h. er navigiert so durch die 3D-Punktwolke, dass er das Objekt von allen Seiten in der 3D-Punktwolke betrachtet, indem er sich im virtuellen Raum der 3D-Punktwolke um das betreffende Objekt herumbewegt.For an object selection, the user can also insert a so-called bounding box around the selected object, in particular draw or place provided boxes and, if necessary, adjust the size. A bounding box can also be created by the user executing a movement with the entire mobile device around the selected object, i.e. navigating through the 3D point cloud in such a way that he sees the object from all sides in the 3D point cloud, by moving around the object in question in the virtual space of the 3D point cloud.
Eine Bounding Box kann alternativ oder zusätzlich auch mit Hand- und/oder Fingergesten des Nutzers im 3D-Raum eingefügt, insbesondere gezeichnet, werden.As an alternative or in addition, a bounding box can also be inserted, in particular drawn, in 3D space with hand and / or finger gestures by the user.
Falls das mobile Gerät eine AR-Brille oder eine VR-Brille ist, kann der Nutzer über Gestensteuerung mit der AR-Darstellung bzw. VR-Darstellung in der 3D-Punktwolke navigieren und mit der 3D-Punktwolke interagieren, um Objekte auszuwählen und zu labeln. Die so gelabelten Daten können als Trainingsdaten für neuronale Netze oder Deep Learning-Methoden verwendet werden. Es ist auch möglich, die gelabelten Daten als Referenzdaten für die Validierung von Sensoren, insbesondere von Radar, -LiDAR- und Kamerasensoren, zu nutzen.If the mobile device is AR glasses or VR glasses, the user can use gesture control to navigate with the AR display or VR display in the 3D point cloud and interact with the 3D point cloud in order to select and label objects . The data labeled in this way can be used as training data for neural networks or deep learning methods. It is also possible to use the labeled data as reference data for the validation of sensors, especially radar, LiDAR and camera sensors.
BezugszeichenlisteList of reference symbols
- 10, 28, 30, 40, 5010, 28, 30, 40, 50
- Bildimage
- 12, 14, 1612, 14, 16
- Objektobject
- 18, 20, 2218, 20, 22
- 3D-Modell bzw. Bounding Box3D model or bounding box
- Y, Y, ZY, Y, Z
- KoordinatenachsenCoordinate axes
- S10 bis S22S10 to S22
- VerfahrensschritteProcedural steps
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 20150062123 A1 [0003]US 20150062123 A1 [0003]
- US 20160358383 A1 [0004]US 20160358383 A1 [0004]
- WO 2018/07109 A1 [0005]WO 2018/07109 A1 [0005]
Claims (15)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019109515.8A DE102019109515A1 (en) | 2019-04-10 | 2019-04-10 | Method for assigning at least one object feature to at least one sub-point set of a 3D point cloud |
PCT/EP2020/058977 WO2020207845A1 (en) | 2019-04-10 | 2020-03-30 | Method for assigning at least one object feature to at least one sub-point set of a 3d point cloud |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019109515.8A DE102019109515A1 (en) | 2019-04-10 | 2019-04-10 | Method for assigning at least one object feature to at least one sub-point set of a 3D point cloud |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019109515A1 true DE102019109515A1 (en) | 2020-10-15 |
Family
ID=70058387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019109515.8A Pending DE102019109515A1 (en) | 2019-04-10 | 2019-04-10 | Method for assigning at least one object feature to at least one sub-point set of a 3D point cloud |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102019109515A1 (en) |
WO (1) | WO2020207845A1 (en) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7242460B2 (en) * | 2003-04-18 | 2007-07-10 | Sarnoff Corporation | Method and apparatus for automatic registration and visualization of occluded targets using ladar data |
US9996974B2 (en) * | 2013-08-30 | 2018-06-12 | Qualcomm Incorporated | Method and apparatus for representing a physical scene |
US20150062123A1 (en) | 2013-08-30 | 2015-03-05 | Ngrain (Canada) Corporation | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
GB2537681B (en) * | 2015-04-24 | 2018-04-25 | Univ Oxford Innovation Ltd | A method of detecting objects within a 3D environment |
US20160358383A1 (en) | 2015-06-05 | 2016-12-08 | Steffen Gauglitz | Systems and methods for augmented reality-based remote collaboration |
US10682607B2 (en) | 2016-07-08 | 2020-06-16 | Haldor Topsoe A/S | Process for the combined removal of siloxanes and sulfur-containing compounds from biogas streams |
US20180161986A1 (en) * | 2016-12-12 | 2018-06-14 | The Charles Stark Draper Laboratory, Inc. | System and method for semantic simultaneous localization and mapping of static and dynamic objects |
-
2019
- 2019-04-10 DE DE102019109515.8A patent/DE102019109515A1/en active Pending
-
2020
- 2020-03-30 WO PCT/EP2020/058977 patent/WO2020207845A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2020207845A1 (en) | 2020-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3055650B1 (en) | Method and device for augmented display | |
DE102019120880A1 (en) | END-TO-END-DEEP-GENERATIVE MODEL FOR SIMULTANEOUS LOCALIZATION AND IMAGE | |
DE102016211182A1 (en) | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map | |
DE102018100192A1 (en) | Generation of training data for automatic leak detection in vehicles | |
DE112017005059T5 (en) | SYSTEM AND METHOD FOR PROJECTING GRAPHIC OBJECTS | |
DE102011013760A1 (en) | Method for relaying information through augmented reality in connection with road vehicle, involves detecting command to specify selected function or selected object of road vehicle, where map reflecting portion of road vehicle is detected | |
DE102012200731A1 (en) | Method and device for visualizing the environment of a vehicle | |
EP3695266B1 (en) | Method for operating a display device in a motor vehicle | |
DE102018207414A1 (en) | Image processing system | |
DE112018004519T5 (en) | Overlay image display device and computer program | |
DE112017008101T5 (en) | AUTONOMOUS ROBOTS AND METHOD FOR OPERATING THE SAME | |
DE102019208788A1 (en) | Motor vehicle | |
EP2990251A2 (en) | Device and method for operating multimedia content in a vehicle | |
DE102021124168A1 (en) | INTEGRATED AUGMENTED REALITY SYSTEM FOR SHARING AUGMENTED REALITY CONTENT BETWEEN VEHICLE OCCUPANTS | |
DE102015115394A1 (en) | A method and apparatus for superimposing an image of a real scene with a virtual image and mobile device | |
DE102019219017A1 (en) | Display method for displaying an environmental model of a vehicle, computer program, control unit and vehicle | |
DE102013016241A1 (en) | Method and device for augmented presentation | |
WO2015062750A1 (en) | Infortainment system for a vehicle | |
DE102019109515A1 (en) | Method for assigning at least one object feature to at least one sub-point set of a 3D point cloud | |
DE19746639A1 (en) | Digital determination of spatial objects and scenes for 3D photographic map | |
DE112019006107T5 (en) | Authoring device, authoring process and authoring program | |
DE102018118422A1 (en) | METHOD AND SYSTEM FOR PRESENTING DATA FROM A VIDEO CAMERA | |
EP3754544A1 (en) | Detection system, work method and training method | |
DE102019102423A1 (en) | Method for live annotation of sensor data | |
WO2020119996A1 (en) | Transfer of additional information between camera systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06F0016500000 Ipc: G06N0003080000 |
|
R163 | Identified publications notified | ||
R081 | Change of applicant/patentee |
Owner name: CARIAD SE, DE Free format text: FORMER OWNER: HELLA GMBH & CO. KGAA, 59557 LIPPSTADT, DE Owner name: CAR.SOFTWARE ESTONIA AS, EE Free format text: FORMER OWNER: HELLA GMBH & CO. KGAA, 59557 LIPPSTADT, DE |
|
R082 | Change of representative |
Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE |
|
R081 | Change of applicant/patentee |
Owner name: CARIAD SE, DE Free format text: FORMER OWNER: CAR.SOFTWARE ESTONIA AS, TALLINN, EE |
|
R082 | Change of representative |
Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE |