DE102016223107A1 - System and method for estimating the self-motion of a vehicle - Google Patents

System and method for estimating the self-motion of a vehicle Download PDF

Info

Publication number
DE102016223107A1
DE102016223107A1 DE102016223107.3A DE102016223107A DE102016223107A1 DE 102016223107 A1 DE102016223107 A1 DE 102016223107A1 DE 102016223107 A DE102016223107 A DE 102016223107A DE 102016223107 A1 DE102016223107 A1 DE 102016223107A1
Authority
DE
Germany
Prior art keywords
scan points
evaluation unit
transformation
point clouds
dynamic objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016223107.3A
Other languages
German (de)
Inventor
Christian Merfels
Moritz Schack
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102016223107.3A priority Critical patent/DE102016223107A1/en
Publication of DE102016223107A1 publication Critical patent/DE102016223107A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Die Erfindung betrifft ein System (1) zur Schätzung der Eigenbewegung eines Fahrzeugs, umfassend mindestens einen Lidar-Sensor (2) und mindestens eine Auswerteeinheit (3) zur Auswertung der Daten des mindestens einen Lidar-Sensors (2) in Form von 3D-Punktwolken, wobei die Auswerteeinheit (3) derart ausgebildet ist, anhand von zwei nacheinander aufgenommenen 3D-Punktwolken eine Transformation der 3D-Punktwolken übereinander zu bestimmen und daraus die Eigenbewegung zu ermitteln, wobei die Auswerteeinheit (3) derart ausgebildet ist, 3D-Scanpunkte (5) von dynamischen Objekten in den 3D-Punktwolken zu ermitteln, wobei diese 3D-Scanpunkte (5) bei der Bestimmung der Transformation ignoriert werden, sowie ein Verfahren zur Schätzung der Eigenbewegung eines Fahrzeugs.The invention relates to a system (1) for estimating the intrinsic motion of a vehicle, comprising at least one lidar sensor (2) and at least one evaluation unit (3) for evaluating the data of the at least one lidar sensor (2) in the form of 3D point clouds , wherein the evaluation unit (3) is designed in such a way to determine a transformation of the 3D point clouds over one another using two successive recorded 3D point clouds and to determine therefrom the proper motion, wherein the evaluation unit (3) is designed such, 3D scan points (5 ) of dynamic objects in the 3D point clouds, these 3D scan points (5) being ignored in determining the transformation, and a method for estimating the self-motion of a vehicle.

Description

Die Erfindung betrifft ein System und ein Verfahren zur Schätzung der Eigenbewegung eines Fahrzeugs.The invention relates to a system and a method for estimating the intrinsic motion of a vehicle.

Insbesondere Fahrzeuge mit automatisierten Fahrfunktionen benötigen eine Eigenbewegungsschätzung, um über kurze Zeiträume die gefahrene Trajektorie schätzen zu können. Üblicherweise misst man die Eigenbewegung über Sensoren eines elektrischen Stabilitätsprogramms und/oder ähnliche Sensoren direkt am Fahrwerk. Durch die Integration von weiterer Sensorik im Rahmen automatischer Fahrfunktionen ist es möglich, die Odometrie auf andere Art und Weise zu bestimmen. Dadurch wird es möglich, die Odometrie redundant zu erfassen und gegebenenfalls die Genauigkeit zu erhöhen.In particular, vehicles with automated driving functions require a self-motion estimation in order to estimate the trajectory traversed over short periods. Usually one measures the proper motion via sensors of an electrical stability program and / or similar sensors directly on the chassis. By integrating further sensors in the context of automatic driving functions, it is possible to determine the odometry in a different way. This makes it possible to detect the odometry redundant and, if necessary, to increase the accuracy.

Aus der DE 10 2013 206 707 A1 ist ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bekannt, wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen umfasst. Dabei werden im Umfeld des Fahrzeugs Objekte mit einem ersten Umfeldsensortyp erfasst und die Objekte mit den Daten des ersten Umfeldsensortyps in statische und dynamische Objekte kategorisiert, wobei die relative Position der erfassten statischen Objekte zum Fahrzeug bestimmt wird. Diese Position wird mit einer über einen zweiten Umfeldsensortyp ermittelten Position verglichen und bei einer Abweichung über einen Grenzwert auf einen Fehler geschlossen. Dabei überlappt der Sichtbereich des ersten Umfeldsensortyps nicht mit dem Sichtbereich des zweiten Umfeldsensortyps, wobei die relative Position der erfassten statischen Objekte nach dem Verlassen des Sichtbereichs des ersten Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert wird. Dabei ist der erste Umfeldsensortyp z.B. eine Kamera und der zweite Umfeldsensortyp ein Ultraschallsensor. Die Bewegung des Fahrzeugs wird beispielsweise über Radwegsensoren, Raddrehzahlsensoren, Gierratensensoren, Beschleunigungssensoren sowie Satellitennavigation ermittelt. Satellitennavigation kann die Schätzung der Bewegung des Fahrzeugs insbesondere dadurch verbessern, indem die globale Orientierung (global Heading) des Fahrzeugs verwendet wird.From the DE 10 2013 206 707 A1 For example, a method for checking an environment detection system of a vehicle is known, wherein the environment detection system comprises at least two different environmental sensor types. In this context, objects with a first environmental sensor type are detected in the surroundings of the vehicle and the objects with the data of the first environmental sensor type are categorized into static and dynamic objects, whereby the relative position of the detected static objects relative to the vehicle is determined. This position is compared with a position determined via a second environmental sensor type and, in the event of a deviation above a limit value, an error is concluded. In this case, the visual range of the first environmental sensor type does not overlap with the visual range of the second environmental sensor type, wherein the relative position of the acquired static objects after leaving the visual range of the first environmental sensor type is updated in consideration of the movement of the vehicle. In this case, the first environment sensor type is eg a camera and the second environment sensor type is an ultrasound sensor. The movement of the vehicle is determined, for example, via wheel-path sensors, wheel-speed sensors, yaw-rate sensors, acceleration sensors and satellite navigation. Satellite navigation can improve the estimation of the movement of the vehicle, in particular by using the global heading of the vehicle.

Aus der DE 10 2008 026 397 A1 ist ein System zum Schätzen der Fahrzeugdynamik in einem Fahrzeug bekannt, wobei das System einen Objekterfassungssensor zum Erfassen stationärer Objekte relativ zur Fahrzeugbewegung umfasst, wobei der Objektsensor Objekterfassungssignale zum Verfolgen des Objekts liefert. Weiter umfasst das System mehrere fahrzeugseitige Sensoren, die Sensorsignale liefern, die die Fahrzeugbewegung repräsentieren. Dabei ist ein Zuordnungsprozessor vorgesehen, der auf die Objektsignale anspricht, wobei der Zuordnungsprozessor zum Verfolgen des Objekts die Objektsignale folgender Ansichten aufeinander abstimmt und Objektverfolgungssignale liefert. Schließlich weist das System noch einen Längszustandsschätzprozessor und einen Querzustandsschätzprozessor auf. Der Objekterfassungssensor kann dabei eine Radarvorrichtung, eine Lidarvorrichtung oder eine Kamera sein.From the DE 10 2008 026 397 A1 A system is known for estimating vehicle dynamics in a vehicle, the system comprising an object detection sensor for detecting stationary objects relative to vehicle motion, the object sensor providing object detection signals for tracking the object. Further, the system includes a plurality of vehicle-mounted sensors that provide sensor signals representing vehicle motion. In this case, an assignment processor is provided, which responds to the object signals, wherein the assignment processor for tracking the object matches the object signals of successive views and supplies object tracking signals. Finally, the system also includes a longitudinal state estimation processor and a cross state estimation processor. The object detection sensor may be a radar device, a lidar device or a camera.

Bei Lidar-Sensoren erfolgt die Bestimmung der Odometrie meist über einen ICP-Ansatz (iterative closest point). Dabei gibt es verschiedene Ausführungsformen. Die Grundidee ist jedoch, dass eine Transformation zwischen zwei Punktwolken geschätzt wird, die diese am besten übereinander legt. Dazu werden einzelne Punkte aus den beiden Punktwolken einander zugeordnet und die Abstände minimiert. Bei einem Verfahren wie bei der DE 10 2008 026 397 A1 werden dann Punkte des statischen Objekts für das ICP-Verfahren verwendet.For lidar sensors, odometry is usually determined by an ICP approach (iterative closest point). There are different embodiments. The basic idea, however, is that a transformation between two point clouds that best fits them is best appreciated. For this purpose, individual points from the two point clouds are assigned to each other and the distances are minimized. In a process such as the DE 10 2008 026 397 A1 then points of the static object are used for the ICP method.

Der Erfindung liegt das technische Problem zugrunde, ein System und ein Verfahren zur Schätzung der Eigenbewegung eines Fahrzeugs zur Verfügung zu stellen, mittels derer robuster die Eigenbewegung geschätzt werden kann.The invention is based on the technical problem of providing a system and a method for estimating the intrinsic motion of a vehicle by means of which the proper motion can be estimated more robustly.

Die Lösung des technischen Problems ergibt sich durch ein System mit den Merkmalen des Anspruchs 1 sowie ein Verfahren mit den Merkmalen des Anspruchs 5. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The solution of the technical problem results from a system having the features of claim 1 and a method having the features of claim 5. Further advantageous embodiments of the invention will become apparent from the dependent claims.

Das System zur Schätzung der Eigenbewegung eines Fahrzeugs umfasst mindestens einen Lidar-Sensor und mindestens eine Auswerteeinheit zur Auswertung der Daten des mindestens einen Lidar-Sensors in Form von 3D-Punktwolken. Die Auswerteeinheit ist dabei derart ausgebildet, anhand von zwei nacheinander aufgenommenen 3D-Punktwolken eine Transformation der 3D-Punktwolken übereinander zu bestimmen und daraus die Eigenbewegung zu ermitteln. Dabei ist die Auswerteeinheit weiter derart ausgebildet, 3D-Scanpunkte von dynamischen Objekten in den 3D-Punktwolken zu ermitteln, wobei diese 3D-Scanpunkte bei der Bestimmung der Transformation ignoriert werden. Es werden also nicht gezielt Scan-Punkte von statischen Objekten für die Transformation gesucht, sondern nur die Scan-Punkte ignoriert, die eindeutig von dynamischen Objekten (z.B. von sich bewegenden Fahrzeugen, Fußgänger etc.) stammen. Dies bewirkt, dass im Regelfall die Anzahl der verbleibenden Scan-Punkte in den 3D-Wolken größer ist als bei Nur-Berücksichtigung von statischen Objekten. Dies erhöht die Robustheit des Verfahrens, da bei mehr Scan-Punkten die Wahrscheinlichkeit für eine brauchbare Eigenbewegungsschätzung steigt. Aufgrund der Tatsache, dass eine Unterscheidung von statischen und dynamischen Objekten nicht stets eindeutig möglich ist, verbleiben bei der Ignorierung von Scan-Punkten von eindeutig dynamischen Objekten mehr Scan-Punkte als bei gezielt ausgewählten statischen Objekten.The system for estimating the intrinsic motion of a vehicle comprises at least one lidar sensor and at least one evaluation unit for evaluating the data of the at least one lidar sensor in the form of 3D point clouds. In this case, the evaluation unit is designed to determine a transformation of the 3D point clouds one above the other on the basis of two successive 3D point clouds and to determine the proper motion from them. In this case, the evaluation unit is further designed to determine 3D scan points of dynamic objects in the 3D point clouds, these 3D scan points being ignored in determining the transformation. Thus, scan points of static objects are not specifically searched for the transformation, but only the scan points that are clearly derived from dynamic objects (eg from moving vehicles, pedestrians, etc.) are ignored. This usually causes the number of remaining scan points in the 3D clouds to be larger than when static objects are only considered. This increases the robustness of the method, as more scan points increase the probability of a proper self-motion estimation. Due to the fact that Distinguishing between static and dynamic objects is not always clearly possible, ignoring scan points of clearly dynamic objects leaves more scan points than specifically selected static objects.

In einer weiteren Ausführungsform weist das System mindestens eine weitere Sensorik auf, die derart ausgebildet ist, dynamische Objekte zu erfassen, wobei die Auswerteeinheit derart ausgebildet ist, die 3D-Scanpunkte der dynamischen Objekte mittels der Daten der weiteren Sensorik zu ermitteln. Beispielsweise ist die weitere Sensorik als Kamera und/oder Radar-Sensorik ausgebildet. Alternativ oder ergänzend kann die Ermittlung auch anhand der Daten des Lidar-Sensors selbst erfolgen, indem beispielsweise a priori-Wissen von vorangegangenen Scans berücksichtigt wird.In a further embodiment, the system has at least one further sensor system which is designed to detect dynamic objects, the evaluation unit being designed to determine the 3D scan points of the dynamic objects by means of the data of the further sensor system. For example, the further sensor is designed as a camera and / or radar sensor. As an alternative or in addition, the determination can also take place on the basis of the data of the lidar sensor itself, for example taking account of a priori knowledge of previous scans.

In einer weiteren Ausführungsform ist die Auswerteeinheit derart ausgebildet, das die als 3D-Scanpunkte von dynamischen Objekten ermittelten 3D-Scanpunkte segmentiert werden und das jeweilige Segment von 3D-Scanpunkten bei der Bestimmung der Transformation ignoriert wird. Anschaulich werden einzelne Scanpunkte in der Umgebung von vielen Scan-Punkten von dynamischen Objekten mit zu dem dynamischen Objekt gezählt, da hier die Gefahr von Messfehlern sehr groß ist. Hierdurch wird die Auswertung robuster und schneller.In a further embodiment, the evaluation unit is designed such that the 3D scan points determined as 3D scan points of dynamic objects are segmented and the respective segment of 3D scan points is ignored during the determination of the transformation. Clearly, individual scan points in the vicinity of many scan points of dynamic objects are counted to the dynamic object, since the risk of measurement errors is very high here. This makes the evaluation more robust and faster.

In einer weiteren Ausführungsform ist die Auswerteeinheit derart ausgebildet, dass die Anzahl der nach der Ignorierung der 3D-Scanpunkte von dynamischen Objekten verbliebenen 3D-Scanpunkte mit einem Grenzwert verglichen werden, wobei unterhalb des Grenzwertes keine Transformation ermittelt wird. Fährt beispielsweise das Fahrzeug direkt hinter einem großen Lastkraftwagen an eine Ampel, so sind nahezu alle Scan-Punkte von dem Lastkraftwagen, sodass eine Eigenbewegungsschätzung anhand der wenigen verbliebenen Scan-Punkte mit großen Unsicherheiten verbunden wäre.In a further embodiment, the evaluation unit is designed such that the number of 3D scan points remaining after ignoring the 3D scan points of dynamic objects is compared with a limit value, wherein no transformation is determined below the limit value. For example, if the vehicle drives directly behind a large truck to a traffic light, almost all scan points are from the truck, so that a self-motion estimation based on the few remaining scan points would be associated with great uncertainties.

Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Figuren zeigen:

  • 1 ein schematisches Blockschaltbild eines Systems zur Schätzung der Eigenbewegung eines Fahrzeugs,
  • 2a eine schematische Darstellung einer 3D-Scanwolke zu einem ersten Zeitpunkt und
  • 2b eine schematische Darstellung einer 3D-Scanwolke zu einem zweiten Zeitpunkt.
The invention will be explained in more detail below with reference to a preferred embodiment. The figures show:
  • 1 1 is a schematic block diagram of a system for estimating the intrinsic motion of a vehicle,
  • 2a a schematic representation of a 3D scan cloud at a first time and
  • 2 B a schematic representation of a 3D scan cloud at a second time.

Das System 1 zur Schätzung der Eigenbewegung eines Fahrzeugs umfasst einen Lidar-Sensor 2, eine Auswerteeinheit 3 und eine weitere Sensorik 4 zur Erfassung dynamischer Objekte. Die Daten des Lidar-Sensors 2 sind dabei eine 3D-Punktwolke wie in 2a dargestellt. Mit Hilfe der weiteren Sensorik 4 ermittelt dabei die Auswerteeinheit 3 Scan-Punkte 5, die eindeutig einem dynamischen Objekt zugeordnet werden können. Diese Scan-Punkte 5 sind in 2 als nicht ausgemalte Punkte dargestellt. Zwischen diesen Scan-Punkten 5 befinden sich noch einige Scan-Punkte 6, die nicht eindeutig einem dynamischen Objekt zugeordnet werden können. Allerdings weisen diese eine gewisse Unsicherheit auf. Daher werden die Scan-Punkte 5 segmentiert und auch die Scan-Punkte 6 innerhalb des Segments 7 für die weitere Verarbeitung ignoriert und nur die verbliebenen Scan-Punkte 8 betrachtet. Die in 2a dargestellte 3D-Punktwolke stammt dabei von einem Scan zu einem ersten Zeitpunkt t1. Zu einem zweiten Zeitpunkt t2 wird erneut ein Scan durchgeführt und wieder eine 3D-Punktwolke ermittelt. Wieder werden die Scan-Punkte von dynamischen Objekten segmentiert und für die Verarbeitung ignoriert. Anschließend ermittelt die Auswerteeinheit 3 mittels eines ICP-Verfahrens eine Transformation, mittels derer die verbliebenen Scan-Punkte 8 zum Zeitpunkt t1 optimiert auf die Scan-Punkte 8 zum Zeitpunkt t2 in Überdeckung gebracht werden können. Mittels der Transformation kann dann die Eigenbewegung des Fahrzeugs geschätzt werden.The system 1 for estimating the intrinsic motion of a vehicle includes a lidar sensor 2 , an evaluation unit 3 and another sensor 4 to capture dynamic objects. The data of the lidar sensor 2 are a 3D point cloud like in 2a shown. With the help of further sensors 4 determines the evaluation unit 3 Scan points 5 that can be uniquely assigned to a dynamic object. These scan points 5 are in 2 shown as unpainted points. Between these scan points 5 there are still some scan points 6 that can not be uniquely assigned to a dynamic object. However, these have a certain amount of uncertainty. Therefore, the scan points become 5 segmented and also the scan points 6 within the segment 7 ignored for further processing and only the remaining scan points 8th considered. In the 2a shown 3D point cloud originates from a scan at a first time t. 1 At a second time t 2 , a scan is again carried out and again a 3D point cloud is determined. Again, the scan points of dynamic objects are segmented and ignored for processing. Subsequently, the evaluation unit determines 3 a transformation by means of an ICP method, by means of which the remaining scan points 8th at time t 1 optimized for the scan points 8th can be brought into coincidence at time t 2 . By means of the transformation, the proper motion of the vehicle can then be estimated.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102013206707 A1 [0003]DE 102013206707 A1 [0003]
  • DE 102008026397 A1 [0004, 0005]DE 102008026397 A1 [0004, 0005]

Claims (8)

System (1) zur Schätzung der Eigenbewegung eines Fahrzeugs, umfassend mindestens einen Lidar-Sensor (2) und mindestens eine Auswerteeinheit (3) zur Auswertung der Daten des mindestens einen Lidar-Sensors (2) in Form von 3D-Punktwolken, wobei die Auswerteeinheit (3) derart ausgebildet ist, anhand von zwei nacheinander aufgenommenen 3D-Punktwolken eine Transformation der 3D-Punktwolken übereinander zu bestimmen und daraus die Eigenbewegung zu ermitteln, dadurch gekennzeichnet, dass die Auswerteeinheit (3) derart ausgebildet ist, 3D-Scanpunkte (5) von dynamischen Objekten in den 3D-Punktwolken zu ermitteln, wobei diese 3D-Scanpunkte (5) bei der Bestimmung der Transformation ignoriert werden.System (1) for estimating the intrinsic motion of a vehicle, comprising at least one lidar sensor (2) and at least one evaluation unit (3) for evaluating the data of the at least one lidar sensor (2) in the form of 3D point clouds, wherein the evaluation unit (3) is designed to determine a transformation of the 3D point clouds on the basis of two successive recorded 3D point clouds and to determine the proper motion, characterized in that the evaluation unit (3) is designed such, 3D scan points (5) of dynamic objects in the 3D point clouds, these 3D scan points (5) being ignored in determining the transformation. System nach Anspruch 1, dadurch gekennzeichnet, dass das System (1) mindestens eine weitere Sensorik (4) aufweist, die derart ausgebildet ist, dynamische Objekte zu erfassen, wobei die Auswerteeinheit (3) derart ausgebildet ist, die 3D-Scanpunkte (5) der dynamischen Objekte mittels der Daten der weiteren Sensorik (4) zu ermitteln.System after Claim 1 , characterized in that the system (1) comprises at least one further sensor system (4) which is designed to detect dynamic objects, wherein the evaluation unit (3) is designed such that the 3D scan points (5) of the dynamic objects by means of to determine the data of the other sensors (4). System nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Auswerteeinheit (3) derart ausgebildet ist, dass die als 3D-Scanpunkte (5) von dynamischen Objekten ermittelten 3D-Scanpunkte segmentiert werden und das jeweilige Segment (7) von 3D-Scanpunkten (5, 6) bei der Bestimmung der Transformation ignoriert wird.System after Claim 1 or 2 , characterized in that the evaluation unit (3) is designed in such a way that the 3D scan points determined as 3D scan points (5) of dynamic objects are segmented and the respective segment (7) of 3D scan points (5, 6) in the case of Determination of the transformation is ignored. System nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit (3) derart ausgebildet ist, dass die Anzahl der nach der Ignorierung der 3D-Scanpunkte (5) von dynamischen Objekten verbliebenen 3D-Scanpunkte (8) mit einem Grenzwert verglichen werden, wobei unterhalb des Grenzwertes keine Transformation ermittelt wird.System according to one of the preceding claims, characterized in that the evaluation unit (3) is designed such that the number of remaining after ignoring the 3D scan points (5) of dynamic objects 3D scan points (8) are compared with a limit value, where below the limit no transformation is determined. Verfahren zur Schätzung der Eigenbewegung eines Fahrzeugs, mittels mindestens einem Lidar-Sensor (2) und mindestens einer Auswerteeinheit (3) zur Auswertung der Daten des mindestens einen Lidar-Sensors (2) in Form von 3D-Punktwolken, wobei anhand von zwei nacheinander aufgenommenen 3D-Punktwolken eine Transformation der 3D-Punktwolken bestimmt wird und daraus eine Eigenbewegung ermittelt wird, dadurch gekennzeichnet, dass die Auswerteeinheit 3) 3D-Scanpunkte (5) von dynamischen Objekten in den 3D-Punktwolken ermittelt, wobei diese 3D-Scanpunkte (5) bei der Bestimmung der Transformation ignoriert werden.Method for estimating the intrinsic motion of a vehicle, by means of at least one lidar sensor (2) and at least one evaluation unit (3) for evaluating the data of the at least one lidar sensor (2) in the form of 3D point clouds, wherein two successive recorded 3D point clouds a transformation of the 3D point clouds is determined and from this a proper motion is determined, characterized in that the evaluation unit 3) determines 3D scan points (5) of dynamic objects in the 3D point clouds, said 3D scan points (5) be ignored when determining the transformation. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass mittels einer weiteren Sensorik (4) dynamische Objekte erfasst werden, wobei die Auswerteeinheit (3) die 3D-Scanpunkte (5) der dynamischen Objekte mittels der Daten der weiteren Sensorik (4) ermittelt.Method according to Claim 5 , characterized in that by means of a further sensor system (4) dynamic objects are detected, wherein the evaluation unit (3) determines the 3D scan points (5) of the dynamic objects by means of the data of the further sensor (4). Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass die als 3D-Scanpunkte (5) von dynamischen Objekten ermittelten 3D-Scanpunkte (5) segmentiert werden und das jeweilige Segment (7) von 3D-Scanpunkten (5, 6) bei der Bestimmung der Transformation ignoriert wird.Method according to Claim 5 or 6 , characterized in that the 3D scanning points (5) determined as dynamic scanning 3D scanning points (5) are segmented and the respective segment (7) of 3D scan points (5, 6) is ignored in determining the transformation. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass die Anzahl der nach der Ignorierung der 3D-Scanpunkte (5) von dynamischen Objekten verbliebenen 3D-Scanpunkte (8) mit einem Grenzwert verglichen werden, wobei unterhalb des Grenzwertes keine Transformation ermittelt wird.Method according to one of Claims 5 to 7 , characterized in that the number of remaining after ignoring the 3D scan points (5) of dynamic objects 3D scan points (8) are compared with a limit, below the limit no transformation is determined.
DE102016223107.3A 2016-11-23 2016-11-23 System and method for estimating the self-motion of a vehicle Ceased DE102016223107A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016223107.3A DE102016223107A1 (en) 2016-11-23 2016-11-23 System and method for estimating the self-motion of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016223107.3A DE102016223107A1 (en) 2016-11-23 2016-11-23 System and method for estimating the self-motion of a vehicle

Publications (1)

Publication Number Publication Date
DE102016223107A1 true DE102016223107A1 (en) 2018-05-24

Family

ID=62069044

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016223107.3A Ceased DE102016223107A1 (en) 2016-11-23 2016-11-23 System and method for estimating the self-motion of a vehicle

Country Status (1)

Country Link
DE (1) DE102016223107A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019111608A1 (en) * 2019-05-06 2020-11-12 Valeo Schalter Und Sensoren Gmbh Method for determining the proper movement of a motor vehicle, electronic computing device and electronic vehicle guidance system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008026397A1 (en) 2007-06-05 2009-01-29 GM Global Technology Operations, Inc., Detroit Radar, lidar, and camera-assisted vehicle dynamics estimation methods
DE102009028742A1 (en) * 2009-08-20 2011-02-24 Robert Bosch Gmbh Method and control device for determining a movement information of an object
DE102011055795A1 (en) * 2011-11-29 2013-05-29 Continental Automotive Gmbh Method for determining an imminent rollover of a vehicle
DE102013206707A1 (en) 2013-04-15 2014-10-16 Robert Bosch Gmbh Method for checking an environment detection system of a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008026397A1 (en) 2007-06-05 2009-01-29 GM Global Technology Operations, Inc., Detroit Radar, lidar, and camera-assisted vehicle dynamics estimation methods
DE102009028742A1 (en) * 2009-08-20 2011-02-24 Robert Bosch Gmbh Method and control device for determining a movement information of an object
DE102011055795A1 (en) * 2011-11-29 2013-05-29 Continental Automotive Gmbh Method for determining an imminent rollover of a vehicle
DE102013206707A1 (en) 2013-04-15 2014-10-16 Robert Bosch Gmbh Method for checking an environment detection system of a vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019111608A1 (en) * 2019-05-06 2020-11-12 Valeo Schalter Und Sensoren Gmbh Method for determining the proper movement of a motor vehicle, electronic computing device and electronic vehicle guidance system

Similar Documents

Publication Publication Date Title
DE102011117585B4 (en) Systems and methods for tracking objects
DE102015210015A1 (en) Method and device for determining the position of a vehicle
DE102015220695A1 (en) Method and device for evaluating the content of a map
DE102013200409A1 (en) A method and apparatus for monitoring an environment of a vehicle and method for performing emergency braking
DE102013208709A1 (en) Method for determining input data of a driver assistance unit
DE102016003261A1 (en) Method for self-localization of a vehicle in a vehicle environment
DE102017207442A1 (en) Method and device for classifying objects in the environment of a motor vehicle
DE102018215753A1 (en) Device and method for determining a trajectory of a vehicle
DE102018212779A1 (en) Method and system for determining and displaying a wading situation
DE102020118629A1 (en) Computer-implemented method for determining the validity of an estimated position of a vehicle
DE112018000494T5 (en) VEHICLE CONTROL DEVICE AND MANAGEMENT SYSTEM
DE102017108107A1 (en) METHOD, DEVICE AND COMPUTER READABLE STORAGE MEDIUM WITH INSTRUCTIONS FOR ESTIMATING A POSE OF A MOTOR VEHICLE
DE102017122440A1 (en) A method for locating and further developing a digital map by a motor vehicle; localization device
DE102017213390A1 (en) Method and apparatus for operating an automated mobile system
DE102016223107A1 (en) System and method for estimating the self-motion of a vehicle
WO2019037940A1 (en) Method and device for determining a highly precise position and for operating an automated vehicle
DE102016223072B4 (en) Determination of a vehicle's own movement on the basis of stationary objects
WO2019063393A1 (en) Method and system for determining at least one movement component of an absolute movement of an object in a stationary reference system
EP3545330A1 (en) Method and device for determining an exact position of a vehicle based on radar signatures of the vehicle environment
EP3688412A1 (en) Method and device for determining a highly precise position and for operating an automated vehicle
DE102019211459B4 (en) Method and device for checking a calibration of environmental sensors
DE102020116027A1 (en) Method and device for determining occupancy information for an environmental point on the basis of radar detections
EP3637311A1 (en) Device and method for determining the altitude information of an object in an environment of a vehicle
DE102019214008A1 (en) Method and device for localizing a mobile agent in an environment with dynamic objects
DE102022204776B3 (en) Method for locating a vehicle within a SAR image

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final