DE102016223107A1 - System and method for estimating the self-motion of a vehicle - Google Patents
System and method for estimating the self-motion of a vehicle Download PDFInfo
- Publication number
- DE102016223107A1 DE102016223107A1 DE102016223107.3A DE102016223107A DE102016223107A1 DE 102016223107 A1 DE102016223107 A1 DE 102016223107A1 DE 102016223107 A DE102016223107 A DE 102016223107A DE 102016223107 A1 DE102016223107 A1 DE 102016223107A1
- Authority
- DE
- Germany
- Prior art keywords
- scan points
- evaluation unit
- transformation
- point clouds
- dynamic objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000011156 evaluation Methods 0.000 claims abstract description 22
- 230000009466 transformation Effects 0.000 claims abstract description 18
- 230000003068 static effect Effects 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
Die Erfindung betrifft ein System (1) zur Schätzung der Eigenbewegung eines Fahrzeugs, umfassend mindestens einen Lidar-Sensor (2) und mindestens eine Auswerteeinheit (3) zur Auswertung der Daten des mindestens einen Lidar-Sensors (2) in Form von 3D-Punktwolken, wobei die Auswerteeinheit (3) derart ausgebildet ist, anhand von zwei nacheinander aufgenommenen 3D-Punktwolken eine Transformation der 3D-Punktwolken übereinander zu bestimmen und daraus die Eigenbewegung zu ermitteln, wobei die Auswerteeinheit (3) derart ausgebildet ist, 3D-Scanpunkte (5) von dynamischen Objekten in den 3D-Punktwolken zu ermitteln, wobei diese 3D-Scanpunkte (5) bei der Bestimmung der Transformation ignoriert werden, sowie ein Verfahren zur Schätzung der Eigenbewegung eines Fahrzeugs.The invention relates to a system (1) for estimating the intrinsic motion of a vehicle, comprising at least one lidar sensor (2) and at least one evaluation unit (3) for evaluating the data of the at least one lidar sensor (2) in the form of 3D point clouds , wherein the evaluation unit (3) is designed in such a way to determine a transformation of the 3D point clouds over one another using two successive recorded 3D point clouds and to determine therefrom the proper motion, wherein the evaluation unit (3) is designed such, 3D scan points (5 ) of dynamic objects in the 3D point clouds, these 3D scan points (5) being ignored in determining the transformation, and a method for estimating the self-motion of a vehicle.
Description
Die Erfindung betrifft ein System und ein Verfahren zur Schätzung der Eigenbewegung eines Fahrzeugs.The invention relates to a system and a method for estimating the intrinsic motion of a vehicle.
Insbesondere Fahrzeuge mit automatisierten Fahrfunktionen benötigen eine Eigenbewegungsschätzung, um über kurze Zeiträume die gefahrene Trajektorie schätzen zu können. Üblicherweise misst man die Eigenbewegung über Sensoren eines elektrischen Stabilitätsprogramms und/oder ähnliche Sensoren direkt am Fahrwerk. Durch die Integration von weiterer Sensorik im Rahmen automatischer Fahrfunktionen ist es möglich, die Odometrie auf andere Art und Weise zu bestimmen. Dadurch wird es möglich, die Odometrie redundant zu erfassen und gegebenenfalls die Genauigkeit zu erhöhen.In particular, vehicles with automated driving functions require a self-motion estimation in order to estimate the trajectory traversed over short periods. Usually one measures the proper motion via sensors of an electrical stability program and / or similar sensors directly on the chassis. By integrating further sensors in the context of automatic driving functions, it is possible to determine the odometry in a different way. This makes it possible to detect the odometry redundant and, if necessary, to increase the accuracy.
Aus der
Aus der
Bei Lidar-Sensoren erfolgt die Bestimmung der Odometrie meist über einen ICP-Ansatz (iterative closest point). Dabei gibt es verschiedene Ausführungsformen. Die Grundidee ist jedoch, dass eine Transformation zwischen zwei Punktwolken geschätzt wird, die diese am besten übereinander legt. Dazu werden einzelne Punkte aus den beiden Punktwolken einander zugeordnet und die Abstände minimiert. Bei einem Verfahren wie bei der
Der Erfindung liegt das technische Problem zugrunde, ein System und ein Verfahren zur Schätzung der Eigenbewegung eines Fahrzeugs zur Verfügung zu stellen, mittels derer robuster die Eigenbewegung geschätzt werden kann.The invention is based on the technical problem of providing a system and a method for estimating the intrinsic motion of a vehicle by means of which the proper motion can be estimated more robustly.
Die Lösung des technischen Problems ergibt sich durch ein System mit den Merkmalen des Anspruchs 1 sowie ein Verfahren mit den Merkmalen des Anspruchs 5. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The solution of the technical problem results from a system having the features of
Das System zur Schätzung der Eigenbewegung eines Fahrzeugs umfasst mindestens einen Lidar-Sensor und mindestens eine Auswerteeinheit zur Auswertung der Daten des mindestens einen Lidar-Sensors in Form von 3D-Punktwolken. Die Auswerteeinheit ist dabei derart ausgebildet, anhand von zwei nacheinander aufgenommenen 3D-Punktwolken eine Transformation der 3D-Punktwolken übereinander zu bestimmen und daraus die Eigenbewegung zu ermitteln. Dabei ist die Auswerteeinheit weiter derart ausgebildet, 3D-Scanpunkte von dynamischen Objekten in den 3D-Punktwolken zu ermitteln, wobei diese 3D-Scanpunkte bei der Bestimmung der Transformation ignoriert werden. Es werden also nicht gezielt Scan-Punkte von statischen Objekten für die Transformation gesucht, sondern nur die Scan-Punkte ignoriert, die eindeutig von dynamischen Objekten (z.B. von sich bewegenden Fahrzeugen, Fußgänger etc.) stammen. Dies bewirkt, dass im Regelfall die Anzahl der verbleibenden Scan-Punkte in den 3D-Wolken größer ist als bei Nur-Berücksichtigung von statischen Objekten. Dies erhöht die Robustheit des Verfahrens, da bei mehr Scan-Punkten die Wahrscheinlichkeit für eine brauchbare Eigenbewegungsschätzung steigt. Aufgrund der Tatsache, dass eine Unterscheidung von statischen und dynamischen Objekten nicht stets eindeutig möglich ist, verbleiben bei der Ignorierung von Scan-Punkten von eindeutig dynamischen Objekten mehr Scan-Punkte als bei gezielt ausgewählten statischen Objekten.The system for estimating the intrinsic motion of a vehicle comprises at least one lidar sensor and at least one evaluation unit for evaluating the data of the at least one lidar sensor in the form of 3D point clouds. In this case, the evaluation unit is designed to determine a transformation of the 3D point clouds one above the other on the basis of two successive 3D point clouds and to determine the proper motion from them. In this case, the evaluation unit is further designed to determine 3D scan points of dynamic objects in the 3D point clouds, these 3D scan points being ignored in determining the transformation. Thus, scan points of static objects are not specifically searched for the transformation, but only the scan points that are clearly derived from dynamic objects (eg from moving vehicles, pedestrians, etc.) are ignored. This usually causes the number of remaining scan points in the 3D clouds to be larger than when static objects are only considered. This increases the robustness of the method, as more scan points increase the probability of a proper self-motion estimation. Due to the fact that Distinguishing between static and dynamic objects is not always clearly possible, ignoring scan points of clearly dynamic objects leaves more scan points than specifically selected static objects.
In einer weiteren Ausführungsform weist das System mindestens eine weitere Sensorik auf, die derart ausgebildet ist, dynamische Objekte zu erfassen, wobei die Auswerteeinheit derart ausgebildet ist, die 3D-Scanpunkte der dynamischen Objekte mittels der Daten der weiteren Sensorik zu ermitteln. Beispielsweise ist die weitere Sensorik als Kamera und/oder Radar-Sensorik ausgebildet. Alternativ oder ergänzend kann die Ermittlung auch anhand der Daten des Lidar-Sensors selbst erfolgen, indem beispielsweise a priori-Wissen von vorangegangenen Scans berücksichtigt wird.In a further embodiment, the system has at least one further sensor system which is designed to detect dynamic objects, the evaluation unit being designed to determine the 3D scan points of the dynamic objects by means of the data of the further sensor system. For example, the further sensor is designed as a camera and / or radar sensor. As an alternative or in addition, the determination can also take place on the basis of the data of the lidar sensor itself, for example taking account of a priori knowledge of previous scans.
In einer weiteren Ausführungsform ist die Auswerteeinheit derart ausgebildet, das die als 3D-Scanpunkte von dynamischen Objekten ermittelten 3D-Scanpunkte segmentiert werden und das jeweilige Segment von 3D-Scanpunkten bei der Bestimmung der Transformation ignoriert wird. Anschaulich werden einzelne Scanpunkte in der Umgebung von vielen Scan-Punkten von dynamischen Objekten mit zu dem dynamischen Objekt gezählt, da hier die Gefahr von Messfehlern sehr groß ist. Hierdurch wird die Auswertung robuster und schneller.In a further embodiment, the evaluation unit is designed such that the 3D scan points determined as 3D scan points of dynamic objects are segmented and the respective segment of 3D scan points is ignored during the determination of the transformation. Clearly, individual scan points in the vicinity of many scan points of dynamic objects are counted to the dynamic object, since the risk of measurement errors is very high here. This makes the evaluation more robust and faster.
In einer weiteren Ausführungsform ist die Auswerteeinheit derart ausgebildet, dass die Anzahl der nach der Ignorierung der 3D-Scanpunkte von dynamischen Objekten verbliebenen 3D-Scanpunkte mit einem Grenzwert verglichen werden, wobei unterhalb des Grenzwertes keine Transformation ermittelt wird. Fährt beispielsweise das Fahrzeug direkt hinter einem großen Lastkraftwagen an eine Ampel, so sind nahezu alle Scan-Punkte von dem Lastkraftwagen, sodass eine Eigenbewegungsschätzung anhand der wenigen verbliebenen Scan-Punkte mit großen Unsicherheiten verbunden wäre.In a further embodiment, the evaluation unit is designed such that the number of 3D scan points remaining after ignoring the 3D scan points of dynamic objects is compared with a limit value, wherein no transformation is determined below the limit value. For example, if the vehicle drives directly behind a large truck to a traffic light, almost all scan points are from the truck, so that a self-motion estimation based on the few remaining scan points would be associated with great uncertainties.
Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Figuren zeigen:
-
1 ein schematisches Blockschaltbild eines Systems zur Schätzung der Eigenbewegung eines Fahrzeugs, -
2a eine schematische Darstellung einer 3D-Scanwolke zu einem ersten Zeitpunkt und -
2b eine schematische Darstellung einer 3D-Scanwolke zu einem zweiten Zeitpunkt.
-
1 1 is a schematic block diagram of a system for estimating the intrinsic motion of a vehicle, -
2a a schematic representation of a 3D scan cloud at a first time and -
2 B a schematic representation of a 3D scan cloud at a second time.
Das System
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102013206707 A1 [0003]DE 102013206707 A1 [0003]
- DE 102008026397 A1 [0004, 0005]DE 102008026397 A1 [0004, 0005]
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016223107.3A DE102016223107A1 (en) | 2016-11-23 | 2016-11-23 | System and method for estimating the self-motion of a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016223107.3A DE102016223107A1 (en) | 2016-11-23 | 2016-11-23 | System and method for estimating the self-motion of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102016223107A1 true DE102016223107A1 (en) | 2018-05-24 |
Family
ID=62069044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016223107.3A Ceased DE102016223107A1 (en) | 2016-11-23 | 2016-11-23 | System and method for estimating the self-motion of a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102016223107A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019111608A1 (en) * | 2019-05-06 | 2020-11-12 | Valeo Schalter Und Sensoren Gmbh | Method for determining the proper movement of a motor vehicle, electronic computing device and electronic vehicle guidance system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008026397A1 (en) | 2007-06-05 | 2009-01-29 | GM Global Technology Operations, Inc., Detroit | Radar, lidar, and camera-assisted vehicle dynamics estimation methods |
DE102009028742A1 (en) * | 2009-08-20 | 2011-02-24 | Robert Bosch Gmbh | Method and control device for determining a movement information of an object |
DE102011055795A1 (en) * | 2011-11-29 | 2013-05-29 | Continental Automotive Gmbh | Method for determining an imminent rollover of a vehicle |
DE102013206707A1 (en) | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Method for checking an environment detection system of a vehicle |
-
2016
- 2016-11-23 DE DE102016223107.3A patent/DE102016223107A1/en not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008026397A1 (en) | 2007-06-05 | 2009-01-29 | GM Global Technology Operations, Inc., Detroit | Radar, lidar, and camera-assisted vehicle dynamics estimation methods |
DE102009028742A1 (en) * | 2009-08-20 | 2011-02-24 | Robert Bosch Gmbh | Method and control device for determining a movement information of an object |
DE102011055795A1 (en) * | 2011-11-29 | 2013-05-29 | Continental Automotive Gmbh | Method for determining an imminent rollover of a vehicle |
DE102013206707A1 (en) | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Method for checking an environment detection system of a vehicle |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019111608A1 (en) * | 2019-05-06 | 2020-11-12 | Valeo Schalter Und Sensoren Gmbh | Method for determining the proper movement of a motor vehicle, electronic computing device and electronic vehicle guidance system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011117585B4 (en) | Systems and methods for tracking objects | |
DE102015210015A1 (en) | Method and device for determining the position of a vehicle | |
DE102015220695A1 (en) | Method and device for evaluating the content of a map | |
DE102013200409A1 (en) | A method and apparatus for monitoring an environment of a vehicle and method for performing emergency braking | |
DE102013208709A1 (en) | Method for determining input data of a driver assistance unit | |
DE102016003261A1 (en) | Method for self-localization of a vehicle in a vehicle environment | |
DE102017207442A1 (en) | Method and device for classifying objects in the environment of a motor vehicle | |
DE102018215753A1 (en) | Device and method for determining a trajectory of a vehicle | |
DE102018212779A1 (en) | Method and system for determining and displaying a wading situation | |
DE102020118629A1 (en) | Computer-implemented method for determining the validity of an estimated position of a vehicle | |
DE112018000494T5 (en) | VEHICLE CONTROL DEVICE AND MANAGEMENT SYSTEM | |
DE102017108107A1 (en) | METHOD, DEVICE AND COMPUTER READABLE STORAGE MEDIUM WITH INSTRUCTIONS FOR ESTIMATING A POSE OF A MOTOR VEHICLE | |
DE102017122440A1 (en) | A method for locating and further developing a digital map by a motor vehicle; localization device | |
DE102017213390A1 (en) | Method and apparatus for operating an automated mobile system | |
DE102016223107A1 (en) | System and method for estimating the self-motion of a vehicle | |
WO2019037940A1 (en) | Method and device for determining a highly precise position and for operating an automated vehicle | |
DE102016223072B4 (en) | Determination of a vehicle's own movement on the basis of stationary objects | |
WO2019063393A1 (en) | Method and system for determining at least one movement component of an absolute movement of an object in a stationary reference system | |
EP3545330A1 (en) | Method and device for determining an exact position of a vehicle based on radar signatures of the vehicle environment | |
EP3688412A1 (en) | Method and device for determining a highly precise position and for operating an automated vehicle | |
DE102019211459B4 (en) | Method and device for checking a calibration of environmental sensors | |
DE102020116027A1 (en) | Method and device for determining occupancy information for an environmental point on the basis of radar detections | |
EP3637311A1 (en) | Device and method for determining the altitude information of an object in an environment of a vehicle | |
DE102019214008A1 (en) | Method and device for localizing a mobile agent in an environment with dynamic objects | |
DE102022204776B3 (en) | Method for locating a vehicle within a SAR image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |