DE102009028578A1 - Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement - Google Patents
Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement Download PDFInfo
- Publication number
- DE102009028578A1 DE102009028578A1 DE102009028578A DE102009028578A DE102009028578A1 DE 102009028578 A1 DE102009028578 A1 DE 102009028578A1 DE 102009028578 A DE102009028578 A DE 102009028578A DE 102009028578 A DE102009028578 A DE 102009028578A DE 102009028578 A1 DE102009028578 A1 DE 102009028578A1
- Authority
- DE
- Germany
- Prior art keywords
- detected
- intensity
- radiation
- environment
- scanning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005855 radiation Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 title claims abstract description 21
- 238000006073 displacement reaction Methods 0.000 title abstract 3
- 239000007921 spray Substances 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 17
- 230000005540 biological transmission Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000010521 absorption reaction Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000003595 mist Substances 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000533950 Leucojum Species 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
Stand der TechnikState of the art
Die Erfindung betrifft ein Verfahren für die Umfelderfassung mit einer Lidarsensorik nach dem Oberbegriff des Anspruchs 1. Unter Umfeld soll in diesem Zusammenhang insbesondere das Umfeld eines Fahrzeugs verstanden werden, das mit einer Lidarsensorik ausgerüstet ist. Unter Lidarsensorik soll im Rahmen der vorliegenden Erfindung die Sensoreinrichtung eines Fahrerassistenzsystems verstanden werden, die mindestens einen Lidarsensor umfasst (LIDAR = Light Detecting And Ranging). Insbesondere ist der Lidarsensor ein so genannter Laserscanner, mit dem das Umfeld punktweise abgetastet wird und aus der zurück gestreuten Strahlung die Position und die Entfernung von Objekten in dem Umfeld bestimmt werden können. Die Funktionsweise eines Lidarsensors ist abhängig von den herrschenden Witterungsbedingungen. So wirken sich Nebel, Regen, Schneeflocken und/oder aufspritzender Gischt mehr oder weniger stark auf die Ausbreitung des Laserlichts und damit auch auf die Rückstreuung des ausgesandten Lichtimpulses aus. Weiterhin können nasse oder matschige Oberflächen infolge ihrer geänderten Absorptions- und Reflexionseigenschaften die Detektionsleistung eingesetzter Sensoren nachteilig beeinflussen. Aus der Rückstreuintensität ausgesandter Lichtimpulse wird zwischen unterschiedlichen Objekten, wie beispielsweise einem aufrecht stehenden Körper oder der Oberfläche einer Straße, unterschieden. Witterungseinflüsse, wie beispielsweise Regen, werden durch das relative Verhalten zwischen benachbarten Messwerten (z. B. bei einem Laserscanner) sowie einem zeitlichen Tracking von Objekten von Objekten isoliert und geglättet. Zum Beispiel werden plötzlich auftretende Objekte, die sehr klein sind und zudem sehr nahe an einem Fahrzeug liegen, als Regentropfen interpretiert. Als grundlegendes Detektionsprinzip für eine Unterscheidung zwischen Objekten und Witterungseinflüssen wird für eine Klassifikation die Änderung der Signalintensität über der Zeit herangezogen.The The invention relates to a method for environment detection with a Lidarsensorik according to the preamble of claim 1. sub Environment should in this context, in particular the environment of a Vehicle understood to be equipped with a Lidarsensorik is. Under Lidarsensorik is intended in the context of the present invention the sensor device of a driver assistance system are understood, which comprises at least one lidar sensor (LIDAR = Light Detecting And Ranging). In particular, the Lidarsensor is a so-called Laser scanner with which the environment is scanned point by point and from the backscattered radiation the position and the Removal of objects in the environment can be determined. The operation of a lidar sensor depends on the prevailing weather conditions. This is how fog, rain, Snowflakes and / or sprayed spray more or less strong on the propagation of the laser light and thus also on the backscatter of the emitted light pulse. Furthermore, can wet or muddy surfaces as a result of their changed Absorption and reflection properties the detection performance used sensors adversely affect. From the backscatter intensity emitted light pulses is between different objects, such as an upright body or the surface of a road, distinguished. Weather; such as rain, are due to the relative behavior between adjacent measured values (eg with a laser scanner) as well as a temporal tracking of objects isolated from objects and smoothed. For example, suddenly appearing objects that are very small and also very close to a vehicle, as Raindrops interpreted. As a basic detection principle for a distinction between objects and weather conditions is for a classification the change of Signal intensity over time used.
Aus
Aus
Aus
Aus
Nicht bekannt sind Verfahren, die lediglich aufgrund einer Änderung der Intensität auf das Vorhandensein eines Objekts schließen, sowie Verfahren, die interne Schwellwerte auf Basis verfügbarer Umfeldinformationen (wie zum Beispiel statische Objekte und/oder aktuelle Witterungsbedingungen) anpassen. Ebenso gibt es bisher keine Verfahren, die Messungen mehrerer Messstrahlen miteinander verrechnen.Not Known are methods that merely due to a change close the intensity to the presence of an object, and procedures, the internal thresholds based on available environment information (such as static objects and / or current weather conditions) to adjust. Likewise, there are currently no methods that measure several Compute measuring beams with each other.
Offenbarung der ErfindungDisclosure of the invention
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, das eine zuverlässige Umfelderfassung mit einer Lidarsensorik auch unter schlechten Witterungsbedingungen ermöglicht.Of the Invention has for its object to provide a method which a reliable environment detection with a Lidarsensorik even under bad weather conditions.
Diese Aufgabe wird durch das in Anspruch 1 genannte Verfahren gelöst. Die Erfindung bietet insbesondere den Vorteil, dass durch die witterungsabhängige Erfassung der Sichtweitenverhältnisse relevante Umfeldobjekte auch noch bei schwierigen Sichtverhältnissen, wie insbesondere Nebel, erkannt werden können. Weiterhin kann bei Störungen, wie Gischt oder dergleichen, die Gefahr von Fehlmessungen erkannt und durch eine Korrektur berücksichtigt werden. Zusätzlich kann die aktuell vorliegende Sichtweite erkannt werden. Auch ist die Erkennung der Art und Stärke von die Sicht beeinträchtigenden Niederschlägen möglich. Diese Information kann vorteilhaft für die Steuerung weiterer Bordsysteme eingesetzt werden. So können auf der Videosensorik basierende Funktionen eines Fahrerassistenzsystems in einen speziellen Modus, beispielsweise empfindlicher geschaltet werden. Alternativ kann, bei besonders schlechten Sichtbedingungen, die Videosensorik völlig abgeschaltet und ein entsprechender Hinweis für den Fahrer ausgegeben werden. Weiterhin können Nebelscheinwerfer automatisch ein- und ausgeschaltet und Wisch-Wasch-Anlagen besonders fein geregelt werden. Durch modellbasiertes Vorabwissen über das befahrene Umfeld und darin vorhandene Objekte können aktuelle Messdaten der Lidarsensorik noch gezielter ausgewertet werden. Dadurch kann die Detektionsgenauigkeit für unbekannte Objekte vorteilhaft gesteigert werden. Über die gemeinsame Steuerung mehrerer Abtaststrahlen und deren Konzentration auf ein potentielles Zielobjekt können die Detektionsreichweite und die Robustheit der Messungen gesteigert werden. Weitere Vorteile ergeben sich aus den Unteransprüchen, der Beschreibung und der Zeichnung.This object is achieved by the method mentioned in claim 1. In particular, the invention offers the advantage that environmental objects which are relevant due to the weather-dependent detection of the visibility ratios can also be detected even in difficult visibility conditions, such as, in particular, fog. Furthermore, in the case of disturbances, such as spray or the like, the risk of incorrect measurements can be recognized and taken into account by a correction. In addition, the current visibility can be detected. It is also possible to detect the type and intensity of rainfall affecting visibility. This information can be provided Partly used for the control of other on-board systems. Thus, functions based on the video sensor technology of a driver assistance system can be switched to a special mode, for example more sensitive. Alternatively, in particularly poor visibility conditions, the video sensor can be completely switched off and a corresponding note for the driver to be issued. Furthermore, fog lights can be switched on and off automatically and wiper-washing systems can be controlled very finely. Using model-based preliminary knowledge of the environment being traveled and the objects present in it, current measured data from lidar sensors can be evaluated even more purposefully. As a result, the detection accuracy for unknown objects can be advantageously increased. The joint control of several scanning beams and their concentration on a potential target object can increase the detection range and the robustness of the measurements. Further advantages emerge from the subclaims, the description and the drawing.
Ausführungsbeispiele der Erfindung werden im Folgenden unter Bezug auf die Zeichnung näher erläutert. Dabei zeigt:embodiments The invention will be described below with reference to the drawing explained in more detail. Showing:
Die
in
Die
Darstellung in
Anhand
der Darstellungen in
Die
in
Durch
die Beobachtung der zeitlichen Veränderung dieser Zentral-
und Randstrahlen kann dann auch vorteilhaft auf die Anwesenheit
eines sich bewegenden Objekts in dem Umfeld des Egofahrzeugs geschlossen
werden. Dies wird im Folgenden beispielhaft unter Bezug auf
Sind
Einzelheiten des Umfelds, sowie die jeweilige Position und die Abmessungen
darin befindlicher Objekte bereits bekannt, dann kann eine noch präzisere
Messung bzw. verbesserte Erkennungsgenauigkeit durch Zugrundelegung
eines Umfeldmodells erreicht werden. Das Umfeldmodell kann beispielsweise
auf Daten digitaler Karten und/oder zu einem früheren Zeitpunkt
gewonnenen Messwerten einer Umfeldsensorik aufgebaut sein. Mit Hilfe
dieses Umfeldmodells kann an einer beliebigen Position eines Egofahrzeugs
in dem bekannten Umfeld eine aufgrund der dort vorhandenen Objekte
zu erwartende Reflexionskurve abgeleitet werden. Die erwartete Intensität
der rückgestreuten Strahlung könnte anhand von
Kartendaten (also als ortsfeste Information), aus Informationen
anderer Sensoren oder mit Hilfe von Informationen aus vorherigen
Sensormessungen berechnet werden. Eventuell hat man beispielsweise
in einer zuvor stattgefundenen Messung, die beispielsweise eine
Sekunde vorher stattgefunden hat, ein Objekt im Abstand von etwa
8 m mit einer bestimmten Geschwindigkeit bekannt. Dann könnte man
dieses zuvor erfasste Objekt bei einer späteren Messung,
die beispielsweise eine Sekunde später stattfindet, etwa
in einem Abstand von 7 m erwarten. Hieraus kann also eine Hypothese
oder Prognose erstellt werden. Im Idealfall würde das Fahrerassistenzsystem
melden, dass die Hypothese korrekt war. Es könnten aber
auch nur Korrekturen gemeldet werden, wie zum Beispiel, dass der
Abstand bei der zweiten Messung nicht 7 m, sondern 7,30 m beträgt. Das
führt zu einer Datenkompression. Man überträgt die Änderungen
zwischen aufeinander folgenden Messungen und begrenzt damit die
Datenmenge. Entsprechend kann nicht nur die Änderung zwischen zwei
Messungen; sondern auch die Änderung zwischen einer Prognose
und einer Messung übertragen werden. Dies wird im Folgenden
anhand der Darstellungen in
Es
gibt mehrere Möglichkeiten der Ausgestaltung. Denkbar ist
zum Beispiel, dass ein Steuergerät in dem Egofahrzeug der
Lidarsensorik eine Beschreibung des Umfelds übermittelt,
die Daten von Objekten, wie Position, Richtung, Geschwindigkeit umfasst.
Weiterhin können durch andere Sensoren erfasste Witterungsbedingungen
bereitgestellt werden. Die Lidarsensorik kann dann daraus für
jeden Abtaststrahl die zu erwartende Intensitätsverteilung ermitteln.
Da das erwähnte Steuergerät die identische Vorhersage
umsetzen kann, müssen nur noch die von der Lidarsensorik
gemessenen Abweichungen über eine die Lidarsensorik mit
dem Steuergerät verbindende Datenleitung übertragen
werden. Dadurch kann vorteilhaft auch ein einfacher, nur einzielfähiger
Sensor in einer Situation mit mehreren zu erfassenden Objekten eingesetzt
werden. Dies wird noch weiter unten unter Bezug auf
Die
aus dem Umfeldmodell ableitbaren Informationen über das
Umfeld und dort anzutreffende Objekte können vorteilhaft
auch zu einer Reichweitensteigerung eingesetzt werden. Hierzu werden,
wie in
Im
Folgenden wird, unter Bezug auf die Darstellungen in
Im
Folgenden wird, unter Bezug auf
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- - US 5592157 A [0002] US 5592157 A [0002]
- - US 5489982 A [0003] - US 5489982 A [0003]
- - US 52066798 A [0004] - US 52066798 A [0004]
- - GB 1150502 A [0005] - GB 1150502 A [0005]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009028578A DE102009028578A1 (en) | 2009-08-17 | 2009-08-17 | Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009028578A DE102009028578A1 (en) | 2009-08-17 | 2009-08-17 | Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102009028578A1 true DE102009028578A1 (en) | 2011-02-24 |
Family
ID=43495146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009028578A Pending DE102009028578A1 (en) | 2009-08-17 | 2009-08-17 | Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102009028578A1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016011339A1 (en) | 2016-09-21 | 2017-03-02 | Daimler Ag | Method for functional testing of a lidar device and lidar device for a motor vehicle |
CN110476080A (en) * | 2017-04-07 | 2019-11-19 | 罗伯特·博世有限公司 | Laser radar apparatus and method for being scanned to scan angle and for analyzing processing detector |
DE102018125715A1 (en) | 2018-10-17 | 2020-04-23 | Valeo Schalter Und Sensoren Gmbh | Method for detecting at least particle compositions in a monitoring area with an optical detection device and detection device |
DE102018127712A1 (en) | 2018-11-07 | 2020-05-07 | Valeo Schalter Und Sensoren Gmbh | Method for recognizing at least one tire track for a motor vehicle by means of an optoelectronic sensor, optoelectronic sensor and motor vehicle |
DE102018127714A1 (en) | 2018-11-07 | 2020-05-07 | Valeo Schalter Und Sensoren Gmbh | Method for determining a current detection range of an optoelectronic sensor by comparing two intensity values, an optoelectronic sensor and a motor vehicle |
DE102018221448A1 (en) * | 2018-12-11 | 2020-06-18 | Conti Temic Microelectronic Gmbh | Procedure for determining visibility |
DE102018133457A1 (en) | 2018-12-21 | 2020-06-25 | Volkswagen Aktiengesellschaft | Method and system for providing environmental data |
DE102019208504A1 (en) * | 2019-06-12 | 2020-12-17 | Robert Bosch Gmbh | Position determination based on environmental observations |
US20200408919A1 (en) * | 2018-03-12 | 2020-12-31 | Mitsubishi Electric Corporation | Fog determination apparatus, fog determination method, and computer readable medium |
DE102022132310A1 (en) | 2022-12-06 | 2024-06-06 | Sick Ag | Optoelectronic sensor and method for detecting and determining the distance of objects |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1150502A (en) | 1965-06-17 | 1969-04-30 | Sperry Rand Corp | Visibility Measuring System |
US5206698A (en) | 1988-10-05 | 1993-04-27 | DLR Deutsche Forschungsanstalt fur Luft-und Raumfahrt | Lidar arrangement for measuring atmospheric turbidities |
US5489982A (en) | 1993-01-12 | 1996-02-06 | Daimler-Benz Ag | Method for determining a visual range |
US5592157A (en) | 1992-10-05 | 1997-01-07 | Leica Ag | Relative visibility measuring process and device |
-
2009
- 2009-08-17 DE DE102009028578A patent/DE102009028578A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1150502A (en) | 1965-06-17 | 1969-04-30 | Sperry Rand Corp | Visibility Measuring System |
US5206698A (en) | 1988-10-05 | 1993-04-27 | DLR Deutsche Forschungsanstalt fur Luft-und Raumfahrt | Lidar arrangement for measuring atmospheric turbidities |
US5592157A (en) | 1992-10-05 | 1997-01-07 | Leica Ag | Relative visibility measuring process and device |
US5489982A (en) | 1993-01-12 | 1996-02-06 | Daimler-Benz Ag | Method for determining a visual range |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016011339A1 (en) | 2016-09-21 | 2017-03-02 | Daimler Ag | Method for functional testing of a lidar device and lidar device for a motor vehicle |
CN110476080A (en) * | 2017-04-07 | 2019-11-19 | 罗伯特·博世有限公司 | Laser radar apparatus and method for being scanned to scan angle and for analyzing processing detector |
CN110476080B (en) * | 2017-04-07 | 2023-12-26 | 罗伯特·博世有限公司 | Lidar device and method for scanning a scanning angle and for analyzing a treatment detector |
US20200408919A1 (en) * | 2018-03-12 | 2020-12-31 | Mitsubishi Electric Corporation | Fog determination apparatus, fog determination method, and computer readable medium |
DE102018125715A1 (en) | 2018-10-17 | 2020-04-23 | Valeo Schalter Und Sensoren Gmbh | Method for detecting at least particle compositions in a monitoring area with an optical detection device and detection device |
WO2020078983A1 (en) | 2018-10-17 | 2020-04-23 | Valeo Schalter Und Sensoren Gmbh | Method for detecting at least particle compositions in a monitoring region by means of an optical detection device, and detection device |
DE102018127712A1 (en) | 2018-11-07 | 2020-05-07 | Valeo Schalter Und Sensoren Gmbh | Method for recognizing at least one tire track for a motor vehicle by means of an optoelectronic sensor, optoelectronic sensor and motor vehicle |
DE102018127714A1 (en) | 2018-11-07 | 2020-05-07 | Valeo Schalter Und Sensoren Gmbh | Method for determining a current detection range of an optoelectronic sensor by comparing two intensity values, an optoelectronic sensor and a motor vehicle |
DE102018221448A1 (en) * | 2018-12-11 | 2020-06-18 | Conti Temic Microelectronic Gmbh | Procedure for determining visibility |
WO2020119866A1 (en) * | 2018-12-11 | 2020-06-18 | Conti Temic Microelectronic Gmbh | Method for determining a visibility |
WO2020126447A1 (en) | 2018-12-21 | 2020-06-25 | Volkswagen Aktiengesellschaft | Method and system for providing environmental data |
DE102018133457B4 (en) | 2018-12-21 | 2020-07-09 | Volkswagen Aktiengesellschaft | Method and system for providing environmental data |
DE102018133457A1 (en) | 2018-12-21 | 2020-06-25 | Volkswagen Aktiengesellschaft | Method and system for providing environmental data |
DE102019208504A1 (en) * | 2019-06-12 | 2020-12-17 | Robert Bosch Gmbh | Position determination based on environmental observations |
DE102022132310A1 (en) | 2022-12-06 | 2024-06-06 | Sick Ag | Optoelectronic sensor and method for detecting and determining the distance of objects |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009028578A1 (en) | Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement | |
EP2191298B1 (en) | Method for determining a distance by means of an optoelectronic image sensor | |
EP1910866B1 (en) | Method for determining the depth of a parking space using ultrasonic sensors and associated system | |
EP2800982B1 (en) | Method and device for measuring the speed of a vehicle independently of the wheels | |
EP2191293B1 (en) | Object classification method, parking assistance method, and parking assistance system | |
DE102006049879B4 (en) | Radar system for automobiles | |
EP2401630B1 (en) | Method for detecting icing at an angle-resolving radar sensor in a driver assistance system for motor vehicles | |
DE102010027647A1 (en) | Laser-based method for friction coefficient classification in motor vehicles | |
DE102013008953B4 (en) | Method for operating a radar device of a vehicle, in particular of a motor vehicle, and radar device for a vehicle, in particular a motor vehicle | |
DE102016108756A1 (en) | Radar sensor device for a motor vehicle, driver assistance system, motor vehicle and method for detecting an object | |
DE102016100732B4 (en) | Method for operating an ultrasonic sensor of a motor vehicle. Ultrasonic sensor device, driver assistance system and motor vehicle | |
DE102017119042A1 (en) | Prevention of blind spot warnings due to spray | |
DE102010062378B4 (en) | Method and device for environment detection with a lidar sensor | |
EP3977161A1 (en) | Method and driver assistance system for classifying objects in the area around a motor vehicle | |
DE102015122413B4 (en) | Method for operating an ultrasonic sensor of a motor vehicle, ultrasonic sensor device, driver assistance system and motor vehicle | |
DE112012001695B4 (en) | Detection of ice on a vehicle window using an internal temperature sensor | |
DE102015119658A1 (en) | Method for detecting an environmental region of a motor vehicle with object classification, control device, driver assistance system and motor vehicle | |
EP3867666B1 (en) | Method for detecting at least particle compositions in a monitoring region by means of an optical detection device, and detection device | |
DE102009046597A1 (en) | Light detecting and ranging system's atmospheric influences reducing method for driver assistant system for detecting pedestrian in surrounding of motor vehicle, involves determining whether object is stationary object or movable object | |
DE102011081755B4 (en) | Method for measuring the transverse dynamics of an object | |
DE102018126592A1 (en) | Method for detecting transmission disturbances in relation to light of at least one window of a housing of an optical detection device and optical detection device | |
DE102019211375B4 (en) | Motor vehicle with a radar sensor and method for operating the motor vehicle | |
DE102012025466A1 (en) | Method for distinguishing between a target object and an atmospheric component during a measurement with the aid of an optoelectronic sensor device of a motor vehicle, sensor device and motor vehicle | |
DE102021210082B3 (en) | Method for characterizing an object in an area surrounding a motor vehicle | |
DE102019210480A1 (en) | Method and device for determining an environmental condition in the vicinity of a means of transport on the basis of an ultrasonic sensor of the means of transport |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R084 | Declaration of willingness to licence | ||
R016 | Response to examination communication |