WO2022161772A1 - Verfahren und vorrichtung zur bestimmung einer erfassungsreichweite eines sensors eines kraftfahrzeugs - Google Patents

Verfahren und vorrichtung zur bestimmung einer erfassungsreichweite eines sensors eines kraftfahrzeugs Download PDF

Info

Publication number
WO2022161772A1
WO2022161772A1 PCT/EP2022/050582 EP2022050582W WO2022161772A1 WO 2022161772 A1 WO2022161772 A1 WO 2022161772A1 EP 2022050582 W EP2022050582 W EP 2022050582W WO 2022161772 A1 WO2022161772 A1 WO 2022161772A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection range
sensor
determined
motor vehicle
predetermined object
Prior art date
Application number
PCT/EP2022/050582
Other languages
English (en)
French (fr)
Inventor
Sebastian Schneider
Luca Parolini
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN202280012572.4A priority Critical patent/CN116806348A/zh
Publication of WO2022161772A1 publication Critical patent/WO2022161772A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the present invention relates to a method for determining a detection range of a sensor installed on a motor vehicle, which scans the surroundings of the motor vehicle, and a motor vehicle that is designed to carry out the method.
  • a driving assistance system such as a highway pilot, which takes over longitudinal vehicle guidance and vehicle lateral guidance of a motor vehicle on highways up to a speed of 130 km/h under various weather conditions, relies on reliable detection of objects in the vehicle environment.
  • sensors are installed on the vehicle, which scan the area around the vehicle and are able to recognize predetermined objects in the area around the vehicle, i.e. objects to be recognized.
  • Such sensors return a list of detected objects, i.e. a list where each object corresponds to a real-world object detected by the respective sensor.
  • these objects usually include other road users, but can also include crash barriers or, especially in the case of LIDAR sensors, traffic signs due to their high reflectivity. Since the detection capabilities of a camera go beyond this, it can also detect objects other than lane markings, traffic lights, tunnels, etc.
  • the sensors usually provide a classification of an object type of the detected object (e.g.
  • the problem here is to determine a detection range or a field of view of a sensor, especially for different types or Classes of objects, since, for example, when the weather conditions change, it is not always possible to calculate with a nominal sensor performance, ie a maximum detection range that can be provided by the sensor.
  • This map-based approach reaches its limits, especially in heavy traffic, especially when real objects begin to detect objects that are predetermined using the map data, such as e.g. B. traffic signs to cover.
  • Such a system is also dependent on the environment having sufficient and precisely the type of predetermined objects needed for the distance estimation. If such infrastructure elements or predetermined objects are sparsely available, the detection range cannot be determined with sufficient certainty. In addition, such a system relies on the precise localization of the predetermined objects within the map and on the map being up to date.
  • a sensor's field of view is also determined based on statistics derived off-line from tagged data.
  • the object of the present invention is to specify a device and a method which are each suitable for overcoming at least the above-mentioned disadvantages of the prior art.
  • the object is achieved by a method for determining a detection range of a sensor installed on a motor vehicle, the sensor scanning an area surrounding the motor vehicle.
  • the senor is a camera, in particular a video camera.
  • the detection range can also be used to determine a detection range of the sensor, which is designed, for example, in the shape of a semicircle, in particular with a viewing angle of 150°, and has the specific detection range as a radius.
  • the method has a step of recognizing a predetermined object, in particular a further vehicle, such as a further Motor vehicle and / or a pedestrian in the vicinity of the motor vehicle by means of the sensor.
  • a predetermined object in particular a further vehicle, such as a further Motor vehicle and / or a pedestrian in the vicinity of the motor vehicle by means of the sensor.
  • the method also includes determining a distance between the detected object and the motor vehicle, and determining the detection range based on the determined distance.
  • the detection range it is also determined whether the predetermined object is detected several times in succession, in particular continuously in a predetermined period of time, in the vicinity of the motor vehicle by means of the sensor. It is also conceivable for the detection range to be determined based on the distance from the predetermined object only or exclusively when the predetermined object has been detected several times in succession in the vicinity of the motor vehicle by the sensor.
  • the distance of the predetermined object can be used, which was determined at the point in time when the predetermined object was detected by the sensor for the first time of the plurality of times.
  • the method may further include determining a distance traveled by the motor vehicle since the time the predetermined object was detected by the sensor for the first time of the plurality of times.
  • the detection range can then be determined based on a difference between the distance of the predetermined object, which was determined at the point in time when the predetermined object was detected by the sensor for the first time of several times, and the determined distance or distance covered in the meantime by the motor vehicle will.
  • the method can also include assigning the detected predetermined object to one of a plurality of predetermined object classes, such as passenger cars, trucks, motorcycles and/or pedestrians.
  • the detection range can then be determined based on the determined distance of the predetermined object for the object class to which the detected predetermined object has been assigned.
  • the detection range can then also be determined based on the determined distance of the predetermined object and a respective conversion value for the object class to which the recognized predetermined object was not assigned.
  • the (current) detection range can also be determined based on a previously determined detection range, which was determined before the detection range, in particular using the method described above.
  • the (current) detection range is determined based on a combination of the determined detection range with the previously determined detection range using a weighted filter that gives the determined detection range a higher weight and the previously determined detection range a lower weight.
  • a detection range of the sensor can be divided into several, in particular horizontal, zones, with the detection range for each zone being determined on the basis of the predetermined object detected within the respective zone.
  • data is collected from one or more sensors.
  • all irrelevant detections can be filtered out, ie all detections of objects by the sensor for which it cannot be guaranteed with sufficient certainty that it is a real or true detection.
  • a criterion for this can be that the respective detected objects are filtered out, which were detected in less than a predetermined number of consecutive data sets acquired by means of the sensor.
  • a time stamp tO and a relative position of this object in relation to the sensor or the motor vehicle at time tO can be determined. Then, after the same object has been continuously detected N times, for example 9 times, this object can be taken as a candidate for determining the detection range at time tO+N.
  • the field of view or the detection range of the sensor can be calculated in a third step of the method.
  • a movement or a distance covered between the relative position at time tO and the current time tO+N can then be taken into account for determining the detection range in order to obtain a new relative position of the object.
  • the distance of the detected object at time tO minus the distance covered by the motor vehicle between times tO and tO+N is determined as the detection range of the sensor for this specific type of object.
  • a so-called self-motion compensation of the motor vehicle can therefore be undertaken.
  • a previously undetected object is detected at an x,y position relative to the motor vehicle.
  • the object is an actual object or a so-called ghost object, ie a false-positive detection of an object.
  • This decision requires a number of calculation cycles, here N cycles, and object tracking or tracking of the recognized object during the calculation cycles.
  • the motor vehicle can continue to move during these calculation cycles.
  • This relative movement of the motor vehicle can now be subtracted from the relative x,y position of the detected object at time t0.
  • the position at which the object was first detected is therefore converted into a relative position with respect to the motor vehicle at the current time tO+N.
  • a detection range based on the detection range determined using the detected object can also be determined for other classes of objects to which the detected object does not belong.
  • a model can be used that models a relationship between a sensor's ability to detect objects of different object types. For example, if a sensor For example, if a car can see or recognize up to 200 m away, a smaller object, e.g. a motorcyclist, can be seen up to 150 m, while an even smaller object, e.g. a pedestrian, can only be seen up to 70 m can be.
  • the newly or currently determined detection range can be combined with a previously estimated detection range of the respective sensor. This can be done, for example, by using weighted filters that give new measurements more weight and existing measurements less weight. These filters allow for smooth variations in detection range, and appropriate tuning of the weighting parameters allows detection range updates to change faster or slower, depending on the specific use case of the sensor.
  • the approach also enables determination of accuracy and information about the last update of the detection range. For example, a weighted variance of the most recent samples of a sensor's detection range may be used to assess the uncertainty of the determined detection range. Similarly, knowing when the detection range was last updated provides a lot of information for higher level software, which can then decide how much to trust the determined detection range. This can be crucial, for example, for the adjustment of parameters related to safety distances.
  • the detection range is regularly used to calculate a maximum safe speed of the motor vehicle. It is conceivable that the maximum speed can be further reduced based on the estimated uncertainty of the detection range.
  • a motor vehicle in particular a passenger car, is provided.
  • the motor vehicle has a sensor that is arranged and designed in such a way that it scans an environment of the motor vehicle, and a control device connected to the sensor.
  • the control device is designed to determine the detection range of the sensor using the method described above.
  • the motor vehicle is an at least partially automated motor vehicle, i.e. is designed to take over a lateral and/or longitudinal guidance of the motor vehicle in an automated manner at least at times.
  • FIG. 1 An embodiment with reference to FIG. 1 is described below.
  • FIG. 1 shows a flow chart of a method for determining a detection range of a sensor installed on a motor vehicle, which scans an area surrounding the motor vehicle.
  • the method for determining the detection range of the sensor installed on the motor vehicle, which scans the surroundings of the motor vehicle essentially has four steps S1-S4.
  • the motor vehicle has a control device which is connected to the sensor in such a way that it can receive data from the sensor which correspond to the surroundings of the motor vehicle scanned by the sensor.
  • the control device is designed to carry out the method described below. It is conceivable that after the method described below has been carried out, the control device outputs a control signal to the motor vehicle based on the detection range of the sensor determined by means of the method, for example in order to control its speed.
  • a predetermined object in the area surrounding the motor vehicle is detected by means of the sensor, which in the present case has a camera or is designed as a camera.
  • the first step S1 of the method it is determined whether the detected predetermined object is detected several times in succession, in particular continuously within a predetermined period of time, in the vicinity of the motor vehicle by means of the sensor.
  • a distance of this object from the motor vehicle, in particular from the sensor is determined.
  • a second step S2 the distance between the detected object and the motor vehicle, which was determined at the point in time in the first step S1, is determined which the predetermined object was detected for the first time by the sensor.
  • a distance is determined that the motor vehicle has covered since the point in time at which the predetermined object was detected for the first time of the multiple times by the sensor.
  • the identified, predetermined object is assigned to one of a plurality of predetermined object classes.
  • the detection range for this object class, to which the object was assigned is then determined based on the distance determined in the second step S2 and the determined distance covered by the motor vehicle.
  • the detection range is determined based on the distance from the predetermined object at the time it was first detected by the sensor.
  • the detection range of the object class to which the detected predetermined object has been assigned is determined based on a difference between the distance of the predetermined object determined at the time when the predetermined object was detected by the sensor for the first time of the plurality of times , and the specific distance is determined.
  • the detection range can now be determined for the other object classes based on the determined distance of the predetermined object, in particular based on the detection range determined for the object class to which the object was assigned, to which the detected predetermined object was not assigned.
  • a detection range, in particular horizontal, i.e. a 2D range, of the sensor is determined or estimated based on the determined detection range, i.e. 1D value, of the sensor. It is also conceivable that the detection area is divided into several, in particular horizontal, zones, with the detection range for each zone being determined on the basis of the predetermined object detected within the respective zone.
  • a fourth step S4 the detection range determined in the third step S3 (or in the case of several object classes, the detection ranges determined in the third step S3) is combined with a previously determined detection range (or previously determined detection ranges).
  • This combining can be done through the use of one or more weighted filters appropriate to the particular detection range higher weight and the previously determined detection range gives a lower weight.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Bereitgestellt wird ein Verfahren zur Bestimmung einer Erfassungsreichweite eines an einem Kraftfahrzeug verbauten Sensors, der eine Umgebung des Kraftfahrzeugs abtastet. Das Verfahren zeichnet sich dadurch aus, dass es ein Erkennen eines vorbestimmten Objekts in der Umgebung des Kraftfahrzeugs mittels des Sensors, ein Bestimmen eines Abstands des erkannten Objekts zum Kraftfahrzeug und ein Bestimmen der Erfassungsreichweite basierend auf dem bestimmten Abstand aufweist.

Description

VERFAHREN UND VORRICHTUNG ZUR BESTIMMUNG EINER ERFASSUNGSREICHWEITE EINES SENSORS EINES KRAFTFAHRZEUGS
Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung einer Erfassungsreichweite eines an einem Kraftfahrzeug verbauten Sensors, der eine Umgebung des Kraftfahrzeugs abtastet, und ein Kraftfahrzeug, das ausgestaltet ist, das Verfahren auszuführen.
Ein Fahrassistenzsystem, wie beispielsweise ein Autobahnpilot, welcher eine Fahrzeuglängsführung und eine Fahrzeugquerführung eines Kraftfahrzeugs auf Autobahnen bis zu einer Geschwindigkeit von 130 km/h unter verschiedenen Wetterbedingungen übernimmt, ist auf eine zuverlässige Erkennung von Objekten im Fahrzeugumfeld angewiesen.
Dazu werden Sensoren am Fahrzeug verbaut, die das Umfeld des Fahrzeugs abtasten und vorbestimmte, d.h. zu erkennende, Objekte in dem Umfeld des Fahrzeugs erkennen können. Solche Sensoren geben eine Liste mit erkannten Objekten aus, d.h. eine Liste, bei der jedes Objekt einem vom jeweiligen Sensor erkannten Objekt in der realen Welt entspricht. Bei LIDAR-Sensoren und RADAR- Sensoren umfassen diese Objekte in der Regel andere Verkehrsteilnehmer, können aber auch Leitplanken oder, vor allem bei den LIDAR-Sensoren, Verkehrsschilder aufgrund deren hoher Reflektivität umfassen. Da die Erkennungsmöglichkeiten einer Kamera darüber hinausgehen, können diese auch andere Objekte als Fahrbahnmarkierungen, Ampeln, Tunnel etc. erkennen. Die Sensoren liefern in der Regel eine Klassifizierung eines Objekttyps des erkannten Objekts (z. B. Fußgänger, Auto, LKW, Radfahrer, Schild usw.), teilweise sogar eine Wahrscheinlichkeitsverteilung über vorbestimmte Objekttypen, um Mehrdeutigkeiten in den jeweiligen Erkennungsalgorithmen zu modellieren, z. B. wenn der Sensor nicht sicher ist, ob ein erkanntes Objekt ein Radfahrer oder Motorradfahrer ist, aber ziemlich sicher ist, dass es kein LKW ist.
Problematisch dabei ist eine Erfassungsreichweite bzw. ein Sichtfeld (engl. „field of view“) eines Sensors zu bestimmen, insbesondere für verschiedene Arten bzw. Klassen von Objekten, da beispielsweise bei wechselnden Wetterbedingungen nicht immer mit einer nominalen Sensorleistung, d.h. einer vom Sensor bereitstellbaren maximalen Erfassungsreichweite, gerechnet werden kann.
Wenn also basierend auf Sensordaten eines Sensors an einem bestimmten Ort bzw. einer Position kein Objekt erkennbar ist, kann das entweder daran liegen, dass an dieser Position tatsächlich kein Objekt vorhanden ist, oder dass der Sensor, beispielsweise aufgrund eines Hardwarefehlers, eines Softwarefehlers und/oder aufgrund äußerer Einflüsse, wie dem Wetter und/oder einer Verdeckung der Position, diese Position nicht abtasten bzw. beobachten kann, wobei letzteres der kritischere Fall ist.
Um dem entgegenzuwirken wird herkömmlich vorgeschlagen, zu prüfen, ob der Sensor statische Objekte in einem Kraftfahrzeugumfeld erkennt, die gemäß Kartendaten dort vorhanden sind, und vom Sensor bei nominaler Leistung erkannt werden sollten.
Dieser kartenbasierte Ansatz stößt insbesondere bei dichtem Verkehr an seine Grenzen, insbesondere wenn reale Objekte beginnen, die mittels der Kartendaten vorbestimmten zu erkennenden Objekte, wie z. B. Verkehrsschilder, zu verdecken. Ein solches System ist auch abhängig davon, dass die Umgebung genügend und genau die Art von vorbestimmten Objekten aufweist, die für die Abstandsschätzung benötigt werden. Wenn solche Infrastrukturelemente bzw. vorbestimmte Objekte spärlich vorhanden sind, kann die Erkennungsreichweite nicht mit ausreichender Sicherheit bestimmt werden. Außerdem ist ein solches System auf eine genaue Lokalisierung der vorbestimmten Objekte innerhalb der Karte angewiesen und darauf, dass die Karte aktuell ist.
Herkömmlich wird ein Sichtfeld eines Sensors auch basierend auf Statistiken bestimmt, die offline aus markierten Daten abgeleitet werden.
Dieser datengetriebene Ansatz erfordert jedoch große Mengen an gelabelten Trainingsdaten, die eine gute, unverzerrte Darstellung einer erwarteten Umgebung beinhalten müssen, der der Sensor ausgesetzt sein wird. Solche Trainingsdaten sind schwer zu beschaffen und zu labeln. Außerdem besteht das Restrisiko, dass der Sensor auf Situationen außerhalb der Trainingsdaten trifft, in denen das Sichtfeld nicht mehr geschätzt werden kann.
Herkömmliche Sensoren sind demnach nicht in der Lage ausschließlich basierend auf ihren eigenen erfassten Daten im Betrieb des Sensors ihre Erfassungsreichweite zuverlässig zu erkennen bzw. zu bestimmen.
Vor dem Hintergrund dieses Standes der Technik besteht die Aufgabe der vorliegenden Erfindung darin, eine Vorrichtung und ein Verfahren anzugeben, welche jeweils geeignet sind, zumindest die oben genannten Nachteile des Standes der Technik zu überwinden.
Insbesondere soll ermöglicht werden, das tatsächliche Sichtfeld bzw. die Erfassungsreichweite eines Sensors im Betrieb des Sensors basierend auf dessen erfassten Daten zu bestimmen.
Gelöst wird die Aufgabe durch die Merkmale der unabhängigen Ansprüche. Die Unteransprüche haben bevorzugte Weiterbildungen der Erfindung zum Inhalt.
Danach wird die Aufgabe durch ein Verfahren zur Bestimmung einer Erfassungsreichweite eines an einem Kraftfahrzeug verbauten Sensors gelöst, wobei der Sensor eine Umgebung des Kraftfahrzeugs abtastet.
Denkbar ist, dass es sich bei dem Sensor um eine Kamera, insbesondere eine Videokamera, handelt. Die Erfassungsreichweite kann auch zur Bestimmung eines Erfassungsbereichs des Sensors dienen, welcher beispielsweise halbkreisförmig, insbesondere mit einem Blickwinkel von 150°, ausgebildet ist und als Radius die bestimmte Erfassungsreichweite aufweist.
Das Verfahren weist einen Schritt eines Erkennens eines vorbestimmten Objekts, insbesondere eines weiteren Fahrzeugs, wie beispielsweise eines weiteren Kraftfahrzeugs, und/oder eines Fußgängers, in der Umgebung des Kraftfahrzeugs mittels des Sensors auf.
Das Verfahren weist ferner ein Bestimmen eines Abstands des erkannten Objekts zum Kraftfahrzeug, und ein Bestimmen der Erfassungsreichweite basierend auf dem bestimmten Abstand auf.
Denkbar ist, dass ferner bestimmt wird, ob das vorbestimmte Objekt mehrere Male hintereinander, insbesondere in einem vorbestimmten Zeitraum ununterbrochen, in der Umgebung des Kraftfahrzeugs mittels des Sensors erkannt wird. Denkbar ist auch, dass das Bestimmen der Erfassungsreichweite basierend auf dem Abstand des vorbestimmten Objekts nur bzw. ausschließlich dann erfolgt, wenn das vorbestimmte Objekt mehrmals hintereinander in der Umgebung des Kraftfahrzeugs mittels des Sensors erkannt wurde.
Zum Bestimmen der Erfassungsreichweite kann der Abstand des vorbestimmten Objekts verwendet werden, der zu dem Zeitpunkt bestimmt wurde, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde.
Das Verfahren kann ferner ein Bestimmen einer Strecke aufweisen, die das Kraftfahrzeug seit dem Zeitpunkt zurückgelegt hat, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde.
Die Erfassungsreichweite kann dann basierend auf einer Differenz zwischen dem Abstand des vorbestimmten Objekts, der zu dem Zeitpunkt bestimmt wurde, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde, und der bestimmten bzw. zwischenzeitlich vom Kraftfahrzeug zurückgelegten Strecke bestimmt werden.
Das Verfahren kann ferner ein Zuordnen des erkannten vorbestimmten Objekts zu einer von mehreren vorbestimmten Objektklassen, wie beispielsweise Personenkraftwagen, Lastkraftwagen, Motorrad und/oder Fußgänger, aufweisen. Die Erfassungsreichweite kann dann basierend auf dem bestimmten Abstand des vorbestimmten Objekts für die Objektklasse bestimmt werden, der das erkannte vorbestimmte Objekt zugeordnet wurde.
Die Erfassungsreichweite kann dann auch basierend auf dem bestimmten Abstand des vorbestimmten Objekts und einem jeweiligen Umrechnungswert für die Objektklasse bestimmt werden, der das erkannte vorbestimmte Objekt nicht zugeordnet wurde.
Die (aktuelle) Erfassungsreichweite kann ferner basierend auf einer zuvor bestimmten Erfassungsreichweite, die, insbesondere mit dem oben beschriebenen Verfahren vor der Erfassungsreichweite bestimmt wurde, bestimmt werden.
Denkbar ist, dass die (aktuelle) Erfassungsreichweite basierend auf einer Kombination der bestimmten Erfassungsreichweite mit der zuvor bestimmten Erfassungsreichweite unter Verwendung eines gewichteten Filters, der der bestimmten Erfassungsreichweite ein höheres Gewicht und der zuvor bestimmten Erfassungsreichweite ein geringeres Gewicht gibt, bestimmt wird.
Ein Erfassungsbereich des Sensors kann in mehrere, insbesondere horizontale, Zonen aufgeteilt sein, wobei die Erfassungsreichweite für jede Zone basierend auf dem innerhalb der jeweiligen Zone erfassten vorbestimmten Objekt bestimmt wird.
Das oben Beschriebene lässt sich mit anderen Worten wie folgt zusammenfassen:
Im ersten Schritt des oben beschriebenen Verfahrens werden Daten von einem oder von mehreren Sensoren gesammelt.
Im zweiten Schritt können alle irrelevanten Erkennungen herausgefiltert werden, d. h. alle Erkennungen von Objekten mittels des Sensors, bei denen nicht mit ausreichender Sicherheit garantiert werden kann, dass es sich um eine echte bzw. wahre Erkennung handelt. Ein Kriterium dafür kann sein, dass die jeweiligen erkannten Objekte herausgefiltert werden, die in weniger als einer vorbestimmten Anzahl von aufeinanderfolgenden mittels des Sensors akquirierten Datensätzen erkannt wurden.
Für jede anfängliche Objekterkennung, d.h. das erste Auftreten eines Objekts, kann ein Zeitstempel tO und eine relative Position dieses Objekts im Verhältnis zum Sensor bzw. zum Kraftfahrzeug zum Zeitpunkt tO bestimmt werden. Dann, nachdem dasselbe Objekt N-mal, beispielsweise 9-mal, kontinuierlich erkannt wurde, kann dieses Objekt zum Zeitpunkt tO+N als ein Kandidat für die Bestimmung der Erfassungsreichweite herangezogen werden.
Sobald ein Objekt N-mal erkannt wurde, insbesondere eine Liste mit mehreren N-mal erkannten Objekten verfügbar ist, kann das Sichtfeld bzw. die Erfassungsreichweite des Sensors in einem dritten Schritt des Verfahrens berechnet werden.
Dazu wird zunächst bestimmt, wann das jeweilige Objekt zuerst erkannt wurde. Denkbar ist, dass die Erkennung des jeweiligen Objekts zu diesem Zeitpunkt nicht als gültige Erkennung deklariert wurde, da die Unsicherheit, ob das Objekt tatsächlich existiert, zu diesem Zeitpunkt zu groß war.
Für die Bestimmung der Erfassungsreichweite kann dann eine Bewegung bzw. eine zurückgelegte Strecke zwischen der relativen Position zum Zeitpunkt tO und dem aktuellen Zeitpunkt tO+N berücksichtigt werden, um eine neue relative Position des Objekts zu erhalten. Der Abstand des erkannten Objekts zum Zeitpunkt tO abzüglich der vom Kraftfahrzeug zurückgelegten Strecke zwischen den Zeitpunkten tO und tO+N wird als Erfassungsreichweite des Sensors für diese bestimmte Art von Objekt bestimmt.
Es kann also eine sog. Eigenbewegungskompensation des Kraftfahrzeugs vorgenommen werden. Das heißt, zum Zeitpunkt tO wird ein zuvor nicht erkanntes Objekt an einer zu dem Kraftfahrzeug relativen x,y-Position erkannt. Nun kann entschieden werden, ob es sich bei dem Objekt um ein tatsächliches Objekt oder ein sog. Geisterobjekt, d.h. eine falsch-positive Erkennung eines Objekts, handelt. Diese Entscheidung benötigt einige Berechnungszyklen, hier N-Zyklen, und ein Objekttracking bzw. eine Nachverfolgung des erkannten Objekts während der Berechnungszyklen. Allerdings kann sich das Kraftfahrzeug während dieser Berechnungszyklen weiter bewegen. Diese relative Eigenbewegung des Kraftfahrzeugs kann nun von der relativen x,y-Position des erkannten Objekts zum Zeitpunkt tO abgezogen werden. Die Position, an der das Objekt erstmalig erkannt wurde, wird also in eine relative Position bzgl. des Kraftfahrzeugs zum aktuellen Zeitpunkt tO+N umgerechnet. Denkbar ist beispielsweise, dass ein Objekt an der Position (100,0) zum Zeitpunkt tO erstmalig erkannt wird. Nach N-Zyklen wird das Objekt bestätigt, wobei sich das Kraftfahrzeug während dieser N-Zyklen um 30 m nach vorne bewegt hat. Die transformierte bzw. umgerechnete relative Position liegt dann bei (70,0). Damit wäre die Erfassungsreichweite vorliegend 70 m.
Da mehrere Objekte parallel beobachtet werden können, ist es denkbar, ein Sichtfeld bzw. einen Erfassungsbereich des Sensors horizontal in einzelne Segmente zu unterteilen und die Erfassungsreichweite für jedes Segment einzeln abzuleiten. Wenn mehrere Objektkandidaten in dasselbe Segment fallen, kann eine Datenmenge reduziert werden, indem die Max-Operation auf die Liste der Kandidaten im selben Segment angewendet wird.
Darüber hinaus kann eine Erkennungsreichweite basierend auf der mittels des erkannten Objekts bestimmten Erkennungsreichweite auch für andere Klassen von Objekten bestimmt werden, der das erkannte Objekt nicht angehört. Dafür kann ein Modell verwendet werden, das eine Beziehung zwischen einer Fähigkeit des Sensors zur Objekterkennung von verschiedenen Objekttypen modelliert. Wenn ein Sensor z. B. ein Auto bis zu einer Entfernung von 200 m sehen bzw. erkennen kann, dann kann ein kleineres Objekt, z.B. ein Motorradfahrer, bis zu 150 m erkennbar sein, während ein noch kleineres Objekt, z.B. ein Fußgänger, nur bis zu 70 m erkennbar sein kann.
Dies ist vorteilhaft, denn für eine Bestimmung einer Erfassungsreichweite von Fußgängern kann nicht immer davon ausgegangen werden, dass sich genügend Fußgänger im Umfeld des Kraftfahrzeugs befinden, z.B. bei einer Fahrt auf einer Autobahn. Basierend auf diesen Modellen kann auf die Erfassungsreichweite von Fußgängern geschlossen werden, wenn andere Objekttypen, z.B. Autos, tatsächlich erkannt werden.
Im vierten Schritt des Algorithmus kann die neu bzw. aktuell bestimmte Erfassungsreichweite mit einer zuvor geschätzten Erfassungsreichweite des jeweiligen Sensors kombiniert werden. Dies kann z.B. durch eine Verwendung gewichteter Filter geschehen, die neuen Messungen ein höheres Gewicht und bereits vorhandenen Messungen ein geringeres Gewicht geben. Diese Filter ermöglichen weiche Variationen der Erfassungsreichweite und eine geeignete Abstimmung der Gewichtungsparameter ermöglicht eine schnellere oder langsamere Änderung der Aktualisierungen der Erfassungsreichweite, je nach dem spezifischen Anwendungsfall des Sensors.
Zusammen mit der Bestimmung der Erfassungsreichweite ermöglicht der Ansatz auch eine Bestimmung einer Genauigkeit und von Informationen über die letzte Aktualisierung der Erfassungsreichweite. Zum Beispiel kann eine gewichtete Varianz der letzten Abtastungen der Erfassungsreichweite eines Sensors zur Beurteilung der Unsicherheit der bestimmten Erfassungsreichweite verwendet werden. In ähnlicher Weise bietet die Information darüber, wann die Erfassungsreichweite zuletzt aktualisiert wurde, eine Informationsmenge für eine Software auf höherer Ebene, die dann entscheiden kann, wie sehr sie der bestimmten Erfassungsreichweite vertrauen kann. Dies kann z.B. für die Abstimmung von Parametern im Zusammenhang mit Sicherheitsabständen entscheidend sein. Beispielsweise wird die Erfassungsreichweite regelmäßig für eine Berechnung einer maximalen sicheren Geschwindigkeit des Kraftfahrzeugs verwendet. Es ist denkbar, dass die maximale Geschwindigkeit auf Basis der geschätzten Unsicherheit der Erfassungsreichweite weiter reduziert werden kann.
Ferner wird ein Kraftfahrzeug, insbesondere ein Personenkraftwagen, bereitgestellt.
Das Kraftfahrzeug weist einen Sensor, der so angeordnet und ausgestaltet ist, dass er eine Umgebung des Kraftfahrzeugs abtastet, und eine zum Sensor verbundene Steuervorrichtung auf.
Die Steuervorrichtung ist ausgestaltet, um mittels dem oben beschriebenen Verfahren die Erfassungsreichweite des Sensors zu bestimmen.
Denkbar ist, dass das Kraftfahrzeug ein zumindest teilweise automatisiertes Kraftfahrzeug ist, d.h. ausgestaltet ist, um eine Quer- und/oder Längsführung des Kraftfahrzeugs zumindest zeitweise automatisiert zu übernehmen.
Das mit Bezug zum Verfahren Beschriebene gilt analog auch für die Vorrichtung und umgekehrt.
Nachfolgend wird eine Ausführungsform mit Bezug zu Figur 1 beschrieben.
Fig. 1 zeigt ein Ablaufdiagramm eines Verfahrens zur Bestimmung einer Erfassungsreichweite eines an einem Kraftfahrzeug verbauten Sensors, der eine Umgebung des Kraftfahrzeugs abtastet.
Wie Figur 1 zu entnehmen ist, weist das Verfahren zur Bestimmung der Erfassungsreichweite des an dem Kraftfahrzeug verbauten Sensors, der die Umgebung des Kraftfahrzeugs abtastet, im Wesentlichen vier Schritte S1 - S4 auf.
Das Kraftfahrzeug weist eine Steuervorrichtung auf, welche so zu dem Sensor verbunden ist, dass sie Daten von dem Sensor empfangen kann, welche zu der von dem Sensor abgetasteten Umgebung des Kraftfahrzeugs korrespondieren.
Basierend auf diesen Daten ist die Steuervorrichtung ausgestaltet, das unten beschriebene Verfahren auszuführen. Denkbar ist, dass die Steuervorrichtung nach dem Ausführen des unten beschriebenen Verfahrens basierend auf der mittels des Verfahrens bestimmten Erfassungsreichweite des Sensors ein Steuersignal zu dem Kraftfahrzeug ausgibt, beispielsweise um dessen Geschwindigkeit zu steuern. In einem ersten Schritt S1 des Verfahrens erfolgt ein Erkennen eines vorbestimmten Objekts in der Umgebung des Kraftfahrzeugs mittels des Sensors, welcher vorliegend eine Kamera aufweist bzw. als Kamera ausgeführt ist.
Nachfolgend wird in dem ersten Schritt S1 des Verfahrens bestimmt, ob das erkannte vorbestimmte Objekt mehrere Male hintereinander, insbesondere innerhalb einer vorbestimmten Zeitspanne ununterbrochen, in der Umgebung des Kraftfahrzeugs mittels des Sensors erkannt wird.
Weiterhin wird zumindest beim ersten Mal, wenn das vorbestimmte Objekt erkannt wird, ein Abstand dieses Objekts zum Kraftfahrzeug, insbesondere zum Sensor, ermittelt.
Ist dies der Fall, d.h. wurde das vorbestimmte Objekt mehrmals, beispielsweise neunmal, hintereinander von dem Sensor erkannt, so wird in einem zweiten Schritt S2 der Abstand des erkannten Objekts zum Kraftfahrzeug bestimmt, der zu dem Zeitpunkt in dem ersten Schritt S1 ermittelt wurde, zu dem das vorbestimmte Objekt zum ersten Mal mittels des Sensors erkannt wurde.
In dem dritten Schritt S3 des Verfahrens erfolgt ein Bestimmen einer Strecke, die das Kraftfahrzeug seit dem Zeitpunkt zurückgelegt hat, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde.
Weiterhin erfolgt ein Zuordnen des erkannten vorbestimmten Objekts zu einer von mehreren vorbestimmten Objektklassen.
In dem dritten Schritt S3 erfolgt anschließend ein Bestimmen der Erfassungsreichweite für diese Objektklasse, der das Objekt zugeordnet wurde, basierend auf dem in dem zweiten Schritt S2 bestimmten Abstand und der bestimmten zurückgelegten Strecke des Kraftfahrzeugs.
Das heißt, nur wenn das vorbestimmte Objekt mehrmals hintereinander in der Umgebung des Kraftfahrzeugs mittels des Sensors erkannt wurde, also mit einer vorbestimmten Wahrscheinlichkeit eine wahre Erkennung vorliegt, wird die Erfassungsreichweite basierend auf dem Abstand des vorbestimmten Objekts bestimmt, den dieses zu dem Zeitpunkt hatte, zu dem es das erste Mal vom Sensor erkannt wurde.
Genauer gesagt wird die Erfassungsreichweite der Objektklasse, der das erkannte vorbestimmte Objekt zugeordnet wurde, basierend auf einer Differenz zwischen dem Abstand des vorbestimmten Objekts, der zu dem Zeitpunkt bestimmt wurde, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde, und der bestimmten Strecke bestimmt.
Mittels einem jeweiligen Umrechnungswert bzw. einer jeweiligen Umrechnungsformel kann nun die Erfassungsreichweite basierend auf dem bestimmten Abstand des vorbestimmten Objekts, insbesondere basierend auf der für die Objektklasse bestimmten Erfassungsreichweite, der das Objekt zugeordnet wurde, für die weiteren Objektklassen bestimmt werden, der das erkannte vorbestimmte Objekt nicht zugeordnet wurde.
Denkbar ist auch, dass ein, insbesondere horizontaler, Erfassungsbereich, d.h. ein 2D-Bereich, des Sensors basierend auf der bestimmten Erfassungsreichweite, d.h. 1 D-Wert, des Sensors bestimmt bzw. geschätzt wird. Weiterhin ist denkbar, dass der Erfassungsbereich in mehrere, insbesondere horizontale, Zonen aufgeteilt ist, wobei die Erfassungsreichweite für jede Zone basierend auf dem innerhalb der jeweiligen Zone erfassten vorbestimmten Objekt bestimmt wird.
In einem vierten Schritt S4 wird die im dritten Schritt S3 bestimmte Erfassungsreichweite (bzw. im Falle mehrerer Objektklassen, werden die im dritten Schritt S3 bestimmten Erfassungsreichweiten) mit einer zuvor bestimmten Erfassungsreichweite (bzw. zuvor bestimmten Erfassungsreichweiten) kombiniert.
Dieses Kombinieren kann durch die Verwendung von einem oder mehreren gewichteten Filtern geschehen, der/die der bestimmten Erfassungsreichweite ein höheres Gewicht und der zuvor bestimmten Erfassungsreichweite ein geringeres Gewicht gibt/geben.
Bezugszeichenliste
S1 - S4 Schritte des Verfahrens

Claims

Patentansprüche Verfahren zur Bestimmung einer Erfassungsreichweite eines an einem Kraftfahrzeug verbauten Sensors, der eine Umgebung des Kraftfahrzeugs abtastet, dadurch gekennzeichnet, dass das Verfahren aufweist:
- Erkennen (S1 ) eines vorbestimmten Objekts in der Umgebung des Kraftfahrzeugs mittels des Sensors,
- Bestimmen (S2) eines Abstands des erkannten Objekts zum Kraftfahrzeug, und
- Bestimmen (S3) der Erfassungsreichweite basierend auf dem bestimmten Abstand. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das Verfahren ferner aufweist:
- Bestimmen (S1 ), ob das vorbestimmte Objekt mehrere Male hintereinander, insbesondere ununterbrochen, in der Umgebung des Kraftfahrzeugs mittels des Sensors erkannt wird,
- nur wenn das vorbestimmte Objekt mehrmals hintereinander in der Umgebung des Kraftfahrzeugs mittels des Sensors erkannt wurde, Bestimmen (S3) der Erfassungsreichweite basierend auf dem Abstand des vorbestimmten Objekts. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass
- zum Bestimmen (S3) der Erfassungsreichweite der Abstand des vorbestimmten Objekts verwendet wird, der zu dem Zeitpunkt bestimmt wurde, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Verfahren ferner aufweist: - Bestimmen (S3) einer Strecke, die das Kraftfahrzeug seit dem Zeitpunkt zurückgelegt hat, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde,
- wobei die Erfassungsreichweite basierend auf einer Differenz zwischen dem Abstand des vorbestimmten Objekts, der zu dem Zeitpunkt bestimmt wurde, zu dem das vorbestimmte Objekt das erste Mal der mehreren Male mittels des Sensors erkannt wurde, und der bestimmten Strecke bestimmt wird. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren ferner aufweist:
- Zuordnen (S3) des erkannten vorbestimmten Objekts zu einer von mehreren vorbestimmten Objektklassen,
- wobei die Erfassungsreichweite basierend auf dem bestimmten Abstand des vorbestimmten Objekts für die Objektklasse bestimmt wird, der das erkannte vorbestimmte Objekt zugeordnet wurde. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass:
- die Erfassungsreichweite basierend auf dem bestimmten Abstand des vorbestimmten Objekts und einem jeweiligen Umrechnungswert für die Objektklasse bestimmt wird, der das erkannte vorbestimmte Objekt nicht zugeordnet wurde. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren ferner aufweist:
- Bestimmen (S4) einer aktuellen Erfassungsreichweite ferner basierend auf einer zuvor bestimmten Erfassungsreichweite, die, insbesondere mit dem Verfahren nach einem der Ansprüche 1 bis 6, vor der Erfassungsreichweite bestimmt wurde. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass - die aktuelle Erfassungsreichweite basierend auf einer Kombination der bestimmten Erfassungsreichweites mit der zuvor bestimmten Erfassungsreichweite unter Verwendung eines gewichteten Filters, der der bestimmten Erfassungsreichweite ein höheres Gewicht und der zuvor bestimmten Erfassungsreichweite ein geringeres Gewicht gibt, bestimmt wird. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass
- ein Erfassungsbereich des Sensors in mehrere, insbesondere horizontale, Zonen aufgeteilt ist, wobei die Erfassungsreichweite für jede Zone basierend auf dem innerhalb der jeweiligen Zone erfassten vorbestimmten Objekt bestimmt wird. Kraftfahrzeug,
- wobei das Kraftfahrzeug einen Sensor, der so angeordnet und ausgestaltet ist, dass er eine Umgebung des Kraftfahrzeugs abtastet, und eine zum Sensor verbundene Steuervorrichtung aufweist, dadurch gekennzeichnet, dass
- wobei die Steuervorrichtung ausgestaltet ist, um mittels des Verfahrens nach einem der vorangehenden Ansprüche die Erfassungsreichweite des Sensors zu bestimmen.
PCT/EP2022/050582 2021-02-01 2022-01-13 Verfahren und vorrichtung zur bestimmung einer erfassungsreichweite eines sensors eines kraftfahrzeugs WO2022161772A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280012572.4A CN116806348A (zh) 2021-02-01 2022-01-13 用于确定机动车的传感器的检测范围的方法和装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021102199.5A DE102021102199A1 (de) 2021-02-01 2021-02-01 Verfahren und vorrichtung zur bestimmung einer erfassungsreichweite eines sensors eines kraftfahrzeugs
DE102021102199.5 2021-02-01

Publications (1)

Publication Number Publication Date
WO2022161772A1 true WO2022161772A1 (de) 2022-08-04

Family

ID=80225310

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/050582 WO2022161772A1 (de) 2021-02-01 2022-01-13 Verfahren und vorrichtung zur bestimmung einer erfassungsreichweite eines sensors eines kraftfahrzeugs

Country Status (3)

Country Link
CN (1) CN116806348A (de)
DE (1) DE102021102199A1 (de)
WO (1) WO2022161772A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147637A (en) * 1997-07-23 2000-11-14 Denso Corporation Obstacle detecting system for automotive vehicle
DE102015106567A1 (de) * 2014-04-30 2015-11-05 Mando Corporation Fahrerunterstützungssystem und verfahren zum bestimmen einer anomalität des vertikalen winkels eines radars in diesem
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
WO2017180394A1 (en) * 2016-04-12 2017-10-19 Pcms Holdings, Inc. Method and system for online performance monitoring of the perception system of road vehicles
EP3693244A1 (de) * 2019-02-06 2020-08-12 Continental Automotive GmbH Fahrzeug und verfahren zum autonomen betreiben eines fahrzeugs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11454525B2 (en) 2018-10-19 2022-09-27 Robert Bosch Gmbh Vehicle sensor field calibration utilizing other vehicles
DE102019203132A1 (de) 2019-03-07 2020-09-10 Robert Bosch Gmbh Verfahren zur Kalibrierung eines Umfeldsensors in einem motorisierten Einspurfahrzeug

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147637A (en) * 1997-07-23 2000-11-14 Denso Corporation Obstacle detecting system for automotive vehicle
DE102015106567A1 (de) * 2014-04-30 2015-11-05 Mando Corporation Fahrerunterstützungssystem und verfahren zum bestimmen einer anomalität des vertikalen winkels eines radars in diesem
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
WO2017180394A1 (en) * 2016-04-12 2017-10-19 Pcms Holdings, Inc. Method and system for online performance monitoring of the perception system of road vehicles
EP3693244A1 (de) * 2019-02-06 2020-08-12 Continental Automotive GmbH Fahrzeug und verfahren zum autonomen betreiben eines fahrzeugs

Also Published As

Publication number Publication date
DE102021102199A1 (de) 2022-08-04
CN116806348A (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
EP3155603B1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
EP2504209B1 (de) Verfahren zur schätzung des rollwinkels in einem fahrenden fahrzeug
DE102017009435B4 (de) Evaluation von Komponenten automatischer Fahrfunktionen und Fahrbahnerkennung auf unterschiedlichen Verarbeitungsstufen
DE102017221691A1 (de) Verfahren und Vorrichtung zur Eigenlokalisierung eines Fahrzeugs
DE102016213782A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
WO2018019454A1 (de) Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld
DE102017118651A1 (de) Verfahren und System zur Kollisionsvermeidung eines Fahrzeugs
DE102016224212A1 (de) Automatisierte Freiraumerkennung mittels Differenzanalyse für Fahrzeuge
DE112020002267T5 (de) Anomalie-Diagnosevorrichtung
DE102020210515A1 (de) Verfahren zur Überprüfung von detektierten Veränderungen für ein Umfeldmodell einer digitalen Umgebungskarte
EP3239903A1 (de) Verfahren und vorrichtung zum vergleichen zweier karten mit darin hinterlegten landmarken
DE102018006503A1 (de) Digitale Karte
WO2018188846A1 (de) Fahrerassistenzsystem für ein fahrzeug
DE102015214425A1 (de) Verfahren zum Erkennen eines Verlaufs von Schienen
DE102015111925A1 (de) Spurhalteassistenzsystem
DE112019004285T5 (de) Bordvorrichtung
DE102017200865A1 (de) Verfahren zum fahrspurspezifischen Verorten eines Fahrzeugs
DE102019115327A1 (de) Linienmarkierungsidentifizierung unter Verwendung von LiDAR
DE102015216352A1 (de) Verfahren zum Erkennen einer möglichen Kollision eines Fahrzeuges mit einem Fußgänger auf Grundlage hochaufgelöster Aufnahmen
WO2022161772A1 (de) Verfahren und vorrichtung zur bestimmung einer erfassungsreichweite eines sensors eines kraftfahrzeugs
WO2019063208A1 (de) Verfahren zum automatisierten identifizieren von parkflächen und/oder nicht-parkflächen
DE102019211459B4 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102017200545A1 (de) Vorrichtung und Verfahren zum Detektieren einer Baustelle für ein Kraftfahrzeug
DE102017105721A1 (de) Verfahren zur Identifikation wenigstens eines Parkplatzes für ein Fahrzeug und Parkplatzassistenzsystem eines Fahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22702397

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280012572.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22702397

Country of ref document: EP

Kind code of ref document: A1