WO2021089292A1 - Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs - Google Patents

Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs Download PDF

Info

Publication number
WO2021089292A1
WO2021089292A1 PCT/EP2020/079050 EP2020079050W WO2021089292A1 WO 2021089292 A1 WO2021089292 A1 WO 2021089292A1 EP 2020079050 W EP2020079050 W EP 2020079050W WO 2021089292 A1 WO2021089292 A1 WO 2021089292A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection sensor
sensor
surroundings
determined
detection
Prior art date
Application number
PCT/EP2020/079050
Other languages
English (en)
French (fr)
Inventor
Holger Mielenz
Christoph Gustav Keller
Original Assignee
Daimler Ag
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag, Robert Bosch Gmbh filed Critical Daimler Ag
Priority to US17/755,673 priority Critical patent/US12106579B2/en
Priority to CN202080076406.1A priority patent/CN114616155A/zh
Publication of WO2021089292A1 publication Critical patent/WO2021089292A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle

Definitions

  • the invention relates to a method for operating at least one environment detection sensor of a vehicle.
  • DE 102018 127059.3 describes a method for checking at least one environment detection sensor of a vehicle.
  • the vehicle is localized in a digital map and features of stored stationary objects in the surroundings of the vehicle are identified in the digital map, which are expected to be recognized by the surroundings detection sensor.
  • the surroundings of the vehicle are recorded with the surroundings detection sensor. It is concluded that the surroundings detection sensor has degraded if the features that are expected to be recognized are not recognized by the surroundings detection sensor or if features actually recognized by the surroundings detection sensor differ greatly from the features that are expected to be recognized.
  • the invention is based on the object of specifying a method, which is improved over the prior art, for operating at least one environment detection sensor of a vehicle.
  • the object is achieved according to the invention by a method for operating at least one environment detection sensor of a vehicle having the features of claim 1.
  • a method according to the invention for operating at least one surroundings detection sensor of a vehicle in particular a road vehicle
  • the vehicle is localized in a digital map
  • the object furthest away from the surroundings detection sensor is identified and a current sensor range of the surroundings detection sensor is determined based on a distance of the surroundings detection sensor to this object.
  • the surroundings detection sensor is, for example, a lidar sensor, radar sensor, ultrasonic sensor and / or an optical sensor.
  • the optical sensor is in particular an image acquisition sensor, in particular a video sensor, for example a camera, for example a stereo camera or mono camera.
  • the lidar sensor can also be viewed as an optical sensor.
  • the current sensor range of the surroundings detection sensor can be determined, at least indirectly.
  • An actual sensor range can be greater, but not smaller, than the current sensor range determined by means of the method according to the invention, because this current sensor range correlates with the distance to the most distant object that is still detected by the surroundings detection sensor, in particular it corresponds to this distance. It is possible that the actual sensor range extends beyond this if there is no further object within the actual sensor range that could be detected by the surroundings detection sensor.
  • a reduced current sensor range that is present due to atmospheric influences and the functional restrictions resulting therefrom can be determined, in particular in a fast manner and without additional sensors and other services.
  • atmospheric influences include, for example, rain, fog, snow and / or artefacts resulting therefrom on a road surface, for example moisture, hoar frost and / or snowflakes.
  • This makes it possible, for example, to initiate a corresponding system reaction of at least one vehicle system using this environment detection sensor or a plurality of such vehicle systems of the vehicle, whereby improved safety is achieved.
  • the method is suitable, for example, for automated and / or autonomous vehicles that are used to carry out a ferry operation use one or more such surroundings detection sensors to detect an area around the vehicle.
  • the distance of the surroundings detection sensor to this identified object furthest away from the surroundings detection sensor is determined as the current sensor range of the surroundings detection sensor.
  • the surroundings detection sensor has a differently shaped detection area, for example a detection area designed as an ellipse or ellipsoid or at least as a section thereof, then it is advantageously assumed that this identified object which is furthest away from the surroundings detection sensor lies on the border of this detection area, so that from a distance to this object, in particular in connection with a determined angular position of this object to the surroundings detection sensor, and from the known shape of the detection area the current detection area of the surroundings detection sensor, in particular the limit of the current detection area for all angular positions, d. H. for all detection directions, so that the current sensor range of the surroundings detection sensor can thereby be determined for all detection directions within the detection area.
  • a detection area designed as an ellipse or ellipsoid or at least as a section thereof
  • the sensor range advantageously includes for each angular position, i. H. for each detection direction, an indication of the range.
  • the current sensor range determined thus corresponds to a current distance between the limit of the current detection area of the surroundings detection sensor and this surroundings detection sensor.
  • This variant of the determination of the current sensor range can of course also be used for other forms of the detection area, in particular also for the detection area that extends circularly or spherically or at least in the form of a segment of a circle or a segment of a sphere around the environment detection sensor.
  • object information associated with the objects is stored in the digital map, the object information of the respective object specifying at least for this environment detection sensor for different detection conditions a respective distance of the environment detection sensor from the object the object can be detected by the surroundings detection sensor, the object information of the object furthest away from the surroundings detection sensor, which is currently being detected with the surroundings detection sensor, is retrieved from the digital map and the detection conditions are determined therefrom, their assigned distance best with the current sensor range determined of the surroundings detection sensor is correlated, ie in particular has a slightest deviation from the determined current sensor range of the surroundings detection sensor.
  • the reason for this current sensor range can also be determined, in particular if the current sensor range is limited compared to a sensor range under optimal detection conditions.
  • the atmospheric influences which are the cause of the respective, in particular restricted, current sensor range can thereby be determined. From this, for example, a probability of a change in the properties of the coefficient of friction of the road surface can be determined, for example due to moisture, snow and / or ice.
  • a corresponding system reaction of the at least one vehicle system or the multiple vehicle systems can then take place, for example a reduction in the speed of the vehicle and / or an increase in a safety distance from another road user traveling ahead.
  • the object information of the respective object for different types of environment detection sensors for example for lidar sensors, radar sensors, ultrasound sensors and / or optical sensors, in particular image sensors, in particular cameras, for example stereo cameras and / or mono cameras, for different detection conditions, a respective distance of the environment detection sensor from the object from which the object can be detected by the environment detection sensor of a respective type of environment detection sensor.
  • environment detection sensors for example for lidar sensors, radar sensors, ultrasound sensors and / or optical sensors, in particular image sensors, in particular cameras, for example stereo cameras and / or mono cameras, for different detection conditions, a respective distance of the environment detection sensor from the object from which the object can be detected by the environment detection sensor of a respective type of environment detection sensor.
  • the object information of the respective object which at least for this environment detection sensor for different detection conditions indicates the respective distance of the environment detection sensor to the object from which the object can be detected by the environment detection sensor
  • the respective object is determined by the respective object using the environment detection sensor and / or is detected by means of a similar environment detection sensor and merged and evaluated with the respective existing detection conditions, in particular weather conditions, in particular on a server external to the vehicle.
  • the determined detection conditions of a plurality of surroundings detection sensors of the vehicle and / or detection conditions determined on the basis of a plurality of objects are compared with one another. This makes it possible, for example, to ensure that a determined reduction in the sensor range is not based on a hardware degradation of a respective environment detection sensor, but actually on atmospheric influences, in particular when the same detection conditions are determined by means of several environment detection sensors.
  • a surrounding area detection sensor designed as an optical sensor i. H.
  • a surrounding area detection sensor designed as a lidar sensor or image detection sensor a current road surface detection range of this environment detection sensor is determined and a current road surface condition is determined based on, for example, in a table, stored road surface conditions and assigned road surface detection ranges.
  • This can thus be part of the above-described method for operating at least one environment detection sensor of a vehicle or, for example, can also be carried out as an alternative thereto, i.e. H.
  • the optical sensor in particular an image acquisition sensor, is, for example, a camera, for example a stereo camera or mono camera, in particular a video sensor.
  • the optical sensor can also be a lidar sensor, for example, as already mentioned above.
  • the road surface detection range is reduced in comparison to a dry road surface, since the water cover on the road surface causes, for example, a backscatter intensity of a lidar signal of the as Lidar sensor trained environment detection sensor is reduced.
  • the detection range of the road surface can be reduced in comparison to a dry road surface in the case of water on the road surface, i.e.
  • FIG. 1 schematically shows a vehicle with at least one surroundings detection sensor on a roadway.
  • FIG. 1 shows schematically an exemplary situation, in particular a traffic situation, with a vehicle 1, in particular a road vehicle, which has at least one surroundings detection sensor 2, on a roadway F.
  • the surroundings detection sensor 2 is, for example, a lidar sensor, radar sensor, ultrasound sensor and / or an optical sensor , in particular an image acquisition sensor, for example a camera, for example a stereo camera or mono camera, in particular a video sensor.
  • the lidar sensor can also be viewed as an optical sensor.
  • the vehicle 1 advantageously has a plurality of different types of surroundings detection sensors 2.
  • An environment of the vehicle 1 is recorded by means of the at least one or the respective environment detection sensor 2 of the vehicle 1. This is used, for example, by a Determination of the position of the vehicle 1 on the basis of, in particular stationary,
  • the vehicle 1 is thus, for example, an automated or autonomous vehicle 1.
  • the vehicle 1 is localized in a digital map, with georeferenced objects O being stored in the digital map, in particular stationary, objects which can be detected by means of the surroundings detection sensor 2 or should be detectable. From a set of these objects O georeferenced stored in the digital map, which are currently detected with the surroundings detection sensor 2, the object O furthest away from the surroundings detection sensor 2 is identified and a current sensor range of the surroundings detection sensor 2 is determined based on a distance from the surroundings detection sensor 2 to it Object O determined.
  • the distance of the surroundings detection sensor 2 to this object O is determined as the current sensor range of the surroundings detection sensor 2.
  • the surroundings detection sensor has a differently shaped detection area, for example a detection area designed as an ellipse or ellipsoid or at least as a section thereof, as shown in FIG
  • This detection area lies so that from the distance to this object O, in particular in connection with a determined angular position of this object O to the surroundings detection sensor 2, and from the known shape of the detection area, the current detection area of the surroundings detection sensor 2, in particular the limit of the current detection area can be determined for all angular positions, ie for all detection directions, so that the current sensor range of the surroundings detection sensor 2 can thereby be determined for all detection directions within the detection area.
  • the sensor range advantageously includes a range specification for each angular position, ie for each detection direction.
  • the determined current sensor range thus corresponds to a current distance between the limit of the current detection area of the surrounding area detection sensor 2 and this surrounding area detection sensor 2.
  • This variant of determining the current sensor range can of course also be used for other forms of the detection area, in particular also for those that are circular or spherical or at least circular segment-shaped or spherical segment-shaped around the environment detection sensor 2 around extending detection area.
  • Such, in particular stationary, objects O are, for example, crash barriers, structures and / or, as in the example shown here, posts, in particular guide posts.
  • the method thus enables, in a simple and fast manner, and in particular without additional device expenditure, an, at least indirect, determination of the currently present sensor range of the surroundings detection sensor 2 and thus at least one sensor technology of the, in particular automated or autonomously driving, vehicle 1.
  • the surroundings detection sensor 2, in particular the Sensor technology of the respective surroundings detection sensor 2 can be subject to functional restrictions, for example due to atmospheric influences. This is recognized by means of the method described here, which makes it possible, for example, to implement a corresponding system reaction of at least one vehicle system or several vehicle systems.
  • a determined current sensor range which is reduced compared to a sensor range under optimal detection conditions, a speed of the vehicle 1 can be reduced and / or a distance from another road user traveling ahead can be increased.
  • Atmospheric influences that can lead to a reduction in the sensor range are, for example, rain, fog, snow and / or artefacts resulting therefrom on a road surface, for example moisture, hoar frost and / or snowflakes.
  • the method can also be used to infer the respective atmospheric cause for the possibly present restricted current sensor range.
  • a probability of a change in a coefficient of friction properties of the road surface can be determined and thereupon, for example, a driving behavior of vehicle 1 can be adapted accordingly, for example by reducing the speed and / or by increasing the distance to the other road user ahead, so that the Security is increased.
  • object information belonging to the objects O is advantageously stored in the digital map, the object information of the respective object O for the environment detection sensor 2 and thus also for similar environment detection sensors 2 for different detection conditions a respective distance of the environment detection sensor 2 from the object O indicate from which the object O can be detected by the surroundings detection sensor 2.
  • the object information of the object O furthest away from the environment detection sensor 2, which is currently being detected with the environment detection sensor 2 is then retrieved from the digital map and the detection conditions are determined therefrom, their assigned distance for the environment detection sensor 2 best with the determined current sensor range of the Environment detection sensor 2 correlated.
  • those detection conditions are advantageously determined whose assigned distance of the surroundings detection sensor 2 to the object O, i. H. to the object O furthest away from the surroundings detection sensor 2, which is currently detected with the surroundings detection sensor 2, is closest to the current sensor range that has been determined.
  • the objects O stored georeferenced in the digital map are designed, for example, as posts, for example as delineator posts.
  • a large sensor range SR1 is also shown, for example a maximum sensor range under good, in particular optimal, atmospheric conditions, in particular weather conditions, and a smaller current sensor range SR2 due to atmospheric influences. It can be seen from this that given good, in particular optimal, atmospheric conditions, in particular Weather conditions, due to the resulting large sensor range SR1, also the objects O at a great distance from the vehicle 1, ie the objects O shown here furthest away from the vehicle 1, can be detected by means of the surroundings detection sensor 2.
  • the information about the distance from the vehicle 1 from which a respective object O can be detected for the surroundings detection sensor 2 under respective detection conditions is stored in the digital map, so that based on the determined sensor range and based on the furthest away from the surroundings detection sensor 2 Object O, which is currently detected with the surroundings detection sensor 2, can be inferred about the respective detection conditions and thus about the respective atmospheric cause for the lower current sensor range SR2.
  • the object information of the respective object O advantageously gives a respective one for different types of surroundings detection sensors 2, for example for lidar sensors, radar sensors, ultrasonic sensors and / or optical sensors, in particular image detection sensors, for example cameras, for example stereo cameras and / or mono cameras, in particular video sensors, for different detection conditions Distance of the environment detection sensor 2 to the object O, from which the object O can be detected for the environment detection sensor 2 of a respective environment detection sensor type.
  • For each type of surroundings detection sensors 2 different detection conditions and assigned distances to the respective object O, from which the object O can be detected with the respective type of surroundings detection sensor 2 under the respective detection conditions, are stored.
  • the described procedure can be carried out for different types of surroundings detection sensors 2 of vehicle 1 and thus the detection conditions can be determined in each case by means of several surroundings detection sensors 2 of vehicle 1.
  • the detection ranges of the objects O from each position or at least from several positions can be learned, for example, by merging and evaluating these objects O with additional detection conditions that are present in each case, in particular in the form of weather information.
  • a server external to the vehicle also referred to as a backend.
  • the object information of the respective object O which specifies the respective distance of the surroundings detection sensor 2 to the object O for the respective surroundings detection sensor 2 for different detection conditions, from which the object O can be detected by the surroundings detection sensor 2
  • This enables this information to be learned by means of the environment detection sensor 2 of the vehicle 1, in particular by means of similar environment detection sensors 2 of several vehicles 1, so that additional effort by creating this information separately in a different way is avoided.
  • a surroundings detection sensor 2 designed as an optical sensor ie in particular with a surroundings detection sensor 2 designed as a lidar sensor or with an image detection sensor, in particular as a video sensor, for example as a camera, for example as Stereo cameras or mono camera
  • formed environment detection sensor 2 a current road surface detection range of this environment detection sensor 2 is determined and based on, for example, in a table, stored road surface conditions and assigned road surface detection ranges, a current road surface condition is determined.
  • the actual Road surface detection range is determined in the case of a surroundings detection sensor 2 designed as a lidar sensor, in particular via a respective transit time of a backscattered signal from the lidar sensor.
  • the road surface is detected by means of the surroundings detection sensor 2 designed as a lidar sensor, for example by means of a dedicated lidar system, when the road surface is dry, for example up to a first line L1 shown in FIG.
  • the road surface conditions and assigned road surface detection ranges stored in the table for example, can be used to deduce a respective type of road surface change.
  • This also makes it possible, for example, to initiate a corresponding system reaction of at least one vehicle system or several such vehicle systems of the vehicle 1, whereby improved safety is achieved, for example by adapting the speed of the vehicle 1 and / or the distance to another road user driving ahead to the determined road condition.
  • the environment detection sensor 2 can also be configured as another optical sensor, in particular as an image detection sensor, in particular as a video sensor, for example as a camera, for example as a stereo camera or mono camera.
  • the road surface is then detected by means of this optical sensor when the road surface is dry, for example up to the first line L1 shown in FIG. 1. Due to worsened road surface conditions, in particular due to an increased water cover, in particular in connection with solar radiation and a resulting reflection that blinds this optical sensor, the road surface is then only down to a smaller distance, shown in Figure 1 by the second line L2 at a lower level Distance to vehicle 1, detectable.
  • the reduction of the road surface range via the road surface conditions and assigned road surface detection ranges stored in the table can be used to infer a respective type of road surface change. Because of that, too, it becomes For example, enables a corresponding system reaction of at least one vehicle system or several such vehicle systems of the vehicle 1 to be initiated, whereby improved safety is achieved, for example by adapting the speed of the vehicle 1 and / or the distance to another road user ahead to the determined roadway condition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Erfindungsgemäß wird das Fahrzeug (1) in einer digitalen Karte lokalisiert, wobei in der digitalen Karte Objekte (O) georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte (O), die mit dem Umfelderfassungssensor (2) aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor (2) entfernte Objekt (O) identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors (2) basierend auf einer Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) ermittelt wird.

Description

Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
Die Erfindung betrifft ein Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs.
Aus dem Stand der Technik sind Verfahren zum Betrieb von Umfelderfassungssensoren von Fahrzeugen allgemein bekannt.
In der DE 102018 127059.3 wird ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs beschrieben. In diesem Verfahren wird das Fahrzeug in einer digitalen Karte lokalisiert und es werden in der digitalen Karte Merkmale von hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs anzugeben.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs mit den Merkmalen des Anspruchs 1.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche. In einem erfindungsgemäßen Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs, insbesondere eines Straßenfahrzeugs, wird das Fahrzeug in einer digitalen Karte lokalisiert, wobei in der digitalen Karte Objekte, insbesondere stationäre Objekte, georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte, die mit dem Umfelderfassungssensor aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor entfernte Objekt identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors basierend auf einer Entfernung des Umfelderfassungssensors zu diesem Objekt ermittelt wird.
Der Umfelderfassungssensor ist beispielsweise ein Lidarsensor, Radarsensor, Ultraschallsensor und/oder ein optischer Sensor. Der optische Sensor ist insbesondere ein Bilderfassungssensor, insbesondere ein Videosensor, zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera. Auch der Lidarsensor kann als ein optischer Sensor angesehen werden.
Mittels des erfindungsgemäßen Verfahrens kann, zumindest auf indirekte Weise, die aktuelle Sensorreichweite des Umfelderfassungssensors ermittelt werden. Eine tatsächliche Sensorreichweite kann dabei größer sein, aber nicht kleiner sein als die mittels des erfindungsgemäßen Verfahrens ermittelte aktuelle Sensorreichweite, denn diese aktuelle Sensorreichweite korreliert mit der Entfernung zum am weitesten entfernten Objekt, welches mittels des Umfelderfassungssensors noch erfasst wird, insbesondere entspricht sie dieser Entfernung. Möglicherweise reicht die tatsächliche Sensorreichweite noch darüber hinaus, wenn sich innerhalb der tatsächlichen Sensorreichweite kein weiter entferntes Objekt befindet, welches vom Umfelderfassungssensor erfasst werden könnte.
Mittels des Verfahrens kann beispielsweise eine aufgrund atmosphärischer Einflüsse und daraus resultierenden funktionalen Einschränkungen vorliegende verringerte aktuelle Sensorreichweite ermittelt werden, insbesondere auf schnelle Weise und ohne zusätzliche Sensoren und andere Dienste. Zu derartigen atmosphärischen Einflüssen zählen beispielsweise Regen, Nebel, Schnee und/oder daraus resultierende Artefakte auf einer Fahrbahnoberfläche, beispielsweise Nässe, Raureif und/oder Schneeflocken. Dadurch wird es beispielsweise ermöglicht, eine entsprechende System reaktion mindestens eines diesen Umfelderfassungssensor verwendenden Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird. Das Verfahren eignet sich beispielsweise für automatisiert und/oder autonom fahrende Fahrzeuge, welche zur Durchführung eines Fährbetriebs einen oder mehrere solche Umfelderfassungssensoren zur Erfassung eines Umfelds des Fahrzeugs verwenden.
Beispielsweise wird die Entfernung des Umfelderfassungssensors zu diesem am weitesten vom Umfelderfassungssensor entfernten identifizierten Objekt als aktuelle Sensorreichweite des Umfelderfassungssensors ermittelt. Dies gilt insbesondere für einen sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor herum erstreckenden Erfassungsbereich, so dass eine Grenze dieses Erfassungsbereichs, d. h. die aktuelle Sensorreichtweite des Umfelderfassungssensors, für alle Erfassungsrichtungen innerhalb dieses Erfassungsbereichs gleich groß ist.
Insbesondere wenn der Umfelderfassungssensor einen anders ausgeformten Erfassungsbereich aufweist, beispielsweise einen als Elipse oder Elipsoid oder zumindest als Abschnitt davon ausgebildeten Erfassungsbereich, dann wird vorteilhafterweise angenommen, dass dieses am weitesten vom Umfelderfassungssensor entfernte identifizierte Objekt auf der Grenze dieses Erfassungsbereichs liegt, so dass aus der Entfernung zu diesem Objekt, insbesondere in Verbindung mit einer ermittelten Winkellage dieses Objekts zum Umfelderfassungssensor, und aus der bekannten Form des Erfassungsbereichs der aktuelle Erfassungsbereich des Umfelderfassungssensors, insbesondere die Grenze des aktuellen Erfassungsbereichs für alle Wnkellagen, d. h. für alle Erfassungsrichtungen, ermittelt werden kann, so dass dadurch die aktuelle Sensorreichweite des Umfelderfassungssensors für alle Erfassungsrichtungen innerhalb des Erfassungsbereichs ermittelt werden kann. Die Sensorreichweite umfasst dabei vorteilhafterweise für jede Winkellage, d. h. für jede Erfassungsrichtung, eine Reichweitenangabe. Die ermittelte aktuelle Sensorreichweite entspricht somit einem aktuellen Abstand der Grenze des aktuellen Erfassungsbereichs des Umfelderfassungssensors zu diesem Umfelderfassungssensor. Diese Variante der Ermittlung der aktuellen Sensorreichweite kann natürlich auch für andere Formen des Erfassungsbereichs verwendet werden, insbesondere auch für den sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor herum erstreckenden Erfassungsbereich.
Erfindungsgemäß sind in der digitalen Karte zu den Objekten jeweils zugehörige Objektinformationen gespeichert, wobei die Objektinformationen des jeweiligen Objekts mindestens für diesen Umfelderfassungssensor für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors zum Objekt angeben, ab welcher das Objekt für den Umfelderfassungssensor erfassbar ist, wobei die Objektinformationen des am weitesten vom Umfelderfassungssensor entfernten Objekts, welches mit dem Umfelderfassungssensor aktuell erfasst wird, aus der digitalen Karte abgerufen werden und daraus die Erfassungsbedingungen ermittelt werden, deren zugeordnete Entfernung am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors korreliert, d. h. insbesondere eine geringste Abweichung von der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors aufweist. Dadurch kann nicht nur die aktuelle Sensorreichweite ermittelt werden, sondern es kann des Weiteren auch der Grund für diese aktuelle Sensorreichweite ermittelt werden, insbesondere wenn die aktuelle Sensorreichweite gegenüber einer Sensorreichweite bei optimalen Erfassungsbedingungen eingeschränkt ist. Insbesondere können dadurch die atmosphärischen Einflüsse ermittelt werden, welche die Ursache für die jeweilige, insbesondere eingeschränkte, aktuelle Sensorreichweite sind. Daraus kann beispielsweise eine Wahrscheinlichkeit für eine Änderung einer Reibwertbeschaffenheit der Fahrbahnoberfläche ermittelt werden, beispielsweise aufgrund von Nässe, Schnee und/oder Eis. Daraus resultierend kann dann eine entsprechende Systemreaktion des mindestens einen Fahrzeugsystems oder der mehreren Fahrzeugsysteme erfolgen, beispielsweise eine Reduzierung einer Geschwindigkeit des Fahrzeugs und/oder eine Vergrößerung eines Sicherheitsabstandes zu einem vorausfahrenden weiteren Verkehrsteilnehmer.
Vorteilhafterweise geben die Objektinformationen des jeweiligen Objekts für verschiedene Arten von Umfelderfassungssensoren, beispielsweise für Lidarsensoren, Radarsensoren, Ultraschallsensoren und/oder optische Sensoren, insbesondere Bilderfassungssensoren, insbesondere Kameras, beispielsweise Stereokameras und/oder Monokameras, für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungs sensors zum Objekt an, ab welcher das Objekt für den Umfelderfassungssensor einer jeweiligen Umfelderfassungssensorart erfassbar ist. Dadurch kann die beschriebene Vorgehensweise für verschiedenartige Umfelderfassungssensoren des Fahrzeugs durchgeführt werden und somit beispielsweise mittels mehreren Umfelderfassungs sensoren des Fahrzeugs jeweils die Erfassungsbedingungen ermittelt werden.
In einer Ausführungsform des Verfahrens werden die Objektinformationen des jeweiligen Objekts, welche mindestens für diesen Umfelderfassungssensor für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors zum Objekt angeben, ab welcher das Objekt für den Umfelderfassungssensor erfassbar ist, ermittelt, indem das jeweilige Objekt mittels des Umfelderfassungssensors und/oder mittels eines gleichartigen Umfelderfassungssensors erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, insbesondere auf einem fahrzeugexternen Server, fusioniert und ausgewertet werden. Dadurch wird ein Lernen dieser Informationen mittels des Umfelderfassungssensors des Fahrzeugs, insbesondere mittels gleichartiger Umfelderfassungssensoren mehrerer Fahrzeuge, ermöglicht, so dass ein zusätzlicher Aufwand durch ein separates Erstellen dieser Informationen auf andere Weise vermieden wird.
In einer Ausführungsform des Verfahrens werden die ermittelten Erfassungsbedingungen mehrerer Umfelderfassungssensoren des Fahrzeugs und/oder anhand mehrerer Objekte ermittelte Erfassungsbedingungen miteinander verglichen. Dadurch kann beispielsweise sichergestellt werden, dass eine ermittelte Reduzierung der Sensorreichweite nicht auf einer Hardwaredegradation eines jeweiligen Umfelderfassungssensors beruht, sondern tatsächlich auf atmosphärischen Einflüssen, insbesondere dann, wenn mittels mehrerer Umfelderfassungssensoren die gleichen Erfassungsbedingungen ermittelt werden.
Alternativ zur oben beschriebenen erfindungsgemäßen Lösung und/oder zu einer oder mehreren der oben genannten Ausführungsformen oder zusätzlich dazu kann beispielsweise vorgesehen sein, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor, d. h. beispielsweise mit einem als Lidarsensor oder Bilderfassungssensor ausgebildeten Umfelderfassungssensor, eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors ermittelt wird und anhand, beispielsweise in einer Tabelle, gespeicherter Fahrbahnoberflächen bedingungen und zugeordneter Fahrbahnoberflächenerfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird. Dies kann somit ein Bestandteil des oben beschriebenen Verfahrens zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs sein oder beispielsweise auch alternativ dazu durchgeführt werden, d. h. in einem alternativen Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs. Der optische Sensor, insbesondere Bilderfassungssensor, ist zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera, insbesondere ein Videosensor. Alternativ kann der optische Sensor beispielsweise auch ein Lidarsensor sein, wie oben bereits erwähnt.
Bei Wasser auf der Fahrbahnoberfläche, d. h. bei einer Wasserdecke auf der Fahrbahnoberfläche, reduziert sich die Fahrbahnoberflächenerfassungsreichweite im Vergleich zu einer trockenen Fahrbahnoberfläche, da durch die Wasserdecke auf der Fahrbahnoberfläche beispielsweise eine Rückstreuintensität eines Lidarsignals des als Lidarsensor ausgebildeten Umfelderfassungssensors reduziert wird. Auch bei einem als Bilderfassungssensor ausgebildeten Umfelderfassungssensor kann sich bei Wasser auf der Fahrbahnoberfläche, d. h. bei einer Wasserdecke, insbesondere einem Wasserfilm, auf der Fahrbahnoberfläche, insbesondere in Verbindung mit einer Sonneneinstrahlung, die Fahrbahnoberflächenerfassungsreichweite im Vergleich zu einer trockenen Fahrbahnoberfläche reduzieren, da die Wasserdecke auf der Fahrbahnoberfläche, insbesondere in Verbindung mit der Sonneneinstrahlung, zu einer Spiegelung führen kann, welche den Bilderfassungssensor, insbesondere Videosensor, blendet.
Es kann somit auf eine jeweils vorliegende Art einer Änderung der Fahrbahnoberflächen bedingung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
Dabei zeigt:
Fig. 1 schematisch ein Fahrzeug mit mindestens einem Umfelderfassungssensor auf einer Fahrbahn.
Figur 1 zeigt schematisch eine beispielhafte Situation, insbesondere Verkehrssituation, mit einem Fahrzeug 1, insbesondere einem Straßenfahrzeug, welches mindestens einen Umfelderfassungssensor 2 aufweist, auf einer Fahrbahn F. Der Umfelderfassungs sensor 2 ist beispielsweise ein Lidarsensor, Radarsensor, Ultraschallsensor und/oder ein optischer Sensor, insbesondere ein Bilderfassungssensor, zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera, insbesondere ein Videosensor. Auch der Lidarsensor kann als ein optischer Sensor angesehen werden. Das Fahrzeug 1 weist vorteilhafterweise eine Mehrzahl verschiedenartiger Umfelderfassungssensoren 2 auf.
Mittels des mindestens einen oder des jeweiligen Umfelderfassungssensors 2 des Fahrzeugs 1 wird ein Umfeld des Fahrzeugs 1 erfasst. Dies dient beispielsweise einer Positionsbestimmung des Fahrzeugs 1 anhand von, insbesondere stationären,
Objekten O im Umfeld des Fahrzeugs 1 und/oder einem Betrieb mindestens eines Fahrzeugsystems oder mehrerer Fahrzeugsysteme, insbesondere von Fahrzeug systemen, welche einem Fahrzeugführer bei einer Durchführung eines Fährbetriebs des Fahrzeugs 1 assistieren und/oder von Fahrzeugsystemen, welche einen automatisierten, insbesondere teil- oder vollautomatisierten, oder autonomen Fährbetrieb des Fahrzeugs 1 durchführen. Das Fahrzeug 1 ist somit beispielsweise ein automatisiertes oder autonomes Fahrzeug 1.
In einem anhand der Figur 1 im Folgenden näher beschriebenen Verfahren zum Betrieb eines solchen Umfelderfassungssensors 2 wird das Fahrzeug 1 in einer digitalen Karte lokalisiert, wobei in der digitalen Karte, insbesondere stationäre, Objekte O georeferenziert gespeichert sind, welche mittels des Umfelderfassungssensors 2 erfassbar sind oder erfassbar sein sollten. Aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte O, die mit dem Umfelderfassungssensor 2 aktuell erfasst werden, wird das am weitesten vom Umfelderfassungssensor 2 entfernte Objekt O identifiziert und eine aktuelle Sensorreichweite des Umfelderfassungssensors 2 wird basierend auf einer Entfernung des Umfelderfassungssensors 2 zu diesem Objekt O ermittelt.
Beispielsweise wird die Entfernung des Umfelderfassungssensors 2 zu diesem Objekt O als aktuelle Sensorreichweite des Umfelderfassungssensors 2 ermittelt. Dies gilt insbesondere für einen sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor 2 herum erstreckenden Erfassungsbereich, so dass eine Grenze dieses Erfassungsbereichs, d. h. die aktuelle Sensorreichweite des Umfelderfassungssensors 2, für alle Erfassungsrichtungen innerhalb dieses Erfassungsbereichs gleich groß ist.
Insbesondere wenn der Umfelderfassungssensor einen anders ausgeformten Erfassungsbereich aufweist, beispielsweise einen als Elipse oder Elipsoid oder zumindest als Abschnitt davon ausgebildeten Erfassungsbereich, wie in Figur 1 gezeigt, dann wird vorteilhafterweise angenommen, dass dieses am weitesten vom Umfelderfassungs sensor 2 entfernte identifizierte Objekt O auf der Grenze dieses Erfassungsbereichs liegt, so dass aus der Entfernung zu diesem Objekt O, insbesondere in Verbindung mit einer ermittelten Winkellage dieses Objekts O zum Umfelderfassungssensor 2, und aus der bekannten Form des Erfassungsbereichs der aktuelle Erfassungsbereich des Umfelderfassungssensors 2, insbesondere die Grenze des aktuellen Erfassungsbereichs für alle Winkellagen, d. h. für alle Erfassungsrichtungen, ermittelt werden kann, so dass dadurch die aktuelle Sensorreichweite des Umfelderfassungssensors 2 für alle Erfassungsrichtungen innerhalb des Erfassungsbereichs ermittelt werden kann. Die Sensorreichweite umfasst dabei vorteilhafterweise für jede Wnkellage, d. h. für jede Erfassungsrichtung, eine Reichweitenangabe. Die ermittelte aktuelle Sensorreichweite entspricht somit einem aktuellen Abstand der Grenze des aktuellen Erfassungsbereichs des Umfelderfassungssensors 2 zu diesem Umfelderfassungssensor 2. Diese Variante der Ermittlung der aktuellen Sensorreichweite kann natürlich auch für andere Formen des Erfassungsbereichs verwendet werden, insbesondere auch für den sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor 2 herum erstreckenden Erfassungsbereich.
Derartige, insbesondere stationäre, Objekte O sind beispielsweise Leitplanken, Bauwerke und/oder, wie im hier dargestellten Beispiel, Pfosten, insbesondere Leitpfosten.
Das Verfahren ermöglicht somit auf einfache und schnelle Weise und insbesondere ohne einen zusätzlichen Vorrichtungsaufwand eine, zumindest indirekte, Ermittlung der aktuell vorliegenden Sensorreichweite des Umfelderfassungssensors 2 und somit zumindest einer Sensortechnologie des, insbesondere automatisiert oder autonom fahrenden, Fahrzeugs 1. Der Umfelderfassungssensor 2, insbesondere die Sensortechnologie des jeweiligen Umfelderfassungssensors 2, kann beispielsweise aufgrund atmosphärischer Einflüsse funktionalen Einschränkungen unterliegen. Dies wird mittels des hier beschriebenen Verfahrens erkannt, wodurch es ermöglicht wird, beispielsweise eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer Fahrzeugsysteme umzusetzen. Beispielsweise kann bei einer ermittelten aktuellen Sensorreichweite, welche gegenüber einer Sensorreichweite bei optimalen Erfassungsbedingungen reduziert ist, eine Geschwindigkeit des Fahrzeugs 1 reduziert werden und/oder ein Abstand zu einem vorausfahrenden anderen Verkehrsteilnehmer erhöht werden. Atmosphärische Einflüsse, welche zu einer Reduzierung der Sensorreichweite führen können, sind beispielsweise Regen, Nebel, Schnee und/oder daraus resultierende Artefakte auf einer Fahrbahnoberfläche, beispielsweise Nässe, Raureif und/oder Schneeflocken.
Bisher werden atmosphärische Einflüsse beispielsweise von einem Teleoperationsdienst, insbesondere in Form von Wetternachrichten, mitgeteilt und können dann entsprechend berücksichtigt werden. Solche Wetternachrichten sind jedoch bezüglich einer tatsächlichen Situation in einem jeweiligen lokal stark begrenzten Umfeld des Fahrzeugs 1 mit einer hohen Unsicherheit belastet. Mittels des hier beschriebenen Verfahrens ist diese Vorgehensweise nicht mehr erforderlich, da eine insbesondere durch atmosphärische Einflüsse bedingte eingeschränkte aktuelle Sensorreichweite mittels des Umfelderfassungssensors 2 selbst ermittelt wird.
Vorteilhafterweise kann mittels des Verfahrens zudem auf die jeweils vorliegende atmosphärische Ursache für die möglicherweise vorliegende eingeschränkte aktuelle Sensorreichweite geschlossen werden. Daraus resultierend kann dann beispielsweise eine Wahrscheinlichkeit für eine Änderung einer Reibwertbeschaffenheit der Fahrbahnoberfläche ermittelt werden und daraufhin beispielsweise ein Fahrverhalten des Fahrzeugs 1 entsprechend angepasst werden, beispielsweise durch eine Reduzierung der Geschwindigkeit und/oder durch eine Vergrößerung des Abstands zum vorausfahrenden anderen Verkehrsteilnehmer, so dass die Sicherheit erhöht ist.
Um dies zu ermöglichen, sind in der digitalen Karte zu den Objekten O vorteilhafterweise jeweils zugehörige Objektinformationen gespeichert, wobei die Objektinformationen des jeweiligen Objekts O für den Umfelderfassungssensor 2 und somit auch für gleichartige Umfelderfassungssensoren 2 für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O angeben, ab welcher das Objekt O für den Umfelderfassungssensor 2 erfassbar ist. Die Objektinformationen des am weitesten vom Umfelderfassungssensor 2 entfernten Objekts O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, werden dann aus der digitalen Karte abgerufen und daraus werden die Erfassungsbedingungen ermittelt, deren zugeordnete Entfernung für den Umfelderfassungssensor 2 am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors 2 korreliert. Es werden somit vorteilhafterweise diejenigen Erfassungsbedingungen ermittelt, deren zugeordnete Entfernung des Umfelderfassungssensors 2 zum Objekt O, d. h. zum am weitesten vom Umfelderfassungssensor 2 entfernten Objekt O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, am nächsten zur ermittelten aktuellen Sensorreichweite ist.
Im Beispiel gemäß Figur 1 sind die in der digitalen Karte georeferenziert gespeicherten Objekte O beispielsweise als Pfosten ausgebildet, zum Beispiel als Leitpfosten. Dargestellt ist zudem eine große Sensorreichweite SR1, beispielsweise eine maximale Sensorreichweite bei guten, insbesondere optimalen, atmosphärischen Bedingungen, insbesondere Wetterbedingungen, und eine geringere aktuelle Sensorreichweite SR2 aufgrund atmosphärischer Einflüsse. Daraus wird ersichtlich, dass bei guten, insbesondere optimalen, atmosphärischen Bedingungen, insbesondere Wetterbedingungen, aufgrund der daraus resultierenden großen Sensorreichweite SR1 auch die Objekte O in großer Entfernung zum Fahrzeug 1, d. h. die hier am weitesten vom Fahrzeug 1 entfernt dargestellten Objekte O, mittels des Umfelderfassungssensors 2 erfasst werden können. Bei der geringeren aktuellen Sensorreichweite SR2 können diese Objekte O in großer Entfernung zum Fahrzeug 1, d. h. die hier am weitesten vom Fahrzeug 1 entfernt dargestellten Objekte O, nicht mehr vom Umfelderfassungssensor 2 erfasst werden, sondern nur noch diejenigen Objekte O, welche sich in geringerer Entfernung zum Umfelderfassungssensor 2 befinden und somit innerhalb der geringeren aktuellen Sensorreichweite SR2 liegen. Wie oben beschrieben, sind die Informationen, ab welcher Entfernung zum Fahrzeug 1 ein jeweiliges Objekt O bei jeweiligen Erfassungsbedingungen für den Umfelderfassungssensor 2 erfassbar ist, in der digitalen Karte gespeichert, so dass anhand der ermittelten Sensorreichweite und anhand des jeweils am weitesten vom Umfelderfassungssensor 2 entfernten Objekts O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, auf die jeweiligen Erfassungsbedingungen und somit auf die jeweilige atmosphärische Ursache für die geringere aktuelle Sensorreichweite SR2 geschlossen werden kann.
Vorteilhafterweise geben die Objektinformationen des jeweiligen Objekts O für verschiedene Arten von Umfelderfassungssensoren 2, beispielsweise für Lidarsensoren, Radarsensoren, Ultraschallsensoren und/oder optische Sensoren, insbesondere Bilderfassungssensoren, zum Beispiel Kameras, beispielsweise Stereokameras und/oder Monokameras, insbesondere Videosensoren, für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O an, ab welcher das Objekt O für den Umfelderfassungssensor 2 einer jeweiligen Umfelderfassungs sensorart erfassbar ist. D. h. für jede Art von Umfelderfassungssensoren 2 sind verschiedene Erfassungsbedingungen und zugeordnete Entfernungen zum jeweiligen Objekt O, ab welchen das Objekt O mit der jeweiligen Art von Umfelderfassungssensor 2 bei den jeweiligen Erfassungsbedingungen erfassbar ist, gespeichert. Dadurch kann die beschriebene Vorgehensweise für verschiedenartige Umfelderfassungssensoren 2 des Fahrzeugs 1 durchgeführt werden und somit können beispielsweise mittels mehreren Umfelderfassungssensoren 2 des Fahrzeugs 1 jeweils die Erfassungsbedingungen ermittelt werden.
Dadurch wird es beispielsweise ermöglicht, die ermittelten Erfassungsbedingungen der mehreren Umfelderfassungssensoren 2 des Fahrzeugs 1, d. h. die mittels der mehreren Umfelderfassungssensoren 2 jeweils ermittelten Erfassungsbedingungen, miteinander zu vergleichen. Auf diese Weise kann zum Beispiel sichergestellt werden, dass eine ermittelte Reduzierung der Sensorreichweite nicht auf einer Hardwaredegradation eines jeweiligen Umfelderfassungssensors 2 beruht, sondern tatsächlich auf atmosphärischen Einflüssen, insbesondere dann, wenn mittels mehrerer Umfelderfassungssensoren 2 die gleichen Erfassungsbedingungen ermittelt werden. Alternativ oder zusätzlich können auch anhand mehrerer Objekte O mittels des selben Umfelderfassungssensors 2 ermittelte Erfassungsbedingungen miteinander verglichen werden, um auszuschließen, dass die ermittelte reduzierte Sensorreichweite auf einer Hardwaredegradation des Umfelderfassungssensors 2 beruht.
Die Erfassungsreichweiten der Objekte O von einer jeden Position oder zumindest von mehreren Positionen aus können beispielsweise gelernt werden, indem diese Objekte O mit zusätzlichen jeweils vorliegenden Erfassungsbedingungen, insbesondere in Form von Wetterinformationen, fusioniert und ausgewertet werden. Dies wird vorteilhafterweise auf einem fahrzeugexternen Server, auch als Backend bezeichnet, durchgeführt. D. h. die Objektinformationen des jeweiligen Objekts O, welche für den oder den jeweiligen Umfelderfassungssensor 2 für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O angeben, ab welcher das Objekt O für den Umfelderfassungssensor 2 erfassbar ist, werden ermittelt, indem das jeweilige Objekt O mittels des Umfelderfassungssensors 2 und/oder mittels eines gleichartigen Umfelderfassungssensors 2 erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, insbesondere auf dem fahrzeugexternen Server, fusioniert und ausgewertet werden. Dadurch wird das Lernen dieser Informationen mittels des Umfelderfassungssensors 2 des Fahrzeugs 1, insbesondere mittels gleichartiger Umfelderfassungssensoren 2 mehrerer Fahrzeuge 1, ermöglicht, so dass ein zusätzlicher Aufwand durch ein separates Erstellen dieser Informationen auf andere Weise vermieden wird.
Alternativ zur oben beschriebenen Vorgehensweise oder vorteilhafterweise zusätzlich dazu kann beispielsweise vorgesehen sein, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor 2, d. h. insbesondere mit einem als Lidarsensor ausgebildeten Umfelderfassungssensor 2 oder mit einem als Bilderfassungssensor, insbesondere als Videosensor, beispielsweise als Kamera, zum Beispiel als Stereokameras oder Monokamera, ausgebildeten Umfelderfassungssensor 2 eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors 2 ermittelt wird und anhand, beispielsweise in einer Tabelle, gespeicherter Fahrbahn oberflächenbedingungen und zugeordneter Fahrbahnoberflächenerfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird. Die aktuelle Fahrbahnoberflächenerfassungsreichweite wird bei einem als Lidarsensor ausgebildeten Umfelderfassungssensor 2 insbesondere über eine jeweilige Laufzeit eines rückgestreuten Signals des Lidarsensors ermittelt.
Im dargestellten Beispiel gemäß Figur 1 wird die Fahrbahnoberfläche mittels des als Lidarsensor ausgebildeten Umfelderfassungssensors 2, beispielsweise mittels eines dedizierten Lidarsystem, bei trockener Fahrbahnoberfläche zum Beispiel bis zu einer in Figur 1 dargestellten ersten Linie L1 erfasst. Durch verschlechterte Fahrbahnoberflächenbedingungen, insbesondere durch eine gesteigerte Wasserdecke, reduziert sich eine Rückstreuintensität des Signals des Lidarsensors, weshalb die Fahrbahnoberfläche dann nur noch bis zu einer geringeren Distanz, in Figur 1 dargestellt durch eine zweite Linie L2 in geringerer Entfernung zum Fahrzeug 1, erfassbar ist. Über die Reduktion der Fahrbahnoberflächenreichweite kann über die, beispielsweise in der Tabelle, gespeicherten Fahrbahnoberflächenbedingungen und zugeordneten Fahrbahn oberflächenerfassungsreichweiten auf eine jeweilige Art der Fahrbahnoberflächen änderung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs 1 einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs 1 und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
Alternativ zur Ausbildung des Umfelderfassungssensors 2 als Lidarsensor kann der Umfelderfassungssensor 2, wie bereits erwähnt, auch als ein anderer optischer Sensor ausgebildet sein, insbesondere als Bilderfassungssensor, insbesondere als Videosensor, beispielsweise als Kamera, zum Beispiel als Stereokameras oder Monokamera. Dann wird die Fahrbahnoberfläche mittels dieses optischen Sensors bei trockener Fahrbahnoberfläche zum Beispiel bis zu der in Figur 1 dargestellten ersten Linie L1 erfasst. Durch verschlechterte Fahrbahnoberflächenbedingungen, insbesondere durch eine gesteigerte Wasserdecke, insbesondere in Verbindung mit Sonneneinstrahlung und einer daraus resultierenden Spiegelung, welche diesen optischen Sensor blendet, ist die Fahrbahnoberfläche dann nur noch bis zu einer geringeren Distanz, in Figur 1 dargestellt durch die zweite Linie L2 in geringerer Entfernung zum Fahrzeug 1, erfassbar. Auch hier kann über die Reduktion der Fahrbahnoberflächenreichweite über die, beispielsweise in der Tabelle, gespeicherten Fahrbahnoberflächenbedingungen und zugeordneten Fahrbahnoberflächenerfassungsreichweiten auf eine jeweilige Art der Fahrbahnoberflächenänderung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs 1 einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs 1 und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
Bezugszeichenliste
1 Fahrzeug
2 Umfelderfassungssensor
F Fahrbahn
L1 erste Linie
L2 zweite Linie
O Objekt
SR1 große Sensorreichweite
SR2 geringere aktuelle Sensorreichweite

Claims

Patentansprüche
1. Verfahren zum Betrieb mindestens eines Umfelderfassungssensors (2) eines Fahrzeugs (1), dadurch gekennzeichnet, dass
- das Fahrzeug (1) in einer digitalen Karte lokalisiert wird, wobei in der digitalen Karte Objekte (O) georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte (O), die mit dem Umfelderfassungssensor (2) aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor (2) entfernte Objekt (O) identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors (2) basierend auf einer Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) ermittelt wird, und
- in der digitalen Karte zu den Objekten (O) jeweils zugehörige Objektinformationen gespeichert sind, wobei die Objektinformationen des jeweiligen Objekts (O) mindestens für diesen Umfelderfassungssensor (2) für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des
Umfelderfassungssensors (2) zum Objekt (O) angeben, ab welcher das Objekt (O) für den Umfelderfassungssensor (2) erfassbar ist, wobei die Objektinformationen des am weitesten vom Umfelderfassungssensor (2) entfernten Objekts (O) aus der digitalen Karte abgerufen werden und daraus die Erfassungsbedingungen ermittelt werden, deren zugeordnete Entfernung für den Umfelderfassungssensor (2) am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors (2) korreliert.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) als aktuelle Sensorreichweite des Umfelderfassungssensors (2) ermittelt wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Objektinformationen des jeweiligen Objekts (O), welche mindestens für diesen Umfelderfassungssensor (2) für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors (2) zum Objekt (O) angeben, ab welcher das Objekt (O) für den Umfelderfassungssensor (2) erfassbar ist, ermittelt werden, indem das jeweilige Objekt (O) mittels des Umfelderfassungssensors (2) und/oder mittels eines gleichartigen Umfelderfassungssensors (2) erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, fusioniert und ausgewertet werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ermittelten Erfassungsbedingungen mehrerer Umfelderfassungssensoren (2) des Fahrzeugs (1) und/oder anhand mehrerer Objekte (O) ermittelte Erfassungsbedingungen miteinander verglichen werden.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor (2), insbesondere mit einem als Lidarsensor oder Bilderfassungssensor, insbesondere Videosensor, ausgebildeten Umfeld erfassungssensor (2), eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors (2) ermittelt wird und anhand gespeicherter Fahrbahnoberflächenbedingungen und zugeordneter Fahrbahnoberflächen erfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird.
PCT/EP2020/079050 2019-11-07 2020-10-15 Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs WO2021089292A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/755,673 US12106579B2 (en) 2019-11-07 2020-10-15 Method for operating at least one environment sensor on a vehicle
CN202080076406.1A CN114616155A (zh) 2019-11-07 2020-10-15 用于运行车辆的至少一个环境检测传感器的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019130037.1A DE102019130037B4 (de) 2019-11-07 2019-11-07 Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102019130037.1 2019-11-07

Publications (1)

Publication Number Publication Date
WO2021089292A1 true WO2021089292A1 (de) 2021-05-14

Family

ID=73020168

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/079050 WO2021089292A1 (de) 2019-11-07 2020-10-15 Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs

Country Status (4)

Country Link
US (1) US12106579B2 (de)
CN (1) CN114616155A (de)
DE (1) DE102019130037B4 (de)
WO (1) WO2021089292A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021004646B3 (de) * 2021-09-14 2023-03-23 Mercedes-Benz Group AG Verfahren zum Betreiben eines Fahrzeugs in einem automatisierten Fahrbetrieb

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006007788A1 (de) * 2006-02-20 2007-08-30 Siemens Ag Verfahren zur rechnergestützten Überwachung des Betriebs eines einen vorgegebenen Streckenverlauf fahrenden Fahrzeugs, insbesondere eines spurgebundenen Schienenfahrzeugs
DE102013226631A1 (de) * 2013-12-19 2015-06-25 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102014212216A1 (de) * 2014-06-17 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
DE102018003784A1 (de) * 2018-05-09 2018-11-29 Daimler Ag Verfahren zur Bestimmung einer Reichweite eines Umgebungssensors für ein Fahrzeug

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10679368B2 (en) * 2017-12-21 2020-06-09 Intel IP Corporation Methods and apparatus to reduce depth map size in collision avoidance systems
DE102018107827A1 (de) * 2018-04-03 2019-10-10 Valeo Schalter Und Sensoren Gmbh Ultraschallsensor mit Powerline-Kommunikation
DE102018127059B4 (de) 2018-10-30 2024-10-10 Mercedes-Benz Group AG Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
WO2020219694A1 (en) * 2019-04-23 2020-10-29 Apple Inc. Systems and methods for resolving hidden features in a field of view

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006007788A1 (de) * 2006-02-20 2007-08-30 Siemens Ag Verfahren zur rechnergestützten Überwachung des Betriebs eines einen vorgegebenen Streckenverlauf fahrenden Fahrzeugs, insbesondere eines spurgebundenen Schienenfahrzeugs
DE102013226631A1 (de) * 2013-12-19 2015-06-25 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102014212216A1 (de) * 2014-06-17 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
DE102018003784A1 (de) * 2018-05-09 2018-11-29 Daimler Ag Verfahren zur Bestimmung einer Reichweite eines Umgebungssensors für ein Fahrzeug

Also Published As

Publication number Publication date
DE102019130037B4 (de) 2022-09-29
US12106579B2 (en) 2024-10-01
US20220375231A1 (en) 2022-11-24
CN114616155A (zh) 2022-06-10
DE102019130037A1 (de) 2021-05-12

Similar Documents

Publication Publication Date Title
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102017128502A1 (de) Fahrzeugkollisionsvermeidung
DE102011088130B4 (de) Verfahren und Vorrichtung zur Erkennung einer Bremssituation
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE102016003438A1 (de) Fahrassistenzsystem eines Fahrzeugs und Verfahren zur Steuerung desselben
DE102017203838A1 (de) Verfahren und System zur Umfelderfassung
DE102010049091A1 (de) Verfahren zum Betreiben zumindest eines Sensors eines Fahrzeugs und Fahrzeug mit zumindest einem Sensor
DE102015213701A1 (de) Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten
DE102016000201A1 (de) Steuerungs-System und Verfahren zum Ermitteln einer Fahrspurbelegung durch Kraftfahrzeuge
WO2015032709A1 (de) Verfahren und verkehrsüberwachungseinrichtung zum feststellen einer falschfahrt eines kraftfahrzeugs
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015117903A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016010373B4 (de) Verfahren und Vorrichtung zur Erkennung des Öffnungszustands eines Garagentores
DE102018009434A1 (de) Steuerungssystem und -Verfahren für ein Kraftfahrzeug zur Verarbeitung von mehrfach reflektierten Signalen
WO2020020654A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
DE102012024959A1 (de) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
WO2021089292A1 (de) Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs
WO2020052840A1 (de) Verfahren und vorrichtung zum betrieb eines zumindest teilweise automatisiert betriebenen ersten fahrzeugs
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE102019009332B4 (de) Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102017100669A1 (de) Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung einer Region von Interesse in Abhängigkeit von einem Anhänger, Recheneinrichtung, Kamerasystem sowie Kraftfahrzeug
DE102020001532A1 (de) Verfahren zum Reduzieren von Fehldetektionen von Objekten in der Umgebung eines Fahrzeugs, Vorrichtung zum Durchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung
DE102019007205A1 (de) Verfahren zur Detektion eines Fahrzeuganhängers mittels Lidar

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20797402

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20797402

Country of ref document: EP

Kind code of ref document: A1