WO2021089292A1 - Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs - Google Patents
Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs Download PDFInfo
- Publication number
- WO2021089292A1 WO2021089292A1 PCT/EP2020/079050 EP2020079050W WO2021089292A1 WO 2021089292 A1 WO2021089292 A1 WO 2021089292A1 EP 2020079050 W EP2020079050 W EP 2020079050W WO 2021089292 A1 WO2021089292 A1 WO 2021089292A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- detection sensor
- sensor
- surroundings
- determined
- detection
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000001514 detection method Methods 0.000 claims description 245
- 230000003287 optical effect Effects 0.000 claims description 15
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 241000533950 Leucojum Species 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52004—Means for monitoring or calibrating
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/40—High definition maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2756/00—Output or target parameters relating to data
- B60W2756/10—Involving external transmission of data to or from the vehicle
Definitions
- the invention relates to a method for operating at least one environment detection sensor of a vehicle.
- DE 102018 127059.3 describes a method for checking at least one environment detection sensor of a vehicle.
- the vehicle is localized in a digital map and features of stored stationary objects in the surroundings of the vehicle are identified in the digital map, which are expected to be recognized by the surroundings detection sensor.
- the surroundings of the vehicle are recorded with the surroundings detection sensor. It is concluded that the surroundings detection sensor has degraded if the features that are expected to be recognized are not recognized by the surroundings detection sensor or if features actually recognized by the surroundings detection sensor differ greatly from the features that are expected to be recognized.
- the invention is based on the object of specifying a method, which is improved over the prior art, for operating at least one environment detection sensor of a vehicle.
- the object is achieved according to the invention by a method for operating at least one environment detection sensor of a vehicle having the features of claim 1.
- a method according to the invention for operating at least one surroundings detection sensor of a vehicle in particular a road vehicle
- the vehicle is localized in a digital map
- the object furthest away from the surroundings detection sensor is identified and a current sensor range of the surroundings detection sensor is determined based on a distance of the surroundings detection sensor to this object.
- the surroundings detection sensor is, for example, a lidar sensor, radar sensor, ultrasonic sensor and / or an optical sensor.
- the optical sensor is in particular an image acquisition sensor, in particular a video sensor, for example a camera, for example a stereo camera or mono camera.
- the lidar sensor can also be viewed as an optical sensor.
- the current sensor range of the surroundings detection sensor can be determined, at least indirectly.
- An actual sensor range can be greater, but not smaller, than the current sensor range determined by means of the method according to the invention, because this current sensor range correlates with the distance to the most distant object that is still detected by the surroundings detection sensor, in particular it corresponds to this distance. It is possible that the actual sensor range extends beyond this if there is no further object within the actual sensor range that could be detected by the surroundings detection sensor.
- a reduced current sensor range that is present due to atmospheric influences and the functional restrictions resulting therefrom can be determined, in particular in a fast manner and without additional sensors and other services.
- atmospheric influences include, for example, rain, fog, snow and / or artefacts resulting therefrom on a road surface, for example moisture, hoar frost and / or snowflakes.
- This makes it possible, for example, to initiate a corresponding system reaction of at least one vehicle system using this environment detection sensor or a plurality of such vehicle systems of the vehicle, whereby improved safety is achieved.
- the method is suitable, for example, for automated and / or autonomous vehicles that are used to carry out a ferry operation use one or more such surroundings detection sensors to detect an area around the vehicle.
- the distance of the surroundings detection sensor to this identified object furthest away from the surroundings detection sensor is determined as the current sensor range of the surroundings detection sensor.
- the surroundings detection sensor has a differently shaped detection area, for example a detection area designed as an ellipse or ellipsoid or at least as a section thereof, then it is advantageously assumed that this identified object which is furthest away from the surroundings detection sensor lies on the border of this detection area, so that from a distance to this object, in particular in connection with a determined angular position of this object to the surroundings detection sensor, and from the known shape of the detection area the current detection area of the surroundings detection sensor, in particular the limit of the current detection area for all angular positions, d. H. for all detection directions, so that the current sensor range of the surroundings detection sensor can thereby be determined for all detection directions within the detection area.
- a detection area designed as an ellipse or ellipsoid or at least as a section thereof
- the sensor range advantageously includes for each angular position, i. H. for each detection direction, an indication of the range.
- the current sensor range determined thus corresponds to a current distance between the limit of the current detection area of the surroundings detection sensor and this surroundings detection sensor.
- This variant of the determination of the current sensor range can of course also be used for other forms of the detection area, in particular also for the detection area that extends circularly or spherically or at least in the form of a segment of a circle or a segment of a sphere around the environment detection sensor.
- object information associated with the objects is stored in the digital map, the object information of the respective object specifying at least for this environment detection sensor for different detection conditions a respective distance of the environment detection sensor from the object the object can be detected by the surroundings detection sensor, the object information of the object furthest away from the surroundings detection sensor, which is currently being detected with the surroundings detection sensor, is retrieved from the digital map and the detection conditions are determined therefrom, their assigned distance best with the current sensor range determined of the surroundings detection sensor is correlated, ie in particular has a slightest deviation from the determined current sensor range of the surroundings detection sensor.
- the reason for this current sensor range can also be determined, in particular if the current sensor range is limited compared to a sensor range under optimal detection conditions.
- the atmospheric influences which are the cause of the respective, in particular restricted, current sensor range can thereby be determined. From this, for example, a probability of a change in the properties of the coefficient of friction of the road surface can be determined, for example due to moisture, snow and / or ice.
- a corresponding system reaction of the at least one vehicle system or the multiple vehicle systems can then take place, for example a reduction in the speed of the vehicle and / or an increase in a safety distance from another road user traveling ahead.
- the object information of the respective object for different types of environment detection sensors for example for lidar sensors, radar sensors, ultrasound sensors and / or optical sensors, in particular image sensors, in particular cameras, for example stereo cameras and / or mono cameras, for different detection conditions, a respective distance of the environment detection sensor from the object from which the object can be detected by the environment detection sensor of a respective type of environment detection sensor.
- environment detection sensors for example for lidar sensors, radar sensors, ultrasound sensors and / or optical sensors, in particular image sensors, in particular cameras, for example stereo cameras and / or mono cameras, for different detection conditions, a respective distance of the environment detection sensor from the object from which the object can be detected by the environment detection sensor of a respective type of environment detection sensor.
- the object information of the respective object which at least for this environment detection sensor for different detection conditions indicates the respective distance of the environment detection sensor to the object from which the object can be detected by the environment detection sensor
- the respective object is determined by the respective object using the environment detection sensor and / or is detected by means of a similar environment detection sensor and merged and evaluated with the respective existing detection conditions, in particular weather conditions, in particular on a server external to the vehicle.
- the determined detection conditions of a plurality of surroundings detection sensors of the vehicle and / or detection conditions determined on the basis of a plurality of objects are compared with one another. This makes it possible, for example, to ensure that a determined reduction in the sensor range is not based on a hardware degradation of a respective environment detection sensor, but actually on atmospheric influences, in particular when the same detection conditions are determined by means of several environment detection sensors.
- a surrounding area detection sensor designed as an optical sensor i. H.
- a surrounding area detection sensor designed as a lidar sensor or image detection sensor a current road surface detection range of this environment detection sensor is determined and a current road surface condition is determined based on, for example, in a table, stored road surface conditions and assigned road surface detection ranges.
- This can thus be part of the above-described method for operating at least one environment detection sensor of a vehicle or, for example, can also be carried out as an alternative thereto, i.e. H.
- the optical sensor in particular an image acquisition sensor, is, for example, a camera, for example a stereo camera or mono camera, in particular a video sensor.
- the optical sensor can also be a lidar sensor, for example, as already mentioned above.
- the road surface detection range is reduced in comparison to a dry road surface, since the water cover on the road surface causes, for example, a backscatter intensity of a lidar signal of the as Lidar sensor trained environment detection sensor is reduced.
- the detection range of the road surface can be reduced in comparison to a dry road surface in the case of water on the road surface, i.e.
- FIG. 1 schematically shows a vehicle with at least one surroundings detection sensor on a roadway.
- FIG. 1 shows schematically an exemplary situation, in particular a traffic situation, with a vehicle 1, in particular a road vehicle, which has at least one surroundings detection sensor 2, on a roadway F.
- the surroundings detection sensor 2 is, for example, a lidar sensor, radar sensor, ultrasound sensor and / or an optical sensor , in particular an image acquisition sensor, for example a camera, for example a stereo camera or mono camera, in particular a video sensor.
- the lidar sensor can also be viewed as an optical sensor.
- the vehicle 1 advantageously has a plurality of different types of surroundings detection sensors 2.
- An environment of the vehicle 1 is recorded by means of the at least one or the respective environment detection sensor 2 of the vehicle 1. This is used, for example, by a Determination of the position of the vehicle 1 on the basis of, in particular stationary,
- the vehicle 1 is thus, for example, an automated or autonomous vehicle 1.
- the vehicle 1 is localized in a digital map, with georeferenced objects O being stored in the digital map, in particular stationary, objects which can be detected by means of the surroundings detection sensor 2 or should be detectable. From a set of these objects O georeferenced stored in the digital map, which are currently detected with the surroundings detection sensor 2, the object O furthest away from the surroundings detection sensor 2 is identified and a current sensor range of the surroundings detection sensor 2 is determined based on a distance from the surroundings detection sensor 2 to it Object O determined.
- the distance of the surroundings detection sensor 2 to this object O is determined as the current sensor range of the surroundings detection sensor 2.
- the surroundings detection sensor has a differently shaped detection area, for example a detection area designed as an ellipse or ellipsoid or at least as a section thereof, as shown in FIG
- This detection area lies so that from the distance to this object O, in particular in connection with a determined angular position of this object O to the surroundings detection sensor 2, and from the known shape of the detection area, the current detection area of the surroundings detection sensor 2, in particular the limit of the current detection area can be determined for all angular positions, ie for all detection directions, so that the current sensor range of the surroundings detection sensor 2 can thereby be determined for all detection directions within the detection area.
- the sensor range advantageously includes a range specification for each angular position, ie for each detection direction.
- the determined current sensor range thus corresponds to a current distance between the limit of the current detection area of the surrounding area detection sensor 2 and this surrounding area detection sensor 2.
- This variant of determining the current sensor range can of course also be used for other forms of the detection area, in particular also for those that are circular or spherical or at least circular segment-shaped or spherical segment-shaped around the environment detection sensor 2 around extending detection area.
- Such, in particular stationary, objects O are, for example, crash barriers, structures and / or, as in the example shown here, posts, in particular guide posts.
- the method thus enables, in a simple and fast manner, and in particular without additional device expenditure, an, at least indirect, determination of the currently present sensor range of the surroundings detection sensor 2 and thus at least one sensor technology of the, in particular automated or autonomously driving, vehicle 1.
- the surroundings detection sensor 2, in particular the Sensor technology of the respective surroundings detection sensor 2 can be subject to functional restrictions, for example due to atmospheric influences. This is recognized by means of the method described here, which makes it possible, for example, to implement a corresponding system reaction of at least one vehicle system or several vehicle systems.
- a determined current sensor range which is reduced compared to a sensor range under optimal detection conditions, a speed of the vehicle 1 can be reduced and / or a distance from another road user traveling ahead can be increased.
- Atmospheric influences that can lead to a reduction in the sensor range are, for example, rain, fog, snow and / or artefacts resulting therefrom on a road surface, for example moisture, hoar frost and / or snowflakes.
- the method can also be used to infer the respective atmospheric cause for the possibly present restricted current sensor range.
- a probability of a change in a coefficient of friction properties of the road surface can be determined and thereupon, for example, a driving behavior of vehicle 1 can be adapted accordingly, for example by reducing the speed and / or by increasing the distance to the other road user ahead, so that the Security is increased.
- object information belonging to the objects O is advantageously stored in the digital map, the object information of the respective object O for the environment detection sensor 2 and thus also for similar environment detection sensors 2 for different detection conditions a respective distance of the environment detection sensor 2 from the object O indicate from which the object O can be detected by the surroundings detection sensor 2.
- the object information of the object O furthest away from the environment detection sensor 2, which is currently being detected with the environment detection sensor 2 is then retrieved from the digital map and the detection conditions are determined therefrom, their assigned distance for the environment detection sensor 2 best with the determined current sensor range of the Environment detection sensor 2 correlated.
- those detection conditions are advantageously determined whose assigned distance of the surroundings detection sensor 2 to the object O, i. H. to the object O furthest away from the surroundings detection sensor 2, which is currently detected with the surroundings detection sensor 2, is closest to the current sensor range that has been determined.
- the objects O stored georeferenced in the digital map are designed, for example, as posts, for example as delineator posts.
- a large sensor range SR1 is also shown, for example a maximum sensor range under good, in particular optimal, atmospheric conditions, in particular weather conditions, and a smaller current sensor range SR2 due to atmospheric influences. It can be seen from this that given good, in particular optimal, atmospheric conditions, in particular Weather conditions, due to the resulting large sensor range SR1, also the objects O at a great distance from the vehicle 1, ie the objects O shown here furthest away from the vehicle 1, can be detected by means of the surroundings detection sensor 2.
- the information about the distance from the vehicle 1 from which a respective object O can be detected for the surroundings detection sensor 2 under respective detection conditions is stored in the digital map, so that based on the determined sensor range and based on the furthest away from the surroundings detection sensor 2 Object O, which is currently detected with the surroundings detection sensor 2, can be inferred about the respective detection conditions and thus about the respective atmospheric cause for the lower current sensor range SR2.
- the object information of the respective object O advantageously gives a respective one for different types of surroundings detection sensors 2, for example for lidar sensors, radar sensors, ultrasonic sensors and / or optical sensors, in particular image detection sensors, for example cameras, for example stereo cameras and / or mono cameras, in particular video sensors, for different detection conditions Distance of the environment detection sensor 2 to the object O, from which the object O can be detected for the environment detection sensor 2 of a respective environment detection sensor type.
- For each type of surroundings detection sensors 2 different detection conditions and assigned distances to the respective object O, from which the object O can be detected with the respective type of surroundings detection sensor 2 under the respective detection conditions, are stored.
- the described procedure can be carried out for different types of surroundings detection sensors 2 of vehicle 1 and thus the detection conditions can be determined in each case by means of several surroundings detection sensors 2 of vehicle 1.
- the detection ranges of the objects O from each position or at least from several positions can be learned, for example, by merging and evaluating these objects O with additional detection conditions that are present in each case, in particular in the form of weather information.
- a server external to the vehicle also referred to as a backend.
- the object information of the respective object O which specifies the respective distance of the surroundings detection sensor 2 to the object O for the respective surroundings detection sensor 2 for different detection conditions, from which the object O can be detected by the surroundings detection sensor 2
- This enables this information to be learned by means of the environment detection sensor 2 of the vehicle 1, in particular by means of similar environment detection sensors 2 of several vehicles 1, so that additional effort by creating this information separately in a different way is avoided.
- a surroundings detection sensor 2 designed as an optical sensor ie in particular with a surroundings detection sensor 2 designed as a lidar sensor or with an image detection sensor, in particular as a video sensor, for example as a camera, for example as Stereo cameras or mono camera
- formed environment detection sensor 2 a current road surface detection range of this environment detection sensor 2 is determined and based on, for example, in a table, stored road surface conditions and assigned road surface detection ranges, a current road surface condition is determined.
- the actual Road surface detection range is determined in the case of a surroundings detection sensor 2 designed as a lidar sensor, in particular via a respective transit time of a backscattered signal from the lidar sensor.
- the road surface is detected by means of the surroundings detection sensor 2 designed as a lidar sensor, for example by means of a dedicated lidar system, when the road surface is dry, for example up to a first line L1 shown in FIG.
- the road surface conditions and assigned road surface detection ranges stored in the table for example, can be used to deduce a respective type of road surface change.
- This also makes it possible, for example, to initiate a corresponding system reaction of at least one vehicle system or several such vehicle systems of the vehicle 1, whereby improved safety is achieved, for example by adapting the speed of the vehicle 1 and / or the distance to another road user driving ahead to the determined road condition.
- the environment detection sensor 2 can also be configured as another optical sensor, in particular as an image detection sensor, in particular as a video sensor, for example as a camera, for example as a stereo camera or mono camera.
- the road surface is then detected by means of this optical sensor when the road surface is dry, for example up to the first line L1 shown in FIG. 1. Due to worsened road surface conditions, in particular due to an increased water cover, in particular in connection with solar radiation and a resulting reflection that blinds this optical sensor, the road surface is then only down to a smaller distance, shown in Figure 1 by the second line L2 at a lower level Distance to vehicle 1, detectable.
- the reduction of the road surface range via the road surface conditions and assigned road surface detection ranges stored in the table can be used to infer a respective type of road surface change. Because of that, too, it becomes For example, enables a corresponding system reaction of at least one vehicle system or several such vehicle systems of the vehicle 1 to be initiated, whereby improved safety is achieved, for example by adapting the speed of the vehicle 1 and / or the distance to another road user ahead to the determined roadway condition.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Erfindungsgemäß wird das Fahrzeug (1) in einer digitalen Karte lokalisiert, wobei in der digitalen Karte Objekte (O) georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte (O), die mit dem Umfelderfassungssensor (2) aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor (2) entfernte Objekt (O) identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors (2) basierend auf einer Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) ermittelt wird.
Description
Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
Die Erfindung betrifft ein Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs.
Aus dem Stand der Technik sind Verfahren zum Betrieb von Umfelderfassungssensoren von Fahrzeugen allgemein bekannt.
In der DE 102018 127059.3 wird ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs beschrieben. In diesem Verfahren wird das Fahrzeug in einer digitalen Karte lokalisiert und es werden in der digitalen Karte Merkmale von hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs anzugeben.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs mit den Merkmalen des Anspruchs 1.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
In einem erfindungsgemäßen Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs, insbesondere eines Straßenfahrzeugs, wird das Fahrzeug in einer digitalen Karte lokalisiert, wobei in der digitalen Karte Objekte, insbesondere stationäre Objekte, georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte, die mit dem Umfelderfassungssensor aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor entfernte Objekt identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors basierend auf einer Entfernung des Umfelderfassungssensors zu diesem Objekt ermittelt wird.
Der Umfelderfassungssensor ist beispielsweise ein Lidarsensor, Radarsensor, Ultraschallsensor und/oder ein optischer Sensor. Der optische Sensor ist insbesondere ein Bilderfassungssensor, insbesondere ein Videosensor, zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera. Auch der Lidarsensor kann als ein optischer Sensor angesehen werden.
Mittels des erfindungsgemäßen Verfahrens kann, zumindest auf indirekte Weise, die aktuelle Sensorreichweite des Umfelderfassungssensors ermittelt werden. Eine tatsächliche Sensorreichweite kann dabei größer sein, aber nicht kleiner sein als die mittels des erfindungsgemäßen Verfahrens ermittelte aktuelle Sensorreichweite, denn diese aktuelle Sensorreichweite korreliert mit der Entfernung zum am weitesten entfernten Objekt, welches mittels des Umfelderfassungssensors noch erfasst wird, insbesondere entspricht sie dieser Entfernung. Möglicherweise reicht die tatsächliche Sensorreichweite noch darüber hinaus, wenn sich innerhalb der tatsächlichen Sensorreichweite kein weiter entferntes Objekt befindet, welches vom Umfelderfassungssensor erfasst werden könnte.
Mittels des Verfahrens kann beispielsweise eine aufgrund atmosphärischer Einflüsse und daraus resultierenden funktionalen Einschränkungen vorliegende verringerte aktuelle Sensorreichweite ermittelt werden, insbesondere auf schnelle Weise und ohne zusätzliche Sensoren und andere Dienste. Zu derartigen atmosphärischen Einflüssen zählen beispielsweise Regen, Nebel, Schnee und/oder daraus resultierende Artefakte auf einer Fahrbahnoberfläche, beispielsweise Nässe, Raureif und/oder Schneeflocken. Dadurch wird es beispielsweise ermöglicht, eine entsprechende System reaktion mindestens eines diesen Umfelderfassungssensor verwendenden Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird. Das Verfahren eignet sich beispielsweise für automatisiert und/oder autonom fahrende Fahrzeuge, welche zur Durchführung eines Fährbetriebs
einen oder mehrere solche Umfelderfassungssensoren zur Erfassung eines Umfelds des Fahrzeugs verwenden.
Beispielsweise wird die Entfernung des Umfelderfassungssensors zu diesem am weitesten vom Umfelderfassungssensor entfernten identifizierten Objekt als aktuelle Sensorreichweite des Umfelderfassungssensors ermittelt. Dies gilt insbesondere für einen sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor herum erstreckenden Erfassungsbereich, so dass eine Grenze dieses Erfassungsbereichs, d. h. die aktuelle Sensorreichtweite des Umfelderfassungssensors, für alle Erfassungsrichtungen innerhalb dieses Erfassungsbereichs gleich groß ist.
Insbesondere wenn der Umfelderfassungssensor einen anders ausgeformten Erfassungsbereich aufweist, beispielsweise einen als Elipse oder Elipsoid oder zumindest als Abschnitt davon ausgebildeten Erfassungsbereich, dann wird vorteilhafterweise angenommen, dass dieses am weitesten vom Umfelderfassungssensor entfernte identifizierte Objekt auf der Grenze dieses Erfassungsbereichs liegt, so dass aus der Entfernung zu diesem Objekt, insbesondere in Verbindung mit einer ermittelten Winkellage dieses Objekts zum Umfelderfassungssensor, und aus der bekannten Form des Erfassungsbereichs der aktuelle Erfassungsbereich des Umfelderfassungssensors, insbesondere die Grenze des aktuellen Erfassungsbereichs für alle Wnkellagen, d. h. für alle Erfassungsrichtungen, ermittelt werden kann, so dass dadurch die aktuelle Sensorreichweite des Umfelderfassungssensors für alle Erfassungsrichtungen innerhalb des Erfassungsbereichs ermittelt werden kann. Die Sensorreichweite umfasst dabei vorteilhafterweise für jede Winkellage, d. h. für jede Erfassungsrichtung, eine Reichweitenangabe. Die ermittelte aktuelle Sensorreichweite entspricht somit einem aktuellen Abstand der Grenze des aktuellen Erfassungsbereichs des Umfelderfassungssensors zu diesem Umfelderfassungssensor. Diese Variante der Ermittlung der aktuellen Sensorreichweite kann natürlich auch für andere Formen des Erfassungsbereichs verwendet werden, insbesondere auch für den sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor herum erstreckenden Erfassungsbereich.
Erfindungsgemäß sind in der digitalen Karte zu den Objekten jeweils zugehörige Objektinformationen gespeichert, wobei die Objektinformationen des jeweiligen Objekts mindestens für diesen Umfelderfassungssensor für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors zum Objekt angeben, ab welcher
das Objekt für den Umfelderfassungssensor erfassbar ist, wobei die Objektinformationen des am weitesten vom Umfelderfassungssensor entfernten Objekts, welches mit dem Umfelderfassungssensor aktuell erfasst wird, aus der digitalen Karte abgerufen werden und daraus die Erfassungsbedingungen ermittelt werden, deren zugeordnete Entfernung am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors korreliert, d. h. insbesondere eine geringste Abweichung von der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors aufweist. Dadurch kann nicht nur die aktuelle Sensorreichweite ermittelt werden, sondern es kann des Weiteren auch der Grund für diese aktuelle Sensorreichweite ermittelt werden, insbesondere wenn die aktuelle Sensorreichweite gegenüber einer Sensorreichweite bei optimalen Erfassungsbedingungen eingeschränkt ist. Insbesondere können dadurch die atmosphärischen Einflüsse ermittelt werden, welche die Ursache für die jeweilige, insbesondere eingeschränkte, aktuelle Sensorreichweite sind. Daraus kann beispielsweise eine Wahrscheinlichkeit für eine Änderung einer Reibwertbeschaffenheit der Fahrbahnoberfläche ermittelt werden, beispielsweise aufgrund von Nässe, Schnee und/oder Eis. Daraus resultierend kann dann eine entsprechende Systemreaktion des mindestens einen Fahrzeugsystems oder der mehreren Fahrzeugsysteme erfolgen, beispielsweise eine Reduzierung einer Geschwindigkeit des Fahrzeugs und/oder eine Vergrößerung eines Sicherheitsabstandes zu einem vorausfahrenden weiteren Verkehrsteilnehmer.
Vorteilhafterweise geben die Objektinformationen des jeweiligen Objekts für verschiedene Arten von Umfelderfassungssensoren, beispielsweise für Lidarsensoren, Radarsensoren, Ultraschallsensoren und/oder optische Sensoren, insbesondere Bilderfassungssensoren, insbesondere Kameras, beispielsweise Stereokameras und/oder Monokameras, für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungs sensors zum Objekt an, ab welcher das Objekt für den Umfelderfassungssensor einer jeweiligen Umfelderfassungssensorart erfassbar ist. Dadurch kann die beschriebene Vorgehensweise für verschiedenartige Umfelderfassungssensoren des Fahrzeugs durchgeführt werden und somit beispielsweise mittels mehreren Umfelderfassungs sensoren des Fahrzeugs jeweils die Erfassungsbedingungen ermittelt werden.
In einer Ausführungsform des Verfahrens werden die Objektinformationen des jeweiligen Objekts, welche mindestens für diesen Umfelderfassungssensor für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors zum Objekt angeben, ab welcher das Objekt für den Umfelderfassungssensor erfassbar ist, ermittelt, indem das jeweilige Objekt mittels des Umfelderfassungssensors und/oder
mittels eines gleichartigen Umfelderfassungssensors erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, insbesondere auf einem fahrzeugexternen Server, fusioniert und ausgewertet werden. Dadurch wird ein Lernen dieser Informationen mittels des Umfelderfassungssensors des Fahrzeugs, insbesondere mittels gleichartiger Umfelderfassungssensoren mehrerer Fahrzeuge, ermöglicht, so dass ein zusätzlicher Aufwand durch ein separates Erstellen dieser Informationen auf andere Weise vermieden wird.
In einer Ausführungsform des Verfahrens werden die ermittelten Erfassungsbedingungen mehrerer Umfelderfassungssensoren des Fahrzeugs und/oder anhand mehrerer Objekte ermittelte Erfassungsbedingungen miteinander verglichen. Dadurch kann beispielsweise sichergestellt werden, dass eine ermittelte Reduzierung der Sensorreichweite nicht auf einer Hardwaredegradation eines jeweiligen Umfelderfassungssensors beruht, sondern tatsächlich auf atmosphärischen Einflüssen, insbesondere dann, wenn mittels mehrerer Umfelderfassungssensoren die gleichen Erfassungsbedingungen ermittelt werden.
Alternativ zur oben beschriebenen erfindungsgemäßen Lösung und/oder zu einer oder mehreren der oben genannten Ausführungsformen oder zusätzlich dazu kann beispielsweise vorgesehen sein, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor, d. h. beispielsweise mit einem als Lidarsensor oder Bilderfassungssensor ausgebildeten Umfelderfassungssensor, eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors ermittelt wird und anhand, beispielsweise in einer Tabelle, gespeicherter Fahrbahnoberflächen bedingungen und zugeordneter Fahrbahnoberflächenerfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird. Dies kann somit ein Bestandteil des oben beschriebenen Verfahrens zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs sein oder beispielsweise auch alternativ dazu durchgeführt werden, d. h. in einem alternativen Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs. Der optische Sensor, insbesondere Bilderfassungssensor, ist zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera, insbesondere ein Videosensor. Alternativ kann der optische Sensor beispielsweise auch ein Lidarsensor sein, wie oben bereits erwähnt.
Bei Wasser auf der Fahrbahnoberfläche, d. h. bei einer Wasserdecke auf der Fahrbahnoberfläche, reduziert sich die Fahrbahnoberflächenerfassungsreichweite im Vergleich zu einer trockenen Fahrbahnoberfläche, da durch die Wasserdecke auf der Fahrbahnoberfläche beispielsweise eine Rückstreuintensität eines Lidarsignals des als
Lidarsensor ausgebildeten Umfelderfassungssensors reduziert wird. Auch bei einem als Bilderfassungssensor ausgebildeten Umfelderfassungssensor kann sich bei Wasser auf der Fahrbahnoberfläche, d. h. bei einer Wasserdecke, insbesondere einem Wasserfilm, auf der Fahrbahnoberfläche, insbesondere in Verbindung mit einer Sonneneinstrahlung, die Fahrbahnoberflächenerfassungsreichweite im Vergleich zu einer trockenen Fahrbahnoberfläche reduzieren, da die Wasserdecke auf der Fahrbahnoberfläche, insbesondere in Verbindung mit der Sonneneinstrahlung, zu einer Spiegelung führen kann, welche den Bilderfassungssensor, insbesondere Videosensor, blendet.
Es kann somit auf eine jeweils vorliegende Art einer Änderung der Fahrbahnoberflächen bedingung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
Dabei zeigt:
Fig. 1 schematisch ein Fahrzeug mit mindestens einem Umfelderfassungssensor auf einer Fahrbahn.
Figur 1 zeigt schematisch eine beispielhafte Situation, insbesondere Verkehrssituation, mit einem Fahrzeug 1, insbesondere einem Straßenfahrzeug, welches mindestens einen Umfelderfassungssensor 2 aufweist, auf einer Fahrbahn F. Der Umfelderfassungs sensor 2 ist beispielsweise ein Lidarsensor, Radarsensor, Ultraschallsensor und/oder ein optischer Sensor, insbesondere ein Bilderfassungssensor, zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera, insbesondere ein Videosensor. Auch der Lidarsensor kann als ein optischer Sensor angesehen werden. Das Fahrzeug 1 weist vorteilhafterweise eine Mehrzahl verschiedenartiger Umfelderfassungssensoren 2 auf.
Mittels des mindestens einen oder des jeweiligen Umfelderfassungssensors 2 des Fahrzeugs 1 wird ein Umfeld des Fahrzeugs 1 erfasst. Dies dient beispielsweise einer
Positionsbestimmung des Fahrzeugs 1 anhand von, insbesondere stationären,
Objekten O im Umfeld des Fahrzeugs 1 und/oder einem Betrieb mindestens eines Fahrzeugsystems oder mehrerer Fahrzeugsysteme, insbesondere von Fahrzeug systemen, welche einem Fahrzeugführer bei einer Durchführung eines Fährbetriebs des Fahrzeugs 1 assistieren und/oder von Fahrzeugsystemen, welche einen automatisierten, insbesondere teil- oder vollautomatisierten, oder autonomen Fährbetrieb des Fahrzeugs 1 durchführen. Das Fahrzeug 1 ist somit beispielsweise ein automatisiertes oder autonomes Fahrzeug 1.
In einem anhand der Figur 1 im Folgenden näher beschriebenen Verfahren zum Betrieb eines solchen Umfelderfassungssensors 2 wird das Fahrzeug 1 in einer digitalen Karte lokalisiert, wobei in der digitalen Karte, insbesondere stationäre, Objekte O georeferenziert gespeichert sind, welche mittels des Umfelderfassungssensors 2 erfassbar sind oder erfassbar sein sollten. Aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte O, die mit dem Umfelderfassungssensor 2 aktuell erfasst werden, wird das am weitesten vom Umfelderfassungssensor 2 entfernte Objekt O identifiziert und eine aktuelle Sensorreichweite des Umfelderfassungssensors 2 wird basierend auf einer Entfernung des Umfelderfassungssensors 2 zu diesem Objekt O ermittelt.
Beispielsweise wird die Entfernung des Umfelderfassungssensors 2 zu diesem Objekt O als aktuelle Sensorreichweite des Umfelderfassungssensors 2 ermittelt. Dies gilt insbesondere für einen sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor 2 herum erstreckenden Erfassungsbereich, so dass eine Grenze dieses Erfassungsbereichs, d. h. die aktuelle Sensorreichweite des Umfelderfassungssensors 2, für alle Erfassungsrichtungen innerhalb dieses Erfassungsbereichs gleich groß ist.
Insbesondere wenn der Umfelderfassungssensor einen anders ausgeformten Erfassungsbereich aufweist, beispielsweise einen als Elipse oder Elipsoid oder zumindest als Abschnitt davon ausgebildeten Erfassungsbereich, wie in Figur 1 gezeigt, dann wird vorteilhafterweise angenommen, dass dieses am weitesten vom Umfelderfassungs sensor 2 entfernte identifizierte Objekt O auf der Grenze dieses Erfassungsbereichs liegt, so dass aus der Entfernung zu diesem Objekt O, insbesondere in Verbindung mit einer ermittelten Winkellage dieses Objekts O zum Umfelderfassungssensor 2, und aus der bekannten Form des Erfassungsbereichs der aktuelle Erfassungsbereich des Umfelderfassungssensors 2, insbesondere die Grenze des aktuellen Erfassungsbereichs
für alle Winkellagen, d. h. für alle Erfassungsrichtungen, ermittelt werden kann, so dass dadurch die aktuelle Sensorreichweite des Umfelderfassungssensors 2 für alle Erfassungsrichtungen innerhalb des Erfassungsbereichs ermittelt werden kann. Die Sensorreichweite umfasst dabei vorteilhafterweise für jede Wnkellage, d. h. für jede Erfassungsrichtung, eine Reichweitenangabe. Die ermittelte aktuelle Sensorreichweite entspricht somit einem aktuellen Abstand der Grenze des aktuellen Erfassungsbereichs des Umfelderfassungssensors 2 zu diesem Umfelderfassungssensor 2. Diese Variante der Ermittlung der aktuellen Sensorreichweite kann natürlich auch für andere Formen des Erfassungsbereichs verwendet werden, insbesondere auch für den sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor 2 herum erstreckenden Erfassungsbereich.
Derartige, insbesondere stationäre, Objekte O sind beispielsweise Leitplanken, Bauwerke und/oder, wie im hier dargestellten Beispiel, Pfosten, insbesondere Leitpfosten.
Das Verfahren ermöglicht somit auf einfache und schnelle Weise und insbesondere ohne einen zusätzlichen Vorrichtungsaufwand eine, zumindest indirekte, Ermittlung der aktuell vorliegenden Sensorreichweite des Umfelderfassungssensors 2 und somit zumindest einer Sensortechnologie des, insbesondere automatisiert oder autonom fahrenden, Fahrzeugs 1. Der Umfelderfassungssensor 2, insbesondere die Sensortechnologie des jeweiligen Umfelderfassungssensors 2, kann beispielsweise aufgrund atmosphärischer Einflüsse funktionalen Einschränkungen unterliegen. Dies wird mittels des hier beschriebenen Verfahrens erkannt, wodurch es ermöglicht wird, beispielsweise eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer Fahrzeugsysteme umzusetzen. Beispielsweise kann bei einer ermittelten aktuellen Sensorreichweite, welche gegenüber einer Sensorreichweite bei optimalen Erfassungsbedingungen reduziert ist, eine Geschwindigkeit des Fahrzeugs 1 reduziert werden und/oder ein Abstand zu einem vorausfahrenden anderen Verkehrsteilnehmer erhöht werden. Atmosphärische Einflüsse, welche zu einer Reduzierung der Sensorreichweite führen können, sind beispielsweise Regen, Nebel, Schnee und/oder daraus resultierende Artefakte auf einer Fahrbahnoberfläche, beispielsweise Nässe, Raureif und/oder Schneeflocken.
Bisher werden atmosphärische Einflüsse beispielsweise von einem Teleoperationsdienst, insbesondere in Form von Wetternachrichten, mitgeteilt und können dann entsprechend berücksichtigt werden. Solche Wetternachrichten sind jedoch bezüglich einer tatsächlichen Situation in einem jeweiligen lokal stark begrenzten Umfeld des
Fahrzeugs 1 mit einer hohen Unsicherheit belastet. Mittels des hier beschriebenen Verfahrens ist diese Vorgehensweise nicht mehr erforderlich, da eine insbesondere durch atmosphärische Einflüsse bedingte eingeschränkte aktuelle Sensorreichweite mittels des Umfelderfassungssensors 2 selbst ermittelt wird.
Vorteilhafterweise kann mittels des Verfahrens zudem auf die jeweils vorliegende atmosphärische Ursache für die möglicherweise vorliegende eingeschränkte aktuelle Sensorreichweite geschlossen werden. Daraus resultierend kann dann beispielsweise eine Wahrscheinlichkeit für eine Änderung einer Reibwertbeschaffenheit der Fahrbahnoberfläche ermittelt werden und daraufhin beispielsweise ein Fahrverhalten des Fahrzeugs 1 entsprechend angepasst werden, beispielsweise durch eine Reduzierung der Geschwindigkeit und/oder durch eine Vergrößerung des Abstands zum vorausfahrenden anderen Verkehrsteilnehmer, so dass die Sicherheit erhöht ist.
Um dies zu ermöglichen, sind in der digitalen Karte zu den Objekten O vorteilhafterweise jeweils zugehörige Objektinformationen gespeichert, wobei die Objektinformationen des jeweiligen Objekts O für den Umfelderfassungssensor 2 und somit auch für gleichartige Umfelderfassungssensoren 2 für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O angeben, ab welcher das Objekt O für den Umfelderfassungssensor 2 erfassbar ist. Die Objektinformationen des am weitesten vom Umfelderfassungssensor 2 entfernten Objekts O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, werden dann aus der digitalen Karte abgerufen und daraus werden die Erfassungsbedingungen ermittelt, deren zugeordnete Entfernung für den Umfelderfassungssensor 2 am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors 2 korreliert. Es werden somit vorteilhafterweise diejenigen Erfassungsbedingungen ermittelt, deren zugeordnete Entfernung des Umfelderfassungssensors 2 zum Objekt O, d. h. zum am weitesten vom Umfelderfassungssensor 2 entfernten Objekt O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, am nächsten zur ermittelten aktuellen Sensorreichweite ist.
Im Beispiel gemäß Figur 1 sind die in der digitalen Karte georeferenziert gespeicherten Objekte O beispielsweise als Pfosten ausgebildet, zum Beispiel als Leitpfosten. Dargestellt ist zudem eine große Sensorreichweite SR1, beispielsweise eine maximale Sensorreichweite bei guten, insbesondere optimalen, atmosphärischen Bedingungen, insbesondere Wetterbedingungen, und eine geringere aktuelle Sensorreichweite SR2 aufgrund atmosphärischer Einflüsse. Daraus wird ersichtlich, dass bei guten, insbesondere optimalen, atmosphärischen Bedingungen, insbesondere
Wetterbedingungen, aufgrund der daraus resultierenden großen Sensorreichweite SR1 auch die Objekte O in großer Entfernung zum Fahrzeug 1, d. h. die hier am weitesten vom Fahrzeug 1 entfernt dargestellten Objekte O, mittels des Umfelderfassungssensors 2 erfasst werden können. Bei der geringeren aktuellen Sensorreichweite SR2 können diese Objekte O in großer Entfernung zum Fahrzeug 1, d. h. die hier am weitesten vom Fahrzeug 1 entfernt dargestellten Objekte O, nicht mehr vom Umfelderfassungssensor 2 erfasst werden, sondern nur noch diejenigen Objekte O, welche sich in geringerer Entfernung zum Umfelderfassungssensor 2 befinden und somit innerhalb der geringeren aktuellen Sensorreichweite SR2 liegen. Wie oben beschrieben, sind die Informationen, ab welcher Entfernung zum Fahrzeug 1 ein jeweiliges Objekt O bei jeweiligen Erfassungsbedingungen für den Umfelderfassungssensor 2 erfassbar ist, in der digitalen Karte gespeichert, so dass anhand der ermittelten Sensorreichweite und anhand des jeweils am weitesten vom Umfelderfassungssensor 2 entfernten Objekts O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, auf die jeweiligen Erfassungsbedingungen und somit auf die jeweilige atmosphärische Ursache für die geringere aktuelle Sensorreichweite SR2 geschlossen werden kann.
Vorteilhafterweise geben die Objektinformationen des jeweiligen Objekts O für verschiedene Arten von Umfelderfassungssensoren 2, beispielsweise für Lidarsensoren, Radarsensoren, Ultraschallsensoren und/oder optische Sensoren, insbesondere Bilderfassungssensoren, zum Beispiel Kameras, beispielsweise Stereokameras und/oder Monokameras, insbesondere Videosensoren, für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O an, ab welcher das Objekt O für den Umfelderfassungssensor 2 einer jeweiligen Umfelderfassungs sensorart erfassbar ist. D. h. für jede Art von Umfelderfassungssensoren 2 sind verschiedene Erfassungsbedingungen und zugeordnete Entfernungen zum jeweiligen Objekt O, ab welchen das Objekt O mit der jeweiligen Art von Umfelderfassungssensor 2 bei den jeweiligen Erfassungsbedingungen erfassbar ist, gespeichert. Dadurch kann die beschriebene Vorgehensweise für verschiedenartige Umfelderfassungssensoren 2 des Fahrzeugs 1 durchgeführt werden und somit können beispielsweise mittels mehreren Umfelderfassungssensoren 2 des Fahrzeugs 1 jeweils die Erfassungsbedingungen ermittelt werden.
Dadurch wird es beispielsweise ermöglicht, die ermittelten Erfassungsbedingungen der mehreren Umfelderfassungssensoren 2 des Fahrzeugs 1, d. h. die mittels der mehreren Umfelderfassungssensoren 2 jeweils ermittelten Erfassungsbedingungen, miteinander zu vergleichen. Auf diese Weise kann zum Beispiel sichergestellt werden, dass eine
ermittelte Reduzierung der Sensorreichweite nicht auf einer Hardwaredegradation eines jeweiligen Umfelderfassungssensors 2 beruht, sondern tatsächlich auf atmosphärischen Einflüssen, insbesondere dann, wenn mittels mehrerer Umfelderfassungssensoren 2 die gleichen Erfassungsbedingungen ermittelt werden. Alternativ oder zusätzlich können auch anhand mehrerer Objekte O mittels des selben Umfelderfassungssensors 2 ermittelte Erfassungsbedingungen miteinander verglichen werden, um auszuschließen, dass die ermittelte reduzierte Sensorreichweite auf einer Hardwaredegradation des Umfelderfassungssensors 2 beruht.
Die Erfassungsreichweiten der Objekte O von einer jeden Position oder zumindest von mehreren Positionen aus können beispielsweise gelernt werden, indem diese Objekte O mit zusätzlichen jeweils vorliegenden Erfassungsbedingungen, insbesondere in Form von Wetterinformationen, fusioniert und ausgewertet werden. Dies wird vorteilhafterweise auf einem fahrzeugexternen Server, auch als Backend bezeichnet, durchgeführt. D. h. die Objektinformationen des jeweiligen Objekts O, welche für den oder den jeweiligen Umfelderfassungssensor 2 für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O angeben, ab welcher das Objekt O für den Umfelderfassungssensor 2 erfassbar ist, werden ermittelt, indem das jeweilige Objekt O mittels des Umfelderfassungssensors 2 und/oder mittels eines gleichartigen Umfelderfassungssensors 2 erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, insbesondere auf dem fahrzeugexternen Server, fusioniert und ausgewertet werden. Dadurch wird das Lernen dieser Informationen mittels des Umfelderfassungssensors 2 des Fahrzeugs 1, insbesondere mittels gleichartiger Umfelderfassungssensoren 2 mehrerer Fahrzeuge 1, ermöglicht, so dass ein zusätzlicher Aufwand durch ein separates Erstellen dieser Informationen auf andere Weise vermieden wird.
Alternativ zur oben beschriebenen Vorgehensweise oder vorteilhafterweise zusätzlich dazu kann beispielsweise vorgesehen sein, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor 2, d. h. insbesondere mit einem als Lidarsensor ausgebildeten Umfelderfassungssensor 2 oder mit einem als Bilderfassungssensor, insbesondere als Videosensor, beispielsweise als Kamera, zum Beispiel als Stereokameras oder Monokamera, ausgebildeten Umfelderfassungssensor 2 eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors 2 ermittelt wird und anhand, beispielsweise in einer Tabelle, gespeicherter Fahrbahn oberflächenbedingungen und zugeordneter Fahrbahnoberflächenerfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird. Die aktuelle
Fahrbahnoberflächenerfassungsreichweite wird bei einem als Lidarsensor ausgebildeten Umfelderfassungssensor 2 insbesondere über eine jeweilige Laufzeit eines rückgestreuten Signals des Lidarsensors ermittelt.
Im dargestellten Beispiel gemäß Figur 1 wird die Fahrbahnoberfläche mittels des als Lidarsensor ausgebildeten Umfelderfassungssensors 2, beispielsweise mittels eines dedizierten Lidarsystem, bei trockener Fahrbahnoberfläche zum Beispiel bis zu einer in Figur 1 dargestellten ersten Linie L1 erfasst. Durch verschlechterte Fahrbahnoberflächenbedingungen, insbesondere durch eine gesteigerte Wasserdecke, reduziert sich eine Rückstreuintensität des Signals des Lidarsensors, weshalb die Fahrbahnoberfläche dann nur noch bis zu einer geringeren Distanz, in Figur 1 dargestellt durch eine zweite Linie L2 in geringerer Entfernung zum Fahrzeug 1, erfassbar ist. Über die Reduktion der Fahrbahnoberflächenreichweite kann über die, beispielsweise in der Tabelle, gespeicherten Fahrbahnoberflächenbedingungen und zugeordneten Fahrbahn oberflächenerfassungsreichweiten auf eine jeweilige Art der Fahrbahnoberflächen änderung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs 1 einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs 1 und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
Alternativ zur Ausbildung des Umfelderfassungssensors 2 als Lidarsensor kann der Umfelderfassungssensor 2, wie bereits erwähnt, auch als ein anderer optischer Sensor ausgebildet sein, insbesondere als Bilderfassungssensor, insbesondere als Videosensor, beispielsweise als Kamera, zum Beispiel als Stereokameras oder Monokamera. Dann wird die Fahrbahnoberfläche mittels dieses optischen Sensors bei trockener Fahrbahnoberfläche zum Beispiel bis zu der in Figur 1 dargestellten ersten Linie L1 erfasst. Durch verschlechterte Fahrbahnoberflächenbedingungen, insbesondere durch eine gesteigerte Wasserdecke, insbesondere in Verbindung mit Sonneneinstrahlung und einer daraus resultierenden Spiegelung, welche diesen optischen Sensor blendet, ist die Fahrbahnoberfläche dann nur noch bis zu einer geringeren Distanz, in Figur 1 dargestellt durch die zweite Linie L2 in geringerer Entfernung zum Fahrzeug 1, erfassbar. Auch hier kann über die Reduktion der Fahrbahnoberflächenreichweite über die, beispielsweise in der Tabelle, gespeicherten Fahrbahnoberflächenbedingungen und zugeordneten Fahrbahnoberflächenerfassungsreichweiten auf eine jeweilige Art der Fahrbahnoberflächenänderung geschlossen werden. Auch dadurch wird es
beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs 1 einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs 1 und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
Bezugszeichenliste
1 Fahrzeug
2 Umfelderfassungssensor
F Fahrbahn
L1 erste Linie
L2 zweite Linie
O Objekt
SR1 große Sensorreichweite
SR2 geringere aktuelle Sensorreichweite
Claims
1. Verfahren zum Betrieb mindestens eines Umfelderfassungssensors (2) eines Fahrzeugs (1), dadurch gekennzeichnet, dass
- das Fahrzeug (1) in einer digitalen Karte lokalisiert wird, wobei in der digitalen Karte Objekte (O) georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte (O), die mit dem Umfelderfassungssensor (2) aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor (2) entfernte Objekt (O) identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors (2) basierend auf einer Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) ermittelt wird, und
- in der digitalen Karte zu den Objekten (O) jeweils zugehörige Objektinformationen gespeichert sind, wobei die Objektinformationen des jeweiligen Objekts (O) mindestens für diesen Umfelderfassungssensor (2) für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des
Umfelderfassungssensors (2) zum Objekt (O) angeben, ab welcher das Objekt (O) für den Umfelderfassungssensor (2) erfassbar ist, wobei die Objektinformationen des am weitesten vom Umfelderfassungssensor (2) entfernten Objekts (O) aus der digitalen Karte abgerufen werden und daraus die Erfassungsbedingungen ermittelt werden, deren zugeordnete Entfernung für den Umfelderfassungssensor (2) am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors (2) korreliert.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) als aktuelle Sensorreichweite des Umfelderfassungssensors (2) ermittelt wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Objektinformationen des jeweiligen Objekts (O), welche mindestens für diesen Umfelderfassungssensor (2) für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors (2) zum Objekt (O) angeben, ab welcher das Objekt (O) für den Umfelderfassungssensor (2) erfassbar ist, ermittelt werden, indem das jeweilige Objekt (O) mittels des Umfelderfassungssensors (2) und/oder mittels eines gleichartigen Umfelderfassungssensors (2) erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, fusioniert und ausgewertet werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ermittelten Erfassungsbedingungen mehrerer Umfelderfassungssensoren (2) des Fahrzeugs (1) und/oder anhand mehrerer Objekte (O) ermittelte Erfassungsbedingungen miteinander verglichen werden.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor (2), insbesondere mit einem als Lidarsensor oder Bilderfassungssensor, insbesondere Videosensor, ausgebildeten Umfeld erfassungssensor (2), eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors (2) ermittelt wird und anhand gespeicherter Fahrbahnoberflächenbedingungen und zugeordneter Fahrbahnoberflächen erfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/755,673 US12106579B2 (en) | 2019-11-07 | 2020-10-15 | Method for operating at least one environment sensor on a vehicle |
CN202080076406.1A CN114616155A (zh) | 2019-11-07 | 2020-10-15 | 用于运行车辆的至少一个环境检测传感器的方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019130037.1A DE102019130037B4 (de) | 2019-11-07 | 2019-11-07 | Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs |
DE102019130037.1 | 2019-11-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021089292A1 true WO2021089292A1 (de) | 2021-05-14 |
Family
ID=73020168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2020/079050 WO2021089292A1 (de) | 2019-11-07 | 2020-10-15 | Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs |
Country Status (4)
Country | Link |
---|---|
US (1) | US12106579B2 (de) |
CN (1) | CN114616155A (de) |
DE (1) | DE102019130037B4 (de) |
WO (1) | WO2021089292A1 (de) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021004646B3 (de) * | 2021-09-14 | 2023-03-23 | Mercedes-Benz Group AG | Verfahren zum Betreiben eines Fahrzeugs in einem automatisierten Fahrbetrieb |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006007788A1 (de) * | 2006-02-20 | 2007-08-30 | Siemens Ag | Verfahren zur rechnergestützten Überwachung des Betriebs eines einen vorgegebenen Streckenverlauf fahrenden Fahrzeugs, insbesondere eines spurgebundenen Schienenfahrzeugs |
DE102013226631A1 (de) * | 2013-12-19 | 2015-06-25 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands |
DE102014212216A1 (de) * | 2014-06-17 | 2015-12-17 | Conti Temic Microelectronic Gmbh | Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des |
DE102016201250A1 (de) * | 2016-01-28 | 2017-08-03 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug |
DE102018003784A1 (de) * | 2018-05-09 | 2018-11-29 | Daimler Ag | Verfahren zur Bestimmung einer Reichweite eines Umgebungssensors für ein Fahrzeug |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10679368B2 (en) * | 2017-12-21 | 2020-06-09 | Intel IP Corporation | Methods and apparatus to reduce depth map size in collision avoidance systems |
DE102018107827A1 (de) * | 2018-04-03 | 2019-10-10 | Valeo Schalter Und Sensoren Gmbh | Ultraschallsensor mit Powerline-Kommunikation |
DE102018127059B4 (de) | 2018-10-30 | 2024-10-10 | Mercedes-Benz Group AG | Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs |
WO2020219694A1 (en) * | 2019-04-23 | 2020-10-29 | Apple Inc. | Systems and methods for resolving hidden features in a field of view |
-
2019
- 2019-11-07 DE DE102019130037.1A patent/DE102019130037B4/de active Active
-
2020
- 2020-10-15 CN CN202080076406.1A patent/CN114616155A/zh active Pending
- 2020-10-15 US US17/755,673 patent/US12106579B2/en active Active
- 2020-10-15 WO PCT/EP2020/079050 patent/WO2021089292A1/de active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006007788A1 (de) * | 2006-02-20 | 2007-08-30 | Siemens Ag | Verfahren zur rechnergestützten Überwachung des Betriebs eines einen vorgegebenen Streckenverlauf fahrenden Fahrzeugs, insbesondere eines spurgebundenen Schienenfahrzeugs |
DE102013226631A1 (de) * | 2013-12-19 | 2015-06-25 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands |
DE102014212216A1 (de) * | 2014-06-17 | 2015-12-17 | Conti Temic Microelectronic Gmbh | Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des |
DE102016201250A1 (de) * | 2016-01-28 | 2017-08-03 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug |
DE102018003784A1 (de) * | 2018-05-09 | 2018-11-29 | Daimler Ag | Verfahren zur Bestimmung einer Reichweite eines Umgebungssensors für ein Fahrzeug |
Also Published As
Publication number | Publication date |
---|---|
DE102019130037B4 (de) | 2022-09-29 |
US12106579B2 (en) | 2024-10-01 |
US20220375231A1 (en) | 2022-11-24 |
CN114616155A (zh) | 2022-06-10 |
DE102019130037A1 (de) | 2021-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018218220A1 (de) | Steuergerät für ein Fahrzeug | |
DE102017128502A1 (de) | Fahrzeugkollisionsvermeidung | |
DE102011088130B4 (de) | Verfahren und Vorrichtung zur Erkennung einer Bremssituation | |
EP3292423B1 (de) | Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor | |
DE102016003438A1 (de) | Fahrassistenzsystem eines Fahrzeugs und Verfahren zur Steuerung desselben | |
DE102017203838A1 (de) | Verfahren und System zur Umfelderfassung | |
DE102010049091A1 (de) | Verfahren zum Betreiben zumindest eines Sensors eines Fahrzeugs und Fahrzeug mit zumindest einem Sensor | |
DE102015213701A1 (de) | Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten | |
DE102016000201A1 (de) | Steuerungs-System und Verfahren zum Ermitteln einer Fahrspurbelegung durch Kraftfahrzeuge | |
WO2015032709A1 (de) | Verfahren und verkehrsüberwachungseinrichtung zum feststellen einer falschfahrt eines kraftfahrzeugs | |
DE102015115012A1 (de) | Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102015117903A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102016010373B4 (de) | Verfahren und Vorrichtung zur Erkennung des Öffnungszustands eines Garagentores | |
DE102018009434A1 (de) | Steuerungssystem und -Verfahren für ein Kraftfahrzeug zur Verarbeitung von mehrfach reflektierten Signalen | |
WO2020020654A1 (de) | Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen | |
DE102017212513A1 (de) | Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes | |
DE102012024959A1 (de) | Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug | |
WO2021089292A1 (de) | Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs | |
WO2020052840A1 (de) | Verfahren und vorrichtung zum betrieb eines zumindest teilweise automatisiert betriebenen ersten fahrzeugs | |
DE102016109850B4 (de) | Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102019208507A1 (de) | Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen | |
DE102019009332B4 (de) | Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs | |
DE102017100669A1 (de) | Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung einer Region von Interesse in Abhängigkeit von einem Anhänger, Recheneinrichtung, Kamerasystem sowie Kraftfahrzeug | |
DE102020001532A1 (de) | Verfahren zum Reduzieren von Fehldetektionen von Objekten in der Umgebung eines Fahrzeugs, Vorrichtung zum Durchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung | |
DE102019007205A1 (de) | Verfahren zur Detektion eines Fahrzeuganhängers mittels Lidar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20797402 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20797402 Country of ref document: EP Kind code of ref document: A1 |