WO2024104803A1 - Umfelderfassungssystem für ein fahrzeug und verfahren zum erfassen eines umfelds eines fahrzeugs - Google Patents

Umfelderfassungssystem für ein fahrzeug und verfahren zum erfassen eines umfelds eines fahrzeugs Download PDF

Info

Publication number
WO2024104803A1
WO2024104803A1 PCT/EP2023/080799 EP2023080799W WO2024104803A1 WO 2024104803 A1 WO2024104803 A1 WO 2024104803A1 EP 2023080799 W EP2023080799 W EP 2023080799W WO 2024104803 A1 WO2024104803 A1 WO 2024104803A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensors
groups
results
environment
plausibility
Prior art date
Application number
PCT/EP2023/080799
Other languages
English (en)
French (fr)
Inventor
Timo Dobberphul
Stefan Bischof
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Publication of WO2024104803A1 publication Critical patent/WO2024104803A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Definitions

  • the invention relates to an environment detection system for a vehicle and a method for detecting an environment of a vehicle.
  • methods for implementing a vehicle response to a sensor failure include receiving information from a plurality of sensors coupled to a vehicle, determining that a confidence level of the received information from at least one sensor of a first subset of sensors of the plurality of sensors is less than a first threshold, comparing a number of sensors in the first subset of sensors to a second threshold, and adjusting the drivability of the vehicle to rely on information received from a second subset of sensors of the plurality of sensors, wherein the second subset of sensors excludes the at least one sensor of the first subset of sensors.
  • the invention is based on the object of improving an environment detection system for a vehicle and a method for detecting the environment of a vehicle.
  • the object is achieved according to the invention by an environment detection system with the features of patent claim 1 and a method with the features of patent claim 10.
  • Advantageous embodiments of the invention emerge from the subclaims.
  • an environment detection system for a vehicle comprising at least two groups of sensors, wherein the at least two groups of sensors are set up independently of one another with respect to at least one hardware, a power supply and a data communication, and an evaluation device which is set up to evaluate sensor data detected by the sensors, wherein the at least two groups of sensors and the evaluation device are set up to
  • the evaluation device is further configured to transfer the vehicle to a safe state or to cause the vehicle to be transferred to a safe state if at least one of the aforementioned plausibility checks fails or a predetermined number of sensors has failed.
  • a method for detecting an environment of a vehicle wherein the environment is detected by means of at least two groups of sensors, wherein the at least two groups of sensors are independent of one another with respect to at least one hardware, one power supply and one data communication. operated, whereby the sensor data recorded by the sensors are evaluated by means of an evaluation device,
  • results of the at least two groups of sensors derived from the recorded sensor data are checked for plausibility using predetermined plausibility features in the environment; and wherein the vehicle is transferred to a safe state if at least one of the aforementioned plausibility checks fails or a predetermined number of sensors has failed.
  • the environment detection system and the method make it possible to design environment detection to be redundant, safe and at the same time cost-effective. This is achieved by assigning sensors that detect the vehicle's environment to at least two different groups. It is then intended that one or more of the following safety mechanisms are used: Two different groups of sensors detect the same environment with at least two different sensor types (or sensor technologies). Results of the groups derived from the recorded sensor data are checked against each other for plausibility, with the result that is judged to be more critical being selected and provided if the results differ. Alternatively or additionally, two different groups of sensors with the same sensor types detect environment areas with a predetermined minimum overlap of the respective detection areas.
  • Results of the groups derived from the recorded sensor data are checked against each other for plausibility in the overlap area, with the result that is judged to be more critical being selected and provided if the results differ.
  • the overlap area refers in particular to the detection ranges of the sensors.
  • the specified minimum overlap is in particular 99% of the detection ranges of the sensors or groups of sensors considered.
  • results of the at least two groups of sensors derived from the recorded sensor data are checked for plausibility in the environment using specified plausibility features. It is intended that the vehicle is transferred to a safe state if at least one of the aforementioned plausibility checks fails or a specified number of sensors has failed.
  • a sensor failure can be detected, for example, by means of the respective sensor itself and/or by means of the evaluation device.
  • the specified number is in particular a minimum number.
  • the specified number can be determined, for example, on the basis of empirical tests and/or simulations.
  • the environment detection system is set up in particular so that one of the groups is sufficient in terms of environment detection to transfer the vehicle to the safe state.
  • the advantages of the environment detection system and the method are that the minimum possible redundancy and technological diversification in terms of sensor types can be achieved.
  • the environment detection system enables safer environment detection and at the same time costs can be saved.
  • Sensors or sensor types may include in particular the following: cameras, stereo cameras, lidar sensors, radar sensors, ultrasonic sensors and/or thermal imaging cameras, etc.
  • a result can include the sensor data itself.
  • a result particularly includes information derived from the recorded sensor data.
  • Plausibility checking refers in particular to checking recorded sensor data and/or results derived from them. Plausibility checking can, for example, include a comparison of sensor data and/or results. Plausibility checking can also include determining a deviation from sensor data and/or results and a comparison with at least one threshold value related to the determined deviation.
  • Criticality refers in particular to a measure for assessing the influence of the environment or an element of the environment on the integrity and/or safety of the vehicle.
  • the greater the criticality the greater the influence of the environment or the Element of the environment on the integrity and/or safety of the vehicle. For example, a large, solid obstacle in front of a vehicle heading towards it has a greater criticality than a plastic bag floating in the air in front of the vehicle. In a comparison, something is judged to be more critical if it has a higher value of the measure for assessing the influence, that is, a higher value of criticality.
  • a vehicle is in particular a motor vehicle.
  • a vehicle can also be another land, rail, water, air or space vehicle, for example a drone or an air taxi.
  • Parts of the environment detection system in particular the evaluation device, can be designed individually or in combination as a combination of hardware and software, for example as program code that is executed on a microcontroller or microprocessor. However, it can also be provided that parts are designed individually or in combination as an application-specific integrated circuit (ASIC) and/or field-programmable gate array (FPGA).
  • ASIC application-specific integrated circuit
  • FPGA field-programmable gate array
  • the at least two groups of sensors and/or the evaluation device are set up to carry out object recognition for at least each of the groups of sensors separately.
  • This also makes object recognition redundant.
  • the objects are recognized using known computer vision and/or artificial intelligence methods, for example using machine learning.
  • the object recognition provides objects recognized in the environment as a result (e.g. in the form of an object type and an associated position in the environment).
  • an assessment of the criticality of the results is carried out on the basis of at least one predefined criticality criterion.
  • a criticality criterion is in particular a specification for the measure for assessing an influence of the environment or an element of the environment on the integrity and/or safety of the vehicle.
  • the criticality criterion includes, for example, a threshold value or a predefined classification rank or sequence for such a measure.
  • the criticality criterion can also be designed to be more complex, in particular multidimensional.
  • the criticality criterion can also include and/or define one or more conditions.
  • the results comprise objects detected in the environment based on the recorded sensor data, wherein the at least one predetermined criticality criterion comprises or includes an object existence.
  • the object existence can be used to assess the criticality.
  • the object existence includes in particular information about whether or not the object was detected in the recorded sensor data. If an object was detected by one group but not by another group, the result of the group that detected the object is assessed as more critical and is provided in particular as the (overall) result of the environment detection system.
  • the results comprise objects detected in the environment based on the recorded sensor data, wherein the at least one predetermined criticality criterion comprises or includes an object type.
  • the object type can thereby be used to assess the criticality.
  • the object type comprises in particular information about which type of object was detected in the respective recorded sensor data.
  • a criticality can be assigned to the object types. For example, a boulder or a tree trunk on a road is more critical for the vehicle than a plastic bag floating in front of the vehicle. If an object type with a higher assigned criticality was detected by one group than by another group, the result of the group that detected the object with greater criticality is assessed as more critical and in particular provided as the (overall) result of the environment detection system. For example, an assignment of objects to respective values for a criticality can be stored in the evaluation device, which forms the basis for an assessment.
  • the results comprise objects detected in the environment based on the recorded sensor data, wherein the at least one predetermined criticality criterion comprises or includes an object size and/or an object distance from the vehicle.
  • the object size and/or the object distance from the vehicle to be taken into account as criteria for criticality. For example, larger objects (e.g. boulders or tree trunks) are generally more critical for the vehicle than smaller objects (e.g. pebbles or branches).
  • objects detected closer to the vehicle are also to be assessed as more critical, since there is less time to react. This can be taken into account as the respective criticality criterion.
  • the evaluation device is further configured to keep the predefined plausibility features available in an environment map and/or to retrieve them from this.
  • suitable plausibility features can be determined and specified depending on a current position of the vehicle. This is done in particular by searching for the current position of the vehicle in the environment map, identifying suitable plausibility features in the environment in the environment map and comparing the identified plausibility features with the features (or objects) found in the environment based on the recorded sensor data and/or the results derived from this. If the predefined plausibility features are recognized in the environment, i.e. if the features recognized in the environment (in particular objects) and in particular their positions match the plausibility features stored in the map for this environment, the plausibility check is completed successfully.
  • plausibility check fails.
  • a traffic light must be detected at a position in the environment because a traffic light is stored as a plausibility feature for this position in the environment map.
  • other types of objects can also be used as plausibility features, for example walls, buildings, road markings, traffic signs, etc.
  • plausibility features are set up or arranged for this purpose alone, for example in the form of traffic signs and/or on buildings, etc.
  • the environment detection system has at least three groups of sensors, wherein the evaluation device is set up to carry out a plausibility check of the results of the groups derived from the respective recorded sensor data against each other on the basis of an m-out-of-n decision and/or to make and provide an overall result based on the results of the respective groups of sensors derived from the respective recorded sensor data on the basis of an m-out-of-n decision.
  • a majority decision can serve as the basis for the plausibility check and the derivation of an (overall) result. This is particularly advantageous when there is a greater redundancy (i.e. at least three groups of sensors).
  • a vehicle comprising at least one environment detection system according to one of the described embodiments.
  • Further features for the design of the method can be found in the description of the designs of the environment detection system. The advantages of the method are the same as for the designs of the environment detection system.
  • Fig. 1 is a schematic representation of an embodiment of the environment detection system
  • Fig. 2 is a schematic diagram to illustrate embodiments of the environment detection system
  • Fig. 3 is a schematic representation to illustrate further embodiments of the environment detection system.
  • Fig. 1 shows a schematic representation of an embodiment of the environment detection system 1.
  • the environment detection system 1 is arranged in particular in a vehicle 50.
  • the environment detection system 1 comprises (at least) two groups 2, 3 of sensors 2-x, 3-x, wherein the two groups 2, 3 of sensors 2-x, 3-x are set up independently of one another with regard to at least one hardware, one power supply and one data communication.
  • the environment detection system 1 also comprises an evaluation device 4, which is set up to evaluate sensor data 10 recorded by the sensors 2-x, 3-x.
  • the evaluation device 4 comprises, for example, a computing device 4-1 and a memory 4-2.
  • the computing device 4-1 executes suitable program code for the evaluation.
  • the evaluated sensor data 10 are provided in particular as results 40-x and/or further processed.
  • the two groups 2, 3 of sensors 2-x, 3-x and the evaluation device 4 are set up so that the two (different) groups 2, 3 of sensors 2-x, 3-x record the same environmental area with at least two different types of sensors and results 40-2, 40-3 of groups 2, 3 derived from the recorded sensor data 10 are checked against each other for plausibility, whereby in the case of different results 40-2, 40-3, the result 40-2, 40-3 that is judged to be more critical is selected and provided.
  • group 2 has only cameras as sensors 2-x
  • group 3 has only lidar sensors or Radar sensors.
  • the surroundings are then recorded by both the cameras and the lidar sensors or radar sensors.
  • This embodiment is illustrated schematically in Fig. 2 for groups 2, 3 using the respective detection areas.
  • other groups with other types of sensors for example thermal imaging cameras, ultrasonic sensors or (surrounding) cameras, can also be provided.
  • the selected and provided more critical result 40-2, 40-3 is further processed by means of a vehicle control 51.
  • the two groups 2, 3 of sensors 2-x, 3-x and the evaluation device 4 are set up so that the two (different) groups 2, 3 of sensors 2-x, 3-x with the same sensor types record surrounding areas with a predetermined minimum overlap of the respective detection areas, and the results 40-2, 40-3 of groups 2, 3 derived from the recorded sensor data 10 are checked against each other in the overlap area for plausibility, whereby if the results 40-2, 40-3 are different, the result 40-2, 40-3 that is judged to be more critical is selected and provided.
  • both group 2 and group 3 have cameras as sensors 2-x. The surroundings are then recorded by both the cameras of group 2 and the cameras of group 3. This embodiment is illustrated schematically in Fig.
  • this embodiment can also include further groups and/or be intended for other types of sensors, for example thermal imaging cameras, ultrasonic sensors, radar sensors or lidar sensors.
  • results 40-2, 40-3 of the two groups 2, 3 of sensors 2-x, 3-x derived from the recorded sensor data 10 are checked for plausibility in the environment using predefined plausibility features 21.
  • the plausibility features 21 predefined for an environment can be retrieved, for example, from an environment map 20 (Fig. 1) stored in the memory 4-2.
  • the exemplary plausibility feature 21 (Fig. 3) is arranged in the (current) environment of the vehicle 50 and is recorded by the sensors 2-x, 3-x of the groups 2, 3.
  • the plausibility feature 21 is, for example, a traffic light
  • the evaluation device 4 is further configured to transfer the vehicle 50 into a safe state or to cause the transfer into a safe state if at least one of the aforementioned plausibility checks fails or a predetermined number of sensors 2-x, 3-x has failed. This is done in particular by the evaluation device 4 transmitting a control signal 30 to a vehicle control 51, which then controls an actuator 52 of the vehicle 50 accordingly.
  • the two groups 2, 3 of sensors 2-x, 3-x and/or the evaluation device 4 are set up to carry out object recognition for at least each of the groups 2, 3 of sensors 2-x, 3-x separately.
  • the object recognition can already be carried out in the sensors 2-x, 3-x and/or by means of the sensors 2-x, 3-x and/or by means of the evaluation device 4.
  • Known methods of computer vision and/or artificial intelligence, such as machine learning, can be used here.
  • an assessment of the criticality of the results 40-2, 40-3 is carried out on the basis of at least one predetermined criticality criterion 15.
  • the criticality criterion 15 is specified externally and/or is or is stored in the memory 4-2.
  • the results 40-2, 40-3, based on the recorded sensor data 10 include objects 22 (Fig. 3) detected in the environment, wherein the at least one predetermined criticality criterion 15 includes or contains an object existence. This can be illustrated using Fig. 3. If the sensors 2-x detect, for example, the object 22, but the sensors 3-x do not, the sensor data 10 or the results 40-2 of the sensors 2-x derived therefrom are assessed as more critical, since a detected
  • Object 22 is potentially more dangerous for the vehicle 50 than an open space or no object 22.
  • the incorrect detection or recognition of the object 22 is less dangerous than the incorrect detection that no object 22 is present. Therefore, the Sensor data 10 or the result 40-2 of sensors 2-x, which determined the object existence of object 22, are processed further.
  • the results 40-2, 40-3, based on the recorded sensor data 10 include objects detected in the environment, wherein the at least one predetermined criticality criterion 15 includes or contains an object type.
  • objects 22 are assessed as more critical the greater the (mechanical) influence of these objects 22 on the vehicle 50. For example, a boulder is assessed as more critical than a plastic bag.
  • the results, based on the recorded sensor data 10, include objects 22-x detected in the environment (Fig. 2), wherein the at least one predetermined criticality criterion 15 includes or contains an object size and/or an object distance from the vehicle 50.
  • This is illustrated schematically in Fig. 2.
  • a single object 22-2, 22-3 is shown there, but this is detected by the groups 2, 3 of sensors 2-x, 3-x at different positions in the environment (the number at the back of the reference symbol designates group 2 or 3). Since an object distance of the detected object 22-3 is smaller than an object distance of the detected object 22-2, the object 22-3 is assessed as more critical and is therefore used as the (overall) result 25.
  • a corresponding scenario can arise if both groups 2, 3 determine the same object distances, but an object size determined from the sensor data 10 differs. In this case, the object size with the larger value is assessed as more critical and provided accordingly as (overall) result 25.
  • the environment detection system 1 has at least three groups 2, 3, 5 (Fig. 1) of sensors 2-x, 3-x, 5-x, wherein the evaluation device 4 is set up to carry out a plausibility check of the results 40-x of the groups 2, 3, 5 derived from the respective recorded sensor data 10 against each other on the basis of an m-out-of-n decision and/or to make and provide an overall result 25 based on the results 40-x of the respective groups 2, 3, 5 of sensors 2-x, 3-x, 5-x derived from the respective recorded sensor data 10 on the basis of an m-out-of-n decision.
  • the evaluation device 4 is set up to carry out a plausibility check of the results 40-x of the groups 2, 3, 5 derived from the respective recorded sensor data 10 against each other on the basis of an m-out-of-n decision and/or to make and provide an overall result 25 based on the results 40-x of the respective groups 2, 3, 5 of sensors 2-x, 3-x, 5-x derived from the respective recorded sensor data 10 on the basis of an m-out
  • Evaluation device -1 Computing device -2 Storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Umfelderfassungssystem (1) für ein Fahrzeug (50), umfassend mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) und eine Auswertungseinrichtung (4), die dazu eingerichtet ist, erfasste Sensordaten (10) auszuwerten, wobei die mindestens zwei Gruppen (2,3,5) und die Auswertungseinrichtung (4) dazu eingerichtet sind, dass zwei unterschiedliche Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) den gleichen Umfeldbereich mit mindestens zwei unterschiedlichen Sensorarten erfassen und/oder zwei unterschiedliche Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) mit gleichen Sensorarten Umfeldbereiche mit einem vorgegebenen Mindestüberlapp der jeweiligen Erfassungsbereiche erfassen, und aus den erfassten Sensordaten (10) abgeleitete Ergebnisse der Gruppen (2,3,5) gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird; und/oder dass Ergebnisse der mindestens zwei Gruppen (2,3,5) anhand von vorgegebenen Plausibilisierungsmerkmalen (21) im Umfeld plausibilisiert werden; wobei die Auswertungseinrichtung (4) ferner dazu eingerichtet ist, das Fahrzeug (50) in einen sicheren Zustand zu überführen oder dies zu veranlassen, wenn mindestens eine der vorgenannten Plausibilisierungen fehlschlägt oder eine vorgegebene Anzahl von Sensoren (2-x,3-x,5-x) ausgefallen ist.

Description

Beschreibung
Umfelderfassungssystem für ein Fahrzeug und Verfahren zum Erfassen eines Umfelds eines Fahrzeugs
Die Erfindung betrifft ein Umfelderfassungssystem für ein Fahrzeug und ein Verfahren zum Erfassen eines Umfelds eines Fahrzeugs.
Ein wesentlicher Bestandteil von Lösungen zum automatisierten Fahren ist die Umfeldwahrnehmung. Diese erfolgt in der Regel über verschiedene Arten von Sensoren, die eine Beschaffenheit des Umfeldes erfassen und Objekte im Umfeld detektieren oder erkennen können. Hierbei ist es wichtig, Fehler der Sensoren erkennen zu können, damit sich Fehler unterschiedlicher Art (z.B. eine Verfälschung von Sensordaten oder ein Ausfall der Sensoren bzw. Sensordaten) nicht auf ein Systemverhalten auswirken können. Hierzu ist es notwendig, die Sensoren derart an das Fahrzeug anzubinden, dass mit Hilfe von Redundanzen und einer Überwachung stets Sensordaten bereitgestellt werden können, die das Umfeld korrekt beschreiben.
Aus der US 2020 / 0 339 151 A1 sind Techniken zum Implementieren einer Fahrzeugreaktion auf einen Sensorausfall bekannt. Insbesondere sind Verfahren bekannt, die das Empfangen von Informationen von mehreren Sensoren umfassen, die mit einem Fahrzeug gekoppelt sind, das Bestimmen, dass ein Konfidenzniveau der empfangenen Informationen von mindestens einem Sensor einer ersten Teilmenge von Sensoren der Vielzahl von Sensoren kleiner als ein erster Schwellenwert ist, Vergleichen einer Anzahl von Sensoren in der ersten Teilmenge von Sensoren mit einem zweiten Schwellenwert und Anpassen der Fahrfähigkeit des Fahrzeugs, um sich auf Informationen zu verlassen, die von einer zweiten Teilmenge der Sensoren der Vielzahl von Sensoren empfangen werden, wobei die zweite Teilmenge von Sensoren den mindestens einen Sensor der ersten Teilmenge von Sensoren ausschließt.
Der Erfindung liegt die Aufgabe zu Grunde, ein Umfelderfassungssystem für ein Fahrzeug und ein Verfahren zum Erfassen eines Umfelds eines Fahrzeugs zu verbessern. Die Aufgabe wird erfindungsgemäß durch ein Umfelderfassungssystem mit den Merkmalen des Patentanspruchs 1 und ein Verfahren mit den Merkmalen des Patentanspruchs 10 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
Insbesondere wird ein Umfelderfassungssystem für ein Fahrzeug geschaffen, umfassend mindestens zwei Gruppen von Sensoren, wobei die mindestens zwei Gruppen von Sensoren in Bezug auf zumindest eine Hardware, eine Energieversorgung und eine Datenkommunikation unabhängig voneinander eingerichtet sind, und eine Auswertungseinrichtung, die dazu eingerichtet ist, von den Sensoren erfasste Sensordaten auszuwerten, wobei die mindestens zwei Gruppen von Sensoren und die Auswertungseinrichtung dazu eingerichtet sind,
- dass zwei unterschiedliche Gruppen von Sensoren den gleichen Umfeldbereich mit mindestens zwei unterschiedlichen Sensorarten erfassen und aus den erfassten Sensordaten abgeleitete Ergebnisse der Gruppen gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- dass zwei unterschiedliche Gruppen von Sensoren mit gleichen Sensorarten Umfeldbereiche mit einem vorgegebenen Mindestüberlapp der jeweiligen Erfassungsbereiche erfassen, und aus den erfassten Sensordaten abgeleitete Ergebnisse der Gruppen im Überlappungsbereich gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- dass aus den erfassten Sensordaten abgeleitete Ergebnisse der mindestens zwei Gruppen von Sensoren anhand von vorgegebenen Plausibilisierungsmerkmalen im Umfeld plausibilisiert werden; wobei die Auswertungseinrichtung ferner dazu eingerichtet ist, das Fahrzeug in einen sicheren Zustand zu überführen oder das Überführen in einen sicheren Zustand zu veranlassen, wenn mindestens eine der vorgenannten Plausibilisierungen fehlschlägt oder eine vorgegebene Anzahl von Sensoren ausgefallen ist.
Ferner wird insbesondere ein Verfahren zum Erfassen eines Umfelds eines Fahrzeugs zur Verfügung gestellt, wobei das Umfeld mittels mindestens zwei Gruppen von Sensoren erfasst wird, wobei die mindestens zwei Gruppen von Sensoren in Bezug auf zumindest eine Hardware, eine Energieversorgung und eine Datenkommunikation unabhängig voneinander betrieben werden, wobei die mittels der Sensoren erfassten Sensordaten mittels einer Auswertungseinrichtung ausgewertet werden,
- wobei zwei unterschiedliche Gruppen von Sensoren den gleichen Umfeldbereich mit mindestens zwei unterschiedlichen Sensorarten erfassen und aus den erfassten Sensordaten abgeleitete Ergebnisse der Gruppen gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- wobei zwei unterschiedliche Gruppen von Sensoren mit gleichen Sensorarten Umfeldbereiche mit einem vorgegebenen Mindestüberlapp der jeweiligen Erfassungsbereiche erfassen, und aus den erfassten Sensordaten abgeleitete Ergebnisse der Gruppen im Überlappungsbereich gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- wobei aus den erfassten Sensordaten abgeleitete Ergebnisse der mindestens zwei Gruppen von Sensoren anhand von vorgegebenen Plausibilisierungsmerkmalen im Umfeld plausibilisiert werden; und wobei das Fahrzeug in einen sicheren Zustand überführt wird, wenn mindestens eine der vorgenannten Plausibilisierungen fehlschlägt oder eine vorgegebene Anzahl von Sensoren ausgefallen ist.
Das Umfelderfassungssystem und das Verfahren ermöglichen es, eine Umfelderfassung redundant, sicher und gleichzeitig kostengünstig auszulegen. Dies wird erreicht, indem Sensoren, die das Umfeld des Fahrzeugs erfassen, mindestens zwei unterschiedlichen Gruppen zugeordnet werden. Es ist dann vorgesehen, dass eine oder mehrere der nachfolgenden Sicherheitsmechanismen verwendet werden: Zwei unterschiedliche Gruppen von Sensoren erfassen den gleichen Umfeldbereich mit mindestens zwei unterschiedlichen Sensorarten (bzw. Sensortechnologien). Aus den erfassten Sensordaten abgeleitete Ergebnisse der Gruppen werden gegeneinander plausibilisiert, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird. Alternativ oder zusätzlich erfassen zwei unterschiedliche Gruppen von Sensoren mit gleichen Sensorarten Umfeldbereiche mit einem vorgegebenen Mindestüberlapp der jeweiligen Erfassungsbereiche. Aus den erfassten Sensordaten abgeleitete Ergebnisse der Gruppen werden im Überlappungsbereich gegeneinander plausibilisiert, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird. Der Überlappungsbereich bezieht sich insbesondere auf die Erfassungsbereiche der Sensoren. Der vorgegebene Mindestüberlapp beträgt insbesondere 99 % der Erfassungsbereiche der jeweils betrachteten Sensoren bzw. Gruppen von Sensoren. Weiter alternativ oder zusätzlich werden aus den erfassten Sensordaten abgeleitete Ergebnisse der mindestens zwei Gruppen von Sensoren anhand von vorgegebenen Plausibilisierungsmerkmalen im Umfeld plausibilisiert. Es ist vorgesehen, dass das Fahrzeug in einen sicheren Zustand überführt wird, wenn mindestens eine der vorgenannten Plausibilisierungen fehlschlägt oder eine vorgegebene Anzahl von Sensoren ausgefallen ist. Ein Ausfall eines Sensor kann beispielsweise mittels des jeweiligen Sensors selbst und/oder mittels der Auswertungseinrichtung erkannt werden. Die vorgegebene Anzahl ist insbesondere eine Mindestanzahl. Die vorgegebene Anzahl kann beispielsweise ausgehend von empirischen Versuchen und/oder von Simulationen bestimmt werden. Das Umfelderfassungssystem ist in Bezug auf die Gruppen insbesondere dazu eingerichtet, dass eine der Gruppen bezüglich einer Umfelderfassung ausreichend ist, um das Fahrzeug in den sicheren Zustand zu überführen.
Vorteile des Umfelderfassungssystems und des Verfahrens sind, dass eine minimal mögliche Redundanz und eine technologische Diversifikation in Bezug auf die Sensorarten erzielt werden können. Durch das Umfelderfassungssystem kann eine sicherere Umfelderfassung erfolgen und gleichzeitig können Kosten eingespart werden.
Sensoren bzw. Sensorarten können insbesondere die folgenden umfassen: Kameras, Stereokameras, Lidarsensoren, Radarsensoren, Ultraschallsensoren und/oder Wärmebildkameras usw.
Ein Ergebnis kann im einfachsten Fall die Sensordaten selbst umfassen. Ein Ergebnis umfasst jedoch insbesondere aus den erfassten Sensordaten abgeleitete Informationen.
Plausibilisieren bezeichnet insbesondere ein Überprüfen von erfassten Sensordaten und/oder von hieraus abgeleiteten Ergebnissen. Das Plausibilisieren kann beispielsweise einen Vergleich von Sensordaten und/oder Ergebnissen umfassen. Das Plausibilisieren kann auch das Bestimmen einer Abweichung von Sensordaten und/oder Ergebnissen sowie einen Vergleich mit mindestens einem auf die bestimmte Abweichung bezogenen Schwellwert umfassen.
Eine Kritikalität bezeichnet insbesondere ein Maß zur Beurteilung eines Einflusses des Umfelds oder eines Elementes des Umfelds auf eine Unversehrtheit und/oder eine Sicherheit des Fahrzeugs. Je größer die Kritikalität ist, desto größer ist der Einfluss des Umfelds oder des Elements des Umfeld auf die Unversehrtheit und/oder die Sicherheit des Fahrzeugs. Beispielsweise hat ein großes, massiv ausgebildetes Hindernis vor einem auf dieses Hindernis zusteuernden Fahrzeug eine größere Kritikalität als eine in der Luft vor dem Fahrzeug schwebende Plastiktüte. Bei einem Vergleich wird etwas als kritischer beurteilt, wenn es einen größeren Wert des Maßes zur Beurteilung des Einflusses, das heißt, einen größeren Wert der Kritikalität, aufweist.
Ein Fahrzeug ist insbesondere ein Kraftfahrzeug. Ein Fahrzeug kann jedoch auch ein anderes Land-, Schienen-, Wasser-, Luft- oder Raumfahrzeug sein, beispielsweise eine Drohne oder ein Lufttaxi.
Teile des Umfelderfassungssystems, insbesondere die Auswertungseinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird. Es kann jedoch auch vorgesehen sein, dass Teile einzeln oder zusammengefasst als anwendungsspezifische integrierte Schaltung (ASIC) und/oder feldprogrammierbares Gatterfeld (FPGA) ausgebildet sind.
In einer Ausführungsform ist vorgesehen, dass die mindestens zwei Gruppen von Sensoren und/oder die Auswertungseinrichtung dazu eingerichtet sind, eine Objekterkennung für zumindest jede der Gruppen von Sensoren getrennt durchzuführen. Hierdurch ist auch eine Objekterkennung redundant ausgebildet. Das Erkennen der Objekte erfolgt mittels an sich bekannter Verfahren der Computer Vision und/oder der Künstlichen Intelligenz, beispielsweise mittels Maschinenlernen. Die Objekterkennung liefert als Ergebnis im Umfeld erkannte Objekte (z.B. in Form von einer Objektart und einer zugehörigen Position im Umfeld).
In einer Ausführungsform ist vorgesehen, dass eine Beurteilung der Kritikalität der Ergebnisse anhand von mindestens einem vorgegebenen Kritikalitätskriterium erfolgt. Ein Kritikalitätskriterium ist insbesondere eine Vorgabe für das Maß zur Beurteilung eines Einflusses des Umfelds oder eines Elementes des Umfelds auf eine Unversehrtheit und/oder eine Sicherheit des Fahrzeugs. In einem einfachen Fall umfasst das Kritikalitätskriterium beispielsweise einen Schwellwert oder eine vorgegebene Klassifizierungsrang- oder - reihenfolge für ein solches Maß. Grundsätzlich kann das Kritikalitätskriterium jedoch auch komplexer, insbesondere mehrdimensional, ausgestaltet sein. Das Kritikalitätskriterium kann auch eine oder mehrere Bedingungen umfassen und/oder definieren. In einer Ausführungsform ist vorgesehen, dass die Ergebnisse ausgehend von den erfassten Sensordaten im Umfeld erkannte Objekte umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium eine Objektexistenz umfasst oder beinhaltet. Hierdurch kann die Objektexistenz zur Beurteilung der Kritikalität verwendet werden. Die Objektexistenz umfasst insbesondere eine Information darüber, ob das Objekt in den erfassten Sensordaten erkannt wurde oder nicht. Wurde von einer Gruppe ein Objekt erkannt, von einer anderen Gruppe hingegen nicht, so wird das Ergebnis derjenigen Gruppe, die das Objekt erkannt hat, als kritischer beurteilt und insbesondere als (Gesamt-)Ergebnis des Umfelderfassungssystems bereitgestellt.
In einer Ausführungsform ist vorgesehen, dass die Ergebnisse ausgehend von den erfassten Sensordaten im Umfeld erkannte Objekte umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium eine Objektart umfasst oder beinhaltet. Hierdurch kann die Objektart zur Beurteilung der Kritikalität verwendet werden. Die Objektart umfasst insbesondere eine Information darüber, welche Art von Objekt in den jeweils erfassten Sensordaten erkannt wurde. Hierbei kann den Objektarten eine Kritikalität zugeordnet werden oder zugeordnet sind. Beispielsweise sind ein Felsblock oder ein Baumstamm auf einer Straße für das Fahrzeug mit einer größeren Kritikalität behaftet als eine vor dem Fahrzeug schwebende Plastiktüte. Wurde von einer Gruppe eine Objektart mit einer größeren zugeordneten Kritikalität erfasst als von einer anderen Gruppe, so wird das Ergebnis derjenigen Gruppe, die das Objekt mit größerer Kritikalität erfasst hat, als kritischer beurteilt und insbesondere als (Gesamt-) Ergebnis des Umfelderfassungssystems bereitgestellt. In der Auswertungseinrichtung kann beispielsweise eine Zuordnung von Objekten zu jeweiligen Werten für eine Kritikalität hinterlegt sein, die Grundlage für eine Beurteilung ist.
In einer Ausführungsform ist vorgesehen, dass die Ergebnisse ausgehend von den erfassten Sensordaten im Umfeld erkannte Objekte umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium eine Objektgröße und/oder eine Objektentfernung zum Fahrzeug umfasst oder beinhaltet. Hierdurch können die Objektgröße und/oder die Objektentfernung zum Fahrzeug als Kriterien für die Kritikalität berücksichtigt werden. Beispielsweise sind größere Objekte (z.B. Felsbrocken oder Baumstämme) in der Regel kritischer für das Fahrzeug als kleinere Objekte (z.B. Kieselsteine oder Zweige). In der Regel sind näher am Fahrzeug erfasste Objekte ebenfalls als kritischer zu bewerten, da weniger Zeit zum Reagieren bleibt. Dies kann als jeweiliges Kritikalitätskriterium berücksichtigt werden. In einer Ausführungsform ist vorgesehen, dass die Auswertungseinrichtung ferner dazu eingerichtet ist, die vorgegebenen Plausibilisierungsmerkmale in einer Umfeldkarte bereitzuhalten und/oder aus dieser abzurufen. Hierdurch können in Abhängigkeit von einer aktuellen Position des Fahrzeugs geeignete Plausibilisierungsmerkmale bestimmt und vorgegeben werden. Dies erfolgt insbesondere, indem die aktuelle Position des Fahrzeugs in der Umfeldkarte gesucht wird, geeignete Plausibilisierungsmerkmale im Umfeld in der Umfeldkarte identifiziert werden und die identifizierten Plausibilisierungsmerkmale mit den im Umfeld ausgehend von den erfassten Sensordaten und/oder den hieraus abgeleiteten Ergebnissen aufgefundenen Merkmalen (oder Objekten) verglichen werden. Werden die vorgegebenen Plausibilisierungsmerkmale im Umfeld erkannt, das heißt, stimmen die im Umfeld erkannten Merkmale (insbesondere Objekte) sowie insbesondere auch deren Positionen mit den in der Karte für dieses Umfeld hinterlegten Plausibilisierungsmerkmalen überein, so wird die Plausibilisierung erfolgreich abgeschlossen. Anderenfalls schlägt die Plausibilisierung fehl. Beispielsweise kann vorgesehen sein, dass an einer Position im Umfeld eine Lichtsignalanlage erkannt werden muss, da für diese Position in der Umfeldkarte als Plausibilisierungsmerkmal eine Lichtsignalanlage hinterlegt ist. Grundsätzlich können auch andere Arten von Objekten als Plausibilisierungsmerkmal verwendet werden, beispielsweise Mauern, Gebäude, Straßenmarkierungen, Verkehrsschilder usw. Es kann auch vorgesehen sein, dass Plausibilisierungsmerkmale allein zu diesem Zweck aufgestellt oder angeordnet werden, beispielsweise in Form von Verkehrsschildern und/oder an Gebäuden etc.
In einer Ausführungsform ist vorgesehen, dass das Umfelderfassungssystem mindestens drei Gruppen von Sensoren aufweist, wobei die Auswertungseinrichtung dazu eingerichtet ist, eine Plausibilisierung der ausgehend von den aus den jeweiligen erfassten Sensordaten abgeleiteten Ergebnisse der Gruppen gegeneinander auf Grundlage einer m-aus-n- Entscheidung durchzuführen und/oder ein Gesamtergebnis ausgehend von den aus den jeweiligen erfassten Sensordaten abgeleiteten Ergebnissen der jeweiligen Gruppen von Sensoren auf Grundlage einer m-aus-n-Entscheidung zu treffen und bereitzustellen. Hierdurch kann eine Mehrheitsentscheidung als Grundlage für die Plausibilisierung und das Ableiten eines (Gesamt-) Ergebnisses dienen. Dies ist insbesondere von Vorteil, wenn eine größere Redundanz (d.h. mindestens drei Gruppen von Sensoren) vorhanden ist.
Es wird insbesondere auch ein Fahrzeug geschaffen, umfassend mindestens ein Umfelderfassungssystem nach einer der beschriebenen Ausführungsformen. Weitere Merkmale zur Ausgestaltung des Verfahrens ergeben sich aus der Beschreibung von Ausgestaltungen des Umfelderfassungssystems. Die Vorteile des Verfahrens sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Umfelderfassungssystems.
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:
Fig. 1 eine schematische Darstellung einer Ausführungsform des Umfelderfassungssystems;
Fig. 2 eine schematische Darstellung zur Verdeutlichung von Ausführungsformen des Umfelderfassungssystems;
Fig. 3 eine schematische Darstellung zur Verdeutlichung von weiteren Ausführungsformen des Umfelderfassungssystems.
Die Fig. 1 zeigt eine schematische Darstellung einer Ausführungsform des Umfelderfassungssystems 1. Das Umfelderfassungssystem 1 ist insbesondere in einem Fahrzeug 50 angeordnet. Das Umfelderfassungssystem 1 umfasst (mindestens) zwei Gruppen 2, 3 von Sensoren 2-x, 3-x wobei die zwei Gruppen 2, 3 von Sensoren 2-x, 3-x in Bezug auf zumindest eine Hardware, eine Energieversorgung und eine Datenkommunikation unabhängig voneinander eingerichtet sind. Ferner umfasst das Umfelderfassungssystem 1 eine Auswertungseinrichtung 4, die dazu eingerichtet ist, von den Sensoren 2-x, 3-x erfasste Sensordaten 10 auszuwerten. Die Auswertungseinrichtung 4 umfasst beispielsweise eine Recheneinrichtung 4-1 und einen Speicher 4-2. Die Recheneinrichtung 4-1 führt zum Auswerten geeigneten Programmcode aus. Die ausgewerteten Sensordaten 10 werden insbesondere als Ergebnisse 40-x bereitgestellt und/oder weiterverarbeitet.
Die zwei Gruppen 2, 3 von Sensoren 2-x, 3-x und die Auswertungseinrichtung 4 sind dazu eingerichtet, dass die zwei (unterschiedlichen) Gruppen 2, 3 von Sensoren 2-x, 3-x den gleichen Umfeldbereich mit mindestens zwei unterschiedlichen Sensorarten erfassen und aus den erfassten Sensordaten 10 abgeleitete Ergebnisse 40-2, 40-3 der Gruppen 2, 3 gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen 40-2, 40-3 dasjenige Ergebnis 40-2, 40-3 gewählt und bereitgestellt wird, das als kritischer beurteilt wird. Beispielsweise kann vorgesehen sein, dass die Gruppe 2 ausschließlich Kameras als Sensoren 2-x aufweist, die Gruppe 3 hingegen ausschließlich Lidarsensoren oder Radarsensoren. Das Umfeld wird dann sowohl von den Kameras als auch von den Lidarsensoren oder Radarsensoren erfasst. Diese Ausführungsform ist schematisch in der Fig. 2 für die Gruppen 2, 3 anhand der jeweiligen Erfassungsbereiche verdeutlicht. Grundsätzlich können auch weitere Gruppen mit weiteren Sensorarten, beispielsweise Wärmebildkameras, Ultraschallsensoren oder (Umfeld-)Kameras, vorgesehen sein.
Insbesondere erfolgt eine Weiterverarbeitung des gewählten und bereitgestellten kritischeren Ergebnisses 40-2, 40-3 mittels einer Fahrzeugsteuerung 51.
Alternativ oder zusätzlich sind die zwei Gruppen 2, 3 von Sensoren 2-x, 3-x und die Auswertungseinrichtung 4 dazu eingerichtet, dass die zwei (unterschiedlichen) Gruppen 2, 3 von Sensoren 2-x, 3-x mit gleichen Sensorarten Umfeldbereiche mit einem vorgegebenen Mindestüberlapp der jeweiligen Erfassungsbereiche erfassen, und die aus den erfassten Sensordaten 10 abgeleiteten Ergebnisse 40-2, 40-3 der Gruppen 2, 3 im Überlappungsbereich gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen 40-2, 40-3 dasjenige Ergebnis 40-2, 40-3 gewählt und bereitgestellt wird, das als kritischer beurteilt wird. Beispielsweise kann vorgesehen sein, dass sowohl die Gruppe 2 als auch die Gruppe 3 Kameras als Sensoren 2-x aufweisen. Das Umfeld wird dann sowohl von den Kameras der Gruppe 2 als auch von den Kameras der Gruppe 3 erfasst. Diese Ausführungsform ist schematisch in der Fig. 3 für die Gruppen 2, 3 anhand der jeweiligen Erfassungsbereiche verdeutlicht (die Bezugszeichen der Gruppen 2, 3 wurden der Übersichtlichkeit halber nicht dargestellt, sondern nur die zugehörigen Sensoren 2-x, 3-x). Grundsätzlich kann diese Ausführungsform auch weitere Gruppen umfassen und/oder für andere Sensorarten vorgesehen sein, beispielsweise Wärmebildkameras, Ultraschallsensoren, Radarsensoren oder Lidarsensoren.
Weiter alternativ oder zusätzlich werden aus den erfassten Sensordaten 10 abgeleitete Ergebnisse 40-2, 40-3 der zwei Gruppen 2, 3 von Sensoren 2-x, 3-x anhand von vorgegebenen Plausibilisierungsmerkmalen 21 im Umfeld plausibilisiert. Die für ein Umfeld vorgegebenen Plausibilisierungsmerkmale 21 können beispielsweise aus einer im Speicher 4-2 hinterlegten Umfeldkarte 20 (Fig. 1) abgerufen werden. Das beispielhafte Plausibilisierungsmerkmal 21 (Fig. 3) ist im (aktuellen) Umfeld des Fahrzeugs 50 angeordnet und wird von den Sensoren 2-x, 3-x der Gruppen 2, 3 erfasst. Zur Plausibilisierung wird insbesondere überprüft, ob die aus den von den Sensoren 2-x, 3-x erfassten Sensordaten 10 abgeleiteten Ergebnisse 40-2, 40-3 mit den Plausibilisierungsmerkmal 21 übereinstimmen (z.B. hinsichtlich einer Art und einer Position). Ist das Plausibilisierungsmerkmal 21 beispielsweise eine Lichtsignalanlage, so wird überprüft, ob ausgehend von den erfassten Sensordaten 10 der Sensoren 2-x, 3-x an der in der Umfeldkarte 20 zugehörig hinterlegten Position im (aktuellen) Umfeld ebenfalls das Objekt bzw. Merkmal „Lichtsignalanlage“ erkannt wurde. Ist dies der Fall, so werden die ausgehend von den erfassten Sensordaten 10 der Sensoren 2-x, 3-x abgeleiteten Ergebnisse 40-2, 40-3 als plausibel beurteilt, anderenfalls als nicht plausibel.
Die Auswertungseinrichtung 4 ist ferner dazu eingerichtet, das Fahrzeug 50 in einen sicheren Zustand zu überführen oder das Überführen in einen sicheren Zustand zu veranlassen, wenn mindestens eine der vorgenannten Plausibilisierungen fehlschlägt oder eine vorgegebene Anzahl von Sensoren 2-x, 3-x ausgefallen ist. Dies erfolgt insbesondere, indem die Auswertungseinrichtung 4 ein Steuersignal 30 an eine Fahrzeugsteuerung 51 übermittelt, welche dann eine Aktorik 52 des Fahrzeugs 50 entsprechend ansteuert.
Es kann vorgesehen sein, dass die zwei Gruppen 2, 3 von Sensoren 2-x, 3-x und/oder die Auswertungseinrichtung 4 dazu eingerichtet sind, eine Objekterkennung für zumindest jede der Gruppen 2, 3 von Sensoren 2-x, 3-x getrennt durchzuführen. Die Objekterkennung kann bereits in den Sensoren 2-x, 3-x und/oder mittels der Sensoren 2-x, 3-x durchgeführt werden und/oder mittels der Auswertungseinrichtung 4. Hierbei können an sich bekannte Verfahren der Computer Vision und/oder der Künstlichen Intelligenz, wie beispielsweise Maschinenlernen, zum Einsatz kommen.
Es kann vorgesehen sein, dass eine Beurteilung der Kritikalität der Ergebnisse 40-2, 40-3 anhand von mindestens einem vorgegebenen Kritikalitätskriterium 15 erfolgt. Das Kritikalitätskriterium 15 wird extern vorgegeben und/oder wird oder ist in dem Speicher 4-2 hinterlegt.
Es kann vorgesehen sein, dass die Ergebnisse 40-2, 40-3 ausgehend von den erfassten Sensordaten 10 im Umfeld erkannte Objekte 22 (Fig. 3) umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium 15 eine Objektexistenz umfasst oder beinhaltet. Dies kann anhand der Fig. 3 verdeutlicht werden. Erkennen die Sensoren 2-x beispielsweise das Objekt 22, die Sensoren 3-x hingegen nicht, so werden die Sensordaten 10 bzw. die hieraus abgeleiteten Ergebnisse 40-2 der Sensoren 2-x als kritischer beurteilt, da ein erkanntes
Objekt 22 potentiell gefährlicher für das Fahrzeug 50 ist, als eine Freifläche bzw. kein Objekt 22. Zudem ist das fehlerhafte Feststellen oder Erkennen des Objektes 22 weniger gefährlich als das fehlerhafte Feststellen, dass kein Objekt 22 vorhanden ist. Daher wird mit den Sensordaten 10 bzw. mit dem Ergebnis 40-2 der Sensoren 2-x weitergearbeitet, die die Objektexistenz des Objektes 22 festgestellt haben.
Es kann vorgesehen sein, dass die Ergebnisse 40-2 ,40-3 ausgehend von den erfassten Sensordaten 10 im Umfeld erkannte Objekte umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium 15 eine Objektart umfasst oder beinhaltet. Hierbei werden insbesondere Objekte 22 als umso kritischer beurteilt, je größer ein (mechanischer) Einfluss dieser Objekte 22 auf das Fahrzeug 50 ist. Beispielsweise wird ein Felsbrocken als kritischer beurteilt als eine Plastiktüte.
Es kann vorgesehen sein, dass die Ergebnisse ausgehend von den erfassten Sensordaten 10 im Umfeld erkannte Objekte 22-x (Fig. 2) umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium 15 eine Objektgröße und/oder eine Objektentfernung zum Fahrzeug 50 umfasst oder beinhaltet. Dies ist schematisch in der Fig. 2 verdeutlicht. Dort ist ein einziges Objekt 22-2, 22-3 gezeigt, welches aber von den Gruppen 2, 3 von Sensoren 2-x, 3-x an unterschiedlichen Positionen im Umfeld erkannt wird (die Ziffer hinten am Bezugszeichen bezeichnet hierbei die Gruppe 2 oder 3). Da eine Objektentfernung des erkannten Objekts 22-3 kleiner ist als eine Objektentfernung des erkannten Objekts 22-2, wird das Objekt 22-3 als kritischer beurteilt und daher als (Gesamt-)Ergebnis 25 verwendet. Ein entsprechendes Szenario kann sich ergeben, wenn durch beide Gruppen 2, 3 zwar gleiche Objektentfernungen bestimmt werden, sich jedoch eine aus den Sensordaten 10 bestimmte Objektgröße unterscheidet. In diesem Fall wird die Objektgröße mit dem größeren Wert als kritischer beurteilt und entsprechend als (Gesamt-)Ergebnis 25 bereitgestellt.
Es kann vorgesehen sein, dass das Umfelderfassungssystem 1 mindestens drei Gruppen 2, 3, 5 (Fig. 1) von Sensoren 2-x, 3-x, 5-x aufweist, wobei die Auswertungseinrichtung 4 dazu eingerichtet ist, eine Plausibilisierung der ausgehend von den aus den jeweiligen erfassten Sensordaten 10 abgeleiteten Ergebnisse 40-x der Gruppen 2, 3, 5 gegeneinander auf Grundlage einer m-aus-n-Entscheidung durchzuführen und/oder ein Gesamtergebnis 25 ausgehend von den aus den jeweiligen erfassten Sensordaten 10 abgeleiteten Ergebnissen 40- x der jeweiligen Gruppen 2, 3, 5 von Sensoren 2-x, 3-x, 5-x auf Grundlage einer m-aus-n- Entscheidung zu treffen und bereitzustellen. Beispielsweise können im Rahmen einer 2-aus-3- Entscheidung diejenigen Sensordaten 10 und/oder Ergebnisse 40-x als plausibel erachtet werden, die eine 2-aus-3-Mehrheit aufweisen. Erkennen beispielsweise die Gruppen 2 und 3 das gleiche Objekt 22, die Gruppe 5 hingegen nicht, so werden die Sensordaten 10 der Sensoren 2-x, 3-x der Gruppen 2 und 3 als plausibel beurteilt und/oder ein Gesamtergebnis 25 wird ausgehend von den Sensordaten 10 und/oder den Ergebnissen 40-2, 40-3 der Gruppen 2 und 3 erzeugt und bereitgestellt. Das Ergebnis 40-5 der Gruppe 5 wird hingegen verworfen.
Bezugszeichenliste
Umfelderfassungssystem
Gruppe -x Sensor
Gruppe -x Sensor
Auswertungseinrichtung -1 Recheneinrichtung -2 Speicher
Gruppe -x Sensor 0 Sensordaten 5 Kritikalitätskriterium 0 Umfeldkarte 1 Plausibilisierungsmerkmal 2 Objekt 2-2 Objekt (von Gruppe 2 erkannt) 2-3 Objekt (von Gruppe 3 erkannt) 5 Gesamtergebnis 0 Steuersignal 0-x Ergebnis 0 Fahrzeug 1 Fahrzeugsteuerung 2 Aktorik

Claims

Patentansprüche Umfelderfassungssystem (1) für ein Fahrzeug (50), umfassend: mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x), wobei die mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) in Bezug auf zumindest eine Hardware, eine Energieversorgung und eine Datenkommunikation unabhängig voneinander eingerichtet sind, und eine Auswertungseinrichtung (4), die dazu eingerichtet ist, von den Sensoren (2-x,3-x,5-x) erfasste Sensordaten (10) auszuwerten, wobei die mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) und die Auswertungseinrichtung (4) dazu eingerichtet sind,
- dass zwei unterschiedliche Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) den gleichen Umfeldbereich mit mindestens zwei unterschiedlichen Sensorarten erfassen und aus den erfassten Sensordaten (10) abgeleitete Ergebnisse der Gruppen (2,3,5) gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- dass zwei unterschiedliche Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) mit gleichen Sensorarten Umfeldbereiche mit einem vorgegebenen Mindestüberlapp der jeweiligen Erfassungsbereiche erfassen, und aus den erfassten Sensordaten (10) abgeleitete Ergebnisse der Gruppen (2,3,5) im Überlappungsbereich gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- dass aus den erfassten Sensordaten (10) abgeleitete Ergebnisse der mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) anhand von vorgegebenen Plausibilisierungsmerkmalen (21) im Umfeld plausibilisiert werden; wobei die Auswertungseinrichtung (4) ferner dazu eingerichtet ist, das Fahrzeug (50) in einen sicheren Zustand zu überführen oder das Überführen in einen sicheren Zustand zu veranlassen, wenn mindestens eine der vorgenannten Plausibilisierungen fehlschlägt oder eine vorgegebene Anzahl von Sensoren (2-x,3-x,5-x) ausgefallen ist. Umfelderfassungssystem (1) nach Anspruch 1 , dadurch gekennzeichnet, dass die mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) und/oder die Auswertungseinrichtung (4) dazu eingerichtet sind, eine Objekterkennung für zumindest jede der Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) getrennt durchzuführen. Umfelderfassungssystem (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Beurteilung der Kritikalität der Ergebnisse anhand von mindestens einem vorgegebenen Kritikalitätskriterium (15) erfolgt. Umfelderfassungssystem (1) nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Ergebnisse ausgehend von den erfassten Sensordaten (10) im Umfeld erkannte Objekte (22,22-x) umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium (15) eine Objektexistenz umfasst oder beinhaltet. Umfelderfassungssystem (1) nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass die Ergebnisse ausgehend von den erfassten Sensordaten (10) im Umfeld erkannte Objekte (22,22-x) umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium (15) eine Objektart umfasst oder beinhaltet. Umfelderfassungssystem (1) nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass die Ergebnisse ausgehend von den erfassten Sensordaten (10) im Umfeld erkannte Objekte (22,22-x) umfassen, wobei das mindestens eine vorgegebene Kritikalitätskriterium (15) eine Objektgröße und/oder eine Objektentfernung zum Fahrzeug (50) umfasst oder beinhaltet. Umfelderfassungssystem (1) nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Auswertungseinrichtung (4) ferner dazu eingerichtet ist, die vorgegebenen Plausibilisierungsmerkmale (21) in einer Umfeldkarte (20) bereitzuhalten und/oder aus dieser abzurufen. Umfelderfassungssystem (1) nach einem der Ansprüche 1 bis 7, gekennzeichnet durch mindestens drei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x), wobei die Auswertungseinrichtung (4) dazu eingerichtet ist, eine Plausibilisierung der ausgehend von den aus den jeweiligen erfassten Sensordaten (10) abgeleiteten Ergebnisse der Gruppen (2,3,5) gegeneinander auf Grundlage einer m-aus-n-Entscheidung durchzuführen und/oder ein Gesamtergebnis (25) ausgehend von den aus den jeweiligen erfassten Sensordaten (10) abgeleiteten Ergebnissen der jeweiligen Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) auf Grundlage einer m-aus-n-Entscheidung zu treffen und bereitzustellen. Fahrzeug (50), umfassend mindestens ein Umfelderfassungssystem (1) nach einem der Ansprüche 1 bis 8. Verfahren zum Erfassen eines Umfelds eines Fahrzeugs (50), wobei das Umfeld mittels mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) erfasst wird, wobei die mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) in Bezug auf zumindest eine Hardware, eine Energieversorgung und eine Datenkommunikation unabhängig voneinander betrieben werden, wobei die mittels der Sensoren (2-x,3-x,5-x) erfassten Sensordaten (10) mittels einer Auswertungseinrichtung (4) ausgewertet werden,
- wobei zwei unterschiedliche Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) den gleichen Umfeldbereich mit mindestens zwei unterschiedlichen Sensorarten erfassen und aus den erfassten Sensordaten (10) abgeleitete Ergebnisse der Gruppen (2,3,5) gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- wobei zwei unterschiedliche Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) mit gleichen Sensorarten Umfeldbereiche mit einem vorgegebenen Mindestüberlapp der jeweiligen Erfassungsbereiche erfassen, und aus den erfassten Sensordaten (10) abgeleitete Ergebnisse der Gruppen (2,3,5) im Überlappungsbereich gegeneinander plausibilisiert werden, wobei bei unterschiedlichen Ergebnissen dasjenige Ergebnis gewählt und bereitgestellt wird, das als kritischer beurteilt wird, und/oder
- wobei aus den erfassten Sensordaten (10) abgeleitete Ergebnisse der mindestens zwei Gruppen (2,3,5) von Sensoren (2-x,3-x,5-x) anhand von vorgegebenen Plausibilisierungsmerkmalen (21) im Umfeld plausibilisiert werden; und wobei das Fahrzeug (50) in einen sicheren Zustand überführt wird, wenn mindestens eine der vorgenannten Plausibilisierungen fehlschlägt oder eine vorgegebene Anzahl von Sensoren (2-x,3-x,5-x) ausgefallen ist.
PCT/EP2023/080799 2022-11-18 2023-11-06 Umfelderfassungssystem für ein fahrzeug und verfahren zum erfassen eines umfelds eines fahrzeugs WO2024104803A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022212275.5 2022-11-18
DE102022212275.5A DE102022212275A1 (de) 2022-11-18 2022-11-18 Umfelderfassungssystem für ein Fahrzeug und Verfahren zum Erfassen eines Umfelds eines Fahrzeugs

Publications (1)

Publication Number Publication Date
WO2024104803A1 true WO2024104803A1 (de) 2024-05-23

Family

ID=88757578

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/080799 WO2024104803A1 (de) 2022-11-18 2023-11-06 Umfelderfassungssystem für ein fahrzeug und verfahren zum erfassen eines umfelds eines fahrzeugs

Country Status (2)

Country Link
DE (1) DE102022212275A1 (de)
WO (1) WO2024104803A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190049958A1 (en) * 2017-08-08 2019-02-14 Nio Usa, Inc. Method and system for multiple sensor correlation diagnostic and sensor fusion/dnn monitor for autonomous driving application
US20190196481A1 (en) * 2017-11-30 2019-06-27 drive.ai Inc. Method for autonomous navigation
US20200339151A1 (en) 2019-04-29 2020-10-29 Aptiv Technologies Limited Systems and methods for implementing an autonomous vehicle response to sensor failure
DE102020118620A1 (de) * 2020-07-15 2022-01-20 Bayerische Motoren Werke Aktiengesellschaft Positionsbestimmung für ein Fahrzeug

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10149115A1 (de) 2001-10-05 2003-04-17 Bosch Gmbh Robert Objekterfassungsvorrichtung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190049958A1 (en) * 2017-08-08 2019-02-14 Nio Usa, Inc. Method and system for multiple sensor correlation diagnostic and sensor fusion/dnn monitor for autonomous driving application
US20190196481A1 (en) * 2017-11-30 2019-06-27 drive.ai Inc. Method for autonomous navigation
US20200339151A1 (en) 2019-04-29 2020-10-29 Aptiv Technologies Limited Systems and methods for implementing an autonomous vehicle response to sensor failure
DE102020118620A1 (de) * 2020-07-15 2022-01-20 Bayerische Motoren Werke Aktiengesellschaft Positionsbestimmung für ein Fahrzeug

Also Published As

Publication number Publication date
DE102022212275A1 (de) 2024-05-23

Similar Documents

Publication Publication Date Title
WO2019068291A1 (de) - prüfen eines neuronalen netzes -
DE102015216494A1 (de) Verfahren und Vorrichtung zur Erkennung wenigstens einer Sensorfunktion wenigstens eines ersten Sensor wenigstens eines ersten Fahrzeugs
DE102017214611B4 (de) Verfahren zum Überprüfen eines Reaktionssignals einer Fahrzeugkomponente sowie Überprüfungsvorrichtung und Kraftfahrzeug
DE112018006702T5 (de) Bestimmung der zuverlässigkeit von fahrzeugsteuerbefehlen unter verwendung eines abstimmungsmechanismus
DE102020214860A1 (de) System und verfahren zum erkennen eines böswilligen angriffs
DE102018126270A1 (de) Dezentralisierte fahrzeugsteuerung der minimalen risikobedingung
EP3642717A1 (de) Vorrichtung und verfahren zum ansteuern eines fahrzeugmoduls
DE102014216018A1 (de) Steuervorrichtung, fahrzeug und verfahren
DE60104845T2 (de) System und verfahren zur diagnose von fehlerzuständen in der energieversorgung einer elektrischen last
DE102017214531A1 (de) Verfahren und Vorrichtung zum Betreiben eines Kraftfahrzeugs in einem automatisierten Fahrbetrieb sowie Kraftfahrzeug
DE102015224696A1 (de) Risikobasierte Steuerung eines Kraftfahrzeugs
EP1972026B1 (de) Antennensystem, zugangskontrollsystem für ein kraftfahrzeug und diagnoseverfahren
DE102020203829A1 (de) Verfahren zum Überwachen eines Fahrzeugsystems zum Erkennen einer Umgebung eines Fahrzeugs
DE102018206743A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug
DE102017113478A1 (de) Verfahren zum Betreiben einer Steuerungseinrichtung für den Betrieb mit einer redundanten Sensorvorrichtung in einem Kraftfahrzeug
WO2024104803A1 (de) Umfelderfassungssystem für ein fahrzeug und verfahren zum erfassen eines umfelds eines fahrzeugs
DE102019211459A1 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102018220393A1 (de) Vorrichtung und Verfahren zum Auffinden eines gesuchten Fahrzeugs
DE102020214591B4 (de) Fahrzeugnetzwerksystem
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
DE102020001309A1 (de) Verfahren zum Betreiben einer elektronischen Recheneinrichtung für ein Kraftfahrzeug, sowie elektronische Recheneinrichtung
DE102020203058A1 (de) Automatisierte Zuverlässigkeitsprüfung einer infrastrukturseitigen Überwachungssensorik
DE102020114609A1 (de) Verfahren zum Bereitstellen eines introspektiven Fehlervorhersagemodells, Assistenzsystem und Kraftfahrzeug
DE102020118628A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Position eines Fahrzeugs
DE102019111608A1 (de) Verfahren zum Bestimmen einer Eigenbewegung eines Kraftfahrzeugs, elektronische Recheneinrichtung sowie elektronisches Fahrzeugführungssystem

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23804621

Country of ref document: EP

Kind code of ref document: A1