WO2016124189A1 - Sensorsystem für ein fahrzeug und verfahren - Google Patents

Sensorsystem für ein fahrzeug und verfahren Download PDF

Info

Publication number
WO2016124189A1
WO2016124189A1 PCT/DE2016/200056 DE2016200056W WO2016124189A1 WO 2016124189 A1 WO2016124189 A1 WO 2016124189A1 DE 2016200056 W DE2016200056 W DE 2016200056W WO 2016124189 A1 WO2016124189 A1 WO 2016124189A1
Authority
WO
WIPO (PCT)
Prior art keywords
allocation
grid
sensor
occupancy
individual
Prior art date
Application number
PCT/DE2016/200056
Other languages
English (en)
French (fr)
Inventor
Ralph GREWE
Christoph Hassenpflug
Stefan Hegemann
Original Assignee
Conti Temic Microelectronic Gmbh
Continental Teves Ag & Co. Ohg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic Gmbh, Continental Teves Ag & Co. Ohg filed Critical Conti Temic Microelectronic Gmbh
Priority to DE112016000567.9T priority Critical patent/DE112016000567A5/de
Publication of WO2016124189A1 publication Critical patent/WO2016124189A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers

Definitions

  • the present invention relates to a sensor system for a vehicle and a corresponding method.
  • driver assistance systems In modern vehicles, increasingly complex driver assistance systems are used. For such driver assistance systems and functions such as e.g. highly automated driving, a large number of sensors in the vehicle are required, which enable a re dundante 360 ° monitoring of the vehicle environment. For this purpose, objects in the vehicle environment are usually detected and an occupancy grid or occupancy grid for the vehicle environment is calculated.
  • Stereo cameras today provide a very high-resolution 3D measurement of the environment of the vehicle, but unlike the radar, they can not measure speeds directly. These must be determined by the 3D camera through various algorithms that compare successive images (optical flow). Thus, a stereo camera loses wertvol ⁇ le reaction time as it takes several cycles to ⁇ he convey that an object is moving.
  • the present invention discloses a sensor system having the features of claim 1 and a method having the features of claim 9.
  • a sensor system for a vehicle comprising a plurality of sensor devices which are configured to acquire raw data about an environment of the vehicle and to calculate and output for each detection time at least one occupancy grid from the acquired raw data, and to a control device which is designed outputting, based on a ⁇ individual occupancy gratings of the sensor means to calculate a mergers ned occupancy grid and to accumulate the calculated difference for ⁇ Liche acquisition times fused Bele ⁇ supply grid time and an accumulated occupancy grid. It is also provided:
  • a method for detecting an environment of a vehicle comprising acquiring raw data on an environment of the vehicle and calculating for each detection time at least one occupancy grid from the acquired raw data in a plurality of sensor devices, calculating a fused occupancy grid based on the individual occupancy ⁇ grids of the sensor devices in a control device, temporally accumulating the fused allocation gratings calculated for different acquisition times in an accumulated allocation grid, and outputting the accumulated allocation grid.
  • the finding underlying the present invention is that today's decentralized processing of sensor raw data requires a high computing power in the individual sensors.
  • the present invention provides a possibility to outsource a large part of the calculations for the detection of moving objects and the static environment of the vehicle to a centra ⁇ le control device. This allows the use of sensors with reduced hardware in a vehicle.
  • the basis of the present invention is the use of so-called occupancy grids or grids for the detection of moving objects.
  • the basic idea of the present invention consists in the fact that the individual sensor devices only calculate a time-unaccumulated occupancy grid for individual measurements.
  • the raw data can be stored in blocks, e.g. be converted into polar occupation grid.
  • the raw data of the corresponding sensors for a single occupancy grid or block needs to fit into the memory of the individual sensor devices. This significantly reduces the storage capacity of the sensors.
  • a parallelization can be carried out since parallel processing can be carried out in a single sensor. For this, e.g. several blocks of a polar sensor grid are calculated in parallel. For example, one arithmetic unit could run in parallel for each "angle beam" or several blocks of a-azimuth cells x b-radial cells are calculated in parallel, thus allowing an advantageous reduction of the cycle times compared to a serial calculation of the complete polar sensor grating be achieved.
  • the present invention provides that the individual Bele ⁇ tion grid of the sensor devices are processed and fused in a central control device.
  • the control device calculates a fused allocation grid from the individual allocation grids, for example by superimposing the individual allocation grids.
  • the control device can calculate a time-accumulated occupancy grid which identifies a change over time of the vehicle environment.
  • the present invention thus enables the use simp ⁇ cher sensors with low complexity, while still providing the vehicle's surroundings can be captured in detail.
  • the data of individual sensors can be used more quickly or made plausible.
  • the data of a camera can be immediately compared with the data of a radar sensor. Because the radar sensor can detect the speed of objects directly, the camera does not need to first compute an optical flow based on multiple images taken in succession to detect an object velocity or motion. This can be done immediately in the control device.
  • the information from both sensors can be used directly instead of each sensor only alone trying to calculate feh ⁇ loin data and these data are then compared. Instead, this approach directly accesses the immediately available information from both sensors and begins to determine, for example, via the camera speed or to close the radar on the width of various obstacles.
  • the individual sensor devices can be equipped with a lower computing power and with a smaller memory, they also have a smaller size and require less cooling.
  • control device is designed based on the individual allocation grids of the sensor devices and / or the fused allocation gratings and / or the accumulated coverage grid to perform a detection of moving objects and remove the detected moving objects from the individual grids of the sensor devices and / or the fused allocation grids and / or the accumulated allocation grid, wherein the control device is further formed, an object list of the detected moving objects issue.
  • vehicle functions such as an autonomous vehicle control system, detailed information on moving objects in the surroundings of the vehicle.
  • the sensor devices are designed to transmit the raw data to the control device.
  • the controller is configured further to output the objects based on the raw data to erken ⁇ nen and / or the raw data. This makes it possible to use the raw data in the control device for better fusion of the allocation grid or for better object recognition.
  • the sensor means are adapted to compress the calculated occupancy grid and to be transmitted via a communication interface to the Steuereinrich ⁇ tung, wherein the communication interface is designed in particular as a digital data bus and / or wherein the communication interface is independent of the depending ⁇ ava sensor device.
  • the communication interface is designed in particular as a digital data bus and / or wherein the communication interface is independent of the depending ⁇ ava sensor device.
  • sensor devices which are designed to calculate only an occupancy probability for individual points of the surroundings of the vehicle are designed to indicate the calculated occupancy probabilities in the occupancy grid.
  • sensor devices which are adapted to calculate a Bele ⁇ supply Probability for individual points around the vehicle and to calculate a relative speed of objects in the surroundings of the vehicle, purchasedbil ⁇ det where allocation grid, the calculated occupancy probabilities and the calculated relative velocities specify. This makes it possible to provide a function of the probability of the individual sensors capable ⁇ corresponding occupancy grid.
  • control device is designed to perform an error detection for individual sensor devices based on the individual assignment gratings of the respective sensor device and the fused assignment gratings and / or the accumulated allocation grid. This allows a central error detection, in which a much larger database is available, as in the individual sensor devices.
  • control device is designed to calculate a measure of the deviation of the individual coverage grids of the respective sensor device from the merged allocation gratings and / or the accumulated allocation grid and to display an error for the respective sensor device if the measure for the deviation exceeds a predetermined threshold value , This allows a very simple error detection.
  • FIG. 1 shows a block diagram of an embodiment of a sensor system according to the invention
  • FIG. 2 shows a flow chart of an embodiment of a method according to the invention
  • FIG. 3 is a block diagram of an embodiment of a sensor system according to the invention.
  • FIG. 4 shows a block diagram of an embodiment of a sensor system according to the invention.
  • FIG. 1 shows a block diagram of an embodiment of a sensor system 1-1 according to the invention.
  • the sensor system 1-1 of FIG. 1 has a control device 6-1, which is coupled to a sensor device 3-1 and to a sensor device 3-n. Further possible sensor devices are indicated by three points between the sensor device 3-1 and the sensor device 3-n.
  • the sensor devices 3-1, 3-n detect the environment e.g. of a vehicle 2 (see FIG. 3) in which the sensor system 1-1 can be arranged.
  • each of the sensor devices 3-1, 3-n e.g. capture a section of the environment.
  • the sensor devices 3-1, 3-n can be any type of sensor devices 3-1, 3-n that can be used to detect an environment of a vehicle 2.
  • one of the sensor devices 3-1, 3-n may, for example, be a radar sensor, a camera, an ultrasound sensor or the like.
  • the sensor devices 3-1, 3-n are formed from the raw data 4-1, 4-n, which detect the measuring elements (see FIG. 4) of the sensor devices 3-1, 3-n, occupying gratings 5-1 - 5. n, also called occupancy grid, to calculate and output to the controller 6-1.
  • the sensor devices 3-1, 3-n each have a computing device 15-1, 15-n, which carries out the necessary calculations.
  • the computing device 15-1, 15-n respectively corresponding ⁇ speaking dimensioned possible that this only the not ⁇ manoeuvrable calculations for the calculation of the corresponding occupancy grid 5-1 - 5-n can perform.
  • the amount of main memory or the processor power in the computing device 15-1, 15-n can be dimensioned correspondingly small, so that no further calculations can be performed in the computing device 15-1, 15-n.
  • the sensor devices 3-1, 3-n or the computing devices 15-1, 15-n may be configured to calculate the allocation gratings 5-1, 5-n in blocks or blocks and to the control device 6-1 transferred to.
  • a block may include the entire environmental area detected by the respective sensor device 3-1, 3-n.
  • a block may include only a section of the by the respective sensor device 3-1, 3-n detected environmentssbe ⁇ kingdom.
  • the respective sensor device 3-1, 3-n transmits a sequence of blocks to transmit an allocation grid 5-1, 5-n for the entire detected surrounding area.
  • the controller 6-1 is formed from the occupant ⁇ gittern 5-1, 5-n are each a fused occupancy grid 7-1 - 7-n to calculate, which is a fusion of the detected at a time occupancy grid 5-1, 5-n represents.
  • the fusi ⁇ on convinced occupancy grid 7-1 - 7-n, as the occupancy grid 5-1, 5-n, have no time-dependent information.
  • the control device 6-1 calculates an accumulated Bele ⁇ grating grid 8, which takes into account the change of the individual fused occupancy grid 7-1 - 7-n over time.
  • one of the sensor devices 3-1, 3-n may be a camera which can only determine the position of objects 9-1 - 9-n with a single shot, but no speed.
  • Another of the Sensorein ⁇ directions 3-1, 3-n for example, be a radar sensor, which can determine both the position and the speed of the respective object 9-1 - 9-n with a single shot.
  • Such a sensor device 3-1-3-n transmits to the control device 6-1 an allocation grid 5-1, 5-n, which has two layers or layers. In a first Layer, the position of the respective object 9-1 - 9-n is shown, while the second layer represents the speed or relative speed of the object 9-1 - 9-n. Through the layer with velocity information, the detection and tracking of moving objects 9-1 - 9-n can be improved.
  • a stereo camera For example, a stereo camera, a very high up ⁇ sparked 3D measurement of the environment at disposal, but in contrast to a radar speed measuring directly, but must do so by using different algorithms that compare consecutive images determined. As a result, the stereo camera loses valuable response time because it takes several cycles to determine that an object is moving.
  • the speed information of the radar can thus be linked directly to the measurements of the stereo camera.
  • the information of both sensor devices 3- 1, 3-n can be used directly. It does not have any of the sensor devices ⁇ 3-1, 3-n only separately not try to calculate vorhande ⁇ ne data. Rather, according to the invention, the immediately available information of both sensor devices 3-1, 3-n is accessed directly. For example, neither a speed is determined by the camera nor closed by the radar on the width of various obstacles. Rather, these data are respectively calculated from the most suitable motion grid 5-1, 5-n or calculated from a fusion of the motion gratings 5-1, 5-n.
  • the speed of an object from egg ⁇ nem radar is determined.
  • a camera for example, a stereo camera, not multiple images of under ⁇ different points in time.
  • Even the very complicated optical flow does not have to calculate the ⁇ on the camera.
  • the optical flux on the sensor device 3-1, 3-n formed as a camera can continue to be calculated, and thus a balance between the speed detected by the sensor device 3-1, 3-n formed as a camera and that formed as a radar Sensor device 3-1, 3-n detected speed fürge ⁇ leads.
  • the present invention thus allows the hard ⁇ ware equipment of the sensor devices participating 3-1, strongly reducing 3-n, and a merged information of multiple sensors, which has a higher quality of the data over a single sensor at an earlier time output (eg may be available after ei ⁇ nem cycle a fused radar camera object with good speed and latitude data).
  • a sensor-independent communication interface 11 sets ⁇ so that a simple extension to future Sen ⁇ sor sensibleen is possible.
  • the communication interface 11 enables high data compression with efficient methods, allowing data transmission with a low transmission capacity compared to a raw data transmission.
  • FIG. 2 shows a flow chart of an embodiment of a method according to the invention for recognizing an environment of a vehicle 2.
  • the method sees the acquisition, Sl, of raw data 4-1 - 4-n to an environment of the vehicle 2 and calculating for each detection time of at least one occupation grating 5-1 - 5-n from the acquired raw data 4-1 - 4-n in a plurality of sensor devices 3-1 - 3-n.
  • the method provides for calculating S2 a fused occupancy grid 7-1 - 7n based on the individual occupancy lattices 5-1 - 5-n of the sensor facilities 3-1 - 3-n in a controller 6-1 - 6-n.
  • the fused allocation gratings 7-1-7-n calculated for different acquisition times are accumulated in time in an accumulated allocation grid 8, S3, and the accumulated allocation grid 8 is output, S4.
  • not only the occupancy of the surroundings of the vehicle 2 in an accumulated allocation grid 8 can be output. Rather, detection of moving objects 9-1 - 9-n by the control device 6-1 - 6-n based on the individual assignment gratings 5-1 - 5-n of the sensor devices 3-1 - 3-n and / or the fused ones can also be performed Occupancy gratings 7-1 - 7-n and / or the accumulated allocation grid 8 are performed.
  • the knowledge obtained about the moving objects 9-1 - 9-n can be used by the control device 6-1 - 6-n to remove the detected moving objects 9-1 - 9-n from the individual assignment gratings 5-1 - 5-n Sensor devices 3-1 - 3-n and / or the fused allocation grids 7-1 - 7-n and / or the accumulated allocation grid 8 use. Furthermore, an object list 10 of the detected moving objects 9-1 - 9-n can be output.
  • the raw data 4-1-4-n may be transmitted from the sensor devices 3-1-3-n to the controller 6-1-6-n, thereby also detecting the objects 9-1-9-n the raw data 4-1 - 4-n can be used. This can also take place in compressed form.
  • the occupancy grids for those sensor devices 3-1 - 3-n that are configured to calculate both an occupancy probability for individual points of the environment of the vehicle 2 and a relative speed for objects 9-1 - 9-n in the To calculate ⁇ tion of the vehicle 2 have two layers indicating the calculated occupancy probabilities and the calculated relative velocities.
  • errors of individual sensor devices 3-1-3-n may be determined by the control devices 6-1-6-n based on the individual allocation gratings 5-1-5-n of the respective sensor device 3-1-3-n and the fused allocation gratings 7-1 - 7-n and / or the accumulated allocation grid 8 are detected.
  • This may, in one embodiment, be calculated by calculating a measure of the deviation of the individual occupancy gratings 5-1 - 5-n of the respective sensor devices 3-1 - 3-n from the merged occupancy gratings 7-1 - 7-n and / or the accumulated occupancy grid 8 and detection of an error for the respective sensor device 3-1 - 3-n occur when the measure of the deviation exceeds a predetermined threshold.
  • FIG. 3 shows a block diagram of an embodiment of a sensor system 1-2 according to the invention in a vehicle 2.
  • the sensor system 1-2 of FIG. 3 is based on the sensor system 1-1 of FIG. 1 and is arranged in a vehicle 2. Furthermore, the sensor system 1-2 has six sensor devices 3-3-3-8.
  • the sensor devices 3-3 and 3-4 are designed as ra ⁇ darbasêt sensor devices 3-3, 3-4, which are arranged at the front of the vehicle 2.
  • the Sensorein ⁇ directions 3-5 - 3-8 are each formed as a top-view cameras system and each disposed on one of the four sides of the vehicle 2. Different arrangements and realiz ⁇ conclusions of the sensor devices 3-3 - 3-8 are possible.
  • the individual sensor devices 3-3 - 3-8 transmit the grids 5-3 - 5-8 to the control device 6-2. This can be done block by block in one embodiment.
  • the allocation grids 5-3 - 5-8 are linked to form a fused allocation grating 7-3.
  • FIG. 3 for the sake of clarity, only a fused allocation grid 7-3 is shown. It is understood that zyk ⁇ cally merged occupancy grid 7-3 based on the per ⁇ wells current occupancy grids 5-3 - 5-8 are generated.
  • the accumulated motion grid 8 is calculated from the fused allocation gratings 7-3.
  • the control device 6-2 of FIG. 3 is further configured to detect, based on the placement gratings 5-3-5-8, the merged allocation gratings 7-3 and the accumulated movement grid 8 moving objects 9-1-9-n, which are shown in FIG Fig. 3 are shown only schematically in front of the vehicle 2.
  • the control device 6-2 outputs, based on the detected moving objects 9-1 - 9-n, an object list 10 which, together with the accumulated movement grille 8, can be used by another vehicle function 12 to control the vehicle.
  • An object list 10 has detailed information, such as Position, speed, size and the like of the detected objects 9-1 - 9-n.
  • FIG. 4 shows a block diagram of an embodiment of a sensor system 1-3 according to the invention.
  • the sensor system 1-3 of FIG. 4 is also based on the sensor system 1-1 of FIG. 1.
  • the sensor devices 3-9 and 3-10 of the sensor system 1-3 each have a measuring element 13-1 and 13-2, a computing device 15-9, 15-10 and a compression device 16-1, 16-2.
  • the sensing elements 13-1 and 13-2 each serve the detection of the surroundings of the vehicle 2.
  • the measurement may be formed ⁇ elements 13-1 and 13-2 as a camera, radar, ultrasonic sensor, infrared sensor or the like.
  • the sensing elements 13-1 and 13-2 represent the raw data 4-9, 4-10 of each ⁇ loom measuring the computing means 15-9, 15-10 prepared which calculates therefrom a occupancy grid 5-9, 5-10.
  • the allocation grid 5-9, 5-10 can, depending on the type of Messele ⁇ element 13-1 and 13-2 in the allocation grid 5-9, 5-10 calculated occupancy probabilities and / or calculated relative speeds of objects 9-1 - 9-n output.
  • the compression device 16-1, 16-2 compresses the data of the occupancy grid 5-9, 5-10 for efficient Studentstra ⁇ supply the data via the communication interface 11 to the controller 6-3.
  • the computation and compression of the occupancy grid 5-9, 5- 10 may, as already described above, are carried out block-wise in an exporting ⁇ approximate shape.
  • 5-n moving objects 9-1 - 9-n may include, arise in the fused occupancy gratings 7-4 and the merged accumulated Bestoffsgit ⁇ ter 8 artifacts caused by moving objects 9-1 - 9-n , This Arte ⁇ fakte have typical properties and can therefore be detected and eliminated.
  • the present invention provides in the control device that moving objects in the fused allocation ⁇ grids 7-4 and the accumulated motion grid 8 are detected and tracked by an object detector 18 and an object tracker 19. This can be used to remove it ⁇ known objects from the accumulated motion grid 8 before it is issued. Consequently, from the controller receive an object list 10 and a static accumulated allocation grid 8.
  • the control device 6-3 of FIG. 4 is also designed for the individual allocation grids 5-9, 5-10 in each case a measure of the deviation of a respective allocation grid 5-9, 5-10 of the merged allocation grid 7-4 or the accumulated Motion grid 8 to calculate and output an error signal when the measure is above a predetermined threshold.
  • the controller 6-1 - 6-3 can for example be designed as a control device in a vehicle 2, which with the individual ⁇ NEN sensor devices 3-1 - 3-n via a vehicle bus, such as a FlexRay bus or a CAN bus, or a network such as an Ethernet network or the like is coupled.
  • a vehicle bus such as a FlexRay bus or a CAN bus, or a network such as an Ethernet network or the like is coupled.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung offenbart ein Sensorsystem für ein Fahrzeug, mit einer Vielzahl von Sensoreinrichtungen, welche ausgebildet sind, Rohdaten zu einer Umgebung des Fahrzeugs zu erfassen und für jeden Erfassungszeitpunkt zumindest ein Belegungsgitter aus den erfassten Rohdaten zu berechnen und auszugeben, und mit einer Steuereinrichtung, welche ausgebildet ist, basierend auf den einzelnen Belegungsgittern der Sensoreinrichtungen ein fusioniertes Belegungsgitter zu berechnen und die für unterschiedliche Erfassungszeitpunkte berechneten fusionierten Belegungsgitter zeitlich zu akkumulieren und ein akkumuliertes Belegungsgitter auszugeben. Ferner offenbart die vorliegende Erfindung ein entsprechendes Verfahren.

Description

Beschreibung Titel
SENSORSYSTEM FÜR EIN FAHRZEUG UND VERFAHREN
Gebiet der Erfindung
Die vorliegende Erfindung bezieht sich auf ein Sensorsystem für ein Fahrzeug und ein entsprechendes Verfahren.
Technischer Hintergrund
Obwohl die vorliegende Erfindung im Folgenden hauptsächlich in Zusammenhang mit Personenkraftwagen beschrieben wird, ist sie darauf nicht beschränkt, sondern kann mit jeder Art von Fahrzeug genutzt werden.
In modernen Fahrzeugen werden immer komplexere Fahrerassistenzsysteme eingesetzt. Für solche Fahrerassistenzsysteme un Funktionen, wie z.B. dem hochautomatisierten Fahren, wird ei ne große Zahl von Sensoren im Fahrzeug benötigt, die eine re dundante 360 ° -Überwachung des Fahrzeugumfelds ermöglichen. Dazu werden üblicherweise Objekte in der Fahrzeugumgebung de tektiert und ein Belegungsgitter bzw. Occupancy-Grid für die Fahrzeugumgebung berechnet.
Die Detektion und das Tracking von bewegten Objekten sowie die Berechnung des Occupancy-Grids findet in Forschungspro¬ jekten z.B. auf einer leistungsfähigen Rapid-Prototyping- Hardware statt. Ferner sind heutige Sensoren in Fahrzeugen für einen autonomen Betrieb ausgelegt, sie funktionieren sozusagen „Stand-Alone" und verfügen über dementsprechend hohe Speicher- und CPU-Ressourcen, um die notwendigen Berechnunge: für die Objekterkennung und das Berechnen des Occupancy-Grid ausführen zu können. Beispielsweise wird in heutige Radarsensoren die gesamte Sig¬ nalverarbeitung integriert, wodurch sie sehr Leistungsstark sind und hohe Anforderungen an Einbauraum und Kühlung stellen .
Stereokameras stellen heute eine sehr hochaufgelöste 3D- Messung des Umfelds des Fahrzeugs zu Verfügung, können jedoch im Gegensatz zum Radar Geschwindigkeiten nicht direkt messen. Diese müssen durch die 3D-Kamera durch diverse Algorithmen, die aufeinanderfolgende Bilder vergleichen (optischer Fluss) ermittelt werden. Dadurch verliert eine Stereokamera wertvol¬ le Reaktionszeit, da sie mehrere Zyklen benötigt, um zu er¬ mitteln, dass sich ein Objekt bewegt.
Offenbarung der Erfindung
Es ist daher eine Aufgabe der vorliegenden Erfindung eine verbesserte Umgebungserfassung in Fahrzeugen bereitzustellen.
Demgemäß offenbart die vorliegende Erfindung ein Sensorsystem mit den Merkmalen des Patentanspruchs 1 und ein Verfahren mit den Merkmalen des Patentanspruchs 9.
Demgemäß ist vorgesehen:
Ein Sensorsystem für ein Fahrzeug, mit einer Vielzahl von Sensoreinrichtungen, welche ausgebildet sind, Rohdaten zu einer Umgebung des Fahrzeugs zu erfassen und für jeden Erfassungszeitpunkt zumindest ein Belegungsgitter aus den erfass- ten Rohdaten zu berechnen und auszugeben, und mit einer Steuereinrichtung, welche ausgebildet ist, basierend auf den ein¬ zelnen Belegungsgittern der Sensoreinrichtungen ein fusio- niertes Belegungsgitter zu berechnen und die für unterschied¬ liche Erfassungszeitpunkte berechneten fusionierten Bele¬ gungsgitter zeitlich zu akkumulieren und ein akkumuliertes Belegungsgitter auszugeben. Ferner ist vorgesehen:
Ein Verfahren zum Erkennen einer Umgebung eines Fahrzeugs, aufweisend Erfassen von Rohdaten zu einer Umgebung des Fahrzeugs und Berechnen für jeden Erfassungszeitpunkt zumindest eines Belegungsgitters aus den erfassten Rohdaten in einer Vielzahl von Sensoreinrichtungen, Berechnen eines fusionierten Belegungsgitters basierend auf den einzelnen Belegungs¬ gittern der Sensoreinrichtungen in einer Steuereinrichtung, zeitlich Akkumulieren der für unterschiedliche Erfassungs¬ zeitpunkte berechneten fusionierten Belegungsgitter in einem akkumulierten Belegungsgitter, und Ausgeben des akkumulierten Belegungsgitters .
Vorteile der Erfindung
Die der vorliegenden Erfindung zu Grunde liegende Erkenntnis besteht darin, dass die heutige dezentrale Verarbeitung von Sensorrohdaten eine hohe Rechenleistung in den einzelnen Sensoren erfordert.
Die der vorliegenden Erfindung zu Grunde liegende Idee be¬ steht nun darin, dieser Erkenntnis Rechnung zu tragen und eine Möglichkeit vorzusehen, die Komplexität der einzelnen Sen¬ soren zu reduzieren.
Dazu sieht vorliegende Erfindung eine Möglichkeit vor, einen großen Teil der Berechnungen für die Erkennung bewegter Objekte und das statische Umfeld des Fahrzeugs auf eine zentra¬ le Steuereinrichtung auszulagern. Dies ermöglicht den Einsatz von Sensoren mit reduzierter Hardware in einem Fahrzeug.
Die Grundlage der vorliegenden Erfindung ist die Nutzung sogenannter Occupancy-Grids bzw. Belegungsgitter für die Detek- tion bewegter Objekte. Die Grundidee der vorliegenden Erfindung besteht dabei darin, dass die einzelnen Sensorvorrichtungen nur noch ein zeitlich nicht akkumuliertes Belegungsgitter für einzelne Messungen berechnen .
Da in den Sensoreinrichtungen folglich keine zeitliche Historie gespeichert werden muss, können die Rohdaten blockweise z.B. in polare Belegungsgitter umgerechnet werden. Da es zudem keine räumlichen Abhängigkeiten über größere Entfernung gibt, müssen nur die Rohdaten der entsprechenden Sensoren für ein einzelnes Belegungsgitter bzw. einen einzelnen Block in den Arbeitsspeicher der einzelnen Sensoreinrichtungen passen. Damit lässt sich die Speicherausstattung der Sensoren deutlich reduzieren.
Zudem lässt sich eine Parallelisierung durchführen, da in einem einzelnen Sensor eine Parallelverabeitung durchgeführt werden kann. Dazu können z.B. mehrere Blöcke eines polaren Sensor-Gitters parallel berechnet werden. Beispielsweise könnte parallel für jeden „Winkel-Strahl" eine Recheneinheit laufen oder es werden mehrere Blöcke von a-Azimuth-Zellen x b-Radial-Zellen parallel berechnet. Gegenüber einer seriellen Berechnung des kompletten polaren Sensor-Gitters kann so eine vorteilhafte Reduktion der Zykluszeiten erzielt werden.
Die vorliegende Erfindung sieht vor, dass die einzelnen Bele¬ gungsgitter der Sensoreinrichtungen in einer zentralen Steuereinrichtung verarbeitet und fusioniert werden. Die Steuer¬ einrichtung berechnet dazu aus den einzelnen Belegungsgittern ein fusioniertes Belegungsgitter, z.B. indem sie die einzelnen Belegungsgitter überlagert. Ferner kann die Steuereinrichtung ein zeitlich akkumuliertes Belegungsgitter berechnen, welches eine zeitliche Veränderung der Fahrzeugumgebung kennzeichnet . Die vorliegende Erfindung ermöglicht damit den Einsatz einfa¬ cher Sensoren mit geringer Komplexität, wobei dennoch die Fahrzeugumgebung im Detail erfasst werden kann.
Durch die Verarbeitung der einzelnen Belegungsgitter in der Steuereinrichtung können die Daten einzelner Sensoren ferner schneller genutzt bzw. plausibilisiert werden.
Beispielsweise können die Daten einer Kamera sofort mit den Daten eines Radarsensors abgeglichen werden. Da der Radarsensor die Geschwindigkeit von Objekten direkt erfassen kann, muss die Kamera nicht erst einen optischen Fluss basierend auf mehreren hintereinander aufgenommenen Bildern berechnen, um eine Objektgeschwindigkeit bzw. Bewegung zu detektieren. Dies kann in der Steuereinrichtung sofort erfolgen.
Somit können die Informationen beider Sensoren direkt genutzt werden, anstatt dass jeder Sensor erst alleine versucht feh¬ lende Daten zu berechnen und diese Daten danach miteinander verglichen werden. Bei diesem Ansatz wird vielmehr direkt auf die sofort verfügbaren Informationen beider Sensoren zugegriffen und erst damit begonnen zum Beispiel über die Kamera Geschwindigkeit zu ermitteln oder über den Radar auf die Breite von verschiedenen Hindernissen zu schließen.
Da die einzelnen Sensoreinrichtungen mit einer geringeren Rechenleistung und mit einem kleineren Speicher ausgestattet werden können, weisen diese ferner eine geringere Baugröße auf und benötigen eine geringere Kühlung.
Vorteilhafte Ausführungsformen und Weiterbildungen ergeben sich aus den Unteransprüchen sowie aus der Beschreibung unter Bezugnahme auf die Figuren.
In einer Ausführungsform ist die Steuereinrichtung ausgebildet, basierend auf den einzelnen Belegungsgittern der Sensoreinrichtungen und/oder den fusionierten Belegungsgittern und/oder dem akkumulierten Belegungsgitter eine Erkennung bewegter Objekte durchzuführen und die erkannten bewegten Objekte aus den einzelnen Belegungsgittern der Sensoreinrichtungen und/oder den fusionierten Belegungsgittern und/oder dem akkumulierten Belegungsgitter zu entfernen, wobei die Steuereinrichtung ferner ausgebildet ist, eine Objektliste der erkannten bewegten Objekte auszugeben. Dies ermöglicht es, für weitere Fahrzeugfunktionen, wie z.B. einer autonomen Fahrzeugsteuerung, eine detaillierte Information zu bewegten Objekten in der Umgebung des Fahrzeugs bereitzustellen.
In einer Ausführungsform sind die Sensoreinrichtungen ausgebildet, die Rohdaten an die Steuereinrichtung zu übertragen. In einer Ausführungsform ist die Steuereinrichtung ausgebildet, die Objekte ferner basierend auf den Rohdaten zu erken¬ nen und/oder die Rohdaten auszugeben. Dies ermöglicht es, die Rohdaten in der Steuereinrichtung zur besseren Fusion der Belegungsgitter bzw. zur besseren Objekterkennung zu nutzen.
In einer Ausführungsform sind die Sensoreinrichtungen ausgebildet, die berechneten Belegungsgitter zu komprimieren und über eine Kommunikationsschnittstelle an die Steuereinrich¬ tung zu übertragen, wobei die Kommunikationsschnittstelle insbesondere als digitaler Datenbus ausgebildet ist und/oder wobei die Kommunikationsschnittstelle unabhängig von der je¬ weiligen Sensoreinrichtung ist. Dies ermöglicht eine effiziente Übertragung der Daten der Belegungsgitter. Ferner können sehr einfach weitere Sensoreinrichtungen in das System integriert werden, wenn die Kommunikationsschnittstelle unabhän¬ gig von der jeweiligen Sensoreinrichtung ist. Beispielsweise kann ein einheitliches Datenformat und ein einheitliches Ko¬ ordinatensystem für die Belegungsgitter vorgegeben werden. Alternativ kann aber für jede Sensoreinrichtung ein eigenes Koordinatensystem genutzt werden, welches dann in der Steuereinrichtung entsprechend mit weiteren Belegungsgittern überlagert werden kann. In einer Ausführungsform sind Sensoreinrichtungen, welche ausgebildet sind, lediglich eine Belegungswahrscheinlichkeit für einzelne Punkte der Umgebung des Fahrzeugs zu berechnen, ausgebildet, in dem Belegungsgitter die berechneten Belegungswahrscheinlichkeiten anzugeben. In einer Ausführungsform sind Sensoreinrichtungen, welche ausgebildet sind, eine Bele¬ gungswahrscheinlichkeit für einzelne Punkte der Umgebung des Fahrzeugs zu berechnen und eine Relativgeschwindigkeit für Objekte in der Umgebung des Fahrzeugs zu berechnen, ausgebil¬ det, in dem Belegungsgitter die berechneten Belegungswahrscheinlichkeiten und die berechneten Relativgeschwindigkeiten anzugeben. Dies ermöglicht es, in Abhängigkeit von den Fähig¬ keiten der einzelnen Sensoren entsprechende Belegungsgitter bereitzustellen.
In einer Ausführungsform ist die Steuereinrichtung ausgebildet, eine Fehlererkennung für einzelne Sensoreinrichtungen basierend auf den einzelnen Belegungsgittern der jeweiligen Sensoreinrichtung und den fusionierten Belegungsgittern und/oder dem akkumulierten Belegungsgitter durchzuführen. Dies ermöglicht eine zentrale Fehlererkennung, bei welcher eine wesentlich größere Datenbasis zur Verfügung steht, als in den einzelnen Sensoreinrichtungen.
In einer Ausführungsform ist die Steuereinrichtung ausgebildet, ein Maß für die Abweichung der einzelnen Belegungsgitter der jeweiligen Sensoreinrichtung von den fusionierten Belegungsgittern und/oder dem akkumulierten Belegungsgitter zu berechnen und einen Fehler für die jeweilige Sensoreinrichtung anzuzeigen, wenn das Maß für die Abweichung einen vorgegebenen Schwellwert überschreitet. Dies ermöglicht eine sehr einfache Fehlererkennung.
Die obigen Ausgestaltungen und Weiterbildungen lassen sich, sofern sinnvoll, beliebig miteinander kombinieren. Weitere mögliche Ausgestaltungen, Weiterbildungen und Implementierungen der Erfindung umfassen auch nicht explizit genannte Kom- binationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmalen der Erfindung. Insbesondere wird dabei der Fachmann auch Einzelaspekte als Ver¬ besserungen oder Ergänzungen zu der jeweiligen Grundform der vorliegenden Erfindung hinzufügen.
Kurze Beschreibung der Zeichnungen
Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der Zeichnungen angegebenen Ausführungsbeispiele näher erläutert. Es zeigen dabei:
Fig. 1 ein Blockschaltbild einer Ausführungsform eines erfindungsgemäßen SensorSystems ;
Fig. 2 ein Ablaufdiagramm einer Ausführungsform eines erfindungsgemäßen Verfahrens;
Fig. 3 ein Blockschaltbild einer Ausführungsform eines erfindungsgemäßen Sensorsystems; und
Fig. 4 ein Blockschaltbild einer Ausführungsform eines erfindungsgemäßen Sensorsystems.
In allen Figuren sind gleiche bzw. funktionsgleiche Elemente und Vorrichtungen - sofern nichts Anderes angegeben ist - mit denselben Bezugszeichen versehen worden.
Ausführungsformen der Erfindung
Fig. 1 zeigt ein Blockschaltbild einer Ausführungsform eines erfindungsgemäßen Sensorsystems 1-1. Das Sensorsystem 1-1 der Fig. 1 weist eine Steuereinrichtung 6-1 auf, die mit einer Sensoreinrichtung 3-1 und mit einer Sensoreinrichtung 3-n gekoppelt ist. Weitere mögliche Sensor¬ einrichtungen sind durch drei Punkte zwischen der Sensoreinrichtung 3-1 und der Sensoreinrichtung 3-n angedeutet.
Die Sensoreinrichtungen 3-1, 3-n erfassen die Umgebung z.B. eines Fahrzeugs 2 (siehe Fig. 3), in welchem das Sensorsystem 1-1 angeordnet sein kann. Dabei kann in einer Ausführungsform jede der Sensoreinrichtungen 3-1, 3-n z.B. einen Ausschnitt der Umgebung erfassen.
Die Sensoreinrichtungen 3-1, 3-n können jede Art von Sensoreinrichtungen 3-1, 3-n sein, welche zum Erfassen einer Umgebung eines Fahrzeugs 2 eingesetzt werden können. Beispiels¬ weise kann eine der Sensoreinrichtungen 3-1, 3-n z.B. ein Radarsensor, eine Kamera, ein Ultraschallsensor oder dergleichen sein.
Die Sensoreinrichtungen 3-1, 3-n sind ausgebildet, aus den Rohdaten 4-1, 4-n, welche die Messelemente (siehe Fig. 4) der Sensoreinrichtungen 3-1, 3-n erfassen, Belegungsgitter 5-1 - 5-n, auch Occupancy-Grid genannt, zu berechnen und an die Steuereinrichtung 6-1 auszugeben. Dazu weisen die Sensoreinrichtungen 3-1, 3-n jeweils eine Recheneinrichtung 15-1, 15-n auf, welche die notwendigen Berechnungen durchführt.
Dabei kann die Recheneinrichtung 15-1, 15-n jeweils dement¬ sprechend dimensioniert sein, dass diese lediglich die not¬ wendigen Berechnungen für die Berechnung des entsprechenden Belegungsgitters 5-1 - 5-n durchführen kann. Beispielsweise kann die Menge an Arbeitsspeicher oder die Prozessorleistung in der Recheneinrichtung 15-1, 15-n entsprechend gering dimensioniert werden, sodass keine weiterführenden Berechnungen in der Recheneinrichtung 15-1, 15-n durchgeführt werden können . In einer Ausführungsform können die Sensoreinrichtungen 3-1, 3-n bzw. die Recheneinrichtungen 15-1, 15-n ausgebildet sein, die Belegungsgitter 5-1, 5-n in Blöcken bzw. blockweise zu berechnen und an die Steuereinrichtung 6-1 zu übertragen. Dabei kann ein Block in einer Ausführungsform den gesamten durch die jeweilige Sensoreinrichtung 3-1, 3-n erfassten Umgebungsbereich beinhalten. In einer weiteren Ausführungsform kann ein Block lediglich einen Ausschnitt des durch die jeweilige Sensoreinrichtung 3-1, 3-n erfassten Umgebungsbe¬ reichs beinhalten. In solch einer Ausführungsform überträgt die jeweilige Sensoreinrichtung 3-1, 3-n eine Sequenz von Blöcken, um ein Belegungsgitter 5-1, 5-n für den gesamten erfassten Umgebungsbereich zu übertragen.
Die Steuereinrichtung 6-1 ist ausgebildet, aus den Belegungs¬ gittern 5-1, 5-n jeweils ein fusioniertes Belegungsgitter 7-1 - 7-n zu berechnen, welches eine Fusion der zu einem Zeitpunkt erfassten Belegungsgitter 5-1, 5-n darstellt. Die fusi¬ onierten Belegungsgitter 7-1 - 7-n weisen also, wie die Belegungsgitter 5-1, 5-n, keine zeitabhängigen Informationen auf.
Aus mindestens zwei der fusionierten Belegungsgitter 7-1 - 7- n berechnet die Steuereinrichtung 6-1 ein akkumuliertes Bele¬ gungsgitter 8, welches die Veränderung der einzelnen fusionierten Belegungsgitter 7-1 - 7-n über die Zeit berücksichtigt .
In einer Ausführungsform kann eine der Sensoreinrichtungen 3- 1, 3-n z.B. eine Kamera sein, welche mit einer einzelnen Aufnahme lediglich die Position von Objekten 9-1 - 9-n bestimmen kann, aber keine Geschwindigkeit. Eine weitere der Sensorein¬ richtungen 3-1, 3-n kann z.B. ein Radarsensor sein, welcher mit einer einzelnen Aufnahme sowohl die Position als auch die Geschwindigkeit des jeweiligen Objekts 9-1 - 9-n bestimmen kann. Eine solche Sensoreinrichtung 3-1 - 3-n übermittelt an die Steuereinrichtung 6-1 ein Belegungsgitter 5-1, 5-n, welches zwei Schichten oder Layer aufweist. In einer ersten Schicht wird die Position des jeweiligen Objekts 9-1 - 9-n dargestellt, während die zweite Schicht die Geschwindigkeit bzw. Relativgeschwindigkeit des Objekts 9-1 - 9-n darstellt. Durch die Schicht mit Geschwindigkeitsinformationen kann die Detektion und das Tracking bewegter Objekte 9-1 - 9-n verbessert werden.
Beispielsweise stellt eine Stereokamera eine sehr hochaufge¬ löste 3D-Messung des Umfelds zu Verfügung, kann jedoch im Gegensatz zu einem Radar Geschwindigkeiten nicht direkt messen, sondern muss dies durch diverse Algorithmen, die aufeinanderfolgende Bilder vergleichen ermitteln. Dadurch geht der Stereokamera wertvolle Reaktionszeit verloren, da sie mehrere Zyklen benötigt, um zu ermitteln, dass sich ein Objekt bewegt .
Werden erfindungsgemäß alle Belegungsgitter 5-1, 5-n auf der zentralen Steuereinrichtung übereinander gelegt, kann somit direkt die Geschwindigkeitsinformationen des Radars mit den Messungen der Stereokamera verknüpft werden.
Somit können die Informationen beider Sensoreinrichtungen 3- 1, 3-n direkt genutzt werden. Es muss nicht jede der Sensor¬ einrichtungen 3-1, 3-n erst separat versuchen nicht vorhande¬ ne Daten zu berechnen. Vielmehr wird erfindungsgemäß direkt auf die sofort verfügbaren Informationen beider Sensoreinrichtungen 3-1, 3-n zugegriffen. Beispielsweise wird weder eine Geschwindigkeit über die Kamera ermitteln noch über den Radar auf die Breite von verschiedenen Hindernissen geschlossen. Vielmehr werden diese Daten jeweils aus dem dazu am besten geeigneten Bewegungsgitter 5-1, 5-n berechnet bzw. aus einer Fusion der Bewegungsgitter 5-1, 5-n berechnet.
Beispielsweise wird die Geschwindigkeit eines Objekts von ei¬ nem Radar ermittelt. Folglich müssen auf einer Kamera, z.B. einer Stereokamera, nicht mehr mehrere Bilder von unter¬ schiedlichen Zeitpunkten gespeichert werden. Dies führt zu einer enormen Einsparung von Speicher und Rechenkapazität auf der Stereokamera. Dadurch kann diese kleiner und mit geringe¬ rem Kühlbedarf produziert werden. Auch der sehr aufwendige Optische Fluss muss nicht mehr auf der Kamera berechnet wer¬ den. Alternativ kann der optische Fluss auf der als Kamera ausgebildeten Sensoreinrichtung 3-1, 3-n aber weiterhin berechnet werden und somit ein Abgleich zwischen der von der als Kamera ausgebildeten Sensoreinrichtung 3-1, 3-n erfassten Geschwindigkeit und der von der als Radar ausgebildeten Sensoreinrichtung 3-1, 3-n erfassten Geschwindigkeit durchge¬ führt werden.
Die vorliegende Erfindung ermöglicht es folglich, die Hard¬ ware-Ausstattung der beteiligten Sensoreinrichtungen 3-1, 3-n stark zu reduzieren, sowie eine fusionierte Information mehrerer Sensoren, die eine höhere Qualität der Daten gegenüber einem einzelnen Sensor aufweist, zu einem früheren Zeitpunkt auszugeben (z.B. kann ein fusioniertes Radar-Kamera-Objekt mit guten Geschwindigkeits- und Breitendaten bereits nach ei¬ nem Zyklus verfügbar sein) .
Zwischen den Sensoreinrichtungen 3-1, 3-n und der Steuereinrichtung 6-1 wird in einer Ausführungsform eine sensorunabhängige Kommunikationsschnittstelle 11 (siehe Fig. 4) einge¬ setzt, so dass eine einfache Erweiterung um zukünftige Sen¬ soreinrichtungen möglich ist.
Zudem ermöglicht die Kommunikationsschnittstelle 11 eine hohe Datenkompression mit effizienten Verfahren, was eine Datenübertragung mit geringer Übertragungskapazität verglichen mit einer Rohdatenübertragung ermöglicht.
Fig. 2 zeigt ein Ablaufdiagramm einer Ausführungsform eines erfindungsgemäßen Verfahrens zum Erkennen einer Umgebung eines Fahrzeugs 2. Das Verfahren sieht das Erfassen, Sl, von Rohdaten 4-1 - 4-n zu einer Umgebung des Fahrzeugs 2 und Berechnen für jeden Erfassungszeitpunkt zumindest eines Belegungsgitters 5-1 - 5-n aus den erfassten Rohdaten 4-1 - 4-n in einer Vielzahl von Sensoreinrichtungen 3-1 - 3-n vor. Ferner sieht das Verfahren das Berechnen S2 eines fusionierten Belegungsgitters 7-1 - 7- n basierend auf den einzelnen Belegungsgittern 5-1 - 5-n der Sensoreinrichtungen 3-1 - 3-n in einer Steuereinrichtung 6-1 - 6-n vor. Die für unterschiedliche Erfassungszeitpunkte be¬ rechneten fusionierten Belegungsgitter 7-1 - 7-n werden in einem akkumulierten Belegungsgitter 8 zeitlich akkumuliert, S3, und das akkumulierte Belegungsgitter 8 ausgegeben, S4.
In einer Ausführungsform kann erfindungsgemäß nicht nur die Belegung der Umgebung des Fahrzeugs 2 in einem akkumulierten Belegungsgitter 8 ausgegeben werden. Vielmehr kann auch ein Erkennen bewegter Objekte 9-1 - 9-n durch die Steuereinrichtung 6-1 - 6-n basierend auf den einzelnen Belegungsgittern 5-1 - 5-n der Sensoreinrichtungen 3-1 - 3-n und/oder den fusionierten Belegungsgittern 7-1 - 7-n und/oder dem akkumulierten Belegungsgitter 8 durchgeführt werden. Die so gewonnenen Erkenntnisse über die bewegten Objekte 9-1 - 9-n kann die Steuereinrichtung 6-1 - 6-n zum Entfernen der erkannten bewegten Objekte 9-1 - 9-n aus den einzelnen Belegungsgittern 5-1 - 5-n der Sensoreinrichtungen 3-1 - 3-n und/oder den fusionierten Belegungsgittern 7-1 - 7-n und/oder dem akkumulierten Belegungsgitter 8 nutzen. Ferner kann eine Objektliste 10 der erkannten bewegten Objekte 9-1 - 9-n ausgegeben werden .
In einer Ausführungsform können die Rohdaten 4-1 - 4-n von den Sensoreinrichtungen 3-1 - 3-n an die Steuereinrichtung 6- 1 - 6-n übertragen werden, wodurch beim Erkennen der Objekte 9-1 - 9-n auch auf die Rohdaten 4-1 - 4-n zurückgegriffen werden kann. Dies kann auch in komprimierter Form stattfinden . In einer Ausführungsform können die Belegungsgitter für diejenigen Sensoreinrichtungen 3-1 - 3-n, welche ausgebildet sind, sowohl eine Belegungswahrscheinlichkeit für einzelne Punkte der Umgebung des Fahrzeugs 2 zu berechnen, als auch eine Relativgeschwindigkeit für Objekte 9-1 - 9-n in der Um¬ gebung des Fahrzeugs 2 zu berechnen, zwei Schichten aufweisen, die die berechneten Belegungswahrscheinlichkeiten und die berechneten Relativgeschwindigkeiten angeben.
In einer Ausführungsform können Fehler einzelner Sensoreinrichtungen 3-1 - 3-n durch die Steuereinrichtung 6-1 - 6-n basierend auf den einzelnen Belegungsgittern 5-1 - 5-n der jeweiligen Sensoreinrichtung 3-1 - 3-n und den fusionierten Belegungsgittern 7-1 - 7-n und/oder dem akkumulierten Belegungsgitter 8 erkannt werden. Dies kann in einer Ausführungsform durch das Berechnen eines Maßes für die Abweichung der einzelnen Belegungsgitter 5-1 - 5-n der jeweiligen Sensoreinrichtungen 3-1 - 3-n von den fusionierten Belegungsgittern 7- 1 - 7-n und/oder dem akkumulierten Belegungsgitter 8 und Erkennen eines Fehlers für die jeweilige Sensoreinrichtung 3-1 - 3-n erfolgen, wenn das Maß für die Abweichung einen vorgegebenen Schwellwert überschreitet.
Fig. 3 zeigt ein Blockschaltbild einer Ausführungsform eines erfindungsgemäßen Sensorsystems 1-2 in einem Fahrzeug 2.
Das Sensorsystem 1-2 der Fig. 3 basiert auf dem Sensorsystems 1-1 der Fig. 1 und ist in einem Fahrzeug 2 angeordnet. Ferner weist das Sensorsystem 1-2 sechs Sensoreinrichtungen 3-3 - 3- 8 auf. Die Sensoreinrichtungen 3-3 und 3-4 sind dabei als ra¬ darbasierte Sensoreinrichtungen 3-3, 3-4 ausgebildet, welche an der Front des Fahrzeugs 2 angeordnet sind. Die Sensorein¬ richtungen 3-5 - 3-8 sind jeweils als Kameras ein Top-View Systems ausgebildet und jeweils an einer der vier Seiten des Fahrzeugs 2 angeordnet. Abweichende Anordnungen und Ausfüh¬ rungen der Sensoreinrichtungen 3-3 - 3-8 sind möglich. Wie bereits zu Fig. 1 dargestellt, übermitteln die einzelnen Sensoreinrichtungen 3-3 - 3-8 Belegungsgitter 5-3 - 5-8 an die Steuereinrichtung 6-2. Dies kann in einer Ausführungsform blockweise erfolgen.
In der Steuereinrichtung 6-2 werden die Belegungsgitter 5-3 - 5-8 zu einem fusionierten Belegungsgittern 7-3 verknüpft. In Fig. 3 ist der Übersicht halber lediglich ein fusioniertes Belegungsgitter 7-3 dargestellt. Es versteht sich, dass zyk¬ lisch fusionierte Belegungsgitter 7-3 basierend auf den je¬ weils aktuellen Belegungsgittern 5-3 - 5-8 erzeugt werden. Aus den fusionierten Belegungsgittern 7-3 wird das akkumulierte Bewegungsgitter 8 berechnet.
Die Steuereinrichtung 6-2 der Fig. 3 ist ferner ausgebildet, basierend auf den Belegungsgittern 5-3 - 5-8, den fusionierten Belegungsgittern 7-3 und dem akkumulierten Bewegungsgitter 8 bewegte Objekte 9-1 - 9-n zu erkennen, welche in Fig. 3 lediglich schematisch vor dem Fahrzeug 2 dargestellt sind. Die Steuereinrichtung 6-2 gibt basierend auf den erkannten bewegten Objekten 9-1 - 9-n eine Objektliste 10 aus, welche gemeinsam mit dem akkumulierten Bewegungsgitter 8 von einer weiteren Fahrzeugfunktion 12 genutzt werden kann, um das Fahrzeug zu steuern.
Eine Objektliste 10 weist dabei detaillierte Informationen, wie z.B. Position, Geschwindigkeit, Größe und dergleichen der erkannten Objekte 9-1 - 9-n auf.
Fig. 4 zeigt ein Blockschaltbild einer Ausführungsform eines erfindungsgemäßen Sensorsystems 1-3.
Das Sensorsystem 1-3 der Fig. 4 basiert ebenfalls auf dem Sensorsystem 1-1 der Fig. 1. Die Sensoreinrichtungen 3-9 und 3-10 des Sensorsystems 1-3 weisen jeweils ein Messelement 13- 1 und 13-2, eine Recheneinrichtung 15-9, 15-10 und eine Kompressionseinrichtung 16-1, 16-2 auf. Die Messelemente 13-1 und 13-2 dienen jeweils der Erfassung der Umgebung des Fahrzeugs 2. Beispielsweise können die Mess¬ elemente 13-1 und 13-2 als Kamera, Radar, Ultraschallsensor, Infrarotsensor oder dergleichen ausgebildet sein. Die Messelemente 13-1 und 13-2 stellen die Rohdaten 4-9, 4-10 der je¬ weiligen Messung der Recheneinrichtung 15-9, 15-10 bereit, welche aus diesen ein Belegungsgitter 5-9, 5-10 berechnet. Das Belegungsgitter 5-9, 5-10 kann je nach Art des Messele¬ ments 13-1 und 13-2 in dem Belegungsgitter 5-9, 5-10 berechnete Belegungswahrscheinlichkeiten und/oder berechnete Relativgeschwindigkeiten von Objekten 9-1 - 9-n ausgeben.
Die Kompressionseinrichtung 16-1, 16-2 komprimiert die Daten des Belegungsgitters 5-9, 5-10 für eine effiziente Übertra¬ gung der Daten über die Kommunikationsschnittstelle 11 zu der Steuereinrichtung 6-3.
Die Berechnung und Komprimierung des Belegungsgitters 5-9, 5- 10 kann dabei, wie oben bereits dargestellt, in einer Ausfüh¬ rungsform blockweise durchgeführt werden.
Da die Belegungsgitter 5-1, 5-n auch bewegte Objekte 9-1 - 9- n enthalten können, entstehen in den fusionierten Belegungsgittern 7-4 und dem fusionierten akkumuliertes Belegungsgit¬ ter 8 Artefakte durch bewegte Objekte 9-1 - 9-n. Diese Arte¬ fakte haben typische Eigenschaften und können daher erkannt und beseitigt werden.
Daher sieht die vorliegende Erfindung in der Steuereinrichtung vor, dass bewegte Objekte in den fusionierten Belegungs¬ gittern 7-4 bzw. dem akkumulierten Bewegungsgitter 8 durch einen Objektdetektor 18 und einen Objektverfolger 19 erkannt und verfolgt werden. Dies kann dazu genutzt werden, die er¬ kannten Objekte aus dem akkumulierten Bewegungsgitter 8 zu entfernen, bevor dieses ausgegeben wird. Folglich werden von der Steuereinrichtung eine Objektliste 10 und ein statisches akkumuliertes Belegungsgitter 8 erhalten.
Die Steuereinrichtung 6-3 der Fig. 4 ist ferner ausgebildet für die einzelnen Belegungsgitter 5-9, 5-10 jeweils ein Maß für die Abweichung eines jeweiligen Belegungsgitters 5-9, 5- 10 von dem fusionierten Belegungsgitter 7-4 bzw. dem akkumulierten Bewegungsgitter 8 zu berechnen und ein Fehlersignal auszugeben, wenn das Maß über einem vorgegebenen Schwellwert liegt .
Obwohl die vorliegende Erfindung anhand bevorzugter Ausführungsbeispiele vorstehend beschrieben wurde, ist sie darauf nicht beschränkt, sondern auf vielfältige Art und Weise modi¬ fizierbar. Insbesondere lässt sich die Erfindung in mannigfaltiger Weise verändern oder modifizieren, ohne vom Kern der Erfindung abzuweichen.
Die Steuereinrichtung 6-1 - 6-3 kann z.B. als ein Steuergerät in einem Fahrzeug 2 ausgebildet sein, welches mit den einzel¬ nen Sensoreinrichtungen 3-1 - 3-n über einen Fahrzeugbus, z.B. einen FlexRay-Bus oder einen CAN-Bus, oder ein Netzwerk, wie z.B. ein Ethernetnetzwerk oder dergleichen, gekoppelt ist .
Durch Verlagerung des gesamten Umfeldmodells in eine zentrale Steuereinrichtung 6-1 - 6-3 und die Verwendung einer sensorunabhängigen und effizienten Kommunikationsschnittstelle 11 zu diesem lassen sich kostengünstige Sensoreinrichtungen 3-1 - 3-n mit stark reduzierter Hardware für eine 360°- Überwachung des Fahrzeugs 2 verwenden. Das Packaging der Sensoreinrichtungen 3-1 - 3-n innerhalb der Fahrzeugarchitektur wird vereinfacht und die momentan hohen Anforderung an die Kühlung, insbesondere bei Kameras, sinken, da die Rechenleis¬ tung nun nicht mehr innerhalb des Fahrrerraums sitzen muss. Ferner wird es auch kleineren Sensoren, z.B. Ultraschallsensoren, ShortRange-Radarsensoren oder dergleichen, möglich ihre Daten in ein Belegungsgitter bzw. ein statisches
Umfeldmodell für das Fahrzeug 2 einfließen zu lassen. Der bisherige Ansatz sah die Gittererstellung als hardwareintensiven Zusatz innerhalb des Sensor-Umfeldmodells, was dazu führte das er, wenn überhaupt, nur in den leistungsstarken Sensoren (Front Radar / Front Stereokamera) zum Einsatz kam. Dadurch werden aber im Besonderen die Informationen sogenannter Surround Sensoren, wie Video- und Radarsensoren, nicht genutzt. Diese sind jedoch besonders in Hinsicht auf die Lo¬ kalisierung des Fahrzeugs 2 und das hochautomatisierte Fahren nützlich .
Bezugs zeichen
1-1 - 1-3 Sensorsystem
2 Fahrzeug
3-1 - 3-n Sensoreinrichtungen
4-1 - 4-2 Rohdaten
5-1 - 5-n Belegungsgitter
6-1 - 6-3 Steuereinrichtung
7-1 - 7-n fusioniertes Belegungsgitter
8 akkumuliertes Belegungsgitter
9-1 - 9-n bewegte Objekte
10 Obj ektliste
11 Kommunikationsschnittstelle
12 Fahrzeugfunktion
13-1, 13-2 Messelement
15-1 - 15-n Recheneinrichtung
16-1, 16-2 Kompressionseinrichtung
17 Maß
18 Obj ektdetektor
19 Obj ektVerfolger
20 Fehlersignal

Claims

Ansprüche
1. Sensorsystem (1-1 - 1-3) für ein Fahrzeug (2), mit: einer Vielzahl von Sensoreinrichtungen (3-1 - 3-n) , welche ausgebildet sind, Rohdaten (4-1 - 4-n) zu einer Umgebung des Fahrzeugs (2) zu erfassen und für jeden Erfassungszeitpunkt zumindest ein Belegungsgitter (5-1 - 5-n) aus den erfassten Rohdaten (4-1 - 4-n) zu berechnen und auszugeben; mit einer Steuereinrichtung (6-1 - 6-n) , welche ausgebildet ist, basierend auf den einzelnen Belegungsgittern (5-1 - 5-n) der Sensoreinrichtungen (3-1 - 3-n) ein fusioniertes Belegungsgitter (7-1 - 7-n) zu berechnen und die für unterschiedliche Erfassungszeitpunkte berechneten fusionierten Bele¬ gungsgitter (7-1 - 7-n) zeitlich zu akkumulieren und ein akkumuliertes Belegungsgitter (8) auszugeben.
2. Sensorsystem nach Anspruch 1, wobei die Steuereinrichtung (6-1 - 6-n) ausgebildet ist, ba¬ sierend auf den einzelnen Belegungsgittern (5-1 - 5-n) der Sensoreinrichtungen (3-1 - 3-n) und/oder den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8) eine Erkennung bewegter Objekte (9-1 - 9-n) durchzuführen und die erkannten bewegten Objekte (9-1 - 9-n) aus den einzelnen Belegungsgittern (5-1 - 5-n) der Sensoreinrichtungen (3-1 - 3-n) und/oder den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8) zu entfernen, wobei die Steuereinrichtung (6-1 - 6-n) insbesondere ausge¬ bildet ist, eine Objektliste (10) der erkannten bewegten Ob¬ jekte (9-1 - 9-n) auszugeben.
3. Sensorsystem nach einem der Ansprüche 1 und 2, wobei die Sensoreinrichtungen (3-1 - 3-n) ausgebildet sind, die Rohdaten (4-1 - 4-n) an die Steuereinrichtung (6-1 - 6-n) zu übertragen.
4. Sensorsystem nach den Ansprüche 2 und 3, wobei die Steuereinrichtung (6-1 - 6-n) ausgebildet ist, die Objekte (9-1 - 9-n) ferner basierend auf den Rohdaten (4-1 - 4-n) zu erkennen und/oder die Rohdaten (4-1 - 4-n) auszugeben .
5. Sensorsystem nach einem der Ansprüche 1 bis 4, wobei die Sensoreinrichtungen (3-1 - 3-n) ausgebildet sind, die berechneten Belegungsgitter (5-1 - 5-n) zu komprimieren und über eine Kommunikationsschnittstelle (11) an die Steuer¬ einrichtung (6-1 - 6-n) zu übertragen; wobei die Kommunikationsschnittstelle (11) insbesondere als digitaler Datenbus ausgebildet ist und/oder wobei die Kommu¬ nikationsschnittstelle (11) unabhängig von der jeweiligen Sensoreinrichtung (3-1 - 3-n) ist.
6. Sensorsystem nach einem der Ansprüche 1 bis 5, wobei Sensoreinrichtungen (3-1 - 3-n) , welche ausgebildet sind, lediglich eine Belegungswahrscheinlichkeit für einzelne Punkte der Umgebung des Fahrzeugs (2) zu berechnen, ausgebil¬ det sind, in dem Belegungsgitter (5-1 - 5-n) die berechneten Belegungswahrscheinlichkeiten anzugeben; und/oder wobei Sensoreinrichtungen (3-1 - 3-n) , welche ausgebildet sind, eine Belegungswahrscheinlichkeit für einzelne Punkte der Umgebung des Fahrzeugs (2) zu berechnen und eine Relativgeschwindigkeit für Objekte (9-1 - 9-n) in der Umgebung des Fahrzeugs (2) zu berechnen, ausgebildet sind, in dem Bele¬ gungsgitter (5-1 - 5-n) die berechneten Belegungswahrschein- lichkeiten und die berechneten Relativgeschwindigkeiten anzugeben .
7. Sensorsystem nach einem der Ansprüche 1 bis 6, wobei die Steuereinrichtung (6-1 - 6-n) ausgebildet ist, eine Fehlererkennung für einzelne Sensoreinrichtungen (3-1 - 3-n) basierend auf den einzelnen Belegungsgittern (5-1 - 5-n) der jeweiligen Sensoreinrichtung (3-1 - 3-n) und den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8) durchzuführen.
8. Sensorsystem nach Anspruch 7, wobei die Steuereinrichtung (6-1 - 6-n) ausgebildet ist, ein Maß für die Abweichung der einzelnen Belegungsgitter (5-1 - 5-n) der jeweiligen Sensoreinrichtung (3-1 - 3-n) von den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8) zu berechnen und einen Fehler für die jeweilige Sensoreinrichtung (3-1 - 3-n) anzuzeigen, wenn das Maß für die Abweichung einen vorgegebenen Schwellwert überschreitet .
9. Verfahren zum Erkennen einer Umgebung eines Fahrzeugs (2) , aufweisend:
Erfassen (Sl) von Rohdaten (4-1 - 4-n) zu einer Umgebung des Fahrzeugs (2) und Berechnen für jeden Erfassungszeitpunkt zu¬ mindest eines Belegungsgitters (5-1 - 5-n) aus den erfassten Rohdaten (4-1 - 4-n) in einer Vielzahl von Sensoreinrichtungen (3-1 - 3-n) ;
Berechnen (S2) eines fusionierten Belegungsgitters (7-1 - 7- n) basierend auf den einzelnen Belegungsgittern (5-1 - 5-n) der Sensoreinrichtungen (3-1 - 3-n) in einer Steuereinrichtung (6-1 - 6-n) ; zeitlich Akkumulieren (S3) der für unterschiedliche Erfas¬ sungszeitpunkte berechneten fusionierten Belegungsgitter (7-1 - 7-n) in einem akkumulierten Belegungsgitter (8); und
Ausgeben (S4) des akkumulierten Belegungsgitters (8).
10. Verfahren nach Anspruch 9, aufweisend:
Erkennen bewegter Objekte (9-1 - 9-n) durch die Steuereinrichtung (6-1 - 6-n) basierend auf den einzelnen Belegungs¬ gittern (5-1 - 5-n) der Sensoreinrichtungen (3-1 - 3-n) und/oder den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8); und
Entfernen durch die Steuereinrichtung (6-1 - 6-n) der erkannten bewegten Objekte (9-1 - 9-n) aus den einzelnen Belegungsgittern (5-1 - 5-n) der Sensoreinrichtungen (3-1 - 3-n) und/oder den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8); und
Ausgeben einer Objektliste (10) der erkannten bewegten Objekte (9-1 - 9-n) .
11. Verfahren nach einem der Ansprüche 9 und 10, aufweisend
Übertragen der Rohdaten (4-1 - 4-n) von den Sensoreinrichtungen (3-1 - 3-n) an die Steuereinrichtung (6-1 - 6-n); und
Erkennen der Objekte (9-1 - 9-n) basierend auf den Rohdaten (4-1 - 4-n) .
12. Verfahren nach einem der Ansprüche 9 bis 11, wobei Sensoreinrichtungen (3-1 - 3-n) , welche ausgebildet sind, lediglich eine Belegungswahrscheinlichkeit für einzelne Punkte der Umgebung des Fahrzeugs (2) zu berechnen, in dem Belegungsgitter (5-1 - 5-n) die berechneten Belegungswahrscheinlichkeiten angeben; und/oder wobei Sensoreinrichtungen (3-1 - 3-n) , welche ausgebildet sind, eine Belegungswahrscheinlichkeit für einzelne Punkte der Umgebung des Fahrzeugs (2) zu berechnen und eine Relativgeschwindigkeit für Objekte (9-1 - 9-n) in der Umgebung des Fahrzeugs (2) zu berechnen, in dem Belegungsgitter (5-1 - 5- n) die berechneten Belegungswahrscheinlichkeiten und die berechneten Relativgeschwindigkeiten angeben.
13. Verfahren nach einem der Ansprüche 9 bis 14, aufweisend
Erkennen von Fehlern einzelner Sensoreinrichtungen (3-1 - 3- n) durch die Steuereinrichtung (6-1 - 6-n) basierend auf den einzelnen Belegungsgittern (5-1 - 5-n) der jeweiligen Sensoreinrichtung (3-1 - 3-n) und den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8) .
14. Verfahren nach Anspruch 13, wobei beim Erkennen von Fehlern ein Maß für die Abweichung der einzelnen Belegungsgitter (5-1 - 5-n) der jeweiligen Sensoreinrichtung (3-1 - 3-n) von den fusionierten Belegungsgittern (7-1 - 7-n) und/oder dem akkumulierten Belegungsgitter (8) berechnet wird und ein Fehler für die jeweilige Sensor¬ einrichtung (3-1 - 3-n) erkannt wird, wenn das Maß für die Abweichung einen vorgegebenen Schwellwert überschreitet.
PCT/DE2016/200056 2015-02-02 2016-01-28 Sensorsystem für ein fahrzeug und verfahren WO2016124189A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112016000567.9T DE112016000567A5 (de) 2015-02-02 2016-01-28 Sensorsystem für ein fahrzeug und verfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015201747.8A DE102015201747A1 (de) 2015-02-02 2015-02-02 Sensorsystem für ein fahrzeug und verfahren
DE102015201747.8 2015-02-02

Publications (1)

Publication Number Publication Date
WO2016124189A1 true WO2016124189A1 (de) 2016-08-11

Family

ID=55587985

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2016/200056 WO2016124189A1 (de) 2015-02-02 2016-01-28 Sensorsystem für ein fahrzeug und verfahren

Country Status (2)

Country Link
DE (2) DE102015201747A1 (de)
WO (1) WO2016124189A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110481559A (zh) * 2018-05-15 2019-11-22 通用汽车环球科技运作有限责任公司 用于3d传感器的有效体积积分的方法
CN111201448A (zh) * 2017-10-10 2020-05-26 罗伯特·博世有限公司 用于产生反演传感器模型的方法和设备以及用于识别障碍物的方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180113209A1 (en) * 2016-10-21 2018-04-26 Waymo Llc Radar generated occupancy grid for autonomous vehicle perception and planning
US20180203100A1 (en) * 2017-01-19 2018-07-19 Honeywell International Inc. Quality metric for ranging sensor in a degraded visual environment for a situational awareness system
DE102017101476B3 (de) 2017-01-26 2018-03-22 Valeo Schalter Und Sensoren Gmbh Lokalisieren eines Objekts in einer Umgebung eines Kraftfahrzeugs durch ein Ultraschallsensorsystem
DE102017214657B3 (de) 2017-08-22 2018-11-22 Audi Ag Verfahren zur Auswertung von Radardaten und Kraftfahrzeug
EP3527332A1 (de) * 2018-02-20 2019-08-21 Sick AG Sichere sensorvorrichtung und verfahren zur absicherung einer beweglichen maschine
JP2019159380A (ja) 2018-03-07 2019-09-19 株式会社デンソー 物体検知装置、物体検知方法およびプログラム
DE102018217128A1 (de) * 2018-10-08 2020-04-09 Robert Bosch Gmbh Verfahren zur Erkennung von Entitäten
DE102018219773B4 (de) 2018-11-19 2021-08-12 Audi Ag Verfahren zum Kartographieren einer örtlichen Verteilung von Ereignissen eines vorbestimmten Ereignistyps in einem vorbestimmten Umgebungsbereich eines Kraftfahrzeugs sowie dazu ausgelegtes Steuergerät und Kraftfahrzeug
DE102019212022B4 (de) * 2019-08-09 2021-03-04 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102019212021B4 (de) 2019-08-09 2024-02-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102021113651B3 (de) 2021-05-27 2022-08-04 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr System zur Sensordatenfusion für die Umgebungswahrnehmung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1672390A1 (de) * 2004-12-15 2006-06-21 Deere & Company Verfahren und System zur Objekterkennung mittels zusammengesetztem Beweisraster (Evidence-Grid)
EP1742083A1 (de) * 2005-06-22 2007-01-10 Deere & Company Verfahren und System zur Sensorsignalfusion
WO2010127650A1 (de) * 2009-05-06 2010-11-11 Conti Temic Microelectronic Gmbh Verfahren zur auswertung von sensordaten für ein kraftfahrzeug
DE102010006828A1 (de) * 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
EP2594446A2 (de) * 2011-11-15 2013-05-22 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011113016A1 (de) * 2011-09-09 2012-03-29 Daimler Ag Verfahren zur Umgebungsrepräsentation eines Fahrzeugs
WO2013060323A1 (de) * 2011-10-28 2013-05-02 Conti Temic Microelectronic Gmbh Gitterbasiertes umfeldmodell für ein fahrzeug
DE102012106932A1 (de) * 2012-07-30 2014-05-15 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung mit Positionspunkten

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1672390A1 (de) * 2004-12-15 2006-06-21 Deere & Company Verfahren und System zur Objekterkennung mittels zusammengesetztem Beweisraster (Evidence-Grid)
EP1742083A1 (de) * 2005-06-22 2007-01-10 Deere & Company Verfahren und System zur Sensorsignalfusion
WO2010127650A1 (de) * 2009-05-06 2010-11-11 Conti Temic Microelectronic Gmbh Verfahren zur auswertung von sensordaten für ein kraftfahrzeug
DE102010006828A1 (de) * 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
EP2594446A2 (de) * 2011-11-15 2013-05-22 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111201448A (zh) * 2017-10-10 2020-05-26 罗伯特·博世有限公司 用于产生反演传感器模型的方法和设备以及用于识别障碍物的方法
CN111201448B (zh) * 2017-10-10 2024-03-15 罗伯特·博世有限公司 用于产生反演传感器模型的方法和设备以及用于识别障碍物的方法
CN110481559A (zh) * 2018-05-15 2019-11-22 通用汽车环球科技运作有限责任公司 用于3d传感器的有效体积积分的方法

Also Published As

Publication number Publication date
DE102015201747A1 (de) 2016-08-04
DE112016000567A5 (de) 2017-11-02

Similar Documents

Publication Publication Date Title
WO2016124189A1 (de) Sensorsystem für ein fahrzeug und verfahren
EP2757346B1 (de) Verfahren zum Messen eines Höhenprofils eines auf einer Straße passierenden Fahrzeugs
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE102017203838A1 (de) Verfahren und System zur Umfelderfassung
DE112018001569T5 (de) Informationsverarbeitungsgerät und Informationsverarbeitungssystem
DE102012216386A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102016208056A1 (de) Verfahren und Vorrichtung zur Verarbeitung von Bilddaten und Fahrerassistenzsystem für ein Fahrzeug
EP3142913A1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
DE102021102898A1 (de) Verbesserte objekterfassung mit clustering
DE102008063033A1 (de) Vorrichtung und Verfahren zur Erkennung von Kollisionen mit erhöhter funktionaler Sicherheit
DE102019213929A1 (de) Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern
EP2467826A1 (de) Verfahren und steuergerät zur bestimmung einer bewegungsinformation eines objekts
EP3739511A1 (de) Verfahren zum einbetten von lokalen sensordaten in eine karte
DE102017214293A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten von Daten in einem Kraftfahrzeug für einen Versand an ein Backend
WO2015051988A1 (de) Bestimmung einer kinematischen zustandsgrösse eines objekts
DE102018202571A1 (de) Verfahren und Vorrichtung zur Aufbereitung von Daten zweier Fahrzeugsensoren für ein autonomes Fahrzeug
DE102014206227A1 (de) Stereokamerasystem
DE102020200875A1 (de) Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs
DE102017100060A1 (de) Bestimmung von Bewegungsinformation mit Umgebungssensoren
EP2565580B1 (de) Verfahren zur Bestimmung eines Ausmaßes eines Objekts in einer Umgebung eines Fahrzeugs sowie eine entsprechende Vorrichtung und ein Fahrzeug mit einer derartigen Vorrichtung
DE102020119498A1 (de) Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs anhand von Messungen eines Lidar-Sensors sowie Recheneinrichtung
DE112018007442B4 (de) Datensynchronisationsvorrichtung, datensynchronisationsverfahren und datensynchronisationsprogramm
DE102020209987A1 (de) Vorrichtung und Verfahren zum Verarbeiten von Umfeldsensordaten
DE102019127322A1 (de) Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102018222518A1 (de) Kamerasystem mit hoher Updaterate

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16711125

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112016000567

Country of ref document: DE

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112016000567

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16711125

Country of ref document: EP

Kind code of ref document: A1